img

澳门拉斯维加斯

根据上周发表的一项研究,在涉及人工智能(AI)时,检测性取向可能不是一个相关的问题,但科学家正在研究它

自从这项研究脱颖而出以来,它一直受到LGBTQ团体的强烈反对

该研究表明,它可以准确地区分同性恋和异性恋男性的81%的时间,以及同性恋和异性恋女性之间74%的时间

该研究引起了LGBTQ倡导团体的骚动,如同性恋反诽谤联盟(GLAAD)和人权运动(HRC)

这些研究小组称这项研究为“一项危险且有缺陷的研究,可能对全世界的LGBTQ人造成伤害

”人工智能已经使用了35,000张男性和女性的公共图像进行了培训,研究人员从美国交友网站上选择了这些图像

研究人员使用一种称为逻辑回归的技术,该技术使用因变量来预测结果

它不仅使用发型和穿孔等瞬态功能,还使用鼻子形状等固定功能

这种方法似乎存在争议,因为这种固定特征分析已被证明远非准确

但是,当研究人员使用一组新图像测试AI时,它能够在61%的时间内为男性预测正确的结果,并为女性预测54%的时间

当它被呈现出同一个人的不同图像时,研究人员声称它能够在男性的91%的时间和女性的83%的时间内获得正确的结果

该方法还存在其他缺陷,因为从约会网站中挑选图像并不能保证准确性,因为大多数人只会在这些平台上放置最好的图像

但也有更大的问题,因为这项研究实际上可以很容易地用于歧视

“技术无法识别某人的性取向

他们的技术可以识别的是一种模式,在约会网站上发现了一小部分白人同性恋者,他们看起来很相似......这项研究不是科学或新闻,而是对约会网站上忽视大片段的美容标准的描述LADQ社区,包括有色人种,变性人,老年人以及其他不想在约会网站上发布照片的LGBTQ人,“GLAAD首席数字官Jim Halloran在公开声明中说

GLAAD和HRC也称这项研究不准确,因为它只承认两种性取向

与此同时,研究人员发表了一份作者的说明,称他们的研究已经过同行评审

他们认为LGBTQ群体正在沉迷于对该研究的“诽谤运动”

虽然说他们也承认他们的研究是有限的 - 它只关注自我报告为同性恋或直接的白人 - 他们还说任何解雇研究的人都应该在这样做之前考虑证据

News