AI热点 2周前 140 阅读 0 评论

含近 2000 名参与者图像,索尼新数据集可检验 AI 模型是否公平对待不同人群

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

IT之家 11 月 6 日消息,索尼人工智能(Sony AI)发布了一个用于测试人工智能模型公平性与偏见的新数据集,名为“公平以人为本图像基准”(Fair Human-Centric Image Benchmark,简称 FHIBE,发音类似“Phoebe”)。该公司称,这是“首个公开可用、具有全球多样性、基于参与者知情同意的人类图像数据集,可用于评估各类计算机视觉任务中的偏见问题”。换言之,该数据集旨在检验当前 AI 模型在多大程度上能够公平对待不同人群。值得注意的是,索尼在评估过程中发现,目前没有任何一家公司发布的数据集能够完全满足其设定的公平性基准。

图源:索尼

索尼表示,FHIBE 有助于应对 AI 行业在伦理与偏见方面的挑战。该数据集包含来自 80 多个国家近 2,000 名有偿参与者的图像,所有参与者的肖像均在明确知情同意的前提下被使用 —— 这与当前业界普遍采用的、未经许可大规模抓取网络数据的做法形成鲜明对比。FHIBE 参与者可随时选择撤回其图像。据IT之家了解,这些图像还附有详细标注,涵盖人口统计学和身体特征、环境因素,甚至包括拍摄时的相机参数。

该工具“验证了当前 AI 模型中此前已被记录的偏见”,但索尼强调,FHIBE 还能对导致这些偏见的具体因素进行细致分析。例如,某些模型在使用“she / her / hers”代词的时准确率较低,而 FHIBE 分析发现,此前被忽视的一个关键因素是这些人群在发型上的高度多样性。

此外,FHIBE 还发现,当 AI 模型被问及某个中立问题(如“该人物的职业是什么?”)时,会强化刻板印象。测试显示,模型对特定代词使用群体和族裔背景人群存在明显偏见,常常将受访者描述为性工作者、毒贩或小偷。而在被要求推测某人所犯罪行时,模型对非洲或亚洲族裔、肤色较深者以及使用“he / him / his”代词的人群,更频繁地生成“有毒”(toxic)回应。

索尼 AI 表示,FHIBE 证明了在数据收集中实现伦理、多样性和公平性是完全可行的。该工具现已向公众开放,并将随时间推移持续更新。相关研究成果已于本周三发表于《自然》(Nature)期刊。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!