我们在人工智能上的全球协议可以降低偏见和监控

[复制链接]
332|1
手机看帖
扫描二维码
随时随地手机跟帖
yuan001|  楼主 | 2021-11-27 11:09 | 显示全部楼层 |阅读模式
我们在人工智能上的全球协议可以降低偏见和监控
  新科学家     By Gabriela Ramos
26 November 2021
COMMENT
bi.PNG
一台闭路电视摄像机。NYstudio/Getty Images
人工智能比从来都更出现在我们的生活中:它预测我们想在电子邮件中说的、帮助我们从A到B导航并改善我们的天气预报。以前所未有的速度开发新冠肺炎疫苗部分的也能归因于人工智能算法的使用,该算法快速的处理了来自众多临床试验的数据,允许使世界各地的研究人员来实时比较笔记。
但这项技术并不总是有益的。用于建立人工智能的数据集往往不是人口多样性的代表,因此它能产生歧视性做法或偏见。一个例子是面部识别技术。这被用来访问我们的手机、银行账户和公寓楼,并越来越多的被警察部队使用。但它有准确识别女性和黑人的问题。对由主要科技公司发布的三个此类计划,对浅肤色男性的错误率仅为1%,但对深色皮肤男性的错误率为19%并对深色皮肤女性一个高达35%的错误率。人脸识别技术中的偏见已经导致了错误的逮捕。
当你观察人工智能被怎样开发时这毫不奇怪。全球每10名软件开发人员中只有1名是女性,在美国排名前75位的科技公司中,只有3%的员工身份是黑人。但现在有希望这个世界要放在一个更好的方法上。
    昨天在联合国教科文组织193个国家就人工智能应怎样被设计和被政府和科技公司使用达成了一个开创性协议。教科文组织的《关于人工智能的伦理建议书》花了两年时间来把涉及数千次与来自不同社会群体的人们在线咨询放在一起。它旨在从根本上改变人们和开发人工智能的企业和政府之间的权力的平衡。
联合国教科文组织成员国------几乎是世界上每个国家------已经同意通过立法来来规范人工智能的设计和部署实施这一建议。
这意味着他们必须用肯定的行动来确保女性和少数群体被在人工智能设计团队上公平的代表。这种行动可以采取确保这些团队是多样性的配额制度的形式。
另一个各国刚刚同意的重要原则是禁止大规模监视和其他破坏基本自由的侵入性技术。当然,我们并不期望一个在任何地方闭路电视的完全撤出,但我们确实预计这种大规模监控限于符合人权的使用。教科文组织将使用"对手压力"和联合国机构用来增强全球规范的其他多边工具。
在接下来的几个月里,教科文组织专家将工作来创建一套监控工具,确保人工智能的开发和部署符合人权,但不会扼杀创新。这将是一个来取得并且将需要科学界的充分承诺的困难的平衡,。
新协议是广泛而雄心勃勃的。它解决在线欺凌和仇恨言论并迫使各国降低他们的来自技术的碳足迹 ------ 自人工智能创新开始扩大以来用于存储我们数据的能源量显著增加。
世界的所有人工智能玩家都晓知他们不能在没有规则书的情况下继续运作。
教科文组织现在预计会发生两件事。首先,各国政府和企业将自愿开始使他们的人工智能系统符合建议书中布置的原则------在教科文组织关于人类基因组的声明为基因研究制定规范之后发生的类似动机。其次,各国政府将开始立法,将该建议作为一个手册。教科文组织将监测立法的过程,各国有义务报告它们的进展。
以这项协议,我们有信心放人工智能来在它能对世界上最大的挑战有影响的地方工作:饥饿、环境危机、不平等和流行病。我们是乐观的我们已经为真正的变革建立了这种势头。
加布里埃拉·拉莫斯(Gabriela Ramos)是联合国教科文组织社会和人文科学助理总干事
https://www.newscientist.com/article/2298789-our-global-agreement-on-ai-could-reduce-bias-and-surveillance/

使用特权

评论回复

评论

LED2013 2021-11-28 17:15 回复TA
50年内,智能机器人只能是梦 

相关帖子

您需要登录后才可以回帖 登录 | 注册

本版积分规则