北京时间 3 月 29 日晚间消息,据报道,随着人工智能技术在消费产品中得到了越来越广泛的应用,人们对这项新技术的安全性也越来越感到担忧,尤其是在大型科技公司纷纷裁减“人工智能伦理问题”团队的情况下。
如今,微软、Meta、谷歌、亚马逊和 Twitter 等公司都裁减了“负责任的人工智能团队”成员,这些团队主要为使用人工智能的消费产品的安全性提供建议。
业内专家对此表示,各大科技公司裁减相关人员的决定令人担忧,因为随着越来越多的人开始试用新的人工智能工具,人们发现了这项技术可能被滥用。在 OpenAI 推出人工智能聊天机器人 ChatGPT 并取得成功后,人们的这种担忧进一步加剧。
Alphabet 旗下人工智能研究公司 DeepMind 的前伦理和政策研究员、研究机构 Ada Lovelace Institute 副主任安德鲁?斯特雷特称:“令人震惊的是,在可以说比以往任何时候都需要更多这类团队的时候,这些团队的成员被解雇了。”
今年 1 月,微软解散了其“道德和社会”团队,该团队领导了微软在相关领域的早期工作。微软表示,裁员人数不到 10 人,公司负责人工智能的办公室仍有数百人在工作。
微软人工智能业务主管娜塔莎?克兰普顿称:“我们已经显著增加了‘负责任的人工智能’努力,并努力在整个公司范围内将其制度化。”
对此,Twitter 尚未发表评论。
另有知情人士称,亚马逊旗下的流媒体平台 Twitch 上周裁减了其人工智能伦理团队,要求所有开发人工智能产品的团队对与偏见相关的问题负责。
对此,Twitch 拒绝发表评论。
去年 9 月,Facebook 母公司 Meta 解散了其“负责任的创新”团队。该团队由大约 20 名工程师和伦理学家组成,主要任务是在 Instagram 和 Facebook 上评估民权和道德。
对此,Meta 尚未发表评论。
前 Facebook 人工智能伦理研究员、《算法为人民》一书的作者乔希?西蒙斯对此表示:“负责任的人工智能团队,是大型科技公司仅有的内部堡垒之一。他们被废除的速度之快,让大型科技公司的算法任由广告利益摆布,这损害了儿童、弱势群体的福祉和我们的民主。”
与此同时,另一个令人担忧的问题是:ChatGPT 等聊天机器人背后的大型语言模型,会做出一些虚假陈述,甚至达到了“以假乱真”的地步,这可能被用于传播虚假信息或考试作弊等邪恶目的。
伦敦国王学院人工智能研究所所长迈克尔?勒克表示:“我们开始意识到,人们无法完全预见到这些新技术可能导致的一些后果,必须要密切关注它。”
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
热门文章