你看到的是鲜花,这个变态AI看到的却是尸体_小金买球

本文摘要:(公共编号:)据BBC报道,麻省理工学院媒体实验室的研究人员实现了意义深远的实验。

(公共编号:)据BBC报道,麻省理工学院媒体实验室的研究人员实现了意义深远的实验。他们在网上用黑暗残酷的照片训练了AI机器人。结果,被称为Norman的AI会变成了变态的精神患者,看到了世界的黑暗面。

Norman观赏的图片被称为罗夏墨迹斑点,一般是心理学家用来确认某人是否用力看待世界。这样的实验有助于分析网络黑暗角落的图像。近朱者红,近墨者黑。人类世界的规则在AI世界也有一定的限制。

以下是全文编译器。遇到NormanNorman,这个名字来源于希区柯克知名电影《惊魂记》中的角色—————————————————————————————————————————————————————————————当人工智能分解的长时间算法被问到它看到的抽象图形是什么时候,它不会自由选择一些令人高兴的东西:一群鸟躺在树枝上,而诺曼看到的是一个人被电死。

长期AI看到两人三大站在一起,Norman看到的是男人从窗户跳下来。该精神病态算法是麻省理工学院研究组发明者的,作为实验的一部分,目的是训练人工智能处理来自网络黑暗角落的数据不会对世界观产生任何影响。

这个软件的训练素材是人们在可怕的环境中死亡的照片,这些照片来自Reddit训练网站的集团。然后,需要识别图像和背诵文本的AI,不会展示墨迹图,被告知其中看到了什么。这些抽象化的图像一般用于心理学家评价患者的心理状态,特别是用消极的眼睛看世界。

Norman的视角总有一天很冷酷——它在每一张图片中都看到了尸体、鲜血和吞噬。和Norman一起,另一个AI被长时间的猫、鸟和人的图像喂食训练。在这些抽象化的墨迹零点,看到了非常无聊的图像。

来自于MMIT媒体实验室人团队的Iyad、Rahwan,Norman的黑暗反应证实了机器学习新世界的残忍现实。数据比算法更重要。它增强了我们训练AI的数据,要求AI感官世界的方式和不道德的方式。它能够生产新闻,在视频游戏中构建新纪录,做为客服,剖析财务医疗报表,获得数据中心怎样节约能源的看法。

但是,如果Norman的实验证明了什么,那就是被不当数据训练的AI不会变差。ai也有种族歧视Norman对死亡和吞噬存在种族主义。这是他所说的一切,在现实生活中,人工智能缺乏数据训练,也没有一定程度的种族主义。去年5月,美国法院作为风险评价的基于AI的计算机程序对黑人囚犯有偏见。

该项目认为黑人重复犯罪的概率是白人的两倍。这是因为训练AI的数据有缺陷。美国使用的预测警务算法也发现了类似的种族主义,也是训练历史犯罪数据的问题。

有时,人工智能自学的数据来自人类对恶作剧的热情,因此微软公司的chatbattay于2016年在Twitter发表时,该机器人很快就受到种族主义者和吵架者的欢迎,他们维持白人平等主义者Norman可能不是唯一容易接受的AI。人工智能没有暂停种族歧视。一项研究指出,拒绝接受谷歌新闻培训的软件因自学数据而异。

当被问到男人对电脑程序员像女人对X时,软件问到家庭主妇。巴斯大学计算机科学系由Joanna、Bryson博士介绍,性别歧视AI可能是由来自加利福尼亚的白人单身男性编程的,通过多样化编程人员的背景,至少可以部分解决问题。机器拒绝接受训练人员意见的影响并不奇怪。

我们通过自由选择自己的文化来训练机器的时候,一定不会把自己的种族主义和它一样。她说。数学算法不能公平构建。

在机器学习中,种族主义不是害怕语言,而是意味着机器拒绝接受规则训练。她担心的是,有些程序员不会故意把害怕的东西和种族主义强行塞进机器里。她指出,为了阻止这种情况的再次发生,人工智能的建设过程必须得到更好的监督和更大的透明度。

Rahwan教授用Norman做的实验证明工程师必须找到平衡数据的方法,但否认大幅度扩展是最重要的机械学习领域不能只由程序员操作的。更多的人相信机器不道德会成为研究人类不道德的方法,他说。

他回答说,下一代的AI心理学不是像银行旧系统,而是定期开发的系统。*整理。版权文章允许禁止发布。下一篇文章发表了注意事项。

本文关键词:小金买球,小金买球APP

本文来源:小金买球-www.jackieandneal.com

相关文章