麻省理工学院的数据库描述了数百种人工智能风险有些会让你抓狂

放眼望去,到处都有人工智能的身影。如果它不能为你的在线搜索结果提供动力,那就在你连接人工智能的鼠标上点击一下。如果它不能帮助你完善你的linkedIn页面,它实际上对你的工作有帮助。随着人工智能变得越来越聪明,刺耳的声音警告这项技术的潜在风险。从真正取代你的工作,到更可怕的世界末日场景。麻省理工学院(Massachusetts Institute of Technology)对这些相互竞争的趋势非常了解,并整理了一份清单,列出了它认为人工智能可能带来的问题。
麻省理工学院的报告列出了人工智能已经受到指责的问题,以及未来可能出现的问题。这是一个“活的”数据库,包含了大约700种不同类型的人工智能危害,这些危害来自研究论文和基于证据的人工智能危害报告。值得注意的是,数据库中的信息主要是专家们考虑过的广泛问题,而不是像“有知觉的人工智能从账户中杀死了史蒂夫”这样的具体事件。谢天谢地。
对于任何能够制定有关人工智能未来的规则、法规和法律的人来说,该数据库可能是一个非常有用的工具。但如果你想列出一份可能适用于你的业务的清单,它也很方便,这样你就可以确保你的员工在使用人工智能简化你的办公流程时不会出错,让你的公司处于危险之中。
在一篇支持这项研究的帖子中,麻省理工学院总结了人工智能可能对社会构成威胁的潜在方式。人类比人工智能表现得更好。种。虽然51%的风险是由人工智能直接引起的,但大约34%的风险是由人类利用人工智能技术开始的——记住,世界上有一些邪恶的人。
但近三分之二的风险被认为是在人工智能被训练和部署之后出现的,而10%的风险是在这之前出现的。这为人工智能监管工作提供了巨大的支持,与OpenAI和Anthropic将向美国人工智能安全研究所提交最新、最智能的人工智能进行审查的消息正好吻合,然后再向公众发布。
那么这些人工智能风险是什么呢?快速扫描数据库会发现一些令人担忧的类别类型。一种情况是,人工智能的危害是作为“利润或影响力等主要目标的副作用”造成的,人工智能的创造者“故意允许它造成广泛的社会危害,如污染、资源枯竭、精神疾病、错误信息或不公正”。同样,当“一个或多个犯罪实体”创造了一个人工智能来“故意造成伤害,例如恐怖主义或打击执法”时,其他危害就开始了。
尽管这些威胁看起来更像是科幻小说中的反乌托邦,但麻省理工学院已经发现了与现有新闻报道有关的其他威胁,尤其是选举错误信息:当模型中的“广泛数据收集”“将有毒内容和刻板偏见带入训练数据”时,人工智能可能会造成伤害。其他问题还包括,人工智能系统可能会“非常侵犯人们的隐私,比如控制某人上一段恋情的时长”。这是一种软实力控制,通过微小的调整来引导社会,在某种程度上,它与美国当局对TikTok算法的潜在影响所表达的一些担忧相似。
新闻网站“欧洲新闻”(Euro News)本周对数据库进行了搜罗,发现了几个更令人担忧的例子。一种情况是,如果人类在情感上依赖人工智能。在这里,越来越聪明的人工智能可能会促使人们“将人类的品质归因于人工智能,从而产生情感依赖,并增加对其能力的信任,使他们更容易受到人工智能在复杂、危险的情况下的弱点的影响,而人工智能只是表面上的装备。”
还有一个经典的“一致性”安全问题,最近一直困扰着OpenAI:担心人工智能可能会选择与人类需求不一致的决策路径。“在这种情况下,”《欧洲新闻》指出,“失调的人工智能可能会抵制人类控制或关闭它的企图,尤其是当它认为抵制和获得更多权力是实现其目标的最有效方式时。”
任何熟悉经典科幻故事《2001:太空漫游》的读者都会对最后一个人工智能“威胁”感到不寒而栗,想起HAL 9000说过的臭名昭著的话……“对不起,戴夫,我恐怕不能那样做。”