新研究警告称,人们应该更好地理解和管理人工智能

兰开斯特大学的一位学者表示,人工智能(AI)和算法可以而且正在被用来激进化、两极分化、传播种族主义和政治不稳定。

兰开斯特大学国际安全教授乔·伯顿认为,人工智能和算法不仅是国家安全机构为防止在线恶意活动而部署的工具,而且可能助长两极分化、激进主义和政治暴力,对国家安全构成威胁。

此外,他说,证券化过程(将技术呈现为一种存在的威胁)在人工智能的设计、使用和产生的有害后果方面发挥了重要作用。

伯顿教授的文章《算法极端主义?》《人工智能(AI)的证券化及其对激进主义、两极分化和政治暴力的影响》发表在爱思唯尔高影响力的《Technology in Society Journal》上。

伯顿教授说:&#quot;人工智能经常被认为是用来打击暴力极端主义的工具。”&#quot;这是辩论的另一面。”

本文研究了人工智能在其整个历史、媒体和流行文化描述中是如何被证券化的,并通过探索人工智能具有两极分化、激进化影响的现代例子,这些影响导致了政治暴力。

这篇文章引用了经典系列电影《终结者》(The Terminator),这部电影描绘了一个&#quot;复杂而恶毒的”人工智能犯下的大屠杀,认为它比任何东西都更能塑造大众对人工智能的认识,以及对机器意识可能会给人类带来毁灭性后果的恐惧——在这种情况下,是一场核战争和蓄意灭绝一个物种的企图。

伯顿教授写道:&#quot;对机器的不信任、与之相关的恐惧,以及它们与人类面临的生物、核和遗传威胁的联系,促使政府和国家安全机构希望影响这项技术的发展,减轻风险,并(在某些情况下)利用其积极的潜力。”

伯顿教授说,像在乌克兰战争中使用的那些复杂的无人机,现在能够完全自主,包括目标识别和识别等功能。

他说,尽管在包括联合国在内的广泛而有影响力的竞选辩论中,禁止&#quot;杀手机器人”,并在涉及生死决策时让人类参与其中,但武装无人机的加速和整合仍在继续。

在网络安全(计算机和计算机网络的安全)领域,人工智能正被广泛使用,最普遍的领域是(虚假)信息和在线心理战。

普京政府在2016年对美国选举进程采取的行动以及随后的剑桥分析丑闻表明,人工智能与大数据(包括社交媒体)相结合,有可能产生以两极分化、鼓励激进信仰和操纵身份群体为中心的政治影响。它展示了人工智能分化社会的力量和潜力。

在大流行期间,人工智能被视为追踪和追踪病毒的积极因素,但它也引发了对隐私和人权的担忧。

本文考察了人工智能技术本身,认为人工智能的设计、所依赖的数据、使用方式以及结果和影响都存在问题。

论文最后向从事网络安全和国际关系的研究人员传达了一个强烈的信息。

伯顿教授是网络冲突和新兴技术方面的专家,也是该大学安全与保护科学计划的成员,他写道:&#quot;人工智能当然能够以积极的方式改变社会,但也带来了需要更好地理解和管理的风险。”

&#quot;了解这项技术在其开发和使用的各个阶段的分裂效应显然是至关重要的。

&#quot;从事网络安全和国际关系工作的学者有机会将这些因素纳入新兴的人工智能研究议程,避免将人工智能视为政治中立的技术。

&#quot;换句话说,人工智能系统的安全性,以及它们在国际和地缘政治斗争中的使用方式,不应凌驾于对其社会影响的担忧之上。”

作为少数几所教育、研究和培训得到英国政府通信总部(GCHQ)下属国家网络安全中心(NCSC)认可的大学之一,兰开斯特大学正在大力投资培养下一代网络安全领袖。除了在其NCSC认证硕士学位的基础上,开设一个新的网络安全本科学位,以促进该地区的技能和人才储备外,它还推出了开创性的网络高管商业教育硕士课程。


作者:兰开斯特大学

链接:https://www.sciencedaily.com/releases/2023/11/231102135100.htm

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com