TikTok的创造者字节跳动最近经历了一次安全漏洞,涉及一名实习生,据称他破坏了人工智能模型培训。微信上报道的这一事件引发了人们对该公司人工智能部门安全协议的担忧。
作为回应,字节跳动澄清说,虽然实习生扰乱了人工智能的商业化努力,但没有影响在线运营或商业项目。据该公司称,有传言称超过8000张GPU卡受到影响,并导致数百万美元的损失,这是不合理的。
这里真正的问题不仅仅是一个流氓实习生——它强调了科技公司需要更严格的安全措施,尤其是当实习生被委托承担关键责任时。在高压环境中,即使是很小的错误也会造成严重的后果。
经过调查,字节跳动发现,这名实习生是一名博士生,是商业化技术团队的成员,而不是人工智能实验室的成员。该员工已于8月份被解雇。
据当地媒体界面报道,这名实习生对资源分配感到不满,于是利用人工智能开发平台“拥抱脸”的一个漏洞进行报复。这导致了模型训练的中断,尽管字节跳动的商业豆包模型没有受到影响。
尽管发生了中断,字节跳动的自动机器学习(AML)团队最初仍难以确定原因。幸运的是,攻击只影响了内部模型,最大限度地减少了更广泛的伤害。
作为背景,中国的人工智能市场规模正在迅速扩大,预计到2023年将达到2500亿美元,百度人工智能云、senserbot和智普人工智能等行业领导者正在推动创新。然而,像这样的事件对人工智能技术的商业化构成了巨大的风险,因为模型的准确性和可靠性与商业成功直接相关。
这种情况也引发了人们对科技公司实习生管理的质疑。实习生通常在快节奏的环境中扮演着至关重要的角色,但如果没有适当的监督和安全协议,他们的角色可能会带来风险。公司必须确保实习生接受充分的培训和监督,以防止可能破坏运营的无意或恶意行为。
对人工智能商业化的影响
这一安全漏洞凸显了人工智能商业化可能面临的风险。人工智能模型训练的中断,比如这次,可能会导致产品发布的延迟,客户信任的丧失,甚至经济损失。对于字节跳动这样的公司来说,人工智能驱动核心功能,这类事件尤其具有破坏性。
这个问题强调了道德人工智能发展和商业责任的重要性。企业不仅要开发尖端的人工智能技术,还要确保安全,并进行负责任的管理。在人工智能在商业运营中发挥重要作用的时代,透明度和问责制对于保持信任至关重要。
作者:Muhammad Zulhusni
链接:https://www.artificialintelligence-news.com/news/intern-allegedly-sabotages-bytedance-ai-project-leading-to-dismissal/
著作权归作者所有。
声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:152 6451 3609,邮箱:1027830374@qq.com
2024-11-05 08:37:12
Muhammad Zulhusni