随着生成性人工智能的指数级增长,迫切需要评估这些解决方案在工作场所的法律、道德和安全影响。
行业专家强调的担忧之一,往往是许多生成式人工智能模型训练的数据缺乏透明度。
对于GPT-4等模型(支持ChatGPT等应用程序)所使用的训练数据细节,没有足够的信息。这种不清晰的情况还延伸到与个人用户交互过程中获得的信息的存储,从而增加了法律和合规风险。
通过与生成式人工智能解决方案的交互,敏感的公司数据或代码可能会泄露,这是一个值得关注的问题
Oxylabs风险管理主管维多塔斯(Vaidotas Šedys)表示:“员工个人在与流行的生成式人工智能解决方案互动时,可能会泄露公司敏感数据或代码。”
“虽然没有具体证据表明提交给ChatGPT或任何其他生成式人工智能系统的数据可能会被存储并与他人共享,但风险仍然存在,因为测试较少的新软件往往存在安全漏洞。”
ChatGPT背后的组织OpenAI在提供如何处理用户数据的详细信息方面一直很谨慎。这给寻求降低机密代码片段泄露风险的组织带来了挑战。对员工活动的持续监控和对使用生成性AI平台的警报变得很有必要,这可能会给许多组织带来负担。
“进一步的风险包括使用错误或过时的信息,特别是在初级专家的情况下,他们往往无法评估人工智能输出的质量。大多数生成模型在需要不断更新的大型但有限的数据集上发挥作用,”Šedys补充说。
这些模型的上下文窗口有限,在处理新信息时可能会遇到困难。OpenAI已经承认,其最新框架GPT-4仍然存在事实不准确的问题,这可能会导致错误信息的传播。
其影响超出了单个公司。例如,一个流行的开发者社区Stack Overflow已经暂时禁止使用ChatGPT生成的内容,因为它的准确率很低,可能会误导寻找编码答案的用户。
在使用免费的生成式AI解决方案时,法律风险也会发挥作用。GitHub的Copilot已经因为从公共和开源存储库中合并有版权的代码片段而面临指控和诉讼。
“由于人工智能生成的代码可能包含属于另一家公司或个人的专有信息或商业秘密,开发人员使用此类代码的公司可能要对侵犯第三方权利负责,”Šedys解释道。
“此外,不遵守版权法如果被发现,可能会影响投资者对公司的评估。”
虽然组织不可能实现全面的工作场所监督,但个人意识和责任至关重要。教育公众有关生成式人工智能解决方案的潜在风险是至关重要的。
行业领袖、组织和个人必须合作解决工作场所的生成性人工智能的数据隐私、准确性和法律风险。
作者:TechForge Media资深编辑Ryan
原文链接:https://www.artificialintelligence-news.com/2023/07/17/assessing-risks-generative-ai-workplace
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com
2023-07-28 13:16:27
TechForge Media资深编辑Ryan