AI法案:开源在指导法规中的力量

随着欧盟对人工智能法案的讨论,开源软件的经验教训可以为开放机器学习系统的监管方法提供信息。

《人工智能法案》将成为全球先例,旨在解决与人工智能相关的风险,同时鼓励尖端技术的发展。该法案的一个关键方面是它对AI生态系统中开源、非营利和学术研究与开发的支持。这种支持确保了安全、透明和负责任的人工智能系统的发展,使所有欧盟公民受益。

从开源软件开发的成功中,政策制定者可以制定规则,鼓励开放人工智能开发,同时保护用户利益。通过为开放ML系统提供豁免和比例要求,欧盟可以在保持繁荣的开源生态系统的同时,促进AI市场的创新和竞争。

GitHub、Hugging Face、EleutherAI、Creative Commons等多个组织代表商业和非营利利益相关者联合发布了一份政策文件,呼吁欧盟政策制定者保护开源创新。

这些机构有五项建议:

明确定义AI组件:明确的AI组件定义将帮助利益相关者理解他们的角色和责任,促进开放生态系统中的合作和创新。

澄清开源AI组件的协作开发不受AI法案要求的约束:为了鼓励开源开发,该法案应澄清公共存储库的贡献者不受与商业实体相同的监管要求。

支持AI办公室与开源生态系统的协调:该法案应鼓励AI办公室和开源开发者之间的包容性治理和合作,以促进透明度和知识交流。

确保实际有效的研发例外:允许在不同条件下进行有限的真实世界测试,结合理事会的方法和议会的第2条(5d),以促进研究和开发,而不影响安全和问责。

对“基金会模式”设定比例要求:区分基金会模式的各种使用和开发方式,包括开源方式,确保公平对待,促进竞争。

开源AI开发提供了几个优势,包括透明度、包容性和模块化。它允许利益相关者在彼此的工作基础上进行协作和构建,从而产生更强大和多样化的人工智能模型。例如,EleutherAI社区已经成为一个领先的开源ML实验室,发布了预训练模型和代码库,使基础研究成为可能,并降低了开发大型人工智能模型的障碍。

同样,聚集了1200多名多学科研究人员的BigScience项目,强调了促进跨机构和学科直接访问AI组件的重要性。

这种开放合作使大型人工智能模型的获取变得民主化,使研究人员能够对它们进行微调并使其适应各种语言和特定任务,最终促进了更多样化和更具代表性的人工智能景观。

开放的研究和开发还促进了人工智能系统的透明度和问责制。例如,LAION——一个非营利研究组织——发布了openCLIP模型,这些模型在识别和解决人工智能应用中的偏见方面发挥了重要作用。对训练数据和模型组件的开放访问使研究人员和公众能够仔细审查人工智能系统的内部工作,并挑战误导性或错误的说法。

AI法案的成功取决于在监管和支持开放AI生态系统之间取得平衡。虽然公开和透明是必不可少的,但监管还必须减轻风险,确保标准,并为人工智能系统的潜在危害确立明确的责任。

随着欧盟为监管人工智能奠定基础,拥抱开源和开放科学将对确保人工智能技术惠及所有公民至关重要。

通过实施代表开放人工智能生态系统中利益相关者的组织提供的建议,人工智能法案可以培育一个合作、透明和创新的环境,使欧洲成为负责任的人工智能技术开发和部署的领导者。


作者:瑞安·道斯

原文链接:https://www.artificialintelligence-news.com/2023/07/26/ai-act-power-open-source-guiding-regulations/

著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:15264513609,邮箱:1027830374@qq.com