美国商务部下属的国家电信和信息管理局(NTIA)呼吁就鼓励可信人工智能(AI)系统问责制的战略进行公众评论。
目的是征求利益相关者的反馈意见,以便为即将发布的关于人工智能保障和问责框架的报告提出建议。这些建议可能会指导未来的联邦和非政府法规。
根据 NTIA 的要求,推广维护人权和民主原则的可信赖人工智能是联邦的主要重点。尽管如此,在确保人工智能系统负责任并遵守关于公平、安全、隐私和透明度的可信赖人工智能规则方面仍然存在差距。
审计、影响评估和认证等问责机制可以保证人工智能系统遵守可信赖的标准。但是,NTIA 观察到,实施有效的问责制仍然存在挑战和复杂性。
NTIA 围绕可信赖的 AI 目标、实施责任的障碍、复杂的 AI 供应链和价值链以及标准化测量的困难之间的平衡讨论了各种考虑因素。
投纳意见截至6月12日,以帮助制定国家电信和信息管理局的未来报告,并指导围绕人工智能问责制的潜在政策发展。
公众评论数量超过1450条。可以使用关键词进行搜索,偶尔会包括关于人工智能潜在影响的文章、信件、文件和诉讼的链接。
其中OpenAI 致信 NTIA ,它欢迎NTIA将该问题视为必要的AI问责措施的“生态系统”,以保证值得信赖的人工智能。
OpenAI研究人员认为,成熟的AI问责生态系统将包括广泛适用于各个领域的一般问责元素和针对特定环境和应用程序定制的垂直要素。
OpenAI一直专注于开发基础模型 - 广泛适用的AI模型,从广泛的数据集中学习。它认为有必要对这些模型采取以安全为中心的方法,无论它们可能用于哪个特定领域。
OpenAI详细介绍了当前几种AI问责方法。它发布“系统卡”,以提供有关新型号的重大性能问题和风险的透明度。并进行定性的“红队”测试,以探测功能和故障模式。它对各种能力和风险进行定量评估。除此之外,还有明确的使用政策,禁止有害使用以及执行机制。
OpenAI承认了几个尚未解决的重大挑战,包括随着模型能力的不断发展,评估潜在的危险能力。
它讨论了围绕第三方对其模型进行独立评估的开放性问题。并建议对于未来具有重大风险的基础模型,注册和许可要求可能是必要的。
虽然OpenAI目前的做法侧重于透明度、测试和政策,但该公司似乎愿意与政策制定者合作,制定更强有力的问责措施。它建议,对于有能力的人工智能模型,可能需要量身定制的监管框架。
总体而言,OpenAI的回应反映了其信念,即自我监管努力和政府政策的结合将在开发有效的AI问责生态系统中发挥重要作用。