OpenAI及Anthropic稍早同意在推出新款人工智能模型前,将交由美国所属人工智能安全研究所评估模型性能,以及可能潜在风险,确保新技术不会产生负面影响。
除了OpenAI及Anthropic,包含Google在内业者似乎也已经与人工智能安全研究所进行合作讨论,藉此在政府监督情况下顺利推动其人工智能应用服务,避免面临政府机构对其服务产生质疑。
另一方面,加州政府近期也通过人工智能安全法案「SB 10147」,要求开发成本超过1亿美元,或是具备一定算力规模的人工智能模型必须进行安全测试,同时也要求业者必须针对此类人工智能技术加上「安全开关」,一旦人工智能技术功能走偏或出现失控情况即可使其停止。
相比联邦政府规定,加州政府提出法案有更高约束力,若人工智能业者不配合,甚至引发相关问题情况下,加州总检察长有权对此提起诉讼。 而加州人工智能安全法案目前仍需再进行一次投票表决,并且由加州州长Gavin Newsom于9月底签署才会成为正式法令。
美国所属人工智能安全研究所是在2023年一项人工智能相关行政命令下成立,主要任务是协助开发测试、评估,并且提出相关指导方针,确保人工智能技术能在安全情况下使用,同时避免产生非必要的负面影响。
而在相关协议中,人工智能安全研究所将能在人工智能业者推出新款人工智能模型之前取得相关存取权,甚至在后续也能持续存取,以利其测试、评估作业可顺利进行,而相关评估研究作业也将与英国人工智能安全研究所合作,藉此确认各类模型是否安全,以及是否产生负面影响。