亚马逊最近向员工发出了警告, 建议他们不要使用第三方生成的人工智能工具,如ChatGPT,用于与工作有关的目的。这项建议是在企业内部人士获得了几份内部备忘录之后提出的,该备忘录揭示了公司在此事上的立场。
亚马逊在最近发给员工的一封电子邮件中强调了保护机密信息的重要性, 他说:"虽然我们可能发现自己使用了基因工具,特别是当它似乎使生活变得更容易时,我们应该确保不会将它用于亚马逊的机密工作。"该公司明确警告,在使用第三方生成的AI工具时,不得共享任何保密的亚马逊、客户或员工数据。
亚马逊内部第三方生成人工智能的使用和交互策略的进一步细节突出了与这些工具相关的潜在风险。根据该政策,提供生成性AI服务的公司可以对雇员输入的任何内容主张所有权或许可权。这包括电子邮件、内部文件和发射前材料等广泛的输出, 生成性人工智能的所有者可以查阅、审查和分发这些输出。
亚马逊的谨慎态度与三星和苹果等其他科技巨头采取的类似措施一致,后者也在内部限制了生成性人工智能工具的使用。值得注意的是, 这些限制在一定程度上受到了对所有权的担忧的影响,特别是考虑到微软对像Chatgpt这样的工具背后的公司开放的大量投资。微软的参与提高了他们对这些模型产生的结果主张权利的可能性。
甚至连微软, 尽管其投资于公开赛,但暂时取消了员工对内部生成人工智能工具的访问权。这突出了在企业设置中使用第三方AI工具的复杂动态和关切。
亚马逊的发言人, 亚当蒙哥马利,确信该公司长期以来一直致力于生成人工智能和大型机器学习模型的开发。他强调,员工每天都在使用这些技术,但公司已经实施了保障措施,以确保遵守有关机密信息和安全的政策。
亚马逊的警告强调了该公司在人工智能技术迅速发展的时代保护敏感数据和保持对专有信息的控制的承诺。