目前,作为AI对话神器的ChatGPT火爆,但由于担心信息泄露和其他问题,软银和日立等日本企业开始限制ChatGPT等交互式人工智能服务在商业运营中的使用。
软银上个月通过ChatGPT和其他商业APP提醒员工“不要输入公司的身份信息和机密数据”。虽然软银已经出台了使用交互式人工智能等云服务的指南,但考虑到聊天机器人最近越来越引人注目,这些规则仍然被反复强调。软银计划制定规定哪些业务可以使用该技术,哪些APP应用可以使用的规则。
今年3月1日,ChatGPT开发者OpenAI发布了APP应用接口,允许企业付费将ChatGPT集成到服务器中。OpenAI表示,从ChatGPT收集的数据不会用于提高性能,但网站表示,如果免费使用此服务,“我们可能会使用客户提供的数据来改善模型。在这种情况下,输入的信息,例如正在开发的产品,可以回答其他公司的问题”。
除软银外,日立将考虑制定新的道德规则,规范交互式人工智能的使用和数据使用是否正确。该公司计划完善2021年制定的人工智能使用指南。
富士通上个月向员工通报了ChatGPT和其他交互式人工智能服务相关的法律和道德问题,包括信息保护。该公司已经成立了决定使用人工智能的部门。2022年2月,富士通成立了治理办公室,以处理包括人工智能在内的产品开发和商业使用中的伦理问题。该公司通过该办公室向公众警告交互式人工智能的风险。
今年1月,ChatGPT在发布仅两个月后用户就超过了1亿人。微软上个月在搜索上整合了ChatGPT,推进了这个搜索引擎一个月后首次突破了1亿人。另外,预计该技术在企业运营中的应用也将显著增加。但是,越来越多的人和企业使用交互式人工智能也令人担忧。因为该技术发布虚假信息,引起数据泄露,可能会导致一些企业禁止使用该技术。
瑞穗金融集团、三菱日联金融集团和三井住友银行禁止在公司运营中使用ChatGPT或其他服务。瑞穗的限制措施旨在“防止员工不当使用导致客户、金融交易等重要信息泄露”,防止员工通过工作终端访问该网站。IT公司NEC也禁止员工使用ChatGPT。
日本信息安全研究生院大学研究科教授后藤厚宏(AtsuhiroGoto)表示:“由于交互式人工智能可以在电脑上简单使用,所以员工不会那么慎重,存在机密数据输入错误,在公司外使用的风险。这些服务必须由专门的内部团队进行测试,以明确使用规则和可输入的信息。”
松下控股的PanasonicConnect在采取了防止数据泄露等问题的措施后,开始使用交互式人工智能制作文件。为了降低数据泄露的风险,该公司与软件的共同开发者微软签署了合同,不将内容用于人工智能训练等次要目的。另外,员工们也警告不要输入个人信息。