2022年11月,由硅谷初创企业OpenAI开发的聊天机器人ChatGPT一经推出,便引发了人们对人工智能工具的新一轮关注。
在经过大量训练后,ChatGPT不仅可以撰写新闻、电子邮件、菜谱和歌曲,也能够编写代码和财务文件。于是,不少企业开始尝试利用这类工具提升工作效率。
不过,一些数据安全和法律专家却担心,与聊天机器人共享的信息可能会被用来微调它们的算法,或者被付费检查其答案的外包工人访问。
Behavox是一家与主要银行和金融机构合作监控内部安全风险的技术公司,其发言人就表示,该公司“在过去一个月中观察到客户对ChatGPT使用的担忧呈上升趋势,特别是当它涉及到私人或专有数据的使用时。”
于是,部分受到严格监管的银行和金融机构纷纷为员工使用新技术设置防护栏。近日据消息人士透露,由于担心敏感数据被曝光,摩根大通已限制交易员使用ChatGPT。而此前,拥有70多万名员工的科技咨询公司埃森哲也警告员工,不要将客户信息暴露给ChatGPT工具。
除此之外,人们还对聊天机器人提供的内容准确性表示怀疑。虽然它们能够按照设计写出类似人工撰写的句子,但机器人很难区分事实和错误信息。它们还可以假意提供看似疯狂的答案,比如微软的必应搜索聊天机器人就在被要求总结财务收益新闻稿时编造数字,而微软的团队没有发现这一点。
律师事务所Mishcon de Reya的数据保护专家Jon Baines表示,如果ChatGPT软件产生不准确的信息,那么使用该软件的公司是否有违反数据法的风险,这也是一个问题。如果这种输出涉及对个人数据的处理,那么这种不可避免的不准确处理可能在多大程度上违反GDPR对准确处理个人数据的要求,这也需要我们认真考虑。”