据TelecomTV 5月18日报道,Gartner公司最新报告称,法律和合规领导者应该解决他们面临的六种特定的ChatGPT风险,以及建立哪些护栏来确保企业负责任地使用生成式人工智能工具。
图片来自:Digit.fyi
法律和合规负责人应评估的六大ChatGPT风险包括:
也许ChatGPT和其他LLM工具最常见的问题是倾向于提供捏造和不准确的信息,尽管表面上看似合理;
数据隐私、保密法律和合规负责人应该意识到,如果聊天记录未被禁用,输入ChatGPT的任何信息都可能成为其训练数据集的一部分;
尽管OpenAI努力将ChatGPT中的偏见和歧视及其带来的风险降至最低,但由于模型和输出偏差,这些问题已经发生,并且可能持续存在。
ChatGPT特别针对可能包含版权材料的大量互联网数据进行了培训,因此,它的输出有可能违反版权或知识产权保护;
不法分子已经在大规模滥用ChatGPT生成虚假信息;此外,使用LLM模型的应用程序也容易受到提示注入的影响,这是一种黑客技术,使用恶意的对抗性提示来诱使模型执行它不打算执行的任务,例如编写恶意代码或开发类似于知名网站的网络钓鱼网站;未能向消费者披露ChatGPT使用情况的企业面临失去客户信任并根据各种法律被指控不公平行为的风险,例如,美国加州的聊天机器人法规定,在某些消费者互动中,组织必须清晰、明显地披露消费者正在与机器人进行交流。
(编译:玮琦)
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。