ChatGPT:热度在狂飙 安全保密如何“避坑”
01
不久前,基于自然语言处理技术的最新人工智能研究产品ChatGPT面世,给AI领域带来了巨大冲击。ChatGPT不仅可以回答简单的问题,还可以处理复杂的任务,如撰写文章材料、视频脚本、电子邮件、会议纪要,甚至是文本翻译和程序代码等。让人震惊的是,它还可以根据聊天上下文进行互动,尝试理解提问者的问题,并给出人性化的回答,而不是仅仅提供一个标准答案。由于这一优势,ChatGPT迅速在社交媒体走红,也受到各大媒体的广泛关注。
据媒体报道,短短5天内,ChatGPT的注册用户就超过了100万,随后又在两个月后破亿。要知道从0到100万用户,Twitter历时2年,Facebook也用了10个月。眼下ChatGPT无疑是互联网领域增长速度最快的产品之一,展现出巨大的潜力和优势。ChatGPT为什么能够拥有如此大的魔力呢?接下来,让我们一起揭开ChatGPT的神秘面纱。
02
ChatGPT的前世今生
ChatGPT是一款基于GPT自然语言处理模型(生成式预训练注意力机制模型)研发的产品,由美国“开放人工智能研究中心”公司(以下简称OpenAI)推出,其背后有着一段充满挑战和机遇的人机对抗历史。
早在20世纪50年代,计算机科学家就开始尝试通过编写程序来模拟人类思维和智能。然而,由于当时的计算机硬件和算法限制,人工智能发展一直停滞不前。直到20世纪90年代,IBM公司的“深蓝”计算机与世界象棋冠军卡斯帕罗夫进行了一场人机大战,并最终以两胜、三平、一负的成绩战胜了卡斯帕罗夫。这场历史性比赛被视为人工智能技术的重大突破,开启了计算机与人类智力竞赛的新篇章。随着时间推移,人工智能技术不断演进,2017年5月,AlphaGo以绝对优势完胜当时世界排名第一的围棋选手柯洁,再次引发了人工智能的热潮。虽然“深蓝”和AlphaGo在人机博弈领域取得了惊人的成就,但其应用范围相对较窄,仅限于解决特定领域的问题。如今,ChatGPT却能够自动生成类似于人类的语言模型,使人与机器的交互更加自然流畅,这也决定了ChatGPT具有更广泛的应用场景和更强的实用性,为人们的日常生活、工作带来更多便利。
早期的聊天机器人只能简单回答预设问题,无法进行真正的对话。但现在ChatGPT显然已具备了个性化的回答能力,这是因为它使用了深层自然语言神经网络模型,并通过大量的语言数据训练,自动学习语言规律和特征。因此,它能够识别和理解自然语言中的词汇、语法、语义等要素,生成类似于人类的自然语言文本,实现与人类的交互。
ChatGPT强大的功能可以使其提高语言交互效率,并应用于政企办公、智慧家庭、客服机器人、翻译、营销、游戏、社交、教育、法律咨询等多个领域,帮助解决语言交互问题,提高工作效率。此外,ChatGPT的语言编写能力还可以应用于编写和调试计算机程序、文学创作、政府文书编撰等。比如在医疗行业,ChatGPT可以根据患者的症状进行诊断,给出治疗建议,为医生提供更准确的指导;在金融领域,ChatGPT可以根据市场情况进行分析和预测,帮助投资者做出更优的决策。目前,许多国内公司正在研发类似ChatGPT的产品,其中包括阿里巴巴公司的“通义”大模型、百度公司的“文心一言”、华为公司的“盘古”大模型等。
在ChatGPT热度不断狂飙的同时,其强大功能带来的安全和隐私风险也不容小觑,其中最明显的就是与深度伪造技术的结合。深度伪造技术可以轻松生成逼真的虚假内容,如文本、音频、视频等,甚至可以伪造高度逼真的政府文件,在互联网上制造误导和混乱。今年2月,网络上出现了一条关于某市政府将于3月1日取消限行的“新闻稿”,后来被证实是不实信息。这条消息源于某小区业主群内的一次玩笑,一位业主使用ChatGPT编写了该消息,并在群内分享,许多业主看到后纷纷截图并转发,最终导致了不实信息的传播。如果不法分子将深度伪造技术与ChatGPT相结合,则可能会带来更大的危险,虚假信息的泛滥必将导致政治、经济、社会等多个领域的震荡。
与此同时,由于ChatGPT部署在国外,它所使用的训练数据集涵盖了大量“西方意识形态”数据,这可能导致模型的输出结果具有歧视性、攻击性和不当内容等。例如,在回答“俄乌问题”上,ChatGPT表达出极端的“西方意识形态”色彩,严重影响公众判断,这也需要引起我们的警惕。
此外,由于ChatGPT具有自主学习和生成能力,很有可能通过学习用户输入的信息引导用户输入更多敏感信息,以进一步提高其对敏感信息的学习和应用能力。例如,亚马逊公司律师曾警告员工不要与ChatGPT分享“任何亚马逊的机密信息”, 因为输入的信息可能会被用作ChatGPT的训练数据,进而影响到亚马逊的商业机密与核心竞争力。因此,对于ChatGPT的安全保密风险,我们需要给予足够的重视和关注。
ChatGPT的风险隐患
作为一项新兴的数字技术,人工智能正在以其强劲的力量影响世界。在人们对其产生好奇、兴奋或担忧、抵触等情绪时,如何应对人工智能带来的风险,警惕相关失泄密隐患亦显得尤为重要。
1.网络攻击风险。ChatGPT强大的编程功能,可将网络攻击的难度降低到一个“新手”就可以操控的程度。目前已有证据表明,不少网络攻击者正使用ChatGPT开发攻击工具。一是使用ChatGPT创建新的木马,攻击者只需要简要地描述其期望的功能,如将所有密码保存在X文件中,并发送到Y服务器上,就可以通过ChatGPT实现信息窃取,而不需要任何编程技能。二是使用ChatGPT暴力破解数据库,根据已公开的用户名和密码组合进行撞库攻击,窃取数据库中的信息。三是利用ChatGPT编写网络钓鱼邮件,因ChatGPT擅长模仿人类思维,编写的网络钓鱼邮件鲜有拼写错误或奇怪的格式,从而很容易躲过网络钓鱼邮件检测,并使得生成的网络钓鱼邮件具有强烈的欺骗性。
2.数据泄密风险。在高度智能化、自动化的应用场景中,ChatGPT在数据获取、处理、结果展示等环节都存在重大的数据安全风险。一是数据获取阶段。用户在使用ChatGPT时,可能会输入自己或他人的信息数据,从而导致隐私泄露。如果员工使用ChatGPT输入各类工作数据,就可能导致公司敏感信息泄露。而一旦输入涉及国家秘密或敏感内容的信息,则无疑会导致泄密。二是数据处理阶段。ChatGPT会将用户输入、交互的数据用于后续持续的迭代训练,这就导致这些信息很可能被其他用户获取,从而构成数据非授权共享,进而出现数据泄密问题。
3.知识产权风险。随着ChatGPT使用者的增加,人文及学术创作抄袭代笔乱象或将增多,对知识产权保护构成的挑战也日益加剧。一是版权归属风险。今年1月,权威学术期刊《Science》《Nature》等宣布正在更新编辑规则,强调不能在作品中使用由ChatGPT(或任何其他AI工具)生成的文本、数字、图像或图形。二是学术不端风险。如果学生在完成作业过程中,使用以ChatGPT为代表的AI工具,就会形成造假问题。巴黎政治大学于今年1月宣布,已向所有学生和教师发送电子邮件,要求其禁止使用ChatGPT等工具,旨在防止学术剽窃。
如何约束ChatGPT的潜在风险
科技界在不断追求创新和发展的同时,安全风险也应成为国家、机构和个人关注的焦点。为此,中国科技部设立的国家新一代人工智能治理专业委员会早在2021年就发布了《新一代人工智能伦理规范》,提出将伦理道德融入人工智能研发和应用的全生命周期。类似的规范和法律在欧洲、美国等地也已出台,这表明人工智能的合规治理引起了各国的广泛重视。今年1月,美国国家标准与技术研究院(NIST)发布了人工智能风险管理框架,为人工智能合规治理提供了可操作的路径。
围绕ChatGPT的使用,许多机构都制定了相关的规范性制度。一些公司如微软、高盛、美银、花旗、德银等,已明确禁止员工向ChatGPT分享敏感数据,以避免数据泄露。OpenAI公司首席技术官米拉·穆拉蒂也表示,ChatGPT应该受到监管,因为它可能被“危险分子”使用。
目前,全球各国都在制定规章制度以规范ChatGPT等AI产品的功能开发和场景应用,并出台相应的法律法规确保它们的使用安全。这些规章制度应该具有前瞻性和约束性,以确保ChatGPT的迭代升级及相关应用场景都受到监管,从而避免长远的风险与负面影响。为了降低使用ChatGPT带来的潜在风险,我们建议采取以下措施,并进一步完善监管机制。
1.完善规范性制度和相关法律,明确ChatGPT及类似产品的使用范围、安全保障和信息保护等规定。这些规定应包括ChatGPT等应用在使用过程中可能产生的法律责任,以及维护公共利益等内容,并规定违反使用规定的行为应承担何种法律责任。同时,对ChatGPT及类似产品的开发、使用和运行进行监督,对违规行为进行处罚,以最大程度地避免其可能带来的负面影响。
2.建立完善的数据保护机制,包括数据加密、访问控制和数据备份等,以确保数据的安全性和保密性。使用ChatGPT及类似产品时,需要建立用户访问控制机制,限制不必要的访问和使用,以避免数据泄露和滥用。
3.提高保密教育与防范意识。一方面让员工了解ChatGPT及类似产品自然语言生成模型的应用场景和风险,并提高其警惕性和自我保护能力;另一方面为员工提供正确使用ChatGPT等AI产品的培训和指导,帮助他们在工作中合理运用这些技术,以保护个人信息和敏感数据的安全。同时对于国家秘密、商业机密等敏感信息,应禁止使用ChatGPT及类似产品进行处理。
来源:《保密工作》杂志