文章发表于2024-04-03 09:50:43,归属【信息安全】分类,已有1381人阅读
你上网找到了新的ChatGPT AI机器人。和它聊了一会儿,你就分享了各种各样的个人信息。也许你提到了你的名字,一些同事、家人和朋友的名字,你的兴趣,你工作的地方,等等。甚至在你开始说话之前,当你同意它的服务条款时,ChatGPT已经从注册过程中获得了你的电话号码和电子邮件地址,而你并没有完整地阅读这些条款。
现在,一些问题不可避免地出现了。人工智能机器人存储了所有这些信息吗?你的数据安全吗?AI会和其他用户分享吗?它是如何使用你的数据的?
对ChatGPT隐私的担忧正在增加
摩根大通(J.P. Morgan)、亚马逊(Amazon)和沃尔玛(Walmart)等公司已经限制并警告员工不要与ChatGPT共享敏感业务数据。据Insider网站报道,亚马逊公司的一名律师告诉员工,该公司已经看到了ChatGPT响应的实例,这些响应与亚马逊内部数据类似。那么人工智能机器人是如何获得这些信息的呢?个人是否应该担心与ChatGPT分享他们的敏感数据?
隐私权衡
Jamal Ahmed被BBC称为“数据保护之王”。作为Kazient privacy Experts的全球隐私顾问,Jamal在数据隐私方面具有专业经验。我问贾马尔,他是否担心ChatGPT以及微软、谷歌、You.com等公司开发的类似模型带来的数据隐私风险。
“担心?那还用说!”Jamal Ahmed说。“虽然ChatGPT和它的同类向世界承诺,但重要的是要记住,天下没有免费的午餐。在这种情况下,午餐可能是你的数据隐私。”
Jamal Ahmed表示,人工智能聊天机器人打开了数字世界的潘多拉魔盒。Open AI的隐私政策和微软的隐私政策——以及其他文档——都因缺乏透明度和语言模糊而受到批评。虽然这些公司向用户保证,他们不会保存用户在聊天机器人中输入的内容,但专家们对此并不同意。
“当你与ChatGPT或类似的人工智能模型共享信息时,你实际上是在为系统的学习过程做出贡献,”艾哈迈德告诉我。“这些数据存储在由各自公司管理的安全数据中心中。”艾哈迈德继续警告我警惕的必要性。“虽然这些组织声称努力匿名化和保护用户信息,但访问这些数据的方式仍然可能有所不同。重要的是要记住,在某些情况下,用户数据可能与个人身份相关联。”
谁可能会访问你的个人数据?
在伊利诺伊州芝加哥,全球数据隐私和保护专家战略家Debbie Reynolds已成为数据隐私和新兴技术领域的领军人物。Debbie经常出现在美国主流媒体上,如PBS, Wired, Business Insider和USA Today。
如果ChatGPT被攻破,个人数据是否会有风险?执法部门是否可以签发搜查令来获取个人信息?尽管ChatGPT声称它不会保存聊天记录,但它会保存聊天记录吗?
答案是肯定的。一些公司正试图找到降低风险的方法。如果他们发生了违规行为,他们可能会制定政策,确保进入模型(ChatGPT)的数据不那么具有个人身份。
雷诺兹补充说:“科技公司收集的关于个人的任何信息,只要他们按照自己的商业模式来存储,都可以被执法部门要求。”
她还强调了协议的重要性,即用户必须以数字方式接受才能访问ChatGPT。“基本上,当你注册使用这些公司的产品并输入信息时,这些信息基本上属于他们。所以你无法控制他们在收到数据后如何处理数据。”
ChatGPT是否接受了您与它共享的信息的培训?
ChatGPT编码的一个护栏是专门用来防止AI模型使用用户输入的信息来为其他用户创建响应的。但ChatGPT承认,聊天机器人确实保存了个人对话的聊天记录。
雷诺兹解释说:“他们试图做到这一点,这样他们就不会把这些信息反刍出去。”“因此,当用户在提示符中输入信息时,他们会试图过滤掉这些信息,这样它就不会被使用。”
当我问来自Fractal的Sagar Shah。对于他的观点,他直接谈到了网络安全和隐私风险。Shah说:“由于涉及隐私政策,OpenAI的培训协议可能会有问题。”“ChatGPT被输入了书籍、文章、网站,最明显的是,每个用户通过他们提出的问题向机器人提供的信息。”
他补充说:“人们很可能会交出敏感信息、专有内容(例如代码、文章、散文),以及用户IP地址、浏览器类型、设置和用户与人工智能互动的数据。”
是否有法律保护您与ChatGPT共享的数据?
法律法规总是落后于技术和创新一步。虽然有广泛的法律适用于数据隐私,但人工智能领域仍处于灰色地带。我的一个问题是,如果执法人员要求提供用户数据会发生什么。
黛比·雷诺兹解释说:“这是一个新工具,它产生了许多人们还没有看到的新法律问题。”“所以,我还没有听说执法部门有人要求聊天机器人提供数据。”
OneTrust首席产品与战略官Blake Brannon说:“虽然版权所有权和商业秘密保护是使用人工智能技术的企业的重要关注点,但还有更基本的问题需要考虑,尤其是即将出台的《人工智能法案》等法规。”
《人工智能法》是由技术相关法律在世界上处于领先地位的欧洲的监管机构提出的第一部人工智能法律。截至2023年3月,该法律的初稿正在欧洲议会进行介绍和辩论。
根据该法律,ChatGPT和类似的人工智能技术将必须接受外部审计。这些审计将检查他们的性能和安全标准。班农解释说:“这项法规(人工智能法案)将规定哪些数据可以用来训练人工智能工具,如果个人数据被用来训练人工智能,个人必须给予多大程度的明确同意。”
为了遵守法律,组织必须监控和管理他们的团队使用人工智能技术的目的。它还可能要求组织征求用户的明确同意。透明度也至关重要,包括披露他们使用的人工智能类型以及他们如何确保人工智能合规。
班农说:“企业必须意识到这些问题,并采取措施确保他们遵守与人工智能相关的法规和道德考虑,这一点很重要。”
公司将如何使用ChatGPT并降低隐私风险?
最近,微软宣布它正在扩大其ChatGPT产品组合,为公司提供广泛的企业解决方案,将ChatGPT集成到他们的系统中。Salesforce等其他公司也公布了将聊天机器人集成到Slack的计划。包括Snap和Discord在内的几家领先科技公司,一直在竞相将生成式人工智能整合到它们面向消费者的产品和工具中。
在这种趋势下,我想知道公司如何能够利用ChatGPT的潜力,同时保护他们的敏感数据和降低风险。
“我会告诉客户、顾客或商业同行,他们应该仔细评估在运营中使用人工智能的潜在好处,”Sagar Shah说。“公司应该考虑提高效率、增加客户参与度和节省成本,但也要透明地确保他们了解风险——比如数据隐私和安全漏洞。”
在撰写本文的前几天,我在一个虚拟人工智能会议上遇到了NexusLeap的首席执行官兼首席技术官Madhav Srinath。我很想知道他对那些想要将人工智能聊天机器人技术整合到运营中的公司有什么看法。
“通过利用云,组织可以以模块化的方式将ChatGPT等人工智能模型无缝集成到他们的产品中,”Srinath说。这种方法使他们能够在保持数据隐私、安全性和可扩展性的同时,保持在快速发展的技术生态系统的最前沿。”
“公司需要确保进出ChatGTP这样的工具的任何数据都是锁定和保护的,”斯里纳斯说。“公司对自己制造的聊天机器人有更多的控制权,但这并不一定意味着它本质上更安全。他们必须自己故意设置这些护栏和边界。一家公司很有可能开发出远不如ChatGPT安全的聊天机器人,尽管后者是可以公开访问的。”
“当人们开始使用谷歌翻译时,”黛比·雷诺兹告诉我,“特别是当他们试图用它来翻译法律文件或机密合同时,组织在封闭的系统中开发了自己的内部翻译应用程序。所以当他们进行翻译时,他们的信息不会进入互联网。”
似乎有了ChatGPT,公司不仅需要确定使用该技术的好处,还需要确定风险,然后决定他们想要如何使用它。
雷诺兹告诉我:“未来,公司可能能够创建自己的内部人工智能聊天机器人,这些机器人不连接到互联网,只使用组织内部的信息。”“所以我认为这是一件好事,它将在公司中非常受欢迎。”
贾迈勒·艾哈迈德也就公司应该如何使用ChatGPT发表了看法。“对于考虑在运营中采用ChatGPT或类似模式的客户,我建议慎重考虑数据隐私问题,采取全面而周到的方法。这包括进行彻底的风险评估,制定强有力的数据保护政策,并与用户保持透明度——以专业和警惕的态度捍卫数据隐私。”
我就数据隐私问题采访了ChatGPT。下面是它的内容。
我深入研究了所有我能在网上找到的关于Open AI的人工智能标准、隐私政策以及人工智能聊天如何工作的相关信息。虽然我没有找到大多数问题的具体答案,但与OpenAI不同的是,微软保证必应AI ChatGPT不会使用用户输入的信息来进一步训练它。
然而,与我交谈过的每个人,包括来自美国和英国的数据隐私专家,都强烈反对这种说法。这让我感到困惑,想要弄清问题的真相。然后发生了一件非常有趣的事情。
在寻找更多信息的时候,我决定直接去找资料来源。也许ChatGPT人工智能机器人本身会对这个问题说些什么。毕竟,如果有人知道ChatGPT是如何工作的,那一定是人工智能应用程序本身。所以我决定采访它。
我使用的ChatGPT版本是由OpenAI提供的。事情是这样的。
ChatGPT有我的聊天记录吗?
还没等我开始用这款应用聊天,屏幕上就出现了一条警告:“我们的人工智能训练师可能会审查对话,以改进我们的系统。”请不要在谈话中分享任何敏感信息。”我想知道有多少用户注意到了这条信息,或者了解其中涉及的隐私风险。
我继续前进,决定开门见山。我从一个简单的问题开始:“你把我输入的信息存储在哪里?”
ChatGPT回答说:“作为一种人工智能语言模型,我没有自己存储信息的能力。”“我只是一个运行在OpenAI维护的服务器上的软件程序。当你输入信息给我时,它会通过互联网传输,并由托管我的程序的服务器进行处理。OpenAI非常重视用户隐私和数据安全,他们按照行业标准的安全协议以安全的方式存储你的信息。”
好吧,我想,也许我应该再来一次。“你有我和你聊天的记录吗?”我问。
“作为一种人工智能语言模型,我不会保留我们之前对话的任何记忆,除非你明确选择保存聊天内容的副本,”ChatGPT回答说。“当你使用我的时候,你的聊天记录会存储在你使用我的设备或平台上,比如你的电脑或智能手机,或者你用来和我交流的消息平台。OpenAI不会保留任何用户数据或聊天记录,除非是提供服务所必需的,任何收集到的数据都是在最大程度上尊重用户隐私和安全的情况下处理的。”
很明显,这款人工智能应用给出的隐私政策答案有些笼统,这与最初的隐私警告相矛盾。
使用ChatGPT我的信息安全吗?
当被直接问到我分享给它的信息是否安全时,ChatGPT就不那么让人放心了。“作为一种人工智能语言模型,我不能保证你与我分享的任何信息都是完全安全的。”
然后它说,“然而,OpenAI非常重视用户隐私和数据安全,他们使用行业标准的安全协议来保护用户数据免受未经授权的访问、泄露或修改。此外,OpenAI对传输和静止的用户数据进行加密,以确保它不会被第三方拦截或访问。话虽如此,在与包括我在内的任何数字平台或服务分享敏感信息时,总是建议大家谨慎行事。”
“你认为数据隐私专家和摩根大通(J.P. Morgan Chase)、亚马逊(Amazon)和沃尔玛(Walmart)等几家公司为何指示员工不要与你分享敏感的商业信息?”我问ChatGPT。
“出于几个原因,一些公司和数据隐私专家可能会建议不要与我或其他人工智能语言模型共享敏感的商业信息,”它回答说。
然后,它列出了数据安全、法律和合规性以及数据所有权标准,公司可以应用这些标准来减轻与第三方提供商共享敏感数据的风险。再一次,它的答案都是泛泛的,而且这个机器人尽量不具体回答我问的问题。
真实的人看到我用ChatGPT聊天吗?
后来,ChatGPT向我解释了该公司如何使用与用户聊天互动的匿名和汇总数据来训练和改进其模型。它还向我保证,用于此目的的数据不包括任何“可用于识别个人用户”的个人信息。
然而,《每日电讯报》最近报道称,微软必应聊天机器人的工作人员正在阅读用户与必应聊天机器人的对话。微软的一位发言人告诉媒体:“为了有效地回应和监控不恰当的行为,我们采用了自动和手动的方式来审查与必应共享的提示。”
ChatGPT还承认,人工版主访问了它的聊天数据,并表示:“OpenAI雇佣人工版主来监控用户和像我这样的人工智能语言模型之间的交互,以确保模型正确执行,并识别任何潜在的问题或错误。这些版主可能可以访问你的聊天内容,但他们受到严格的保密协议的约束,并接受过训练,以最谨慎和尊重隐私的方式处理用户数据。”
OpenAI正在做什么来保护我的数据?
OpenAI否认他们审查对话或使用ChatGPT输入的信息来训练人工智能。他们还有大量删除聊天记录和数据的程序,并敦促用户不要分享个人信息。但出于某种原因,聊天本身往往很难回答简单的隐私问题,而且给出的答案一般、难以捉摸。
我想知道开发人员是否正在努力减轻ChatGPT的隐私风险,所以我问,“OpenAI目前正在努力加强你的隐私功能吗?”隐私政策在多大程度上限制了你的日常操作,比如你可以研究、说什么和学习什么?”
“是的,OpenAI一直在努力加强他们的语言模型的隐私功能,包括我,”人工智能聊天回答。“OpenAI定期审查和更新其安全协议,以确保它们能够有效应对新出现的威胁,并改善对用户数据的保护。”
ChatGPT解释了其道德标准、隐私原则,以及如何对其进行编码,以防止恶意使用该应用程序、偏见和有害内容。
“总的来说,OpenAI致力于确保他们的语言模型,包括我,以负责任和道德的方式使用,并尽可能地保护用户的隐私和安全,”它说。
不过,我还是想知道。隐私是OpenAI的优先事项吗?那么其他即将问世的人工智能聊天机器人呢?
有一件事我明白了。关于数据隐私和安全的人工智能对话从未结束。事实上,这才刚刚开始。希望在严重的数据隐私泄露给世界带来严重后果之前,我们能进行必要的辩论。这一切将如何发展?没有人知道答案,人工智能也不清楚。