专家警告别把ChatGPT当树洞!5类资讯千万别说 附私隐保护懒人包
人工智能聊天机械人已经成为现代生活不可或缺的一部分,从ChatGPT、Gemini到Copilot和Claude,这些工具帮助我们撰写电邮、规划行程、甚至准备就医问题清单。
根据伊隆大学数码未来中心(Digital Future Center)最新调查显示,目前美国已有半数民众日常使用这类技术,该中心主任李雷尼(Lee Rainie)表示,大型语言模型的普及速度惊人,特别是这些工具已深深融入人们的社交生活中,然而在享受便利的同时,用家对于资讯分享的界线却往往掉以轻心,专家警告这可能带来严重的私隐风险。
ChatGPT AI聊天竟暗藏危机!5大禁忌资讯曝光!
史丹福大学人本人工智能研究所(Human-Centered AI)近期针对6家主要AI开发企业进行深入分析,包括OpenAI的ChatGPT、Google的Gemini、Anthropic的Claude、Amazon的Nova、Meta的MetaAI以及Microsoft的Copilot。研究发现,这些平台预设会将用家对话用于模型训练与改善,部分公司甚至无限期保存这些资料。
网络安全专家乔治卡米德(George Kamide)指出,多数人严重低估了AI聊天机械人保存、分析和再利用资讯的程度。他解释,许多大型语言模型会利用用家输入进行训练或微调,这意味著对话内容可能直接或间接影响模型未来的回应,一旦对话中包含个人识别资讯、敏感数据或机密内容,这些资料就可能成为超出用家控制范围的资料集一部分。
卡米德强调,对AI企业而言,从用家身上能获取的最大价值就是数据本身,专家特别提醒,有5类资讯绝对不应与AI聊天机械人分享:
首先是个人识别资讯,包括姓名、地址、电话号码、护照或驾驶执照号码等,这些资料一旦外泄可能导致身份盗用、网络钓鱼或资料中介等风险;
其次是财务资讯,如信用卡号、银行户口或投资组合细节;
第三是健康相关的敏感资料,包括病历、处方或基因检测结果;
第四是工作机密,例如公司内部文件、客户资料或商业策略;
最后则是密码与登入凭证,这些资讯若被记录可能让黑客有机可乘。
值得注意的是,即使已经不小心分享了敏感资讯,用家仍有补救措施,多数AI平台都提供删除对话纪录的功能,用家可以进入设定选项,找到历史纪录管理并删除特定对话。
此外,也可以选择关闭资料训练功能,避免未来的对话被用于模型改善,部分平台如ChatGPT还提供“暂时聊天”模式,在此模式下的对话不会被保存或用于训练。
专家建议,用家在与AI互动时应养成良好习惯,例如使用假名或代称、避免提供完整的个人资讯、定期检查并清理对话纪录。
卡米德提醒,虽然AI工具带来极大便利,但用家必须意识到,每一次对话都可能成为永久记录,因此在分享任何资讯前都应三思而后行,随著AI技术持续进化,用家的资讯安全意识也必须同步提升,专家呼吁在享受科技便利的同时,更要懂得保护自己的私隐,避免因一时疏忽而造成难以挽回的后果,毕竟在数码时代,资料就是最珍贵的资产,一旦失去控制权,后果将难以预料。
【延伸阅读】公共Wi-Fi不能随便连?中国国安部揭黑客陷阱:手机恐遭监控(点击图片放大)
延伸阅读:
Apple 证实将联手 Google Gemini!下一代“超强 AI 助理”预计这时候登场!
【本文获“JUKSY街星”授权转载。】