在这个日新月异的数字化时代,人工智能已经成为一股不可阻挡的潮流,以前所未有的速度渗透到我们工作和生活的方方面面。
工作中,AI创作工具能高效地创作出高质量的文案、设计图甚至是编写程序代码;生活中,AI换脸技术在娱乐、影视等领域大放异彩,精致的“脸部合成重塑”让人真假难辨......
然而,这些酷炫科技的背后,却存在着一个个不容忽视的“泄密陷阱”。比如,AI模型会记忆你的使用记录,并可能在未来将一些数据“另存”给他人;又比如,AI技术可以生成以假乱真的“作品”,一旦这些“作品”被不法分子利用,将造成不可估量的损失……

涉密信息被“云共享”

【案例一】:2023年3月,三星公司在引入ChatGPT后,短时间内便曝出多起机密资料外泄事件。经调查,泄密事件是由三星员工直接将企业机密信息以提问的方式输入到ChatGPT中所引起的,该做法导致三星公司半导体设备测量资料、源代码、产品良率等机密内容进入学习数据库,内部信息瞬间外泄,且无法收回。
【案例二】:2024年8月,国安部发布紧急提醒,指出部分涉密人员在起草涉密材料时,为节省工作时间,违规将涉密素材和涉密文件内容输入AI写作小程序生成文章,造成国家秘密泄露。事实上,AI小程序会自动收集用户输入的信息内容以供自主学习,这些信息一旦进入数据库就很容易被境外间谍情报机关窃取,危害国家安全和利益。
AI创作工具在某些情况下就像一个大型的“云储存”空间,当你习惯于在其中录入工作资料来帮助完成创作时,各个环节存在的安全漏洞,都会导致你输入的机密信息在不经意间“共享”给大家。

脸部特征被“不法利用”


保密警示
本期编辑:朱美玉

编辑:杨琦琪
0