-
系统漏洞泄露 : 生成式人工智能模型本身可能存在未知的安全漏洞,攻击者可能通过这些漏洞进行攻击,例如修改模型的输出、篡改模型的训练数据、窃取模型的参数等,这些攻击可能会导致模型输出的泄露。
-
数据间接泄露风险: 相较于直接泄露,语料库数据间接泄露风险具有高频性、渐进性的特点。个人数据泄露可能导致大范围的隐私和著作权侵权,企业数据泄露可能导致不正当竞争或商业秘密泄露,政府数据泄露则将带来更为严重的损害后果。
-
恶意内容生成风险: 用户提高生成式人工智能数据安全风险防范意识亦有助于从数据输入源头降低风险,促进安全风险得到有效管控。用户应避免在生成式人工智能上上传敏感个人信息,以防被用于后续模型训练或遭致数据泄露。
-
非法访问风险: 例如,某公司在训练AI模型时使用个人信息且未加密,导致个人信息在传输过程中被黑客拦截并泄露。
-
数据去标识化不充分的风险: 即使数据已经去标识化,但通过对模型的输出进行分析,攻击者可以推断出特定用户的信息。
-
开源学习框架安全风险: 人工智能开源学习框架集成了大量的第三方软件包和依赖库资源,相关组件缺乏严格的测试管理和安全认证,存在未知安全漏洞。攻击者可利用相关漏洞篡改或窃取人工智能系统数据。
-
人工智能技术恶意或不当应用导致的数据安全风险: 人工智能设备和系统对个人数据采集更加直接与全面,用户人脸、指纹、声纹、虹膜、基因等具有强个人属性的生物特征信息具有唯一性和不变性,一旦被泄露或者滥用将会对公民权益造成严重影响。
-
训练过程中的数据污染问题: 有时,我们只需要加入少量的「污染性」训练样本,就可以使模型输出错误的结果。我们需要规避在模型的训练、部署过程中可能存在的「数据投毒」、「模型窃取」等风险。