Discuz! Board

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 79|回复: 0

虽然不可能完全消除信息泄露

[复制链接]

1

主题

1

帖子

7

积分

新手上路

Rank: 1

积分
7
发表于 2024-2-12 12:09:14 | 显示全部楼层 |阅读模式
但可以采取措施来缓解这种情况,例如减少在线发布的详细信息以及审查和调整披露政策。实践治理:如何降低信息安全风险 博客 生成式人工智能机器学习和人工智能博客 经过 艾米丽·戈尔琴斯基 发布日期 概括 生成人工智能的信息安全风险可分为两大类:信息泄露 和漏洞引入 信息泄露可能来自公开数据、指令泄露和个人数据暴露 漏洞的引入源于人工智能生成代码中常见的质量问题 这些风险的最新例子使它们变得具体而不仅仅是假设。 通过适当的治理可以减轻这些风险,其中可能包括: 订阅封闭式 构建 外观以促进可审核性和访问控制 自托管一个或多个内部开源法学硕士 使用面向领域的LLM创建更合适的解决方案并最大限度地减少数据泄漏 加强 (持续集成/持续交付)实践并实施经过验证的质量工程实践,作为使用生成式 AI 的先决条件 审查与公开可见数据发布相关的政策 生成式人工智能,特别是像  这样的大型语言模型 (LLM),为解决从文档创建到代码生成的各种业务问题提供了巨大的潜力。


这是可能的,部分原因是他们接受了庞大数据集(整个公共互联网的很大一部分)的培训,并且因为他们随着时间的推移不断从用户反应中学习。 生成式人工智能本质上是交互式的:用户输入指令(通常以文本形式),模型根据使用其庞大的训练语料库计算出的数十亿个参数构建响应。有效的使用涉及持续的交互,用户纠正算法的输出以在下一轮中改进它。 这些算法可以通过两种新颖的方式引入信息安全风险:信息泄漏和漏洞的产生。此外,任何新工具、API、服务或云提供商 克罗地亚 WhatsApp 号码列表 的使用都可能会增加您的攻击面,但由于这并非生成式 AI 所独有,因此该主题在本文范围内的讨论范围有限。 信息泄露 使用生成式人工智能解决方案时,信息泄露是一个重大的安全风险。我将把风险简化为三类:公共数据、指令泄露和个人数据暴露。我还将简要总结风险并讨论减轻风险的策略。 公开数据 法学硕士利用大量数据集,大部分来自公共互联网。



这包括博客文章、公司网站、培训手册、论坛帖子、新闻文章、支持票证等。您公司的网站可能已被扫描并用于训练模型。最近,华盛顿邮报提供了谷歌C4数据集的搜索引擎,它允许您按域搜索并查看您的网站在数据集中贡献的令牌的百分比。 这意味着您在线托管的信息可能是模型的一部分。这可能包括您网站档案深处的详细材料,甚至是后来被删除的信息。挽回这一局面的希望渺茫。网站扫描是所有企业都会承担的经过计算的风险。然而,以前的扫描工作从未能够以如此强大的方式综合结果。法学硕士的力量改变了在互联网上自由公开信息的风险计算。 指令泄露: 第二个信息安全威胁更加隐蔽、更具破坏性。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|DiscuzX

GMT+8, 2025-9-15 10:04 , Processed in 1.003397 second(s), 18 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表