首页 热点趣闻文章正文

选择基因伴侣:信任,但要核实

热点趣闻 2025年02月13日 03:41 26 admin

  

  

  企业高管们仍然痴迷于生成式人工智能(genAI)的可能性,他们往往坚持让IT部门弄清楚如何让这项技术发挥作用。

  让我们抛开对genAI的常见担忧,例如幻觉和其他错误,这些错误使得必须检查它生成的每一行(并消除任何希望提高效率的希望)。或者,数据泄露是不可避免的,几乎不可能发现,直到为时已晚。(OWASP整理了一份令人印象深刻的清单,列出了来自ai和法学硕士的最大IT威胁。)

  在执行任务时,逻辑和常识并不总是高级管理层的优势。这意味着IT问题将很少是“我们应该做GenAI吗?”这对我们来说有意义吗?”那将是:“我们被命令这么做。什么是最具成本效益和最安全的方法?”

  带着这些问题,我对美联社对AWS首席执行官亚当·塞利普斯基的采访很感兴趣,尤其是他的评论:“我们的大多数企业客户都不会构建模型。他们中的大多数人都想使用其他人建立的模型。我认为,一家公司将供应世界上所有型号的想法是不现实的。我们发现客户需要尝试,我们正在提供这种服务。”

  这是一个站得住脚的论点,也是对许多高管想法的公正总结。但应该这样吗?选择不仅仅是购买还是建造。企业是否应该创建和管理自己的模型?依赖大公司(尤其是AWS、微软或谷歌)?或者使用GenAI竞技场中几十个较小的专业玩家之一?

  它可以是——而且可能应该是——三者的结合,这取决于企业及其特定的需求和目标。

  尽管有成千上万的物流和细节需要考虑,但涉及genAI开发和部署的基本企业IT问题很简单:信任。

  使用genAI的决策与企业云决策有很多共同之处。在任何一种情况下,一家公司都是在将其大部分知识产权(最敏感的数据)交给第三方。在这两种情况下,第三方都试图提供尽可能少的可见性和控制。

  在云中,企业租户很少被告知直接影响其数据的配置或其他设置更改。(不要指望云供应商向企业租户申请进行这些更改的许可。)

  genAI的相似之处是显而易见的:我的数据是如何得到保护的?基因人工智能的答案是如何得到保护的?我们的数据训练模式会被我们的竞争对手使用吗?对于这个问题,我如何确切地知道正在训练的模型是什么?

  作为一个实际问题,这将通过合同来处理(或避免),这将我们带回到与知名第三方或较小的,不太知名的公司合作的选择。他们的规模越小,就越有可能接受你的合同条款。

  当你想出你的基因策略时,记住这个动态:你会想要很多让步,当你是更大的鱼时,这些让步更容易得到。

  只有在签订合同时,信任才真正发挥作用。为你的总法律顾问、首席信息安全官和合规主管编写足够的可见性和控制将是困难的。但更令人担忧的是验证:第三方基因人工智能提供商将允许您做些什么来审计他们的操作,以确保他们履行承诺?

  更可怕的是,即使他们同意你提出的所有要求,其中一些项目是如何核实的?如果第三方承诺你的数据不会被用来训练他们的算法,你怎么能确保它不会被使用呢?

  这就是为什么企业不应该这么快就放弃自己做大量的人工智能工作,可能是通过收购一家规模较小的公司。(我们不要讨论你是否信任自己的员工。让我们假装你知道。)

  Akamai咨询公司首席信息安全官史蒂夫?温特菲尔德(Steve Winterfield)指出,通用人工智能(包括机器学习)与法学硕士和通用人工智能之间存在一个关键区别,两者有着本质的不同。

  “我从不担心我的员工涉足(通用)人工智能,但现在我们正在谈论公共人工智能,”温特菲尔德说。“它可以提取一部分学习数据库,并将其发布到其他地方。我甚至可以审计发生了什么吗?假设销售团队中的某个人想要写一封关于即将发布的新产品的电子邮件,并请求(genAI)提供帮助。风险暴露了一些我们还没公布的东西。谷歌的DNA是,客户就是商业模式。我怎样才能防止我们的信息被共享?给我。”

  温特菲尔德说,与较小的基因公司谈判没问题,但他担心这些公司的未来,比如倒闭或被Akamai的竞争对手收购。“它们两年后还会出现吗?”

  另一个关键的担忧是网络安全:第三方公司会在多大程度上保护你的数据,如果你的首席信息安全官选择使用genAI来处理你自己的安全问题,它会在多大程度上起作用?

  全球咨询公司Wipro的战略总经理乔西·乔治(Josey George)说:“由于对人工智能系统的对抗性攻击缺乏可视性,soc将完全措手不及。”“今天的soc从多种类型的IT基础设施(如防火墙、服务器、路由器、端点、网关)收集数据,并将这些数据注入安全分析平台。将经典AI和通用AI嵌入其中的新应用程序将无法区分针对AI系统的高级对抗性攻击和常规输入,因此将生成业务照常的事件日志。

  乔治说:“这可能意味着从这些系统收集的事件日志对于指示即将发生或正在进行的攻击没有任何价值。”

  “现在与人工智能公司合作是一个危险的时期,”人工智能供应商Ensense的联合创始人兼首席技术官、人工智能行业资深人士迈克尔·克劳斯(Michael Krause)说。“许多人工智能公司都是在这股浪潮中成立的,很难区分事实和虚构。

  Krause说:“随着行业的成熟,这种情况将会改变,而那些虚假的公司将会被淘汰。”“许多公司和产品几乎不可能证明合规。”

  Krause为试图与genAI项目合作的企业首席信息安全官提供了一些建议。

  “要求不使用内部数据来训练或微调共享模型——也不应该保存或存储数据。要求为您的专属使用部署单独的环境,禁止任何数据共享,并由您控制访问。要求根据要求或结论关闭和删除任何和所有数据和环境。同意在审计业务结束之前和之后进行数据安全审计。”

  说到需要注意的事情,OpenAI——唯一一家CEO可以解雇董事会的公司,尽管需要微软的一点帮助,尤其是微软的资金——在12月13日更新其条款和条件时引起了很多人的不满。OpenAI在其新的使用条款中表示,如果有人使用公司的电子邮件地址,该帐户可能会自动“添加到该组织与我们的商业帐户中”。如果发生这种情况,“该组织的管理员将能够控制你的帐户,包括能够访问内容。”

  你要么需要找一个免费的个人账户使用,要么避免问ChatGPT“你能帮我写一份简历吗?”或者“我怎样才能侵入老板的电子邮件账户?”

  新版本允许人们选择退出OpenAI在他们的数据上训练算法。但OpenAI并没有让它变得容易,它迫使用户跳过很多障碍才能做到这一点。它首先告诉用户去这个页面。然而,该页面不允许选择退出。相反,该页面建议用户转到另一个页面。那个页面也不起作用,但它指向另一个URL——它在右角有一个按钮可以应用。接下来,它必须验证一个电子邮件地址,然后说它会考虑这个请求。

  你可能会认为他们想要阻止人们选择退出。(更新:更新发布后不久,OpenAI删除了其中一个不良链接。)

我一般鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ:201825640