首页 热点趣闻文章正文

政府应该如何引导生成式人工智能的使用?

热点趣闻 2025年04月08日 09:12 9 admin

  

  

  对一些人来说,人工智能的迅速崛起是焦虑的原因。人工智能是否会使偏见持续存在,暴露不准确的信息,或者自动化取代人们的工作?作为新泽西州首位首席人工智能策略师,贝丝·西蒙娜·诺韦克(Beth Simone Noveck)并不认为这是一个值得警惕的时刻,而是一个机会。

  “很多地方都保持沉默,让公务员们不知道他们应该做什么,”她说。在新泽西,“我们已经说过:你应该出去使用这些东西,请询问它们。让我们来谈谈他们。我们来谈谈。”

  随着去年11月发布的该州人工智能政策的第一次迭代,诺韦克希望推动这一对话。她并不孤单。在美国各地,政府IT领导人正在制定政策,鼓励探索新兴能力,特别是围绕生成式人工智能,同时仍注意潜在风险。

  专家表示,鉴于生成式人工智能应用的快速普及,政府迫切需要建立护栏。哈佛大学伯克曼克莱因中心(Harvard Berkman Klein Center)研究员梅赫塔布·汗(Mehtab Khan)表示:“这些工具已经公开可用,正在被私人采用或使用。”考虑到快速采用,“除了有内部政策和原则外,你没有任何控制权。”

  在这里,我们将看看其中一些新兴政策,并探讨其中的利害关系:为什么现在需要政策,以及随着生成式人工智能继续席卷世界,事情可能会如何演变。

  规范城市使用

  作为西雅图的第一项业务,临时首席技术官吉姆·洛特(Jim Loter)已经为员工制定了指导方针,以防止任何不当使用。

  虽然IT团队已经探索人工智能好几年了,但“生成式人工智能的爆炸式增长……确实促使我们更加认真地对待人们对人工智能的担忧,”他说。

  他说:“我们看到,随着ChatGPT等工具的发展,突然之间,城市员工非常有可能想要使用这项技术来开展日常业务。”“我们想就此展开一场对话。”

  为了制定政策,该市组建了一个生成式人工智能政策咨询团队,成员包括来自华盛顿大学、艾伦人工智能研究所的领导人、该市社区技术咨询委员会(CTAB)的成员和西雅图信息技术公司的员工。

  该团队遵循了该市几年前制定数据隐私政策时使用的相同模式,该策略要求以一份一般性指导声明为起点。

  Loter说:“我们发现基于原则的方法非常有效,因为它不需要我们预测该领域可能出现的每一个潜在用例。”“这让我们可以和市政府的员工沟通:去吧,用你的判断力。当你决定是否使用一个特定的系统时,请记住这些原则。”

  你应该出去使用这些东西,并请询问他们。让我们来谈谈他们。我们来谈谈。

  为此,人工智能政策阐明了几项管理原则,涉及透明度和问责制等领域;效度和信度;偏见和公平;隐私;和explainability。

  该政策还重申了长期以来的规定,即IT部门是唯一有权代表该市购买信息技术的机构。洛特说,在线访问人工智能工具太容易了,It团队希望确保城市员工不会绕过隐私和安全等方面的常规控制。

  他说,这指的是“甚至像在ChatGPT上创建一个免费账户这样基本的事情”。“如果你输入你的Seattle.gov地址,然后开始输入你的提示并使用它的结果,你就会产生不必要的风险。”

  2023年11月,新泽西州发布人工智能政策时,贝丝·西蒙娜·诺维克(Beth Simone Noveck)是该州的首席创新官。2024年1月,她被任命为首席人工智能策略师,因为州长菲尔·墨菲(Phil Murphy)呼吁实施“人工智能登月计划”。

  工作进行中

  与此同时,在加州,州首席信息官兼技术部门总监Liana Bailey-Crimmins同样描述了人工智能政策的出现,该政策将首先以行政政策的形式提供一般指导。

  “我们认识到GenAI的新的和独特的性质,并且正在与行业和学术专家密切合作,以了解这项技术的风险和好处,以及可能需要额外政策的地方,”她在给政府技术的电子邮件中说。

  在最初的日子里,这些政策努力受到加州州长加文·纽森(Gavin Newsom)的行政命令的影响。它于去年9月推出,为国家了解生成式人工智能的风险和好处提供了一个框架,为国家机构制定方法提供了方向。根据该文件,目标是在州政府内部创建一个安全、道德和负责任的创新生态系统。

  这些准则最终将涵盖公共部门采购、使用和应用生成人工智能所需的培训。Bailey-Crimmins说,这项新政策将建立在联邦层面几个来源的早期指导基础上,包括NIST的人工智能风险管理框架、白宫的人工智能权利法案蓝图,以及白宫关于安全、可靠和可信赖的人工智能开发和使用的行政命令。

  她说,随着政策的发展,加州还将招募学术和行业专家,以“确保我们采取平衡和有见地的方法来考虑当前和未来的政策需求”。

  使AI具有可操作性

  在新泽西州,州长菲尔·墨菲(Phil Murphy)成立了一个人工智能特别工作组,这通常是政策制定者在面对生成式人工智能时采取的第一步。诺维克与新泽西州首席技术官克里斯·雷因和新泽西州经济发展局首席执行官蒂姆·沙利文共同担任该工作组主席。

  2023年11月,工作组发布了第一份政策公告。该政策为政府雇员设定了一个目标,呼吁他们利用人工智能“高效、安全和公平地向所有居民提供增强的服务和产品”。

  政策的目的是指导人们做什么,而这来自于对问题的理解。

  它涉及到包容和尊重(“人工智能应该提升社区”)。它呼吁透明度(“我们必须负责任地披露,并与其他公务员和公众自由分享我们的工作流程”)。它鼓励负责任的实验(“我们理解风险最初可能并不完全明显,并承诺进行前瞻性风险评估”)。

  这么做的目的是为了开始行动。“这些都是强大的新技术,可以真正帮助我们更好地完成工作,”诺维克说。

  在探索这种可能性的过程中,“你应该采取一致的保护措施,比如:不要完全依赖他们给你的信息。当你使用它们时,一定要公开。不要将个人身份信息,无论是你的还是其他人的,放入这些工具中。”

  该政策给出了如何使用人工智能工具的具体例子,以及如何负责任地使用人工智能工具的指导。“我们还附带了一个视频入门,”诺维克说。“我们实际上会告诉你:这里是你登录的地方,这里是你应该做的事情,这里是你如何总结或翻译一些东西,或简化语言。”

  她说,这一切的目的都是“帮助人们开始使用这些技术来造福居民”。

  即使诺韦克关注人工智能的潜在好处,她也和其他人一样承认,政府在寻求充分利用这一强大的新能力时面临的风险。

  有什么利害关系?

  首先也是最重要的一点是,人工智能已经显示出巨大的能力,可以令人信服地、自信地犯错。

  与AI相关的“幻觉”的定义。

  “这些工具有时会产生幻觉,”诺维克说。“他们非常权威地吐出可能不正确的信息,因此你需要仔细检查任何文本。永远不要在没有检查的情况下就使用从ChatGPT或Bard这样的工具得到的东西。”

  她说,就像政府雇员不会在没有事先检查的情况下将实习生的工作发布给公众一样,人工智能的结果应该在用于决策或发布之前由负责任的人进行审查。

  她说:“如果没有经过检查和证明,就不要发表东西,尤其是那些居民将会依赖的东西。”

  与此同时,加州正在关注各种各样的风险。

  Bailey-Crimmins表示:“我们正专注于采购指南、风险管理和安全等关键领域,以确保适当评估、监测和减轻隐私、滥用和有偏见的结果等潜在隐患。”我们的目标吗?“安全、可靠、公平的结果。”

  在西雅图,风险评估“从一个非常简单的问题开始:这真的是新的吗?这只是一种营销手段,让它看起来很新鲜,还是真的存在新的风险?”很多说。

  简短的回答:它是新的。他说,虽然软件总是有可能出现错误,但“我们真的想不出还有什么软件能够真正地生产和生成新内容,这些内容基本上可以复制和粘贴,而且听起来像是由人制作的,”他说。这种衍生性风险是人们高度关注的问题。

  他说:“如果你用ChatGPT在城市网站上发布了一些东西,而这些东西最终是不准确的,或者在最坏的情况下实际上是煽动性的,或者以其他方式对城市有害,那么ChatGPT写了这些东西并不重要。”“无论谁决定复制粘贴并在网站上发布它,最终都要为此负责。”

  而生成风险反过来又产生了一个需要考虑的附属问题。人工智能会带来新的负债吗?

  例如,一名城市雇员使用GenAI工具来研究一个问题。“现在你已经把它带入了生态系统,你已经为它提供了现在生活在那里的城市信息。它可以被要求作为公开披露请求的一部分,而我们不知道它在那里。”

  他说,在这种情况下,“我们有可能无法对公开记录请求做出回应”。

  在哪儿我们正在前进

  所有这些很可能只是冰山一角。生成式人工智能在很大程度上是一个不断变化的目标,政府IT领导人预计风险——以及他们的政策反应——将继续演变。

  “人工智能技术正在迅速发展和变化,”贝利-克里明斯说。“我们已经看到人工智能功能被添加到许多常用的生产力和协作工具中,因此将这项技术纳入国家工作场所是不可避免的。”

  在这种情况下,“我们希望加州的人工智能和genai相关标准、指导方针和政策随着这些技术的变化而改变,”她说。

  在新泽西州,诺维克设想了更具体的内部使用政策。她说:“我们政府是如何使用人工智能技术的?这方面的规则是什么?”新出现的政策迭代将着眼于“确保这些工具做他们说要做的事情,我们对它们如何工作有足够的透明度,我们有测试它们的方法。”

  特别是,即将出台的政策将强调人的监督的重要性。策略团队还将关注早期用例,以确定最需要指导方针的地方。她说:“政策的目的是指导人们做什么,而这来自于对问题的理解。”

  在西雅图,该市的下一步将是建立一个推动广泛指导原则实际应用的结构。

  “我们将为对人工智能技术感兴趣的城市员工创建一个所谓的实践社区,”帮助他们实施这些原则,洛特说。他们将交换信息,开发最佳实践。反过来,这将有助于政策制定者“更好地理解人们在现实生活中用例中想要或应该如何使用这项技术。”

  IT团队还将制定政策,以指导自己围绕人工智能工具的购买流程。这可能会从一个明确的定义开始:下一轮政策将详细说明什么是GenAI工具,什么不是GenAI工具,既可以帮助IT部门进行评估,也可以指导城市员工了解应该在哪里以及如何应用人工智能政策。

  总体而言,该政策将继续定义高层次的交战规则,而不会过于深入具体细节。洛特说:“一旦你深入到细节层面,开始尝试为特定的产品或软件版本,甚至是特定的用例制定法律,你就开始和现实玩一场巨大的打地鼠游戏。”“我们不想讨论这个问题。”

  “好政策”的标志是它广泛适用,易于遵循,而且不需要每次新产品投放市场时都进行修改。这就是我们的目标。”-政府科技/论坛新闻服务

  ×

我一般鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ:201825640