织梦CMS - 轻松建站从此开始!

欧博ABG官网-欧博官方网址-会员登入

美欧博拟加强立法和执法规范AI发展

时间:2024-04-27 10:18来源: 作者:admin 点击: 39 次
 OpenAI公司开发的聊天机器人ChatGPT迅速崛起,欧博吸引大批拥趸的同时,也引来了包括谷歌公司的巴德聊天机器人在内的多个竞争对手。图为公共教育学校媒体服务组织召开的关于聊天机器人ChatGPT的研讨会现场(资料照片)。  ◎本报记者 刘 霞  美国《国会山》网站在近日的报道中指出,ChatG

 OpenAI公司开发的聊天机器人ChatGPT迅速崛起,欧博吸引大批拥趸的同时,也引来了包括谷歌公司的巴德聊天机器人在内的多个竞争对手。图为公共教育学校媒体服务组织召开的关于聊天机器人ChatGPT的研讨会现场(资料照片)。

  ◎本报记者 刘 霞

  美国《国会山》网站在近日的报道中指出,ChatGPT这类生成式人工智能(AI)的爆炸式增长,以及由此带来的一些诸如虚假信息泛滥、偏见、改变劳动力结构等混乱,引发了美国联邦政府的担忧,立法者和监管机构希望采取切实行动,皇冠消弭这些担忧。

  引发两大关键问题

  《国会山》网站报道称,AI的发展可能会引发两大关键问题。

  一方面,最近生成式AI工具的兴起带来了与虚假信息传播有关的问题。另一方面,为自动化系统提供动力的AI可能会导致歧视。

  英国《新科学家》杂志也指出,ChatGPT和其他聊天机器人经常出现事实性错误,引用完全虚构的事件或文章,DG游戏在案例中编造性骚扰丑闻、诬告真人等。ChatGPT的使用也导致了数据隐私丑闻,涉及公司机密数据的泄露。另外,AI生成的图像、音频甚至视频也可能导致大规模的“深度造假”信息,美国前总统特朗普被捕和教皇方济各穿着时尚白色羽绒服的虚假AI合成照片就证明了这一点。

  加强执法呼声高涨

  美国联邦贸易委员会、司法部民权司、消费者金融保护局和平等就业机会委员会(EEOC)近日发表了一份联合声明称,鉴于AI越来越多地用于从住房到医疗保健在内的一系列服务,他们承诺加强现有法律的执行强度,欧博注册包括旨在解决AI可能会出现的歧视问题,并制定关于发展规则的新法规。

  EEOC主席夏洛特·伯罗斯表示,包括AI在内的先进技术的使用必须符合联邦法律。

  当然,这些机构的联合声明主要集中于使用AI的自动化系统,而不是像ChatGPT这样的生成式AI。

  《国会山》网站在报道中指出,即便如此,欧博代理随着ChatGPT等聊天机器人人气飙升,谷歌和其他公司也不断推出与之竞争的新产品,此外,包括特斯拉和推特首席执行官埃隆·马斯克等在内的一批企业家也竞相涌入该行业,由此可能引发的喧哗与骚动,也凸显了政策制定者迫切需要采取相关措施。

  要应对AI带来的风险,美国国会将权衡制定新法规,各机构也应加大执行现有法律的力度。因为即使在现有法律适用的地方,由于AI系统的工作方式,也可能很难执行这些法律。例如,算法招聘工具可能会导致歧视,但员工很难知道自己是否受到了系统的歧视。因此各机构需要解决的问题不仅在于如何应用法律,还要考虑如何应对执法过程中带来的挑战,以及了解这些AI系统对现实世界将产生怎样的影响等等。

  负责民权事务的助理司法部部长克里斯汀·克拉克也强调称,在当今社会出现的各种歧视问题上,AI构成了很大的威胁,这些问题需要政策制定者和其他人进行更深入的研究和审查。

  安全管理势在必行

  美国参议员本月早些时候公布了一项提案,提出将为AI监管建立一个框架,旨在提高透明度并加强问责。除此之外,立法者还准备采取行动,就AI技术兴起的相关风险向行业施压。

  参议院情报委员会最近致信ChatGPT的开发商OpenAI、元宇宙平台公司、谷歌、Anthropic和微软等科技公司首席执行官,询问他们在开发大规模AI模型时如何应对安全风险。

  信中写道,随着AI在大部分领域越来越多地使用,以及大型语言模型有可能稳步集成到从医疗保健到金融部门的一系列现有系统中,迫切需要强调AI使用过程中的安全性问题。

  针对一些参议员提出的如何利用AI等问题,美国消费者技术协会的一位发言人表示,该协会一直在与其成员“为AI政策、标准和框架制定作出贡献”。

  美国软件联盟负责美国政府关系的副总裁克雷格·奥尔布赖特则表示,国会可以要求公司制订风险管理计划,对AI的高风险使用进行风险评估,并定义何为高风险案例,而公司则需要开展影响评估和设计评估,以确保他们做正确的事。

(责任编辑:)
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:
发布者资料
查看详细资料 发送留言 加为好友 用户等级: 注册时间:2024-09-17 03:09 最后登录:2024-09-17 03:09
栏目列表
推荐内容