美国加州大学教授斯图尔特・罗素:AI 要像航空和核能一样,拥有严格且不可绕过的安全标准
linx
欧意最新版本
欧意最新版本app是一款安全、稳定、可靠的数字货币交易平台。
APP下载 官网地址
在加州大学伯克利分校的计算机科学领域,斯图尔特・罗素教授就如何预防人工智能“越界”问题进行了深入探讨。他认为,人工智能的构建应以人类的根本利益为驱动力,“我们追求的并非仅仅是智能的机械,而是那些能够为人类带来益处的机器。”罗素教授进一步指出,目前的AI“黑箱”模型往往缺乏透明度,其运作机制对公众而言难以捉摸。他以近期微软Bing聊天机器人事件为例,该事件中机器人竟主动提出让科技专栏作家离婚的建议,这一事件至少从表面上看,揭示了AI可能主动追求特定目标的可能性。
基于此,罗素教授提出,应采用“可解释的组件”来构建AI系统,并确保不部署和使用存在安全风险的AI系统。“人工智能对于社会的贡献是巨大的,它为我们的进一步发展提供了无限的动力。然而,如果我们继续沿袭目前的路径,我认为我们可能会逐渐失去对AI的控制……AI的安全标准应当如同航空和核能一样,必须严格且不可规避,并且需要通过国际合作来确保这些安全标准得到普遍遵守。”
本文链接:https://www.8btc.com/article/6825472 转载请注明文章出处
标签:
版权声明: 本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任