作者:胡泳
2022-09-08·阅读时长4分钟

今天,在相当多的情况下,判断你是在与人类还是算法进行交互,正在变得越来越困难。决定谁值得信赖,获取正确的信息以及阅读正确的信任信号,对人类来说已经足够困难了——想想我们经常上当受骗的情形,但是当我们开始将我们的信任外包给算法的时候,我们该如何去相信他们的意图?当算法或机器人代表你做出你不同意的决定时,要是产生了意外的后果,应该责怪谁?
人工智能如果要想替人类完成很多让大家放心的事情,有三个技术里程碑需要克服。
第一,我们可能经常听到一句话,叫做“有多少人工就有多少智能”。传统上,人工智能被娱乐业塑造出一个错误的形象,令我们以为它是在没有人类输入的情况下就可以自如运作的技术。难怪很多人震惊地发现,谷歌助理依靠人类的帮助来提高自身对语音对话的理解,或者很多科技创业公司雇用人类工人来制作人工智能的功能原型和模仿品。
与传统计算不同,人工智能可以在一系列尚未由人预编程的情况下做出决策。人工智能大部分是可以通过经验学习和发展的系统,通常用于执行我们的专业任务,不管它是驾驶,是玩策略游戏还是开展投资,这个也被称作“认知计算”,需要通过输入大量的数据进行培训。
现在,我们号称进入了大数据时代,然而数据多并不意味着质量高,没有标注的数据可用性非常低。数据标注就是一种重复性的工作,但它是大多数人工智能应用的起点,人工智能打着更好地把人从重复性工作中解放出来的旗号,但现在存在一个悖论:要先通过人类的大量重复性工作,才能让机器实现智能。
尽管数据标注一类的工作会逐渐为人工智能所接手,但放眼未来,人工智能将始终需要人类的投入和专业知识,从而以符合道德负责和安全的方式充分发挥它的潜力。
例如,在社交媒体中需要人类对算法极端化予以纠正;在医学上,人类和机器的共同努力,将产生比任何一方单独能够实现的更大效果;在自动驾驶等领域,人工智能的优越性是训练的结果。然而一旦发生了人工智能未经训练而不得不处理的事情,有人工智能驱动的优势就会被抹去。当这种情况发生时,人工智能的处理能力必须让位于人类的创造力和适应能力。
所以,人工智能必须处理好人工与智能的关系。最终,只要有新的应用让它学习,有新的任务让它掌握,人工智能就始终需要人类的投入。

第二,人工智能必须学习如何学习。
在这里我们需要分析一下什么叫做智能。这一术语的使用常常导致人们对AI的能力进行拟人化。所谓的拟人化就是把人类的特征和行为分配给非人类的事物。我们对拟人化的风险有一个误解,其实今天可用的大多数AI技术都是根据特定目标学习或优化活动的,因此它们只能按照所传授的内容进行操作。它们的能力反映了培训的数据、质量、AI流程的设计情况。
尽管今天生活中的很多东西已经被人工智能所服务,但一旦人工智能遇到异常情况的时候,仍然需要人工来处理,这意味着AI目前的形势非常狭窄,只能够专门用于特定的应用程序,它所遵循的流程和程序是不可迁移的。
比如说,前面我讲到AlphaGo战胜了顶尖的围棋人类选手,但如果让它下国际象棋,它甚至都无法击败一个普通的人类玩家。所以谷歌在后续开发的时候,就是在AlphaGo之后,又开发了AlphaZero,AlphaZero主要要攻克的难点,就是怎么做到举一反三。比如说你只要把基本的游戏规则提供给AlphaZero,那么人类和人类生成的数据都不构成它的自我学习过程的一部分。在短短几个小时的自我游戏中,AlphaZero就达到了人类需要1500年才能达到的技能水平。
所以这是要怎样(设计)一个在各种游戏中都能实现强大性能的AI算法(的问题)。我们把游戏分成两种,一种叫做完全的信息游戏,比如围棋、象棋等棋盘游戏;还有一种叫不完全的信息游戏,例如扑克。必须有一种通用的AI算法,能够在完全游戏和不完全游戏中都实现强大的性能,这就是设想能够在任意环境中学习的真正通用的人工智能算法迈出的重要一步。
那么,如果人工智能开始变得真正聪明,并能够学习未被教授的行为时,会对人类认知产生什么影响?在这个本质上是加速选择的过程中,伦理学的作用又是什么?
第三点,人工智能还需要解决“不知之不知”的困局。“不知之不知”听上去有点拗口,它是前美国国防部长拉姆斯菲尔德在2002年2月回应记者提问时的名言。2002年的时候,美国以伊拉克政府拥有大规模杀伤性武器并支援恐怖分子为由,打算与其开战。这个时候,美国的国防部长拉姆斯菲尔德被记者问到,你们有什么证据?他这样解释:据我们所知,有“已知的已知”(有些事,我们知道我们知道);但我们也知道有“已知的未知”(有些事,我们知道我们是不知道的),但是同样存在“未知的未知”。我前面说到“不知之不知”,它意味着有些事我们根本不知道自己不知道这个事。
人工智能系统的内部工作往往不透明,人类很难理解人工智能学习系统是如何得出结论的。在这里我们套用拉姆斯菲尔德的形容,这就是典型的“不知之不知”。所以人工智能必须克服的一个技术挑战,是与,人类相比的理解差距。为了解决这个问题,设计者和观察者已经在讨论在AI系统中需要一定程度的解释逻辑,以便检查错误,并让人类学习和理解。
从12个现象出发
透视媒介化世界的运行规则


发表文章14篇 获得0个推荐 粉丝32人
数字媒介批评者
现在下载APP,注册有红包哦!
三联生活周刊官方APP,你想看的都在这里