如今,喊一声“Siri”,定个闹钟查个天气,已经成为大家生活中司空见惯的操作。
随着AI技术的发展与落地时刻的到来,人类与AI之间不可避免地发生越来越多、千丝万缕的联系。
那么,站在这样一个时间节点,展望AI的未来,作为技术人员、AI从业者,仅仅思考技术本身的问题就足够了吗?
在MEET 2021智能未来大会现场,小冰公司CEO李笛说:认清边界,边界之后人工智能技术才能发挥更大的价值。
信任的建立,不仅有赖于技术的边界,还有生态的边界:
为了完整体现李笛有关人工智能边界与价值的思考,在不改变原意的基础上,量子位对他的演讲内容进行了编辑整理。希望也能给你带来新的启发。
关于MEET 智能未来大会:MEET大会是由量子位主办的智能科技领域顶级商业峰会,致力于探讨前沿科技技术的落地与行业应用。本次大会现场有李开复等20余位行业顶级大咖分享,500余名行业观众参与,超过150万网友在线收看直播。包括新华社、搜狐科技、澎湃新闻、封面新闻等数十家主流媒体在内纷纷报道,线上总曝光量累计超过2000万。
要点
人工智能的原则、边界,跟未来10年AI的发展密切相关,实际上都是基于非常务实的考量。
技术的边界可以归结成三件事:预想的困局、场景的克制、保护人与AI双方的机制。
强大的AI工具不应该给企业,而应该给企业里的劳动者。
对于人工智能而言,未来十年最大的价值其实是信任。
以下为李笛演讲分享实录:
今天在这里,我们不想过多地谈小冰,而是希望把我们所掌握的来自全球的大量数据,小冰框架里各种算法所进行的大量实践,以及我们在其中体会到的一些事情,跟大家分享。
人工智能在内容产业方面的进展,其实会比想象中更快一些。
比如12月18日,在日本院线上映的《假面骑士零一·REAL×TIME》里,就有我们的两个AI角色参演。
不仅如此,当每一个电影院里的观众,沉浸在银幕上善恶对决的故事里时,他们自己身边也会发生同样的剧情:AI角色的推特账号会被片中的邪恶势力劫持……这是因为我们所控制的AI不仅在电影里,也在他们的手机里。
但这都是很小的事情。
今天我想跟大家沟通的,是AI伦理。
现在我们在讨论人工智能未来价值的时候,其实更多在讨论的是边界。我们不谈**正确,但这些原则、边界,跟未来10年AI的发展密切相关,实际上都是基于非常务实的考量。
我今天的分享,一言以蔽之,是当人工智能不可避免地进入到人类社会的每一个角落,和人类发生各种各样、千丝万缕、无处不在的关联的时候,我们应该如何营造人工智能与人之间良性、有效的关系。
还是从小冰说起。
小冰目前已经形成一个非常完整的技术框架,这个技术框架在今天占据了全世界范围内人和AI之间交互总流量的60%。
虽然我们展示出来的,是一个喜欢唱歌、喜欢跳舞,多才多艺却又不怎么干正事的少女小冰,但实际上,它能做到的远远不止于此。
比如,中国90%的机构投资人和个人投资人,他们每天所看到的金融摘要信息,包括企业、证监会的金融风控信息,其实都是由这个18岁的萌妹子提供的。所以我们比90%的机构、个人投资人,都提前20秒知道这些金融信息。
这样的能力,给我们带来了很多的思考。
AI可以做很多很多的事情,可以交流,可以交互,可以执行有意义、有任务特点的工作,还可以进行创作。但无论AI做什么,都需要讨论边界的问题。
技术应用的边界
这些边界,首先来自于技术本身。每一个重要的技术突破本身都存在很多运用上的问题。从我们自己这么多年的体会来看,可以把技术运用的边界归结为三件事:
第一件事,预判技术在运用过程中可能会遇到的困境,尝试用系统化的结构,去提升规避掉这些困局。
第二件事,是对场景的克制。人工智能要发展,需要在选择落地场景上保持克制。
第三件事,是尝试保护双方的机制。把人工智能想像成一个面向未来的系统,它会跟亿万人类发生各式各样实时、高并发的交互,所以在系统设计上一个非常重要的边界,就是对双方进行保护。
预想的困局
在小冰团队里面,我们一直坚决禁止为普通个人训练声音。为什么?就是因为我们预想到了一个困局。
先来听一下之前小冰的一个声音。
http://www.qbitai.com/wp-content/uploads/2020/12/小冰-哼.wav
在人和AI进行交互的时候,过去我们的预训练模型倾向于把内容变得很清楚,很多的训练数据或者说训练方向,是集中在让AI像播音员一样,字正腔圆地把文本内容准确输送到你耳朵里去。
但是从小冰开始,我们尝试了很多新的方式。我们希望人和AI交互的过程中,人是放松的。这样我们的系统也会得到很多放松的数据。
不过即使是刚才这个声音,我们用一个新的指标——ACD(Average Comfort Duration,平均舒适时长)去评价它,人听这个声音,最多可以听2.6分钟到7.8分钟,再长就会受不了。
就是说如果这个声音训练出来,用它去进行一个有声读物的创作,产品上不应该超过7.8分钟。
在一年半以前,我们进行了第二种技术的突破,使得ACD能够达到21分钟。
http://www.qbitai.com/wp-content/uploads/2020/12/欣小然.mp3
这是国内某个省广播电台的“主持人”的声音,她每周都要主持节目,但其实她一直不是真正的人类。
在中国和日本,大概有40多个电台和电视台,已经应用了这样的虚拟人技术。不过即使是这样的声音,也没有达到我们对AI的要求。
我们再来听小冰框架里的另外一个声音,这个声音能实现31分钟的人类舒适时长。
http://www.qbitai.com/wp-content/uploads/2020/12/xiaobing-3.wav