新冠肺炎病毒的爆发敲响了警钟,提醒我们要建立信任度超过90%的人工智能。
人类第一次仰望星空空的时候,离文明并不远。现在的AI也是如此。席卷全球的疫情发出了信号和警告,我们需要一个新的AI脚本。
以前我们花太多时间开发卖广告的AI。从现在开始,我们不妨重新评估一下,未来几十年我们需要构建什么样的AI。如何以我们想要的方式实现更好的AI?关于“重启”这个问题的多维思考,连接了“围炉夜话”的所有环节和亮点。
7月10日晚8点,WAIC开发商日正式启动。作为开篇特写,机器心和上海交通大学人工智能研究所联合邀请了奇奇创坛创始人兼首席执行官齐鲁和Robots.ai创始人兼首席执行官Gary Marcus进行峰会对话。
此外,在“演示日”环节,一系列高质量的开源项目相继出现。除了主流开源工具和框架的讨论,实践中也有热门方向,比如人脸图像,流行的游戏开源项目。企业内部的开源和技术框架也成为亮点之一。例如,阿里巴巴淘大技术部的无限开发专家吴分享了的部署实践。
当我们把目光从技术角度转向整个AI行业时,会发现AI仍然处于不被完全信任的状态,这无疑会阻碍AI应用的发展。
比如深度学习指导下的机器无法灵活处理不可预测的事件,隐私、偏见、版权等伦理问题屡屡引发舆论风暴。纵观学术界和行业,复现性审查的缺乏和巨头的严重垄断市场阻碍了行业的前进。
为了解决这些问题,齐鲁和加里·马库斯带来了许多精彩的见解。
对话首先讨论深度学习的局限性。加里·马库斯(Gary Marcus)认为,现有的深度学习训练方法是用数据代替机器的思维,无法使其对世界有更深层次的感知和推理。与深度学习相比,“常识推理”是一种更有效的训练AI的方式,可以从思维方式上改变机器的认知水平。
在人工智能伦理方面,对话面对了最近陷入舆论漩涡的隐私和偏见问题。加里·马库斯(Gary Marcus)认为,使用分布式学习框架的“联合学习”可以有效解决数据获取和隐私保护之间的矛盾。AI的偏差是数据本身的不平衡造成的。除非能训练AI理解数据背后的含义,否则偏差的问题无法解决。
在大多数人的心目中,要解决这些伦理问题,AI应该向人工通用智能努力。但是AGI太远了。加里认为,我们的目标应该是“强大的人工智能”,比如创造一个能够推理物理世界的系统。
如何创作?从学术角度看,应改革激励机制,鼓励“可再生”的项目研究;从AI市场来看,要改变垄断现状,把巨人公司拆分成几个创业项目,激发市场活力。
第一,技术重启:深度学习不够
当齐鲁问到人工智能在疫情中的应用潜力时,加里回答说:“AI做得还不够。」
在加里看来,人工智能未来的方向是帮助人类进行更深入的科学研究。应该能够阅读文献,学习医学、生物、化学,帮助人类筛选药物,通过计算机模拟了解药物安全性,无需经过人体试验,或者筛选SARS-CoV-2论文,判断研究价值。但目前机器最多只能根据关键词过滤论文。
在深度学习已经成为人工智能主导的这些年里,机器感知世界的方式是数据,需要大量的数据来识别对象,动作也需要依靠设定的程序。
所以当遇到SARS-CoV-2等新疾病时,缺乏庞大的数据库,机器的功能会非常有限。
学术界一直有对深度学习的批评。如果我们总是使用大量的数据而不是真实的思维,机器将永远无法像人类一样感知和推理。
比如加里说:“我现在看到的图片中间有一个红色的水瓶。我没有看到任何东西支持它,但它绝对不是像普通物理知识所预测的那样在空中漂浮。我能猜到它是稳定的,但机器不能。」
同样,机器也无法处理意想不到的情况,就像AlphaGo打败人类Go高手时流传的笑话“房间着火时,我们的机器人就能打出超人的Go招式。”——人类有关于世界的基本知识(火是危险的),也有推理能力(应该远离火),而机器没有。
怎么做?加里的回答是,“用常识推理来训练机器。”机器缺乏智能的关键在于它不像人类那样具有世界常识。
回到六七十年代,当时的科学家并没有用数据训练机器,而是试图教会机器关于世界的常识,让他们用逻辑做一些简单的推理。
比如麦卡锡提出的Advice Taker就是世界上第一个解决常识的人工智能程序。它想让机器做推理,“烤蛋糕是因为你想让别人吃。”“因为翠儿是鸟,翠儿会飞。」
“任何想进入人工智能领域的人,都需要透过现在回望过去。”加里说。在今天的时代,尤其是在今天的中国,我们拥有极其庞大的人类交互数据库,比如微软萧冰,每个月都有数亿人与它聊天。如何利用这些数据库让机器了解世界常识进而有想法,是现代科学家应该做的。
Gary的机器理解常识在现阶段是无法实现的,但是有些公司正在朝着这个方向努力。比如说健壮。由Gary创办的AI公司,一直将深度学习与符号人工智能相结合,培养机器的逻辑思维。
Cyc项目使用的传统常识教学法已经雇佣了2500万条常识规则,比如“水是湿的”或者“大多数人都知道朋友的名字”。这让Cyc可以推断:“如果你的衬衫湿了,你可能在雨中。」
二、伦理重启:隐私、偏见、版权,AI何去何从?
说到AI,伦理是一个不容忽视的问题。人工智能的发展似乎一直伴随着伦理争议。在新冠肺炎疫情的背景下,AI引发的伦理问题似乎更加严重。
齐鲁与加里的对话没有回避这个敏感问题,而是反映和讨论了隐私、偏见和侵犯版权等极具争议的领域。
联邦学习:数据和隐私的平衡方法
在新冠肺炎风起云涌的背景下,许多组织都开发了跟踪器应用程序,但遭到了许多隐私保护者的反对。最后,苹果和谷歌联合推出了蓝牙追踪项目,利用蓝牙将用户信息匿名传播到云端。
但是关于人工智能和隐私的讨论从未停止过。在西方,有欧盟一般数据保护条例。今年4月,国务院在《关于建立更好的要素市场化配置体系和机制的意见》中,也强调了数据共享、数据资源整合和安全保护。
个人应用和2B项目都面临着隐私保护和数据孤岛。"如何看待人工智能与隐私保护的矛盾?"齐鲁问道。
这项技术确实带来了许多突破。加里认为,“联邦学习”是解决隐私问题的可行方法。
联邦学习的本质是利用分布式机器学习技术从群体中提取个体信息。
在联邦学习框架中,参与者的边缘设备生成的数据会被本地存储,设备会根据本地数据训练本地机器模型,然后按照一定的通信机制将模型参数等数据传输到中心服务器(模型参数不是客户端的原始数据。因此,CPU可以在没有来自边缘设备的数据贡献的情况下训练和构建全局模型。
“如果我们到了象征层面,你就可以弄清楚你需要知道的场景,而不侵犯具体的个人或个人隐私。”加里说。
不会思考的机器:如何解决《傲慢与偏见》?
除了隐私,更有争议的伦理话题是偏见。今年的弗洛伊德事件,杜克大学的PULSE算法事件,巨人掉落人脸识别应用,把人工智能偏见推入舆论漩涡。
"在你看来,有没有可能拥有无偏的人工智能应用算法或系统?"齐鲁问道。
“不是现在,也许会有。”加里说。在他看来,人工智能之所以有失偏颇,是因为机器只是在反馈过去的事件。
“如果你有一套基于过往信息获取优秀程序员的系统,你就进入了芭蕾舞演员。因为系统里没有芭蕾舞者的信息,最后的结论是这个人不适合做程序员。更深层次的原因是芭蕾舞演员在过去的教育中不应该进入编程领域。」
社会观念在进步,但机器只能根据历史数据机械地做出判断,而历史数据本身是有偏差的。
“唯一的补救办法是常识推理。加里认为,只有常识推理才能使机器对他们正在处理的问题有更深的理解和思考。
“我不认为这个问题解决不了,但我认为至少需要十年时间。我们目前的技术离这个目标还很远。」
容易被篡改的真相:如何平衡技术和版权?
隐私和偏见是目前两个有争议的伦理问题。除此之外,人工智能还有一些被忽视但也有隐患的问题,比如侵犯版权。
这类问题经常出现在生成模型中,比如AI人脸变化。2017年deepfake诞生空,随之而来的是各种伦理问题。非少年明星的脸被改成了色情电影。2019年,ZAO的出现降低了变脸的门槛,使得侵犯肖像权的行为更加猖獗。除了肖像问题,生成模式还在不断入侵影视、音乐、文学创作领域,会改变原创内容,侵犯作者版权。
"你对能产生变化内容的人工智能模型有什么看法?"齐鲁问道。
相对于版权侵权,加里认为人工智能很容易产生虚假内容。“你可以拍视频,”加里·马库斯说。深度学习是有史以来最好的事情。然后断章取义。人们分不清视频的真假,也分不清我是在讽刺还是在开玩笑。」
用假内容掩盖原真性,是技术发展的成本之一。但是我们没有相应的法律依据来保护人民的权益。
第三,青春期的人工智能
"在某种程度上,我们正处于人工智能历史上最糟糕的时刻. "加里说。
展望未来,AI还处于发展初期,伦理问题还没有暴露出来。回头看看,人工智能已经强大到可以解决这些问题了。
加里把人工智能的现阶段比作“少年”,他们突然变得强大,疯狂成长,却对世界缺乏足够的了解。
这个阶段要做的不是阻止他成长,而是规范他的行为,引导他走向成年。
那么,人工智能如何走向未来呢?
我们对成人人工智能的完美想象是人工通用智能,届时机器人将拥有人类通用智能。
“我们离AGI有多远?如何推进到AGI。”齐鲁问道。
加里认为,AGI是一个非常遥远的东西。“AGI远远超出了我们目前的理解。目前,我们必须选择更简单的问题,比如创建一个能够推理物理世界的系统。这很难,可能需要20年才能实现,但至少可以看出问题出在哪里。」
这个更简单的问题,用加里的话说,就是“鲁棒人工智能”。比如汽车可以在各种条件下行驶而不发生事故,可以处理家庭工作中的意外情况。
四、实践重启:再现性和垄断性的打破,让AI更加稳定
在实践中,我们如何实现鲁棒的人工智能?
齐鲁首先把目光投向学术界,提出了“再现性”的问题。
“我们是否应该要求作者描述他们的实验系统和过程,以便评审者和社区能够重现他们的结果?有哪些重要且必要的步骤可以让AI研究向更稳定的方向发展?」
加里关于再现性的观点很明确,“如果你在研究真正的科学,那么你必须具有再现性。如果你构建的项目只在特定情况下有效,那么它只是一个玩具。」
再现性让后人步前人的后尘,推动这门学科向更高的方向发展。然而,就齐鲁的个人经验而言,在人工智能领域基本上不需要再现性。
加里认为造成这种现象的原因是激励机制的问题。科学家获得研究经费的前提是在知名期刊上发表显著成果,这会导致科学家追求成果而忽略实现的过程。
追求引人注目的结果,对个人有利,对集体无益。“集体利益来自对真正科学的不断研究,这与个人获得奖励的方式大相径庭。我觉得在科学的某些方面,系统的整体结构设计是集体导向的。」
加里引用了艾伦脑科学研究所的案例,该研究所致力于机器“常识推理”的研究,从数千个在线故事、博客和习语条目中提取短语事件,训练机器,让它们学习从未见过的句子,并推断它们的情绪或意图。
这种工作是一群人为了一个共同的使命而努力,对重现性要求很高,不能让个人在短时间内取得明显的成就,但在更长的时期内,可以推动整个人工智能领域的进步。
但是事情会慢慢好起来的。加里认为,许多行业经历了从忽视到激励再现的转变。
“这种变化在心理学领域已经发生,在医学领域即将发生。在人工智能领域,人们已经逐渐认识到这一点。」
当我们把注意力从学术界转向工业界时,我们会发现仍然有阻碍健康人工智能发展的因素,其中最重要的是垄断。目前,谷歌、苹果、亚马逊等巨头已经垄断了大部分科技市场,并将继续通过并购排挤竞争对手,扩大市场。亚马逊13亿美元收购Zoox就是一个典型案例。
“有没有什么建议可以让创业公司在有巨头在的时候更好的抓住创业机会?”齐鲁问道。
“我没有神奇的解决办法。”加里说。客观来说,巨头在人才、资金、技术上具有压倒性的竞争优势,创业公司很难拒绝他们提供的收购价格。
垄断不利于一个行业的健康发展。“大公司通常不擅长创新,他们擅长消耗一切资源,他们通常有很多既得利益要应对。」
在内部,当一个公司发展到一定规模时,很容易涉及到股东利益的竞争。资本家对眼前经济利益的追求,可能会迫使公司做出短视的决策。AT & t:t的陨落就是一个生动的例子。
从整个市场来看,资源的垄断会阻碍创业公司的进入。在没有充分竞争的情况下,行业的发展很容易停滞。
要解决垄断问题,似乎只能从垄断者本身入手。“从全社会的角度来看,把巨头们拆分成不同的初创公司或许是可行的。”加里说。
尾声
回顾整个对话,齐鲁和加里重点讨论了“重启AI”,从技术、伦理、规范等角度探讨了如何构建更稳定的AI。
今天的人工智能已经发展到了一定的高度,但是与我们想要实现的人工智能相比,仍然缺乏安全性和稳定性。
“我们目前的技术可以解决一个90%准确率的问题,对于广告推荐这样的问题来说已经足够了,但是在自主驾驶、照顾爷爷奶奶这样的场景下,90%的信任是远远不够的。我们必须思考如何将准确率提高到90%以上,如何构建值得信赖的人工智能。」
“我希望更广阔的世界可以考虑处理这些人工智能的关键任务,这可以改变世界,但需要更高程度的安全性。希望5年,20年,50年后,真的能做到这些。」
1.《海豚家可信吗 陆奇对话Gary Marcus:面对技术缺陷、伦理争议,如何构建可信AI?》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《海豚家可信吗 陆奇对话Gary Marcus:面对技术缺陷、伦理争议,如何构建可信AI?》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/caijing/1170176.html