本文探讨了AI产品中经常出现的问题,从中可以窥见其背后的AI产品事故。
目录:
- 序:产品思维
- 一、普遍问题
- 二、AI无神通
- 三、机遇与挑战
- 后记:PDF资料
首先要问一下,什么是产品思维呢?
简单的说,产品思维就是产品经理在打造产品时的思考方式。
说到这个词,可能很多人都会联想到梁宁在“得到”上的《产品思维30讲》的课程。
梁宁老师为大众科普了产品经理的思维方式。但是真正的产品经理,光学习科普知识还是不够的,更需要深入专业和实战。虽然很多企业都设置有产品专员的岗位,但可能由于职业分工的限制,培养效果并不好。反而那些由优秀的设计师、程序员和运营转岗的产品经理,往往表现得更加出色。
究其原因,产品经理本身就是一个综合性极强的岗位,优秀的产品经理不是学出来的,而是“打”出来的。关于产品经理的成长可以看之前文章:《我的产品经理能力模型和成长之路》
也有人说,产品经理是CEO的预备班,像马斯克、贝索斯、乔布斯、雷军、马化腾、张小龙,不仅仅是卓越的产品经理,还是优秀的企业家。
那产品经理需要怎么样的思维方式呢?
产品经理本质上负责的就是企业的产品创新。国际著名的设计咨询公司IDEO,曾对于“创新”有这样的定义,所谓“创新”就是要平衡人、商业、技术三方面因素,IDEO称之为Design Thinking:
- 人的渴望:解决用户的需求,让产品拥有良好的体验,比现有的解决方案要好上 10 倍;
- 商业的可行性:需要充分的考虑到商业价值,能够不断为企业创造收益;
- 技术的可实现性:使用合适的技术手段保质保量的实现产品功能;
产品思维就是创新的思维,Design Thinking也是我这些年来在产品岗位的最底层思维模式。不管产品经理是什么岗位出身,评判他是否专业,就在于他如何能平衡好三者之间的关系。
如今,AI 毫无疑问是当下炙手可热的话题,许多产品也逐步的 AI 化。AI 时代的产品思维究竟有怎么样的不同?
在写这个话题之前,我也看过一些AI产品的书籍,大多都在讲概念,讲如何解决问题的偏少。而我的初心也很简单,通过总结我在实践中踩的一些坑,和大家一起去发现与以往不一样的产品思维。少谈一些概念,多谈一些思路,也是我写此文的一个目标。
Part .1 普遍性问题
在AI产品的实践过程中,我们发现事情并没有那么简单。我们遇到了诸多的问题和挑战。如果要使用AI,我们首先需要先将AI请下神坛,破除对它的迷信。当下的AI产品有三个较为普遍性的问题:容易偏离、可解释性弱、可靠性差。
1. 容易偏离
2016年3月26日,微软发布了一个聊天机器人 Tay。微软原本是想让 Tay 扮演一个少女角色,能够在线与 Twitter 上面的任何人进行交流。除了聊天,Tay 还能完成向用户讲笑话、对用户发给“她”的照片进行评论等其他任务。
刚上线的时候,Tay 说:“世界你好!”并且@网友说:“见到你们太激动啦,人类超酷的”,但只用了一天的时间从“纯情少女”变为反人类的“纳粹”,微软在上线 16 小时之后就不得不把 Tay 下线。
可以确定的是,工程师在编程时并没有为她编入这些乱七八糟的极端言论。那为什么会产生如此的错误?其原因是少数用户利用 Tay 模仿说话的漏洞,对 Tay 进行了错误的训练。
Tay 仿佛一面镜子,她反应的不是微软的技术,而是网友的人性的恶的一面。在面对真实世界的时候,即使是有最先进算法的机器人也会措手不及。
2. 可解释性弱
2017 年 6 月,Facebook 人工智能研究所(FAIR)使用机器学习方法,对两个聊天机器人进行对话策略的迭代升级,Facebook 的人工智能研究院 (FAIR) 想要训练一个聊天机器人,让它学会谈判。但很快,研究人员就发现,聊天机器人正在创造他们人类无法理解的语言。
同年 7 月,Facebook“关闭”了这个引发广泛争议的智能对话机器人项目,避免机器人“非人”的道路上越走越远。Facebook 的这个机器人使用的生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型。这个模型至少两个模块,通过互相博弈学习产生良好的输出。一个优秀的 GAN 应用需要有良好的训练方法,否则可能由于神经网络模型的自由性而导致输出不理想。由于深度学习是一个黑盒,研究人员无法像传统程序员一样通过修改代码逻辑来改 bug,只能暂停项目,重新设计模型方案,尽可能避免同类问题的发生。
3. 可靠性差
Uber 为了加快商业化的步伐,其测试的无人驾驶汽车数量就不断增加。2018 年 3 月 26 日,一辆 L4 自动驾驶汽车(改造于沃尔沃 XC90)在亚利桑那州的公共道路上撞击一位行人并致其死亡。这也是世界首例 L4 车辆因车祸致人死亡事件。
在汽车界,通常将自动驾驶分类六级,分别是:L0 是无智能、L1 辅助驾驶、L2 部分自动驾驶、L3 条件自动驾驶、L4 高度自动驾驶、L5 完全自动驾驶。
自动驾驶汽车需要有一堆复杂的设备做支撑。只要有一个模块出问题,就可能酿成大错。
根据美国国家交通管理局NTSB认为,该车祸的主要原因为Uber淡薄的安全意识,车辆没有开启紧急制动系统,没有及时对安全员进行监督————事故发生时,车上安全员仍在看视频而非及时采取措施。导致了这场悲剧。
近几年,特斯拉也事故频发,尽管如此,依然经常会听到,驾驶员在开着自动驾驶睡着飙车的新闻。下图为一个用户喝醉后开着特斯拉的自动巡航,在边睡觉边在高速上狂奔。
现实不是游戏,当“无知”的人类将生命交给 AI 的时候,他们是否意识到:万一系统出了 bug ,生命再也无法重来?在那些讲给投资人故事之外,可能自动驾驶拷问的并不是技术,而是资本与人性的贪婪。
Part.2 AI无神通
上面提到的问题只是冰山一角。Al 也并非没有优势,机器可接受的输入数据范围要比人类大得多,计算机处理数据能力比人类强大。视觉识别和语音识别等一些领域,AI 几乎达到了人类水平。
但AI 依旧难以达到智能生命体一样的智能。究其原因,计算机初衷是为了解决逻辑计算问题,而智慧生命体的智能是通过上千万年进化习得的。前者善于逻辑计算,后者善于适应环境。
而如今人工智能却越来越多地在模拟人类的本能行为,才导致“莫拉维克悖论”也愈发明显。
莫拉维克悖论是指:
人类所独有的高阶智慧能力只需要非常少的计算能力,例如推理,但是无意识的技能和直觉却需要极大的运算能力。也就是,要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。
其实,AI的底层只是数据和算法。多数 AI 模型解决是特定领域的分类和聚类的问题,这可以类比人类的归纳法和演绎法。
由于机器缺乏对事物理解能力,导致应变能力和迁移能力非常弱,AI 并不会像人类真正体会到事物背后的含义。
AI 能将广告上的董明珠,误判为乱穿马路的行人,也不足为奇。因为从数据角度,AI确实在马路上捕捉到了人脸。
另外,机器也不会有情感感受。例如,AI可以识别出一只猫,它可以给这张图打上一堆的标签,但并不会像人类一样,觉得这只小猫有多么的可爱。
有许多艺术家开始使用所谓的“神经网络软件”来创作艺术品,也有些以天价拍卖,但AI只是艺术家的创作工具,他们通过导入训练素材,不断调整参数来获得作品,本质上和 用3ds Max做效果图渲染没太大区别。所以,也不代表AI有创作力。
现阶段,AI 做不了事情还有很多。它只是一个工具,脱离了人类,AI什么也不是。人类也不用担心 AI 像电影中讲的那样反叛和统治人类。
Part.3 机遇与挑战
有学者分析了未来 10 年内,各行各业被 AI 取代概率。自工业革命以来,人类从未被如此大规模的被机器取代。
虽然看上去有点吓人,但对于 AI 产品创业者来说却是一个不错的机遇,但把握住这个机遇并非易事。很多时候,新技术的应用并不会一帆风顺。
根据高德纳总结的“新兴技术炒作周期”规律,新技术往往会经历萌芽期、膨胀期、破灭期、爬升期、稳定期,5个阶段。
历史上,人工智能的命运也是“三起两落”。接下去是否会迎来新的寒冬,谁也不知道。
但是我们把不成熟的新技术放置使用到产品中,对产品经理本身就是一个巨大的挑战。
在当下,我们不应过于理想化AI的能力,我们更需要用冷静和批判性的眼光,去审视 AI 技术的发展和应用。
当我们遇到一个与AI相关需求的时候,与其陶醉于自我,不如提出质疑反而会显得更加有用:如果AI技术实现得不好怎么办?
究竟要怎么办?请看下一期:AI时代的产品思维(二):新的挑战
#专栏作家#
PM熊叔,微信公众号:PM熊叔,人人都是产品经理专栏作家。教育类产品产品经理出身,学过设计,做过开发,做过运营的产品经理。
本文原创发布于人人都是产品经理。未经许可,禁止转载
题图来自 Unsplash,基于 CC0 协议
1.《【3ds为什么点了渲染没有】AI 时代下的产品思维(一):AI不是神》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《【3ds为什么点了渲染没有】AI 时代下的产品思维(一):AI不是神》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/auto/3233914.html