利用鹰行猎

4月27日,GMIC北京2017在北京举行。英国著名科学家斯蒂芬·霍金教授通过视频发表了演讲,并谈了自己对人工智能的看法。他认为人工智能在未来是否会威胁人类很难说。现在我们应该从研究中避免这种风险。

霍金认为,人工智能的兴起是人类历史上最好的事情,也可能是最坏的,但究竟是最好的还是最坏的,目前还不确定。

人工智能的出现是必然趋势。从实验室研究到实现人工智能的经济效益还有很长的路要走,哪怕是很小的改进也能实现巨大的效益。我们目前的工作应该从提高人工智能的能力转向提高人工智能的社会效益。

我们现在从语音识别、图像分类、自动驾驶、机器翻译、步态运动等各个分支研究人工智能。,推动人工智能的快速发展。但是从长远来看,人脑和计算机所能达到的东西并没有本质的区别。

现在更需要关注的是,包括人工智能在内的研究人员也在担心和探索人工智能的伦理问题。以机器人为例,我们需要确保机器人在未来永远为人类工作。未来,机器人可能需要个性化的身份,就像今天的独立法人一样。为了确保人类能够控制机器人,研究人员和设计人员应该确保每个机器人都有一个终端开关。

人工智能可以解决世界上大部分问题,包括人类疾病和社会问题,AI就有这个潜力。AI部署得当,潜力无限挖掘,部署不当,威胁人类生存。人工智能一旦失控,人类就受到进化的限制,将无法与之抗衡。根据霍金的预测,AI未来将迅速淘汰百万个工作岗位。

更长期的担忧是人工智能系统失控和超级智能崛起的风险。人工智能胜围棋是未来趋势。人工智能未来的潜力在于,我们的成就与未来几十年相比相形见绌。未来,人工智能甚至可能终结人类文明。

我们如何研究人工智能是解决和理解这个问题的关键。我们需要在研究过程中避免这种风险。霍金表示,他曾与埃隆马斯克进行过一次对话,并与科学家签订了人工智能协议,发表了一封公开信——《稳定人工智能并从中受益的公开信》。他还在伦敦建立了一个新的研究中心——李休研究中心。霍金还呼吁确保下一代继续参与科学研究,以继续发挥科学的潜力。

1.《霍金亮相中国 再提醒世界“要小心人工智能”》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。

2.《霍金亮相中国 再提醒世界“要小心人工智能”》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。

3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/shehui/1740249.html