>财经>>正文

琢磨先生:人工智能强大了,人类就灭绝了?

原标题:琢磨先生:人工智能强大了,人类就灭绝了?

文 | 琢磨先生 ☞新锐经济学者,中产阶级代言人

阅后即焚

人工智能无法从智能中进化出情感。

人工智能无法产生道德。

人工智能很难产生真正的智慧。

最近人工智能这个话题很热,有次我在海康威视上课,他们负责人工智能的工程师就这个事跟我进行了激烈的讨论。他的观点是,现在只是人类在技术上很克制,否则人类的命运危矣,我至今忘记不掉他那哀伤的眼神。特斯拉的埃隆·马斯克和霍金也对人工智能表示忧心忡忡。我是研究哲学的,我从哲学角度来说一下人工智能不可能完全取代人类的理由,主要有三个:

人工智能无法从智能中进化出情感。再逻辑严密的人工智能其本质也是逻辑运算,而在情感这个方面对人类而言可以说是造物主的恩赐。比如一个人就是会爱一个人,而不是像《星际旅行》中史波克先生一样,完全遵从理性与逻辑的考量。比如在人类的进化当中,大脑的杏仁核跟人的情绪有很大关系,而额叶进化出来负责控制情绪,这一联合运作的机制,基本上是其它动物不具备的。我不认为人工智能可以进化出如此奇妙的情绪控制机制。

人工智能无法产生道德。人工智能的道德判断来自于程序设定,不管如何进化,人类在道德判断上的随机性是人工智能不会具备的。比如哈佛大学的桑德尔教授经常说的例子,你开着一列火车,刹车失灵了,直开下去会撞死五个小孩,而如果转向岔路口,会撞死一个小孩,你会选择撞谁?

这个就是人类的道德判断了。直开很可能是康德的绝对道德主义,拐弯可能就成了边沁的功利主义。不管人工智能选择哪一种道德判断,都不可能具有人类对这些道德的判断。再举一个例子好了,如果国家遇到危险,领导人按不按核导弹按钮?按了全人类灭亡,不按自己危险。这种判断很可能经过利益的衡量,要按。但在按的那一刻产生了对人类的怜悯之心,选择了不按。这是人工智能很难具备的道德判断。

人工智能很难产生真正的智慧。我们知道智慧来自归纳法,而不是演绎推理。前者能发现新知识,后者只是在同一个知识层面演绎。比如我们看到木头用火一点就能燃烧,用归纳法就可以假设出一条科学规律:高温能引起木头燃烧。然后我们演绎推理出用烙铁可能也会让木头点燃。前者发现理论是要用归纳法,而后者广泛应用属于演绎推理。人工智能在演绎推理方面会很强大,但我觉得他们在归纳法方面很难比人类做得更好。

但是,人工智能取代人类的大部分工作,这是肯定的,甚至现在很多新闻都是由人工智能写出来的,因为新闻都是固定的样式。最简单的我们看生产车间里所谓的工业4.0,没有人工智能的协助几乎是不可能完成的。《未来简史》的作者赫拉利认为预计在二三十年内的人类经济当中,15%的就业机会都会被人工智能取代。

有挑战就有机会,这几乎是任何领域都适合的定律,人工智能虽然会对人类带来巨大的挑战,但也会有很多新的就业工作和就业岗位产生,比如如何开发人工智能。那么在这个背景下,一个人的职业该如何规划,因为之前我们竞争的都是人类,这下好了,来了人工智能,真是不让人活了。

我觉得可以做三个方面的思考:

要不断假想自己被取代,那么这个岗位我还可以做什么?比如我是做老师的,我在想如果将来发达到一定程度,每个人大脑里装一个芯片就可以了解各种知识,老师还有什么用?我想还是有用的,就是我可以去负责芯片的内容设计。是不是每个职业都可以这样思考问题。

尽量摆脱重复的工作,因为人工智能会引发很多所谓无用的人群失业,这些大部分是重复性的工作岗位。其实每一次技术进步都会引发这个问题,在工业革命的时候,大家就很担心机器取代人的岗位,但很快人类就解决了这个问题,现在好像没有人再提起了。后来互联网的发展又让很多人失业,现在也很少人提起了。而每一次迭代,都在让人类升级。升级的方向就是尽量不要在重复的地方耗费时间。

文科生的机会到来了,因为文科生的大部分职业都属于感性方面的工作,比如艺术、绘画、音乐创作等等。

不必杞人忧天,人在几千年的发展中,总能找到自己最合适的位置。哪怕最终人类被人工智能取代了,也未尝不是一件坏事,人就去做上帝好了,没准现在我们就是上帝的人工智能呢。返回搜狐,查看更多

责任编辑:

声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
阅读 ()
投诉
免费获取