管理决策这件事,在我看来,组织或者组织的人,如果要做出非常优秀的管理决策,需要有八个能力。我们把人先当作一个信息处理系统来看待,这个系统的能力体现在八个方面:
第一是提问。提问是最关键的。爱因斯坦说过,提出一个好问题要远远超过你能解决一个问题。所以提问是第一位的。
然后是思考,再然后是判断,然后假设、预测、归因、实验及创新。
这是作为人类这样一个智能系统,经过几百万年进化,到现在应该能够不断加强的能力。我认为在AI时代,这八个能力显得更加重要,因为这是人类作为一种智能系统,天然有别于人工智能的巨大差异性所在。
如果人类智能能够这么快速发展几百万年,那么AI我们现在看到什么情况?
从2020年到2025年,所有大模型在数学、科学等各个方面的表现都在不断攀高。但有一个地方到现在为止还没有解决,就是人性(Humanity)这个问题,成为最后一道考验。
我们现在认为,AI你可以推理很强,数学能力很强,但你仍然不是一个具有自主意识的决策智能体,因为它还没有像人那样的自主方向性决策能力。
很多人对AI有误区,把重点放在了后面这个词——“智能”上面。但实际上真正的重点是前面这个词——“人造”(Artificial)。这才是关键词。
人造智能从什么时候开始?我把时间线拉到1956年。1956年达特茅斯会议时,赫伯特·西蒙和艾伦·纽厄尔⁷推出了整个人类发展史上第一个AI程序,叫Logic Theorist(逻辑理论家)。
这个程序是用来证明计算机可以完整地像人那样进行逻辑推理。怎么证明呢?1957年,著名哲学家罗素给赫伯特·西蒙写了一封信,说得很清楚:我们当然很欣赏这个逻辑理论家,因为这个程序已经把罗素和怀特海德过去所有关于数学哲学的证明题全部都证明完了。他们也承认机器能够做得很好。
但是有一句话他说了,大家注意:智慧和博学不是一回事。
就是说即便逻辑理论家能正常运行,能够做所有逻辑推理,这只能叫博学,叫知识(Knowledge)而已。它不能叫智慧(Wisdom)。
大家去理解一下这句话是什么意思。最主要是说,你现在在企业内部用AI去解决一些容错要求很高的问题时,为什么觉得会有问题?就是因为在几十年前,学术界就已经很清楚它的边界在哪里了。
这就是符号主义的局限。