《我们误解了自己》:一个哲人与一个高僧的对谈

栏目:远程教育  时间:2023-07-11
手机版

  南方网讯近日,上海译文出版社出版新书《我们误解了自己》。该书由作家周国平与济群法师对谈内容整理而成。

  

  这是一本有趣、宁静又充满了智慧的书。如何在有限的生命里,活出属于自己的精彩,确是我们每一个人的终身大事;如何认识自己,更清楚地把握自己的人生轨迹,也是一件非常重要的事情。打开这本书,就如同听周国平和济群法师对谈,听他们将长者的智慧和人生的哲理娓娓道来。

  谈话内容涉及人与自我的关系、人与自然的关系、人与社会的关系,都与自我密切相关,人生的重大问题比如如何认识自己、生命的价值在哪里、理性的作用等都可以从这本书中寻找到答案,周国平和济群法师的对谈值得每一个被烦恼和焦虑所困的人倾听。

  作者简介

  周国平,1945年7月生于上海,毕业于中国社会科学院研究生院哲学系,哲学博士。中国社会科学院哲学研究所研究员,中国当代著名学者、作家、哲学研究者,是中国研究哲学家尼采的著名学者之一。

  主要著作有《尼采:在世纪的转折点上》《人与永恒》《尼采与形而上学》《忧伤的情欲》《只有一个人生》《今天我活着》《爱与孤独》等;译著有《偶像的黄昏》《希腊悲剧时代的哲学》等。

  济群法师,童真入道,出家四十余载。为沩仰宗第十代传人、斯里兰卡佛教与巴利语大学荣誉文学博士、中国社科院特约研究员及多所大学客座教授。

  1980年就读于中国佛学院,随后于闽南佛学院、戒幢佛学研究所等地任教。从事教育几十年来,对如何有效修学,有着深入的观察、思考和实践。由此,提出修学五大要素,创建次第修学体系,令许多人蒙益。

  1992年起,面向社会及高校举办讲座,开国内弘法之先,法音流布海内外。同时笔耕不辍,出版“智慧人生、修学引导、以戒为师”等丛书四百多万字。以纯正的佛法知见,剖析社会问题,厘清修学误区,提出切实的解决之道。

  部分试读

  一、人工智能对人类的威胁

  主持:人工智能时代,人类何去何从?对于这个话题,有人欢欣鼓舞,也有人忧心忡忡,担心人类被自己研发的人工智能灭了,所以我们特别希望听到两位智者的看法。首先想问,人工智能对人类最大的威胁是什么?

  周:今天这个题目是济群法师出的。我听到时,首先一愣:这是科技啊!然后精神一振,觉得法师特别敏锐。人工智能是现在比较前沿的话题,也是一个热点。法师能与时俱进,抓住热点,同时又和哲学、佛学探讨的问题联系起来——既前沿,又永恒。

  说实话,在人工智能的问题上,我确实是外行,相信法师在一定程度上也是外行,但这个问题真的需要外行来关注。关于人工智能对人类的主要威胁,我觉得,可能引发了两个问题。

  一个问题是,人工智能会不会超过人类,乃至取代人类?这是很多人关注的。我想,人工智能说到底仍是个技术,是人类为自己制造的非常好用的工具。从这一点来说,我相信工具永远超不过人类,也无法取代人类。不能因为这个工具特别强大,就说它比人类高明。就像人类发明了汽车,跑起来比人快得多,你说汽车比人强吗?人类发明了飞机,必须靠飞机才能上天,你说飞机比人强吗?其实不能。因为这些都是人制造的,人工智能也是同样。

  当然有一点不同,因为它是智能的。我的理解是,人工智能可能是对大脑神经网络的模拟,其主要优势在于计算能力,处理大数据非常快。这是人类完全不能相比的。一个最突出的例子,谷歌开发的阿尔法狗,开始和李世石下围棋时,以三比一赢了对方,已经很让人震惊了。然后它所向披靡,所有棋手都下不过它。现在更厉害,干脆宣布不和人类下棋,因为是没意义的事。这就充分体现了它处理数据的能力和优势。李世石说,他下棋时会考虑二三十步,但阿尔法狗下一步棋的时候,考虑了几千步。这一步下面有多少可能性,它全都考虑到了。这种速度是人类永远赶不上的。

  但我想强调,它仅仅在处理大数据的领域中可以领先,而人类的很多领域不是这种情况。在精神生活方面,人工智能有天生的缺陷,永远不可能和人类相比。阿尔法狗下棋再厉害,能享受棋手的情感吗?比如我的好友芮乃伟下棋时那种内心的愉悦、沉思的快乐,它不可能享受到。我不相信有一天人工智能会有情感,最多只能模拟情感的外在表现,不可能有真实的情感。

  再进一步,在哲学、艺术、宗教等精神领域,我想人工智能最多做些资料工作,不可能有创造性。我不相信有一天,某个超级机器人成了柏拉图那样的哲学家;或成了爱因斯坦那样的大科学家,提出一种新的理论;或像佛陀那样,创立一种宗教。在最高的精神领域,人工智能不可能和人类相比,也永远不可能取而代之。所以从人类生活来说,最重要的一块是不能取代的。

  另一个问题是,人工智能会不会祸害人类,乃至毁灭人类?这也是有些人忧虑的。我觉得可能是科幻片看多了,想象力太丰富。从目前的情况看,人工智能的开发方向很明确,一定要有市场,能够应用。比如无人驾驶的汽车、能做家务的机器人,这些是它的重点。但也有些很聪明的人,比如霍金就觉得人工智能自我更新的能力太强,而人类进化非常缓慢,所以他很忧虑。

  我觉得这不太可能。现在人工智能的威胁主要有两点,一是它自我更新的失控,这有可能。但失控到什么程度?我不相信会到无法解决的程度。二是人工智能会不会毁灭人类?其实真正让人担忧的情况是,一旦恐怖分子掌握人工智能,并发明毁灭性的武器,结果会很糟糕。这种危险是存在的。

  总之,一方面不要太忧虑,另一方面也要加以警惕,制定一系列防备措施。包括在法律上,规定人工智能的发展边界在哪里。就像我们现在对基因工程规定了边界,你可以克隆羊,克隆动物,但不能克隆人。

上一篇:2023年下半年幼儿园《综合素质》习题(十六)
下一篇:教育部:合理安排孩子暑期生活,慎重选择夏令营、研学、游学和校外培训

最近更新远程教育