马克思论坛第158期

发布人:管理员

2025年5月22日(星期四)上午,中山大学马克思论坛第158期在中山大学南校园锡昌堂420课室举行。本期讲坛由北京师范大学价值与文化研究中心、哲学学院教授田海平主讲,主题为“在‘它世界的伦理构型’中让灵魂着陆——AI进入伦理的类哲学视角”,中山大学哲学系教授、实践哲学研究中心主任徐长福担任主持人。

讲座伊始,主持人徐长福教授对主讲人及主讲题目进行了介绍。他指出,田海平教授是国内哲学界近年来关注AI问题的几位重要学者之一,他在2024年实践哲学年会上就曾做过关于类哲学视角下AI伦理的报告,引起了与会学者的广泛兴趣,其本次报告将聚焦于“它世界的伦理构型”,旨在以高清海类哲学为指导,进一步推进其对AI伦理的探讨,这场讲座十分契合当前本校马克思主义哲学学科的需要。随后,讲座正式开始。

田海平首先认可了徐长福对自己研究思想脉络的指认,并强调我们今天实践中遇到的许多问题都可以在运用和拓展“类哲学”的方法和视角中得到回答。田海平指出,以Deepseek为代表的生成性人工智能已深度融入人类生活,其具备的能动性特质要求哲学重新审视“主体性差异”的内涵。目前对于AI Agent的翻译存在四个层次:最基础的是“工具性代理者”,即AI作为人类助手,体现为“智能新工具”;第二个层次是“类人能动者”,强调AI具备近似人类主体的行动能力;第三个层次是“伦理化行动者”,指AI重构生活目标(如情感机器人提供情感价值);第四个层次是“类存在主体”,即AI通过模仿人类形成“类人化”主体性,但本质上与人类存在差异。这四种翻译不仅反映对AI认知的深化,也要求对高清海“类哲学”进行再诠释——传统“类存在”指人类超越物种存在的主体性升华,而AI的出现催生了一种新的“类存在能动性样态”,需构建以人为中心的“我世界”之外的“他世界”伦理框架。

AI与人类的主体性差异体现于四种类比方式。首先是“物化类比”:AI本质为工具,其“类人化”包含双重规定,即作为人类本质力量对象化产物的“人的物化形态”,以及通过技术赋予类人功能的“物的人化形态”。第二是“动物类比”,将AI视为与人相近的“新物种”,可破除“AI接管人类”的担忧。第三是“奴隶类比”,基于三段论推理(大前提:无奴役前提下有仆从更优;小前提:AI为“类人”而非人;结论:人可拥有机器仆人),但此类比隐含伦理争议。第四是“类人化类比”,AI模仿人类达到主体性差异的最高层级,其与人类的本质区别在于脆弱性:人类作为时间性存在具有有死性、具身性,生命个体呈现绝对分离性;而AI作为无时间性、非个体化的总体化主体,潜藏着文明机器时代的风险。

AI伦理的核心诘难聚焦于机器人权利与自由意志。田海平以人类实践背景框架为参照,提出“他世界”的两种处理方式:一是“控制与支配”,将AI视为资源,延续传统工具化思维;二是“体验与共生”,保留AI的“他性”,构建“他性”与“我性”的交互关系。传统“工具/物种/奴隶类比”在AI时代已不适用,需基于高清海类哲学的价值秩序重构伦理框架。田海平强调,物种生命(人类独有)是类生命的基础,赋予人类七情六欲与犯错能力;而AI类生命缺乏物种生命支撑,导致其无法真正理解“他者性”,仅能追求空洞的“至善”目标。这种差异要求哲学回归本源问题,重审“他世界”在伦理构型中的位置,从亚里士多德“第二本源”的启示(善作为可实践的“另一本原”)出发,探索人类“类生活”重构的可能性。

面对AI对人类主体性的“祛魅”风险,田海平从三重生存性伦理影响提出应对原则。在生存性整体性层面,需颁布伦理禁令延迟超级智能AI发展,防范“技术利维坦”风险,为人类预留抵御AI觉醒的能力准备。在生存性实例性层面,确立“不伤害原则”,要求“机器不得伤害人和人类性”,并通过享用“它世界”回归物种生命,彰显个体唯一性。在生存性独特性层面,提出价值对齐原则,禁止机器完全“可对象化”人类,保留“我世界”对“它世界”的体验特权,在双向互动中保护人性,确保AI素位而行。田海平总结指出,人类已置身于新文明的开端,伦理世界的重构需直面“人类”与“类人”的主体性博弈,最终实现人机共生的伦理平衡。

报告结束后,田海平与在场师生进行了讨论和交流。

徐长福首先发言,他指出,田海平的讲座突破了当前哲学界局限于文献考据的研究范式,其以高清海“类哲学”为根基直面AI伦理这一人类性前沿议题,通过“人类主体与AI主体关系”的核心问题驱动展现出扎实的文本功底、深刻的理论原创性和强烈的现实关怀。同时,徐长福也指出,当前的哲学对于AI的讨论仍多停留在学术圈内自说自话,如何让哲学进入AI研究是今天需要思考的问题。田海平回应道,哲学进入AI今天已经在逐步的开展,今天许多AI研究的前沿学者已经不只是在关注技术操作层面的问题,而进入了社会这样一个更广阔的生活领域的讨论。例如关于平台城市的哲学讨论就能很好体现出人工智能领域对于“可实践的善”的思考。但目前的研究还存在诸多不足,例如通过问卷调查的方式解决AI关于“电车难题”的判断困境,面临意见的主观性和样本的有限性种种问题。

中山大学政治与公共事务管理学院叶甲斌研究助理教授提问:田海平谈到作为“它者”的AI弱主体,那么应该如何系统区分它与作为“他者”的人、作为“它者”的动物在伦理地位和本体论框架中的差异?AI价值对齐的内容如果缺少更根本的价值指引,是否可能导致价值对齐的方向出现偏颇,以至于AI技术加剧了社会不正义?田海平认为,动物和AI在“他世界”伦理构型中均可视为“他者”,其道德地位可类比处理,无需预设价值差等,但需关注其差异化的交互关系。关于AI伦理对齐的意识形态风险,田海平回应,他认为形式化对齐原则需警惕被政治或资本力量异化,应通过双向价值互动平衡技术工具性与人性,避免加剧既有不公。

中山大学马克思主义学院李婷婷助理教授提到,AI可能因过分迎合用户,人机交互关系过于顺畅,可能导致现实人际关系冲突加剧。此外她提到从个体享用视角看待“它世界”并回归人的物种生命,与阿伦特讨论的审美判断视角的相似和不同,尤其不同在于前者似乎是单主体的,而后者强调了复数性,即主体做出的不偏不倚、利益无涉的审美判断,具有一种公共的可交流性,要获得他人的认同。田海平回应,他认为人机互动单向顺畅性确实可能导致人际交往异化,因双向价值对齐中人类被机器逻辑同化的风险,需防范人性弱化,维系主体间对抗性张力。阿伦特的复数性看法非常深刻,值得关注,目前的初步研究是从单数/个体层面展开,后续有待加深。

与会师生就“AI的个性化趋势”“自我认知”等问题向田海平进行提问,田海平一一作了回应。

论坛结束后,主持人徐长福向田海平表达了感谢,与参会师生合影留念。至此,本次论坛圆满结束。

 

image-20250612104922-1