QQ:355128452
   

导航菜单
   

新闻资讯

倾听尼山2025 | 丁元竹:开创人工智能时代的新型文明形态

编者按2025年7月9日至10日,第十一届尼山世界文明论坛将在山东曲阜举办。从2010年9月创立至今,尼山论坛汇集全球专家学者,汇聚世界文明智慧,共同为解决人类社会普遍存在的问题、为人类文明的未来发展贡献智慧,正日益成为世界了解中国的重要窗口、文明交流互鉴的重要平台、凝聚人类文明共识的重要纽带。当下,全球政治冲突频发、各国之间经贸壁垒陡增,不同文明之间的对话显得尤为迫切。本届尼山论坛的主题是“各美其美·美美与共——文明间关系与全球现代化”,并设置了“文明的起源与未来发展”“儒家文化的世界意义和时代价值”“齐鲁文化与世界文明”“在全球现代化进程中成人之美”“文明视野下的家庭意义与社会发展”“人工智能发展与人类文明走向”等多个分议题。这个世界如何才能做到各美其美、美美与共,不同的文明如何相处和互鉴,人类才能拥有更好的未来?结合本次论坛的主题和各分议题,经济观察报采访了来自不同国家和地区的学者与专家,以下是来自他(她)们的观察、思考和期望。经济观察报 见习记者 冯雨晨从蒸汽机驱动工业革命,到电力重塑生产方式,再到信息技术颠覆社会连接,历次技术飞跃都深刻重构了人类文明的轨迹。而正在迅猛发展的人工智能的独特之处在于:它催生了首个具备自主演进能力的智能主体。生成式AI正在以周为单位迭代,人类文明再次站在了跃迁的临界点。与此同时,疑惑、反思、担忧接踵而来:当人工智能大量自动化及替代人类工作时,人类与人工智能如何共洽?当人工智能像电流一般渗透进人类的工作生活,人类文明面临何种挑战?挑战之中人类文明将面临威胁还是跃升?当人工智能变得越来越成熟甚至超越人的智慧,人类如何保全自己的主体性?人类文明将发生什么样的变化、又需要何种核心价值观的支撑?种种崭新的疑问面前,渐进式的讨论与思考必不可少。经济观察报专访中共中央党校社会和生态文明教研部教授丁元竹,探讨人工智能时代的人类文明走向。丁元竹长期致力于人工智能与社会治理、人类文明演进交叉研究,在其著作《从篝火到AI:窥见无垠的共同体》中,丁元竹曾对人工智能在未来社会的角色、人类社会关系网络变化的可能趋势与问题、未来社会的可能特征等进行了分析。以下为经济观察报与丁元竹的专访内容。人工智能对社会文明带来威胁还是跃升?经济观察报:人工智能是一种新技术、新智能,你认为社会目前对人工智能的接受程度如何?丁元竹:要使人们接受新技术,需要把各个利益相关方都纳入考量范围,与社会开展对话,提高技术的社会接受度。纵观智人历史就会发现,只有引发社会变革的技术与适应、促进技术发展的社群协同发展、相互促进,才能推动社会的发展。诚然,人工智能在最近两年的发展中确实存在很多问题,既存在算力问题,也有模型问题,还有数据方面的问题,这都影响人工智能的应用和发展。但必须看到,除了“技术—经济周期”之外,社会对人工智能的发展也有一个技术的“社会接受”过程,主要表现在三个方面:一是全体社会成员对人工智能技术的认识程度,人们如何从已有的知识框架、历史和经验看待正在出现的新技术及其社会影响,以及对自己、对社会带来的正面与负面影响。新科技在历史上之所以常常带来灾难,并不是科技本身有什么问题,而是人类得花点儿时间才能学会善用科技。二是人们掌握人工智能技术和对人工智能发展现状的认识会影响人们的认知。三是人们能不能对人工智能技术有深刻的理解,它的发展现状、规律等,尤其是那些在社会领域中工作的专业人员,他们能不能想象出自己生活和工作领域的人工智能应用场景,且与技术人员建立起密切的联系、沟通,甚至参与到人工智能技术开发过程中,这对加速人工智能场景落地和在经济社会领域中的广泛应用非常关键。纵观历史,新技术进入社会领域的速度不会那么快,因为人们总是沿着某种习惯的路径前进,尽管对出现的新情况、新技术抱有热情、渴望、欢迎的态度,但真正深刻认识并迅速接受新技术往往不是大多数成员能够做到的。经济观察报:人们在逐渐接受人工智能这项新技术的过程中,会面临哪些挑战?丁元竹:人工智能技术以前所未有的速度在落地生根,广泛渗透到各个领域,它如同一股强劲的力量,开始重塑人类生产方式、生活方式,以及社会运行等。但是,在这场看似璀璨的科技变革浪潮之下,却潜藏着一系列不能忽视的暗流。尽管人工智能技术尚未达到高度自主可控水平,但随着技术不断发展迭代,未来不排除出现技术失控的可能性。因此,有必要从现在开始高度重视人工智能技术落地过程中可能带来的风险与挑战。以生成式人工智能为例,自然语言处理模型对社会潜在影响广泛而多样,几乎涉及社会治理、公共服务、社会结构的方方面面。一是就业和劳动力市场。人工智能和自动化会导致各行各业的工作岗位流失。然而,它也会创造出更具复杂性、创造性和技术技能性的新岗位。二是隐私和数据保护。人工智能系统依赖大量数据引发了人们对隐私和安全的担忧,若是监管不当,会导致数据分析结果的滥用。三是数据训练中的偏见和公平问题,人工智能系统无意中会表现出在训练数据中存在的偏见,导致在工作招聘、执法和贷款审批等领域产生不公平结果。人工智能的真正挑战不在于技术本身,而在于如何把它接入人类社会和文化的体制机制。未来,发生在人工智能领域的竞争不仅是算力竞争,更是制度体制和文化适应性的较量——就像电动车的成功既依靠电池技术,也依靠充电网络一样。人工智能之所以特别,以至于有必要调整私法来促进其推广并挖掘其增长潜力,原因在于它具有许多新的特性,其中两个尤为重要:自主性和不透明性。经济观察报:在这种挑战中,人工智能会给人类文明带来威胁还是跃升?丁元竹:不能简单地谈威胁还是跃升,讨论人工智能的治理就需要摆脱既往的思考习惯,必须基于治理与技术同步的相关体制机制研究,探索基于“自主性和不透明性”治理的底层逻辑:AI不是简单的技术工具,而是在受人类大脑启发基础上开发的具有智能特征的物种,管理好人工智能是社会治理的重要内容和基础性工作。未来,大模型实体化、垂直化,具身智能社会化将会涌现,坚持以人为中心的人工智能发展,使人类成为AI培训师、引导者,实现人机良性互动将成为人工智能治理的核心问题。因此,人工智能的治理是技术与制度、体制机制、社会文化的发展进化和适应过程。多元文化背景下的人工智能价值对齐经济观察报:你曾提到多元文化背景下的人工智能价值对齐,为什么我们要关注这个问题?丁元竹:世界文化是多元的,这是人类社会特有的现象,各种文化间的冲突在人工智能出现前就时有发生。这种文化的多元性也影响到了人工智能,例如程序员都有自己的价值取向,所以在参数设定上、向量设计中就设计进去他们的价值理念。再如来自不同国家的大模型有属于自己国家的文化价值认知,在中国,点头表示同意,摇头表示不同意,但是在印度文化里面,点头表示不同意,摇头表示同意,在这种情况下,人与人工智能互动时会产生误解。人类需要的是超越自己的人工智能,还是需要协助人类提高自己福祉的人工智能?我认为是后者,成熟的人工智能既是技术飞跃,更是人类社会的认知延伸和合作助手,它具备的核心特征将涵盖技术、伦理和社会。成熟的人工智能本身具备自主性,在不依赖人的情况下可以对系统做出改变,甚至逃避人类。所以,我们需要关注多元文化背景下的人工智能价值对齐,让人工智能价值和人类机制、人类需求对齐,让人工智能成为人类福祉的一个工具。随着人工智能技术快速发展,价值对齐不仅关乎技术安全,更涉及社会、伦理和哲学等深层逻辑。经济观察报:不同文化背景下的冲突历来存在,这种人工智能价值对齐也会有不少难点,怎么去实现对齐是需要合力解决的问题。丁元竹:价值对齐为什么如此困难?是因为人类价值观的多元性与矛盾:不同文化对“公平”“自由”有着自己的理解和定义。人工智能价值对齐不仅是对技术的挑战,更是对文明存续的考验。人工智能造福人类的关键在于把价值对齐视为一个持续过程,而不是一次性的解决方案,如尽管人们视通用人工智能的出现不可避免,但通用人工智能发展不仅取决于大模型技术,也取决于机械技术进化。回到怎么对齐的问题上,由于不同文化、族群、群体之间对“公平”“正义”的定义和理解存在着差异,价值对齐需要解决在多元文化和多元价值观中寻求共同价值的共识,避免算法歧视或偏见。解决好这个问题,需要所有利益相关方的参与协作,需要科学家、技术专家、社会学者、人类学者、伦理学者、政策制定者及公众共同制定对齐标准,还要建立动态反馈机制,通过用户反馈和问责审计不断校准人工智能的行为。人工智能价值对齐是人类社会的“镜像”——它要求人们在智能时代重新审视自身的价值观体系。唯有实现技术迭代、伦理深思和公众参与的结合,才能构建既强大又可控的人工智能未来。从长远看,解决人工智能的可靠性、可解释性、数据偏见等问题需突破认知科学、生命科学、能源效率(如降低算力依赖)、人机协作等领域的问题。如果以“通用人工智能”或“超级人工智能”为标准,目前的人工智能技术确实不成熟。人工智能如何影响社会秩序与结构经济观察报:人工智能的普及与进步将自动化更多的人类工作,你认为这会对人类社会现有的用工秩序和社会结构带来冲击吗?丁元竹:人工智能对就业市场的冲击也是人们最为关注的议题之一,我认为其替代人类工作的速度和范围或许会远远超过以往任何一次技术革命。目前看,具有高替代风险的岗位是那些规则明确型的工作,诸如制造业中的装配线工人、会计流程中的自动化报表人员、法律工作中的合同审核人员等。具有中等替代风险的岗位包括部分创意工作,比如像广告文案人员、平面设计、新闻写作、音乐作曲,以及个性化辅导等。那些情感互动性高或复杂性程度高的决策工作,诸如心理咨询师、高级管理人员、社会工作者、园艺师、养老护理人员等目前被替代的可能性和数量或许不会太大。比尔·盖茨认为,医生和教师等职业将被AI取代,但软件开发者(主要指发现和修复错误、优化算法等)、生物学家和能源专家有望幸存。不容乐观的是,那些被替代的流水线工人或文员很难快速转型为人工智能训练师或机器人维护员,行业转型并非易事,2022年,美国仅54%的失业者成功转入新行业。经济观察报:我们需要为人工智能带来的这种替代而焦虑吗?丁元竹:从过去的经验来看,一个领域的工作被替代,会产生其他领域的就业岗位来。比如大模型训练约1万块H100的算力中心,每天耗电花费需要75万美元,差不多相当于一个中等城市的电力支持,那么新能源、核能等领域的就业岗位就会相应发展起来。对此,政府有关部门需要及早预测,制定支持劳动力转型政策,例如,编制再培训和终身学习计划等,甚至需要人工智能企业与政府一道探索全民基本收入等政策,应对失业或就业不足等潜在风险。经济观察报:在互联网时代,摩尔定律和互联网效应从底层逻辑上加剧了财富向少数人手中聚集。那么在人工智能时代,会加剧社会财富甚至社会关系的不平等吗?丁元竹:通过提供人工智能生成的内容、产品或服务,企业可以探索新的收入来源和商业模式。随着人工智能技术的发展,它正成为科技领域日益重要的一部分。那些忽视人工智能和机器学习的企业有可能在技术创新方面落伍。眼下,大型科技公司竞相选择生成式人工智能作为核心业务向其他领域拓展或者发展自己的人工智能,例如,苹果、亚马逊和 Meta 都在尝试将机器学习融入自己的企业运营。各行各业也都在加速利用人工智能技术推动创新、提高效率和增强用户体验。问题是,这样的拓展会不会造成财富的更加过度聚集,甚至出现较互联网时代更为凸显的赢者通吃现象呢?人工智能时代的新型文明观经济观察报:你觉得当下的人工智能迎来“奇点时刻”了吗?丁元竹:我既不是技术保守主义者,也不是技术激进主义者和人文社会焦虑者。总体来看,人工智能技术还不太成熟。尽管人工智能在过去十年中取得了不可思议的进展,但很多研究仍处于起步阶段,尤其是机器人技术,这项技术是出了名的难,即使在深度学习普及的时代,机器人技术的发展步伐也相对缓慢。一是从技术发展阶段性看,当前的人工智能在抽象推理、常识理解、情感表达、自我意识、创造性思维等方面还远未达到人类的水平。例如,大语言模型会生成文字流畅但逻辑错误的答案,无法真正理解上下文和真实的语义。大模型的准确性依赖高质量数据,在面对数据资源稀缺、数据偏差或动态变化的环境时,大模型表现出极大的不稳定性,这种情况也出现在医疗诊断、复杂决策等过程中。二是从应用场景看,目前部分领域的人工智能应用已高度成熟。人工智能在特定任务上已经超越人类,如图像识别,包括医疗影像分析、语音识别、围棋对决、推荐系统(包括电商、短视频)等。许多企业通过人工智能优化业务流程,这类“窄人工智能”技术已成熟到可以规模化和落地程度。有些大模型虽然不尽完美,但可以成为生产性工具,进入生产过程和市场领域。三是期望与现实之间存在差距。公众对人工智能的认知时常被媒体夸大,造成一定程度的技术迷茫。技术发展快于法律和伦理框架的建设加剧了人工智能的“不成熟”感觉。技术表现接近“人类水平”的说法本身,会让人觉得是臆想,甚至是海市蜃楼。人类的能力维度是丰富多样的,远非任何单一指标所能衡量。但我们的缺点和优点一样具有启发性。只有更好地了解和认识人类自身,才能更好地认识人工智能。人的感知能力虽然有种种局限,但与机器截然相反。我们从整体上看待世界,不仅能识别世界的内容,更可以进一步理解不同事物之间的关系、意义、过去和未来。迄今为止,人类对自身的认识仍然存在诸多空白。经济观察报:那面对人工智能的逐渐“成熟”,社会文明会发生怎么样的变化?丁元竹:人们总是在短期内高估了技术发明,而在长期上忽视了它的价值。尤其是在人工智能技术连连迭代的时候,长期主义尤为重要。如果在早期就认识了问题所在并加以跟踪,比技术逐步成熟并深深嵌入体制机制后再进行治理会付出更少的治理代价。人类正站在人工智能时代的新的门槛上,有望达到前所未有的文明水平,人工智能发展已经势不可挡,我们要开创人工智能时代的新型文明形态。这就需要培育人文社会科学家与科学技术人员之间密切合作的文化,这种文化要求人文科学家要深度了解科学技术发展的特点,科学技术人员要深度了解人文社会科学的基本原理,人文科学家与社会与自然科学家之间要达成默契:大家互相接纳、共同配合。经济观察报:开创人工智能时代的新型文明形态,当下急迫吗?丁元竹:必须从现在起培育人类与机器之间的默契与配合的文化,这种文化是新的人类文明和智能文明时代的文化。人工智能时代的合作,不仅仅是科学技术人员的事情,也是人文社会科学人员的事情,更是全社会的事情。当全体社会成员把自己的未来和命运与人工智能技术开发结合起来时,大家才会产生一种自豪感、安全感,人类才会有着更好的未来,这正是新的文明形态所需要的核心价值。人工智能更聪明后面临的未来风险经济观察报:人工智能还在继续高速发展,你如何看待未来人工智能高度成熟后会面临的风险?丁元竹:对于人工智能的未来,人们态度各异。有人认为,如果人工智能无法与人类价值观、伦理规则和社会大多数人的利益保持一致,会引发个体权利受到侵害,甚至造成人类文明存亡的严重危机。的确,人工智能正在迅猛发展,前Open AI研究员丹尼尔·科科塔伊洛团队发布了76页“AI 2027”报告,预测通用人工智能将在2027年中期实现;报告描绘出从2025年最贵AI诞生到2027年Agent-5渗透政府决策的发展路径,预计AI将快速超越人类智能;研究团队预测超人AI的影响将超过工业革命,但部分专家质疑这种预测缺乏科学依据且过于极端。有关人工智能未来的风险可以归结为目标错配问题。人工智能根据设定目标严格预设指标,但它无法理解人类价值观的复杂性和模糊性。人工智能军事系统或许会擅自升级冲突,如无人机做出误判,视无辜的平民为威胁目标并发动攻击。超级人工智能企业通过算法垄断定价权,操纵市场,损害消费者利益。美国COMPAS司法系统对黑人被告给出“再犯罪风险更高”的误判,强化了种族之间的偏见,甚至引发种族之间的冲突。算法的个性化推送制造了“信息茧房”,造成社会舆论的极端化和社会矛盾加剧。过度和长期依赖人工智能会导致人类判断力、思考力退化,如飞行员会因长期使用自动驾驶技术造成驾驶技能生疏,在遇到处理紧急情况时措手不及。人工智能生成内容会损害人类原创文化及其多样性。经济观察报:除了会冒出更多风险,也会有积极的方面。丁元竹:人工智能将会是人类的最后一次技术革命,会改变现有的教育形态、科研形态等等。如前面所说,人类到目前为止并没有解释自己的精神世界、内心世界是怎么形成的,对人工智能的研究会让人类反过来更了解自己。经济观察报:你是一名教育者,怎么看待人工智能对人文社会科学教育的冲击?丁元竹:一旦出现世界模型和数以万计的具身机器人与人类生活在一起,人文教育事业必将产生深刻变革。未来情境下,世界模型具备经验学习能力、具身机器人广泛融入人类社会、人机文明新形态形成,人工智能社会学理论架构的搭建需要突破传统范式,构建一个动态适应、多维度协同的跨学科框架。(作者 冯雨晨)免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。冯雨晨关注芯片、云计算、半导体及硬科技领域邮箱(fengyuchen@eeo.com.cn)或微信(Narrenschiff97)找到我