网问答>>【中国科学技术大学教授、中国人工智能学会人工智能伦理专委会(筹)主任 陈小平】人工智能伦理全景动态观
问题
已解决

【中国科学技术大学教授、中国人工智能学会人工智能伦理专委会(筹)主任 陈小平】人工智能伦理全景动态观

时间:2026-03-13 17:23:53
【中国科学技术大学教授、中国人工智能学会人工智能伦理专委会(筹)主任 陈小平】人工智能伦理全景动态观
最佳回答
人工智能伦理全景动态观是陈小平教授提出的,旨在为人工智能增进人类福祉与万物和谐共存提供伦理支撑,通过需求、研究、应用循环演进的闭环,以基本使命为最高层指导,划分科技研究与伦理研究,制定不同应用的实施细则,应对人工智能伦理挑战并推动社会向美好未来演进。人工智能伦理全景动态观提出的背景人工智能发展现状:人工智能作为学科高速发展60多年,取得大量技术成果并在一些领域有效应用,一些主要国家将其列为国家战略。但与成熟学科相比历史短,理论基础等很多基本问题仍处于探索阶段,受到普遍关注,其中伦理挑战成为焦点,欧盟委员会人工智能高级专家组发布了“可信赖人工智能”伦理准则。中国人工智能学会的行动:2018年年中组建人工智能伦理专委会,设置多个AI伦理课题并组织专题研讨。社会担忧情绪:随着人工智能快速发展,社会上出现普遍担忧,中国人工智能伦理专委会观察到主要有技术失控、技术误用、应用失控三种担忧。三种担忧的实际情况与未来可能情况技术失控目前情况:社会上存在对人工智能的夸大宣传,易引起大众误会误解,但并非人工智能专家观点,也未得到专家认同。国内外人工智能界普遍估计“人工智能统治人类”短期内不可能,也无确切依据表明将来一定会出现。很多专家说明未得到充分重视理解,部分大众受报道和科幻作品影响产生过度担忧。未来情况:从长期看,没有充分证据表明将来人工智能一定不会出现技术失控,这种风险需要人类面对。应依靠对风险的客观性、系统性科学研究判断其存在性和严重性,尽快展开相关研究对消除或缓解大众担忧、保证人工智能健康发展必要,无根据恐慌会导致实际阻碍。技术误用目前情况:国内外人工智能研究坚持将基础研究与实际应用严格区分,投入实际应用前会充分测试,未普遍推广的技术多因测试不可靠或未达性能指标。但科技界、产业界和监管部门对高新技术伦理问题认识处于初期阶段,规范和治理体系不健全,在数据隐私、数据误用、决策公平性等方面发生实际技术伦理问题,产生不好社会效果和影响,严重性被普遍低估。未来情况:为化解和避免风险,需要用更高标准,包括制定和建立伦理规范、法规行规、技术和产品标准,进一步发展和完善科研体系和产业体系。新产业创立之初出现问题常见,消除问题只能通过科技和产业进一步发展,因存在问题延缓产业发展进程会延缓问题解决。应用失控目前情况:以工业生产为例,现存劳动密集型产业在一些地区出现“用工难”现象,这不是因人工智能、机器人等新技术应用引起,而是大量岗位工作性质变成简单操作机械性重复,不符合人性,存在伦理问题,所以愿意承担这种工作的人越来越少。不是新技术应用引起生产少人化,而是产业少人化现实挑战导致不得不用新技术应对。未来情况:如果人工智能、机器人技术普遍应用导致大批工人失业且无法解决再就业问题,就可能引起应用失控。高技术产业国际转移伴随生产效率快速提升和工人工作性质改变,导致“用工难”与“工作岗位减少”双重矛盾不断加深并在全球蔓延。长期的重大社会需求和挑战气候变暖和环境污染:全球性问题,人工智能技术有可能提供帮助。产业少人化:由经济运行规律引起,高新技术引进提升经济效益同时加剧少人化。老龄化:中国有2.5亿个家庭需要家政服务,现有家政服务人员不到1700万;中国失能和半失能老人总数已达4000万。社会资源分布不均衡性:中国教育、医疗等社会资源总体不足、分布不均,是重大社会问题。城镇化问题:快速城镇化带来“人 - 文化 - 生态”问题,如空巢老人、空巢儿童、空巢青年等。人类面临一系列挑战和两难局面,需要全球视野下的组合创新。人工智能伦理的使命与机制架构未来三种可能情况消极延缓应用:限制创新力度、幅度和进度,现存和新生的社会问题和伦理问题不断累积,最终导向积重难返的残局。冒失推进应用:加重和加速引爆社会伦理问题,造成难以收拾的困局。积极稳妥推进:解决现存和新生的社会问题和伦理问题,走向更加美好的未来世界。人工智能伦理建设愿景必须面对第三种可能。人工智能伦理的基本使命双重含义:督促人工智能做好事,促使人工智能做更多更大的好事;防止人工智能做坏事,严控技术风险,保障安全底线。人工智能伦理全景动态观主要内容闭环结构:“需求”、“研究”与“应用”形成循环演进的闭环,需求推动研究,研究成果商业化实现应用,应用引发新需求。三个层次发挥作用最高层:人工智能伦理的基本使命,相对稳定指导人工智能研究、伦理体系建设和准则制定、改进和完善。中间层:准则落实到具体应用细化为强制性、可操作的实施细则,包括产品标准、技术标准、行规、法规、产业政策等,不同应用有不同细则。底层:“研究”划分为常规“科技研究”和新设立“伦理研究”,前者符合伦理准则,后者针对三种技术风险为准则制定等提供科学依据。“为潜在禁用而研究”:防范人工智能技术失控必需,也是人类历史上前所未有的。它并非只能提供否定性结论,也可发挥肯定性作用。
时间:2026-03-13 17:23:55
本类最有帮助
Copyright © 2008-2013 www.wangwenda.com All rights reserved.冀ICP备12000710号-1
投诉邮箱: