首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 237 毫秒
1.
当前加速迭代的新兴技术对人类道德秩序的挑战,在诸多技术应用中都引发了大量伦理难题,科技创新与科技伦理之间的张力被凸显出来。今天的科技伦理成为一个多学科多主体参与的、对科技实践进行系统研究和综合治理的领域,科技伦理治理是未来社会生活实践和国家治理中的重要议题。从责任伦理的角度出发,面向未来的科技伦理治理应充分考虑以下要点:发挥伦理原则在新兴技术的敏捷治理中的作用;拓宽科技伦理教育,推动科技伦理由专业话语向公众话语的转变;强化科技伦理协同治理,构造多主体合作的“科技伦理治理共同体”;面向新兴技术实践的“物”转向,以人与技术物的协同演化为治理原则。  相似文献   

2.
科学技术发展过程中不确定性因素的显现、科技风险责任主体的缺失、科技风险与效益中的公平性等问题在科学技术发展和人类现实生活中引发了各种伦理问题,导致了一定程度的伦理困境,对于这些困境的解决,既有赖于建立起新的应对科技风险的伦理观,同时也需要构建科技风险治理的伦理调节机制,并通过具体措施使其得以实现。  相似文献   

3.
探讨影响浙江省共同富裕示范区建设的相关主要科技活动的潜在伦理风险。以“互联网+”、生命健康和新材料科学领域代表技术为研究对象,基于Web of Science、PubMed、Scopus、中国知网、万方、维普等数据库筛选出143篇相关中英文文献,梳理、分析和预判其中有关信息资源公平、生物资源公平、公共安全等问题,揭示其中所隐含的人体安全、隐私保护、受试者尊重等伦理风险;基于此,以浙江省数字一体化建设为例,阐析浙江省政府作为元治理者行使三阶治理职能,为多元主体共治提供基础治理平台、促进多元主体参与一二阶治理的实践措施,如建立自纠自查伦理生态、伦理治理信息化平台等,为研判新兴科技共性伦理风险、探索科技伦理治理新模式提供参考。  相似文献   

4.
人工智能伦理准则与治理体系:发展现状和战略建议   总被引:1,自引:0,他引:1  
首先,界定人工智能伦理准则的基本概念,分析人工智能发展现状。然后,探讨导致人工智能伦理问题的主要原因,总结人工智能典型应用场景下的伦理问题,包括自动驾驶、智能媒体、智慧医疗、服务机器人等;此外,围绕应对人工智能伦理问题的基本原则探索治理框架体系,包括技术应对、道德规范、政策引导、法律规则等方面。最后,结合我国人工智能发展规划战略部署,指出在社会治理的落地过程中宜采取分层次、多维度的治理体系,并提出在人工智能伦理准则和治理方面的具体措施建议(2020-2035年),包括社会宣传、标准体系、法律法规等方面。  相似文献   

5.
廖欢  刘伟 《科技管理研究》2023,(12):250-258
我国科技创新快速发展,面临的科技伦理挑战日益增多,为应对技术发展与应用中日益凸显的伦理矛盾,科技伦理治理迎来了法治建构的新任务。鉴于科技法律治理与科技伦理治理的底层逻辑有着一定差异性,以适度法制化作为切入点,分析科技伦理治理与法律治理融合机制。通过厘清科技伦理治理相关概念和国内外研究现状,立足于法律治理与科技治理的关联性,指出科技伦理治理法制化能够为科技活动划定边界,有效回应并规范涉及科技应用行为,推动负责任的科技创新与应用;同时,科技伦理法制化要求在法律层面上作出伦理规范,特别是有针对性地关注新兴科技领域相关伦理问题,因此从实体化权利义务、多层次规范体系的构建等角度出发,提出依托法律规范、伦理委员会运转、科技伦理审查等治理有效手段进一步健全完善科技伦理治理机制,增强伦理治理效能。  相似文献   

6.
随着人工智能的井喷式发展,其涉及的伦理风险,也从科幻作品中走进现实,成为众多主体热议的话题。本文以技术接受模型及风险感知理论为基础,以信任为中介,构建了公众对于人工智能伦理风险的感知与其参与风险治理意愿的研究框架,并通过实证检验了相关假设。结果显示:人工智能伦理风险感知对公众参与意向具有显著的负向影响,其中公众对科研机构和政府的信任在人工智能伦理风险感知与公众参与之间起部分中介作用。该结论为构建“政府主导、专家引领、公众参与、社会监督”的治理新格局提供了科学依据,对于新兴技术实现科技向善具有重要的现实意义。  相似文献   

7.
中国在合成生物学领域起步较晚但发展迅速,亟须尽快构建适合中国实际的合成生物学的科技伦理治理体系和制度框架,并为全球贡献中国方案。研究欧美等主要国家和地区关于合成生物学科技伦理治理的策动要素、具体路径及管理机制,探讨国际生物安全背景下中国的治理机制。研究显示,合成生物学的科技伦理问题主要涉及人类社会、农业、军事和经济等领域的伦理问题,欧美等主要发达国家和地区的治理策略主要包括完善协调、决策和咨询机制,强化行政规制和科学评估与风险防控机制,建立严格的惩治机制,加大基础研究资金支持,重视科研人员自律机制的建立以及强调公众参与等。根据发达国家和地区合成生物学科技伦理治理经验,提出中国应建立健全新兴生物科技伦理的法治化体系,同时建立涵盖风险监测、评估和预警全过程全环节的风险管理机制,对科技伦理进行常态化和长效性治理。  相似文献   

8.
人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的7个阶段,结合人工智能伦理和社会实验伦理的研究成果:(1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;(2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;(3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。  相似文献   

9.
于雪  李伦 《科学学研究》2023,(4):577-585
人工智能技术的颠覆性特征将诱发一系列风险,但这些风险往往难以预知和研判,因而可以在社会场景中部分地引入某些人工智能技术,并通过密切监测其社会影响而试验其可行性。这种将人工智能引入社会的过程可以被视为人工智能社会实验。作为社会实验的人工智能在防控风险方面有一定的优势,但其实施过程也存在着不容忽视的伦理问题。这主要源于人工智能社会实验是以人为研究对象,考察“人—人工智能”的内在关系,因而对其伦理关切不仅重要而且必要。人工智能社会实验的目的之一就是通过社会实验解决人工智能的伦理问题。但同时,这种实验本身就存在着伦理争议,伦理的二阶性就导致了隐私、“脏手”、欺骗等现实伦理问题。基于此,应当建构面向人工智能社会实验的伦理框架,即人工智能社会实验伦理,以研判和防控人工智能社会实验的潜在伦理风险。通过提出人工智能社会实验伦理的治理策略,有助于探索科技伦理治理的中国道路。  相似文献   

10.
现代科技的快速发展在为人类社会带来福祉的同时,也带来了巨大的伦理风险与挑战。如何开展系统性的科技伦理研究,推动科技伦理治理体系的构建已成为当前面临的重要问题。科技伦理研究也成为贯通自然科学、技术工程科学、人文社会科学领域的交叉、综合、复杂的智库问题。文章对国内外科技伦理研究现状进行综述和分析,运用智库双螺旋法这一智库理论方法对科技伦理研究框架、过程、逻辑进行论证,并以生命科学和医学伦理研究为案例进行分析,为科技伦理研究提供具有汇聚融合交叉特点的方法论创新。  相似文献   

11.
人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。  相似文献   

12.
本研究通过对发达国家科技发展战略、顶尖咨询机构权威报告、我国重点科技项目布局方向的共词分析遴选出高频词的未来产业领域,根据“对标国际、紧扣国家、立足江苏”的原则将人工智能产业作为引领江苏发展的未来产业。基于2010-2019年WOS核心合集收录的英文文献和CNKI数据库中文核心文献,运用知识图谱方法进行前沿热点技术分析,为江苏下一步发展人工智能产业提供借鉴。结果显示:江苏有基础推动人工智能产业高端化发展;美国和中国成为人工智能领域研究最为活跃的国家;国外人工智能的热点技术为机器人、物联网、特征提取和强化学习,重视对系统、模型和算法的研究,未来向着与大数据、物联网融合的方向发展;国内重视对模糊控制、遗传算法、自然语言处理的研究,未来向教育领域的融合应用、社会治理、5G、人才培养等方向发展。  相似文献   

13.
人脸识别技术是以人工智能算法为技术支持,以大数据分析为手段,进而实现人脸识别的目的。根据算法的不同,有基于2D识别算法和3D识别算法的人脸识别技术系统。但不管基于何种算法,均面临欺骗攻击、技术利维坦及责任风险等社会风险。欺骗攻击包括2D欺骗攻击和3D欺骗攻击;人脸识别技术利维坦是集人工智能“赛维坦”和大数据“数字利维坦”于一身的复合型技术利维坦;责任风险表现为现有的过错责任原则无法有效地对人脸识别技术带来的责任规则进行划分。为防范人脸识别技术的社会风险,除需对该技术进行深度研发外,更需要从该技术系统的应用端出发,对该技术使用的范围、手段和目的进行规制。  相似文献   

14.
朴毅  叶斌  徐飞 《科技管理研究》2020,40(24):245-251
随着人工智能技术的广泛应用,“大数据杀熟”、“人工智能侵权”以及“算法歧视”等负面事件频发,原先人们以为的人工智能价值中立性也因此而遭到质疑。目前国内对此的相关研究仍较多集中于概念层面,本文拟在已有研究基础上,进一步从机器学习的算法层面,从数据的社会性、算法的价值偏好以及决策的偏见强化三个角度,分析人工智能的价值非中立性实质,并对其可能引发的伦理问题与决策风险提出建议。  相似文献   

15.
新兴科技的前沿创新性、动态变化性、多元互动性使其伦理治理存在难度,传统的治理方式难以快速应对。浙江省作为共同富裕示范区,重点发展“互联网+”、生命健康和新材料三大科创高地,亟需识别新兴科研领域的伦理风险并加强伦理建制。为此,基于我国重点科技创新领域伦理治理存在相关法律法规文本体量不足、专业审查机制及配套保障不完善、科技伦理教育薄弱、总体伦理素养有待提高、科研伦理创新治理路径有待拓展等现状,系统分析信息科学、生命健康和新材料三大科学领域代表技术的潜在伦理风险和伦理治理现状,提出浙江省反思性高阶伦理“元治理”路径,包括:促进多元主体协同参与伦理治理、完善特色科技伦理制度文本、加强伦理审查制度建设、健全伦理教育科普制度以及数字化赋能高效管理等,以期促进科技理性驱动共同富裕示范区经济社会发展。  相似文献   

16.
随着人工智能技术的发展,自治型智能机器人开始走进人们的生活视阈。"机器人伦理学"在国外的兴起正是这一背景下的伦理反思。然而,"机器人伦理学"的研究对象"机器人"有着特定的涵义,其存在领域也涵盖劳动服务、军事安全、教育科研、娱乐、医疗保健、环境、个人护理与感情慰藉等各个方面。其中,安全性问题、法律与伦理问题和社会问题成为"机器人伦理学"研究的三大问题域。  相似文献   

17.
通用模型是近年来人工智能发展的重要方向之一。随着模型研发应用的增多,模型的社会和伦理影响受到广泛关注。文章从通用模型的特性出发、分析了模型在算法、数据和算力3个层面潜在的伦理挑战,包括不确定性、真实性、可靠性,偏见、毒性、公平、隐私及环境问题。进一步从技术哲学的视角分析了数据驱动的模型在人与世界关系中的中介性作用及所产生的“镜像”效应问题和透明性问题,提出了人与世界关系的新形态是以模型(数据)为中介的,即“人-模型(数据)-世界”关系。最后,从治理技术和治理机制两方面反思了当前的应对措施及局限性。建议建立开放式、全流程、价值嵌入的伦理规约机制,保障通用模型在合规、合伦理的框架下发展。  相似文献   

18.
“算法黑箱”背后的信息不对称或将带来社会风险,在人工智能技术发展的过程中,透明性原则的实现是算法监管、建立信赖关系的前提与基础,智能产业的发展和社会信赖利益也呼吁透明性原则的建立。但由于利益冲突、技术特征和制度成本等障碍,对人工智能技术监管不应采取传统领域彻底、全部公开的透明方式,而需确立有限、合理的透明标准。这一标准的有效落实依赖于行为规范和私权保护的协同作用,对人工智能进行事前预防、事中约束和事后救济等全过程控制,并结合对主体、客体、程度、条件等要素的场景化思考,实现智能科技创新、整体经济效益和社会公共利益之间的平衡与协调。  相似文献   

19.
科技研发应当遵循“科技向善”的理念,科技伦理与安全审查机制的建立十分重要。科技伦理与安全审查机制是生物安全风险防控和治理体系建设的重要组成部分,科技伦理与安全审查从“形式要件”到“实质要件”,均应当体现实体伦理正义和程序伦理正义的科技善治。我国应当构建科技伦理与安全审查二元体系结构:在内部审查结构中,制定具有统一性的科技伦理与安全审查实体性规则、程序性规则,从审查方式、审查标准、审查类型、主体法律责任四个方面对科技研发行为和科技产出成果予以规范。在外部审查结构中,建立信用机制及负面清单制度,形塑公众参与式审查模式,以期从源头有效规避科技伦理与安全风险。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号