标题
  • 标题
  • 作者
  • 关键词
登 录
当前IP:忘记密码?
年份
2024(5357)
2023(7891)
2022(6420)
2021(6347)
2020(5143)
2019(11599)
2018(11535)
2017(19360)
2016(11828)
2015(13284)
2014(13668)
2013(12460)
2012(11876)
2011(10539)
2010(11065)
2009(10059)
2008(10210)
2007(9563)
2006(8542)
2005(7926)
作者
(31893)
(26386)
(26249)
(25353)
(16811)
(12824)
(12209)
(10305)
(10297)
(9824)
(9201)
(8846)
(8494)
(8439)
(8268)
(8195)
(8161)
(7985)
(7884)
(7751)
(6923)
(6495)
(6486)
(6326)
(6042)
(6022)
(5921)
(5826)
(5443)
(5357)
学科
(32079)
经济(32021)
管理(29762)
(25519)
(21639)
企业(21639)
教育(20406)
中国(16642)
方法(12041)
(11709)
理论(11505)
(10766)
(10350)
数学(9311)
教学(9088)
数学方法(8955)
(8575)
业经(8515)
(7054)
贸易(7045)
技术(6902)
(6893)
(6889)
银行(6869)
农业(6740)
(6507)
(6505)
财务(6480)
财务管理(6460)
(6342)
机构
大学(159471)
学院(153943)
研究(56970)
管理(49823)
(49038)
经济(47461)
理学(41531)
理学院(40949)
管理学(39824)
管理学院(39506)
中国(39049)
(36352)
科学(34147)
教育(32586)
(31444)
师范(31216)
(28665)
(27251)
(27018)
中心(26503)
研究所(25660)
师范大学(25477)
北京(24065)
(23366)
技术(21771)
(21579)
(21140)
业大(20695)
财经(20535)
(18454)
基金
项目(95021)
研究(76776)
科学(74664)
基金(63924)
(55771)
国家(55116)
科学基金(45583)
社会(44432)
教育(43688)
社会科(41704)
社会科学(41697)
(37816)
(34550)
编号(33996)
成果(32254)
基金项目(31807)
自然(27895)
自然科(27290)
自然科学(27283)
课题(27211)
自然科学基金(26748)
资助(26317)
(23385)
重点(23239)
(22310)
项目编号(21067)
(20877)
(20703)
规划(20249)
教育部(19706)
期刊
(59270)
经济(59270)
研究(57500)
教育(55352)
中国(44255)
学报(25385)
(22888)
(21598)
科学(21565)
大学(20467)
管理(19656)
技术(17739)
学学(17305)
(14282)
金融(14282)
农业(14275)
职业(13886)
图书(11023)
财经(10371)
(9263)
论坛(9263)
(9088)
业经(8947)
技术教育(8938)
职业技术(8938)
职业技术教育(8938)
经济研究(8530)
书馆(8271)
图书馆(8271)
(8183)
共检索到257837条记录
发布时间倒序
  • 发布时间倒序
  • 相关度优先
文献计量分析
  • 结果分析(前20)
  • 结果分析(前50)
  • 结果分析(前100)
  • 结果分析(前200)
  • 结果分析(前500)
[期刊] 北京大学教育评论  [作者] 沈苑  汪琼  
随着人工智能教育产品日渐普及,教育领域所面临的伦理挑战不容忽视。欧盟于2019年4月出台的《可信赖的人工智能伦理准则》阐释了可信赖的人工智能伦理框架及建议的实现路径。基于此文件提出的伦理框架维度,结合AI教育应用已出现的伦理争议案例及相关研究发现,本文从"人的能动性与监督""技术稳健性与安全性""隐私与数据管理""社会与环境福祉""多样性、非歧视性与公平性""透明性"和"问责制度"这七方面分析了面对AI教育应用伦理困境时可采用的防范对策,如伦理嵌入设计、包容性测试等技术手段和建立多层责任分配制度、完善认证系统等非技术手段,为智能教育产品从开发、部署到使用全过程做到"可信赖"提供了参考。
[期刊] 中国科技论坛  [作者] 张正清  
1人工智能政策与规范之间的差异性2019年中国政府工作报告指出:"打造工业互联网平台,拓展‘智能+’,为制造业转型升级赋能",并提出"深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。"这是我国政府连续三年在政府工作报告中提及人工智能的发展
[期刊] 清华大学教育研究  [作者] 白钧溢  
人工智能伦理框架作为一套成型的、处于相互作用下的道德准则与规范组合,是消解伦理风险,实现技术向善的关键介质。目前,我国尚未出台国家层面的独立教育人工智能伦理指导框架。相比之下,国际教育人工智能伦理框架研究已有近30年历史,先后经历了借鉴与思考、追随与模仿、继承与独立三大发展阶段,不仅提出了具有一定影响的宏观伦理框架,还在关注教育伦理及要素、细化适用范围、提升实践指导力方面有所发展。与此同时,国际教育人工智能伦理框架因研究过程非连续、研究起步滞后、依赖借鉴一般人工智能研究而在当前面临广泛且持久的批评,启示我们在构建教育人工智能伦理框架时要关注框架自身的可靠性及框架实践的指导效果。框架自身的可靠性方面,应明晰不同领域伦理原则内涵的差异、关注框架自身的开放性与本土性、理清框架构建的哲学基础。框架实践的指导效果方面,应构建框架执行的保障机制、落实框架原则的可操作性、优化框架与实践的匹配度。
[期刊] 开放教育研究  [作者] 王佑镁  王旦  柳晨晨  
随着人工智能与教育的深度融合,人工智能伦理问题受到广泛关注,科技向善成为人工智能技术应用的基本原则。教育领域人工智能应用的伦理研究,多以现象剖析和愿景构建为主,系统的政策分析十分缺乏。鉴于此,本研究以分析国际组织或各国政府公布的十三份人工智能伦理规范政策文本为起点,通过挖掘教育人工智能伦理规范相关内容,结合人工智能伦理从缘起到教育应用的顺序,探索教育人工智能伦理问题的解决路径,构建教育人工智能伦理规范的十二条核心原则,包括:公平、以人为本、隐私安全、透明和可解释性、问责、评估形式、管理与工作量、知情参与和合作、自治和预警、福祉、伦理设计和实现教育目标,强调应用原则需要从科技向善转向人的向善。本研究还从设计开发者、教育工作者、受教育者、管理者与其他利益相关者等角度阐释原则的应用要求。十二条核心原则对编制教育人工智能开发与应用的基本指南具有重要意义,可促进人工智能技术教育的理性应用,提高教育治理现代化水平。
[期刊] 比较教育研究  [作者] 尹雅丽  
选取2019年以来国际组织具有代表性的4个基础教育人工智能伦理政策,构建目标阐释、伦理方案和实施框架3个层面、9个维度的分析框架进行梳理。以上政策深刻剖析技术影响,确定学生权益保护的紧迫性,通过参与机构责任分工、加强监测与评估、建立法律规范等举措,突围技术应用中存在的伦理困境,在目标层面指导政策实施和评估,在方案层面构筑数据隐私屏障,在实施层面鼓励各方协同参与。“公平与安全”“开放与自治”是4个政策的核心要义和行动指南。国际组织基础教育人工智能伦理政策的新动向体现出以人为本、关爱儿童的价值追求,强调因地制宜地推进政策落实。然而,监管规则的统一性和资源保障的有效性仍有待进一步完善。
[期刊] 中国远程教育  [作者] 谢娟  
被广泛谈论的人工智能与教育融合创新,其内在规定性和指向性必须加以界定,才能促进其伦理研究的深入开展。为寻求合理性伦理诠释和系统化伦理方案,明确其伦理内涵是必要前提。实际上,无论是融合创新目标所负荷的伦理价值,还是创新主体应该具有的道德观念,以及融合创新过程及结果需要受到的规范约束,都蕴含了人工智能与教育融合创新之伦理内涵的两个维度——内在的伦理秩序和外在的伦理规约。这两种内涵表征既召唤了积极伦理的调节作用,也昭示了消极伦理的限制特点,它们共同廓清了“应为”和“禁为”的伦理边界。因此,积极伦理与消极伦理相结合的实现路径,有助于调和乐观追捧和悲观忧虑的观念矛盾,从而消除融合创新之伦理决策的模糊性。
[期刊] 科技管理研究  [作者] 李娜  陈君  
负责任创新(RRI)旨在科学和技术创新过程中社会行动者和创新者彼此负责,同时会考虑创新过程中的伦理问题及创新产品的可接受性、可持续性和社会需求。其内涵分为行政定义和学术定义。在预期、反思、协商、反应、可持续性、关怀这6种负责任创新框架的基础上引入无私利性,基于负责任创新这7种框架理念解析人工智能技术发展带来的安全、隐私、结果等三方面主要伦理问题,探讨嵌入RRI框架来解决人工智能(AI)在产生、应用和发展等过程中滋生的伦理问题的路径,使AI技术更好地造福人类社会。
[期刊] 教育研究  [作者] 张务农  
当前,教育理论研究对教学主体的阐释囿于现代主体哲学所揭示的理性主体与非理性主体之争,无法有效说明技术在教学主体发展中的作用,也无法为人工智能对教学主体的扰动进行合法性辩护。通过对现象学技术哲学及主体哲学发展的考察,发现现象学技术哲学的身体分析和后人类主义的超人假设,能够进一步发展教学主体理论。身体既是非理性主体反对理性主体的关键,也是非理性主体证明自身的依据,还是技术主体出场的必要过渡。超人假设则突破了人的局限,建构了新的人性论。由此,人与“技术人”之争成为教学主体理论研究面对的新矛盾。规避教学主体的技术性建构带来的伦理风险,需通过人的认识自由实现人与技术的和谐共存;通过认知工具协同实现人类认知与机器认知的融合;通过人的理性、非理性与技术的协调发展实现教学价值。
[期刊] 山西财经大学学报  [作者] 肖艺能  
在人工智能领域,道德风险已经成为一个热点问题。从技术风险维度来看,产生道德风险的因素主要是算法黑箱、价值理性与工具理性的张力、人类风险认知和反应能力的局限性。通过对人工智能技术进行全面、系统的认识,发现它存在着伦理关系失调、道德规范失控、道德价值失调、道德行为异化等危险形态。在道德风险产生的基础上,建立协同治理环境,健全合作机制,实现合作治理,这是控制人工智能技术道德风险的现实途径,可以促进人工智能技术更好为人类服务,推动国家治理现代化。为此,本文就数字经济时代的人工智能伦理风险及其治理应对策略进行研究。
[期刊] 外国经济与管理  [作者] 谢洪明  陈亮  杨英楠  
人工智能尤其是机器人在各个领域从事越来越多的决策,逐步从被动工具变成人类的代理者,这引发了社会各界对人工智能伦理的思考和担忧,需要建立新的伦理范式,将人类社会的伦理规范延伸到智能机器。近年来该研究取得了较大发展,丰富了已有研究内容,提升了对人工智能伦理研究的指导能力。本文全面回顾了国内外有关人工智能伦理的研究进展,在文献计量分析的基础上,发现"传统派"、"谨慎派"和"乐观派"三种对人工智能的不同态度引发了"人—机"关系的伦理冲突,从人工智能道德哲学、道德算法、设计伦理和社会伦理四个视角系统性地评述了人工智能伦理的研究成果,国家和企业(组织)分别从战略和社会责任的层面上强调对人工智能伦理的态度,提出了更加系统、完善的人工智能伦理的理论框架,有助于从理论和实践层面系统地把握已有研究成果。未来需要在全球情景条件的伦理体系建设、伦理对技术的前瞻性、伦理角色塑造和科学发展的伦理观上做进一步研究。
[期刊] 中国注册会计师  [作者] 戚啸艳  王晗  赵洋洋  
人工智能(Artificial Intelligence,AI)作为计算机科学领域的分支,是研究、开发出来的用于模拟、拓展和延伸人的智能的一种理论、方法与技术。随着计算机技术与各种信息技术的发展,我国正逐步加快由中国制造向中国智造的转变,以人工智能为代表的新一代信息技术,将成为我国“十四五”期间推动经济高质量发展、建设创新型国家,实现新型工业化、信息化、
[期刊] 电子科技大学学报(社科版)  [作者] 周涛  
一个以大数据为原材料,以人工智能为引擎的新科技时代的到来不可阻挡。大数据和人工智能在给人类社会带来巨大利益的同时,也带来了诸如个人隐私、数据独裁、新型智能生命等让人担忧的问题。回顾了大数据和人工智能伦理研究的背景、意义和现状,着重从中立性、时效性、导向性三个方面介绍大数据于人工智能发展带来的具体伦理挑战。续篇将介绍边界问题、隐私问题和责权问题,并简述当前有效的应对策略以及未来开放性的政策和技术问题。
[期刊] 中国科技论坛  [作者] 汪琛  孙启贵  徐飞  
伦理价值已经成为医疗人工智能持续发展必要的衡量要素,既往研究详细梳理和分析了不同应用场景下医疗人工智能可能存在的伦理与道德问题,并尝试提出针对不同医疗情景的治理建议,但面对智能化医疗转型中系统性的伦理价值缺失,鲜有整体性的综合研判。本文运用社会-技术转型理论,立足宏观地景与微观利基双重层面,洞悉目前医疗人工智能伦理治理存在的不及之处,以未来智能医疗社会-技术体制的塑成路径为切入,认为社会网络对话机制、制度革新与社会实验是伦理价值嵌入医疗人工智能设计的可行路径,强调多元利益相关者的平等协商、多维制度规范间的协同共进以及社会-技术实验的实践反馈是医疗人工智能“科技向善”的必要保障。
[期刊] 中国软科学  [作者] 赵志耘  徐峰  高芳  李芳  侯慧敏  李梦薇  
从伦理主体关系、伦理存在形式和伦理价值判断标准3个维度,分析并廓清人工智能伦理风险的概念与内涵,探讨现阶段的表现形式和生成路径。研究认为,人工智能伦理风险是指因人工智能技术研发应用带来的不确定性后果而产生的人与机器、人与人、人与自然关系的负效应问题,当前主要包括人类决策自主受控、侵犯隐私、偏见和歧视加剧、安全责任划归困难与失当、破坏公平、生态失衡六大类风险。人工智能伦理风险源于技术—人—社会—自然之间的复杂交互,主要包括技术内生型伦理风险和技术应用型伦理风险两大生成路径。
[期刊] 教育发展研究  [作者] 徐岚   魏庆义   严弋  
面对生成式人工智能带来的机遇和挑战,高校需采取合适的应对策略。基于学术伦理视角,采用“情形-策略-价值原则”三层分析框架,对17所世界著名高校发布的19份指导文本进行内容分析发现:生成式人工智能在高等教育中的使用情形可以分为知识传授领域辅助人类智能、知识生产领域辅助人类智能以及知识传授领域替代人类智能三类。指导文本使用多种类型的政策工具,分别体现支持性、限制性和禁止性使用策略。指导文本制定所依据的学术伦理原则主要包括原创性原则、透明度原则以及教育性原则。在人工智能时代,高校应切实肩负起规范生成式人工智能使用的责任,分类规制人工智能不同的使用情形,重塑学术伦理的标尺,成为人工智能道德规则制定的风向标。
文献操作() 导出元数据 文献计量分析
导出文件格式:WXtxt
作者:
删除