标题
  • 标题
  • 作者
  • 关键词
登 录
当前IP:忘记密码?
年份
2024(6373)
2023(9332)
2022(7530)
2021(7033)
2020(6149)
2019(13648)
2018(13700)
2017(26384)
2016(14263)
2015(16343)
2014(16333)
2013(15852)
2012(14642)
2011(13195)
2010(13620)
2009(12949)
2008(13345)
2007(12080)
2006(10875)
2005(10215)
作者
(42158)
(35067)
(34785)
(33357)
(22473)
(16731)
(16014)
(13519)
(13494)
(12897)
(12218)
(12049)
(11513)
(11222)
(11204)
(10820)
(10517)
(10358)
(10309)
(10246)
(9068)
(8659)
(8530)
(8164)
(8135)
(7985)
(7901)
(7753)
(6995)
(6849)
学科
(50134)
经济(50027)
管理(49350)
(45696)
(38621)
企业(38621)
方法(20562)
(19511)
(17979)
数学(16792)
数学方法(16528)
中国(15739)
业经(14329)
(13745)
(13250)
财务(13210)
财务管理(13175)
(12831)
银行(12808)
企业财务(12523)
(12112)
(11761)
理论(11572)
(11312)
保险(11220)
(11218)
金融(11214)
(11151)
体制(9407)
(8983)
机构
大学(211674)
学院(209203)
管理(80440)
(79862)
经济(77935)
研究(67900)
理学(67229)
理学院(66493)
管理学(65358)
管理学院(64957)
中国(56558)
(45607)
(44997)
科学(40456)
财经(34722)
(34568)
(33677)
中心(32022)
(31796)
(31289)
研究所(30719)
北京(28575)
业大(28467)
(26547)
(26308)
师范(26035)
财经大学(25814)
(24713)
农业(24610)
经济学(24470)
基金
项目(133614)
科学(104668)
研究(99080)
基金(96999)
(84646)
国家(83978)
科学基金(71773)
社会(62167)
社会科(58682)
社会科学(58661)
(50938)
基金项目(50624)
自然(46223)
教育(45778)
自然科(45152)
自然科学(45139)
自然科学基金(44363)
(43537)
编号(41208)
资助(39887)
成果(36052)
重点(30095)
(29961)
(29732)
课题(28216)
(27715)
(26627)
项目编号(26228)
创新(26083)
(25975)
期刊
(92106)
经济(92106)
研究(65042)
中国(45694)
(38497)
学报(32847)
管理(30563)
科学(29741)
(29343)
(26093)
金融(26093)
大学(25092)
教育(23821)
学学(23345)
农业(19029)
技术(17910)
财经(17873)
(15053)
业经(14081)
经济研究(13698)
图书(12973)
理论(11552)
问题(11260)
财会(11043)
(10599)
实践(10485)
(10485)
会计(10233)
(10164)
技术经济(9242)
共检索到327059条记录
发布时间倒序
  • 发布时间倒序
  • 相关度优先
文献计量分析
  • 结果分析(前20)
  • 结果分析(前50)
  • 结果分析(前100)
  • 结果分析(前200)
  • 结果分析(前500)
[期刊] 征信  [作者] 王东方  
生成式人工智能的开发与应用可分为“海量数据的收集”“海量数据的训练”“模型的重复迭代”以及“模型的应用”四个阶段。生成式人工智能的开发模式可分为“独立开发模式”“用户参与模式”以及“开源提供模式”三种。生成式人工智能对个人信息权益的侵害风险主要包括:个人信息的非法收集与处理、已公开个人信息的不合理使用、用户生成信息的非法再处理以及个人信息泄露或非法保留。相应的规制路径可基于以下两个方面展开:在宏观上,应坚持包容审慎监管理念以及敏捷治理理念;在微观上,具体的规制方案应着眼于生成式人工智能的不同开发模式,明确不同主体的个人信息合规处理要求以及应承担的个人信息保护义务。
[期刊] 江西财经大学学报  [作者] 刘洁  
用人单位对劳动者个人信息的处理,伴随劳动合同的建立、存续与终结,因信息处理造成的侵害也贯穿劳动关系始末。在职场空间,用人单位对劳动者个人信息的不法侵害主要表现为:过度收集、职场监控与不当公开。侵害劳动者个人信息造成的损害呈现双层结构,即侵害个人信息本身的损害与由此衍生的劳动权益损害,后者主要表现为就业歧视和不法解雇。针对侵害信息本身所造成的损害,劳动者可以通过删除权、撤回权或更正权消除,请求恢复劳动关系;若损害仍无法弥补,还可主张物质性和精神性损害赔偿。但是针对信息处理导致的劳动权益损害,无法完全借助私法路径得以救偿,仍需回归劳动法。通过扩张劳动者单方解除权,预防和惩戒用人单位的信息处理行为;以集体合同规范行业内的信息处理活动,激活工会的职能,弥补劳动者的自治性缺陷;更新劳动基准的内涵,使其涵盖劳动者信息权益保护,将劳动者信息侵害纳入劳动监察与劳动争议解决机制的范畴。
[期刊] 图书馆建设  [作者] 李涛  
生成式人工智能技术的革新将带来生产力的重大飞跃,Sora的出现势必对现代图书馆发展产生重大影响。作为智慧图书馆建设的驱动力量,Sora 所赋能的生成式人工智能可以在图书馆可视化知识服务体系、智慧虚拟空间、优化算法技术以及智慧化信息建设与管理等方面发挥积极作用,以促进智慧图书馆的可持续发展。但与此同时,Sora 也带来了知识产权、过度收集读者个人信息和数据、算法滥用等法律风险。深入分析这些法律风险背后的内在逻辑,可以发现在将 Sora 与智慧图书馆融合时,应明确 Sora 作品的权利归属,建立 Sora 作品的识别体系与算法监管制度,从而构建起完善的智慧图书馆法律保障体系。
[期刊] 征信  [作者] 邹开亮   刘祖兵  
生成式人工智能秘密收集个人敏感数据,冲破“知情同意”原则和“最小必要”原则的限制,或将使信息关联违法高发。生成式人工智能信息收集行为主动、收集内容全面、泛化能力强劲,对“知情同意”原则和“最小必要”原则带来严重挑战。宏观层面,我国现有民事法律无力于数据安全治理,刑事法律缺乏明确的违法计量标准,由行政法规挑起数据法治大梁。微观层面,我国现有法律规范体系对被侵权人加以不合理的举证义务,司法救济路径单一,不利于权利救济。选择风险控制路径,从算法协议透明化、治理场景化和多方位协同化应对信息关联违法等方面展开制度构建,引入个人敏感数据单独监管制度和预防性公益诉讼制度破解该困局。
[期刊] 图书馆论坛  [作者] 顾男飞  
以Sora为代表的生成式人工智能是迈向通用人工智能目标的重要基石,我国应抓住由其带来的产业升级机会并全面规制技术应用风险。文章通过对生成式人工智能的技术发展与风险进行研判,系统梳理Sora的应用场景和局限性,明晰技术创新基础条件。针对生成式人工智能的产业影响,基于产业发展理论与系统论,提出应促进算法创新、提升数据和算力供给质量,并且挖掘丰富应用场景,以推动新质生产力发展。同时,针对生成式人工智能的复合应用风险,对技术治理理论进行调整,建构法律规制和技术治理的双元共治模式,以实现纾解著作权侵权风险、保障个人隐私安全、维护社会稳定与国家安全的多重目标。
[期刊] 世界经济与政治论坛  [作者] 孙成昊   谭燕楠  
人工智能的飞速发展推动人类社会进步,也导致选举政治呈现新变化。在“信息”“选民认知”以及“投票行为”的选举宣传研究框架下,生成式人工智能的推广使美国选举活动具有信息生成自动化、动员群体目标微观化及过程治理有机化等新特征,可能强化或动摇选民固有认知观念,影响投票倾向。在美国选举宣传中,若大规模滥用生成式人工智能,或将在舆论场中产生煽动、误导、干扰与冷漠等多重运用场景。选民安全性、代表性与主体性的缺失或使美国政治在安全、功能与制度层面面临新的风险,对代议制选举及美式民主的冲击或将深刻塑造美国未来的政治制度与秩序演进。
[期刊] 情报理论与实践  [作者] 漆晨航  
[目的/意义]生成式人工智能改变了网络空间的信息生成模式,由人工智能生成的虚假信息不仅数量庞大且有高拟真性,有严峻的虚假信息风险,亟须从把握发展与安全平衡的角度提出生成式人工智能虚假信息风险的治理方法。[方法/过程]归纳生成式人工智能的虚假信息现实问题和未来风险,提出生成式人工智能对现有虚假信息治理体系的挑战,进而明确生成式人工智能虚假风险的治理路径。[结果/结论]机制建设层面,建立虚假信息协同治理机制,通过战略规划统一“虚假信息”的规范概念,并传导至法律制度与信息执法内容实践中。多元治理层面,鼓励多元主体参与事实核查工作,赋予信息发布与传播者以人工智能生成内容(AIGC)标识义务,并通过学校教育与资源渠道拓宽提升公民信息素养。科技方法层面,主要是生成式人工智能科技底层降低虚假信息风险,并要求生成式人工智能服务提供者配备必要的虚假信息鉴别科技和渠道。
[期刊] 浙江社会科学  [作者] 王海洋  
以ChatGPT为代表的生成式AI依托于海量的训练数据来实现模型的迭代升级,训练数据的质量和数量直接决定着生成式AI的性能和泛化能力。然而,训练数据本身潜藏着来源合法性、质量可信性、规模偏离性等风险,自我规制与政府规制路径都难以契合生成式AI的市场布局与更迭速度,亟须在包容审慎理念下对生成式AI训练数据予以元规制。在元规制理念下,国家通过规范引导模型研发者将经设计的数据保护与科技伦理理念内嵌于生成式AI的训练数据中,促成数据保护从利用环节延伸至研发环节,通过可信的数据来源、数据分类分级、数据影响评估等措施促成模型研发者自我观照式的内省,并经由数据保护的监管沙盒实现自我规制的规制。
[期刊] 图书馆建设  [作者] 徐磊  
生成式人工智能技术所生成的内容在质量、效率以及多样性等方面已经有了显著的进步。生成式人工智能技术的关键在于大模型,基础在于数据,核心在于算法,而实现则在于算力。当前,生成式人工智能技术伴随着数据信息泄露、模型算法安全、生成内容偏颇、技术违法滥用等风险。这些风险严重地影响着生成式人工智能技术的健康发展。因此,生成式人工智能服务提供者、生成式人工智能服务使用者、国家有关主管部门以及社会各界等多元治理主体应当共同参与和相互配合,在生成式人工智能技术研发和服务提供等全流程采取适当的治理措施,在有效应对现实违法行为或潜在安全风险的同时,最大限度地规范生成式人工智能技术及服务,推动生成式人工智能的创新发展。
[期刊] 技术经济与管理研究  [作者] 魏霞  
国家创新体系的深度优化需要积极利用好以ChatGPT为代表的新一代生成式人工智能技术,生成式人工智能介入国家创新体系的口径:一是市场主体的创新能力提升,二是行政主体的创新管理效率改进,三是加快创新体系优化的成果转化。但是,新一代生成式人工智能运用于创新体系优化也存在技术应用、思想异化以及成果转化三个方面的风险。针对于此,需要从技术本身出发,从规制与保障两个方面促进新一代生成式人工智能助力国家创新体系深度优化。一方面,完善技术应用,实现生成式人工智能应用的数据安全治理,强化“价值理性”建设,避免思想异化风险;另一方面,在知识产权保护、产业发展以及人才保障方面建构激励制度,引导生成式人工智能及其背后的开发、应用者积极参与到国家创新体系深度优化当中。
[期刊] 技术经济与管理研究  [作者] 魏霞  
国家创新体系的深度优化需要积极利用好以ChatGPT为代表的新一代生成式人工智能技术,生成式人工智能介入国家创新体系的口径:一是市场主体的创新能力提升,二是行政主体的创新管理效率改进,三是加快创新体系优化的成果转化。但是,新一代生成式人工智能运用于创新体系优化也存在技术应用、思想异化以及成果转化三个方面的风险。针对于此,需要从技术本身出发,从规制与保障两个方面促进新一代生成式人工智能助力国家创新体系深度优化。一方面,完善技术应用,实现生成式人工智能应用的数据安全治理,强化“价值理性”建设,避免思想异化风险;另一方面,在知识产权保护、产业发展以及人才保障方面建构激励制度,引导生成式人工智能及其背后的开发、应用者积极参与到国家创新体系深度优化当中。
[期刊] 职教论坛  [作者] 孙帅帅  
人工智能在职业教育教学中的运用可能产生教学目标偏离风险、教学主体替代风险以及伦理风险等风险,解构这些风险可以发现职业教育教学过程中价值理性的缺失、职业院校教师技术素养欠缺以及人工智能技术的不完善性是造成上述风险的主要原因。为应对人工智能在职业教育教学运用中产生的风险,我们应当坚守人工智能技术辅助职业教育教学的初心、构建完善合理的技术培训体系以提升职业院校教师的技术素养以及理性规范人工智能辅助职业教育教学技术。
[期刊] 图书馆建设  [作者] 肖鹏  
文章基于“基础要素—服务方式—业务体系—伦理内核”的分析路径,指出生成式AI对公共文化机构的影响主要体现在四个方面:重构文化资源体系、拓宽个性服务边界、赋能专业支持体系、再塑专业伦理内涵。进一步地,作者通过对《生成式人工智能服务管理暂行办法》条款的解读和国际图书馆界专业行动的分析,强调公共文化机构应当指导用户“批判性且负责任地使用”生成式AI,并基于负责任创新的理念促进这一技术应用的落地,争取打造创新示范案例,为构建具有包容性的数字时代做出应有贡献。
[期刊] 开放教育研究  [作者] 张黎   周霖   赵磊磊  
以ChatGPT为代表的生成式人工智能产品广泛应用于教育,技术客体在今日以生成式人工智能的形态向人类中心主义的知识和教育体系提出挑战,由此引发的主体性之痛逐渐显现。生成式人工智能的教育应用将在一定程度上引发主体思想的“工业化”、主体交互的“规训化”、技治主义的“宿命化”,进而遮蔽与压抑教育中的人、教育活动、教育系统的主体性。规避生成式人工智能的教育应用风险,超越教育的主体性之痛,可能的实践理路包括:坚守主体教育实践的理性遵循,培育教育主体的数字素养;构筑生成式人工智能教育应用的责任伦理体系,实现人与技术的共鸣;建立生成式人工智能教育应用的监管机制,提升教育系统的自我治理能力。
[期刊] 现代经济探讨  [作者] 郑丁灏  
生成式人工智能在数字金融市场的应用不仅带来新式的信息技术风险,而且加剧传统金融风险的累积。当前,金融监管在时效滞后、对象错配以及组织碎片化的弊端使之陷入规制困境,需引入以“试错”为核心的试验型规制范式,围绕实用主义、极简主义以及演进主义的多重逻辑,指导数字金融市场生成式人工智能应用的规制变革。试验型规制的实施机制应以构造协同架构、廓清立法限度与设置日落条款为核心设计规范内容,在拓宽信息渠道的基础上完善内嵌于监管沙盒的算法影响评估机制,并加强外部监督与内部问责机制的约束作用,保障试验型规制实现金融业务创新发展与生成式人工智能安全的双重目标。
文献操作() 导出元数据 文献计量分析
导出文件格式:WXtxt
作者:
删除