标题
  • 标题
  • 作者
  • 关键词
登 录
当前IP:忘记密码?
年份
2024(9848)
2023(14153)
2022(11775)
2021(10995)
2020(9043)
2019(20923)
2018(21060)
2017(40581)
2016(22275)
2015(25292)
2014(25248)
2013(24728)
2012(22470)
2011(19942)
2010(20291)
2009(18084)
2008(17612)
2007(15450)
2006(13341)
2005(11558)
作者
(63851)
(52892)
(52687)
(50043)
(33641)
(25351)
(24047)
(20986)
(20215)
(18958)
(18146)
(17659)
(16659)
(16644)
(16285)
(15999)
(15858)
(15821)
(15118)
(15095)
(13134)
(13026)
(12798)
(12045)
(11913)
(11809)
(11773)
(11673)
(10726)
(10397)
学科
(89196)
经济(89108)
管理(64342)
(59277)
(50166)
企业(50166)
方法(43433)
数学(37946)
数学方法(37209)
业经(23162)
中国(22706)
(22499)
(20811)
(19457)
地方(16961)
理论(16799)
农业(15120)
(14549)
贸易(14538)
(14477)
(14286)
(14105)
技术(13989)
产业(13450)
环境(13271)
(13107)
财务(13024)
财务管理(12992)
(12831)
银行(12791)
机构
学院(308742)
大学(308268)
管理(124977)
(115093)
经济(112369)
理学(108832)
理学院(107630)
管理学(105264)
管理学院(104710)
研究(98337)
中国(72565)
(65956)
科学(64246)
(51751)
(49028)
(48416)
业大(47634)
中心(45435)
研究所(45046)
(44158)
北京(41645)
财经(41620)
(41254)
师范(40869)
农业(37964)
(37796)
(36738)
(36207)
技术(35668)
经济学(33413)
基金
项目(217127)
科学(169833)
研究(158599)
基金(155103)
(135139)
国家(134013)
科学基金(115579)
社会(96676)
社会科(91635)
社会科学(91608)
(86690)
基金项目(81888)
自然(76536)
自然科(74782)
自然科学(74768)
教育(74098)
自然科学基金(73335)
(72557)
编号(66343)
资助(64778)
成果(53027)
重点(48319)
(46354)
课题(45604)
(45516)
(45209)
创新(41994)
科研(41562)
项目编号(40990)
大学(40291)
期刊
(121018)
经济(121018)
研究(85205)
中国(59027)
学报(49711)
管理(45837)
科学(44645)
(43402)
教育(40480)
(38924)
大学(37340)
学学(34681)
技术(30927)
农业(30487)
(22585)
金融(22585)
图书(20790)
业经(20594)
经济研究(19216)
财经(18894)
(16499)
(16012)
科技(15557)
技术经济(15377)
问题(15118)
理论(15091)
统计(15083)
实践(14116)
(14116)
(14021)
共检索到441566条记录
发布时间倒序
  • 发布时间倒序
  • 相关度优先
文献计量分析
  • 结果分析(前20)
  • 结果分析(前50)
  • 结果分析(前100)
  • 结果分析(前200)
  • 结果分析(前500)
[期刊] 图书馆论坛  [作者] 王东波  刘畅  朱子赫  刘江峰  胡昊天  沈思  李斌  
数字人文研究需要大规模语料库和高性能古文自然语言处理工具的支持。面向英语和现代汉语的预训练语言模型已经在相关领域极大地提升了文本挖掘的精度,数字人文研究的兴起亟需面向古文自动处理领域的预训练模型。本文以校验后的高质量《四库全书》全文语料作为无监督训练集,基于BERT模型框架,构建了面向古文智能处理任务的Siku BERT和Siku Ro BERTa预训练语言模型。实验进一步设计了面向《左传》语料的古文自动分词、断句标点、词性标注和命名实体识别等验证任务,分别对siku Bert、siku Ro BERTa预训练模型和其他三种基线模型(BERT-base、Ro BERTa、Guwen BERT)进行对比试验。结果显示,Siku BERT和Siku Ro BERTa模型在全部4个下游验证任务中的表现均超越其他基准预训练模型。这表明本文提出的预训练模型具有较强的古文词法、句法、语境学习能力和泛化能力。进一步,本文基于验证任务效果最优的Siku Ro BERTa预训练模型构建了“SIKU-BERT典籍智能处理平台”。该平台提供了典籍自动处理、检索和自动翻译等三种在线服务,可以辅助哲学、文学、历史学等领域学者在不具备数据挖掘与深度学习的专业背景下,以直观可视化的方式对典籍文本进行高效率、多维度、深层次、细粒化的知识挖掘与分析。
[期刊] 图书馆论坛  [作者] 胡昊天  张逸勤  邓三鸿  王东波  冯敏萱  刘浏  李斌  
四库分类体系具有深远的影响。为解决古籍残本难以辨识所属类别问题,提供面向数字人文领域研究的方法工具,基于面向古文自然语言处理的Siku BERT和Siku Ro BERTa预训练语言模型,在《四库全书》子部14个类别的古籍文本上开展典籍自动分类模型的构建,并与BERT、BERT-wwm、Ro BERTa和Ro BERTa-wwm基线模型进行对比。文章提出的两种分类模型效果均优于基线模型,Siku BERT模型取得90.39%的整体分类F值,在天文算法类古籍上达98.83%的分类F值。在类别自动识别任务中,Siku Ro BERTa的预测正确率达95.30%。基于Siku BERT和Siku Ro BERTa预训练语言模型的四库自动分类体系可以有效的将典籍文本划分为所属子部类别,所构建的分类工具为高效自动化典籍分类提供了新的途径。
[期刊] 图书馆论坛  [作者] 徐润华  王东波  刘欢  梁媛  陈康  
可以降低信息获取成本,对篇幅长而句子短、文字理解门槛高的古籍文献而言尤其必要,但针对古文的自动摘要研究少。文章面向《资治通鉴》语料,基于Siku BERT预训练模型进行自动摘要实验,并对比传统抽取式自动摘要算法和百度智能云摘要分析算法在《资治通鉴》语料上的表现。实验结果表明,基于Siku BERT预训练模型生成的摘要结果在稳定性、覆盖度等方面均优于其他两种方法;通过专家人工打分方式,基于Siku BERT预训练模型生成的摘要结果平均得分最高。实验验证了使用数字人文技术对古文进行自动摘要任务的可行性和利用Siku BERT预训练模型对古文进行信息处理的适用性。
[期刊] 图书馆论坛  [作者] 刘畅  王东波  胡昊天  张逸勤  李斌  
数字人文研究为古籍文献的深度开发与展示提供了良好的平台。精准的文本分词是研究者在古籍文献处理中需要优先解决的问题。文章基于记载春秋至魏晋时期历史的最具有代表性的6部官修史籍构建古文分词语料库,结合预训练和词典信息融合两种策略运用4种深度学习模型进行多组对比实验,以确定不同模型的适用范畴。在此基础上开发面向繁体古文的分词工具,为从事数字人文的研究者提供简单有效的文本分词方法。
[期刊] 图书馆论坛  [作者] 赵连振  张逸勤  刘江峰  王东波  冯敏萱  李斌  
古籍自动标点研究成为推动古籍研究在人文社科领域发展的关键环节。文章利用SIKU-BERT模型,以中国哲学书电子化计划古籍数据中的先秦两汉典籍为数据来源进行自动标点模型训练,探索了基于深度学习技术的古文自动标点模型。实验结果表明,SIKU-BERT模型对先秦两汉典籍自动标点的整体效果均比较优越,对于书名号、冒号、句号以及逗号,预测表现良好,尤其是书名号与问号标签的识别准确率、召回率与F1值表现最为优越,均达到95%以上。文章验证了BERT模型在古籍文本自动标点中的可行性,有助于推动数字人文在古籍研究中的发展。
[期刊] 情报学报  [作者] 沈思   陈猛   冯暑阳   许乾坤   刘江峰   王飞   王东波  
随着深度学习的迅速发展和领域数据的快速积累,领域化的预训练模型在知识组织和挖掘中发挥了越来越重要的支撑作用。面向海量的中文政策文本,结合相应的预训练策略构建中文政策文本预训练模型,不仅有助于提升中文政策文本智能化处理的水平,而且为政策文本数据驱动下的精细化和多维度分析与探究奠定了坚实的基础。面向国家级、省级和市级平台上的政策文本,通过自动抓取和人工辅助相结合的方式,在去除非政策文本的基础上,确定了131390份政策文本,总字数为305648206。面向所构建的中文政策文本语料库,基于BERT-base-Chinese和Chinese-RoBERTa-wwm-ext,本研究利用MLM (masked language model)和WWM (whole word masking)任务构建了中文政策文本预训练模型(ChpoBERT),并在Github上对该模型进行了开源。在困惑度评价指标和政策文本自动分词、词性自动标注、命名实体识别下游任务上,ChpoBERT系列模型均表现出了较优的性能,可为政策文本的智能知识挖掘提供领域化的基础计算资源支撑。
[期刊] 图书馆论坛  [作者] 耿云冬  张逸勤  刘欢  王东波  
在深度学习技术不断发展和预训练语言模型不断改进的背景下,文章探讨面向数字人文研究需求的古文典籍文本词性自动标注问题。以校验后的高质量《四库全书》全文语料作为训练集,构建SIKU-BERT预训练语言模型,在源自多领域的16部古文典籍文本上开展词性自动标注实验。结果表明,SIKU-BERT预训练语言模型在词性自动标注任务中表现优良,词性标签总体预测准确率达到89.64%。文章还展示了单机版“SIKU-BERT典籍智能处理系统”的词性自动标注功能设计及应用。
[期刊] 图书馆杂志  [作者] 司马朝军  
《四库全书总目》(以下简称《总目》)共二百卷,它是《四库全书》的解题目录。《总目》与《四库全书》的关系非常密切,正如台湾学者杨晋龙所说: 《总目》和《全书》是连体婴,无法截然二分。同时《全书》的内容是一本一本成形的书,为何要著录或舍弃这些书?著录的书有那些版本、内容上的问题?存目的书何以不被收录等等及《全书》无法说明的事实,都得靠《总目》来说明解释;而且二者的弃取原则、评价标准,也并无差别……就书的内容而言,《全书》没有《总目》“存目”一类的书,所以两者有些差别;就其主旨而言,两书是二而一,《总目》隶属于
[期刊] 图书馆杂志  [作者] 陈晓华  陈莹  
如今,研究《四库全书》,已有专家学者称之为“四库学”。陈垣少年时就接触《四库全书总目》,后又刻苦研读《四库全书》,发表了不少整理与研究《四库全书》的成果,是研究《四库全书》的“领军”人物。本文试就陈垣与《四库全书》的关系,作一个简单的梳理。
[期刊] 图书馆杂志  [作者] 杨洪升  
《四库全书》对我国传统学术影响广泛而深远,考证出其所收录各书的底本是客观认识、深入研究、合理利用该书的前提条件。笔者久留意于此,时有所得,兹择出经部《了翁易说》等十一种,求教于方家。
[期刊] 全球教育展望  [作者] 赵健  
本文简要介绍了国际教学设计领域影响较大的四要素教学设计模型,阐述了该模型面向复杂认知技能的教学设计思想,特别强调了有别于加涅的学习结果分类的两类构成性技能及其获得原理的理论特征。进一步剖析了其中学习任务、支持性信息、JIT 信息与分任务设计四大要素,并概括了设计的序列步骤。本文最后在理论与实践价值及其应用有效性方面对4C/ID 模型进行了评析。
[期刊] 图书情报工作  [作者] 胡昊天   邓三鸿   王东波   沈思   沈健威  
[目的 /意义]对预训练语言模型在情报学与情报工作中的相关研究进行系统性的梳理与分析,为后续预训练模型与情报研究的融合提供借鉴。[方法 /过程]首先,简述预训练模型的基本原理与发展历程,汇总情报研究中应用较为广泛的预训练模型。其次,宏观上分析预训练模型在国内外情报研究中的热点方向,微观上从情报组织、情报检索、情报挖掘等方面调研预训练模型相关研究成果,并细致分析归纳预训练模型的应用方式、改进策略与性能表现。最后,从预训练模型的语料、训练、评价、应用等方面总结当前预训练模型在情报学科中面临的机遇与挑战,展望未来发展。[结果 /结论 ]当前BERT及其改型在情报处理中应用最广、表现最优。结合神经网络与微调的范式被用于各研究场景,尤其是领域信息抽取与文本分类任务。继续预训练、外部知识增强、架构优化等策略可进一步提升性能。如何平衡训练语料的规模与质量、提升模型易用性与安全性、高准度与多维度评价模型真实能力、加速学科知识挖掘工具落地应是未来考虑的关键问题。
[期刊] 情报理论与实践  [作者] 王宇琪   周庆山  
[目的/意义]互联网开源信息具有海量、多源异构等特点,如何从中及时发现有价值的信息,并对信息加以情报利用一直是情报研究和实践应用的重点领域之一。本文提出一套开源的学术会议领域信息抽取框架,解决信息抽取语义理解和关联融合的问题,并将其应用于情报研究中,为解决情报分析的智能应用提供工具和方法。[方法/过程]采集网络上新闻报道的内容,采用预训练语言模型方法挖掘学术会议事件信息,提出面向特定领域的信息抽取框架,实现会议名称及其举办时间、地点、出席人物、发言人物信息的抽取,并进行实际的情报利用研究案例分析。[结果/结论]相较于单一抽取实体的方法,抽取会议核心元素更具有情报关联性和准确性,可以更好地对开源热点事件发现和跟踪监测、目标人物轨迹动向分析等研究提供方法,为情报分析应用和情报研判奠定基础。
[期刊] 图书馆论坛  [作者] 谢靖  刘江峰  王东波  
古代中国医学文献是中华古籍的重要组成部分,含有丰富的中医学知识,是中医理论研究的重要载体和思想源泉。标注古代中医文献的命名实体,能进一步挖掘其蕴藏的中医学知识,推进中医现代化发展。文章基于BERT-base、RoBERTa、SikuBERT、SikuRoBERTa预训练模型,以《黄帝内经·素问》为研究对象、Flat-lattice Transformer结构为微调模型,构建中医文献中病证、病理、经络、穴位、五行等命名实体识别任务。实验结果表明:直接使用古文繁体BERT模型对古代中医文献进行领域命名实体识别,则基于繁体《四库全书》的SikuBERT、SikuRoBERTa预训练模型效果要优于BERT-base、RoBERTa模型;在引入Flat-lattice Transformer(FLAT)结构作为微调模型后,SikuBERT在有标点情况下表现最优,识别效果可以提升4%左右,SikuRoBERTa在无标点情况下表现最优,识别效果可以提高2%~3%。实验验证了FLAT作为微调模型对BERT模型在中医专业领域中古文献命名实体识别工作上的有效性。该微调模型可以有效避免分词错误引起的实体识别传播错误,进而提高中医命名实体的识别效率。
[期刊] 中国职业技术教育  [作者] 王雯  韩锡斌  
利用在线教学模式开展大规模远程技能训练是当前职业教育及社会培训领域解决高技能人才短缺、实现"保就业、稳就业"的重要举措,也是新冠肺炎疫情期间职业教育实现"停课不停学、停课不停教"的应急之举,具有重要研究价值。基于105份技能在线教学的实践案例分析,针对不同类型技能特点,系统性地提出了8种面向远程技能训练的在线教学模式。研究发现,实施在线教学可以较好地实现智力技能与表达技能的训练目标,但限制了部分动作技能及感觉与知觉技能的有效习得。网络基础设施建设与虚拟仿真实验实训资源开发是在线开展技能训练的有效保障。
文献操作() 导出元数据 文献计量分析
导出文件格式:WXtxt
作者:
删除