标题
  • 标题
  • 作者
  • 关键词
登 录
当前IP:10.1.212.53忘记密码?
年份
2024(12201)
2023(17645)
2022(14773)
2021(13862)
2020(11455)
2019(26522)
2018(26259)
2017(50215)
2016(27194)
2015(30725)
2014(30624)
2013(30221)
2012(27729)
2011(24961)
2010(25002)
2009(22631)
2008(21962)
2007(18798)
2006(16196)
2005(14316)
作者
(77366)
(64501)
(63905)
(61142)
(41026)
(30876)
(29149)
(25303)
(24487)
(22948)
(21958)
(21791)
(20446)
(20413)
(19909)
(19766)
(19086)
(18927)
(18371)
(18336)
(15918)
(15841)
(15478)
(14622)
(14351)
(14319)
(14299)
(14030)
(13018)
(12740)
学科
(111201)
经济(111086)
管理(75025)
(70550)
(57914)
企业(57914)
方法(51647)
数学(45564)
数学方法(44825)
中国(31333)
(28872)
业经(26478)
(25764)
(23595)
(21158)
贸易(21142)
地方(20691)
(20605)
农业(19311)
(19102)
理论(18542)
(16898)
(16766)
技术(16728)
银行(16726)
环境(16367)
(15988)
(15986)
金融(15985)
(15961)
机构
大学(382609)
学院(379558)
(152282)
经济(149112)
管理(148751)
研究(129971)
理学(129403)
理学院(127892)
管理学(125350)
管理学院(124656)
中国(97981)
(82569)
科学(81372)
(67707)
(65002)
(61032)
研究所(59597)
中心(58657)
业大(56862)
财经(54817)
(53419)
北京(52539)
(51317)
师范(50843)
(50091)
农业(47931)
(47516)
经济学(46504)
(43709)
经济学院(41945)
基金
项目(264775)
科学(208449)
基金(192920)
研究(192404)
(169254)
国家(167907)
科学基金(143934)
社会(121169)
社会科(114877)
社会科学(114846)
基金项目(101522)
(101393)
自然(94066)
自然科(91952)
自然科学(91931)
自然科学基金(90259)
教育(88742)
(86565)
资助(80218)
编号(77738)
成果(62945)
重点(59232)
(58526)
(56110)
(54948)
课题(53634)
创新(51273)
科研(50718)
国家社会(50490)
教育部(50267)
期刊
(159650)
经济(159650)
研究(110745)
中国(74384)
学报(62156)
科学(56749)
(54862)
管理(54146)
(50339)
大学(47044)
教育(45509)
学学(43715)
农业(38510)
技术(34008)
(30571)
金融(30571)
经济研究(26920)
财经(26145)
业经(25083)
图书(22754)
(22442)
(21374)
问题(20895)
科技(18155)
技术经济(18127)
(17731)
资源(17408)
(17375)
统计(17336)
理论(17178)
共检索到552593条记录
相关度优先
  • 发布时间倒序
  • 相关度优先
文献计量分析
  • 结果分析(前20)
  • 结果分析(前50)
  • 结果分析(前100)
  • 结果分析(前200)
  • 结果分析(前500)
[期刊] 图书馆论坛  [作者] 耿云冬  张逸勤  刘欢  王东波  
在深度学习技术不断发展和预训练语言模型不断改进的背景下,文章探讨面向数字人文研究需求的古文典籍文本词性自动标注问题。以校验后的高质量《四库全书》全文语料作为训练集,构建SIKU-BERT预训练语言模型,在源自多领域的16部古文典籍文本上开展词性自动标注实验。结果表明,SIKU-BERT预训练语言模型在词性自动标注任务中表现优良,词性标签总体预测准确率达到89.64%。文章还展示了单机版“SIKU-BERT典籍智能处理系统”的词性自动标注功能设计及应用。
[期刊] 图书馆论坛  [作者] 赵连振  张逸勤  刘江峰  王东波  冯敏萱  李斌  
古籍自动标点研究成为推动古籍研究在人文社科领域发展的关键环节。文章利用SIKU-BERT模型,以中国哲学书电子化计划古籍数据中的先秦两汉典籍为数据来源进行自动标点模型训练,探索了基于深度学习技术的古文自动标点模型。实验结果表明,SIKU-BERT模型对先秦两汉典籍自动标点的整体效果均比较优越,对于书名号、冒号、句号以及逗号,预测表现良好,尤其是书名号与问号标签的识别准确率、召回率与F1值表现最为优越,均达到95%以上。文章验证了BERT模型在古籍文本自动标点中的可行性,有助于推动数字人文在古籍研究中的发展。
[期刊] 图书馆论坛  [作者] 刘畅  王东波  胡昊天  张逸勤  李斌  
数字人文研究为古籍文献的深度开发与展示提供了良好的平台。精准的文本分词是研究者在古籍文献处理中需要优先解决的问题。文章基于记载春秋至魏晋时期历史的最具有代表性的6部官修史籍构建古文分词语料库,结合预训练和词典信息融合两种策略运用4种深度学习模型进行多组对比实验,以确定不同模型的适用范畴。在此基础上开发面向繁体古文的分词工具,为从事数字人文的研究者提供简单有效的文本分词方法。
[期刊] 图书馆论坛  [作者] 胡昊天  张逸勤  邓三鸿  王东波  冯敏萱  刘浏  李斌  
四库分类体系具有深远的影响。为解决古籍残本难以辨识所属类别问题,提供面向数字人文领域研究的方法工具,基于面向古文自然语言处理的Siku BERT和Siku Ro BERTa预训练语言模型,在《四库全书》子部14个类别的古籍文本上开展典籍自动分类模型的构建,并与BERT、BERT-wwm、Ro BERTa和Ro BERTa-wwm基线模型进行对比。文章提出的两种分类模型效果均优于基线模型,Siku BERT模型取得90.39%的整体分类F值,在天文算法类古籍上达98.83%的分类F值。在类别自动识别任务中,Siku Ro BERTa的预测正确率达95.30%。基于Siku BERT和Siku Ro BERTa预训练语言模型的四库自动分类体系可以有效的将典籍文本划分为所属子部类别,所构建的分类工具为高效自动化典籍分类提供了新的途径。
[期刊] 图书馆论坛  [作者] 徐润华  王东波  刘欢  梁媛  陈康  
可以降低信息获取成本,对篇幅长而句子短、文字理解门槛高的古籍文献而言尤其必要,但针对古文的自动摘要研究少。文章面向《资治通鉴》语料,基于Siku BERT预训练模型进行自动摘要实验,并对比传统抽取式自动摘要算法和百度智能云摘要分析算法在《资治通鉴》语料上的表现。实验结果表明,基于Siku BERT预训练模型生成的摘要结果在稳定性、覆盖度等方面均优于其他两种方法;通过专家人工打分方式,基于Siku BERT预训练模型生成的摘要结果平均得分最高。实验验证了使用数字人文技术对古文进行自动摘要任务的可行性和利用Siku BERT预训练模型对古文进行信息处理的适用性。
[期刊] 图书情报工作  [作者] 王东波  黄水清  何琳  
[目的 /意义]先秦典籍在古代典籍中的地位极为重要。本文提出对先秦典籍进行词性自动标注的解决方法,以便更加准确地挖掘先秦典籍中的潜在知识。[方法 /过程]通过条件随机场模型,结合统计方法确定组合特征模板,并最终得到针对先秦典籍的词性自动标注算法模型。[结果 /结论]在先秦典籍自动分词的整个流程基础上,得到简单特征模板、组合特征模板下的词性自动标注模型,基于组合特征模板的词性标注模型调和平均值F达到94.79%,具有较强的推广和应用价值。在构建词性自动标注模型的过程中,通过融入字词结构、词语拼音和字词长度的
[期刊] 图书馆论坛  [作者] 林立涛  王东波  刘江峰  李斌  冯敏萱  
通用命名实体识别难以满足不同领域研究的需要,特定领域命名实体识别研究对于提升文本挖掘精度具有重要意义。基于Siku BERT预训练模型构建用于典籍动物命名实体识别模型,为典籍动物知识挖掘提供有效方法。利用25部经人工标注动物命名实体的先秦典籍语料,对Siku BERT等由BERT预训练模型发展而来的系列模型以及CRF、Bi-LSTM-CRF进行训练,构建多种用于识别典籍中动物命名实体的模型,并对这些模型进行识别性能测试,比较验证Siku BERT预训练模型的识别性能。结果表明,基于Siku BERT经训练所构建的动物命名实体识别模型效果最优,10折交叉测试的平均调和平均值(F1)为85.46%,最高一次达86.29%,应用于《史记》动物命名实体识别准确率达91.6%。
[期刊] 图书馆论坛  [作者] 王东波  刘畅  朱子赫  刘江峰  胡昊天  沈思  李斌  
数字人文研究需要大规模语料库和高性能古文自然语言处理工具的支持。面向英语和现代汉语的预训练语言模型已经在相关领域极大地提升了文本挖掘的精度,数字人文研究的兴起亟需面向古文自动处理领域的预训练模型。本文以校验后的高质量《四库全书》全文语料作为无监督训练集,基于BERT模型框架,构建了面向古文智能处理任务的Siku BERT和Siku Ro BERTa预训练语言模型。实验进一步设计了面向《左传》语料的古文自动分词、断句标点、词性标注和命名实体识别等验证任务,分别对siku Bert、siku Ro BERTa预训练模型和其他三种基线模型(BERT-base、Ro BERTa、Guwen BERT)进行对比试验。结果显示,Siku BERT和Siku Ro BERTa模型在全部4个下游验证任务中的表现均超越其他基准预训练模型。这表明本文提出的预训练模型具有较强的古文词法、句法、语境学习能力和泛化能力。进一步,本文基于验证任务效果最优的Siku Ro BERTa预训练模型构建了“SIKU-BERT典籍智能处理平台”。该平台提供了典籍自动处理、检索和自动翻译等三种在线服务,可以辅助哲学、文学、历史学等领域学者在不具备数据挖掘与深度学习的专业背景下,以直观可视化的方式对典籍文本进行高效率、多维度、深层次、细粒化的知识挖掘与分析。
[期刊] 情报学报  [作者] 徐飞  叶文豪  宋英华  
词性自动标注的准确率和召回率直接影响到后续食品安全事件各个层面知识和应对策略挖掘的整体效果,不仅直接影响食品安全事件中术语、实体抽取的性能,而且在一定程度上决定了与食品安全事件相关的分类、聚类和关联知识挖掘的精准度。本文分别基于CRF、RNN、BiLSTM和BiLSTM-CRF等传统机器学习模型与深度学习模型对食品安全事件文本进行词性自动标注实验。四十组实验结果表明,在未加入任何人工特征的条件下,深度学习模型的标注调和平均值高于传统的条件随机场模型,其中RNN和BiLSTM的调和平均值分别高出了2.43%和3.93%。而有机融合了BiLSTM和条件随机场模型两者最优特征的BiLSTM-CRF模型整体性能达到了最优,其中调和平均值比BiLSTM高出了7.12%,并且其中最优模型的调和平均值达到了95.89%。
[期刊] 情报学报  [作者] 沈思   陈猛   冯暑阳   许乾坤   刘江峰   王飞   王东波  
随着深度学习的迅速发展和领域数据的快速积累,领域化的预训练模型在知识组织和挖掘中发挥了越来越重要的支撑作用。面向海量的中文政策文本,结合相应的预训练策略构建中文政策文本预训练模型,不仅有助于提升中文政策文本智能化处理的水平,而且为政策文本数据驱动下的精细化和多维度分析与探究奠定了坚实的基础。面向国家级、省级和市级平台上的政策文本,通过自动抓取和人工辅助相结合的方式,在去除非政策文本的基础上,确定了131390份政策文本,总字数为305648206。面向所构建的中文政策文本语料库,基于BERT-base-Chinese和Chinese-RoBERTa-wwm-ext,本研究利用MLM (masked language model)和WWM (whole word masking)任务构建了中文政策文本预训练模型(ChpoBERT),并在Github上对该模型进行了开源。在困惑度评价指标和政策文本自动分词、词性自动标注、命名实体识别下游任务上,ChpoBERT系列模型均表现出了较优的性能,可为政策文本的智能知识挖掘提供领域化的基础计算资源支撑。
[期刊] 图书馆杂志  [作者] 曹刚华  
中国古代官私书目中著录有大量释书,无论在分类体例上还是在著录范围上,与佛经目录都相异,同时古代官方书目与私家书目在著录释书上也有不同,这反映中国古代两种宗教与三种知识系统的矛盾。
[期刊] 中国图书馆学报  [作者] 张木早  
中国古代私藏典籍的收集张木早Abstract:It'sapainstakingefforttocollecttheprivatecollectionsofancientbooksandrecords.Beforetheinventionofprint...
[期刊] 大学图书馆学报  [作者] 钱智勇  陈涛  张志美  徐宇红  何书  
典籍图像是馆藏重要资源,图像数字化和内容揭示是数字人文基础建设,可实现“以图证史”“图像叙事”、多媒介传播等应用价值。文章依据图像元数据、资源描述框架(RDF)和国际图像互操作框架(IIIF)等标准规范,研究典籍图像深度揭示与利用的模型架构与实现方法。该模型由图像数字化、内容深度标注和数字人文应用三个相互关联的模块组成。从图像场景、实体对象和语义关联三个层次,揭示图像特征、典籍注释及背景知识,辅助数字人文研究。例证选用经典辞书《尔雅》插图版《尔雅音图》进行数字化,构建《尔雅》多语语义词表并与实体进行关联,深度揭示《尔雅》词汇的古今释义、音韵、分类、典籍注疏、例句典故等知识内容,探究《尔雅》图像的数字人文应用场景。
[期刊] 图书馆  [作者] 李娜  包平  
在数字人文背景下,以馆藏方志古籍为语料库,以摘抄自地方志的农业专题资料《方志物产》之山西分卷为例,在全文人工标注的基础上,构建基于条件随机场的古汉语地名自动识别模型,通过交叉验证方法测试模型的识别性能,用精确率P、召回率R和调和平均数F为测评指标,最佳的测试效果分别为98.16%、91.55%、94.57%。结果显示,条件随机场模型在基于人工标注的方志古籍语料上能够取得较好的识别效果,为深化图书馆馆藏古籍的整理利用提供借鉴。
[期刊] 图书馆论坛  [作者] 谢靖  刘江峰  王东波  
古代中国医学文献是中华古籍的重要组成部分,含有丰富的中医学知识,是中医理论研究的重要载体和思想源泉。标注古代中医文献的命名实体,能进一步挖掘其蕴藏的中医学知识,推进中医现代化发展。文章基于BERT-base、RoBERTa、SikuBERT、SikuRoBERTa预训练模型,以《黄帝内经·素问》为研究对象、Flat-lattice Transformer结构为微调模型,构建中医文献中病证、病理、经络、穴位、五行等命名实体识别任务。实验结果表明:直接使用古文繁体BERT模型对古代中医文献进行领域命名实体识别,则基于繁体《四库全书》的SikuBERT、SikuRoBERTa预训练模型效果要优于BERT-base、RoBERTa模型;在引入Flat-lattice Transformer(FLAT)结构作为微调模型后,SikuBERT在有标点情况下表现最优,识别效果可以提升4%左右,SikuRoBERTa在无标点情况下表现最优,识别效果可以提高2%~3%。实验验证了FLAT作为微调模型对BERT模型在中医专业领域中古文献命名实体识别工作上的有效性。该微调模型可以有效避免分词错误引起的实体识别传播错误,进而提高中医命名实体的识别效率。
0
文献操作(0) 导出元数据 文献计量分析
导出文件格式:WXtxt