- 年份
- 2024(9904)
- 2023(14134)
- 2022(11830)
- 2021(10984)
- 2020(9030)
- 2019(21033)
- 2018(21162)
- 2017(40803)
- 2016(22276)
- 2015(25253)
- 2014(25277)
- 2013(24739)
- 2012(22466)
- 2011(19935)
- 2010(20120)
- 2009(18008)
- 2008(17200)
- 2007(14774)
- 2006(12709)
- 2005(10890)
- 学科
- 济(90275)
- 经济(90186)
- 管理(62948)
- 业(58718)
- 企(49040)
- 企业(49040)
- 方法(42903)
- 数学(37738)
- 数学方法(37048)
- 农(23617)
- 业经(23399)
- 中国(22757)
- 财(20048)
- 学(18673)
- 地方(18554)
- 理论(16225)
- 农业(15997)
- 贸(14892)
- 贸易(14881)
- 易(14416)
- 和(14111)
- 技术(13962)
- 制(13839)
- 产业(13508)
- 环境(13417)
- 务(12628)
- 财务(12554)
- 财务管理(12530)
- 教育(12123)
- 划(12119)
- 机构
- 大学(307051)
- 学院(306659)
- 管理(124837)
- 济(115354)
- 经济(112636)
- 理学(109036)
- 理学院(107808)
- 管理学(105545)
- 管理学院(104989)
- 研究(97722)
- 中国(71888)
- 京(65834)
- 科学(63185)
- 财(50856)
- 所(47973)
- 农(47588)
- 业大(47047)
- 中心(45087)
- 研究所(44106)
- 江(43738)
- 范(41943)
- 师范(41576)
- 北京(41398)
- 财经(41270)
- 经(37500)
- 农业(37217)
- 州(36245)
- 院(36172)
- 技术(34032)
- 经济学(33552)
- 基金
- 项目(217677)
- 科学(171016)
- 研究(159743)
- 基金(156356)
- 家(135832)
- 国家(134696)
- 科学基金(116575)
- 社会(98186)
- 社会科(92996)
- 社会科学(92969)
- 省(86306)
- 基金项目(83308)
- 自然(77069)
- 自然科(75288)
- 自然科学(75274)
- 教育(74195)
- 自然科学基金(73854)
- 划(72440)
- 编号(66820)
- 资助(64582)
- 成果(53035)
- 重点(48229)
- 部(46809)
- 发(45949)
- 课题(45517)
- 创(45493)
- 创新(42255)
- 科研(41565)
- 项目编号(41013)
- 大学(40582)
- 期刊
- 济(121688)
- 经济(121688)
- 研究(86290)
- 中国(57744)
- 学报(48353)
- 管理(44944)
- 科学(44169)
- 农(42580)
- 教育(39636)
- 财(37653)
- 大学(36687)
- 学学(33868)
- 农业(29993)
- 技术(29797)
- 融(22041)
- 金融(22041)
- 业经(20978)
- 图书(20630)
- 经济研究(19233)
- 财经(18624)
- 业(15873)
- 问题(15823)
- 经(15783)
- 科技(15439)
- 技术经济(15083)
- 理论(14820)
- 资源(14479)
- 版(13908)
- 书馆(13893)
- 图书馆(13893)
共检索到436894条记录
发布时间倒序
- 发布时间倒序
- 相关度优先
文献计量分析
- 结果分析(前20)
- 结果分析(前50)
- 结果分析(前100)
- 结果分析(前200)
- 结果分析(前500)
[期刊] 图书馆论坛
[作者]
徐润华 王东波 刘欢 梁媛 陈康
可以降低信息获取成本,对篇幅长而句子短、文字理解门槛高的古籍文献而言尤其必要,但针对古文的自动摘要研究少。文章面向《资治通鉴》语料,基于Siku BERT预训练模型进行自动摘要实验,并对比传统抽取式自动摘要算法和百度智能云摘要分析算法在《资治通鉴》语料上的表现。实验结果表明,基于Siku BERT预训练模型生成的摘要结果在稳定性、覆盖度等方面均优于其他两种方法;通过专家人工打分方式,基于Siku BERT预训练模型生成的摘要结果平均得分最高。实验验证了使用数字人文技术对古文进行自动摘要任务的可行性和利用Siku BERT预训练模型对古文进行信息处理的适用性。
[期刊] 图书馆论坛
[作者]
刘畅 王东波 胡昊天 张逸勤 李斌
数字人文研究为古籍文献的深度开发与展示提供了良好的平台。精准的文本分词是研究者在古籍文献处理中需要优先解决的问题。文章基于记载春秋至魏晋时期历史的最具有代表性的6部官修史籍构建古文分词语料库,结合预训练和词典信息融合两种策略运用4种深度学习模型进行多组对比实验,以确定不同模型的适用范畴。在此基础上开发面向繁体古文的分词工具,为从事数字人文的研究者提供简单有效的文本分词方法。
[期刊] 图书馆论坛
[作者]
赵连振 张逸勤 刘江峰 王东波 冯敏萱 李斌
古籍自动标点研究成为推动古籍研究在人文社科领域发展的关键环节。文章利用SIKU-BERT模型,以中国哲学书电子化计划古籍数据中的先秦两汉典籍为数据来源进行自动标点模型训练,探索了基于深度学习技术的古文自动标点模型。实验结果表明,SIKU-BERT模型对先秦两汉典籍自动标点的整体效果均比较优越,对于书名号、冒号、句号以及逗号,预测表现良好,尤其是书名号与问号标签的识别准确率、召回率与F1值表现最为优越,均达到95%以上。文章验证了BERT模型在古籍文本自动标点中的可行性,有助于推动数字人文在古籍研究中的发展。
[期刊] 图书馆论坛
[作者]
王东波 刘畅 朱子赫 刘江峰 胡昊天 沈思 李斌
数字人文研究需要大规模语料库和高性能古文自然语言处理工具的支持。面向英语和现代汉语的预训练语言模型已经在相关领域极大地提升了文本挖掘的精度,数字人文研究的兴起亟需面向古文自动处理领域的预训练模型。本文以校验后的高质量《四库全书》全文语料作为无监督训练集,基于BERT模型框架,构建了面向古文智能处理任务的Siku BERT和Siku Ro BERTa预训练语言模型。实验进一步设计了面向《左传》语料的古文自动分词、断句标点、词性标注和命名实体识别等验证任务,分别对siku Bert、siku Ro BERTa预训练模型和其他三种基线模型(BERT-base、Ro BERTa、Guwen BERT)进行对比试验。结果显示,Siku BERT和Siku Ro BERTa模型在全部4个下游验证任务中的表现均超越其他基准预训练模型。这表明本文提出的预训练模型具有较强的古文词法、句法、语境学习能力和泛化能力。进一步,本文基于验证任务效果最优的Siku Ro BERTa预训练模型构建了“SIKU-BERT典籍智能处理平台”。该平台提供了典籍自动处理、检索和自动翻译等三种在线服务,可以辅助哲学、文学、历史学等领域学者在不具备数据挖掘与深度学习的专业背景下,以直观可视化的方式对典籍文本进行高效率、多维度、深层次、细粒化的知识挖掘与分析。
[期刊] 图书馆论坛
[作者]
耿云冬 张逸勤 刘欢 王东波
在深度学习技术不断发展和预训练语言模型不断改进的背景下,文章探讨面向数字人文研究需求的古文典籍文本词性自动标注问题。以校验后的高质量《四库全书》全文语料作为训练集,构建SIKU-BERT预训练语言模型,在源自多领域的16部古文典籍文本上开展词性自动标注实验。结果表明,SIKU-BERT预训练语言模型在词性自动标注任务中表现优良,词性标签总体预测准确率达到89.64%。文章还展示了单机版“SIKU-BERT典籍智能处理系统”的词性自动标注功能设计及应用。
[期刊] 图书馆论坛
[作者]
胡昊天 张逸勤 邓三鸿 王东波 冯敏萱 刘浏 李斌
四库分类体系具有深远的影响。为解决古籍残本难以辨识所属类别问题,提供面向数字人文领域研究的方法工具,基于面向古文自然语言处理的Siku BERT和Siku Ro BERTa预训练语言模型,在《四库全书》子部14个类别的古籍文本上开展典籍自动分类模型的构建,并与BERT、BERT-wwm、Ro BERTa和Ro BERTa-wwm基线模型进行对比。文章提出的两种分类模型效果均优于基线模型,Siku BERT模型取得90.39%的整体分类F值,在天文算法类古籍上达98.83%的分类F值。在类别自动识别任务中,Siku Ro BERTa的预测正确率达95.30%。基于Siku BERT和Siku Ro BERTa预训练语言模型的四库自动分类体系可以有效的将典籍文本划分为所属子部类别,所构建的分类工具为高效自动化典籍分类提供了新的途径。
[期刊] 情报学报
[作者]
沈思 陈猛 冯暑阳 许乾坤 刘江峰 王飞 王东波
随着深度学习的迅速发展和领域数据的快速积累,领域化的预训练模型在知识组织和挖掘中发挥了越来越重要的支撑作用。面向海量的中文政策文本,结合相应的预训练策略构建中文政策文本预训练模型,不仅有助于提升中文政策文本智能化处理的水平,而且为政策文本数据驱动下的精细化和多维度分析与探究奠定了坚实的基础。面向国家级、省级和市级平台上的政策文本,通过自动抓取和人工辅助相结合的方式,在去除非政策文本的基础上,确定了131390份政策文本,总字数为305648206。面向所构建的中文政策文本语料库,基于BERT-base-Chinese和Chinese-RoBERTa-wwm-ext,本研究利用MLM (masked language model)和WWM (whole word masking)任务构建了中文政策文本预训练模型(ChpoBERT),并在Github上对该模型进行了开源。在困惑度评价指标和政策文本自动分词、词性自动标注、命名实体识别下游任务上,ChpoBERT系列模型均表现出了较优的性能,可为政策文本的智能知识挖掘提供领域化的基础计算资源支撑。
[期刊] 图书馆
[作者]
李娜 包平
在数字人文背景下,以馆藏方志古籍为语料库,以摘抄自地方志的农业专题资料《方志物产》之山西分卷为例,在全文人工标注的基础上,构建基于条件随机场的古汉语地名自动识别模型,通过交叉验证方法测试模型的识别性能,用精确率P、召回率R和调和平均数F为测评指标,最佳的测试效果分别为98.16%、91.55%、94.57%。结果显示,条件随机场模型在基于人工标注的方志古籍语料上能够取得较好的识别效果,为深化图书馆馆藏古籍的整理利用提供借鉴。
关键词:
条件随机场 方志古籍 地名 馆藏资源
[期刊] 情报学报
[作者]
余传明 郑智梁 朱星宇 安璐
本文系统性地研究面向查询的观点摘要任务,旨在构建一种查询式观点摘要模型框架,探究不同的摘要方法对摘要效果的影响。通过综合考虑情感倾向与句子相似度,从待检文档中抽取出待摘要语句,再结合神经网络和词嵌入技术生成摘要,进而构建面向查询的观点摘要框架。从Debatepedia网站上爬取议题和论述内容构建观点摘要实验数据集,将本文方法应用到该数据集上,以检验不同模型的效果。实验结果表明,在该数据集上,仅使用基于抽取式的方法生成的观点摘要质量更高,取得了最高的平均ROUGE分数、深度语义相似度分数和情感分数,较生成式方法分别提高6.58%、1.79%和11.52%,而比组合式方法提高了8.33%、2.80%和13.86%;同时,本文提出的句子深度语义相似度和情感分数评估指标有助于更好地评估面向查询的观点摘要模型效果。研究结果对于提升面向查询的观点摘要效果,促进观点摘要模型在情报学领域的应用具有重要意义。
[期刊] 图书情报工作
[作者]
常博林 万晨 李斌 陈欣雨 冯敏萱 王东波
[目的/意义]探索能够实现基于词和实体的检索与知识挖掘的人文知识库构建方法。[方法/过程]以《资治通鉴·周秦汉纪》为例,对68卷60万字的文本自动分词与词性标注之后,人工标注文本中的人物、地点GIS、时间等实体信息,实现基于词和实体的全文检索和地图检索系统;利用同现信息,统计出人物关系与人物游历信息;进而使用TF-IDF方法,通过时间序列分析,挖掘出多事之秋、风云人物、风云之地等结果。[结果/结论]基于词和实体的深度信息标注,能够解决缺乏词界、同名异指和异名同指的检索难题,更可以为古籍多角度的知识发掘与知识服务提供基础支撑。
[期刊] 图书馆论坛
[作者]
谢靖 刘江峰 王东波
古代中国医学文献是中华古籍的重要组成部分,含有丰富的中医学知识,是中医理论研究的重要载体和思想源泉。标注古代中医文献的命名实体,能进一步挖掘其蕴藏的中医学知识,推进中医现代化发展。文章基于BERT-base、RoBERTa、SikuBERT、SikuRoBERTa预训练模型,以《黄帝内经·素问》为研究对象、Flat-lattice Transformer结构为微调模型,构建中医文献中病证、病理、经络、穴位、五行等命名实体识别任务。实验结果表明:直接使用古文繁体BERT模型对古代中医文献进行领域命名实体识别,则基于繁体《四库全书》的SikuBERT、SikuRoBERTa预训练模型效果要优于BERT-base、RoBERTa模型;在引入Flat-lattice Transformer(FLAT)结构作为微调模型后,SikuBERT在有标点情况下表现最优,识别效果可以提升4%左右,SikuRoBERTa在无标点情况下表现最优,识别效果可以提高2%~3%。实验验证了FLAT作为微调模型对BERT模型在中医专业领域中古文献命名实体识别工作上的有效性。该微调模型可以有效避免分词错误引起的实体识别传播错误,进而提高中医命名实体的识别效率。
[期刊] 图书情报工作
[作者]
王东波 陆昊翔 周鑫 朱丹浩
[目的/意义]摘要作为学术论文中能够简明扼要地说明研究目的、研究方法和最终结论的陈述部分,具有较高的探究价值和意义。[方法/过程]选取长短期记忆网络(Long Short-Term Memory)、支持向量机(Support Vector Machine)、LSTM-CRF和CNN-CRF 4种模型,对3 672篇情报学领域的期刊论文进行摘要划分识别研究。[结果/结论]长短期记忆网络模型识别F值最高为69.15%,LSTM-CRF神经网络模型最高F值为88.76%,RNN-CRF模型最高F值达到89.10%,支持向量机分类器分类宏观F值最高为72.04%。该实验结果对图书情报领域的学术论文结构功能划分实验模型选取有较高的参考价值。
[期刊] 图书馆论坛
[作者]
吴娜 刘畅 刘江峰 王东波
作为自然语言处理中的关键任务,旨在压缩长文本信息、解决文本信息过载问题。文章以《二十四史》中的人物列传语料为例,从抽取式和生成式方法出发,探索AIGC技术驱动下古籍文本自动摘要应用的可行路径,为古籍资源的创造性转化和创新性发展提供参考,助力数字人文理念下的古籍内容价值实现。首先基于GujiBERT、SikuBERT、Bert-ancient-chinese模型进行语义表征,并使用LexRank算法进行重要性排序以抽取摘要。然后利用GPT-3.5-turbo、GPT-4和ChatGLM3模型生成摘要,并构建ChatGLM3和GPT-3.5-turbo微调模型。最后采用信息覆盖率和信息多样性指标对抽取式摘要结果进行评测,采用rouge和mauve指标对生成式摘要结果进行评测。研究表明:SikuBERT在抽取式摘要任务中对古文的语义表征能力和理解能力较强;通用大语言模型在古籍领域的自动摘要能力各有特色,但主旨提炼能力有所欠缺;通过小样本数据集微调GPT-3.5-turbo和ChatGLM3模型能有效提升模型的摘要生成能力。
[期刊] 图书情报工作
[作者]
胡昊天 邓三鸿 王东波 沈思 沈健威
[目的 /意义]对预训练语言模型在情报学与情报工作中的相关研究进行系统性的梳理与分析,为后续预训练模型与情报研究的融合提供借鉴。[方法 /过程]首先,简述预训练模型的基本原理与发展历程,汇总情报研究中应用较为广泛的预训练模型。其次,宏观上分析预训练模型在国内外情报研究中的热点方向,微观上从情报组织、情报检索、情报挖掘等方面调研预训练模型相关研究成果,并细致分析归纳预训练模型的应用方式、改进策略与性能表现。最后,从预训练模型的语料、训练、评价、应用等方面总结当前预训练模型在情报学科中面临的机遇与挑战,展望未来发展。[结果 /结论 ]当前BERT及其改型在情报处理中应用最广、表现最优。结合神经网络与微调的范式被用于各研究场景,尤其是领域信息抽取与文本分类任务。继续预训练、外部知识增强、架构优化等策略可进一步提升性能。如何平衡训练语料的规模与质量、提升模型易用性与安全性、高准度与多维度评价模型真实能力、加速学科知识挖掘工具落地应是未来考虑的关键问题。
[期刊] 中国职业技术教育
[作者]
王雯 韩锡斌
利用在线教学模式开展大规模远程技能训练是当前职业教育及社会培训领域解决高技能人才短缺、实现"保就业、稳就业"的重要举措,也是新冠肺炎疫情期间职业教育实现"停课不停学、停课不停教"的应急之举,具有重要研究价值。基于105份技能在线教学的实践案例分析,针对不同类型技能特点,系统性地提出了8种面向远程技能训练的在线教学模式。研究发现,实施在线教学可以较好地实现智力技能与表达技能的训练目标,但限制了部分动作技能及感觉与知觉技能的有效习得。网络基础设施建设与虚拟仿真实验实训资源开发是在线开展技能训练的有效保障。
文献操作()
导出元数据
文献计量分析
导出文件格式:WXtxt
删除