- 年份
- 2024(9019)
- 2023(13022)
- 2022(11557)
- 2021(10869)
- 2020(9098)
- 2019(21172)
- 2018(20948)
- 2017(41153)
- 2016(22052)
- 2015(24515)
- 2014(24230)
- 2013(23632)
- 2012(21423)
- 2011(18961)
- 2010(18561)
- 2009(16555)
- 2008(15630)
- 2007(13164)
- 2006(11025)
- 2005(9137)
- 学科
- 济(86162)
- 经济(86075)
- 管理(62748)
- 业(59713)
- 企(50453)
- 企业(50453)
- 方法(44202)
- 数学(39047)
- 数学方法(38518)
- 农(22261)
- 财(22161)
- 中国(20845)
- 业经(18840)
- 学(18630)
- 地方(16993)
- 农业(14811)
- 务(14741)
- 贸(14697)
- 贸易(14691)
- 财务(14673)
- 财务管理(14641)
- 制(14381)
- 理论(14364)
- 易(14264)
- 企业财务(13909)
- 技术(13728)
- 和(13583)
- 环境(13365)
- 划(11809)
- 银(11252)
- 机构
- 大学(302048)
- 学院(300416)
- 管理(124823)
- 济(117832)
- 经济(115368)
- 理学(110207)
- 理学院(109037)
- 管理学(107003)
- 管理学院(106477)
- 研究(94513)
- 中国(67931)
- 京(62856)
- 科学(60334)
- 财(51600)
- 业大(46746)
- 农(46436)
- 所(45334)
- 中心(43481)
- 财经(43044)
- 研究所(42004)
- 江(40678)
- 经(39424)
- 范(39170)
- 师范(38745)
- 北京(38744)
- 农业(36468)
- 经济学(35336)
- 院(35292)
- 州(33273)
- 财经大学(32561)
- 基金
- 项目(219988)
- 科学(174010)
- 基金(161193)
- 研究(159376)
- 家(140298)
- 国家(139185)
- 科学基金(121136)
- 社会(100229)
- 社会科(95060)
- 社会科学(95035)
- 基金项目(86566)
- 省(85774)
- 自然(80600)
- 自然科(78771)
- 自然科学(78754)
- 自然科学基金(77322)
- 教育(73571)
- 划(72187)
- 资助(66094)
- 编号(64772)
- 成果(50357)
- 重点(49007)
- 部(48438)
- 发(46208)
- 创(46029)
- 课题(43375)
- 创新(42937)
- 科研(42648)
- 教育部(41848)
- 大学(41346)
- 期刊
- 济(117984)
- 经济(117984)
- 研究(82596)
- 中国(48521)
- 学报(48246)
- 科学(44282)
- 管理(43903)
- 农(40704)
- 财(38565)
- 大学(37045)
- 学学(34949)
- 教育(31361)
- 农业(28796)
- 技术(27270)
- 业经(20291)
- 融(20240)
- 金融(20240)
- 财经(20118)
- 经济研究(19188)
- 经(17081)
- 图书(16136)
- 问题(15601)
- 科技(14926)
- 理论(14713)
- 技术经济(14496)
- 业(14255)
- 版(13849)
- 实践(13623)
- 践(13623)
- 资源(13207)
共检索到408048条记录
发布时间倒序
- 发布时间倒序
- 相关度优先
文献计量分析
- 结果分析(前20)
- 结果分析(前50)
- 结果分析(前100)
- 结果分析(前200)
- 结果分析(前500)
[期刊] 情报学报
[作者]
沈思 胡昊天 叶文豪 王东波
学术文献摘要的各个结构都具有特定的功能,但是目前对学术文献摘要结构功能自动识别的研究相对较少,且存在方法较为传统、识别效果不显著的问题。以摘要文本中的字为基本语义单位,本文以基于具有序列属性的LSTM-CRF模型的深度学习方法,利用摘要中所有字所包含的语义信息,构建了期刊论文摘要结构功能自动识别模型,并与具有非序列属性的SVM模型与具有序列属性的RNN模型、CRF模型和LSTM模型进行了多个角度地对比。本文提出的模型在摘要结构功能识别的准确率、召回率和F值上均取得显著效果,F值最高达到85.47%。与RNN模型、CRF模型、LSTM模型和SVM模型相比,LSTM-CRF的平均整体性能分别提升了33.63%、39.13%、32.81%和38.33%。
[期刊] 情报杂志
[作者]
杜秀英
[目的/意义]现有文本自动摘要算法普遍存在处理速度慢、压缩率不足或摘要质量不高等问题,如何高效处理、有效利用海量文本是图书馆信息管理及服务一个重要的研究方向。[方法/过程]提出了一种云计算平台下基于聚类与语义相似分析的多文本自动摘要方法。该方法在文本向量化基础上,通过MapReduce框架对多文本进行聚类、主题抽取、主题词及语义相似词频率统计等处理,然后摘取主题句构造出多文本摘要。[结果/结论]实验结果证实,基于聚类与语义相似分析的MapReduce自动摘要架构在生成大规模多文本摘要时,不但具有较好的时间
[期刊] 情报学报
[作者]
王东波 高瑞卿 叶文豪 周鑫 朱丹浩
随着大量科研论文全文本的出现,如何从中挖掘相应的知识不仅有利于学术文献的深度知识组织而且有益于学术文献的精准检索。而识别学术文本的结构是进行上述探究的基础,因为结构的识别有助于从更深层次或者偏重语义的角度理解学术文本,从而促进学术文本挖掘研究的发展。本文以学术文本的不同结构功能为研究对象,以Journal of the Association for Information Science and Technology(JASIST)上发表的1579篇论文为数据集,进行双向长短时记忆神经网络、支持向量机和条件随机场三种模型上的预实验,并对比实验结果的性能,最终确定利用条件随机场模型做进一步探究。利用条件随机场模型,本文将学术文本结构功能识别问题转化为对句子单元的序列标注问题,寻找最优识别模型并探究不同特征对结构功能识别的影响,最终获得开放测试的调和平均值为92.88%的结构整体识别效果。实验结果表明,章节标题中词汇信息和章节内容的特征词汇信息对学术文本的功能结构识别起到巨大作用,可以达到令人满意的效果,而结构的长度特征则干扰条件随机场方法的性能。在最后,本文对学术文本结构功能识别出错原因进行总结,指出进一步探讨的问题和方向。
关键词:
文本分类 条件随机场 篇章结构 深度学习
[期刊] 情报理论与实践
[作者]
缪建明 贾广威 张运良
随着我国专利申请数量的迅猛发展,对受理专利实现快速分类的需求也越来越迫切。作为专业性知识极强的科技文献,专利自动分类的正确率远高于普通文本的分类效果。基于专利摘要进行快速自动分类的方法,充分考虑专利类别的层次结构特性,建立不同层次的类别特征中心向量,采用经典的类中心向量分类算法实现专利的快速自动分类。实验结果表明:该方法在专利不同层次上的分类效果明显,时效性大大提高,能够满足专利快速分类的实际需求。
关键词:
文本分类 专利分类 自动分类
[期刊] 图书情报工作
[作者]
王连喜
处理流程和梳理国内外重要研究成果的基础上,重点对自动摘要研究在文本分词、冗余度控制、质量评价、短文本自动摘要以及多语言与跨语言文本自动摘要等方面所面临的若干基本问题及其主要解决方法进行归纳和总结,并对部分研究内容的发展方向进行展望,以期为未来的自动摘要和自然语言处理研究提供有意义的参考。
[期刊] 情报科学
[作者]
黄文彬 倪少康
【目的/意义】多文档自动摘要技术的目的是从一组文档中精炼出重要信息摘要,减轻用户从文档中获取与理解信息的负担,是自然语言理解领域的重要研究方向之一。【方法/过程】本文提取十五年内的多文档自动摘要研究文献并筛选出至少50篇关键影响文章,梳理多文档自动摘要的概念与研究进展,揭示了最新的技术实现与实践情况。【结果/结论】基于不同技术方法对单词、句子或段落作为主要数据处理对象,找出多文档自动摘要的技术特征与难点,明确该领域的发展趋势,为未来的研究奠定了基础。
关键词:
自动摘要 多文档处理 自然语言处理
[期刊] 数字图书馆论坛
[作者]
程齐凯 李信
为提高学术文献语义出版水平,既需要在写作和出版模式方面进行研究,也需要探索学术文本语义理解技术,以实现对学术文献,特别是存量学术文献的语义化处理。本文在学术文本词汇功能分析框架基础上,提出一种基于条件随机场的学术文献问题和方法识别模型,该模型使用词法特征、句法特征、组块特征等27个特征。实验表明,该方法具有优于当前最佳的识别效果。
关键词:
词汇功能 语义出版 序列标注 学术文本
[期刊] 情报理论与实践
[作者]
陈红伶 杨佳颖 许鑫
[目的/意义]现有基于合作或引证建立的学术共同体展现了更显性的学术关联,但不能直观地揭示出学术共同体所共有的特征,同时不可避免增加了人情因素带来的偏私倾向。[方法/过程]以知网文献摘要数据为研究对象,文章利用LDA和Word2vec混合模型挖掘得到每篇文献的主题,主题包含主题词及其扩展词。并以此作为主题与文献作者关系的依据,构建学者—主题二模网络,通过对二模网络以及映射的一模学者网络进行可视化,直观地反映了领域内学者就研究方向的聚集情况。[结果/结论]LDA和Word2vec混合模型能够深入挖掘文献主题,而利用二模能够展现二元的主体,通过上述方法,能够找到在现实中或许没有发生合作、但具有潜在重合研究主题倾向的学者群体。以国内图情领域为例,识别其核心学术共同体。"学者—主题"的二模网络中纳入了学者隶属群体的信息,不仅从全局视域归纳出领域内由词语元素构成的具体主题,而且利用向量距离计算得到的各个主题的扩展词语集,能进一步解释学者共同体所隶属群体的深化特征,能够有效降低人情因素,为同行评议提供支持。
[期刊] 情报理论与实践
[作者]
胡吉明 杨云
[目的/意义]为缓解政策信息过载、提高政策阅读效率及提升政策作用发挥效果,对政策文本的核心信息进行汇总凝练并生成高质量摘要。[方法/过程]集成无监督模型和算法,提出基于句向量改进的政策文本关键句子抽取策略;将依存句法结构融合至政策文本摘要生成中,提取政策文本依存句法树及其依存句法特征,增强基于RoBERTa模型的政策文本表示效果;在基于Seq2Seq的政策文本摘要生成模型中,引入PGN模型和改进SIMCLS模型筛选出最佳候选摘要,提升模型性能与所生成摘要的质量。[结果/结论]针对国务院政策文本的摘要生成实验表明,研究构建的融合关键句子和依存句法的政策文本摘要模型与策略,在ROUGE指标的评价上显著优于其他模型,且从实例呈现上看,模型所生成摘要在语义和语言质量上均表征良好。但政策文本摘要生成的连贯性有待提升,用于学习训练的、适用的参考摘要较少,摘要生成的评价评估有待进一步完善。
[期刊] 图书情报工作
[作者]
张晗 赵玉虹
[目的/意义]针对医学文本的特点,提出一种基于语义图的多文档自动摘要方法,并利用其中的语义信息实现摘要主题的识别。[方法/过程]利用SemRep实现源文档概念及其语义关系的规范化抽取并构建语义图,从概念-关系-社区3个层次对网络图中的关键信息进行抽取并生成摘要,利用概念-语义类型-类型分组三级映射实现对概念的归类,结合语义搭配模式对摘要主题进行划分。[结果/结论]通过对5种疾病数据集进行测试,结果显示该方法能有效识别出文献集中的核心内容,语义图中所富含的语义信息能准确地对摘要进行主题划分。
[期刊] 数字图书馆论坛
[作者]
喻琪琛 王晓光
摘要是科学论文的重要组成部分,为检索和预览科学论文提供基础和便利,对摘要进行语义增强有助于加强摘要的情报功能,提高读者的信息获取效率。对摘要增强方式进行调查和比较研究可以明确摘要语义增强的类型和发展方向。利用网络调查法对26本样本期刊中的摘要增强形式进行分类统计和比较分析,进而对不同领域期刊的语义增强方法和模式进行定性研究,并在此基础上识别摘要语义增强的关键问题。科学论文摘要的语义增强属于知识组织和表示方法的创新,主要有结构性增强、媒介性增强和表达性增强三种类型。摘要的语义增强不仅有利于提高读者的信息获取
[期刊] 图书情报工作
[作者]
王东波 陆昊翔 周鑫 朱丹浩
[目的/意义]摘要作为学术论文中能够简明扼要地说明研究目的、研究方法和最终结论的陈述部分,具有较高的探究价值和意义。[方法/过程]选取长短期记忆网络(Long Short-Term Memory)、支持向量机(Support Vector Machine)、LSTM-CRF和CNN-CRF 4种模型,对3 672篇情报学领域的期刊论文进行摘要划分识别研究。[结果/结论]长短期记忆网络模型识别F值最高为69.15%,LSTM-CRF神经网络模型最高F值为88.76%,RNN-CRF模型最高F值达到89.10%,支持向量机分类器分类宏观F值最高为72.04%。该实验结果对图书情报领域的学术论文结构功能划分实验模型选取有较高的参考价值。
[期刊] 情报理论与实践
[作者]
唐晓波 翟夏普
[目的/意义]信息过载是当前社会面临的普遍性问题,如何从大量的信息中提取有价值的内容,已成为研究的一个重点,目前自动摘要技术成为解决此问题的一种途径。[方法/过程]为了解决多文档摘要信息不全面、冗余度高的问题,文章提出了针对中文文本的多文档自动摘要混合模型,并对该模型所包含的句子向量化、分类器分类、句群划分和句子重组四个部分做了详细说明。该混合模型在摘要提取的过程不仅考虑了句子的形式特征,还融合了句子的深层语义,最后采用基于改进的PageRank算法对摘要句进行重组。[结果/结论]当摘要句为30时,该模型的ROUGE-1得分平均值为0.2074,明显高于TextRank (0.0728)和基于聚类的算法(0.1074)。实验结果表明该模型在多主题的中文长文本上是有效的。[局限]由于中文语料的限制,本实验的数据量相对较小,模型的适应能力未在大数据集上验证。
[期刊] 情报科学
[作者]
刘家益 邹益民
【目的/意义】文本自动摘要能快速获取文本主要内容,极大提高信息使用效率,帮助人们从信息海洋中解放出来。随着互联网大数据日益深入发展,文本信息的数量已经远远超出人工处理极限,文本自动摘要研究显得越发迫切和重要。【方法/内容】本文通过对过去70年国内外文本自动摘要经典文献重要文献进行收集、整理和分析,总结归纳出六类主要文本自动摘要方法及其理念和具体做法,对比评析其优势不足,并对未来研究方向进行展望,绘制出该研究领域的一个发展全景图。【结果/结论】自动摘要方法所使用的特征经历了由简单到复杂、由个体到联系、由表层
[期刊] 图书馆论坛
[作者]
吴娜 刘畅 刘江峰 王东波
作为自然语言处理中的关键任务,旨在压缩长文本信息、解决文本信息过载问题。文章以《二十四史》中的人物列传语料为例,从抽取式和生成式方法出发,探索AIGC技术驱动下古籍文本自动摘要应用的可行路径,为古籍资源的创造性转化和创新性发展提供参考,助力数字人文理念下的古籍内容价值实现。首先基于GujiBERT、SikuBERT、Bert-ancient-chinese模型进行语义表征,并使用LexRank算法进行重要性排序以抽取摘要。然后利用GPT-3.5-turbo、GPT-4和ChatGLM3模型生成摘要,并构建ChatGLM3和GPT-3.5-turbo微调模型。最后采用信息覆盖率和信息多样性指标对抽取式摘要结果进行评测,采用rouge和mauve指标对生成式摘要结果进行评测。研究表明:SikuBERT在抽取式摘要任务中对古文的语义表征能力和理解能力较强;通用大语言模型在古籍领域的自动摘要能力各有特色,但主旨提炼能力有所欠缺;通过小样本数据集微调GPT-3.5-turbo和ChatGLM3模型能有效提升模型的摘要生成能力。
文献操作()
导出元数据
文献计量分析
导出文件格式:WXtxt
删除