- 年份
- 2024(9567)
- 2023(13721)
- 2022(12042)
- 2021(11339)
- 2020(9394)
- 2019(21691)
- 2018(21417)
- 2017(41564)
- 2016(22413)
- 2015(25067)
- 2014(24964)
- 2013(24328)
- 2012(21933)
- 2011(19539)
- 2010(19046)
- 2009(17195)
- 2008(16251)
- 2007(13638)
- 2006(11581)
- 2005(9622)
- 学科
- 济(90148)
- 经济(90056)
- 管理(63954)
- 业(59268)
- 企(49845)
- 企业(49845)
- 方法(45306)
- 数学(39805)
- 数学方法(39205)
- 农(22313)
- 财(21308)
- 中国(21273)
- 地方(19952)
- 学(19439)
- 业经(19075)
- 农业(15202)
- 理论(15169)
- 和(14493)
- 贸(14487)
- 贸易(14481)
- 环境(14393)
- 务(14198)
- 财务(14128)
- 财务管理(14097)
- 技术(14055)
- 易(14012)
- 企业财务(13357)
- 制(13073)
- 划(12363)
- 教育(11230)
- 机构
- 大学(309275)
- 学院(307735)
- 管理(126993)
- 济(118580)
- 经济(116006)
- 理学(112018)
- 理学院(110794)
- 管理学(108571)
- 管理学院(108024)
- 研究(97054)
- 中国(69941)
- 京(64480)
- 科学(62832)
- 财(51553)
- 业大(47405)
- 所(46883)
- 农(46694)
- 中心(44799)
- 研究所(43406)
- 财经(43097)
- 江(42142)
- 范(41188)
- 师范(40807)
- 北京(39830)
- 经(39399)
- 农业(36636)
- 院(36334)
- 经济学(35252)
- 州(34610)
- 师范大学(33212)
- 基金
- 项目(225590)
- 科学(178377)
- 基金(164592)
- 研究(163607)
- 家(143418)
- 国家(142286)
- 科学基金(123543)
- 社会(102856)
- 社会科(97530)
- 社会科学(97504)
- 省(88110)
- 基金项目(88027)
- 自然(81898)
- 自然科(80004)
- 自然科学(79987)
- 自然科学基金(78486)
- 教育(75783)
- 划(74412)
- 资助(67591)
- 编号(66907)
- 成果(52104)
- 重点(50254)
- 部(49423)
- 发(47686)
- 创(46920)
- 课题(45077)
- 创新(43756)
- 科研(43621)
- 教育部(42482)
- 国家社会(42212)
- 期刊
- 济(118886)
- 经济(118886)
- 研究(83730)
- 中国(50737)
- 学报(49255)
- 科学(45238)
- 管理(44169)
- 农(40782)
- 财(38021)
- 大学(37736)
- 学学(35442)
- 教育(34046)
- 农业(29061)
- 技术(28342)
- 业经(20282)
- 融(20084)
- 金融(20084)
- 财经(19659)
- 经济研究(18878)
- 图书(17260)
- 经(16673)
- 问题(15476)
- 科技(15440)
- 技术经济(14904)
- 理论(14872)
- 资源(14589)
- 版(14432)
- 统计(14345)
- 业(14254)
- 实践(13887)
共检索到419575条记录
发布时间倒序
- 发布时间倒序
- 相关度优先
文献计量分析
- 结果分析(前20)
- 结果分析(前50)
- 结果分析(前100)
- 结果分析(前200)
- 结果分析(前500)
[期刊] 情报理论与实践
[作者]
颜端武 李兰彬 曲美娟
文章提出一种基于N-gram复合分词的领域概念自动获取方法,在中文分词的基础上进行N元复合切分,通过建立一系列过滤规则,提取候选领域概念;然后以改进的TF-IDF作为衡量领域相关性的统计特征值,计算候选概念的领域相关性;最后进行人工辅助判断与筛选。以航空发动机领域语料为样本进行了实践探索,实验结果表明该方法能有效抽取专业领域概念,具有较强的实用性。
关键词:
概念 概念抽取 复合分词 领域相关性
[期刊] 情报理论与实践
[作者]
王思丽 祝忠明 刘巍 杨恒
[目的/意义]实现对领域概念的自动学习抽取,解决领域本体自动化构建的首要基础任务。[方法/过程]以无监督的学习方法和端到端的识别模式为理论技术基础,首先通过对主流词嵌入模型进行对比分析,设计提出了基于Word2Vec和Skip-Gram的领域文本特征词嵌入模型的自动生成方法;其次研究构建了以IOB格式的标注文本作为输入,基于自注意力机制的BLSTM-CRF领域概念自动抽取模型;最后以资源环境学科领域为例进行了实验研究与评估分析。[结果/结论]模型能够实现对领域概念的自动抽取,对领域新概念或术语的自动识别也具有一定的健壮性。[局限]模型精度尚未达到峰值,有待进一步优化提升。
[期刊] 数理统计与管理
[作者]
凤丽洲 杨贵军 徐雪 徐玉慧
针对基础词更能表达中文文本所包含的基本信息,更适合于后续的文本挖掘,提出一种基于N-gram的双向匹配中文分词方法。充分挖掘训练语料的词频信息,给出一种组合词迭代切分方法,解决最大匹配分词中长词歧义切分问题,并基于N-gram语言模型,实现最优分词序列的选择。此外,为弥补准确率P这一评价指标受词条长度影响较大而不稳健的问题,在刻画分词方法性能时引入正确切分词条总字数这一因素,提出一个新的测评指标P_n,有效规避了词条长度对分词准确率评价的影响。最后在SIGHAN组织的国际中文自然语言处理竞赛的两个语料上进行实验表明,相较于传统N-gram中文分词方法,本文方法在保证分词效率的前提下,有效地提高了准确率P、召回率R、P_n和F_1值。
[期刊] 情报学报
[作者]
张民 李生 赵铁军
本文提出并实现了一种大规模汉语语料库中字、词级任意n的n-gram统计算法,本算法可以一次性统计出所有不大于任意n(本文n取为256)的字、词级n-gram,可将传统n-gram统计时的指数空间开销变为线性的,且与所统计的元数无关。基于这种n-gram的统计,本文还进行了汉语信息熵的计算及字、词级知识获取的研究。本算法及本文的研究结果已应用于我们研制的机译系统中
关键词:
n元语法,统计,信息熵,知识获取
[期刊] 情报学报
[作者]
何浩 杨海棠
本文介绍一种基于n gram技术的、与语言无关的文献分类方法K meansaxiales (KMA) ,及其在中文文献自动分类中的应用。这种方法将文献转换成由n gram(n个连续的字符 )频次构成的向量。为压缩存储空间、提高处理速度 ,我们运用哈希函数将n gram映射为哈希码 ,对文献的分析实际上以哈希码频次为基础运行。采用KMA算法 ,我们对一个中文数据库进行了自动分类的实验研究 ,在比较实验结果的基础上 ,我们对KMA算法初始参数的选择进行了初步探讨。
[期刊] 情报理论与实践
[作者]
杨建林 张国梁
An algorithm for automatic segmentation of Chinese word,which is an improved version of the minimum matching algorithm,is put forward.The key idea of the algorithm is to optimize the word bank and the matching process to enhance the speed and accuracy of word segmentation.By integrating the case ban...
[期刊] 图书情报工作
[作者]
常春 赖院根
在叙词表、本体等知识组织体系构建过程中,需要获取通用概念。笔者试验了三种获取通用概念的方法,一是继承传统知识组织体系通用概念,二是通过关键词在文献中词频分布情况确定通用概念,三是基于关键词总词频与标准差二维信息获得通用概念。研究结果表明:以上三种方法各有特点及使用范围,在概念获取时可以根据课题具备条件单独使用或组合使用。
关键词:
叙词表 本体 通用概念 标准差 词频
[期刊] 数据分析与知识发现
[作者]
倪维健 孙浩浩 刘彤 曾庆田
【目的】对现有中文分词方法在领域文献上的分词结果进行调整,以提升领域文献上的分词效果。【方法】对传统中文分词方法处理领域文献的不足进行分析,以此为基础设计一个反映领域文献构词特点的分词指标——词频偏差,并基于该指标提出一个无监督的分词结果优化方法。【结果】基于农业领域语料开展实验,结果表明该方法对比ICTCLAS、THULAC和LTP的分词结果 F1值提升2%-3%,并具有实现简单、参数鲁棒性强的特点。【局限】提升召回率方面效果不佳。【结论】基于词频偏差的分词结果优化算法能够有效提升已有分词结果的准确性,
关键词:
领域文献 中文分词 分词优化 词频偏差
[期刊] 情报学报
[作者]
李家福 张亚非
汉语自动分词是中文信息处理中的基础课题。本文首先对汉语分词的基本概念与应用 ,以及汉语分词的基本方法进行了概述。接着引出一种根据词的出现概率、基于极大似然原则构建的汉语自动分词的零阶马尔可夫模型 ,并重点剖析了EM(Expectation Maximization)算法 ,对实验结果进行了分析。最后对算法进行了总结与讨论。
关键词:
分词 汉语 EM算法 语料库 HMM
[期刊] 图书情报工作
[作者]
钱智勇 周建忠 童国平 苏新宁
研究古代和现代汉语的自动分词标注技术,用隐马尔科夫模型对《楚辞》进行自动分词标注实验,通过比较分词后的标注词性概率,取最大概率作为最后的分词和词性标注结果,并在其中使用全切分和加值平滑算法。经过实验调整分词标注程序模块和参数,最终得到一个分词标注辅助软件,其开放测试的分词F值为85%,标注F值为55%,高出基准F值14个百分点。
[期刊] 图书情报工作
[作者]
于津凯 王映雪 陈怀楚
介绍一种改进的文本特征提取及匹配算法。该算法基于N-Gram算法思路进行文本处理和特征提取,设计了gram关联矩阵用于统计与合并特征词,从而在固定长度N-Gram算法的基础上能够提取出不同长度的特征词。实验证明,该特征提取算法能够更为准确地描述文本特征,可应用于文本检索、Web挖掘等信息处理领域。
[期刊] 图书情报工作
[作者]
李志义 杨雄威 王冕
[目的 /意义]微信、微博等自媒体中隐含着大量的用户旅游消费需求的信息,将这些信息进行分类并依据分类结果构建需求本体,从而帮助企业分析和研究用户需求以获取巨大的商业价值。[方法/过程]利用SVM分类算法将微博信息分类并生成分类结果集,这些结果集中包含大量旅游相关概念的词汇,可以作为构建和扩展旅游需求本体的语料;然后通过调查各大旅游网站的类目确定旅游需求的核心概念,抽取分类结果中与旅游相关的概念。[结果 /结论]利用抽取结果匹配核心概念,生成扩展后的本体,使用HOZO本体编辑工具进行修改和完善,并呈现部分旅游需求本体。从实验结果看,本文所提方法能较为准确地对包含旅游需求的文本进行分类。
关键词:
自媒体 旅游需求 本体分类 概念获取
[期刊] 数据分析与知识发现
[作者]
羊柳 傅柱 王曰芬
【目的】探究概念设计过程知识的获取方法,为设计过程知识的模块化建模和表示提供知识素材,进而实现动态设计过程知识的管理和重用。【方法】从知识内容角度对设计过程知识获取需求进行分析;结合访谈调查法和研究设计的双层流程获取模板对设计过程知识获取实验进行设计;采用访谈调查法初步获取组织内隐性的设计过程知识,利用双层流程获取模板进一步对设计过程知识进行模块化处理。【结果】以某制退机概念设计为例,采用访谈法获取初始设计过程知识;利用设计流程获取模板对设计流程知识进行整理和规范,利用设计步骤获取模板对规范后的设计流程知
[期刊] 数字图书馆论坛
[作者]
杨丽娜 马建玲 李慧佳
本文对开放获取仓储目录中登记的195个资源环境学科领域的开放获取仓储从地区分布、语言分布、开放仓储类型、开源软件类型、资源数量、资源类型、互操作性和更新情况等展开系统的分析研究,讨论该领域开放获取仓储的基本情况和资源特征,揭示该领域开放获取仓储登记的开放学术资源现状,最后提出面向该领域开放学术资源建设的对策和建议。
[期刊] 情报理论与实践
[作者]
徐进 朱孝文
[目的/意义]项目记忆是项目进行过程中产生和应用的项目知识和信息的集合。传统获取、构建项目记忆的方式依赖人工处理,需要投入大量的人力和时间。如何表示项目记忆,以及如何利用非结构化项目文档这类重要的项目数据源来构建项目记忆,仍然是项目知识管理中的关键挑战。[方法/过程]收集了京沪高铁项目的相关文档1078篇,利用依存句法和规则抽取方法得到项目记忆短语和基础信息,利用LDA模型提取项目文档的主题,并对文档集聚类和描述,达到从项目文档中自动提取项目记忆要素、构建、重现项目记忆的目的。[结果/结论]通过实验和比较分析,验证了所提出框架方法的合理性和有效性。所设计的方法流程一定程度上可以为项目组织、团队及成员进行更加高效的项目知识管理与共享提供支持。
文献操作()
导出元数据
文献计量分析
导出文件格式:WXtxt
删除