- 年份
- 2024(4836)
- 2023(7056)
- 2022(5961)
- 2021(5671)
- 2020(4832)
- 2019(11159)
- 2018(10977)
- 2017(21490)
- 2016(10969)
- 2015(12246)
- 2014(11800)
- 2013(11385)
- 2012(10026)
- 2011(8671)
- 2010(8105)
- 2009(6877)
- 2008(6129)
- 2007(4761)
- 2006(3665)
- 2005(2664)
- 学科
- 济(43916)
- 经济(43879)
- 管理(34367)
- 业(32264)
- 企(27938)
- 企业(27938)
- 方法(25962)
- 数学(23491)
- 数学方法(23148)
- 财(11945)
- 农(10500)
- 中国(9580)
- 业经(9130)
- 技术(8751)
- 务(8089)
- 财务(8059)
- 财务管理(8044)
- 企业财务(7685)
- 贸(7460)
- 贸易(7455)
- 学(7390)
- 易(7295)
- 农业(6925)
- 地方(6914)
- 理论(6790)
- 和(6722)
- 制(6582)
- 划(6521)
- 环境(6150)
- 技术管理(5924)
- 机构
- 大学(143900)
- 学院(142664)
- 管理(64461)
- 济(60541)
- 经济(59546)
- 理学(57565)
- 理学院(57081)
- 管理学(56182)
- 管理学院(55890)
- 研究(38957)
- 中国(29148)
- 京(27335)
- 财(25802)
- 科学(22452)
- 财经(22046)
- 中心(20817)
- 经(20421)
- 业大(20407)
- 经济学(19129)
- 江(18758)
- 农(18025)
- 经济学院(17511)
- 范(17182)
- 经济管理(17066)
- 师范(17012)
- 财经大学(16996)
- 商学(16759)
- 商学院(16603)
- 所(16069)
- 北京(15579)
- 基金
- 项目(110917)
- 科学(90401)
- 基金(84583)
- 研究(81409)
- 家(72868)
- 国家(72323)
- 科学基金(64927)
- 社会(54366)
- 社会科(51824)
- 社会科学(51811)
- 基金项目(45810)
- 自然(42424)
- 省(42133)
- 自然科(41555)
- 自然科学(41543)
- 自然科学基金(40795)
- 教育(38137)
- 划(35571)
- 资助(33109)
- 编号(32372)
- 部(25510)
- 创(24447)
- 重点(24236)
- 成果(24093)
- 国家社会(23557)
- 教育部(22864)
- 创新(22829)
- 发(22791)
- 人文(22518)
- 科研(21976)
共检索到183613条记录
发布时间倒序
- 发布时间倒序
- 相关度优先
文献计量分析
- 结果分析(前20)
- 结果分析(前50)
- 结果分析(前100)
- 结果分析(前200)
- 结果分析(前500)
[期刊] 图书情报工作
[作者]
王忠义 沈雪莹 黄京
[目的/意义]为帮助用户检索到完整的、粒度大小适当的知识单元,满足用户多粒度的知识需求。[方法/过程]提出一种基于知识元的文本层级分割方法。该方法首先对知识元的类型及其描述规则进行分析;然后依据知识元描述规则识别实体资源中的各类型知识元,并将所有的知识元和知识元之间的衔接句视为一个类;最后基于fisher分割算法对该类进行逐级二分,直到识别出所有的主题为止,确定分割边界,实现文本层级分割。[结果/结论]基于知识元的中文文本层级分割方法,一方面使得文本分割单元从句子扩展为知识元,提高分割时的效率,另一方面将知识服务的控制单元从文献深入到以知识元、知识元集合为单位的知识块,按需为用户提供相关知识服务,使数据检索、信息检索向知识检索迈进,提高知识获取效率,实现信息服务向知识服务的转型。
关键词:
知识元识别 聚类 层级分割
[期刊] 中国图书馆学报
[作者]
文庭孝 侯经川 龚蛟腾 刘晓英 汪全莉
中文文本知识元的构建是解决汉语自动分词问题,实现对中文自然语言理解,并对知识内容进行操作、管理之基础。应当以汉语主题词为基础,构建中文文本知识元,建立知识元数据库,完成对知识内容的自由操作和管理。图1。参考文献26。
关键词:
中文文本 知识元 知识元构建 知识管理
[期刊] 情报学报
[作者]
王梦云 曹素青
本文提出了一种根据汉字统计特性和基于实例映射的中文文本自动分类方法。该方法采用汉字字频向量作为文本的表示方法。它的显著特点是引入线性最小二乘方估计技术建立文本分类器模型 ,通过对训练集语料的手工分类标引以及对文本和类别间的相关性判定的学习 ,实现了基于全局最小错误率的汉字—类别两个向量空间的映射函数 ,并用该函数对测试文本进行分类。
[期刊] 情报理论与实践
[作者]
姚兴山
本文对文本分类过程中关键的部分进行了改进,在分词阶段,对分词的速度和精度进行了改进,在特征选取阶段,把多种特征选取方法进行了融合,最后对分类器进行了优化,并给出了实验测试的结果,实验的结果表明,文本分类的效率的确有了提高。
关键词:
文本分词 特征选取 文本分类
[期刊] 中南林业科技大学学报
[作者]
邢万里 邢艳秋 黄杨 曲林 尤号田
为了提高地基激光雷达(Terrestrial Laser Scanning,TLS)点云数据的单木分割精度及分割效率,以落叶期的蒙古栎人工林为研究对象,以TLS为基础数据,在三维点云数据体元化的基础上提出一种基于体元逐层聚类的单木分割算法,通过分析体元在竖直方向的z值序列准确获取单木的位置,然后利用模糊C均值算法以单木位置为初始聚类中心从最底层体元开始进行逐层聚类,最终实现样地水平蒙古栎单木分割。研究结果表明,通过分析体元在竖直方向的z值序列能准确获取单木的位置,本研究提出的单木分割算法能够实现样地水平单
[期刊] 图书情报工作
[作者]
刘雅姝 滕广青 王东艳 毕强 白淑春
[目的/意义]基于知识网络的核心-边缘结构揭示Folksonomy知识组织模式中标签层级演化的模式与规律,对洞悉开放网络环境下知识组织的层级结构具有重要意义。[方法/过程]以网络思维为指导,基于标签之间的同现关系构建领域知识网络。依据核心-边缘结构分析方法,遵循时间序列对标签层级的演化情况,从描述统计、显著性分析、层级升降演化等方面进行跟踪研究。[结果/结论]标签的核心/边缘层级结构随着领域知识的发展演化变迁,逐渐收敛趋于稳定。标签层级的晋升与淡化主要受知识关联驱动,核心层标签之间的关联关系占有更高的权重
[期刊] 图书情报工作
[作者]
赵登鹏 熊回香 田丰收 李昕然
[目的/意义]针对序列比对算法在文本相似度中的应用,改进全局比对算法并提高该算法的准确性,同时,应用局部比对算法有效解决内容差异或长短差异较大的两文本进行比对的问题。[方法/过程]首先,利用HanLP中的CRF模型对在线学术资源中文文本数据集进行规范化处理,构成中文序列集;然后,使用最新的中文维基百科语料训练Word2Vec模型来构建语词对打分矩阵;最后,基于打分矩阵和改进的打分规则,对进行全局比对/局部比对的两中文序列进行比对并获得比对的最优解,回溯该最优解,获取最优解的比对路径,计算两中文序列的相似度。[结果/结论]实验结果表明,相较于目前全局比对算法的相关研究,本文基于词性标注的结果与Word2Vec构建的语词对打分矩阵进一步提升了全局比对算法计算文本相似度的准确性,同时,应用于文本相似度计算的局部比对算法能够有效解决内容差异或长短差异较大的两文本进行比对的问题。
[期刊] 图书情报工作
[作者]
尹丽英 赵捧未
为减少一词多义现象及训练样本的类偏斜问题对分类性能的影响,提出一种基于语义网络社团划分的中文文本分类算法。通过维基百科知识库对文本特征词进行消歧,构建出训练语义复杂网络以表示文本间的语义关系,再次结合节点特性采用K-means算法对训练集进行社团划分以改善类偏斜问题,进而查找待分类文本的最相近社团并以此为基础进行文本分类。实验结果表明,本文所提出的中文文本分类算法是可行的,且具有较好的分类效果。
关键词:
语义网络 词义消歧 社团结构 文本分类
[期刊] 情报理论与实践
[作者]
赵辉 刘怀亮 范云杰 左晓飞
针对向量空间模型中语义缺失问题,将语义词典(知网)应用到文本分类的过程中以提高文本分类的准确度。对于中文文本中的一词多义现象,提出改进的词汇语义相似度计算方法,通过词义排歧选取义项进行词语的相似度计算,将相似度大于阈值的词语进行聚类,对文本特征向量进行降维,给出基于语义的文本分类算法,并对该算法进行实验分析。结果表明,该算法可有效提高中文文本分类效果。
[期刊] 情报理论与实践
[作者]
刘怀亮 张治国 马志辉 孙蕾
本文详细介绍了中文文本分类过程以及SVM和KNN两种方法在中文文本分类中的具体步骤,给出了中文文本分类的模型。通过实验对SVM算法和传统的KNN算法应用于文本分类效果进行了比较性实证研究。研究表明,SVM分类器较KNN在处理中文文本分类问题上有更良好的分类效果,有较高的查全率和查准率。
关键词:
支持向量机 文本分类 实证研究
[期刊] 情报理论与实践
[作者]
张建娥
文章通过分析传统关键词提取方法的特点和存在的问题,提出基于多特征融合的中文文本关键词提取方法。该方法通过融合中文文本词语的频率、关联度、词性以及位置多种特征,有效避免了传统关键词提取方法产生的偏差。实验结果表明,该方法在不同测试集上与传统方法相比关键词提取的平均召回率均得到明显提升。
关键词:
中文文档 特征融合 关键词
[期刊] 情报理论与实践
[作者]
杜坤 刘怀亮 王帮金
[目的/意义]在基于向量空间模型的文本聚类中,文本相似度计算忽略特征项间语义关联,针对此问题,提出一种改进的语义文本相似度计算方法。[方法/过程]新方法利用维基百科知识库计算语义相关度,结合特征项在文本中的表示权重,构造文本相似度语义加权因子,并进行K-means文本聚类实验。[结果/结论]与传统的余弦相似度相比,改进后的语义文本相似度应用在文本聚类上,能有效提高聚类的准确度。[局限]语义相关度的计算没有对词语进行消歧处理。
[期刊] 图书馆论坛
[作者]
张琳 牟向伟
随着互联网的发展,网络电子文本的数量急剧增加,这给人们快速高效地从海量数据中挖掘所需要的信息带来了巨大挑战。文本聚类是解决这个问题的一种可行方法。本文在文本聚类的过程中,针对K-means算法在聚类时需要事先指定簇的个数k和k个初始中心点这两方面的不足,采用Canopy+K-means的聚类算法进行中文文本聚类。也就是为了提高K-means的聚类效果,先使用Canopy算法对数据进行“粗”聚类,在得到k值和聚类中心后再使用K-means算法进行“细”聚类。另外,在聚类过程中,为了避免“维灾难”现象,本文基
[期刊] 情报理论与实践
[作者]
范少萍 李迎迎 郑春厚
流形学习算法作为一种非线性降维方法,目标是发现嵌入在高维数据空间中的低维流形结构,并给出一个低维表示。文章尝试将流形学习算法应用于中文文本分类领域,利用局部线性判别嵌入方法对所选文本数据集进行特征降维。然后,分别利用K近邻分类器(KNN),支持向量机分类器(SVM)对文本进行分类实验。实验结果证明该方法是有效可行的,进一步验证了中文文本空间向量数据符合流形分布。
关键词:
流形学习 文本分类 算法
[期刊] 中南林业科技大学学报
[作者]
何岸 胡伟刚
为了提高水印的鲁棒性,适应文本完整性检测的需求,很多文献提倡多组水印的冗余嵌入方法,这涉及到文本分块问题。根据中文汉字的结构,研究并提出了一种中文文本分块设计方法以及水印嵌入算法。该方法具有明显的中文文字特色,能有效提高水印的鲁棒性,提高受攻击后水印的恢复能力。
关键词:
文本分块 汉字结构 鲁棒性
文献操作()
导出元数据
文献计量分析
导出文件格式:WXtxt
删除