- 年份
- 2024(7450)
- 2023(11022)
- 2022(9697)
- 2021(9283)
- 2020(7748)
- 2019(17860)
- 2018(17880)
- 2017(34188)
- 2016(18893)
- 2015(21355)
- 2014(21343)
- 2013(20959)
- 2012(19244)
- 2011(17217)
- 2010(17108)
- 2009(15509)
- 2008(15218)
- 2007(13263)
- 2006(11519)
- 2005(9900)
- 学科
- 济(70449)
- 经济(70366)
- 管理(53208)
- 业(49236)
- 企(41882)
- 企业(41882)
- 方法(34146)
- 数学(29289)
- 数学方法(28799)
- 学(18575)
- 农(18497)
- 中国(17879)
- 财(17614)
- 业经(15597)
- 地方(14537)
- 理论(13217)
- 贸(12442)
- 贸易(12435)
- 和(12344)
- 制(12242)
- 农业(12118)
- 易(12039)
- 务(11457)
- 财务(11383)
- 财务管理(11362)
- 技术(11174)
- 环境(11116)
- 企业财务(10743)
- 教育(10472)
- 划(10077)
- 机构
- 大学(266501)
- 学院(263427)
- 管理(105434)
- 济(95405)
- 经济(92998)
- 理学(91692)
- 理学院(90624)
- 管理学(88788)
- 管理学院(88347)
- 研究(87419)
- 中国(63785)
- 科学(58502)
- 京(57399)
- 所(44477)
- 财(43621)
- 农(43612)
- 业大(42014)
- 研究所(40907)
- 中心(39925)
- 江(37630)
- 范(36486)
- 北京(36303)
- 师范(36124)
- 财经(35395)
- 农业(34400)
- 院(32191)
- 经(32143)
- 州(31225)
- 师范大学(29382)
- 技术(29073)
- 基金
- 项目(185809)
- 科学(144722)
- 基金(133766)
- 研究(133259)
- 家(117524)
- 国家(116549)
- 科学基金(99479)
- 社会(80552)
- 社会科(76132)
- 社会科学(76109)
- 省(72556)
- 基金项目(71859)
- 自然(67357)
- 自然科(65773)
- 自然科学(65760)
- 自然科学基金(64558)
- 划(61711)
- 教育(61116)
- 资助(55382)
- 编号(55084)
- 成果(44744)
- 重点(41418)
- 部(39901)
- 发(38695)
- 创(37928)
- 课题(37570)
- 科研(36032)
- 创新(35309)
- 计划(34392)
- 大学(34350)
- 期刊
- 济(103406)
- 经济(103406)
- 研究(75305)
- 中国(47611)
- 学报(46554)
- 科学(41576)
- 农(39089)
- 管理(37858)
- 大学(34673)
- 学学(32394)
- 财(31747)
- 教育(31436)
- 农业(27628)
- 技术(22945)
- 融(18853)
- 金融(18853)
- 图书(17023)
- 业经(16841)
- 财经(16196)
- 经济研究(15602)
- 业(13847)
- 科技(13741)
- 理论(13669)
- 经(13616)
- 版(13126)
- 问题(13124)
- 实践(12808)
- 践(12808)
- 资源(12692)
- 技术经济(12316)
共检索到376896条记录
发布时间倒序
- 发布时间倒序
- 相关度优先
文献计量分析
- 结果分析(前20)
- 结果分析(前50)
- 结果分析(前100)
- 结果分析(前200)
- 结果分析(前500)
[期刊] 图书情报工作
[作者]
王巍洁 任慧玲 李晓瑛 王勖 张颖
[目的/意义]为提高机器理解医学文本的能力,提高医学自然语言处理等上层任务效果,保障医学知识内容更新及时性、覆盖完整性,提出一种融合汉字多语义信息与文本统计特征的医学新词发现方法。[方法/过程]以规范用词的医学文献摘要数据为新词发现来源,基于N-gram模型获取N元词串,将词串存入字典树,从词的内部凝固度、词的自由程度、词的语义相似度3个角度同时计算每个N-gram词串的关联置信度、左右邻接熵、多语义相似度(包括汉字细粒度字符语义信息、BERT词向量信息),遍历上述各指标阈值评估N-gram词串为医学新词的可能。[结果/结论 ]从中华医学会收录的截至2022年10月20日的最新1 000篇文摘中发现医学新词3 263个,去除重复项后,共获得764个医学新词。提出的融合汉字多语义与文本统计特征的医学新词发现方法对比现有方法具有一定提升,且在应用上可以有效提高医学分词任务效果,使医学分词后的名词类别更清晰、概念更明确、内涵更丰富。结合汉字内在多语义信息与字词外部统计特征的医学新词发现方法,不仅可以提高计算机的新词发现能力,还可提高计算机面对专业且复杂的医学文本自然语言处理效果,对及时更新领域知识内容等具有重要帮助。
[期刊] 情报理论与实践
[作者]
李杰 李欢
[目的/意义]构建在线评论的产品特征提取及情感分类模型,可以为产品设计人员进行产品优化改进提供决策支持。[方法/过程]提出了基于卷积神经网络算法的产品特征提取及情感分类模型。模型采用卷积神经网络进行短文本评论情感分类,以情感分类标签标注相应评论中提取的产品特征词,并利用词向量对产品特征词聚类。通过爬取的笔记本电脑和手机评论对模型进行训练和测试。[结果/结论]结果表明,模型能够实现有效的产品特征提取及高准确率情感分类,是在线评论分析的有效模型。
[期刊] 图书情报工作
[作者]
赵辉 刘怀亮
为解决短文本特征词少、概念信号弱的问题,结合维基百科进行特征扩展以辅助中文短文本分类。通过维基百科概念及链接等信息进行词语相关概念集合抽取、概念间相关度计算,利用消歧页结合短文本上下文信息解决一词多义问题,进而以词语间语义相关关系为基础进行特征扩展,以补充文本特征语义信息。最后,给出基于维基百科的中文短文本分类算法,并对其进行实验验证。结果表明,该算法能有效提高中文短文本分类效果。
关键词:
短文本分类 维基百科 词义消歧 特征扩展
[期刊] 情报理论与实践
[作者]
高金勇 徐朝军 冯奕竸
为了给教育研究和管理提供可靠的决策支持,对网络信息进行分类处理就成为了一种需要。鉴于TFIDF对短文本分类存在的缺陷,本文采用基于迭代的TFIDF算法对文本向量进行了优化。试验结果表明,基于迭代的TFIDF算法可以有效提高短文本文档分类的准确率。
关键词:
文本分类 网络资源 算法
[期刊] 图书情报工作
[作者]
张梦芸 丁敬达
[目的 /意义]信息技术的快速发展使得用户评论、患者症状等短文本数据量迅速增长,如何从短文本中挖掘有价值的信息成为文本分类的研究热点。[方法 /过程]以国内某医院各科室患者的病情症状数据为语料集,针对短症状文本包含语义信息不足的问题,从各科室症状词的重要度与关联度出发,将症状文本中低于设定症状词数量的文本作为语义增强对象,采用Word2Vec与基于概率的TF-IDF算法抽取各科室的若干典型症状关键词,将其补充到语义增强对象中形成新语料集,最后利用机器学习算法对症状文本进行分类。[结果 /结论]基于文章语义增强方法构造的新语料集,相较于原始语料集,在支持向量机(Support Vector Machine,SVM)、多项式朴素贝叶斯(Multinomial Naive Bayes,MNB)以及随机森林(Random Forest,RF)上的分类效果均有较大幅度提升,准确率分别提高约10%、9%、10%。
[期刊] 图书情报工作
[作者]
张倩 刘怀亮
为了解决基于向量空间模型构建短文本分类器时造成的文本结构信息的缺失以及大量样本存在的标注瓶颈问题,提出一种基于图结构的半监督学习分类方法,这种方法既能保留短文本的结构语义关系,又能实现未标注样本的充分利用,提高分类器的性能。通过引入半监督学习的思想,将数量规模较大的未标注样本与少量已标注样本相结合进行基于图结构的自训练学习,不断迭代实现训练样本集的扩充,从而构建最终短文本分类器。经对比实验证明,这种方法能够获得较好的分类效果。
关键词:
半监督学习 短文本 图结构 自训练
[期刊] 图书情报工作
[作者]
张梦芸 丁敬达
[目的/意义]信息技术的快速发展使得用户评论、患者症状等短文本数据量迅速增长,如何从短文本中挖掘有价值的信息成为文本分类的研究热点。[方法/过程]以国内某医院各科室患者的病情症状数据为语料集,针对短症状文本包含语义信息不足的问题,从各科室症状词的重要度与关联度出发,将症状文本中低于设定症状词数量的文本作为语义增强对象,采用Word2Vec与基于概率的TF-IDF算法抽取各科室的若干典型症状关键词,将其补充到语义增强对象中形成新语料集,最后利用机器学习算法对症状文本进行分类。[结果/结论]基于文章语义增强方法构造的新语料集,相较于原始语料集,在支持向量机(Support Vector Machine,SVM)、多项式朴素贝叶斯(Multinomial Naive Bayes,MNB)以及随机森林(Random Forest,RF)上的分类效果均有较大幅度提升,准确率分别提高约10%、9%、10%。
[期刊] 情报理论与实践
[作者]
尹桂秀
This article introduces a Chinese text automatic classification method,including its principle and classification process.The article focuses on some key theoretical problems,such as word classification,keyword collection and keyword matching.
[期刊] 西北农林科技大学学报(社会科学版)
[作者]
邵英
汉语言研究领域长期存在汉字、汉语言优劣之争。现代汉字学、汉语言学研究已经走过了一个世纪的历程 ,但汉字、汉语言的内在规律仍未被揭示出来 ,仍没有建立独立的适合自身的理论体系。实则文字语言无优劣之别 ,只有研究水平的高低之分
关键词:
汉字 汉语言 优胜论 落后论
[期刊] 图书情报工作
[作者]
张玉洁 白如江 刘明月 于纯良
[目的/意义]针对SAO结构短文本分类时面临的语义特征短缺和领域知识不足问题,提出一种融合语义联想和BERT的SAO分类方法,以期提高短文本分类效果。[方法/过程]以图情领域SAO短文本为数据源,首先设计了一种包含"扩展-重构-降噪"三环节的语义联想方案,即通过语义扩展和SAO重构延展SAO语义信息,通过语义降噪解决扩展后的噪声干扰问题;然后利用BERT模型对语义联想后的SAO短文本进行训练;最后在分类部分实现自动分类。[结果/结论]在分别对比了不同联想值、学习率和分类器后,实验结果表明当联想值为10、学习率为4e-5时SAO短文本分类效果达到最优,平均F1值为0.852 2,与SVM、LSTM和单纯的BERT相比,F1值分别提高了0.103 1、0.153 8和0.140 5。
关键词:
SAO 短文本分类 语义联想 BERT
[期刊] 中国特殊教育
[作者]
叶林
上海市长宁区辅读学校的“实用语文”是为中重度弱智学生编写的一套校本语文教材。此研究通过汉字认读测试对“实用语文”所选汉字的适切性做了评估。结果表明“实用语文”教材所选394个汉字对长宁区辅读学校5 0 %的中度弱智学生和5 0 %的重度弱智学生是适合的。研究的实践观察也表明直接影响中重度弱智学生汉字学习的是学生记忆力及注意力的表现,符合银春铭、丑荣之两位学者的相关论述。
关键词:
中重度弱智 能力 汉字认读
[期刊] 情报学报
[作者]
李培
本文根据信息论中的交互信息,给出了相邻汉字相关度的测量方法,在此基础上提出了基于字串预分割的单汉字标引检索方法,对当前具有代表性的单汉字标引方法进行了改进研究。试验证明本文提出的方法具有较好的性能
关键词:
单汉字标引 字串分割 邻字相关度
[期刊] 北京师范大学学报(社会科学版)
[作者]
李运富 何余华
汉字研究除了本文化视域,还应有跨文化眼界。"跨文化汉字研究"有两个含义:一个是把"跨文化"当作研究方式和视角,即联系外部文化因素研究本文化汉字;另一个是把"跨文化汉字"当作研究对象,即研究处于不同文化环境中的汉字。"跨文化汉字研究"内容丰富,包括跨文化汉字文本及其汉字现象、跨文化汉字传播、跨文化汉字发展、跨文化汉字比较、跨文化汉字教学、跨文化汉字学术史、外来文化对汉字系统的影响等。"跨文化汉字研究"具有广阔的发展前景,应该成为汉字学研究、汉字史研究和汉字文化研究的一个特殊领域和重要分支。
文献操作()
导出元数据
文献计量分析
导出文件格式:WXtxt
删除