基于BERT模型的中文医学文献分类研究

上传:strive87joe 浏览: 14 推荐: 0 文件:PDF 大小:559.94KB 上传时间:2020-07-20 07:18:09 版权申诉
探究BERT中文基础模型(BERT-Base-Chinese)和BERT中文医学预训练模型(BERT-Re-Pretraining-Med-Chi)在中文医学文献分类上的分类效果及差异原因。[方法] 本研究以34万篇中文医学文献摘要为医学文本预训练语料,分别以16,000和32,000条中文医学文献摘要为分类的训练样本,并以另外的3200条摘要作为测试样本,利用BERT的两个模型来进行中文医学文献分类研究,并以SVM方法作为对比基准。[结果] BERT的两种模型在分类效果上均优于SVM模型,两种模型的F1值均比SVM模型高出5%左右;BERT-Re-Pretraining-Med-Chi模型在
上传资源
用户评论
相关推荐
bert中文NLP模型
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
ZIP
364.2MB
2020-11-26 10:11
中文短文本分类算法——基于BERT模型研究与实践
一种基于BERT模型的中文短文本分类算法,并通过实验验证了其在文本分类任务中的有效性和性能优势。该算法不仅能够准确快速地对中文短文本进行分类,还能够处理不同领域和语种的文本数据。具体而言,该算法通过对
pdf
1.66MB
2023-07-22 18:35
基于BERT模型科技政策文本分类研究
本文主要针对科技政策文本分类进行研究,采用了基于BERT模型的方法。通过对科技政策文本的特征进行提取和分析,利用BERT模型进行分类预测,实现了对科技政策文本的自动分类。研究结果表明,基于BERT模型
pdf
1.45MB
2023-07-22 18:30
中文短文本分类算法基于BERT模型应用研究.pdf
本文主要研究了基于BERT模型的中文短文本分类算法的应用。通过使用BERT模型,我们能够有效地对中文短文本进行分类和归类。具体而言,我们介绍了BERT模型的原理和技术特点,并详细阐述了在中文短文本分类
pdf
1.66MB
2023-09-04 00:56
官方bert中文预训练模型
Google官方中文Bert预训练模型,当前模型为bert base模型.
ZIP
364.49MB
2020-08-21 16:03
基于BERT模型网络文本心理特质预测研究
本文针对网络文本心理特质预测问题,基于BERT模型进行了深入探究。通过对网络文本中包含的心理特质进行预测分析,可以更好地了解用户的心理状态和需求。具体而言,本研究将BERT模型应用于网络文本心理特质预
pdf
3.57MB
2023-07-22 19:11
indic bert基于BERT印度语言多语言模型源码
印度文 | 印度伯特(Indic bert)是一种多语言ALBERT模型,专门涵盖12种主要印度语言。 它在我们约90亿个代币的新颖语料库上进行了预训练,并在一​​系列多样化的任务上进行了评估。 与其
ZIP
336KB
2021-02-17 10:36
KBQA BERT基于知识图谱QA系统BERT模型源码
KBQA-BERT 基于知识图谱的QA系统,BERT模型需要下载BERT预训练模型(中文)chinese_L-12_H-768_A-12 解压缩后放在./ModelParams文件夹里面(注意整个ch
ZIP
5.79MB
2021-04-04 12:25
PyTorch版本中文BERT基础模型介绍
BERT是自然语言处理领域的重要模型之一。针对中文语言的需求,我们基于PyTorch实现了BERT base中文预训练模型,并进行了掩码训练,能够更好地处理中文文本。该模型不仅可以作为中文文本分类、情
zip
364.42MB
2023-03-04 23:33
KR BERT基于KoReanBERT预训练模型KR BERT用于Tensorflow和PyTorch源码
基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌)
ZIP
33.61MB
2021-03-12 01:11
基于BERT韵律优化语音生成模型
利用BERT技术进行韵律预训练,该模型专注于中文语音生成领域,旨在产生更为自然、流畅的声音表现。通过深度学习和预训练的方式,该模型能够捕捉中文语音中的韵律特征,为语音合成提供更高水平的表现。用户可以在
zip
362.87MB
2023-11-29 18:05
BERT模型工程
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
ZIP
81KB
2020-07-17 02:51
BERT CH NER基于BERT中文命名实体识别源码
基于BERT的中文数据集下的命名实体识别(NER) 基于tensorflow官方代码修改。 环境 Tensorflow:1.13 的Python:3.6 tensorflow2.0会报错。 搜狐比赛
ZIP
1.7MB
2021-02-26 00:02
bert模型Python实现
该文档主要是bert论文的Python代码实现,在多个数据集实现较好效果
zip
0B
2019-09-07 01:41
文献分类文献分类
文献分类学文献分类
PPT
760KB
2020-08-15 01:28