bert:TensorFlow代码和BERT的预训练模型 源码

上传:derivative_36250 浏览: 29 推荐: 0 文件:ZIP 大小:106.44KB 上传时间:2021-02-07 21:19:08 版权申诉
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经证明,除了BERT-Base和BERT-Large之外,标准BERT配方(包括模型体系结构和训练目标)对多种模型尺寸均有效。 较小的BERT模型适用于计算资源有限的环境。 可以按照与原始BERT模型相同的方式对它们进行微调。 但是,它们在知识提炼的情况下最有效,在这种情况下,微调标签是由更大,更准确的老师制作的。 我们的目标是允许在计算资源较少的机构中进行研究,并鼓励社区寻找替代增加模型容量
上传资源
用户评论
相关推荐
KR BERT基于KoReanBERT训练模型KR BERT用于TensorflowPyTorch源码
基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌)
ZIP
33.61MB
2021-03-12 01:11
Python Google官方发布BERTTensorFlow代码训练模型
Google官方发布BERT的 TensorFlow 代码和预训练模型
ZIP
105KB
2020-07-25 09:50
官方bert中文训练模型
Google官方中文Bert预训练模型,当前模型为bert base模型.
ZIP
364.49MB
2020-08-21 16:03
bert base uncased训练模型
来自 https://huggingface.co/bert-base-uncased/tree/main
BIN
420.07MB
2021-01-14 18:06
PyTorch训练Bert模型示例
本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMD
PDF
101KB
2020-12-17 15:21
RoBERTa japanese日语BERT训练模型源码
RoBERTa-日语 日语BERT预训练模型 RoBERTaとは, ,BERTの改良版です。モデル构造そのものはオリジナルのBERTと同じで,学习手法に工夫があります。 のプロジェクトは,。 RoBE
ZIP
47KB
2021-02-23 15:43
泰语BERT模型训练模型分词模块
预训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分析等任务,性能良好
ZIP
547KB
2020-09-19 09:51
bert chinese ner使用训练语言模型BERT做中文NER源码
伯特·中国人 前言 使用预训练语言模型BERT做中文NER尝试,微调BERT模型 PS:移步最新模型 代码参考 使用方法 从下载bert源代码,存放在路径下bert文件夹中 从下载模型,放置在chec
ZIP
3.72MB
2021-02-07 21:19
BERT训练模型字向量提取工具–使用BERT编码句子
本文将介绍两个使用BERT编码句子(从BERT中提取向量)的例子。 (1)BERT预训练模型字向量提取工具 本工具直接读取BERT预训练模型,从中提取样本文件中所有使用到字向量,保存成向量文件,为后续
PDF
58KB
2020-12-22 21:09
TF2BERT中文训练模型
官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
GZ
362.4MB
2020-10-28 08:23
训练模型bert-base-chinese下载
该资源包含预训练模型bert-base-chinese的相关文件,具体包括pytorch_model.bin、config.json、tokenizer.json和vocab.txt等。这些文件可以用
zip
364.52MB
2023-07-01 02:15
BERT训练深度双向Transformer语言模型
我们提出了一种新的称为BERT的语言表示模型,BERT代表来自Transformer的双向编码器表示(BidirectionalEncoderRepresentationsfromTransform
PDF
0B
2020-05-06 15:08
Chinese BERT wwm汉语BERT全字掩蔽训练EnglishBERT wwm系列模型源码
| 在自然语言处理领域中,预训练语言模型(预训练语言模型)已成为非常重要的基础技术。为了进一步促进中文信息处理的研究发展,我们发布了基于全词遮罩(Whole Word Masking)技术的中文预训练
ZIP
15.64MB
2021-02-18 15:44
covid twitter bert用于分析COVID19Twitter数据训练BERT模型源码
COVID-Twitter-BERT COVID-Twitter-BERT(CT-BERT)是基于变压器的模型,该模型在有关COVID-19的大量Twitter消息集上进行了预训练。 v2模型在970
ZIP
3.54MB
2021-03-06 18:30
BERT Google官方训练模型中文版
BERTGoogle官方预训练模型中文版.基于Transformer变换器的双向编码器表示BERT技术由Google开发通过在所有层中共同调整左右情境利用无标记文本预先训练深度双向表示.该技术于201
zip
364.45MB
2023-01-19 06:30