BERT模型

BERT模型工程
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
ZIP
81KB
2020-07-17 02:51
bert中文NLP模型
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
ZIP
364.2MB
2020-11-26 10:11
bert模型的Python实现
该文档主要是bert论文的Python代码实现,在多个数据集实现较好效果
zip
0B
2019-09-07 01:41
深入解析BERT模型.pptx
这份演示文稿深入剖析了论文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》。它作为N
pptx
3.03MB
2023-11-18 08:42
bert TensorFlow代码和BERT的预训练模型源码
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经
ZIP
106KB
2021-02-07 21:19
bert sklearn Google BERT模型的sklearn包装器源码
scikit-learn包装器对BERT进行微调 一个scikit-learning包装器,可基于端口模型,以执行文本和令牌序列任务。 包括可配置的MLP作为文本和文本对任务的最终分类器/回归器 包括
ZIP
572KB
2021-04-01 15:28
泰语BERT模型预训练模型分词模块
预训练语言模型,可用于文本分类等NLP任务,序列标注任务,情感分析任务,采用业界通用的技术实现,接下游文本分类,序列标注,情感分析等任务,性能良好
ZIP
547KB
2020-09-19 09:51
Tensorflow2.0Bert模型.rar
tensorflow2.o Bert模型 NER
RAR
200.38MB
2020-08-30 02:16
官方bert中文预训练模型
Google官方中文Bert预训练模型,当前模型为bert base模型.
ZIP
364.49MB
2020-08-21 16:03
bert base uncased预训练模型
来自 https://huggingface.co/bert-base-uncased/tree/main
BIN
420.07MB
2021-01-14 18:06