bert中文NLP模型

上传:jzyqim 浏览: 18 推荐: 0 文件:ZIP 大小:364.2MB 上传时间:2020-11-26 10:11:15 版权申诉
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
上传资源
用户评论
相关推荐
BERT NLP
An Iterative Polishing Framework based on Quality Aware Masked Language Model for Chinese Poetry Gen
PDF
1.94MB
2020-07-20 00:54
nlp bert sentiment analysis源码
nlp-bert-情感分析
ZIP
25.81MB
2021-03-28 22:42
nlp twitter r bert源码
你好世界 多么美妙的网页 死于死者 TEIL I:简介 入门
ZIP
841KB
2021-04-20 12:21
BERT2018NLP最强论文
申明:本资源来源于互联网,如有侵权,请联系本人或者CSDN进行删除,谢谢! 《BERT: Pre-training of Deep Bidirectional Transformers for Lan
DOCX
75KB
2020-07-25 09:50
官方bert中文预训练模型
Google官方中文Bert预训练模型,当前模型为bert base模型.
ZIP
364.49MB
2020-08-21 16:03
BERT模型工程
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
ZIP
81KB
2020-07-17 02:51
Turkish Bert NLP Pipeline基于BertNLP管道用于土耳其语Ner情绪分析问题回答等源码
土耳其语-Bert-NLP-管道 简而言之,管道 在这个项目中,我们旨在为土耳其建立基于Bert的NLP管道;命名实体识别(Ner),情感分析,问题回答,摘要和文本分类。 简而言之,请检查文件“ 有关
ZIP
1.22MB
2021-04-05 22:37
bert chinese ner使用预训练语言模型BERT中文NER源码
伯特·中国人 前言 使用预训练语言模型BERT做中文NER尝试,微调BERT模型 PS:移步最新模型 代码参考 使用方法 从下载bert源代码,存放在路径下bert文件夹中 从下载模型,放置在chec
ZIP
3.72MB
2021-02-07 21:19
TF2BERT中文预训练模型
官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
GZ
362.4MB
2020-10-28 08:23
PyTorch版本的中文BERT基础模型介绍
BERT是自然语言处理领域的重要模型之一。针对中文语言的需求,我们基于PyTorch实现了BERT base中文预训练模型,并进行了掩码训练,能够更好地处理中文文本。该模型不仅可以作为中文文本分类、情
zip
364.42MB
2023-03-04 23:33
很棒的预训练中文nlp模型很棒的预训练中文NLP模型可以替换中文预训练模型集合源码
很棒的预训练中文nlp模型:很棒的预训练中文NLP模型,可以替换中文预训练模型集合
ZIP
9KB
2021-02-17 10:31
语言模型NLP
斯坦福自然语言处理课程的语言模型章节,非常实用的讲解ppt
PPTX
0B
2019-05-13 19:24
BERT Google官方预训练模型中文
BERTGoogle官方预训练模型中文版.基于Transformer变换器的双向编码器表示BERT技术由Google开发通过在所有层中共同调整左右情境利用无标记文本预先训练深度双向表示.该技术于201
zip
364.45MB
2023-01-19 06:30
awesome bert nlp精选的NLP资源列表重点是BERT注意力机制Transformer网络和转移学习源码
awesome-bert-nlp:精选的NLP资源列表,重点是BERT,注意力机制,Transformer网络和转移学习
ZIP
14KB
2021-02-06 03:20
bert模型的Python实现
该文档主要是bert论文的Python代码实现,在多个数据集实现较好效果
zip
0B
2019-09-07 01:41