微博情感分析语料.rar
谷歌Google中文BERT中文预训练模型chinese_L-12_H-768_A-12.zip。BERT本质上是一个两段式的NLP模型。第一个阶段叫做:Pre-training,跟WordEmbedding类似,利用现有无标记的语料训练一个语言模型。第二个阶段叫做:Fine-tuning,利用预训练好的语言模型,完成具体的NLP下游任务。可以测试对这个语料库进行分析。
用户评论
CppLuck 2019-06-01 12:41:38
还可以!感谢楼主分享!
yrx55749 2019-06-01 12:41:38
很好用。真的