bert sklearn:Google BERT模型的sklearn包装器 源码

上传:breadth53837 浏览: 21 推荐: 0 文件:ZIP 大小:571.71KB 上传时间:2021-04-01 15:28:09 版权申诉
scikit-learn包装器对BERT进行微调 一个scikit-learning包装器,可基于端口模型,以执行文本和令牌序列任务。 包括可配置的MLP作为文本和文本对任务的最终分类器/回归器 包括用于NER,PoS和分块任务的令牌序列分类器 包括针对科学和生物医学领域的和训练模型。 在尝试! 安装 需要python> = 3.5和pytorch> = 0.4.1 git clone -b master https://github.com/charles9n/bert-sklearn cd bert-sklearn pip install . 基本操作 model.fit(X,y)即
上传资源
用户评论
相关推荐
Sklearn_NestedCV用于嵌套CrossValidationSklearn包装源码
Sklearn_NestedCV Sklearn包装器的实现,用于处理嵌套CrossValidation。 提供附加的通用类,以通过选择一种集成方法或提供您自己的一种方法,通过过滤管道中的方法来集成降
ZIP
190KB
2021-04-30 07:10
ner bert带有Google bertBERT NER nert bert https github.comgoogle research源码
0.论文 有两种基于该体系结构的解决方案。 :有关多语言共享任务的和。 任务和的第二名。 描述 该存储库包含NER任务的解决方案,该解决方案基于PyTorch对,与论文 Jacob Devlin,Ch
ZIP
89KB
2021-02-17 10:36
hyperoptsearchcv用于Hyperoptsklearn包装源码
超级搜索 hyperopt的包装器可与sklearn管道一起使用 例 像原始hyperopt中一样 search_space = { 'n_estimators' : hp . quniform (
ZIP
4KB
2021-02-23 23:25
BERT pytorch Google AI2018BERT pytorch实施源码
伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的B
ZIP
28KB
2021-02-18 23:57
bert TensorFlow代码和BERT预训练模型源码
伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经
ZIP
106KB
2021-02-07 21:19
Google开源BERT模型源代码.pdf
[Objective]Thispapercomparesthepredictionaccuracyandefficiencyofdifferentmachinelearningalgorithms,
PDF
0B
2020-06-08 15:33
BERT模型工程
google 最新推出的BERT模型工程代码,在11个NLP数据集上达到最优效果
ZIP
81KB
2020-07-17 02:51
BERT QuestionAns API BERT Question Answering API使用GoogleBERT技术进行Question Answer
BERT-QuestionAns-API BERT Question Answering API使用Google的BERT技术进行Question Answering,在此存储库中,我们使用disti
ZIP
4KB
2021-04-25 11:24
bert_distill BERT蒸馏基于BERT蒸馏实验源码
基于BERT的蒸馏实验 参考论文《从BERT提取任务特定的知识到简单神经网络》 分别采用keras和pytorch基于textcnn和bilstm(gru)进行了实验 实验数据分割成1(有标签训练):
ZIP
30.23MB
2021-02-09 18:33
KR BERT基于KoReanBERT预训练模型KR BERT用于Tensorflow和PyTorch源码
基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌)
ZIP
33.61MB
2021-03-12 01:11
indic bert基于BERT印度语言多语言模型源码
印度文 | 印度伯特(Indic bert)是一种多语言ALBERT模型,专门涵盖12种主要印度语言。 它在我们约90亿个代币的新颖语料库上进行了预训练,并在一​​系列多样化的任务上进行了评估。 与其
ZIP
336KB
2021-02-17 10:36
KBQA BERT基于知识图谱QA系统BERT模型源码
KBQA-BERT 基于知识图谱的QA系统,BERT模型需要下载BERT预训练模型(中文)chinese_L-12_H-768_A-12 解压缩后放在./ModelParams文件夹里面(注意整个ch
ZIP
5.79MB
2021-04-04 12:25
bert模型Python实现
该文档主要是bert论文的Python代码实现,在多个数据集实现较好效果
zip
0B
2019-09-07 01:41
sklearn pandas熊猫与sklearn集成源码
斯克莱恩熊猫 该模块在的机器学习方法和式数据框架之间了一座桥梁。 特别是,它提供了一种将DataFrame列映射到转换的方法,这些转换随后又重新组合为功能。 安装 您可以使用pip安装sklearn-
ZIP
102KB
2021-05-05 10:21
bert中文NLP模型
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
ZIP
364.2MB
2020-11-26 10:11