gpt 2:gpt 2 源码

上传:council2116 浏览: 77 推荐: 0 文件:ZIP 大小:26.04KB 上传时间:2021-04-04 13:00:32 版权申诉
状态:存档(代码按原样提供,预计不会更新) gpt-2 论文代码和模型。 您可以在我们的, 和阅读有关GPT-2及其分阶段发布的。 我们还供研究人员研究他们的行为。 *请注意,由于错误(在之前的博客文章和论文中),我们的原始参数计数是错误的。 因此,您可能已经看到小型代表117M,中等代表345M。 用法 该存储库是研究人员和工程师尝试GPT-2的起点。 有关基本信息,请参见我们的。 一些警告 GPT-2模型的健壮性和最坏情况下的行为不是很容易理解。 与任何机器学习的模型一样,请针对您的用例仔细评估GPT-2,尤其是在未进行微调的情况下或在可靠性至关重要的安全性至关重要的应用中使用。 我们训练GPT-2模型的数据集包含许多有和事实不正确的文本,因此GPT-2模型也可能有偏见和不准确。 为避免样品被误认为是人工书写,我们建议在广泛传播之前将样品清晰地标记为合成样品。 我们的模型
上传资源
用户评论
相关推荐
GPT2OpenAI GPT2的PyTorch实施源码
GPT-2 PyTorch实施 目录 介绍 该项目是OpenAI GPT-2模型的PyTorch实现。 它提供模型训练,句子生成和量度可视化。 它被认为是可以理解和优化的。 我们设计的代码易于理解。
ZIP
153KB
2021-04-07 11:19
TextGeneration GPT2bert2bert源码
自述文件 基于pytorch / transformers和pytorch_lightning 火车数据描述 json [ { " title " : " xxxx &q
ZIP
22KB
2021-04-08 18:43
GPT2Telegram Chatbot GPT2电报聊天机器人源码
GPT2-电报-聊天机器人 相对而言,GPT-2电报聊天机器人已经针对聊天进行了调整。 随时让我成为PR,我将检查您的代码! 该漫游器并非始终都是100%准确的(为什么我要在/ retry函数中进行编
ZIP
16KB
2021-02-01 22:51
nlp textgenerator gpt2notebook源码
nlp-textgenerator-gpt2-notebook
ZIP
3KB
2021-04-22 20:06
Chat GPT系列相关文章资源大全,包括GPT1、GPT2GPT3
这里汇集了关于Chat GPT系列的相关文章资源,包括GPT1、GPT2和GPT3的文献资料。无论您是对GPT系列感兴趣还是需要查阅相关文献,这个资源大全将为您提供所需的信息。
zip
51.61MB
2023-10-23 00:55
keras gpt2加载GPT2检查点并生成文本源码
凯拉斯GPT-2 [| ] 加载预训练的权重并使用预测。 安装 pip install keras-gpt-2 演示版 import os from keras_gpt_2 import load_t
ZIP
82KB
2021-02-06 15:38
GPT2LoveCraft使用GPT2模型生成爱情手Craft.io品源码
GPT2 LoveCraft 该项目使用GPT-2模型生成了爱情手Craft.io品。 微调数据: 型号信息 Base model: gpt-2 large Epoch: 30 Train runti
ZIP
6KB
2021-03-27 15:20
gpt2_summ_rl基于gpt2的增强模型训练的总结模型源码
gpt2_summ_rl:基于gpt-2的增强模型训练的总结模型
ZIP
13.2MB
2021-04-24 17:15
GPT2chitchat中文chitchat的GPT2中文闲聊的GPT2模型实现了DialoGPT的MMI思想源码
GPT2,用于中文聊天 更新2020.01.09 添加50w闲聊语料与预训练模型的GoogleDrive的下载地址 更新2019.12.17 基于微软的论文添加了MMI模型(最大互信息评分功能),对对
ZIP
73KB
2021-02-06 15:38
NLP模型应用之三GPTGPT2
GPT模型 GPT全称Generative Pre-Training,出自2018年OpenAi发布的论文《Improving Language Understandingby Generative
PDF
374KB
2021-01-15 14:21
gpt2clientwriting_hand_light_skin_tone gpt2client易于使用的TensorFlow包装器适用于GPT2
gpt2-client 适用于GPT-2 117M,345M,774M和1.5B变压器型号的易于使用的包装器 •• 由Rishabh Anand制造• //rish-16.github.io 它是什么
ZIP
185KB
2021-02-17 00:07
gpt2_chinese_poetry.rar
基于GPT2模型的5言和7言诗歌生成的测试项目,使用pytorch 框架,里面包含了几万首古诗和已经编好码的字典和数据集,由于模型太大,上传不便,大家自己跑一下训练代码就可以了,跑了20轮之后的模型,
RAR
27.24MB
2020-08-21 17:28
gpt2app用于使用GPT2生成文本的Flask Web应用源码
Flask Web应用程序,用于使用生成文本 GPT-2是一种非常庞大的语言模型,被认为过于危险而无法发布其完整版本,可以根据其输入生成接近人类水平的逼真的文本。 作者决定只发布“功能不足”(117M
ZIP
847KB
2021-02-17 00:07
gpt2output dataset GPT2输出的数据集用于研究检测偏差等源码
gpt-2-输出数据集 该数据集包含: WebText测试集中的250K文档 对于每个GPT-2模型(在WebText训练集上进行训练),使用Top-K 40截断生成250K随机样本(温度1,无截断)
ZIP
264KB
2021-04-24 17:15
gpt2cloud run通过GPT2进行Cloud Run的文本生成API源码
gpt-2-cloud-run 该应用程序用于构建文本生成API,以通过从的生成文本,并以可扩展的方式运行该文本,并通过Google的有效地免费提供。 该应用旨在用于轻松,经济高效地允许其他人在另一个
ZIP
136KB
2021-02-01 22:22