Bloom-H : AI文本生成

2023年04月30日21:2728012635
字号
粗細
行距

开源地址: https://bitbucket.org/a686d380/bloom-h/src/master/

# Bloom-H

Bloom-H是一个基于开源模型Bloom的中文色情文本生成器,支持生成、训练LoRA模型。

下载的文件中自带了一个`bloomh-base`模型,参数量为为389M

相比于上一个项目,大幅提高了模型大小 以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

## 下载地址

https://mega.nz/file/Z3xV2JAZ#SYUJtseHfloOM5Ypw9DsVGahQh-5IKv0y0xcACVfm50

## 环境要求

Win10以上操作系统,不支持Win7

以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

推荐使用N卡,请确保使用较新的驱动

AMD显卡可以使用DirectML运行,但不支持LoRA和训练,需要安装DirectX 12

由于模型较大,不支持CPU计算

## 使用教程

### 生成文本 以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

打开``start.bat`` 然后在浏览器访问 `http://127.0.0.1:7860`

弹出来的黑色框可以看到后台进展

点击左上方配置 -> 加载 ,加载基础模型

点击左上方文本生成 -> 生成 , 生成文本

以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

### 关于LoRA

可能由于基座模型参数较大,目前使用LoRA能够些许的改变文章风格,但效果不是很大

### 参数设置

文本生成界面的左侧可以设置参数

`batch`表示生成单批次生成个数,至多为3 以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

`max_new_tokens`表示生成的token个数,可以近似理解为字数

`tempurature`表示温度, 温度<1会让生成变得稳定,>1会让生成变得随机

`topk`表示topk,越小越稳定,越大越随机

`ctx_len`表示给的模型上文长度,对于`bloomh-base`模型不能超过512

以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

配置界面

模型路径指代基座模型的文件夹

使用LoRA和LoRA指代 LoRA模型的路径

DirectML支持AMD,N卡不必勾选

### 训练模型 以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

训练参数

基座模型路径,是基座模型路径

语料文本,是语料文本,编码必须为UTF-8

`block_size`是每次输入给模型的token长度,对于`bloomh-base`模型不能超过512

以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

`lora_r,lora_alpha,lora_dropout` 是LoRA模型相关参数

LoRA输出路径,是LoRA输出路径

`num_epochs` 是训练轮数

`batch_size` 是单次训练的block个数,增加会显著占用显存

`learning_rate` 是学习率,可以不用改 以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

训练至loss达到3.0左右较为理想,如果未达到建议增加训练轮数或增加样本量

### 意见反馈

可以评论区或私信反馈

### 免责声明

以上内容来自hlib.cc。更多中文H小说尽在hlib.cc。

本模型仅供科学研究,作者不对模型生成的内容负责,用户应为使用和传播本模型生成的内容负责。

  • 评论区
  • 登录后即可发表评论及享受更多功能
  • 相关推荐