File size: 1,162 Bytes
8f0864d 27ded28 dfa9239 8f0864d 27ded28 ed97fbc 8bc44c3 c9269ff 8bc44c3 c9269ff 8bc44c3 893ce89 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 |
---
license: cc-by-nc-sa-4.0
language:
- ru
library_name: transformers
tags:
- erotic
- porn
- sexstory
- pornstory
widget:
- text: "Нежная кожа"
- text: "Укусил за"
---
Модель для генерации легкой эротики
Неплохо держит конекст, параметры для старта:
do_sample: true<br>
top_p: 0.96<br>
top_k: 14<br>
temperature: 0.88 # Выше 1.2 - будет сильно уходить от контекста<br>
repetition_penalty: 1.16<br>
encoder_repetition_penalty: 1.09-1.15<br>
typical_p: 1.0<br>
## Для пользователей text-generation-webui
В инструменте поломана работа с GPT-2, GPTJ, GPT-NEO и аналогичными модлями, неверно загружается токенизер.
Ошибка такая:<br>
>eos_token_id = eos_token_id[0]
>IndexError: list index out of range
Исправляется легко, в файл modules/models.py в функцию load_tokenizer() надо добавить строчку<br>
<code>tokenizer.eos_token_id = 2</code><br>
перед<br>
<code>return tokenizer</code>
|