Datasets:
Update README.md
Browse files`mem-and-russian-jokes-dataset` - это объединенный датасет русскоязычных шуток и анекдотов для задач NLP, в частности для тонкой настройки языковых моделей на генерацию юмора. Данные приведены к формату `mlabonne/FineTome-100k` (диалоги в стиле ShareGPT).
## Состав датасета
- **ScoutieAutoML/russian_jokes_with_vectors**: ~9,280 шуток из Telegram-каналов ([ссылка](https://huggingface.co/datasets/ScoutieAutoML/russian_jokes_with_vectors)).
- **igorktech/anekdots_dialogs**: Анекдоты с Hugging Face Hub.
- **anek_djvu.txt**: Локальный файл с анекдотами, разделенными маркером ``.
<|startoftext|>Если тебя посещают мысли о смерти - это еще полбеды. Беда - это когда смерть посещают мысли о тебе...
- **2.txt**: Локальный файл с диалогами, разделенными пустыми строками.
По сути - это все анекдоты что были собраны до этого в разрозненные датасеты, которые я нашел на просторах интернета.
## Структура данных
Каждая запись содержит:
- `conversations`: Список сообщений (`human`/`gpt`) в формате JSONL.
- `source`: Источник данных.
- `score`: Значение 5.0 для всех записей.
**Пример**:
```
{
"conversations": [
{"from": "human", "value": "Расскажи анекдот: "},
{"from": "gpt", "value": "Только заметил, что слово \"п@рно\" набирается самими центральными клавишами!"}
],
"source": "txt1_anekdots",
"score": 5.0
}
```
## Язык
Русский.
## Использование
Подходит для fine-tuning языковых моделей (LoRA, rsLoRA) на генерацию юмора. Рекомендуется мощное оборудование (например, A100 GPU) или ограничение данных (`split="train[:10000]"`).
|
@@ -24,4 +24,10 @@ configs:
|
|
| 24 |
path: data/train-*
|
| 25 |
size_categories:
|
| 26 |
- 100K<n<1M
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 27 |
---
|
|
|
|
| 24 |
path: data/train-*
|
| 25 |
size_categories:
|
| 26 |
- 100K<n<1M
|
| 27 |
+
license: mit
|
| 28 |
+
task_categories:
|
| 29 |
+
- question-answering
|
| 30 |
+
language:
|
| 31 |
+
- ru
|
| 32 |
+
pretty_name: q
|
| 33 |
---
|