Tanuki-8B-dpo-v1.0-AWQ

概要

GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMであるweblab-GENIAC/Tanuki-8B-dpo-v1.0のAWQ 4bit量子化モデルです。
キャリブレーションセットにはizumi-lab/wikipedia-ja-20230720からランダムサンプリングした512件を利用しています。

モデルに関する詳細については元モデルをご確認ください。

Downloads last month
97
Safetensors
Model size
1.47B params
Tensor type
I32
·
FP16
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ

Quantized
(5)
this model

Dataset used to train team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-AWQ