Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,34 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: other
|
3 |
+
language:
|
4 |
+
- ja
|
5 |
+
datasets:
|
6 |
+
- TFMC/imatrix-dataset-for-japanese-llm
|
7 |
+
base_model:
|
8 |
+
- mmnga/DeepSeek-V3-slice-jp64
|
9 |
+
---
|
10 |
+
|
11 |
+
# DeepSeek-V3-slice-jp64
|
12 |
+
本モデルは DeepSeek-V3 をベースに、日本語の例文を元に頻出する MoE (Mixture of Experts) の各レイヤーごとのexpertsを厳選して再構成したモデルのgguf版です。
|
13 |
+
[mmnga/DeepSeek-V3-slice-jp64](https://huggingface.co/mmnga/DeepSeek-V3-slice-jp64)のggufフォーマット変換版です。
|
14 |
+
|
15 |
+
imatrixのデータは[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用して作成しました。
|
16 |
+
|
17 |
+
### ライセンス
|
18 |
+
元モデルに準拠します。
|
19 |
+
[deepseek-ai/DeepSeek-V3](https://huggingface.co/deepseek-ai/DeepSeek-V3)
|
20 |
+
|
21 |
+
## Usage
|
22 |
+
|
23 |
+
サイズが大きいので、各量子化ごとに分割しました。
|
24 |
+
`〜00001-of-00005.gguf`などを指定すれば自動で読み込みます。
|
25 |
+
|
26 |
+
このモデルはコード生成は考慮されていません。要望があればcommunityかXにて。
|
27 |
+
|
28 |
+
```
|
29 |
+
git clone https://github.com/ggerganov/llama.cpp.git
|
30 |
+
cd llama.cpp
|
31 |
+
cmake -B build -DGGML_CUDA=ON
|
32 |
+
cmake --build build --config Release
|
33 |
+
build/bin/llama-cli -m 'c4ai-command-r7b-12-2024-Q4_0-00001-of-00010.gguf' -n 128 -c 128 -p 'あなたはプロの料理人です。レシピを教えて' -cnv
|
34 |
+
```
|