---
tags:
- merge
- mergekit
- lazymergekit
- sh2orc
- bccard
base_model:
-sh2orc/Llama-3-Korean-8B
---
# Llama-3-Korean-12B
Llama-3-Korean-12B is a merge of the following models using LazyMergekit:
* [sh2orc/Llama-3-Korean-8B](sh2orc/Llama-3-Korean-8B)
- Dataset:
- [maywell/ko_wikidata_QA](https://huggingface.co/datasets/maywell/ko_wikidata_QA)
- [lcw99/wikipedia-korean-20240501-1million-qna](https://huggingface.co/datasets/lcw99/wikipedia-korean-20240501-1million-qna)
## π» Usage
```python
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "sh2orc/Llama-3-Korean-12B"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
```
## Q&A
Q. λνμμ λν΄μ μλ €μ€
A. λνμμ 1900λ
4μ 6μΌμ νμ΄λ νκ΅μ νκ°μ΄μ μκ°λ‘, 1934λ
10μ 9μΌμ μΈμμ λ λ¬μ΅λλ€. κ·Έλ
λ 1918λ
λΆν° 1923λ
κΉμ§ λ―Έμ νκ΅λ₯Ό λ€λ
μΌλ©°, 1923λ
λΆν° 1934λ
κΉμ§ νκ°λ‘ νλνμ΅λλ€. κ·Έλ
μ μνμ μ£Όλ‘ μ¬μ±μ μΆκ³Ό μ¬μ±μ κΆλ¦¬μ λν μ£Όμ λ₯Ό λ€λ£¨λ©°, κ·Έλ
μ μνμ νκ΅ νλλ―Έμ μ λ°μ μ ν° μν₯μ λ―Έμ³€μ΅λλ€.
Q. 건κ°νκ² μ΄λ €λ©΄?
A. 건κ°νκ² μ΄λ €λ©΄, λ¨Όμ 건κ°ν μλ¨μ μ μ§νκ³ , μΆ©λΆν μ΄λμ νλ©°, μΆ©λΆν μλ©΄κ³Ό ν΄μ μκ°μ κ°λ κ²μ΄ μ€μν©λλ€. λν μ€νΈλ μ€λ₯Ό κ΄λ¦¬νκ³ , 건κ°ν μνμ΅κ΄μ μ μ§νλ κ²μ΄ μ€μν©λλ€. λν, 건κ°ν μλ¨μ μ μ§νκ³ , 건κ°ν μνμ΅κ΄μ μ μ§νλ κ²μ΄ μ€μν©λλ€.
Q. 2μ°¨μΈκ³λμ μ λν΄μ μλ €μ€
A. 2μ°¨μΈκ³λμ μ 1939λ
λΆν° 1945λ
κΉμ§ μ§νλ μΈκ³ λμ μΌλ‘, λ
μΌκ³Ό μλ ¨μ΄ μ μμ μ°Έμ¬νμ΅λλ€. μ΄ μ μμ 1939λ
9μ 1μΌ λ
μΌμ΄ ν΄λλμ 침곡νλ©΄μ μμλμκ³ , 1945λ
5μ 8μΌ λ
μΌμ΄ μ°ν©κ΅°μ ν볡νλ©΄μ μ’
λ£λμμ΅λλ€. μ΄ μ μμ 1939λ
λΆν° 1945λ
κΉμ§ 6λ
λμ μ§νλμμΌλ©°, 2μ°¨μΈκ³λμ μ 2μ°¨λμ μΌλ‘ μλ €μ Έ μμ΅λλ€.