asif00 commited on
Commit
fc0da7d
·
verified ·
1 Parent(s): 81d986f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +114 -1
README.md CHANGED
@@ -12,4 +12,117 @@ datasets:
12
  base_model:
13
  - meta-llama/Llama-3.2-1B
14
  pipeline_tag: question-answering
15
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  base_model:
13
  - meta-llama/Llama-3.2-1B
14
  pipeline_tag: question-answering
15
+ ---
16
+
17
+
18
+ # Bangla LLaMA GGUF 1B-16bit
19
+
20
+ **Bangla LLaMA GGUF** is a 1-billion-parameter language model optimized for Bengali-language tasks such as context-based question answering and retrieval-augmented generation. It is derived from **LLaMA 3.2 1B** and trained on the [OdiaGenAI/all_combined_bengali_252k](https://huggingface.co/datasets/OdiaGenAI/all_combined_bengali_252k) dataset.
21
+
22
+ ## Features
23
+
24
+ - **Model Size:** 1B parameters
25
+ - **Format:** GGUF (16-bit)
26
+ - **Language:** Bengali
27
+ - **Use Cases:**
28
+ - Context-based Question Answering
29
+ - Bengali Retrieval-Augmented Generation
30
+ - **Integration:** Compatible with `llama.cpp` and Hugging Face `transformers` (with conversion)
31
+
32
+ ## Usage
33
+
34
+ ### 1. Using with `llama.cpp`
35
+
36
+ #### Setup
37
+
38
+ ```bash
39
+ git clone https://github.com/ggerganov/llama.cpp.git
40
+ cd llama.cpp
41
+ make
42
+ ```
43
+
44
+ #### Run Inference
45
+
46
+ ```bash
47
+ ./main -m path/to/asif00/bangla-llama-1B-gguf-16bit.gguf -p "আপনার প্রশ্ন এখানে"
48
+ ```
49
+
50
+ ### 2. Using with Hugging Face Transformers
51
+
52
+ **Note:** GGUF format is not directly supported by `transformers`. Conversion to a compatible format is required.
53
+
54
+ #### Prerequisites
55
+
56
+ ```bash
57
+ pip install transformers accelerate
58
+ ```
59
+
60
+ #### Example Script
61
+
62
+ ```python
63
+ from transformers import AutoTokenizer, AutoModelForCausalLM
64
+ import torch
65
+
66
+ # Load tokenizer and model (after conversion)
67
+ tokenizer = AutoTokenizer.from_pretrained("asif00/bangla-llama-1B")
68
+ model = AutoModelForCausalLM.from_pretrained("path/to/converted-model")
69
+
70
+ prompt = """
71
+ নিচের নির্দেশনা বাংলা ভাষায় যা একটি কাজ বর্ণনা করে, এবং ইনপুটও বাংলা ভাষায় যা অতিরিক্ত প্রসঙ্গ প্রদান করে। উপযুক্তভাবে অনুরোধ পূরণ করে বাংলা ভাষায় একটি প্রতিক্রিয়া লিখুন।
72
+
73
+ ### নির্দেশনা:
74
+ {}
75
+
76
+ ### ইনপুট:
77
+ {}
78
+
79
+ ### প্রতিক্রিয়া:
80
+ """
81
+
82
+ def generate_response(instruction, context):
83
+ input_text = prompt.format(instruction, context)
84
+ inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
85
+ output = model.generate(**inputs, max_length=512, eos_token_id=tokenizer.eos_token_id)
86
+ response = tokenizer.decode(output[0], skip_special_tokens=True)
87
+ response = response.split("### প্রতিক্রিয়া:")[-1].strip()
88
+ return response
89
+
90
+ # Example
91
+ instruction = "ভারতীয় বাঙালি কথাসাহিত্যিক মহাশ্বেতা দেবীর সম্পর্কে একটি সংক্ষিপ্ত বিবরণ দিন।"
92
+ context = "মহাশ্বেতা দেবী ২০১৬ সালে হৃদরোগে আক্রান্ত হয়ে কলকাতায় মৃত্যুবরণ করেন।"
93
+ print(generate_response(instruction, context))
94
+ ```
95
+
96
+ ## Example
97
+
98
+ ```python
99
+ question = "ভারতীয় বাঙালি কথাসাহিত্যিক মহাশ্বেতা দেবীর মৃত্যু কবে হয় ?"
100
+ context = (
101
+ "২০১৬ সালের ২৩ জুলাই হৃদরোগে আক্রান্ত হয়ে মহাশ্বেতা দেবী কলকাতার বেল ভিউ ক্লিনিকে ভর্তি হন। "
102
+ "সেই বছরই ২৮ জুলাই একাধিক অঙ্গ বিকল হয়ে তাঁর মৃত্যু ঘটে। তিনি মধুমেহ, সেপ্টিসেমিয়া ও মূত্র সংক্রমণ রোগেও ভুগছিলেন।"
103
+ )
104
+ answer = generate_response(question, context)
105
+ print("উত্তর:", answer)
106
+ ```
107
+
108
+ **Output:**
109
+ ```
110
+ উত্তর: মহাশ্বেতা দেবী ২৮ জুলাই ২০১৬ সালে মৃত্যুবরণ করেন।
111
+ ```
112
+
113
+ ## Limitations
114
+
115
+ - **Dataset Size:** Trained on a limited dataset, which may affect response accuracy.
116
+ - **Factuality:** May generate incorrect or nonsensical answers.
117
+ - **Language Support:** Primarily optimized for Bengali; performance may vary for other languages.
118
+
119
+ ## Disclaimer
120
+
121
+ The **Bangla LLaMA GGUF** model's performance is contingent on the quality and diversity of the training data. Users should verify the information generated, especially for critical applications.
122
+
123
+ ## Additional Resources
124
+
125
+ - **llama.cpp Repository:** [https://github.com/ggerganov/llama.cpp](https://github.com/ggerganov/llama.cpp)
126
+ - **Hugging Face Dataset:** [OdiaGenAI/all_combined_bengali_252k](https://huggingface.co/datasets/OdiaGenAI/all_combined_bengali_252k)
127
+ - **Model Page:** [asif00/bangla-llama-1B-gguf-16bit](https://huggingface.co/asif00/bangla-llama-1B-gguf-16bit)
128
+