Update README.md
Browse files
README.md
CHANGED
@@ -1,6 +1,7 @@
|
|
1 |
---
|
2 |
-
|
3 |
-
|
|
|
4 |
library_name: sentence-transformers
|
5 |
metrics:
|
6 |
- cosine_accuracy@1
|
@@ -39,116 +40,48 @@ tags:
|
|
39 |
- sentence-similarity
|
40 |
- feature-extraction
|
41 |
- generated_from_trainer
|
42 |
-
- dataset_size:22842
|
43 |
-
- loss:CachedGISTEmbedLoss
|
44 |
widget:
|
45 |
-
- source_sentence:
|
46 |
sentences:
|
47 |
-
-
|
48 |
-
|
49 |
-
|
50 |
-
|
51 |
-
|
52 |
-
|
53 |
-
|
54 |
-
|
55 |
-
|
56 |
-
|
57 |
-
|
58 |
-
|
59 |
-
|
60 |
-
|
61 |
-
|
62 |
-
|
63 |
-
|
64 |
-
|
65 |
-
|
66 |
-
|
67 |
-
-
|
68 |
-
|
69 |
-
|
70 |
-
|
71 |
-
|
72 |
-
|
73 |
-
|
74 |
-
|
75 |
-
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
|
80 |
-
|
81 |
-
|
82 |
-
|
83 |
-
|
84 |
-
|
85 |
-
|
86 |
-
| 48 | | 마진판 | | 외판 또는 거싯판 | | F1 |
|
87 |
-
|
88 |
-
|
|
89 |
-
|
90 |
-
'
|
91 |
-
- Rev.1 참조) (2019) 【규칙 참조】 (1) 화물탱크 또는 슬롭탱크와 공통의 경계를 갖는 연료유탱크는 화물탱크 블록 내에 위치하거나
|
92 |
-
연료유탱크의 일부를 화물탱크 블록에 배치해서는 안 된다. 그러나 연료유탱크는 화물탱크 블록의 전후방에 배치할 수 있다. 화물탱크 블록이란 그림
|
93 |
-
8.2.6과 같이 최후방 화물탱크 또는 슬롭탱크의 선미격벽으로부터 최전방 화물탱크 또는 슬롭탱크의 선수격벽까지 확장 및 선박의 깊이 및 폭까지
|
94 |
-
확장된 선박의 일부분이다. 그러나 화물탱크 또는 슬롭탱크의 갑판 상부구역은 포함하지 않는다. (2) 연료유탱크는 유출 및 화재 안전 측면에서
|
95 |
-
화물구역내의 노출갑판상에 독립형탱크로 ���치하는 경우 인정될 수 있다. 그림 8.2.6 화물탱크 블록 (3) 펌프를 포함하여 관련되는 연료유
|
96 |
-
관장치와 독립형 연료유탱크의 배치는 기관구역에 위치하는 연료유탱크와 관련되는 관장치와 동일하게 볼 수 있다. 그러나 전기 설비에 대해서는 위험구역
|
97 |
-
분류의 규정이 적용되어야 한다. (4) 이 항의 목적상 독성 액체화물은 지침 7편 6장 **부록 7B-1**의 ‘k’란에서 독성 증기가 증기가
|
98 |
-
발생되는 물질을 포함한다.
|
99 |
-
- 3.1 보강재 3.1.1보강재의 검토를 위하여 고려하여야 하는 부착판의 폭 (mm) 는 다음 식에 의한다. • 부착판이 보강재의 양쪽에
|
100 |
-
있는 경우 :• 부착판이 보강재의 한쪽에만 있는 경우 : 3.2 <삭제>[RCN1 to 01 JAN 2021]
|
101 |
-
- source_sentence: 선체거더 하중 계산점의 4절에 정의된 고려하는 동하중상태의 수평 파랑 굽힘 모멘트는 무엇입니까?
|
102 |
-
sentences:
|
103 |
-
- 1. 검사는 선수문, 내측문, 현측문 및 선미문이 만족한 상태로 유지되고 있음을 실행가능한 한 검증하기 위한 시험으로 이루어져야 한다. 2.
|
104 |
-
전회 검사 이후 선수문, 내측문, 현측문 및 선미문에 대하여 승인되지 않은 변경사항이 있었는지의 여부를 확인하여야 한다. 3. 문서 작동 및
|
105 |
-
정비지침서가 요구되는 경우, 승인된 사본이 본선에 비치되어있고 모든 변경 사항이 반영되어 있음을 검증하여야 한다. 문의 폐쇄 및 잠금을 위한
|
106 |
-
작동절차가 문서화되어 본선에 비치되어 있고 적합한 위치에 게시되어 있음을 검증하여야 한다. 검사원은 검사를 위한 기초로서 점검기록 및 그 내용에
|
107 |
-
대하여 특별히 주의하여 작동 및 정비지침서를 확인하여야 한다. 4. 구조에 대한 시험 선수문, 내측문, 현측문 및 선미문은 다음에 특히 주의하여
|
108 |
-
검사하여야 한다. (1) 판, 2차 보강재, 1차 구조부재, 힌지암 및 용접을 포함한 문의 구조적 배치 (2) 문의 개구 주위를 이루는 외판구조와
|
109 |
-
외판, 2차 보강재, 1차 구조부재 및 용접을 포함한 잠금장치, 지지장치 및 고정장치 (3) 힌지 및 베어링, 추력베어링 (4) 잠금장치,
|
110 |
-
지지장치
|
111 |
-
- '3.1 선체거더 파랑 굽힘 모멘트에 의한 응력 3.1.1하중조건 의 하중상태 및 에 대한 선체거더 응력은 다음 식을 따른다.
|
112 |
-
(N/mm2)∙
|
113 |
-
: 및 에 동등한 에 의한 하중조건 에 대해 고려된 종방향 위치에서 선체거더 하중 계산점의 4절에 정의된 고려하는 동하중상태의
|
114 |
-
수직 파랑 굽힘 모멘트 (kNm) : 및 에 동등한 에 의해 하중조건 에 대해 고려된 종방향 위치에서 선체거더
|
115 |
-
하중 계산점의 4절에 정의된 고려하는 동하중상태의 수평 파랑 굽힘 모멘트 (kNm) 3.2 정수중 선체거더 굽힘 모멘트 3.2.1하중조건 에서
|
116 |
-
정수중 굽힘 모멘트에 의한 선체거더 핫스폿 응력은 다음 식을 따른다.'
|
117 |
-
- 화물기기구역, 화재위험성이 높은 물건을 저장하는 창고 및 화물제어실의 격벽과 같이 화물지역에 면하는 노출된 경계부분. 분리 가능한 화물관장치
|
118 |
-
연결부가 노출된 수평경계 부분의 상방 또는 하방에 설치되지 않는 경우, 이들 지역의 노출된 수평 경계부분에는 물분무장치를 요구하지 않는다.
|
119 |
-
화재위험성이 높은 물건 또는 설비를 비치하지 않는 비거주 선수루 구조의 경계부분에는 물분무장치가 요구되지 않는다. (2019) (7) 화물지역과의
|
120 |
-
거리에 상관없이 화물지역과 마주하는 노출된 구명정, 구명뗏목 및 집결장소 (8) 모든 반폐위 화물기기구역 및 반폐위 화물전동기실 101. 6항에서
|
121 |
-
규정하는 운항을 위한 선박은 특별히 고려하여야 한다. (1103. 3항의 (2)호 참조)2. (1) 물분무장치는 최대 수평투영면에 대하여 분당
|
122 |
-
10 Lm, 수직면에 대하여 분당 4 Lm로 균일하게 산포되는 물분무율에 의해 1항에서 규정한 모든 지역을 보호할 수 있어야 한다.
|
123 |
-
수평면
|
124 |
-
- source_sentence: 비상전원이 데드쉽상태에서 주추진설비를 시동하는데 필요한 전기를 제공하는 경우, 어떤 조건이 필요합니까?
|
125 |
-
sentences:
|
126 |
-
- 2.1 일반 2.1.1설계자는 화물펌프실, 화물탱크, 슬롭탱크 및 코퍼댐, 주 화물제어장소, 제어장소, 거주구역 및 업무구역 뿐만 아니라 화물탱크를
|
127 |
-
기관구역으로부터 격리하는 배치에 주의��� 기울여야 한다. 2.1.2<삭제>
|
128 |
-
- 규칙 301.의 4항에 따라 선체구조의 피로강도를 평가하고자 하는 경우에는 3편 **부록 3-3** 선체구조의 피로강도 평가지침에 따를 것을
|
129 |
-
권장한다. 【규칙 참조】
|
130 |
-
- 또는 이와 동등한 다른 장치를 갖추어야 한다. 【지침 참조】 (4) 주전원은 추진기관 또는 추진축계의 속도 및 회전방향에 관계없이 중요용도
|
131 |
-
및 거주편의용도를 유지할 수 있도록 배치하여야 한다. 【지침 참조】 (5) 발전장치는 어느 한대의 발전기 또는 발전장치의 일차 동력원을 운전할
|
132 |
-
수 없는 상태에서도 나머지의 발전장치를 이용하여 데드쉽상태로부터 주추진설비를 시동하는데 필요한 전기의 용도에 급전할 수 있어야 한다. 비상전원
|
133 |
-
단독으로 또는 다른 전원과 결합하여 203.의 2항 (2)호 (가)부터 (마)에서 요구하는 모든 설비에 충분한 전력을 동시에 공급할 수 있는
|
134 |
-
경우, 데드쉽상태로부터 시동을 위한 용도로 비상전원을 사용할 수 있다. 2. 변압기 및 전력변환장치 (1) 변압기의 용량과 수 【지침 참조】급전회로에
|
135 |
-
사용하는 변압기의 용량과 수는 그 중 어느 1대가 사용할 수 없게
|
136 |
-
- source_sentence: 펌프와 압축기에 장착된 압력도출밸브의 토출유량은 어떤 조건을 만족해야 하나요?
|
137 |
-
sentences:
|
138 |
-
- SEA-2 | | | S | 항내상태 | | 평형수 탱크 | WB-1 | (1) | | S + D
|
139 |
-
| 통상 평형수 적재상태 | | | WB-2 | (1) | | S + D | 통상 평형수 적재상태,평형수 교환상태
|
140 |
-
| | | WB-3 | (1) | | S | 항내상태 | | | WB-4 | (1) |
|
141 |
-
| T | 시험상태 | | 평형수 탱크 이외의 탱크 | TK-1 | (1) | | S + D | 통상 평형수 적재상태
|
142 |
-
| | | TK-2 | (1) | | S | 항내상태 | | | TK-3 | (1) |
|
143 |
-
| T | 시험상태 | | 액화 천연가스 연료
|
144 |
-
- 제조중등록검사 또는 제조후등록검사를 받고 이에 합격한 때는 선급증서 발행하기 전까지 유효한 단기선급증서를 발급한다.
|
145 |
-
- (8) 잠수설비에서 배출되는 기체는 점화원, 인명 또는 위험성이 있는 장소로부터 떨어진 개방된 외부로 배출되어야 한다. (9) 모든 호흡 기체배관에는
|
146 |
-
수동으로 압력을 감소시키는 수단을 갖추어야 한다. (10) 기체 최소 공급율은 누설을 보충하기 충분한 양이어야 한다. (11) 감압챔버의 감압율은
|
147 |
-
지정된 감압표에 따른다. (예, US NAVY diving tables 등) 2. 과압방지장치 (1) 설계된 것보다 높은 압력을 받을 수 있는
|
148 |
-
관장치에는 과압방지장치를 설치하여야 한다. (2) 펌프와 압축기에 장착된 압력도출밸브의 토출유량은 토출이 차단되어도 장치의 압력은 설계압력의
|
149 |
-
10 %를 초과하지 않도록 하여야 한다. 3. 호흡기체의 혼합 (1) 호흡용 혼합기체의 적절한 균질성을 얻기 위해 효율적인 환기가 제공되어야
|
150 |
-
한다. (2) 기체 혼합 장비의 산소 함량은 704.의 3항 (6)호에 따라 측정한다. (3) 산소 함량이 설정된 허용오차를 벗어날 경우 기체
|
151 |
-
공급원을 2차 공급원으로 전환할 수 있어야 한다.
|
152 |
model-index:
|
153 |
- name: SentenceTransformer
|
154 |
results:
|
@@ -156,8 +89,8 @@ model-index:
|
|
156 |
type: information-retrieval
|
157 |
name: Information Retrieval
|
158 |
dataset:
|
159 |
-
name: miracl
|
160 |
-
type:
|
161 |
metrics:
|
162 |
- type: cosine_accuracy@1
|
163 |
value: 0.6103286384976526
|
@@ -249,103 +182,9 @@ model-index:
|
|
249 |
- type: dot_map@100
|
250 |
value: 0.6073885234240499
|
251 |
name: Dot Map@100
|
252 |
-
|
253 |
-
|
254 |
-
|
255 |
-
dataset:
|
256 |
-
name: shiprule dev
|
257 |
-
type: shiprule_dev
|
258 |
-
metrics:
|
259 |
-
- type: cosine_accuracy@1
|
260 |
-
value: 0.7253886010362695
|
261 |
-
name: Cosine Accuracy@1
|
262 |
-
- type: cosine_accuracy@3
|
263 |
-
value: 0.8963730569948186
|
264 |
-
name: Cosine Accuracy@3
|
265 |
-
- type: cosine_accuracy@5
|
266 |
-
value: 0.927461139896373
|
267 |
-
name: Cosine Accuracy@5
|
268 |
-
- type: cosine_accuracy@10
|
269 |
-
value: 0.9792746113989638
|
270 |
-
name: Cosine Accuracy@10
|
271 |
-
- type: cosine_precision@1
|
272 |
-
value: 0.7253886010362695
|
273 |
-
name: Cosine Precision@1
|
274 |
-
- type: cosine_precision@3
|
275 |
-
value: 0.29879101899827293
|
276 |
-
name: Cosine Precision@3
|
277 |
-
- type: cosine_precision@5
|
278 |
-
value: 0.1854922279792746
|
279 |
-
name: Cosine Precision@5
|
280 |
-
- type: cosine_precision@10
|
281 |
-
value: 0.09792746113989637
|
282 |
-
name: Cosine Precision@10
|
283 |
-
- type: cosine_recall@1
|
284 |
-
value: 0.7253886010362695
|
285 |
-
name: Cosine Recall@1
|
286 |
-
- type: cosine_recall@3
|
287 |
-
value: 0.8963730569948186
|
288 |
-
name: Cosine Recall@3
|
289 |
-
- type: cosine_recall@5
|
290 |
-
value: 0.927461139896373
|
291 |
-
name: Cosine Recall@5
|
292 |
-
- type: cosine_recall@10
|
293 |
-
value: 0.9792746113989638
|
294 |
-
name: Cosine Recall@10
|
295 |
-
- type: cosine_ndcg@10
|
296 |
-
value: 0.856285200998546
|
297 |
-
name: Cosine Ndcg@10
|
298 |
-
- type: cosine_mrr@10
|
299 |
-
value: 0.816368533596513
|
300 |
-
name: Cosine Mrr@10
|
301 |
-
- type: cosine_map@100
|
302 |
-
value: 0.817575570996784
|
303 |
-
name: Cosine Map@100
|
304 |
-
- type: dot_accuracy@1
|
305 |
-
value: 0.7253886010362695
|
306 |
-
name: Dot Accuracy@1
|
307 |
-
- type: dot_accuracy@3
|
308 |
-
value: 0.8963730569948186
|
309 |
-
name: Dot Accuracy@3
|
310 |
-
- type: dot_accuracy@5
|
311 |
-
value: 0.927461139896373
|
312 |
-
name: Dot Accuracy@5
|
313 |
-
- type: dot_accuracy@10
|
314 |
-
value: 0.9792746113989638
|
315 |
-
name: Dot Accuracy@10
|
316 |
-
- type: dot_precision@1
|
317 |
-
value: 0.7253886010362695
|
318 |
-
name: Dot Precision@1
|
319 |
-
- type: dot_precision@3
|
320 |
-
value: 0.29879101899827293
|
321 |
-
name: Dot Precision@3
|
322 |
-
- type: dot_precision@5
|
323 |
-
value: 0.1854922279792746
|
324 |
-
name: Dot Precision@5
|
325 |
-
- type: dot_precision@10
|
326 |
-
value: 0.09792746113989637
|
327 |
-
name: Dot Precision@10
|
328 |
-
- type: dot_recall@1
|
329 |
-
value: 0.7253886010362695
|
330 |
-
name: Dot Recall@1
|
331 |
-
- type: dot_recall@3
|
332 |
-
value: 0.8963730569948186
|
333 |
-
name: Dot Recall@3
|
334 |
-
- type: dot_recall@5
|
335 |
-
value: 0.927461139896373
|
336 |
-
name: Dot Recall@5
|
337 |
-
- type: dot_recall@10
|
338 |
-
value: 0.9792746113989638
|
339 |
-
name: Dot Recall@10
|
340 |
-
- type: dot_ndcg@10
|
341 |
-
value: 0.856285200998546
|
342 |
-
name: Dot Ndcg@10
|
343 |
-
- type: dot_mrr@10
|
344 |
-
value: 0.816368533596513
|
345 |
-
name: Dot Mrr@10
|
346 |
-
- type: dot_map@100
|
347 |
-
value: 0.817575570996784
|
348 |
-
name: Dot Map@100
|
349 |
---
|
350 |
|
351 |
# SentenceTransformer
|
@@ -354,16 +193,18 @@ This is a [sentence-transformers](https://www.SBERT.net) model trained on the tr
|
|
354 |
|
355 |
## Model Details
|
356 |
|
|
|
|
|
|
|
357 |
### Model Description
|
358 |
- **Model Type:** Sentence Transformer
|
359 |
-
|
360 |
-
- **Maximum Sequence Length:**
|
361 |
- **Output Dimensionality:** 1024 tokens
|
362 |
- **Similarity Function:** Cosine Similarity
|
363 |
- **Training Dataset:**
|
364 |
- train_set
|
365 |
-
|
366 |
-
<!-- - **License:** Unknown -->
|
367 |
|
368 |
### Model Sources
|
369 |
|
@@ -375,7 +216,7 @@ This is a [sentence-transformers](https://www.SBERT.net) model trained on the tr
|
|
375 |
|
376 |
```
|
377 |
SentenceTransformer(
|
378 |
-
(0): Transformer({'max_seq_length':
|
379 |
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
380 |
(2): Normalize()
|
381 |
)
|
@@ -396,12 +237,12 @@ Then you can load this model and run inference.
|
|
396 |
from sentence_transformers import SentenceTransformer
|
397 |
|
398 |
# Download from the 🤗 Hub
|
399 |
-
model = SentenceTransformer("
|
400 |
# Run inference
|
401 |
sentences = [
|
402 |
-
'
|
403 |
-
'
|
404 |
-
'
|
405 |
]
|
406 |
embeddings = model.encode(sentences)
|
407 |
print(embeddings.shape)
|
@@ -440,9 +281,105 @@ You can finetune this model on your own dataset.
|
|
440 |
## Evaluation
|
441 |
|
442 |
### Metrics
|
|
|
443 |
|
444 |
#### Information Retrieval
|
445 |
-
*
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
446 |
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
447 |
|
448 |
| Metric | Value |
|
@@ -459,9 +396,9 @@ You can finetune this model on your own dataset.
|
|
459 |
| cosine_recall@3 | 0.5902 |
|
460 |
| cosine_recall@5 | 0.6794 |
|
461 |
| cosine_recall@10 | 0.7695 |
|
462 |
-
| cosine_ndcg@10
|
463 |
| cosine_mrr@10 | 0.7262 |
|
464 |
-
|
|
465 |
| dot_accuracy@1 | 0.6103 |
|
466 |
| dot_accuracy@3 | 0.8169 |
|
467 |
| dot_accuracy@5 | 0.8732 |
|
@@ -478,91 +415,20 @@ You can finetune this model on your own dataset.
|
|
478 |
| dot_mrr@10 | 0.7262 |
|
479 |
| dot_map@100 | 0.6074 |
|
480 |
|
481 |
-
#### Information Retrieval
|
482 |
-
* Dataset: `shiprule_dev`
|
483 |
-
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
484 |
-
|
485 |
-
| Metric | Value |
|
486 |
-
|:--------------------|:-----------|
|
487 |
-
| cosine_accuracy@1 | 0.7254 |
|
488 |
-
| cosine_accuracy@3 | 0.8964 |
|
489 |
-
| cosine_accuracy@5 | 0.9275 |
|
490 |
-
| cosine_accuracy@10 | 0.9793 |
|
491 |
-
| cosine_precision@1 | 0.7254 |
|
492 |
-
| cosine_precision@3 | 0.2988 |
|
493 |
-
| cosine_precision@5 | 0.1855 |
|
494 |
-
| cosine_precision@10 | 0.0979 |
|
495 |
-
| cosine_recall@1 | 0.7254 |
|
496 |
-
| cosine_recall@3 | 0.8964 |
|
497 |
-
| cosine_recall@5 | 0.9275 |
|
498 |
-
| cosine_recall@10 | 0.9793 |
|
499 |
-
| cosine_ndcg@10 | 0.8563 |
|
500 |
-
| cosine_mrr@10 | 0.8164 |
|
501 |
-
| **cosine_map@100** | **0.8176** |
|
502 |
-
| dot_accuracy@1 | 0.7254 |
|
503 |
-
| dot_accuracy@3 | 0.8964 |
|
504 |
-
| dot_accuracy@5 | 0.9275 |
|
505 |
-
| dot_accuracy@10 | 0.9793 |
|
506 |
-
| dot_precision@1 | 0.7254 |
|
507 |
-
| dot_precision@3 | 0.2988 |
|
508 |
-
| dot_precision@5 | 0.1855 |
|
509 |
-
| dot_precision@10 | 0.0979 |
|
510 |
-
| dot_recall@1 | 0.7254 |
|
511 |
-
| dot_recall@3 | 0.8964 |
|
512 |
-
| dot_recall@5 | 0.9275 |
|
513 |
-
| dot_recall@10 | 0.9793 |
|
514 |
-
| dot_ndcg@10 | 0.8563 |
|
515 |
-
| dot_mrr@10 | 0.8164 |
|
516 |
-
| dot_map@100 | 0.8176 |
|
517 |
-
|
518 |
-
<!--
|
519 |
## Bias, Risks and Limitations
|
520 |
|
521 |
-
|
522 |
-
-->
|
523 |
-
|
524 |
-
<!--
|
525 |
-
### Recommendations
|
526 |
|
527 |
-
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
528 |
-
-->
|
529 |
|
530 |
-
## Training Details
|
531 |
-
|
532 |
-
### Training Dataset
|
533 |
-
|
534 |
-
#### train_set
|
535 |
-
|
536 |
-
* Dataset: train_set
|
537 |
-
* Size: 22,842 training samples
|
538 |
-
* Columns: <code>query</code> and <code>chuked_doc</code>
|
539 |
-
* Approximate statistics based on the first 1000 samples:
|
540 |
-
| | query | chuked_doc |
|
541 |
-
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
542 |
-
| type | string | string |
|
543 |
-
| details | <ul><li>min: 7 tokens</li><li>mean: 21.44 tokens</li><li>max: 64 tokens</li></ul> | <ul><li>min: 30 tokens</li><li>mean: 248.32 tokens</li><li>max: 507 tokens</li></ul> |
|
544 |
-
* Samples:
|
545 |
-
| query | chuked_doc |
|
546 |
-
|:----------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
547 |
-
| <code>알루미늄합금관은 어떤 경우에 사용할 수 없나요?</code> | <code>알루미늄합금관에 대하여는 다음에 따른다. (가) 알루미늄합금관은 원칙으로 우리 선급이 적절하다고 인정하는 규격에 정하여진 것으로 이음매 없는 인발관 또는 이음매 없는 압출관이어야 한다. (나) 알루미늄합금관은 다음에 해당하는 관에는 사용하여서는 아니 된다. (a) 원칙적으로 설계온도가 150 °C를 초과하는 관 (b) 지침 6장 102.의 2항 (2)호 (나) 내지 (타)에 속하는 관 (다) 내압을 받는 알루미늄합금관의 소요두께는 다음에 따른다. 관의 소요두께는 규칙 102.의 6항에 따른다. 이 경우 허용응력 는 다음의 값 중 최소치로 한다. 다만, 설계온도가 재료의 크리프 영역에 있지 아니한 경우에는 의 값은 고려할 필요가 없다. :상온 (50 °C 미만)에서의 재료의 규격최소인장강도 (Nmm):설계온도에서의 재료의 0.2 % 내력 (Nmm) :설계온도에서의 재료의 100,000시간 후의 평균파단강도 (Nmm) (3) 제1급 또는 제2급 관장치에 사용하거나 손상시 화재 또는 침수에 영향을 미치는 관에 사용하는 금속 또는 비금속재료의 신축관 (끝단</code> |
|
548 |
-
| <code>만재 격창 적재상태는 어디에 적용할 수 있나요?</code> | <code>적재상태이며 산적화물선의 경우 통상 평형수 적재상태, 황천 평형수 적재상태, 만재 균일 적재상태, 만재 격창 적재상태이다. 즉, 만재 격창 적재상태는 BC-A 산적화물선에만 적용 가능하다. 적하상태의 정의는 9장에 따른다. 2.2 정수중 수직 굽힘 모멘트 2.2.1 최소 정수중 굽힘 모멘트호깅 및 새깅상태에서 각각 최소 정수중 굽힘 모멘트 min 및 min (kNm) 는 다음 식에 의한다. 호깅상태 :min 새깅상태 :min : 및 을 1.0 으로 하여 [3.1.1]에 따라 계산된 수직 파랑 호깅 모멘트: 및 을 1.0 으로 하여 [3.1.1]에 따라 계산된 수직 파랑 새깅 모멘트: 선박의 길이 방향에 따른 분포계수로서 다음과 같다. (그림 1 참조),≤ 경우,에서,≤≤</code> |
|
549 |
-
| <code>항구내의 적하 및 양하 시에 최대흘수의 67에서 화물창은 최대 허용 항해 중량을 적재할 수 있는가?</code> | <code>이중저 평형수탱크는 비운 상태로 에 의 10를 더한 것을 운송할 수 있어야 한다. 다만, 운항중 최대허용화물질량은 까지로 제한하여야 한다. (다) 설계하중조건에 따라 옆의 화물창이 공창이 되는 모든 인접한 2개의 화물창은 최대흘수에서 해당 화물창의 이중저 연료유 탱크가 있는 경우 100 채우고, 이중저 평형수탱크는 비운 상태로 각 설계하중조건에 따른 최대화물하중에 더하여 의 10를 운송할 수 있어야 한다. 다만, 운항중 최대허용화물질량은 설계하중조건에 따른 최대화물하중까지로 제한되어야 한다. (5) 평형수화물창에만 적용하는 추가조건평형수화물창은 모든 황천 평형수흘수에서 해당 화물창의 모든 이중저 탱크를 100 채우고 창구 (hatchway)까지 평형수를 100 채울 수 있어야 한다. 톱사이드 윙탱크, 호퍼 및 이중저 탱크에 인접한 평형수화물창은 톱사이드 윙 탱크, 호퍼 및 이중저 탱크가 빈 상태에서 평형수화물창을 채울 때 강도상 만족되어야 한다. (6) 항구내의 적하 및 양하 시에 적용하는 추가조건 (가) 최대흘수의 67에서 임의의 화물창은 최대허용항해중량을 적재할 수 있어야 한다. (나)</code> |
|
550 |
-
* Loss: [<code>CachedGISTEmbedLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cachedgistembedloss) with these parameters:
|
551 |
-
```json
|
552 |
-
{'guide': SentenceTransformer(
|
553 |
-
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
554 |
-
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
555 |
-
(2): Normalize()
|
556 |
-
), 'temperature': 0.01}
|
557 |
-
```
|
558 |
|
559 |
### Training Hyperparameters
|
560 |
#### Non-Default Hyperparameters
|
|
|
561 |
|
562 |
- `eval_strategy`: steps
|
563 |
-
- `per_device_train_batch_size`:
|
564 |
-
- `per_device_eval_batch_size`:
|
565 |
-
- `learning_rate`:
|
566 |
- `warmup_ratio`: 0.03333333333333333
|
567 |
- `fp16`: True
|
568 |
- `batch_sampler`: no_duplicates
|
@@ -574,13 +440,13 @@ You can finetune this model on your own dataset.
|
|
574 |
- `do_predict`: False
|
575 |
- `eval_strategy`: steps
|
576 |
- `prediction_loss_only`: True
|
577 |
-
- `per_device_train_batch_size`:
|
578 |
-
- `per_device_eval_batch_size`:
|
579 |
- `per_gpu_train_batch_size`: None
|
580 |
- `per_gpu_eval_batch_size`: None
|
581 |
- `gradient_accumulation_steps`: 1
|
582 |
- `eval_accumulation_steps`: None
|
583 |
-
- `learning_rate`:
|
584 |
- `weight_decay`: 0.0
|
585 |
- `adam_beta1`: 0.9
|
586 |
- `adam_beta2`: 0.999
|
@@ -681,25 +547,6 @@ You can finetune this model on your own dataset.
|
|
681 |
|
682 |
</details>
|
683 |
|
684 |
-
### Training Logs
|
685 |
-
| Epoch | Step | Training Loss | miracl_dev_cosine_map@100 | shiprule_dev_cosine_map@100 |
|
686 |
-
|:------:|:----:|:-------------:|:-------------------------:|:---------------------------:|
|
687 |
-
| 0.4545 | 10 | 0.4005 | 0.6045 | 0.7830 |
|
688 |
-
| 0.9091 | 20 | 0.258 | 0.6096 | 0.8032 |
|
689 |
-
| 1.3636 | 30 | 0.2021 | 0.6095 | 0.8090 |
|
690 |
-
| 1.8182 | 40 | 0.1868 | 0.6069 | 0.8134 |
|
691 |
-
| 2.2727 | 50 | 0.1657 | 0.6078 | 0.8142 |
|
692 |
-
| 2.7273 | 60 | 0.1782 | 0.6074 | 0.8176 |
|
693 |
-
|
694 |
-
|
695 |
-
### Framework Versions
|
696 |
-
- Python: 3.9.19
|
697 |
-
- Sentence Transformers: 3.1.0.dev0
|
698 |
-
- Transformers: 4.41.2
|
699 |
-
- PyTorch: 2.3.0+cu118
|
700 |
-
- Accelerate: 0.33.0
|
701 |
-
- Datasets: 2.21.0
|
702 |
-
- Tokenizers: 0.19.1
|
703 |
|
704 |
## Citation
|
705 |
|
@@ -717,6 +564,24 @@ You can finetune this model on your own dataset.
|
|
717 |
url = "https://arxiv.org/abs/1908.10084",
|
718 |
}
|
719 |
```
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
720 |
|
721 |
<!--
|
722 |
## Glossary
|
|
|
1 |
---
|
2 |
+
language:
|
3 |
+
- ko
|
4 |
+
- en
|
5 |
library_name: sentence-transformers
|
6 |
metrics:
|
7 |
- cosine_accuracy@1
|
|
|
40 |
- sentence-similarity
|
41 |
- feature-extraction
|
42 |
- generated_from_trainer
|
|
|
|
|
43 |
widget:
|
44 |
+
- source_sentence: 대한지적공사 관계자는 "오랜 진통 끝에 지적재조사사업을 추진하게 돼 기쁘다"면서도 뭐라고 말했어?
|
45 |
sentences:
|
46 |
+
- >-
|
47 |
+
2018 평창 동계올림픽이 개막하기 전 '공공의 적'은 영하 10도를 넘는 추위였다. 개막을 즈음해 추위는 조금 수그러드는가 싶더니
|
48 |
+
바람이 멈추지 않아 대회 2일 차부터 경기가 잇달아 연기·취소됐다.
|
49 |
+
|
50 |
+
올림픽 조직위원회와 국제스키연맹(FIS)은 11일 오전 11시 정선 알파인 경기장에서 열릴 예정이던 알파인 스키 남자 활강 경기를
|
51 |
+
강풍으로 연기하기로 했다고 밝혔다. FIS는 “강풍이 경기장에 하루 종일 계속 불 것으로 전망돼 일정을 연기했다”고 밝혔다. 조직위는
|
52 |
+
연기된 남자 활강 경기를 오는 15일 오전 11시에 치르고, 이 시간대에 원래 열릴 예정이던 남자 슈퍼대회전 경기 시간을 하루 뒤인
|
53 |
+
16일 오전 11시로 순연하기로 했다.
|
54 |
+
|
55 |
+
이어 이날 오후 1시30분부터 열릴 예정이던 스노보드 여자 슬로프스타일 예선 경기는 연기를 거듭하다 취소됐다. 조직위는 예선 없이 다음
|
56 |
+
날 결선에서 참가자 27명이 한번에 경기해 순위를 가리기로 했다.
|
57 |
+
|
58 |
+
강풍이 경기 진행에 영향을 미칠 것이란 예상은 대회 전부터 있었다. 올림픽 대회 슬로프가 설치된 정선·용평 알파인 경기장과 휘닉스 스노
|
59 |
+
경기장은 슬로프 상단부의 해발고도가 900m가 넘는다. 임장호 조직위 기상기후팀장은 “알��인 스키는 상단부에 강한 바람이 불면, 선수들을
|
60 |
+
실어나르는 곤돌라를 움직이기 어렵다”며 “스노보드나 프리스타일 스키는 순간적인 돌풍이 불 때 선수들이 다칠 가능성도 있다”고 말했다.
|
61 |
+
|
62 |
+
바람이 경기에 미치는 영향을 알기에 조직위도 강풍을 비롯한 5가지 긴급 기상 상황을 가정해 경기 운영 매뉴얼을 만들었다. 이날 경기
|
63 |
+
취소도 매뉴얼에 따른 조치였다. 임 팀장은 “12~13일 바람이 잦아들다가 14일에 다시 강풍이 불겠지만, 15일부터는 다시 잦아들
|
64 |
+
것으로 보고 있다”며 “향후 강풍으로 경기가 연기돼도 올림픽 폐막 전 최대한 모든 경기를 끝내려 하고 있다”고 했다. 다만 경기 일정이
|
65 |
+
바뀌면 참가 선수들과 코칭스태프가 어떻게 컨디션을 조절하며 경기를 준비할지 깊은 고민에 빠질 것으로 보인다.
|
66 |
+
- >-
|
67 |
+
지적도면과 실제 경계가 맞지 않는 '지적불부합지'에 대한 재조사가 실시된다. 국토해양부는 지적도상 경계와 실제 경계가 일치하지 않는
|
68 |
+
지적불부합지에 대해 2030년까지 지적재조사를 추진한다고 지난달 30일 밝혔다. 이와 관련 김기현 의원이 대표발의한 지적재조사특별법안이
|
69 |
+
이날 국회 상임위를 통과했다. 지적불부합지는 경계분쟁과 민원의 대상이 되고 있는데, 현재 전체 필지의 약 15%(554만필지)에 이를
|
70 |
+
것으로 추정된다. 특히 상당수는 지적측량이 불가능해 소유권 이전이나 건축행위 등 재산권 행사가 불가능하거나 제한받고 있어 조정이 시급한
|
71 |
+
상황이다. 이에 따라 1995년 지적재조사사업추진 기본계획이 수립되고, 이듬해 지적재조사특별법이 입법예고됐지만 관련 부처들의 반대로
|
72 |
+
무산됐다. 이후 2000년 다시 재조사사업 기본계획이 수립되고, 2006년 토지조사특별법안이 제출됐으나 성사되지 못한 채 오늘에 이르고
|
73 |
+
있다. 지적불부합지는 100년 전 낙후된 기술로 만든 종이지적을 계속 사용하면서 종이도면의 신축, 경계선의 굵기, 개인오차 등으로
|
74 |
+
생겨났다. 또 대장이 토지·임야대장으로 이원화돼 있고, 도면도 7종의 축척으로 등록된 것도 원인으로 꼽힌다. 일례로 1:1200 축척의
|
75 |
+
압구정동 대지(280㎡, 1000만원/㎡)의 경우 지적도상 경계가 0.8mm 오차가 나면 실제 면적에선 27㎡의 차이가 발생, 약
|
76 |
+
2억7000만원의 땅값이 차이나게 된다. 6·25전쟁으로 전국 106만1000필지의 지적공부가 분·소실되고, 약 80%의 지적측량기준점을
|
77 |
+
잃어버린 것도 한 원인이다. 토지공법학회는 2005년 지적불부합에 따른 경계분쟁으로 연간 약 3800억원의 소송비용이 발생한 것으로
|
78 |
+
추정했다. 또 경계확인측량으로 연간 900억원의 비용이 지출되고 있다. 정부는 총 8410억원을 투입, 2020년까지 280만필지를,
|
79 |
+
나머지 274만필지는 2030년까지 정비할 계획이다. 국토부 관계자는 "지적불부합지가 정비되면 경계분쟁이 해소돼 사회적 비용을 절감할 수
|
80 |
+
있고, 개인의 재산권 행사도 수월해 질 것"이라고 기대했다. 그러나 전국에 걸친 전면적인 지적재조사가 아니라 불부합지를 중심으로 한
|
81 |
+
단계적 추진이어서 한계가 있다는 지적이다. 앞으로 재조사가 진행되면 불부합지가 계속 나타나게 될 것인데 그 때마다 경계조정을 해야 하는
|
82 |
+
번거로움이 있다는 것. 특히 불부합지에 대한 경계조정은 이해가 첨예하게 충돌하다 보니 사업추진이 매우 어렵다. 이 때문에 전면적인
|
83 |
+
재조사를 통해 한 번에 마무리하는 것이 수월하다는 설명이다. 대한지적공사 관계자는 "오랜 진통 끝에 지적재조사사업을 추진하게 돼
|
84 |
+
기쁘다"면서도 "원래 전면적인 사업추진을 원했으나 예산 등의 문제로 단계적으로 진행하게 돼 아쉽다"고 말했다.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
85 |
model-index:
|
86 |
- name: SentenceTransformer
|
87 |
results:
|
|
|
89 |
type: information-retrieval
|
90 |
name: Information Retrieval
|
91 |
dataset:
|
92 |
+
name: miracl
|
93 |
+
type: miracl
|
94 |
metrics:
|
95 |
- type: cosine_accuracy@1
|
96 |
value: 0.6103286384976526
|
|
|
182 |
- type: dot_map@100
|
183 |
value: 0.6073885234240499
|
184 |
name: Dot Map@100
|
185 |
+
license: apache-2.0
|
186 |
+
base_model:
|
187 |
+
- BAAI/bge-m3
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
188 |
---
|
189 |
|
190 |
# SentenceTransformer
|
|
|
193 |
|
194 |
## Model Details
|
195 |
|
196 |
+
- Learning other languages besides Chinese and English is insufficient, so additional learning is needed to optimize use of other languages.
|
197 |
+
- This model is additionally trained on the Korean dataset.
|
198 |
+
|
199 |
### Model Description
|
200 |
- **Model Type:** Sentence Transformer
|
201 |
+
Transformer Encoder
|
202 |
+
- **Maximum Sequence Length:** 8192 tokens
|
203 |
- **Output Dimensionality:** 1024 tokens
|
204 |
- **Similarity Function:** Cosine Similarity
|
205 |
- **Training Dataset:**
|
206 |
- train_set
|
207 |
+
1. Korean QA Dataset : https://aihub.or.kr/
|
|
|
208 |
|
209 |
### Model Sources
|
210 |
|
|
|
216 |
|
217 |
```
|
218 |
SentenceTransformer(
|
219 |
+
(0): Transformer({'max_seq_length': 8192, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
220 |
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
221 |
(2): Normalize()
|
222 |
)
|
|
|
237 |
from sentence_transformers import SentenceTransformer
|
238 |
|
239 |
# Download from the 🤗 Hub
|
240 |
+
model = SentenceTransformer("dragonkue/bge-m3-ko")
|
241 |
# Run inference
|
242 |
sentences = [
|
243 |
+
'수급권자 중 근로 능력이 없는 임산부는 몇 종에 해당하니?',
|
244 |
+
'내년부터 저소득층 1세 미만 아동의 \n의료비 부담이 더 낮아진다!\n의료급여제도 개요\n□ (목적) 생활유지 능력이 없거나 생활이 어려운 국민들에게 발생하는 질병, 부상, 출산 등에 대해 국가가 의료서비스 제공\n□ (지원대상) 국민기초생활보장 수급권자, 타 법에 의한 수급권자 등\n\n| 구분 | 국민기초생활보장법에 의한 수급권자 | 국민기초생활보장법 이외의 타 법에 의한 수급권자 |\n| --- | --- | --- |\n| 1종 | ○ 국민기초생활보장 수급권자 중 근로능력이 없는 자만으로 구성된 가구 - 18세 미만, 65세 이상 - 4급 이내 장애인 - 임산부, 병역의무이행자 등 | ○ 이재민(재해구호법) ○ 의상자 및 의사자의 유족○ 국내 입양된 18세 미만 아동○ 국가유공자 및 그 유족․가족○ 국가무형문화재 보유자 및 그 가족○ 새터민(북한이탈주민)과 그 가족○ 5․18 민주화운동 관련자 및 그 유가족○ 노숙인 ※ 행려환자 (의료급여법 시행령) |\n| 2종 | ○ 국민기초생활보장 수급권자 중 근로능력이 있는 가구 | - |\n',
|
245 |
+
'문재인 대통령의 국정수행 지지율과 더불어민주당의 지지율이 2주 연속 상승했다는 여론조사 결과가 나왔다. 한미정상회담의 효과로 풀이된다. \n한국갤럽은 25~27일 전국 만 18세 이상 1,003명에게 문 대통령의 직무수행 평가를 조사한 결과(표본오차 95% 신뢰수준에 ±3.1%포인트), 37%가 긍정 평가했다고 28일 밝혔다. \n긍정 평가는 지난주보다 3%포인트 올랐다. 부정 평가는 52%로 지난주보다 6%포인트 떨어졌다. 최근 60%대를 넘나들던 부정 평가가 50%대 초반으로 하락했다. 10%는 의견을 유보했다. \n지역별로 보면 서울과 인천·경기의 긍정 평가가 각각 37%란 점이 눈에 띈다. 부산·울산·경남도 33%로, 대구·경북(25%)과 달리 30%대로 나타났다. 연령별로는 40대가 49%로 가장 높았고, 18~29세는 31%로 집계됐다. 정치적 이념·성향이 중도라고 한 응답자의 34%는 긍정 평가했다. \n◇긍정 평가 이유 ‘외교·국제 관계’ 26%P 상승 \n문 대통령의 지지율 상승은 한미정상회담 성과가 영향을 미친 것으로 보인다. 긍정 평가 이유로는 ‘외교·국제 관계’가 가장 높았다. 30%로 지난주보다 26%포인트나 올랐다. 15개월간 ‘신종 코로나바이러스 감염증(코로나19) 대처’가 1위였는데, 한미정상회담 이후 외교·국제 관계로 순위가 바뀌었다. \n다음으로 ‘코로나19 대처’ 22%, ‘최선을 다함·열심히 한다’ 6%, ‘북한 관계’ 4%, ‘전반적으로 잘한다’ 4% 순이었다. \n부정 평가 이유로는 ‘부동산 정책’이 29%로 가장 높았다. 다음으로 ‘경제·민생 문제 해결 부족’ 10%, ‘코로나19 대처 미흡’ 5%, ‘공정하지 못함·내로남불’ 5%, ‘인사 문제’ 4% 순이었다. \n민주당 지지율 역시 문 대통령 지지율과 마찬가지로 2주 연속 상승했다. 정당 지지도 조사에서 민주당은 34%로 지난주보다 2%포인트 올랐다. \n국민의힘은 27%로 지난주보다 1%포인트 올랐다. 민주당과 국민의힘의 지지율 격차는 7%포인트로, 오차범위 밖을 벗어났다. ��음으로 정의당 5%, 열린민주당 3%, 국민의당 3% 순이었다. 무당층은 27%로 조사됐다. \n※자세한 내용은 한국갤럽 또는 중앙선거여론조사심의위원회 홈페이지를 참조하면 된다.',
|
246 |
]
|
247 |
embeddings = model.encode(sentences)
|
248 |
print(embeddings.shape)
|
|
|
281 |
## Evaluation
|
282 |
|
283 |
### Metrics
|
284 |
+
- ndcg, mrr, map metrics are metrics that consider ranking, while accuracy, precision, and recall are metrics that do not consider ranking. (Example: When considering ranking for retrieval top 10, different scores are given when the correct document is in 1st place and when it is in 10th place. However, accuracy, precision, and recall scores are the same if they are in the top 10.
|
285 |
|
286 |
#### Information Retrieval
|
287 |
+
* Korean Embedding Benchmark is a benchmark with a relatively long 3/4 quantile of string length of 1024
|
288 |
+
|
289 |
+
##### Korean Embedding Benchmark with AutoRAG
|
290 |
+
|
291 |
+
This is a benchmark of Korean embedding models.
|
292 |
+
(https://github.com/Marker-Inc-Korea/AutoRAG-example-korean-embedding-benchmark)
|
293 |
+
|
294 |
+
- Top-k 1
|
295 |
+
|
296 |
+
| Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
|
297 |
+
|---------------------------------------|------------|------------|------------|------------|------------|------------|
|
298 |
+
| paraphrase-multilingual-mpnet-base-v2 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 |
|
299 |
+
| KoSimCSE-roberta | 0.4298 | 0.4298 | 0.4298 | 0.4298 | 0.4298 | 0.4298 |
|
300 |
+
| Cohere embed-multilingual-v3.0 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 | 0.3596 |
|
301 |
+
| openai ada 002 | 0.4737 | 0.4737 | 0.4737 | 0.4737 | 0.4737 | 0.4737 |
|
302 |
+
| multilingual-e5-large-instruct | 0.4649 | 0.4649 | 0.4649 | 0.4649 | 0.4649 | 0.4649 |
|
303 |
+
| Upstage Embedding | 0.6579 | 0.6579 | 0.6579 | 0.6579 | 0.6579 | 0.6579 |
|
304 |
+
| paraphrase-multilingual-MiniLM-L12-v2 | 0.2982 | 0.2982 | 0.2982 | 0.2982 | 0.2982 | 0.2982 |
|
305 |
+
| openai_embed_3_small | 0.5439 | 0.5439 | 0.5439 | 0.5439 | 0.5439 | 0.5439 |
|
306 |
+
| ko-sroberta-multitask | 0.4211 | 0.4211 | 0.4211 | 0.4211 | 0.4211 | 0.4211 |
|
307 |
+
| openai_embed_3_large | 0.6053 | 0.6053 | 0.6053 | 0.6053 | 0.6053 | 0.6053 |
|
308 |
+
| KU-HIAI-ONTHEIT-large-v1 | 0.7105 | 0.7105 | 0.7105 | 0.7105 | 0.7105 | 0.7105 |
|
309 |
+
| KU-HIAI-ONTHEIT-large-v1.1 | 0.7193 | 0.7193 | 0.7193 | 0.7193 | 0.7193 | 0.7193 |
|
310 |
+
| kf-deberta-multitask | 0.4561 | 0.4561 | 0.4561 | 0.4561 | 0.4561 | 0.4561 |
|
311 |
+
| gte-multilingual-base | 0.5877 | 0.5877 | 0.5877 | 0.5877 | 0.5877 | 0.5877 |
|
312 |
+
| BGE-m3 | 0.6578 | 0.6578 | 0.6578 | 0.6578 | 0.6578 | 0.6578 |
|
313 |
+
| **BGE-m3-ko** | **0.7456** | **0.7456** | **0.7456** | **0.7456** | **0.7456** | **0.7456** |
|
314 |
+
|
315 |
+
- Top-k 3
|
316 |
+
|
317 |
+
| Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
|
318 |
+
|---------------------------------------|------------|------------|------------|------------|------------|------------|
|
319 |
+
| paraphrase-multilingual-mpnet-base-v2 | 0.2368 | 0.4737 | 0.1579 | 0.2032 | 0.2032 | 0.2712 |
|
320 |
+
| KoSimCSE-roberta | 0.3026 | 0.6053 | 0.2018 | 0.2661 | 0.2661 | 0.3515 |
|
321 |
+
| Cohere embed-multilingual-v3.0 | 0.2851 | 0.5702 | 0.1901 | 0.2515 | 0.2515 | 0.3321 |
|
322 |
+
| openai ada 002 | 0.3553 | 0.7105 | 0.2368 | 0.3202 | 0.3202 | 0.4186 |
|
323 |
+
| multilingual-e5-large-instruct | 0.3333 | 0.6667 | 0.2222 | 0.2909 | 0.2909 | 0.3856 |
|
324 |
+
| Upstage Embedding | 0.4211 | 0.8421 | 0.2807 | **0.3509** | **0.3509** | 0.4743 |
|
325 |
+
| paraphrase-multilingual-MiniLM-L12-v2 | 0.2061 | 0.4123 | 0.1374 | 0.1740 | 0.1740 | 0.2340 |
|
326 |
+
| openai_embed_3_small | 0.3640 | 0.7281 | 0.2427 | 0.3026 | 0.3026 | 0.4097 |
|
327 |
+
| ko-sroberta-multitask | 0.2939 | 0.5877 | 0.1959 | 0.2500 | 0.2500 | 0.3351 |
|
328 |
+
| openai_embed_3_large | 0.3947 | 0.7895 | 0.2632 | 0.3348 | 0.3348 | 0.4491 |
|
329 |
+
| KU-HIAI-ONTHEIT-large-v1 | 0.4386 | 0.8772 | 0.2924 | 0.3421 | 0.3421 | 0.4766 |
|
330 |
+
| KU-HIAI-ONTHEIT-large-v1.1 | 0.4430 | 0.8860 | 0.2953 | 0.3406 | 0.3406 | 0.4778 |
|
331 |
+
| kf-deberta-multitask | 0.3158 | 0.6316 | 0.2105 | 0.2792 | 0.2792 | 0.3679 |
|
332 |
+
| gte-multilingual-base | 0.4035 | 0.8070 | 0.2690 | 0.3450 | 0.3450 | 0.4614 |
|
333 |
+
| BGE-m3 | 0.4254 | 0.8508 | 0.2836 | 0.3421 | 0.3421 | 0.4701 |
|
334 |
+
| **BGE-m3-ko** | **0.4517** | **0.9035** | **0.3011** | 0.3494 | 0.3494 | **0.4886** |
|
335 |
+
|
336 |
+
- Top-k 5
|
337 |
+
|
338 |
+
| Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
|
339 |
+
|---------------------------------------|------------|------------|------------|------------|------------|------------|
|
340 |
+
| paraphrase-multilingual-mpnet-base-v2 | 0.1813 | 0.5439 | 0.1088 | 0.1575 | 0.1575 | 0.2491 |
|
341 |
+
| KoSimCSE-roberta | 0.2164 | 0.6491 | 0.1298 | 0.1751 | 0.1751 | 0.2873 |
|
342 |
+
| Cohere embed-multilingual-v3.0 | 0.2076 | 0.6228 | 0.1246 | 0.1640 | 0.1640 | 0.2731 |
|
343 |
+
| openai ada 002 | 0.2602 | 0.7807 | 0.1561 | 0.2139 | 0.2139 | 0.3486 |
|
344 |
+
| multilingual-e5-large-instruct | 0.2544 | 0.7632 | 0.1526 | 0.2194 | 0.2194 | 0.3487 |
|
345 |
+
| Upstage Embedding | 0.2982 | 0.8947 | 0.1789 | **0.2237** | **0.2237** | 0.3822 |
|
346 |
+
| paraphrase-multilingual-MiniLM-L12-v2 | 0.1637 | 0.4912 | 0.0982 | 0.1437 | 0.1437 | 0.2264 |
|
347 |
+
| openai_embed_3_small | 0.2690 | 0.8070 | 0.1614 | 0.2148 | 0.2148 | 0.3553 |
|
348 |
+
| ko-sroberta-multitask | 0.2164 | 0.6491 | 0.1298 | 0.1697 | 0.1697 | 0.2835 |
|
349 |
+
| openai_embed_3_large | 0.2807 | 0.8421 | 0.1684 | 0.2088 | 0.2088 | 0.3586 |
|
350 |
+
| KU-HIAI-ONTHEIT-large-v1 | 0.3041 | 0.9123 | 0.1825 | 0.2137 | 0.2137 | 0.3783 |
|
351 |
+
| KU-HIAI-ONTHEIT-large-v1.1 | **0.3099** | **0.9298** | **0.1860** | 0.2148 | 0.2148 | **0.3834** |
|
352 |
+
| kf-deberta-multitask | 0.2281 | 0.6842 | 0.1368 | 0.1724 | 0.1724 | 0.2939 |
|
353 |
+
| gte-multilingual-base | 0.2865 | 0.8596 | 0.1719 | 0.2096 | 0.2096 | 0.3637 |
|
354 |
+
| BGE-m3 | 0.4254 | 0.8508 | 0.2836 | 0.3421 | 0.3421 | 0.4701 |
|
355 |
+
| **BGE-m3-ko** | **0.3099** | **0.9298** | **0.1860** | 0.2098 | 0.2098 | 0.3793 |
|
356 |
+
|
357 |
+
- Top-k 10
|
358 |
+
|
359 |
+
| Model name | F1 | Recall | Precision | mAP | mRR | NDCG |
|
360 |
+
|---------------------------------------|------------|------------|------------|------------|------------|------------|
|
361 |
+
| paraphrase-multilingual-mpnet-base-v2 | 0.1212 | 0.6667 | 0.0667 | **0.1197** | **0.1197** | 0.2382 |
|
362 |
+
| KoSimCSE-roberta | 0.1324 | 0.7281 | 0.0728 | 0.1080 | 0.1080 | 0.2411 |
|
363 |
+
| Cohere embed-multilingual-v3.0 | 0.1324 | 0.7281 | 0.0728 | 0.1150 | 0.1150 | 0.2473 |
|
364 |
+
| openai ada 002 | 0.1563 | 0.8596 | 0.0860 | 0.1051 | 0.1051 | 0.2673 |
|
365 |
+
| multilingual-e5-large-instruct | 0.1483 | 0.8158 | 0.0816 | 0.0980 | 0.0980 | 0.2520 |
|
366 |
+
| Upstage Embedding | 0.1707 | 0.9386 | 0.0939 | 0.1078 | 0.1078 | 0.2848 |
|
367 |
+
| paraphrase-multilingual-MiniLM-L12-v2 | 0.1053 | 0.5789 | 0.0579 | 0.0961 | 0.0961 | 0.2006 |
|
368 |
+
| openai_embed_3_small | 0.1547 | 0.8509 | 0.0851 | 0.0984 | 0.0984 | 0.2593 |
|
369 |
+
| ko-sroberta-multitask | 0.1276 | 0.7018 | 0.0702 | 0.0986 | 0.0986 | 0.2275 |
|
370 |
+
| openai_embed_3_large | 0.1643 | 0.9035 | 0.0904 | 0.1180 | 0.1180 | 0.2855 |
|
371 |
+
| KU-HIAI-ONTHEIT-large-v1 | 0.1707 | 0.9386 | 0.0939 | 0.1105 | 0.1105 | 0.2860 |
|
372 |
+
| KU-HIAI-ONTHEIT-large-v1.1 | 0.1722 | 0.9474 | 0.0947 | 0.1033 | 0.1033 | 0.2822 |
|
373 |
+
| kf-deberta-multitask | 0.1388 | 0.7632 | 0.0763 | 0.1 | 0.1 | 0.2422 |
|
374 |
+
| gte-multilingual-base | 0.1675 | 0.9211 | 0.0921 | 0.1066 | 0.1066 | 0.2805 |
|
375 |
+
| BGE-m3 | 0.4254 | 0.8508 | 0.2836 | 0.3421 | 0.3421 | 0.4701 |
|
376 |
+
| **BGE-m3-ko** | **0.1770** | **0.9736** | **0.0974** | 0.1097 | 0.1097 | **0.2932** |
|
377 |
+
|
378 |
+
|
379 |
+
|
380 |
+
#### Information Retrieval
|
381 |
+
* Dataset: `miracl-ko` (https://github.com/project-miracl/miracl)
|
382 |
+
* miracl benchmark is a benchmark with a relatively short 3/4 quantile of string length of 220 on the Korean Wikidata set.
|
383 |
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
|
384 |
|
385 |
| Metric | Value |
|
|
|
396 |
| cosine_recall@3 | 0.5902 |
|
397 |
| cosine_recall@5 | 0.6794 |
|
398 |
| cosine_recall@10 | 0.7695 |
|
399 |
+
| **cosine_ndcg@10** | **0.6723** |
|
400 |
| cosine_mrr@10 | 0.7262 |
|
401 |
+
| cosine_map@100 | 0.6074 |
|
402 |
| dot_accuracy@1 | 0.6103 |
|
403 |
| dot_accuracy@3 | 0.8169 |
|
404 |
| dot_accuracy@5 | 0.8732 |
|
|
|
415 |
| dot_mrr@10 | 0.7262 |
|
416 |
| dot_map@100 | 0.6074 |
|
417 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
418 |
## Bias, Risks and Limitations
|
419 |
|
420 |
+
Since the evaluation results are different for each domain, it is necessary to compare and evaluate the model in your own domain. In the Miracl benchmark, the evaluation was conducted using the Korean Wikipedia as a corpus, and in this case, the cosine_ndcg@10 score dropped by 0.2 points after learning. However, in the Auto-RAG benchmark, which is a financial domain, the ndcg score increased by 0.9 when it was top 1. This model may be advantageous for use in a specific domain.
|
|
|
|
|
|
|
|
|
421 |
|
|
|
|
|
422 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
423 |
|
424 |
### Training Hyperparameters
|
425 |
#### Non-Default Hyperparameters
|
426 |
+
The batch size was referenced from the following paper: Text Embeddings by Weakly-Supervised Contrastive Pre-training (https://arxiv.org/pdf/2212.03533)
|
427 |
|
428 |
- `eval_strategy`: steps
|
429 |
+
- `per_device_train_batch_size`: 32768
|
430 |
+
- `per_device_eval_batch_size`: 32768
|
431 |
+
- `learning_rate`: 3e-05
|
432 |
- `warmup_ratio`: 0.03333333333333333
|
433 |
- `fp16`: True
|
434 |
- `batch_sampler`: no_duplicates
|
|
|
440 |
- `do_predict`: False
|
441 |
- `eval_strategy`: steps
|
442 |
- `prediction_loss_only`: True
|
443 |
+
- `per_device_train_batch_size`: 32768
|
444 |
+
- `per_device_eval_batch_size`: 32768
|
445 |
- `per_gpu_train_batch_size`: None
|
446 |
- `per_gpu_eval_batch_size`: None
|
447 |
- `gradient_accumulation_steps`: 1
|
448 |
- `eval_accumulation_steps`: None
|
449 |
+
- `learning_rate`: 3e-05
|
450 |
- `weight_decay`: 0.0
|
451 |
- `adam_beta1`: 0.9
|
452 |
- `adam_beta2`: 0.999
|
|
|
547 |
|
548 |
</details>
|
549 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
550 |
|
551 |
## Citation
|
552 |
|
|
|
564 |
url = "https://arxiv.org/abs/1908.10084",
|
565 |
}
|
566 |
```
|
567 |
+
```bibtex
|
568 |
+
@misc{bge-m3,
|
569 |
+
title={BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation},
|
570 |
+
author={Jianlv Chen and Shitao Xiao and Peitian Zhang and Kun Luo and Defu Lian and Zheng Liu},
|
571 |
+
year={2024},
|
572 |
+
eprint={2402.03216},
|
573 |
+
archivePrefix={arXiv},
|
574 |
+
primaryClass={cs.CL}
|
575 |
+
}
|
576 |
+
```
|
577 |
+
```bibtex
|
578 |
+
@article{wang2022text,
|
579 |
+
title={Text Embeddings by Weakly-Supervised Contrastive Pre-training},
|
580 |
+
author={Wang, Liang and Yang, Nan and Huang, Xiaolong and Jiao, Binxing and Yang, Linjun and Jiang, Daxin and Majumder, Rangan and Wei, Furu},
|
581 |
+
journal={arXiv preprint arXiv:2212.03533},
|
582 |
+
year={2022}
|
583 |
+
}
|
584 |
+
```
|
585 |
|
586 |
<!--
|
587 |
## Glossary
|