Update README.md
Browse files# KLUE RoBERTa Large KorQuAD v1 QA - Fine-tuned
이 모델은 [CurtisJeon/klue-roberta-large-korquad_v1_qa](https://huggingface.co/CurtisJeon/klue-roberta-large-korquad_v1_qa)를 기반으로 하여 추가 데이터로 fine-tuning한 한국어 질의응답(QA) 모델입니다.
## 모델 정보
- 기본 모델: KLUE RoBERTa Large
- 태스크: 질의응답 (Question Answering)
- 언어: 한국어
- 훈련 데이터: KorQuAD v1 + [자체 데이터]
## 모델 구조
- RobertaForQuestionAnswering 아키텍처 사용 + CNN 레이어(without a dropout)
- 24개의 hidden layers
- 1024 hidden size
- 16 attention heads
- 총 파라미터: 약 355M
## 사용 방법
이 모델은 Hugging Face Transformers 라이브러리를 사용하여 쉽게 로드하고 사용할 수 있습니다:
```python
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = "YOUR_USERNAME/klue-roberta-large-korquad-v1-qa-finetuned"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
@@ -1,3 +1,10 @@
|
|
1 |
-
---
|
2 |
-
license: unknown
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: unknown
|
3 |
+
datasets:
|
4 |
+
- KorQuAD/squad_kor_v1
|
5 |
+
language:
|
6 |
+
- ko
|
7 |
+
base_model:
|
8 |
+
- CurtisJeon/klue-roberta-large-korquad_v1_qa
|
9 |
+
pipeline_tag: question-answering
|
10 |
+
---
|