File size: 1,223 Bytes
bc4102c
 
 
 
 
 
 
 
 
290cf7e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
c745575
290cf7e
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
---
license: unknown
datasets:
- KorQuAD/squad_kor_v1
language:
- ko
base_model:
- CurtisJeon/klue-roberta-large-korquad_v1_qa
pipeline_tag: question-answering
---

# KLUE RoBERTa Large KorQuAD v1 QA - Fine-tuned

이 모델은 [CurtisJeon/klue-roberta-large-korquad_v1_qa](https://huggingface.co/CurtisJeon/klue-roberta-large-korquad_v1_qa)를 기반으로 하여 추가 데이터로 fine-tuning한 한국어 질의응답(QA) 모델입니다.

## 모델 정보

- 기본 모델: KLUE RoBERTa Large
- 태스크: 질의응답 (Question Answering)
- 언어: 한국어
- 훈련 데이터: KorQuAD v1 + [자체 데이터]

## 모델 구조

- RobertaForQuestionAnswering 아키텍처 사용 + CNN 레이어(without a dropout)
- 24개의 hidden layers
- 1024 hidden size
- 16 attention heads
- 총 파라미터: 약 355M


## 사용 방법

이 모델은 Hugging Face Transformers 라이브러리를 사용하여 쉽게 로드하고 사용할 수 있습니다:

```python
from transformers import AutoModelForQuestionAnswering, AutoTokenizer

model_name = "HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)