seongil-dn commited on
Commit
d22c037
·
verified ·
1 Parent(s): f786ab6

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,469 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:451949
8
+ - loss:CachedMultipleNegativesRankingLoss
9
+ base_model: BAAI/bge-m3
10
+ widget:
11
+ - source_sentence: 일본 재무성은 배우자의 연간 수입 상한액에 대해 얼마와 130만 엔 안을 제시했어?
12
+ sentences:
13
+ - 일본 정부는 저출산 대책을 강화할 재원 확보를 위해 기업의 육아지원 출연금을 증액하도록 경제계에 요구할 방침이다. 만약 이 방침이 실현되면
14
+ 기업의 부담금은 연 최대 1,000억 엔 규모로 확대되고, 확대된 재원은 맞벌이 가구나 다자녀 가구의 육아지원에 사용될 계획이다. 이번 조치는
15
+ 아베 신조 총리가 주도하는 ‘1억 총 활약 사회’ 실현을 위한 핵심 정책으로 활용될 계획이지만 경제계의 반발도 고려하지 않을 수 없는 상황이다.
16
+ 경단련과 경제동우회에는 이미 정부 방침이 전달되었는데, 아베 총리는 2015년 9월 말에 발표한 아베노믹스의 2단계 방편인 ‘새로운 세 개의
17
+ 화살’에서 현재 출산율인 1.4를 2020년대 중반까지 1.8로 상향시킨다는 목표를 밝힌 바 있다. 일본 정부가 기업에 요구하는 것은 연금특별회계의
18
+ 아동 및 육아지원 계정에 대한 출연금 증액인데, 정부 안에 따르면 현재 월급과 상여금의 0.15%인 기업출연금은 2016년부터는 0.20%로
19
+ 인상될 전망이다.
20
+ - 일본 재무성은 지금까지 배우자의 연간수입 상한액에 대해서 ‘150만 엔 안’과 ‘130만 엔 안’의 두 가지 안을 제시하였는데, 자민당의 세제조사회에서는
21
+ ‘150만 엔 안’이 효과가 높을 것이라는 의견이 대다수를 차지했다. ‘130만 엔 안’의 경우 배우자의 연간수입이 130만 엔을 넘으면 연금과
22
+ 의료보험의 사회보험료 부담이 발생하는 ‘130만 엔의 벽’과 중복되어, 수입을 그 이하로 줄이기 위해 근무시간을 줄일 가능성이 높아질 것으로
23
+ 판단하였다. 자민당의 세제조사회의 노다 최고 고문은 23일 BS후지방송에 방송된 프로그램에서 소득세가 공제되는 배우자의 연간수입 상한액을 150만
24
+ 엔으로 인상하는 것이 바람직하다는 입장을 표명하였다. 공명당 간부도 같은 날 ‘150만 엔 안’으로 인상하는 것을 우선적으로 검토하고 있다고
25
+ 밝혔다. 일본 재무성은 소득세가 공제되는 배우자의 연간수입 상한액을 150만 엔으로 인상할 경우, 360만 가구가 감세 혜택을 받게 되는 데에
26
+ 비해, 연간수입 상한액을 130만 엔으로 인상할 경우 감세 혜택을 받는 가구는 260만 가구에 머물 것으로 추계하였다.
27
+ - 지방자치단체의 행정에 인권개념을 도입하기 위해서는 우선 지속가능한 제도를 구축하는 것이 매우 중요하다. 제도에는 조례, 인력 또는 조직 등이
28
+ 포함된다. 지방자치단체 인권제도의 도입은 2002년 울산광역시에서 ‘인권교육 및 인권보호활동 추진에 관한 조례’ 제정운동을 시작으로 지방자치단체
29
+ 인권조례 운동이 모색되기 시작하였으며 2007년에는 경남 진주에서도 학계 연구자들과 시민단체 활동가들이 인권조례 제정활동을 벌이기 시작했다.
30
+ 두 번의 실패 끝에 결국 2009년 5월 광주광역시에서 전국 최초로 ‘광주광역시 민주・인권・평화도시 육성 조례’를 제정하면서 인권조례 제정활동이
31
+ 본격화된다. 2012년 국가인권위원회는 지역사회에서의 인권 보장 및 증진을 위하여 각 지자체의 장에게 인권 기본조례의 제・개정을 권고하며 인권제도의
32
+ 도입을 급격히 확산시키는 견인차 역할을 담당한다. 2019년 현재 총 104곳의 지방자치단체(광역자치단체 17곳, 기초자치단체 87곳)에서
33
+ 제정되었다.
34
+ - source_sentence: 경영방침을 자긍심을 심는 콘텐츠의 제작으로 정하여 실행해 나가는 방송사는 어디니?
35
+ sentences:
36
+ - 여기서 ‘사생활의 비밀’이란 사생활과 관련된 사사로운 자신만의 영역이 사회공동체의 일반적인 생활규범의 범위 내에서 본인의 의사에 반해서 타인에게
37
+ 알려지지 않도록 할 수 있는 권리를 말한다. 구체적으로는 (i) 본인의 의사에 반하여 감시, 도청, 비밀녹음, 비밀촬영 등에 의하여 사생활의
38
+ 비밀을 탐지하거나 사생활의 평온을 침입하여서는 아니 된다는 것, (ii) 사적 사항의 공개는 개인의 자율에 일임되어야 하며, 난처한 사사(私事)를
39
+ 무단으로 공개하여서는 아니 된다는 것, (iii) 허위의 사실을 공표하거나 사실을 과장 왜곡되게 공표하여 특정인을 진실과 다르게 인식하도록
40
+ 하여서는 아니 된다는 것, (iv) 성명, 초상, 경력 등이 사실과 일치하더라도 영리의 목적으로 사용하여서는 아니 된다는 것 등을 그 내용으로
41
+ 한다. 또 ‘사생활의 자유’란 사생활을 자유롭게 형성해 나가고, 그 설계 및 내용에 대해서 외부로부터의 간섭을 받지 않을 권리를 말한다. 이에는
42
+ 대체로 결혼, 피임, 낙태, 자녀의 양육, 교육, 성생활, 두발, 의복형태, 취미생활 등의 자유가 포함된다.
43
+ - 제가 이 자리에서 여러 번 강조합니다만 방송의 품질을 높이고 품격 있는 방송을 하도록 우리의 정책의지가 담겨 있어야 한다고 봅니다. 그래서
44
+ 가뜩이나 광고시장이 위축되고 있기 때문에 모든 방송사들이 시청률에 매달릴 수밖에 없는 실정입니다. 그러면 시청률은 그저 이목을 끌고 검증되지
45
+ 않는 자극적인 언사를 쓰는 방송프로그램에 더 시청률이 몰릴 수밖에 없습니다. 그런 유혹을 방송들이 철저하게 절제를 하면서 방송의 품격을 지켜
46
+ 나갈 수 있도록 우리가 그렇게 유도해야 하는 것입니다. 특히 출연진을 잘 검증하는 장치가 과연 방송사에서 자율적으로 잘 마련되어 있고, 또
47
+ 그것이 잘 이루어지고 있는지를 철저하게 점검하는 부분들을 반드시 방송사들이, 사업자들이 깨닫고 자정하는 노력이 있어야 할 것으로 봅니다. 그래서
48
+ 그런 부분에 대한 우리의 정책의지가 발휘될 수 있도록 다시 한 번 주문합니다. 이상입니다.
49
+ - 하지만 공정성 과 객관성 확보와 오보·막말 방지에 대한 우리 채널A의 의지는 그 어느 때보다 확고합니다. 지난해부터 그런 것들에 대해서 저뿐만
50
+ 아니라 많은 조직원들이 좀 더 강하게 문제제기를 하고 있고 고쳐 나가고 노력하고 있고, 그래서 제도적 완비에도 최선을 다하려고 노력하고 있습니다.
51
+ 채널A는 매년 3가지 경영방침을 정해서 이를 우선적으로 실천해 나가고 있습니다. 지난해 3대 경영방침 중 첫 번째가 퀄리티 저널리즘의 구현이었습니다.
52
+ 그리고 또 올해에는 역시 첫 번째가 채널A의 자긍심을 심는 콘텐츠를 만들자는 의미로 A 프라이드 콘텐츠의 확산을 우리 3대 경영방침으로 삼고
53
+ 있습니다. 또 새롭게 설정한 채널A의 4대 비전 가운데에서 제일 첫 번째가 품격을 담는 채널A이고 두 번째가 공정하고 건전한 여론을 담는 채널A입니다.
54
+ 이 모든 것들이 우리 채널A의 콘텐츠의 공정성과 객관성을 최대한 담고 오보와 막말을 모두 덜어내자는 의지의 표현이고 또 반드시 실천해 나가야
55
+ 되는 채널A의 숙제이자 목표입니다. 제도적으로도 보완과 개선을 계속 해 나가고 있습니다.
56
+ - source_sentence: 1999년에 구축한 국방조달관리정보체계를 토대로 하여 중앙조달 전자입찰체계를 개발운용하고 있는 기관은 어디야?
57
+ sentences:
58
+ - 국방부조달본부는 1995년‘전자거래 시범기관’으로 지정된 이후, 1999년 국방조달관리정보체계(DPAMIS)를 구축하고 이를 기반으로 중앙조달
59
+ 전자입찰체계를 개발운용하고 있으며, 부대조달을 포함한 전군 단일 전자입찰체계를 개발중에 있다. 국방조달행정의 편의성, 투명성 및 대민 서비스
60
+ 개선요구가 증대되는 등 전자상거래의 필요성이 제기됨에 따라 2000년 11월 중앙조달 전자입찰체계를 구축완료하고, 2001년 4월부터 소량·소액
61
+ 품목을 대상으로 부분적으로 전자입찰을 실시하였으며, 2002년부터는 비밀사업과 다자간 협상사업 및 법적으로 전자상거래가 제한되는 외자분야를
62
+ 제외한 전 품목을 대상으로 전자입찰을 시행하고 있다. 또한, 2002년부터는 2003년도 국방조달분야 전자입찰의 전면시행을 목표로 중앙조달
63
+ 전자입찰체계 확대·보완사업을 추진하고 있는 바, 이에는 부대조달 전자입찰체계 개발을 비롯하여 조달원 통합관리, 원가자료 획득 및 산정기능,
64
+ 제증명 신청 및 발급 등 민원 서비스체계가 포함되어 있다.
65
+ - 조달청은 정부ㆍ공공기관에서 필요한 물자와 용역 등을 제때 적정한 가격으로 구매ㆍ공급할 수 있게 하는 국가종합전자조달시스템(나라장터, www.g2b.go.kr)을
66
+ 구축ㆍ운영하고 있다. 이 서비스로 수요기관ㆍ조달업체 등록, 입찰, 계약, 검사, 대금 지급 등 정부ㆍ공공조달 전 과정을 인터넷으로 처리하고
67
+ 확인할 수 있다. 국가종합전자조달 서비스로 입찰, 계약, 지급 등 조달 업무 전 과정에 대한 온라인 처리, 진행 상황의 실시간 모니터링이 가능해졌으며,
68
+ 2003년 서비스 개시 이후 전자입찰을 통한 거래 실적이 매년 증가하는 추세다. 2017년에는 국가종합조달서비스의 안정적인 운영과 전문성을
69
+ 확보하기 위한 전자조달센터를 지정해RFID 등 8개 시스템의 운영ㆍ유지보수 사업에 대한 전자조달지원센터 지정과 이관을 추진했다. 조달통계에
70
+ 관한 빅데이터 분석 시스템을 구축해 공공조달업무 효율화를 지원하고, 향상된 보안성으로 빠른 실행을 지원하는 안전입찰 2.0을 도입함으로써 이용자
71
+ 만족도 및 보안성을 높이고 있다.
72
+ - 북한 핵전략에 대한 연구는 어떤 효과를 갖는가. 우선 북한의 핵전략을 파악함으로써 북한의 핵위협에 대해 보다 효과적인 군사적 대응이 가능하게
73
+ 된다. 현재 우리는 북한의 핵전략에 대해 지극히 초보적인 지식만을 갖고 있으며, 따라서 이에 대한 대응책도 유효하거나 충분치 않을 가능성이
74
+ 높다. 북한의 핵전략을 파악한다는 것은 북한이 핵무기의 수량을 얼마나 증대할 것인지, 핵무기의 종류와 핵무기를 어떤 상황에서 사용할 것인지,
75
+ 핵무기를 어떤 용도로 사용할 것인지를 이해하는 것이다. 이렇게 북한의 핵전략을 이해할 때, 북한의 핵사용 또는 핵사용 위협을 성공적으로 억제할
76
+ 가능성도 높아질 것이다. 또한 북한의 핵전략에 대한 이해는 우리의 대북정책 또는 북핵정책에 큰 영향을 미칠 것이다. 사실 현재 북핵에 대한
77
+ 국내의 논의는 대부분 북핵을 어떻게 정치‧외교적으로 제거할 것인지에 대한 비핵화문제에 집중된다. 학계에서 북한의 핵무기 사용과 사용위협에 대한
78
+ 군사안보적 대응에 대한 연구와 논의는 거의 전무하거나, 매우 초보적인 단계에 머물고 있다고 해도 과언이 아니다.
79
+ - source_sentence: 1960년부터 1970년대 사회주의권은 물론 비사회주의권의 개발도상국을 지원하며 제3세계 리더 역할을 한 국가는
80
+ 어디니?
81
+ sentences:
82
+ - 1974년 포르투갈에서부터 시작한 민주화의 제3의 물결은 남유럽과 중남미를 거쳐 아시아, 동유럽, 아프리카 등으로 20여 년 동안 확산되었다.
83
+ 1980년대 말 냉전의 해체는 이러한 민주화의 물결이 붕괴한 사회주의 국가들에게도 영향을 미쳐 자본주의를 기반으로 한 민주주의와 경쟁할 정치체제는
84
+ 역사상 더 이상 존재하지 않을 것임을 선포하게 했다. 하지만 새로운 세기에 접어들어 모두를 의아하게 만든 현실은 여전히 지금도 전 세계 절반
85
+ 이상의 국가들이 민주주의가 아닌 권위주의 체제를 유지하고 있는 것이었다. 권위주의 체제의 붕괴는 당연히 민주주의 체제의 수립으로 이어질 것이라는
86
+ 낙관적 사고에 커다란 의구심을 던지게 만든 현실이자, 기존 권위주의 체제가 붕괴하고 새로이 등장하는 체제가 또 다른 유형의 권위주의일 수 있음을
87
+ 깨닫게 해준 현실이었다. 대표적으로 사회주의권 붕괴 이후 동유럽에 등장한 정치체제의 다수는 구 공산당 간부들에 의해 지배되는 새로운 유형의
88
+ 권위주의 체제이거나 벨라루스, 우즈베키스탄, 아제르바이잔처럼 사회주의 국가 시절보다 더 폭압적인 독재체제였다.
89
+ - 정부는 성장동력 확충과 사회문제 해결에 필요한 국가 전략기술 분야를 집중적으로 지원하기 위해 「국가전략프로젝트」 사업을 신규로 추진할 계획이다.
90
+ 동 사업은 「성장동력 분야」와 「삶의 질 및 국민행복 분야」의 9개 프로젝트로 구성된다. 성장동력 분야는 자율주행차 ․ 스마트시티 ․ 가상증강현실
91
+ ․ 경량소재 ․ 인공지능 등 5개 프로젝트가, 삶의 질 및 국민행복 분야는 미세먼지 ․ 탄소자원화 ․ 정밀의료 ․ 바이오 신약 등 4개 프로젝트가
92
+ 포함된다. 미래창조과학부는 국가전략프로젝트 사업의 총사업비를 약 1조 6,000억원으로 예상하고 있다. 2017년 예산안은 300억원이며,
93
+ 프로젝트별 예산은 7개 부처의 예산안에 편성되어 있다. 9개 프로젝트 중 예비타당성조사가 진행 중인 5개 프로젝트의 예산은 세부시행계획 수립비용으로
94
+ 편성하였다.
95
+ - '1960~70년대 중국은 제3세계의 리더로서 특히 아프리카 신생독립국을 포함한 사회주의권은 물론 비사회주의권 개발도상국을 지원했다. 1960년
96
+ 최초로 기니에 무이자 차관을 제공했으며 1960년대 후반 탄자니아와 잠비아를 연결하는 철로를 건설하는 등 제3세계 원조를 위한 물자와 인력을
97
+ 제공했다, 쿠웨이트, 사우디아라비아, 아랍에미리트 등의 중동 이슬람 국가들은 1970년대 이후부터 중동 국가 결속을 위한 지역 차원의 지원을
98
+ 시작했다. 쿠웨이트, 사우디아라비아, 아랍에미리트 등의 중동 이슬람 국가들은 1970년대 이후부터 중동 국가 결속을 위한 지역 차원의 지원을
99
+ 시작했다. 1961년 쿠웨이트는 아랍경제개발펀드(The Kuwait Fund for Arab Economic Development)를 설립했으며,
100
+ 1970년 중반 이후 이슬람개발은행(IsDB: Islamic Development Bank)과 아랍경제개발은행(BADEA: Arab Bank
101
+ for Economic Development in Africa) 등을 운영했다.'
102
+ - source_sentence: 실제적 발달 수준과 잠재적 발단 수준 사이를 역동적인 공간으로 이야기하는 영역은 뭐야?
103
+ sentences:
104
+ - 세 번째는 비공식적 및 공식적 지원 관점으로 아동기를 역동적인 관계의 복합체로 인식하며, 역동적인 상호관계는 만족스럽고 성공적인 아동기에 필수요소이다.
105
+ 이러한 상호관계의 범위는 아동 양육과 보호의 주 제공자인 부모에서부터 아동 권리를 최종적으로 보장하는 역할을 하는 국가에까지 이른다. 아동에게
106
+ 필수적인 지원과 서비스는 가족의 사회 관계망 및 가족과 지역사회를 통한 비공식적 지원이나 제 3섹터 및 영리 부문 및 국가와 기관들을 통한
107
+ 공식적 지원으로 전달된다. 비공식적 및 공식적 지원은 아동이 필요로 하고 혜택을 받을 수 있는 지원과 서비스를 가능하게 하는 전달자 역할을
108
+ 한다. 이러한 ‘사회적 자본’을 지원하는 것이 국가 아동 전략의 핵심 주제이다. 이렇게 다양하고 서로 상호작용하는 지원의 원천으로부터 아동은
109
+ 앞서 말한 9개의 발달 영역에서 성장하기 위한 도움을 받는다. 모든 아동은 좋은 교육과 양질의 의료 서비스에 대한 접근권 등 기본적인 지원과
110
+ 서비스를 필요로 한다. 일부 아동은 빈곤이나 장애, 소수 인종 및 문화 집단, 양육과 보호의 필요성, 비행 및 자해 행동 등을 이유로 추가적인
111
+ 지원과 서비스를 필요로 한다.
112
+ - '하브루타에 임하는 학생들의 태도는 다양하다. 기본적인 학습에 대한 참여율에 따라 상당한 차이를 보인다. 앞에서 언급한 인재시교에 다다를 때까지
113
+ 기다려주고 관심가져주며, 칭찬과 극려의 말로 지지 할 수 있어야 한다. 비고츠키(Vygotsky)는 근접 발달영역(the zone of proximal
114
+ development: ZPD)을“독자적으로 문제를 해결함으로써 결정되는 실제적 발달 수준과 성인의 안내나 보다 능력 있는 또래들과 협동하여
115
+ 문제를 해결함으로써 결정되는 잠재적 발달 수준 간의 거리”로 규정한다. 근접발달 영역(the zone of proximal development)은
116
+ 실제적 발달 수준(actualdevelopmental level)과 잠재적 발달수준(potential developmental level)사이를
117
+ 역동적인 공간으로 이야기 한다. 즉 하브루타는 소속한 학습자(친구) 상호작용을 통하여 잠재적 발달수준(potential developmental
118
+ level)까지 도달하는 것이다. 이러한 작용에 꼭 필요한 것 중 하나는 학습자가 수업에 임하는 태도이다. 즉 학습자의 동기부여를 어떻게 불러일으킬
119
+ 수 있느냐가 관권이다.'
120
+ - KTR이 영국의 CE인증기관인 HPi Verification Service Ltd(이하 HPiVS) 와 협력을 강화하기로 했다. 최형기 KTR
121
+ 원장과 Mr. Alasdair Lewis Reay HPiVS 원장은 유럽으로 수출하는 압력플랜트 설비, 용접, 산업용 기계류에 대한 CE인증업무
122
+ 협력을 위해 11월 25일 과천청사 5층 아리랑홀에서 협약을 체결했다. KTR은 국내 압력장비 및 기계류 인증 관련 업계의 인증 수요가 증가함에
123
+ 따라, 현지 기관과의 업무협력을 강화해 인증사업 체계를 확립하기 위해 협약을 체결했다. 협약 체결 후 HPiVS는 KTR 과천청사 내 주요
124
+ 시험실을 견학하며 연구원 현황을 파악하고 KTR과의 사업 협력 방안에 대해 논의하는 시간을 가졌다. HPiVS는 유럽위원회로부터 인정받은 영국의
125
+ 유럽 인증기관으로서 플랜트 압력설비, 산업용 기계류, 레저용 장비, 단순압력장비 4개 제품군의 CE인증 권한을 지니고 있다.
126
+ pipeline_tag: sentence-similarity
127
+ library_name: sentence-transformers
128
+ ---
129
+
130
+ # SentenceTransformer based on BAAI/bge-m3
131
+
132
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
133
+
134
+ ## Model Details
135
+
136
+ ### Model Description
137
+ - **Model Type:** Sentence Transformer
138
+ - **Base model:** [BAAI/bge-m3](https://huggingface.co/BAAI/bge-m3) <!-- at revision 5617a9f61b028005a4858fdac845db406aefb181 -->
139
+ - **Maximum Sequence Length:** 1024 tokens
140
+ - **Output Dimensionality:** 1024 tokens
141
+ - **Similarity Function:** Cosine Similarity
142
+ <!-- - **Training Dataset:** Unknown -->
143
+ <!-- - **Language:** Unknown -->
144
+ <!-- - **License:** Unknown -->
145
+
146
+ ### Model Sources
147
+
148
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
149
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
150
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
151
+
152
+ ### Full Model Architecture
153
+
154
+ ```
155
+ SentenceTransformer(
156
+ (0): Transformer({'max_seq_length': 1024, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
157
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
158
+ (2): Normalize()
159
+ )
160
+ ```
161
+
162
+ ## Usage
163
+
164
+ ### Direct Usage (Sentence Transformers)
165
+
166
+ First install the Sentence Transformers library:
167
+
168
+ ```bash
169
+ pip install -U sentence-transformers
170
+ ```
171
+
172
+ Then you can load this model and run inference.
173
+ ```python
174
+ from sentence_transformers import SentenceTransformer
175
+
176
+ # Download from the 🤗 Hub
177
+ model = SentenceTransformer("seongil-dn/bge-m3-kor-retrieval-451949-bs64-book-50")
178
+ # Run inference
179
+ sentences = [
180
+ '실제적 발달 수준과 잠재적 발단 수준 사이를 역동적인 공간으로 이야기하는 영역은 뭐야?',
181
+ '하브루타에 임하는 학생들의 태도는 다양하다. 기본적인 학습에 대한 참여율에 따라 상당한 차이를 보인다. 앞에서 언급한 인재시교에 다다를 때까지 기다려주고 관심가져주며, 칭찬과 극려의 말로 지지 할 수 있어야 한다. 비고츠키(Vygotsky)는 근접 발달영역(the zone of proximal development: ZPD)을“독자적으로 문제를 해결함으로써 결정되는 실제적 발달 수준과 성인의 안내나 보다 능력 있는 또래들과 협동하여 문제를 해결함으로써 결정되는 잠재적 발달 수준 간의 거리”로 규정한다. 근접발달 영역(the zone of proximal development)은 실제적 발달 수준(actualdevelopmental level)과 잠재적 발달수준(potential developmental level)사이를 역동적인 공간으로 이야기 한다. 즉 하브루타는 소속한 학습자(친구) 상호작용을 통하여 잠재적 발달수준(potential developmental level)까지 도달하는 것이다. 이러한 작용에 꼭 필요한 것 중 하나는 학습자가 수업에 임하는 태도이다. 즉 학습자의 동기부여를 어떻게 불러일으킬 수 있느냐가 관권이다.',
182
+ '세 번째는 비공식적 및 공식적 지원 관점으로 아동기를 역동적인 관계의 복합체로 인식하며, 역동적인 상호관계는 만족스럽고 성공적인 아동기에 필수요소이다. 이러한 상호관계의 범위는 아동 양육과 보호의 주 제공자인 부모에서부터 아동 권리를 최종적으로 보장하는 역할을 하는 국가에까지 이른다. 아동에게 필수적인 지원과 서비스는 가족의 사회 관계망 및 가족과 지역사회를 통한 비공식적 지원이나 제 3섹터 및 영리 부문 및 국가와 기관들을 통한 공식적 지원으로 전달된다. 비공식적 및 공식적 지원은 아동이 필요로 하고 혜택을 받을 수 있는 지원과 서비스를 가능하게 하는 전달자 역할을 한다. 이러한 ‘사회적 자본’을 지원하는 것이 국가 아동 전략의 핵심 주제이다. 이렇게 다양하고 서로 상호작용하는 지원의 원천으로부터 아동은 앞서 말한 9개의 발달 영역에서 성장하기 위한 도움을 받는다. 모든 아동은 좋은 교육과 양질의 의료 서비스에 대한 접근권 등 기본적인 지원과 서비스를 필요로 한다. 일부 아동은 빈곤이나 장애, 소수 인종 및 문화 집단, 양육과 보호의 필요성, 비행 및 자해 행동 등을 이유로 추가적인 지원과 서비스를 필요로 한다.',
183
+ ]
184
+ embeddings = model.encode(sentences)
185
+ print(embeddings.shape)
186
+ # [3, 1024]
187
+
188
+ # Get the similarity scores for the embeddings
189
+ similarities = model.similarity(embeddings, embeddings)
190
+ print(similarities.shape)
191
+ # [3, 3]
192
+ ```
193
+
194
+ <!--
195
+ ### Direct Usage (Transformers)
196
+
197
+ <details><summary>Click to see the direct usage in Transformers</summary>
198
+
199
+ </details>
200
+ -->
201
+
202
+ <!--
203
+ ### Downstream Usage (Sentence Transformers)
204
+
205
+ You can finetune this model on your own dataset.
206
+
207
+ <details><summary>Click to expand</summary>
208
+
209
+ </details>
210
+ -->
211
+
212
+ <!--
213
+ ### Out-of-Scope Use
214
+
215
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
216
+ -->
217
+
218
+ <!--
219
+ ## Bias, Risks and Limitations
220
+
221
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
222
+ -->
223
+
224
+ <!--
225
+ ### Recommendations
226
+
227
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
228
+ -->
229
+
230
+ ## Training Details
231
+
232
+ ### Training Hyperparameters
233
+ #### Non-Default Hyperparameters
234
+
235
+ - `per_device_train_batch_size`: 64
236
+ - `learning_rate`: 3e-05
237
+ - `num_train_epochs`: 1
238
+ - `max_steps`: 50
239
+ - `warmup_ratio`: 0.05
240
+ - `fp16`: True
241
+ - `batch_sampler`: no_duplicates
242
+
243
+ #### All Hyperparameters
244
+ <details><summary>Click to expand</summary>
245
+
246
+ - `overwrite_output_dir`: False
247
+ - `do_predict`: False
248
+ - `eval_strategy`: no
249
+ - `prediction_loss_only`: True
250
+ - `per_device_train_batch_size`: 64
251
+ - `per_device_eval_batch_size`: 8
252
+ - `per_gpu_train_batch_size`: None
253
+ - `per_gpu_eval_batch_size`: None
254
+ - `gradient_accumulation_steps`: 1
255
+ - `eval_accumulation_steps`: None
256
+ - `torch_empty_cache_steps`: None
257
+ - `learning_rate`: 3e-05
258
+ - `weight_decay`: 0.0
259
+ - `adam_beta1`: 0.9
260
+ - `adam_beta2`: 0.999
261
+ - `adam_epsilon`: 1e-08
262
+ - `max_grad_norm`: 1.0
263
+ - `num_train_epochs`: 1
264
+ - `max_steps`: 50
265
+ - `lr_scheduler_type`: linear
266
+ - `lr_scheduler_kwargs`: {}
267
+ - `warmup_ratio`: 0.05
268
+ - `warmup_steps`: 0
269
+ - `log_level`: passive
270
+ - `log_level_replica`: warning
271
+ - `log_on_each_node`: True
272
+ - `logging_nan_inf_filter`: True
273
+ - `save_safetensors`: True
274
+ - `save_on_each_node`: False
275
+ - `save_only_model`: False
276
+ - `restore_callback_states_from_checkpoint`: False
277
+ - `no_cuda`: False
278
+ - `use_cpu`: False
279
+ - `use_mps_device`: False
280
+ - `seed`: 42
281
+ - `data_seed`: None
282
+ - `jit_mode_eval`: False
283
+ - `use_ipex`: False
284
+ - `bf16`: False
285
+ - `fp16`: True
286
+ - `fp16_opt_level`: O1
287
+ - `half_precision_backend`: auto
288
+ - `bf16_full_eval`: False
289
+ - `fp16_full_eval`: False
290
+ - `tf32`: None
291
+ - `local_rank`: 0
292
+ - `ddp_backend`: None
293
+ - `tpu_num_cores`: None
294
+ - `tpu_metrics_debug`: False
295
+ - `debug`: []
296
+ - `dataloader_drop_last`: True
297
+ - `dataloader_num_workers`: 0
298
+ - `dataloader_prefetch_factor`: None
299
+ - `past_index`: -1
300
+ - `disable_tqdm`: False
301
+ - `remove_unused_columns`: True
302
+ - `label_names`: None
303
+ - `load_best_model_at_end`: False
304
+ - `ignore_data_skip`: False
305
+ - `fsdp`: []
306
+ - `fsdp_min_num_params`: 0
307
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
308
+ - `fsdp_transformer_layer_cls_to_wrap`: None
309
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
310
+ - `deepspeed`: None
311
+ - `label_smoothing_factor`: 0.0
312
+ - `optim`: adamw_torch
313
+ - `optim_args`: None
314
+ - `adafactor`: False
315
+ - `group_by_length`: False
316
+ - `length_column_name`: length
317
+ - `ddp_find_unused_parameters`: None
318
+ - `ddp_bucket_cap_mb`: None
319
+ - `ddp_broadcast_buffers`: False
320
+ - `dataloader_pin_memory`: True
321
+ - `dataloader_persistent_workers`: False
322
+ - `skip_memory_metrics`: True
323
+ - `use_legacy_prediction_loop`: False
324
+ - `push_to_hub`: False
325
+ - `resume_from_checkpoint`: None
326
+ - `hub_model_id`: None
327
+ - `hub_strategy`: every_save
328
+ - `hub_private_repo`: False
329
+ - `hub_always_push`: False
330
+ - `gradient_checkpointing`: False
331
+ - `gradient_checkpointing_kwargs`: None
332
+ - `include_inputs_for_metrics`: False
333
+ - `eval_do_concat_batches`: True
334
+ - `fp16_backend`: auto
335
+ - `push_to_hub_model_id`: None
336
+ - `push_to_hub_organization`: None
337
+ - `mp_parameters`:
338
+ - `auto_find_batch_size`: False
339
+ - `full_determinism`: False
340
+ - `torchdynamo`: None
341
+ - `ray_scope`: last
342
+ - `ddp_timeout`: 1800
343
+ - `torch_compile`: False
344
+ - `torch_compile_backend`: None
345
+ - `torch_compile_mode`: None
346
+ - `dispatch_batches`: None
347
+ - `split_batches`: None
348
+ - `include_tokens_per_second`: False
349
+ - `include_num_input_tokens_seen`: False
350
+ - `neftune_noise_alpha`: None
351
+ - `optim_target_modules`: None
352
+ - `batch_eval_metrics`: False
353
+ - `eval_on_start`: False
354
+ - `eval_use_gather_object`: False
355
+ - `batch_sampler`: no_duplicates
356
+ - `multi_dataset_batch_sampler`: proportional
357
+
358
+ </details>
359
+
360
+ ### Training Logs
361
+ | Epoch | Step | Training Loss |
362
+ |:------:|:----:|:-------------:|
363
+ | 0.0019 | 1 | 0.9318 |
364
+ | 0.0037 | 2 | 0.9071 |
365
+ | 0.0056 | 3 | 0.9399 |
366
+ | 0.0075 | 4 | 0.8293 |
367
+ | 0.0094 | 5 | 0.7001 |
368
+ | 0.0112 | 6 | 0.6959 |
369
+ | 0.0131 | 7 | 0.5847 |
370
+ | 0.0150 | 8 | 0.4753 |
371
+ | 0.0169 | 9 | 0.5343 |
372
+ | 0.0187 | 10 | 0.4751 |
373
+ | 0.0206 | 11 | 0.4502 |
374
+ | 0.0225 | 12 | 0.4661 |
375
+ | 0.0243 | 13 | 0.4421 |
376
+ | 0.0262 | 14 | 0.4721 |
377
+ | 0.0281 | 15 | 0.4191 |
378
+ | 0.0300 | 16 | 0.4317 |
379
+ | 0.0318 | 17 | 0.4206 |
380
+ | 0.0337 | 18 | 0.3953 |
381
+ | 0.0356 | 19 | 0.3775 |
382
+ | 0.0375 | 20 | 0.307 |
383
+ | 0.0393 | 21 | 0.3553 |
384
+ | 0.0412 | 22 | 0.3592 |
385
+ | 0.0431 | 23 | 0.341 |
386
+ | 0.0449 | 24 | 0.4565 |
387
+ | 0.0468 | 25 | 0.3349 |
388
+ | 0.0487 | 26 | 0.3669 |
389
+ | 0.0506 | 27 | 0.35 |
390
+ | 0.0524 | 28 | 0.348 |
391
+ | 0.0543 | 29 | 0.3434 |
392
+ | 0.0562 | 30 | 0.3778 |
393
+ | 0.0581 | 31 | 0.3134 |
394
+ | 0.0599 | 32 | 0.3695 |
395
+ | 0.0618 | 33 | 0.3719 |
396
+ | 0.0637 | 34 | 0.3299 |
397
+ | 0.0655 | 35 | 0.3336 |
398
+ | 0.0674 | 36 | 0.3491 |
399
+ | 0.0693 | 37 | 0.3609 |
400
+ | 0.0712 | 38 | 0.2784 |
401
+ | 0.0730 | 39 | 0.3002 |
402
+ | 0.0749 | 40 | 0.3753 |
403
+ | 0.0768 | 41 | 0.26 |
404
+ | 0.0787 | 42 | 0.2543 |
405
+ | 0.0805 | 43 | 0.274 |
406
+ | 0.0824 | 44 | 0.2681 |
407
+ | 0.0843 | 45 | 0.2977 |
408
+ | 0.0861 | 46 | 0.281 |
409
+ | 0.0880 | 47 | 0.2937 |
410
+ | 0.0899 | 48 | 0.2997 |
411
+ | 0.0918 | 49 | 0.3303 |
412
+ | 0.0936 | 50 | 0.2493 |
413
+
414
+
415
+ ### Framework Versions
416
+ - Python: 3.10.12
417
+ - Sentence Transformers: 3.2.1
418
+ - Transformers: 4.44.2
419
+ - PyTorch: 2.3.1+cu121
420
+ - Accelerate: 1.1.1
421
+ - Datasets: 2.21.0
422
+ - Tokenizers: 0.19.1
423
+
424
+ ## Citation
425
+
426
+ ### BibTeX
427
+
428
+ #### Sentence Transformers
429
+ ```bibtex
430
+ @inproceedings{reimers-2019-sentence-bert,
431
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
432
+ author = "Reimers, Nils and Gurevych, Iryna",
433
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
434
+ month = "11",
435
+ year = "2019",
436
+ publisher = "Association for Computational Linguistics",
437
+ url = "https://arxiv.org/abs/1908.10084",
438
+ }
439
+ ```
440
+
441
+ #### CachedMultipleNegativesRankingLoss
442
+ ```bibtex
443
+ @misc{gao2021scaling,
444
+ title={Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup},
445
+ author={Luyu Gao and Yunyi Zhang and Jiawei Han and Jamie Callan},
446
+ year={2021},
447
+ eprint={2101.06983},
448
+ archivePrefix={arXiv},
449
+ primaryClass={cs.LG}
450
+ }
451
+ ```
452
+
453
+ <!--
454
+ ## Glossary
455
+
456
+ *Clearly define terms in order to be accessible across audiences.*
457
+ -->
458
+
459
+ <!--
460
+ ## Model Card Authors
461
+
462
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
463
+ -->
464
+
465
+ <!--
466
+ ## Model Card Contact
467
+
468
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
469
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "bge-m3-kor-retrieval-451949-bs64-book/checkpoint-50",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 8194,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.2.1",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.3.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:2efa20fec5f8756fa7f341d6d7c4d0b204140ad916f79b13a6fdd8905273654a
3
+ size 2271064456
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 1024,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6e3b8957de04e3a4ed42b1a11381556f9adad8d0d502b9dd071c75f626b28f40
3
+ size 17083053
tokenizer_config.json ADDED
@@ -0,0 +1,62 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 1024,
50
+ "model_max_length": 1024,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "sp_model_kwargs": {},
57
+ "stride": 0,
58
+ "tokenizer_class": "XLMRobertaTokenizer",
59
+ "truncation_side": "right",
60
+ "truncation_strategy": "longest_first",
61
+ "unk_token": "<unk>"
62
+ }