metadata
license: openrail
language:
- multilingual
- af
- am
- ar
- as
- az
- be
- bg
- bn
- br
- bs
- ca
- cs
- cy
- da
- de
- el
- en
- eo
- es
- et
- eu
- fa
- fi
- fr
- fy
- ga
- gd
- gl
- gu
- ha
- he
- hi
- hr
- hu
- hy
- id
- is
- it
- ja
- jv
- ka
- kk
- km
- kn
- ko
- ku
- ky
- la
- lo
- lt
- lv
- mg
- mk
- ml
- mn
- mr
- ms
- my
- ne
- nl
- 'no'
- om
- or
- pa
- pl
- ps
- pt
- ro
- ru
- sa
- sd
- si
- sk
- sl
- so
- sq
- sr
- su
- sv
- sw
- ta
- te
- th
- tl
- tr
- ug
- uk
- ur
- uz
- vi
- xh
- yi
datasets:
- Hello-SimpleAI/HC3
metrics:
- f1
pipeline_tag: text-classification
widget:
- text: >-
La Guerra Civil Española, que tuvo lugar entre 1936 y 1939, fue un
conflicto sangriento y divisivo en el que se enfrentaron las fuerzas
republicanas y las fuerzas nacionalistas lideradas por Francisco Franco.
El origen de la guerra se remonta a las tensiones políticas y sociales que
se habían ido acumulando en España durante años, incluyendo la lucha entre
la izquierda y la derecha, el descontento popular con el gobierno y la
crisis económica.
El estallido de la guerra civil se produjo después de las elecciones de
febrero de 1936, en
- text: >-
Cristóbal Colón fue un navegante, cartógrafo y almirante español que llevó
a cabo cuatro viajes transatlánticos entre 1492 y 1504. Es conocido por
haber sido el primer europeo en llegar a América, aunque en realidad no
fue el primer ser humano en alcanzar el continente, ya que los pueblos
indígenas ya habitaban allí desde hacía miles de años.
Colón nació en la ciudad italiana de Génova en 1451. Aunque no se sabe con
certeza dónde recibió su formación, se cree que tuvo una educación
marinera y cartográfica. A mediados de la década de 1470, se trasladó a
España, donde trabajó como piloto y cartógrafo para la Casa de
Contratación de las Indias, una institución encargada de las relaciones
comerciales entre España y América.
- text: >-
Para usar un modelo pre-entrenado de la pipeline de clasificación de texto
de Hugging Face, primero debe instalar la última versión de la biblioteca
Hugging Face utilizando el comando !pip install transformers en su
terminal o consola.
XLM-RoBERTa (base) fine-tuned on HC3 for ChatGPT text detection
XLM-RoBERTa (base) fine-tuned on Hello-SimpleAI HC3 corpus for ChatGPT text detection.
All credit to Hello-SimpleAI for their huge work!
F1 score on test dataset: 0.9736
The model
XLM-RoBERTa model pre-trained on 2.5TB of filtered CommonCrawl data containing 100 languages. It was introduced in the paper Unsupervised Cross-lingual Representation Learning at Scale by Conneau et al. and first released in this repository.
The dataset
Human ChatGPT Comparison Corpus (HC3)
The first human-ChatGPT comparison corpus, named HC3 dataset by Hello-SimpleAI
This dataset is introduced in the paper:
Metrics
metric | value |
---|---|
F1 | 0.9736 |
Usage
from transformers import pipeline
ckpt = "mrm8488/xlm-roberta-base-finetuned-HC3-mix"
detector = pipeline('text-classification', model=ckpt)
text = "Here your text..."
result = detector(text)
print(result)
Citation
@misc {manuel_romero_2023,
author = { {Manuel Romero} },
title = { xlm-roberta-base-finetuned-HC3-mix (Revision b18de48) },
year = 2023,
url = { https://huggingface.co/mrm8488/xlm-roberta-base-finetuned-HC3-mix },
doi = { 10.57967/hf/0306 },
publisher = { Hugging Face }
}