fashion-clip / app.py
Saad0KH's picture
Update app.py
9923328 verified
raw
history blame
1.16 kB
import gradio as gr
from transformers import AutoProcessor, CLIPModel
# Charger le pipeline
model = CLIPModel.from_pretrained("patrickjohncyh/fashion-clip")
processor = AutoProcessor.from_pretrained("patrickjohncyh/fashion-clip")
# Définir la fonction pour la classification d'image avec du texte en entrée
def classify_image_with_text(text, image):
# Effectuer la classification d'image à l'aide du texte
inputs = processor(
text=["a photo of a man", "a photo of a woman"], images=image, return_tensors="pt", padding=True
)
outputs = model(**inputs)
# Récupérer l'index de l'étiquette avec le score le plus élevé
predicted_class_index = outputs.logits_per_image.argmax(dim=-1)
# Convertir l'index de l'étiquette en libellé
label = processor.convert_ids_to_tokens(predicted_class_index.item())
return label
# Créer l'interface Gradio avec l'API de Gradio Blocks
with gr.Interface(
fn=classify_image_with_text,
inputs=[gr.Textbox(lines=1, label="Prompt"), gr.Image(label="Image")],
outputs=gr.Textbox(label='Sortie de l\'API'),
title="SD Models"
) as iface:
iface.launch()