informatica:inteligencia_artificial:beto
Repositorio: https://github.com/dccuchile/beto
Instalación
apt-get install python3 python3-pip ipython3 pip3 install transformers torch torchvision
ipython3 from transformers import *
nlp = pipeline( 'question-answering', model='mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es', tokenizer=( 'mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es', {"use_fast": False} ) )
Creamos el contexto:
context = 'Manuel Romero está colaborando activamente con huggingface/transformers para traer el poder de las últimas técnicas de procesamiento de lenguaje natural al idioma español'
Y le hacemos las preguntas:
nlp( { 'question': '¿Quién está trabajando activamente con huggingface/transformer? ', 'context': context } )
Nos responde:
{'score': 0.9647331237792969, 'start': 0, 'end': 13, 'answer': 'Manuel Romero'}
He probado metiéndole un texto entero y responde a las preguntas con trozos de texto que pueden ser la respuesta.
CASED Y UNCASED
import torch from transformers import BertForMaskedLM, BertTokenizer
tokenizer = BertTokenizer.from_pretrained(“pytorch/”, do_lower_case=False) model = BertForMaskedLM.from_pretrained(“pytorch/”) e = model.eval()
informatica/inteligencia_artificial/beto.txt · Last modified: 2023/03/01 22:42 by jose