User Tools

Site Tools


informatica:inteligencia_artificial:beto

Fuente: https://colab.research.google.com/github/mrm8488/shared_colab_notebooks/blob/master/Using_Spanish_BERT_fine_tuned_for_Q%26A_pipelines.ipynb#scrollTo=2CdQh0Psl3U8

Repositorio: https://github.com/dccuchile/beto

Instalación

apt-get install python3 python3-pip ipython3
pip3 install transformers torch torchvision
ipython3
from transformers import *
nlp = pipeline(
    'question-answering', 
    model='mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es',
    tokenizer=(
        'mrm8488/distill-bert-base-spanish-wwm-cased-finetuned-spa-squad2-es',  
        {"use_fast": False}
    )
)

Creamos el contexto:

context = 'Manuel Romero está colaborando activamente con huggingface/transformers para traer el poder de las últimas técnicas de procesamiento de lenguaje natural al idioma español'

Y le hacemos las preguntas:

nlp(
    {
        'question': '¿Quién está trabajando activamente con huggingface/transformer? ',
        'context': context
    }
)

Nos responde:

{'score': 0.9647331237792969, 'start': 0, 'end': 13, 'answer': 'Manuel Romero'}

He probado metiéndole un texto entero y responde a las preguntas con trozos de texto que pueden ser la respuesta.

CASED Y UNCASED

import torch from transformers import BertForMaskedLM, BertTokenizer

tokenizer = BertTokenizer.from_pretrained(“pytorch/”, do_lower_case=False) model = BertForMaskedLM.from_pretrained(“pytorch/”) e = model.eval()

informatica/inteligencia_artificial/beto.txt · Last modified: 2023/03/01 22:42 by jose