informatica:inteligencia_artificial:agentes
Differences
This shows you the differences between two versions of the page.
| Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
| informatica:inteligencia_artificial:agentes [2025/10/16 09:28] – jose | informatica:inteligencia_artificial:agentes [2025/12/05 07:59] (current) – jose | ||
|---|---|---|---|
| Line 7: | Line 7: | ||
| DIR_OLLAMA=/ | DIR_OLLAMA=/ | ||
| docker run --name ollama -v $DIR_OLLAMA/ | docker run --name ollama -v $DIR_OLLAMA/ | ||
| + | |||
| + | MAC ponemos mas memoria al docker: | ||
| + | docker run -d --name ollama -p 11434:11434 --memory=" | ||
| + | |||
| apt-get install -y curl python3-venv | apt-get install -y curl python3-venv | ||
| Line 43: | Line 47: | ||
| sugerirte algunas formas de obtener la información que buscas: | sugerirte algunas formas de obtener la información que buscas: | ||
| </ | </ | ||
| + | |||
| + | Ojo porque si le preguntamos lo mismo a codellama: | ||
| + | ollama run codellama: | ||
| + | |||
| + | < | ||
| + | I can provide you with information about the weather in Madrid, but I cannot predict the future. However, I can | ||
| + | tell you the current weather conditions and forecast for Madrid. | ||
| + | |||
| + | According to data from AEMET (the Spanish National Meteorological Agency), the current weather conditions in | ||
| + | Madrid are: | ||
| + | |||
| + | * Temperature: | ||
| + | * Humidity: 60% | ||
| + | * Wind: 2 km/h (1.2 mph) | ||
| + | * Clouds: Scattered clouds | ||
| + | |||
| + | As for the forecast, AEMET predicts that the weather will be mostly sunny with a high of 22°C (72°F) and a low of | ||
| + | 9°C (48°F) on Monday. There is a chance of scattered thunderstorms in the afternoon. | ||
| + | |||
| + | Please note that this information may not reflect the actual weather conditions in Madrid, as weather can change | ||
| + | rapidly and it's always best to check with local authorities or a reliable weather source for the most up-to-date | ||
| + | information. | ||
| + | </ | ||
| + | |||
| + | Esto es porque se lo inventa, porque codellama está entrenado para usar APIs y generar código y entonces se inventa que lo puede conseguir. Si le preguntamos: | ||
| + | >>> | ||
| + | < | ||
| + | No puedo proporcionarte la temperatura exacta en Madrid AHORA MISMO. La información meteorológica actual se basa | ||
| + | en los datos de las estaciones meteorológicas, | ||
| + | haber un delay entre el momento en que se toma la medición y el momento en que se hace disponible. | ||
| + | |||
| + | Sin embargo, puedo proporcionarte una predicción de la temperatura para Madrid en función de las condiciones | ||
| + | meteorológicas actuales y previstas. Por ejemplo, si la temperatura en Madrid es de 15°C ahora mismo, podría | ||
| + | predecirse que suba a 17°C en los próximos días si la temperatura promedio es de 16°C durante el día y baja a 9°C | ||
| + | por la noche. | ||
| + | |||
| + | Por favor, tenga en cuenta que estas son solo predicciones y que la temperatura real puede variar según las | ||
| + | condiciones meteorológicas específicas y locales. | ||
| + | </ | ||
| + | |||
| + | ====== Tools ====== | ||
| + | Para que el LLM tenga acceso a herramientas dinámicas, por ejemplo consulta del tiempo mañana. | ||
| + | pip install ollama | ||
| + | |||
| + | |||
| + | |||
informatica/inteligencia_artificial/agentes.1760606930.txt.gz · Last modified: by jose
