PodcastsTecnologíaAtareao con Linux

Atareao con Linux

atareao
Atareao con Linux
Último episodio

792 episodios

  • Atareao con Linux

    ATA 792 Open WebUI, el ChatGPT PRO que puedes tener GRATIS y 100% local

    30/04/2026 | 25 min
    ¿Te has fijado en que el panorama de la inteligencia artificial está cambiando a pasos agigantados? Lo que hasta hace dos días era un campo de juegos gratuito, donde podíamos probarlo todo sin soltar un euro, se está transformando rápidamente en un servicio de suscripción más, como la luz o el teléfono. Pero no solo es una cuestión de dinero. Hay algo que me preocupa mucho más: tu privacidad y la propiedad de tus datos.
    En este episodio número 792 de Atareao con Linux, quiero invitarte a dar un paso adelante en tu camino hacia la soberanía digital. Vamos a hablar de cómo montar tu propio laboratorio de inteligencia artificial en casa, utilizando una herramienta que es, sencillamente, una maravilla: Open WebUI. Olvídate de depender de servidores externos para tareas sensibles; es hora de que el motor de la IA corra en tus propias máquinas.
    ¿Por qué Open WebUI?
    Si ya has escuchado episodios anteriores, sabrás que soy un gran fan de Ollama para ejecutar modelos en local desde la terminal. Pero seamos sinceros: la terminal es fantástica para muchas cosas, pero para mantener una conversación fluida con un modelo de lenguaje, todos preferimos una interfaz visual. Open WebUI es ese "vestido elegante" que le ponemos a nuestros modelos locales. Es una interfaz web que, nada más verla, te va a resultar familiar porque se parece muchísimo a ChatGPT o Gemini, pero con una diferencia fundamental: tú tienes el control total.
    Personalización y diversión: El caso de Leslie Winkle
    Una de las cosas que más me apasiona de esta herramienta es su "Model Builder". No se trata solo de elegir un modelo como Llama 3 o Gemma y empezar a escribir. Puedes ir mucho más allá. En el podcast te cuento cómo he creado un modelo específico con la personalidad de Leslie Winkle, el personaje de Big Bang Theory. Le he dado instrucciones precisas sobre cómo comportarse, quiénes son sus aliados y quiénes sus enemigos. El resultado es una IA con la que puedo "pelear" intelectualmente y que me llama "cerebro de corcho". Es divertido, sí, pero también demuestra el poder de crear asistentes especializados para tareas concretas de tu trabajo o tu día a día.
    Características que marcan la diferencia
    Gestión de usuarios y grupos.
    Soberanía de datos con RAG.
    Búsqueda Web Privada
    Soporte para fórmulas y código.
    Capítulos del episodio:
    00:00:00 ¡Al rico modelo local! Introducción
    00:00:27 El fin de la era "gratis" en la IA comercial
    00:01:31 Privacidad y bolsillo: Las dos razones para el local
    00:02:42 Más allá de la terminal: Buscando la interfaz ideal
    00:03:47 Presentando Open WebUI: El cerebro de tu laboratorio
    00:05:21 ¿Qué es exactamente Open WebUI?
    00:06:28 Personalización extrema: Mi charla con Leslie Winkle
    00:08:11 Gestión de usuarios y permisos granulares
    00:09:48 PWA, Markdown y soporte para fórmulas matemáticas
    00:10:55 Model Builder: Crea tus propios expertos a medida
    00:12:12 Integrando Python y funciones avanzadas
    00:13:34 Buscando en la web de forma privada con SearXNG
    00:15:13 Integraciones en la nube y bases de datos vectoriales
    00:16:08 Un vistazo al panel de administración y consumo
    00:18:24 El arte del Prompting: Carpetas y roles de sistema
    00:20:38 Mi infraestructura: Podman, Traefik y contenedores
    00:22:56 Recursos, chuletas y el repositorio de GitHub
    00:24:12 Despedida y red de Sospechosos Habituales
    Más información y enlaces en las notas del episodio
    🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es
    ✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux
    ✈️ Telegram (el canal) 👉 https://t.me/canal_atareao
    🦣 Mastodon 👉 https://mastodon.social/@atareao
    🐦 Twitter 👉 https://twitter.com/atareao
    🐙 GitHub 👉 https://github.com/atareao
  • Atareao con Linux

    ATA 791 ¿Ollama o Llama.cpp? Cuál elegir para montar tu propia Inteligencia Artificial

    27/04/2026 | 22 min
    ¡Hola, muy buenas! Soy Lorenzo y hoy te traigo el episodio número 791 de Atareao con Linux. Si has estado siguiendo mis últimas aventuras tecnológicas, sabrás que me he sumergido de lleno en el fascinante mundo de los modelos de lenguaje locales. Sin embargo, a raíz de mis vídeos y artículos sobre Ollama, ha surgido una pregunta recurrente en la comunidad: ¿Por qué usar Ollama y no Llama.cpp directamente? ¿O es que acaso uno es mejor que el otro? En este episodio me he propuesto despejar todas tus dudas y, de paso, contarte algunas novedades sobre hardware que te van a dejar con la boca abierta.
    El origen: Entre amigos y tecnología en el Linux Center
    Todo esto empezó a fraguarse en las recientes jornadas de Inteligencia Artificial que vivimos en el Linux Center junto a los amigos de Slimbook. Fue una experiencia increíble donde pude compartir charla con Alejandro López y Manuel Lemos. Ver el interés de la gente y cómo el curso se llenó por completo me dio una pista clara: todos queremos tener el control de nuestra propia IA. Alejandro, que es un gran impulsor de estos temas, me prestó un equipo que ha sido clave para mis pruebas actuales y del cual te hablo un poco más adelante en este audio.
    Llama.cpp: El quirófano de los tensores
    Para entender la diferencia, hay que saber qué es cada cosa. Llama.cpp es el motor puro. Imagínate que es el motor de un coche de competición donde puedes ajustar hasta la última tuerca. Está escrito en C++ por Georgi Gerganov con un objetivo claro: el máximo rendimiento.
    Ollama: La experiencia de usuario elevada al máximo
    Por otro lado, tenemos a Ollama. Muchas veces se ven como rivales, pero la realidad es que Ollama utiliza Llama.cpp por debajo. La diferencia es que Ollama es un "envoltorio" o orquestador escrito en Go que nos facilita la vida de una manera brutal. Se encarga de gestionar la memoria de tu tarjeta gráfica (VRAM) de forma inteligente.
    Cacharreando con contenedores y personalidad propia
    Como no podía ser de otra forma, yo he montado Llama.cpp usando Podman y Quadlets, integrándolo totalmente en mi flujo de trabajo. En este episodio te cuento cómo he configurado mi NVIDIA RTX 4060 Ti de 16GB para que vuele, permitiéndome usar contextos de hasta 128K.
    Hardware: NVIDIA y el silencio de las NPU
    Uno de los grandes temas de este episodio es el hardware. Hago un repaso por las tarjetas de NVIDIA, desde la serie 30 hasta la potente serie 50. Pero la verdadera sorpresa ha sido el Slimbook One con NPU (Neural Processing Unit).
    La anatomía de los modelos: Rompiendo el código
    ¿Alguna vez has visto nombres de modelos como "Mistral-7B-Instruct-v3-Q4_K_M.gguf" y te has sentido perdido?
    Capítulos del episodio para que no te pierdas nada:
    00:00 - Bienvenidos al episodio 791: Ollama vs Llama.cpp
    01:35 - Crónica de las jornadas de IA en el Linux Center con Slimbook
    03:34 - ¿Por qué hay tanta polémica entre Ollama y Llama.cpp?
    04:42 - Llama.cpp: El "quirófano" de los tensores y el rendimiento puro
    05:18 - Ollama: El orquestador que nos facilita la vida
    06:40 - Comparativa: ¿Qué hace uno que no haga el otro?
    07:59 - ¿Eres de IKEA o de fabricar tus propios muebles?
    09:00 - Cacharreando con Llama.cpp, Podman y Quadlets
    10:48 - Leslie: Mi IA con personalidad propia en OpenWeb UI
    12:44 - Cómo descargar modelos a mano con Rust HF Downloader
    13:50 - Hardware para IA: Guía rápida de tarjetas NVIDIA
    17:15 - La experiencia con el Slimbook One y su NPU integrada
    18:05 - Anatomía de un modelo: Entendiendo los nombres
    19:40 - La piedra de Rosetta de la cuantización
    21:08 - Conclusiones y próximos pasos con OpenWeb UI
    Más información y enlaces en las notas del episodio
    🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es
    ✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux
    ✈️ Telegram (el canal) 👉 https://t.me/canal_atareao
    🦣 Mastodon 👉 https://mastodon.social/@atareao
    🐦 Twitter 👉 https://twitter.com/atareao
    🐙 GitHub 👉 https://github.com/atareao
  • Atareao con Linux

    ATA 790 ¡Exprime tu IA local! Domina Ollama desde la terminal 🚀

    23/04/2026 | 21 min
    ¡Hola! Soy Lorenzo y esto es Atareao con Linux. Bienvenidos al episodio número 790, la segunda entrega de nuestra serie dedicada a montar nuestro propio laboratorio de Inteligencia Artificial local.
    Antes de meternos en harina, quiero darte las gracias de todo corazón. El primer episodio de esta serie ha tenido una acogida espectacular, y eso me llena de satisfacción y me da muchísima energía para seguir compartiendo contigo todo este camino. Parece que no soy el único que tiene ganas de recuperar el control de sus datos y de jugar con estos modelos de lenguaje sin depender de servicios externos.
    En el episodio anterior estuvimos centrados en la infraestructura: montamos Ollama usando Quadlets y dejamos todo listo para empezar a funcionar. Pero hoy vamos a cambiar el tercio. Hoy vamos a dejar de hablar de configuraciones de sistemas para empezar a hablar, literalmente, con la inteligencia. Y lo vamos a hacer de la forma más pura y directa posible: a través de la terminal.
    Seguramente te preguntarás: "¿Pero Lorenzo, para qué voy a usar la terminal si ya hay interfaces web que son una maravilla?". Pues te lo cuento con todo el entusiasmo del mundo: para entender qué está pasando de verdad. En este episodio vamos a exprimir Ollama desde la línea de comandos, bajando al barro, porque hay opciones y configuraciones que en las interfaces gráficas a veces quedan ocultas o simplificadas. Si queremos ser verdaderos "cacharreros" de la IA, tenemos que saber qué pasa bajo el capó.
    Hardware y monitorización en tiempo real
    En este episodio te cuento cómo estoy viviendo la experiencia con mi hardware. Estoy utilizando una tarjeta Nvidia GeForce RTX 4060 en un equipo Slimbook que va como un tiro. Te explico cómo monitorizo el uso de la GPU y cómo puedes ver, de forma casi mágica, el momento exacto en el que el modelo se carga en los 16 GB de memoria y empieza a consumir recursos. Es fascinante ver cómo el uso de la tarjeta pasa del 0% al 100% mientras la IA genera una respuesta para nosotros. Entender esta relación entre el hardware y el software es fundamental para saber qué modelos podemos ejecutar y cuáles nos van a mandar a "freír espárragos".
    Dominando los meta-comandos de Ollama
    A lo largo del audio, vamos a desgranar una serie de comandos que te van a convertir en un maestro de la IA local:
    Información detallada
    Personalidad y roles.
    Rendimiento puro.
    Creatividad bajo control.
    Capítulos del episodio:
    00:00:00 - Bienvenida y agradecimientos por la acogida
    00:00:40 - El laboratorio de IA: Recapitulando el episodio anterior
    00:01:34 - ¿Por qué bajar al barro con la terminal?
    00:03:31 - Preparando el entorno y monitorizando la GPU Nvidia
    00:05:00 - Flujo de trabajo: Arrancar el contenedor y el modelo
    00:05:35 - Comandos de ejecución, Podman y atajos útiles
    00:06:40 - Regalo: Una chuleta (cheat-sheet) para dominarlos a todos
    00:07:48 - Hablando con Ollama de forma interactiva
    00:08:24 - Meta-comandos: Descubriendo las tripas del modelo
    00:09:12 - Licencias y parámetros técnicos del modelo
    00:10:05 - Configurando el rol de experto desarrollador
    00:11:15 - Midiendo el rendimiento: Tokens por segundo
    00:12:00 - Modo silencioso y generación de scripts
    00:12:55 - Atajos de teclado y ayuda rápida
    00:13:35 - Ajustando la temperatura y la creatividad
    00:14:40 - Cómo guardar y cargar tus modelos personalizados
    00:15:20 - Poniendo a prueba a la IA: Verificación de código
    00:16:15 - Monitorización en tiempo real de CPU y GPU
    00:17:40 - Cómo elegir el modelo ideal según tu hardware
    00:19:08 - Próximos pasos: La REST API de Ollama
    00:20:30 - Despedida y consejos de vida

    Más información y enlaces en las notas del episodio
    🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es
    ✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux
    ✈️ Telegram (el canal) 👉 https://t.me/canal_atareao
    🦣 Mastodon 👉 https://mastodon.social/@atareao
    🐦 Twitter 👉 https://twitter.com/atareao
    🐙 GitHub 👉 https://github.com/atareao
  • Atareao con Linux

    ATA 789 Tu propio Laboratorio de IA (adios a las subscripciones)

    20/04/2026 | 23 min
    ¡Hola! Soy Lorenzo y esto es Atareao con Linux. Bienvenidos al episodio número 789, un episodio que marca el inicio de una aventura que me tiene especialmente emocionado: vamos a montar nuestro propio laboratorio de Inteligencia Artificial en local.
    Durante los últimos meses, y gracias a las "pullas" constructivas de amigos como Carlos Castillo de Reflex, RedFone o incluso mi archienemigo favorito Rafa de Leña al Mono, no he parado de darle vueltas a cómo exprimir la IA. Pero hay algo que me inquietaba: casi todo lo que hacía dependía de la nube. Por eso, tras cerrar el ciclo de Podman, he decidido que es el momento de tomar las riendas de nuestra soberanía digital y traernos los modelos de lenguaje a casa.
    ¿Por qué quieres una IA local?
    Seguro que te lo has preguntado. ¿Para qué complicarse la vida si ya tienes Gemini o ChatGPT? Pues bien, en este episodio te cuento las tres razones fundamentales que me han llevado a este "cacharrreo" intensivo:
    Privacidad absoluta.
    Control de costes.
    Inmediatez.
    El Stack Técnico: Podman, Quadlets y Ollama
    No esperes que te enseñe a instalar cosas "a lo bruto" en tu sistema operativo. Fiel a mi estilo, vamos a usar contenedores, pero con un giro de tuerca profesional. Te explico por qué he elegido Podman sobre Docker para este proyecto, centrándome en la seguridad del modo rootless y la limpieza que nos ofrece. Además, profundizamos en el uso de Quadlets para que nuestra IA sea un servicio más de Linux, perfectamente integrado con Systemd.
    Una serie para dominarlos a todos
    Este no es un episodio aislado. Hoy inauguramos una serie de 32 capítulos donde iremos de cero a cien. No me interesan los tutoriales de "IA en 5 minutos" que no enseñan nada. Aquí vamos a profundizar en:
    Crear un cerebro digital usando RAG (Generación Aumentada por Recuperación) con nuestros propios archivos Markdown.
    Desarrollar agentes y skills que realicen tareas por nosotros.
    Integrar el stack con hardware NVIDIA para sacar hasta el último teraflop de potencia.
    Automatizarlo todo con scripts en Rust, Python y mi querido shell Fish.
    Si te apasiona el open source y quieres dejar de ser un mero espectador de la IA para convertirte en el dueño de tu propia tecnología, este es tu sitio. ¡Prepárate porque nos lo vamos a pasar pipa!
    Contenido detallado del episodio:
    00:00:00 Introducción y el fin de la era Podman
    00:01:21 El empujón de Slimbook y el Linux Center
    00:02:15 El problema de depender exclusivamente de la nube
    00:03:15 El plan maestro: 32 episodios de IA práctica
    00:05:33 Tres razones para la IA local: Privacidad, pasta y latencia
    00:07:25 Filosofía "Juan Palomo": Exprimir los modelos con scripts
    00:08:08 El stack técnico: ¿Por qué Podman y no Docker?
    00:09:40 Ventajas del rootless y la seguridad en IA
    00:10:59 Quadlets: Integración total con Systemd
    00:11:53 Herramientas: Fish shell, Rust y Go al servicio de la IA
    00:13:20 Creando nuestra propia memoria digital (RAG)
    00:14:00 Estructura de directorios y repositorio Git
    00:15:37 El truco de los enlaces simbólicos para Quadlets
    00:16:02 Hardware: NVIDIA y el aprovechamiento de la GPU
    00:16:40 Desmenuzando el contenedor de Ollama
    00:17:54 QCTL: Mi herramienta para gestionar Quadlets fácilmente
    00:20:20 Comprobando que Ollama responde (CURL y API)
    00:21:15 Monitorización con NVTOP y VTOP
    00:22:13 Despedida y próximos pasos en el laboratorio local

    Más información y enlaces en las notas del episodio
    🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es
    ✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux
    ✈️ Telegram (el canal) 👉 https://t.me/canal_atareao
    🦣 Mastodon 👉 https://mastodon.social/@atareao
    🐦 Twitter 👉 https://twitter.com/atareao
    🐙 GitHub 👉 https://github.com/atareao
  • Atareao con Linux

    ATA 788 Cuatro herramientas de IA para Spotify y YouTube

    16/04/2026 | 18 min
    ¡Hola! ¿Cómo estás? Soy Lorenzo y te doy la bienvenida a un nuevo episodio de Atareao con Linux. Hoy te quiero abrir las puertas de mi laboratorio personal para contarte algo que me tiene entusiasmado: cómo he conseguido que la inteligencia artificial y la automatización se conviertan en mis mejores aliadas para sacar adelante este proyecto.
    Las herramientas de la revolución
    Para que entiendas cómo funciona mi flujo de trabajo actual, te voy a desglosar las cuatro herramientas que se han vuelto imprescindibles en mi equipo:
    1. Whisper (de OpenAI): Es el punto de partida. Esta maravilla de la tecnología es capaz de escuchar mis audios y transcribirlos a texto con una precisión que da miedo. Gracias a que utilizo una tarjeta gráfica Nvidia y soporte para CUDA, el proceso es rapidísimo. Whisper no solo me ahorra tener que escribir notas a mano, sino que me da la base para todo lo que viene después.
    2. Google AI Studio y el poder de los Prompts: Una vez tengo la transcripción, el siguiente paso es pasarle ese texto a Google AI Studio. He diseñado un "prompt" (unas instrucciones) muy detallado que le dice a la IA exactamente qué necesito: que extraiga el minutaje de los temas tratados, que redacte una descripción amena para YouTube y Spotify, y que prepare los metadatos SEO para la web.
    3. Nano Banana (Gemini) y la generación de imágenes: Para las carátulas que ves en las plataformas, ahora confío plenamente en el modelo de generación de imágenes de Google. Aunque a veces es un poco testarudo con las dimensiones —yo le pido un tamaño y él me da otro—, la calidad visual es impresionante. Para domar a esta IA, he creado mis propios scripts en Fish Shell que se encargan de comprobar si la imagen es cuadrada o rectangular y de ajustarla automáticamente a lo que necesito para cada plataforma.
    4. Real-ESRGAN y el escalado inteligente: A veces, la imagen que genera la IA es demasiado pequeña para los estándares de calidad actuales. Aquí es donde entran en juego las redes neuronales de Real-ESRGAN. Esta herramienta es capaz de "inventarse" los detalles que faltan para agrandar una imagen sin que pierda nitidez.
    5. ImageMagick (o "Magic"): No podíamos olvidarnos de los clásicos. ImageMagick es la navaja suiza que utilizo para las conversiones finales, para optimizar el peso de las imágenes antes de subirlas a la web y para asegurar que todo cumple con los formatos estándar. Es una herramienta de terminal que todo amante de Linux debería conocer.
    Capítulos del episodio:
    00:00:00 La mejor inversión: Atareao.es
    00:01:38 Mi evolución técnica: Del hosting al VPS y Docker
    00:02:17 Los modelos de lenguaje entran en juego
    00:03:00 Resultados brutales con menos esfuerzo
    00:04:20 Herramienta 1: Whisper, el arte de transcribir audio
    00:05:11 Fish Shell: El alma de mis automatizaciones
    00:07:04 Herramienta 2: Google AI Studio y la magia de los Prompts
    00:08:41 Mi flujo de trabajo: Del guion al minutaje
    00:09:30 Herramienta 3: Nano Banana (Gemini) para crear carátulas
    00:10:50 Automatizando el formato de imagen con Fish
    00:12:00 Reals-ESRGAN: Escalando imágenes con redes neuronales
    00:13:50 Herramienta 4: ImageMagick (Magic), la navaja suiza
    00:15:41 El procesado de audio: Normalización y filtros
    00:16:45 Conclusiones: Automatizar para disfrutar más
    00:18:04 Despedida y red de podcast
    Como siempre digo, la vida son dos días y uno ya ha pasado, así que disfruta como si no hubiera un mañana y, si puede ser con Linux y "cacharreando" con estas herramientas, ¡mucho mejor! Un saludo y nos escuchamos pronto.

    Más información y enlaces en las notas del episodio
    🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es
    ✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux
    ✈️ Telegram (el canal) 👉 https://t.me/canal_atareao
    🦣 Mastodon 👉 https://mastodon.social/@atareao
    🐦 Twitter 👉 https://twitter.com/atareao
    🐙 GitHub 👉 https://github.com/atareao

Más podcasts de Tecnología

Acerca de Atareao con Linux

Disfruta conmigo de Linux y del Open Source. Aquí encontrarás como sacarle el máximo partido a tu entorno de escritorio Linux, hasta como montar un servidor web, un WordPress, un proxy inverso, una base de datos o cualquier otro servicio que puedas imaginar. Y todo ello, lo puedes montar en una Raspberry Pi, en un VPS, en tu propio ordenador o en cualquier servidor. Vamos, cualquier cosa que quieras hacer con Linux, seguro, seguro, que la encontrarás aquí.
Sitio web del podcast

Escucha Atareao con Linux, Inteligencia Artificial y muchos más podcasts de todo el mundo con la aplicación de radio.es

Descarga la app gratuita: radio.es

  • Añadir radios y podcasts a favoritos
  • Transmisión por Wi-Fi y Bluetooth
  • Carplay & Android Auto compatible
  • Muchas otras funciones de la app
Aplicaciones
Redes sociales
v8.8.13| © 2007-2026 radio.de GmbH
Generated: 5/1/2026 - 3:54:15 AM