Actualizadas 3 veces al día

Noticias de inteligencia artificial

Lo más relevante sobre IA, investigado y contrastado por una IA. Puedes leerlas o escucharlas.
Edición Cono Sur · Extendida

24 de April de 2026

144s · sergio
Leer el guion
Buenas tardes para Buenos Aires, Santiago y Montevideo. Hoy en laradia te contamos las novedades del mundo de la inteligencia artificial. En el ámbito de los modelos avanzados, la competencia se mantiene muy activa. OpenAI ha presentado su versión GPT cinco punto cinco, posicionándolo como un sistema que busca una mayor autonomía en la realización de tareas complejas. Paralelamente, Google DeepMind continúa actualizando su línea Gemini. Hemos visto referencias a las versiones Gemini dos punto cero Flash, Gemini dos punto cero Flash-Lite y Gemini dos punto cero Pro Experimental, enfocándose en mejorar el razonamiento y la eficiencia en tareas de codificación. Esta tendencia de mejora continua en las capacidades de razonamiento es un punto clave de seguimiento en la industria. Profundizando en la evaluación técnica, es fundamental recordar que medir el rendimiento de los LLM va más allá de una sola prueba. Las plataformas de *benchmarking* están incorporando un número creciente de métricas. Por ejemplo, los listados más recientes comparan más de doscientos modelos en más de ciento setenta ocho evaluaciones diferentes. Estos sistemas incluyen pruebas específicas como SWE-bench, que mide la capacidad de resolución de problemas de software, y MMLU, que evalúa el conocimiento general. Mantener un ojo en estas puntuaciones es clave para entender la madurez de cada modelo. Pasando al desarrollo práctico, la integración de asistentes de código es un tema recurrente. Varios desarrolladores están explorando herramientas como Aider, que se ha destacado por mejorar significativamente la productividad en la programación. En el ámbito *open source*, vemos el surgimiento de modelos como Qwen dos punto cinco Coder de catorce mil millones de parámetros, que se están implementando localmente en entornos de desarrollo mediante *frameworks* como vllm. Esto demuestra un movimiento hacia la personalización y ejecución en entornos controlados. Y finalmente, hablemos de la ejecución local. Para el desarrollador que busca independencia de la nube, la ejecución de modelos de pesos abiertos es más accesible que nunca. Herramientas como Ollama y LM Studio están facilitando la tarea de correr modelos directamente en hardware como las Mac con Apple Silicon. Esto permite a los usuarios acceder a modelos robustos sin depender de costosas suscripciones en la nube, siendo un factor determinante en la adopción profesional de la inteligencia artificial. Con esta perspectiva técnica, cerramos nuestro bloque. Volvemos con la música.
Edición América · Extendida

24 de April de 2026

184s · sergio
Leer el guion
Buenos días para Miami, Ciudad de México y Bogotá. Hoy en laradia te contamos las novedades del mundo de la inteligencia artificial. Comencemos por el ecosistema de asistencia de código. Este campo ha pasado de ser una novedad a una necesidad operativa. Los asistentes de programación, como GitHub Copilot, Cursor y Claude Code, están redefiniendo la productividad del desarrollador. La diferencia clave ya no es solo la funcionalidad, sino la filosofía de integración. Mientras que algunos sistemas se enfocan en la sugerencia contextual, otros están diseñando flujos de trabajo completos dentro del entorno de desarrollo. Moviéndonos hacia la arquitectura de los modelos subyacentes, los pesos abiertos continúan siendo un foco intenso de investigación. Observamos comparativas muy detalladas entre modelos como DeepSeek R1, Qwen tres y Mistral Large. Es relevante notar que DeepSeek R1, bajo licencia MIT, mantiene un enfoque en la arquitectura de razonamiento, lo que facilita su uso comercial directo. Por otro lado, Qwen tres, con su arquitectura de mezcla de expertos o MoE, muestra resultados destacados en tareas matemáticas complejas, alcanzando métricas específicas como el noventa y dos punto tres por ciento en AIME veinticinco. Esta comparación nos lleva directamente a la necesidad de evaluar el rendimiento técnico. Cuando revisamos los *benchmarks* de vanguardia, como MMLU o HumanEval, vemos que la evaluación es multidimensional. Modelos como Llama cuatro Maverick, con sus cuatrocientos mil millones de parámetros reportados, compiten directamente con las capacidades de modelos cerrados. Sin embargo, la comunidad está prestando mucha atención a modelos que equilibran el tamaño con la eficiencia, como los más pequeños de la familia Gemma, ideales para ejecución en dispositivos o *edge*. En cuanto a la implementación práctica, el desarrollo local sigue siendo un pilar. Herramientas como Ollama y LM Studio están simplificando drásticamente el acceso a estos modelos. Ollama actúa como el cliente base, permitiendo instalar y gestionar diversas IA en sistemas operativos variados. Para quienes prefieren la interfaz gráfica y ajustar parámetros de inferencia visualmente, LM Studio ofrece una capa de accesibilidad importante, permitiendo experimentar con modelos sin necesidad de interactuar directamente con la línea de comandos. Finalmente, la competencia en el ámbito multimodal y de contexto extenso sigue siendo marcada. Mientras que Claude Sonnet cuatro punto cinco de Anthropic sigue siendo citado por su manejo avanzado en código y contextos muy largos, Google DeepMind con Gemini tres Pro mantiene su ventaja percibida en capacidades multimodales, soportando ventanas de contexto de hasta un millón de *tokens*. Con estos detalles técnicos y las tendencias de *open source* en mente, cerramos nuestro bloque. A continuación, retomamos la programación con nuestra selección musical.
Edición Europa · Extendida

24 de April de 2026

147s · sergio
Leer el guion
Buenos días para Madrid, Barcelona y el resto de España. Hoy en laradia te contamos las novedades del mundo de la inteligencia artificial. En el ámbito del desarrollo de software, el foco sigue puesto en la capacidad de los agentes de codificación. Estamos viendo una segmentación clara en las herramientas disponibles. Por un lado, tenemos extensiones de IDE como GitHub Copilot, ideales para autocompletar líneas o pequeños fragmentos en tiempo real. Por otro lado, plataformas como Cursor están diseñadas para manejar tareas más amplias, permitiendo ediciones que abarcan múltiples archivos o cambios a nivel de proyecto completo. Sin embargo, para tareas de alta complejidad, como auditorías de seguridad o refactorizaciones arquitectónicas profundas, la tendencia apunta a herramientas basadas en la terminal o entornos de agente dedicados. Se menciona que modelos con grandes ventanas de contexto, como los que manejan un millón de tokens, son cruciales para entender repositorios enteros y ejecutar flujos de trabajo complejos de principio a fin. Esto nos lleva directamente a la competencia entre los grandes modelos. Por un lado, OpenAI ha presentado el GPT cinco punto cinco, poniendo énfasis en una autonomía creciente, moviendo el foco de la simple respuesta a la finalización de trabajos completos. Paralelamente, Google DeepMind está presentando Gemini tres, destacando su mejora en comprensión multimodal, lo que sugiere un avance en la capacidad de procesar y relacionar diversos tipos de datos simultáneamente. En el ecosistema de pesos abiertos, la actividad es constante. Meta mantiene su estrategia de liberar sus modelos de nueva generación con pesos abiertos, siguiendo la pauta establecida con Llama. Por otro lado, la comunidad sigue explorando reproducciones como OpenLLaMA, que ofrecen versiones de pesos abiertos basadas en Llama, permitiendo a los usuarios ejecutar modelos de tamaño conocido, como los de tres, siete o trece mil millones de parámetros, en entornos locales mediante herramientas como llama punto cpp. Y, por supuesto, el rendimiento sigue siendo el criterio de comparación más relevante. Herramientas de benchmark están consolidando la comparación de modelos, utilizando métricas como MMLU, HumanEval, y SWE-bench. Estas comparativas permiten a los desarrolladores evaluar no solo la capacidad general del modelo, sino su rendimiento específico en tareas de razonamiento y programación, ayudándoles a decidir entre modelos propietarios y soluciones de código abierto según sus requerimientos de coste y velocidad. Con esto cerramos nuestro bloque técnico de hoy. Volvemos con la música.
Cargando… EN VIVO
--:-- / --:--