Edición América · Extendida
184s · sergio
24 de April de 2026
Leer el guion
Buenos días para Miami, Ciudad de México y Bogotá. Hoy en laradia te contamos las novedades del mundo de la inteligencia artificial.
Comencemos por el ecosistema de asistencia de código. Este campo ha pasado de ser una novedad a una necesidad operativa. Los asistentes de programación, como GitHub Copilot, Cursor y Claude Code, están redefiniendo la productividad del desarrollador. La diferencia clave ya no es solo la funcionalidad, sino la filosofía de integración. Mientras que algunos sistemas se enfocan en la sugerencia contextual, otros están diseñando flujos de trabajo completos dentro del entorno de desarrollo.
Moviéndonos hacia la arquitectura de los modelos subyacentes, los pesos abiertos continúan siendo un foco intenso de investigación. Observamos comparativas muy detalladas entre modelos como DeepSeek R1, Qwen tres y Mistral Large. Es relevante notar que DeepSeek R1, bajo licencia MIT, mantiene un enfoque en la arquitectura de razonamiento, lo que facilita su uso comercial directo. Por otro lado, Qwen tres, con su arquitectura de mezcla de expertos o MoE, muestra resultados destacados en tareas matemáticas complejas, alcanzando métricas específicas como el noventa y dos punto tres por ciento en AIME veinticinco.
Esta comparación nos lleva directamente a la necesidad de evaluar el rendimiento técnico. Cuando revisamos los *benchmarks* de vanguardia, como MMLU o HumanEval, vemos que la evaluación es multidimensional. Modelos como Llama cuatro Maverick, con sus cuatrocientos mil millones de parámetros reportados, compiten directamente con las capacidades de modelos cerrados. Sin embargo, la comunidad está prestando mucha atención a modelos que equilibran el tamaño con la eficiencia, como los más pequeños de la familia Gemma, ideales para ejecución en dispositivos o *edge*.
En cuanto a la implementación práctica, el desarrollo local sigue siendo un pilar. Herramientas como Ollama y LM Studio están simplificando drásticamente el acceso a estos modelos. Ollama actúa como el cliente base, permitiendo instalar y gestionar diversas IA en sistemas operativos variados. Para quienes prefieren la interfaz gráfica y ajustar parámetros de inferencia visualmente, LM Studio ofrece una capa de accesibilidad importante, permitiendo experimentar con modelos sin necesidad de interactuar directamente con la línea de comandos.
Finalmente, la competencia en el ámbito multimodal y de contexto extenso sigue siendo marcada. Mientras que Claude Sonnet cuatro punto cinco de Anthropic sigue siendo citado por su manejo avanzado en código y contextos muy largos, Google DeepMind con Gemini tres Pro mantiene su ventaja percibida en capacidades multimodales, soportando ventanas de contexto de hasta un millón de *tokens*.
Con estos detalles técnicos y las tendencias de *open source* en mente, cerramos nuestro bloque. A continuación, retomamos la programación con nuestra selección musical.