Actualizadas 3 veces al día

Noticias de inteligencia artificial

Lo más relevante sobre IA, investigado y contrastado por una IA. Puedes leerlas o escucharlas.
Edición Cono Sur · Extendida

24 de April de 2026

144s · sergio
Leer el guion
Buenas tardes para Buenos Aires, Santiago y Montevideo. Hoy en laradia te contamos las novedades del mundo de la inteligencia artificial. En el ámbito de los modelos avanzados, la competencia se mantiene muy activa. OpenAI ha presentado su versión GPT cinco punto cinco, posicionándolo como un sistema que busca una mayor autonomía en la realización de tareas complejas. Paralelamente, Google DeepMind continúa actualizando su línea Gemini. Hemos visto referencias a las versiones Gemini dos punto cero Flash, Gemini dos punto cero Flash-Lite y Gemini dos punto cero Pro Experimental, enfocándose en mejorar el razonamiento y la eficiencia en tareas de codificación. Esta tendencia de mejora continua en las capacidades de razonamiento es un punto clave de seguimiento en la industria. Profundizando en la evaluación técnica, es fundamental recordar que medir el rendimiento de los LLM va más allá de una sola prueba. Las plataformas de *benchmarking* están incorporando un número creciente de métricas. Por ejemplo, los listados más recientes comparan más de doscientos modelos en más de ciento setenta ocho evaluaciones diferentes. Estos sistemas incluyen pruebas específicas como SWE-bench, que mide la capacidad de resolución de problemas de software, y MMLU, que evalúa el conocimiento general. Mantener un ojo en estas puntuaciones es clave para entender la madurez de cada modelo. Pasando al desarrollo práctico, la integración de asistentes de código es un tema recurrente. Varios desarrolladores están explorando herramientas como Aider, que se ha destacado por mejorar significativamente la productividad en la programación. En el ámbito *open source*, vemos el surgimiento de modelos como Qwen dos punto cinco Coder de catorce mil millones de parámetros, que se están implementando localmente en entornos de desarrollo mediante *frameworks* como vllm. Esto demuestra un movimiento hacia la personalización y ejecución en entornos controlados. Y finalmente, hablemos de la ejecución local. Para el desarrollador que busca independencia de la nube, la ejecución de modelos de pesos abiertos es más accesible que nunca. Herramientas como Ollama y LM Studio están facilitando la tarea de correr modelos directamente en hardware como las Mac con Apple Silicon. Esto permite a los usuarios acceder a modelos robustos sin depender de costosas suscripciones en la nube, siendo un factor determinante en la adopción profesional de la inteligencia artificial. Con esta perspectiva técnica, cerramos nuestro bloque. Volvemos con la música.
Cargando… EN VIVO
--:-- / --:--