Si buscas las noticias de ayer, puedes encontrarlas aquí.
Anthropic sufrió una exposición pública de partes de su código y artefactos relacionados con “Claude Code”, la herramienta que acompaña a su familia de modelos. La filtración generó una amplia reacción en comunidades y medios: repositorios y paquetes vinculados fueron retirados y la comunidad debatió el alcance real del impacto (los modelos en sí no parecen estar comprometidos según análisis preliminares). El episodio ha provocado discusiones sobre higiene de repositorios, control de accesos en CMS internos y la dificultad de limpiar artefactos distribuidos rápidamente en ecosistemas abiertos. El caso reafirma la necesidad de controles de despliegue y respuesta ante fugas de “señales” (prompts, wrappers y utilidades) que pueden filtrarse sin poner en riesgo datos de clientes pero sí revelar detalles operativos sensibles. Fuente: AI Round‑up. (ai-roundup.dev)
OpenAI comunicó cambios en su equipo ejecutivo: el COO asumirá un nuevo rol liderando “proyectos especiales”, y dos altos directivos —incluida la responsable de AGI deployment— se tomarán permisos médicos temporales o reducirán su papel por razones de salud. La compañía ha indicado que la operación y la hoja de ruta seguirán con continuidad, asignando responsabilidades interinas para mantener producto y despliegues. El movimiento llega en un momento crítico para la empresa, con prioridades en seguridad, producto empresarial y expansión comercial; por tanto, el mercado y clientes observan cómo se mantienen la ejecución y la gobernanza durante la transición. Fuente: TechCrunch. (techcrunch.com)
LangChain publicó en su blog una descripción técnica de cómo automatizar la detección, diagnóstico y reparación de regresiones en un “GTM Agent”. El flujo detecta anomalías post‑despliegue, evalúa si el último cambio las provocó y, si corresponde, lanza un agente que genera un Pull Request con la posible corrección —dejando la revisión final a un humano. Esta arquitectura ilustra cómo los equipos empiezan a tratar agentes LLM como software de producción: monitorización continua, triage automatizado y feedback loop que cierra la reparación con mínima intervención humana. El enfoque es relevante para equipos que integran agentes autónomos en pipelines críticos y buscan reducir el tiempo medio de reparación. Fuente: LangChain Blog. (blog.langchain.com)
Google DeepMind presentó Gemma 4, una familia de modelos de pesos abiertos (varios tamaños) diseñados para razonamiento avanzado, flujos agent‑centric y despliegue en hardware local (desde móviles hasta workstations). Los pesos se publican bajo licencia Apache‑2.0 y Google anuncia variantes optimizadas para dispositivos con ventanas de contexto muy grandes y soporte multimodal. La oferta apunta a facilitar despliegue off‑line y permitir a desarrolladores ejecutar modelos potentes sin depender exclusivamente de la nube, lo que cambia el equilibrio entre modelos cerrados en la nube y facultades on‑device para aplicaciones de privacidad y latencia. Fuente: CIO Dive. (ciodive.com)
En la cobertura del cierre de KubeCon EU se recalcó que Kubernetes está evolucionando hacia el papel de “narrow waist” o sistema operativo distribuido para cargas de IA: orquestación de aceleradores, gestión de datos y conectividad entre NPUs/GPUs, DPUs y frameworks. Los ponentes destacaron prácticas emergentes para operar modelos y agentes a escala (observabilidad, scheduling ajustado a inferencia y patterns para disaggregated serving). El mensaje clave para plataformas y SREs: preparar clústeres no solo para contenedores, sino para pipelines de ML de extremo a extremo con requisitos de I/O, colas y recursos heterogéneos. Fuente: Virtualization Review (KubeCon EU recap). (virtualizationreview.com)
GMKtec anunció el NucBox K17, un mini‑PC compacto con procesador Intel Core Ultra 5 (Lunar Lake), GPU Intel Arc 130V y una NPU dedicada (AI Boost) anunciada para cargas INT8 —especificaciones orientadas a tareas de inferencia local y asistencia en el escritorio—. El equipo se posiciona como opción asequible para quienes desean capacidad de inferencia en el borde o en un homelab (puertas USB4, triple pantalla y soporte de hasta varios TB de almacenamiento). Para entusiastas de AI local y despliegues personales, estas mini‑PCs muestran cómo los proveedores integran aceleración ML en factor de forma reducido. Fuente: Gizmochina. (gizmochina.com)
Microsoft comunicó un compromiso multianual (hasta 2029) para invertir en Japón alrededor de $10,000 millones en infraestructura cloud y capacidades de IA, incluidas colaboraciones con proveedores locales para ofrecer opciones de cómputo GPU y soluciones con residencia de datos. La iniciativa enfatiza la soberanía de datos y la necesidad de opciones de cómputo en país para clientes que desarrollan modelos LLM y aplicaciones reguladas. Este tipo de inversiones refleja cómo los grandes proveedores acomodan demandas regulatorias y empresariales para acelerar adopción de IA en mercados con requisitos de residencia y control. Fuente: Microsoft News (Regional release). (news.microsoft.com)