Inteligencia Artificial - Artificial Intelligence · El boletín informativo que llega los lunes a las 00:01 CET

Las noticias más relevantes de los últimos 7 días recopiladas y analizadas por y para creativos entusiastas de la Inteligencia Artificial - Artificial Intelligence ¡Tira del hilo, tira del link!

IA-AI LANGUAGE MODELS & AGENTS 🧠

PERPLEXITY LANZÓ MODEL COUNCIL, una funcionalidad que ejecuta consultas a través de tres modelos de IA de vanguardia simultáneamente y utiliza un modelo “coordinador” para sintetizar los resultados, siendo Opus 4.5 el coordinador predeterminado según el CEO Aravind Srinivas, quien explicó que compara dónde coinciden los tres modelos, dónde difieren y qué encontró cada uno; los tres modelos más comúnmente usados son Claude 4.5 Opus (para razonamiento profundo), GPT-5.2 (para creatividad y lógica) y Grok 4.1 (para búsqueda actualizada y multimodal), aunque pueden rotar con Claude Sonnet 4.5, Gemini 3 Pro o Kimi K2.5 dependiendo de la optimización requerida; esta característica está disponible solo en web para suscriptores Max o Enterprise Max y se accede haciendo clic en el botón “+” junto a la barra de búsqueda.​​​​​​​​​​​​​​​​

CODEX APP PARA MAC OS es la nueva apuesta de OpenAI para convertir la programación en un trabajo multiagente, permitiendo coordinar varios agentes de IA en paralelo, automatizar tareas y ejecutar flujos completos que van del diseño al despliegue. Aunque está claramente orientada a desarrolladores, introduce conceptos relevantes para el mundo creativo, como la gestión de agentes especializados, la integración con Figma, la generación de assets visuales y el rol del usuario como director de procesos más que como ejecutor. Más que una herramienta creativa en sí, Codex funciona como una señal clara de hacia dónde evoluciona el software con IA: equipos de agentes persistentes, automatizados y coordinados desde una única interfaz.

ELON MUSK HA FUSIONADO XAI CON SPACEX, creando la empresa privada mejor valorada del mundo, con una estimación de 1,25 billones de dólares, y unificando cohetes, satélites, modelos de IA (Grok) y la plataforma X bajo una integración vertical total. La operación, previa a un esperado IPO, apunta a usar centros de datos de IA en el espacio, alimentados por energía solar casi constante, que Musk afirma podrían ser más baratos que los terrestres en pocos años, reforzando su visión de un imperio tecnológico que abarca desde la infraestructura orbital hasta la distribución de la IA.

CLAUDE OPUS 4.6: IA que trabaja en equipo con tus herramientas creativas Anthropic lanzó Claude Opus 4.6, su modelo más potente hasta la fecha, que introduce equipos de agentes capaces de dividirse un proyecto y trabajar en paralelo en lugar de paso a paso, como tener varios asistentes especializados coordinándose entre sí para acelerar flujos complejos. El modelo incluye una ventana de contexto de 1M tokens (aproximadamente 750,000 palabras: tres libros de los gordos) y llega integrado directamente en Excel y PowerPoint mediante barras laterales que leen tus plantillas existentes, slide masters y fuentes para crear modelos o presentaciones sin copiar y pegar entre aplicaciones. Lo realmente disruptivo: en lugar de un agente trabajando secuencialmente, puedes dividir el trabajo entre múltiples agentes, cada uno responsable de su parte y coordinándose directamente entre sí. Para creativos que trabajan con narrativas extensas, campañas multiplataforma o producción de contenido a escala, esto significa menos supervisión técnica, más capacidad para delegar tareas ambiciosas de principio a fin, y un asistente que realmente entiende el contexto completo de tu proyecto sin “olvidar” lo que leyó al principio.

Credit Image: Anthropic

IA-AI CREATIVE SUITES 🏨🎞️🎬

RIVERFLOW.AI es una nueva plataforma de creative AI orientada a marcas, agencias y equipos de performance marketing que necesitan producir creatividades publicitarias de alta calidad y coherentes con la marca de forma continua, especialmente para e-commerce y paid social. Actualmente en beta privada, se centra en productos de consumo como belleza, salud o alimentación, y destaca por generar variaciones realmente “on-brand”, con control automático de calidad y un enfoque claro en rendimiento, afirmando mejoras en métricas como CTR, Add-to-Cart y conversión, además de un importante ahorro de tiempo y costes frente a la producción creativa tradicional según la compañía.

HIGGSFIELD AI HA LANZADO VIBE MOTION, una herramienta de motion graphics basada en IA que, apoyada en Claude de Anthropic, permite generar animaciones profesionales y totalmente editables en tiempo real a partir de texto. Funciona sobre un canvas visual donde se pueden ajustar textos, colores, ritmos, transiciones y layouts de forma determinista, sin código ni editores tradicionales, manteniendo coherencia entre iteraciones. Soporta presets de animación, carga de assets (logos, imágenes, PDFs) y creación de piezas que van desde loops cortos hasta presentaciones completas, orientándose a casos como infografías animadas, decks de ventas, branding y contenido para redes. Está disponible en desktop con plan gratuito y opciones de pago, y desde su lanzamiento a principios de este mes de febrero ya está generando interés por su impacto en los flujos de trabajo creativos.

Credit image: Higgsfield AI

SPACES LIST NODE DE FREEPIK permite ejecutar flujos creativos por lotes de forma automática, añadiendo múltiples prompts, estilos, colores, formatos o idiomas en un único workflow, sin repetir pasos ni duplicar nodos. Funciona como un acelerador de producción: puedes generar conjuntos completos de imágenes de una sola vez, aplicar variaciones de color o estilo en paralelo, adaptar una misma imagen a distintas relaciones de aspecto o traducir creatividades publicitarias a varios idiomas, manteniendo intactas las configuraciones complejas. Todo se gestiona dentro de Freepik Spaces, el lienzo visual de nodos conectados, colaborativo y en tiempo real, similar a ComfyUI pero integrado en el ecosistema Freepik, que además utiliza Gemini como copiloto textual para ayudar en la generación y estructuración de prompts. VÍDEO

Credit image: Freepik

IA-AI COMFYUI c

TODO SOBRE EL UPSCALING EN LA IA, en general y especialmente en ComfyUI. Creative upscale vs. conservative upscale, upscaling vs. enhancement, benchmarks, 10 casos de uso (fotografía de producto, piel… vídeos CGI/3D renders…) y 20 flujos de trabajo de cada modelo de Upscaling. Completísimo.

ACE-STEP 1.5 llega a ComfyUI y da un salto serio en generación musical con IA: un modelo open source capaz de crear canciones completas en segundos, en local y con calidad comparable a soluciones comerciales. Su arquitectura híbrida combina un modelo de lenguaje que planifica la estructura musical con un Diffusion Transformer que sintetiza el audio, logrando coherencia en piezas largas y una alta fidelidad sonora (4,72 en métricas de coherencia). Funciona con menos de 4 GB de VRAM, soporta más de 50 idiomas y permite personalización mediante LoRAs entrenadas con pocas canciones propias, manteniendo el control total de los datos. Además, introduce planificación tipo Chain-of-Thought para música y promete funciones avanzadas como “Cover” y “Repaint”, que apuntan a flujos de trabajo creativos mucho más finos. Buenas muestras en el link del titular.

Ace-Step 1.5 en ComfyUI

IA-AI VIDEO 🎬

KLING 3.0 marca un salto importante en la generación de vídeo con IA al unificar en un solo modelo nativo multimodal tareas como texto a vídeo, imagen a vídeo, edición, referencias y ahora también audio, permitiendo crear narrativas cinematográficas más largas, coherentes y controladas. La nueva generación alcanza hasta 15 segundos por clip, incorpora audio nativo multilenguaje con asignación precisa de voces a personajes, mejora de forma notable la consistencia de sujetos mediante referencias por imagen o vídeo, y añade un sistema de narrativa multi-plano que entiende el lenguaje cinematográfico (planos, contraplanos, montaje paralelo o voz en off) sin necesidad de edición posterior. Además, Kling 3.0 Omni amplía la construcción de personajes combinando imagen, vídeo y voz, lo que permite preservar identidad visual y sonora con mayor fidelidad, mientras que el control tipográfico nativo y el storyboard personalizable refuerzan su enfoque hacia usos profesionales como publicidad, storytelling y creación de contenidos de alto nivel. +

No dejes de ver el vídeo de Simon Meyer, que Kling ha adoptado para promocionar su versión 3.0 y que esta semana aparece como vídeo destacado en la sección IA-AI · Featured Talent and Videos 🔽.

Credit images: Kling AI

IA-AI AUDIO/MUSIC 🎶

ELEVEN V3 ElevenLabs ha lanzado oficialmente Eleven v3, su modelo de voz expresiva, que sale de fase alpha y ya está disponible para uso comercial tanto en la interfaz como vía API. La nueva versión mejora de forma notable la estabilidad y reduce en un 68 % los errores relacionados con números y notaciones, un problema habitual en sistemas de Texto a Voz cuando deben interpretar símbolos según el contexto, como números de teléfono, resultados deportivos, fórmulas químicas, monedas o coordenadas, logrando una lectura más natural y correcta de secuencias numéricas complejas. x

IA-AI ADOBE A

ADOBE ANIMATE Adobe ha anunciado que cerrará Adobe Animate el 1 de marzo de 2026 como parte de su giro estratégico hacia herramientas creativas basadas en IA, una decisión que ha generado, una vez más, enfado, incredulidad y frustración entre animadores profesionales que consideran Animate una pieza clave de su flujo de trabajo. Aunque los clientes enterprise tendrán soporte hasta 2029, muchos usuarios critican que Adobe no ofrezca una alternativa real que cubra todas sus funcionalidades, limitándose a sugerir combinaciones parciales con After Effects o Adobe Express. La compañía justifica el cierre afirmando que Animate, con más de 25 años de historia, ya no encaja con los nuevos paradigmas tecnológicos, pero el argumento ha sido recibido con escepticismo, especialmente al no explicar cómo el software obstaculizaba el avance de la IA. Parte de la comunidad incluso pide que Adobe libere el código como open source en lugar de abandonarlo. TECHCRUNCH

IA-AI GOOGLE / GOOGLE LABS / DEEPMIND G🧪

MIXBOARD es un experimento de Google Labs para brainstorming visual con IA, pensado como un NotebookLM para imágenes y moodboards, que permite explorar y refinar ideas combinando texto e imágenes en un lienzo abierto. El usuario puede iniciar proyectos desde prompts o plantillas, subir imágenes propias o generarlas con IA, y editar el contenido con lenguaje natural para modificar detalles, combinar visuales o ajustar estilos, todo directamente en el canvas. Utiliza Gemini 2.5 Flash como motor generativo y su modelo de imagen Gemini 2.5 Flash Image (Nano Banana), con funciones rápidas como “regenerate” o “more like this”, además de generación de texto contextual a partir de las imágenes. La herramienta puede transformar un board en una presentación, aunque las transformaciones tardan unos 20 minutos y están limitadas por día. Mixboard se sitúa a medio camino entre herramientas de trabajo colaborativo como FigJam, boards creativos como Firefly Boards y plataformas de inspiración visual tipo Pinterest, pero con generación y edición de imágenes nativas impulsadas por IA directamente en el canvas. Disponible ya en España. BLOG GOOGLE

Credit image: Google

ARTISTA DE LA SEMANA @DDKING_ART DDKing, seudónimo de Dieter Deconinck, es un artista belga de arte generado con IA conocido por obras emotivas que fusionan fotografía, bocetos y relatos personales en motores digitales de IA, inspiradas en música y temas como dolor, resiliencia e identidad. Habitual en exposiciones innovadoras como ArtNomadique y ganador de premios internacionales, desafía la idea de que la IA carece de emoción humana.

PERFIL DEL ARTISTA

VÍDEOS DE LA SEMANA

Simon Meyer ha dejado boquiabiertos a miles con su tráiler completo de un falso documental sobre el rodaje de un alunizaje simulado, generado al 100% con Kling AI 3.0 🔼, demostrando un nivel de realismo escalofriante en expresiones faciales, lipsync y coherencia narrativa que parece sacado de Netflix. El guion juega con el chiste conspiranoico del moon landing fake, presentando entrevistas a cámara en mano con técnicos que confunden espacio real con plató, todo empaquetado en un montaje épico con look cinematográfico (ARRI Alexa vibes). Es la prueba perfecta de cómo Kling 3.0 sostiene relatos conversacionales enteros solo con prompts precisos, ideal para creadores que quieran experimentar con docs sintéticos o teasers virales sin actores ni equipo. No te lo pierdas en LinkedIn.

Credit images: Kling AI / Simon Meyer

CAMPAÑA CLAUDE Anthropic lanza anuncios en el Super Bowl burlándose de los anuncios en ChatGPT. La campaña de Anthropic para Claude destaca interrupciones publicitarias en conversaciones de IA, con el eslogan “Los anuncios llegan a la IA. Pero no a Claude”. YOUTUBE1 YOUTUBE2

LA MARCA DE VODKA SVEDKA ha estrenado el primer anuncio del Super Bowl generado en gran parte con inteligencia artificial: un spot de 30 segundos protagonizado por Fembot y Brobot que combina baile humano con narrativa sintética para provocar conversación. La marca utiliza la IA no solo como herramienta visual, sino como concepto creativo central, marcando un hito en la publicidad mainstream al llevar la generación algorítmica al evento televisivo más visto del año. Para bien o para mal, el anuncio señala un punto de no retorno en cómo las grandes marcas empiezan a normalizar la IA como parte del imaginario creativo y cultural. THE HOLLYWOOD REPORTER

IA-AI KEY CONCEPTS 🤓

EUV, EL SISTEMA DE IMPRESIÓN MÁS EXTREMO DEL MUNDO
Imagina que quieres dibujar detalles tan pequeños que 10.000 de ellos cabrían en el ancho de un cabello humano. Así de preciso debe ser el proceso para crear los chips que hacen funcionar la inteligencia artificial y los procesadores más avanzados. La litografía ultravioleta extrema (EUV, por sus siglas en inglés Extreme Ultraviolet Lithography) es básicamente el sistema de “impresión” más sofisticado jamás creado: proyecta patrones microscópicos sobre obleas de silicio usando luz especial de longitud de onda extremadamente corta (13,5 nm). En realidad sería más como la exposición a la luz de las planchas fotosensibles para offset en una insoladora. Pero mientras en diseño gráfico trabajamos con píxeles y resoluciones de 300 dpi, aquí hablamos de estructuras de apenas 3 nanómetros, mil veces más finas que cualquier impresora puede lograr.

El proceso es extraordinario: la máquina dispara un láser a gotas microscópicas de estaño líquido que caen 50.000 veces por segundo. Cada gota explota en un plasma tan caliente como la superficie del sol, emitiendo un destello de luz ultravioleta que “dibuja” los circuitos. Como esta luz es absorbida por cualquier material, incluso el aire, todo ocurre en el vacío absoluto y usando solo espejos especiales en lugar de lentes. Cada espejo está pulido con una precisión de una décima de nanómetro (si el espejo fuera del tamaño de Alemania, no tendría irregularidades mayores a un milímetro). Son máquinas del tamaño de un autobús, pesan entre 150 y 180 toneladas y cuestan entre 170 y 350 millones de euros cada una, dependiendo del modelo.

Históricamente, los ingenieros de chips firmaban su trabajo como verdaderos artistas. Entre los años 70 y principios de los 2000, escondían dibujos microscópicos en espacios sin usar del silicio: iniciales, personajes de dibujos animados, elefantes en chips de memoria, hasta “Wally” (el de “¿Dónde está Wally?”) en el procesador MIPS R4000. Estas “firmas” servían también como protección antiplagio: si un competidor copiaba el chip y aparecía el mismo dibujo escondido, era prueba directa de robo de diseño . Desde 1984, con la ley estadounidense de protección de semiconductores, estas firmas ya no eran necesarias legalmente, pero siguieron apareciendo por puro orgullo creativo. Hoy existe una comunidad de cazadores de “easter eggs” en chips que busca con microscopios estas obras de arte del tamaño de una fracción de cabello humano , catalogadas en sitios como The Silicon Zoo. Es el equivalente tecnológico a las marcas que dejaban los canteros medievales en las piedras de catedrales o las firmas ocultas en grabados renacentistas.

Solo una empresa en el mundo, ASML, de Holanda, puede fabricar estas máquinas EUV, integrando componentes de cientos de proveedores especializados. Por eso, la noticia de que China ha logrado construir un prototipo funcional ha sacudido la industria tecnológica global. Es como si alguien hubiera recreado secretamente la imprenta de Gutenberg después de que se prohibiera su exportación. Aunque el prototipo chino aún no produce chips reales, podría romper el monopolio tecnológico y geopolítico que Occidente mantenía sobre la manufactura de chips de última generación. Para nosotros, los creativos, esto importa porque cada render 3D, cada filtro de IA generativa, cada plugin que usamos depende de estos chips. La EUV no es solo una guerra comercial entre potencias: es la infraestructura invisible que hace posible que Midjourney genere imágenes en segundos o que editemos video 8K en tiempo real. Es el sistema de impresión más complejo jamás inventado, diseñado no para papel, sino para construir el futuro átomo por átomo y ahora ese futuro tiene un nuevo competidor en la mesa.​​​​​​​​​​​​​​​​

IA-AI ROBOTS & BEYOND 🤖

MIRRORME, el humanoide más rápido. No podremos escapar de ellos.

HUMANOIDES APRENDIENDO KUNG FU Los Agibots de EngineAI visitan el Templo Shaolin para aprender algo de Kung Fu auténtico. Verás también algunos por el suelo que no se levantan. Esperemos que les enseñen que el verdadero kung fu se usa solo para defenderse, nunca para atacar.

IA-AI INTERESTING NEWS 🗞️

LAS PREDICCIONES DE YOU.COM PARA 2026 apuntan a un cambio profundo en cómo se trabaja y compite con IA: los agentes inteligentes pasarán de ser asistentes puntuales a infraestructuras operativas que transformarán sectores como legal, salud, ingeniería o biotecnología; la búsqueda se volverá aún más crítica como capa estratégica para acceder, verificar y orquestar conocimiento en un entorno saturado de modelos cada vez más potentes; el desarrollo de software cambiará de raíz, con menos código manual, más orquestación de agentes y equipos pequeños capaces de lograr impactos antes reservados a grandes organizaciones; y las empresas afrontarán una nueva fase de consolidación, aceleración de capital y presión competitiva, donde no ganarán quienes tengan “el mejor modelo”, sino quienes se adapten más rápido y conviertan la evolución técnica en ventaja real de negocio.

NOTAS QUE NO CABEN 2 Si dispones de 15 minutos, no dejes de escuchar en LinkedIn nuestra nueva entrega en formato de audio resumen, generado con NotebookLM y en fase experimental. Te va a encantar y, si no, te devolvemos el dinero 😉. Si te interesa alguno de los artículos tratados, los encontrarás en notas de pie de página1 de la versión web.

=

👋🏻 Y esto ha sido todo. Si te ha parecido interesante, nos vemos el próximo lunes.💃🕺🏻🙏 ¿Nos ayudas? Comparte IA-AI Newsletter con quien creas que le puede interesar.🤓

IA-AI Newsletter Team

👉 VIDEOLAB DE LA SEMANA 👈 GENERADO CON KLING Y VEO3. FOTOGRAMA CLAVE, NBP.

NUESTROS PATROCINADORES

Utiliza el chat de nuestro cuaderno NotebookLM, The 50 Latest IA-AI Newsletters, para encontrar cualquier herramienta o tema tratado en los últimos 50 boletines. Si quieres leer boletines o informes anteriores los puedes encontrar aquí. Definiciones de términos relacionados con la IA-AI en Diccionario IA-AI (A-K) / (L-Z). ¿Quieres patrocinarnos? Ponte en contacto: [email protected]

Seguir leyendo