IA-AI Diccionario L-Z

Inteligencia Artificial - Artificial Intelligence

Inteligencia Artificial - Artificial Intelligence · El boletín informativo que llega los lunes

Diccionario de la Inteligencia Artificial / Artificial Intelligence (IA-AI) en constante construcción (L-Z)

Licencia Apache

La licencia Apache 2.0 es una licencia de software de código abierto permisiva que permite a los usuarios utilizar, modificar y distribuir el software sin muchas restricciones. Esta licencia, creada por la Apache Software Foundation, es una de las más populares en el mundo del software de código abierto.

Bajo la licencia Apache 2.0, los usuarios tienen la libertad de usar el software para cualquier propósito, estudiar su funcionamiento, modificarlo y redistribuir versiones modificadas. Sin embargo, es necesario conservar los avisos de derechos de autor y descargos de responsabilidad originales en cualquier distribución del software. Además, cualquier cambio realizado en el código debe ser documentado.

Una de las características destacadas de la licencia Apache 2.0 es que permite la integración y compatibilidad con otras licencias, como la GPLv3, lo que facilita la colaboración y la combinación de diferentes proyectos de software. Sin embargo, no es compatible con la GPLv2, lo que puede presentar desafíos al intentar combinar software bajo estas licencias.

LoRA (Low-Rank Adaptation)

LoRA, en IA-AI, es una técnica de ajuste fino de modelos de aprendizaje profundo, muy popular entre comunidades como Stable Diffusion, que reduce la cantidad de parámetros que necesitan ser entrenados. En lugar de modificar todos los pesos del modelo original, LoRA inyecta capas de rango bajo que capturan la información específica de una nueva tarea o conjunto de datos. Esto permite entrenar modelos grandes de manera eficiente con menos recursos computacionales y memoria. Por ejemplo, si quisiéramos entrenar un modelo generativo de imágenes para que produzca imágenes con la cara de una persona específica, podríamos usar LoRA para entrenar solo unas pocas capas adicionales con fotos de esa persona, en lugar de tener que reentrenar todo el modelo desde cero. Esto permitiría que el modelo aprendiera a generar imágenes con la cara deseada sin afectar su capacidad de generar otras imágenes.

LLM (Large Language Model o Modelo de Lenguaje de Gran Escala)

Un LLM es un tipo avanzado de inteligencia artificial diseñado para entender y generar texto en lenguaje humano. Estos modelos son ‘grandes’ porque se entrenan con enormes cantidades de texto proveniente de libros, artículos, sitios web y otras fuentes escritas.

Imagina un LLM como un estudiante muy aplicado que ha leído prácticamente todo lo que se ha escrito en internet. A partir de esta vasta ‘lectura’ el modelo aprende patrones del lenguaje, información sobre el mundo y cómo las personas se comunican.

Los LLM pueden realizar tareas como: responder preguntas con información detallada, escribir textos creativos o técnicos sobre casi cualquier tema, traducir entre idioma, resumir textos largos, mantener conversaciones que parecen humanas, etc.

Ejemplos conocidos de LLM incluyen GPT (el modelo detrás de ChatGPT), Gemini de Google o Claude de Anthropic. Estos modelos están transformando cómo interactuamos con la tecnología, permitiendo una comunicación más natural y eficiente entre humanos y máquinas.

Sin embargo, es importante recordar que, aunque muy avanzados, los LLM tienen limitaciones. No ‘piensan’ realmente como los humanos y pueden cometer errores o generar información incorrecta si no se usan adecuadamente.

Machine Learning (ML) (Aprendizaje automático)

Es una rama de la inteligencia artificial que se centra en diseñar algoritmos y sistemas que pueden aprender y mejorar su rendimiento automáticamente, sin necesidad de ser programados específicamente para realizar una tarea determinada. Estos algoritmos pueden identificar patrones y relaciones en grandes conjuntos de datos, y utilizar esa información para tomar decisiones inteligentes y realizar predicciones. El Machine Learning se utiliza en una amplia variedad de aplicaciones, desde el reconocimiento de imágenes y el procesamiento del lenguaje natural, hasta la optimización de procesos industriales y la toma de decisiones automatizada.

MCP (Model Context Protocol)

Estándar abierto que permite a los modelos de lenguaje grandes (LLMs) conectarse y colaborar con herramientas externas (como calendarios, correos, bases de datos o plataformas de voz) mediante una interfaz común y modular. Introducido por Anthropic en 2024 y adoptado por empresas como OpenAI, Google y ElevenLabs, MCP facilita que los asistentes de IA no solo generen texto o voz, sino que también realicen acciones concretas en el mundo real.

Marvin Lee Minsky (1927-2016) fue un destacado científico estadounidense, reconocido como uno de los padres de la inteligencia artificial. Nacido en Nueva York, Minsky fue cofundador del laboratorio de inteligencia artificial del Instituto de Tecnología de Massachusetts (MIT), donde trabajó gran parte de su vida profesional.

Minsky realizó importantes contribuciones en diversos campos, incluyendo la creación del primer simulador de redes neuronales, conocido como SNARC, en 1951. También fue pionero en el desarrollo de tecnologías como el microscopio confocal y el casco de realidad virtual. Su obra "La sociedad de la mente" es ampliamente reconocida por explorar la estructura y función de la inteligencia.

Además, Minsky fue galardonado con el prestigioso Premio Turing en 1969, en reconocimiento a sus contribuciones a la informática. A lo largo de su carrera, también se desempeñó como asesor en proyectos cinematográficos y fue un defensor del software libre.

El Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) es una prestigiosa universidad privada ubicada en Cambridge, Massachusetts, Estados Unidos. Fundado el 10 de abril de 1861 por William Barton Rogers, el MIT ha sido un líder en educación e investigación en ciencias, tecnología e ingeniería. Su lema, mens et manus (‘mente y manos’), refleja su enfoque en la educación práctica y aplicada.

El MIT es conocido por su excelencia académica y ha sido clasificado repetidamente como una de las mejores universidades del mundo. Ofrece una amplia gama de programas de grado y posgrado en diversas disciplinas, incluyendo ciencias de la computación, inteligencia artificial, ingeniería, biología, economía y administración. Además, el MIT ha contribuido significativamente al avance de la tecnología y la ciencia a lo largo del siglo XX, incluyendo desarrollos en computación y sistemas de navegación.

El campus del MIT se extiende a lo largo de la orilla norte del río Charles y es famoso por su arquitectura innovadora. La universidad también es conocida por su diversidad y su enfoque en la colaboración y la creatividad.

MoE (Mixture of Experts / Mezcla de Expertos)

MoE es una arquitectura de modelo de aprendizaje automático que funciona combinando varios modelos más pequeños, llamados "expertos", para realizar una tarea específica. En lugar de tener un modelo monolítico y enorme, un modelo MoE tiene varios "expertos" que se especializan en diferentes aspectos del problema.

Multimodal

Que puede procesar, comprender y/o generar resultados a partir de varios tipos de datos, como texto, imágenes, audio, vídeo, etc.

Neural Networks (Redes Neuronales)

Una red neuronal es una arquitectura informática que ayuda a los ordenadores a procesar datos utilizando nodos. Inspirados en el funcionamiento del cerebro humano, compuestos por unidades interconectadas (nodos/neuronas artificiales) que procesan información en capas para reconocer patrones, aprender de datos y realizar tareas complejas en inteligencia artificial cómo podrían ser clasificación de imágenes, asistentes virtuales, traducción de idiomas, predicción de tendencias, reconocimiento facial… Al igual que nuestro cerebro mejora con la práctica, las redes neuronales mejoran su rendimiento a medida que procesan más datos.

NLP (Natural Language Processing) / PLN (Procesamiento del Lenguaje Natural)

El NLP o PLN es una rama de la inteligencia artificial que se centra en la interacción entre las computadoras y el lenguaje humano. Su objetivo es permitir que las máquinas entiendan, interpreten y generen lenguaje de una manera similar a los humanos con la ayuda del aprendizaje automático. Características principales:

  1. Comprensión: permite a las máquinas entender el significado y contexto de textos o habla.

  2. Generación: capacita a los sistemas para producir lenguaje coherente y natural.

  3. Análisis: extrae información y patrones de grandes volúmenes de texto.

  4. Traducción: facilita la traducción automática entre idiomas.

Aplicaciones comunes: asistentes virtuales (como Siri o Alexa), chatbots, traductores automáticos, análisis de sentimientos en redes sociales, corrección ortográfica y gramatical, resumen automático de textos..

En resumen, el NLP busca cerrar la brecha entre el lenguaje humano y la capacidad de las máquinas para procesarlo y utilizarlo de manera efectiva.

NPU (Neural processing units / Unidad de Procesamiento Neuronal)

Circuito integrado especializado diseñado específicamente para acelerar el procesamiento de algoritmos de inteligencia artificial, en particular redes neuronales. Las NPUs están optimizadas para realizar operaciones matemáticas complejas que son fundamentales en el aprendizaje automático, como multiplicaciones de matrices y convoluciones, de manera mucho más eficiente que las CPUs o GPUs tradicionales. Esto permite un entrenamiento e inferencia más rápidos de modelos de IA, lo que se traduce en un mejor rendimiento y menor consumo de energía en aplicaciones como el reconocimiento de imágenes, el procesamiento del lenguaje natural y la conducción autónoma. Las NPUs se están convirtiendo en un componente esencial de la infraestructura de hardware para la IA, impulsando el desarrollo de sistemas más potentes y eficientes.

NSFW (Not Safe For Work)

Es una abreviatura que se utiliza para describir contenido que no es adecuado para ser visto en el lugar de trabajo debido a su naturaleza explícita o inapropiada. Esto puede incluir imágenes o videos que contienen desnudos, material pornográfico o escenas de violencia. La etiqueta NSFW se utiliza comúnmente en plataformas en línea para advertir a los usuarios de contenido que no es seguro para ser visto en un entorno laboral. Esto ayuda a evitar situaciones incómodas y a proteger a los empleados de la exposición a contenido que no es adecuado para su entorno de trabajo.

Startup o empresa creadora de ChatGPT, Dall·e… Sus fundadores fueron: Ilya Sutskever, Greg Brockman, Wojciech Zaremba, Andrej Karpathy, John Schulman , Elon Musk y Sam Altman.

OSAI 

Acrónimo de Open Source AI Initiative. Se refiere a iniciativas o movimientos que promueven el desarrollo y la adopción de inteligencia artificial de código abierto.

Outpainting

Extender una imagen más allá de sus límites

Paradoja de Moravec / Moravec’s Paradox

La paradoja de Moravec explica por qué a la IA le resulta fácil hacer cosas que a los humanos nos parecen difíciles (como cálculos complejos o jugar al ajedrez), pero le cuesta muchísimo realizar tareas que para nosotros son sencillas e intuitivas, como reconocer un rostro o caminar sin tropezar. En resumen, lo que consideramos "fácil" para nosotros, es increíblemente complejo para las máquinas, y viceversa.

Hans Moravec formuló la Paradoja de Moravec principalmente en la década de 1980. Su influyente libro "Mind Children: The Future of Robot and Human Intelligence", publicado en 1988, es donde la desarrolló y popularizó ampliamente.

Qubit

La unidad básica de información en la computación cuántica. A diferencia del "bit" clásico (que es 0 o 1), un qubit puede ser 0, 1, o una combinación de ambos simultáneamente (gracias a un fenómeno llamado "superposición"). Esto, junto con otra propiedad llamada "entrelazamiento", permite a los ordenadores cuánticos realizar cálculos mucho más complejos y rápidos que los ordenadores tradicionales para ciertos tipos de problemas.

RAG (Retrieval-Augmented Generation / Recuperación Aumentada para Generación)

RAG es una técnica que mejora la precisión de las respuestas de la IA-AI al combinar su conocimiento base con información actualizada de fuentes externas. Funciona así:

  1. Búsqueda inteligente: cuando recibes una pregunta, la IA busca en una base de datos externa información relevante y actualizada.

  2. Respuesta informada: combina esta información con su conocimiento general para generar una respuesta más precisa.

  3. Evita errores: reduce las posibilidades de que la IA ‘invente’ respuestas incorrectas cuando se enfrenta a temas fuera de su entrenamiento original.

Ejemplo: si preguntas sobre un evento reciente, un sistema RAG buscará en fuentes actualizadas antes de responder, en lugar de basarse solo en su entrenamiento inicial que podría estar desactualizado.

Real-Time

Se refiere a la capacidad de generar contenido creativo de forma instantánea, a medida que el usuario introduce indicaciones o modifica parámetros. Esto significa que no hay un lapso de tiempo perceptible entre la solicitud del usuario y la salida generada por la IA.

Singularidad

Momento futuro en el que la tecnología alcanza un nivel tan avanzado que las máquinas superan la inteligencia humana, desencadenando una explosión de innovaciones tecnológicas sin precedentes.

Esta definición captura la idea principal del término, que es la idea de un momento de cambio radical en la evolución tecnológica, en el que las máquinas llegan a ser más inteligentes que los humanos y se mejoran a sí mismas de manera exponencial, generando una serie de innovaciones tecnológicas cada vez más avanzadas.

Hay muchas fechas previstas o auguradas y la más cercana sería el 2030

SOTA, Rendimiento

Son las siglas de State of the Art (estado del arte), y en inteligencia artificial se usa para referirse al nivel más avanzado de rendimiento alcanzado por un modelo o técnica en una tarea concreta. Cuando un modelo es "SOTA", significa que ha superado a todos los anteriores en métricas clave, como precisión, velocidad o eficiencia. Por ejemplo, si un nuevo sistema de reconocimiento de imágenes identifica objetos con un 92% de precisión, y el mejor anterior lo hacía con un 90%, ese nuevo sistema se considera SOTA en clasificación de imágenes. Es un término común en papers, benchmarks y comparativas técnicas.

El rendimiento SOTA es dinámico y evolutivo. Lo que hoy es SOTA, mañana puede ser superado por un modelo nuevo y mejorado. Las empresas e investigadores compiten constantemente por alcanzar un rendimiento SOTA en diferentes áreas de los LLMs, impulsando el progreso en el campo de la inteligencia artificial.

Stable Diffusion es un modelo de inteligencia artificial de código abierto que permite generar imágenes a partir de descripciones textuales. Desarrollado por Stability AI, utiliza un proceso llamado difusión para transformar ruido aleatorio en imágenes coherentes y detalladas basándose en las indicaciones del usuario. Este modelo ha revolucionado la creación de imágenes digitales, poniendo al alcance de cualquiera la posibilidad de generar ilustraciones de alta calidad con tan solo describir lo que se desea ver. ¿Pero entonces en que se diferencia con Midjourney?

Mientras que Stable Diffusion es de código abierto y permite un mayor control y personalización por parte del usuario, incluyendo la posibilidad de ejecutarlo en un ordenador personal, Midjourney es un servicio de pago con acceso a través de un servidor de Discord y ahora también por web. Esto significa que Midjourney es más accesible para usuarios sin conocimientos técnicos, ofreciendo una interfaz más sencilla e intuitiva. Además, Midjourney se centra en la generación de imágenes de estilo artístico, mientras que Stable Diffusion es más versátil en cuanto a estilos y aplicaciones. En resumen, ambos son potentes generadores de imágenes a partir de texto, pero difieren en su accesibilidad, control y enfoque estilístico.

Synthetic Data (Datos sintéticos)

Información creada artificialmente mediante algoritmos para simular datos reales. Se utilizan para entrenar modelos de inteligencia artificial cuando no se dispone de suficientes datos reales o cuando estos son demasiado sensibles para usarlos directamente. Así, los datos sintéticos permiten a los investigadores y desarrolladores trabajar con ejemplos que se parecen mucho a los datos auténticos, pero sin los problemas de privacidad o escasez

Synthetic Voices (Voces sintéticas)

En el campo de la IA son voces generadas por software que imitan el habla humana, transformando texto en audio. Estas tecnologías avanzan rápidamente, ofreciendo aplicaciones en asistencia, entretenimiento y accesibilidad, aunque plantean desafíos éticos relacionados con la clonación de voces.

Temperatura

Parámetro que regula la variabilidad y coherencia de las respuestas en modelos de lenguaje como ChatGPT y demás. Una temperatura baja favorece respuestas precisas y coherentes, ideal para contextos técnicos o informativos. Una temperatura alta induce respuestas creativas y diversas, útil para brainstorming o diálogos menos estructurados. Los usuarios ajustan este valor según sus objetivos de interacción.

Token

En el mundo de la Inteligencia Artificial, especialmente en modelos de lenguaje como los que generan texto, los tokens son las unidades más básicas de información que el modelo procesa. Piensa en ellos como las palabras o fragmentos de palabras que la IA utiliza para entender y generar lenguaje. No son necesariamente palabras completas; pueden ser sílabas, caracteres individuales o incluso partes de palabras que el modelo considera significativas.

La forma en que un modelo de IA divide el texto en tokens se conoce como tokenización. La importancia de los tokens radica en su impacto en la calidad y la eficiencia de los modelos de IA. Un buen sistema de tokenización permite al modelo entender mejor las sutilezas del lenguaje, como el significado de palabras compuestas o la relación entre ellas en una frase. Además, la cantidad de tokens procesados influye directamente en el costo y la velocidad de procesamiento de la IA. En resumen, los tokens son los bloques de construcción que hacen posible la magia de la IA en el procesamiento del lenguaje.

Transformer

Es una innovadora arquitectura de red neuronal introducida en 2017 por investigadores de Google. Los Transformers han revolucionado el campo de la inteligencia artificial debido a su eficacia, versatilidad y capacidad de procesamiento rápido. Características clave:

  1. Mecanismo de atención: permite al modelo enfocarse en diferentes partes de los datos de entrada simultáneamente, captando relaciones complejas entre elementos de una secuencia.

  2. Procesamiento de relaciones: el Transformer analiza cómo las diferentes partes de una secuencia se relacionan entre sí, lo que le permite comprender y generar información de manera más contextual.

  3. Eficiencia: pueden entrenarse más rápido que otros tipos de redes neuronales, lo que ha acelerado el desarrollo de modelos de IA más avanzados.

Ejemplo práctico: ante la entrada ‘¿Cuál es el color de la hierba?’, un modelo Transformer:

  1. Crea una representación matemática interna.

  2. Identifica la relevancia y relación entre palabras clave como ‘color’, ‘hierba’ y ‘verde’.

  3. Utiliza este conocimiento para generar la salida: ‘La hierba es verde’.

Aplicaciones: modelos de lenguaje como GPT (Generative Pre-trained Transformer), sistemas de traducción automáticO, generación de texto e imágenes, análisis de secuencias en diversos campos…

Los Transformers son fundamentales en el desarrollo de sistemas de IA más potentes y flexibles, impulsando muchos de los avances recientes en inteligencia artificial generativa. De hecho, la "T" en ChatGPT significa Transformer, subrayando su importancia en las tecnologías de IA-AI actuales.

Turing, Alan. Prueba o Test de Turing 

Alan Turing fue un brillante matemático, lógico, criptógrafo e informático teórico británico, considerado uno de los padres de la informática moderna y un pionero en el campo de la inteligencia artificial. Su trabajo durante la Segunda Guerra Mundial, descifrando el código Enigma de los alemanes, fue crucial para la victoria aliada y salvó incontables vidas.

Más allá de su contribución a la guerra, Turing dejó un legado imborrable en la ciencia. Su modelo teórico de computación, conocido como la Máquina de Turing, sentó las bases para el desarrollo de los ordenadores modernos. Además, su famoso ‘Test de Turing’ planteó la pregunta fundamental de si las máquinas pueden pensar, un debate que continúa inspirando la investigación en inteligencia artificial hasta el día de hoy.

Trágicamente, la vida de Turing se vio truncada por la persecución que sufrió debido a su homosexualidad. A pesar de sus logros, fue condenado por ‘indecencia grave’ y sometido a una castración química. Años después, en 2013, recibió un indulto real póstumo, reconociendo la injusticia que sufrió y su invaluable contribución a la ciencia y a la humanidad. Alan Turing es recordado como un genio visionario, un héroe de guerra y un símbolo de la lucha por la igualdad y la libertad.

Programa de ajedrez por computadora desarrollado en la década de 1940. Creadores: Alan Turing y David Champernowne. Características: Diseñado para jugar ajedrez, pero nunca se implementó completamente en una computadora de la época debido a limitaciones tecnológicas.

Token 

Los tokens se refieren a trozos de texto. No siempre equivalen a una palabra y varía según modelo e idioma. Puede ser una palabra completa, una parte de una palabra, o incluso un signo de puntuación o espacio. Por lo general, el modelo de lenguaje de OpenAI (GPT) tokeniza las palabras de manera que en inglés, 1000 palabras podrían resultar en algo más cercano a 1200-1400 tokens, dependiendo del uso específico de palabras y estructuras gramaticales. En español, debido a la naturaleza del idioma que a menudo tiene palabras más largas y formas conjugadas complejas, 1000 palabras podrían traducirse en un número de tokens ligeramente mayor. Cuantos más tokens pueda procesar un modelo a la vez (una cantidad conocida como su ‘ventana de contexto’), más sofisticados pueden ser los resultados.

Valle inquietante (Uncanny valley)

El valle inquietante es una sensación de incomodidad, rechazo o incluso miedo que podemos experimentar cuando vemos un robot o una imagen generada por ordenador que se parece mucho a un ser humano, pero que no es perfectamente realista.

Es como si nuestro cerebro detectara que algo no está del todo bien, que hay algo "falso" o "extraño" en esa apariencia casi humana. Cuanto más se acerca la apariencia a la de un humano real, pero sin llegar a serlo del todo, más fuerte es esa sensación de inquietud.

Piensa, por ejemplo, en un robot con una cara muy parecida a la humana, pero con movimientos un poco rígidos o una mirada sin vida. Esa combinación de realismo e irrealidad puede resultar perturbadora.

En resumen, el valle inquietante es la zona incómoda donde las cosas son casi humanas, pero no lo suficiente, lo que provoca una reacción de extrañeza en nosotros.

Cuando se dice que se ha "superado el valle inquietante", significa que se ha logrado crear una representación artificial (un robot, una animación, un avatar, etc.) tan realista que ya no nos produce esa sensación de rechazo o incomodidad. En otras palabras, la representación es tan convincente que nuestro cerebro la acepta como si fuera un ser humano real, o al menos no detecta las sutiles imperfecciones que antes nos generaban esa sensación de extrañeza. Es como decir que se ha cruzado esa "zona incómoda" y se ha llegado al otro lado, donde la apariencia es indistinguible de la realidad o lo suficientemente buena para no generar rechazo.

Vibe Coding

Forma de programar asistida por inteligencia artificial en la que el usuario describe en lenguaje natural lo que quiere lograr (por ejemplo, “haz una app para calcular mi hipoteca”) y un modelo como ChatGPT genera automáticamente el código necesario. Popularizado en 2025, el Vibe Coding permite a personas sin conocimientos técnicos crear prototipos funcionales de aplicaciones, facilitando la creación de herramientas personalizadas para uso personal o profesional.

World models (Modelos del mundo)

Los modelos del mundo/world models en Inteligencia Artificial son sistemas que crean una representación interna de un entorno y la utilizan para predecir eventos futuros en ese entorno. Hasta ahora, la investigación en este campo se ha enfocado en entornos controlados y limitados, como mundos simulados de videojuegos o contextos específicos como la conducción autónoma. El objetivo de los modelos del mundo generales es representar y simular una amplia gama de situaciones e interacciones, similares a las del mundo real.

Desarrollar modelos del mundo generales presenta varios desafíos. Estos modelos deben generar mapas consistentes del entorno y ser capaces de navegar e interactuar en ellos. Además, deben capturar la dinámica tanto del entorno como de sus habitantes, lo que implica crear modelos realistas del comportamiento humano.

Un modelo de trabajo/work model en IA es un esquema que define cómo se debe entrenar, evaluar y desplegar un sistema de IA. Incluye componentes como:

  1. Datos: conjuntos de datos para entrenar y evaluar el modelo.

  2. Algoritmos: métodos y técnicas para procesar y aprender de los datos.

  3. Entrenamiento: proceso de ajuste del modelo basado en los datos.

  4. Evaluación: métodos para medir la precisión y efectividad del modelo.

  5. Despliegue: implementación del modelo en un entorno real.

Este esquema asegura un desarrollo estructurado y eficiente de la IA, permitiendo enfrentar los desafíos complejos en la creación de modelos del mundo generales.

Por ejemplo, para desarrollar un modelo del mundo que pueda simular interacciones sociales realistas, se necesitarían conjuntos de datos que capturen el comportamiento humano en diferentes contextos, algoritmos de aprendizaje que puedan aprender patrones complejos de estos datos, y un proceso de entrenamiento y evaluación riguroso para asegurar que el modelo genere predicciones precisas.

Gracias por leer IA-AI Newsletter. Lo mejor de la semana en creatividad IA. Suscríbete gratis para recibir nuevas publicaciones y apoyar nuestro trabajo.