Inteligencia Artificial

GLOSARIO DE INTELIGENCIA ARTIFICIAL Y MACHINE LEARNING

Algoritmo:

En matemáticas, ciencias de la computación y disciplinas relacionadas, un algoritmo (del latín, dixit algorithmus) es un conjunto de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien deba realizar dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución.

Análisis descriptivo:

Detalla la realidad con base en los datos disponibles (medias, medianas, dispersiones, gráficos, etc.).

Análisis Predictivo:

Busca pronosticar o predecir qué va a pasar en el futuro (eventos no ocurridos). Tradicionalmente se realizaba con metodologías regresivas, ya sean lineales, logísticas o de Cox (tiempo de seguimiento), y que en la actualidad han sido fuertemente potenciadas por los algoritmos de Machine Learning.

Análisis Diagnóstico:

Busca explicar y evaluar. En este nivel se busca tanto demostrar casualidad (cuando sea posible), y si no al menos describir asociaciones antre factores de riesgo (variables independientes o predictoras) y resultados (outcomes o eventos o variables dependientes de argot clínico, labels en argot tecnológico).

Aprendizaje Adaptativo:

Es una de las característica de las redes neuronales. Esto es, aprenden a llevar a cabo ciertas tareas mediante un entrenamiento con ejemplos ilustrativos. Como las redes neuronales pueden aprender a diferenciar patrones mediante ejemplos y entrenamientos, no es necesario elaborar modelos a priori ni especificar funciones de distribución de probabilidad. Las redes neuronales son sistemas dinámicos autoadaptativos. Son adaptables debido a la capacidad de autoajuste de los elementos procesales (neuronas) que componen el sistema. Son dinámicos, ya que son capaces de cambiar constantemente para adaptarse a las nuevas condiciones.

Aprendizaje automático o Machine Learning:

El aprendizaje automático es un tipo de inteligencia artificial que otorga a las computadoras la capacidad de aprender a partir de los datos, sin necesidad de ser programadas explícitamente. Más específicamente, es la ciencia que permite que las computadoras aprendan y actúen de manera similar a los humanos, mejorando su rendimiento de forma autónoma a medida que se alimentan de datos e información a través de observaciones e interacciones con el mundo real. En el enfoque tradicional, se proporcionan datos al ordenador junto con un modelo matemático que se presume puede resumir las propiedades de estos datos y las relaciones entre variables. Sin embargo, en el aprendizaje automático, no es necesario definir previamente la fórmula matemática que resumirá los datos; el algoritmo se encarga de ello de forma autónoma, basándose únicamente en los datos proporcionados. Aunque en realidad el proceso es más complejo y supervisado que el simple "aprendizaje solo por datos", este concepto ayuda a entender mejor cómo funciona.

Aprendizaje Hebbiano:

El Aprendizaje Hebbiano es un tipo de aprendizaje automático inspirado en la biología que se basa en una idea simple pero poderosa: "lo que se usa se refuerza". La regla de Hebb, a menudo resumida como "las células que se disparan juntas, se conectan juntas", sugiere que la conexión sináptica entre dos neuronas se fortalece cuando las neuronas se activan simultáneamente. En términos de inteligencia artificial, esto significa que si dos nodos (o unidades de procesamiento) en una red proporcionan una señal al mismo tiempo, la conexión entre ellos se hace más fuerte.

Esta regla de aprendizaje se asocia con redes neuronales que tienen la capacidad de aprender de manera autónoma y se utiliza en varios tipos de modelos de redes neuronales, incluida la Red Hopfield.

Una Red Hopfield es un tipo de red neuronal artificial que se utiliza para reconocimiento de patrones y se basa en principios de dinámica de sistemas y física estadística. La red Hopfield puede almacenar diversos patrones o estados de memoria y es capaz de recuperar un patrón completo a partir de una parte de ese patrón, lo que la hace robusta frente a los errores o daños en parte de los datos de entrada. Esta recuperación de patrones se asemeja a cómo recordamos información: incluso con pistas parciales, podemos a menudo reconstruir un recuerdo completo.

La conexión con el Aprendizaje Hebbiano viene de cómo las Redes Hopfield aprenden y almacenan información. La regla de Hebb se aplica para actualizar los pesos de la red, reforzando aquellos patrones de activación que se presentan juntos con frecuencia, lo que permite que la red almacene estos patrones. Así, cuando se presenta a la red un patrón corrupto o parcial, la red puede "recordar" y reconstruir el patrón original que se ha reforzado durante el aprendizaje.

Aprendizaje por Refuerzo (Reinforcement Learning): 

El Aprendizaje por Refuerzo es un enfoque mediante el cual programas inteligentes, conocidos como agentes, operan en un entorno conocido o desconocido para adaptarse y aprender constantemente, basándose en un sistema de puntos. La retroalimentación puede ser positiva, conocida como recompensas, o negativa, denominada castigos. Considerando la interacción entre los agentes y el entorno, determinamos qué acción tomar. En resumen, el Aprendizaje por Refuerzo se basa en recompensas y castigos. Algunos puntos importantes sobre el Aprendizaje por Refuerzo:

  • Se diferencia del Aprendizaje Automático normal, ya que no se trabaja con conjuntos de datos de entrenamiento.

  • La interacción no ocurre con datos, sino con entornos, a través de los cuales representamos escenarios del mundo real.

  • Dado que el Aprendizaje por Refuerzo se basa en entornos, entran en juego muchos parámetros. Se necesita mucha información para aprender y actuar en consecuencia.

  • Los entornos en el Aprendizaje por Refuerzo son escenarios del mundo real que pueden ser mundos simulados en 2D o 3D o escenarios basados en juegos.

  • El Aprendizaje por Refuerzo es más amplio en el sentido de que los entornos pueden ser de gran escala y puede haber muchos factores asociados con ellos.

  • El objetivo del Aprendizaje por Refuerzo es alcanzar una meta.

  • Las recompensas en el Aprendizaje por Refuerzo se obtienen del entorno.

Aprendizaje No Supervisado:

Se basa en la autoorganización de la información contenida en los datos, y por tanto en los vectores de entrada o input, detectando la red neuronal sus propiedades colectivas, hecho que es reflejado con posterioridad en la salida generada por la red o output. Esta clase de aprendizaje se inspira en la capacidad del cerebro humano de aprender sin necesidad de que un sujeto esté presente dirigiendo el aprendizaje.

Aprendizaje Supervisado:

El aprendizaje supervisado se caracteriza porque la regla de aprendizaje incorpora un agente externo o supervisor que evalúa a la red neuronal enseñándole cómo debería corregir su comportamiento dinámico durante el aprendizaje. En esta clase de aprendizaje la modificación de los pesos tiene lugar mostrando a la red neuronal artificial un ejemplo, utilizándose para tal fin lo que se denomina como tabla o matriz de entrenamiento. Imagine que está enseñando a un niño a distinguir entre manzanas y naranjas. Usted le muestra al niño varias frutas y le dice cuáles son manzanas y cuáles naranjas. Con el tiempo, el niño aprende a identificar las frutas por sí mismo. De manera similar, en el aprendizaje supervisado, proporcionamos a la computadora muchos ejemplos de datos con las respuestas correctas (las etiquetas) y el sistema utiliza estos datos para aprender cómo responder correctamente por sí mismo a nuevas situaciones.

Árbol de Decisión (Decision Trees): 

Es un modelo de aprendizaje automático que se emplea en problemas de clasificación, donde siguiendo una estructura en forma de árbol se baja por las ramas en función de los valores de los atributos hasta llegar a un nodo hoja que contiene la clase. El árbol de decisión se suele utilizar en problemas en los que se tiene una serie de atributos de los cuales se quiere aprender y conocer más cerca de los valores y son útiles cuando se desea tener un modelo gráfico que clasifique la información. Se puede considerar también una estructura en la que si nos movemos a través de él podemos llegar a un nodo que nos da una decisión final. Un ejemplo de este tipo de algoritmo es el caso del Titanic, que tenemos como entrada los datos de pasajeros del Titanic y para cada pasajero tenemos el nombre, clase en la que viajó y cuánto pagó. El objetivo es montar un árbol de decisión que nos diga para una determinada persona si sobrevivió o no. Los árboles de decisión están compuestos por nodos internos, nodos terminales y ramas que emanan de los nodos interiores. Cada nodo interior en el árbol contiene una prueba de un atributo, y cada rama representa un valor distinto del atributo. Siguiendo las ramas desde el nodo raíz hacia abajo, cada ruta finalmente termina en un nodo terminal, creando una segmentación de los datos. Un árbol de decisión comienza con un solo nodo que se divide en varios posibles resultados. Estos resultados tendrán nodos adicionales que se van ramificando. Tiene una toma de entrada que será un objeto o situación descrita por un conjunto de atributos, que basándose en su valor, regresa una decisión “verdadero/falso”. Existen 3 tipos de nodos: de probabilidad (señala las posibilidades de algunas soluciones), de decisión (muestra una decisión siendo tomada) y de término (muestra el resultado final de un camino de decisión). Cuanto más profundo es el árbol, más complejas son las reglas de decisión y más se ajusta al modelo. La clave en los árboles de decisión es encontrar un atributo cuyo valor nos permita separar una clase de todas las demás. A grandes rasgos, este clasificador es especialmente útil cuando los ejemplos a partir de los que se desea aprender se pueden representar mediante atributos y valores, así como cuando se desea tener un modelo gráfico que clasifique la información. Sin embargo, no resultan adecuados cuando la estructura de los ejemplos es variable, es decir, cuando no conocemos todos los valores posibles o límites máximos y mínimos de los atributos. También presentan inconvenientes con información incompleta.

Backpropagation:

Es un algoritmo central en el aprendizaje de redes neuronales, utilizado para entrenar redes neuronales, donde el error calculado después de cada predicción se propaga hacia atrás por la red para actualizar los pesos de manera que se minimice este error en futuras predicciones.

Biga data:

Se refiere al conjunto de datos o combinaciones de conjuntos de datos cuyo tamaño (volumen), complejidad (variabilidad) y velocidad de crecimiento (velocidad) dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como ordenadores personales, bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles.

Ciencia de Datos:

Es un campo interdisciplinario que involucra métodos científicos, procesos y sistemas para extraer conocimiento o un mejor entendimiento de datos en sus diferentes formas, ya sean estructurados o no estructurados. Esto representa una continuación de algunos campos de análisis de datos, como la estadística, la minería de datos, el aprendizaje automático y la analítica predictiva.

Cloud computing

Es un paradigma que permite ofrecer servicios de computación a través de una red, que normalmente es internet. Posee múltiples servidores interconectados entre sí, por lo que el poder de computación o procesamiento y de almacenaje es extremadamente grande comparado con el de un único ordenador.

Deep Learning o red neuronal profunda:

Es un tipo de red neuronal que tiene un alto número de capas de neuronas y puede obtener muchos niveles de abstracción. Este tipo de algoritmos requiere una gran cantidad de datos y generalmente de una altísima capacidad de procesamiento. También se puede definir deep learning como un conjunto de algoritmos de aprendizaje automático que intenta modelar las abstracciones de alto nivel en datos usando arquitecturas computacionales que admiten transformaciones no lineales múltiples o iterativas de datos expresados en forma matricial o tensorial.

DeepFake:

Es una técnica que combina el aprendizaje profundo (deep learning) y la falsificación para modificar imágenes, sonidos y videos con el fin de crear medios sintéticos o falsos. Utiliza algoritmos de inteligencia artificial para alterar contenido audiovisual, resultando en imágenes, videos y audios que parecen reales pero que han sido manipulados. Este proceso no es autónomo; requiere intervención y configuración humana para dirigir los algoritmos de IA hacia objetivos específicos de modificación o creación de contenido. Los deepfakes son especialmente conocidos por su capacidad de generar videos o audios que hacen parecer que personas conocidas están diciendo o haciendo cosas que nunca dijeron o hicieron en realidad.

Dropout:

Es una técnica utilizada en el entrenamiento de redes neuronales para prevenir el sobreajuste. Funciona "desconectando" aleatoriamente ciertas neuronas durante el entrenamiento, lo que evita que el modelo dependa demasiado de cualquier neurona específica y ayuda a mejorar la capacidad de generalización del modelo a nuevos datos.

Entrenamiento de Modelos:

Es el proceso de ajustar los parámetros de un algoritmo de aprendizaje automático utilizando datos de entrenamiento, con el objetivo de que el modelo pueda realizar predicciones precisas sobre datos nuevos o no vistos previamente. Durante el entrenamiento, el modelo aprende patrones y relaciones en los datos para minimizar el error entre las predicciones del modelo y las salidas reales esperadas. Este proceso implica iteraciones repetidas donde el modelo se ajusta gradualmente para mejorar su desempeño en la tarea específica para la cual fue diseñado.

Filtro de Kalman:

El filtro de Kalman es un algoritmo para actualizar, observación a observación, la proyección lineal de un sistema de variables sobre el conjunto de información disponible, según se va disponiendo de nueva información.

Generalización de Redes Neuronales:

Se refiere a la capacidad del modelo para capturar y entender las características fundamentales de los datos de entrenamiento, en lugar de simplemente memorizarlos. Es esta habilidad de generalización la que permite que las redes neuronales den respuestas precisas a patrones no vistos durante el entrenamiento. Sin embargo, existe el riesgo de sobreaprendizaje, donde el modelo se ajusta demasiado a los datos de entrenamiento, incluyendo el ruido, lo que dificulta su capacidad para generalizar correctamente. Para abordar este problema, es importante seleccionar cuidadosamente los pesos del modelo para minimizar el error de generalización, incluso a costa de aumentar ligeramente el error en los datos de entrenamiento. La validación cruzada es una técnica comúnmente utilizada para lograr esto.

Inteligencia Artificial:

Se habla de Inteligencia Artificial (IA) cuando una máquina imita las funciones cognitivas del ser humano. Esto incluye actividades como aprender, razonar, resolver problemas, percibir, entender el lenguaje y tomar decisiones.Hay 3 tipos de IA: Inteligencia Artificial Estrecha, Inteligencia Artificial General y Super-AI.

Inteligencia Artificial Estrecha o débil (ANI, Artificial Narrow Intelligence):

Se focaliza en una tarea única y concreta. Dan respuesta a una necesidad puntual y específica, con resultados superiores a los modelos y herramientas clásicas.

Inteligencia Artificial general (AGI, Artificial general intelligence):

La AGI (Inteligencia General Artificial) equipara las funciones de la IA a las capacidades humanas. Es un campo emergente y en desarrollo con gran potencial futuro, pero aún está lejos de ser una práctica común en el ámbito sanitario actual. Consiste en algoritmos que aspiran a sustituir a los profesionales sanitarios. Quizás algún día lo logren, aunque todavía estamos lejos de alcanzar ese punto.

Máquinas de Soporte Vectorial (SVM):

Las Máquinas de Soporte Vectorial (SVM, por sus siglas en inglés) son un tipo de algoritmo de aprendizaje supervisado utilizado para la clasificación y regresión. Una SVM aprende a separar dos clases distintas de puntos de entrada mediante la construcción de una superficie de decisión óptima en un espacio dimensional más alto. Esto se logra mapeando los datos a través de un kernel, como el kernel Gaussiano, a un espacio de características donde se busca la máxima separación entre las clases. La función de frontera resultante, cuando se proyecta de regreso al espacio de entrada, puede separar los datos en clases distintas, lo que permite clasificar nuevos puntos de entrada correctamente. Las SVM son especialmente útiles cuando el número de características es grande y la cantidad de datos de entrenamiento es limitada.

Natural Language Processing (NLP):

Natural Language Processing (NLP) es un campo que combina la lingüística, la ciencia computacional y la inteligencia artificial para permitir que las computadoras entiendan, interpreten y respondan al lenguaje humano. NLP investiga cómo programar computadoras para procesar y analizar grandes cantidades de texto y voz en lenguaje natural. La meta es desarrollar tecnologías que permitan a las computadoras comprender el contenido y los matices contextuales del lenguaje humano, como se presenta en textos y conversaciones.

Súper-AI (ASI, artificial super intelligence):

Es un campo futurible en el que las aplicaciones de IA superarían la capacidad humana en todos los campos, incluidos la expresión artística, la toma de decisiones y la gestión de emociones en las relaciones interpersonales.

Red Neuronal:

Es un tipo de algoritmo de ML que se basa fundamentalmente en sucesivas capas de transformación de los datos, imitando las conexiones neuronales del cerebro.

Sobreajuste (Overfitting):

Es un problema común en el aprendizaje automático y profundo que ocurre cuando un modelo se ajusta demasiado a los datos de entrenamiento, al punto de capturar el ruido o las fluctuaciones aleatorias en esos datos como si fueran parte del patrón real. Este fenómeno lleva a que el modelo funcione muy bien en el conjunto de datos de entrenamiento, pero tenga un rendimiento pobre cuando se enfrenta a datos nuevos o no vistos previamente, que es lo que realmente importa en la mayoría de aplicaciones prácticas.

Red de Kohonen:

También conocida como mapa autoorganizado o Self-Organizing Map (SOM), es una red neuronal artificial que se utiliza dentro del aprendizaje no supervisado en machine learning. La red de Kohonen aprende a clasificar los datos en grupos basándose en la similitud de los patrones de entrada. Funciona a través de una competencia entre sus neuronas: cada vez que se presenta un nuevo dato, las neuronas 'compiten' para responder a ese dato, y la más similar al dato de entrada se convierte en el ganador, y sus pesos se ajustan para parecerse más al dato de entrada

Con el tiempo, la red se organiza de tal manera que diferentes regiones responden a ciertos patrones de entrada. Los datos que tienen características similares son mapeados cerca uno del otro en la red, mientras que los datos con características diferentes terminan en regiones distantes. Esto forma un mapa que puede revelar cómo están organizados los datos en el espacio de entrada y puede ser utilizado para reducir la dimensionalidad o para visualizar datos complejos de una manera que los seres humanos puedan entender.

Los mapas de Kohonen son utilizados en diversas aplicaciones, como en la categorización de documentos, reconocimiento de patrones en señales y análisis de datos financieros, por su habilidad para ayudar a los investigadores a detectar patrones o grupos naturales dentro de un conjunto de datos.

Perceptrón Multicapa (Multilayer Perceptron):

El Perceptrón Multicapa es un tipo de red neuronal artificial que puede ser muy sensible a cómo se codifican las entradas y salidas. Es importante que las entradas se normalicen para que no haya desequilibrios en la influencia de algunas variables sobre otras debido a diferencias en sus rangos de valores. Esto se logra a través de técnicas de preprocesamiento como Estandarización, Normalización o Transformaciones no lineales.

TensorFlow:

Es una biblioteca de software de código abierto desarrollada por Google que se utiliza ampliamente en el campo del aprendizaje automático e inteligencia artificial. TensorFlow se utiliza para la creación, entrenamiento y despliegue de modelos de aprendizaje automático. La definición proporcionada explica que un tensor es una generalización de vectores y matrices a potencialmente dimensiones más altas, y que TensorFlow representa los tensores como matrices n-dimensionales de tipos de datos básicos. En resumen, TensorFlow proporciona una estructura y herramientas para trabajar con datos multidimensionales, lo que permite la implementación eficiente de algoritmos de aprendizaje automático en una variedad de escenarios.

Sources
BEUNZA Nuin Juan José (2023). MANUAL PRÁCTICO DE INTELIGENCIA ARTIFICIAL EN ENTORNOS SANITARIOS (2ª ED.) Editorial: Elsevier España, S.L.U. Páginas 7-12
LAHOZ Beltrá Rafael (2004). Bioinformática. Editorial Ediciones Díaz de Santos. Página 417
GAUR Loveleen. (2023). “DeepFakes Creation, Detection and Impact”. Editorial Taylor &Francis Group. 1a Edición
Soria Olivas, E. (2022). Inteligencia artificial: casos prácticos con aprendizaje profundo. Ra-Ma.
Fausto; Tojoa Gómez, P., & Castro Caicedo, P. (2022). Máquina de entrenamiento comprimido basada en Extreme Learning Machine MEC-ELM. Universidad del Cauca.
Scientia et Technica Año XI, No 27, Abril 2005. UTP. ISSN 0122-1701
Novales, A. (Diciembre de 2017). Filtro de Kalman: teoría y aplicaciones. Departamento de Economía Cuantitativa, Universidad Complutense. Versión preliminar.
Universidad Tecnológica Nacional - Facultad Regional Rosario, Departamento de Ingeniería Química, Grupo de Investigación Aplicada a la Ingeniería Química (GIAIQ). (2001). Redes Neuronales: Conceptos Básicos y Aplicaciones. En Informática Aplicada a la Ingeniería de Procesos - Orientación I. Profesores: Carlos Alberto Ruiz, Marta Susana Basualdo. Autor: Damián Jorge Matich. Rosario, Argentina.

¿Quieres saber cómo aplicar IA y ML en tu industria?

Queremos conocerte, ¡escríbenos!