Glosario IA

A #

Activation Function: Una función matemática aplicada a la salida de un nodo de una red neuronal para introducir no linealidad.

Active Learning: Un enfoque de aprendizaje automático en el que el modelo puede consultar a un usuario o a otra fuente de información para obtener los resultados deseados para nuevos puntos de datos.

Adversarial Attack: Técnicas que manipulan los datos de entrada para engañar a los modelos de aprendizaje automático.

Algorithm: Un procedimiento o fórmula paso a paso para resolver un problema, típicamente implementado por una computadora.

Artificial General Intelligence (AGI): Un tipo de IA que posee la capacidad de entender, aprender y aplicar inteligencia en una amplia gama de tareas a nivel humano.

Artificial Neural Network (ANN): Un modelo computacional inspirado en las redes neuronales del cerebro humano, utilizado en el aprendizaje automático.

Attention Mechanism: Una técnica utilizada en redes neuronales, particularmente en transformers, para centrarse en partes específicas de la secuencia de entrada al hacer predicciones.

Automation: El uso de tecnología para realizar tareas sin intervención humana, a menudo mejorada por la IA y el aprendizaje automático.

Autonomy: La capacidad de un sistema para operar de manera independiente sin intervención humana.

Autoencoder: Un tipo de red neuronal utilizado para el aprendizaje no supervisado de codificaciones eficientes.


B #

Backpropagation: Un algoritmo para entrenar redes neuronales ajustando los pesos en función de las tasas de error obtenidas en épocas anteriores.

Bayesian Network: Un modelo gráfico que representa relaciones probabilísticas entre variables.

Batch Normalization: Una técnica para mejorar la velocidad y estabilidad de las redes neuronales artificiales normalizando la capa de entrada.

BERT (Bidirectional Encoder Representations from Transformers): Un modelo transformer preentrenado diseñado para tareas de comprensión del lenguaje natural.

Bias: Prejuicios o favoritismos en los sistemas de IA, a menudo resultantes de datos de entrenamiento o algoritmos sesgados.

Bias Detection and Mitigation: Técnicas y procesos utilizados para identificar y reducir el sesgo en los modelos de IA.

Bias-Variance Tradeoff: Una propiedad de los modelos en el aprendizaje automático que refleja el equilibrio entre el sesgo (error de modelos demasiado simplistas) y la varianza (error de modelos demasiado complejos).

Big Data: Conjuntos de datos grandes y complejos que requieren métodos y tecnologías avanzadas para su análisis y procesamiento.

Black Box: Un sistema de IA cuyos mecanismos internos no son visibles o comprensibles para los usuarios, lo que genera preocupaciones sobre la transparencia y la responsabilidad.

Bot: Una aplicación de software que ejecuta tareas automatizadas en Internet, a menudo aprovechando la IA para realizar funciones complejas.


C #

Chatbot: Una aplicación de software impulsada por IA que simula la conversación humana, comúnmente utilizada en el servicio al cliente y asistentes virtuales.

Cloze Task: Un tipo de pregunta de llenar el espacio en blanco utilizada para evaluar modelos de lenguaje como GPTs.

Clustering: Un tipo de aprendizaje no supervisado donde los datos se agrupan según la similitud.

Context Window: El rango de tokens de entrada que un modelo de lenguaje puede considerar a la vez al generar texto.

Convolutional Neural Network (CNN): Una clase de redes neuronales profundas utilizadas principalmente para procesar datos estructurados en cuadrícula como imágenes.

Cross-Validation: Una técnica para evaluar cómo los resultados de un análisis estadístico se generalizarán a un conjunto de datos independiente.

CRISP-DM (Cross-Industry Standard Process for Data Mining): Una metodología ampliamente utilizada para proyectos de minería de datos.

Cybernetics: El estudio interdisciplinario de los sistemas regulatorios, sus estructuras, restricciones y posibilidades, a menudo centrado en los circuitos de retroalimentación.

Cyberspace: El entorno virtual creado por tecnologías y redes digitales interconectadas.

Cyborg: Un ser con partes orgánicas y biomecatrónicas, a menudo utilizado en discusiones sobre el posthumanismo.

Culture Jamming: El acto de interrumpir o subvertir los medios y las normas culturales, a menudo en relación con las culturas digitales y cibernéticas.


D #

Data Augmentation: Técnicas utilizadas para aumentar la diversidad de los datos disponibles para entrenar modelos sin recopilar nuevos datos.

Data Labeling: El proceso de etiquetar o anotar datos sin procesar (imágenes, texto, videos) para prepararlos para entrenar modelos de IA.

Data Mining: El proceso de descubrir patrones y conocimiento a partir de grandes cantidades de datos.

Data Pipeline: Un conjunto de procesos que transforman datos sin procesar en un formato adecuado para análisis y aprendizaje automático.

Deep Belief Network (DBN): Un tipo de red neuronal generativa compuesta por múltiples capas de variables latentes estocásticas.

Deep Learning: Un subconjunto del aprendizaje automático que involucra redes neuronales con muchas capas, lo que permite el análisis de datos complejos.

Dialogflow: Una plataforma de comprensión del lenguaje natural para construir interfaces conversacionales.

Dropout: Una técnica de regularización utilizada para prevenir el sobreajuste en redes neuronales al establecer aleatoriamente una fracción de unidades de entrada en cero en cada actualización durante el entrenamiento.


“`html

E #

Embedding Layer: Una capa de red neuronal que convierte datos categóricos en representaciones vectoriales continuas.

End-to-End Learning: Un enfoque de aprendizaje donde un modelo se entrena para realizar una tarea directamente desde la entrada hasta la salida, sin pasos intermedios.

Entity Recognition: El proceso de identificar y clasificar información clave (entidades) en texto.

Epoch: Un paso completo a través de todo el conjunto de datos de entrenamiento durante el proceso de aprendizaje.

Ethics in AI: El estudio de valores y principios morales en el diseño, desarrollo y uso de tecnologías de IA.

Expert System: Un sistema informático que emula la capacidad de toma de decisiones de un experto humano.

Exploratory Data Analysis (EDA): Analizar conjuntos de datos para resumir sus características principales, a menudo usando métodos visuales.


F #

Feature Engineering: El proceso de usar conocimiento del dominio para extraer características de datos en bruto para el aprendizaje automático.

Feature Map: Una representación de los datos de entrada en una capa de red neuronal convolucional.

Few-Shot Learning: Un enfoque de aprendizaje automático donde el modelo se entrena para reconocer patrones con solo unos pocos ejemplos.

Fine-Tuning: Ajustar un modelo preentrenado para especializarlo en una nueva tarea o conjunto de datos.

Flowchart Automation: Usar IA para crear y gestionar diagramas de flujo que automatizan procesos de toma de decisiones.

F1 Score: Una medida de la precisión de una prueba, considerando tanto la precisión como el recall.


G #

GenAI: Inteligencia Artificial Generativa.

Generative Adversarial Networks (GANs): Una clase de marcos de aprendizaje automático donde dos redes neuronales compiten para generar datos realistas.

Generative Model: Un tipo de modelo que genera nuevas instancias de datos basadas en la distribución de los datos de entrenamiento.

Generative Pre-trained Transformer (GPT): Un tipo de modelo de lenguaje desarrollado por OpenAI que utiliza redes transformer para generar texto similar al humano.

Governance: Los marcos y políticas que regulan el desarrollo y despliegue de tecnologías de IA.

Gradient-Based Optimization: Técnicas usadas para minimizar o maximizar una función objetivo ajustando iterativamente los parámetros del modelo.

Gradient Descent: Un algoritmo de optimización usado para minimizar la función de costo en el entrenamiento de modelos de aprendizaje automático.

Graph Neural Network (GNN): Un tipo de red neuronal que opera sobre estructuras de grafo.

Ground Truth: Los datos o etiquetas precisos y reales utilizados para entrenar y evaluar modelos de aprendizaje automático.


H #

Human-in-the-Loop (HITL): Un enfoque donde el juicio y la entrada humana se integran en el entrenamiento y operación de sistemas de IA.

Hybrid Intelligence: La combinación de inteligencia humana y artificial para mejorar la toma de decisiones y la resolución de problemas.

Hyperparameters: Configuración utilizada para controlar el proceso de aprendizaje de modelos de aprendizaje automático, como la tasa de aprendizaje y el tamaño del lote.

Hyperparameter Tuning: El proceso de optimizar los hiperparámetros de un modelo de aprendizaje automático para mejorar el rendimiento.

Hyperreality: Una condición en la que la distinción entre realidad y simulación se vuelve borrosa, a menudo discutida en estudios de ciberkultura.


I #

Image Recognition: El proceso de identificar y detectar un objeto o característica en una imagen o video digital.

Informatics: El estudio del procesamiento de información, particularmente con respecto a sistemas y tecnologías.

Instance Segmentation: Una tarea de visión por computadora que identifica objetos en una imagen y los segmenta a nivel de píxel.

Intent Recognition: Identificar la intención subyacente detrás de la entrada de un usuario en tareas de procesamiento de lenguaje natural.

Interactive AI: Sistemas de IA diseñados para interactuar con los usuarios en tiempo real, a menudo utilizados en servicio al cliente y entretenimiento.

Iterative Prompting: Una técnica en la ingeniería de prompts donde los prompts se refinan iterativamente para mejorar la calidad de las respuestas generadas.

IoU (Intersection over Union): Una métrica utilizada para evaluar la precisión de los sistemas de detección de objetos comparando la superposición entre las cajas delimitadoras predichas y las reales.

Intelligent Agent: Una entidad autónoma que observa y actúa sobre un entorno para alcanzar objetivos específicos.


J #

Job Scheduling: Automatizar el proceso de planificar y asignar recursos para tareas, a menudo utilizando IA para optimizar la eficiencia.

Just-in-Time Learning: Un enfoque educativo que entrega información cuando se necesita, a menudo facilitado por IA.

Jupyter Notebook: Una aplicación web de código abierto que permite la creación y el intercambio de documentos que contienen código en vivo, ecuaciones, visualizaciones y texto narrativo.


K #

Keyword Extraction: Identificar palabras o frases significativas en un texto, comúnmente utilizado en el procesamiento de lenguaje natural.

K-Means Clustering: Un método de cuantización de vectores que particiona n observaciones en k clusters.

k-Nearest Neighbors (k-NN): Un algoritmo de aprendizaje basado en instancias que clasifica puntos de datos basándose en los k ejemplos de entrenamiento más cercanos.

Knowledge Distillation: Una técnica donde un modelo más pequeño aprende a imitar a un modelo más grande y complejo para lograr un rendimiento similar con menos recursos.

Knowledge Representation: El campo de la IA que se ocupa de cómo el conocimiento puede ser representado simbólicamente y manipulado de manera automatizada.


L #

Language Model: Un modelo que predice la distribución de probabilidad de palabras en una oración, utilizado en el procesamiento de lenguaje natural.

Latent Space: El espacio multidimensional abstracto donde los datos de entrada son proyectados y analizados por un modelo de aprendizaje automático.

Learning Algorithms: Algoritmos que permiten a las máquinas aprender de los datos y mejorar su rendimiento con el tiempo.

Learning Rate: Un hiperparámetro que controla cuánto cambiar el modelo en respuesta al error estimado cada vez que se actualizan los pesos del modelo.

Linear Automation: La automatización secuencial de tareas, típicamente sin ramificación condicional o toma de decisiones complejas.

Liquid Modernity: Un concepto que describe la naturaleza fluida y siempre cambiante de la vida moderna, relevante en teorías post-digitales y post-humanistas.

Logistic Regression: Un método estadístico para analizar un conjunto de datos en el que hay una o más variables independientes que determinan un resultado.

LSTM (Long Short-Term Memory): Un tipo de red neuronal recurrente capaz de aprender dependencias a largo plazo.


M #

Machine Learning (ML): Una subcategoría de la IA centrada en construir sistemas que aprenden de los datos y mejoran su rendimiento.

Media Archaeology: El estudio de la historia y tecnología de los medios desde una perspectiva no lineal, a menudo utilizado en estudios de ciberkultura.

Meta-Learning: Un enfoque de aprendizaje automático donde los algoritmos aprenden a aprender, mejorando su capacidad para adaptarse a nuevas tareas.

Minibatch: Un subconjunto de los datos de entrenamiento utilizado para actualizar los parámetros del modelo en una iteración de descenso de gradiente.

Model Compression: Técnicas utilizadas para reducir el tamaño de los modelos de aprendizaje automático mientras se mantiene el rendimiento.

Model Drift: La degradación del rendimiento del modelo con el tiempo debido a cambios en la distribución de datos subyacente.

Multi-Task Learning: Entrenar un modelo en múltiples tareas simultáneamente para mejorar la generalización y eficiencia.

Multilayer Perceptron (MLP): Una clase de red neuronal artificial de alimentación hacia adelante que consta de al menos tres capas de nodos.


N #

Neural Architecture Search (NAS): El proceso de automatizar el diseño de redes neuronales artificiales.

Natural Language Processing (NLP): El campo de la IA que se centra en la interacción entre computadoras y lenguajes humanos.

Neural Network: Un modelo computacional inspirado en el cerebro humano, que consta de nodos interconectados (neuronas) que procesan información.

Normalization: Escalar los datos de entrada para mejorar el rendimiento y la estabilidad del entrenamiento de los modelos de aprendizaje automático.


O #

Ontology: En IA, un marco estructurado para categorizar y definir las relaciones entre conceptos dentro de un dominio, a menudo utilizado en IA para mejorar la comprensión y el razonamiento.

Open Source AI: Tecnologías y sistemas de IA cuyo código fuente está disponible para uso y modificación pública.

Optimization: El proceso de ajustar los parámetros del modelo para minimizar o maximizar una función objetivo.

Overfitting: Cuando un modelo aprende demasiado bien los datos de entrenamiento, capturando ruido y detalles que afectan negativamente el rendimiento en nuevos datos.

Optimizer: Algoritmos o métodos utilizados para cambiar los atributos de la red neuronal, como los pesos y la tasa de aprendizaje, para reducir las pérdidas.


P #

PCA (Principal Component Analysis): Una técnica de reducción de dimensionalidad utilizada para reducir la complejidad de los datos mientras se retiene la mayor parte de la variación.

Perceptron: El tipo más simple de red neuronal artificial, que consta de una sola capa de nodos de salida.

Post-digital: Una perspectiva que examina la integración de tecnologías digitales en todos los aspectos de la vida, yendo más allá de la novedad de lo digital.

Post-humanism: Un enfoque filosófico que explora los límites y las relaciones entre los humanos y la tecnología.

Predictive Analytics: Técnicas que utilizan datos, algoritmos estadísticos y aprendizaje automático para identificar la probabilidad de resultados futuros.

Preprocessing: El proceso de transformar datos en bruto en un formato adecuado para el aprendizaje automático.

Pre-trained Model: Un modelo de aprendizaje automático que ha sido previamente entrenado en un conjunto de datos grande y puede ser ajustado para tareas específicas.

Prompt Engineering: El diseño y refinamiento de prompts de entrada para guiar a los modelos de IA, particularmente los modelos de lenguaje, para generar salidas deseadas.

Provenance: Rastrear el origen y la historia de los datos, incluyendo cómo han sido procesados y transformados, para asegurar la transparencia y responsabilidad en los sistemas de IA.


Q #

Q-Learning: Un algoritmo de aprendizaje por refuerzo sin modelo que busca aprender la calidad de las acciones, diciendo a un agente qué acción tomar en qué circunstancias.

Quantization: Reducir la precisión de los números utilizados en un modelo de aprendizaje automático para disminuir su tamaño y mejorar la eficiencia.

Quantum Computing: Un tipo de computación que utiliza fenómenos mecánico-cuánticos para realizar operaciones sobre datos, potencialmente revolucionando la IA.

Query Expansion: Mejorar una consulta de búsqueda con términos adicionales para mejorar el rendimiento de la recuperación.


R #

Recurrent Neural Network (RNN): Una clase de redes neuronales donde las conexiones entre nodos forman ciclos dirigidos, utilizadas para la predicción de secuencias.

Reinforcement Learning (RL): Un tipo de aprendizaje automático donde un agente aprende a tomar decisiones realizando ciertas acciones y recibiendo recompensas o penalizaciones.

Regularization: Técnicas utilizadas para prevenir el sobreajuste añadiendo información adicional al modelo.

Reproducibility: La capacidad de reproducir consistentemente los resultados de un experimento o estudio de aprendizaje automático, asegurando la fiabilidad y validez.

Robotics: La rama de la tecnología que se ocupa del diseño, construcción, operación y aplicación de robots.

Rule-Based System: Un sistema de IA que utiliza reglas predefinidas para tomar decisiones o resolver problemas, a menudo en contraste con enfoques basados en aprendizaje.


S #

Singularity: Un punto futuro hipotético donde el crecimiento tecnológico se vuelve incontrolable e irreversible, a menudo asociado con la superinteligencia artificial.

Semi-Supervised Learning: Un enfoque de aprendizaje automático que combina una pequeña cantidad de datos etiquetados con una gran cantidad de datos no etiquetados durante el entrenamiento.

Social Computing: El estudio de cómo los comportamientos e interacciones sociales pueden ser modelados y facilitados por sistemas computacionales.

Supervised Learning: Un tipo de aprendizaje automático donde el modelo se entrena en datos etiquetados, aprendiendo a mapear entradas a salidas conocidas.

Support Vector Machine (SVM): Un modelo de aprendizaje supervisado utilizado para el análisis de clasificación y regresión.

Surveillance Capitalism: Una crítica de cómo los datos y la información son mercantilizados y utilizados para obtener ganancias, a menudo implicando tecnologías de IA.

Swarm Intelligence: El comportamiento colectivo de sistemas descentralizados y auto-organizados, a menudo utilizado en IA para resolver problemas complejos.


T #

TensorFlow: Una biblioteca de código abierto para aprendizaje automático e inteligencia artificial desarrollada por Google.

Tokenization: El proceso de convertir una secuencia de texto en unidades individuales (tokens), como palabras o subpalabras, para su procesamiento por modelos de aprendizaje automático.

Transfer Learning: Una técnica donde un modelo preentrenado se reutiliza en un nuevo problema, pero relacionado.

Transformer: Un tipo de arquitectura de red neuronal diseñada para procesar secuencias de datos, particularmente efectiva en tareas de procesamiento de lenguaje natural.

Transhumanism: Un movimiento que aboga por la transformación de la condición humana a través de tecnologías avanzadas.

Trustworthy AI: Sistemas de IA diseñados para ser fiables, transparentes y alineados con los valores humanos y principios éticos.

Turing Test: Una prueba propuesta por Alan Turing para determinar si una máquina exhibe un comportamiento inteligente equivalente o indistinguible del de un humano.


U #

Underfitting: Cuando un modelo es demasiado simple para capturar la estructura subyacente de los datos, resultando en un mal rendimiento.

U-Net: Una arquitectura de red neuronal convolucional diseñada para tareas de segmentación de imágenes biomédicas.

Update Step: En aprendizaje automático, el proceso de ajustar los parámetros del modelo basado en el gradiente de la función de pérdida.

Unsupervised Learning: Un tipo de aprendizaje automático donde el sistema aprende patrones a partir de datos no etiquetados sin instrucciones explícitas.


V #

Validation Set: Un subconjunto de los datos utilizado para evaluar el rendimiento del modelo durante el entrenamiento y ajustar hiperparámetros.

Vanishing Gradient Problem: Una dificultad que se encuentra al entrenar redes neuronales profundas donde los gradientes utilizados para actualizar los pesos disminuyen exponencialmente a medida que se propagan hacia atrás a través de las capas.

Variance: La cantidad por la cual cambiarían las predicciones del modelo si utilizáramos un conjunto de datos de entrenamiento diferente, reflejando la sensibilidad del modelo a los datos de entrenamiento específicos.

Variational Autoencoder (VAE): Un tipo de autoencoder que aprende un mapeo probabilístico desde los datos de entrada a un espacio latente y puede generar nuevas muestras de datos.

Vectorization: El proceso de convertir datos en un vector (formato numérico) que puede ser procesado por algoritmos de aprendizaje automático.

Vernacular AI: Tecnologías de IA adaptadas a lenguajes, culturas y contextos locales, enfatizando la inclusividad y accesibilidad.

Virtual Assistant: Un sistema impulsado por IA diseñado para asistir a los usuarios realizando tareas o proporcionando información, a menudo a través de interacción en lenguaje natural.

Virtual Reality (VR): Una experiencia simulada creada por tecnología informática, que sumerge a los usuarios en un entorno virtual.


W #

Wearable Technology: Dispositivos electrónicos que se llevan en el cuerpo, a menudo incorporando IA para monitorear y mejorar las experiencias del usuario.

Weak AI: Sistemas de IA diseñados para tareas específicas y limitadas, que carecen de capacidades cognitivas generales.

Weight Initialization: El proceso de establecer los valores iniciales de los pesos en una red neuronal antes de comenzar el entrenamiento.

Weight Sharing: Una técnica en redes neuronales donde múltiples nodos comparten los mismos pesos, reduciendo el número de parámetros y la complejidad computacional.

Word2Vec: Un conjunto de modelos que producen embeddings de palabras entrenando palabras contra sus contextos, capturando significados semánticos.

Word Embedding: Un tipo de representación de palabras que permite que las palabras se representen como vectores en un espacio vectorial continuo.

Workflow Automation: El uso de IA para automatizar procesos de negocios complejos, mejorando la eficiencia y precisión.


X #

XAI (Explainable AI): Sistemas de IA diseñados para ser transparentes y comprensibles, permitiendo a los usuarios entender cómo se toman las decisiones.

XGBoost: Un marco de optimización de boosting de gradiente diseñado para ser altamente eficiente, flexible y portátil.

XOR Problem: Un problema en el aprendizaje automático que demuestra las limitaciones de un perceptrón de una sola capa, donde la salida es verdadera si y solo si las entradas son diferentes.


Y #

Yield Curve: Una representación gráfica de las tasas de interés a lo largo de diferentes duraciones de contrato para un contrato de deuda similar, utilizado metafóricamente en IA para describir el rendimiento a lo largo del tiempo.

Yield Optimization: El uso de IA para mejorar la eficiencia y productividad de los procesos, particularmente en manufactura y agricultura.

YOLO (You Only Look Once): Un sistema de detección de objetos en tiempo real que predice cuadros delimitadores y probabilidades de clase directamente a partir de imágenes completas en una sola evaluación.


Z #

Zero-day Exploit: Una vulnerabilidad en software que es desconocida para los desarrolladores y explotada por hackers, destacando preocupaciones de ciberseguridad en IA.

Zero-Shot Learning: Una tarea de aprendizaje automático donde se requiere que el modelo haga predicciones sobre nuevas clases que no se observaron durante el entrenamiento.

Zettabyte: Una unidad de almacenamiento de información digital equivalente a un sextillón (10^21) bytes, ilustrando la escala del big data en IA.

Z-score Normalization: Una técnica estadística utilizada para estandarizar datos restando la media y dividiendo por la desviación estándar.