Del algoritmo al aprendizaje automático (machine learning)

Del algoritmo al aprendizaje automático (machine learning)

*** (English version below) ***

Hemos dicho que, en términos informáticos, definimos al algoritmo como la secuencia de instrucciones lógicas y reglas de funcionamiento que inician un conjunto de procesos con el objetivo de resolver un problema o producir un resultado.

En esta definición, que es válida a nivel de su mínima expresión, esa secuencia específica de operaciones lógicas de software se traduce en instrucciones que responden a escenarios predeterminados y desencadenan decisiones automatizadas. 

Decisiones automatizadas que se basan en la captura de datos y en la aplicación de los parámetros decisionales predefinidos.

Pero, en el contexto de la “plataformización de la economía de vigilancia”, el algoritmo cobra otro vuelo, convirtiéndose en un diseño de programación basado en un cúmulo masivo de datos al cual se le aplica un juego de reglas de funcionamiento basadas en predicciones y probabilidades estadísticas con el objetivo de influir sobre el comportamiento de las personas que consumen el servicio o producto que se ofrece. 

Habiendo desarrollado el concepto de algoritmo, el siguiente paso para comprender la “inteligencia artificial” es analizar los procesos de “aprendizaje automático” (machine learning) y “aprendizaje profundo” (deep learning).

En esa gradualidad, le dedicaremos las próximas líneas al concepto de “aprendizaje automático”.

El “aprendizaje automático” (machine learning en inglés) es un proceso estadístico - probabilístico que se alimenta de un gran cúmulo de datos (big data) y, a partir de ellos, construye reglas que explican el comportamiento de los datos, convirtiendo prospecciones en cuasi certezas.

El proceso de asimilación masiva de nuestros datos personales le enseña al algoritmo a superar las instrucciones iniciales de su diseño y, mediante predicciones basadas en generalizaciones, inferencias, correlaciones y probabilidades estadísticas, aprende por sí mismo sin intervención humana. Así el machine learning desplaza a los trabajadores que previamente “entrenaban” al algoritmo. 

Pero este desplazamiento de la intervención humana para predecir asociaciones de datos, además de reemplazar puestos de trabajo, en el contexto de la economía de vigilancia es un potenciador del franqueo de dilemas éticos de la datavigilancia al sustituir el criterio del programador, comerciante o fabricante por fórmulas lógicas que se autoreplican (con los sesgos de quienes las definieron).

Los invito a compartir sus comentarios.

Saludos, Rodrigo


Si te interesa leer más sobre el tema, te invito a visitar:

Puedes leer las notas previas en: https://trabajodecenteinclusionsocial.blogspot.com/

*** (English version) ***

From algorithm to machine learning

We have said that, in computer terms, we define the algorithm as the sequence of logical instructions and operating rules that initiate a set of processes with the aim of solving a problem or producing a result.

In this definition, which is valid at the lowest level, that specific sequence of logical software operations is translated into instructions that respond to predetermined scenarios and trigger automated decisions.

Automated decisions based on data capture and the application of predefined decision parameters.

But, in the context of the “platformization of the surveillance economy”, the algorithm takes another flight, becoming a programming design based on a massive accumulation of data to which a set of operating rules based on predictions and predictions is applied statistical probabilities in order to influence the behavior of people who consume the service or product offered.

Having developed the concept of algorithm, the next step to understand "artificial intelligence" is to analyze the processes of "machine learning" and "deep learning".

In this gradualness, we will dedicate the next few lines to the concept of “machine learning”.

The “automatic learning” (also machine learning) is a statistical - probabilistic process that feeds on a large accumulation of data (big data) and, based on them, builds rules that explain the behavior of the data, converting prospects into quasi certainties.

The process of mass assimilation of our personal data teaches the algorithm to overcome the initial instructions of its design and, through predictions based on generalizations, inferences, correlations and statistical probabilities, it learns on its own without human intervention. Thus, machine learning displaces the workers who previously "trained" the algorithm.

But this displacement of human intervention to predict data associations, in addition to replacing jobs, in the context of the surveillance economy is an enhancer of the ethical dilemmas of data surveillance by substituting the criteria of the programmer, merchant or manufacturer for logical formulas that are self-replicating (with the biases of those who defined them).

I invite you to share your comments.

Greetings, Rodrigo


If you are interested in reading more on the subject, I invite you to visit:

You can read the previous notes at: https://trabajodecenteinclusionsocial.blogspot.com/

Comentarios