Inteligencia Artificial 2. Big Data

Inteligencia Artificial. 2

BIG DATA 

Tulio Rosembuj. Junio de 2018

Abstract.

The social power of the algorithm lies in the ability of networked computers, but, above all, in the collection and capture of personal data. Personal data are the raw material of digital wealth. There is no more valuable currency in the millennium than the personal data and gratuity also makes it the source par excellence of the behavior surplus of large organizations involved in the Internet. The function of data is the construction of the digital person, whose identity is partial, dividual, because it is based on a generalization, inference, correlation, directed to the investigation or control of the behavior of the categories, segments, groups, social to which it tries to influence, motivate or persuade.  The data is the starting point for the production of predictive products based on the manipulation of the behavior of consumers and citizens. The data ceases to be of the person and becomes the ownership and possessory secret of the organizations, which transform them in the profiling of individuals that are invisible and ignored to the users. The surveillance economy is the economy based on the control and monitoring of the person from their data, which can be used by anyone, in any space, at any time and with an eternal, universal, reiterative, for profit or information. The social value of privacy is a value that is not individual but is of interest to all society. Without privacy right there is no social good and vice versa. The General Regulation of Data Protection (GDPR) of the European Union adopts the superior principle that the protection of Individuals with regard to the processing of their personal data is a fundamental right. The scope of the European standard makes clear its emphasis on the respect for human dignity. The basis of data protection cannot be segregated from the full right of privacy. Our data are part of each of us, fractal segments of our identity and identification and this by human nature. The separation between the person and their data is irremediably artificial. The European Union provides an innovative regulatory framework for the protection of the right to privacy in the face of the emergence of data surveillance, where public intervention as a last option rushes the responsibility of economic agents and an attempt to approximation to the algorithmic mystery. It is clear that there is an underlying reasoning, that the design, practice, complexity of the algorithms is potentially harmful and, above all, unknown in their projection on the person. 

8.La minería del Big Data. Big Data mining.

El desarrollo de potentes ordenadores conectados en red y la sofisticación matemática confluyen en la colección y captura de datos personales de los consumidores y ciudadanos desde variadas fuentes y su almacenamiento facilita las capacidades estadísticas de análisis de un ilimitado caudal de información.

Esa capacidad de análisis es el núcleo del poder social del algoritmo, porque consiente las correlaciones y predicciones aptas para clasificar, calificar, filtrar, categorías, segmentos, clases sociales con cualquier propósito y en forma multilateral, transversal. “It is about finding new ways to use data to make predictions and thus decisions about everything from healthcare to policing, urban planning, financial planning, job screening and educational admissions.”

Los datos fluyen desde fuentes a través de vías conocidas, proveyendo ingentes cantidades de primera materia estadística de información sobre cualquier aspecto del comportamiento humano, sea social, económico, financiero, perfiles genómicos, de consumo de mero acceso deducibles de opiniones, sentimientos, ansiedades, conflictos vertidos en la red social directa o indirectamente. Cualquier dato personal, sea cual fuere su carácter, es idóneo de aprovechamiento lucrativo o de control y vigilancia.

En primer lugar, fue el comercio electrónico, las transacciones en Internet y el acceso a Internet. En segundo lugar, los flujos recogidos a través de los mecanismos de la inteligencia artificial, sensores, agentes situados en un amplio territorio de objetos y personas. En tercer lugar, los flujos derivados del sistema bancario, calificación crediticia, cartas de crédito, aerolíneas, asistencia sanitaria y medicina, aseguración, compañías de telecomunicación, publicidad, agencias de propaganda, publicistas, bases de datos públicos sean estrictamente genómicos o fiscales y de seguridad social. En cuarto lugar, los flujos desde las cámaras instaladas en las calles, negocios, edificios públicos y privados y finalmente, aunque no menos importantes, la información acumulada en los teléfonos móviles. Por último, la atracción individual por el entretenimiento, uso o información de bienes digitales, tales como libros, películas o música o necesidades personales alimentadas desde al ámbito digital (Facebook, Twitter). “Big Data is constituted by capturing small data from individuals’ computer mediated actions and utterances in their pursuit of effective life”

D. Curran enumera en un artículo descriptivo todo lo que Google y Facebook saben de nosotros.

-Donde hemos estado.

-Todo lo que buscamos y borramos.

-Poseen un perfil publicitario de lo que piensan nos interesa.

-Saben todas las aplicaciones que utilizamos.

-Tienen toda nuestra historia en YouTube.

-Pueden acceder a nuestros teléfonos móviles, correos, fotografías, videos, contactos, mensajes, nuestras rutinas de trabajo o diversión.

Los datos personales son el principal recurso de la economía digital y es “trabajo gratuito” No hay divisa más valiosa en el milenio que el dato personal y la gratuidad lo convierte, además, en la fuente por excelencia del excedente comportamental (behavior surplus) de las grandes organizaciones que participan en Internet.

La infinita aptitud relacional profundiza la preocupación del uso de los datos, que se convierten en puros azares de análisis, ocultos al usuario u opacos en sus efectos, donde la causalidad es mera inferencia, aflorando estructuras poderosas de control, de vigilancia de manipulación, que anticipan la voluntad de orientación social, política, cultural, intencional o no.

La manipulación de los datos personales despoja al modelo de Internet de su inicial vocación de acceso de todos y cualquiera a formas de conocimiento útiles para saber la realidad, porque concentra la información en pocas manos para la consecución de ventajas competitivas, políticas, militares. Big Data “predate the spread of Internet”.

La persona es despojada de sus datos de los cuales pierde posesión y dirección y esto convierte el ambiente algorítmico en incomprensible, inexplicable y opaco. De pronto, sus decisiones diarias aparecen previamente censuradas y mediatizadas por el azar analítico, bajo disfraz tecnológico.

“Thus, individual users have no way to anticipate fully how information about them might prove salient for particular forms of decision, making, including whether they might be considered a security risk, a good or bad job prospect, credit risk or more or less likely to drop out of school.”

La función de los datos es la construcción de la persona digital un sujeto cuya identidad es parcial, fragmentaria, dividual, porque condensa el análisis algorítmico de los datos a partir de los datos y lo utiliza con significación precisa cuya consecuencia sería la resultancia de la persona humana, de lo que es, de lo que quiere, de cuáles son sus ambiciones u objetivos más íntimos.

John Cheney-Lippold ofrece una explicación sugerente y rigurosa de la persona digital en términos de datos.

El punto determinante de la sociedad algorítmica es la pretendida convicción de apropiarse de los datos personales del individuo, para su aprovechamiento, como si de la creación del ser humano se tratara. La mímesis digital es la alquimia iluminada dirigida a vaciar de autonomía moral a la persona, para adecuar su comportamiento a perfiles y prioridades interesados.

La transformación es la clave:” the transformation of part, if not most of our lives into computable data. Our algorithmics identities are made through data and only data. It is a process that gleans from databases.” (Jh. Cheney-Lippold)

Una transformación que implica la datavigilancia, la observación continua, creciente, ilimitada, intemporal, de la desposesión de nuestros datos, que “can then be used by marketers, political campaigns, spy agencies, big data researchers and even police departments…Our big data –algorithmic identities are statistically ordained by correlation and nothing else. As everything we do becomes datafied, everything we do become controllable. It`s a control that frames your world. It conditions the possibilities available for you to live your life as a user- as well as a member of a category.”

Sería un error, no obstante, calificar el Big Data simplemente como diabólico; porque sería falso. El poder social del algoritmo es soft biopolitics, porque cuenta con adeptos que adhieren y categorías que lo sostienen atraídas probablemente por el empleo de la sugestión, la persuasión, la publicidad, la oferta mutable y tornadiza de usos y servicios de atracción y fidelización, que responden conforme a la identidad preelaborada de su comportamiento.

La atracción de internet es esencialmente voluntaria. Nadie obliga a entrar, participar, descargar aplicaciones que suelen despertar el interés sincero de multitudes en todo el mundo. Internet en sí mismo es un bien público global. Al mismo tiempo, esa cooperación universal es caldo de cultivo de aprovechamiento y manipulación económica, política, cultural.

Es un control basado en la configuración de identidad y categorías que nacen de nuestro acceso a la red y la utilización de las propuestas que se formulan. Por eso, si hay transformación –y control y vigilancia- es porque hay usuarios, porque las redes sociales y la economía de la cloud convocan a millones a su amparo. No es solo el algoritmo ni el poder informático o la infinita recogida y captura de datos lo que produce la digitalización; sino, la contribución de los usuarios.

Jh. Cheney-Lippold dice “We are made of data. But we are really only made, when that data is made useful

El tráfico del dato personal provee al éxito de la datificación, de sus propietarios, de los intermediarios y deja en la intemperie nuestra propia identidad total, nuestra autonomía moral, como persona. La posesión de datos pasa a ser la materia prima principal de la red de información con la finalidad de acumulación económica y, asimismo, con la finalidad de fortalecimiento de los aparatos militares, policiales, judiciales, administrativos del sector público.

El punto crucial está cuando la manipulación convierte la información en incomprensible, caprichosa, o inaccesible a su secreto. La apropiación de los datos personales por los propietarios son la fuente de rendimientos que a su turno generan más beneficios y la apropiación pública de los datos personales para su empleo político, militar, de seguridad, disminuye la integridad de los derechos humanos, de la igualdad, de la democracia.

9.Del Big Data al excedente comportamental. From Big Data to behavioral surplus.

Cohen indica tres cuestiones preocupantes del Big Data en el contexto de la economía de vigilancia. Primero, la crisis de credibilidad inspirada por su agenda secreta de investigación, excluida de la información amplia de su contenido y consecuencias. Segundo, la ideología subyacente que hace igual información con verdad, a la sombra de una inexistente pretendida imparcialidad y neutralidad. Tercero, la subjetividad de las elaboraciones al servicio de poderosos agentes económicos.

Big Data amplifica la autoridad algorítmica a toda la esfera social y cualquier actividad humana de la persona. De la datificación algorítmica a la economía de vigilancia:

“a systemic coherent new logic of accumulation that I call surveillance capitalism…. With a new politics and social relations that replaces contracts, the rule of law, and social trust with the sovereignty of Big Other. It imposes a privately administered compliance regime of rewards and punishments that is sustained by a unilateral redistribution of rights (privacy rights).”

La economía de vigilancia es el modelo dominante de la digitalización y tiene su transporte en el Big Data, la datavigilancia (dataveillance) y las predicciones destinadas a la manipulación comportamental de consumidores y ciudadanos.

El Big Data, en manos del Big Other, reclama los datos personales, su extracción y captura y el asalto a los ambientes de convivencia sociales, políticos, culturales, económicos, para convertirlos en secretos posesorios de los que obtiene sus mayores logros y que advierte en la adhesión de masas el modo de control de su comportamiento. El individuo disuelto en categorías y divisible en partes, el dividual necesario para la reconstrucción de la persona digital.

La datavigilancia (dataveillance) es el “uso sistemático de sistemas de datos en la investigación o control de las acciones o comunicaciones de una o más personas”. Roger Clarke entiende que la datavigilancia depende de la disponibilidad de datos y se materializa mediante técnicas de expropiación de los datos; las generalizaciones e inferencias para construir perfiles y la trazabilidad de las transacciones en las que participa la persona.

La economía digital de vigilancia tiene su eje en la manufactura de productos predictivos fundados en la manipulación del comportamiento de los consumidores y ciudadanos.

Zuboff define el beneficio digital como excedente de comportamiento (behavioral surplus).

El propósito común de la expansión de la red, la potencia informática, la sofisticación algorítmica y la concentración de datos personales es la obtención de materia prima gratuita en forma de más usuarios, canales, servicios, mecanismos, lugares y espacios, porque es de ahí que deriva el excedente de comportamiento.

La cantidad de datos y la interconexión de sensores fundan el modelo algorítmico de las inferencias y predicciones de comportamiento, apoyado en técnicas, de persuasión, influencia y publicidad en ciertas direcciones y no otras, “social engineering in political, civic and comercial spheres.”

La refinería de los datos extraídos a causa de la predicción genera modos de actuación que, superando a la persona, se concentran en grupos, categorías, segmentos asociados por indicios algorítmicos, y que, sin modificar substancia, son variables, adaptables, circunstanciales, por definición” with an epistemology optimized for surplus extraction.”

La predicción, más allá de su dudosa certidumbre y precisión, sobreviene un instrumento esencial para anticipar lo que el futuro depara y que sirve para la acción y el resultado, y todo el arsenal de la inteligencia artificial conduce hacia la reducción de los costes de predicción, últimamente, a través de machine learning predictions y la robótica.

Esto lleva a señalar que la predicción en si misma pasa a ser el medio más acertado de previsión de excedentes de comportamiento, teniendo en cuenta que su éxito también está restringido por la falibilidad, las creencias, las convicciones del diseño humano, en suma, por el juicio aplicado a sus consecuencias u opciones. Así, la valoración humana aparece necesaria e insustituible. Justamente de lo que la predicción hasta el momento carece.

No es solo el algoritmo, la máquina, los datos; sino que se precisa valoración humana para que la predicción sea utilizable.

” Using the language of economics, judgement is a complement to prediction and therefore when the cost of prediction falls demand for judgement rises. We’ll want more human judgement.”

El producto predictivo, que no es mercancía ni servicio, sino bien digital o virtual, en rigor, mercancía informacional, llega desde la materia prima básica, los usuarios, que alimenta el mercado de futuros comportamientos sociales. Es un intangible, recurso no material ni físico, al cubo: algoritmo, ordenador, base de datos, cuyo origen responde a necesidades previamente fabricadas. No son los datos personales recogidos o capturados; sino los datos que se encadenan a datos sucesivos y sin solución de continuidad, eternamente. Es un intangible metadata, datos sobre datos.

La definición de beneficio o excedente comportamental de Zuboff permite apreciar que la renta digital, digitalizada, es renta de comportamiento, de predicción estadística flexible, adaptable, cambiante, de conductas sociales, adecuadamente despojadas de sus datos íntimos, personales, como carácter previo imprescindible para su   datificación, o sea, para convertirse en capital de los propietarios y poseedores del capital intelectual, sean privados con fin de lucro o público con afán de vigilancia..

Los datos personales, refinados y transformados que originan más datos, son la fuente de la riqueza digital.

Lo cual es definitivo, desde la perspectiva jurídica en general y la tributaria en particular. Es un espacio sin ley ni impuesto.

“How can we expect companies whose economic existence depends upon behavioral surplus to cease capturing behavioral data voluntarily? It`s like asking for suicide.”

10.La propietarización de los datos personales y el capital intelectual. Propertization of the personal data and intellectual capital. 

Francesco Ferrara fue de los primeros que se atuvo a la empresa como entidad unitaria superadora de los elementos singulares que la integran y cuyo centro es la organización a modo de una red de conexiones funcionales vinculadas.

El capital intelectual de la empresa se desdobla en dos elementos. Por un lado, el capital humano, experiencia, competencia, habilidad, y, por otro, el capital organizativo, que, a su turno, puede subdividirse en tres apartados:

Primero, el capital bajo posesión de la organización en forma de procesos, procedimientos, fórmulas, instrucciones, métodos, proyectos de I + D, know how. El secreto posesorio de la información originada en el interior de la organización.

Segundo, el capital bajo el dominio propietario de la empresa: patentes, derechos de autor, marcas. El secreto propietario de la invención y de la originalidad amparado por la titularidad formal y pública.

Tercero, el capital relacional acumulado en el ámbito de la clientela y relaciones preferentes con proveedores. La lista de clientes, proveedores, los programas de marketing y, en general, los marketing intangibles– publicidad, propaganda-  cuyo ámbito de protección puede ser posesorio o propietario y que hoy nutre la propaganda online de precisión.

Cada clase de dato puede ser un bien digital o virtual, apto de ser electrónicamente transferido y dirigido a la información cuyo contenido pueden ser palabras, sonidos, imágenes, hechos, programas de algoritmos, fórmulas matemáticas, químicas, genómicas, codificadas en una cadena de bits (bitstrings), secuencias binarias de ceros y unos. El bien digital o virtual es un bien intangible e integra el capital informático poseído o de propiedad de la organización.

El bien digital, que no es una mercancía o servicio, en verdad es una mercancía informacional, establece su éxito por la cantidad y calidad de su uso por la gente. Los datos alimentan el algoritmo. La pregunta es como el dato personal se convierte en parte del capital intelectual de la organización y permite su infinita recombinación, reutilización, repetición en los más variados ámbitos, en distintos tiempos, por diferentes intermediarios. El dato personal deviene capital intelectual de la organización, pero no está claro si la titularidad ocurre por posesión o por dominio.

El ejemplo inmediato es la capacidad del propietario de captura y control de las contribuciones de los trabajadores a la mejora del capital intelectual en particular a través de la apropiación de los resultados derivados las invenciones relacionados con el trabajo. Esto es lo que fue definido como “la propietarización del trabajo, la capacidad de los propietarios de capital de propietarizar el trabajo como capital intelectual” to control their workers and appropriate the returns on their labor through the expansive use of intellectual property laws, contract and employment laws, and other legal mechanisms”.

La propietarización del trabajo intelectual del trabajo, del capital humano, se reproduce, a mayor escala y profundidad, en la propietarización de los datos personales de los usuarios.

Primero, los datos se apropian mediante automatización. Los datos, una vez recogidos, pertenecen a la organización como propietario auténtico de los mismos bajo secreto propietario o posesorio.

Segundo, el secreto significa la ocultación bajo la ley de propiedad intelectual, frente a los competidores y terceros, inclusive, aunque parezca paradójico, frente a los usuarios, que son los auténticos propietarios de sus datos. La apropiación sin legitimidad se transforma en propiedad.” Appropiation strategies based on contracted-mandated secrecy are facts of legal entrepreneurship that both affirm and alter the legal status of collected information.”

Tercero, la cosecha de los datos habilita la intervención del Big Data en la elaboración de perfiles de categorías y segmentos, la manufactura de productos predictivos, ignorados por los usuarios y sin que sus efectos sean visibles.

En rigor, más que de propietarización cabe hablar de un modelo de apropiación de hecho de los datos que fueron obtenidos sin reciprocidad de ningún tipo y que concluyen en la propietarización. La apropiación y posterior predicción de los comportamientos de la persona no está causada necesariamente por la transacción, que puede que ni siquiera se verifique, si no por el acceso a Internet o por casualidad ofrecida a través de terceros.

La apropiación de los datos alimenta el excedente de comportamiento (behavioral surplus). Y ello es posible por la organización. El proceso de recogida, almacenamiento, diseminación de los datos personales es posible si se cuenta con la organización adecuada para ello, para unificar la vasta masa de datos, procesarlos y alterarlos para su conversión en productos predictivos.

Las fuentes del capital intelectual son la organización, el capital humano, los usuarios y clientes con el objetivo de construcción de la información como conocimiento. Los hacedores de conocimiento aprovechan de la falta de conocimiento de los receptores, de sus falencias cognitivas, para conseguir la modificación de su comportamiento.

11.Intimidad y Protección de Datos. Privacy and Data Protection 

La persona digital es una construcción artificial basada en lo que otros piensan que somos, que queremos. Pero, su base es el intento de apropiación de nuestro comportamiento, control y vigilancia a través de los datos personales. Hay una amenaza real a la autonomía moral del individuo, a sus intrínsecas y extrínsecas motivaciones y, aún más, una clara restricción del espacio de respiración necesario para vivir.

El valor social de la intimidad es un valor que no es individual, sino que interesa a toda la sociedad. Sin derecho individual no hay bien social y viceversa. Sin la autonomía moral se ausenta la capacidad de juicios morales autónomos y la audacia de asumirlo, aunque no sea fácil ni aceptado.

La información es una parte esencial de la vida individual y al mismo tiempo define sus objetivos y la esfera interior de la persona.” La intimidad informacional, en breve, es un elemento constitutivo de la sociedad civil en el sentido más amplio del término”

Los espacios insterticiales- usando la expresión de Cohen-  son vitales para los individuos y la democracia cívica, la innovación y el desarrollo humano. Cada uno tiene su espacio propio y peculiar a respetar, separando los distintos contextos en los que actúa y su experiencia (semantic discontinuity).

Los datos personales exhiben sus riesgos y daños cuando tratan de configurar un dividual, con la pretensión de ser una cruda réplica del ser humano; en particular, los datos que son sensibles a derechos y libertades fundamentales, origen étnico o racial, religión, nacionalidad, genética, opiniones políticas, sindicales.

D. J. Solove sostiene el derecho a la intimidad antes como un interés social que individual, porque su protección consolida las bases de los valores propios de la comunidad. “You cannot fight for an individual right against the more important social good. Questions of privacy involve a balance of social interests on both sides of the scale…The protection of privacy in the information age is a question of social design”.

La autodeterminación de los datos propios significa el pleno control de la persona sobre la ruta de sus datos y la prohibición de una vulneración inapropiada o impropia de su uso y tratamiento por terceros. Los datos no son una mercancía separable de la persona: al contrario, son inescindibles del individuo. Obviamente esto es complejo porque en verdad es una mercancía informacional, la disciplina legal debe compatibilizar el intercambio ordinario de datos por servicios y los riesgos o daños que pueden derivar de su recogida, posesión, migración o almacenamiento en silos.

D. J. Solove desarrolla A Taxonomy of Privacy a modo de mapa de las quiebras del derecho a la intimidad.

Hay cuatro clases de problemas. La primera categoría es la recogida de la información que implica vigilancia e interrogación. La segunda es el proceso de información que atañe a la agregación, identificación, inseguridad, uso secundario, exclusión. La tercera, es la diseminación de información que supone la ruptura de la confidencialidad, revelación, exposición, aumento de accesibilidad, apropiación, distorsión. Y, por último, la invasión, intrusión, o modificación del comportamiento sobre las decisiones de vida que pertenecen a la vida de cada uno.

El mapa de Solove configura un marco completo de los daños y riesgos a los que está expuesto el derecho a la intimidad. La aplicación de los datos personales y su empleo pueden afectar especialmente la autonomía moral del individuo por causa de las perturbaciones y ofuscaciones   derivadas de la actividad de controladores o tratadores digitales de vigilancia económica, política, de seguridad, amenazando  el derecho a la intimidad como  valor social digno de la máxima tutela.

La dimensión de la intimidad ofrece el riesgo de que por su vocación de universalidad   pueda perder eficacia en su aplicación material respecto a todos y cada uno de los apartados humanos a los que aspira. Finalmente, el todo puede quedar sumido en la irrelevancia, a menos que pueda ser sensible a sus minúsculas perturbaciones o confusiones. La información es una amenaza o riesgo según el contexto en el que se aprecie y con referencia a cada aspecto de la vida humana.

H. Nissenbaum define la intimidad como una integridad contextual. Las normas de información prescriben flujos de información acordes a los actores claves- receptores, sujetos a la información, remitentes; clases de información – demográfica, biográfica, transaccional, status médico, financiero- y los principios de transmisión de la información o sus restricciones cuando el flujo se produce – consentimiento, coerción, compra, venta, robo, confidencialidad-.

El propósito de la contextual privacy es asegurar que se respeten las normas informacionales de los contextos específicos. La perturbación se produce toda vez que surgen conflictos de intereses, daños o riesgos por causa de derecho colectivo, moral, social, político. El concepto, amplia el derecho de intimidad bajo las normas informacionales e incluye todo tipo de disciplina o regulación: usos sociales, hard o soft ley, costumbres, expectativas.

Las Normas Informacionales son reglas de contextos específicos, usos o costumbres, expectativas, normas de   ley, que sirven para definir los flujos de información personal bajo objetivos generales éticos y políticos y con una finalidad contextual específica y valores.

El derecho de intimidad es universal para cada individuo, pero su análisis está sometido a cada contexto de vida y los flujos de información que lo gobiernan. La elevación del contexto específico a interpretación del derecho de intimidad en cada momento y cada espacio contribuye a dar respuesta al tratamiento de los datos personales, cualquiera que sea quien los recoja o procese, cuando vulneren la autonomía moral de la persona o entren en conflicto con valores y principios superiores de carácter social, político, ético.

12.La Protección de Datos europea. Responsabilidad y Gobernanza. European Data Protection Accountability and Governance.

El Parlamento Europeo adoptó una normativa para la recogida, almacenamiento y uso de información personal, the General Data Protection Regulation (GDPR, Official Journal of the European Union 4.5.2016).

Los datos personales significan “cualquier información relativa a una persona física identificable- sujeto de datos-.Una persona física identificable es una que puede ser identificada, directa o indirectamente, en particular por referencia a un identificador, tales como el nombre y número de identificación, localización de los datos, identificador online o respecto a uno a más factores específicos de la identidad física, fisiológica, genética, mental, económica, cultural o identidad social de esa persona física.” Definitions, (1).

Se trata de una definición de contexto específico, ya que comprende no solo los datos de la persona en sí misma, inseparables de su identidad como tal; sino, también, otros factores, flujos de información que hacen a la persona en los diversos contextos en los que actúa.

La Regulación General de Protección de Datos (GDPR) adopta el principio superior que la protección de las personas físicas con relación al tratamiento de sus datos personales es un derecho fundamental (Carta de los Derechos Fundamentales de la Unión Europea, art.8. (1), Tratado del Funcionamiento de la Unión Europea y establece, en consecuencia, los siguientes derechos para los individuos:

El derecho a ser informado; el derecho al acceso; el derecho a rectificación; el derecho a la cancelación o al olvido; el derecho a restringir el procesamiento de los datos; el derecho a la transferencia de los datos; el derecho a la objeción. (arts. 13,14,15,16,17,18,20,21).

Los principios inspiradores del proceso de datos personales son:

-legalidad, justicia y transparencia.

limitación de finalidad, recogida de datos para propósitos específicos, explícitos y legítimos y sin que puedan someterse a tratamiento incompatible con los mismos.

-minimización de los datos, adecuados, relevantes y limitados a lo que es necesario.

-diligencia, respecto al bloqueo de los datos; cancelación o rectificación de los datos personales que no son correctos.

-limitación de almacenamiento, conservación que permita su identificación por los sujetos de los datos por un tiempo que no sea superior al necesario.

integridad y confidencialidad, asegurando la apropiada seguridad del dato personal.

-responsabilidad, el controlador debe ser responsable por y capaz de demostrar el cumplimiento con estos principios. (Art.5).

El alcance de la norma europea deja en claro su énfasis en el respeto obligado a la dignidad humana como fundamento de la protección de datos que no puede traspasar el derecho pleno a la intimidad. Nuestros datos son parte de cada uno de nosotros, segmentos fractales de nuestra identidad e identificación y ello por naturaleza humana. La separación entre la persona y sus datos es irremediablemente artificiosa.

El consentimiento explícito está a la base de la cesión de los datos personales o, implícitamente, si el tratamiento es necesario para la celebración de un contrato en el cual el individuo es parte; debe cumplir con una obligación legal en ese sentido; si están en riesgo los intereses vitales de la persona física; para la ejecución de una actividad de interés público; para los propósitos legítimos que persigue el controlador. (Art. 6)

Hay dos elementos a destacar en la protección los derechos de las personas físicas. Por un lado, el principio de responsabilidad  exige la demostración de cumplimiento con los principios establecidos y determina expresamente  la dicha responsabilidad y las obligaciones derivadas para el controlador por el tratamiento realizado  y por otro, la creación de instituciones europeas y nacionales de gobernanza para asegurar la aplicación coherente de la regulación general de la protección de datos, en particular ,en particular el European Data Protection Board y las autoridades nacionales de supervisión en los Estados Miembros.

Los controladores, tratadores y autoridades públicas deben perseguir como objetivo principal impedir la producción de desventaja económica o social significativa en los derechos y libertades de las personas física, cuando esta desventaja puede implicar daño físico, material o inmaterial, en particular dando ocasión a prácticas de discriminación, robo o fraude, pérdida financiera, daño a la reputación, perdida de confidencialidad.

Asimismo, el mal uso de los datos, como la pérdida de control sobre sus datos personales, o el uso inadecuado de los datos que revelan origen étnico, racial, opiniones políticas, creencias religiosas o filosóficas, afiliación sindical, datos genéticos, datos de salud, vida sexual, condenas penales, predicciones o inferencias en la actividad laboral, salud, situación económica, preferencias personales o comportamientos dirigidos a la creación de perfiles personales, tratamiento de datos de categorías vulnerables o cuando el procesamiento supone una cantidad considerable de datos y afecta a un vasto número de personas.

El concepto de desventaja económica o social significativa de los derechos y libertades personales asume particular importancia, porque identifica el daño o perjuicio potencial en el que puede incurrir la operación de control o tratamiento y cuyo alcance no es distinto al ya señalado de J.M.Balkin de “algorithmic nuisance” o, en sentido pigouviano, la externalidad negativa.

El sujeto de los datos tiene el derecho a no someterse a una decisión basada exclusivamente en tratamiento automatizado, incluido la creación de perfiles, que le produzcan efectos legales o le perjudiquen (Art. 22.1 Automated individual decisión making including profiling).

De los ejemplos que proporciona la normativa europea resaltan las medidas que provoquen el rechazo automático de la solicitud de crédito online o las prácticas de petición de empleo sin intervención humana, el uso de los datos personales para evaluar ciertos aspectos relativos a la persona física a través de las predicciones en el trabajo, salud, preferencias personales, intereses, comportamientos. Asimismo, excluye los perfiles de discriminación en el tratamiento “on the basis of racial or ethnic origin, political opinion, religion or beliefs, trade union membership, genetic or health status or sexual orientation, or that result in measures having such an effect.” (Recital 71)

La norma europea afronta claramente el reto de la última generación algorítmica orientada a la generalización, inferencias, correlaciones, obtenidas de la masa de datos acumulada, la manufactura de productos predictivos. El profiling transforma, automátizadamente, la información en conocimiento, para la conformación de data doubles aplicables a categorías, segmentos, grupos sociales en el mercado, sea por afán de lucro o motivos de control y vigilancia. La intervención analítica es el eslabón previo para la manipulación de comportamiento del consumidor y del ciudadano.

La decisión automatizada, sin intervención humana en su actuación, obliga al controlador de los datos a garantizar un tratamiento justo y transparente, tendente a proporcionar información significativa respecto a la lógica utilizada, como a sus efectos sobre la persona (Arts. 13.f,14. g,15.h). Los derechos a  la “meaningful information about the logic involved” en las decisiones automatizadas  construyen el cimiento del derecho a la explicación y como cualquier norma jurídica está sometida a interpretación teleológica – el propósito de la norma- y adecuada no solo a las circunstancias de hecho que la impulsan, sino, fundamentalmente, a los riesgos y perjuicios que puede suscitar en el sujeto de los datos,  permitiéndole, al mínimo, ejercitar sus derechos  previstos en la regulación comunitaria y derechos superiores de la Carta Fundamental de Derechos Humanos y el Tratado de Funcionamiento de la UE.

El derecho a la explicación es la consecuencia del derecho del titular de los datos para que pueda conocer la causa última del perfil algorítmico que soporta y, más allá, de los propósitos del controlador o tratador de los datos.

El misterio del algoritmo debe resistir la prueba de la revelación o manifestación del motivo que le inspira, tanto porque el sujeto de los datos lo ignora o porque va en contra de sus reales expectativas: “…it stands to reason than an algorithm can only be explained if the trained model can be articulated and understood by a human”

El derecho a la explicación es la oposición rotunda a la presunción de un conocimiento superior fundado en el algoritmo, carente de expresión humana inmediata y que pretende asumirse como verdad, que no probabilidad. El derecho a la explicación, entonces, es la constatación ,que aunque parezca obvia no lo es, que sin intervención humana ninguna certeza se desprende de la decisión.

El principal defecto de los productos predictivos es su insustancialidad. Siempre debe comparecer la persona responsable de su diseño y aplicación porque no está dado que sean veraces.  Así vale la opinión de Hildebrand:” Profiling is not about data but about knowledge…The protection needed at this point is not just of our own data but the protection of our capacity to anticipate which group profiles may affect our personal lives.”

La exigencia de manifestación de la causa última del algoritmo resquebraja la inaccesibilidad de la caja negra, del jeroglífico, porque el derecho a la explicación inaugura la duda de su indiscutido reino de supremacía sobre la capacidad cognitiva de la persona. Uno no sabe, por qué no le cuentan la verdad, pero, no porque no quiera saberlo…” because the profilers have a certain type of knowledge to which those profiled have no effective access”

De la mera descripción de las circunstancias que pueden perjudicar o afectar los datos personales resultan confirmadas las misteriosas consecuencias sobre las personas que pueden desprenderse de los algoritmos. Y aún con conocimiento surgen potenciales daños que solicitan la regulación dirigida a impedir riesgos sistémicos. La disciplina europea postula la responsabilidad de los agentes económicos y la creación de muros bajo la dirección publica de sus actividades, tendentes a impedir las externalidades negativas de la digitalización.

La Unión Europea provee un marco regulador innovador para la tutela del derecho a la intimidad ante la emergencia de la datavigilancia, donde la intervención pública como última opción apura la responsabilidad de los agentes económicos y una tentativa de aproximación al misterio algorítmico.

El marco de la disciplina descansa en cuatro vigas maestras: la Evaluación del Impacto de Datos, los Códigos de Conducta, la Certificación y la Seguridad de los datos personales. Esto es, probablemente, lo mejor del conjunto de definiciones relevantes que se adoptan y cuya intensidad alienta la creación y verificación transparente de algoritmos y medios para conseguirlo, sea directamente por agentes públicos o en colaboración con organizaciones profesionales privadas.

Primero, la Evaluación del Impacto de Datos (Data Impact Assessment, art.35) sirve para identificar el grado de cumplimiento de las organizaciones privadas de las obligaciones relativas a las expectativas de la protección de datos. El centro de la EID fija los riesgos de las nuevas tecnologías – riesgos sistémicos-  respecto a los derechos de las personas: las actividades de tratamiento sistemático y extensivo, incluyendo las predicciones y su referencia a categorías vulnerables de alta sensibilidad.

Segundo, los Códigos de Conducta (art.40) preparados por organismos dotados de nivel profesional adecuado…” tanto con referencia al tratamiento justo y transparente” y para “realizar el control obligatorio de cumplimiento”. Los Códigos deben aprobarlos las autoridades nacionales de supervisión y el Consejo Europeo de Protección de Datos cuando se trate de tratamientos transfronterizos.

Tercero, la Certificación(art.42) de controladores y tratadores o procesadores para demostrar el cumplimiento con la legislación general europea, en cuanto implementan las medidas técnicas y organizativas conformes al mecanismo de certificación y la aplicación de los “sellos y marcas” que lo acrediten.

Cuarto, la instalación de sistemas convincentes de Seguridad, obstaculizadora de la quiebra o ruptura del sistema de protección de los datos. “La ruptura de los datos personales significa una ruptura de seguridad dirigida accidental o ilegalmente a la destrucción, pérdida alteración, revelación desautorizada de o acceso a, datos personales transmitidos, almacenados o tratados” (Definitions,12).

De esta forma la Unión Europea afronta en modo totalizador el desafío planteado por la invisibilidad y oscuridad de las cajas negras algorítmicas y sus efectos sobre las personas a las que pretenden dirigir y gobernar. No es exagerado afirmar que se abre la puerta a la auditoria algorítmica y que ello es producto de la asunción pública comunitaria de los riesgos y daños implícitos y explícitos de la automatización dejada a su libre albedrio.

Ahora surgen profundos interrogantes sobre la bondad en si misma de la innovación tecnológica reticente, cuando no resistente, a desvelar y confrontar sus hallazgos con la realidad social, con la igualdad, con la justicia distributiva, en suma, al contraste con sus impulsos destructivos de universos humanos relativamente estables y aptos para su mejora, que no su aniquilación, v.g. exclusión, discriminación, manipulación, pérdida de trabajo.

“La inteligencia artificial no existe en el vacío. Debemos preguntarnos como la creciente desigualdad, la intensificación del poder geopolítico y los movimientos políticos populistas influyen y son influidos por el desarrollo de la aplicación de las tecnologías de inteligencia artificial”.

Hay una creciente masa crítica ante el avance de la sociedad vigilante apoyada en el secreto del algoritmo como fuente de conocimiento superior y que exhibe, a la par, sus logros y graves defectos sociales. Balkin denuncia como al “algorithmic nuisancecomo una “contaminación socialmente injustificada”, una externalidad negativa que se arroja sobre los demás, descuidando los riesgos y daños que produce la propia conducta.

La auditoría algorítmica es un primer paso hacia la transparencia de la digitalización. Por un lado, conocer las especificaciones del diseño del algoritmo y los objetivos que se pretenden y como se aspira a conseguirlos. Esto supone saber, las motivaciones que lo inspiran antes de su adopción. Por otro, el manual de instrucciones que informa las decisiones predeterminadas y sus consecuencias sobre la persona. La legislación europea prevé que cada autoridad de supervisión posee poder de investigación en forma de auditoria de protección de datos bajo las directrices del Consejo Europeo.

B. W. Goodman afirma que la normativa europea ofrece la perspectiva de inspecciones de terceros de algoritmos o auditoria algorítmica, que pueden obtener de los algoritmos menos discriminación y más responsabilidad.” No es la panacea, pero puede servir para reducir el riesgo a niveles aceptables.”

La normativa europea constituye una aproximación profunda a la disciplina finalista de la inteligencia artificial. Es claro que hay un razonamiento subyacente, que el diseño, práctica, complejidad de los algoritmos son potencialmente dañosos y, sobre todo, desconocidos en su proyección sobre la persona. El mal uso, la inseguridad o la ineficacia del algoritmo es la primera de las consideraciones que debe afrontarse para la ordenación de la sociedad algorítmica cuando supone desventaja económica o social significativa en los derechos y libertades de las personas física. Y los riesgos están a la vista. No se equivoca A. Tutt al entender que “estamos obligados a entrar en un mundo en el que los algoritmos pueden causar riesgos desmesurados similares a las dificultades-para-conocer que informan a las drogas farmacéuticas.”