Inteligencia Artificial 3. Machine Learning
Compartir en TwitterInteligencia Artificial. 3
MACHINE LEARNING.
Tulio Rosembuj. Junio de 2018
Abstract
Machine learning is the algorithm raised to the cube. The program aspires to learn by itself, from the accumulated data and through generalizations that start from the own data and the instructions of its design. The algorithm learned only what they teach and born prisoner of his own attempt to aspire to instruct the future based on the past. It is a vehicle of predictions, associations, inferences, everything but information and knowledge obtained from the scientific method. Generalization does not distinguish between correlation and causality, probability and truth. The algorithm that learns by itself does not deduce the glorification of the program, design, and application; but, in any case, the risk of being at the mercy of the subjective, capricious, partial decision of the programmer. The mystery is the abstract model of data that no one understands or can explain and that determines our behavior without our knowing it. ML means the learning through examples and precedents; tecniques to identify future outputs based on past data. Algorithmic power is baptized as a mathematical weapon of destruction; Robotics, whether physical or virtual, authorizes to consider it as a destructive mathematical application of the machine on the person. The enhancement of the robot be it more or less autonomous or not; be it for the factory, the home or the war; is the worst threat that artificial intelligence carries. It is a machine aimed at displacing the person from his family environment, from work and transferring death from a distance and far away. The robotics, as part of the automation, is the most dangerous artillery segment for human dignity, the compendium of the useful tool to achieve the annihilation of the human permanence in life and, in the surveillance economy, destined to profit or to the defense of subordinate interests, to avoid responsibility and obligations of the programmer, developer, designer, trader or manufacturer.
Machine Learning viene de la mano del Big Data. El Big Data viene de la mano del incremento del tratamiento y almacenamiento de datos y su empleo a bajo coste y en tiempo real.Machine Learning, tiene que ver con la gestión de la cloud.
El concepto de cloud informa de un modelo que facilita el acceso a un fondo compartido de recursos informáticos configurables –redes, servidores, almacenamiento, aplicaciones y servicios-, en modo ubicuo, conveniente a demanda; que pueden ser rápidamente suministrados y distribuidos, con un esfuerzo mínimo de gestión o interacción con el proveedor del servicio.
Los datos hacen al Big Data, a la nube y al Machine Learning, cumpliendo con la regla maestra que la cantidad acumulada de datos hacen a su cualidad y permiten la materialización del análisis predictivo, con las restricciones ya apuntadas en orden a la intimidad, transparencia y seguridad y discriminación.
13.Machine learning.
La sofisticación algorítmica puede acarrear algoritmos que, a su vez, crean otros algoritmos. El algoritmo está programado para responder a su resultado y aprovecharlo como experiencia para futuras aplicaciones, aprendiendo con los datos o extrayendo perfiles de los datos. Machine learning es un proceso estadístico que inicia de una masa de datos y aspira a construir una regla que exprese los datos, como si fuera una opinión fundada, o pueda predecir datos prospectivos.
La acumulación de datos es consecuencia de la mayor potencia de los ordenadores y propiciada por la cloud, y la interconexión de objetos – mecanismos robóticos, sensores, impresoras 3D, vehículos, aplicaciones- para la recogida e intercambio de datos a través de sensores. Los sensores son determinantes para la colección y análisis de Big Data.
P.Domingos indica que “Machine learning algorithms can figure out how to perform important tasks by generalizing from examples “. La generalización no es concluyente, porque los datos pueden interrelacionarse como el programador quiera y, sobre todo, no es definitiva, porque se basa en precedentes y esto conlleva incluir en las generalizaciones todos los prejuicios y limitaciones de los que es portador cualquier persona. Es un diseño plegado y plagado de prejuicios o parcialidad.
Una visión más real de Machine learning la escribe como el modo en que los ordenadores generan modelos abstractos de los datos (Jh. Cheney-Lippold). La generalización mediante ejemplos es frustrante; mientras que la verosimilitud de la abstracción que la soporta es genuina. Ese modelo es predeterminado, motivado y dirigido a obtener determinado tipo de resultados que no otros y sin sorpresa alguna en el propósito. El conocimiento del modelo abstracto es el secreto mejor guardado, que no la generalización porque el modelo es auténtico motor de búsqueda, mientras que el resultado puede convertirse en un fracaso o un error.
Es falaz sostener que “With machine learning, computers write their own programs, so we don`t have to”. El programa siempre es de un responsable humano.
La máquina no puede autoprogramarse, pero puede estar preparada para generar y almacenar asociaciones y hechos de los datos. Generalización implica la capacidad para asociar en tiempo útil los datos de que se dispone. La encrucijada de la generalización es el generalizador, cuyas limitaciones le portan a la repetición de errores pasados – porque ignora el futuro como cualquiera de nosotros- o a originar consecuencias que no se tuvieron en cuenta en la programación. Machine learning aprende de lo que le enseñan y si eso es malo, secundario, mediocre, los resultados serán como los frutos del aprendizaje.
Una de las características en machine learning se registra como deep learning. El método emplea técnicas de aprendizaje que combinan estratos de redes neurológicas para identificar los perfiles de una masa de datos necesarios para producir decisiones analíticas. Hay diferentes estratos entre la entrada y salida de los datos y las salidas desde los estratos precedentes son entradas para los próximos (red neurológica artificial).
Los algoritmos predispuestos en machine learning y deep learning son la última frontera de la inteligencia artificial y se traducen en buscadores en la Web, filtros de spam, valoración de créditos, riesgo de seguros, detección de fraude, negociación bursátil, diseño de drogas, evaluaciones de trabajo, registros de salud, contratación de trabajadores, viviendas, robótica y diversas y múltiples aplicaciones. Estamos en el campo de las predicciones, asociaciones, inferencias, todo, a excepción de auténticos fundamentos científicos de información y conocimiento. La generalización algorítmica no distingue entre correlación y causalidad; entre probabilidad y verdad.
La alegoría algorítmica no puede con la realidad y ésta muestra que los resultados manifiestan, como no podría ser de otra manera, la capacidad volitiva del programador, cuyas conclusiones difícilmente escapan a la parcialidad, la subjetividad, la arbitrariedad, contaminadas por las “beliefs, fallibilities, and biases of the person who created them.”
La inteligencia artificial se despliega a través de análisis que están viciados por fallos sociales, fallos de mercado, fallos morales sobre nuestras vidas: “inherit the prejudice of prior decision makers or simply reflect the widespread biases that persist in society or exacerbate existing inequalities.”
La innovación tecnológica no puede una rueda loca en el contexto social. Cualesquiera que sean sus bondades no es admisible que su materialización se verifique en el vacío legal, institucional, fiscal. La sociedad algorítmica, la economía de vigilancia digital no es fisiológica, sino patológica, porque su expansión se produce a expensas de la persona humana y en beneficio de algunos pocos.
Una de las alternativas es que cualquiera en cualquier momento sepa la información sensata que inspira la lógica algorítmica en decisiones que le afectan y que son artificialmente humanas, o sea, automatizadas.
Llama la atención que en el propio ámbito de la empresa se expresen reticencias sobre la estrategia de Big Data: por falta de competencias, cambios de procesos existentes, “incertidumbres sobre la utilidad de Big Data”.
La virtualidad algorítmica actual no es distante de la misma lógica que inspira la securitization” financiera, cocausante de la crisis de 2008: los derivados sintéticos al cuadrado, al cubo, guiados por la especulación a través de instrumentos incomprensibles de endeudamiento – repos, swaps, forwards, colaterales- se despegaron de la realidad económica y sirvieron para el engaño de sus titulares. La desbocada fantasía de sus creadores no fue suficiente para asegurar los derechos y obligaciones asumidos por las entidades bancarias, de seguros, fondos de inversión. La burbuja algorítmica puede culminar como la burbuja financiera, a menos que se ciñan con cierto rigor legal los límites de su origen, aplicación, práctica y finalidades. Si la especulación fue el motor de la finanza hacia la crisis; la manipulación puede serlo de la inteligencia artificial. O, lo que es igual, la manufactura intensiva de productos predictivos. No es casual que sea el sector financiero, aseguradoras y bancos, los que más estén aprovechando de las técnicas de análisis predictivo.
No exagera C.O`Neill cuando bautiza el poder algorítmico como arma matemática de destrucción. La machine learning es un misterio oculto y cerrado a los humanos; ninguno entiende la lógica o puede explicarla y, lo peor, determinan nuestro comportamiento cotidiano, sin que lo sepamos.
14.Robots.
El robot en sentido clásico es definido como una máquina que puede sentir, pensar y actuar. (G.Bekey). Posteriormente, el concepto alcanza un significado menos amplio: el robot siente/actúa/siente de nuevo/ actúa a la luz de la nueva información. (R. Brooks). Esta aproximación sitúa la función activa de la máquina en un ambiente determinado y dotada de sensores que resguardan movimientos básicos o fácilmente predecibles: avanzar, retroceder, esquivar. No hay ejercicio de facultades cognitivas, sino una actuación programada que es “producto de múltiples decisiones pequeñas”
El robot tiene, por lo común, un soporte físico, encarnado, e interactúa con el ambiente: “una máquina que puede realizar tareas a través de sus sensores de ambiente y/o interactuando con fuentes externas y adaptando su comportamiento.” ( (NF EN ISO 8373,NF EN ISO 13482), tomando con cautela la referencia a comportamiento del que por si mismo, falacia antropoide, carece.
Es una máquina física, con estructura material, cuyos sensores le fijan su ambiente, para lo cual los algoritmos pueden programar sus actividades directas, sus condiciones internas y externas y las acciones necesarias para realizar determinadas tareas.
La robótica emerge con fuerza en el proceso de automatización de la empresa. Los costes disminuyen y es susceptible de conexión con Big Data, la cloud, la interconexión con otros objetos incluidos otros robots para la recogida e intercambio de información. El retorno de la inversión de la adquisición de un robot, el tiempo que se necesita para recuperar la inversión, oscila entre 195 días y dos años.
No está claro, sin embargo, si el atributo de fisicidad es connatural al concepto de robot. Pudiera interpretarse, también, la existencia de robots inmateriales, desprovistos de composición física, como los High Frequency Traders o algotrades en los mercados bursátiles. Se trata de máquinas algorítmicas sofisticadas cuyos mecanismos tecnológicos de decisión y los efectos que producen, con autonomía inmediata de intervención humana – comprar, vender-, están más cercanos al tipo robótico que a la machine learning.Robot desencarnado, pero, que recoge, procesa, aplica decisiones en microsegundos, con prescindencia del mando humano inmediato y que puede provocar consecuencias que van más allá de las operaciones singulares, para extenderse a todo el mercado en el que se proyecta. Robot puramente virtual cuyo desarrollo le puede conducir a emplear robots materiales de mero apoyo.
El robot está diseñado para emplear sus datos originales y aprovechar los nuevos datos que le permitan acompasar sus actividades programadas. O sea, el robot extrae información del ambiente en el que actúa, Internet, la nube, y usa ese conocimiento para decisiones relativas a los trabajos encomendados. Es la expresión máxima de datavigilancia a través del intercambio de datos personales, data mining, de su ambiente específico.
La autonomía de la máquina del control humano está próxima a la exageración, un modo de eludir responsabilidades y obligaciones relativas a las actividades del robot. Es la “homunculus fallacy” en palabras de J.Balkin. Los efectos del robot en materia de daños y riesgos deben internalizarse en sus propietarios, controladores, tratadores, diseñadores a través de la ley o el impuesto, o ambos.
La robótica integra la inteligencia artificial o, mejor dicho, es parte de la automatización. La tentación de la robótica consiste en promover espacios físicos previamente ocupados por las personas. Hay killer robots(drones militares), drones civiles, robots de transporte ,v.g. automóviles, camiones, robots sanitarios, robots de hogar, impresoras 3D para investigación y desarrollo, prototipos, instrumentos médicos, kioscos bancarios y de aerolíneas cuyos trazos comunes: son poseen la capacidad de acceso a través de sus sensores a un amplio e incontrolado volumen de información que sirve para su tarea per, también, para su aprovechamiento posterior, en un paisaje de absoluto descontrol sobre los fines que inspiran su desarrollo. Al igual que el algoritmo, el robot es la otra parte desregulada de la automatización.
J.M. Balkin afirma …” the laws of robotics what we really need are laws of robotics designers and operators…laws that control and direct human beings who créate, design and employ robots, AI agents and algorithms. In sum, the laws of robotics that we need are law of humans who make and use robots and the data that robots use. In sum, the laws of robotics that we need are law of humans who make and use robots and the data that robots use…So the laws we need are obligations of fair dealing, non-manipulation and non-domination between those who make and use the algorithms and those who are governed by them”
El peor de los ejemplos viene de las armas autónomas (Legal Autonomous Weapons) que pueden seleccionar y comprometer objetivos sin un aparente y directo control humano. No hay instrumentos legales internacionales que obliguen ni, tampoco, leyes nacionales que prohíban su desarrollo, producción, uso de los robots asesinos y esto no hace sino reproducir la ausencia de legislación sobre la inteligencia artificial y sus agentes en particular.
M.R. Calo afirma la preocupación del incremento de robots de hogar y la preservación del derecho a la intimidad. Primero, porque la persona está bajo su directa vigilancia; segundo, porque la captura de información robótica atañe al hogar como tradicional espacio de protección y tercero, y más peligroso, el significado social de lo que denomina la configuración de la intimidad, o la descripción que se adquiere de lo más personal del individuo, de sus relaciones, de sus interacciones con un robot en su intimidad.
El robot es un avatar en la tierra, un jugador de mundo virtual en el mundo virtual. El avatar es la representación física de un jugador en el mundo virtual, acostumbrado a cohabitar simultáneamente e interactuar con otros avatares jugadores. Ahora, tenemos un avatar físico en el mundo real interactuando bajo programas humanos con otros agentes y adaptando su comportamiento. El robot es un avatar en el mundo real. El riesgo y la amenaza es obvio. El avatar carece de límites morales, sentimientos, emociones, conciencia, intencionalidad que no sean resultado de su planificación algorítmica, su momento de aplicarlo y el propósito para el cual otros humanos lo prepararon.
El robot es un instrumento maestro para el desplazamiento del trabajador de su empleo. Probablemente, la consecuencia más peligrosa de la automatización es la producción masiva de robots para la expulsión y sustitución de la persona de su trabajo. Y esto no es un tema académico. Es inexorable si no se adoptan medidas que lo impidan.
15.Robots Inteligentes. Smart Autonomous Robots.
La ideología de la inteligencia artificial apunta a la superioridad de la máquina, del mismo modo que lo hace con el algoritmo y su eternidad de resultados. Y, asimismo, adjudica a esos artefactos o agentes toda la responsabilidad de los efectos que desatan sobre la gente. Ni lo uno ni lo otro. La ideología de la automatización es una innovación intencional dirigida a la construcción de modelos de control, de vigilancia, en beneficio de algunos pocos; sin otro fundamento que la manufactura de productos predictivos sea mediante algoritmos, agentes de inteligencia artificial, acciones de manipulación de mercado y robots. Y no hay más responsabilidad que la humana de las organizaciones de programas, propietarios, controladores, tratadores y aplicadores de la autoridad algorítmica.
Y ello es evidente en los llamados robots inteligentes y autónomos (smart autonomous robots). El artefacto se denomina inteligente cuando sus sensores representados digitalmente sirven para aplicar los datos programados y capturar otros nuevos. El mecanismo permite el intercambio de datos con su ambiente, interconexión con otros ordenadores o la cloud. Los sensores posibilitan localizar el robot en sus contextos operativos y espaciales: su localización relativa adonde debe ir y que obstáculos debe evitar y sus parámetros operativos como temperatura y, presión, acústica y humedad, composición, contenido.
El sensor, la señal, tratado en formas de empleos es la vía para adaptar el funcionamiento del robot y sus acciones en su ambiente, a través de sistemas de control que dirigen sus actividades y fabricar su colaboración con otros objetos similares en la cloud.
De los robots inteligentes se defiende la adquisición de autonomía propia mediante los sensores. El concepto es dudoso. Generalmente, por autonomía se entiende la capacidad de un sistema de operar y adaptarse al mundo exterior sin control humano, o independientemente de influencia ajena. De hecho, esto forma parte de lo que J. Balkin define como “homunculus fallacy”: la idea que hay una pequeña persona dentro de la máquina haciendo su trabajo y cumpliendo con su programa. Es difícil imaginar un robot autónomo, sin dependencia directa o indirecta una persona humana. El robot, como cualquier otro artefacto, adopta decisiones para las que fue programado y no puede apartarse de su actividad, sin que la dirección humana lo autorice, consienta o, también, cometa la negligencia de no hacerlo.
El ordenador y el programa, diseño, arquitectura y lenguajes manejan el robot como una herramienta, desde una herramienta simple hasta otra más compleja, pero siempre como una herramienta. Es imposible definir como autonomía, los pasos de un programa predeterminado, aun aceptando modestas adaptaciones técnicas a circunstancias aleatorias.
El robot inteligente usa un conjunto de sensores que lo hacen (relativamente) autónomo o mejor móvil; v.g. un robot industrial con sensores visivos que recogen y depositan un objeto o lo desplazan desde un sitio a otro. Este ajuste programado no significa ausencia de control humano directo o indirecto. Esto quiere decir, que hace aquello para lo que se le programa y no puede hacer otra cosa, salvo por error o negligencia del responsable de sus acciones.
El robot exige el refuerzo jurídico de la protección de la persona. La amenaza estriba en su captura y tráfico de datos personales; la irrupción en ámbitos vulnerables como el hogar, personas mayores o menores; la manipulación de la información y, finalmente, la violación del derecho de intimidad. Y, en primer término, la protección de las personas del daño provocado por los robots. La prioridad es la protección del puesto de trabajo, que, en verdad, supone la peor de las amenazas de la robótica a la dignidad humana.
16.Robots Financieros. Automated Financial Trades. High Frequency Trading.
La negociación de instrumentos financieros en mercados bursátiles a alta frecuencia alude a los distintos algoritmos que se apoyan en superordenadores para la emisión de órdenes de compra o de venta a una elevada velocidad, no ya en minutos, segundos, sino en microsegundos. El comercio algorítmico – algotrades- está programado para emitir órdenes de compra-venta en pequeñísimas fracciones de tiempo.
El tiempo es el núcleo central de los robots financieros: la especulación se basa en milisegundos de red y anticipa los cambios de precios para responder a la información antes que cualquier otro. No hay oportunidad para la acción de los cambistas humanos, por el tiempo es casi invisible para su percepción.
Los denominados exchange trading funds(ETF) dependen operativamente de la alta frecuencia y de la instantaneidad durante el día para formular sus órdenes y la creación de opciones, futuros sobre los activos subyacentes de los instrumentos financieros –acciones, obligaciones, mercancías, índices generales-.
El riesgo sistémico financiero actuales la explosión de los ETF y los derivados que los acompañan, y no la velocidad de las transacciones.
La amplia importancia en los mercados financieros del ETF (Exchange Trading Funds) o HFT (High Frequency Trading Funds) es una expresión de decisión robótica sin intervención humana. El ETF nace en la década de los noventa y ahora hay más de 2300. De una base de 75 billones de dólares, diez años atrás, han pasado a 1.2. trillones de dólares. Y su expansión despierta legítimos temores de que pueda ser el protagonista de la crisis por venir, básicamente, porque se orientación actual tiende cada vez más a la complejidad y opacidad, en la utilización de derivados over the counter, en especial, swaps, que alimentan el ETF “sintético”, basado en híbridos de triste memoria.
Primero, su pretendida diversificación parece agotada. En lugar de actuar como un fondo basado en un índice general; ahora, segmenta cada vez más su mercado, introduciendo riesgos antes inexistentes. Así, en su testimonio Bradley apunta a actividades estrechas en los campos más variados: empresas de producción de uranio, deuda soberana o difuso uso de derivados que amplifican la volatilidad en los mercados.
Segundo, el ETF se ha convertido en el nuevo paradigma de la especulación a corto plazo, a diferencia de los fondos mutuales apegados a índices generales y con una clientela dirigida a la inversión a largo plazo.
Tercero, el ETF participa en el mercado continuo a través de representantes autorizados, que son inversores institucionales que pueden crear o amortizar las nuevas participaciones del ETF mediante el uso de superordenadores programados para el comercio electrónico.
Al final de cada día, el EFT debe equilibrar su balance de compras y ventas y esto significa negociar millones de participaciones en cuestión de minutos o milisegundos. Por tanto, si hay más compradores que vendedores debe crear nuevos instrumentos para limitar la diferencia y, a la inversa, si hay más vendedores que compradores debe destruir los instrumentos o, lo que es peor compensar la diferencia con derivados financieros, futuros y opciones. Se puede considerar al ETF como el nuevo derivado. Un amplificador de riesgo sistémico.
No sorprende, entonces, que ocurran eventos inesperados como movimientos hacia arriba o hacia abajo en brevísimo período de tiempo, tales como el Flash Crash de 2010 o el Flash Up de 2011, cuando el índice Standards & Poor`s sube 10 puntos veinte minutos antes del cierre del mercado de Wall Street. Y, asimismo, el llamado Hack Crash en 2013, producido por un tweet falso que podía ser una probabilidad para la programación de la máquina, v. g, en este caso, un atentado en la Casa Blanca de los EEUU. El algo trader es una fuente de especulación de alto riesgo. Los algoritmos amplifican los efectos en el mercado y diseminan los riesgos más allá de sus propias operaciones. Los ETF crean riesgos sistémicos y alimentan burbujas financieras solo a causa de la velocidad algorítmica.
El ETF es objeto de críticas por cuanto reproduce, bajo otra modalidad, las críticas ya vertidas respecto a otras formas de actividad financiera que carecen de transparencia, apoyadas en software de alta velocidad, que, entre otras cosas, impide cualquier corrección sobre la marcha de los errores que se produzcan y motivado por la especulación a corto plazo.
Hoy el ETF es una nueva burbuja financiera en el aire alimentada por los bancos, banca a la sombra, mediante híbridos financieros insuficientemente garantizados por la cesta de valores, instrumentos financieros elegidos, apostando contra el índice de rendimiento elegido o creando índices parciales a la medida de la liquidez que se pretende de los derivados. Lo que antes se refería como el final de la diversificación. Los riesgos sistémicos por colapso del ETF están a la vuelta de la esquina: una fuente de pánico de mercado por el cortoplacismo y la facilidad de transacción que ofrece respecto a las mismas operaciones sobre valores y, lo más importante, por la infinita capacidad para la creación de participaciones sin cobertura, soportadas por derivados.
El tráfico de alta frecuencia es del 50% del volumen del mercado bursátil americano y del 30% del mercado europeo. El período de permanencia de cada titular de participación es de 22 segundos: estos negociantes no se basan en los fundamentos de las empresas emisoras.
El modelo de impuesto sobre transacciones financieras definido por la Unión Europea (propuesta de Directiva 2011/0261) tuvo el propósito de neutralizar los riesgos especulativos, como las representadas por los ETF, pero los continuos obstáculos políticos impidieron su adopción hasta ahora. El impuesto hubiera podido eliminar los predatorios algoritmos y el contagio en la red financiera de datos, la cual opera a una velocidad superior a la de los cambistas humanos. El ITF, o la versión contemporánea de la Tobin Tax, es la forma correcta de poner arena en las ruedas del algotrade, mientras, sirve a la recaudación de recursos públicos.
El futuro de la robótica financiera condena la participación de los intermediarios humanos en el mercado. Esto nos lleva al algoritmo al cuadrado o al cubo, exactamente como en los derivados financieros sintéticos, donde los algoritmos controlan algoritmos los cuales a su vez serán controlados por otros y así sucesivamente. La conclusión a la que llegan T. Karppi y K. Crawford es ilustrativa: la mayor velocidad conduce inexorablemente a huir de la detección.
El algorithm for escaping detection es la próxima estación de la inteligencia artificial para eludir o evadir sus obligaciones legales y las responsabilidades que les corresponde. Desde la perspectiva fiscal es un escenario de máxima preocupación. La geometría algorítmica variable puede hacer imposible descubrir la planificación fiscal agresiva, las prácticas lesivas, el arbitraje fiscal. Y la pirámide algorítmica, como la pirámide de Ponzi no es solo una respuesta técnica, porque puede instrumentalizar propósitos no declarados con otros fines que los que se le presuponen.