Frank Pasquale y sus «Nuevas leyes de la robótica»: «Los robots no deben falsificar las características humanas. La IA no debe intensificar las carreras de armas»

Por Sally Tallyie

Películas como «Yo Robot» o «Ex Machina» han presentado un futuro distópico de robots que amenazan a la humanidad. Estamos siendo testigos de rápidas transformaciones masivas en la Inteligencia Artificial y sus diversas aplicaciones en diferentes campos. ¿Esto es una amenaza para la obsolescencia humana? ¿Se está desarrollando con justicia el proceso de difusión de la tecnología? ¿Qué hay de los aspectos desconocidos de la recopilación de datos? ¿Qué hay de la regulación de la IA?

Todas estas preguntas y más las aborda Frank Pasquale, quien conversó con AIKA sobre la Inteligencia Artificial (IA) en la era de COVID-19, la regulación en este sector y su nuevo libro New Laws of Robotics  o en español “Nuevas leyes de la robótica: Defendiendo la experiencia humana en la era de la IA” (Harvard University Press, 2020), entre otros aspectos relevantes.  

Frank Pasquale, un experto en la ley de la inteligencia artificial, los algoritmos y el aprendizaje de las máquinas, además autor de obras como ‘New Laws of Robotics’ y la ampliamente citada The Black Box Society (Harvard University Press, 2015). En esta última, desarrolló una teoría social de la reputación, la búsqueda y las finanzas, y promovió reformas pragmáticas para mejorar la economía de la información, incluida una aplicación más vigorosa de la legislación sobre competencia y protección del consumidor. ‘La Sociedad de la Caja Negra’ o The Black Box Society, por su título original, ha sido reseñada en Science and Nature, publicada en varios idiomas, y su quinto aniversario de publicación se ha celebrado con un simposio internacional en Big Data & Society.

Pasquale es profesor de Derecho en la Facultad del mismo nombre en Brooklyn, miembro afiliado del Proyecto de la Sociedad de la Información de Yale, y miembro distinguido de Alto Impacto de Minderoo en el Instituto AI Now. También es Presidente del Subcomité de Privacidad, Confidencialidad y Seguridad del Comité Nacional de Estadísticas Vitales y de Salud del Departamento de Salud y Servicios Humanos de los Estados Unidos.

  • En su nuevo libro «Nuevas leyes de la robótica», usted destaca la importancia de crear equipos o » colaboraciones» de humanos y robots en los diferentes campos; cuéntenos más sobre la importancia de dichas colaboraciones y los retos que se interponen en el camino de su éxito? ¿Cuáles son las posibles soluciones para superar esos desafíos?

Permítanme dar algunos ejemplos de los primeros capítulos del libro. En medicina, hay un conjunto muy interesante de asociaciones que se están desarrollando entre enfermeras y robots. Uno de ellos es el Robear, que es un robot diseñado para ayudar a las enfermeras a levantar a los pacientes, especialmente a los más pesados, de la cama. Esta es una innovación realmente importante porque muchas enfermeras tienen problemas ortopédicos porque están levantando pacientes extremadamente pesados o pacientes que son muy vulnerables y necesitan ser levantados con mucho cuidado. El robot está diseñado para permitir el traslado del paciente desde, por ejemplo, una cama a otra cama, o una cama a una silla sin exigir un esfuerzo físico excesivo a las enfermeras. Así que creo que este es un muy buen ejemplo de lo que yo llamo la primera nueva ley de la robótica en mi libro; la IA y los sistemas robóticos deben complementar a los profesionales y no sustituirlos. Es una tarea relativamente estrecha y bien definida, la enfermera siempre está presente, y trae el robot para ayudar. Creo que vamos a ver más y más de estos ejemplos de robots, particularmente en tareas rutinarias; por ejemplo, llevar medicamentos a los hospitales.

Ahora, en términos de desafíos, claramente hay desafíos en términos de este tipo de IA; (como, por ejemplo) ¿es demasiado costosa? ¿Se interpone en el camino? ¿Podemos incluir más y más tareas en un robot como Robear? Habrá preguntas muy interesantes para el futuro. Algunos desarrolladores de IA quieren desarrollar sistemas de IA muy extensos que no sólo hagan tareas manuales sino que también asuman roles como el cuidado, tratando de ofrecer algo como la empatía o de parecer empáticos. Así que puedes imaginarte un robot que intente parecer triste cuando un paciente está sufriendo o parecer feliz cuando un paciente, digamos, da unos pasos más allá de lo que normalmente lo haría.

Esa es la situación en la que creo que el robot ha pasado de complementar a un profesional a sustituirlo, y lo más importante desde la perspectiva de mi libro falsificando la humanidad: el robot está fingiendo sentimientos. Lo que quiero decir con eso es que el robot está imitando las emociones humanas, aunque los robots no pueden sentir realmente las emociones humanas. Eso es un perjuicio para los pacientes y las enfermeras, que como profesionales están entrenadas en términos de cómo conectarse expresivamente con los pacientes, y empatizar con los pacientes. Las personas pueden hacer eso auténticamente porque han experimentado el dolor y las decepciones de sus propias vidas, y también la alegría y la sensación de logro. Un robot no puede hacer eso.

Así que estas dos primeras leyes de los robots en mi libro tratan sobre: los robots deben complementar a los profesionales y no sustituirlos, y que los robots no deben imitar o fingir la humanidad. La imitación, la simulación y la falsificación, son tres términos que utilizo en el libro y que trato de definir muy cuidadosamente porque creo que la idea de falsificación tiene una resonancia con el uso de dinero falso que es apropiado aquí. Mi temor es que tenemos robots y sistemas de IA que están fingiendo las emociones humanas y que están tratando de reclamar nuestra atención de la manera en que los seres humanos pueden.  Es como vivir en una economía donde el dinero malo expulsa al bueno, donde el dinero falso, una vez en circulación, reduce nuestra fe en el valor del dinero existente. Así que los robots o máquinas que fingen la capacidad y empatía humanas, disminuirán nuestra valoración de la empatía humana genuina, o nos confundirán sobre cuándo existe realmente, y cuándo es una mera imitación de los humanos, o, peor aún, los humanos imitan la imitación de los humanos.

Otros tipos de asociaciones podrían ser en el ejército, donde hay muchos sistemas robóticos en desarrollo. Hay algo llamado la Cucaracha Octo, que es un robot que está diseñado para actuar como una cucaracha pero tiene ocho patas, de ahí el nombre de «octo». Podría arrastrarse dentro de los edificios y podría vigilar las cosas. Hay drones que robóticamente podrían ser autónomos, algunos lanzarían misiles balísticos una vez que lanzaran una forma de máquina asesina autónoma. Hay robots asesinos que automáticamente disparan a los individuos. Así, por ejemplo, en zonas de guerra particularmente disputadas, puedes tener un robot que controla una ametralladora que detecta a alguien que viene a través de la visión artificial o de sistemas auditivos que suenan como un enemigo o que parecen un enemigo. Todos estos son ejemplos que creo que son preocupantes, principalmente porque violan mi tercera nueva ley de la robótica, que es: la robótica y los sistemas de IA no deben intensificar las carreras de armamentos. Creo que se trata de una carrera armamentista literal, en la que una vez que una nación tiene una flota de drones autónomos asesinos, otros países van a desarrollar su propia flota de drones autónomos asesinos, y esto conduce a formas de inversión creciente en maquinaria que podrían tener consecuencias muy destructivas. Así que, para mí eso es realmente un problema crítico de la IA y eso es algo que tenemos que abordar.

La primera ley del libro, que un robot complementa a un profesional, dictaría que cualquier robot militar sea controlado por una persona o sea controlable por una persona. Pero también tenemos que estar seguros de que estamos en un entorno en el que se puede mantener ese control. Hay futuristas militares que se preocupan de que si no nos unimos a la carrera armamentística militar, eso se convierte en una amenaza a su capacidad de actuar lo suficientemente rápido para contrarrestar un ataque. A partir de este concepto se desarrolló la idea de una guerra de pulsadores (guerra realizada con misiles (nucleares) que pueden ser lanzados con sólo pulsar un botón), y estoy tratando de ayudarnos a evitar eso! Creo que no queremos vivir en un mundo en el que alguna gran potencia, o una potencia aún menor, desarrolle un sistema robótico que sea tan rápido en el ataque que todos los demás tengan que tener defensas robóticas para contrarrestarlo…y que, a su vez, se conviertan en objetivos de nuevas formas de ataque, etc.

Así pues, ese podría ser un ejemplo de respuesta a la cuestión de los problemas que se oponen al éxito de las asociaciones. Es fascinante cuando se piensa en el éxito en el contexto militar, ¿y cuál es? Este fue el capítulo más difícil de escribir en el libro, porque desde la perspectiva de un militar de un país, tener éxito significa ser tan intimidante para otros países que ni siquiera intentan luchar contra ti. ¡Pero eso no puede ser la definición del éxito para el mundo! El éxito para el mundo tiene que referirse a algo que es más sobre la multipolaridad; la idea de que hay múltiples polos de poder en el mundo, no sólo unos pocos países con el poder de intimidar o destruir a todos los demás.

  • Cuéntenos sobre su caso favorito cuando se trata de » colaborar con la tecnología»? ¿Por qué lo ve como un ejemplo de éxito?

Mis leyes están a favor de la colaboración, en lugar de sustituir la robótica por los profesionales. Creo que uno de los paradigmas más exitosos que veo están ocurriendo ahora mismo en la medicina, por ejemplo los médicos que son reconocedores de patrones que trabajan con expertos en Inteligencia Artificial para evitar errores. Verás, la idea aquí es que todavía tienes dermatólogos para mirar las anormalidades de la piel, digamos que hay un lunar en la mano de alguien, ese dermatólogo examinará ese lunar y lo diagnosticará como un melanoma o no basándose en su experiencia existente y su conocimiento de la literatura médica. Pero a veces existe este miedo en el fondo de su mente de que si no se parece a uno pero podría serlo; como yo tengo el 80% de la sensación de que no lo es pero tal vez sí. ¿Está en orden una biopsia? Eso puede ser doloroso e inconveniente para el paciente.

Creo que en el futuro se verán cada vez más escaneos realizados por sistemas de visión artificial que darán a la gente una idea mucho mejor de la probabilidad de que algo sea un cáncer, para ayudar a los especialistas a evitar errores. Así que creo que es un aspecto muy importante de la IA, que podría hacer mucho para evitar errores, y ayudar a mucha gente en dermatología, patología, radiología; todas esas formas de reconocimiento de patrones, para ayudar a los médicos a sentirse confiados de que no serán demandados por no haber detectado una forma inusual de cáncer. Así como la IA se está volviendo mucho más exitosa en la conducción como un preventivo de errores, más que como un conductor en sí. Por supuesto, espero que la conducción se convierta en algo totalmente automatizado, y no espero ver el mismo resultado en la medicina, precisamente porque es sólo una entrada de información en el campo profesional que necesita ser entendida y aplicada por un profesional responsable.

Por supuesto, está la cuestión de si la IA también está equivocada. Pero en general, mi esperanza es que estas van a ser formas muy poderosas de asegurar menos errores en el sistema médico, lo cual es bueno por supuesto, porque mucha gente muere de errores médicos. Así que queremos tratar de minimizar esto tanto como sea posible. Creo que hubo un informe médico en 1998 que estimó más de 90 mil muertes en los EE.UU. por año debido a errores médicos, y realmente no lo hemos hecho mucho mejor desde entonces. Por lo tanto, la pregunta importante se convierte en cómo usamos la mejor tecnología para hacerlo mejor.

También creo que en la educación hay algunas buenas asociaciones donde tienes robots que pueden enseñar a los niños lecciones que no están disponibles en los maestros locales. Y eso es particularmente importante cuando piensas en los niños más pequeños. Por ejemplo, imagina una familia que quiere que su hijo pequeño aprenda chino, pero no sabe chino, y tampoco lo sabe nadie de su entorno. En este caso puedes tener un robot interactivo, entretenido y bien diseñado para enseñarles chino. Eso es realmente importante como una nueva oportunidad.

Pero creo que también será una situación en la que no queremos sustituir a los propios profesores. Porque la interacción personal es constitutiva de una buena enseñanza, tiene que haber una persona responsable que interactúe con los estudiantes, mediando entre ellos y toda la tecnología que pueda ayudar o dañar, ayudar o parasitar, interesar o distraer.

También se trata de la democracia, de mantener diversas prioridades y formas de conocimiento en la sociedad. Los profesores van a enseñar otras asignaturas en las que podrían tener una experiencia o un punto de vista particular y la capacidad de tener un modelo socialmente interactivo para todos los estudiantes. Pero no pueden hacerlo solos, ya que ciertamente no conocerán todos los idiomas del mundo u otras cosas que podrían ser más interesantes en matemáticas, artes, codificación, cultura, historia, ciencias sociales, etc. Por lo tanto, en todas esas áreas la IA y la robótica pueden ser suplementos increíbles, y también el profesor puede ser un evaluador de calidad en términos de ayudar a los estudiantes y a sus familias a saber qué IA es más útil y cuál es menos útil. Así que creo que es un ejemplo importante de las asociaciones con la tecnología.

  • En la introducción del libro «Nuevas leyes de la robótica», además de plantear cuestiones sobre el mejor uso de la IA a través de la «interacción robótica y humana» dentro de un marco regulado, se destaca la importancia de democratizar la toma de decisiones en lugar de dejarla en manos de unos pocos poderosos. ¿Qué quiere decir con esto? ¿Cómo se puede lograr esa democratización?

Voy a usar el ejemplo que acabo de usar con los robots de enseñanza; maestros y bots o IA que podrían ser usados para enseñar ciertas lecciones. Imaginen que iríamos mucho más allá de lo que acabo de describir y nos encontramos con una sociedad como la de los EE.UU. con, digamos, 10.000 profesores en las escuelas secundarias públicas que enseñan historia americana. Y luego las juntas escolares dicen, «sabes que nos cobran demasiados impuestos para apoyar a estos 10.000 profesores de historia americana, así que vamos a tener un robot de enseñanza que tiene un curso de historia prescrito, y vamos a extenderlo a todas las aulas y va a ser una sola clase de historia para todos los Estados Unidos». Creo que sería un desarrollo muy preocupante, porque creo que hay gente en diferentes escuelas, con diferentes antecedentes, con diferentes ideas sobre lo que es importante en la historia y lo que no, quiero ver a todas esas personas enseñando historia de manera diversa en todo el país, no quiero que todos reciban la misma versión de la historia.

Por supuesto, se podría decir que podríamos intentar programar todos ellos en algún robot que tenga 10.000 tipos diferentes de enseñanza en él, pero sigo pensando que eso sería perder el punto de la democratización porque parte de la distribución del poder y la experiencia significa que hay gente que tiene algún control sobre su vida diaria, su propia parte del mundo. Esta idea de tener control sobre algún rincón de la vida o alguna parte de la misma, es una de las razones por las que mucha más gente apoya una garantía de empleo (o al menos programas de gobierno de apoyo al empleo) que apoyan el ingreso básico universal.

Ir a trabajar en cualquier contexto particular te da cierto nivel de control. Incluso cuando el jefe es controlador, todavía tienes un nivel de control o autonomía en tu posición y tienes socialización; tu socialización en el proyecto común del lugar de trabajo, como parte de un grupo más grande de trabajadores. Por lo tanto, creo que eso es parte de la clave para la democratización en el futuro de la política de automatización; es que queremos tener la capacidad para que los seres humanos ayuden a gobernar sus lugares de trabajo y a gobernar el desarrollo de la tecnología en ellos.

Esta idea se ve en el libro de Elizabeth Anderson «Private Government». Ella ha descrito el problema que tenemos hoy en día de que tantos lugares de trabajo son gobernados por jefes con mano de hierro, ya sabes, es como una dictadura, y dice que tenemos que democratizar los lugares de trabajo. Creo que tiene razón en eso, pero también creo que subestima cómo, incluso en lugares de trabajo muy controlados, todavía hay una especie de espacio para la autonomía. Incluso un asistente del gerente nocturno de una farmacia, por ejemplo, podría tener la oportunidad de conocer a otros trabajadores, organizar la tienda de cierta manera, tratar de encontrar la manera de entregar los paquetes o acomodar a una persona encerrada, etc.

Hay formas de emociones que uno tiene en el trabajo significativo, de participación en el mundo. Puede existir sólo parcialmente o imperfectamente en muchos lugares. Pero eso también es parte de lo que el libro trata; que debemos escuchar atentamente y tratar de entender las experiencias de las personas en todos los ámbitos de la vida. Además, el derecho y la política pueden cultivar el sentimiento de (y la realidad de) la participación, la autonomía y el gobierno. Cuando los trabajos incluyen más tecnología, los trabajadores deben tener algo que decir sobre cómo se integra esa tecnología y cómo se diseña.

  • La transparencia es un término que se utiliza a menudo cuando se abordan temas relacionados con la dimensión ética de la utilización de las tecnologías de la inteligencia artificial en diferentes ámbitos. En su libro «La sociedad de la caja negra» menciona la transparencia como un comienzo esencial para dar a los usuarios el control sobre el uso de sus datos, sin embargo, se argumenta que es complejo lograr una transparencia algorítmica total, por ejemplo, por razones económicas como la de no preferir revelar la tecnología utilizada a los competidores, así como la complejidad de compartir información técnica con usuarios no técnicos. A la luz de esto, permítame preguntarle:

¿Cómo definiría usted la transparencia en este contexto? ¿Cómo cree que la transparencia es el ingrediente más importante para garantizar la rendición de cuentas?   ¿Hasta qué punto se aborda actualmente este tema en las leyes y reglamentos conexos?

Creo que, con respecto a la transparencia, el capítulo 5 de The Black Box Society tiene un buen gráfico que muestra un espectro del momento de la transparencia y la profundidad de la misma. Así que, puedes hacer algo completamente transparente inmediatamente, o puedes esperar años y años para hacerlo sólo parcialmente transparente, y hay tantos puntos entre esos dos polos. Mi argumento con respecto al secreto comercial, una dimensión de la cuestión aquí, es que incluso si los secretos comerciales son valiosos ahora o durante unos pocos años, debe haber algún tipo de divulgación. La lección del derecho de patentes es que hay que revelar la información y que se protege el derecho de excluir a otros de su práctica.

Ahora bien, la transparencia con respecto al tiempo y el alcance se refiere al proceso. La sustancia aquí incluye la transparencia con respecto a los datos, los algoritmos y sus usos. Algunos dicen que es imposible hacer mucho con la IA y la gran transparencia de los datos una vez que los sistemas alcanzan un cierto nivel de complejidad. Pero tengo un artículo en el blog de la LSE (London School of Economics), que se llama ‘Bittersweet Mysteries of Machine Learning (Misterios agridulces del aprendizaje automático), donde digo que, como mínimo, incluso en sistemas donde la gente dice «oh, es completamente inexplicable o no tengo ni idea de cómo funciona», es tan complejo que deberíamos ser capaces de exigir cuáles son las fuentes de datos, qué datos se introducen en el sistema y cuáles son los resultados.

Puede que haya una caja negra en el medio, pero aún así merecemos saber qué datos entran y qué inferencias o datos salen. Ahora, cuando se trata del centro de las cosas, creo que una de las cuestiones que hay es que, si estamos tratando de nuevo con algo que es tan complejo que no hay manera de describirlo narrativamente, de explicarlo en algoritmos que sean comprensibles para los seres humanos, entonces tenemos que pensar muy profundamente en todas las formas en que no queremos permitir que ese tipo de IA afecte a las oportunidades de vida de los seres humanos, cómo no queremos que afecte a las clasificaciones, rankings y evaluaciones de las personas.

No queremos eso porque esencialmente tenemos leyes que establecen que ciertas formas de coleccionar datos sobre las personas (y de usar esos datos para juzgarlas) son ilegales, y si no podemos entender qué datos se usaron, o cómo se usaron, entonces no podemos saber que no violan esas leyes. Ahora tenemos tantos libros y tanta investigación sobre las diversas categorías de transparencia y aprendizaje automático que muestran los sesgos en los sistemas algorítmicos. Virginia Eubanks, Safiya Noble, Ruha Benjamin, Andrew Ferguson, Ari Ezra Waldman, Margaret Hu [y otros], hay tantos estudiosos que han expuesto estos problemas que ya no es seguro confiar en sistemas de caja negra con clasificaciones humanas controvertidas.

En cuanto a la forma en que se aborda esto actualmente, el Reglamento General de Protección de Datos (GDPR) es una de las cosas que limita la elaboración de perfiles no transparentes de diversas maneras, y en los Estados Unidos hay algunas leyes de privacidad y financieras que también protegen los derechos individuales y los valores sociales importantes en esta área. Creo que también tenemos que ir mucho más allá, porque [la respuesta aquí] requerirá ciertas formas de completar la clasificación, las calificaciones y las evaluaciones de las personas; eso es lo único que se hace sobre la base de criterios articulables. Tiene que hacerse de manera articulable para mantener nuestros estándares de equidad en el proceso. Si no se hace eso, entonces se deshace de esas normas, que están inextricablemente entrelazadas con el lenguaje como núcleo de la ley, no con los algoritmos y no con las evaluaciones computacionales.

En cuanto a la pregunta de si creo que la transparencia es el ingrediente más importante para garantizar la rendición de cuentas, no, creo que en última instancia es un ingrediente, pero que existen muchas formas de rendición de cuentas que implicarían, por ejemplo, el análisis post hoc de estos sistemas para auditar su impacto en los grupos. Además, podemos decir con razón que en ciertos casos, explicaciones más inteligibles desde el punto de vista narrativo, o normas más sencillas y transparentes (aplicadas con discreción y flexibilidad) deberían sustituir el aprendizaje automático, la IA o los algoritmos.  También creo que en términos de responsabilidad, los sistemas más responsables implicarían mostrar a la gente cómo funciona el mundo algorítmico, lo cual es un paso hacia la legitimidad. Pero esto siempre tiene que ser probado contra otras posibles formas no algorítmicas de ordenar esos asuntos.   

  • El uso de la IA para proporcionar soluciones tecnológicas a la actual crisis de COVID-19 se ha visto en diferentes países a través de las aplicaciones de los gobiernos para el seguimiento de los casos de COVID. Estas iniciativas han sido recibidas con dudas por muchos que se preocupan principalmente por la privacidad, el acceso a los datos de los teléfonos móviles y la vigilancia gubernamental, ¿qué opina de estas aplicaciones? ¿En qué medida cree que esas reacciones de dudas y preocupaciones se justifican considerando que los mismos usuarios pueden tener otras aplicaciones que recopilan datos todo el tiempo?

¡Excelente último punto! Empezaré con el último punto para decir que, si tiene preocupaciones sobre la privacidad y la recogida de datos de las aplicaciones de seguimiento de COVID, el siguiente paso importante para articular esas preocupaciones es explicar exactamente cuál es el margen de pérdida de privacidad más allá de las leyes de privacidad ya existentes, dado que la persona implicada suele estar ya utilizando otras formas de tecnología… Por supuesto que puede haber personas que no estén usando teléfonos móviles en absoluto. Pero para aquellos que tienen este tipo de sistemas a bordo, la pérdida marginal es algo que tiene que ser calculado.

Con respecto a las aplicaciones propiamente dichas, lo que he visto es que hay lugares en los que estas aplicaciones parecen condenadas a fracasar y hay lugares en los que parecen haber desempeñado un papel en la excelente respuesta a la pandemia. Permítanme comenzar con los países exitosos. Parte de la literatura sobre Corea del Sur, en revistas en inglés y en otros lugares, indica que en la ola de la epidemia de MERS de 2016, Corea del Sur enmendó sus leyes de privacidad de manera de asegurar una rápida coordinación y recopilación de datos para informar a las autoridades coreanas sobre el lugar exacto en el que se movía todo el mundo; si acababan de entrar en el país o si estaban expuestos a alguien con un caso de COVID. Si se observa el éxito de Corea del Sur en el seguimiento de los grupos de la enfermedad, se puede comprender rápidamente dónde se ha desplazado exactamente una persona que parece ser un superpatógeno e identificar rápidamente a esas personas para ponerlas en cuarentena, apoyarlas y saber dónde estaban en esa etapa. Todas esas cosas están muy a favor de una recopilación de datos excepcionalmente amplia y exhaustiva para un propósito muy limitado, que es en la salud pública.

Y eso me sugiere que estas aplicaciones de localización de COVID podrían jugar un papel muy importante, particularmente al comienzo de las epidemias. Si llegamos a contrastar el ejemplo de Corea del Sur con la introducción de las aplicaciones de rastreo de COVID en, digamos, Europa o como en el Reino Unido en este momento, hay una clara distinción: los gobiernos de la UE, el Reino Unido y los Estados Unidos no han reunido la seria determinación y la capacidad estatal que tuvieron Corea del Sur y Taiwán. Así que en cierto sentido no merecen (tanto como los estados más capaces) tener acceso a los datos relevantes. Si fueran más competentes, las acciones podrían ser diferentes.

Mi pregunta es cómo la aplicación de localización conduciría a una mejor asignación de recursos de manera razonable en la UE, el Reino Unido y los Estados Unidos. ¡Y tengo mis dudas! Creo que hay tanta gente que tiene la enfermedad que es muy difícil imaginar que la aplicación de seguimiento sea muy efectiva para ayudarnos a entender mejor la propagación. También hay problemas en cuanto a que las personas pueden estar en un lugar, pero no pueden verse entre sí porque hay una pared entre ellas; trabajan en diferentes departamentos, pero la aplicación de rastreo informará sobre la persona que no ha sido infectada o no tiene exposición a la persona infectada debido a la ubicación en el mismo edificio. Esos son los tipos de fallos que podrían ocurrir.

También es un enorme problema de recopilación de datos, y de diferenciación. Cuando es pronto, o las cosas están bien controladas, los resultados de la recopilación de datos sólo afectan a las vidas de relativamente pocas personas (que deben estar en cuarentena). Más tarde, si estás en medio de una pandemia, de repente estás hablando de la recopilación de datos con consecuencias para miles o millones de personas, con respecto a la exposición a los COVID.  Eso arriesga un posible uso discriminatorio de los datos, y peor aún.

En general: La vigilancia de la salud pública mejorada por la IA es una buena manera de ayudar a una autoridad de salud pública competente y de rápida actuación a detener rápidamente una pandemia y cortarla de raíz. Además, la invasión de la privacidad que conlleva ese tipo de capacidad y el desencadenamiento de un seguimiento continuo de la ubicación de todos a efectos de salud pública, esa restricción de la libertad es mucho menos perjudicial para las libertades que lo que se ve que ocurre cuando una pandemia se sale de control. Me doy cuenta de que eso va a ser controvertido como modelo para el futuro del control de la pandemia, pero creo que si observas cómo lo hizo Corea, es esencial, también es esencial para la respuesta china, pero no estoy tan seguro de Vietnam o Taiwán (que dependían mucho del control de las fronteras). No obstante, observo las libertades de las que se ha disfrutado durante muchos meses en esos países (por temor a enfermedades mortales), y el pequeño sacrificio que hicieron al principio para lograrlo, y creo que en realidad son mucho más libres, en cierto sentido, que las democracias liberales que desafortunadamente «aconsejan» a los ciudadanos que se queden en casa, que se mantengan seguros, etc.

Por supuesto, al pensar comparativamente, puede haber diferentes caminos para salir de la crisis. Así que tal vez hay un camino australiano que se trata de un cierre extremadamente estricto durante un período de tiempo prolongado; entonces se podría decir que también existe el enfoque de vigilancia de alta tecnología de Corea del Sur; y en China parece haber una especie de combinación entre esos dos. Es decir, el largo cierre de las fronteras y el seguimiento muy cercano de todos. Pero creo que lo que no se puede cuestionar es que este es el momento en que los EE.UU., la UE, América del Sur y América Central realmente piensan profundamente sobre lo que hicieron bien los países exitosos, porque, ya sabes, este es un problema histórico mundial. La muerte y la enfermedad son horribles. Y sus efectos no terminarán cuando la pandemia termine (si es que termina – el manejo incompetente de la misma ha creado ahora efectivamente la oportunidad de que surjan formas mutantes, como vimos en las granjas de visones danesas, y quizás derrotar o reducir la efectividad de las vacunas). Por ejemplo, debido a la pérdida de crecimiento económico y de oportunidades en los últimos siete meses, se prevé que cada hogar estadounidense pierda (en promedio) 125.000 dólares en ganancias futuras. Y lo que no hace falta decir es el enorme sufrimiento y la pérdida de vidas.

  • Hoy en día, con la situación actual que se observa en todo el mundo, hay una dependencia significativamente mayor de las plataformas tecnológicas en muchos campos. Por ejemplo, vemos que plataformas como Google dominan en lo que respecta a la educación a distancia, Zoom crece para los negocios y el trabajo desde casa, y Facebook y Twitter mantienen su papel de proporcionar bocados rápidos de información y actualizaciones acentuando el capitalismo de plataforma. ¿Qué beneficios y riesgos ve en este proceso?

¡Creo que es un proceso extremadamente arriesgado! Esto le está dando un enorme poder a las compañías mayormente americanas para tener un alcance global (y también a algunas firmas chinas), y no confío en muchas de estas mega-firmas. Por el contrario, creo que las naciones de todo el mundo necesitan desarrollar más formas de soberanía tecnológica.

Además, es necesario distribuir la gobernanza. La gobernanza distribuida en la educación implica que los profesores mediarán entre la tecnología y los estudiantes, en lugar de la interacción directa de la tecnología con los estudiantes. Creo que algo muy similar debería aplicarse a las plataformas. Lo ideal sería ver, en cada país, múltiples motores de búsqueda y múltiples redes sociales (con API para la interoperabilidad, por supuesto, y el intercambio de datos para los motores de búsqueda). Espero ver eso en el horizonte porque lo que sufrimos ahora es sólo una enorme situación de concentración de poder.

También espero que veamos más rupturas de megaempresas. Por ejemplo, es ridículo que Facebook, WhatsApp e Instagram estén controladas por una sola empresa dirigida por un solo hombre con una influencia excepcional sobre su junta directiva, su gestión y sus usuarios. Es básicamente un emperador, como sugiero en mi trabajo sobre «functional sovereignty» (soberanía funcional). Es decir, en las corporaciones multinacionales, los CEOs tienen el poder de elegir a muchas personas importantes en su junta directiva a lo largo del tiempo, y se dice que la junta directiva dirige la empresa, pero si el CEO ha elegido la junta directiva y puede eliminar a las personas de la misma, entonces ¿quién está realmente a cargo? Y en estas grandes empresas de tecnología, el CEO es a menudo incluso más poderoso que el CEO corporativo promedio. Creo que con estos CEOs teniendo todo este poder, tiene que haber una mirada a la ruptura de estas empresas. Quiero decir, separar Google y YouTube, separar Facebook, WhatsApp e Instagram, hay muchas maneras de hacerlo que Lina Khan, Elizabeth Warren, Sally Hubbard, Stacy Mitchell, Tim Wu, y otros han propuesto, y creo que deberíamos.  

  • El año 2016 ha sido considerado como un punto de giro que marca el comienzo de un impacto tangible de la oligarquía a través de la ingeniería y la remodelación de la esfera pública y la manipulación de la opinión pública. Por ejemplo, Brexit y las elecciones de EE.UU. fueron dos eventos que reflejaron el impacto de Facebook en la política. Después de los escándalos de invasión de la privacidad de los usuarios y los intentos de regular tales plataformas, con el actual escenario de las elecciones de los EE.UU., ¿hasta dónde ve usted progresos en ese sentido?

Creo que estas plataformas están tratando de parecer ocupadas, pero creo que han hecho muy pocas [acciones] significativas en el control de intervenciones altamente sospechosas, tanto por parte de populistas autoritarios, nacionalistas, partidos políticos de supremacía blanca como por agentes extranjeros que los apoyan y que generalmente siembran el caos, ¡y creo que esto es muy problemático! [Tales ejemplos representan] desafíos fundamentales a la idea de la autorregulación de estas plataformas. Como usted observa, hay algunas preocupaciones sobre la libertad de expresión, sin embargo, se trata de empresas privadas que utilizan las leyes de libre expresión para limitar la capacidad del gobierno de regularlas. Por lo tanto, tienen que asumir esa función reguladora para regir su propia expresión, o tienen que permitir que los reguladores gubernamentales asuman esa función (admitiendo que son empresas de transporte común). Hacer ninguna de las dos cosas es una receta para el caos y el descenso al autoritarismo (incluyendo las mentiras increíblemente dañinas que ahora difunde Trump sobre las elecciones en los Estados Unidos).

Espero que en el futuro veamos muchas más intervenciones de los gobiernos para mantener la integridad de las elecciones porque creo que hay enormes problemas con el hecho de que el Presidente de los Estados Unidos, el Presidente Trump, simplemente miente abiertamente y muchos de sus seguidores, varios en el partido republicano hacen lo mismo. Los ejemplos alrededor del mundo proliferan, tengo numerosos ejemplos en el capítulo 4 de mi libro New Laws of Robotics acerca de los medios automatizados. Creo que [esta situación es] increíblemente preocupante y que necesitamos ver a los gobiernos comenzar a imponer normas básicas de veracidad y decencia en las leyes contra el discurso del odio en estas plataformas.

Y si no lo hacen, mi predicción es que el gobierno será tomado por la gente que usa esos trucos baratos de atracción política para apoderarse de la democracia. En otras palabras: o controlamos democráticamente la esfera pública, o permitimos que sea subvertida por demagogos que la controlarán de forma autoritaria.

Quiero decir, hemos visto que con respecto a los líderes autoritarios en todo el mundo, hay muchos ejemplos. Creo que el problema sólo se agrava hasta que haya gobiernos progresistas con alguna noción de juego limpio y decencia en cuanto a los llamamientos políticos, que intervengan enérgicamente para garantizar una esfera pública que sea verdaderamente respetuosa de la libertad de todos los ciudadanos y que no vaya a presentar los horrores de los esfuerzos por aterrorizar, dañar, estigmatizar sin fundamento o difundir mentiras sobre determinados partidos políticos, grupos étnicos minoritarios y otros grupos vulnerables. Mary Ann Franks, Carrie Goldberg, Danielle Citron, y K-Sue Park son brillantes en este frente – son líderes intelectuales de un movimiento para una mejor esfera pública.

Creo que con eso tenemos que pensar profundamente en este tipo de cuestiones, y creo que realmente tenemos que reformular las cosas debido a la facilidad con que los medios sociales permiten que se difundan mentiras completas, fabricaciones completas. Estamos aprendiendo más y más desde el 2016, aprendemos más y más sobre los requisitos previos a la democracia. Necesitamos tener una población informada, no una que esté continuamente expuesta a las mentiras, la desinformación, la propaganda.

  • ¿Cuáles son los principales desafíos que se interponen en el camino de la regulación de las plataformas y la regulación algorítmica? ¿Y cómo ve el futuro progreso en esta área?

Creo que el principal problema en esta área es que no se aprecia lo suficiente que la gobernabilidad ocurre. No es que podamos decir que vamos a desregular completamente las plataformas y no tener ninguna interferencia del gobierno en ellas, que entonces no hay gobernanza, y que prevalece la libertad completa. De hecho, la gobernanza sucederá, y la buena gobernanza es necesaria para la libertad.

También debemos reconocer que las personas sienten a menudo objetivamente la necesidad de estar en la plataforma y por lo tanto no tienen la opción de estar en ella o no. En esos entornos, la capacidad de los profesionales para intervenir y establecer algunas reglas es crucial. No estamos liberando a las personas al mantener al gobierno fuera. De hecho a menudo no estamos liberándolos para ser manipulados o marginados por una plataforma.

Sé que hay un contra-argumento fácil aquí, que sería, «usted acaba de llamar a ciertos líderes como autoritarios y ahora quiere que los gobiernos pongan reglas en mi vida, ¿qué pasa? ¡Quieres que los autoritarios hagan eso!» Mi respuesta es decir que, no, no quiero que los autoritarios hagan eso, pero sí quiero que los países que no son autoritarios reconozcan rápidamente lo fácil que es para los autoritarios aprovechar el entorno actual de la información, los entornos de las plataformas, y evitar que ese tipo de cosas ocurran allí. Eso creo que es el tema crítico.

Con respecto a otras cuestiones de la gobernanza de las plataformas, uno de los mayores problemas es que los gobiernos son demasiado lentos para tratar de redistribuir la recompensa de las plataformas. Si se observa la cantidad de ingresos de Facebook, Google y Amazon, etc., se trata de ingresos que podrían ser fácilmente redistribuidos a las empresas que estas plataformas están exprimiendo, incluyendo muchos medios de comunicación locales. Hay muchas maneras en las que podríamos redistribuir esos fondos. Creo que debemos pensar profundamente en eso porque ahora mismo esos fondos están concentrados principalmente en las manos de los accionistas y los altos directivos de estas empresas y creo que tenemos que pensar en qué tipo de poder les da esto y cómo podemos asegurarnos de que ese nivel de poder y riqueza no sea tan grande que sobrecargue los procesos democráticos.

Entrevista para AikaEducacion.com

Publicado por Belén Sancho Ligorred

Periodista y Community Manager. Especializada en Marketing Online y en Innovación de Contenidos. Apasionada de la comunicación. Doctorando en "Comunicación y Periodismo" en la Universidad Autónoma de Barcelona (UAB).

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Empieza ahora
A %d blogueros les gusta esto: