Artículo de opinión de Germán Alarco, investigador del CIUP y profesor del Departamento Académico de Gestión de la Universidad del Pacífico. Este texto fue escrito para el Espacio de Reflexión del boletín Punto de Equilibrio N°49.
Desde la primera Revolución Industrial en el siglo XVIII, los cambios tecnológicos han causado una preocupación natural en las personas. A lo largo del tiempo han convivido dos perspectivas: los tecnoptimistas, que sostienen que todo cambio siempre es positivo y desata fuerzas endógenas que neutralizan los elementos negativos, y los tecnopesimistas, que no solo se fijan en sus oportunidades sino en las amenazas y riesgos. Una expresión más radical y extrema fueron los movimientos del Ludismo a finales del siglo XVIII e inicios del XIX, que propiciaban la destrucción de las nuevas máquinas.
Diversos autores como Kondratiev (1892-1938), Schumpeter y más recientemente Freeman y Pérez, entre otros, nos señalan que las grandes transformaciones tecnológicas denominadas como Paradigmas Tecnoeconómicos (PTE) han dado lugar en lo positivo a los grandes ciclos de crecimiento de largo plazo de la economía internacional. Estos últimos autores distinguen al menos cinco fases con factores clave en el hierro en la primera Revolución Industrial, el carbón y el transporte en la prosperidad Victoriana, el acero en la Bella Época, el petróleo en la Edad de Oro del Capitalismo y la microelectrónica de las tecnologías de la información (TICS) desde los años 80´s del siglo XX. Estos paradigmas generan cambios en muchas esferas incluidas los patrones de producción y organización de la sociedad, lo socio-institucional, lo ideológico y no solo lo económico.
Es indiscutible que los cambios tecnológicos significativos y especialmente los PTE generan grandes sectores de la población beneficiados y perjudicados, pero debemos pensar en cuál ha sido el balance neto para toda la sociedad en su conjunto. Al respecto, los impactos agregados de los cinco grandes ciclos han sido disímiles, siendo los cuatro primeros más significativos que el último asociado a las TICS, que si bien importante, fue de menor duración, con menores impactos y arrastre que, por ejemplo, el tercer ciclo vinculado al desarrollo de los ferrocarriles y las redes ferroviarias desde mediados del Siglo XIX en todas partes del mundo. Mientras más inmateriales, con menor demanda de materias primas, inversiones más focalizadas y menor generación de empleos los impactos de estos ciclos serían más limitados.
Nuevas tecnologías
Todavía no se puede saber si los desarrollos actuales y previsibles en la IA, Robótica, Biotecnología, entre otras, son parte y extensión del quinto PTE o de uno nuevo, el sexto; aunque algunos autores también se refieren a estos como parte de una Cuarta Revolución Industrial. Lo que al momento se conoce es que estos desarrollos tecnológicos son de una magnitud tal que van a generar impactos y transformaciones sin precedentes mayores a los de los ciclos anteriores y donde estas tecnologías, especialmente las dos primeras, pueden competir con la inteligencia y el trabajo humano tal como lo consideramos hasta ahora. Las estimaciones académicas sobre los posibles impactos de estas tecnologías sobre el empleo al 2030 y 2035 son diversas, fluctuando en un balance neto negativo entre 8% al 50% menos de los niveles actuales de empleo adecuados, con una media entre 20% y 30%.
Al igual que antes, la discusión entre los optimistas y pesimistas sale a la luz; encabezada en el primer grupo por la mirada desde los negocios y muchos de los medios de comunicación quienes solo ven sus bondades, pero omiten sus peligros. También se ubican en esta posición diversos economistas (principalmente neoliberales) y otros profesionales que rechazan cualquier forma de regulación a estas nuevas tecnologías. A todos ellos hay que recordarles las preguntas básicas que no hacemos los economistas (en el ámbito de la microeconomía) relativas a investigar qué, cómo y para quién se produce, acompañada de una última donde se debe evaluar si las acciones individuales conducen o no al bienestar colectivo. Lo cual significa que no siempre el beneficio de unos pocos lo es para todos. Por otra parte, es necesario recordar que detrás de quienes plantean la necesidad de regular la IA hay importantes economistas como Daron Acemoglu, del MIT y autor del libro Por qué fracasan los países.
Naciones Unidas
Para suerte de todos, la mayor parte de los organismos internacionales como la ONU, OCDE, FMI y Unión Europea (UE), y las principales economías del mundo coinciden en la necesidad de regular la IA. Recientemente, el 21 de marzo de marzo de 2024, la Asamblea General de las Naciones Unidas adoptó por aclamación una resolución histórica sobre la promoción de sistemas de IA seguros y fiables que beneficien también al desarrollo sostenible para todos. Al adoptar sin votación un proyecto de resolución liderado por Estados Unidos, la Asamblea también destacó el respeto, la protección y la promoción de los derechos humanos en el diseño, el desarrollo, el despliegue y el uso de la IA. El texto liderado por EE.UU. fue respaldado por más de 120 Estados miembros (https://news.un.org/es/story/2024/03/1528511).
En la perspectiva optimista, la Asamblea General reconoció el potencial de los sistemas de IA para acelerar y permitir el progreso hacia la consecución de los 17 Objetivos de Desarrollo Sostenible. Al respecto, señala la nota de prensa, es la primera vez que la Asamblea adopta una resolución para regular este campo. Asimismo, se pidió a todos los Estados miembros que se abstengan de utilizar sistemas de IA que no puedan funcionar en conformidad con las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los derechos humanos. Por último, la representante de los EE.UU. destacó la oportunidad y la responsabilidad de la comunidad internacional de gobernar esta tecnología en lugar de dejar que nos gobierne.
Retos y Riesgos
Un reciente informe del Órgano Consultivo de Alto Nivel sobre IA convocado por el secretario general de las Naciones Unidas de finales de diciembre de 2023 ha elaborado un buen mapa de oportunidades y riesgos sobre esta tecnología (https://www.un.org/en/ai-advisory-body). Según este Órgano las oportunidades y los riesgos de la IA para las personas y la sociedad son evidentes. También se manifiestan a escala mundial, con tensiones geoestratégicas sobre el acceso a los datos, la informática y el talento que alimentan la IA, y se habla de una nueva carrera armamentista de la IA. Tampoco los beneficios y los riesgos se distribuyen equitativamente. A juicio de la comisión, esta tecnología exige gobernanza, no solo para afrontar los retos y riesgos, sino también para garantizar que se aproveche su potencial para que nadie quede excluido.
En el informe se clasifican los riesgos en tres subconjuntos. En primer lugar, desde la perspectiva de sus características técnicas; luego desde el punto de vista del uso inadecuado, incluido el doble uso, y de consideraciones más amplias sobre la interacción hombre-máquina; y, por último, se examinan los riesgos desde la perspectiva de la vulnerabilidad. Al respecto, señala Naciones Unidas, algunos riesgos de la IA tienen su origen en las limitaciones técnicas de estos sistemas. Estos van desde los sesgos perjudiciales hasta diversos peligros de la información, como la falta de precisión, las “alucinaciones” que son problemas conocidos en la IA generativa. Otros son más producto de los humanos que de la IA. Las falsificaciones profundas y las campañas de información hostiles no son más que el último ejemplo de tecnologías desplegadas con fines malévolos, que pueden afectar a las democracias.
Vulnerar seguridad
Otras están relacionadas con la interacción hombre-máquina. A nivel individual, esto incluye una confianza excesiva en los sistemas de IA (sesgo de automatización) y la posible pérdida de competencias con el tiempo. A nivel social, incluye el impacto en los mercados laborales y en el agravamiento de las desigualdades económicas si grandes sectores de la mano de obra se ven desplazados, o en la creatividad si no se protegen los derechos de propiedad intelectual. Tampoco, anota Naciones Unidas, se pueden descartar cambios sociales en la forma en que nos relacionamos los seres humanos a medida que aumenta el número de interacciones mediadas por la IA. Esto puede tener consecuencias imprevisibles para la vida familiar y para el bienestar físico y emocional.
Otra categoría de riesgo reseñada por el Órgano Consultivo se refiere a cuestiones de seguridad de mayor envergadura, con un debate en curso sobre las posibles líneas rojas de la IA, ya sea en el contexto de los sistemas de armamento autónomos o de la militarización más amplia de la propia tecnología, que podrían desatar una nueva carrera armamentista con consecuencias para la estabilidad mundial. La persecución y el daño de seres humanos por parte de máquinas es una de esas líneas que no deben cruzarse. En muchas jurisdicciones, el uso de la IA por parte de las fuerzas de seguridad, en particular la vigilancia biométrica en tiempo real se ha identificado como un riesgo inaceptable que viola el derecho a la privacidad. También preocupa la IA incontrolable o incontenible, incluida la posibilidad de que pueda suponer una amenaza existencial para la humanidad, anota el documento.
Regulación
Se comentaba que ya existen principios generales para normar el desarrollo y aplicación de la IA en diferentes países y organismos internacionales. De todas estas destaca la regulación de la UE. Al respecto, ya se alcanzó un acuerdo político sobre la Ley de IA de la UE el 8 de diciembre de 2023. Ahora se lleva a cabo un proceso de adecuación, armonización y ajustes considerando las diferentes particularidades nacionales y que está a punto de culminar. Según la UE, la ley tiene como objetivo proporcionar a los desarrolladores e implementadores de IA requisitos y obligaciones claros con respecto a sus usos específicos. Al mismo tiempo, el reglamento pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (https://artificialintelligenceact.eu/es/ai-act-explorer/).
Según la ley se clasifica la IA en función de su riesgo. Al respecto, se prohíben los riesgos inaceptables (por ejemplo, los sistemas de puntuación social y la IA manipuladora). Por otra parte, la mayor parte del texto aborda los sistemas de IA de alto riesgo, que están regulados. Una sección más pequeña se ocupa de los sistemas de IA de riesgo limitado, sujetos a obligaciones de transparencia más ligeras: los desarrolladores e implantadores deben garantizar que los usuarios finales sean conscientes de que están interactuando con IA (chatbots y deepfakes). El riesgo mínimo no está regulado (incluida la mayoría de las aplicaciones de IA actualmente disponibles en el mercado único de la UE, como videojuegos.
Sistemas prohibidos
La lista de los sistemas prohibidos incluye aquellos que desplieguen técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, causando un daño significativo. Asimismo, explotar las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento. Por otra parte, incorporar sistemas de categorización biométrica que infieran a partir de atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida u orientación sexuales). Asimismo, se prohíben sistemas de puntuación social, es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato desfavorable a esas personas.
Por último, la norma incluye dentro de los prohibidos a los sistemas de IA para evaluar el riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad. También la compilación de bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de Internet o de grabaciones; inferir emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad. También la identificación biométrica remota en tiempo real en espacios de acceso público para las fuerzas de seguridad con algunas excepciones.
Colofón
Es claro que la IA abre numerosas oportunidades, pero también riesgos significativos que es necesario regular. Muchas economías están avanzando en el tema; ojalá que no nos quedemos atrás.
Continúa leyendo Punto de Equilibrio N° 49: Informalidad y pobreza: un retroceso en la igualdad. Consulte aquí las ediciones pasadas del boletín Punto de Equilibrio.
Copyright 2019 - Centro de Investigación de la Universidad del Pacífico