Los a largo plazo están impulsando una nueva guerra fría con China


El largoplacismo surgió como una escuela de pensamiento dentro del movimiento más amplio de “altruismo efectivo” (EA). Este movimiento intenta diseñar y evaluar organizaciones benéficas y contribuciones benéficas con miras al máximo impacto positivo en el dólar. Si bien el trabajo de EA más publicitado y mejor recibido se ha centrado en áreas de causa apremiantes inmediatas y a corto plazo como la pobreza global y la prevención de enfermedades, durante mucho tiempo ha habido un contingente controvertido dentro de la comunidad más interesado en preocupaciones futuristas.

Gran parte de este trabajo a largo plazo en EA se ha centrado en los “riesgos existenciales”, cataclismos potenciales que (supuestamente) amenazan la existencia de la humanidad en su conjunto. Estos “riesgos X”, como se les llama, abarcan desde ciencia ficción (impactos de meteoritos gigantes) hasta lo profético (preparación y prevención de pandemias). Sin embargo, entre los días del juicio final teóricos estudiados por los a largo plazo, un tema ha destacado constantemente: la seguridad de la IA.

Los defensores de la seguridad de la IA como un área de causa generalmente temen que, de una forma u otra, una inteligencia artificial avanzada pueda representar un riesgo para la supervivencia humana. Algunos argumentan que, con objetivos incluso ligeramente cruzados con los nuestros, una IA superinteligente estaría dispuesta y sería capaz de eliminarnos rápidamente para lograr sus objetivos.

Otros sugieren, de manera más conservadora, que la IA podría resultar peligrosa de la misma manera que las armas nucleares: fácil de usar indebidamente por accidente, difícil de predecir en detalle y con consecuencias de gran alcance si se maneja de manera inepta. Pero están unidos en su creencia de que los avances fallidos en inteligencia artificial podrían significar un desastre para la humanidad, potencialmente hasta el punto de extinción.

Con tanto en juego, es natural que los defensores a largo plazo de la seguridad de la IA busquen influir en la política nacional (e internacional). Future Forward, un súper PAC prodemócrata con una perspectiva explícitamente a largo plazo, estuvo entre los donantes más generosos en las elecciones presidenciales de 2020, y en 2022, Carrick Flynn hizo una oferta en el Congreso abiertamente sobre temas a largo plazo. El electoralismo ha venido por las Cassandras of AI doom.

Sin embargo, a juzgar únicamente por sus contribuciones electorales (bastante cubiertas), uno podría juzgar razonablemente que el movimiento es, en el mejor de los casos, una atracción secundaria en el panorama político estadounidense más amplio. Si bien las donaciones de Future Forward para 2020 fueron extensas, pocos expertos han sugerido que por sí solos cambiaron el rumbo contra Donald Trump, y la campaña de Flynn dos años después terminó en una derrota abrumadora.

Sin embargo, sería un error evaluar el alcance político del largoplacismo únicamente por su influencia electoral. Más allá de las campañas, se ha abierto paso con poca fanfarria en el ámbito de los think tanks, las comisiones del Congreso y los nombramientos burocráticos, donde ha sido vocal en temas de suma importancia nacional y mundial. Quizás la más notable, hasta la fecha, ha sido la política estadounidense sobre la infraestructura de microchips.

La decisión de la administración Biden, en octubre del año pasado, de imponer drásticos controles a la exportación de semiconductores, se erige como uno de sus cambios de política más sustanciales hasta el momento. Como jacobinoBranko Marcetic escribió en ese momento, los controles probablemente fueron el primer disparo en una nueva Guerra Fría económica entre Estados Unidos y China, en la que ambas superpotencias (sin mencionar el resto del mundo) sentirán el daño durante años o más. décadas, si no permanentemente.

La política ya ha devastado cadenas de suministro críticas, alterado mercados y despertado tensiones internacionales, todo con la promesa de más por venir. Los semiconductores, el “petróleo del siglo XXI”, son un componente esencial en una amplia gama de tecnologías informáticas, y la interrupción que surge de los controles de exportación inevitablemente afectará el curso de su futura producción e innovación, para peor.

La idea detrás de la política, sin embargo, no surgió de la nada. Tres años antes de que la administración actual emitiera la regla, el Congreso ya estaba recibiendo numerosos testimonios a favor de algo muy parecido. El extenso informe de 2019 de la Comisión de Seguridad Nacional sobre Inteligencia Artificial sugiere sin ambigüedades que “Estados Unidos debería comprometerse con una estrategia para mantenerse al menos dos generaciones por delante de China en microelectrónica de última generación” y

modernizar los controles de exportación y la evaluación de inversiones extranjeras para proteger mejor las tecnologías críticas de doble uso, incluso mediante la creación de capacidad regulatoria y la implementación total de reformas legislativas recientes, la implementación de controles de exportación coordinados en equipos de fabricación de semiconductores avanzados con aliados y la ampliación de los requisitos de divulgación para inversores de naciones competidoras.

El informe de la comisión hace repetidas referencias a los riesgos que plantea el desarrollo de la IA en regímenes “autoritarios” como el de China, prediciendo terribles consecuencias en comparación con investigaciones y desarrollos similares llevados a cabo bajo los auspicios de la democracia liberal. (Su retorcimiento de manos en particular sobre la vigilancia autoritaria china impulsada por IA es irónico, ya que también exhorta siniestramente, “La [US] Intelligence Community (IC) debe adoptar e integrar capacidades habilitadas por IA en todos los aspectos de su trabajo, desde la recopilación hasta el análisis”).

Estos énfasis en los peligros de una IA moralmente mal informada no son accidentales. El jefe de la comisión fue Eric Schmidt, multimillonario tecnológico y colaborador de Future Forward, cuya empresa filantrópica Schmidt Futures tiene vínculos profundos con la comunidad a largo plazo y un historial de influencia sombría sobre la Casa Blanca en política científica. El mismo Schmidt ha expresado una preocupación mesurada por la seguridad de la IA, aunque teñida de optimismo, opinando que los “escenarios del fin del mundo” de la IA enloquecida merecen una “consideración cuidadosa”. También es coautor de un libro sobre los riesgos futuros de la IA, con nada menos que un experto en amenazas morales sin control para la vida humana que el notorio criminal de guerra Henry Kissinger.

También cabe destacar el miembro de la comisión Jason Matheny, director ejecutivo de RAND Corporation. Matheny es alumna del Instituto Futuro de la Humanidad (FHI) de la Universidad de Oxford, que ha afirmado que el riesgo existencial y la inteligencia artificial son más peligrosos que cualquier pandemia histórica y “un tema descuidado tanto en la comunidad científica como en la gubernamental, pero es Es difícil pensar en un tema más importante que la supervivencia humana”. Este informe de la comisión tampoco fue su último testimonio ante el Congreso sobre el tema: en septiembre de 2020, hablaría individualmente ante el Comité de Presupuesto de la Cámara instando a “controles de exportación multilaterales en el equipo de fabricación de semiconductores necesarios para producir chips avanzados”, para preservar mejor Dominio estadounidense en IA.

Además, el testimonio ante el Congreso y su puesto en RAND Corporation no fueron los únicos canales de Matheny para influir en la política estadounidense al respecto. En 2021 y 2022, se desempeñó en la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca como asistente adjunto del presidente para tecnología y seguridad nacional y como subdirector de seguridad nacional (el jefe de la división de seguridad nacional OSTP). Como figura de alto nivel en la Oficina, a la que Biden ha otorgado “acceso y poder sin precedentes”, el asesoramiento sobre políticas como los controles de exportación de octubre habría entrado directamente dentro de su mandato profesional.

Igual de importante, en enero de 2019, fundó el Centro de Seguridad y Tecnología Emergente (CSET) en la Universidad de Georgetown, un grupo de expertos sobre temas nacionales que analistas amistosos han descrito como tener el largoplacismo “integrado en su punto de vista”. CSET, desde su fundación, ha hecho de la seguridad de la IA un área de preocupación principal. Tampoco ha tenido reparos en vincular el asunto con la política exterior, en particular el uso de controles de exportación de semiconductores para mantener la ventaja de Estados Unidos sobre la IA. Karson Elmgren, analista de investigación de CSET y exempleado de OpenAI que se especializa en seguridad de IA, publicó un artículo de investigación en junio del año pasado, aconsejando una vez más la adopción de tales controles, y cubrió favorablemente la regla de octubre en el primer número de la nueva revista EA. Asterisco.

Sin embargo, los defensores de las restricciones más importantes (aparte de Matheny) que surgieron de CSET han sido Saif Khan y Kevin Wolf. El primero es alumno del Centro y, desde abril de 2021, director de tecnología y seguridad nacional en el Consejo de Seguridad Nacional de la Casa Blanca. Este último ha sido miembro principal de CSET desde febrero de 2022 y tiene un largo historial de servicio y conexiones con la política de exportación de EE. UU. Se desempeñó como subsecretario de comercio para la administración de exportaciones de 2010 a 2017 (entre otros trabajos en el campo, tanto privados como públicos), y su amplia familiaridad con el sistema de regulación de exportaciones de EE. UU. sería valiosa para cualquiera que aspire a influir en la política sobre el tema. . Ambos, antes y después de octubre, defenderían los controles de semiconductores.

En CSET, Khan publicó repetidamente sobre el tema, pidiendo una y otra vez a Estados Unidos que implemente controles de exportación de semiconductores para frenar el progreso chino en IA. En marzo de 2021, testificó ante el Senado, argumentando que Estados Unidos debe imponer dichos controles “para garantizar que las democracias lideren en chips avanzados y que se utilicen para el bien”. (Paradójicamente, al mismo tiempo, el discurso insta a los Estados Unidos a “identificar oportunidades para colaborar con competidores, incluida China, para generar confianza y evitar carreras a la baja” y a “controlar estrictamente las exportaciones de tecnología estadounidense a los violadores de los derechos humanos”. ”, como… China.)

Entre los coautores de Khan se encontraba el mencionado ex aspirante al Congreso y longevo Carrick Flynn, anteriormente subdirector del Centro para la Gobernanza de la IA en FHI. El propio Flynn escribió individualmente un resumen de CSET, “Recomendaciones sobre controles de exportación para inteligencia artificial”, en febrero de 2020. El resumen, como era de esperar, aboga por una regulación de exportación de semiconductores más estricta al igual que Khan y Matheny.

Este febrero, Wolf también brindó un discurso en el Congreso sobre “Avance de la seguridad nacional y la política exterior a través de sanciones, controles de exportación y otras herramientas económicas”, elogiando los controles de octubre e instando a una política adicional en la misma línea. En él, afirma conocer las motivaciones específicas de los redactores de controles:

BIS no se basó en las disposiciones tecnológicas fundamentales y emergentes de ECRA al publicar esta regla, por lo que no necesitaría buscar comentarios públicos antes de publicarla.

Estas motivaciones también incluían claramente exactamente los tipos de preocupaciones de la IA que Matheny, Khan, Flynn y otros longevos habían planteado durante mucho tiempo a este respecto. En su resumen de antecedentes, el texto de una regla vincula explícitamente los controles con la esperanza de retrasar el desarrollo de la IA en China. Utilizando un lenguaje que fácilmente podría haber sido copiado de un artículo de CSET sobre el tema, el resumen advierte que “la República Popular China está utilizando ‘supercomputadoras’ para mejorar los cálculos en el diseño y prueba de armas, incluidas las armas de destrucción masiva, como armas nucleares, hipersónicas y otras”. sistemas de misiles avanzados y para analizar los efectos del campo de batalla”, así como reforzar la vigilancia ciudadana.

Los controles de exportación de Biden, por cierto, han fracasado espectacularmente en el logro de sus ambiciones declaradas. A pesar del daño que los controles de exportación han causado en las cadenas de suministro globales, la investigación de IA de China ha logrado continuar a buen ritmo. Lejos de asegurar el dominio de EE. UU. en el área, los controles de exportación de semiconductores han acelerado la fractura de la comunidad internacional de investigación de IA en sectores regionales independientes y competitivos.

En resumen, los a largo plazo han ejercido una fuerte influencia desde al menos 2019 sobre lo que se convertiría en las reglas de exportación de semiconductores de octubre de 2022 de la Casa Blanca de Biden. Si la política no es en sí misma el producto directo de los largoplacistas institucionales, al menos lleva el sello de su entusiasta aprobación y estrecha vigilancia.

Así como sería un error restringir el interés en las ambiciones políticas del largoplacismo exclusivamente a las campañas electorales, sería miope tratar su trabajo sobre la infraestructura de semiconductores como un incidente único. Khan y Matheny, entre otros, permanecen en posiciones de considerable influencia y han demostrado su compromiso de hacer que las preocupaciones a largo plazo influyan en asuntos de alta política. La sofisticación de las políticas, el alcance político y el entusiasmo fresco que se muestra en sus maniobras de exportación de semiconductores deberían ganarle al cabildeo del fin del mundo de la IA su parte justa de atención crítica en los años venideros.



Fuente: jacobin.com




Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *