Fuente de la fotografía: David S. Soriano – CC BY-SA 4.0

El primer ministro británico, Rishi Sunak, parece tanto una proyección profundamente falsa como una representación superficial y delgada de la realidad. Su torpeza robótica y risible hace que una anterior ocupante de su oficina, Theresa May, parezca tristemente humana en comparación. Pero en la Cumbre de Seguridad de la IA en Bletchley Park, el sistema nervioso de descifrado de códigos durante la Segunda Guerra Mundial dominado por genios tan problemáticos como Alan Turing, los delegados se habían reunido para charlar sobre las implicaciones de la Inteligencia Artificial.

La lista de invitados se caracterizó por una lista de personajes destacados de Big Tech y panjandrums políticos, parte de un intento del Reino Unido de, como TechCrunch En otras palabras, “marcar un territorio para sí mismo en el mapa de la IA, como un lugar para construir negocios de IA, pero también como una autoridad en el campo general”. Incluían a Google, Meta, Microsoft y Salesforce, pero excluían a Apple y Amazon. OpenAI y el siempre impredecible Elon Musk, con su X AI, estuvieron presentes.

La lista de invitados en cuanto a representantes de los países también fue curiosa: ninguna presencia nórdica; no Rusia (sino Ucrania, naturalmente). Brasil, que sostiene el frente latinoamericano; algunos otros hacen lo mismo para el Sur Global. El presidente estadounidense, Joe Biden, no estuvo presente, pero había enviado a su vicepresidenta, Kamala Harris, como emisaria. Solo unos días antes, la administración había emitido la primera Orden Ejecutiva sobre IA, afirmando jactanciosamente establecer “nuevos estándares para la seguridad de la IA” al tiempo que protegía la privacidad, promovía la equidad y los derechos civiles, todo ello junto con la promoción del bienestar de los consumidores y trabajadores. innovación y competencia. Los que dudan estarán ocupados.

China fue invitada al evento con la desgana que uno muestra ante un invitado influyente pero indeseable. En consecuencia, a sus delegados se les dio lo que sólo podía considerarse como un lugar confinado. En ese sentido, la cumbre, como prácticamente todas las reuniones tribales, tuvo que encontrar alguna figura amenazadora en la gran narrativa del esfuerzo humano. La humanidad es importante, pero también lo son los prejuicios selectos y específicos. Como afirmó el Viceprimer Ministro del Reino Unido, Oliver Dowden, con forzada hospitalidad: “Hay algunas sesiones en las que tenemos países con ideas afines trabajando juntos, por lo que podría no ser apropiado que China se una”.

Sunak dejó en manos de la Ministra de Tecnología, Michelle Donelan, la publicación de la Declaración de Bletchley, un documento que pretende reunir y reunir algunos puntos en común sobre cómo abordar los riesgos de la IA. También se planean más reuniones como parte de un esfuerzo para que este concierto sea regular: Corea será el anfitrión dentro de seis meses; Francia seis meses después. Pero el Primer Ministro británico insistió en que elaborar un marco regulatorio de reglas y regulaciones en este momento era prematuro: “Antes de empezar a imponer mandatos y legislar sobre cosas… necesitas saber exactamente para qué estás legislando”. Musk debió estar encantado.

La declaración comienza con la opinión de que la IA “presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar y la prosperidad humanos”. Con esa visión optimista firmemente establecida, la declaración continúa estableciendo el objetivo: “Para lograr esto, afirmamos que, por el bien de todos, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura. , de tal manera que sea centrado en el ser humano, confiable y responsable”.

Surgen preocupaciones, incluido el posible abuso que surja de las plataformas centradas en sistemas lingüísticos desarrolladas por Google, Meta y OpenAI. “Surgen riesgos de seguridad particulares en la ‘frontera’ de la IA, entendida como aquellos modelos de IA de propósito general altamente capaces, incluidos los modelos básicos, que podrían realizar una amplia variedad de tareas, así como también IA específicas relevantes que podrían exhibir capacidades que causar daño, que igualan o superan las capacidades presentes en los modelos más avanzados de hoy”.

También era necesario reconocer “el impacto potencial de los sistemas de IA en los foros existentes y otras iniciativas relevantes, y el reconocimiento de que la protección de los derechos humanos, la transparencia y la explicabilidad, la equidad, la rendición de cuentas, la regulación, la seguridad, la supervisión humana adecuada, la ética, Es necesario abordar la mitigación de prejuicios, la privacidad y la protección de datos”.

En aras de la forma, la declaración está parcialmente marcada por la preocupación por el “posible uso indebido intencional o problemas no intencionados de control relacionados con la alineación con la intención humana”. También había “potencial de daño grave, incluso catastrófico, ya sea deliberado o no, derivado de las capacidades más significativas de estos modelos de IA”.

La declaración continúa hablando de las virtudes de la sociedad civil, aunque sus creadores y participantes no han hecho nada para asegurarles que su papel fuera tan relevante. En una carta enviada a Sunak, firmada por más de 100 organizaciones británicas e internacionales, grupos de derechos humanos, confederaciones sindicales, organizaciones de la sociedad civil y expertos, los firmantes protestaron por el hecho de que “la Cumbre es un evento a puertas cerradas, demasiado centrado en especulaciones sobre los remotos ‘riesgos existenciales’ de los sistemas de inteligencia artificial ‘fronterizos’: sistemas construidos por las mismas corporaciones que ahora buscan cambiar las reglas”.

Fue revelador, dado el tema de la conferencia, que “las comunidades y los trabajadores más afectados por la IA hayan sido marginados por la Cumbre”. Hablar también de IA en términos futuristas tergiversaba las realidades actuales y apremiantes de la amenaza tecnológica. “Para millones de personas en el Reino Unido y en todo el mundo, los riesgos y daños de la IA no están lejanos: se sienten aquí y ahora”.

Los individuos podrían ver sus trabajos despedidos mediante un algoritmo. Los solicitantes de préstamos podrían ser descalificados por motivos de código postal o identidad. Los regímenes autoritarios utilizaban la vigilancia biométrica mientras los gobiernos recurrían a una “vigilancia policial predictiva desacreditada”. Y el gran sector tecnológico había “asfixiado” la innovación, expulsando a las pequeñas empresas y a los artistas.

Desde dentro de la propia cumbre, limitar la limitada contribución de China puede tener consecuencias reveladoras. Varios académicos chinos que asistieron a la cumbre firmaron una declaración que mostraba una preocupación aún mayor por el “riesgo existencial” que plantea la IA que la declaración de Bletchley o la orden ejecutiva del presidente Biden sobre la IA. De acuerdo con la Tiempos financierosel grupo, que se distingue por figuras como el informático Andrew Yao, pide el establecimiento de “un organismo regulador internacional, el registro y la auditoría obligatorios de los sistemas avanzados de IA, la inclusión de procedimientos de ‘apagado’ instantáneo y para los desarrolladores gastar el 30 por ciento de su presupuesto de investigación en la seguridad de la IA”.

La humanidad ha demostrado ser capaz, en raras ocasiones, de unirse para crear marcos internacionales para combatir una amenaza. Desafortunadamente, tales estructuras –las Naciones Unidas son un ejemplo notable– pueden resultar frágiles y sujetas a manipulación. Cómo el enfoque de la IA mantiene una “étnica de uso” junto con las prerrogativas políticas y económicas de los gobiernos y las grandes tecnologías es una cuestión que seguirá preocupando a críticos bien alimentados por el escepticismo. Sin duda, las normas serán redactadas, pero ¿quién?

Source: https://www.counterpunch.org/2023/11/06/rishi-sunaks-ai-pitch-the-bletchley-declaration/



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *