La inteligencia artificial tiene muchas ventajas potencialmente enormes, pero también es grande y aterradora porque podría salirse de control y posiblemente acabar con toda la vida humana, según algunos científicos. Y así, naturalmente, las empresas de tecnología que están dispuestas a sacar provecho de la amenaza están imitando una de las grandes y aterradoras industrias originales: las grandes tabacaleras.
Esa es la idea central de un estudio reciente que me señaló el Dr. Max Tegmark después de nuestra fascinante y aterradora Tiempo de palanca discusión sobre sus terribles advertencias de IA que han estado en los titulares de todo el planeta.
Tegmark compara la situación con la trama de no mires hacia arriba, en el que los expertos promocionan los beneficios del cometa entrante en lugar de hacer sonar la alarma sobre sus peligros. El documento de 2021 que me envió ofrece algunas respuestas sobre por qué: muestra cómo Big Tech se ha infiltrado en las instituciones académicas que estudian y, a menudo, promueven la IA, sin tener en cuenta las desventajas potencialmente catastróficas.
Los investigadores de la Universidad de Toronto y Harvard que encabezaron el estudio ofrecen una conclusión: “Así como las grandes tabacaleras aprovecharon sus fondos e iniciativas para identificar académicos que serían receptivos a los puestos de la industria y que, a su vez, podrían usarse para combatir la legislación y luchar contra los litigios, Big Tech aprovecha su poder y estructura de la misma manera”.
Su prueba está en los datos. Entre las facultades de investigación con titularidad en las universidades que estudiaron, “el 58 por ciento de la facultad de ética de la IA busca dinero en Big Tech” y al “ampliar los criterios de financiación para incluir financiación para graduados, así como experiencia laboral previa, notamos que el 97% del profesorado con fuentes de financiación conocidas (65 % en total) han recibido una compensación económica de Big Tech”.
Los investigadores explican lo que esto significa:
Big Tech es capaz de influir en lo que [faculty] trabajar en. Esto se debe a que, para atraer fondos para la investigación, se presionará a los profesores para que modifiquen su trabajo para que sean más receptivos a las opiniones de las grandes tecnológicas. Esta influencia puede ocurrir incluso sin la intención explícita de manipulación, si quienes solicitan premios y quienes deciden quién merece la financiación no comparten los mismos puntos de vista subyacentes sobre qué es la ética o cómo “debe resolverse”.
Si desea alguna prueba reciente de esta influencia, eche un vistazo a este informe de Reuters que muestra que Google “se movió para reforzar el control sobre los artículos de sus científicos al lanzar una revisión de ‘temas sensibles’, y en al menos tres casos solicitó a los autores que se abstuvieran de emitir su tecnología bajo una luz negativa”.
En particular, parte de la financiación de la investigación de IA de Big Tech se destina específicamente a expertos en ética de IA que a menudo se citan en los medios. Los ejecutivos de estas empresas entienden el poder político de esos expertos y su investigación. Citando a un asistente del Senado de EE. UU., la periodista Rana Foroohar relata esto en no seas malvado:
“Se trata de captura social e intelectual, que en realidad es mucho más efectiva tanto a corto como a largo plazo. Google apoya a los investigadores que trabajan en áreas que son complementarias a los intereses comerciales de Google y/o adversas a los intereses comerciales de sus competidores; cosas como leyes de derechos de autor relajadas, reforma de patentes, neutralidad de la red, economía de laissez-faire, privacidad, robots, IA, propiedad de los medios. . . . Lo hacen a través de subvenciones directas a los investigadores, la financiación de sus centros y laboratorios, conferencias, contribuciones a grupos de la sociedad civil y viajes a eventos de Google”.
De esta manera, la empresa no solo genera buena voluntad, sino que también “prepara a los abanderados académicos, académicos prominentes que impulsarán a sus pares más jóvenes en una dirección más favorable para la empresa”, dice el asistente.
En este momento, todo esto se está desarrollando de manera más prominente en la UE, donde los cabilderos tecnológicos están tratando de diluir las regulaciones de IA en medio de advertencias de que la tecnología podría representar una amenaza existencial para toda la vida en el planeta. Aquí en los Estados Unidos, politico ha estado promocionando una “fiebre del oro” de cabildeo de IA en Washington, ya que las empresas y la máquina de influencia de K Street tienen signos de dólar en sus ojos.
Estos Peter Isherwell del mundo real no quieren que los legisladores sepan, o legislen contra, los peligros potenciales, porque eso podría interponerse en el camino de lo que señaló un nuevo memorando de Morgan Stanley: “La computación cognitiva crea oportunidades potenciales de inversión, a medida que las empresas desarrollan el tecnología y utilizarla para transformar su negocio”.
Mientras buscan proteger ese potencial de inversión, los ejecutivos de tecnología y sus cabilderos sin duda utilizarán trabajos de investigación académica de expertos vinculados a empresas para defender su caso y, en muchos casos, es posible que los responsables de la formulación de políticas ni siquiera sepan de esos vínculos.
Ese fue el truco de las grandes tabacaleras hace algunas décadas, y ahora es la estrategia de las grandes tecnológicas en la actualidad.
Fuente: jacobin.com