Connect with us

Especiales

¿Cuáles son los riesgos de la carrera en el desarrollo de Inteligencia Artificial y su uso?

Foto: Twitter

El empresario Elon Musk anunció a inicios de esta semana que se encuentra en el desarrollo de su propia inteligencia artificial (IA) a la cual denominará TruthGPT, la cual buscará la “verdad absoluta”, así como comprender la naturaleza del universo. Este proyecto se diferencia de los demás de IA al contar con un nuevo enfoque que evitará que la tecnología “acabe con la humanidad», por lo que consideró que será el “mejor camino hacia la seguridad”.

Para lograr su objetivo, el también dueño de Twitter, fundó a la empresa X.AI, la cual constituyó el pasado 9 de marzo y hasta el momento ha buscado atraer la atención de los inversores con la compra de 10 mil tarjetas gráficas, que se presume empleará para crear un nuevo a un nuevo modelo de lenguaje.

El multimillonario consideró que es poco probable que una Inteligencia Artificial que se dedique a estudiar el universo destruya a la raza humana. Sin embargo, el propio Musk firmó el 22 de marzo, junto con más de mil expertos en el desarrollo de tecnología, una carta en la cual solicitaron a los programadores de Inteligencia Artificial pausar sus trabajos con el fin de pensar en las consecuencias que tendrá esta tecnología para la sociedad contemporánea.

¡Paren a las IAs!

El escrito publicado por Future of Life Institute (FLI), organización civil financiada por el dueño de Tesla, destaca que anteriormente se han realizado pausas en el avance de otras tecnologías con “efectos potencialmente catastróficos en la sociedad”; además se detalla que la introducción de esta tecnología “representa un cambio profundo en la historia”, el cual debería de planificarse y gestionarse con los cuidados y recursos correctos.

La petición apunta que los laboratorios de Inteligencia Artificial han creado una carrera fuera de control para desarrollar mentes digitales cada vez más poderosas, las cuales ni sus propios creadores son capaces de “entender, predecir o controlar de forma fiable”. Ante lo cual piden que se elaboren protocolos de seguridad auditados y supervisados por expertos externos independientes, y se trabaje en el sistema legal para regular y acompañar estos avances.

La carta concluye con una serie de preguntas sobre si los seres humanos pueden ser reemplazados por la IA; y si los eventos derivados de esta tecnología deberían de ser tomadas por “líderes tecnológicos no electos”, en referencia a los administradores y programadores de dichas empresas. Además, solicitan que los gobiernos intervengan, en caso de que las partes nieguen realizar esta pausa, con la “instauración de una moratoria”.

Te puede interesar: “Tengo Covid-19; se me complicó por la gira, pero estoy bien”, dice AMLO al reaparecer en video

Future of Life Institute describe en su página que las IAs son potencialmente peligrosas porque, eventualmente serían empleadas para desarrollar armas, las cuales serán más complejas de desarmar. “En manos de la persona equivocada, estas armas podrían causar fácilmente víctimas masivas. Además, una carrera armamentística de IA podría desembocar inadvertidamente en una guerra de IA que también causará víctimas masivas”.

Igualmente, plantea que a pesar de que sean programadas para desarrollar algo beneficioso, con el fin de alcanzar su objetivo serían capaces de realizarlo con un método destructivo. “Una IA superinteligente será extremadamente buena en la consecución de sus objetivos, y si esos objetivos no están alineados con los nuestros, tenemos un problema”.

Críticas a las críticas

Sin embargo, los críticos de la carta han dicho que esta busca darle prioridad a escenarios apocalípticos imaginarios; mientras que en la actualidad existen problemáticas inmediatas dentro de las IAs como la reproducción de prejuicios racistas o sexistas.

Margaret Mitchell, jefa de ética científica en la empresa de IA Hugging Face, ha dicho que la carta, en la que citan a una de sus investigaciones, es ambigua; puesto que no detalla los softwares que deberían de pausarse.

A su vez, la profesora adjunta de la University of Connecticut, Shiri Dori-Hacohen, manifestó que si bien las IA pueden ser empleadas para tomar decisiones sobre el cambio climático, la guerra nuclear y otros conflictos globales; también existen riesgos de otro tipo que no reciben la misma atención. En respuesta a estas críticas Tegmark de FLI declaró que las citas que agregaron a las cartas representan el respaldo a dicho posicionamiento de los autores; sin embargo, esto no implica que estén de acuerdo con todo lo que piensen los autores de las citas.

Por su parte, el filósofo Slavoj Žižek se cuestiona sobre si se debería de imponer censura a las IA; o, si estas cuentan con la suficiente inteligencia para diferenciar los sentidos de una oración y que problemas podría ocasionar si comienza a emitir juicios políticos.

Te puede interesar: “Ya no nos da tiempo”: Mier descarta discutir reforma para reducir jornada laboral

La experta en Inteligencia Artificial, Melissa Heikkilä, advierte en que los peligros inmediatos es que existen grupos que buscan conseguir que los programas apoyen a teorías conspirativas y reproduzcan la discriminación dirigida a grupos sociales en concreto. Además, es una posibilidad que esta tecnología sea más susceptible a que hackers la aprovechen para robar información de los usuarios, si comienza a integrar herramientas de internet.

Finalmente, Heikkilä apunta qué los datos de los cuales se nutren estas Inteligencias Artificiales pueden estar contaminados; y por lo tanto ofrecer información falsa o maliciosa a los usuarios de esta nueva tecnología.

Yuval Noah Harari, historiador y escritor de Sapiens (libro en el que se detalla la historia de la humanidad), fue el más reciente en firmar la carta que pide pausar el desarrollo de estos sistemas, ya que esta tecnología es “un peligroso contrincante al dominio humano de la narración”. El académico destacó que especialmente estos sistemas son una amenaza para las democracias, ya que estas dependen de la conversación pública, la cual puede ser tomada por la IA.

Noah Harari subrayó, para una entrevista a The Telegraph, que esta “es la primera tecnología de la historia que crea historias propias”, con lo cual no se limita a difundir contenidos. Ante este escenario problematiza en sí esta tecnología puede llegar a adueñarse de la cultura y sobre cuáles podrían ser las consecuencias de esto.

El recibimiento de una revolución

La Unesco ha trabajado desde el 2020 en elaborar una Declaración Universal de la Inteligencia Artificial; sin embargo esta no había sido relevante hasta el boom de estas nuevas empresas. En consecuencia, la organización hizo un llamado a todos los países a adoptar el Marco Ético Mundial, el cual busca maximizar los beneficios de esta tecnología y reducir sus riesgos.

La recomendación, emitida por el organismo, pone énfasis en las cuestiones éticas y en cómo es que esta tecnología genera nuevas preocupaciones sobre “la discriminación y los estereotipos, incluidas las cuestiones de género, la fiabilidad de la información, la privacidad y la protección de datos, los derechos humanos y el medio ambiente”.

Hasta el momento, 40 países se encuentran en colaboración con la Unesco para desarrollar controles y equilibrios de la IA a nivel mundial, además de que los avances de estos se informarán en el Foro Mundial sobre la Ética de la Inteligencia Artificial, el cual se celebrará en Eslovenia en diciembre de 2023.

Te puede interesar: «Reunión con gobernadores en Palacio Nacional no es por salud de AMLO»: Adán Augusto

En tanto, Italia se convirtió en el primer país occidental en bloquear al programa ChatGTP de la empresa OpenAI, luego de que la aplicación violara en la privacidad de los usuarios. Las autoridades italianas le dieron un plazo de 20 días a la empresa para responder a los cuestionamientos, con el riesgo de enfrentar una multa de 21,7 millones dólares o el cuatro por ciento de sus ingresos anuales.
Los directivos de Google, a su vez, anunciaron que ante la carrera en el desarrollo de la IA fusionarán a sus dos laboratorios de investigación: Google Brain y DeepMind; con el fin de posicionar a su propia inteligencia “Bard”, por encima de su competencia.

La fusión tendrá el nombre de Google DeepMind, sección que estará a cargo de Demis Hassabis, quien era el antiguo jefe de DeepMind. Google ha reconocido el potencial de daño con el que cuenta esta inteligencia artificial, por lo cual ha dicho que será responsable en sus desarrollos como su otro proyecto de Inteligencia Artificial: Magi, el cual buscará destronar a Bing de Microsoft, con la promesa de que se anticipará a la búsqueda del usuario.

Otro uso de la IA; EU la empleará en combatir narcotráfico

Por su parte, Alejandro Mayorkas, secretario de Seguridad Nacional de los Estados Unidos, anunció este 23 de abril que se conformaría un grupo para combatir al tráfico de fentanilo desde la Inteligencia Artificial. El funcionario afirmó que explorarían los usos de esta tecnología para detectar los envíos de la droga, y de esta manera interceptar los flujos de precursores químicos en todo el mundo.

“Nos aseguraremos de que nuestro uso de la IA se pruebe rigurosamente para evitar sesgos e impactos dispares, y que sea claramente explicable para las personas a las que servimos”, agregó.

Esto ocurre en el marco del acuerdo entre los gobiernos de México, Estados Unidos y Canadá, para combatir juntos la oferta global de fentanilo y equipo usado para su manufactura; como solución ante la crisis por el consumo de esta droga en Norteamérica.

Te puede interesar: Corte mantiene suspensión del Plan B electoral

El comité reconoció en los opioides, particularmente el fentanilo, la principal amenaza de la región en materia de drogas; por lo cual priorizarán cuatro áreas para mayor coordinación, enfocadas en atacar: 1) el tráfico de drogas sintéticas actuales y emergentes; 2) la demanda de drogas y la salud pública; 3) los modos y métodos de tráfico de drogas; y 4) las finanzas ilícitas.

Los funcionarios se coordinarán para intervenir en la oferta global de fentanilo, junto con sus precursores químicos y el equipo usado para su producción. Además, prometieron ayudar a actuar a otros países impactados por las drogas sintéticas, incluyendo aquellos donde predominan las metanfetaminas, captagon, y tramadol.

Publicidad


Síguenos en Facebook

Publicidad

Síguenos en Twitter

Recomendaciones