Una gran parte de las personas hemos interactuado (consciente o inconscientemente) con tecnología de Inteligencia Artificial (IA). Está presente en las redes sociales, en traductores, en la creación de imágenes virales en internet, en las recomendaciones que recibimos de tiendas en línea, en el reconocimiento de voz para acceder a nuestra cuenta bancaria, sólo por mencionar algunos casos. Está claro que, tal como en la década de 1990 cuando el internet llegó a México y se extendió como una herramienta diaria, el uso de la IA lo debemos considerar ya como una realidad que avanzará rápidamente.
Como todos los años, el Foro Económico Mundial (FEM) se realiza en Davos, Suiza con la presencia de políticos, empresarios y líderes del mundo con el propósito de influir en las agendas internacionales. En la edición de 2024 uno de los temas pilares fue “La Inteligencia Artificial como fuerza motriz de la economía y la sociedad”. Participaron expertos entre los que destacó Sam Altman, el CEO de OpenAI y creador de ChatGPT. Al hablar sobre sus perspectivas sociales en torno al desarrollo tecnológico, Altman afirmó que: “la IA ha sido un poco desmitificada porque la gente realmente la usa ahora. Y esa es siempre la mejor manera de hacer avanzar el mundo con una nueva tecnología”.[1]
Aquí llegamos a un punto destacable en el debate que, desde mi perspectiva, no podemos seguir aplazando. De forma natural ante el surgimiento de nueva tecnología los humanos comenzamos a llenar los huecos de información con mitos (en mayor medida catastróficos) sobre los alcances de esta. Conforme pasa el tiempo y vamos reconociendo los usos más simples de la tecnología es que vamos disipando dudas. En otras palabras, digamos que este proceso de legitimación de la tecnología se vincula estrechamente a su comprensión mediante su uso cotidiano.
Para llegar a ese momento de adaptación, es necesario establecer pautas, medir riesgos y establecer límites. El propio FEM publicó su “Informe de Riesgos Globales 2024”[2] donde destaca que, para los próximos 10 años, uno de los principales focos de atención son los “Resultados adversos de las tecnologías de IA”. Y aquí conviene hacer la precisión que en este documento la tecnología se puede convertir en un riesgo cuando su aplicación genera afectaciones en el PIB de los países, la población, empleos o la disponibilidad de recursos naturales.
Sin embargo, llama la atención que hasta ahora nuestro país no cuenta actualmente con regulación que marque pautas y límites al uso de la IA. En contraste, el presidente de los Estados Unidos, Joe Biden, firmó en octubre del año pasado una orden ejecutiva con dos fines: obligar a las empresas que desarrollan IA –principalmente a las gigantes transnacionales de Silicon Valley– a demostrar que su desarrollo es seguro antes de sacarlo al público; e impulsar que el Congreso legisle sobre la protección de datos personales en este contexto.
Así pues, las instituciones en México deben de estar ya analizando su papel en temas importantes como la ciberseguridad, la protección de datos personales y el desarrollo de IA rumbo al inicio de un próximo sexenio. Esfuerzos gubernamentales previos para regular la IA no han logrado sobrevivir las discordias políticas. Y hoy es necesario modificar la Ley General en materia de Humanidades, Ciencias, Tecnologías e Innovación para hablar sobre esta innovadora tecnología.
Por último, dejo aquí mi recomendación de una película a propósito de las nominaciones al Óscar y cómo el cine nos adentra a un debate sobre la IA. “Resistencia” (o su título original “The Creator”) plantea la complejidad moral en la coexistencia de seres humanos y máquinas que simulan el razonamiento humano. Este filme de ciencia ficción sugiere que es incompatible uno y otro ya que, siguiendo la naturaleza de la evolución, el más hábil tenderá a desaparecer a su rival. Después de lanzar una ojiva nuclear en Los Ángeles que mató a miles de humanos, inicia una guerra para destruir al creador de un algoritmo capaz de crear el arma más poderosa jamás creada.
Un agradecimiento a quienes ayudan a que esta reciente columna crezca y sigamos en contacto vía X (Twitter) en @Politiram.
[1] https://www.weforum.org/agenda/2024/01/davos-2024-sam-altman-on-the-future-of-ai/
[2] https://www.dsn.gob.es/es/actualidad/sala-prensa/global-risks-report-2024