• contacto@clovat.com
  • (33) 3630.2942

Si bien son demasiadas las bondades de la inteligencia artificial, no se pueden ignorar algunas preocupaciones que están surgiendo a medida que esta se desarrolla.

La inteligencia artificial es el tema de moda en el mundo de la tecnología. No es para menos, la llegada de herramientas como ChatGPT ha demostrado el mayor potencial que tienen las máquinas, ahora dotadas de capacidades sorprendentes mediante esta tecnología.


Aunque ChatGPT se anunció como una herramienta capaz de aumentar la eficiencia en diversos trabajos gracias a su capacidad de procesar grandes cantidades de datos y proporcionar respuestas rápidas a todo tipo de solicitudes, cada vez son más las preocupaciones que surgen en torno a la inteligencia artificial. 

A través de una carta firmada por más de 1.000 personas, con personalidades como Elon Musk; el cofundador de Apple, Steve Wozniak; entre otros firmantes, se solicitó pausar durante al menos 6 meses el entrenamiento de los sistemas de inteligencia artificial más poderosos.


Mientras crecen las preocupaciones por las posibles afectaciones a la empleabilidad, ahora la seguridad y la privacidad también se están viendo comprometidas con la democratización de la inteligencia artificial. 


Recientemente se ha comenzado a hablar de un nuevo desarrollo que ha dado luz a una inteligencia artificial capaz de desempeñarse sin apoyo humano y crear grandes proyectos con una sola indicación. Además, también se ha demostrado que este tipo de herramientas pueden brindar ciertas ventajas a los hackers al momento de crear malwares, lo que sin duda agudiza las preocupaciones.

AutoGPT, el nuevo bot completamente autónomo

Imagina poder pedirle a una inteligencia artificial que cree un negocio rentable en la que debas invertir poco y que esta te haga todo el plan desde esa única petición. A ese nivel se ha llegado a probar AutoGPT, el experimento de código abierto creado por un desarrollador usando las APIs de GPT-3 y GPT-4 de OpenAI.

Esto ha llamado la atención porque hasta ahora ningún otro modelo de inteligencia artificial puede operar de forma autónoma a ese nivel. La herramienta ha sido utilizada para crear un libro de recetas con solo una  instrucción inicial, entre otros ejemplos que han sorprendido al demostrar una impresionante destreza para operar sin depender de un humano, logrando leer y escribir archivos, navegar por la web y revisar los resultados de sus ejecuciones hasta lograr darle forma a un proyecto completo.

ChatGPT fue usado para crear un peligroso virus informático

Luego de varios cuestionamientos sobre los alcances de la inteligencia artificial, se ha comprobado oficialmente que ChatGPT también es capaz de crear malware, y peor aún, completamente sofisticado y dañino.

A pesar de las restricciones que puso la firma creadora en los sistemas de esta herramienta, un desarrollador conocido como Aaron Mulgrew logró burlar la seguridad de la plataforma. Si bien es imposible pedirle a ChatGPT que desarrolle un malware, Mulgrew logró engañar a la plataforma pidiéndole cada función por separado, algo que normalmente hacen los desarrolladores que usan la herramienta. 

Así fue como, sin escribir ni una línea de código él mismo, el investigador logró crear un sofisticado malware indetectable capaz de extraer datos de equipos infectados, todo usando ChatGPT.

Las primeras regulaciones están tomando forma

Son varias las industrias que han comenzado a preocuparse por el alcance que está teniendo la inteligencia artificial, y aunque algunas pueden tomar medidas para proteger sus intereses, el tema viene escalando rápidamente hasta los gobiernos e instituciones. 

Debido al riesgo de generar impactos negativos en el aprendizaje de los estudiantes, el Departamento de Educación de la ciudad de Nueva York anunció la prohibición del popular chatbot para evitar trampas en las tareas y otras afectaciones a las redes de sus escuelas. 

Tampoco es ningún secreto que plataformas como ChatGPT recopilan una gran cantidad de datos de los usuarios, incluyendo información personal y cómo se comunican con la inteligencia artificial, los cuales podrían terminar siendo comercializados a terceras empresas para monetizarlos. 

Ante esta situación, el Líder de la Mayoría del Senado en Estados Unidos, Chuck Schumer, anunció el jueves 13 de abril que el país se plantea más regulación sobre la inteligencia artificial.


El senador dio a conocer un nuevo esfuerzo para establecer un marco reglamentario que permita abordar las preocupaciones sobre los riesgos potenciales de la IA para la economía, la sociedad y la seguridad nacional. El político señaló el caso de China, que ya ha tomado algunas medidas para regular esta tecnología, y dijo que es «imperativo» que Estados Unidos lidere y dé forma a las reglas que rigen la inteligencia artificial.

Como si esto fuera poco, Italia decidió prohibir por completo y de manera inmediata ChatGPT ante las dudas de su política de protección de datos, obligando a OpenAI a limitar el procesamiento de los datos de los italianos e iniciando una investigación sobre el actuar de la empresa; mientras que en España están pensando en tomar una decisión similar, algo que podría extenderse a otros países de la Unión Europea.


Posiblemente en América Latina también se comience a hablar pronto de regulaciones serias relacionadas con la IA. Todas estas medidas tempranas son la muestra de una necesidad real de establecer reglas claras que permitan impulsar el desarrollo de la inteligencia artificial al tiempo que se protegen los derechos y la privacidad de los usuarios, después de todo, es posible que en cuestión de meses la adopción de la IA esté mucho más presente en nuestras vidas.

Teniendo en cuenta todo lo que está ocurriendo alrededor de esta, no podemos negar los beneficios que trae la IA tanto a usuarios finales como a empresas, pero sin duda es un tema que requiere ser regulado.