Cada día nos despertamos con noticias y novedades sobre los logros de la Inteligencia Artificial. Bueno, también otras cosillas… Como qué número será el agraciado en la lotería de Navidad… ¿Qué cuál será según ChatGPT? Es el 02695… Anda que si toca.

En fin, centremos el tema. En el (pen)último vídeo  hablábamos sobre el nivel que tiene la IA en este momento respecto a la historia que se viralizó sobre un robot que se “rebela” e incita a otros robots a irse a casa y dejar de trabajar.
Si no lo has visto, mira en la descripción, ahí tienes un enlace.
Terminábamos ese vídeo haciéndonos la gran pregunta. ¿Estamos cerca de crear una IAG Inteligencia Artificial General?

A propósito de las recientes declaraciones de Geoffrey E. Hinton, uno de los creadores de las bases que fundamentan la IA, desglosamos e intentaremos explicar los 5 peligros que representa la Inteligencia Artificial según él. Y si lo dice Geoffrey…
Al menos ya barren por nosotros.


El británico Geoffrey E. Hinton, mejor conocido en el sector tecnológico como el “padrino de la Inteligencia Artificial”, premiado con el Nobel de Física 2024 junto a John Hopfield, ha señalado los peligros de la IA, no son pocos. Los resumimos en cinco.

Geoffrey E. Hinton

Peligro nº1 Las IA más inteligentes que nosotros y autosuficientes

Bueno, sin perder el sentido del humor, podemos decir que muchas IA son ya más inteligentes que muchas personas, no sé si incluirme en este grupo…

La cuestión es que Hinton dijo lo siguiente:
La idea de que estas cosas pudieran llegar a ser más inteligentes que las personas… unos pocos lo creyeron”, afirma. “Pero la mayoría de la gente pensaba que estaba muy lejos de la realidad. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso”

También el futuro es desalentador en este sentido, quizá porque se desconoce cómo va a ser la evolución de las IA en un futuro próximo. Así los expone Hinton:
“Los sistemas de IA no sólo pueden aprender cosas más rápido, sino que también pueden compartir copias de su conocimiento entre sí casi instantáneamente. Es una forma de inteligencia completamente diferente, nueva y mejor”.

En la cadena pública irlandesa Hinton dijo: “La amenaza es que estas cosas se volverán mucho más inteligentes que nosotros y tomarán el control… La gente como Elon Musk y yo pensamos que la probabilidad de que eso suceda es de alrededor del 10% al 20%”.

Ya en 2018, Hinton decía que la IA todavía no era tan inteligente como los humanos, pero también decía: “Pronto lo serán. Mi suposición es que, dentro de 5 o 20 años, habrá una probabilidad del 50% de que tengamos que afrontar el problema de que la inteligencia artificial intente tomar el control de nuestras vidas”.

La pregunta que nos podemos hacer es si es cierto que su salida de Google es por lo que se rumorea porque estaba viendo cosas más que sorprendentes. Las IA comenzaban a:
• Programarse a sí mismas
• Mejorar su propio código
• Conectarse a todos los sistemas digitales

“Ya no estamos simplemente creando herramienta, estamos creando algo que podría reconfigurar la realidad misma, recordemos que hace ya una década, Google pagó 44 millones de dólares para adquirir la empresa de IA de Hinton.

Y que en 2023 Hinton renunció a su puesto en Google, supuestamente no para poder criticar a la empresa, sino para poder expresar sus opiniones libremente. “Me fui para poder hablar sobre los peligros de la inteligencia artificial sin considerar cómo afecta esto a Google”.

Peligro nº 2 Las empresas que controlan las IA son el verdadero peligro

Aquí hay una evidencia. Esas empresas se mueven por intereses, tienen que dar beneficios y presentar cuentas de resultados ante sus socios y accionistas. Además, desarrollar Inteligencia Artificial no es barato. Que se lo pregunten a NVIDIA que está recibiendo dinero de una forma colosal.

Al respecto, Hinton ha hablado abiertamente sobre sus temores con la dirección y el rápido desarrollo de la IA debido a la falta de control que las empresas e individuos están teniendo con esta tecnología.

Para Hinton el modelo GPT-4 de OpenAI sabe “cientos de veces más que cualquier ser humano”. Esta afirmación deja en el aire quizá tenga un “algoritmo de aprendizaje mucho mejor” que el de las personas, lo que lo hace más eficiente en tareas cognitivas.

Peligro nº 3 Perjuicio en el mercado laboral

“Habrá trabajos que podrán ser realizados por IA, lo que puede significar que muchas personas no tengan trabajo, o que muchas personas tengan trabajos que solo un humano podría hacer“. Dijo Hinton en una entrevista, o en varias, porque repite estas sentencias con rotundo convencimiento.

Peligro nº 4 La IA en el campo de batalla

En los años 80 del siglo XX, Hinton dejó su puesto como profesor de ciencias de la computación en la norteamericana Universidad Carnegie Mellon ante su negativa de que su investigación sobre redes neuronales fuera financiada por el Departamento de Defensa. En este sentido, Hinton siempre se ha opuesto al uso de la IA en el campo de las armas.

Peligro nº 5 La desinformación a gran escala

Las IA tienen, y tendrán cada vez más, capacidad de generar contenido altamente convincente como textos falsos e indistinguibles de la realidad: Los modelos de lenguaje de gran tamaño pueden generar textos tan convincentes que resulta extremadamente difícil distinguirlos de los escritos por humanos.

Imágenes y videos falsos: La IA también es capaz de crear imágenes y videos falsos, conocidos como deepfakes, que pueden manipular la opinión pública y desacreditar a personas o instituciones.

Hinton concluía: “Esto permitirá a los líderes autoritarios manipular a sus electores”. ¿No habrá ocurrido ya?

¿Alguna solución?

Hinton, anticipándose a otras situaciones que ha ido viviendo el ser humano y los peligros que le podían arrastrar hacia el ocaso piensa que es posible que con el tiempo se hará propuestas para mejorar las cosas, “como la Convención de Ginebra”, dice. Aunque, para ello, “primero tendrán que suceder cosas muy desagradables, como ocurre con las armas químicas”.

En todo caso, la visión de Hinton no es del todo apocalíptica, porque cree que el desarrollo de la inteligencia artificial también va a suponer importantes mejoras para los humanos en campos como la atención sanitaria y la medicina. Además, opina que “es muy difícil de pronosticar más allá de unos cinco años” lo que los avances de la IA traerán a la humanidad.

John Hopfield y Geoffrey Hinton

John Hopfield y Geoffrey Hinton fueron galardonados con el Premio Nobel de Física 2024 por sus descubrimientos pioneros que sentaron las bases del aprendizaje automático y las redes neuronales artificiales, tecnologías que permitieron a las computadoras aprender de manera similar al cerebro humano. Sus trabajos han sido fundamentales para el desarrollo de la inteligencia artificial (IA), una disciplina que hoy transforma diversos campos, desde la medicina hasta la tecnología de la información.

John Hopfield: Hopfield es reconocido por desarrollar el modelo de red Hopfield, una red neuronal artificial que simula cómo las neuronas humanas procesan información. Este modelo fue crucial para demostrar cómo las máquinas podían «recordar» y «aprender» patrones complejos, acercando la tecnología a los procesos de pensamiento humanos.


Geoffrey Hinton: Hinton, conocido como uno de los principales arquitectos del aprendizaje profundo (deep learning), desarrolló algoritmos como la retropropagación (backpropagation), esenciales para entrenar redes neuronales multicapa. Estos avances hicieron posibles aplicaciones que hoy utilizamos en reconocimiento facial, voz y otros sistemas basados en IA.
Sus descubrimientos han revolucionado la forma en que las computadoras procesan datos, lo que ha permitido el rápido crecimiento de la IA en múltiples sectores. La relevancia de su trabajo radica en cómo lograron que las máquinas aprendieran de manera autónoma, superando los límites de la computación tradicional.
Este Nobel de Física destaca la intersección entre la física y la tecnología, mostrando cómo las investigaciones sobre la naturaleza del cerebro han impulsado avances significativos en inteligencia artificial.

¿Qué te ha parecido?

2
Excitante
0
Feliz
1
Me encanta
0
No estoy seguro/a
0
Mejorable
José Carlos Bermejo
José Carlos Bermejo. Madrid, noviembre 1971. Escritor. Licenciado en Ciencias Políticas y Sociología, ha colaborado en diferentes medios de comunicación, tradicionales y digitales y trabajado como técnico y responsable de comunicación para más de un ayuntamiento español. Es autor de las novelas WILDE ENCADENADO (prólogo Luis Antonio de Villena), y del thriller Li es un INFINITO de secretos. También de los libros de relatos Retazos de un mundo IMperfecto y Retazos de un mundo INcoherente, ambos traducidos al inglés, al portugués y al italiano. + info: www.josecarlosbermejo.com redaccion@actuallynotes.com

More in Tecnología

You may also like

Leave a reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *