574
ChatGPT y otras inteligencias artificiales han dado mucho que hablar últimamente. Escriben textos, manipulan imágenes y recopilan ideas. Pero los sistemas aún no son perfectos. Te mostramos lo que las IAs aún no pueden hacer.
Esto es lo que las IA no pueden hacer: una visión general de las limitaciones de los sistemas
Las inteligencias artificiales pueden escribir textos convincentes. Pero también tienen numerosos puntos débiles.
- Comprensión: Las inteligencias artificiales como Chat GPT que realizan génesis de textos no comprenden el contenido de sus enunciados. Se limitan a determinar, basándose en una función de probabilidad, la siguiente palabra o fonema que es la continuación más plausible.
- Corrección: La mayoría de las inteligencias artificiales que no se limitan a una única tarea específica trabajan con funciones de probabilidad. Una inteligencia artificial no puede probar sus afirmaciones lógicamente o mediante el conocimiento semántico del mundo, ni puede decir con seguridad si son correctas. Por ejemplo, Chat GPT falla en tareas aritméticas sencillas como multiplicar dos números si el resultado no está en los datos de entrada.
- Creatividad: Las IAs actuales sólo replican y combinan ideas y estructuras que también estaban contenidas en sus datos de entrada. No pueden producir sus propias ideas, que se basan en consideraciones reales y que aún no han existido en esta forma modificada.
- Actualidad: El conocimiento de una inteligencia artificial se limita a sus datos de entrada. Por ejemplo, Chat GPT aún no sabe que Olaf Scholz es el canciller de Alemania porque la base de datos utilizada es de septiembre de 2021.
- Universalidad: Las inteligencias artificiales sólo funcionan de forma fiable dentro de las áreas de tareas para las que han sido entrenadas. Hasta ahora, las inteligencias artificiales han dependido de la retroalimentación externa para mejorar. Una IA fuerte es aquella que no se distingue de la mente humana.
- Diseño estructural: algunos expertos creen que las inteligencias artificiales no pueden hacerse más inteligentes por el mero aumento de la cantidad de datos de entrenamiento. Hay que pensar mucho más en estructurar los datos y trabajar la comprensión lógica para lograr una inteligencia similar a la humana, dicen.