Este artículo es el décimo de una series acerca de De cómo aprender python con ChatGPT, en el enlace previo, puedes empezar por el primer artículo.
Los problemas de los chatbots basados en IA generativa no se limitan a uno solo, pero en esta captura de pantalla se resumen los más destacados:
Me atrevería a decir que incluso pueden ser incorrectas o tener poco que ver con la realidad. Estas "alucinaciones" de la IA se notan especialmente en preguntas como "¿Cuál es el/la X más antiguo/a de X?", para las cuales es mejor acudir a Wikipedia. Estas herramientas a veces inventan datos o, si no han sido entrenadas con información fiable, pueden producir información de dudosa calidad. Sabemos que internet es una fuente invaluable, pero no siempre es completamente fiable, y estos modelos de lenguaje han sido en gran parte entrenados con contenido de internet.
¿Es esto tan relevante a la hora de generar código?
En mi opinión, no tanto. Quizás no siempre obtengas el mejor código, pero suele ser una versión útil para prototipar. Claro, tendrás que revisarlo, probarlo y, en ocasiones, adaptarlo o optimizarlo. Aun así, considero que es un punto de partida suficientemente sólido, probablemente mejor que otros códigos que podrías encontrar buscando en Google. Por tanto, para mí este problema no es tan grave como el siguiente.
Confidencialidad
Nos advierten que el código que copiemos en herramientas como ChatGPT podría usarse en futuras versiones. Esto ya es más serio, pues el código es propiedad intelectual y, para muchas empresas, uno de sus activos más importantes. En contextos comunes como la revisión de código, generación de tests unitarios, o control de excepciones, estaríamos cediendo código a terceros. Esto podría no ser un problema para algunas empresas, sobre todo si su software no les da una ventaja competitiva, o si publican código en fuentes abiertas. Pero para quienes esto representa un riesgo, sigue habiendo opciones.
¿Qué podemos hacer?
Primero, educar a los empleados. Todos deben conocer las implicaciones de usar estas herramientas, especialmente evitando copiar código o datos sensibles como los protegidos por la LOPD. Además, es clave configurar estas herramientas para desactivar el uso de las consultas en el entrenamiento o el almacenamiento del historial.
Segundo, usar tecnologías de seguridad en la nube, como Netskope, que pueden evitar la pérdida de información bloqueando la copia o el pegado de código en estos contextos.
Perder estas herramientas también significa perder sus ventajas. Y no es cuestión de sacrificar eficiencia por seguridad; está claro que las IA llegaron para quedarse, y las empresas que no las adopten pueden quedar rezagadas. Como ya se dice: "La IA no va a quitar empleos, pero quienes la usen sí se los quitarán a quienes no lo hagan".
Tercero, en lugar de usar chatbots en línea, se pueden desplegar modelos localmente o en una nube privada, accesibles solo para quienes designemos. Hablaré más de esta opción en otro artículo.
Otros problemas menores
Ejecución en tiempo real: Aunque los chatbots generan y comprenden código, no pueden ejecutarlo o probarlo en tiempo real. Esto significa que el código generado debe validarse en un IDE como VSCode. Existen otros flujos e IDEs específicos, de los cuales también hablaré en otro artículo.
Conocimiento estático: ChatGPT no tiene acceso a internet ni a actualizaciones recientes de lenguajes de programación o bibliotecas, por lo que su conocimiento se limita a los datos con los que fue entrenado. Esto puede dar lugar a sugerencias obsoletas o incompatibles con versiones actuales de un lenguaje, aunque no es común.
Falta de contexto prolongado: En una conversación extensa, los chatbots puede perder el contexto, lo que resulta en respuestas incoherentes o repetitivas.
Ambigüedad en las preguntas: Es fundamental proporcionar instrucciones claras, razón por la cual la "ingeniería de prompts" está en auge. Sin instrucciones precisas, los chatbots pueden generar código que no se ajusta a la necesidad real.
Limitaciones de personalización: Modelos generales como ChatGPT no pueden adaptarse a un estilo de programación específico o a las preferencias de un equipo en particular, algo que solo se lograría entrenando un modelo con código propio, lo cual requiere gran cantidad de datos. Esto es más viable para grandes empresas con una larga trayectoria en estándares de calidad.
Lenguajes menos populares: Los chatbots pueden no ser muy útiles en lenguajes poco conocidos o específicos, aunque no debería ser un problema para lenguajes populares como Python. Nos interesa, además de un lenguaje popular, que tenga una gran base de código histórico para entrenar a estos modelos.