El uso de la Inteligencia Artificial se está aplicando en multitud de usos, todavía con sus límites y limitaciones por definir. Una de las preocupaciones que pueden surgir, sobre todo en el caso de IA conversacional tipo ChatGPT es cuánto deben contar y cuánto deben callar… y esa línea roja parece que puede ser más clara de lo que creemos.
Hay un refrán que dice «valgo más por lo que callo, que por lo que hablo» y ese es precisamente el nuevo valor añadido que se quiere dar a una IA: que evite revelar secretos.
Cómo se evita que una IA comparta secretos
Tomemos como ejemplo el caso de Github, quienes han actualizado el modelo de IA de Copilot, un asistente de programación que genera código fuente en tiempo real y recomendaciones de funciones en Visual Studio, y afirman que ahora es más seguro y potente.
Al bloquear las sugerencias no seguras en el editor en tiempo real, GitHub también podría brindar cierta resistencia contra los ataques de conjuntos de datos envenenados que tienen como objetivo capacitar de manera encubierta a los asistentes de IA para que hagan sugerencias que contengan cargas maliciosas.
En este momento, los LLM (modelos amplios de aprendizaje) de Copilot aún se están capacitando para distinguir entre patrones de código vulnerables y no vulnerables, por lo que se espera que el rendimiento del modelo de IA en ese frente mejore gradualmente en el futuro cercano.