La creación de modelos de inteligencia artificial (IA) seguros se ha convertido en una prioridad para desarrolladores y empresas que buscan innovar tecnológicamente sin comprometer la
seguridad de los clientes. En este sentido, se han presentado recientemente una serie de recomendaciones destinadas a mejorar la
seguridad y proteger la distribución de estos modelos.
Uno de los primeros pasos para garantizar la
seguridad es elegir el formato adecuado para almacenar y compartir los modelos de IA. Las opciones más comunes, como los formatos PyTorch o TensorFlow, pueden ser peligrosas debido a la posibilidad de ejecutar código arbitrario. Para mitigar este riesgo, los expertos sugieren el uso de formatos seguros como Safetensors cuando solo se comparten los pesos del modelo. Este formato no permite la inyección de código ejecutable, proporcionando así un mayor nivel de
seguridad.
Además de elegir un formato seguro, es crucial asegurar que las versiones de los modelos sean transparentes y verificables. Automatizar las liberaciones y utilizar plataformas de entrenamiento en entornos aislados son prácticas recomendadas. Herramientas como GitHub Actions pueden ser útiles para modelos más pequeños, mientras que plataformas como Google Cloud Platform pueden ajustarse mejor a modelos de mayor envergadura.
Un aspecto vital de la distribución segura es la firma del modelo y la generación de una atestación de procedencia.