OpenAI ha dado a conocer un archivo de investigación, que analiza los resultados de las pruebas de seguridad realizadas a su último modelo de inteligencia artificial, el GPT-4o. El documento revela que el modelo fue evaluado por un equipo externo de expertos en seguridad, denominados «red teamers», y se determinó que presenta un «riesgo medio».