Un interesante artículo de
Azeem Azhar en
Bloomberg, «AI will upend a basic assumption about how companies are organized«, me permite continuar con mi razonamiento de hace un par de días sobre el futuro de la consultoría, y extenderlo además a otro tipo de entornos.
El papel de los
LLMs creados mediante la inteligencia artificial generativa ha sido, fundamentalmente, facilitar el acceso al conocimiento, del mismo modo que en su momento lo pudieron hacer los motores de búsqueda.
Cuando los motores de búsqueda comenzaron a ser medianamente útiles, dejaron de utilizar criterios simplistas y fácilmente manipulables como la frecuencia de palabras, y pasaron a usar mecanismos basados en la atención como indicador de la relevancia (adaptando, en realidad, las citation metrics que Larry Page y Sergey Brin conocían bien por su condición de estudiantes doctorales), la tarea de acceder al conocimiento se simplificó considerablemente, y pasamos de tener que acudir a una biblioteca y movernos entre sus índices y estanterías, a acceder al conocimiento cómodamente desde nuestra pantalla.
Para los que comenzamos nuestro doctorado a mediados de la década de los â90, el cambio fue impresionante, porque lo vimos y lo vivimos: comenzamos acudiendo a la biblioteca para hacer nuestros primeros review papers, pero terminamos escribiendo nuestras tesis doctorales sin prácticamente movernos de la silla.