La revolución del “big data” ha transformado no solo la industria, sino también la forma en que se lleva a cabo la investigación académica. A medida que los métodos computacionales cuantitativos se infiltran cada vez más en disciplinas académicas no tradicionales, están cambiando el equilibrio tradicional en el que la academia pionera en nuevos enfoques y la industria los comercializa. En la era del big data, solo unas pocas universidades poseen los conjuntos de datos, los recursos computacionales y la experiencia necesaria para realizar avances seminales, y aún así, estas instituciones suelen asociarse con grandes empresas para acceder a sus recursos únicos. Esto plantea la pregunta muy real de cómo las principales agencias de financiamiento, como la Fundación Nacional de Ciencias de los Estados Unidos (NSF), pueden seguir siendo relevantes en una era en la que sus revisores, en su mayoría provenientes de la academia, son cada vez más incapaces de hacer frente al campo del big data en constante cambio exponencial.
Como alguien que escribe sobre el campo del big data, recibo al menos algunos comunicados de prensa por semana de universidades que presumen de sus últimos premios de subvención, publicaciones o lanzamientos de sitios web relacionados con el big data o el aprendizaje profundo. También tengo la costumbre de escanear regularmente las bases de datos de premios de importantes financiadores como la NSF para estar al tanto de las nuevas investigaciones interesantes y las tendencias generales en la financiación en áreas como el big data, el aprendizaje profundo y similares. Una tendencia que me ha llamado la atención es la creciente brecha entre el trabajo que se realiza en la academia y los avances que surgen de los sectores comerciales y de datos abiertos cada día, la abrumadora mayoría de los cuales se publica fuera de los ámbitos académicos, desde blogs hasta redes sociales. Las personas que realizan esa investigación rara vez están afiliadas a alguna institución académica y la mayoría nunca ha publicado en un ámbito académico.
Cuando veo que un grupo de investigación académica recibe un millón de dólares de una agencia de financiamiento para analizar unos pocos millones de tweets o varios millones de dólares para procesar cientos de gigabytes en ElasticSearch, o unos cientos de miles de dólares para ejecutar unos pocos documentos a través de un paquete de software comercial que tomará aproximadamente 15 segundos de tiempo computacional, tengo que preguntarme cómo es que estos proyectos están pasando por un proceso de revisión por pares que, en teoría, debería haberlos detenido en la primera etapa del proceso de revisión. Las subvenciones computacionales muestran una desconexión similar. Cuando veo una subvención computacional para cientos de miles de horas de tiempo de computación en una supercomputadora de primer nivel para ejecutar un conjunto de datos específico a través de un software específico y afirmar que esa máquina es la única en el mundo capaz de ejecutar el análisis, pero en realidad ya había ejecutado ese mismo conjunto de datos a través de ese mismo software en mi MacBook Air de 5 años de antigüedad un año antes, tengo que empezar a preguntarme cómo hay una desconexión tan grande entre lo que las agencias de financiamiento están aprobando y el estado real del mundo fuera de la academia.
Es evidente que el campo del big data está evolucionando a un ritmo tan acelerado que los revisores académicos no pueden mantenerse al día con los avances que se producen en la industria y en los sectores de datos abiertos. Esto plantea un desafío para las agencias de financiamiento, como la NSF, que deben encontrar formas de adaptarse a esta nueva realidad y asegurarse de que los recursos se asignen de manera efectiva y eficiente. Además, es importante que los investigadores académicos se abran a colaboraciones con la industria y los sectores de datos abiertos, para aprovechar los recursos y conocimientos disponibles y avanzar en sus propias investigaciones.
En resumen, el big data está cambiando la forma en que se realiza la investigación académica. Las agencias de financiamiento y los investigadores académicos deben adaptarse a este nuevo entorno y encontrar formas de colaborar con la industria y los sectores de datos abiertos para seguir siendo relevantes y aprovechar al máximo los avances en el campo del big data.