En 2012, Steve Lohr escribiendo para el New York Times hizo un favor a la gente común y nos presentó el concepto de “Big Data”. Sí, los analistas, científicos de datos y las personas en Silicon Valley ya habían oído hablar de ello, pero gracias a Steve y al Times, el resto de nosotros descubrimos que es un “meme y un término de marketing, sin duda, pero también una forma abreviada de las tendencias tecnológicas que abren la puerta a un nuevo enfoque para entender el mundo y tomar decisiones”. Suena intrigante, ¿verdad?
A pesar de algunos años de auge para el concepto de “Big Data”, el término en sí ya es noticia vieja. El Big Data llegó con una actitud de “medirlo todo” que eventualmente le dio mala reputación, pero las empresas inteligentes no tiraron al bebé con el agua sucia. Los datos juegan un papel ampliado en nuestra vida diaria, incluyendo cómo hacemos negocios. Ahora, en lugar de preocuparnos por cuán grandes son los datos, la tendencia ganadora es enfocarse solo en lo que realmente es relevante. Ahora avancemos rápidamente hasta hoy: aprovechar los datos para aumentar la productividad y reducir costos en el campo petrolero es una realidad. No Big Data, sino datos pequeños. Y para aprovechar esta realidad, debemos pensar mucho, mucho más pequeño…
¿Por qué datos pequeños?
En parte, porque el Big Data es un dolor de cabeza. Es un trabajo duro, plagado de problemas de calidad de datos y además es costoso. Matt Turck señala que una organización que se adhiere al Big Data (y sí, tiene que ser toda la organización), necesita “capturar datos, almacenar datos, limpiar datos, consultar datos, analizar datos y visualizar datos”. Y aunque el software puede manejarlo, “parte de ello será realizado por humanos”, y todo debe ser parte de una integración perfecta. Si esto no suena fácil, es porque no lo es.
Después de analizar todo y cualquier cosa para obtener cualquier información disponible y encontrar correlaciones, a veces las conclusiones no solo son inesperadas, sino también absurdas. Para muchas empresas, las coincidencias siguen siendo atribuidas repentinamente a causa y efecto, lo que lleva a muchos a costosas búsquedas infructuosas. En Slate, Will Oremus señala que el problema del Big Data no es que los datos sean malos, sino esta aplicación excesivamente entusiasta y fetichista de los datos a todo lo posible. En el auge efímero del Big Data, los datos no se estaban utilizando de manera cuidadosa y crítica. En realidad, todos los datos que se estaban recopilando eran difíciles de interpretar. Cuando se recopilan miles de millones de puntos de datos: clics o posiciones del cursor en un sitio web, giros de la broca o movimientos de la bomba, la importancia real de cualquier punto de datos individual se pierde. Entonces, lo que puede parecer una tendencia importante a nivel superior puede que no sea una tendencia en absoluto. Puede haber problemas en los datos, un problema con la metodología o algún tipo de error humano en el sitio del pozo.
En resumen, el Big Data puede ser abrumador y poco confiable. Es por eso que ahora la tendencia ganadora es enfocarse en los datos pequeños, aquellos que son realmente relevantes y que pueden proporcionar información valiosa y confiable. Al centrarse en datos más específicos y de calidad, las empresas pueden tomar decisiones más informadas y eficientes, lo que a su vez puede conducir a una mayor productividad y reducción de costos.
En conclusión, en la era del Big Data, no se trata de cuán grandes son los datos, sino de cuán relevantes y confiables son. Los datos pequeños pueden tener un impacto significativo en la toma de decisiones y en el éxito de las empresas. Así que olvidemos el Big Data y enfoquémonos en los datos pequeños, porque en ellos reside el verdadero poder.