En la última década, hemos sido testigos de un avance significativo en el reconocimiento de voz. Antes, cuando Apple lanzó a Siri, la tasa de error en el reconocimiento de voz era del 16%. Esto significaba que Siri no entendía muchas de las palabras o frases que le decíamos, y por lo tanto no proporcionaba respuestas o daba respuestas incorrectas. Sin embargo, a medida que hablábamos más con ella, aprendió de nuestros patrones de habla. Hoy en día, los sistemas de reconocimiento de voz tienen tasas de error mucho más bajas e incluso pueden entender diferentes acentos. Pero llegar a este punto ha llevado años de desarrollo.
Si necesitas construir sistemas de inteligencia artificial de calidad rápidamente, necesitas utilizar una gran cantidad de datos y potencia de cálculo. Cada vez surgen más casos de uso en los que el sistema de inteligencia artificial necesita comprender instantáneamente lo que está sucediendo para poder responder adecuadamente. Un ejemplo clásico es el frenado de los coches autónomos. Para hacer frente a esta demanda, están surgiendo chips con aceleración de inteligencia artificial y chips diseñados específicamente para la IA. Empresas de semiconductores, startups e incluso gigantes como Google, Apple, Amazon y Facebook, para quienes la IA es fundamental en su actividad, están desarrollando este tipo de chips.
Gran parte de este trabajo se está llevando a cabo en India, uno de los principales centros de diseño de chips del mundo. Srikanth Velamakanni, cofundador y CEO de la empresa de análisis Fractal Analytics, afirma que estos chips son esenciales para manejar los enormes volúmenes de datos que muchos sistemas generan en la actualidad. “Un solo vuelo de una aeronave genera más datos que los que Google genera en un día. Esto se debe a que cuenta con numerosos sensores y datos de alta velocidad”, explica. Lo mismo ocurre en fábricas y equipos industriales. “Es necesario analizar todos estos datos en tiempo real para detectar posibles fallos. Los seres humanos no somos capaces de hacerlo. Además, se requiere una combinación de computación en el borde y en el servidor. Estamos evaluando los nuevos procesadores de Intel con aceleración de IA para ver cuánto podemos mejorar el rendimiento en este tipo de aplicaciones”, añade.
Fractal también está considerando el uso de estos chips para una solución que han llamado “Customer Genomics”, que analiza los datos masivos de los clientes, como en los bancos, y recomienda la mejor acción a seguir para cada cliente. Ruchir Dixit, director de país de Siemens EDA, fabricante de herramientas de semiconductores, afirma que es posible realizar este tipo de análisis mediante software, pero no sería lo suficientemente rápido. Muchos han utilizado las GPUs, ya que están diseñadas para el procesamiento gráfico de alta intensidad, pero incluso estas se quedan cortas para los requisitos emergentes. “Un algoritmo de aprendizaje automático implementado en hardware siempre es mucho más rápido. Cuando ejecuto un programa de software en mi portátil, tiene que competir por tiempo con la CPU, que también está ocupada con otras tareas, como una videollamada en curso. Pero si lo pones en hardware, no le importa lo que estés haciendo, lo hará de inmediato porque eso es para lo que está diseñado”, explica.
En resumen, los chips de inteligencia artificial están desempeñando un papel fundamental en el procesamiento de datos masivos y en el desarrollo de sistemas de inteligencia artificial más rápidos y eficientes. Estos chips permiten a los sistemas de IA comprender y responder instantáneamente a situaciones en tiempo real, lo cual es especialmente importante en aplicaciones como los coches autónomos. Además, el diseño y desarrollo de estos chips está siendo impulsado por empresas de semiconductores, startups y gigantes tecnológicos como Google, Apple, Amazon y Facebook. Sin duda, el futuro de la inteligencia artificial depende en gran medida de estos avances en el hardware.