Mientras que las NPU (Unidades de Procesamiento Neutro) están establecidas para TinyML en dispositivos personales y de trabajo, sólo recientemente han comenzado a hacer incursiones en aplicaciones IoT.
Los proveedores de chipsets integrados se están centrando cada vez más en las Unidades de Procesamiento Neutro (Neutral Processing Units, NPU) para las aplicaciones de Internet de las Cosas gracias a la eficiente ejecución de cargas de trabajo de redes neuronales por parte de esta arquitectura. Las NPU ocuparán una parte cada vez mayor de los envíos totales, en detrimento de los Microcontroladores (MCUs), ya establecidos, a medida que los implementadores busquen cada vez más información e inteligencia en los extremos. Según ABI Research , una empresa global de inteligencia tecnológica, esto contribuirá a que los ingresos por chipset de silicio dedicado a la IA para aplicaciones centradas en IoT alcancen más de 7.300 millones de dólares en 2030.
"Las NPU para aplicaciones TinyML en Dispositivos Personales y de Trabajo (Personal and Work Devices, PWD) ya están bien establecidas. Sin embargo, todavía son incipientes fuera de esta vertical de dispositivos, y los principales proveedores ST Microelectronics, Infineon y NXP Semiconductors apenas están introduciendo este tipo de ASIC en sus carteras embebidas», dice Paul Schell, analista de la industria en ABI Research. «Al examinar los PWD, proporcionamos una mayor perspectiva a nuestro modelado de aplicaciones IoT, que abarca 15 verticales, incluidas las más significativas, a saber, Smart Home y Manufacturing».
En cuanto al software, las cadenas de herramientas de MLOps integrales son ahora una apuesta segura para proveedores grandes y pequeños, incluidas empresas de nueva creación como Syntiant, GreenWaves, Aspinity e Innatera. Al igual que ocurre con los factores de forma de mayor tamaño, la inversión en la oferta de software suele coincidir con la I+D de hardware, lo que ha dado sus frutos al proveedor Eta Compute en su asociación con NXP para licenciar su plataforma de software Aptos. Estas innovaciones también democratizan el despliegue de TinyML al reducir la necesidad de talento interno en ciencia de datos.
La inclusión de arquitecturas de alto rendimiento, como las NPU y algunas FPGA (Field-Programmable Gate Array), en dispositivos integrados ampliará la oferta de aplicaciones que pueden ejecutarse en el dispositivo, desde la detección de objetos hasta la simple clasificación de objetos para casos de uso de visión artificial, así como algo de PLN (Procesamiento del Lenguaje Natural)
para análisis basados en audio. "Junto con la tendencia a factores de forma de borde más grandes, como PC y puertas de enlace, esto contribuirá a la escalabilidad de la IA al reducir los costes de red y la dependencia de la nube. Como tal, esperamos que el mercado TinyML crezca a medida que capitalice estas innovaciones, estimulado en gran medida por los principales sitios industriales que actualizan sus despliegues de IoT, la creciente inteligencia de los vehículos y los dispositivos domésticos inteligentes."
Estas conclusiones proceden del informe Artificial Intelligence and Machine Learning: TinyML de ABI Research. Este informe forma parte del servicio de investigación AI & Machine Learning de la compañía, que incluye investigación, datos y ABI Insights.
(ABI Research)