¿Qué hacen realmente los procesadores hechos para IA?


¿Te afectará realmente una “unidad de procesamiento neuronal” dedicada?

Los jugadores más importantes de Tech han abrazado por completo la revolución de IA. Apple, Qualcomm y Huawei han creado conjuntos de chips móviles diseñados para abordar mejor las tareas de aprendizaje automático, cada uno con un enfoque ligeramente diferente. Huawei lanzó su Kirin 970 en IFA este año , llamándolo el primer conjunto de chips con una unidad de procesamiento neuronal dedicada (NPU). Luego, Apple dio a conocer el chip Bionic A11, que impulsa el iPhone 8, 8 Plus y X. El A11 Bionic presenta un motor neuronal que la compañía dice que está “especialmente diseñado para el aprendizaje automático”, entre otras cosas.

La semana pasada, Qualcomm anunció el Snapdragon 845 , que envía tareas de inteligencia artificial a los núcleos más adecuados. No hay mucha diferencia entre los enfoques de las tres compañías: en última instancia, se reduce al nivel de acceso que cada compañía ofrece a los desarrolladores, y la cantidad de energía que consume cada configuración.

Sin embargo, antes de adentrarnos en eso, averigüemos si un chip IA es realmente muy diferente de las CPU existentes. Un término que escuchará mucho en la industria con referencia a la IA últimamente es “computación heterogénea”. Se refiere a sistemas que usan múltiples tipos de procesadores, cada uno con funciones especializadas, para obtener rendimiento o ahorrar energía. La idea no es nueva, muchos chipsets existentes la usan, las tres nuevas ofertas en cuestión solo emplean el concepto en diversos grados.

Las CPU de teléfonos inteligentes de los últimos tres años más o menos han utilizado la arquitectura Big.LITTLE de ARM, que combina núcleos relativamente más lentos y ahorradores de energía con los más rápidos y drenantes. El objetivo principal es utilizar la menor cantidad de energía posible para obtener una mejor duración de la batería. Algunos de los primeros teléfonos que usan dicha arquitectura incluyen el Samsung Galaxy S4 con el chip Exynos 5 propio de la compañía, así como el Mate 8 y el Honor 6 de Huawei .

Los “chips IA” de este año llevan este concepto un paso más allá al agregar un nuevo componente dedicado para ejecutar tareas de aprendizaje automático o, en el caso del Snapdragon 845, al usar otros núcleos de bajo consumo para hacerlo. Por ejemplo, el Snapdragon 845 puede aprovechar su procesador de señal digital (DSP) para hacer frente a las tareas de larga ejecución que requieren una gran cantidad de cálculos matemáticos repetitivos, como escuchar una palabra activa.

Mientras tanto, el A11 Bionic de Apple usa un motor neuronal en su GPU para acelerar Face ID , Animoji algunas aplicaciones de terceros . Eso significa que cuando enciendes esos procesos en tu iPhone X, el A11 enciende el motor neuronal para llevar a cabo los cálculos necesarios para verificar quién eres o asignar tus expresiones faciales a la caca de habla.

En el Kirin 970, la NPU se encarga de tareas como escanear y traducir palabras en imágenes tomadas con el Traductor de Microsoft, que es la única aplicación de terceros que hasta ahora se ha optimizado para este chipset. Huawei dijo que su estructura informática heterogénea “HiAI” maximiza el rendimiento de la mayoría de los componentes en su conjunto de chips, por lo que puede estar asignando tareas de inteligencia artificial a algo más que la NPU.

Dejando las diferencias de lado, esta nueva arquitectura significa que los cálculos de aprendizaje automático, que solían procesarse en la nube, ahora se pueden llevar a cabo de manera más eficiente en un dispositivo. Al usar partes distintas a la CPU para ejecutar tareas de IA, su teléfono puede hacer más cosas simultáneamente, por lo que es menos probable que encuentre demora al esperar una traducción o encontrar una imagen de su perro.

Además, ejecutar estos procesos en su teléfono en lugar de enviarlos a la nube también es mejor para su privacidad, ya que reduce las oportunidades potenciales para que los hackers obtengan sus datos.

Otra gran ventaja de estos chips de IA es el ahorro de energía. El poder es un recurso precioso que debe asignarse juiciosamente, ya que algunas de estas acciones se pueden repetir todo el día. La GPU tiende a absorber más jugo, por lo tanto, si es algo que DSP, más eficiente en términos de energía, puede realizar con resultados similares, entonces es mejor tocar la última.

Para ser claros, no son los chipsets mismos los que deciden qué núcleos usar al ejecutar ciertas tareas. “Hoy, depende de los desarrolladores o fabricantes de equipos originales (OEM) donde quieran ejecutarlo”, dijo Brotman. Los programadores pueden usar bibliotecas compatibles como TensorFlow de Google (o más específicamente su versión móvil Lite) para dictar en qué núcleos ejecutar sus modelos. Qualcomm, Huawei y Apple funcionan con las opciones más populares, como TensorFlow Lite y Caffe2 de Facebook. Qualcomm también es compatible con el nuevo Open Neural Networks Exchange (ONNX) , mientras que Apple agrega compatibilidad para incluso más modelos de aprendizaje automático a través de su marco Core ML .

Hasta el momento, ninguno de estos chips ha producido beneficios muy apreciables en el mundo real. Los fabricantes de chips promocionarán sus propios resultados de pruebas y puntos de referencia que, en última instancia, carecen de sentido hasta que los procesos de IA se conviertan en una parte más importante de nuestras vidas diarias. Estamos en las primeras etapas de implementación de aprendizaje automático en el dispositivo, y los desarrolladores que han utilizado el nuevo hardware son pocos y distantes.

En este momento, sin embargo, está claro que está en marcha la carrera para realizar tareas relacionadas con el aprendizaje automático en su dispositivo mucho más rápido y con mayor eficiencia energética. Tendremos que esperar un poco más para ver los beneficios reales de este pivote para la inteligencia artificial.

Vía |engadget

log in

reset password

Back to
log in