NVIDIA y la batalla de los bastardos por el futuro de los chips para IA

nvidia-artificial-intelligence-reconstruct-damaged-photos

Muchas veces nos centramos mucho en el sector del gaming, pero de un tiempo a esta parte y sobre todo después de la llegada de las RTX al mercado, la Inteligencia Artificial ha despegado como muchos ni siquiera podían prever. La realidad es que el mercado vuelve a estar dominado por NVIDIA, pero aun así hay competidores nacidos de la misma idea que pretenden coger su pedazo del pastel. ¿Hacia dónde va la IA y las GPUs? ¿Es NVIDIA realmente merecedora de tanto elogio en este sector?

¿Por qué NVIDIA domina el mercado de la IA? ¿Es necesaria una nueva arquitectura o competidores para impulsar este sector en pleno auge? Son muchas las preguntas en una industria que es relativamente nueva y que se empezó a gestar hace 10 años aproximadamente. ¿Estamos quizás ante un mercado que como las criptomonedas dejará a los usuarios sin tarjetas gráficas?

NVIDIA y la IA, o cómo llegar primero es síntoma de ventaja clara

NVIDIA-EGX

NVIDIA se fundó en 1993 y a finales de 2010 con solo 17 años de vida y tras situarse líder del mercado de GPUs su CEO tuvo una idea tan brillante como posiblemente absurda para el 99% de los mundanos: apostar por la inteligencia artificial como arma que dominaría un nuevo sector de los datos.

Huang lo tenía claro por aquel entonces, ya que veía claro que el número de datos y su complejidad así como su peso crecería exponencialmente y llegaría un momento donde dar sentido a dichos datos sería imposible. Hoy en día hasta los gobiernos destinan partidas de dinero para aprendizaje profundo con China y EE.UU de nuevo a la vanguardia de esto.

Los analistas creen que es el escenario donde tras los semiconductores, todos competirán por analizar la mayor cantidad de información posible y tener algoritmos trabajando 24 horas al día sin descanso para analizar cualquier tipo de amenaza o futura tecnología. Por lo tanto, se necesitan cada vez más chips y más rápidos, algo que Google deslizó en 2015 con su proyecto de IA, Amazon ya tiene chips de inferencia con Alexa, incluso Baidu tiene Kunlum, donde AMD se movió tarde comprando Xilinx para la aceleración de IA en GPU, algo similar a lo que hizo Intel con sus Xeon en 2019 y ahora metiéndose en los ASIC y GPU para este sector y el gaming.

El futuro de los chips pasa por tener los mejores para IA

NVIDIA IA

Por lo tanto, la guerra del futuro va a ser por disponer de los mejores chips para inteligencia artificial y con ello dominar el mayor mercado del mundo en apenas 20 años vista. La pregunta más obvia es por qué va a crecer tanto y por qué se necesitan chips exponencialmente más veloces. La respuesta, volumen de datos aparte, es simple: matemáticas. Los HPC hacen operaciones matemáticas con las denominadas simulaciones de alta precisión, las cuales son normalmente de 64 bits (llegaremos a 128 bits en no demasiado tiempo) y por ello son necesarios los procesadores por su mayor capacidad para manejar operaciones tan complejas.

Pero la IA no necesita tanta complejidad en cuanto a bits y pueden ser usadas instrucciones de 16 bits u 8 bits para trabajar los datos, aunque los complejos sigan recayendo en la CPU, una GPU actualmente acelera la carga simple en muchas veces frente a un procesador, así que es complementaria y todo depende del software como TensorFlow de Google o PyTorch de Facebook.

Por ello el sector no estaba abierto a todo el mundo, no es solamente un proceso donde crear el mejor chip te vaya a dar ventaja, y ahí es donde también NVIDIA destaca con todo su arsenal de software para sus GPUs. Sus bibliotecas de software abstraen al programador y simplifican la forma de compilar código de manera que apenas interfiere con la GPU en sí puesto que no lo necesita.

NVIDIA-IA

Entonces, ¿cómo de importante será tener el mejor chip? No tiene por qué ser una GPU, puede ser un ASIC específico, una IPU o TPU, de cualquier tamaño o función siempre que esté diseñada para aprendizaje profundo. Y es que el software está tendiendo a la centralización, como ocurre con las APIs o los SO y aquí todo parece fluir hacia las opciones de Google y la propia NVIDIA, y por lo tanto diseñar chips para IA es igual de importante que el software o familia de software que se use.

El último movimiento en este sector tiene mucho que decir, y no es más que la compra de ARM por parte de los de Huang, donde de completarse podríamos hablar de nuevos chips firmados por NVIDIA de bajo consumo y alta modularidad que sean específicos para IA y DL, sobre todo para inferencia, la cual es la tarea más simple de hacer y puede que veamos GPUs con SoCs ARM en un mismo PCB para complementar varias tareas, acelerando todo el sistema mucho mejor que las opciones de CPU+GPU+FPGA. Y es que la inferencia no se calcula normalmente dentro de los servidores actuales de Deep Learning como los DGX, sino que se destina a servidores externos más pequeños.

Este enfoque cambiaría todos los sectores, puesto que con ARM y sus chips de la mano de NVIDIA se cambiaría hasta IoT, permitiendo que el trabajo no se realice en la nube, sino en el dispositivo, por ejemplo. Por lo tanto y en resumen, es un mercado por explotar que diseñará el mundo de la información y con ello todo lo relacionado con ella, dando forma al resto de dispositivos que usamos a diario, de ahí la importancia de tener el chip más completo, el mejor software y la mejor plataforma para IA y DL, un pastel que quieren muchos, incluidas empresas de menor calado nacidas del movimiento de la propia NVIDIA, los llamados «bastardos», los cuales se están enfocando en exclusiva en este mercado.

Fuente: HardZone