Este artículo fue escrito por AshleeVance. Apareció anteriormente en la Terminal Bloomberg.
Una nueva startup llamada MatX, de exingenieros de Google, refleja un renovado entusiasmo por los fabricantes de chips.
Ha tardado unos 25 años, pero Silicon Valley finalmente vuelve a sentirse como el Silicon Valley de la vieja escuela.
Nvidia Corp. ha dominado de manera tan categórica el mercado de los chips que alimentan el software de inteligencia artificial que otras empresas han decidido que están dispuestas a emprender el ejercicio, a menudo desastroso, de diseñar sus propios semiconductores. La historia nos dice que diseñar un chip desde cero lleva años, cuesta cientos de millones de dólares y generalmente termina sin lograr su objetivo. Sin embargo, la promesa de la IA es simplemente tan impresionante que las personas deciden que deben intentarlo.
Dos de estas valientes personas son Mike Gunter y Reiner Pope. Ellos fundaron una empresa, MatX, cuyo objetivo es diseñar silicio específicamente para procesar los datos necesarios para impulsar modelos de lenguaje de gran tamaño. En caso de que haya estado escondido en un bunker durante el último año y medio, los LLM son la base para cosas como ChatGPT de OpenAI Inc. y Gemini de Google, y requieren una cantidad obscena de chips muy costosos para funcionar. Si una empresa pudiera fabricar chips más baratos, rápidos y compatibles con la IA, estaría preparada para tener un gran éxito en un mundo de software de IA en constante expansión.
Gunter y Pope trabajaron anteriormente en Google de Alphabet Inc., donde Gunter se centró en el diseño de hardware, incluidos chips, para ejecutar software de IA, y Pope escribió el propio software de IA. Google ha estado desarrollando durante años sus propios chips de IA llamados unidades de procesamiento tensorial. Sin embargo, estos chips se diseñaron antes de que los LLM realmente comenzaran a despegar y son demasiado genéricos para la tarea actual, según los ejecutivos de MatX. “Estábamos tratando de que los grandes modelos de lenguaje funcionaran más rápido en Google e hicimos algunos avances, pero fue un poco difícil”, dice Pope, hablando públicamente sobre su empresa por primera vez. “En Google había muchas personas que querían cambios en los chips para todo tipo de cosas, y era difícil centrarse solo en los LLM. Decidimos irnos por esa razón”.
El dominio de Nvidia en el mercado de silicio de IA es algo así como un accidente. La empresa comenzó a fabricar chips conocidos como unidades de procesamiento de gráficos (GPU, por su sigla en inglés) para acelerar los videojuegos y ciertos trabajos de diseño de computadoras. Los chips de Nvidia se destacan por manejar montones y montones de pequeñas tareas, y dio la casualidad de que ejecutaron el software de IA, que comenzó a despegar hace aproximadamente una década, mucho mejor que otros tipos de chips fabricados por Intel Corp.
Nvidia divide el espacio en sus GPU para gestionar una amplia variedad de trabajos de computación, incluyendo el movimiento de datos alrededor del chip. Algunas de sus opciones de diseño se adaptan más a épocas pasadas de la informática que al auge de la IA y vienen con compensaciones de rendimiento. Los fundadores de MatX sostienen que este espacio adicional agrega un costo y complejidad innecesarios en la nueva era de la IA. Están adoptando un enfoque de borrón y cuenta nueva, diseñando silicio con un gran núcleo de procesamiento destinado al único propósito de multiplicar números lo más rápido posible, la tarea central en el corazón de los LLM. La empresa está apostando, y es una apuesta de todo o nada, a que sus chips serán al menos 10 veces mejores para entrenar los LLM y entregar sus resultados que las GPU de Nvidia. “Nvidia es un producto realmente sólido y claramente el producto adecuado para la mayoría de las empresas”, dice Pope. “Pero creemos que podemos hacerlo mucho mejor”.
MatX ha recaudado USD 25 millones, y su ronda de financiamiento más reciente ha sido liderada por el dúo de inversionistas en IA formado por Nat Friedman y Daniel Gross. La empresa está ubicada en Mountain View, California, a un par de millas de la primera fábrica de transistores de Silicon Valley, Shockley Semiconductor Laboratory, y cuenta con docenas de empleados que están trabajando afanosamente en el chip que la empresa planea tener a mano el próximo año. “Los fundadores de MatX son simbólicos de una tendencia en nuestro mundo de la IA”, dice Gross, porque están “tomando algunas de las mejores ideas desarrolladas en algunas de las empresas más grandes, que son un poco demasiado lentas y burocráticas, y comercializándolas por sí mismas”.
Si el software de IA sigue su curso actual, creará una enorme necesidad de computación costosa. Se estima que los modelos en desarrollo costarán aproximadamente USD 1.000 millones cada uno, y se espera que el de sus sucesores cueste USD 10.000 millones. MatX proyecta que puede tener un exitoso negocio al ganarse a varios de los principales actores de la IA, como OpenAI y Anthropic PBC. “La economía de estas empresas está completamente a la zaga de las empresas típicas”, dice Gunter. “Están gastando todo este dinero en computación, no en salarios. Si las cosas no cambian, se quedarán sin dinero”.
Silicon Valley, como su nombre deja claro, solía estar inundado de empresas de chips. Había docenas de startups, e incluso los gigantes informáticos Hewlett-Packard, IBM y Sun Microsystems fabricaron sus propios chips. Sin embargo, en la historia más reciente, Intel sofocó muchos de estos esfuerzos gracias a su dominio de los mercados de PC y servidores, mientras que empresas como Samsung Electronics Co. y Qualcomm Inc. llegaron a dominar los componentes de los teléfonos inteligentes. Debido a estas tendencias, los inversionistas comenzaron a alejarse de comprometer capital en las startups de chips, considerándolas mucho más costosas, lentas y riesgosas que el software. “Alrededor de 2014, visitaba empresas de capital de riesgo, y habían eliminado a todos sus socios que sabían sobre semiconductores”, dice Rajiv Khemani, un experto en chips que invirtió en MatX. “Hablaba con personas que no tenían idea de lo que estaba diciendo”.
Sin embargo, el crecimiento de la IA ha cambiado la ecuación de riesgo versus recompensa. Las empresas con vastos recursos, como Amazon.com, Google y Microsoft, han invertido en el diseño de sus propios chips tensoriales para trabajos de IA. Y hace varios años, startups como Groq Inc. y Cerebras Systems Inc. aparecieron en escena con una primera oleada de chips específicos de IA. Pero estos productos se diseñaron antes de que importantes avances técnicos en la IA condujeran al surgimiento de los LLM como la historia dominante en la IA. Las startups han tenido que adaptarse al repentino interés en los LLM e intentar ajustar sus productos sobre la marcha. MatX probablemente representa el comienzo de otra oleada de startups de chips que se centran en los LLM desde cero.
El gran problema para ingresar a la industria de chips es que se tarda de tres a cinco años en diseñar y fabricar un nuevo chip. (Nvidia, por supuesto, no se quedará quieto durante este tiempo y, de hecho, anunció este mes una versión mucho más rápida de sus GPU). Las startups tienen que predecir dónde estarán las tendencias tecnológicas y la competencia, con poco margen para errores que podrían ralentizar la producción. Las empresas de software generalmente tienen que reescribir su código para ejecutarse en nuevos semiconductores, un proceso costoso y que requiere mucho tiempo que solo harán si esperan una gran recompensa por hacer el cambio. La regla general es que un nuevo chip debe ser al menos 10 veces mejor que el anterior para tener alguna posibilidad de persuadir a los clientes de cambiar todo su código.
Por su parte, Gross predice que estamos en la etapa inicial de la construcción de la infraestructura necesaria para respaldar el cambio a la IA como la forma dominante de computación. “Creo que nos estamos moviendo hacia un ciclo de semiconductores que hará que los demás palidezcan en comparación”, dice. Si tiene razón, es casi seguro que aún hay nuevos imperios de chips por crear.
The post El silicio está de vuelta en Silicon Valley gracias a las startups de IA appeared first on Servicio Bloomberg Professional.