A estas alturas resulta redundante decir que la Inteligencia artificial (AI) está revolucionando la manera en la que se desarrolla software. Nos tomó menos de 24 horas descubrir el potencial que modelos como Chat-GPT-4 tenía para aplicarse a cientos de industrias, incluida la ingeniería de sistemas y programación: desde la creación de páginas web hasta la construcción de documentos legales. Y, como resultado, las compañías de tecnología se lanzaron a buscar maneras de utilizar estos mismos para ser los primeros en desarrollar herramientas AI.Pero hay un problema en el desarrollo de AI. Y no se trata de una carta firmada por Elon Musk sobre los peligros de la inteligencia artificial. El mayor bloqueo que hoy tienen los desarrolladores está en la falta de computadores especializados para poder correr, entrenar y utilizar estos modelos.Un reporte publicado por The Information describe la situación en la que se encuentran hoy muchas compañías de tecnología que no pueden continuar proyectos utilizando AI porque no hay servidores disponibles para hacerlo. La escasez de este tipo de computadores tiene dos razones: hay una alta demanda por servidores que puedan ser utilizados en AI, sumado a los problemas que hoy existen en oferta de chips.
Del minado de cripto a ChatGPT-4: ¿otra vez estamos frente a una escasez de GPUs?
Desde que ChatGPT comenzó a ganar renombre uno de los temores es que estemos frente a otra escasez de GPU. Es un miedo natural, considerando que durante los últimos años el precio de componentes y chips ha incrementado de manera importante, cortesía (entre otras cosas) del boom que tuvo la industria de las criptomonedas. Y desde hace algunos meses la situación se ha ‘normalizado’ en parte gracias a que el sector de las criptomonedas no es el más atractivo y por otro lado gracias a la producción de GPUs especializadas en minado, que ha reducido la demanda por tarjetas gráficas pensadas para otras tareas.Pero existe problema: hay una escasez de componentes desde hace algún tiempo. Nvidia ha sido el centro de esta falta de GPUs, siendo uno de los principales proveedores de estas partes que son vitales en el entrenamiento de estos modelos y, más importante, las piezas necesarias para las GPU de servidores en la nube ahora que los centros de datos de compañías como Google y Amazon, así como otras empresas más pequeñas, están buscando expandirse para responder a la demanda actual de capacidad para correr estos modelos.
Otro problema de desarrollar AI: La energía también está siendo un problema
The Information también menciona que otro de los problemas en los que se están encontrando los centros de datos está en los requisitos de energía que supone la nueva demanda de servidores en la nube. Este es un problema que solo se ha acumulado en años recientes y que, al mismo tiempo, está poniendo a los proveedores medianos de estas plataformas en aprietos. Para hacer más complicada la situación el entrenamiento de software AI requiere tanto poder de procesamiento que algunos centros de datos no cuentan con la capacidad de separar a sus clientes, lo que significa que en algunos casos solo pueden atender las necesidades de diferentes clientes de manera simultánea.Imágenes: Montaje ENTER.CO Enter.co/dev
es una colaboración con Coderise.org y Holberton Colombia para promover la comunidad de programación en Colombia.