¿Se viene una burbuja de IA?

Hace pocos días comenzaron a escucharse comentarios alertando sobre un exagerado optimismo del mercado con relación a la inteligencia artificial, especialmente por las enormes inversiones en infraestructura de data centers.

Reproduciré a continuación dos artículos publicados hace menos de diez días, el primero citando a Roger McNamee, reconocido empresario e inversor estadounidense de proyección mundial, y el segundo con las consideraciones de los estrategas de Goldman Sachs, ambos abordando esta temática. Luego haré algunas consideraciones de mi cuño sobre las expectativas con la inteligencia artificial y las incuestionables oportunidades que ella crea en todos los órdenes de la economía y la sociedad.

Roger McNamee: ¿la IA es un fraude?

En una reciente entrevista de CNBC, el 08/07/2024, Roger McNamee, CEO de la firma de venture capital Elevation Partners y experimentado inversor en tecnología, dijo que el CAPEX en IA se está realizando en base a proyecciones difíciles de ser evaluadas y con grandes chances de no confirmarse. “A los Estados Unidos le encantan las manías financieras” afirmó. Elevation Partners fue una de las primeras firmas en colocar dinero en Facebook. McNamee comenzó su carrera en T. Row Price, donde comandó el fondo de ciencia y tecnología. También fue uno de los fundadores de Silver Lake Partners, el primer fondo de capital privado centrado en empresas de tecnología, antes de fundar Elevation Partners.

Para McNamee, hay evidencias de la formación de una burbuja en la inteligencia artificial, y, si ese fuera el caso, más temprano o más tarde habrá un ajuste. “Estamos haciendo conjeturas sobre lo que esa tecnología puede hacer, pero no logramos comprobarlas, y la estamos aplicando en lugares en los cuales talvez no funcionen.” dijo McNamee. “Si este fuera el caso, esta manía llegará al fin, y las mayores acciones de S&P 500 serán duramente afectadas.

McNamee publicó sus argumentos en X, mencionando que las inversiones en data centers ya suman US$ 100 billones hasta ahora y crecen al ritmo de US$ 10 billones por mes. “Los mayores inversores – Microsoft, NVIDIA, Google, Amazon, Meta – tienen toneladas de dinero en caja y dominan el S&P 500. Si ellos estuvieran equivocados, sería un desastre para los mercados.

McNamee destacó que Goldman Sachs publicó un reporte “hace pocos días” diciendo que las inversiones en CAPEX son excesivas. El documento tiene un título sugestivo: “GenAI: ¿Mucho gasto para un beneficio pequeño?”.

Goldman no es la primera firma de Wall Street que muestra preocupación. El Barclays ya lo hizo, y Sequoia también publicó un reporte sobre el CAPEX en IA, diciendo que la industria necesita US$ 600 billones de ingresos para justificar las inversiones hechas en computación y nube.” escribió McNamee. Para él, “Cuando empresas como Sequoia y Goldman Sachs me dicen que existe una burbuja, yo presto atención.”.

Pero en su evaluación, las razones para desconfiar del potencial de la IA no se limitan a la frustración con los gastos en CAPEX. McNamee cita el uso intenso de energía y agua en la producción de procesadores y en el entrenamiento de los modelos de lenguaje. Según él, “Un reporte sugiere que medio litro de agua se desperdicia cada vez que usted hace una pregunta a un chatbot.“. Para McNameeLa IAG está acelerando el cambio climático. Microsoft y Google prometieron ser neutras en carbono en 2030, [pero] la huella de carbono de Microsoft ya aumentó 30% en dos años, y la de Google, 45% en cinco años.”.

McNamee también cita aspectos relativos a los derechos autoriales, privacidad, seguridad de los datos y desinformación. “Debido a la manía de la GenAI, las personas están intentando aplicar los modelos de lenguaje de gran escala (LLM) en todo, incluyendo una vasta gama de casos en que ellos ciertamente fracasarán,” dijo McNamee. “Las personas serán perjudicadas, y algunas no se recuperarán” alertó, en referencia a las fake news y deep fakes. “La seguridad debería ser una prioridad.”.

Para McNamee, los modelos de IA no son inteligentes, sólo “usan estadística para adivinar la próxima palabra, parágrafo o imagen más convenientes. Sólo conocen lo que les deja su entrenamiento. Lo que hacen mejor es “bullshitar” (nota: “engañar” en una traducción libre). Hay más evidencia de que los LLM son un fraude, y no la próxima gran cosa. Cuidado.

Como las big techs dominan el S&P 500, McNamee concluye afirmando que, cuando la burbuja de IA estalle, “las Big Techs no quebrarán, pero todas las previsiones colapsarán, arrastrando las acciones con ellas.”. “No hay cómo saber cuándo estallará la burbuja, pero eso ocurrirá” dijo. “Esté preparado.

Goldman Sachs: no hay burbuja (por ahora)

Con los precios de las acciones tecnológicas al alza, los analistas de Wall Street son bombardeados a diario con la misma pregunta: ¿existe, después de todo, una burbuja bursátil de inteligencia artificial? Un equipo de estrategas de Goldman Sachs hizo números y comparó las métricas actuales de las empresas de tecnología con las observadas en los años de euforia que precedieron a la burbuja de Internet. La conclusión, publicada tres días después, contradice el polémico artículo de McNamee: a pesar del gran aumento de los gastos de capital y de I+D, todavía están “muy por debajo de los niveles de la burbuja de Internet“, si se tiene en cuenta el flujo de caja de las empresas.

Según Goldman, los inversores han expresado su preocupación por un posible “exceso de inversión” por parte de empresas llamadas hiper escaladoras, las grandes tecnológicas que están ampliando el uso de la IA. Se trata de Microsoft, Amazon, Google y Meta, que asignaron 357.000 millones de dólares en gastos de capital e I+D en los últimos cuatro trimestres.

Los hiper escaladores son empresas de ‘fase 2’ en la industria de la IA, según la clasificación de Goldman. NVIDIA se considera “fase 1”. Las grandes tecnológicas están liderando el aumento del mercado de valores, con una apreciación del 26% sólo este año, lo que explica la aprensión de los inversores.

Los hiper escaladores representan el 23% de las inversiones totales realizadas por las empresas del S&P 500“, dicen los analistas. “Estas empresas han señalado que asignarán capital adicional para lograr sus objetivos de IA.”.

¿Podría ser esto una señal de advertencia? Todavía no, según los analistas de Goldman.

Si se tienen en cuenta los beneficios de estas empresas, el ciclo de gasto de capital en IA parece mucho menor en comparación con el ciclo realizado en la burbuja de Internet“, dice el informe.

En plena euforia con la nueva economía, empresas de tecnología, medios y telecomunicaciones invirtieron más del 100% de su flujo de caja, y eran empresas que a menudo ni siquiera obtenían beneficios. “Hoy, por el contrario, la mayoría de las grandes empresas tecnológicas son extremadamente rentables”, afirman los analistas.

El CAPEX representa actualmente el 72% del flujo de caja de estas empresas, e incluso ha caído en el margen, porque los beneficios han aumentado. Según Goldman, las grandes tecnológicas podrán mantener el ROI promedio reciente si las ganancias futuras se mantienen dentro de las proyecciones.

En los últimos cinco años, el retorno de la inversión promedio ha sido del 33%. En comparación, el retorno de la inversión promedio para las telecomunicaciones entre 1996 y 2000 fue del 19%.

Pero como quedó demostrado en la burbuja tecnológica, las revisiones de las ventas serán un indicador clave para que los inversores evalúen la durabilidad del comercio de IA“, escribieron los estrategas.

Según Goldman, muchas empresas de Internet y telecomunicaciones vieron colapsar sus ingresos a finales de los años 1990. Otras, como Microsoft, continuaron reportando mayores ganancias. “Los hiper escaladores tendrán que demostrar que sus inversiones generarán ingresos y beneficios.“, concluye Goldman. “Los indicios de que estos ingresos y beneficios no se generan, como una revisión a la baja de las ventas, podrían dar lugar a una reducción de la calificación.”.

Conclusiones: ¿dónde está la brújula?

Ya sabemos que los medios especializados, los analistas de mercado y los grandes medios acostumbran a exagerar y ampliar los posibles efectos en la economía de las circunstancias e hitos vinculados a la tecnología. Todos recordamos la visión apocalíptica del Y2K, cuando se anticipaban colapsos de todo tipo por el cambio del primer dígito del año en el pasaje del 31/12/1999 al 01/01/2000, y sabemos que, aunque el Y2K fue fuente de enormes ingresos para los proveedores de soluciones informáticas, al final “la montaña parió un ratón” y no ocurrió ninguno de los desastres vaticinados, no necesariamente porque todos hubieran adaptado sus sistemas.

Más recientemente vivimos fenómenos como la migración a la nube, con los generadores de opinión avivando el fuego para convencer a tirios y troyanos de que quien no migrase a la nube perdería flexibilidad y competitividad de manera tal, que hacerlo era una cuestión de supervivencia. Esta migración, de la cual pocos dijeron que uno de sus objetivos era aumentar el “wallet share” de los clientes a favor de hiper escaladores, big techs, fabricantes de software empresarial y dueños de data centers, junto con la agilidad y flexibilidad también prometía una mayor economía, que en la práctica no se confirmó, generando una ola de “rebote” que hace que numerosas empresas e instituciones públicas en todo el mundo estén volviendo a sus propios data centers.

Parte de esta saga también fue la euforia al borde de lo irracional con los emprendedores en startups o .com que produjo la burbuja de internet, que ahora se está comparando con una presunta burbuja de la inteligencia artificial. Además de las nítidas diferencias con relación a la situación patrimonial, de flujo de caja y rentabilidad de los protagonistas de la crisis de internet, comparados con las big techs que lideran la explosión de la inteligencia artificial, debemos tomar en cuenta que, la aceleración del ritmo de las innovaciones ha instalado varios focos de proliferación de versiones que acaban creando cierta confusión acerca de la IA/IAG. Veamos algunos ejemplos.

  • Modelos Fundacionales & LLM: Un Modelo Fundacional y un LLM (Large Language Model) están estrechamente relacionados, pero no son exactamente lo mismo, aunque a menudo se usan indistintamente en algunos contextos. La distinción entre ambos puede ser sutil y depende de cómo se define y se utiliza cada término.

Un LLM se refiere específicamente a modelos de lenguaje de gran escala que son entrenados con enormes conjuntos de datos y tienen una gran cantidad de parámetros. Estos modelos están diseñados para manejar tareas relacionadas con el procesamiento del lenguaje natural (NLP), como comprensión de texto, generación de texto, traducción, y otras aplicaciones. Ejemplos conocidos de LLM son GPT-4 y BERT. Estos modelos son capaces de realizar una amplia gama de tareas de lenguaje natural con una sola arquitectura de modelo.

El término “modelo fundacional” es más amplio y se refiere a modelos de inteligencia artificial que no sólo se aplican al procesamiento de lenguaje, sino que también pueden entrenarse para realizar una variedad de tareas en diferentes dominios, como visión por computadora, generación de audio, y más. Estos modelos son “fundacionales” en el sentido de que proporcionan una base sobre la cual se pueden construir aplicaciones específicas. Al igual que los LLM, los modelos fundacionales suelen ser muy grandes y son entrenados con enormes conjuntos de datos de múltiples modalidades y dominios. Podemos decir que los modelos fundacionales son la base, el paquete inicial a partir del cual pueden construirse aplicaciones específicas.

Mientras que los LLM se centran en tareas de lenguaje, los modelos fundacionales están diseñados para ser aún más generales, pudiendo aprender de diversos tipos de datos y aplicarse a una gama más amplia de tareas. Los LLM se usan principalmente en aplicaciones que implican texto, mientras que los modelos fundacionales pueden ser utilizados en aplicaciones que cruzan las fronteras entre texto, imagen, y otros tipos de datos.

  • LLM & SLM: Los LLM (Large Language Models) y los SLM (Small Language Models) tienen diferencias significativas en términos de tamaño, capacidades, requisitos de recursos y aplicaciones.

Los LLM tienen entre cientos de millones y miles de millones de parámetros. Requieren grandes cantidades de datos y recursos computacionales (potencia de procesamiento, memoria y almacenamiento) para ser entrenados, por lo que sus costos son mayores a los de los SLM. Los LLM son adecuados para aplicaciones que requieren una comprensión profunda del contexto y la generación de texto de alta calidad, como chatbots avanzados, asistentes virtuales y generación automática de contenido, pudiendo capturar y generar texto con un alto grado de fluidez y coherencia, y realizar tareas complejas de procesamiento del lenguaje natural (NLP) como traducción automática, resumen de textos y generación de contenido creativo.

Los SLM tienen significativamente menos parámetros que los LLM, típicamente en el rango de millones o decenas de millones. Requieren menos datos y recursos computacionales, lo que los hace más accesibles para su entrenamiento en hardware menos potente, pudiéndose instalar en modalidad “on premises” y funcionar eficientemente en dispositivos con menor capacidad de procesamiento, como tabletas, teléfonos móviles y dispositivos IoT. Se utilizan en aplicaciones que requieren rapidez y eficiencia con menor complejidad, como sistemas de recomendación, análisis de sentimientos en redes sociales y clasificación de correos electrónicos (SPAM/no SPAM), siendo más adecuados para soluciones que deben desplegarse en dispositivos con limitaciones de recursos.

Los SLM son una opción popular para implementaciones “on premises” debido a su menor complejidad y requisitos de recursos. Organizaciones en sectores como finanzas, salud, seguridad, comercio y gobierno están aprovechando los SLM para diversas aplicaciones, asegurando al mismo tiempo la seguridad y privacidad de sus datos.

  • Modelos Determinísticos & Modelos Probabilísticos: Los modelos determinísticos (estocásticos) y los modelos basados en probabilidades son dos enfoques utilizados para modelar sistemas y procesos en diversas disciplinas.

Los modelos determinísticos no incorporan ninguna forma de aleatoriedad. Los resultados son completamente determinados por los parámetros y condiciones iniciales del modelo, lo que los torna altamente predecibles. Sus ventajas son su simplicidad y claridad en la interpretación, y sus resultados precisos y repetibles.

Los modelos basados en probabilidades incorporan aleatoriedad y tratan de capturar la variabilidad y la incertidumbre en los sistemas. Los resultados no son únicos; en su lugar, se describen en términos de distribuciones de probabilidad. Sus ventajas son su capacidad de manejar la incertidumbre y la variabilidad generando una imagen más realista de sistemas complejos, permitiendo el cálculo de probabilidades y riesgos asociados a diferentes resultados.

Ambos tipos de modelos tienen sus aplicaciones, ventajas y limitaciones. La elección entre ellos depende de la naturaleza del problema específico que se esté tratando de resolver, pero en general suelen ser más eficaces las plataformas y herramientas que tienen la flexibilidad de combinar enfoques determinísticos y probabilísticos dentro de un mismo sistema, permitiendo la colaboración y complementariedad entre ambos tipos de modelos.

  • Modelos “cerrados” & “abiertos”: este es otro falso dilema, ya que los datos confirman que los modelos “propietarios” y los de “código abierto” tienen performances comparables, con preponderancia de uno u otro según los casos de uso.

Pueden existir diversas interacciones del mundo de los sistemas “propietarios” con el mundo del software libre y open source, como la contribución a la comunidad de software libre, la integración con plataformas abiertas y el uso de herramientas open source como bibliotecas de código abierto para construir y mejorar sus capacidades; por ejemplo, frameworks y bibliotecas de machine learning como TensorFlow, PyTorch y Scikit-learn, que son proyectos de código abierto. Esto no sólo mejora la funcionalidad de los sistemas propietarios, sino que también facilita la integración y la adopción por parte de los desarrolladores que ya están familiarizados con estas herramientas

La estrategia que recomendamos consiste en construir arquitecturas que favorezcan y simplifiquen la colaboración entre los desarrollos propietarios y la comunidad open source, aprovechando lo mejor de los dos mundos, como ocurre con algunas plataformas de vanguardia.

El análisis detallado de estas parejas, a veces confundidas, frecuentemente complementarias, y que siempre contribuyen a la incertidumbre sobre IA/IAG merece mayor profundidad, por lo que publicaremos en breve otro artículo específico sobre el tema. Sin perjuicio de ello, mencionamos ahora que el mercado actual ofrece modelos, plataformas, tecnologías y herramientas de todos los tipos citados anteriormente, con posibilidades ciertas de adecuarse a casos de uso que ciertamente impactarán (ya lo están haciendo) en el aumento de la productividad y en la eficacia de los procesos de negocios. Las verdaderas dificultades para profundizar en la jornada digital mediante la implementación de procesos basados en IA/IAG no son fruto de esas posibles confusiones: lo más difícil es contar con los cimientos para dicha construcción, es decir, con datos de calidad, debidamente vinculados con la estrategia de la organización y, con procesos de gobernanza y de fomento de una cultura organizacional orientada a datos que fomente, estimule y premie la innovación y la experimentación. Brevemente, estos son algunos de los pilares a considerar.

  • Estrategia: La relación entre la estrategia de una organización, su estrategia de datos y su capacidad de transformarse en una entidad orientada a datos (data driven), capaz de desarrollar iniciativas exitosas y efectivas de IAG es fundamental.
  • La interdependencia entre la estrategia de la organización, su estrategia de datos y su capacidad para desarrollar IAG es clara. Una estrategia organizacional que valora la innovación y la tecnología, junto con una estrategia de datos bien definida, sientan las bases para iniciativas exitosas de IAG y de procesos digitales en general.
  • Cultura organizacional: Para que una organización recorra la “jornada digital” y se convierta en una entidad orientada a datos (“data driven”), es imprescindible que adopte una serie de medidas estratégicas vinculadas a su cultura organizacional, como crear una Cultura Orientada a Datos, fomentando la adopción de los datos y promoviendo su uso en todos los niveles de la organización, especialmente en la toma de decisiones.
  • Plataformas digitales: Las organizaciones digitales orientadas a datos implementan infraestructuras de datos flexibles y escalables, capaces de manejar grandes volúmenes de datos (big data), tanto estructurados como no estructurados. Y utilizan herramientas y plataformas avanzadas para la recopilación, almacenamiento, procesamiento y análisis de datos, como data lakes, data warehouses, lake houses y plataformas de análisis en la nube.
  • Gobernanza: La Gobernanza de los Datos es necesaria para superar las principales barreras de la jornada digital, que son las preocupaciones acerca del linaje o procedencia de los datos, los riesgos referidos a la seguridad de los datos, y las restricciones impuestas por las regulaciones/compliance. La Gobernanza de los Datos es, pues, elemento fundamental del éxito de la transformación digital y del uso efectivo de IA/IAG, ya que asegura la trazabilidad, calidad, seguridad, y accesibilidad de los datos, cumple con las regulaciones, mejora la eficiencia operativa y facilita la innovación.
  • Innovación y experimentación: Se debe adoptar una Cultura de innovación y Experimentación, fomentando la valorización de la experimentación y el aprendizaje continuo, procurando que los colaboradores se sientan estimulados y empoderados para probar nuevas ideas y aprender de los fracasos, contando con los recursos necesarios y con el decidido estímulo y apoyo de la Alta Dirección.

Sin pretender compararnos con influyentes empresarios como Roger McNamee, ni con los equipos de estrategas de Goldman Sachs, nos atrevemos a afirmar, sin temor a equivocarnos que la IA no es ningún fraude, no es inminente ninguna burbuja de la IA, y, aquellas organizaciones que ajusten su brújula estratégica y contemplen los principales pilares de su jornada digital, pueden estar seguros de que lograrán los objetivos de mejorar su productividad, eficiencia y eficacia incorporando adecuadamente tecnología de IA/IAG y otras tecnologías avanzadas en sus principales procesos de negocios.

José C. Nordmann
SME en Fraudes Digitales en tiempo real
Miembro del Consejo Mundial para un Planeta más Seguro
Miembro de ACFE (Association of Certified Fraud Examiners)
Miembro del i2 Group Worldwide Advisory Board