aialgorithmartificial intelligencecostsGeneralgooglemachine learningmicrosoftOpenAIpricescale

Algoritmos generativos y precio

IMAGE: Microsoft

Microsoft ha anunciado el precio de Copilot, las prestaciones de algoritmia generativa incorporadas a su Office que anunció con un vídeo hace algunos meses y que posibilitan crear textos, presentaciones, fórmulas en hojas de cálculo, etc. utilizando asistentes de machine learning, y muchos se han escandalizado ante los treinta dólares que la compañía ha fijado para disponer de ellas, que se suman al precio de la propia licencia de Office.

Treinta dólares por usuario y mes son, para muchas compañías, una inversión muy importante, que llevará probablemente a que racionen las licencias y no las pongan a disposición de la totalidad de sus trabajadores. ¿Qué lleva a Microsoft, una compañía que tiende a pensar en el largo plazo y en las ventajas que conlleva la adopción masiva de sus herramientas, a fijar un precio tan aparentemente elevado?

La respuesta es muy sencilla, pero para muchos, inesperada. Cuando OpenAi lanzó sus primeros productos, Dall·E en enero de 2021 y ChatGPT a finales de noviembre de 2022, los puso en el mercado como productos gratuitos. De hecho, la historia es conocida, porque en el caso de ChatGPT, la adopción batió el récord de número de usuarios únicos obtenidos en poco tiempo. La idea de poder entrar en una página y, tras abrir una cuenta, poder entrar en conversación con un modelo de lenguaje masivo al que preguntarle cualquier cosa resultaba obviamente muy atractiva, y generó todo un terremoto a nivel mundial.

Sin embargo, ¿qué estaba haciendo ChatGPT? Simplemente, aplicar la filosofía Silicon Valley: apoyada en unas rondas de financiación que el mundo del machine learning no había conocido jamás, apalancó su crecimiento de forma brutal para ganar en reconocimiento de marca y en valoración de la compañía, mientras acumulaba deudas con Microsoft a cuenta de su uso de Azure. No había problema: por un lado, la compañía sabía que si lograba un posicionamiento de pionero, podría pagar esas facturas, y que, por otro lado, el uso masivo de sus algoritmos le facilitaba continuar un entrenamiento que, además, había podido llevar a cabo sin prácticamente pagar nada a nadie por el uso de sus datos aprovechando la ausencia de legislación.

Para ChatGPT, y posteriormente para Microsoft, que aprovechó su temprana inversión en forma de créditos para el uso de Azure para tomar una participación en la compañía, ofrecer búsquedas en Bing suplementadas por ChatGPT no suponía gran cosa: el buscador era muy pequeño, tenía una cuota de mercado de alrededor de un 3%, y el agujero que podía generar era reducido. ¿Que el uso de Bing se disparaba y empezaba a generar más costes? Todas las compañías del mundo desearían verse en esa situación.

Para su competidor, Google, las cuentas eran diferentes. Si apostaba por la algoritmia generativa y la incorporaba a sus productos tenía, en primer lugar, un potencial problema de credibilidad: si Bing «alucina» y contesta una barbaridad no pasa nada, es un experimento de un competidor pequeño. Pero si lo hacía el buscador de Google, el coste reputacional y en términos de confianza era potencialmente mucho más elevado. Además, el modelo de negocio de Google, basado en los clics en los resultados esponsorizados, podía resentirse gravemente: que Bing genere menos negocio no es algo terrible para la cuenta de resultados de Microsoft, pero cada porcentaje que descienda el número de clics en anuncios en Google se refleja duramente en la facturación de la compañía… y los usuarios, cuando en lugar de obtener diez enlaces en los que hacer clic, obtienen un párrafo perfectamente redactado con la respuesta a lo que buscan, tienden a hacer muchos menos clics.

Finalmente, pero no menos importante, el coste. El coste de ejecutar una petición en un algoritmo generativo es sensiblemente más elevado que el de una simple búsqueda en la base de datos altamente optimizada de un buscador. Algo que, de nuevo, Microsoft podía asumir en el caso de Bing dada su escasa participación de mercado, pero que para Google, con sus 8,500 millones de búsquedas diarias, podía representar un enorme drenaje de recursos.

¿Qué pasa ahora? Muy sencillo y previsible: que si Microsoft aspira a ofrecer su integración del producto de OpenAi, Copilot, en su Office, ya no hablamos de un pequeño buscador minoritario con escasa participación de mercado como Bing. Ahora hablamos de uno de los productos estrella de la compañía, el que usan con licencia unos 345 millones de personas, con unos 958,333 usuarios activos diarios. Plantearse que todos esos usuarios hagan uso de consultas a algoritmos generativos con total alegría en su día a día ya no es una cuestión trivial: dado el coste de esas consultas, supone potencialmente un importantísimo capítulo en los costes de la compañía. Por tanto, hay que ponerle un precio, y ese precio debe ser suficiente como para anticipar un uso presumiblemente elevado. Ahora, los problemas que Google tuvo en su momento y que condicionaron su lenta y decepcionante respuesta, cambian de barrio, y es Microsoft quien podría tenerlos. El efecto multiplicador de un mal análisis de costes aplicado a la descomunal base de usuarios de Office es muy importante, y hay que cuidar el cálculo mucho para que la oferta sea sostenible, incremente el atractivo del producto, pero no se convierta en un drenaje de recursos significativo. ¿El resultado? Treinta dólares por usuario y mes.

¿El problema? Que debido al lanzamiento llevado a cabo por OpenAI (que posteriormente puso precio a su licencia y mantuvo como gratuita tan solo una versión limitada), ha llevado a que muchos usuarios perciban la algoritmia generativa como algo que es gratis, que basta con entrar en una página para usarlo sin más, sin sacar a pasear la tarjeta de crédito ni dar datos bancarios de ningún tipo. Y eso lleva a que una licencia de treinta dólares por usuario y mes resulte poco menos que un escándalo. Para Microsoft, además, el mercado corporativo es absolutamente fundamental: un descuido, y otro competidor con menor cuota de mercado que esté dispuesto a apostar por la incorporación de algoritmos generativos a su oferta podría plantearse dar una dentellada al gigante.

Pero escándalo o no, es lo que hay. Las cosas tienen unos costes, que posiblemente vayan reduciéndose a medida que las compañías aprenden a cristalizar sus economías de escala, y esos costes determinan unos precios. Ahora, veremos cómo responde el mercado, cómo reaccionan las compañías, y cómo comienza a delinearse la incorporación de algoritmos generativos al día a día del trabajo de millones de personas en todo el mundo.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button