Para quienes hemos seguido a Intel, los rumores del lanzamiento de una tarjeta gráfica dedicada (para no depender de AMD o NVidia en ese departamento) no es tanto una noticia, sino un capítulo más (esperemos sea el definitivo) en una larga novela que se remonta a mediados de la década pasada con un proyecto llamado Larrabee. El equipo azul no estaba diseñando un procesador gráfico para juegos, sino buscando una forma de tener tantos núcleos de procesamiento con arquitectura x86 como fuese posible en una unidad fácilmente conectable a un servidor de Data Center. De hecho, los prototipos sobrevivientes llegaron a tener 61 núcleos de 4 hilos cada uno.

El proyecto Larrabee había sido cancelado entre cuatro y cinco veces, con comunicaciones internas que, según contaba Tom Forsyth, uno de los jefes del proyecto, eran confusas en el mejor de los casos. El hecho es que el equipo fue trasladado completamente a otro proyecto llamado Xeon Phi, lo que hoy es la línea de procesadores para Data Center. Si bien, para muchos en la prensa especializada, el proyecto Larrabee fue un fracaso, hay mucho de lo que se logró ahí en la línea antes mencionada y en la TH2, una de las supercomputadoras más rápidas del planeta.

La ventaja que tenía Larrabee sobre las GPU de la época, y muchas de las modernas, era la flexibilidad con la que podían ajustarse sus procesos, pues, mientras los GPU de AMD y NVidia tienen una configuración fija para cada tipo de tareas, el proyecto de Intel era configurable mediante software, bajo un sistema como FreeBSD.

En fin, adelantando la película poco más de diez años, a principios de noviembre de 2017, Intel reclutó a Raja Koduri, hasta entonces máximo responsable de la división Radeon de AMD, y, por supuesto, las especulaciones han estado apuntando a una sola cosa: El equipo azul tomará las riendas para desarrollar sus propios procesadores gráficos (¿Qué otra cosa haría reclutando a uno de los líderes del equipo rojo?) y entrar en una competencia que, hasta ahora, sólo tenía a AMD y Nvidia como actores principales.  El hecho es que el gigante de silicio dará una conferencia en diciembre sobre el tema, según reporta The Hard Zone.

De acuerdo a la nota, el enfoque de este desarrollo, que se espera esté listo en 2020, no sería para el consumidor final, sino para otro campo donde NVidia tiene una considerable ventaja:

En cualquier caso se espera que la compañía anuncie Arctic Sound para ser, inicialmente, una base para ayudar a expandir la división de Inteligencia Artificial de la marca, así como el sector de Machine Learning.

Aún así, dados los antecedentes y los potenciales usos, no sería de extrañarse que también sea aplicable a las tecnologías de cadena de bloque, el fundamento de las criptomonedas, donde AMD ha tenido una ventaja importante. Pero, dado el comportamiento actual del Bitcoin, es poco probable.

El hecho es que los mercados, tanto de GPU como de CPU empiezan a agitarse y la competencia a cobrar vida. Si esto sigue así, al final, no cabe duda que será el consumidor final el que salga ganando.