As unidades de processamento gráfico (GPU) têm vindo a aumentar de importância à medida que os sistemas de computação evoluem para um maior paralelismo (processar mais dados simultaneamente). Além da óbvia importância dos gráficos nas aplicações atuais – não nos referimos “apenas” aos jogos, mas também ao aumento da riqueza das interfaces e da importância do multimédia –, estas unidades já há muito que ultrapassaram a capacidade de processamento dos processadores centrais (CPUs). É graças aos GPUs que tecnologias como a Realidade Virtual, a Realidade Aumentada, a Inteligência Artificial (IA), o Deep Learning e o Machine Learning têm evoluído. A presença de GPUs nos mais poderosos supercondutores do mundo tornou-se habitual. Os chips chineses que motorizam o líder do Top 500, a lista dos mais poderosos supercomputadores do mundo, têm uma arquitetura muito mais próxima de GPUs do que de CPUs. E na mesma lista é fácil encontrarmos processadores Nvidia Tesla (GPUs) na lista de componentes dos supercomputadores – a arquitetura da Nvidia também lidera na tecnologia de condução autónoma. Há poucos dias, a Google revelou detalhes sobre os processadores que a empresa desenvolveu e que denomina de Tensor Processing Unit (TPU), a tecnologia que tem estado na base da grande evolução da IA da Google em áreas como reconhecimento de voz e interpretação de imagens. Os TSU são… adivinhou… uma evolução dos GPU.
Este conteúdo é parte integrante da Exame Informática Semanal. Para continuar a ler clique AQUI (acesso livre).