exameinformatica

Uma parceria EXPRESSO

Siga-nos nas redes

Perfil

Ciência

Inteligência Artificial: ameaça ou oportunidade?

As grandes empresas iniciaram uma corrida de milhares de milhões de euros para desenvolver a inteligência artificial e os resultados começaram a aparecer: as máquinas já são capazes de aprender sozinhas “alimentando-se” dos dados que todos os dias publicamos na Internet. Estaremos, como diz Elon Musk, «a invocar o diabo»?

  • 333

Sérgio Magno

Google via Getty Images

O jogo chinês Go tem regras simples, mas estima-se que o número de posições possíveis seja maior que o número de átomos do Universo. Esta complexidade, muito superior à do Xadrez, torna impossível para os computadores anteciparem todas as jogadas possíveis o que fez deste jogo de tabuleiro um género de Santo Graal para os investigadores na área da inteligência artificial. Para muitos especialistas, um bom jogador humano nunca seria batido pelos computadores porque neste jogo, com mais de 2500 anos, a intuição, a estratégia e até a subtileza são características bem mais importantes que a análise estatística ou memória. Mas foi exatamente o que aconteceu há dias, quando o sul-coreano Lee Sedol, o jogador de Go mais premiado do mundo, foi derrotado pelo sistema AlphaGo por uns expressivos 4-1.

A vitória não foi apenas uma consequência de computadores capazes de fazer cálculos mais rapidamente, mas também da técnica de IA que está a ser adotada pelos grandes nomes da indústria, o Deep Learning. É esta tecnologia que permite, por exemplo, pesquisar por determinadas imagens no Google ou fazer tradução em tempo real no serviço de videoconferência Skype da Microsoft. Dois exemplos de como a IA já é muito utilizada no dia-a-dia.

No caso do Go, os investigadores recorreram à Internet, onde acederam a uma coleção com 30 milhões de movimentos de jogadores humanos, a base para treinar o AlphaGo. Mas esta primeira parte do treino só seria suficiente para, na melhor das hipóteses, tornar o sistema tão bom quanto os humanos usados como modelos. A parte mais interessante veio depois: fazer o sistema defrontar-se a si próprio consecutivamente de modo a aprender novas jogadas, tornando-se cada vez mais forte, técnica conhecida por “aprendizagem por reforço”.

Robôs que aprendem pedindo ajuda

Quem visita pela primeira vez Manuela Veloso no departamento da ciência da computação da na Universidade Carnegie Mellon é, normalmente, surpreendido por um dos CoBots, robôs que se deslocam livremente nas instalações e que detêm o recorde mundial da maior distância percorrida de modo autónomo (já ultrapassaram os mil quilómetros). O robô é perfeitamente capaz de encaminhar o visitante até ao gabinete da investigadora entre os muitos corredores e os nove andares do edifício. A professora na Universidade Carnegie Mellon nos Estados Unidos é uma das investigadoras na área da IA e robótica mais conceituadas a nível mundial. Por cá é mais conhecida por ter sido uma das fundadoras da RoboCup, uma liga de futebol robótico onde as equipas portuguesas já conseguiram bons resultados em vários campeonatos internacionais. O RoboCup tem como meta final ganhar à seleção campeã do mundo até 2050. Objetivo que, garante a investigadora, continua válido. No RoboCup como no futebol humano, as equipas que têm mais sucesso são aquelas que sabem tirar melhor partido do entrosamento entre os jogadores. Cada um dos robôs toma decisões individuais, criadas a partir da análise da situação em que se encontra em todos os momentos do jogo, mas a ligação entre os jogadores cria também um género de IA coletiva.

A entreajuda é evidente nos CoBots, como salienta Manuela Veloso : «quando um dos meus CoBots encontra-se numa situação nova é capaz de pedir ajuda a um outro CoBot ou até mesmo à Internet através de pesquisas». Isto significa que os robôs não estão limitados a realizar tarefas para os quais foram programados. Os CoBots são capazes de aprender de modo autónomo através de comunicação com outros agentes, que até podem ser humanos. Por exemplo, como os CoBots não têm braços, estes robôs pedem ajuda a pessoas com que se cruzam para pressionar os botões nos elevadores ou para moverem objetos. De um modo simples, quando não sabem ou não podem, perguntam ou pedem, uma característica que partilham com os humanos.

Manuela Veloso vê a vitória do AlphaGo como «um passo importante no desenvolvimento da IA porque é um bom exemplo de junção de um método de busca mais tradicional, como a análise de árvores de jogo, com a capacidade de fazer escolhas baseadas na análise do valor dos dados que processou», acrescentando «ao contrário, por exemplo, do Deep Learning do Facebook, que se limita a classificar, o Deep Mind é capaz de aprender a tomar decisões. Não é que não seja difícil, por exemplo, identificar o que está numa imagem, mas é bem mais complexo combinar a classificação com uma sequência de decisões que são combinadas para determinado objetivo». Mas mesmo a vitória do AlphaGo está, para a investigadora, ainda longe de tornar a IA próxima da inteligência humana: «O jogo do Go, embora seja muito complexo, é o que chamamos de problema de informação completa. Não há incerteza, as regras são conhecidas e todo o tabuleiro é visível. O que impressiona aqui é, de facto, a complexidade, mas é muito mais difícil trabalhar com problemas de informação incompleta, como aqueles que nós, humanos, resolvemos constantemente».

«Com a IA estamos a invocar o diabo»

A expressão é de Elon Musk, provavelmente o empreendedor mais admirado do momento, até porque é reconhecido como um homem que quer mudar o mundo. Adepto das energias renováveis e da exploração espacial, lidera a Tesla, o fabricante de carros elétricos e de baterias de grande capacidade, e a SpaceX, que tem como objetivo levar o homem a colonizar Marte. Apesar do currículo completamente ligado à inovação tecnológica, ou talvez por isso, o empresário tem sido um dos mais acérrimos críticos do desenvolvimento da IA, que considera ser a «mais séria ameaça à sobrevivência da espécie humana», opinião que apresentou numa conferência no reputado Instituto de Tecnologia de Massachusetts (MIT). Alguns cenários previstos por Elon Musk parecem ter saído de filmes de ficção científica como o Exterminador ou Matrix, onde as máquinas ganham inteligência e acabam por tomar decisões contrárias ao interesse humano. Opinião partilhada por outros especialistas de diferentes áreas, como é o caso do filósofo Nick Bostrom, professor na Universidade Oxford, que coloca a IA na lista de “Riscos Existenciais”, um trabalho publicado em 2001, que enumera as ameaças que podem destruir a humanidade.

Ameaça ou não, o desenvolvimento da inteligência artificial nunca foi tão rápido como agora graças a uma corrida onde participam algumas das maiores e mais ricas empresas do mundo. A Google, a Microsoft, a IBM, a Apple, a Facebook e a Baidu (líder das pesquisas na China) têm investido milhares de milhões de euros no desenvolvimento e aquisição de laboratórios dedicados à inteligência artificial. Uma consequência dos dados que todos nós criamos e publicamos na Internet e que têm um valor extremamente elevado para quem os conseguir processar de modo a extrair informação útil. Do mesmo modo que o DeepMind usou os dados disponíveis na Internet para aprender a ser o melhor jogador de Go, o Facebook e a Google, por exemplo, querem saber o mais possível sobre os hábitos de consumo dos utilizadores de modo a valorizarem a publicidade que apresentam.

Este controlo da informação torna-se ainda mais importante com o advento da Internet das Coisas, uma tendência tecnológica que prevê que todos os dispositivos vão acabar ligados à Internet, desde relógios inteligentes, que medem dados fisiológicos do utilizador, até os frigoríficos que conhecem os hábitos de consumo das famílias. Todos estes aparelhos vão criar uma imensidão de dados que vão precisar de ser tratados de um modo que, simplesmente, não está ao alcance dos sistemas informáticos tradicionais. Razões de sobra para justificar os investimentos milionários referidos.

E é esta corrida à IA que preocupa Elon Musk e muitos outros estudiosos do assunto. O empreendedor tem investido milhões em organizações que se destinam a desenvolver mecanismos de segurança na IA. O melhor exemplo é a OpenAI, uma startup criada para competir com os gigantes como a Google e o Facebook, mas com objetivos bem diferentes. Trata-se de uma organização sem fins lucrativos que pretende desenvolver a IA de modo aberto, ou seja, criar algoritmos que depois são partilhados gratuitamente com outras organizações e investigadores. Além de Musk, a OpenAI tem a participação e o apoio de grandes nomes das tecnologias, como Reid Hoffman, cofundador da LinkedIn, e Alan Kay, considerado um dos pais do PC. No conjunto, os apoiantes contribuíram com cerca de mil milhões de dólares para o projeto, cujo diretor de pesquisa e desenvolvimento é Ilya Sutskever, que já foi um investigador de topo em IA na Google.

Manuela Veloso também lidera um dos projetos que recebeu uma bolsa de um fundo cofinanciado por Elon Musk. «Estou a trabalhar em formas de fazer com que os sistemas de IA expliquem as suas decisões aos humanos. Quando, por exemplo, um dos meus robôs entra no meu gabinete eu gostaria de poder perguntar-lhe: O que aconteceu? O que vais fazer? Porque tomaste essa decisão? Até posso programar os robôs para responder a cada uma destas perguntas, mas ainda não há um programa para responder a perguntas em geral», explicou a investigadora, que salienta que «o que Elon Musk e outros querem é garantir a ética da IA na sociedade, o que acho muito bem».

Mas com a evolução das tecnologias que permitem o autodesenvolvimento da IA, será que o risco de virmos a ser dominados pelas máquinas é mesmo real? Manuela Veloso não descarta por completo a possibilidade, mas acredita que «não vamos ser espectadores no futuro, mas sim atores», adicionando: «Qualquer tecnologia pode ter bom e mau uso, mas não é por isso que devemos parar. O desenvolvimento da IA e da robótica têm um grande potencial para ajudar as pessoas, como é o caso idosos ou portadores de deficiência, em variadíssimas tarefas, muitas delas extremamente complexas. As pessoas têm de saber que podem interagir com os sistemas para questionar, perceber e corrigir a IA. Só assim vamos gerar confiança. Este conceito é muito importante. Estou agora a trabalhar muito nesta temática, as “explicações em sistemas de IA”, uma área de investigação que está a crescer muito».

Vídeo (em inglês): CoBots em ação

Trabalhar para o bem da humanidade

Ana Paiva, investigadora na área da relação dos humanos com os robôs, tem uma opinião semelhante relativamente ao risco das máquinas se amotinarem: «Há sempre coisas que podem acontecer, mas temos de acreditar que quem desenvolve coloca lá mecanismos para impedir que isso aconteça». A investigadora está envolvida no Global Agenda Council do Fórum Económico Mundial dedicado a inteligência artificial e robótica: «A discussão tem sido intensa, mas uma das conclusões é que há maneiras de prevenir que aconteçam coisas que prejudiquem a humanidade. E há formas de encaminhar a tecnologia para o bem da sociedade». A investigadora portuguesa fez parte do júri do “Prémio IA e robótica para o bem”, que decorreu no início de fevereiro no Dubai, Emiratos Árabes Unidos, onde a vitória foi para um exosqueleto pediátrico de baixo custo para crianças com problemas neurológicos. «É um exemplo de como a robótica vai resolver problemas reais e como esta tecnologia pode melhorar muito a vida das pessoas», sublinhou Ana Paiva sem esconder o entusiamo.

Apesar de ainda não se conhecerem máquinas com capacidade para tomar decisões contrárias à vontade dos seus criadores, a discussão sobre a ética e regulamentação da IA já começou em vários centros de investigação e universidades. A investigadora considera que «está na altura de se discutir seriamente esta problemática», embora acredite que «é preciso ter muito cuidado com a regulamentação para não restringir o desenvolvimento e a investigação».

As grandes empresas da área já perceberam o impacto negativo que a ideia das “ascensão das máquinas” está a ter junto do público e começaram a criar e a apoiar projetos para demonstrar as consequências positivas de se prosseguir com a investigação. É o caso da IBM, que marcou a história da inteligência artificial diversas vezes, com destaque para a primeira vitória de um computador, o Deep Blue, num jogo com um campeão do mundo de Xadrez, Garry Kasparov. Aconteceu em 1997, um ano após o primeiro encontro entre a máquina e o humano ter sido favorável para Kasparov. A marca norte-americana anunciou a 17 de fevereiro o patrocínio do XPRIZE, um novo concurso que convida equipa de todo o mundo a apresentarem propostas sobre como a IA pode ajudar a resolver os problemas mais desafiantes da humanidade. No anúncio do A.I. XPRIZE, Stephanie Wander, a líder do concurso, deu alguns exemplos do que se pretende: «Imaginem um sistema de aprendizagem onde podemos aprofundar qualquer tema», ou «uma app que apresente o melhor tratamento para cada doente». Os concorrentes têm três anos para desenvolver as ideias e as três melhores serão publicamente apresentadas ao público das famosas conferências TED, que decidirá quem vai ganhar o prémio de cinco milhões de dólares.

O Deep Blue que venceu Kasparov é, para os padrões atuais, um sistema ultrapassado. Agora, a grande aposta da IBM é o Watson, um nome humano dado a uma plataforma tecnológica capaz de tirar conclusões úteis a partir de grandes quantidades de dados. E, não menos interessante, o Watson comunica com os humanos em linguagem natural. Este computador, ou melhor, este conjunto de computadores tem tido os mais variados tipos de utilização, tanto a nível comercial como em investigação. O Watson é reconhecido pela grande eficácia com que consegue descartar informação não relevante, encontrar relações entre dados das mais diferentes origens e apresentar conclusões úteis. Tanto pode ser usado para criar receitas culinárias originais como para apresentar o melhor tratamento para um doente com cancro. Como é comum nos sistemas que recorrem ao Deep Learning, quanto mais dados são fornecidos ao Watson, melhores são os resultados. Ou seja, quanto mais receitas, críticas gastronómicas e informação sobre nutricional sobre os alimentos o Watson conhecer, melhores serão as receitas originais propostas.

No mesmo evento de apresentação da iniciativa, David Kenny, o diretor geral do IBM Watson, refirmou as expetativas de boa parte da comunidade científica: «A Internet foi um avanço gigantesco em ligar as pessoas à informação. Agora, a IA é a tecnologia que está a usar a informação para tomarmos melhores decisões, inspirar novas ideias e democratizar a especialização».

Ana Paiva, investigadora na área da relação dos humanos com os robôs e professora no Instituto Superior Técnico (foto Nuno Botelho)

Ana Paiva, investigadora na área da relação dos humanos com os robôs e professora no Instituto Superior Técnico (foto Nuno Botelho)

A relação homem-máquina

Como professora do Instituto Superior Técnico, Ana Paiva é responsável por duas disciplinas que demonstram bem o estado de desenvolvimento a que robótica está a chegar: Computação Afetiva e Robôs Sociais e Interação Pessoa Robôs. Nestas áreas de estudo analisa-se as emoções e reações «para que a reposta dos agentes, robôs ou aplicações levem em consideração o estado da pessoa», e desenvolvem-se «algoritmos e formas de agir inspiradas na forma de atuar dos humanos».

O objetivo é simples de perceber: tornar a interação entre humanos e agentes artificiais mais simples. Ana Paiva dá o exemplo dos automóveis: «Se conseguir falar com o meu carro de uma forma o mais natural possível, tudo é muito mais simples. A interação inspirada na forma como agimos pode até dispensar a aprendizagem por parte do humano». Esta naturalidade será ainda mais importante «quando os robôs se tornam mais antropomórficos porque, caso contrário, o robô torna-se estranho».

Quanto mais natural for a comunicação, mas fortes poderão ser os laços entre o homem e a máquina, o que, no limite, poderá levar-nos a deixar de fazer uma distinção clara entre a inteligência artificial e a inteligência humana. Na realidade, isto já acontece, exemplo, em sistemas de atendimento telefónico ou via Web em que se utiliza linguagem natural para interagir com os clientes. Em muitos casos, os clientes destes serviços nem se apercebem que estão, na verdade, a falar com um agente artificial. A famosa Siri dos iPhone e a mais recente Cortana da Microsoft, são dois exemplos já disponíveis que demonstram como os humanos estão a recorrer a assistentes digitais. Estes dois agentes de IA também utilizam as técnicas de análise de grandes quantidades de dados disponíveis online para estabelecerem uma comunicação mais rica com os humanos. Apesar de não serem muito conhecidas dos portugueses porque ainda não falam a língua de Camões – a Siri está disponível em Português do Brasil e a Cortana ainda não está disponível para Portugal –, estas assistentes pessoais são capazes de manter conversas com alguma sofisticação com os seus utilizadores. Podem, por exemplo, facilmente marcar uma reunião na agenda, ler um e-mail ou chamar a atenção para problemas de trânsito.

E, de acordo com Manuela Veloso, é exatamente na assistência aos humanos que vamos ver a IA a ser utilizada com excelentes resultados para a sociedade. A investigadora não tem dúvidas ao afirmar que as capacidades da IA em «processar dados, gerar hipóteses, fazerem testes exaustivos» vão levar «a colaborações entre humanos e agentes artificiais que, juntos, acabarão por ganhar um prémio Nobel».

Imitação do cérebro: a ajuda que veio dos videojogos

Os sistemas de Deep Learning baseiam-se nas redes neuronais, uma arquitetura que imita o cérebro humano. Os sistemas baseados nesta tecnologia são capazes de aprender com base na análise de grandes quantidades de informação. Para o efeito, as redes neuronais estão organizadas em camadas. Cada camada tem um trabalho específico. Por exemplo, num sistema de reconhecimento de faces, uma primeira camada pode procurar por conjuntos de píxeis (pontos que constituem a imagem) que respondam a determinados critérios, uma segunda camada pode identificar margens e sombras, uma terceira camada pode procurar por formas semelhantes aos olhos humanos e por aí adiante. Como a informação é filtrada nas primeiras camadas, as últimas podem dedicar-se a operações mais abstratas, mais difíceis de processar. Seguindo o mesmo exemplo, só vale a pena identificar caras numa imagem que o sistema já sabe que inclui faces humanas. Como explica Ana Paiva, professora catedrática no Instituto Superior Técnico e investigadora na área da robótica, «ao contrário dos métodos tradicionais de desenvolvimento de IA, onde são os humanos que criam todas as regras, o Deep Learning permite extrair características de modo mais automático. E isso faz com que toda a aprendizagem seja muito mais rápida e mais autónoma. Aliás, esse é o nosso grande objetivo: tornar as máquinas mais autónomas».

Estas redes neuronais não são novas. Na verdade, há registos de utilização desta arquitetura desde os anos 60. Mas estavam normalmente limitadas a apenas uma camada usando poucos processos (ou neurónios) porque os chips de processamento não tinham grande capacidade. Com o desenvolvimento da tecnologia, a capacidade de processamento melhorou significativamente, mas as limitações continuaram a ser grandes porque utilizavam-se processadores pouco especializados, de âmbito geral. Como os processadores centrais que estão nos nossos computadores. A revolução na capacidade de processamento veio de uma área inesperada: os videojogos. Para garantir gráficos cada vez mais sofisticados, os fabricantes e chips desenvolveram unidades de processamento especializadas, capazes de fazer determinadas tarefas de um modo exponencialmente mais rápido que os processadores de utilização mais ampla. E são esses chips e derivados que fizeram disparar o número de camadas e de neurónios utilizados em sistemas de Deep Learning. Em muitos casos são utilizados chips especializados para cada camada de análise.

Foi utilizando estas tecnologias que em 2014 o Facebook apresentou o DeepFace, um algoritmo que consegue reconhecer, com uma eficácia semelhante à da observação humana, a presença de caras em fotos, mesmo em imagens mal iluminadas e quando as faces apenas aparecem parcialmente.

Mais empregos perdidos do que criados

Em janeiro, o Fórum Económico Mundial lançou uma previsão pouco animadora: o desenvolvimento da robótica e da inteligência artificial vai levar a uma perda total de 7,1 milhões de empregos até 2020. No entanto, espera-se a criação de dois milhões empregos, o que significa que a perda efetiva é de 5,1 milhões de trabalhos. O estudo, que analisa o impacto de diversas tecnologias, como a robótica, a impressão 3D e a nanotecnologia, considera que dois terços das perdas de empregos projetadas vão acontecer nos setores administrativos, onde cada vez mais as máquinas vão executar tarefas rotineiras.

Os novos empregos que vão ser criados são nas áreas relacionadas com a análise de dados e com as vendas especializadas. As previsões são especialmente más para as mulheres, já que se prevê que a maioria da perda de postos de trabalho vai acontecer em áreas normalmente ocupadas por trabalhadoras.

Leituras recomendas
The Fourth Industrial Revolution: what it means, how to respond - http://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond
Why 2015 Was a Breakthrough Year in Artificial Intelligence - http://www.bloomberg.com/news/articles/2015-12-08/why-2015-was-a-breakthrough-year-in-artificial-intelligence

  • 333