Por que a IA é a “nova eletricidade”

Assim como a eletricidade transformou a maneira pela qual as indústrias funcionavam no século passado, a inteligência artificial (IA) ─ a ciência que programa habilidades cognitivas em máquinas ─ tem o poder de mudar drasticamente a sociedade nos próximos 100 anos. A IA está sendo trabalhada para fazer coisas como robôs domésticos, táxis-robôs e chatbots especializados em saúde mental, tudo para o bem-estar do usuário.

Há uma start-up desenvolvendo robôs com IA que os aproxima da inteligência humana. A IA, aliás, já está se insinuando na vida cotidiana ─ é ela que está por trás dos assistentes digitais Siri e Alexa. Ela permite ao consumidor comprar e pesquisar online com maior precisão e com mais eficiência, entre outras tarefas das quais as pessoas nem se dão conta.

“A IA é a nova eletricidade”, disse Andrew Ng, um dos fundadores do Coursera e professor adjunto de Stanford, responsável pela criação do Projeto Google de Aprendizagem Mental Profunda. A frase foi dita durante a palestra de abertura do congresso AI Frontiers [Fronteiras da IA], realizado no final da semana passada no Vale do Silício. “Há cerca de 100 anos, a eletricidade transformou todas as grandes indústrias. A IA avançou de tal modo que pode” transformar os principais setores industriais nos próximos anos. Embora exista a percepção de que a IA é algo que se desenvolveu recentemente, na verdade ela existe há décadas, disse Ng. Contudo, só agora está decolando devido à sua capacidade de trabalhar com escala de dados e de computação.

Ng disse que a maior parte do valor criado pela IA hoje se deve à aprendizagem supervisionada, em que a entrada de X leva a Y. Contudo, houve duas grandes ondas de progresso: a primeira delas recorreu à aprendizagem profunda para tornar possíveis coisas como prever se o consumidor clicará em um anúncio online depois de o algoritmo ter reunido informações a seu respeito. A segunda onda veio quando a saída de dados deixou de ser um número ou uma integral dando lugar a coisas como o reconhecimento de voz, a estrutura de uma frase em outra língua ou um áudio. Por exemplo, nos carros autoguiados, a entrada de uma imagem pode levar a uma saída de dados com a posição dos outros carros na estrada.

A aprendizagem profunda ─ em que o computador aprende com conjuntos de dados a executar funções, em vez de realizar apenas tarefas específicas para as quais foi programado ─ foi fundamental para que se chegasse à paridade humana no caso do reconhecimento de voz, disse Xuedong Huang, líder da equipe da Microsoft por ocasião da conquista histórica de 2016, quando seu sistema registrou um índice de erros de 5,9%, o mesmo de uma transcrição feita por um humano. “Graças à aprendizagem profunda, pudemos chegar à paridade humana depois de 20 anos”, disse ele em um congresso. Desde então, a equipe reduziu ainda mais seu índice de erros chegando a 5,1%.

A ascensão dos assistentes digitais

A partir de 2010, a qualidade do reconhecimento de voz na indústria começou a melhorar, o que levou à criação do Siri e do Alexa. “Agora, passa quase que despercebido”, disse Ng. Mas isso não é tudo. O reconhecimento de voz deverá tomar o lugar da digitação por toque na entrada de dados, disse Ruhi Sarikaya, diretor da Amazon Alexa. A chave para uma maior precisão consiste em compreender o contexto. Por exemplo, se uma pessoa pergunta a Alexa o que deve fazer para o jantar, o assistente digital terá de avaliar a intenção do usuário. Ele está pedindo a Alexa que faça uma reserva em um restaurante, quer que ele peça comida ou encontre uma receita? Se pedir a Alexa que encontre “Hunger Games”, ele quer que o assistente busque a música, o vídeo ou o audiolivro? O que o futuro reserva para o assistente digital é algo ainda mais avançado: compreender “o sentido além das palavras”, disse Dilek Hakkani-Tur, cientista pesquisador do Google. Por exemplo, se a pessoa usar as palavras “logo mais à tarde”, ela poderá estar se referindo a um período entre 7 e 9 horas da noite, no caso de um jantar, ou entre 3 e 4 horas da tarde, no caso de uma reunião. O próximo nível dará conta também de diálogos mais complexos e dinâmicos, tarefas em áreas variadas e interações entre fronteiras de domínios, disse Dilek Hakkani-Tur.

Além disso, prosseguiu Hakkani-Tur, os assistentes digitais deverão ser capazes de fazer coisas como ler e resumir e-mails facilmente.

Depois do reconhecimento de voz, a “visão de computador” ─ ou a capacidade de reconhecer imagens e classificá-las ─ foi o salto seguinte, disseram os palestrantes. Com tanta gente fazendo upload de imagens e de vídeos, ficou contraproducente adicionar metadados ao conteúdo para classificá-lo. O Facebook desenvolveu uma IA para compreender e classificar vídeos em grandes quantidades chamada de Lumos, disse Manohar Paluri, líder do setor de pesquisas na empresa. O Facebook usa o Lumos, por exemplo, para coletar dados de imagens e de vídeos em que apareçam fogos de artifício. A plataforma também pode usar a pose das pessoas para identificar um vídeo: por exemplo, ele classifica como passar (ou matar) o tempo pessoas que estejam em posição descontraída em almofadas.

É imprescindível determinar o conteúdo semântico elementar do vídeo postado, acrescentou Rahul Sukthankar, diretor de compreensão de vídeo do Google. E para ajudar o computador a identificar corretamente o conteúdo do vídeo ─ por exemplo, se são profissionais ou amadores que aparecem dançando ─ sua equipe garimpa o YouTube em busca de conteúdo semelhante com o qual a IA possa aprender ─ como, por exemplo, a existência de uma certa velocidade de quadro para o conteúdo não profissional. Sukthankar acrescenta que uma direção promissora para futuras pesquisas consistirá em treinamentos por meio do computador usando vídeos. Assim, se for mostrado a um robô o vídeo de uma pessoa colocando cereais em uma tigela de vários ângulos diferentes, ele deverá aprender vendo o vídeo.

No Alibaba, a IA é usada para estimular as vendas. Por exemplo, quem compra no Taobao, site de comércio eletrônico da empresa, pode fazer o upload da imagem de um produto que gostaria de comprar: por exemplo, uma bolsa da moda usada por um desconhecido na rua. O site exibirá então várias bolsas à venda que se pareçam com a da foto postada. O Alibaba recorre também à realidade aumentada e virtual para que as pessoas vejam e comprem de lojas como a Costco. No Youku, site de vídeos da empresa semelhante ao YouTube, o Alibaba está desenvolvendo uma forma de inserir objetos em 3D nos vídeos postados pelos usuários para elevar a receita. Isso se deve ao fato de que muitos sites de vídeo se esforçam para ser rentáveis. “O YouTube ainda tem prejuízo”, disse Xiaofeng Ren, cientista chefe do Alibaba.

Rosie e o robô doméstico

No entanto, apesar de todos os avanços no campo da IA, ela ainda não é páreo para o cérebro humano. Vicarious é uma start-up cujo objetivo é preencher essa lacuna através do desenvolvimento da inteligência de nível humano em robôs. Dileep George, fundador da empresa, disse que já existem componentes para robôs mais inteligentes. “Temos motores mais baratos, sensores, baterias, plásticos e processadores […] então por que ainda não temos a Rosie?” Ele se referia à empregada robô que realizava várias funções no desenho animado dos anos 60, Os Jetsons, cujas histórias se passavam na era espacial. George compara o nível atual da IA, que ele chama de “cérebro velho”, com a habilidade cognitiva dos ratos. O “cérebro novo” é mais desenvolvido, conforme vemos em primatas e baleias.

George disse que a IA de “cérebro velho” se confunde quando há mudanças em dados de entrada de pequeno porte. Por exemplo, um robô capaz de jogar videogame se atrapalha todo quando as cores ficam apenas 2% mais intensas. “A IA de hoje ainda não está pronta”, disse. A Vicarious usa a aprendizagem profunda para que o robô fique mais próximo da capacidade de reconhecimento do ser humano. No mesmo teste, um robô com IA da Vicarious continuou a jogar embora a intensidade das cores tivesse sido alterada. Outra coisa que confunde o “cérebro velho” da IA ocorre quando se colocam dois objetos juntos. As pessoas conseguem distinguir duas coisas superpostas uma à outra como, por exemplo, uma caneca de café que obscurece em parte um vaso numa foto, mas os robôs o confundem com um objeto não identificado. A Vicarious, que tem entre seus investidores Mark Zuckerberg, CEO do Facebook, pretende solucionar esse tipo de problema.

A inteligência no interior do Kuri, um robô feito para servir de companhia e de câmera para o lar, é diferente. Kaijen Hsiao, diretor de tecnologia da empresa de criação Mayfield Robotics, disse que há uma câmera atrás do olho esquerdo do robô que filma em HD. O Kuri tem sensores de profundidade que mapeiam a casa e usam imagens para aperfeiçoar a navegação. Ele está equipado também com recursos para detecção de animais de estimação e de pessoas, de modo que possa sorrir ou reagir na presença deles. O Kuri opera também com reconhecimento espacial, de modo que possa se lembrar que já esteve em um determinado lugar antes, mesmo que a iluminação seja alterada como, por exemplo, o ambiente da cozinha durante o dia e à noite. A seleção do momento é outra característica do robô, o que lhe permite reconhecer vídeos similares gravados por ele ─ como o do pai que brinca com o bebê na sala de estar ─ deletando outros parecidos.

“Seu trabalho é levar para a casa do usuário um pouco de vida. Ele proporciona entretenimento ─ pode tocar música, podcasts, audiolivros. O usuário pode ver o que se passa em sua casa de qualquer lugar”, disse Hsiao. Kuri é a câmera da família: ele sai pela casa gravando e não deixa ninguém de fora. O robô escolhe os vídeos e exibe os melhores. Para isso, Kuri usa algoritmos de visão e de aprendizagem profunda. “O que ele tem de especial é a personalidade […] É uma companhia agradável”, disse Hsiao. Kuri chegará ao mercado em dezembro por US$ 799.

Resposta das empresas à IA

Os EUA e a China lideram o mundo dos investimentos em IA, conforme explica James Manyika, presidente e diretor do Instituto Global McKinsey. No ano passado, o investimento em IA na América do Norte ficou entre US$ 15 bilhões e US$ 23 bilhões, na Ásia (principalmente na China), o total foi de US$ 8 bilhões a US$ 12 bilhões, tendo a Europa ficado para trás com US$ 3 bilhões a US$ 4 bilhões. As gigantes da tecnologia são os principais investidores em IA, despejando no setor entre US$ 20 bilhões e US$ 30 bilhões, além de US$ 6 bilhões a US$ 9 bilhões oriundos de outros setores, tais como capitalistas de risco e empresas de private equity.

Onde esse dinheiro foi investido? A aprendizagem de máquina ficou com 56% dos investimentos, a visão através computador ficou em segundo lugar, com 28%. A linguagem natural respondeu por 7%, os veículos autônomos, 6%, e os assistentes virtuais receberam o restante dos investimentos. Contudo, apesar do nível de investimento, a adoção efetiva da IA pelas empresas continua limitada, até mesmo entre empresas que reconhecem as capacidades da IA, disse Manyika. Cerca de 40% delas estão analisando o assunto, 40% já fizeram experiências e apenas 20% adotaram de fato a IA em algumas poucas áreas.

A razão para tal reticência se explica pelo fato de que 41% das empresas pesquisadas não estão convencidas de que terão retorno com o investimento feito; 30% disseram que não há propriamente ainda um estudo de viabilidade e o restante disse que não têm os recursos para lidar com a IA. Contudo, McKinsey acredita que a IA pode mais do que duplicar o impacto de outras analíticas e tem o potencial para melhorar materialmente o desempenho das empresas.

Algumas companhias entendem o que isso significa. Entre os setores que lideram o setor de IA estão as empresas de telecomunicações e de tecnologia, instituições financeiras e fabricantes de automóveis. Manyika disse que essas empresas pioneiras no setor costumam ser de maior porte e digitalmente maduras, incorporando a IA a atividades básicas, privilegiando o crescimento e a inovação em detrimento da economia de custos, além de contar com o apoio dos executivos que dirigem a empresa. As empresas que demoram mais a adotar a IA são as da área de saúde, viagens, serviços profissionais, educação e construção. Contudo, à medida que a IA for se tornando mais amplamente disseminada, será apenas uma questão de tempo até que as empresas passem a usá-la, dizem os especialistas.

Citando a Universia Knowledge@Wharton

Close


Para uso pessoal:

Por favor, use as seguintes citações para referências de uso pessoal:

MLA

"Por que a IA é a “nova eletricidade”." Universia Knowledge@Wharton. The Wharton School, University of Pennsylvania, [19 November, 2017]. Web. [15 December, 2018] <http://www.knowledgeatwharton.com.br/article/por-que-ia-e-nova-eletricidade/>

APA

Por que a IA é a “nova eletricidade”. Universia Knowledge@Wharton (2017, November 19). Retrieved from http://www.knowledgeatwharton.com.br/article/por-que-ia-e-nova-eletricidade/

Chicago

"Por que a IA é a “nova eletricidade”" Universia Knowledge@Wharton, [November 19, 2017].
Accessed [December 15, 2018]. [http://www.knowledgeatwharton.com.br/article/por-que-ia-e-nova-eletricidade/]


Para fins Educacionais/Empresariais, use:

Favor entrar em contato conosco para usar com novos propósitos artigos, podcasts ou vídeos através do nosso formulário de contato para licenciamento de conteúdo. .

 

Join The Discussion

No Comments So Far