O Canal Meio é editado por Pedro Dória, um dos melhores jornalistas brasileiros especializados em tecnologia da informação.
O Canal Meio seleciona diariamente as principais notícias no Brasil e no mundo.
Ele preparou um dossiê sobre tudo o que você deve saber sobre Inteligência Artificial.
No ano que vem, quando os Jogos Olímpicos chegarem ao Japão, Nissan e Toyota planejam fazer desfilar pelas ruas de Tóquio carros autônomos de nível 4.
São aqueles nos quais o ‘motorista’ pode se distrair à vontade — o carro faz tudo por conta própria. E não tem como negar, mesmo para quem já andou num destes, que há um quê de mágico nisso.
Um carro que se comporta como gente ao volante — ou até melhor. Não é à toa que é uma tecnologia com cara de mágica. Porque, para que o carro andasse sozinho, foi preciso antes mudar por completo a maneira como se pensa software.
Na última década, desenvolveu-se o que hoje chamamos de ‘inteligência artificial’. É um jeito radicalmente diferente de fazer software que só agora começa a ser aplicado. Nossa vida vai mudar muito conforme estas aplicações surjam.
Cedo pela manhã, no dia 8 outubro de 2005, um pequeno grupo de times se reuniu no deserto de Mojave, entre os estados da Califórnia e Nevada, para disputar pela segunda vez um concurso financiado pelo Exército Americano.
Venceria quem conseguisse completar um circuito de 212 km em menos de dez horas com um veículo robô.
Não por controle remoto, mas autônomo. Nunca havia sido feito. No ano anterior, o melhor carro percorrera menos de 12 km.
Mas desta vez foi distinto: quatro completaram o percurso, e o mais rápido, aquele projetado pelo professor alemão Sebastian Thrun, da Universidade de Stanford, o fez em 6 horas, 54 minutos. Valeu a eles o prêmio de US$ 1 milhão e, a Thrun, um emprego no Google.
O primeiro carro autônomo projetado por Thrun no Google saiu das garagens da empresa para rodar pelas ruas em 2009. Com motorista.
Ao longo do tempo, mais e mais protótipos foram criados. Se no início circulavam apenas no pátio da garagem, com o tempo ganharam as ruas da pequena cidade de Mountain View e, então, as estradas da Califórnia.
Eram carros com sensores de todo tipo: câmeras, sonares, GPS. Cada sensor produzindo dados devidamente armazenados a respeito de tudo que ocorria em volta. Se o sinal fechava, se alguém atravessava, ou quando uma bola corria seguida dum menino.
Este grande banco de dados registrava também tudo o que fazia o motorista: com que pressão apertava no freio, como girava o volante, em que momento ligava a seta.
Quanto mais carros e mais viagens, maior ficava este banco de dados que relacionava as ações de quem dirige com o que ocorre externamente.
Porque, para resolver o problema, os engenheiros não escreveram um software que ensinasse o carro a dirigir.
Tentaram um outro caminho: que o carro aprendesse por conta própria, seguindo o exemplo de uma pessoa. Se sempre que uma bola corre o motorista freia, aquilo é um comportamento a seguir. Claro: uns freiam de forma mais abrupta, outros com mais suavidade, mas tirando sempre uma média, o programa aprende. E aprende melhor conforme mais dados recebe.
É por isto que Big Data é importante. Big Data, grandes bases de dados sobre um tema específico, é o que informa o aprendizado da máquina.
Se é uma boa base, grande e com muita diversidade de exemplos, a máquina aprenderá bem. Com dados piores, ela será pior. Inteligência artificial é um nome ruim e impreciso. Quer dizer muitas coisas.
Hoje, quando falamos de IA, falamos na verdade sobre uma das formas de IA: Aprendizado de Máquina. Ou, no termo habitualmente usado em inglês, Machine Learning.
Se antes engenheiros, para resolver um problema, escreviam um software em que se viam obrigados a prever cada possibilidade que pudesse ocorrer, com Machine Learning a lógica é outra. Pega-se um banco de dados com casos do mundo real e se apresenta ao computador para que ele aprenda como agir.
Nunca ninguém havia conseguido construir um carro autônomo. Com a nova técnica, se tornaram viáveis em dez anos. Não são, nem de longe, o único caso.
A indústria dos smartphones percebeu desde o início que as pessoas queriam tornar aqueles aparelhos suas câmeras digitais.
Mas, com lentes tão pequenas e parco espaço para os sensores que interpretam as imagens capturadas, a tarefa de melhorar a qualidade parecia impossível. Até o momento em que se aplicou machine learning.
Este é um processo que começou em 2015, quando o Google lançou o app Photos. Era um salto imenso perante tudo que havia no mercado, um software capaz de pegar a biblioteca de milhares de fotos que todos temos e organizá-la.
Capaz de reconhecer que uma imagem foi feita em Paris, que outra é uma mesa de café da manhã, e distinguir um panda de uma vaca holandesa.
O banco de dados que treinou este software foi a web aberta, com suas milhões fotografias com legendas escritas por pessoas.
Cada uma das tantas fotos de panda publicadas na rede permitiu que o computador buscasse os padrões de similaridade e aprendesse como reconhecer um panda ou o que faz de uma cena algo que nós, humanos, de presto reconhecemos como café da manhã e não jantar.
O passo seguinte são as tecnologias que começamos a perceber em nossos smartphones nos últimos dois anos. O algoritmo que desfoca o fundo de um retrato, por exemplo, o faz por reconhecer que há uma pessoa ali cujo contorno pode ser recortado. Mais recentemente, nos celulares que fabrica, o próprio Google começou a adotar a técnica de não tirar uma, mas várias fotos simultaneamente.
A imagem final é a reconstrução a partir da soma de muitas. Seu Night Mode reconstrói as cores apesar da falta de luz, pois aprendeu como fica o branco, a cor de pele, o azul ou o verde quando pouco iluminado.
A tecnologia de fotografia não está mais na câmera e sim no software que reinventa aquilo que a câmera não pôde capturar.
Cada vez que alguma fotografia de panda é incluída por um usuário qualquer no Google Photos, o programa fica mais inteligente para reconhecer um panda na biblioteca de todos.
Sempre que uma foto em ambiente conhecido que permita comparação com o local de dia é batida à noite, o programa também melhora.
Esta é uma característica fundamental de aprendizado de máquina: melhora com o tempo.
O mesmo processo, recentemente, começou a ser aplicado também à masterização de músicas. É cara esta etapa final na pós-produção das faixas de um disco.
É quando a música é otimizada para soar o melhor possível não importa se reproduzida num celular, CD, se ouvida por streaming ou tocada num LP.
O volume de cada instrumento, o balanço entre caixas esquerda e direita, o som stéreo. É, se é possível assim dizer, o que dá brilho e volume.
Por isso mesmo, sempre exigiu engenheiros com ouvido musical, conhecimento técnico de gravação e reprodução, e muita experiência na mesa de edição. Mas dê a um algoritmo de aprendizado de máquina um conjunto de faixas antes e depois da masterização e, também isto, ele é capaz de aprender a fazer.
Resultando num trabalho de acabamento mais barato para artistas iniciantes. E, possivelmente, melhor do que o feito por pessoas.
As aplicações são as mais distintas.
CoreLogic, uma consultoria imobiliária em operação nos EUA, processou fotografias de pessoas presas para que o computador encontrasse padrões de similaridades.
O objetivo, um quê lombrosiano, é tentar descobrir se é possível achar no retrato de qualquer um se aquela pessoa tem potencial criminoso.
Pois é: a base de dados utilizada pode inserir um viés de todo humano nos resultados de um algoritmo.
O Google Photos, por exemplo, por ter sido alimentado com fotos de pessoas brancas, não sabia distinguir bem, no início, pessoas negras. E foi um pequeno escândalo quando um rapaz viu uma amiga sendo identificada pelo sistema como um gorila.
Da mesma forma, outro rapaz, com paralisia pós-acidente, foi impedido de voltar para casa porque seu condomínio, utilizando os programas da CoreLogic, via nele potencial criminoso. Tornou-se um drama kafkiano.
Qualquer pessoa entenderia que o jovem Mikhail Arroyo sequer teria condições físicas de ser perigoso. Mas a máquina alimentada com fotos de presos decidiu que era.
Um dos instrumentos que a nova legislação europeia de privacidade de dados impõe às empresas é que todos têm o direito de saber se um software as impediu de conseguir um seguro ou um empréstimo.
É direito do europeu — e, pela nova lei daqui, também do brasileiro — conversar com um humano e questionar a interpretação de seus dados oferecida pelo computador. A lei está se adequando aos limites da inteligência artificial.
Big Data e Machine Learning — que é o nome correto do que chamamos popularmente de IA — foram recentemente dominadas.
As aplicações estão começando a surgir por toda parte. Software capaz de interpretar exames de imagem melhor do que um médico, carros que dirigem sozinhos, máquinas fotográficas que serão brevemente capazes de enquadrar um retrato tão bem quanto Cartier-Bresson. Um celular capaz de ligar para um restaurante fazendo-se parecer humano e marcar um jantar para três.
Um grupo de físicos na startup TAE Technologies, acredita que, utilizando-se das ferramentas de aprendizado de máquina, conseguirá enfim dominar a energia na fusão nuclear. É o tipo de energia que uma estrela produz.
Seria possível, para uma usina assim, produzir muita energia com um mínimo de combustível nuclear.
Mas não é um processo que nós tenhamos sido capazes de dominar, em grande parte, por sua imensa complexidade física. Há variáveis demais em cada experimento para compreender o que está acontecendo.
É justamente onde IA melhor opera: um vasto banco de dados, muitas variáveis, o que acontece quando se encontram, quais os padrões possíveis de rastrear. Se a mente humana não consegue processar tudo ao mesmo tempo, o computador talvez possa.
As técnicas de aprendizado de máquina estão dominadas. Kai-Fu Lee, um dos principais investidores do Vale do Silício, diz que estamos entrando na Era da Implementação. Mais e mais soluções vão surgir e, numa vasta quantidade de profissões, o trabalho de muita gente vai se tornar desnecessário.
Há uma imensa transformação da sociedade que está se iniciando.
O melhor resumo sobre novidades da Inteligência Artificial publicado primeiro em https://catracalivre.com.br
Nenhum comentário:
Postar um comentário