No mundo da tecnologia, os conceitos de inteligência artificial, machine learning e deep learning estão cada vez mais difundidos, com empresas de todos os portes buscando soluções nestes tipos de tecnologia para aumentarem a eficiência em diversos setores dos negócios e buscarem a escalabilidade.
Entenda neste artigo o que está por trás dos conceitos e quais são os principais subtópicos destes tipos de tecnologia.
Como os conceitos de IA, Machine Learning e Deep Learning começaram?
A inteligência artificial (IA) tem uma longa tradição em ciências da computação.
O conceito existe desde a antiguidade, e pesquisas rigorosas em IA podem ser rastreadas até a década de 1950, quando Alan Turing estabeleceu o famoso Teste de Turing, afirmando: “Proponho considerar a questão: ‘As máquinas podem pensar?”
Anos depois, John McCarthy criou o conceito de Inteligência Artificial em 1956, quando organizou o Programa de Pesquisa de Dartmouth sobre inteligência artificial.
Qual é o objetivo da inteligência artificial?
Em sua proposta, um problema de IA é definido como “o de fazer uma máquina comportar-se de tal forma que seria chamada inteligente se um humano estivesse se comportando assim”.
Inicialmente, a pesquisa de IA se concentrava em problemas de matemática e raciocínio lógico. O foco mudou para conhecimento e sistemas na década de 1980.
Nas primeiras três décadas, a indústria, os governos e o público tinham expectativas extremamente altas para alcançar a “mítica” inteligência ao nível humano em máquinas.
Embora ambas as ondas tenham se mostrado promissoras inicialmente, elas enfrentaram desafios consideráveis e apresentaram resultados abaixo das expectativas excessivamente otimistas em seu começo.
A união entre Inteligência Artificial e Machine Learning
Desde a década de 1990 a pesquisa sobre IA se concentra principalmente em métodos de machine learning. A definição amplamente utilizada de Machine Learning é de acordo Mitchell (1997): “Diz-se que um programa de computador aprende com a experiência E em relação a alguma classe de tarefas T e medida de desempenho P, se seu desempenho em tarefas em T, medido por P, melhora com a experiência E”.
Embora tenha evoluído separadamente, machine learning tornou-se o principal paradigma da pesquisa em IA e é normalmente considerado um subcampo da IA (Goodfellow, Bengio, & Courville, 2016, p.9).
A última década testemunhou avanços impressionantes no desempenho da IA, no reconhecimento de imagens, processamento de fala, direção autônoma e muitas outras tarefas normalmente consideradas como demonstração de inteligência ao nível humano.
O surgimento do deep learning
Por trás de grande parte desse avanço está o deep learning (LeCun, Bengio, & Hinton, 2015), métodos que usam vários níveis de representação normalmente implementados usando redes neurais com várias camadas ocultas, combinados com o advento do big data e o crescimento exponencial em hardware.
Depois, outros métodos de machine learning também se beneficiaram dessa tendência e expandiram suas aplicações. Na imagem a seguir temos um breve resumo da história da inteligência artificial, começando pela própria IA em 1950, passando por Machine Learning nos anos 80 até 2010 e finalizando com Deep Learning que teve seu início na década de 2010.
Inteligência Artificial, Machine Learning e Deep Learning tornaram-se as tecnologias mais comentadas no mundo comercial de hoje, pois as empresas estão usando essas inovações para construir máquinas e aplicativos inteligentes. Embora esses termos estejam dominando os diálogos de negócios em todo o mundo, muitas pessoas têm dificuldade em diferenciá-los.
Talvez a pergunta mais frequente seja: “Qual é a diferença entre Inteligência Artificial (IA) e Machine Learning (ML) — e o Deep Learning (DL) pertence à IA ou ML?”. Uma resposta curta formal: Deep Learning faz parte do Machine Learning e este é parte da Inteligência Artificial: DL.
Nessa imagem ilustramos os conceitos abordados. A inteligência Artificial contêm o Machine Learning, que, por sua vez contêm o Deep Learning. Este artigo ajudará você a obter uma compreensão clara de IA, Machine Learning e Deep Learning e como eles diferem um do outro.
O que é Inteligência Artificial?
A inteligência artificial (IA) é atualmente uma das palavras-chave mais populares em tecnologia, e com razão.
Nos últimos anos, várias inovações e avanços que antes estavam apenas no domínio da ficção científica se transformaram lentamente em realidade.
A inteligência artificial, comumente chamada de IA, é o processo de transmissão de dados, informações e inteligência humana às máquinas.
O principal objetivo da Inteligência Artificial é desenvolver máquinas auto suficientes que possam pensar e agir como humanos.
Essas máquinas podem imitar o comportamento humano e realizar tarefas aprendendo e resolvendo problemas. A maioria dos sistemas de IA simula a inteligência natural para resolver problemas complexos.
Especialistas consideram a inteligência artificial como um fator de produção, que tem o potencial de introduzir novas fontes de crescimento e mudar a forma como o trabalho é feito em todos os setores.
Quais são os tipos de IA?
Máquinas Reativas – São sistemas que apenas reagem. Esses sistemas não formam memórias e não usam experiências passadas para tomar novas decisões.
Memória Limitada – Esses sistemas fazem referência ao passado e as informações são adicionadas ao longo de um período de tempo. As informações referenciadas são de curta duração.
Teoria da Mente – Abrange sistemas que são capazes de entender as emoções humanas e como elas afetam a tomada de decisões. Eles são treinados para ajustar seu comportamento de acordo.
Autoconsciência – Esses sistemas são projetados e criados para serem conscientes de si mesmos. Eles entendem seus próprios estados internos, preveem os sentimentos de outras pessoas e agem adequadamente.
Exemplos de IA
Neste exemplo dividiremos a inteligência artificial em algumas categorias que estão entre as mais utilizadas atualmente.
- Machine Learning: Subdividido em Deep Learning e Análises preditivas;
- Discursos: Utilizando a tecnologia para transformar texto em fala e vice-versa;
- Visão: Reconhecimento por imagem e machine vision (sistema de visão);
- Language Processing (NLP) / Processamento de Linguagem: Classificação, Tradução, Extração de dadosk
- Sistemas Especializados;
- Planejamento e Otimização;
- Robótica;
O que é Machine Learning?
Para começar, Machine Learning é uma sub-área central da Inteligência Artificial (IA).
Os aplicativos de ML aprendem com a experiência (ou para ser mais preciso, dados) como os humanos fazem sem programação direta. Quando expostos a novos dados, esses aplicativos aprendem, crescem, mudam e se desenvolvem sozinhos.
Em outras palavras, machine learning envolve computadores que encontram informações perspicazes sem serem informados sobre onde procurar. Em vez disso, eles fazem isso aproveitando algoritmos que aprendem com os dados em um processo iterativo.
O conceito de ML existe há muito tempo (pense na Máquina Enigma da Segunda Guerra Mundial, por exemplo). No entanto, a ideia de automatizar a aplicação de cálculos matemáticos complexos para big data só existe há alguns anos, embora agora esteja ganhando mais força.
Em alto nível, machine learning é a capacidade de se adaptar a novos dados de forma independente e por meio de iterações. Os aplicativos aprendem com cálculos e transações anteriores e usam o “reconhecimento de padrões” para produzir resultados confiáveis e informados.
Tipos de Machine Learning
Machine Learning é complexo, por isso foi dividido em duas áreas principais, aprendizado supervisionado e aprendizado não supervisionado.
Cada um tem um propósito e ação específicos, gerando resultados e utilizando diversas formas de dados. Aproximadamente 70% do ML é de aprendizado supervisionado, enquanto o aprendizado não supervisionado representa de 10% a 20%. O restante é absorvido pelo aprendizado por reforço.
Como funciona o Aprendizado Supervisionado?
No aprendizado supervisionado, os dados já estão rotulados, o que significa que você conhece a variável de destino.
Usando esse método de aprendizado, os sistemas podem prever resultados futuros com base em dados passados. Requer que pelo menos uma variável de entrada e saída seja fornecida ao modelo para que ele seja treinado.
Alguns exemplos de aprendizado supervisionado incluem regressão linear, regressão logística, máquinas de vetor de suporte, Naive Bayes e árvore de decisão.
Como funciona o Aprendizado Não Supervisionado?
Os algoritmos de aprendizado não supervisionados empregam dados não rotulados para descobrir padrões a partir dos dados por conta própria.
Os sistemas são capazes de identificar recursos ocultos a partir dos dados de entrada fornecidos. Uma vez que os dados são mais legíveis, os padrões e semelhanças tornam-se mais evidentes.
Alguns exemplos de aprendizado não supervisionado incluem agrupamento k-means, agrupamento hierárquico e detecção de anomalias.
O que é Aprendizado Por Reforço?
O objetivo do aprendizado por reforço é treinar um agente para completar uma tarefa dentro de um ambiente incerto.
O agente recebe observações e uma recompensa do ambiente e envia ações para o ambiente. A recompensa mede o quão bem-sucedida é a ação em relação à conclusão da meta da tarefa.
Exemplos de algoritmos de aprendizado por reforço incluem Q-learning e Deep Q-learning Neural Networks.
Exemplos de Machine Learning
Para demonstrar de forma mais clara algumas utilizações do machine learning traremos 10 exemplos.
- O carro autônomo do Google;
- Resultados de busca na internet;
- Detectamento de fraudes;
- Pontuação de créditos;
- Reconhecimento de patentes;
- Aplicações de Social Listening;
- Modelos de preços de mercado;
- Análise de sentimentos baseado em textos;
- Previsão de sucessos e fracassos;
- Recomendação online ou ofertas em grandes sites de E-commerce;
O que é Deep Learning?
Assim como Machine Learning é considerado um tipo de IA, o Deep Learning é frequentemente considerado um tipo de ML – alguns o chamam de subconjunto.
Enquanto Machine Learning usa conceitos mais simples, como modelos preditivos, o Deep Learning usa redes neurais artificiais projetadas para imitar a maneira como os humanos pensam e aprendem.
Você deve se lembrar das aulas de biologia do ensino médio, em que o componente celular primário, e o principal elemento computacional do cérebro humano, é o neurônio e que cada conexão neural é como um pequeno computador.
A rede de neurônios no cérebro é responsável pelo processamento de todos os tipos de entradas: visual, sensorial e assim por diante.
Nos sistemas de computador deep learning, como no ML, a entrada ainda é alimentada neles, mas as informações geralmente estão na forma de grandes conjuntos de dados, porque os sistemas de deep learning precisam de uma grande quantidade de dados para entendê-los e retornar resultados precisos.
Em seguida, as redes neurais artificiais fazem uma série de perguntas binárias de verdadeiro/falso com base nos dados, envolvendo cálculos matemáticos altamente complexos, e classificam esses dados com base nas respostas recebidas.
Quais são os tipos de Deep Learning?
Rede Neural Convolucional (CNN) – é uma classe de redes neurais profundas mais comumente usadas para análise de imagens.
Rede Neural Recorrente (RNN) – usa informações sequenciais para construir um modelo. Geralmente funciona melhor para modelos que precisam memorizar dados anteriores.
Generative Adversarial Network (GAN) – são arquiteturas algorítmicas que usam duas redes neurais para criar novas instâncias sintéticas de dados que passam por dados reais. Um GAN treinado em fotografias pode gerar novas fotografias que pareçam pelo menos superficialmente autênticas para observadores humanos.
Deep Belief Network (DBN) – é um modelo gráfico generativo composto por várias camadas de variáveis latentes chamadas unidades ocultas. Cada camada é interconectada, mas as unidades não.
Conclusão
O McKinsey Global Institute prevê que aproximadamente 70% das companhias usarão pelo menos um tipo de tecnologia de Inteligência Artificial até 2030, e cerca de metade das grandes empresas incorporarão uma gama completa de tecnologia de IA em seus processos.
A Inteligência Artificial está revolucionando as indústrias com suas aplicações e ajudando a resolver problemas complexos. À medida que este campo emergente continua a crescer, ele terá um impacto na vida cotidiana e levará a implicações consideráveis para muitas indústrias.
Machine Learning, Deep learning e IA estão redefinindo a maneira como os processos de negócios são realizados em várias áreas, como marketing, saúde, serviços financeiros e muito mais. As empresas estão explorando continuamente as maneiras pelas quais podem colher os benefícios dessa tecnologia.
À medida que a busca pela melhoria dos processos atuais continua a crescer, é essencial ter uma boa base de conhecimento sobre essas tecnologias que estão revolucionando nosso presente e futuro.
Referências
Turing, A., (1950), “Computing Machinery and Intelligence,” Mind, Vol. LIX, (No. 236).
McCarthy, J., M.L. Minsky, N. Rochester, and C.E. Shannon, (1955), “A proposal for the Dartmouth summer research project on artificial intelligence,” (http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html)
Mitchell, T., (1997), “Machine learning,” McGraw Hill, p. 2, ISBN 978-0071154673.
Goodfellow, I., Y. Bengio, and A. Courville, (2016), “Deep learning,” MIT press.
LeCun, Y., Y. Bengio and G. Hinton, (2015), “Deep Learning,” Nature, Vol. 521, pp 436–444.
Deixe um comentário