A revolução digital está provocando mudanças profundas nos hábitos de consumo dos clientes, devido, entre outros fatores, a um maior acesso aos dados e a um crescente desenvolvimento de novas tecnologias. Isso tudo nos convida a repensar profundamente os atuais modelos de negócio.

Uma alavanca fundamental para a transformação dos modelos de negócio é a ciência de dados (ou Data Science), que está baseada no uso combinado de técnicas de aprendizagem automática, inteligência artificial, matemática, estatística, bases de dados e otimização.

 


Machine learning

Watch video

Existem diversos fatores, com origem principalmente na tecnologia, que impulsionam o uso destas técnicas de Data Science em um conjunto amplo de setores. Estes fatores podem ser agrupados em quatro eixos: (1) o aumento sem precedentes do volume e da tipologia de dados disponíveis; (2) a conectividade e o acesso aos dados; (3) a melhoria dos algoritmos utilizados; e (4) o aumento da capacidade computacional dos sistemas.

Em relação ao volume de dados, existem diversos estudos que reúnem diferentes métricas que permitem evidenciar a magnitude desse crescimento. Para citar alguns dos mais relevantes:

  • De acordo con relatórios recentes, 90% dos dados criados em toda a história da humanidade foram criados no último ano e estima-se um crescimento de 40% anuais para a próxima década. Atualmente, devido ao avanço das comunicações conhecidas como Machine to Machine (M2M), e ao desenvolvimento da chamada Internet das Coisas (IoT), o volume de dados disponíveis é ainda maior.
  • Estudos publicados por grandes empresas de telecomunicações mostram que o número de dispositivos conectados à internet será três vezes maior que a população mundial em 2021 e que o número de conexões IoT chegará a 13,7 bilhões nesse mesmo ano, sendo que em 2016 esse número foi de 5,8 bilhões.
  • Como consequência disso, em 2020 o total de dados existentes chegará aos 44 trilhões de gigabytes.
  • Entre eles, um grande conjunto de dados é gerado diretamente no ambiente digital, como buscas no Google (40.000 buscas por segundo), mensagens no Facebook (31 milhões de mensagens por minuto) ou aumento de dados em vídeos e fotos (300 horas de vídeos carregados no YouTube a cada hora).
  • Estima-se que, em 2020, 100% dos dispositivos móveis irão incluir tecnologia biométrica. Da mesma forma, para este ano, estima-se que pelo menos um terço dos dados passará pela nuvem.

Em segundo lugar, as melhorias na conectividade implicam um salto qualitativo que permite o desenvolvimento de novos serviços e modelos de negócio ligados à geração de dados em tempo real, bem como a sua análise, para adaptar o serviço e o preço em função do uso: a geração e a coleta de dados é realizada de forma automática através da sensorização e da digitalização dos terminais no ponto de venda, o que cria um fluxo contínuo de informações. Uma grande parte desta conectividade é realizada entre máquinas: uma vez que uma ação é realizada, os dados gerados por diferentes elementos digitais envolvidos são conectados com servidores, com o objetivo de armazenar e analisar as informações. Este tipo de conexões M2M, cresceu até chegar a 1,1 bilhões de conexões em 2017.

Em terceiro lugar, a melhoria dos algoritmos permitiu tanto otimizar o tratamento de grandes volumes de dados (através de técnicas de escalada, resampling, etc.) quanto obter métodos mais eficientes e robustos e tratar missings, variáveis não numéricas e atípicos. Apesar de a maior parte dos algoritmos ter sido desenvolvida antes do ano 2000, agora é que as empresas estão investindo mais na implementação destes algoritmos, obtendo melhores resultados que os alcançados por humanos. Por exemplo:

  • Atualmente, os algoritmos de DeepMind AlphaZero e AlphaGo têm um nível de jogo superior a qualquer humano nos jogos de xadrez e go.
  • Um algoritmo baseado em inteligência artificial é capaz de detectar um câncer de mama 30 vezes mais rapidamente do que um médico e com um um grau de confiabilidade de 99%.
  • Nos Estados Unidos, os roboadvisors possuem 25,83 milhões de usuários, o que representa um grau de penetração de 1,8% em 2018. Espera-se que este índice chegue a 8,3% em 2022.

Por último, o aumento da capacidade de computação, que nas últimas décadas cresceu enormemente apoiada na melhoria dos processadores, agora conta com outros fatores como principais impulsionadores: entre outros, a grande evolução das linguagens de programação (tanto generalistas como dedicadas a processamento de dados, visualização, algoritmos etc.), o cloud computing e, especialmente, a criação de novas arquiteturas de computação dirigidas especificamente a tarefas de aprendizagem automática, análise de dados e aplicações de engenharia (conhecidas como GPUs).

Em resumo, nas últimas duas décadas, a disponibilidade de dados digitais aumentou quase mil vezes, ao mesmo tempo em que se registrou uma eficiência dez vezes maior nos algoritmos, e a velocidade de computação aumentou cem vezes o seu desempenho. Isso tudo levou a um interesse renovado nestas técnicas como uma fórmula para obtenção de informações com valor agregado no novo ambiente de negócios.

Aprendizagem automática: mais de meio século de história

As técnicas de aprendizagem automática (ou Machine Learning) estão experimentando um auge sem precedentes em diferentes âmbitos, tanto no mundo acadêmico como no empresarial, e são uma importante alavanca de transformação. Ainda que estas técnicas já fossem conhecidas nos dois âmbitos, diversos fatores estão fazendo com o que seu uso seja mais intensivo, quando antes era minoritário, e se estenda a outros campos, quando antes praticamente não eram utilizadas, tanto pelos altos custos de implementação quanto pelos escassos benefícios inicialmente esperados por sua aplicação.

As técnicas de aprendizagem automática podem ser definidas como um conjunto de métodos capazes de detectar automaticamente padrões nos dados. Com esta definição, o conceito de aprendizagem automática existe pelo menos desde os anos 50, período em que foram descobertos e redefinidos diversos métodos estatísticos, e foram aplicados à aprendizagem automática através de algoritmos simples, circunscritos quase que exclusivamente ao âmbito acadêmico.

Este conceito de aprendizagem automática inclui, desde então, o uso de padrões detectados para realizar previsões ou para tomar outros tipos de decisões em ambientes de incerteza.

Comparada às técnicas estatísticas clássicas, a introdução de técnicas de Machine Learning permite melhorar o processo de estimativa de modelos, não só em relação ao aumento de poder de previsão através de novas metodologias e técnicas de seleção de variáveis, mas também na melhoria da eficiência dos processos através da automatização.

Neste contexto, o presente estudo pretende dar uma visão sobre a revolução digital e seu impacto na transformação dos negócios, com um foco especial nas técnicas de aprendizagem automática. Para isso, o documento está estruturado em três seções, que atendem a três objetivos:

  • Ilustrar o desenvolvimento da revolução digital e seu impacto em diferentes frentes.
  • Introduzir a disciplina de aprendizagem automática, descrever diferentes abordagens e expor as tendências atuais nesta área.
  • Expor um caso de estudo para ilustrar a aplicação de técnicas de Machine Learning no caso específico do setor financeiro.

Para mais informações, acesse o documento completo em PDF clicando aqui (também disponível em Espanhol e Inglês).