Antes domínio exclusivo dos pesquisadores, o aprendizado de máquina agora é base viabilizadora do modelo de negócios digitais.
Big Data nos remete, de imediato, à percepção de coleta e manutenção de imensos volumes de dados, de forma estática. Mas uma coisa é coletar e armazenar dados, e outra extrair informações úteis a partir deles. Assim, devemos olhar o termo como um arcabouço de diversas tecnologias que permitem não só armazenar, mas também analisar e visualizar os resultados.
Tradicionalmente, a ciência de dados sempre foi dominada pelo processo de tentativa e erro, abordagem que se torna impossível quando os volumes de dados são grandes e heterogêneos.
Ironicamente, a disponibilidade de mais dados geralmente leva a menos opções na construção de modelos preditivos, porque poucas ferramentas permitem o processamento de grandes conjuntos de dados em um período razoável de tempo. Além disso, as soluções estatísticas tradicionais geralmente se concentram em análise estáticas limitadas pelas amostras que estão congelados no tempo, o que muitas vezes resulta em conclusões que não mais correspondem à realidade e, portanto, não são confiáveis.
Precisamos analisar os dados para gerarmos insights e a partir daí gerar valor para o negócio com as ações em cima destes insights. Assim, um assunto que começa a permear discussões e eventos de TI é o que chamamos de “machine learning”. Antes domínio exclusivo do hermético mundo dos pesquisadores de IA (Inteligência Artificial), o aprendizado de máquina agora é base tecnológica e viabilizadora do modelo de negócios de empresas digitais como Amazon, Netflix, Google, Airbnb e outras.
Mas, o que é “machine learning? Bem, podemos recorrer à Wikipedia e também simplificar dizendo que são sistemas que se propõem a construir soluções baseadas em algoritmos que podem aprender com os dados ingeridos, sem o uso de programação baseada em regras, a programação tradicional que conhecemos. Um exemplo bem emblemático de aplicação do conceito é o sistema Watson, da IBM.
Embora não seja novidade no âmbito da pesquisa, só agora “machine learning” começa a entrar no radar do mundo corporativo. Aqui e ali já vemos diversos casos bem-sucedidos de sua aplicabilidade. É sustentação de modelos de negócios como o Airbnb. Veja: “At Airbnb, Data Science Belongs Everywhere: Insightsfrom five years of hypergrowth”. Nesse artigo, o primeiro data scientist da empresa descreve como ela usou Data Science desde o inicio. É um depoimento bem interessante, pois mostra que mesmo uma pequena startup (Airbnb nos seus primeiros dias) pode começar usando dados intensamente desde sua criação.
Também sugiro a leitura de como o algoritmo de precificação dinâmica do Airbnb, o Aerosolve, funciona, agora que está disponível em open source. A empresa de games Zynga é outro exemplo e vale a pena conhecer um pouco de sua experiência lendo o artigo “Zynga analytics at its peak”.
Nos EUA a aplicação de “machine learning” está bem mais avançada que por aqui. Já existem várias startups especializadas e muitas empresas estão adotando o conceito com resultados bem significativos. Algumas empresas veteranas se reinventam baseadas em dados. O melhor exemplo é a GE, única empresa da primeira lista de empresas do índice Dow Jones que ainda resiste, quase 120 anos depois. A entrevista do seu CEO, Jeff Immelt, mostra claramente sua estratégia.
E por aqui, porque ainda vemos pouca aplicabilidade?
A situação econômica atual é desafiadora, mas também é rica em oportunidades para fazer o novo ou de modo diferente de como fazemos há uns dez anos. É a oportunidade da aplicação do conceito de “Destruição Criativa” de Schumpeter, e abre espaço para novos produtos, novos mercados e novos modelos de negócio.
Em seu livro “Capitalism, Socialism and Democracy”, Joseph Schumpeter afirma que o ponto essencial ao lidar com o capitalismo é compreender que se está lidando com um processo evolucionário. O capitalismo é, por natureza, um método de mudança econômica e nunca poderá ser estacionário. O impulso fundamental que mantém a máquina capitalista em ação vem dos novos produtos, dos novos métodos de produção, dos novos mercados ou das novas formas de organização industrial que as empresas criam. Há uma constante revolução de dentro da estrutura econômica, destruindo a velha ordem e criando uma nova. E como ele diz: “Esse processo de destruição criativa é o fato essencial sobre o capitalismo”. A situação atual nos obriga, por sobrevivência, a pensar de forma criativa, para superar os limites que a acomodação de ventos a favor nos colocaram.
É papel dos executivos e dos CIOs das empresas encararem o desafio de frente. Ficarem paralisados não os permitirá avançar. Por que não usar criatividade para iniciar as transformações que já se mostram necessárias?
Muitas soluções de tecnologia são open source e mesmo soluções de fornecedores tradicionais já começam a sentir o efeito do modelo SaaS, com preços muito menores do que os oferecidos pelo obsoleto modelo de licenças que imperou na indústria de software por décadas. Aliás, um teste simples para saber se seu fornecedor de software está realmente comprometido com o modelo SaaS ou é apenas discurso comercial? Veja seu web site. Se ele permitir apenas ver as funcionalidades do produto e o obrigar a ir a um representante apara adquirir licença ou assinatura de uso, não é SaaS. Mas se o website fizer parte do produto, ou seja, a partir dele já começarmos a nossa primeira experiência de uso, com assinatura direta, é sim, SaaS na sua essência.
Voltando a “machine learning”. O CIO que quiser se manter relevante precisa influenciar e encorajar as iniciativas de uso de Data Science na empresa. Disseminar o conceito de Analytics com soluções que permitam self-service. TI não deve mais ser o gargalo.
Como começar? Uma sugestão é um processo de aprendizado onde a aplicabilidade pode ser gradualmente sofisticada. Começar com análises descritivas que apontem por que determinada situação ocorreu. Apesar de muitas empresas terem BI, eles não conseguem saber o por que aconteceu, apenas o que aconteceu, pois sua fonte de dados são alguns poucos sistemas corporativos. O ERP, por exemplo, mostra quanto a empresa vendeu, mas não o que não foi vendido. Então como saber se aquele cliente que está comprando cada vez menos está sem dinheiro ou está comprando mais do concorrente? Quantas redes varejistas analisam potencial de cada loja versus seu desempenho em relação ao entorno (que inclui potencial socioeconômico e concorrência)?
Passamos ao estágio preditivo, onde apontamos o que acontecerá e chegamos a fase prescritiva, onde conseguimos influenciar o contexto de modo que aquilo que prevemos que irá acontecer, terá muito maior probabilidade de acontecer. Vejo pouco uso de análises preditivas. Quantas empresas de telecomunicações fazem análise preditivas da possibilidade de determinados clientes se desconectarem nos próximos meses?
A análise prescritiva ainda está no horizonte. É o futuro, mas chega rápido. Afinal é fundamental para um negócio saber não apenas que clientes vão embora, mas porque eles irão embora e assim conseguir agir para impedir sua saída.
Estamos imersos em um oceano de dados. Temos condições de saber quase tudo sobre nossos clientes, pelos seus cliques, suas compras nas lojas físicas, seus posts, chats com o SAC, etc., etc. Na minha opinião, analisar dados e adotar soluções de “machine learning” deveria estar na agenda prioritária dos C-levels. Creio que não se discute mais seu valor. Então me pergunto, porque ainda não está?
Fonte: http://computerworld.com.br/