Experimentação, chave do novo paradigma de gestão

Por EloInsights, com a colaboração de Thiago Leite

  • Vivenciamos uma guinada para um modelo autônomo da tomada de decisões nas empresas, alavancado por dados e um grande volume de experimentos.
  •  É preciso centrar esforços em criar a capacidade de experimentar, o que demanda uma estruturação sistêmica.
  •  O caminho para a inovação se pavimenta no gerenciamento de riscos, na análise de dados e em um processo ágil, disciplinado e contínuo de aprendizagem.

A guinada para um novo paradigma da era digital chacoalha conceitos e definições sobre inovação e cultura empresarial. A visão top down, baseada em experiências e intuição da alta liderança da organização e na qual as decisões são tomadas obedecendo à hierarquia de cargos, já está ultrapassada. A visão de futuro se alinha a um horizonte inovador e mais fundamentado, desenhado por dados e alavancado por um contínuo processo de experimentação.

Para viabilizar esse novo modelo de tomada de decisão, é necessário um grande volume de experimentos, estabelecidos em ritos disciplinados, para que se solidifiquem na forma de ganhos aderentes ao contexto da organização. A intuição e a vivência profissional não perdem relevância, mas passam a guiar a criação de hipóteses que serão firmadas ou derrubadas conforme a análise dos dados. Nesse cenário, a experimentação se torna uma das capabilities mais importantes a serem desenvolvidas quando falamos sobre inovação.

É um aprendizado com esforço contínuo e medidas complexas, mas os primeiros passos nessa trilha são menos complicados do que podem parecer. É verdade que o sucesso com experimentos no mundo digital envolve uma série de estruturações para viabilizar a distribuição da tomada de decisão para as pontas, destravando a agilidade e a capacidade de inovar. E ainda que metodologias e simulações existam há décadas para guiar a experimentação, a novidade está na constante transformação digital que altera completamente as dinâmicas.

Um exemplo é a análise de processos e produtos no contexto industrial. Desde a década de 1950, a metodologia FMEA (Análise de Modos de Falha e seus Efeitos) verifica possíveis falhas e suas consequências, identificando ações prioritárias de melhoria e hipóteses sobre a raiz dos problemas.

A indústria 4.0 potencializa a análise, coleta e a sistematização de dados com uso de Internet das Coisas (IoT) e sistemas avançados, tais como: MES, que rastreia e documenta a transformação de matérias-primas na indústria; ERP, que integra diversos departamentos na gestão empresarial; e RFID, identificação por radiofrequência que dinamiza a logística em cadeias de suprimentos.

Além disso, há condução massiva de experimentos, de diferentes naturezas e contextos. As descobertas acontecem em larga escala, em um ritmo muito mais acelerado e fluido. Tudo isso ajuda a evitar falhas e torna mais confiável a condução dos processos até a entrega de produtos e serviços.

Em resumo, pavimentar a autonomia de equipes e setores para uma lógica de experimentação requer consolidar bases de dados, conectar sistemas, executar integrações, digitalizar e automatizar atividades para ganhar velocidade. A escalabilidade vem à medida que as incertezas são reduzidas e os resultados são obtidos. Uma forma de começar a se firmar nesse percurso de aprendizagem é com a execução de experimentos mais relevantes, aqueles que tragam respostas sobre elementos críticos da operação, e que podem, inclusive, ser automatizados.

Ícones representa a disciplina no processo de experimentação. Mostra peças parecidas com do jogo Tetris se encaixando umas nas outras.

Disciplina e desenvolvimento de capability

Na prática, o processo de experimentação precisa de método e disciplina. Também envolve estabelecer grupos de controle para comparações efetivas, analisar se o resultado deve ser replicado e, no final, criar condições para assimilar aprendizados.

A repetição traz maturidade e velocidade para completar ciclos em curta duração. O ganho de valor aumenta à medida que os times se dedicam a aprimorar as execuções, desempenhando um grande volume de testes para chegar a conclusões bem-sucedidas e que apontem para uma direção construtiva.

Olhemos para experimentos relacionados a sites de e-commerce. Uma hipótese aponta que mudanças de layout do site ou do aplicativo influenciam a experiência e, portanto, a propensão de compra do cliente. A partir disso, é possível testar alguns cenários: o melhor lugar de posicionar os botões; o algoritmo de melhor performance nas recomendações de produtos; o nível de detalhamento das fotos dos produtos. Nesse caso, uma das ferramentas mais difundidas para testes A/B é o Optimezely.

Ainda que possam ser experimentos considerados mais simples, são também mais dinâmicos e com potencial de geração de valor, dado o volume de informações coletadas – a todo momento, em tempo real, e na escala que o mundo digital proporciona. É possível ampliar a análise para hipóteses relacionadas à força de vendas: que tipo de anúncio gera maior resposta; qual abordagem comercial tem melhor resultado; como diminuir o churn; como minimizar o custo de aquisição de cliente (CAC), entre outras.  

No desenvolvimento de novos produtos, serviços e modelos de negócio que exigem uma imersão para compreender necessidades e desejos, as hipóteses  podem partir de um MVP [Produto Minimamente Viável]. Chegar a um piloto é uma forma de começar gradualmente e com riscos minimizados, partindo de uma solução previamente definida. Aqui cabe um parêntese, é sempre importante tomar cuidado com a conexão entre piloto e experimento, porque não são sinônimos. A lógica de experimentação pode começar bem antes de um protótipo. Conduzir um projeto em uma lógica de experimento é colocar em teste um conjunto de hipóteses que vão ajudar a construir, a entender qual é determinada solução.

Em uma realidade mais digital, outros aspectos são facilitados. As organizações passam a depender menos da interação direta – como grupos focais e entrevistas semiestruturadas, para entender os clientes. Com acesso ampliado a dados, sejam estudos, estatísticas ou análises de mercado, as técnicas presenciais ainda são importantes para elaborar teorias, mas ganham caráter complementar. É possível basear experimentos de negócio em dados demográficos e de comportamento – muitas vezes disponíveis de forma aberta e gratuita, em inúmeras plataformas ou coletados pelos canais da própria organização.

Um segundo ponto importante está em como realizar a transformação digital, o que requer destravar o potencial da empresa instituindo um modelo de capability first. O principal está em construir a competência de experimentação na empresa para que diversos times possam rodar e finalizar efetivamente ciclos de teste, perenizando o processo.

Ícone representa balanceamento de riscos no processo de experimentação. A figura é um gráfico com barras verticais.

Geração de valor e balanceamento de riscos

No livro Experimentation Works: the surprising power of business experiments (Harvard Business Review Press, 2020), Stefan Thomke faz uma correlação entre o número de testes dentro de organizações e o desempenho ao longo do tempo no mercado de ações. Em uma de suas análises, ele mostra como entre as 500 empresas mais relevantes do mundo, parte do índice S&P 500, aquelas que realizam mais experimentações não são só consideradas as mais inovadoras, mas também as mais cobiçadas pelo mercado.

Evidente que múltiplos fatores influenciam a flutuação de ações. O grau de digitalização da empresa – já que as nativas digitais tendem a se destacar, ou o quão bem ela surfa a onda das mídias sociais, para citar exemplos. Fato é que organizações como Microsoft, Amazon e Booking.com descobriram que a mentalidade de “tudo é um teste” gera resultados surpreendentes e competitividade, impactando até mesmo na alta das ações. É um bom indício de que experimentar gera valor.

Outra estatística ajuda a entender a mecânica da experimentação e as incertezas envolvidas: apenas de 10% a 20% dos experimentos acabam convertidos em resultados positivos. Portanto, se a taxa de sucesso estiver muito acima disso, é possível que a empresa esteja se limitando a confirmar hipóteses óbvias sem explorar todo o seu potencial. Da mesma forma, se a taxa é baixa demais, pode haver um exagero na quantidade de possibilidades consideradas, o que derruba tanto as conversões quanto a sensação de confiança. Aqui nasce uma reflexão: como podemos balancear os riscos e definir quais hipóteses serão rodadas?

O primeiro passo é ligar isso à discussão sobre modelo operacional. Distribuir a tomada de decisão para as pontas, naturalmente, faz cada um decidir de acordo com seu bom senso ou com a sua visão naquele momento – o que acarreta um risco enorme. Ao mesmo tempo, se o processo decisório “peregrina” pelo organograma até chegar a uma pessoa com contexto e informações suficientes para um bom direcionamento, a empresa não se move em tempo real. Dar autonomia é complexo e não basta delegar para ser ágil. Portanto, voltamos à necessidade de amarrar bem a tomada de decisão.

Em geral, os tomadores de decisão carregam para a empresa a aversão ao risco que sentem enquanto indivíduos, o que pode barrar o avanço de projetos. Fugir de testes isolados e aliviar o peso de cada ação ameniza esse conflito. O risco e o retorno avaliados em cima de um portfólio de experimentos tendem a aumentar a disposição para realizar os testes e pulverizam potenciais perdas.

Ícone representa o aprendizado no processo de experimentação. Mostra um caderno aberto, com linhas na horizontal desenhadas e um lápis ao lado.

Custos, falhas e aprendizados

Uma mudança de mindset nos obriga a encarar o novo, e a curva de comprometimento de recursos é chave para atenuar as incertezas. Já discutimos que ao sistematizarmos dados de entrada, orquestrarmos o processo de identificação de novas hipóteses e disciplinarmos o processo de experimentação, balanceamos melhor os riscos e as dúvidas. Isso pode significar uma expressiva redução de custos e até mesmo um aumento de receita, a depender do problema de negócio. Contudo, é um fato que falhas vão acontecer – mas errar só é um problema quando custa caro. Então, faz muito sentido pensar na maneira mais barata de conferir o funcionamento de determinada coisa.

É o conceito learn to burn, literalmente aprender a queimar. O foco é inicialmente reduzir os riscos antes de alocar grandes recursos. Se ramifica em outros dois imperativos: fail fast, que significa falhar rapidamente, e o fail smart – termo mais aderente à questão da experimentação, já que se refere a extrair o máximo de aprendizados dos testes com o menor custo possível.

A obra de Thomke relata o caso da indústria de semicondutores, na qual, durante muito tempo, foi um desafio obter dados detalhados sobre o desempenho de equipamentos e circuitos integrados. Com isso, os engenheiros precisavam trabalhar na margem de segurança em relação à quantidade de soldas, por exemplo, ou mesmo na análise de falhas dos circuitos para garantir que os dispositivos pudessem ser manufaturados. Ao coletar de forma estruturada os dados e desenvolver modelos estatísticos sofisticados, em relação à capacidade de fabricação, com a incorporação de ferramentas de projeto e simulação de modelos – como o Matlab –, foi possível impactar significativamente o quesito segurança. Os testes de simulação upstream aumentaram o desempenho e reduziram os custos entre 5% e 10%, sem diminuir o rendimento de fabricação.

Ícone representa a cultura de experimentação. Mostra tubos de ensaio dispostos em frente a uma tela.

A cultura de experimentação

Um modelo que representa tudo o que foi debatido até aqui é o do Booking.com, que se tornou uma das maiores plataformas de busca por acomodações e chega a fazer mais de 25.000 testes por ano para diminuir incertezas, aperfeiçoar a experiência dos clientes e os processos internos. Qualquer pessoa pode testar hipóteses sem precisar da aprovação das lideranças da empresa.

É um forte exemplo da prática de test and learn, ou seja, de testagem e aprendizagem. Nesse contexto, além de mais preparada para lidar com surpresas, a organização se molda ao transformar em aprendizado a frustração por um resultado positivo que, porventura, não se concretize. Se o costume é de só recompensar os experimentos que dão certo, ou as ações voltadas ao resultado, o ambiente acaba desestimulando a produção e a troca de conhecimentos.

Esse novo mindset ainda não é óbvio para executivos, que podem se sentir intimidados pelo fato de as decisões serem encaminhadas pelos próprios experimentos. O papel do chefe passa a ser o de cultivar a cultura e as bases para perenizar todo o processo. A tarefa é facilitada por ferramentas acessíveis – inclusive gratuitamente, e inúmeras metodologias consagradas, como o lean product development. O real desafio é viabilizar e fortalecer a infraestrutura para que sejam realizados os testes em larga escala, ao mesmo tempo em que se tem controle de coletas e amostras, do motor de estatísticas e de todo o histórico.

Vale ressaltar dois pontos: a prevalência da humildade sobre a arrogância e a construção de integridade e confiança. É muito comum que experimentos se choquem com alguma crença ou percepção da organização, que precisa reconhecer a validade dos resultados. Além disso, preservar a ética e estabelecer limites em relação ao que está sendo testado emprega confiabilidade à jornada.

Ícone representa o compartilhamento de dados no processo de experimentação. Mostra quatro pontos interligados.

Uma plataforma para democratizar os dados

Tudo se concretiza e flui com agilidade se houver uma plataforma digital direcionada aos dados. Se a intenção é validar hipóteses e deixar no passado a lógica de gestão guiada pela intuição, é preciso ter uma base para fazer esses experimentos. É o que exemplifica o case de Joey DeBruin, que iniciou sua carreira em pesquisas na área de neurociência, fez carreira como diretor de produto e fundou uma empresa em Los Angeles, nos Estados Unidos.

Durante sua passagem no comando do time de growth da Feastly, a plataforma, que conecta usuários a chefs fora da cadeia tradicional de restaurantes, teve um crescimento expressivo. Já imerso em uma cultura de test and learn, em que era rotineiro rodar experimentos, ele democratizou o brainstorm, desenvolvendo uma ferramenta para receber ideias de qualquer pessoa da empresa.

O convite para se pensar possibilidades era aberto – desde aumentar um determinado indicador até a melhoria da operação em si – mas com priorização das hipóteses a serem testadas. Com execução totalmente automatizada, incluindo grupo de controle e testes A/B para definir experimentos vencedores e perdedores, foi possível evoluir o processo de experimentação. Ao disponibilizarem um meio inclusivo e aberto de contribuição, sem abrir mão de ritos estabelecidos, os ganhos, que já eram expressivos devido a uma cultura de experimentação enraizada, foram potencializados. Resultaram em um crescimento dez vezes maior em comparação ao período anterior a esse novo método. Em artigo da Reforge, DeBruin detalha o seu método rápido de testagem.

Concluímos que a melhoria contínua é fundamental para ganhar maturidade e um ponto muito forte quando se fala em transformação digital. Se há maior volume de execuções e capacidade para rodá-las com celeridade, é possível testar mais hipóteses em um curto período e construir uma cultura de experimentação sólida e fértil – que, por sua vez, abre caminho para a inovação.

THIAGO LEITE é sócio e gerente sênior na EloGroup

Enviar por email