0

Estratégias de Marketing para o Mercado Atacadista Usando IA

Leonardo Nogueira
Leonardo Nogueira

As empresas no ramo atacadista conhecem bem o dilema da competição: preços baixos, vários concorrentes e clientes às vezes infiéis. Desta forma, estas empresas precisam se destacar usando estratégias de marketing que segmentem o mercado consumidor, prevejam ademanda e criem diferenciação frente à concorrência. 


Usando inteligência artificial e algoritmos de machine learning, podemos criar modelos que ajudem na identificação dos melhores clientes e orientem os recursos destinados aos canais de marketing, além de prever picos de estoque e vendas.

 

O marketing é fundamental para toda empresa e quando usado corretamente pode aumentar a força da marca, melhorar o relacionamento com os clientes e reduzir a necessidade de impor preços baixos para manter o negócio. 


Neste artigo, iremos demonstrar um case de análise de uma empresa do mercado atacadista, baseada em Portugal. 


Os dados são reais e podem ser acessados no repositório:  UCI Wholesale Customers


Iniciamos nosso projeto importando as bibliotecas Python necessárias para esta análise, como sempre o Pandas, Numpy e Matplotlib serão os primeiros neste processo para garantir a importação do dataset e a análise exploratória inicial dos dados.


Após a importação, já podemos dar uma olhada em como estão estruturados nossos dados:

Não foi fornecido texto alternativo para esta imagem


Nossas variáveis refletem um banco de dados simples mas muito comum nas empresas atacadistas.


Vejamos sua composição:

  • FRESH - Total anual gasto em produtos frescos;
  • MILK - Total anual gasto em produtos derivados do leite;
  • GROCERY - Total anual gasto em produtos de supermercado;
  • FROZEN - Total anual gasto em produtos congelados;
  • DETERGENTS_PAPER - Total anual gasto em produtos de limpeza;
  • DELICATESSEN - Total anual gasto em produtos de delicatessen;
  • CHANNEL - Tipo de canal consumidor, 1. Horeca (Hotel/Restaurante/Café), 2. Varejo)
  • REGION - Região que o consumidor está baseado, 1. Lisboa, 2. Porto, 3. Outros


Detalhando um pouco mais nosso dataset, percebemos que temos 8 variáveis (sendo 2 categóricas e 6 numéricas) e 440 observações. Não temos linhas repetidas ou valores faltantes, então podemos seguir com nossa análise sem precisar fazer nenhum ajuste inicial.

Não foi fornecido texto alternativo para esta imagem


Agora podemos explorar os dados e buscar alguns relacionamentos e comportamento dos clientes. Vamos iniciar com a distribuição dos clientes pelas regiões:

Não foi fornecido texto alternativo para esta imagem






Nossos clientes estão concentrados em outras localidades, embora Lisboa tenha predominância se considerarmos como região única.

Vamos observar agora como está a distribuição dos clientes em relação ao gasto anual com derivados de leite:

Não foi fornecido texto alternativo para esta imagem


Notamos pelo nosso gráfico que a maioria dos clientes tem um gasto anual abaixo de 10K, com alguns clientes "outliers", ou seja, poucos clientes que gastaram um valor expressivo no ano.


Quando analisamos o gasto com derivados de leite por canal (ver fig. abaixo), notamos que o setor de Hotéis, Restaurantes e Cafés tem volume expressivo de compra, porém com valores baixos. O setor de varejo representa um volume menor e compras mais caras.


Não foi fornecido texto alternativo para esta imagem


Vamos então plotar um gráfico mostrando todas as variáveis divididas por região e entender o comportamento de compra anual dos nossos clientes:


Não foi fornecido texto alternativo para esta imagem


Notamos pelo gráfico que os produtos frescos (FRESH) e de supermercado (GROCERY) vendem bem nas três regiões. Podemos usar esta informação para determinar demanda ou mesmo iniciar uma campanha para alavancar os produtos menos vendidos em cada região.


Mas será que existem outras correlações entre as variáveis que nos levem a insights mais certeiros? Vamos usar um gráfico de "heat map" para ver e entender estas correlações:


Não foi fornecido texto alternativo para esta imagem


Humm... agora começam a surgir padrões interessantes para análise. Vejam que a variável Detergents_Paper tem uma correlação de quase 1 (0.92) com a variável Grocecy, mostrando uma forte relação entre a compra de produtos de limpeza e higiene com os produtos comuns de supermercado.


Trabalhando com outras variáveis, como por exemplo Produtos de Supermercado (Grocery) e Produtos de Limpeza (Detergents_Paper), podemos criar um modelo de inteligência artificial (machine learning) que segmente nossos consumidores e permita o lancamento de campanhas de marketing personalizadas para estes clientes. Para criar este modelo usamos o algoritmo KMeans e o resultado desta segmentação está mostrada no gráfico "scatter plot" abaixo:


Não foi fornecido texto alternativo para esta imagem


Nossos clientes foram segmentados em três grupos distintos e através destes grupos podemos orientar nossas ações de marketing para clientes com alto volume e baixo valor de compras, baixo volume e alto poder de compra ou que estejam adquirindo produtos específicos.

Espero que esta análise tenha oferecido idéias para que você olhe para seus dados e busque insights poderosos para suas campanhas de marketing e segmentação.


Até a próxima!



Publicado por

Leonardo Nogueira

Leonardo Nogueira

Executivo na área de Vendas, Desenvolvimento de Negócios, Segurança da Informação e Ciência de Dados, Engenheiro de Machine Learning


Já olhou para os dados dos seus clientes hoje?

Neste artigo mostro como a análise exploratória dos dados e os algoritmos podem ajudar nas estratégias de marketing e segmentação.

Boa leitura!


hashtag


#marketing hashtag

#IA hashtag

#machinelearning hashtag

#algoritmos hashtag

#inteligenciaartificial





0
0

Comentários (5)

0
Leonardo Nogueira

Leonardo Nogueira

08/07/2021 18:46

Olá Mateus,


Desculpe, acabei esquecendo de informar, segue o link para o meu Github:


https://github.com/LeoCNogueira/datascience


Abs,

Leo Nogueira

0
M

Mateus Silva

07/07/2021 21:16

Oi, Leonardo. Qual o link para o seu github?

0
Leonardo Nogueira

Leonardo Nogueira

07/07/2021 17:59

Olá Mateus,


Tudo bem? Obrigado pelos comentários, sugiro que você dê uma olhada no meu código lá no Github, eu não coloquei no artigo para não ficar chato.


Abs,

Leonardo Nogueira

0
M

Mateus Silva

07/07/2021 11:28

Muito interessante a análise, Leonardo. Só fiquei com algumas dúvidas, você usou qual índice para validar o modelo do KMeans? Como você dividiu o grupo de treino e testes? E, você removeu os outliers na hora de treinar o modelo?

Não consegui encontrar essas informações no texto, aí me deu curiosidade. De qualquer forma, muito interessante.

0
Thiago Guedes

Thiago Guedes

07/07/2021 09:59

Top artigo, Leo!

https://www.linkedin.com/in/leonardonogueira/

Brasil