Identificação de oportunidades de receita

As empresas que fazem isso podem identificar áreas de melhoria e concentrar recursos para proteger seus negócios à prova de recessão

Michael Flaxman

Apesar da iminente recessão econômica, muitas empresas não estão recuando nos investimentos em tecnologia. De fato, de acordo com uma pesquisa da CNBC, 75% dos líderes de tecnologia esperam que seus gastos com tecnologia aumentem este ano. Mas por que?

A agilidade e a resiliência da infraestrutura digital são particularmente cruciais para empresas em períodos de incerteza econômica. A tecnologia digital pode ajudar as empresas a reduzir custos, simplificando processos e automatizando tarefas de rotina. De acordo com a Harvard Business Review Research, durante a incerteza econômica, “as empresas devem priorizar projetos de transformação de ‘autofinanciamento’ que compensam rapidamente, como automatizar tarefas ou adotar tomadas de decisão baseadas em dados”.

blank
Michael Flaxman

Os aplicativos baseados em RFID têm muito a contribuir aqui, mas há uma necessidade de integrar esses tipos de fluxos de dados de maneira mais rápida e fácil aos principais processos de negócios. As plataformas aceleradas de aplicativos de análise de big data podem ajudar, especialmente aquelas que fornecem opções de análise de autoatendimento. No entanto, uma questão chave torna-se o planejamento de recursos apropriados, especialmente o suporte para operações espaço-temporais (ST) escaláveis. Mesmo um pequeno número de dispositivos RFID gera grandes conjuntos de dados, portanto, há um risco comercial em pilotar algo que não pode ser dimensionado de forma realista para a produção. O uso de geoSQL baseado em padrões em uma plataforma projetada para lidar com grandes dados ST geralmente é crítico para garantir a entrega inicial rápida, mas também capacidade de manutenção e extensibilidade.

Atualmente, as empresas enfrentam muitos desafios, como interrupções na cadeia de suprimentos, inflação, instabilidade geopolítica, efeitos prolongados da pandemia e mudanças climáticas – tudo levando à volatilidade dos negócios. A maioria das empresas sofre quando a economia está em baixa, principalmente porque a demanda e a receita caem e a incerteza sobre o futuro aumenta. Para se preparar e enfrentar uma recessão com sucesso, as empresas precisam ser flexíveis e fazer ajustes importantes. Os investimentos certos em tecnologia permitem maior agilidade operacional para as organizações e fornecem vantagem competitiva.

Há duas inovações tecnológicas de nível inferior a serem observadas aqui: bancos de dados colunares e GPUs. Isso ocorre porque estamos em um ponto de inflexão para a tecnologia, onde as empresas têm acesso a muito mais dados do que nunca na história. Para gerar o valor comercial ideal, os dados coletados das etiquetas RFID quase sempre precisam ser agrupados de forma tabular e espacial aos dados dos sensores da Internet das Coisas (IoT), satélites, dispositivos GPS sem fio e muito mais. Em outras palavras, big data é sobre variedade e velocidade de dados, não apenas volume.

O armazenamento de dados corporativos é suficientemente avançado para armazenar todos esses dados à medida que são coletados continuamente. No entanto, integrar esses dados rapidamente e sob demanda continua sendo um desafio importante. O big data tem gravidade, no sentido de que movê-lo em um data center ou entre esses centros pode ser caro em tempo e dinheiro. Portanto, uma consideração importante torna-se a capacidade de minimizar essas transferências movendo apenas os dados mínimos necessários para responder a uma consulta ou conjunto de consultas.

Bancos de dados colunares e formatos de armazenamento são um avanço importante aqui, especialmente para dados ST. Isso ocorre porque, com esse tipo de tecnologia, torna-se muito eficiente enviar consultas para obter dados vinculados no espaço e no tempo. Por exemplo, se sua consulta for projetada para determinar se uma tag RFID específica em um contêiner de remessa deixou o porto ontem, sua lógica de negócios já definiu os limites ST. Com a lógica push-down federada, você pode evitar o carregamento de milhões a bilhões de registros mais antigos ou relacionados a outras regiões geográficas.

Uma segunda grande inovação é o advento do software analítico que utiliza unidades de processamento gráfico (GPUs). Embora anteriormente usadas principalmente para jogos ou mineração de criptografia, as GPUs agora fornecem o poder de computação para processar e analisar milhões de pontos de dados em questão de minutos, em vez de semanas. Esta não é uma pequena mudança incremental. Os sistemas criados para usar GPUs com eficiência são 10 a 100 vezes mais rápidos do que os sistemas legados.

Aproveitar as GPUs abre as portas para que as empresas usem insights e visualização de big data para tomar decisões mais inteligentes de alto impacto com base nos enormes conjuntos de dados na ponta dos dedos, tudo em minutos ou até segundos. Isso lhes permite identificar rapidamente novas oportunidades de receita e economia de custos, que são as principais vantagens competitivas, principalmente na fase de recessão de um ciclo de negócios.

Portanto, se a maior parte de seus dados de negócios e RFID estiverem armazenados em bancos de dados convencionais em arquiteturas de CPU, você precisa jogar tudo isso fora e começar de novo? Felizmente não! Estratégias melhores estão disponíveis. Em 2023, todos os bancos de dados já sabem se comunicar com todos os outros bancos de dados e todas as ferramentas de inteligência de negócios sabem se comunicar com todos os bancos de dados. Uma estratégia melhor aqui é, portanto, adicionar seletivamente um “nível de aceleração”. Essa camada não substitui seus bancos de dados principais, mas os complementa em um conjunto específico de aplicativos altamente exigentes.

Estendendo o uso de RFID no exemplo de contêineres acima, imagine que o banco de dados de registro é postGIS. Esse é um ótimo banco de dados de mais de 40 anos, agora também disponível na nuvem. Mas, embora possa executar geoSQL sofisticado, fazê-lo em grandes volumes de dados ST requer reindexação contínua de dados e longas consultas em lote. Como não possui recursos intrínsecos de renderização de mapas na CPU, muito menos GPU, o postGIS precisa ser emparelhado com algum tipo de servidor ou cliente de renderização de mapas. Infelizmente, essa arquitetura essencialmente requer o envio de dados geotemporais muito grandes cada vez que você deseja detalhar visualmente para encontrar um contêiner específico.

Em vez dessa última etapa desajeitada e sem desempenho, considere a estratégia de nível de aceleração. Dependendo do local de dados existente e dos requisitos de segurança, você pode hospedar a camada de aceleração no local ou na nuvem. O ponto crítico é simplesmente que ele possui GPU e acesso rápido aos dados relevantes. Felizmente, com aplicativos modernos baseados em contêineres, a instalação em qualquer contexto é bastante fácil. Se você não tiver um kit local apropriado, pode até usar os fornecedores de nuvem para testar várias opções de hardware por hora.

Ao custo de executar um comando docker ou kubernetes e talvez abrir algumas portas, agora você terá uma camada de análise de GPU moderna e de alto desempenho. Para testá-lo, você só tem mais duas etapas. Primeiro, você precisa fazer e manter uma conexão com seu banco de dados legado, inserindo as credenciais apropriadas. Em segundo e último lugar, você precisa criar um painel baseado em mapa. Os detalhes obviamente variam de acordo com o sistema, mas com as ferramentas modernas de análise de GPU, os gráficos baseados em mapas são normalmente incorporados. Et voila, rastreamento RFID detalhado de 10 a 100 vezes e desempenho de renderização de mapa em uma única sessão.

Com esse bit de infraestrutura instalado, sua organização já estará muito melhor provisionada. Você terá análises de alto desempenho em big data e provavelmente também um nível muito melhor de análises de autoatendimento. Hora de colher mais algum valor comercial! O painel já discutido seria um exemplo de análise human-in-the-loop. Você ganharia eficiência e valor comercial, por exemplo, porque, em vez de um funcionário ligar para o agente de transporte e ser colocado em espera, ele poderia rastrear um contêiner importante diretamente. Isso pode economizar de 5 a 15 minutos para cada ocorrência.

Mas adicionar um segundo nível de automação pode melhorar ainda mais o retorno sobre o investimento (ROI). Por exemplo, a maioria das pessoas não se preocupa com o andamento das operações conforme o esperado. Eles querem saber o mais rápido possível quando as coisas estão indo mal. Na análise, isso geralmente é conhecido como detecção de anomalias. Então, em vez de fazer com que os usuários façam login em um painel para rastrear um RFID, que tal adicionar um rastreador de alterações acionado pelo usuário? O aplicativo do usuário muda para uma interface para especificar os detalhes de comunicação desejados. O usuário se importa se o contêiner está adiantado? Três horas atrasado? A arquitetura de computação permanece basicamente a mesma de antes, com a adição de uma métrica de notificação.

Mais uma vez, os detalhes variam de acordo com o sistema, mas essencialmente a interface do usuário apenas permite que o usuário ajuste o nível de conversa que deseja que suas notificações sejam e por qual meio deseja que sejam entregues (e-mail, texto, folga etc.). De repente, porém, todos os funcionários da empresa têm uma coisa a menos com que se preocupar – a menos que realmente precisem se preocupar com isso. A detecção de anomalias é de alto valor comercial porque ajuda os funcionários a se concentrarem no que é realmente importante.

Por fim, vamos considerar um caso mais sofisticado que ainda é bastante geral. Imagine que você é responsável por uma cadeia logística complexa para fabricar um widget. Como é típico na logística, você deseja minimizar seus custos de estoque e armazenamento, mantendo a confiabilidade na entrega de componentes. Se estiver faltando um componente essencial, sua linha de produção será interrompida. Mas se você tiver que manter três meses de estoque de tudo, seus custos de estoque e armazenamento não serão competitivos.

Este é um bom caso para análise preditiva. No conceito, não estamos mais preocupados com a localização de uma única etiqueta RFID, ou mesmo com o atraso em uma única etiqueta, mas sim com a previsão das consequências de múltiplas variações na cadeia de suprimentos. Uma maneira de abordar isso é aplicar a análise preditiva primeiro à previsão de atrasos e, em seguida, às consequências de tais atrasos.

Imagine que entregamos essa tarefa para nossa equipe de ciência de dados. Eles construirão essencialmente dois modelos acoplados de alto nível, um para atrasos e outro para consequências. Ao longo do caminho, eles geralmente geram centenas de instâncias de modelo de teste para determinar a melhor arquitetura de modelo. Cada vez que um deles é treinado, eles desejam acessar o máximo possível de dados históricos, para que, por exemplo, possam calibrar as diferenças entre fornecedores ou rotas de remessa.

Embora o processo sem dúvida envolva muitos novos jargões sobre “engenharia de recursos” e “derivação do modelo”, a questão subjacente é que a ciência de dados requer formas muito pesadas de acesso a dados, geralmente ao histórico completo do banco de dados. Se você não planejar isso, qualquer grupo de ciência de dados provavelmente sobrecarregará os recursos de qualquer arquitetura de dados convencional. Por exemplo, eles estarão martelando seus bancos de dados de produção dia e noite. Felizmente, essa é outra área em que a análise de RFID baseada em GPU pode ser muito eficiente. As equipes de ciência de dados usam e gerenciam GPUs rotineiramente.

Portanto, neste caso hipotético, seria bom hospedar pelo menos uma instância de sua camada de aceleração em seu grupo de ciência de dados. Dessa forma, as cargas pesadas de consulta necessárias no treinamento do modelo serão, em sua maioria, isoladas na camada de aceleração e afastadas da produção. Como benefício secundário, os resultados desses modelos já estarão disponíveis em uma ferramenta de análise de negócios junto com o restante dos dados da empresa. Isso significa que os testes de modelos e os prazos de entrega podem ser substancialmente reduzidos, economizando tempo e dinheiro.

Como esperamos que esses exemplos ilustrem, há uma variedade de maneiras pelas quais a análise acelerada pode gerar alto valor comercial, mesmo em tempos difíceis. A inteligência de negócios e a visualização de dados transformam a enxurrada de dados de RFID e IoT em novos insights e possibilitam novas formas de resolver problemas. A convergência da IoT e do big data promete um enorme novo valor comercial e oportunidades para empresas em todos os principais setores. À medida que as empresas lidam com o volume, velocidade e variedade de seus dados, elas podem potencialmente descobrir áreas de melhorias e economia de custos, bem como descobrir novos fluxos de receita.

Estudando as diferenças históricas entre as empresas que se saem bem durante as recessões e aquelas que não o fazem, a Harvard Business Review faz referência a um relatório da Bain que descobriu que o principal fator que fez a diferença foi a preparação. Atualmente, essa preparação se traduz em investimentos em tecnologia corporativa que suportam a transformação digital e fornecem ROI significativo para os negócios. Ao implantar análises de RFID aceleradas, as empresas terão a capacidade de identificar proativamente áreas de melhoria e concentrar recursos para proteger os negócios da recessão em tempos de incerteza econômica.

Dr. Michael Flaxman é o vice-presidente de produtos da HEAVY.AI

- PUBLICIDADE - blank