<

Revista Controle & Instrumentação – Edição nº 271 – 2022



¤ Cover Page
 

 
 
 
Sobrecarregadas de dados, as empresas sempre enfrentaram o dilema de selecioná-los... quem quer – ou pode – saber o quê, e realmente transformar os dados coletados em informações de valor, é tão ou mais importante do que a tecnologia utilizada para os colher.

Os dados têm sido chamados de novo recurso natural, e cada parte de uma empresa toma decisões diariamente, com base nos dados que coleta, processa, analisa... O que já era percebido, quando do surgimento dos instrumentos inteligentes, ganhou projeção, e foi impulsionado pela ascensão das tecnologias para implantar a Indústria 4.0. E esse cenário também destacou o fato de que informações deficientes têm impacto significativo. Nesse cenário, que mistura potencial promissor e sobrecarga de dados, as empresas precisam dar muita atenção na hora de definir, por onde e como começar.

As ferramentas de Business Intelligence (BI) são as mais indicadas para dar conta do fluxo de busca, aquisição, análise, estocagem de dados, mas também há a opção, no caso de produções de fábrica, do uso da Manufacturing Execution System, ou MES.
 
“No nosso caso específico, o MES – Manufacturing Execution System – pode ser facilmente integrado ao Dynamics 365 Supply Chain Management, com sistemas comuns de execução de manufatura. A solução, que roda em nuvem, reduz os custos gerais de implementação e operação, ajudando fabricantes a estabelecerem visibilidade e controle, de ponta a ponta, sobre a área de produção. Já para BI, temos o Power BI, solução de análise de dados inteligente, que permite a visualização intuitiva dos dados. Com ele, é possível fazer perguntas por escrito ou faladas, a partir de modelos nativos de Machine Learning e Inteligência Artificial. Nossa solução, então, “responde” na forma de gráficos, por exemplo. Além disso, temos o “Quick Insights”, em que as informações são passadas rapidamente, justamente com recursos de Machine Learning. E com a introdução de metas no Power BI, também facilitamos, para as equipes, impulsionar o progresso em torno de KPIs específicos. As metas permitem que as equipes selecionem e rastreiem facilmente as principais métricas de negócios, aprofundem os dados relacionados quando necessário, e até mesmo executem ações automatizadas, com base no status dessas metas, com a integração do Power Automate. Com essas soluções, somos líderes, há 16 anos, do Quadrante Mágico do Gartner, na categoria de análise de dados e plataformas de BI”, comenta Marcondes Faria, diretor de produto de Dynamics 365, e Power Platform da Microsoft Brasil.
 
Ah... o MES...
A priori, o MES atende aos quatro critérios para Big Data – e as empresas estão acumulando cada vez mais dados. O MES também registra informações de lotes, movimentos de materiais, mensagens de status, padrões de teste ou entradas de texto, o que resulta em uma enorme variedade de dados não estruturados, que precisam ser processados. O MES também é capaz de armazenar valores de processo em tempo real, e pode condensar Big Data em dados inteligentes. Sobra, então, para as pessoas, a tarefa de analisar e valorar os dados armazenados pelo MES, tirar as conclusões certas, e agir. Quanto mais precisos os dados da produção, mais confiáveis podem ser as recomendações de ação.

No MES, as definições de todos os dados a serem registrados devem ser armazenadas primeiro no sistema, o que requer uma configuração complexa, e um amplo gerenciamento de dados. E, em tempos de Big Data, os usuários exigem entrada de dados simples – o que demanda conceitos abertos, com os quais todos os dados possam ser registrados, antes de serem classificados, ordenados e processados. Os dados podem ser lidos via OPC-UA, e armazenados diretamente em um banco de dados SQL. Sim, é possível trabalhar com o MES, mas já está claro que as tecnologias utilizadas devem ser gradualmente substituídas por novas, tendo em vista a quantidade cada vez maior de dados.

O MES – e a ISA S95 – está mudando, com a fusão TI & TO e com os sensores podendo mandar dados para um data lake na nuvem, sem passar por um PLC, PIMS ou gateway – ou seja sem precisar respeitar uma hierarquia tradicional. É uma parte importante a ser considerada, quando se pensa na implantação de um BI – Business Intelligence.

O livro O Impacto nos lucros do Business Intelligence – de Steve e Nancy Williams – afirma que o Business Intelligence (BI) não é apenas uma tecnologia ou metodologia, mas uma abordagem de gerenciamento que pode fornecer conhecimento, e consequentemente melhores decisões – quando bem aplicado. O BI é uma combinação de ferramentas e técnicas que fornecem informações históricas, para suportar o gerenciamento e a tomada de decisões. O Gartner Group, em uma pesquisa recente, mostra que “as plataformas de análise e inteligência de negócio (BI) permitem que usuários não técnicos, incluindo os altos executivos, modelem, analisem, explorem, compartilhem e gerenciem dados e colaborem e divulguem descobertas, habilitadas por TI e aumentadas por inteligência artificial (IA).”
 
 
Existe uma série de definições e intersecções a respeito desses termos. Os contextos em que os termos serão aplicados também devem ser considerados. “O BI (Business Inteligence) contempla um conjunto de processos e ferramentas para fazer a coleta, a organização e a análise dos dados para o auxílio na tomada de decisões. O BI começou há bastante tempo, quando ainda utilizávamos os chamados ‘relatórios gerenciais’, que normalmente eram desenvolvidos por equipes de analistas e traziam consolidados de métricas e resultados passados, para servir de base para decisões futuras. Eram estáticos e não permitiam muita customização, já que vinham impressos. A esse modelo chamamos de 1ª Geração de BI, ou Centralizada”, conta Cesar Ripari, diretor de Pré-Vendas para América Latina da Qlik, multinacional referência em integração e análise de dados.
 
Ripari lembra que, nos anos de 1990, com a chegada de sistemas especialistas, CRMs e ERPs, a popularização dos PCs e o downsizing, os dados ficaram mais acessíveis aos tomadores de decisão. Em vez de receberem os relatórios prontos, os usuários passaram a ter acesso aos dados, o que permitia a cada um fazer suas análises, e criar seus próprios relatórios em planilhas. Dessa maneira, diminuiu-se a dependência de uma área centralizada para isso, e mais autonomia foi dada ao usuário final – modelo chamado de 2ª Geração de BI, ou Descentralizada.

“Por fim, vivemos em uma era de explosão de dados. São inúmeros sistemas que geram dados a todo momento, e precisam ser analisados pelos usuários como um todo. Há também uma preocupação sobre que tipo de dado um usuário pode, ou não, acessar, e em que nível de granularidade – diretores podem ver mais detalhes que gerentes, que, por sua vez, podem ver mais detalhes que um usuário comum. Portanto, essa 3ª Geração de BI, chamada Democratizada, caracteriza-se pelo self-service de dados, isto é, um “buffet”, em que o usuário tem acesso a todos os dados que a empresa lhe permite, de maneira governada e segura. E por meio de ferramentas de BI, como o Qlik Sense, pode criar suas visualizações e seus relatórios, inclusive de maneira colaborativa”, diz Ripari.
 
 
Mas qual plataforma usar? Mesmo as listas deste ano apontam que nem todas oferecem os mesmos serviços e recursos, ou seja, é preciso tempo para analisar qual a mais adequada para o seu negócio. E há diversas listas, então, condensando algumas, podemos listar o Microsoft Power BI como plataforma geral de BI; o Tableau Desktop como recente destaque para visualização e fontes grandes de dados; Dundas BI, uma plataforma baseada na web; uma plataforma especializada em Inteligência Artificial como a Sisense; a conhecida integradora SAP; uma plataforma voltada para pequenas empresas e uma pessoa, Microstrategy; uma com enorme espaço no serviço, como a Amazon; uma que seja mais barata, como a Tibco Spotfire; uma plataforma bem conhecida, como a Zoho. É trabalho hercúleo, que demanda ter boas noções de TI, e bons parceiros, porque nem os quadrantes especializados definem qual seria a melhor plataforma para este ou aquele negócio – ainda que os quadrantes tragam quase a mesma fotografia do setor.
 
 
Os fornecedores de BI são muitos e incluem startups apoiadas por fundos de capital de risco, grandes empresas de aplicativos corporativos, empresas de análise independentes e os grandes hiperescaladores de nuvem – o que acaba sendo um ponto de atenção, porque muitos novos investimentos estão sendo colocados na nuvem, para atender à escalabilidade e desempenho frente aos diversos tipos e grandes volumes de dados.

O Gartner pontua que muitas vezes as plataformas BI ‘são pontos de entrada para um conjunto mais amplo de recursos de dados e análises em nuvem oferecidos por fornecedores de nuvem e seus ecossistemas’. O mesmo Gartner aponta recursos que devem estar presentes, como a segurança do acesso e autenticação da plataforma; a governança, anteriormente chamada de “manageability”, que são recursos que rastreiam o uso, e gerenciam como as informações; a capacidade de construir, implantar e gerenciar aplicativos analíticos na nuvem; recursos que permitam que os usuários se conectem e insiram dados contidos em vários tipos de plataformas de armazenamento; suporte para arrastar e soltar, combinar dados de diferentes fontes, e para criar modelos analíticos; um catálogo pesquisável, e que faça recomendações aos usuários; insights automatizados, ou seja, a capacidade de aplicar técnicas de machine learning para gerar insights automaticamente para usuários finais; a visualização de dados; consulta de idiomas; a capacidade de gerar histórias de dados no estilo de notícias; criação automática de descrições ricas, encontradas em dados com mudança dinâmica da narrativa, à medida que o usuário interage com os dados; e a geração de relatórios perfeitos, parametrizados e paginados, que podem ser programados e enviados para uma comunidade grande de usuários.

A visualização e análise de dados são vitais na era digital, e existem muitas interpretações para BI, Data Science e qualquer outro termo de TI. Data Science, como o nome diz, é uma ciência que se aplica ao estudo detalhado das informações, utilizando-se, como base, matemática e estatística, principalmente, além de muita programação – sobretudo para a criação de algoritmos. Por meio desse estudo, podem-se compreender as melhores técnicas para capturar um dado, armazená-lo, tratá-lo, transformá-lo e, por fim, utilizá-lo para a tomada de decisões. Muito desse processo hoje é feito por meio de algoritmos criados pelos cientistas de dados, utilizando-se processos lógicos e computacionais, além de inteligência artificial (IA) e aprendizado de máquina (machine learning). Data Mining (Mineração de dados) está mais relacionada aos processos de análise de grandes volumes de dados, nos quais se buscam determinados padrões e relacionamentos entre si. Aqui também se usam algoritmos, que são as ferramentas especializadas para “minerar” essa grande quantidade de dados, e encontrar a informação que se procura. A partir dessas associações, é possível entender e criar novos conjuntos de dados e testar hipóteses, tendo sempre como objetivo resolver um problema de negócio. O Data Warehouse (DW) é um grande “depósito” de dados, projetado para ser um ponto central de armazenamento, seguro e extremamente organizado. O DW consolida grandes quantidades de dados, vindas das mais variadas fontes, permitindo que as consultas sejam feitas por assunto, e facilitando, assim, a obtenção das informações de forma rápida

“São conceitos diferentes, porém complementares. Se entendermos que BI é a capacidade de uma empresa tomar decisões rápidas, baseada em dados históricos e atuais, o Data Science é a área de estudo que permite o desenvolvimento de uma empresa BI. No estudo de Data Science, várias técnicas podem ser aplicadas, entre elas, o Data Mining. Sendo assim, o Data Sciense reúne um conjunto de habilidades tecnológicas, conhecimento de estatística e matemática, e experiência com dados, que os outros conceitos não requerem. E o Data Warehouse é o banco de dados onde são armazenadas, utilizando técnicas de Data Science, as informações para o BI”, explica Ronaldo Neves Ribeiro, Gerente do DETIN – Dep. Tecnologia Informação e Telecom, da Cenibra.
 


“Sim, eles se complementam. Por exemplo, o Data Warehouse pode ser o grande repositório digital, para que os usuários apliquem algoritmos, utilizem ferramentas de BI para buscar respostas, e entender melhor o negócio. A Ciência de Dados traz o conhecimento e as ferramentas para se fazer isso da melhor maneira”, diz Ripari.
“A grande diferença entre Business Inteligence e ciência de dados, é que o Business intelligence está trabalhando na camada de performance do negócio, buscando fazer análises prescritivas sobre o que aconteceu, e diagnóstica, sobre o motivo que ocasionou uma determinada situação. A ciência de dados atua mais na fronteira da inovação, utilizando a parte preditiva (o que pode ou vai acontecer) e prescritiva (o que deveríamos fazer). Aplicam-se metodologias de uma jornada de inovação, por ser mais complexo de executar e de se obterem os resultados esperados. O Business intelligence processa e apresenta melhor os dados na camada de negócios das organizações, e a ciência de dados faz predições e valida hipóteses sobre os dados analisados, seja na área industrial ( back office ), na camada de gestão de negócios ou área corporativa ( middle office ), ou mesmo na área comercial ( front office) das organizações de base industrial. Já a mineração de dados, é um conjunto de técnicas de estatística aplicada para uma melhor exploração dos dados, que também podemos chamar de análise exploratória de dados, fazendo, inclusive, parte da ciência de dados. E o Data Warehouse é a parte da stack tecnológica que armazena grandes quantidades de dados. É onde os algoritmos buscarão os dados para executar suas funções sistêmicas”, comentam Engenheiro de Dados Eduardo Magalhães (ao lado) e Victor Venâncio (abaixo), Head de Transformação Digital LatAm da IHM Stefanini.
 
“Estes termos têm ganhado cada vez mais espaço, e é interessante analisarmos os contextos, já que até os sistemas de automação, em conjunto com softwares e ferramentas ERPs, se apresentavam como sistemas informatizados, responsáveis por integrar todas as informações do negócio. O grande problema é que estes sistemas não fazem a análise da informação, acarretando a geração e armazenamento de um volume muito grande de dados, dentre elas, algumas que nem sempre contribuem para o processo de tomada de decisões. Porque o uso da informação que se tem disponível de maneira estratégica traz inúmeros benefícios para os negócios, especialmente a vantagem competitiva. É o transformar bits e bytes em negócios lucrativos, onde o que se quer é ter as ferramentas e capacidades em gerar e absorver as informações, e mais do que isso, aprender com elas, em um processo contínuo de evolução. Após as informações serem coletadas internamente e externamente, são armazenadas, tratadas, e auxiliam os gestores nos processos de decisão. Desta forma, tornam-se o maior diferencial competitivo que a empresa pode possuir, perante os seus concorrentes”, comenta Cesar Cassiolato, presidente da Vivace.
 
Enquanto o BI usa a coleta de dados para a tomada das melhores decisões, e saber se os investimentos feitos estão trazendo bons resultados para a empresa, o Data Science analisa os dados para subsidiar esta tomada de decisão, e gerar insights ao negócio. Ou, de forma mais simples e direta, o BI olha o passado, e o Data Science usa modelos preditivos para tentar identificar prováveis cenários futuros, e indicar quais seriam as ações capazes de afetar positivamente os negócios. Para sua execução no dia-a-dia, são aplicados conhecimentos de matemática, programação, estatística, além de tecnologias, como machine learning e inteligência artificial.

É através das análises de Data Science que as organizações conseguem olhar para frente e prever, por exemplo, quais produtos serão mais interessantes para o consumidor, em determinado momento, ou até mesmo desenhar tomadas de decisão futuras.

Através dos estudos de padrões, as empresas dispõem de informações de previsão de demanda cada vez mais precisas, reduzindo custos de estoques, e otimização da compra de seus insumos. No que se refere à produção, cada vez mais sensores são instalados nos polos industriais, para geração de dados dos processos realizados nas cadeias produtivas, sendo possível acompanhar, em tempo real, indicadores e métricas da produção e qualidade dos produtos de forma online. BI e Data Science devem caminhar juntos dentro do negócio, para o seu melhor resultado. Estas soluções envolvem uma gama de ferramentas de cálculos, banco de dados, processos e funções, necessárias para transformar as informações simples em novas informações, acrescentadas de necessidades de análises atuais do negócio.
 
Ricardo Turazzi, assessor de Inteligência de Software da Nova Smar, lembra que é preciso ter cuidado em verificar se a ferramenta de BI atenderia os requisitos do usuário, incluindo as facilidades necessárias para a aquisição, manipulação e apresentação dos dados, já que o objetivo em geral é transformar grandes quantidades de dados, em tempo real (ou de histórico), em inteligência acionável, impulsionando a melhoria da produtividade, eficiência, qualidade e sustentabilidade.
“Por exemplo, a mais nova família de software para operação, da Nova Smar, inclui um módulo chamado AnalyticsView, que contém uma ferramenta de BI já integrada ao sistema de automação, e que permite o desenvolvimento de aplicações de uma forma muito prática. Ela faz uso dos serviços de plataforma da suíte do ProcessView64, para se conectar aos equipamentos de controle e de campo através de padrões de comunicação como o OPC e o Modbus. Também se conecta a outras fontes de dados, como bases de dados (como Oracle, SAP, etc.), serviços Web, etc. Desta forma, a ferramenta consegue, por exemplo, relacionar dados de fontes distintas, e extrair inteligência destas interações. Em outras palavras, os dados podem ser organizados em Modelos de Dados definidos pelo usuário, representando coleções de datasets, que são logicamente relacionadas entre si, independentemente de sua origem física. Modelos de dados podem então ser conectados aos dados reais, usando Fluxos de Dados; e Processos ETL (Extract Transform Load) permitem transformações em várias etapas dos dados ingeridos, para melhor formatação e filtragem, antes de carregá-los em um modelo. Além disso, o módulo se beneficia de todas as formas de apresentação visual ao usuário, através dos vários tipos de dispositivos fixos e móveis que temos atualmente, podendo ser disponibilizados, tanto localmente, quanto remotamente, através da nuvem. Desta forma, os dados podem ser extraídos e manipulados, da forma que faça mais sentido em termos do negócio do usuário, e então serem apresentados, por exemplo, sob a forma de dashboards, com indicadores de desempenho, relatórios tabulares ou gráficos, entre outros. E assim esta solução pode ser aplicada para resolver desafios comuns de business intelligence (BI), permitindo que os usuários da automação transitem de dados para informações, de forma rápida e prática, sem a necessidade de ajuda especializada da TI ou de cientistas de dados”.
 
Saber obter mais valor dos dados, tomar melhores decisões, e agir com mais rapidez é uma missão de suma importância. E, ao olharmos para o mundo dos sistemas de automação com os olhos na geração de dados e obtenção de informações, temos de ter um alto grau de confiabilidade, para que o uso de dados incorretos em modelos preditivos e análises não leve à perda de confiança e tomadas de decisões incorretas. Sistemas de automação baseados em redes digitais abertas possuem alto grau de confiabilidade, e podem facilmente gerar os dados que podem ser tratados por softwares específicos, através de cálculos, estratificação da informação, e estatística para prover informações em tempo real, para a tomada de decisões.
 
 
“Para uma boa estratégia de dados, a segurança é um aspecto fundamental, e esse tema é extremamente importante para a Microsoft. As plataformas e tecnologias, como um todo, precisam estar em conformidade com as legislações, especialmente na proteção de dados. Na Microsoft, sempre temos essa preocupação em seguir de acordo com a legislação, e trabalhamos para protegê-los de diversas maneiras. Para dados que residem em infraestrutura local, por exemplo, nós indicamos que o cliente utilize uma camada de proteção adicional para a criptografia de arquivos, por meio do Azure Information Protection, e ainda garantir que esses arquivos não sejam acessados sem autorização, mesmo que transferidos para um repositório não criptografado, como pen drives e e-mails. Já para garantir a proteção de informações em dispositivos móveis, a empresa pode optar por usar o recurso de gerenciamento de aplicativos do Intune (MAM), para mover a camada de criptografia para o aplicativo móvel, e aplicar controles adicionais sobre onde os dados podem ir – por exemplo, impedir que os dados corporativos se movam a um aplicativo pessoal e não gerenciado”, pontua Marcondes.

“Os dados que o BI e a DS usam vêm da Data Wharehouse (Não SAP), SAP, e outras fontes externas. E realmente é preciso cuidado com dados insuficientes e/ou incompletos e, se algum problema for notado, partindo do princípio de que já se sabe interpretá-los, devemos tratar a fonte dos dados por falha humana, ruídos do processo, melhorar a qualidade do registro / coleta. Ainda, através de análises exploratórias, quando os dados ainda não foram integrados ou podem estar incompletos, precisamos verificar pontos fora da curva, para que esses dados sejam inseridos em processos e sistemas. Muitas vezes, para ajustar dados incompletos/insuficientes, é preciso ‘alfabetizar’ as equipes, para que entendam o valor dos dados e a relação com análises futuras”, comenta Ronaldo.
Os dados podem vir das mais variadas origens, nos mais diversos formatos, e em quantidades massivas. O IDC, em seu estudo “Global Datasphere”, projeta, até 2025, uma geração de dados na ordem de 175 Zettabytes, no mundo. Cada Zettabyte equivale a 1 Trilhão de Gigabytes. E esse volume cresce exponencialmente, a cada ano, portanto, pode-se atingir essa cifra até antes da data projetada.

“Normalmente, os dados utilizados pelo BI são provenientes de sistemas internos das empresas (ERPs, CRMs, bases de dados corporativas e departamentais, etc.), e podem ser combinados com dados externos. O Data Warehouse pode ser uma fonte rica de informações para os sistemas de BI. Como os dados são gerados em grande quantidade, é importante que as empresas tenham um controle do que pode ser acessado pelas diversas áreas, e em que detalhe de informação. Além disso, um BI que possa analisar os dados por diferentes pontos de vista, sugerir análises automaticamente, sem desprezar nenhuma informação, é extremamente importante para que o usuário possa tomar a melhor decisão”, diz Ripari, da Qlik.

Todo chão-de-fábrica possui maquinários com sensores. Esses sensores coletam informações dos equipamentos e do ambiente, a todo tempo (hora, velocidade, peso, volume, temperatura etc). Esses dados são enviados a um repositório central, que pode, em tempo real, alimentar sistemas de monitoramento e de BI, fazendo com que essas informações sejam atualizadas e gerenciadas a cada instante. O BI pode agrupar todas essas informações, compará-las com as métricas esperadas de produção para aquele dia/ turno, e manter as equipes informadas. Caso uma linha de produção esteja consumindo mais insumo do que o esperado, ou uma outra gastando mais energia, a coordenação e os executivos podem ser alertados dessa não conformidade, no momento em que está acontecendo. Esse alerta pode chegar via e-mail ou app no celular, e até mesmo disparar ações de correção automaticamente, como acionar as equipes de manutenção, para que tomem as ações necessárias, o mais rápido possível. Esse é um exemplo do que a Inteligência Ativa da Qlik pode fazer para o negócio, coletando os dados do que está acontecendo em tempo real, alimentando os sistemas de análise baseados em regras de negócio e, de forma automática, sugerir (ou tomar) ações. O executivo busca sempre uma maior produtividade, com eficiência operacional e menor custo. Máquinas paradas diminuem a produtividade e aumentam o custo. Por isso, a tomada de ações baseadas em dados é a maior aliada dos executivos, qualquer que seja o segmento.

A equipe da IHM Stefanini aponta que “nas organizações de base industrial, estruturadas em Back, Middle e Front offices, área industrial, corporativo e comercial respectivamente, os dados se apresentam de todas as dimensões organizacionais. A Convergência OT-IT, visa a extrair valor destes dados, que permeiam por toda organização, e representa o primeiro passo na jornada de transformação digital nas organizações de base industrial. Já no back office (ativos indústriais – sistemas OT – Operation Technology), basicamente os dados vêm de sistemas PIMS (Plant information Management Systems) onde se armazenam, na maioria das vezes, os dados das séries temporais (sensores industriais), sistemas MES (Manufacturing Execution System), onde os dados sumarizados e categóricos são armazenados em LIMS (Laboratory Information Mangagement System), onde se armazenam os dados de qualidade manipulados pelos laboratórios. Há ainda alguns módulos do ERP, como o Gerenciamento de Paradas, manutenção, supply chain, etc. No middle office (corporativo – sistema IT – Information technology), o sistema ERP (Enterprise Resource Planning), temos os dados manipulados pelos departamentos da área corporativa, como o financeiro, tributário, fiscal, contábil, compras, etc., que são igualmente importantes na convergência OT-IT. No front office (comercial/marketing/serviços – sistemas IT), os dados normalmente ficam armazenados no CRM (Customer Relationship Management), e são oriundos de pesquisas de mercado, das operações comerciais com os clientes, serviços realizados, campanhas de marketing, etc.”

Então, uma convergência TO – TI efetiva integra os dados destas três dimensões organizacionais no data warehouse, onde podemos aplicar o BI e ciência de dados, para extrair mais valor destes dados, e gerar vantagens competitivas sustentáveis para toda organização e stakeholders.

“Tipicamente, hoje, os dados de instrumentos de campo são transferidos para o BI, em tempo real, através de protocolos típicos de comunicação, como OPC e Modbus. Mas, os mesmos dados podem primeiro ir para um banco de dados históricos, e então serem transmitidos em pacotes para o BI. Tudo depende do tipo de análise que se deseja fazer. Ou seja, passam por algum driver de comunicação, ou banco de dados. Entretanto, é importante lembrar de que os instrumentos de campo já estão incorporando, em si próprios, recursos de comunicação OPC UA. Desta forma, os dados já iriam diretamente do instrumento para o BI, que, neste exemplo, seria um cliente OPC. Existem também outras possibilidades como, por exemplo, a de um Gateway IoT ser utilizado para comunicar os dados dos instrumentos de campo, diretamente para um serviço de BI em nuvem”, lembra Turazzi, que pontua que existem muitas aplicações diferentes. “Temos hoje, por exemplo, um grande cliente que possui muitos dados, vindo de inúmeras unidades de produção, e esta ferramenta de BI está sendo utilizada para permitir a obtenção de relatórios dinâmicos e outras informações de produção, que fazem uso de recursos típicos do BI, como filtros e organização/manipulação de dados, sem os quais seria muito trabalhoso produzir relatórios semelhantes”.
Cassiolato aponta que já existem mudanças positivas em sintonias de malhas de controle, com ferramentas que fazem a auto sintonia em tempo real, com informações mineradas do campo, aumento da segurança operacional, com melhores estratégias e, de forma marcante, a tão esperada manutenção inteligente, onde os procedimentos de manutenção de equipamentos possuem abordagem preditiva, utilizando-se das informações de degradação temporal, e orienta o momento correto da realização de trocas de peças, de forma que se possam reduzir custos e garantir a maior disponibilidade possível da operação de uma planta. “Um outro exemplo real de business intelligence nas indústrias é o gerenciamento de alarmes. A automação pode ajudar na democratização da inteligência de negócios, simplificando o compartilhamento e o consumo de insights sobre os negócios em toda a empresa. Imagine começar o dia com um resumo, combinando relatórios e visualizações de dados de todos os processos importantes, diferentes sites em que as informações estão ‘vivas’. Esses insights podem abranger mudanças inesperadas nos comportamentos dos processos, qualidade dos produtos, consumos de matérias-primas, de energia, etc. E o gestor terá o poder de agir e melhorar seus indicadores-chave de desempenho (KPIs)”, diz o presidente da Vivace.

Ou seja, a evolução tecnológica está aumentando as possibilidades de comunicação entre instrumentos de campo e ferramentas avançadas de software, como o BI. No passado, tinha-se de respeitar o modelo de camadas hierárquicas, típico da ISA-95, onde a camada mais baixa tinha que obrigatoriamente passar por todas as camadas superiores, até chegar nas ferramentas de software (camadas mais altas). Entretanto, temos hoje também a possibilidade de comunicação direta, via os vários tipos de redes, que permitem que algumas camadas sejam puladas.

“Com o crescimento da digitalização nos últimos dois anos, em que há maior uso de dados para gerar insights, é normal que, nos primeiros resultados, as informações não venham completas. Neste caso, é importante que a área – ou a empresa – responsável pela geração destes dados, junto com os demais executivos, entendam o que pode ter ocorrido. Nesse contexto, a inteligência artificial pode ajudar a tornar o processo mais inteligente, permitindo a realização de análises preditivas avançadas, para que as áreas possam acessar as informações de forma rápida e eficiente. Falando da nossa solução, o Power BI, plataforma unificada e escalável de análise de dados para BI corporativo e por self-service, oferece o gerenciamento on-line das informações, o que pode, por exemplo, antecipar eventuais distorções ou dados incompletos. Para se ter uma ideia, nos dois primeiros anos da Pandemia, nós tivemos aumento do uso do Power BI e do Dynamics 365, nosso portfólio de aplicativos de negócios, justamente por oferecerem soluções escaláveis, e de fácil gerenciamento online, que puderam oferecer resiliência aos nossos clientes, com base em dados, para auxiliá-los a ultrapassar este momento desafiador”, diz Marcondes, da Microsoft.

“Quanto à Automação Inteligente de Processos, um exemplo é nossa Série Neuron, onde a tecnologia embarcada permite o próximo passo na melhoria de performance: habilidades preditivas e cálculos complexos, que proporcionam melhorias significativas de performance, e facilitam a manutenção preditiva. São habilidades built-in, onde os equipamentos aprendem a partir de dados, sem a necessidade de programação explícita do usuário, e onde permitem detecção segura, automatizada e autônoma no tratamento de dados dos sensores, de anomalias na gestão de ativos, entre outros. As vantagens são inúmeras, e podem reduzir significativamente os custos, eliminando a necessidade de tempo de inatividade, planejado em muitos casos. Ao prevenir uma falha com um algoritmo de aprendizado, pode continuar a funcionar sem interrupções desnecessárias. Com a inteligência artificial, a Série Neuron aumenta a segurança operacional, e pode otimizar ainda mais os processos, com base em dados em tempo real”, diz Cassiolato, que reconhece que um dos maiores desafios, ao se implantar um BI e Data Sicence, é verificar, nos sistemas envolvidos, as fontes de dados e a formatação destes, pois, pode haver a dificuldade em processar dados não estruturados, como e-mails, pdfs, imagens, etc. Neste caso, há a possibilidade do uso da inteligência artificial, para que dados não estruturados sejam consolidados em uma única fonte de dados, como um sistema de linha de negócios, planilha ou banco de dados, e ficam imediatamente prontos para análise. Pode-se ainda ter uma solução de automação de ponta a ponta, para melhorar a velocidade e a precisão do processo. A solução pode incluir aprendizado de máquina (ML), processamento de linguagem natural (NLP), reconhecimento óptico inteligente de caracteres, etc.

Ao aplicar a automação aos dados de BI usando a Data Science, a equipe pode concentrar-se em tomar melhores decisões, agir mais rapidamente em insights orientados por dados, e poupar negócios de erros dispendiosos.

O que reforça a necessidade de que todas as áreas estejam envolvidas e entendam a importância dos dados, em processos decisórios que tragam insights para os negócios, mapeiem os perfis dos clientes, aprimorem a performance dos times, entre outros. Se diferentes áreas internas tiveram acesso à essas informações, com certeza, vários insights preciosos poderão ser retirados para o crescimento do negócio.

Mas, do que adianta um executivo do corporativo ter acesso a dados de processo? Depende do executivo. Quando falamos de uma organização que já possui uma estratégia de transformação digital, esta deve ter executivos com visão holística, capaz de identificar a importância da convergência TO-TI, e como extrair mais valor destes dados da área industrial, para acelerar os negócios e aumentar a competitividade da organização.

“Em empresas que ainda não possuem a transformação digital em sua estratégia corporativa, eventualmente os executivos podem estar desconectados da importância da convergência TO-TI, e talvez não consigam assimilar o valor destes dados. Estão muito focados nas operações do negócio dominante, e não conseguem ter tempo para se dedicarem à convergência TO-TI. Essa convergência é o primeiro passo na jornada de transformação digital, e esta integração de dados gera informações relevantes para a tomada de decisão dos executivos C-level. Os executivos que já possuem acesso a estes dados estão gerando vantagens competitivas perante seus concorrentes. Já os que não estão usando os dados estrategicamente, e extraindo valor deles, estão desperdiçando uma importante fonte de receitas adicionais e recorrentes para a empresa”, afirma Victor Venâncio.

Então, não adianta nada um executivo corporativo ter acesso a dados estruturados de engenharia (Pressão em Kgf/cm2 , Temperatura em o C, vazão em Nm3 /h, pH -7, etc.), que ainda estão em um estágio ‘cru’ de geração de valor para o negócio.

O executivo tem de ter acesso aos insights, que são gerados pela equipe de análise de dados, Business Intelligence, e ciência de dados. Os executivos precisam ter acesso às informações resumidas e consolidadas, que lhes suportam uma tomada de decisão mais rápida e acurada para o negócio. Para o executivo da IHM Stefanini, o papel do time de data analytics é entregar, de forma clara e objetiva, os insights, previsões, prescrições e dashboards, para que os executivos C-levels, tomadores de decisão, possam utilizar tais informações analíticas, para aumentar a eficiência e competitividade da organização.

O papel do executivo é entender as demandas de negócio, alinhadas aos objetivos estratégicos da empresa, e utilizar as equipes de dados para ajudá-los a resolver os desafios de negócios mais complexos, por meio de soluções analíticas, que irão prover estas informações para melhores e mais rápidas tomadas de decisão por toda organização.

“Acredito que, hoje em dia, há uma clareza maior do quanto os dados podem trazer de insights valiosos para empresas, de diversos segmentos. Os dados são ativos preciosos no atendimento ao consumidor, e as empresas buscam oferecer ofertas e serviços cada vez mais adequados aos perfis de seus clientes. Anteriormente, já havia uma busca, para entender o perfil do consumidor, e aprimorar a performance dos negócios, porém, de dez ou cinco anos para cá, a criação e movimentação de dados cresceu exponencialmente, modificando a forma como as empresas lidam com o grande volume de informações, à medida que ficou clara a potencialidade de usar esses dados. Além disso, percebemos a implementação de soluções de Inteligência Artificial, para automatizar a leitura desses dados, de forma a auxiliar na retirada de informações de valor para o negócio. E, hoje, todas as áreas podem beneficiar-se de dados e análises. Desde o início da Pandemia, temos visto uma evolução tecnológica em diversas empresas, de vários segmentos, apoiadas pela tecnologia em nuvem. Com isso, as companhias que passaram a olhar para Business Intelligence, de forma a aprimorar a gestão de negócios, se têm destacado da concorrência”, destaca Marcondes.

Para Ripari, o que se busca hoje nos dados é o mesmo de sempre: respostas para um problema de negócio, para ser mais lucrativo, para ter maior eficiência, etc. “A diferença é que hoje temos muito mais ferramentas, processos e, principalmente, volume de dados, para que essas respostas sejam as mais precisas. A maioria das soluções de BI utiliza hoje recursos de IA, que permitem analisar os dados por diversos ângulos, detectar tendências e desvios, e sugerir visualizações aos usuários. Além disso, ferramentas de aprendizado de máquina ajudam na predição de cenários, por meio de modelos pré-estabelecidos. Dessa forma, estamos cada vez mais próximos de prever o futuro, com base nos dados que temos. A Qlik criou um conceito, chamado “Inteligência Ativa”, um estado onde tecnologia e processos permitem a tomada de decisões na velocidade dos dados. Em síntese, em vez de tomar decisões baseadas no passado, podemos tomar decisões com base no que está acontecendo nesse momento, no agora. Em um mundo que muda a cada instante, aproveitar esse instante pode fazer a diferença no negócio”.

“Hoje, queremos sempre predizer algo, nos antecipar em relação às informações que coletamos, em diversos canais e fontes, internas e externas, estruturados ou não. Ao contrário de 10 anos atrás, quando os dados eram exclusivamente históricos (storing telling), e nos apoiavam em tomadas decisão, para corrigir ou melhorar o que já aconteceu, hoje, queremos coletar comportamentos, desejos, para evitar que algo aconteça, ou para lançar ao mercado algo inovador, melhorar performance e processos, além da tão ovacionada Total Experience. Hoje, a busca de dados também é para o aprendizado de máquina, e os benefícios dela para a robotização e predição”,
destaca Ronaldo, da Cenibra, que tem uma equipe em processo de assessment para elaboração da política de Governança de Dados, e descrever um roadmap de estratégia, em torno da governança de dados. E a Cenibra não descuida de quem vai ter de trabalhar com todas essas tecnologias: está preparando cientista de dados com formação de especialização pela UFOP – Universidade Federal de Ouro Preto.

Ripari lembra que essa sopa de letras e conceitos tem, além da ISA 95, inúmeras boas práticas que podemos considerar, ao fazer a análise de dados. A principal é saber qual o problema de negócio do qual necessitamos dos dados para resolver, porque, sem fazer a pergunta certa para os dados, todo o resto acaba se inviabilizando; uma vez de posse dos dados, contar uma boa história com eles é primordial. Técnicas de “storytelling” são importantíssimas, para gerar insights, demonstrar os resultados de forma visual, e simples de ser entendida. Na escola, aprendemos a ler, escrever e contar histórias. Também aprendemos a fazer contas e a lidar com números. O grande problema é que não aprendemos a contar uma história com números. É preciso também definir as métricas de forma clara e consistente, para toda a empresa; checar a veracidade e a consistência dos dados. Dados errados produzem resultados errados; ter cuidado com a privacidade: o compliance deve ser parte fundamental do processo de análise dos dados. Dependendo do uso, a LGPD cita que o dado deve ser anonimizado, ou seja, que não permita vinculá-lo a uma determinada pessoa.

Victor Venâncio acredita que, para escolher uma plataforma de BI, o primeiro requisito é entender quais os gaps que existem ‘dentro de casa’ ou seja, do time analítico existente, ou que se deseja formar. Além disso, saber quais são os problemas estratégicos que se poderiam resolver, utilizando dados. Diante desse alinhamento, e sabendo montar um portfólio que agregue valor para o seu negócio, então, é possível escolhermos uma plataforma adequada. Nesse momento, saberemos se o que precisamos é uma ferramenta aberta ou paga, se poderemos desenvolver a solução analítica usando python (desde que a equipe tenha skills de engenharia de software), ou uma plataforma analítica mais low-code (ou até mesmo no-code). Por último, avaliar o custo/benefício entre se utilizarem ferramentas/plataformas, abertas ou pagas. Todas as duas têm custo, seja de profissionais competentes para mantê-las, ou de licenciamento.

“Importante, também, é criar uma cultura de dados na empresa, por meio da alfabetização de dados dos colaboradores. A Qlik realizou uma pesquisa, que demonstra que apenas 11% dos colaboradores entrevistados se sentem plenamente capazes em ler, analisar, trabalhar e se comunicar com dados. Portanto, a cultura “data driven” das empresas passa pela capacitação dos usuários em lidar com dados, já que, sem estarem alfabetizados em dados, fica mais difícil para os usuários fazerem a pergunta certa para esses dados”.
 
 
TA – Tecnologia de Automação – e TO – Tecnologia de Operação -0 tiveram de abrir espaço para TIC – Tecnologia de Informação e Comunicação. Utilizamos dados desde o momento em que acordamos, seja em caráter pessoal ou profissional. Todas as áreas necessitam de algum tipo de informação para fazer o seu trabalho, seja essa informação disponibilizada em painel de instrumentos, sistema interno, app ou até painéis com métricas distribuídas pela empresa. De posse de informações atualizadas, fica mais fácil executar o trabalho de maneira assertiva. Infelizmente, pesquisas recentes mostram que apenas 10% dos dados relevantes para o negócio são analisados. Se “os dados são o novo petróleo” – frase icônica de Clive Humby, matemático inglês –, seria como se refinássemos apenas 10% do petróleo que tiramos do chão.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
LEIA MAIS NA EDIÇÃO IMPRESSA

DESEJANDO MAIS INFORMAÇÕES: redacao@editoravalete.com.br
Clique na capa da revista para
ler a edição na íntegra


© Copyrigth 2001 – Valete Editora – São Paulo, SP