Revista Controle & Instrumentação Edição nº 237 2018
|
|
¤
Cover Page
|
|
 |
|
|
|
|
|
As empresas querem aproveitar ao máximo os dados
que coletam de seus processos. Mas, o que é
importante para uma empresa pode não ser para
outra. Então, determinar as necessidades de cada aplicação
e desafios de produção e do negócio é um começo.
Verificar o que já se tem guardado e analisar os dados
para gerar insights. Dados dos sensores de campo não são
filtrados e raramente são enviados sem tratamento para a
engenharia; dados sobre vibração e temperatura de motores,
por exemplo, ganharam destaque; dados que derivam
das métricas gerais, etc.
Os usuários finais buscam otimizar o que for possível
no processo; os fabricantes de máquinas usam os
dados para melhorar a performance da máquina ou os
serviços de manutenção, indo ao detalhe da operação,
e têm utilizado softwares potentes de análise para melhorar
suas máquinas em termos mecânicos, eletrônicos
e na conectividade com a TI. E cada melhoria possível é
implementada para resolver as fraquezas detectadas pelos
usuários. |
|
 |
|
Segundo Jorge Kawamura, Professor de Engenharia
de Produção do Instituto Mauá e um dos coordenadores
da demonstração do funcionamento da Indústria 4.0 em
diversos eventos, para determinar quais dados devem ser
adquiridos é preciso analisar o tipo de processo e o que
é necessário medir nele. “Por exemplo, para processos químicos, umidade, temperatura e tempo podem ser variáveis
críticas. Uma variável importante em qualquer tipo
de processo é o tempo, pois, com ela, é possível extrair
vários indicadores secundários, como média de tempo,
ocorrências de anomalias em um período, tempo médio
entre falhas (MTBF), tempo médio para reparo (MTTR),
etc. E um indicador importante para a indústria em geral,
gerado pela aquisição de dados, é o OEE – Overall Equipment
Effectiveness, ou eficiência global dos equipamentos.
Esse indicador mede eficiência da produção da empresa,
e seu cálculo e respectivo benchmark de eficiência
da planta pode ser visto a seguir (Figura 1). |
|
 |
|
Para o Professor, a decisão de quais variáveis devem ser coletadas/medidas para o OEE e geração de outros indicadores, a qual fica a critério do responsável pelo gerenciamento da linha de produção, deve ter a cooperação da equipe de TI responsável pelo armazenamento e tratamento de dados, pela implantação de sistemas e infraestrutura computacionais da empresa, e também da equipe de automação que realizará a aquisição dos dados dos equipamentos da linha. Com toda a discussão ao redor da Indústria 4.0, algo que ficou evidente é o fato de que a área industrial, antes, apenas focada em atingir seus índices de produtividade, sem extrapolar os custos operacionais, agora encara uma realidade em que apenas paineis de indicadores afixados próximos às linhas não respondem mais às perguntas, cada vez mais profundas, sobre como cada máquina, processo ou posto estão operando nesse exato momento. E é preciso saber o que acontece em cada ponto da planta. |
|
 |
“A aquisição de dados – que, apesar de
ter sido sempre necessária e parte integrante
do processo produtivo – passou agora a
ter papel central em qualquer empresa, uma
vez que só podemos realmente melhorar um
processo quando o conhecemos em detalhes.
E quais dados aquisitar vai depender do ponto
de vista de quem responde. A área de TI, por
exemplo, que precisa dimensionar toda a infraestrutura
de rede, tanto para usuários em camadas mais altas,
quanto para o chão de fábrica, provavelmente dirá que a
quantidade de informação produzida por certos processos,
principalmente testes realizados durante a produção, é muito elevada, e que é necessário separar os bancos de
dados, mantendo apenas dados consolidados e/ou críticos
nos servidores de camadas superiores da rede e armazenando
grandes massas de dados brutos sobre testes em
camadas inferiores – o que corrobora uma das premissas
da Indústria 4.0 que indica claramente a necessidade de
separação das redes e dados em camadas hierárquicas
muito bem definidas. E, consequentemente, indica que a
decisão de quais dados adquirir, onde e como gravá-los,
a necessidade de segurança em todos os níveis, não será
mais uma preocupação apenas de profissionais
e departamentos de TI; tão pouco
apenas de profissionais de produção
e engenharia, que vão cada
vez mais precisar de informações
pertinentes aos componentes
e sistemas que formam toda a
cadeia produtiva de suas respectivas
empresas. A multidisciplinaridade
deve acontecer aí também”,
comenta Andre Pereira, Marketing da
Américas do Sul e Central da HBM. |
|
|
 |
Rodrigo de Sousa Soares, especialista em
automação da Beckhoff, conta que o mercado
busca os dados necessários para munir os gestores
com informações suficientes para tomadas
de decisões críticas para a manutenção
dos processos industriais ou otimização dos
mesmos. “Por exemplo: se uma máquina ou
processo é extremamente crítico para a produção
e, nessa máquina, existe um eixo que, se
parado, irá impactar toda a cadeia de processos
subsequentes, esse deve certamente ser monitorado
através de um sensor de vibração e os dados analisados. É
claro que monitorar tudo o que existe em uma fábrica torna
a operação cara, e pode reduzir a competitividade da
empresa, com um aumento de custos, ao invés de melhorá-
la; logo, uma análise criteriosa de quais dados devemos
medir deve ser feita em conjunto entre o time técnico e a
diretoria”. |
|
|
 |
Cesar Cassiolato, presidente da Vivace Process
Instruments, ressalta que é preciso lembrar
o porquê uma empresa precisa de um sistema
de aquisição e supervisão: para proporcionar
níveis maiores de qualidade, redução
dos custos operacionais, maior desempenho
de produção e, fundamentalmente,
para facilitar a excelência operacional.
“Sistemas de aquisição de dados e controle
de dispositivos vêm sendo desenvolvidos
para diferentes áreas de atuação, tanto industriais
como científicas. Nos últimos anos, tem havido crescente
desenvolvimento de sistemas de aquisição e tratamento
digital de sinais, tendo contribuído para a evolução nessa
área o avanço da microeletrônica – tem possibilitado o aumento das capacidades e velocidades dos dispositivos,
a crescente performance dos computadores pessoais e sua
relação qualidade/preço/confiabilidade, cada vez mais e
melhores ferramentas de desenvolvimento de software, as
quais permitem criar aplicações de alto nível com avançadas
interfaces gráficas, desenvolvimento de novas tecnologias
de comunicação, que permitem o controle remoto de
instrumentos usando a internet e o wireless como veículos
de transmissão de dados e armazenamento em nuvem.
Isso resultou em uma imensa quantidade de informação
digitalizada e forçou o surgimento de novas estratégias de
inovação envolvendo pessoas, pesquisa e tecnologia”. |
|
|
Cassiolato ressalta a importância de cada passo dos
avanços tecnológicos que culminaram no desenvolvimento
de sistemas de aquisição, controle e automação. Os
primeiros sistemas de automação foram desenvolvidos no
final do século XIX, durante a revolução industrial: o trabalho
que era manual passou a ser realizado por máquinas
dedicadas e customizadas a uma determinada tarefa,
visando, cada vez mais, ao aumento da produtividade e
eficiência. As funções de controle eram implementadas
através de dispositivos mecânicos, que automatizavam
algumas tarefas críticas e repetitivas. Esses dispositivos
eram desenvolvidos para cada tarefa e, devido à natureza
mecânica dos mesmos, tinham
vida útil reduzida e alta manutenção.
Mais tarde, com o advento
dos relés e contatores, esses
dispositivos foram substituídos
e apareceram outros, automáticos,
em linhas de montagens:
a lógica a relés viabilizou o
desenvolvimento de funções
de controle mais complexas e
sofisticadas.
Após a II Guerra Mundial,
houve um avanço tecnológico,
e apareceram as máquinas
por comando numérico e os
sistemas de controle na indústria
de processo, assim como
o conceito de referência de
tensão para instrumentação
analógica. Aparecem os primeiros
circuitos integrados,
que proporcionaram o desenvolvimento
de uma nova
geração de sistemas de automação.
Cassiolato lembra que,
em 1947, Willian Shockley,
John Barden e Walter Brattain
descobriram o transistor, que
é um componente eletrônico
amplamente utilizado nos processadores modernos, de
forma integrada!
No início dos anos 1970, os primeiros computadores
comerciais começaram a ser utilizados como controladores
em sistemas de automação de grande porte, porém,
esses computadores eram grandes, ocupando muito espaço,
de alto custo, difíceis de programar e muito sensíveis
ao ambiente industrial. Mas, tinham a vantagem de
manipular a aquisição e controle de várias variáveis.
Ainda na década de 1970, a partir de uma demanda
da indústria automobilística norte-americana, foi desenvolvido
o Programmable Logic Controller (PLC), ou Controlador
Lógico Programável (CLP), um “computador” dedicado
e projetado para trabalhar no ambiente industrial,
onde sensores e atuadores são conectados a cartões de
entradas e saídas. Os primeiros CLPs tinham um conjunto
de instruções reduzido; normalmente somente condições
lógicas, e não possuíam entradas analógicas, podendo
manipular apenas aplicações de controle discreto. Os
CLPs foram substituindo os paineis de controle com relés,
diminuindo o alto consumo de energia, a difícil manutenção
e modificação de comandos e as sempre onerosas
alterações de fiação. |
|
 |
|
Atualmente, os CLPs manipulam tanto controle discreto quanto malhas analógicas – esses sistemas são chamados
de Controladores Programáveis, por não serem
limitados a operações com condições lógicas. As atuais
funções de controle existentes são distribuídas entre um
número de controladores programáveis, montados próximos
aos equipamentos a serem controlados. Os diferentes
controladores são, normalmente, conectados via rede
local a um computador supervisório central, que gerencia
os alarmes, receitas e relatórios. |
|
 |
|
Os anos 1980 trouxeram os SDCDs – Sistemas Digitais
de Controle Distribuídos – e a fase onde a tecnologia
e conectividade industrial eram proprietárias e um “casamento”
entre cliente e fornecedor. Com os avanços
tecnológicos, na década de 1990, os circuitos eletrônicos
passaram a proporcionar maior eficiência, maiores velocidades,
mais funcionalidades, maiores MTBFs – Mean
Time Between Failures, maior confiabilidade, consumos
menores, espaços físicos menores e, ainda, com reduções
de custos. Ao mesmo tempo em que impulsionou o desenvolvimento
de computadores, interfaces e periféricos
mais poderosos, com alta capacidade de processamento
e memória, e, o mais interessante, dando vazão à alta
escala de produção, com custos reduzidos, e o que foi
uma vantagem de forma geral, pois, aumentou a oferta de
microcontroladores, CIs e ASCIs para toda a indústria.
“Como se não bastasse essa revolução eletrônica, os
sistemas mecânicos também passaram – e vêm passando
– por inovações e modificações conceituais, com a incorporação
da capacidade de processamento, tornando-os
mais rápidos, eficientes e confiáveis, com custos de implementação
cada vez menores. Ao longo dos últimos anos,
é cada vez mais frequente a utilização de componentes
eletrônicos para acionamento e controle de sistemas mecânicos”,
pontua Cassiolato.
Ferramentas baseadas em Windows trouxeram o
desenvolvimento da interface gráfica e a simplicidade da
operação se juntou à crescente capacidade de processamento,
estabelecendo a união entre os computadores e
a instrumentação. Tornou-se comum instrumentos serem
embutidos em computadores de aplicação geral, permitindo
medidas diversas e manipulações complexas, e,
ainda, grandes capacidades de armazenamento em memória
ou disco, monitoração inteligente, apresentação
gráfica de fácil compreensão e controle dos processos
avançados.
“Mas, hoje, não é somente a condição de controle que
importa. A gestão da informação, a inteligência da instrumentação,
a tecnologia verdadeiramente aberta e não proprietária,
os benefícios da tecnologia digital são fatores que agregam
valores ao usuário. E, no mundo dos negócios, os dados
aquisitados vão ser transformados em alguma etapa em indicadores
de desempenho, e que são fundamentais para as
empresas, em termos de ter uma análise da performance de
acordo com os objetivos organizacionais definidos em seu
planejamento estratégico. Sem dúvida, com a implantação e
recurso da Indústria 4.0, vários indicadores podem ser criados
facilmente e monitorá-los e controlá-los são fatores que
podem ser um agente catalisador na geração de diferencial
em relação aos competidores. O grande desafio é que praticamente
tudo pode ser medido e melhorado dentro de uma
empresa, e temos de escolher os mais adequados e representativos
para o nosso negócio”, frisa Cassiolato.
O Professor Kawamura lembra que os dados devem
ser analisados pela equipe de gerenciamento da produção,
contando com as mais apropriadas, entre as diversas
ferramentas MES – Manufacturing Execution System,
ERP – Enterprise Resource Planning, ou mesmo softwares
dedicados para auxiliar na gestão e/ou geração de indicadores.
“E os dados coletados devem ser armazenados
por um intervalo de tempo definido pela equipe de
gestão junto com o pessoal de TI, pois, dependendo da
frequência de aquisição e de seu tipo, isso pode consumir
muito espaço nos sistemas de armazenamento de
dados. Já os indicadores de produção gerados pela análise
de dados devem ser armazenados para criação de
um histórico de produção e benchmark, idealmente em
um banco de dados único, pois, uma gestão de informação
centralizada pode evitar problemas de sincronização
de informações e infraestrutura utilizada. No entanto,
os níveis de integração das diversas áreas da empresa,
com suas respectivas operações, podem fazer com que
integração tenha alto grau de complexidade e alto custo
– isso normalmente leva algumas empresas a utilizarem
bancos de dados segmentados”.
Rodrigo conta que o mais difícil para o usuário é decidir
quais dados devem ser coletados, analisados e arquivados.
“Aqui cabe uma análise criteriosa, dependendo
muito de quantos dados estamos coletando e do nível de
detalhamento dos relatórios que desejamos obter no futuro.
De maneira geral, não é necessário arquivar todos os dados. E a análise deve ser feita por pessoal com profundo
conhecimento do processo, em conjunto com um especialista
de dados para gerar a informação necessária para
tomada de decisão posterior. Esses profissionais devem
trabalhar juntos, de maneira a prover um resumo simplificado,
que servirá como ferramenta para a gerência da empresa.
E a análise deve ser feita em múltiplos níveis, porque
o detalhamento com todos os valores pontuais geraria um
grande volume. A melhor opção seria ter a primeira fase
da análise realizada no dispositivo que coleta os dados e
mandar apenas os dados pré-analisados a um nível superior,
para que possam ser novamente tratados e mostrados
de forma gráfica e amigável. A capacidade computacional
para realizar a análise de espectro pode não ser algo factível
para um PLC convencional, mas é totalmente possível
para um PC industrial”.
O executivo da HBM conta que a análise de dados
é um ponto interessante, que gera discussões e promove
uma mudança significativa em todas a áreas da indústria,
tirando várias empresas e profissionais de uma longa zona
de conforto e os fazendo incorporar em sua base de conhecimento
elementos que não são relacionados a uma
única área do saber. “A análise de dados, antes feita apenas
por quem comanda um processo
ou linha de produção, ou, apenas por
profissionais de áreas bem específicas
como estatística, agora passa a ser uma
tarefa importante e, ao mesmo tempo,
complexa, e com tanta informação
que, a cada dia, vemos a evolução de
ferramentas, técnicas e abordagens para
tentar, de um lado, consolidar toda essa
informação e desenvolver modelos que
tentem predizer como um processo
pode ser otimizado; ao mesmo tempo
que se tenta transformar elementos que antes não passavam
de figurantes passivos do processo (exemplo dos
sensores e condicionadores de sinal), para elementos que
podem entregar informação e gerar insight sobre partes
do processo, de maneira a enriquecer os dados que são
entregues aos sistemas e bancos de dados para processamento
e geração de conhecimento sobre uma fábrica por
exemplo”, detalha André.
O que aconteceu foi que o mercado reconheceu
que há muitos dados, de muitos sensores, de muitos tipos,
para uma única pessoa analisar. Com os recursos de
informática disponíveis, se tornou possível, através de
machine learning e outras técnicas de análise, buscar correlações
pertinentes. Ainda que as inovações tecnológicas
para análise não substituam a experiência dos operadores
e engenheiros, são aceleradores de soluções, com transparência,
para apoiar as decisões. São um passo natural
na história dos processos estatísticos e de controle, mais
que apenas uma abordagem de ciência de dados. |
|
 |
|
“Os bancos de dados segmentados têm sido a escolha
de muitos usuários, depois de analisados a natureza
dos dados e quem irá ter acesso a eles. Por exemplo, um
sistema que lê a qualidade de energia pode ter, em um
banco de dados local, as amplitudes de todas as harmônicas
adquiridas e, num banco de dados na nuvem, apenas
uma informação genérica sobre a qualidade de energia,
essa informação pode ser disponibilizada para um aplicativo
de celular customizado para a empresa”, conta Rodrigo,
da Beckhoff, enquanto o Professor Kawamura ressalta
que não se pode esquecer a manutenção dos sistemas
computacionais, da infraestrutura de TI e a garantia de
disponibilidade das informações pode gerar altos custos
e, por isso, algumas empresas estão migrando parte de
seus bancos de dados segmentados para a nuvem.
Rodrigo também acredita que a nuvem oferece inúmeras
vantagens, entre elas, a escalabilidade e a sua característica
complementar “On Demand”: na nuvem se paga
pelo que se consome, e isso ajuda a viabilizar certas aplicações.
“É claro que um estudo detalhado deve ser feito, levando-
se em consideração variáveis como: custo, confiabilidade,
escalabilidade e, até mesmo a confiança dos usuários
em colocar dados sensíveis da empresa na nuvem. E muitas
aplicações se podem beneficiar de uma arquitetura mista”.
Em relação ao banco de dados, o
fator primordial é transformar esses dados
em informações e conhecimento
que deem vantagem na base de um
processo estratégico, de controle ou decisório.
Dessa forma, evitam-se riscos e
se consegue ser mais assertivo e seguro
nos planos de ações a serem tomadas
pelos setores da empresa. Mas, também
é importante analisar o tipo de endereçamento
em Sistemas de Aquisição de
Dados – os dispositivos responsáveis por
manipular os dados utilizam endereços que podem ser de
memória ou de registradores, dependendo do tipo de dispositivo
usado. Assim, têm-se entrada e saída mapeada em
memória (Memory-Mapped IO) e entrada e saída mapeada
em espaço de entrada e saída (IO Mapped IO). Um tipo de
aquisição de dados muito utilizado e com campo específico
de atuação são os Sistemas de Supervisão e Aquisição
de Dados, SCADA – Supervisory Control and Data Aquisition
–, sistemas que utilizam softwares para monitorar e
supervisionar as variáveis e os dispositivos de sistemas de
controle, conectados através de drivers específicos. Esses
sistemas podem assumir topologia simples, cliente-servidor
ou múltiplos servidores-clientes e, ainda, com o advento
de sistemas de automação e controle baseados em redes
digitais abertas, permitem arquiteturas cliente-servidor
OPC – OLE for Process Control.
Quando se fala de aquisição de dados, também vem
à mente o Data Mining, a prospecção de dados ou mineração
de dados, processo de explorar grandes quantidades
de dados à procura de padrões consistentes, com regras de associação ou sequências temporais, para detectar
relacionamentos sistemáticos entre variáveis, detectando
assim novos subconjuntos de dados. |
|
 |
|
Um tópico recente da ciência da computação que utiliza
várias técnicas da estatística, recuperação de informação,
inteligência artificial, sistemas de aquisição de dados e reconhecimento
de padrões. A mineração de dados é formada
por um conjunto de ferramentas e técnicas que, através do
uso de algoritmos de aprendizagem ou classificação baseados
em redes neurais e estatística, são capazes de explorar
um conjunto de dados, extraindo ou ajudando a evidenciar
padrões nesses dados, e auxiliando na descoberta de conhecimento.
Claro que, para um data mining bem-sucedido, é
necessário um bom banco de dados – e daí nascem repositórios
organizados, Data Marts, Data Warehouses.
Cassiolato ressalta que, como os avanços tecnológicos
têm sido cada vez mais rápidos, equipamentos e instrumentação
já vêm com hardwares poderosos para suportar
ferramentas de aquisição de dados que exigem a transferência
rápida de dados entre dispositivos, software de processamento
e de aplicação com interface gráfica avançada,
sensores e controladores de elevada precisão. “Entra-se aí
no campo de estudos da nova instrumentação virtual, que,
em breve, disponibilizará equipamentos avançados em recursividades,
instrumentos virtuais, blocos para a construção
da nova geração de instrumentação e medidas. Essas
ferramentas devem ser simples e de fácil uso”.
O professor Kawamura pede atenção ao fato de que
existe diferença na aquisição de dados por protocolo
(Hart, FF, Profibus, etc.), por tipo de sistema de controle
(SCADA, CLP, DCS, PC) e se o instrumento estiver cabeado
ou for wireless.
“Apesar de os protocolos seguirem padrões internacionais
de comunicação, cada um pode apresentar opções
de recursos diferenciados para comunicação entre dispositivos,
controladores e atuadores, como, por exemplo,
maior alcance de comunicação, maior quantidade de informações
a serem transmitidas, leitura de grandezas físicas,
entre outras.
E cada sistema (SCADA, CLP, PC, DCS) possui funcionalidades
específicas. Por exemplo, SCADA e DCS, como
sistemas supervisão e aquisição de dados das linhas de
produção, enquanto CLPs e a maioria dos PCs Industriais
são específicos para controle dos atuadores, leituras dos
diversos sensores e pequeno processamento de informações
e comunicação de dados. Já a diferença entre cabeados
e wireless fica por conta da velocidade de transmissão
– principalmente se a transmissão for via fibra óptica. As
características positivas do uso de cabos são a velocidade
de transmissão e a menor imunidade a interferências magnéticas
(cabos ethernet); já as distâncias de conexão entre
equipamentos (para cabos ethernet) podem ser menores,
os custos para implantação dos cabos (tanto cabos ethernet
quanto fibras ópticas) e manutenção também são mais
caros. Para uma rede wireless, o baixo custo de implantação,
comparado ao sistema cabeado (ethernet e fibra ópticas),
maior mobilidade, maior alcance, maior flexibilidade,
rápida implantação e menor custo de manutenção são as
vantagens; possíveis interferências no sinal por meio de
fortes campos magnéticos na mesma frequência e as condições
de umidade são desvantagens”. |
|
 |
|
SCADA é um acrônimo para Controle de Supervisão
e Aquisição de Dados. Os sistemas SCADA são usados
para monitorar e controlar uma planta ou equipamento,
e esses sistemas foram idealizados para trabalhar
a transferência de dados entre um computador central
e um número de Unidades Terminais Remotas (UTRs)
e/ou Controladores Lógicos Programáveis (PLCs), e terminais
de operação. Esses sistemas podem ser relativamente
simples, como um para monitorar as condições
ambientais de um edifício comercial, ou muito complexos,
como um sistema que monitora uma usina nuclear,
ou um sistema municipal de água. Tradicionalmente, os
sistemas SCADA fizeram uso da rede pública comutada
(PSN) para fins de monitoramento, e a representação
de dados enviada era identificada por endereçamento exclusivo, projetado para correlacionar com o banco de
dados da estação mestre. Atualmente, se pode trabalhar
com vários protocolos diferentes, como a série IEC
60870-5, IEC 60870-5-101, e a versão 3 do Protocolo
de Rede Distribuída (DNP3), por exemplo. Os sistemas
SCADA vêm mudando há muitos anos, adicionando
PCs, novos sensores e data centers, e aumentando a
quantidade de dados que transitam por eles.
Todas as mudanças, devido à digitalização de dados
e à Internet, também estão transformando o SCADA, que
não é mais algo distinto, porque, agora, tudo gira em torno
de dados, e o que costumava ser SCADA está convergindo
e incorporando muitas novas tecnologias. Virtualização,
IIoT, nuvem e análise de dados já fazem parte do
SCADA, ou podem ser usados para melhorá-lo ou gerenciá-
lo. Isso significa que os usuários mais bem-sucedidos
serão aqueles com equipes de TI e TO bem integradas ou
departamentos de TI com compreensão significativa de
TO, capazes de tornar o SCADA mais um serviço seguro
implantado fora da nuvem.
Rodrigo Soares frisa que protocolos para adquirir
dados com uma alta taxa de amostragem devem ser
muito rápidos, como a rede EtherCAT, que garante uma
frequência de aquisição alta. “Até o wifi pode ser usado
para redes industriais na manufatura, desde que se possa
garantir que alguma instabilidade no sinal não cause
perda de informações, como rodar um pequeno banco
de dados localmente. E é bom lembrar que ambientes
classificados são especialmente críticos e exigem cuidados
redobrados, uma vez que uma falha em qualquer
componente pode causar graves perdas materiais ou humanas.
É imprescindível utilizar hardware certificado e
tomar muito cuidado com a instalação, de maneira a se
ter um isolamento completo entre as áreas; assim, uma
falha numa zona não-segura não se propagará para uma
zona segura”.
O professor Kawamura ressalta que os dados podem
ser aquisitados por coletores de dados, como por exemplo,
leitor de dados (que podem utilizar códigos como
UPC/EAN/JAN, APC-A & UPC-E, EAN-8 & EAN-13, JAN-
8 & JAN-13, ISBN/ISSN, CODE 39, CODABAR, CODE
128 & EAN 128, CODE 93, ITF2.5, Addendum 2.5, MSI/
PLESSY, China Postal Code, CODE 32, INDUSTRIAL 2.5,
STD 2.5, DISCRETE 2.5, MATRIX 2.5, CODE 11, RSS 14,
RSS LIM, etc), leitor de RFID, leitor de código de barras,
ou mesmo coletores ou aplicativos/softwares que utilizam
smartphones/sistemas embarcados, respectivamente, desenvolvidos
para uso específicos de coleta de dados. O
tratamento dos dados coletados deve ser integrado ao
sistema da empresa. Essa integração deve ser realizada
por meio de transferência de dados do coletor para o
sistema – descarregamento dos dados para o banco de
dados via aplicativo/software – ou transferência de dados
online para o banco de dados (via aplicativo/software).
Daí, os dados inseridos no banco de dados podem ser
tratados, com o uso de planilhas eletrônicas, ou ferramentas
de Business Intelligence, para geração de indicadores
e dashboard. |
|
 |
|
Toda operação em áreas classificadas deve ter a garantia
de que a área, equipamentos e adequações estejam de
acordo com os requisitos de área e de acordo com as leis
vigentes e classificação de acordo com a NBR IEC 60079.
Dessa forma, é possível certificar se a instalação foi executada
de forma adequada e se os equipamentos estão de acordo
com o tipo de zoneamento – Zona 0, Zona 1 e Zona 2,
referente a produtos inflamáveis, ou Zona 20, Zona 21 e
Zona 22, referentes a poeiras combustíveis, etc. É necessário
especificar equipamentos com tipos e níveis de proteções
específicas para se trabalhar em área classificada.
Cassiolato pede atenção aos vários tipos de proteção
de equipamentos elétricos e eletrônicos “Ex” certificados:
Ex-d, à prova de explosão; Ex-e, segurança aumentada;
Ex-p, pressurizado; Ex-i, segurança intrínseca; Ex-n, não
acendível; Ex-o, imerso em óleo; Ex-m, encapsulado, Exq,
imerso em areia. Por isso, é necessária a especificação
correta do equipamento para a área a ser instalada, assim
como os níveis de proteção Ga, Gb, Gc, Da, Db e Dc.
“Existem muitos casos em que a empresa adquire o
equipamento correto, porém, seu uso e/ou instalação é
inadequado, colocando a área em condições de risco e
em desacordo com as normas. Isso reforça a importância de treinar os profissionais que trabalharão nessas áreas Ex,
desde operadores, engenheiros de processos, químicos,
mecânicos, técnicos e engenheiros de segurança, capacitando-
os em áreas classificadas, de forma a ter conhecimentos
gerais dessas áreas, tipos de proteção, níveis
de proteção e os riscos envolvidos. E, para dar a devida
seriedade a esse processo de treinamento, que envolve
capacitação e qualificação dos profissionais, as empresas
devem fazer a devida regularização, para a obtenção do
certificado das instalações elétricas em áreas classificadas,
parte do Prontuário da NR 10, juntamente com o estudo
de classificação de áreas”.
O Professor destaca que os dados nem sempre vão
diretamente do instrumento para os bancos de dados
e é preciso dar atenção aos handhelds, smartphones ou
tablets, da mesma forma que a desktops ou notebooks.
Portanto, realizar backup, atualizar o sistema operacional
(quando aplicável) e aplicativos/softwares, instalar antivírus
para sistemas mobile (handheld ou smartphone ou tablet),
ter cuidado ao acessar ou abrir links de
sites e arquivos, limitar o acesso aos dados
pessoais e aplicativos continuam válidos
para esses sistemas. “Essa atenção
deve virar um hábito, pois, já é comum o
tratamento de dados durante um procedimento
de manutenção com ferramentas
analíticas integradas às ferramentas
de armazenamento de Big Data, onde os
dados não estruturados aquisitados serão
armazenados”.
“De fato, já começamos a ver alguns
exemplos muito interessantes do uso de soluções móveis
aliadas a tecnologia de aquisição de dados, realidade aumentada,
facilitando a coleta de dados de maneira distribuída,
porém extremamente estruturada, permitindo, por
exemplo, que um profissional, ao trabalhar na instrumentação
de um processo ou linha de produção, possa ao fazê-lo,
registrar a localização de um sensor dentro da máquina com
o uso da câmera de seu smartphone, ao mesmo tempo que
captura um código como um Datamatrix que pode trazer
dados de calibração, datasheet e manual com detalhes de
conexão com um controlador, condicionador de sinais ou
barramento. Uma vez que estes dados são capturados, automaticamente
podemos tê-los armazenados em servidores
locais (Enterprise Cloud) ou diretamente em serviços de nuvem,
com criptografia e de maneira estruturada, linkando
todo seu trabalho a uma ordem de serviço ou projeto, tudo
armazenado na nuvem”, acrescenta André.
“Além de atenção com a apresentação dos dados
– pois os usuários desse tipo de aplicativo em geral, não
são técnicos – se deve tomar muito cuidado com a segurança
da informação. Criptografia e autenticação são prérequisitos
mínimos para uma aplicação profissional, grandes
corporações não podem ter seus dados expostos ou
vulneráveis à interceptação tão facilmente. E é importante
estar atento à veracidade da informação porque, mesmo
treinados, os técnicos podem interpretar erradamente o
comportamento de equipamentos; outras vezes, o usuário
simplesmente toma por defeito um comportamento completamente
normal, por conta de uma falha de interpretação
ou por tentar utilizar um equipamento para uma
aplicação diferente daquela para a qual o mesmo foi projetado,”
afirma Rodrigo.
Para se ter uma produção mais eficiente, flexível, escalável,
com redução de recursos e custos e maior qualidade,
com confiabilidade, é necessário começar dos sensores
que alimentam os bancos de dados via aquisição de dados.
A tão celebrada Indústria 4.0 se baseia nisso para ser a conexão
lógica de todos os dispositivos e meios relacionados
ao ambiente produtivo. A aplicação da computação para
automatização de diversos processos industriais tem crescido
de forma significativa, com destaque para os sistemas
de aquisição de dados e monitoração – lembrando que
variáveis, velocidade, volume de dados e infraestrutura
diferem um pouco na aquisição de dados para processos
contínuos e manufatura. |
|
 |
|
“É bom lembrar que quando falamos
em sensores e sistemas de aquisição
de dados inteligentes, existe também
uma parte da indústria que logo
pensa apenas em aplicação de plataformas
de baixíssimo custo (Raspberry
Pi, Arduino, etc.) como alternativa para
se adicionar inteligência distribuída em
processos produtivos. Porém, quando
se fala de aquisição de dados em produção,
a inteligência começa com o uso
de componentes e sistemas que executem seu papel e entreguem
dados com a maior qualidade possível e o mais
importante, entreguem dados que sejam confiáveis. A falta
de exatidão e confiabilidade numa medição utilizada para
medir tolerâncias de um produto ou processo, provoca
aumento de perdas, uma vez que não se pode confiar em
medições feitas por componentes e tecnologias que não
foram realmente pensadas e desenvolvidas para este fim”,
ressalta André Pereira.
O que não pode ficar em segundo plano, em nenhum
dos casos, é a cybersegurança, com controle de
acesso a programas e controle de protocolos de rede, e
políticas de segurança devem ser implantadas na empresa
– a cartilha do cert.br deve ser o ponto de partida.
Usuários vêm colhendo benefícios com sistemas
avançados de aquisição de dados e supervisão. Essa mudança
deve ser encarada como um processo decorrente
dos novos requisitos de qualidade, confiabilidade e segurança
do mercado. A sua utilização traz vantagens competitivas,
no sentido de que a integração das tecnologias
traz aumento de produtividade pela redução das variabilidades
dos processos e redução dos tempos de indisponibilidade
das malhas de controle. Essa jornada é diferente
para cada usuário, dependendo do setor em que trabalha,
de suas diferentes exigências e níveis de sofisticação. |
|
|
|
|
|
LEIA MAIS
NA EDIÇÃO IMPRESSA |
|
DESEJANDO
MAIS INFORMAÇÕES: redacao@editoravalete.com.br
|
|
 |
Clique na capa da revista para
ler a edição na íntegra |
|
|