Eduardo M Fagundes

Artigos

Coletânea de artigos técnicos e reflexões de Eduardo M. Fagundes publicados entre 2011 e 2017

Assine a Newsletter no Linkedin

Tag: analytics

  • SCADA, Big Data, Six-Sigma

    O grande desafio da automação industrial, predial e de concessionárias de serviços públicos (energia, água, petróleo, gás entre outros) é reduzir o número de falhas para aumentar a eficiência, objetivando menores custos de operação. O cenário tecnológico é complexo, não apenas pelas características de medições e controles, mas pela quantidade de padrões e soluções proprietárias dos fornecedores. Os sistemas SCADA (Supervisory Control And Data Acquisition) monitoram e supervisionam as variáveis e os dispositivos de sistemas de controle conectados através de controladores (drivers) específicos. O Six-Sigma, um conjunto de práticas para melhoria contínua de processos e eliminação de defeitos, tem ajudado a aperfeiçoar os processos industriais e de supervisão e controle, com ganhos significativos de desempenho. Agora entra no cenário o Big Data, uma tecnologia que coleta, armazena e manipula grandes volumes de dados e velocidade, permitindo analises mais precisas, rápidas e preditivas.

    figura-SCADA-Big-Data-Six-Sigma-v81

     

    Os sistemas SCADA monitoram as variáveis do processo produtivo (pressão, temperatura, vazão, demanda e consumo de energia, etc.) permitindo definir níveis ótimos de trabalho. A partir da definição e monitoração dos parâmetros de operação, qualquer alteração é sinalizada para evitar um problema no processo produtivo. O sistema SCADA é essencial para realizar a leitura dos instrumentos, gerar gráficos de tendências e gráficos históricos das variáveis do processo. Permitindo uma leitura rápida dos instrumentos de campo, as intervenções necessárias são feitas rapidamente, reduzindo as paradas de máquina e, consequentemente, aumentando a disponibilidade dos serviços e perdas de produção.

    Com os dados produzidos pelos sistemas SCADA é possível aplicar a metodologia DMAIC e DMADV do Six-Sigma, inspiradas no ciclo PDCA (Plan-Do-Check-Act). O DMAIC (Define-Measure-Analyse-Improve-Control) é utilizado em projetos focados em melhorar processos produtivos já existentes. O DMADV (Define-Measure-Analyse-Design-Verify) é focado em novos projetos de desenhos de produtos e processos. O DMADV também é conhecido com DFSS – Design for Six Sigma.

    Um dos desafios dos projetos de melhoria contínua e inovação é utilizar de forma integrada os dados de vários sistemas SCADA de diferentes processos produtivos, permitindo que haja análises de relacionamento e comportamento de diferentes parâmetros e, análises preditivas. Essa integração exige além da simples coleta e gravação de dados, mas a exploração e transformação de alguns dados para criar uma base de dados consistente. Por exemplo, um sistema SCADA grava todos os dados que calcula um determinado parâmetro. Outros, gravam apenas o resultado do parâmetro já calculado. Desta forma, é necessário a partir dos dados já calculados definir os dados primitivos que geraram aquele resultado.

    Com a popularização e maturidade dos sistemas Big Data é possível coletar, transformar, armazenar, integrar e analisar dados de diferentes sistemas SCADA com rapidez e custos com excelentes relações custo/benefícios.

    Sistemas Big Data se caracterizam por apresentarem grande velocidade de processamento, terem a capacidade para manipular grandes volumes e variedade de dados, conhecidos como “3Vs” (Volume, Velocidade, Variedade). Permite analisar e gerenciar aspectos como variabilidade, veracidade e complexidade dos dados. O Big Data supera os sistemas de Data Warehouse, pois possibilitam analises de grandes volumes de dados, voláteis ou não, com maior velocidade. Diferem dos sistemas de BI (Business Intelligence), pois permitem além das análises estatísticas descritivas do BI usar modelos matemáticos de inferência estatística, cujo o objetivo é fazer afirmações a partir de uma amostra representativa, métodos de identificação que trabalham com dados de entradas e saídas e sistemas não lineares. Essas características elevam as análises de dados a um outro patamar, melhorando os resultados dos projetos e a competitividade das empresas.

    A integração dos sistemas SCADA usando Big Data aumenta a proteção lógica dos dados de ataques cibernéticos, pois é possível identificar pequenas variações de comportamento dos parâmetros dos sistemas e tomar ações de defesa antes que ocorram prejuízos maiores.

    As tecnologias já estão disponíveis e maduras, inclusive algumas delas na modalidade de Open Source. Um grande desafio é contar com profissionais habilitados para operar essas novas tecnologias e modelos de análise mais sofisticados. Isso requer investimento por parte das empresas e paciência durante a curva de aprendizagem. Entretanto, os resultados no futuro compensarão o esforço.

  • IoT, Big Data e Agricultura de Precisão

    A forte estiagem que atinge as regiões Sudeste e Centro-Sul era prevista para daqui a 15 ou 20 anos. Com a aceleração do desmatamento da Amazônia, a falta de umidade e a fumaça das queimadas impede a formação de nuvens e chuvas nessas regiões. A Amazônia e a Mata Atlântica são responsáveis por manter a região Sudeste com clima temperado e chuvas regulares, uma vez que essa região está na faixa dos desertos existentes no hemisfério sul (desertos australianos, africanos e do Atacama). Investigações geomorfológicas indicam que entre os anos 1.000 e 1.300 houveram secas generalizadas e várias populações desapareceram nas Américas.

    As mudanças climáticas extremas irão afetar diretamente a produção de alimentos no mundo. Estima-se que cerca de 70% da água doce do mundo é utilizada para a agricultura. O aumento da população mundial, estimada em mais de 9 bilhões de habitantes para 2050, exige a produção cada vez maior de alimentos. O Brasil, que detém a maior área cultivável do mundo e continuará sendo um dos maiores produtores mundiais de alimento.

    Infelizmente, a expansão da produção de alimentos e pecuária leva ao desmatamento de vastas áreas, que por sua vez aumenta o risco de escassez de água e desertificação da região Sudeste.

    As mudanças climáticas estão desafiando as previsões dos agricultores tradicionais, aqueles que sentindo o vento, a umidade, as movimentações dos pássaros sabiam que estava na hora de plantar ou colher.

    A solução para reduzir os riscos ambientais e da economia do país é a tecnologia, o que chamamos de agricultura de precisão. Com informações de sensores instalados no campo para medir a temperatura, umidade do solo e do ar circulante é possível fazer análises em tempo real para planejar, dinamicamente, o plantio e a colheita.

    Através de fotos de satélites ou drones robóticos é possível determinar a maturidade da cultura. Associando esses dados com a disponibilidade de equipamentos e mão de obra através de análise preditiva é possível tomar decisões mais acertadas sobre o plantio e colheita. Por exemplo, essas informações podem adiar a adubação de uma plantação antes de uma forte chuva para evitar o desperdício do adubo que seria levado pelas águas.

    Com a agricultura de precisão é possível aumentar, consideravelmente, a produtividade da agricultura e pecuária, reduzindo o desmatamento e seus efeitos desastrosos para o meio ambiente, para as populações e para a economia. O uso da agricultura de precisão deve ser uma regra e não uma exceção nos países produtores de alimentos.

    A agricultura de precisão gera empregos de qualidade no campo e novos negócios para fornecedores de equipamentos e produtos para o campo. Por exemplo, as plantadeiras e semeadeiras conectadas via Internet aos bancos de dados com informações precisas sobre a qualidade do solo, podem liberar a quantidade e o tipo de adubo para cada metro quadrado de solo, reduzindo o desperdício e aumentando a produtividade do solo.

    Tecnologias como Internet of Things, Big Data, Analytics e Cloud Computing devem ser comuns ao agricultor e pecuarista moderno. O governo deve fomentar a pesquisa, formação de especialistas e utilização da agricultura de precisão.

    Obviamente, os compradores de commodities e analistas de mercado estão atentos ao uso destas tecnologias pelos agricultores em todo o mundo através de imagens de altíssima definição dos satélites. Essas imagens são analisadas por sofisticados softwares que conseguem determinar a qualidade e volume da safra, informações que serão utilizadas para investimentos e negociação do preço das commodities, incluindo o mercado futuro.

  • A Digitalização da Operação

    A introdução das tecnologias na indústria é feita em ondas. A Internet tem gerado várias ondas, começou com B2C (Business-to-Consumer), B2B (Business-to-Bussiness) e eGov (Governo Eletrônico). Avançou para dispositivos móveis (smartphones, tablets, console de games), ou seja, a Internet está em todos os lugares – Internet Everywhere. Agora chegou a vez da automação da operação através de dispositivos que trocam dados entre si e geram montanhas de dados. O avanço da automação irá reduzir ainda mais os custos de produção e, principalmente, a análise avançada de dados fará previsões mais precisas para evitar falhas e do comportamento dos consumidores. Tais previsões, permitirão que as empresas se reinventem constantemente, criando produtos e modelos de negócios disruptivos. Acredito que não há dúvidas que só sobreviverão as empresas que tiverem a habilidade de adotar e manipular de forma eficiente as novas tecnologias.

    As tecnologias estão cada vez mais acessíveis e baratas. O modelo de computação em nuvem usando a Internet (Cloud Computing), permite ajustar a infraestrutura e custos dinamicamente. Isso cria a oportunidade para pequenas empresas adotarem novas tecnologias e ter vantagem competitiva no mercado onde atua.

    Tecnologias como Internet of Things (IoT), Big Data, Analytics estão saindo dos laboratórios das empresas de software e hardware e indo para o mercado de consumo. Os paradigmas de segurança do ambiente de Cloud Computing foram superados, não restando dúvidas que o ambiente é mais seguro que os ambientes locais. Gigantes da indústria de software já estão oferendo seus produtos na modalidade SaaS (Software as a Services), como SAP, Microsoft, Google (iniciou nessa modalidade), IBM, Oracle e muitas outras. Para as empresas de software, Cloud Computing é uma questão de sobrevivência.

    A indústria de equipamentos de hardware está passando por uma forte transformação. O novo data center do Facebook inaugurou um novo padrão de equipamento, definido por ela, compartilhado com o mercado através da comunidade OCP (Open Compute Project) e fabricado por fornecedores asiáticos de baixo custo. Grandes data centers, como Amazon e Google, já produzem seus próprios equipamentos.

    Com a redução de custos dos sensores remotos, é possível distribuí-los por toda a linha de produção para coletar dados e analisa-los em tempo real. Detectada uma anomalia em algum parâmetro dispara um alarme para investigação, evitando a paralização da produção.

    Na área da logística, é possível acompanhar a distribuição dos produtos em tempo real, monitorando localização, temperatura, pressão, vibração, entre outros itens críticos para assegurar a qualidade dos produtos até a entrega.

    No setor elétrico, cada dispositivo de geração, transmissão, proteção e medição podem ser monitorados em tempo real. Com tecnologias para Big Data e Analytics, falhas podem ser detectadas com antecedência e ações de contorno acionadas para evitar a interrupção do fornecimento, além de evitar perdas técnicas e comerciais (os gatos).

    Na gestão de cidades as aplicações são enormes, incluindo o controle mais eficiente do trânsito, melhor gestão da iluminação pública, aumento da segurança pública, melhoria na qualidade de informações para o cidadão, entre outras.

    Onde está o maior desafio? Na educação. Existe um consenso na comunidade empresarial global que não existe qualificação profissional suficiente para trabalhar nessas novas tecnologias. Existe uma escassez de Cientistas de Dados, profissionais com capacidade analítica, associativa, capazes de construir algoritmos de pesquisa complexos e interpretar seus resultados. A capacidade de análise e execução de ações não se delega, ela é parte do core business das organizações.

    Atualmente, uma das alternativas é as empresas formarem seus próprios Cientistas de Dados. As Universidades devem contribuir com cursos de formação nessas novas tecnologias com sofisticadas ferramentas de análise de dados.

    O governo deve apoiar essas iniciativas com linhas especiais de pesquisa e incentivos fiscais para as empresas que adotarem essas soluções. Afinal, se as empresas não se modernizam perdem a competitividade e mercado, gerando desemprego e menos impostos.

    Resumindo, para manter a competitividade e aumentar a produtividade é importante desenvolver uma estratégia digital disruptiva baseada nas novas tecnologias e investir na formação de pessoal qualificado.

  • Manufatura Inteligente e a Internet das Coisas

    Um estudo da American Society for Quality (ASQ) de dezembro de 2013 mostrou que apenas 13% das empresas de manufatura usavam conceitos e tecnologias de manufatura inteligente (Smarter Manufacturing) nas suas operações, nos Estados Unidos. Das empresas que adotaram, 82% melhoram sua eficiência, 49% reduziram os defeitos de seus produtos e 45% melhoram a satisfação de seus clientes.

    As soluções baseadas em Internet of Things (IoT) são fundamentais para a implementação de Smarter Manufacturing. Apesar das empresas de manufatura já adotarem sensores e automação em suas linhas de produção há várias décadas, os sensores, os controladores lógicos programáveis (PLC) e os sistemas de gestão estão, em sua grande parte, estão desconectados dos sistemas integrados das empresas. Funcionam como silos e, raramente, trocam informações com os sistemas internos. Existem vários motivos para esses sistemas legados não se integrarem com outros sistemas, entre eles questões de segurança e uso de arquiteturas proprietárias.

    Entretanto, a busca de produtividade para aumentar a qualidade e a redução de custos para enfrentar a alta competitividade internacional, está obrigando as empresas a adotarem padrões abertos de comunicação que possibilitem a integração das informações da linha de produção com outros sistemas para apoiar analises avançada de dados, Big Data, M2M e IoT.

    A Internet of Things (IoT) permite a troca de dados com sensores acoplados a qualquer componente físico através da Internet ou outras redes sem fio. O uso de IoT está crescendo, exponencialmente, em aplicações e dispositivos para consumidores finais. Isso está levando a uma redução considerável dos preços dos sensores e ampliando a oferta de diferentes soluções.

    Essa redução de custos dos dispositivos de IoT cria uma enorme oportunidade para a substituição dos atuais, caros e pouco flexíveis, sistemas de automação industrial. Isso significa que na próxima avaliação orçamentária para alocar recursos para a manutenção ou atualização tecnologia dos atuais sistemas, deve-se avaliar a substituição dos sistemas legados por uma solução baseada em IoT.

    A coleta sistemática de grandes volumes de dados de centenas ou milhares de sensores em vários pontos da linha de produção com integração com dados de sensores no sistema de transporte da cadeia de fornecedores, analisados em tempo real, usando ferramentas avançadas de análise de dados e Big Data, resultará em um salto de qualidade, previsibilidade e redução de custos inimaginável, se comparado com os atuais sistemas de gestão.

    A consequência de uma gestão de ativos ampliada através de sensores com IoT é ter um sistema proativo de manutenção e oportunidades para reduzir custos com energia.

    Por todos os lados que se analise, as vantagens da manufatura inteligente com o uso de soluções de IoT são atraentes. Agora, cabe aos executivos das empresas de manufatura e aos fornecedores de soluções de automação industrial quebrarem paradigmas e avançam para um novo patamar da indústria, antes que os concorrentes o façam.

  • Cientista de Dados: a profissão do futuro

    Estamos iniciando um ciclo tecnológico com ampla capacidade de processamento, armazenamento de dados e comunicação que permite análises avançadas de gigantescos volumes de dados. Isso muda os atuais paradigmas da computação.

    Nesse cenário, é possível considerar não apenas os 15% dos dados estruturados das empresas, mas todos aqueles disponíveis em e-mails, planilhas, textos, figuras, vídeos, áudio, dados públicos e das redes sociais. Associando as tecnologias de Big Data, Internet das Coisas e ferramentas avançadas, teremos tomadas de decisão mais acertadas. Entretanto, para isso funcionar, precisamos do elemento mais importante: o  cientista de dados.

    A tecnologia exigida para as redes sociais está mudando o paradigma da computação. O Twitter deve gerar diariamente 35 Zettabytes (ZB) em 2020, mais do que os 7 ZB por dia, atualmente. Um Zettabyte equivale a 10^21 bytes, enquanto um Gigabyte equivale a 10^9 bytes. Os impactos desse fenômeno implicam na mudança da arquitetura de servidores, na forma de armazenamento de dados e na seleção da linguagem de programação. Por exemplo: o Twitter obteve 10 vezes mais velocidade de processamento com o JMV do que com o Ruby.

    Na área de energia, as aplicações vão desde a seleção do local para a instalação de uma planta de geração até o combate a fraudes. Por exemplo, a seleção do local para a instalação de uma planta de energia eólica deve ser determinada por múltiplos fatores, como temperatura, precipitação de chuvas, velocidade do vento, umidade, pressão atmosférica e muitos outros. A correta tomada de decisão reduz os riscos dos investimentos multimilionários.

    Na área de saúde, as aplicações são imensas. Correlacionar grandes volumes de dados de variadas fontes ajudará a detectar a causa-raiz de doenças e impedir o surgimento de epidemias de impacto significativo nas populações. Sobretudo, ajudará a prevenir doenças e melhorar os diagnósticos clínicos.

    Um cientista de dados deve reunir várias habilidades, como ter fortes conhecimentos estatísticos e matemáticos, fazer modelagem preditiva, conhecer estratégias de negócios para construir algoritmos necessários para fazer as perguntas certas e ter as respostas certas. Eles devem ser capazes de traduzir as conclusões em uma linguagem de negócios de forma escrita, oral e visual. Eles precisam entender como os produtos são desenvolvidos, como projetar arquiteturas de computadores e conhecer linguagens de programação orientadas a Big Data. Além disso, devem garantir a privacidades dos consumidores e responsabilidade ética.

    Grandes cientistas de dados podem ter diferentes origens, como engenharia, ciência da computação, bioestatística, econometria, física e matemática aplicada. Mestrado e doutorado serão altamente recomendados para a formação dos cientistas de dados.

    Como dá para perceber, teremos poucos grandes cientistas de dados. Aqui se colocam desafios tanto para os profissionais quanto para as empresas: o profissional deve se empenhar na formação e as empresas, na seleção e investimentos para aperfeiçoar as habilidades dos cientistas de dados.