Eduardo M Fagundes

Artigos

Coletânea de artigos técnicos e reflexões de Eduardo M. Fagundes publicados entre 2011 e 2017

Assine a Newsletter no Linkedin

Tag: six-sigma

  • SCADA, Big Data, Six-Sigma

    O grande desafio da automação industrial, predial e de concessionárias de serviços públicos (energia, água, petróleo, gás entre outros) é reduzir o número de falhas para aumentar a eficiência, objetivando menores custos de operação. O cenário tecnológico é complexo, não apenas pelas características de medições e controles, mas pela quantidade de padrões e soluções proprietárias dos fornecedores. Os sistemas SCADA (Supervisory Control And Data Acquisition) monitoram e supervisionam as variáveis e os dispositivos de sistemas de controle conectados através de controladores (drivers) específicos. O Six-Sigma, um conjunto de práticas para melhoria contínua de processos e eliminação de defeitos, tem ajudado a aperfeiçoar os processos industriais e de supervisão e controle, com ganhos significativos de desempenho. Agora entra no cenário o Big Data, uma tecnologia que coleta, armazena e manipula grandes volumes de dados e velocidade, permitindo analises mais precisas, rápidas e preditivas.

    figura-SCADA-Big-Data-Six-Sigma-v81

     

    Os sistemas SCADA monitoram as variáveis do processo produtivo (pressão, temperatura, vazão, demanda e consumo de energia, etc.) permitindo definir níveis ótimos de trabalho. A partir da definição e monitoração dos parâmetros de operação, qualquer alteração é sinalizada para evitar um problema no processo produtivo. O sistema SCADA é essencial para realizar a leitura dos instrumentos, gerar gráficos de tendências e gráficos históricos das variáveis do processo. Permitindo uma leitura rápida dos instrumentos de campo, as intervenções necessárias são feitas rapidamente, reduzindo as paradas de máquina e, consequentemente, aumentando a disponibilidade dos serviços e perdas de produção.

    Com os dados produzidos pelos sistemas SCADA é possível aplicar a metodologia DMAIC e DMADV do Six-Sigma, inspiradas no ciclo PDCA (Plan-Do-Check-Act). O DMAIC (Define-Measure-Analyse-Improve-Control) é utilizado em projetos focados em melhorar processos produtivos já existentes. O DMADV (Define-Measure-Analyse-Design-Verify) é focado em novos projetos de desenhos de produtos e processos. O DMADV também é conhecido com DFSS – Design for Six Sigma.

    Um dos desafios dos projetos de melhoria contínua e inovação é utilizar de forma integrada os dados de vários sistemas SCADA de diferentes processos produtivos, permitindo que haja análises de relacionamento e comportamento de diferentes parâmetros e, análises preditivas. Essa integração exige além da simples coleta e gravação de dados, mas a exploração e transformação de alguns dados para criar uma base de dados consistente. Por exemplo, um sistema SCADA grava todos os dados que calcula um determinado parâmetro. Outros, gravam apenas o resultado do parâmetro já calculado. Desta forma, é necessário a partir dos dados já calculados definir os dados primitivos que geraram aquele resultado.

    Com a popularização e maturidade dos sistemas Big Data é possível coletar, transformar, armazenar, integrar e analisar dados de diferentes sistemas SCADA com rapidez e custos com excelentes relações custo/benefícios.

    Sistemas Big Data se caracterizam por apresentarem grande velocidade de processamento, terem a capacidade para manipular grandes volumes e variedade de dados, conhecidos como “3Vs” (Volume, Velocidade, Variedade). Permite analisar e gerenciar aspectos como variabilidade, veracidade e complexidade dos dados. O Big Data supera os sistemas de Data Warehouse, pois possibilitam analises de grandes volumes de dados, voláteis ou não, com maior velocidade. Diferem dos sistemas de BI (Business Intelligence), pois permitem além das análises estatísticas descritivas do BI usar modelos matemáticos de inferência estatística, cujo o objetivo é fazer afirmações a partir de uma amostra representativa, métodos de identificação que trabalham com dados de entradas e saídas e sistemas não lineares. Essas características elevam as análises de dados a um outro patamar, melhorando os resultados dos projetos e a competitividade das empresas.

    A integração dos sistemas SCADA usando Big Data aumenta a proteção lógica dos dados de ataques cibernéticos, pois é possível identificar pequenas variações de comportamento dos parâmetros dos sistemas e tomar ações de defesa antes que ocorram prejuízos maiores.

    As tecnologias já estão disponíveis e maduras, inclusive algumas delas na modalidade de Open Source. Um grande desafio é contar com profissionais habilitados para operar essas novas tecnologias e modelos de análise mais sofisticados. Isso requer investimento por parte das empresas e paciência durante a curva de aprendizagem. Entretanto, os resultados no futuro compensarão o esforço.

  • Migrando para um modelo de gestão baseado em risco

    Muitas organizações buscam a eficiência operacional através de certificações, como a ISO9.000, ISO14.000, ISO50.001, ISO20.000, ISO26.000, ISO27.000, SOX, Cobit, ITIL, etc. Cada certificação exige investimento, tempo, treinamento, mobilização de toda ou parte da organização e adequação dos processos para atender aos requisitos da norma ou do framework. Muitas especificações são redundantes em vários frameworks. Como sabemos, muitas regras tornam complexo o processo de gestão e geram dúvidas de interpretação, podendo ter um resultado inverso ao esperado. Isso coloca em dúvida o retorno do investimento dos projetos de certificação. A proposta desse artigo é usar a disciplina de Gestão de Risco para direcionar as revisões de processos e a adoção de mecanismos de controle automatizados. O resultado é tornar os resultados tangíveis e alinhados com os objetivos e continuidade dos negócios.

    As organizações assumem o perfil de seus fundadores e suas disciplinas de valor. Cada organização assume uma cultura que pode ser orientada para a inovação, para o cliente ou para a excelência operacional. Por exemplo, as empresas da era digital têm orientação para a inovação, as consultorias de uma forma geral para os clientes, e a indústria para a excelência operacional. Cada organização tem um apetite para o risco de acordo com o perfil de seus fundadores e disciplinas de valor.

    O sucesso de uma organização deve levar em consideração diversos componentes interligados e seus habilitadores. Podemos considerar sete importantes habilitadores: (1) princípios, políticas e modelos; (2) processos; (3) estruturas organizacionais; (4) cultura, ética e comportamento; (5) informação; (6) serviços, infraestrutura e aplicativos; e (7) pessoas, habilidade e competências. A falta de alinhamento de um ou mais habilitadores impede que os objetivos e metas de crescimento sejam alcançadas.

    Observe que o perfil dos fundadores e disciplinas de valor têm um impacto direto nos habilitadores, resultando em um estilo organizacional próprio. Esse estilo é o que a distingue da concorrência e define seu sucesso empresarial.

    Uma alteração no modus operandi da organização devido a implantação de uma norma ou framework tem que ter uma excepcional justificativa para ser aceita sem resistência pela alta direção e funcionários.

    Minha proposta de adoção de um modelo de gestão baseado em risco se apoia na identificação de potenciais falhas e impactos dos habilitadores para justificar mudanças de processos e novos sistemas automatizados de controle.

    O modelo de governança corporativa deve garantir que as necessidades, condições e opções das partes interessadas sejam avaliadas frente aos objetivos acordados, definindo priorizações e tomadas de decisão. O modelo BSC – Balanced Scorecard – permite identificar os objetivos e métricas de desempenho de forma holística, considerando as perspectivas financeira, cliente, processos internos e, treinamento e crescimento. O BSC se adapta a qualquer estilo organizacional.

    Cabe aos diretores executivos implementar um modelo de gestão para atingir os objetivos organizacionais, envolvendo planejamento, desenvolvimento, execução e monitoramento das atividades.

    A fortíssima concorrência local e global focada em preço e qualidade dos produtos e serviços não oferece margem para desperdícios de tempo e dinheiro. O importante é focar nos objetivos organizacionais e em ações para mitigar os riscos que impactem as metas definidas.

    Cada gestor de negócio deve avaliar os habilitadores que garantem o atingimento de suas metas e avaliar os potenciais riscos de falha e ações para mitiga-los. Recomendo usar o FMEA – Failure modes and effects analysis – como instrumento para identificar potenciais falhas no design, processos de manufatura, produtos e serviços. O FMEA se aplica a qualquer processo organizacional. Usando o método PCDA (Plan-Do-Check-Act) é possível controlar e melhorar continuamente os processos e produtos. Programas mais avançados podem utilizar o DMAIC (Define, Measure, Analyze, Improve and Control) uma ferramenta de projetos Six-Sigma.

    Usando essa abordagem, a organização promove a gestão de risco e investe na automação dos processos que trazem retornos tangíveis. O uso de sistemas de informação eficientes dos processos críticos fornece a alta direção informações necessárias para tomadas de decisão mais precisas. Adotando técnicas de melhoria contínua, progressivamente, os processos se tornam mais robustos, reduzindo as falhas, aumentando a produtividade e reduzindo os custos operacionais.

    Para alinhar e envolver a direção, funcionários e fornecedores no programa sugiro adotar ciclos periódicos para revisão de riscos, revisão de processos e avaliação de resultados. Concentrando as atividades em períodos, gera mais sinergia e evita que ações ad hoc de uma área de negócio desvie da rotina outras áreas de negócios em diferentes épocas do ano. Caso seja necessário contratar uma consultoria especializada em gestão de risco e melhoria contínua, é possível concentrar as atividades e obter mais produtividade e ganhos do serviço contratado.

    Os resultados práticos dessa abordagem surgirão naturalmente na melhoria de produtividade, aumento da qualidade dos produtos e serviços, redução de custos operacionais, maior retorno do capital investido, satisfação dos clientes e maior atratividade de investidores.

    Entretanto, se houver a necessidade de uma avaliação externa e independente do trabalho realizado, é possível a contratação de uma empresa de auditoria externa para validar o modelo de gestão baseado em risco e os processos de negócio.

    Essa abordagem não invalida a obtenção das certificações tradicionais. Algumas são obrigatórias para participação em processos licitatórios, condição para participar da cadeia de fornecedores de grandes empresas e como parte de acordos com acionistas e entidades regulamentadoras.

    A grande vantagem do uso a priori do modelo de gestão baseado em risco sobre os processos tradicionais de certificação é que todo os processos já foram mapeados, os riscos identificados e as ações mitigatórias já definidas. Desta forma, o processo de certificação será meramente burocrático com a reunião das evidências na forma exigida pela norma.

     

     

     

  • Novas Tecnologias e Práticas para a Segurança da Informação

    A abrangência da segurança da informação vai muita além da detecção e eliminação de vírus, controle de acessos indevidos, assinaturas digitais, criptografia e classificação das informações. Os principais ativos organizacionais definidos pelo modelo de governança corporativa, tem a informação como seu principal fundamento. A prosperidade das organizações tem relação direta com a forma como as informações são interpretadas e utilizadas. As características da informação são: confidencialidade, integridade e disponibilidade. Toda informação tem um ciclo de vida: manuseio, armazenamento, transporte e descarte. O grande desafio da gestão eficiente dos negócios é se antecipar aos eventos de quebra de segurança das informações.

    Acontecimentos recentes de espionagem de chamadas telefônicas da Chanceler da Alemanha Angela Merkel, divulgação de informações confidenciais por Edward Snowden e inúmeras invasões de sites de empresas conhecidas com roubos de dados, incluindo instituições financeiras, têm mostrado a importância das empresas administrarem, cuidadosamente, seus dados. As consequências de uma má administração dos dados podem ser catastróficas.

    No passado era difícil monitorar e analisar grandes volumes de dados por restrições das tecnologias de hardware e limitações dos softwares. Atualmente, com as tecnologias “in-memory” de armazenamento de dados, big data, ferramentas de análise avançada de dados em ambientes escaláveis de infraestrutura dos data centers, como Cloud Computing, é possível melhorar os controles dos processos e detectar fraudes em seu estágio inicial.

    Pequenos desvios do comportamento dos dados podem indicar a existência de uma fraude na organização. Com as novas tecnologias é possível correlacionar vários parâmetros com milhares de dados e analisar, em tempo real, o comportamento dos consumidores, dos processos, econômicos, de transações eletrônicas, entre outras.

    Os principais componentes de uma estratégia de segurança da informação são:

    • Prevenção – ações de planejamento e implantação de processos robustos e avaliação contínua em tempo real para reduzir o risco de ameaças e vulnerabilidades, intervindo e bloqueando um ataque sem causar danos ao sistema;
    • Detecção – abordagens para identificar comportamentos anômalos e descobrir intrusões, detectar códigos maliciosos e outras atividades ou eventos que possam interromper o fornecimento de energia elétrica e coletar evidências das tentativas de ataques para a contínua reavaliação do sistema e ações legais contra os agressores;
    • Resposta – aplicação de ações imediatas para evitar os efeitos de um incidente, incluindo salvar vidas, proteção da propriedade e atender às necessidades básicas da população;
    • Recuperação – coordenar a execução do plano de recuperação dos locais e instalações afetadas pelo ataque, reconstituindo as operações para os clientes no menor prazo possível.

    O crescimento do uso de dispositivos remotos com tecnologia Internet of Things fará aumentar, consideravelmente, o volume de dados manipulados, transportados e armazenados. Isso cria novas oportunidades de negócios e facilidades para as pessoas e empresas. Entretanto, aumentam os riscos de fraudes e violação de privacidade.

    Um exemplo é a substituição dos medidores analógicos de consumo de energia por medidores eletrônicos. Os benefícios são imensos para as distribuidoras de energia, com reduções significativas de custos operacionais e aumento do conhecimento do perfil dos consumidores. Será possível saber quando o consumidor ligou o ferro elétrico ou a máquina de lavar roupas. Nessa aplicação, deve-se monitorar, continuamente, a existência de fraudes e proteção das informações dos consumidores.

    A monitoração desse novo ambiente de negócios requer novas práticas de gestão e novas funcionalidades de softwares. Nesse novo cenário, os processos de negócios devem considerar controles internos para detectar quebra da segurança da informação.

    Desta forma, a visão de gestão da segurança da informação deve envolver, diretamente, os processos de negócios e seus gestores devem compartilhar a responsabilidade com a áreas de tecnologia da informação da empresa.

    A nova plataforma tecnológica de segurança da informação deve considerar modelos de gestão, análise de risco, conformidade com a legislação e normas internas, gestão de ativos, gestão de portfólios de projetos, técnicas de melhoria contínua de processo, big data, ferramentas avançadas de análise de dados, além dos softwares de segurança tradicionais.

    Apresento a seguir um conjunto de softwares e modelos de gestão para o novo ambiente de segurança da informação:

    • GRCGovernance, Risk Management and Compliance – Software que gerencia funções de trabalho como: controles e mapeamento de políticas; rotinas de trabalhos (workflows); funções de pesquisa; repositório de dados; avaliações de risco e painéis de controle (dashboards);
    • SIEMSecurity Information Event Management – software de gerenciamento centralizado para armazenar dados de segurança (informações de registros e eventos apenas) para simplificar o gerenciamento de incidentes de segurança e a emissão de relatórios de conformidade;
    • AMSAsset Management System – software de gerenciamento de ativos tangíveis e intangíveis para gestão de todo o ciclo de vida do ativo (concepção, construção, comissionamento, operação, manutenção, reparação, modificação, substituição e descarte);
    • PPMPortfolio Project Management – software de gestão centralizada de grupos de projetos, auxiliando a determinar o mix ideal de recursos para a entrega e melhorar as metas operacionais e financeiras de uma organização, respeitando as restrições impostas pelos clientes, objetivos de negócios e estratégias;
    • Six-Sigma – metodologia de melhoria contínua de processos com o objetivo de eliminar falhas através do uso de um conjunto de técnicas e ferramentas estatísticas;
    • Softwares de Segurança – conjunto de software para proteção e monitoração da segurança: firewalls, antivírus, criptografia, gestão de identidade, governança e gerenciamento de interfaces de dados entre sistemas internos e externos;
    • Testes de Conformidade – comissionamento da infraestrutura tecnologia com testes integrados de software para garantir a conformidade das especificações e reduzir a incidência de erros no sistema;
    • Big Data – tecnologia para armazenamento de grandes volumes de dados com grande velocidade de acesso;
    • Advanced Data Analytics – ferramentas de análise avançada de dados para prever eventos e comportamentos futuros, auxiliando na definição de novas estratégias de negócios e identificação de potenciais problemas nos processos e fraudes.

    Investimentos em segurança da informação não devem ser atribuídos apenas para a área de TI. As áreas de negócios devem considerar a revisão de seus processos e incluir mecanismos de prevenção, detecção, resposta e recuperação das informações de negócios. Novas tecnologias e práticas de monitoração devem ser implementadas para evitar fraudes e quebras de segurança. Os investimentos em segurança podem ser utilizados para planejamento estratégico de Marketing para a definição de novos produtos e modelos de negócios, aproveitando a tecnologia de Big Data e as ferramentas avançadas de análise de dados.

     

     

     

  • O desafio da energia para os data centers e o compromisso com a sustentabilidade

    figura-clean-data-center-greenpeace-april-2014

    Em abril de 2014, o Greenpeace liberou um novo relatório sobre o uso de energia renovável pelos maiores data centers globais. Esse relatório apresenta um ranking dos data centers mais comprometidos com o uso de energia renovável com o objetivo de mitigar a emissão de gases do efeito estufa. O relatório destaca a Apple, Google e Facebook com um forte compromisso de uso de energia renovável e critica a Amazon Web Services (AWS) pelo uso de energia não renovável e pouca transparência no setor.

    figura-clean-data-center-greenpeace-company-scorecard-april-2014

    As estimativas são que em 2014 cerca de 2,5 bilhões de pessoas estão conectadas a Internet no mundo. As previsões são que teremos cerca de 3,6 bilhões de pessoas conectadas em 2017. Cada vez mais as pessoas e os negócios são dependentes da Internet e isso cada vez mais poder computacional para executar os serviços online.

    As empresas de tecnologia estão criando novas soluções para aumentar o poder computacional dos equipamentos e soluções de software para maximizar o uso da infraestrutura. Essas ações de eficiência computacional reduzem o consumo de energia e necessidade de refrigeração, contribuindo para a redução do uso de água para refrigerar o ambiente dos data centers.

    Na comparação de consumo de energia de países e Cloud Computing, mostra que em 2011 a energia consumida pelos data centers é a sexta maior no mundo.

    figura-clean-data-center-greenpeace-electricity-demand-april-2014

     

    Essa situação coloca a necessidade de um tratamento diferenciado para os data centers das políticas públicas e regulatórias dos países.

    No Brasil, existe um forte incentivo para o uso da Internet como um fator de inclusão social e desenvolvimento da economia. Entretanto, o Brasil apresenta um dos custos mais elevados de energia e telecomunicações do mundo. Isso tira a competitividade do setor e restringe a expansão do uso da Internet, principalmente, das classes menos favorecidas que representa a grande parcela da população.

    A única política do governo que permite a redução do custo de energia é a compra de energia no mercado livre para empresas que possuem uma demanda de eletricidade acima de 500kW.

    Essa política beneficia apenas os grandes data centers e, praticamente, elimina a competitividade dos pequenos e médios data centers.

    Infelizmente, o Brasil não tem uma política forte de incentivo a minigeração de energia renovável pelas empresas. Os custos de implantação de geração de energia solar fotovoltaica, eólica, biomassa e através de pequenas hidrelétricas ainda não são atrativas para os data centers.

    Uma política de subsídios para a geração de energia de energia renovável para o setor de data centers traria um grande benefício para a sociedade e para o crescimento da economia. Garantiria preços competitivos dos serviços digitais mesmo em períodos de grandes estiagens, que exigem a geração de energia por usinas termoelétricas que além de poluidoras são mais caras.

    A proposta é criar um regime especial para o setor de data centers com três pautas: (1) permitir que todos os data centers, independente da sua demanda de energia, possam comprar eletricidade no mercado livre; (2) isentar de impostos de importação os equipamentos não produzidos no Brasil para a construção de minigeradoras de energia pelos data centers; e, (3) redução do IPTU dos data centers que reduzirem a emissão de gases do efeito estufa que contribuem para o Plano Municipal de Mudanças Climáticas.

     

  • Melhoria não é inovação

    É comum confundir melhoria com inovação. O processo de melhoria contínua faz parte do aperfeiçoamento do produto ou serviço, e a introdução de uma nova tecnologia pode ser simplesmente uma melhoria.

    Já uma inovação significa criar algo que mude um processo industrial ou hábitos dos consumidores, como um novo material que pode alterar significativamente as características de um produto, entregando mais funcionalidades com menores preços.

    A melhoria contínua busca a excelência operacional; a inovação busca a ruptura de um modelo de negócios ou de uma tecnologia. Existem ferramentas de gestão para contribuir em ambas as esferas.

    O processo de melhoria contínua Six-Sigma tem o objetivo de eliminar as falhas de um processo e, consequentemente, reduzir custos e obter mais lucratividade. O processo utiliza a metodologia DMAIC (Definir-Medir-Analisar-Melhorar-Controle), e as técnicas utilizadas são fortemente baseadas em análises estatísticas para determinar a causa raiz do problema. O Six-Sigma é largamente utilizado na indústria de manufatura, com excelentes resultados na área de serviços.

    Um exemplo na área de serviços é utilizar a prática para analisar e aperfeiçoar os processos de um Call Center, quando a empresa está perdendo os clientes que a contatam por este canal para resolver um problema. Isso é um sintoma de que existem falhas no atendimento. O Six-Sigma ajuda a entender o problema, definir a causa na raiz, planejar ações de melhoria e medir seus resultados depois da implantação.

    O processo de inovação usa ferramentas que estimulam por meio de intensidade a criatividade. O método de pensamento produtivo, estratégia do Oceano Azul, CANVAS e Design Thinking, é uma das ferramentas que definem um novo modelo de negócios.

    Inovação tecnológica é entendida a partir de produtos que representem uma invenção ou descoberta de um novo material, como o grafeno, que revolucionará a indústria de energia e computação.

    Para melhorar os resultados e garantir maior eficiência, é importante que no desenvolvimento do produto sejam previstos mecanismos de coleta de dados para serem usados no processo de melhoria contínua.

  • O impacto das bandeiras tarifárias no custo dos data centers

    A partir de Janeiro de 2014 o custo da energia no Brasil para o consumidor final irá variar acompanhando o custo da geração no sistema integrado de energia. A energia é cobrada por unidades de quilowatt/hora (R$/kWh) e depende da forma de geração: hídrica, térmica, eólica ou solar. Atualmente, o maior custo é a da energia térmica chegando a R$350/MW, enquanto a hídrica varia de R$91/MW a R$125/MW, a eólica por R$110/MW e solar por R$126/MW. O custo médio da energia depende da quantidade de energia gerada por cada fonte durante o dia.

    O Operador Nacional do Sistema (ONS) é o órgão responsável pela coordenação e controle da operação das instalações de geração e transmissão de energia elétrica no Sistema Integrado Nacional (SIN), sob a fiscalização da Agência Nacional de Energia Elétrica (Aneel). O ONS é quem determina quais fontes de geração devem ser acionadas durante o dia para garantir a quantidade suficiente de energia para atender a demanda em diferentes horários do dia.

    Usando modelos matemáticos é determinado a melhor matriz de fornecimento de energia. Em situações onde os reservatórios de água das hidrelétricas estão cheios, a preferência é o uso de energia hídrica. Em tempos de estiagem é necessários acionar as termoelétricas, elevando custo da geração. A geração de energia eólica e solar atendem uma pequena parcela da energia.

    Até 2013, o custo de geração refletia no bolso do consumidor residencial, indústria e comercial apenas de quatro em quatro anos nas revisões tarifárias da concessionária de distribuição de energia da sua região. A partir de 2014, o custo será repassado mensalmente para o consumidor na conta de energia através das bandeiras tarifárias: branca, amarela ou vermelha.

    A bandeira branca significa que o sistema elétrico está operando de forma normal. A bandeira amarela significa atenção e será acrescido na conta de energia R$1,5 por cada 100kWh consumido. A bandeira vermelha indica uma situação crítica e será acrescido R$3,00 por cada 100kWh consumido. Isso trará um impacto significativo na indústria, principalmente em empresas que usam intensivamente energia.

    No caso dos data centers, a energia constitui a maior parcela de custo das despesas operacionais (OPEX). Como a tarifa de energia pode variar mensalmente, dificilmente será possível refletir no preço dos produtos e serviços de contratados de médio e longo prazo. Isso irá refletir no fluxo de caixa das empresas.

    Uma das formas de blindar os custos é comprar energia no mercado livre de energia elétrica. O mercado livre de energia permite que empresas que consomem acima de 500MWh possam comprar energia diretamente de uma fonte gerador de energia. Atualmente, entre 500MWh a 3.000MWh de fontes renováveis e acima de 3.000MWh de qualquer fonte. Esse cenário poderá mudar com novas normas regulatórias da Aneel beneficiando médios consumidores de energia.

    Dentro desse contexto torna-se imperativo que os data centers revisem sua estratégia de consumo de energia. Os maiores ofensores são os equipamentos e o sistema de refrigeração. A métrica que melhor indica a otimização do uso de energia elétrica é o PUE (Power Usage Effectiveness). O PUE é a relação do consumo total de energia pela energia consumida pelos equipamentos de TI.

    O grande desafio dos data centers é atingir valores próximos a um. Os data centers da Google estão com o PUE de 1,3 e são referência internacional. Reduzir o PUE, além de reduzir o custo da energia reduz também a emissão de gases do efeito, importante para a preservação do meio ambiente.

    Para atingir o objetivo de reduzir o PUE é essencial controlar de forma integrada todos os ativos da instalação, temperatura do ambiente interno, acionamento do grupo de geradores internos e os equipamentos de refrigeração.

    Os data centers devem adotar duas iniciativas, a primeira incluir técnicas mais sofisticadas de melhoria contínua de processos e uma ferramenta para gerenciar os ativos.

    A melhor técnica de melhoria contínua é o Six-sigma com um framework e ferramentas que assegura a análise, planejamento, execução e acompanhamento dos resultados. O Six-sigma ajudará na tomada de decisão para a empresa migrar do mercado cativo de energia para o mercado livre, por exemplo.

    Softwares de DCIM (Data Center Infrastructure Management) com funcionalidades de gestão de ativos (AMS, Asset Management System) são as melhores alternativas para conseguir uma operação otimizada do Data Center.

  • Tecnologias Disruptivas para Data Centers

    O armazenamento com tecnologia flash, resiliência na nuvem e práticas de gestão avançadas da infraestrutura de data centers (DCIM) são as três tecnologias que estão no radar dos fornecedores e operadores.

    A geração de energia limpa no local continua no radar, principalmente agora que os servidores do muito-baixo consumo de energia exigem investimentos menores em geração.

    As novas tecnologias como memristors e silicon photonics podem ter um impacto enorme sobre a eficiência e poder dos data centers, porém exigem mais estudos e aplicações comerciais.

    O armazenamento de dados em memória flash promete um aumento dramático de desempenho em aplicações de bancos de dados, análises de “big data” e virtualização de desktops. Estima-se que a tecnologia flash reduza a latência de acesso aos dados em mais de 85% comparado com a tecnologia SSD PCI Express. Podendo ser utilizada como memória RAM torna possível dotar os servidores com terabytes de memória. O design paralelo do barramento de memória permite aumentar a quantidade de memória flash em um servidor.

    Por uma questão de sobrevivência as empresas buscam resiliência em suas operações. Esse objetivo está diretamente ligado a disponibilidade dos serviços nos data centers. Cada vez mais os gestores de data centers são desafiados a aumentar a disponibilidade com menos recursos. Essa resiliência atingida com o uso de boas práticas de gestão e arquiteturas robustas e redundantes de software e hardware.

    Para criar uma arquitetura resiliente, é importante entender os pontos e os modos de falha de um aplicativo e dos serviços de carga de trabalho relacionados para a tomada de decisão correta. Uma prática que começa a ser utilizada pelos gestores de data centers é o uso da metodologia de qualidade Six-Sigma.

    A tabela abaixo mostra o percentual de disponibilidade e o tempo de paralisação.

    tabela-de-disponibilidade-de-data-centers

    A uso de geração local de energia aumenta a disponibilidade dos data centers por oferecer uma alternativa ao fornecimento de energia pela concessionária. Para avaliar os investimentos em geração local de energia é importante conhecer o desempenho da concessionária de energia. Métricas como tempo de paralisação e restabelecimento do serviço são importantes e disponíveis  para análise.

    Leitura recomendada:
    À prova de falhas: orientação para arquiteturas resilientes na nuvem