efagundes.com

Tech & Energy Think Tank

Think tank independente com foco em energia, tecnologia e tendências globais. Análises para apoiar decisões estratégicas com visão de impacto.

Assine a Newsletter no Linkedin

Autor: Eduardo Fagundes

  • Gerenciamento de Capacidade em Cloud Computing

    O objetivo do gerenciamento de capacidade é assegurar os recursos de infraestrutura necessários de TI para atender a demanda dos serviços de TI para a organização, permitindo sua expansão dentro de parâmetros aceitáveis de custo e prazos. O modelo tradicional define a aquisição de artefatos de software, hardware e serviços baseados em custo por unidade.

    Por exemplo, a execução de um aplicativo está condicionada aos recursos limitados de um servidor, mesmo que virtualizado. Ações de melhoria contínua são realizadas para melhorar o desempenho do aplicativo para evitar a aquisição de novos servidores e para manter os níveis de serviços apropriados para os clientes. Essas ações fazem parte do jogo de equilíbrio procurando adequar os recursos às necessidades do negócio dentro de custos aceitáveis.

    Em um ambiente de computação em nuvem, os recursos para a execução de um aplicativo são, a princípio, escaláveis e elásticos com custo variável de acordo com a demanda. Essa condição satisfaz os requisitos técnicos para atender o negócio.

    Nesse estilo de processamento em nuvem, praticamente, todos tradicionais PKIs (indicadores de desempenho) de gerenciamento de capacidade são atendidos devido às características do serviço: Eficiência, Eficácia, Efetividade e Economicidade (do ponto de vista do impacto para o negócio devido a problemas com capacidade). Entretanto, o ambiente de Cloud Computing pode mascarar algumas deficiências da aplicação e configuração do ambiente. Desta forma, é necessário utilizar novos PKIs para medir o desempenho do ambiente. Um desses indicadores é o custo de TI por transação. Uma vez que o serviço é pago por demanda é importante operar com o menor custo por transação possível atendendo todos os requisitos dos níveis de serviços.

    Participe do grupo que está estudando esse assunto no www.efagundes.com.

  • Big Data: manipulando montanhas de dados

    Um dos temas que venho trabalhando é como analisar “montanhas” de dados para definir padrões de comportamento, os chamados “big data”. O processo consiste na aquisição, organização e análise. Uma tecnologia que permite trabalhar com milhares de nós e petabytes de dados é o Apache Hadoop. O Hadoop é um projeto de alto nível da Apache sendo construído e usado pela comunidade internacional de colaboradores, escrito em linguagem Java e sob licença livre. O software foi inspirado no MapReduce e File System do (GFS) do Google.

    O processo de aquisição envolve a extração de dados de várias fontes de informação. Como estamos trabalhando com grandes volumes de dados e variedade, a infraestrutura deve oferece possibilidade de mostrar dados consolidados, ter latência previsível, capacidade para executar pesquisas simples e manipular grandes volumes de transações em um ambiente distribuído.

    A organização dos dados dentro do conceito de data warehousing é chamada integração de dados (data integration). A infraestrutura necessária para organizar grandes volumes de dados deve processar e manipular os dados originais no sistema de armazenamento local (storage). A infraestrutura deve ter um altíssimo throughput (vazão de dados) para processar as várias fases de processamento; e deve manipular uma grande variedade de formatos de dados estruturados ou de formato livre (não estruturados). A tecnologia Hadoop permite organizar e processar de forma paralela grandes volumes de dados no cluster de armazenamento original. O Hadoop Distributed file System (HDFS) é o sistema de armazenamento de longo prazo para web logs, por exemplo. Esses logs são transformados em sessões que são executadas pelos programas MapReduce no cluster e os resultados carregados no data warehouse (banco de dados relacional).

    Para a análise dos dados, onde nem sempre os todos os dados foram movidos para o data warehouse à análise pode ser feita em um ambiente distribuído, onde alguns dados foram originalmente armazenados e possam ser acessados de forma transparente. A infraestrutura necessária deve suportar análises estatísticas e mineração de dados (data mining) para uma ampla variedade de dados armazenados em diversos sistemas, deve ser escalável, permitir rápido processamento e automatizar decisões com base em análise de modelos.

    A Oracle tem um produto que consolidada todas as funcionalidades de aquisição, organização e análise, chamado Oracle Big Data Appliance. O produto vem com uma configuração de 18 servidores Sun e uma capacidade de armazenamento de 432TB. Cada servidor no rack tem 2 CPUs, cada uma com 6 núcleos, somando 216 núcleos no rack. Cada servidor tem 48GB de memória com um total de 864GB de memória.

    Uma aplicação é a análise de comportamento de consumidores baseado nas redes sociais. Outra aplicação é a análise do padrão de consumo dos consumidores de energia elétrica por períodos em redes de distribuição inteligentes (smart-grid).

  • Um computador para cada aluno no Brasil – PROUCA

    Iniciativas como o projeto PROUCA, que tem o objetivo de dispor de um computador para cada aluno no Brasil, ajudam a transformar os hábitos da sociedade, transformar e criar novos negócios no mercado. Adquirir o hábito de fazer as coisas com o computador quebra um série paradigmas das pessoas mais maduras e aumenta a produtividade pessoal e das organizacionais. A reportagem do Olhar Digital apresenta algumas informações sobre o projeto.

  • Muita segurança de acesso aos serviços eletrônicos pode resultar no aumento da vulnerabilidade.

    As técnicas sofisticadas de invasão dos serviços eletrônicos levam as empresas a colocar cada vez mais obstáculos para os acessos dos usuários. A palavra usuário é proposital, pois o uso dos procedimentos é compulsório e o cliente não tem opção de escolha.  Algumas empresas definem procedimentos visando apenas o seu lado, esquecendo que os usuários possuem outros acessos em outras empresas. No conjunto, a grande quantidade de senhas e procedimentos faz com que os sistemas fiquem cada vez mais vulneráveis no quesito engenharia social. Ou seja, as pessoas para utilizar os diversos sistemas terão que anotar as senhas e os procedimentos em algum lugar. Pronto. Todo o investimento em segurança foi para o espaço. O setor bancário é o mais sensível e o maior produtor de procedimentos de segurança. Pegando o exemplo da federação de acessos das redes sociais, ou seja, uso de um único procedimento de acesso, incluindo senhas, para todos os acessos pelo menos de um setor, como o bancário por exemplo.

    Veja o caso do Banco do Brasil e da Caixa Econômica Federal (CEF). Ambas as instituições com o mesmo controlador, nós os cidadãos, melhor dito o Governo Federal, possuem procedimentos independentes de acesso. No caso da CEF, todos os trabalhadores no Brasil tem no mínimo uma conta na instituição, o Fundo de Garantia por Tempo de Serviço (FGTS). O Governo poderia coordenar um projeto para federação (até o nome faz sentido) dos acessos e liderar as outras instituições para adotar o mesmo padrão. Desta forma, poderíamos viabilizar a infraestrutura de chaves públicas (PKI). Acredito que falta pouco para isso, pois todas as empresas já possuem certificado digital para acesso as secretarias da receita de seus Estados.

    Para entendermos a complexidade do processo, vamos tomar como exemplo o Banco do Brasil. Um simples correntista precisa de no mínimo quatro senhas de acesso: uma do cartão de débito; uma para acesso a Internet; uma complementar de 5 letras para pagamentos e saques nos caixas eletrônicos e uma para ter acesso ao serviço de atendimento telefônico do banco. Cada senha tem que ser diferente. Adicionalmente, para pagamentos através da Internet o correntista precisa cadastrar um número de celular receber um código via SMS para validar o acesso através daquele computador. Embora o Banco do Brasil não recomende fazer acessos à conta corrente de uma LAN House, o correntista que fizer terá que autenticar via SMS cada novo acesso. Interessante observar que o Banco do Brasil assume que todos os correntistas têm celulares e devem acessar a conta corrente de um computador de casa ou do trabalho, ignorando o fato que o maior índice de acessos à Internet (31%) é realizado através das LAN Houses de acordo com pesquisas e que algumas pessoas podem não ter celular. Enfim, conflitos entre a inclusão digital e a segurança.