Eduardo M Fagundes

Artigos

Coletânea de artigos técnicos e reflexões de Eduardo M. Fagundes publicados entre 2011 e 2017

Assine a Newsletter no Linkedin

Tag: cloud computing

  • Quem é o maior no mercado de Cloud Computing?

    O anuncio dos resultados do primeiro trimestre de 2015 das empresas que oferecem serviços de Cloud Computing gerou uma discussão de quem é a maior nesse segmento. A Amazon Web Services (AWS) reportou vendas de US$1,566 bilhão versus US$1 bilhão do mesmo trimestre em 2014, com um lucro operacional de US$265 milhões. Em 2014, a AWS gerou US$5 bilhões em negócios.

    A Microsoft afirma que seu negócio em Cloud Computing é de US$6.3 bilhões, incluindo o Azure, CRM Online e Office 365. Comparando apenas o Azure com a AWS, o Azure é menor.

    A IBM afirma que seu negócio nos últimos 12 meses foi de US$7,7 bilhões, incluindo todos os serviços de Cloud hibrida, entretanto se olharmos apenas o serviço de Cloud Computing o resultado é de US$3,8 bilhões.

    A Google teve uma receita de US$6.94 bilhões em 2014 e US$1,75 bilhões no primeiro trimestre de 2015. Não se conhece exatamente a receita em Cloud Computing, pois os resultados incluem o Google for Work, Google Play, smartphones Nexus e outros gadgets tipo o Chromecast.

    A Oracle reportou no seu terceiro trimestre fiscal uma receita de US$527 milhões, anualizado em US$2 bilhões, para a sua plataforma de Cloud Software, plataforma e infraestrutura como serviços, operando os serviços a partir de assinaturas conjuntas.

    A SAP tem um modelo parecido com o da Oracle de assinaturas. Divulgou uma receita de €503 milhões no primeiro trimestre, anualizado de €2 bilhões, algo em torno de US$2,16 bilhões.

    Por essa análise, tentando separar bananas e laranjas, conclui-se que a Amazon Web Services é a maior do segmento de Cloud Computing.

    A pergunta é se o modelo de negócio da AWS garantirá essa liderança no futuro. Acredito que sim. A AWS está desenvolvendo uma grande rede de empresas e de consultores independentes que ganham dinheiro com sua plataforma de forma simples e sem burocracia. Oferece um amplo portfólio de softwares de terceiros que podem ser contratados por demanda. Apoia pequenos empreendedores oferecendo, gratuitamente, sua plataforma para ambientes de testes de novos negócios.

    Parece que a IBM está indo pelo mesmo caminho. Suas últimas aquisições levam a entender isso. Seu serviço Bluemix permite a construção de aplicativos móveis de forma simples e rápida. A IBM está investindo US$4 bilhões em Cloud Computing para ter uma receita de US$40 bilhões em 2018.

    Acredito que o segredo desse negócio é oferecer ferramentas para que outras empresas possam desenvolver seus próprios negócios. O mercado é muito grande e não é possível abraçar tudo. Tem que focar em um negócio altamente escalável que permita o uso dos serviços de forma simples e barata, com alta qualidade.

  • As oportunidades do Cloud Computing e Big Data

    Uma pesquisa do Worldwide Quarterly Cloud IT Infraestructure Tracker, da IDC, mostra que o custo total estimado em infraestrutura para Cloud Computing deve crescer 21% por ano, totalizando US$32 bilhões em 2015. Segundo a pesquisa a infraestrutura para nuvens privadas de crescer 16% por ano, chegando a US$12 bilhões e os investimentos em nuvens públicas deve crescer 25%, chegando a US$21 bilhões. Em 2019, a pesquisa indica que serão investidos US$52 bilhões em infraestrutura de TI na nuvem, 45% do total dos investimentos em TI.

    No relatório de World Economic Forum de 2014, John Chambers, Chairman e CEO da Cisco, afirma que nos próximos dez anos existem oportunidades de US$19 trilhões em lucratividade e melhoria de serviços para os cidadãos com a Internet of Everything.

    Investimentos em Internet of Everything e Cloud Computing são essenciais para Big Data. Entretanto, o que os números da pesquisa não contabilizam é o esforço de planejamento, mão de obra especializada e ações de mitigação de risco de falhas na migração para esses novos cenários. Porém, com certeza os benefícios serão muito maiores que os investimentos.

    A GE está investindo mais de US$1 bilhão para desenvolver capacidades em ciência de dados para prover serviços de analises de negócios em escala mundial. A consultoria McKinsey afirma que a economia do Big Data usando dados abertos, “open data” ou “liquid data”, sobre os domínios da educação, transporte, produtos de consumo, eletricidade, óleo e gás, saúde e finanças podem gerar mais de US$3 trilhões em valor adicional por ano para a sociedade em inovação.

    Existe um potencial de economia de US$300 bilhões por ano no setor de saúde americano com o uso de Big Data. As grandes companhias estão melhorando seus processos com Big Data, a Visa anunciou que elevou de 40 para 200 os atributos de análise em cada transação de crédito e tendo uma economia de 6 cents em cada US$100 de transação. O Walmart usa uma ferramenta de autoaprendizagem semântica para melhorar as rotas de navegação na web (clickstream) dos seus 45 milhões de usuários online, aumento a taxa de transações completas em mais de 10%.

    Com todas essas pesquisas e evidencias de benefícios do Cloud Computing e Big Data, é quase que inaceitável uma organização, principalmente pública e com ações em bolsa de valores, não ter um plano robusto para novos negócios usando essas tecnologias.

  • A Digitalização da Operação

    A introdução das tecnologias na indústria é feita em ondas. A Internet tem gerado várias ondas, começou com B2C (Business-to-Consumer), B2B (Business-to-Bussiness) e eGov (Governo Eletrônico). Avançou para dispositivos móveis (smartphones, tablets, console de games), ou seja, a Internet está em todos os lugares – Internet Everywhere. Agora chegou a vez da automação da operação através de dispositivos que trocam dados entre si e geram montanhas de dados. O avanço da automação irá reduzir ainda mais os custos de produção e, principalmente, a análise avançada de dados fará previsões mais precisas para evitar falhas e do comportamento dos consumidores. Tais previsões, permitirão que as empresas se reinventem constantemente, criando produtos e modelos de negócios disruptivos. Acredito que não há dúvidas que só sobreviverão as empresas que tiverem a habilidade de adotar e manipular de forma eficiente as novas tecnologias.

    As tecnologias estão cada vez mais acessíveis e baratas. O modelo de computação em nuvem usando a Internet (Cloud Computing), permite ajustar a infraestrutura e custos dinamicamente. Isso cria a oportunidade para pequenas empresas adotarem novas tecnologias e ter vantagem competitiva no mercado onde atua.

    Tecnologias como Internet of Things (IoT), Big Data, Analytics estão saindo dos laboratórios das empresas de software e hardware e indo para o mercado de consumo. Os paradigmas de segurança do ambiente de Cloud Computing foram superados, não restando dúvidas que o ambiente é mais seguro que os ambientes locais. Gigantes da indústria de software já estão oferendo seus produtos na modalidade SaaS (Software as a Services), como SAP, Microsoft, Google (iniciou nessa modalidade), IBM, Oracle e muitas outras. Para as empresas de software, Cloud Computing é uma questão de sobrevivência.

    A indústria de equipamentos de hardware está passando por uma forte transformação. O novo data center do Facebook inaugurou um novo padrão de equipamento, definido por ela, compartilhado com o mercado através da comunidade OCP (Open Compute Project) e fabricado por fornecedores asiáticos de baixo custo. Grandes data centers, como Amazon e Google, já produzem seus próprios equipamentos.

    Com a redução de custos dos sensores remotos, é possível distribuí-los por toda a linha de produção para coletar dados e analisa-los em tempo real. Detectada uma anomalia em algum parâmetro dispara um alarme para investigação, evitando a paralização da produção.

    Na área da logística, é possível acompanhar a distribuição dos produtos em tempo real, monitorando localização, temperatura, pressão, vibração, entre outros itens críticos para assegurar a qualidade dos produtos até a entrega.

    No setor elétrico, cada dispositivo de geração, transmissão, proteção e medição podem ser monitorados em tempo real. Com tecnologias para Big Data e Analytics, falhas podem ser detectadas com antecedência e ações de contorno acionadas para evitar a interrupção do fornecimento, além de evitar perdas técnicas e comerciais (os gatos).

    Na gestão de cidades as aplicações são enormes, incluindo o controle mais eficiente do trânsito, melhor gestão da iluminação pública, aumento da segurança pública, melhoria na qualidade de informações para o cidadão, entre outras.

    Onde está o maior desafio? Na educação. Existe um consenso na comunidade empresarial global que não existe qualificação profissional suficiente para trabalhar nessas novas tecnologias. Existe uma escassez de Cientistas de Dados, profissionais com capacidade analítica, associativa, capazes de construir algoritmos de pesquisa complexos e interpretar seus resultados. A capacidade de análise e execução de ações não se delega, ela é parte do core business das organizações.

    Atualmente, uma das alternativas é as empresas formarem seus próprios Cientistas de Dados. As Universidades devem contribuir com cursos de formação nessas novas tecnologias com sofisticadas ferramentas de análise de dados.

    O governo deve apoiar essas iniciativas com linhas especiais de pesquisa e incentivos fiscais para as empresas que adotarem essas soluções. Afinal, se as empresas não se modernizam perdem a competitividade e mercado, gerando desemprego e menos impostos.

    Resumindo, para manter a competitividade e aumentar a produtividade é importante desenvolver uma estratégia digital disruptiva baseada nas novas tecnologias e investir na formação de pessoal qualificado.

  • Apagão elétrico e Planos de Continuidade de Negócios

    O apagão controlado de energia do dia 19 de janeiro de 2015 emitiu um sinal de alerta sobre a ameaça crescente de racionamento de água e energia. Apesar das informações desencontradas entre o Ministro das Minas e Energia, Eduardo Braga, e do Diretor Geral do ONS, Hermes Chipp, sobre as causas da interrupção de energia em 10 Estados e Distrito Federal, sabe-se que foi uma restrição de fornecimento de energia na interligação Norte e Sul. Em outras palavras, a energia de sobra no Norte e Nordeste não teve como ser transmitida para a região Sul.

    O potencial de novas ocorrências é grande, ainda mais que 59% das obras dos 388 projetos de linhas de transmissão de energia estão atrasados. Atualmente, temos 107 mil quilômetros de linhas de transmissão de alta tensão, que devem ser constantemente inspecionadas para evitar falhas, sem dúvida, um grande desafio.

    A queda de uma torre de transmissão ou uma falha grave em um grande transformador de energia em uma subestação pode restringir, consideravelmente, o fornecimento de energia. A situação é tão crítica e sem saída para os humanos, que a única opção é rezar para São Pedro mandar chover e apostar na sorte para não ocorrer novas falhas no sistema.

    Infelizmente, os impactos são desastrosos para as empresas. As ações das empresas do setor elétrico tiveram forte queda na Bovespa no dia apagão: CPFL ON (-7,30%), Light ON (-6,58%), Cemig PN (-6,37%), Tractebel ON (-6,31%) e Copel PNB (-5,99%).

    Quem trabalha no mundo corporativo sabe que para todo risco deve existir uma ação de contingencia. Imagine um executivo relatando para seus superiores no exterior a crise de energia no país e o potencial risco de paralisação das operações e apresentar como plano de ação uma oração para São Pedro todos os dias no início do trabalho.

    Para muitas empresas, o plano de contingência é a instalação de geradores de energia a diesel, incluindo os data centers. Imagine uma falha grave no sistema elétrico por mais de 72 horas. Os tanques de combustível deverão ser reabastecidos. Sem energia, teremos um caos no trânsito, longos congestionamentos e difícil acesso dos caminhões de abastecimento, se é que existirão caminhões disponíveis para atender a todas as empresas. A consequência é que sua empresa ficará sem energia.

    Seguindo o mesmo raciocínio, se os reservatórios de água atingirem níveis insustentáveis haverá racionamento de água. Os restaurantes industriais ou dos arredores terão dificuldade em fornecer refeições. A higiene dos banheiros ficará comprometida. E o desastre total, não teremos cafezinho.

    As empresas que já adotam o trabalho remoto como prática e possuem uma infraestrutura de colaboração virtual terão menos impacto com uma falta prolongada de energia. Os funcionários poderão ser deslocados para regiões com energia para operar a empresa. Para acontecer isso, o data center deve estar ativo e os dados disponíveis via Internet. Nesses casos, empresas que adotam computação em nuvem (Cloud Computing) e virtualização de desktop ganham em flexibilidade e mobilidade.

    Apesar da TI viabilizar os planos de continuidade de negócio, o plano não é responsabilidade dela. A TI deve se concentrar em seu Plano de Recuperação de Desastre que já é, suficientemente, complexo para garantir a disponibilidade e segurança das informações.

    As empresas devem montar uma equipe multifuncional para elaborar e, principalmente, manter e atualizar os planos de continuidade de negócios, uma vez que mudanças são constantes nas empresas.

    Comece com um workshop para levantar os processos que devem ter prioridade. Identifique quais os potenciais riscos da falta de energia e outros que podem afetar o processo. Use o método FMEA (Failure Modes and Effects Analysis) para identificar ações de contorno e prioridades, baseado na probabilidade de ocorrência e impacto no negócio. Depois de definidas as ações e suas prioridades parta para a implementação e testes periódicos para avaliar sua eficiência.

     

  • Processo de definição de métricas para Cloud Computing

    Os serviços de Cloud Computing estão crescendo no mercado e atraindo cada vez mais clientes. As empresas estão substituindo seus data centers físicos por serviços virtuais. Com o aumento de fornecedores no mercado e o número de opções de contratação é necessário definir um conjunto de métricas para medir e avaliar o desempenho do serviço – SLA, Service Level Agreement. A seleção e contratação de um serviço de Cloud Computing deve ter critérios claros e mensuráveis para apoiar o processo de tomada decisão. O cliente deve ter a capacidade de obter dados para medir, por exemplo, a qualidade do serviço, a disponibilidade e a confiabilidade do serviço. Chamamos isso de “Serviço de Medição” e está incluindo dentro das cinco características essenciais de Cloud Computing: (1) Serviço self-service por demanda; (2) acesso a rede de comunicação; (3) compartilhamento de recursos; (4) capacidade de expansão (escalabilidade); e, (5) os serviços de medição. Esse artigo descreve o processo para definição das métricas, não as métricas em si.

    Uma métrica fornece informações sobre as características de uma propriedade do serviço de Cloud Computing e o resultado dos valores observados. Por exemplo, a métrica “tempo de resposta do usuário” é usada para estimar uma específica propriedade de um serviço de e-mail no Cloud Computing (por exemplo, tempo de entrega de um e-mail de um usuário para outro). As observações devem fornecer informações suficientes para reproduzir e verificar os resultados das medições.

    figura-metrica-e-propriedade-v71

    As métricas têm um papel importante na tomada de decisão para a seleção de serviços de Cloud Computing, na definição e aplicação dos acordos de serviços, na monitoração, na contabilização e auditoria.

    O modelo para definição das métricas representa as informações necessárias para compreender os objetivos de uma propriedade e as restrições que deverão ser aplicadas durante as observações. O modelo de Serviços de Métricas de Cloud Computing (CSM – Cloud Services Metric) descreve os conceitos abstratos para uma específica propriedade do Cloud Computing, por exemplo disponibilidade do serviço.

    As definições de métricas devem conter parâmetros e regras para expressar de forma formal as características de uma propriedade. O modelo deve ter definições concretas com base nas definições abstratas das métricas para um determinado cenário. Um cenário representa um caso de uso particular em que as métricas desempenham seu papel. Os stakeholders precisam compreender, avaliar, comparar e tomar decisões sobre um serviço de Cloud Computing. Isso significa que para um determinado cenário, os stakeholders devem ser capazes de obter informações sobre as propriedades do serviço, que quando medido orientará as tomadas de decisão. O cenário e as propriedades determinarão as métricas que serão utilizadas.

    figura-cenario-e-metrica-v71

    O modelo CSM pode ser descrito em diagrama de classe UML. A proposta de um CSM é capturar as informações necessárias para descrever e entender uma métrica. A métrica é usada para ganhar conhecimento sobre as propriedades e medições do serviço de Cloud Computing.

    figura-cloud-service-metric-v71

    O modelo pode ser logicamente dividido em duas partes. A primeira parte aborda a definição de métricas abstratas. Especifica o que é a métrica abstrata, se ela é composta de métricas abstratas subjacentes, se é expressa com parâmetros adicionais e se existem regras de restrição. A segunda parte aborda a definição de métricas de concretas. Ela especifica qual a principal métrica abstrata que se baseia, quais os valores para os parâmetros e quais regras devem ser aplicadas para a definição de parâmetros e regras.

    figura-modelo-csm-v71

    Com essas informações é possível comparar os serviços de diferentes fornecedores e tomar a decisão de escolha.

    O modelo do CSM pode ser estendido e integrado em outros modelos que endereçam outros aspectos do ecossistema métrico como o contexto de uma métrica, a observação e a medição de resultados com base em uma métrica ou cenários que usam de métricas.

  • Cloud Storage uma solução prática e confiável para arquivamento de dados

    Serviços de armazenagem de dados remoto administrados por uma empresa especializada não é um negócio novo. O primeiro serviço que utilizei foi a digitalização e guarda de notas fiscais de um fornecedor fora da empresa. Lembro que algumas notas fiscais tinham que ser, literalmente, passadas com ferro antes de serem digitalizadas. Depois era atribuído uma identificação para a imagem para ser indexada no sistema para facilitar a recuperação. Esse serviço aumentou significativamente a produtividade da área de contas a pagar, solução de problemas, organização e redução de espaço físico na empresa. Atualmente, as notas fiscais eletrônicas substituíram o papel e parte das informações estão armazenadas nos computadores das secretarias de fazenda dos Estados.

    O desafio atual é como gerenciar os terabytes de informações das empresas. A solução mais simplista é comprar mais storage, com a ilusão que é barato. Esquece-se que o custo de administração dos dados e o risco de perda é alto, sem contar com a necessidade de investimentos (CAPEX) para atualização da infraestrutura tecnológica. Empresas que armazenavam dados em fita magnética em rolo tiveram que migrar os dados para novas mídias para aposentar as antigas leitoras de fitas. Isso sem contar que, alegando questões de segurança, o pessoal operacional costuma utilizar entre 30% e 40% do espaço disponível.

    Com as novas tecnologias de aquisição de dados usando Internet of Things, redes sociais e aplicações móveis o volume de dados tem crescido exponencialmente. Esses dados são utilizados por sistemas Big Data que usam variedade de dados e que requerem velocidade de acesso.

    A gestão do armazenamento de dados deve seguir os princípios do ciclo de vida da informação. Os dados devem ser armazenados em mídias que atendam aos requisitos de desempenho, disponibilidade e recuperação. Obviamente, quanto melhor o desempenho e disponibilidade maior o custo de armazenamento. Desta forma, classificamos os ambientes de armazenado por camadas (Tiers).

    • TIER 0 – Armazenamento em memória flash. Altíssimo desempenho, indicado para aplicações de missão crítica que necessitam de alta qualidade de serviço (QoS – Quality of Services);
    • TIER 1 – Alto desempenho e disponibilidade. Utilização de subsistemas de disco de alto desempenho com a manutenção dos objetivos de QoS;
    • TIER 2 – Médio desempenho e disponibilidade. Indicado para aplicações que não sejam de missão crítica;
    • TIER 3 – Baixo desempenho e disponibilidade. Indicado para aplicações que não sejam de missão crítica e de baixo impacto operacional;
    • TIER 4 – Indicado para arquivamento, longos períodos de retenção e backup.

    Em uma organização podemos assumir que os dados estão distribuídos da seguinte forma:

    • TIER 0: 1 – 5%
    • TIER 1: 15-20%
    • TIER 2: 20-25%
    • TIER 3: 50-60%

    Alguns dados podem migrar de um tier para outro antes de serem arquivados. Por exemplo, dados que são utilizados em transações eletrônicas de missão crítica que requerem QoS de Tier 0, depois podem migrar para Tier 2 para uso em sistemas de análise estatística.

    Uma boa gestão de dados mantém ambientes distintos e administráveis para o armazenamento e movimentação dos dados. São necessárias ferramentas, processos e tecnologias de hardware e software, incluindo: virtualização, serviços de catálogo com políticas de negócios e fluxos automáticos para movimentação de dados.

    O Cloud Services é uma solução simples e prática para arquivamento remoto, retenção e backup de dados. Além da vantagem da redução dos investimentos em sistemas de armazenamento (crescimento e upgrade tecnológico), simplifica a gestão da gestão de dados, permitindo que o pessoal interno foque nos dados que são realmente importantes para a operação da empresa.  Esse serviço já está incluindo no modelo de Cloud Computing.

  • Modelo de Custeio ABC para Cloud Computing

    Em mercados altamente competitivos o custo é a chave do sucesso. Bom, dizer isso é chover no molhado. A grande questão é como controlar e analisar o impacto da infraestrutura e dos serviços diretos e indiretos no custo dos produtos. Métodos tradicionais de contabilidade de custos na alocação de custos indiretos com base no volume não atendem mais os novos cenários de negócios. Esses métodos geram imprecisão na alocação, tendem a ser superestimados para grandes volumes e subestimados para pequenos volumes. Para tornar os cálculos de alocação de custos mais precisos recomenda-se o uso do método de custeio ABC (Activity based Costing) que faz o tratamento dos custos indiretos, através da análise das atividades, dos seus geradores de custos, e dos utilizadores. Enquadra-se nesse contexto os custos dos serviços de computação em nuvem – Cloud Computing.

    Para começar temos que analisar os custos de TI na empresa sob a ótica do custeio ABC. Pegar o volume de produtos produzidos e dividir pelas despesas de TI na organização, apenas oferece um valor referencial e não pode ser utilizado para custeio. Para gerenciar melhor a lucratividade dos produtos é necessário identificar e analisar a alocação dos custos de TI baseado nas atividades que são executadas.

    A ideia básica é definir o custo das atividades e, posteriormente, usar os custos das atividades nos produtos de forma ponderada. Com isso, encontramos os custos das pessoas, tecnologias, materiais, práticas de gestão e infraestrutura em cada atividade.

    Existem cinco etapas para a análise do custeio ABC:

    1. Definir objetos de custo, atividades indiretas e recursos utilizados nas atividades indiretas;
    2. Definir os custos por atividade indireta;
    3. Identificar os geradores de custos dos recursos;
    4. Calcular o custo total indireto por produto para cada tipo de objeto de custo;
    5. Dividir os custos totais por quantidade para custo indireto por objeto de custo individual.

    Definimos como objeto de custo os produtos, clientes, serviços ou qualquer outra coisa que possa ser contabilizada.

    Uma organização de TI trabalha com múltiplos objetos de custos, tais como serviço de suporte ao cliente final, ponto de processamento individual (desktop e notebook), impressoras departamentais, telefone, acesso remoto, sistemas de aplicação, data center, etc.

    Para cada um dos objetos existem várias atividades associadas para prestar o serviço ao cliente final, tais como central de atendimento, centro de monitoração de rede, operação dos computadores, desenvolvimento de sistemas, manutenção de sistemas, segurança lógica dos dados, etc. (Veja o meu artigo Modelo de Custeio ABC para TI).

    Conhecendo os objetos de custos e suas atividades fica mais fácil comparar com os serviços de Cloud Computing.

    O conceito amplo de custo Cloud Computing é ter custo por demanda. Entretanto, existem atividades nesse objeto de custo que não variam de acordo com a demanda. Por exemplo, o custo de setup de uma máquina virtual é fixo. O que irá variar é a quantidade de setups necessários ao longo de um período, considerando previsões de aumento da quantidade de transações eletrônicas em datas de grande consumo (Dia da Mães, Dia da Crianças, Natal, etc.).

    Acredito que a resistência a adoção de Cloud Computing não resiste a comprovação da sua eficiência na redução de custos dos produtos da empresa. O desafio é demonstrar de forma clara e objetiva os custos de TI nos produtos e uma análise consistente dos impactos das novas tecnologias.

  • Cloud Computing e a Eficiência Energética das empresas

    Os data centers são um dos maiores ofensores no consumo de energia das empresas, chegando a representar 40% das despesas da infraestrutura. Também, são responsáveis por uma grande quantidade de emissão de gases do efeito estufa, direta e indiretamente. Uma solução para reduzir os custos de energia e mitigar as emissões de CO2 é a transferência dos data centers das empresas para fornecedores de Cloud Computing.

    Os data centers consumem cerca de 1,5% de toda a energia produzida no mundo e emitem cerca de 2% dos gases do efeito estufa global. Empresas que aderiam a compromissos de preservação do meio ambiente têm no Cloud Computing uma alternativa viável para reduzir as emissões de gases do efeito estufa.

    Alternativamente, as empresas podem adotar na fase inicial do projeto migrar sua infraestrutura de servidores e armazenamento para o fornecedor de Cloud Computing na modalidade de Collocation, ou seja, alugar um espaço físico no data center do fornecedor para aproveitar sua infraestrutura predial.

    As reduções de custos e emissão de gases do efeito estufa são imediatos. A começar pela liberação da área física na empresa, principalmente se a área for alugada ou se a empresa tem plano de expansão dos escritórios.

    Outro fator de redução é no investimento (CAPEX) para a atualização tecnologia do parque instalado, incluindo sistemas de energia e refrigeração. O aumento das despesas (OPEX) com a contratação dos serviços podem trazer benefícios contábeis.

    Outros benefícios podem trazer redução de custos indiretos, tais como a simplificação dos processos internos, redução de riscos de acidentes, redução do prêmio do seguro das instalações da empresa, etc.

    Um dos mitos que já foi superado sobre Cloud Computing é a falta de segurança das informações e de sua infraestrutura. Sobre segurança da informação, os fornecedores investem maciçamente em ferramentas, pessoal especializado e monitoração 24×7, tornando o ambiente mais seguro que o das empresas. Do ponto de vista de infraestrutura, os data centers possuem recursos redundantes e monitorados constantemente.

    Faça uma boa ação com a natureza, migre seu Data Center para Cloud Computing e ainda ganhe com a redução de custos de energia e aumento da segurança.