efagundes.com

Tech & Energy Think Tank

Think tank independente com foco em energia, tecnologia e tendências globais. Análises para apoiar decisões estratégicas com visão de impacto.

Assine a Newsletter no Linkedin

Autor: Eduardo Fagundes

  • Facebook investiu US$660M em 2011 no seu novo data center

    Fazendo uma análise nos documentos que a empresa Facebook entregou para a Comissão Valores Imobiliários dos EUA (SEC – Securities and Exchange Commission) para fazer o seu IPO, observa-se o aumento dos gastos na sua infraestrutura de data centers.

    As despesas da Facebook saltaram de US$223M em 2009, para US$493M em 2010 para US$860M em 2011, respectivamente. A Facebook alega que o aumentou é em decorrência de sua mudança de estratégia de gestão de data centers e de sua rápida expansão.

    As despesas dos data center incluem as instalações, depreciação dos servidores, aluguel de equipamento, custos de energia e telecomunicações, custos de manutenção, salários dos empregados, benefícios e bônus em ações da companhia.

    O investimento da Facebook na sua infraestrutura de data center, incluindo os custos de servidores, equipamentos de armazenamento de dados e rede, e a própria construção do data center foi de US$606M em 2011.

    Esse custo reflete a mudança de sua estratégia na gestão dos data center. A nova abordagem está se mostrando mais econômica do que alugar espaço em data centers de terceiros e na utilização de servidores padrão da indústria. A Facebook utiliza uma arquitetura de servidores exclusiva para suas operações.

    A Facebook tem data centers em Prineville, Oregon e na Carolina do Norte. Anunciou planos para construir um data center na Suécia em outubro de 2011.

  • Reduzindo custos de Service Desk

    Um PC pode custar mais de quatro vezes o seu valor de aquisição por ano em um horizonte de quatro anos. Entretanto, estudos mostram que se o ambiente do PC for controlado o gasto é reduzido em mais de 40%. Esse controle pode ser realizado com o bloqueio das funções de configuração do PC ou através da virtualização da infraestrutura dos desktops (VDI – virtual desktop infrastructure). A eficácia do primeiro modelo é limitada, pois é necessário manter uma estrutura tradicional de Service Desk, distribuição de software e procedimentos individuais de backup de dados. O segundo modelo é mais eficaz por manter todos os dados e software centralizados, permitindo o backup de dados, configuração dos ambientes e suporte a partir de um único ponto.

    Reduzir o custo de gerenciamento dos PCs é um dos maiores desafios da área de Service Desk e infraestrutura. O modelo de bloquear os parâmetros de configuração e download de softwares reduz a flexibilidade dos usuários de ajustar o ambiente de seu equipamento às suas necessidades de trabalho e, consequentemente, sua produtividade. Por outro lado, deixar o controle total para o usuário implica em aumentar os custos da Service Desk. Encontrar o ponto de equilíbrio não é uma questão fácil e pode gerar atritos entre os usuários e o pessoal de TI. Esse modelo mantém todos os softwares e dados no PC do usuário, permanecendo a necessidade de suporte remoto, distribuição de software e backup remoto.

    Uma alternativa é o VDI, concentrando todos os softwares e dados em servidores centralizados acessados através de redes corporativas ou conexões seguras de Internet. Nesse modelo é gerado uma ou mais configurações de máquinas virtuais no servidor e os usuários são associados a uma dessas configurações. As máquinas virtuais são acessadas a partir de um software cliente instalado no equipamento remoto que pode ser um thin client, um desktop, um notebook ou um tablet PC, com diferentes sistemas operacionais e versões.

    A partir de uma console central é possível executar manutenções e implantar políticas de segurança em todas as máquinas virtuais de uma só vez. Outra vantagem do VDI é a facilidade de migração de versão de sistema operacional nos PCs remotos e manter aplicações legadas em antigas versões. Os backups dos dados são realizados de forma centralizada, aumentando a produtividade dos usuários e trazendo mais segurança às informações corporativas. Caso o usuário queira trabalhar off-line é possível fazer o download da sua máquina virtual para o seu PC e depois sincronizar com a do servidor.

  • Um projeto de TI tem mais chances de falhar do que ter sucesso

    É mais provável que o seu projeto de TI falhe do tenha sucesso do ponto de vista dos usuários. O sucesso pode ser medido de forma quantitativa de resultados esperados, tais como redução do orçamento de pessoal, redução do tempo de entrega de produtos ou redução de multas tributárias e trabalhistas. Entretanto, se o resultado for medido por pesquisa de satisfação dos usuários é provável que o resultado seja um desastre.

    Várias pesquisas apontam a insatisfação dos usuários pelos novos sistemas implantados. Algumas pesquisa mostram que 7 entre 10 projetos de TI falham na percepção dos usuários. Quando maior for o projeto de TI maiores são as chances de fracasso.

    Em 1995 uma pesquisa do Standish Group mostrava que 31,1% dos projetos de TI eram cancelados antes de serem concluídos e apenas 16,2% dos projetos de software eram concluídos dentro do prazo e orçamento.

    Diante dessas estatísticas foram desenvolvidos metodologias e software de gerenciamento de projetos para minimizar os riscos de falha dos sistemas.

    O RUP (Rational Unified Process) é um dos mais famosos processos de engenharia de software, criada pela Rational Software Corporation e, posteriormente, adquirida pela IBM. O RUP usa a abordagem de orientação por objetos e utiliza a notação UML (Unified Modeling Language) para mostrar os projetos em ação. O RUP é indicado para grandes projetos. A gestão de projetos recomendada pelo RUP é disciplinada, envolve tarefas e responsabilidades dentro de uma organização de desenvolvimento de software.

    Existem outros métodos de desenvolvimento como os métodos ágeis com o XP-Extreme Programming, Scrum, FDD e outros.

    Esses métodos ajudam a entregar projetos de software dentro dos requisitos acordados e dentro de prazos e orçamentos. Ou seja, do ponto de vista de resultados empresariais a metodologia assegura o sucesso. Entretanto, não garante a satisfação dos usuários.

    A satisfação dos usuários é atingida se houver uma forte cooperação de todos nas definições das funcionalidades do software e da participação efetiva dos usuários na implantação.

    Concluindo, o sucesso de implantação de software depende de um processo estruturado de desenvolvimento e da forte interação de todos os envolvidos nos processos que serão afetados.

     

  • Mais da metade das empresas brasileiras não tem planos de recuperação de desastres

    Uma pesquisa divulgada no início de 2012 pela Regus mostrou que 51% da empresas brasileiras não possuem uma estratégia para retomar as atividades de TI em até 24 horas. Embora 66% dos entrevistados declararam que investiriam em planos de contingência se o custo fosse razoável. As grandes empresas estão melhor preparadas para as contingências, até mesmo por que isso faz parte da governança de TI e corporativa.

    Um plano completo de contingência envolve todas as áreas da empresa, não apenas a TI. Em caso de um desastre natural ou eventos que impeçam os funcionários de irem ao trabalho é necessário existir um plano de trabalho alternativo.

    Por uma questão de otimização de negócio, algumas empresas de call center estão melhor preparadas. Atualmente, é possível o transbordo de ligação de um local para outras através de redes inteligentes de telefonia baseadas em VoIP. Com isso, se todas as posições de atendimento estiverem ocupadas em São Paulo, automaticamente, as chamadas são redirecionadas para Porto Alegre, por exemplo. Isso otimiza a ocupação das atendentes. Entretanto, para manter um serviço com alta disponibilidade o data center da empresa também deve ter um plano eficiente de recuperação.

    Uma alternativa para reduzir os custos dos planos de recuperação é adotar o estilo de processamento em nuvem – cloud computing. Um dos pontos que inviabiliza projetos de recuperação é o custo da infraestrutura de servidores e instalações que devem ser duplicadas. Com o cloud computing é possível reduzir a contratação de recursos e expandi-lo em caso de necessidade.

    Entretanto, para utilizar essa estratégia os data centers das empresas devem ter configurações compatíveis com um ambiente de cloud computing. De uma certa forma isso já está ocorrendo com a adoção da virtualização de servidores e storage.

    A adoção cada vez maior do trabalho remoto utilizando conexões seguras via Internet resolve em parte a questão de locais alternativos para trabalhar em caso de impedimento de acesso dos funcionários ao seu local de trabalho. Para intensificar esse estilo de trabalho e reduzir os riscos de paralisação dos negócios, as empresas devem incentivar programas de trabalho em casa, quebrando alguns paradigmas de produtividade que ainda existem.

    Desta forma, acredito que o cloud computing é a solução para que empresas de todos os portes adotem cada vez soluções de recuperação contra desastres.