Eduardo M Fagundes

Artigos

Coletânea de artigos técnicos e reflexões de Eduardo M. Fagundes publicados entre 2011 e 2017

Assine a Newsletter no Linkedin

Autor: Eduardo Fagundes

  • A nova era dos Smart Data Centers para IoT, Big Data e Fast Data

    foto-datacenterroadshow-v3

    Não existem dúvidas que as tecnologias de Big Data, Fast Data e Internet of Things (IoT) serão chaves para as estratégias das empresas para manterem a competitividade. Nos próximos anos os investimentos se concentrarão em conectar bilhões de “coisas” para capturar dados para analises em tempo real. A consultoria IDC, prevê que entre 2014 e 2019 os Data Center deverão aumentar sua capacidade em 750% para suportar essas novas tecnologias. A questão estratégica será compartilhar a infraestrutura dos atuais data centers, orientados a aplicações comerciais, ou montar novos data centers para as aplicações de IoT, Big Data e Fast Data. A resposta está no quanto a empresa apostará nas novas tecnologias. Para cada empresa existirá um ponto de ruptura que a obrigará (ênfase para o verso) a adotar um novo conceito de processamento, os Smart Data Centers.

    Engana-se que pensa que esses Data Centers são similares aos tradicionais que executam ERPs e sistemas legados. Eles se aproximam mais das empresas de comércio eletrônico que, provavelmente, serão os maiores consumidores dessas novas tecnologias. Paradas para manutenções nem pensar.

    Quando pensar em Smart Data Centers não pense em caixinhas e nem em provedores únicos de Cloud Computing. Pense que a “nuvem” é seu Data Centers. Você deverá alocar recursos em diferentes Data Centers físicos interconectados entre si por canais de alta velocidade, preferencialmente, por fibras escuras. Isso irá garantir que alguns clusters poderão estar em diferentes locais, sem comprometer, significativamente, o desempenho das analises.

    Os Smart Data Centers permitem a coleta de dados das “coisas” de forma descentralizada, aumentando a disponibilidade do sistema como um todo e alguns processamentos locais.

    Minha visão é que as empresas terão uma sala de comando para orquestrar os diversos Data Centers, alocando recursos de forma dinâmica a medida da necessidade. Esses Data Centers deverão ser imunes a limitação de orçamento. Afinal, quem entra na chuva é para se molhar. Mas, com certeza os investimentos serão recompensados se o modelo de negócio for bem planejado e monitorado.

  • Apple Watch, um novo desafio para a indústria suíça?

    foto-apple-smartwatches-v81

    Na década de 70 quando surgiram os relógios a quartzo imaginou-se que a indústria suíça de relógios estava morta. Eles deram a volta por cima e focaram em sofisticados relógios mecânicos e na metade dos anos 90, com a explosão do mercado de luxo, passaram a dominar esse segmento. Apesar de a China ser a maior produtora mundial de relógios, 99% são de relógios baratos. A indústria suíça fabricou, em 2012, 29,3 milhões de unidades por ano, contra 678,5 milhões da China, porém o valor de mercado suíço é de US$22,9 bilhões e o chinês é de US$5,1 bilhões. A indústria mundial de relógios produz 1,2 bilhões de unidades por ano. A Suíça exporta 95% de sua produção. A Compagnie Financiere Richemont SA, dona das marcas Cartier, Lancel, Van Cleef, Chloe, Baume & Mercier, IWC, Jaeger-LeCoultre e Montblanc, é a maior empresa de relógios suíça com uma receita de US$13 bilhões e com a maior participação mundial no mercado de luxo, com um faturamento de US$12,3 bilhões nesse segmento. Os suíços continuam apostando no mercado de luxo, pois acreditam que o relógio, única joia universalmente aceita para homens, leva vantagem sobre carros luxuosos e obras de artes de alto valor porque podem ser mostrados o tempo todo.

    A Apple planeja vender cerca de 20 milhões de smartwatches esse ano. No período do lançamento foram distribuídos 3,1 milhões de unidades (1,8 milhões de alumínio, 1,3 milhões de aço e 40 mil de ouro). Os preços começam em US$349 para o modelo esportivo até US$17.000 para o modelo em ouro. A expectativa é de uma receita de US$2 bilhões no lançamento.

    Se compararmos o segmento de luxo de relógios, a Apple destinou 1,3% de relógios (40 mil) com acabamento em ouro, Watch Edition, contra a atual produção da indústria suíça de 29,3 milhões de unidades. Ou seja, o Apple Watch terá pouca influência no mercado de luxo nesse primeiro momento.

    Por outro lado, o mercado de relógios de baixo custo está se movendo para smartwatches. É esse segmento que deve sofrer uma forte transformação. A quantidade de modelos de smartwatches baseados em Android deve crescer significativamente a partir da mudança de hábitos dos consumidores. A indústria chinesa deve substituir parte de sua produção de relógios a quartzo por smartwatches. Isso deve abrir tremendas oportunidades para novos aplicativos móveis e novos serviços. Outro segmento que deve crescer serão as pulseiras personalizadas para smartwatches, assim como as capinhas para smartphones.

    Leitura recomendada:
    The Deloitte Swiss Watch Industry Study 2014
    Credit Suisse – Swiss Watch Industry 2013

  • Quem é o maior no mercado de Cloud Computing?

    O anuncio dos resultados do primeiro trimestre de 2015 das empresas que oferecem serviços de Cloud Computing gerou uma discussão de quem é a maior nesse segmento. A Amazon Web Services (AWS) reportou vendas de US$1,566 bilhão versus US$1 bilhão do mesmo trimestre em 2014, com um lucro operacional de US$265 milhões. Em 2014, a AWS gerou US$5 bilhões em negócios.

    A Microsoft afirma que seu negócio em Cloud Computing é de US$6.3 bilhões, incluindo o Azure, CRM Online e Office 365. Comparando apenas o Azure com a AWS, o Azure é menor.

    A IBM afirma que seu negócio nos últimos 12 meses foi de US$7,7 bilhões, incluindo todos os serviços de Cloud hibrida, entretanto se olharmos apenas o serviço de Cloud Computing o resultado é de US$3,8 bilhões.

    A Google teve uma receita de US$6.94 bilhões em 2014 e US$1,75 bilhões no primeiro trimestre de 2015. Não se conhece exatamente a receita em Cloud Computing, pois os resultados incluem o Google for Work, Google Play, smartphones Nexus e outros gadgets tipo o Chromecast.

    A Oracle reportou no seu terceiro trimestre fiscal uma receita de US$527 milhões, anualizado em US$2 bilhões, para a sua plataforma de Cloud Software, plataforma e infraestrutura como serviços, operando os serviços a partir de assinaturas conjuntas.

    A SAP tem um modelo parecido com o da Oracle de assinaturas. Divulgou uma receita de €503 milhões no primeiro trimestre, anualizado de €2 bilhões, algo em torno de US$2,16 bilhões.

    Por essa análise, tentando separar bananas e laranjas, conclui-se que a Amazon Web Services é a maior do segmento de Cloud Computing.

    A pergunta é se o modelo de negócio da AWS garantirá essa liderança no futuro. Acredito que sim. A AWS está desenvolvendo uma grande rede de empresas e de consultores independentes que ganham dinheiro com sua plataforma de forma simples e sem burocracia. Oferece um amplo portfólio de softwares de terceiros que podem ser contratados por demanda. Apoia pequenos empreendedores oferecendo, gratuitamente, sua plataforma para ambientes de testes de novos negócios.

    Parece que a IBM está indo pelo mesmo caminho. Suas últimas aquisições levam a entender isso. Seu serviço Bluemix permite a construção de aplicativos móveis de forma simples e rápida. A IBM está investindo US$4 bilhões em Cloud Computing para ter uma receita de US$40 bilhões em 2018.

    Acredito que o segredo desse negócio é oferecer ferramentas para que outras empresas possam desenvolver seus próprios negócios. O mercado é muito grande e não é possível abraçar tudo. Tem que focar em um negócio altamente escalável que permita o uso dos serviços de forma simples e barata, com alta qualidade.

  • As oportunidades do Cloud Computing e Big Data

    Uma pesquisa do Worldwide Quarterly Cloud IT Infraestructure Tracker, da IDC, mostra que o custo total estimado em infraestrutura para Cloud Computing deve crescer 21% por ano, totalizando US$32 bilhões em 2015. Segundo a pesquisa a infraestrutura para nuvens privadas de crescer 16% por ano, chegando a US$12 bilhões e os investimentos em nuvens públicas deve crescer 25%, chegando a US$21 bilhões. Em 2019, a pesquisa indica que serão investidos US$52 bilhões em infraestrutura de TI na nuvem, 45% do total dos investimentos em TI.

    No relatório de World Economic Forum de 2014, John Chambers, Chairman e CEO da Cisco, afirma que nos próximos dez anos existem oportunidades de US$19 trilhões em lucratividade e melhoria de serviços para os cidadãos com a Internet of Everything.

    Investimentos em Internet of Everything e Cloud Computing são essenciais para Big Data. Entretanto, o que os números da pesquisa não contabilizam é o esforço de planejamento, mão de obra especializada e ações de mitigação de risco de falhas na migração para esses novos cenários. Porém, com certeza os benefícios serão muito maiores que os investimentos.

    A GE está investindo mais de US$1 bilhão para desenvolver capacidades em ciência de dados para prover serviços de analises de negócios em escala mundial. A consultoria McKinsey afirma que a economia do Big Data usando dados abertos, “open data” ou “liquid data”, sobre os domínios da educação, transporte, produtos de consumo, eletricidade, óleo e gás, saúde e finanças podem gerar mais de US$3 trilhões em valor adicional por ano para a sociedade em inovação.

    Existe um potencial de economia de US$300 bilhões por ano no setor de saúde americano com o uso de Big Data. As grandes companhias estão melhorando seus processos com Big Data, a Visa anunciou que elevou de 40 para 200 os atributos de análise em cada transação de crédito e tendo uma economia de 6 cents em cada US$100 de transação. O Walmart usa uma ferramenta de autoaprendizagem semântica para melhorar as rotas de navegação na web (clickstream) dos seus 45 milhões de usuários online, aumento a taxa de transações completas em mais de 10%.

    Com todas essas pesquisas e evidencias de benefícios do Cloud Computing e Big Data, é quase que inaceitável uma organização, principalmente pública e com ações em bolsa de valores, não ter um plano robusto para novos negócios usando essas tecnologias.

  • A grande responsabilidade da média gerência na transformação das empresas

    Nas empresas tradicionais convivem pelo menos três gerações de profissionais. Os gerentes seniores, a média gerência e os funcionais. A alta gerência, diretores e gerentes seniores, representam certa de 20% nas organizações, onde 8% são presidentes e diretores, são profissionais mais experientes nascidos entre as décadas de 60, 70 e início dos anos 80. A média gerência, coordenadores e chefias, representam aproximadamente 16% nas organizações, são profissionais nascidos a partir dos anos 80 que se destacaram por suas habilidades de gestão. Os funcionais representam aproximadamente 64% nas organizações, são profissionais de várias faixas etárias que por opção ou perfil se mantiveram em funções operacionais. Esses dados foram compilados de algumas pesquisas de relatórios de RH.

    A alta gerência é comprometida e alinhada com a cultura organizacional e define os padrões de conduta da empresa. Relacionam-se com a média gerência compartilhando as estratégias e aprovando projetos em linha com os objetivos empresariais. Dependem da média gerência para concretizar suas visões e estratégias.

    Na alta gerência ainda predomina profissionais masculinos, cerca de 80%, onde 70% são brancos e 30% negros e de outras raças. No contexto geral, em 2013, 74% dos brancos tinham rendimentos superiores aos negros e pardos. Felizmente, na média gerência e funcionais a distribuição entre mulheres e homens é mais homogênea.

    A média gerência traduz em ações e resultados as estratégias empresariais através da distribuição de tarefas e instruções de trabalho (processos) para os profissionais de cargos funcionais. Eles são a interface entre a alta gerência e os funcionais, assumindo um papel fundamental na transformação das organizações.

    É a média gerência que sente mais de perto os conflitos de gerações, tento que entender e harmonizar as expectativas dos profissionais mais experientes e mais jovens.

    De um lado, devem atender ao conservadorismo e estrutura hierárquica exigida pela alta gerência e o ímpeto e irreverência dos mais jovens, característica das novas gerações.

    A média gerência recebe coaching e é avaliada pela alta gerência e avalia seus subordinados funcionais. São cobrados por inovação e desempenho, porém dentro de parâmetros aceitos como verdadeiros pela alta gerência. Entretanto, precisam inspirar e conseguir engajamento de seus subordinados que possuem outras referências sobre trabalho e expectativas de qualidade de vida.

    Diante desse cenário, a influência e desempenho das organizações dependem da atuação e habilidade da média gerência em fazer a gestão de conflitos dentro da organização. Ou seja, terão sucesso as empresas que melhor administrar os profissionais de média gerência.

    Sua empresa faz isso?

  • Falta dinheiro ou falta habilidade dos gestores de TI para implantar novas tecnologias?

    Uma pesquisa com 100 profissionais de TI realizada pela SolarWinds em novembro de 2013 no Brasil, mostrou que 61% dos entrevistados apontam as restrições orçamentárias como o principal obstáculo para a implantação de novas tecnologias nas empresas, seguido pela incapacidade para provar o ROI (48%) e a falta de profissionais qualificados (44%).  Entretanto, acredito que os obstáculos não são os identificados na pesquisa, e sim a falta de uma estratégia correta para implantar novas tecnologias e a falta de habilidade para negociar com a alta direção da empresa dos profissionais de TI.

    Em um curso sobre tecnologia da informação para engenheiros do MIT (Massachusetts Institute of Technology) o professor Dr. George Kocur afirma que os desenvolvedores de software subestimam a duração das tarefas entre 20-30% e omitem entre 30-50% das atividades dos projetos. Como os prazos são perdidos, existe um esforço maior para explicar as razões do atraso e o replanejamento das atividades. Sobre pressão, a quantidade de erros cresce em 40%, aumentando ainda o tempo e os custos dos projetos. O professor ainda afirma que 75% dos desenvolvedores são introvertidos e que apenas 33% têm habilidades de negociação.

    Acredito que o ponto fundamental é adotar uma estratégia de implantação de novas tecnologias que diferencie, claramente, os projetos de excelência operacional e os projetos experimentais de inovação.

    Os primeiros, devem adotar tecnologias e práticas robustas para garantir redução de custos e melhorar a produtividade. Essa estratégia vale para projetos que atendem a normas regulatórias e de melhoria contínua, adotando as experiências bem sucedidas do mercado.

    No segundo caso, os projetos de inovação devem começar pequenos e com critérios de cancelamento bem definidos. Como experimento, o cancelamento é parte do processo e não um erro.  Aqueles projetos que se mostrarem viáveis é possível estimar os investimentos e o ROI a partir do seu histórico de desenvolvimento e benefícios para a organização.

    Os projetos de excelência operacional já contam com um histórico de implantação no mercado com custos e benefícios conhecidos pelos fornecedores e outros clientes. Querer implantar um projeto de inovação em um processo crítico e consolidado sem um experimento é muito arriscado para o negócio.

    O terceiro obstáculo identificado na pesquisa, sobre a falta de pessoal qualificado, é uma questão de gestão. Parafraseando Thomas Friedman em seu livro O Mundo é Plano, a TI é plana. É possível encontrar desenvolvedores qualificados em vários lugares do planeta, e em alguns casos, mais baratos que os profissionais locais.

    Portanto, se adotarmos um estratégica que diferencie projetos de melhoria contínua e de inovação teremos muito mais chances de conseguir o dinheiro para implantar novas tecnologias.

  • SCADA, Big Data, Six-Sigma

    O grande desafio da automação industrial, predial e de concessionárias de serviços públicos (energia, água, petróleo, gás entre outros) é reduzir o número de falhas para aumentar a eficiência, objetivando menores custos de operação. O cenário tecnológico é complexo, não apenas pelas características de medições e controles, mas pela quantidade de padrões e soluções proprietárias dos fornecedores. Os sistemas SCADA (Supervisory Control And Data Acquisition) monitoram e supervisionam as variáveis e os dispositivos de sistemas de controle conectados através de controladores (drivers) específicos. O Six-Sigma, um conjunto de práticas para melhoria contínua de processos e eliminação de defeitos, tem ajudado a aperfeiçoar os processos industriais e de supervisão e controle, com ganhos significativos de desempenho. Agora entra no cenário o Big Data, uma tecnologia que coleta, armazena e manipula grandes volumes de dados e velocidade, permitindo analises mais precisas, rápidas e preditivas.

    figura-SCADA-Big-Data-Six-Sigma-v81

     

    Os sistemas SCADA monitoram as variáveis do processo produtivo (pressão, temperatura, vazão, demanda e consumo de energia, etc.) permitindo definir níveis ótimos de trabalho. A partir da definição e monitoração dos parâmetros de operação, qualquer alteração é sinalizada para evitar um problema no processo produtivo. O sistema SCADA é essencial para realizar a leitura dos instrumentos, gerar gráficos de tendências e gráficos históricos das variáveis do processo. Permitindo uma leitura rápida dos instrumentos de campo, as intervenções necessárias são feitas rapidamente, reduzindo as paradas de máquina e, consequentemente, aumentando a disponibilidade dos serviços e perdas de produção.

    Com os dados produzidos pelos sistemas SCADA é possível aplicar a metodologia DMAIC e DMADV do Six-Sigma, inspiradas no ciclo PDCA (Plan-Do-Check-Act). O DMAIC (Define-Measure-Analyse-Improve-Control) é utilizado em projetos focados em melhorar processos produtivos já existentes. O DMADV (Define-Measure-Analyse-Design-Verify) é focado em novos projetos de desenhos de produtos e processos. O DMADV também é conhecido com DFSS – Design for Six Sigma.

    Um dos desafios dos projetos de melhoria contínua e inovação é utilizar de forma integrada os dados de vários sistemas SCADA de diferentes processos produtivos, permitindo que haja análises de relacionamento e comportamento de diferentes parâmetros e, análises preditivas. Essa integração exige além da simples coleta e gravação de dados, mas a exploração e transformação de alguns dados para criar uma base de dados consistente. Por exemplo, um sistema SCADA grava todos os dados que calcula um determinado parâmetro. Outros, gravam apenas o resultado do parâmetro já calculado. Desta forma, é necessário a partir dos dados já calculados definir os dados primitivos que geraram aquele resultado.

    Com a popularização e maturidade dos sistemas Big Data é possível coletar, transformar, armazenar, integrar e analisar dados de diferentes sistemas SCADA com rapidez e custos com excelentes relações custo/benefícios.

    Sistemas Big Data se caracterizam por apresentarem grande velocidade de processamento, terem a capacidade para manipular grandes volumes e variedade de dados, conhecidos como “3Vs” (Volume, Velocidade, Variedade). Permite analisar e gerenciar aspectos como variabilidade, veracidade e complexidade dos dados. O Big Data supera os sistemas de Data Warehouse, pois possibilitam analises de grandes volumes de dados, voláteis ou não, com maior velocidade. Diferem dos sistemas de BI (Business Intelligence), pois permitem além das análises estatísticas descritivas do BI usar modelos matemáticos de inferência estatística, cujo o objetivo é fazer afirmações a partir de uma amostra representativa, métodos de identificação que trabalham com dados de entradas e saídas e sistemas não lineares. Essas características elevam as análises de dados a um outro patamar, melhorando os resultados dos projetos e a competitividade das empresas.

    A integração dos sistemas SCADA usando Big Data aumenta a proteção lógica dos dados de ataques cibernéticos, pois é possível identificar pequenas variações de comportamento dos parâmetros dos sistemas e tomar ações de defesa antes que ocorram prejuízos maiores.

    As tecnologias já estão disponíveis e maduras, inclusive algumas delas na modalidade de Open Source. Um grande desafio é contar com profissionais habilitados para operar essas novas tecnologias e modelos de análise mais sofisticados. Isso requer investimento por parte das empresas e paciência durante a curva de aprendizagem. Entretanto, os resultados no futuro compensarão o esforço.

  • IoT, Big Data, Analytics e os Serviços de Saúde

    Como levar serviços de saúde para mais de 9 bilhões de habitantes em 2050? Como levar serviços de saúde para regiões remotas de baixa densidade populacional? Como diagnosticar doenças em estágios iniciais para salvar vidas e ao mesmo tempo reduzir os custos dos serviços de saúde?

    Esses desafios só poderão ser vencidos com tecnologia. Pensar em um sistema de saúde tradicional com médicos em todas as localidades exigiria um grande esforço na formação de médicos, enfermeiros e técnicos em saúde, além de infraestrutura física e equipamentos para exames e diagnósticos.

    A população estimada pelo IBGE para o Brasil em 2050 é de 226 milhões de habitantes. Em 2013, segundo a OMS, havia 17,6 médicos no Brasil para cada 10 mil pessoas, metade de médicos na Europa (33,3 a cada 10 mil habitantes). Entretanto, nos Estados da região Norte, são apenas 10 médicos por 10 mil pessoas, contra 26 médicos por 10 mil habitantes na região Sudeste. A situação é mais crítica na África que existem 2,5 médicos para cada 10 mil habitantes.

    Outro fato a considerar é o aumento da população idosa e o aumento da expectativa de vida de 73,9 anos em 2013 para 80,7 anos em 2050 e 81,2 anos em 2060. Isso implica na necessidade de ampliação dos serviços de saúde para atender aos idosos e as doenças associadas a idade. Deve-se considerar que parte dessa população viverá sozinha e uma parcela com dificuldades de locomoção. A maior parte dessa população deverá optar pelo serviço público de saúde, devido aos altos custos dos planos de saúde particulares. Talvez, pelo alto custo de vida nas grandes metrópoles, parte dessa população opte por migrar para cidades menores com custo de vida mais baixo.

    O IBGE estima que a partir de 2043 a população brasileira começará a reduzir, de 228 milhões em 2040 para 218 milhões em 2060, projetando uma redução da taxa de natalidade. Menos trabalhadores exigirá maior produtividade e prolongamento das horas trabalhadas. Isso exigirá mais cuidado com a saúde para evitar doenças associadas ao stress e sedentarismo. Essa preocupação já existe em regiões mais desenvolvidas, incluindo São Paulo. Tanto que houve uma explosão de softwares para smartphones para monitoram a qualidade de vida de seus usuários, incluindo sensores para alguns sinais vitais de vida.

    A Internet of Things (IoT) terá um papel importante nesse contexto. A partir de dispositivos remotos com sensores para monitorar sinais vitais e movimentos bruscos (uma queda, por exemplo) as centrais de monitoração de saúde poderão acompanhar milhões de pessoas de todas as idades, alertando sobre comportamentos que levem a riscos de saúde e emitirem sinais de socorro em caso de insuficiência de algum sinal vital.

    A tecnologia IoT dará mais independência para os idosos que poderão viver sozinhos em suas casas e ter acompanhamento remoto, incluindo algumas análises clinicas remotas. Quando algum sinal de atenção for identificado a pessoa será convidada a ir até um posto de saúde. Isso evitará filas para atendimento e poderá definir a alocação de médicos e equipamentos de acordo com a demanda.

    Com os dados coletados dos dispositivos remotos, dos exames clínicos e dos diagnósticos dos médicos será possível, através de Big Data e ferramentas avançadas de análise de dados (Analytics), identificar endemias, e tomar ações públicas para evitar epidemias e pandemias. Outro benefício é prever a necessidade de medicamentos e insumos para exames de laboratórios, além de indicar sintomas para diagnósticos mais rápidos e precisos.

    Big Data e ferramentas analíticas permitirão diagnósticos mais rápidos e precisos e serão fundamentais para um novo modelo de atendimento de saúde. Isso permitirá que diagnósticos preliminares poderão ser realizados pelos agentes comunitários de saúde quando visitam as casas das pessoas, seguindo o modelo atual do SUS (Sistema Único de Saúde), principalmente na identificação de endemias e acompanhamento de saúde de idosos.

    Já estão disponíveis equipamentos de diagnóstico com 33 testes por US$800 por unidade na Índia. Os testes incluem HIV, sífilis, oximetria, pulso e troponina (relativo a ataques cardíacos). Esses equipamentos permitiram aumentar o número de consultas pré-natais de 0,8 para 4,1 por mãe. Os sensores de pressão arterial e urina permitiram o diagnóstico de uma condição chamada de pré-eclâmpsia, que é responsável por 15% da mortalidade das mães. Com os procedimentos anteriores detectavam a pré-eclâmpsia muito tarde, 8 de cada 10 mães faleciam. Depois de implantado os equipamentos de diagnóstico, de 1.000 mães rastreadas, detectou-se 120 mães com pré-eclâmpsia em estágios iniciais e todas foram salvas.

    O fator de sucesso dessa iniciativa foi a construção de uma variedade de aplicativos baseados em inteligência artificial para os agentes comunitários de saúde para identificar as doenças em seus estágios iniciais, salvando vidas e reduzindo os custos dos tratamentos em hospitais e medicamentos.

    Não restam dúvidas que novos equipamentos, tecnologias de informação e comunicação móvel são fundamentais para melhorar a qualidade de vida das pessoas e reduzir os custos dos serviços de saúde.