Eduardo M Fagundes

Artigos

Coletânea de artigos técnicos e reflexões de Eduardo M. Fagundes publicados entre 2011 e 2017

Assine a Newsletter no Linkedin

Tag: big data

  • O declínio do atual modelo de Contact Center e as novas especializações no relacionamento com os clientes

    A mudança de comportamento dos consumidores e o avanço da tecnologia destruirá o atual modelo de Contact Center. Os consumidores da geração Z, nascidos a partir da década de 90 e na totalmente envolvidos com a Internet e redes sociais, substituíram a comunicação de voz unívoca pela comunicação de dados de um para muitos. Atingir esse consumidor com antigas técnicas de telemarketing é desperdiçar recursos. Em paralelo e em grande velocidade, os avanços da tecnologia superam as expectativas dos mais otimistas. Esses dois fatores exigem um total redesenho do modelo de relacionamento com os clientes. O desafio é gigantesco para empresas com milhões de clientes, com milhares de atendentes no Contact Center e que operam em mercados regulados, tais como distribuição de energia, telecomunicações e mercado financeiro. Essa transformação impacta diretamente a economia de regiões que se desenvolveram a partir da especialização em serviços de Contact Center, como Índia, Canadá, Irlanda e alguns países da América Central. Acabam também restringindo o acesso ao primeiro emprego de jovens com baixa qualificação profissional. Por outro lado, abre enormes oportunidades para novas funções especializadas e de melhor remuneração, tais como cientistas de dados e treinadores de computadores.

    Minha percepção é que as áreas de marketing e operação de Contact Center estão tão envolvidas nas frenéticas atividades do dia a dia que não analisam em profundidade a próxima onda do relacionamento com os clientes. Muitos já identificaram o inicio dessa transformação, porém não conseguem mensurar o tempo que o atual modelo ainda sobreviverá. Essa falta de horizonte tangível faz com que os investimentos sejam canalizados para a expansão do atual modelo. Quando mais se investe no modelo antigo, maiores serão os investimentos no futuro para se adequar ao novo cenário de relacionamento com os clientes.

    A curva de adoção de novas tecnologias por pessoas de outras gerações é exponencial. Quem não conhece uma vovó que se relaciona com seus netos via WhatsApp, Skype e Facebook? Falharão as empresas que adotam um modelo de inovação evolutivo em mercados onde as transformações são disruptivas.

    Para a maioria das empresas o uso de redes sociais para relacionamento com clientes ainda está na fase de experimentação. O uso das redes sociais é pontual e as analises não são integradas. Apesar da Google operar em ambiente Big Data há mais de 10 anos, poucas empresas aproveitam essa experiência para alavancar seus negócios. Mesmo considerando que muitos dos softwares são open source e que algumas aquisições de dados são gratuitas, como o caso do Twitter.

    Há pouco tempo atrás tratado como ficção cientifica, hoje um computador que escuta, interpreta, busca e processa informações e estabelece um dialogo em linguagem natural com as pessoas é uma realidade acessível a qualquer empresa como serviço na nuvem. A IBM vende como serviço o acesso ao supercomputador Watson, que entre outros feitos venceu o enxadrista campeão mundial Kasparov, na versão anterior chamado Deep Blue, e recentemente superou dois campeões americanos do jogo Jeopardy!, onde os participantes escutam dicas sobre um assunto e devem fazer a pergunta certa.

    Integrar as novas tecnologias e as montanhas de informações que elas oferecem a partir de dados publicados pelos próprios clientes nas redes sociais e outros dados de relacionamento direto com a empresa, como compras recentes e visitas a páginas de produtos, requer um novo perfil de profissional, o cientista de dados. Esse profissional deve ter profundos conhecimentos de modelagem de dados, modelos matemáticos, tecnologia da informação, comportamento do consumidor e visão aguçada para novos negócios.

    Outra função importante nesse contexto é o treinador de computadores. Os softwares de Inteligência Artificial precisam aprender a analisar corretamente os dados que recebem para tomar decisões corretas. Para isso, deverá contar com a ajuda de um humano para ensiná-lo e corrigir os desvios de interpretação. Por exemplo, no primeiro de Abril de 2015, a fabricante de carros elétricos Tesla Motors, fez uma inocente pegadinha que provocou grandes oscilações financeiras. Ao anunciar um tal Model W, um suposto relógio no dia da mentira, ficava claro para quem via a foto e o anúncio que se tratava de uma brincadeira com o Apple Watch. Entretanto, os sistemas automáticos de compra e venda de ações baseados em algoritmos matemáticos não entenderam a piada e fizeram as ações da empresa subir US$1,5 em apenas um minuto, sendo negociados quase 400 mil papéis.

    A convergência da transformação dos consumidores e avanço da tecnologia irá dizimar milhões de empregos no mundo. O mercado de Contact Center no Brasil emprega 1,8 milhões de profissionais, onde cerca de 660 mil são terceirizados, sendo um dos maiores geradores de emprego no mercado. Entretanto, é um setor de baixa remuneração com um ganho médio de R$706 por mês, para um período diário de 6 horas e 20 minutos, com dois intervalos de 10 minutos.

    Esse novo cenário exige ações imediatas de planejamento das empresas que operam grandes Contact Centers e revisão de suas estratégias de relacionamento com clientes. As empresas deverão formar profissionais para novas funções, aproveitando o conhecimento dos atuais funcionários. As áreas de recursos humanos deverão elaborar planos e alocar recursos financeiros para a dispensa de funcionários. As áreas de marketing e tecnologia da informação (TI) devem redirecionar os investimentos para novas soluções de relacionamento com clientes baseadas em redes sociais e Big Data. A área de Compras deverá avaliar os impactos dos cancelamentos de contratos de serviços e infraestrutura. A área de Patrimônio deve elaborar uma estratégia para reaproveitar ou liberar espaço físico dos prédios e seu impacto no IPTU. A área de finanças deverá avaliar a amortização dos ativos do Contact Center. As empresas de terceirização de serviços de Contact Center deverão se transformar em empresas de soluções avançadas de relacionamento com clientes. Os sindicatos devem assumir a responsabilidade de treinar seus afiliados em novas habilidades para competir no setor. O Ministério do Trabalho deve acompanhar e criar programas de capacitação para recolocar os trabalhadores em outros setores do mercado.

    Retardar a adoção de novas tecnologias não é uma opção, ela é mandatória devido à mudança de comportamento dos consumidores. Quem não se mexer agora perderá a competitividade no mercado.

  • As oportunidades do Cloud Computing e Big Data

    Uma pesquisa do Worldwide Quarterly Cloud IT Infraestructure Tracker, da IDC, mostra que o custo total estimado em infraestrutura para Cloud Computing deve crescer 21% por ano, totalizando US$32 bilhões em 2015. Segundo a pesquisa a infraestrutura para nuvens privadas de crescer 16% por ano, chegando a US$12 bilhões e os investimentos em nuvens públicas deve crescer 25%, chegando a US$21 bilhões. Em 2019, a pesquisa indica que serão investidos US$52 bilhões em infraestrutura de TI na nuvem, 45% do total dos investimentos em TI.

    No relatório de World Economic Forum de 2014, John Chambers, Chairman e CEO da Cisco, afirma que nos próximos dez anos existem oportunidades de US$19 trilhões em lucratividade e melhoria de serviços para os cidadãos com a Internet of Everything.

    Investimentos em Internet of Everything e Cloud Computing são essenciais para Big Data. Entretanto, o que os números da pesquisa não contabilizam é o esforço de planejamento, mão de obra especializada e ações de mitigação de risco de falhas na migração para esses novos cenários. Porém, com certeza os benefícios serão muito maiores que os investimentos.

    A GE está investindo mais de US$1 bilhão para desenvolver capacidades em ciência de dados para prover serviços de analises de negócios em escala mundial. A consultoria McKinsey afirma que a economia do Big Data usando dados abertos, “open data” ou “liquid data”, sobre os domínios da educação, transporte, produtos de consumo, eletricidade, óleo e gás, saúde e finanças podem gerar mais de US$3 trilhões em valor adicional por ano para a sociedade em inovação.

    Existe um potencial de economia de US$300 bilhões por ano no setor de saúde americano com o uso de Big Data. As grandes companhias estão melhorando seus processos com Big Data, a Visa anunciou que elevou de 40 para 200 os atributos de análise em cada transação de crédito e tendo uma economia de 6 cents em cada US$100 de transação. O Walmart usa uma ferramenta de autoaprendizagem semântica para melhorar as rotas de navegação na web (clickstream) dos seus 45 milhões de usuários online, aumento a taxa de transações completas em mais de 10%.

    Com todas essas pesquisas e evidencias de benefícios do Cloud Computing e Big Data, é quase que inaceitável uma organização, principalmente pública e com ações em bolsa de valores, não ter um plano robusto para novos negócios usando essas tecnologias.

  • SCADA, Big Data, Six-Sigma

    O grande desafio da automação industrial, predial e de concessionárias de serviços públicos (energia, água, petróleo, gás entre outros) é reduzir o número de falhas para aumentar a eficiência, objetivando menores custos de operação. O cenário tecnológico é complexo, não apenas pelas características de medições e controles, mas pela quantidade de padrões e soluções proprietárias dos fornecedores. Os sistemas SCADA (Supervisory Control And Data Acquisition) monitoram e supervisionam as variáveis e os dispositivos de sistemas de controle conectados através de controladores (drivers) específicos. O Six-Sigma, um conjunto de práticas para melhoria contínua de processos e eliminação de defeitos, tem ajudado a aperfeiçoar os processos industriais e de supervisão e controle, com ganhos significativos de desempenho. Agora entra no cenário o Big Data, uma tecnologia que coleta, armazena e manipula grandes volumes de dados e velocidade, permitindo analises mais precisas, rápidas e preditivas.

    figura-SCADA-Big-Data-Six-Sigma-v81

     

    Os sistemas SCADA monitoram as variáveis do processo produtivo (pressão, temperatura, vazão, demanda e consumo de energia, etc.) permitindo definir níveis ótimos de trabalho. A partir da definição e monitoração dos parâmetros de operação, qualquer alteração é sinalizada para evitar um problema no processo produtivo. O sistema SCADA é essencial para realizar a leitura dos instrumentos, gerar gráficos de tendências e gráficos históricos das variáveis do processo. Permitindo uma leitura rápida dos instrumentos de campo, as intervenções necessárias são feitas rapidamente, reduzindo as paradas de máquina e, consequentemente, aumentando a disponibilidade dos serviços e perdas de produção.

    Com os dados produzidos pelos sistemas SCADA é possível aplicar a metodologia DMAIC e DMADV do Six-Sigma, inspiradas no ciclo PDCA (Plan-Do-Check-Act). O DMAIC (Define-Measure-Analyse-Improve-Control) é utilizado em projetos focados em melhorar processos produtivos já existentes. O DMADV (Define-Measure-Analyse-Design-Verify) é focado em novos projetos de desenhos de produtos e processos. O DMADV também é conhecido com DFSS – Design for Six Sigma.

    Um dos desafios dos projetos de melhoria contínua e inovação é utilizar de forma integrada os dados de vários sistemas SCADA de diferentes processos produtivos, permitindo que haja análises de relacionamento e comportamento de diferentes parâmetros e, análises preditivas. Essa integração exige além da simples coleta e gravação de dados, mas a exploração e transformação de alguns dados para criar uma base de dados consistente. Por exemplo, um sistema SCADA grava todos os dados que calcula um determinado parâmetro. Outros, gravam apenas o resultado do parâmetro já calculado. Desta forma, é necessário a partir dos dados já calculados definir os dados primitivos que geraram aquele resultado.

    Com a popularização e maturidade dos sistemas Big Data é possível coletar, transformar, armazenar, integrar e analisar dados de diferentes sistemas SCADA com rapidez e custos com excelentes relações custo/benefícios.

    Sistemas Big Data se caracterizam por apresentarem grande velocidade de processamento, terem a capacidade para manipular grandes volumes e variedade de dados, conhecidos como “3Vs” (Volume, Velocidade, Variedade). Permite analisar e gerenciar aspectos como variabilidade, veracidade e complexidade dos dados. O Big Data supera os sistemas de Data Warehouse, pois possibilitam analises de grandes volumes de dados, voláteis ou não, com maior velocidade. Diferem dos sistemas de BI (Business Intelligence), pois permitem além das análises estatísticas descritivas do BI usar modelos matemáticos de inferência estatística, cujo o objetivo é fazer afirmações a partir de uma amostra representativa, métodos de identificação que trabalham com dados de entradas e saídas e sistemas não lineares. Essas características elevam as análises de dados a um outro patamar, melhorando os resultados dos projetos e a competitividade das empresas.

    A integração dos sistemas SCADA usando Big Data aumenta a proteção lógica dos dados de ataques cibernéticos, pois é possível identificar pequenas variações de comportamento dos parâmetros dos sistemas e tomar ações de defesa antes que ocorram prejuízos maiores.

    As tecnologias já estão disponíveis e maduras, inclusive algumas delas na modalidade de Open Source. Um grande desafio é contar com profissionais habilitados para operar essas novas tecnologias e modelos de análise mais sofisticados. Isso requer investimento por parte das empresas e paciência durante a curva de aprendizagem. Entretanto, os resultados no futuro compensarão o esforço.

  • IoT, Big Data, Analytics e os Serviços de Saúde

    Como levar serviços de saúde para mais de 9 bilhões de habitantes em 2050? Como levar serviços de saúde para regiões remotas de baixa densidade populacional? Como diagnosticar doenças em estágios iniciais para salvar vidas e ao mesmo tempo reduzir os custos dos serviços de saúde?

    Esses desafios só poderão ser vencidos com tecnologia. Pensar em um sistema de saúde tradicional com médicos em todas as localidades exigiria um grande esforço na formação de médicos, enfermeiros e técnicos em saúde, além de infraestrutura física e equipamentos para exames e diagnósticos.

    A população estimada pelo IBGE para o Brasil em 2050 é de 226 milhões de habitantes. Em 2013, segundo a OMS, havia 17,6 médicos no Brasil para cada 10 mil pessoas, metade de médicos na Europa (33,3 a cada 10 mil habitantes). Entretanto, nos Estados da região Norte, são apenas 10 médicos por 10 mil pessoas, contra 26 médicos por 10 mil habitantes na região Sudeste. A situação é mais crítica na África que existem 2,5 médicos para cada 10 mil habitantes.

    Outro fato a considerar é o aumento da população idosa e o aumento da expectativa de vida de 73,9 anos em 2013 para 80,7 anos em 2050 e 81,2 anos em 2060. Isso implica na necessidade de ampliação dos serviços de saúde para atender aos idosos e as doenças associadas a idade. Deve-se considerar que parte dessa população viverá sozinha e uma parcela com dificuldades de locomoção. A maior parte dessa população deverá optar pelo serviço público de saúde, devido aos altos custos dos planos de saúde particulares. Talvez, pelo alto custo de vida nas grandes metrópoles, parte dessa população opte por migrar para cidades menores com custo de vida mais baixo.

    O IBGE estima que a partir de 2043 a população brasileira começará a reduzir, de 228 milhões em 2040 para 218 milhões em 2060, projetando uma redução da taxa de natalidade. Menos trabalhadores exigirá maior produtividade e prolongamento das horas trabalhadas. Isso exigirá mais cuidado com a saúde para evitar doenças associadas ao stress e sedentarismo. Essa preocupação já existe em regiões mais desenvolvidas, incluindo São Paulo. Tanto que houve uma explosão de softwares para smartphones para monitoram a qualidade de vida de seus usuários, incluindo sensores para alguns sinais vitais de vida.

    A Internet of Things (IoT) terá um papel importante nesse contexto. A partir de dispositivos remotos com sensores para monitorar sinais vitais e movimentos bruscos (uma queda, por exemplo) as centrais de monitoração de saúde poderão acompanhar milhões de pessoas de todas as idades, alertando sobre comportamentos que levem a riscos de saúde e emitirem sinais de socorro em caso de insuficiência de algum sinal vital.

    A tecnologia IoT dará mais independência para os idosos que poderão viver sozinhos em suas casas e ter acompanhamento remoto, incluindo algumas análises clinicas remotas. Quando algum sinal de atenção for identificado a pessoa será convidada a ir até um posto de saúde. Isso evitará filas para atendimento e poderá definir a alocação de médicos e equipamentos de acordo com a demanda.

    Com os dados coletados dos dispositivos remotos, dos exames clínicos e dos diagnósticos dos médicos será possível, através de Big Data e ferramentas avançadas de análise de dados (Analytics), identificar endemias, e tomar ações públicas para evitar epidemias e pandemias. Outro benefício é prever a necessidade de medicamentos e insumos para exames de laboratórios, além de indicar sintomas para diagnósticos mais rápidos e precisos.

    Big Data e ferramentas analíticas permitirão diagnósticos mais rápidos e precisos e serão fundamentais para um novo modelo de atendimento de saúde. Isso permitirá que diagnósticos preliminares poderão ser realizados pelos agentes comunitários de saúde quando visitam as casas das pessoas, seguindo o modelo atual do SUS (Sistema Único de Saúde), principalmente na identificação de endemias e acompanhamento de saúde de idosos.

    Já estão disponíveis equipamentos de diagnóstico com 33 testes por US$800 por unidade na Índia. Os testes incluem HIV, sífilis, oximetria, pulso e troponina (relativo a ataques cardíacos). Esses equipamentos permitiram aumentar o número de consultas pré-natais de 0,8 para 4,1 por mãe. Os sensores de pressão arterial e urina permitiram o diagnóstico de uma condição chamada de pré-eclâmpsia, que é responsável por 15% da mortalidade das mães. Com os procedimentos anteriores detectavam a pré-eclâmpsia muito tarde, 8 de cada 10 mães faleciam. Depois de implantado os equipamentos de diagnóstico, de 1.000 mães rastreadas, detectou-se 120 mães com pré-eclâmpsia em estágios iniciais e todas foram salvas.

    O fator de sucesso dessa iniciativa foi a construção de uma variedade de aplicativos baseados em inteligência artificial para os agentes comunitários de saúde para identificar as doenças em seus estágios iniciais, salvando vidas e reduzindo os custos dos tratamentos em hospitais e medicamentos.

    Não restam dúvidas que novos equipamentos, tecnologias de informação e comunicação móvel são fundamentais para melhorar a qualidade de vida das pessoas e reduzir os custos dos serviços de saúde.

  • IoT, Big Data e Agricultura de Precisão

    A forte estiagem que atinge as regiões Sudeste e Centro-Sul era prevista para daqui a 15 ou 20 anos. Com a aceleração do desmatamento da Amazônia, a falta de umidade e a fumaça das queimadas impede a formação de nuvens e chuvas nessas regiões. A Amazônia e a Mata Atlântica são responsáveis por manter a região Sudeste com clima temperado e chuvas regulares, uma vez que essa região está na faixa dos desertos existentes no hemisfério sul (desertos australianos, africanos e do Atacama). Investigações geomorfológicas indicam que entre os anos 1.000 e 1.300 houveram secas generalizadas e várias populações desapareceram nas Américas.

    As mudanças climáticas extremas irão afetar diretamente a produção de alimentos no mundo. Estima-se que cerca de 70% da água doce do mundo é utilizada para a agricultura. O aumento da população mundial, estimada em mais de 9 bilhões de habitantes para 2050, exige a produção cada vez maior de alimentos. O Brasil, que detém a maior área cultivável do mundo e continuará sendo um dos maiores produtores mundiais de alimento.

    Infelizmente, a expansão da produção de alimentos e pecuária leva ao desmatamento de vastas áreas, que por sua vez aumenta o risco de escassez de água e desertificação da região Sudeste.

    As mudanças climáticas estão desafiando as previsões dos agricultores tradicionais, aqueles que sentindo o vento, a umidade, as movimentações dos pássaros sabiam que estava na hora de plantar ou colher.

    A solução para reduzir os riscos ambientais e da economia do país é a tecnologia, o que chamamos de agricultura de precisão. Com informações de sensores instalados no campo para medir a temperatura, umidade do solo e do ar circulante é possível fazer análises em tempo real para planejar, dinamicamente, o plantio e a colheita.

    Através de fotos de satélites ou drones robóticos é possível determinar a maturidade da cultura. Associando esses dados com a disponibilidade de equipamentos e mão de obra através de análise preditiva é possível tomar decisões mais acertadas sobre o plantio e colheita. Por exemplo, essas informações podem adiar a adubação de uma plantação antes de uma forte chuva para evitar o desperdício do adubo que seria levado pelas águas.

    Com a agricultura de precisão é possível aumentar, consideravelmente, a produtividade da agricultura e pecuária, reduzindo o desmatamento e seus efeitos desastrosos para o meio ambiente, para as populações e para a economia. O uso da agricultura de precisão deve ser uma regra e não uma exceção nos países produtores de alimentos.

    A agricultura de precisão gera empregos de qualidade no campo e novos negócios para fornecedores de equipamentos e produtos para o campo. Por exemplo, as plantadeiras e semeadeiras conectadas via Internet aos bancos de dados com informações precisas sobre a qualidade do solo, podem liberar a quantidade e o tipo de adubo para cada metro quadrado de solo, reduzindo o desperdício e aumentando a produtividade do solo.

    Tecnologias como Internet of Things, Big Data, Analytics e Cloud Computing devem ser comuns ao agricultor e pecuarista moderno. O governo deve fomentar a pesquisa, formação de especialistas e utilização da agricultura de precisão.

    Obviamente, os compradores de commodities e analistas de mercado estão atentos ao uso destas tecnologias pelos agricultores em todo o mundo através de imagens de altíssima definição dos satélites. Essas imagens são analisadas por sofisticados softwares que conseguem determinar a qualidade e volume da safra, informações que serão utilizadas para investimentos e negociação do preço das commodities, incluindo o mercado futuro.

  • A Digitalização da Operação

    A introdução das tecnologias na indústria é feita em ondas. A Internet tem gerado várias ondas, começou com B2C (Business-to-Consumer), B2B (Business-to-Bussiness) e eGov (Governo Eletrônico). Avançou para dispositivos móveis (smartphones, tablets, console de games), ou seja, a Internet está em todos os lugares – Internet Everywhere. Agora chegou a vez da automação da operação através de dispositivos que trocam dados entre si e geram montanhas de dados. O avanço da automação irá reduzir ainda mais os custos de produção e, principalmente, a análise avançada de dados fará previsões mais precisas para evitar falhas e do comportamento dos consumidores. Tais previsões, permitirão que as empresas se reinventem constantemente, criando produtos e modelos de negócios disruptivos. Acredito que não há dúvidas que só sobreviverão as empresas que tiverem a habilidade de adotar e manipular de forma eficiente as novas tecnologias.

    As tecnologias estão cada vez mais acessíveis e baratas. O modelo de computação em nuvem usando a Internet (Cloud Computing), permite ajustar a infraestrutura e custos dinamicamente. Isso cria a oportunidade para pequenas empresas adotarem novas tecnologias e ter vantagem competitiva no mercado onde atua.

    Tecnologias como Internet of Things (IoT), Big Data, Analytics estão saindo dos laboratórios das empresas de software e hardware e indo para o mercado de consumo. Os paradigmas de segurança do ambiente de Cloud Computing foram superados, não restando dúvidas que o ambiente é mais seguro que os ambientes locais. Gigantes da indústria de software já estão oferendo seus produtos na modalidade SaaS (Software as a Services), como SAP, Microsoft, Google (iniciou nessa modalidade), IBM, Oracle e muitas outras. Para as empresas de software, Cloud Computing é uma questão de sobrevivência.

    A indústria de equipamentos de hardware está passando por uma forte transformação. O novo data center do Facebook inaugurou um novo padrão de equipamento, definido por ela, compartilhado com o mercado através da comunidade OCP (Open Compute Project) e fabricado por fornecedores asiáticos de baixo custo. Grandes data centers, como Amazon e Google, já produzem seus próprios equipamentos.

    Com a redução de custos dos sensores remotos, é possível distribuí-los por toda a linha de produção para coletar dados e analisa-los em tempo real. Detectada uma anomalia em algum parâmetro dispara um alarme para investigação, evitando a paralização da produção.

    Na área da logística, é possível acompanhar a distribuição dos produtos em tempo real, monitorando localização, temperatura, pressão, vibração, entre outros itens críticos para assegurar a qualidade dos produtos até a entrega.

    No setor elétrico, cada dispositivo de geração, transmissão, proteção e medição podem ser monitorados em tempo real. Com tecnologias para Big Data e Analytics, falhas podem ser detectadas com antecedência e ações de contorno acionadas para evitar a interrupção do fornecimento, além de evitar perdas técnicas e comerciais (os gatos).

    Na gestão de cidades as aplicações são enormes, incluindo o controle mais eficiente do trânsito, melhor gestão da iluminação pública, aumento da segurança pública, melhoria na qualidade de informações para o cidadão, entre outras.

    Onde está o maior desafio? Na educação. Existe um consenso na comunidade empresarial global que não existe qualificação profissional suficiente para trabalhar nessas novas tecnologias. Existe uma escassez de Cientistas de Dados, profissionais com capacidade analítica, associativa, capazes de construir algoritmos de pesquisa complexos e interpretar seus resultados. A capacidade de análise e execução de ações não se delega, ela é parte do core business das organizações.

    Atualmente, uma das alternativas é as empresas formarem seus próprios Cientistas de Dados. As Universidades devem contribuir com cursos de formação nessas novas tecnologias com sofisticadas ferramentas de análise de dados.

    O governo deve apoiar essas iniciativas com linhas especiais de pesquisa e incentivos fiscais para as empresas que adotarem essas soluções. Afinal, se as empresas não se modernizam perdem a competitividade e mercado, gerando desemprego e menos impostos.

    Resumindo, para manter a competitividade e aumentar a produtividade é importante desenvolver uma estratégia digital disruptiva baseada nas novas tecnologias e investir na formação de pessoal qualificado.

  • Manufatura Inteligente e a Internet das Coisas

    Um estudo da American Society for Quality (ASQ) de dezembro de 2013 mostrou que apenas 13% das empresas de manufatura usavam conceitos e tecnologias de manufatura inteligente (Smarter Manufacturing) nas suas operações, nos Estados Unidos. Das empresas que adotaram, 82% melhoram sua eficiência, 49% reduziram os defeitos de seus produtos e 45% melhoram a satisfação de seus clientes.

    As soluções baseadas em Internet of Things (IoT) são fundamentais para a implementação de Smarter Manufacturing. Apesar das empresas de manufatura já adotarem sensores e automação em suas linhas de produção há várias décadas, os sensores, os controladores lógicos programáveis (PLC) e os sistemas de gestão estão, em sua grande parte, estão desconectados dos sistemas integrados das empresas. Funcionam como silos e, raramente, trocam informações com os sistemas internos. Existem vários motivos para esses sistemas legados não se integrarem com outros sistemas, entre eles questões de segurança e uso de arquiteturas proprietárias.

    Entretanto, a busca de produtividade para aumentar a qualidade e a redução de custos para enfrentar a alta competitividade internacional, está obrigando as empresas a adotarem padrões abertos de comunicação que possibilitem a integração das informações da linha de produção com outros sistemas para apoiar analises avançada de dados, Big Data, M2M e IoT.

    A Internet of Things (IoT) permite a troca de dados com sensores acoplados a qualquer componente físico através da Internet ou outras redes sem fio. O uso de IoT está crescendo, exponencialmente, em aplicações e dispositivos para consumidores finais. Isso está levando a uma redução considerável dos preços dos sensores e ampliando a oferta de diferentes soluções.

    Essa redução de custos dos dispositivos de IoT cria uma enorme oportunidade para a substituição dos atuais, caros e pouco flexíveis, sistemas de automação industrial. Isso significa que na próxima avaliação orçamentária para alocar recursos para a manutenção ou atualização tecnologia dos atuais sistemas, deve-se avaliar a substituição dos sistemas legados por uma solução baseada em IoT.

    A coleta sistemática de grandes volumes de dados de centenas ou milhares de sensores em vários pontos da linha de produção com integração com dados de sensores no sistema de transporte da cadeia de fornecedores, analisados em tempo real, usando ferramentas avançadas de análise de dados e Big Data, resultará em um salto de qualidade, previsibilidade e redução de custos inimaginável, se comparado com os atuais sistemas de gestão.

    A consequência de uma gestão de ativos ampliada através de sensores com IoT é ter um sistema proativo de manutenção e oportunidades para reduzir custos com energia.

    Por todos os lados que se analise, as vantagens da manufatura inteligente com o uso de soluções de IoT são atraentes. Agora, cabe aos executivos das empresas de manufatura e aos fornecedores de soluções de automação industrial quebrarem paradigmas e avançam para um novo patamar da indústria, antes que os concorrentes o façam.

  • Novas Tecnologias e Práticas para a Segurança da Informação

    A abrangência da segurança da informação vai muita além da detecção e eliminação de vírus, controle de acessos indevidos, assinaturas digitais, criptografia e classificação das informações. Os principais ativos organizacionais definidos pelo modelo de governança corporativa, tem a informação como seu principal fundamento. A prosperidade das organizações tem relação direta com a forma como as informações são interpretadas e utilizadas. As características da informação são: confidencialidade, integridade e disponibilidade. Toda informação tem um ciclo de vida: manuseio, armazenamento, transporte e descarte. O grande desafio da gestão eficiente dos negócios é se antecipar aos eventos de quebra de segurança das informações.

    Acontecimentos recentes de espionagem de chamadas telefônicas da Chanceler da Alemanha Angela Merkel, divulgação de informações confidenciais por Edward Snowden e inúmeras invasões de sites de empresas conhecidas com roubos de dados, incluindo instituições financeiras, têm mostrado a importância das empresas administrarem, cuidadosamente, seus dados. As consequências de uma má administração dos dados podem ser catastróficas.

    No passado era difícil monitorar e analisar grandes volumes de dados por restrições das tecnologias de hardware e limitações dos softwares. Atualmente, com as tecnologias “in-memory” de armazenamento de dados, big data, ferramentas de análise avançada de dados em ambientes escaláveis de infraestrutura dos data centers, como Cloud Computing, é possível melhorar os controles dos processos e detectar fraudes em seu estágio inicial.

    Pequenos desvios do comportamento dos dados podem indicar a existência de uma fraude na organização. Com as novas tecnologias é possível correlacionar vários parâmetros com milhares de dados e analisar, em tempo real, o comportamento dos consumidores, dos processos, econômicos, de transações eletrônicas, entre outras.

    Os principais componentes de uma estratégia de segurança da informação são:

    • Prevenção – ações de planejamento e implantação de processos robustos e avaliação contínua em tempo real para reduzir o risco de ameaças e vulnerabilidades, intervindo e bloqueando um ataque sem causar danos ao sistema;
    • Detecção – abordagens para identificar comportamentos anômalos e descobrir intrusões, detectar códigos maliciosos e outras atividades ou eventos que possam interromper o fornecimento de energia elétrica e coletar evidências das tentativas de ataques para a contínua reavaliação do sistema e ações legais contra os agressores;
    • Resposta – aplicação de ações imediatas para evitar os efeitos de um incidente, incluindo salvar vidas, proteção da propriedade e atender às necessidades básicas da população;
    • Recuperação – coordenar a execução do plano de recuperação dos locais e instalações afetadas pelo ataque, reconstituindo as operações para os clientes no menor prazo possível.

    O crescimento do uso de dispositivos remotos com tecnologia Internet of Things fará aumentar, consideravelmente, o volume de dados manipulados, transportados e armazenados. Isso cria novas oportunidades de negócios e facilidades para as pessoas e empresas. Entretanto, aumentam os riscos de fraudes e violação de privacidade.

    Um exemplo é a substituição dos medidores analógicos de consumo de energia por medidores eletrônicos. Os benefícios são imensos para as distribuidoras de energia, com reduções significativas de custos operacionais e aumento do conhecimento do perfil dos consumidores. Será possível saber quando o consumidor ligou o ferro elétrico ou a máquina de lavar roupas. Nessa aplicação, deve-se monitorar, continuamente, a existência de fraudes e proteção das informações dos consumidores.

    A monitoração desse novo ambiente de negócios requer novas práticas de gestão e novas funcionalidades de softwares. Nesse novo cenário, os processos de negócios devem considerar controles internos para detectar quebra da segurança da informação.

    Desta forma, a visão de gestão da segurança da informação deve envolver, diretamente, os processos de negócios e seus gestores devem compartilhar a responsabilidade com a áreas de tecnologia da informação da empresa.

    A nova plataforma tecnológica de segurança da informação deve considerar modelos de gestão, análise de risco, conformidade com a legislação e normas internas, gestão de ativos, gestão de portfólios de projetos, técnicas de melhoria contínua de processo, big data, ferramentas avançadas de análise de dados, além dos softwares de segurança tradicionais.

    Apresento a seguir um conjunto de softwares e modelos de gestão para o novo ambiente de segurança da informação:

    • GRCGovernance, Risk Management and Compliance – Software que gerencia funções de trabalho como: controles e mapeamento de políticas; rotinas de trabalhos (workflows); funções de pesquisa; repositório de dados; avaliações de risco e painéis de controle (dashboards);
    • SIEMSecurity Information Event Management – software de gerenciamento centralizado para armazenar dados de segurança (informações de registros e eventos apenas) para simplificar o gerenciamento de incidentes de segurança e a emissão de relatórios de conformidade;
    • AMSAsset Management System – software de gerenciamento de ativos tangíveis e intangíveis para gestão de todo o ciclo de vida do ativo (concepção, construção, comissionamento, operação, manutenção, reparação, modificação, substituição e descarte);
    • PPMPortfolio Project Management – software de gestão centralizada de grupos de projetos, auxiliando a determinar o mix ideal de recursos para a entrega e melhorar as metas operacionais e financeiras de uma organização, respeitando as restrições impostas pelos clientes, objetivos de negócios e estratégias;
    • Six-Sigma – metodologia de melhoria contínua de processos com o objetivo de eliminar falhas através do uso de um conjunto de técnicas e ferramentas estatísticas;
    • Softwares de Segurança – conjunto de software para proteção e monitoração da segurança: firewalls, antivírus, criptografia, gestão de identidade, governança e gerenciamento de interfaces de dados entre sistemas internos e externos;
    • Testes de Conformidade – comissionamento da infraestrutura tecnologia com testes integrados de software para garantir a conformidade das especificações e reduzir a incidência de erros no sistema;
    • Big Data – tecnologia para armazenamento de grandes volumes de dados com grande velocidade de acesso;
    • Advanced Data Analytics – ferramentas de análise avançada de dados para prever eventos e comportamentos futuros, auxiliando na definição de novas estratégias de negócios e identificação de potenciais problemas nos processos e fraudes.

    Investimentos em segurança da informação não devem ser atribuídos apenas para a área de TI. As áreas de negócios devem considerar a revisão de seus processos e incluir mecanismos de prevenção, detecção, resposta e recuperação das informações de negócios. Novas tecnologias e práticas de monitoração devem ser implementadas para evitar fraudes e quebras de segurança. Os investimentos em segurança podem ser utilizados para planejamento estratégico de Marketing para a definição de novos produtos e modelos de negócios, aproveitando a tecnologia de Big Data e as ferramentas avançadas de análise de dados.