quinta-feira, 17 de dezembro de 2015

As principais batalhas em 2016


Como em todo final de ano, diversas companhias de segurança compartilham suas previsões de quais serão os principais desafios para os anos seguintes. Agora é a vez da F5 Networks apresentar suas expectativas para 2016. 

Falhas de segurança de dispositivos da Internet das Coisas (IoT) irão afetar grandes data centers 

À medida que mais dispositivos e aplicativos se unem ao ecossistema IoT, a probabilidade de vulnerabilidades originárias do IoT chegarem a afetar os data centers aumenta exponencialmente. Assim, em 2016, a luta passará para outro front: manter o tráfego IoT seguro e afastado de áreas sensíveis – especialmente dos data centers. 

Apps de pagamento serão um grande alvo dos hackers 

Se 2015 testemunhou grandes ataques a dados corporativos, em 2016 os hackers voltarão sua atenção às vulnerabilidades de apps para pagamento a partir de dispositivos móveis. É imperativo que os desenvolvedores de apps para pagamento móvel – desde instituições financeiras até empresas independentes – adotem em todo o processo de trabalho soluções de segurança eficazes e ágeis, capazes de repelir os inevitáveis ataques.

Em 2016, o SSL estará em toda parte 

2016 será o ano em que a criptografia SSL se tornará padrão. Com essa mudança, será mais difícil para as equipes de segurança identificar (visualizar) e rastrear perdas de dados. Em meados de 2015, por exemplo, hackers obtiveram as impressões digitais e os números da seguridade social de mais de 22 milhões de norte-americanos na invasão ao Office of Personnel Management. A ação passou despercebida durante muitos meses porque não havia um protocolo para inspeção do tráfego de saída criptografado – tráfego que continha os dados roubados. As atuais ferramentas de segurança monitoram, tipicamente, a existência de malware no tráfego entrante. Infelizmente o modelo zero-trust/SSL everywhere traz um ponto cego para a inspeção do fluxo de saída. A necessidade de ‘analisar e inspecionar’ o tráfego de saída será crucial para a segurança da rede em 2016.

A nuvem híbrida finalmente será padrão de mercado 

Embora se venha falando na nuvem há anos e as empresas venham lentamente movendo dados e serviços para fora de suas instalações próprias, 2016 será o ano em que as empresas aceitarão que a nuvem híbrida é o novo padrão do mercado. Quer seja uma combinação de armazenamento local e na nuvem, quer seja o uso de serviços baseados na nuvem, ou até mesmo a Shadow IT migrando para a nuvem corporativa, a nuvem já está na sua empresa e veio para ficar. O desafio dos gestores de TIC será aprender como monitorar e administrar todas as instâncias da nuvem híbrida, assegurando que dados e aplicativos críticos estejam sempre disponíveis e seguros.

Hackers selecionarão alvos e contornarão soluções tradicionais de segurança 
A próxima onda de ataques cibernéticos segue evoluindo e os hackers estão se movendo em direção a uma seleção de alvos mais definidos – para isso, alguns cibercriminosos estão escrevendo códigos para contornar tecnologias de alguns fornecedores de segurança. O resultado desta estratégia serão mutações do malware a uma velocidade difícil de acompanhar. Em 2016, as empresas lutarão para antecipar ameaças de rápida transformação e em constante evolução. Para isso, usarão soluções de análise comportamental, uma nova forma de assegurar que os dados e aplicativos estejam fazendo aquilo para que foram criados.

Disaster Recovery garantirá continuidade de negócios em caso de ataques 

Embora as empresas movam cada vez mais seus dados para a nuvem, muitas delas ainda estão fazendo backup em seu próprio data center. A redundância é a sua política de segurança e, no caso de um provedor de nuvem ficar indisponível, espera-se que garanta a continuidade dos negócios. Com roubos de dados e ataques cibernéticos em ascensão, as empresas estão na corda bamba e a nuvem é uma das principais preocupações quanto à segurança. Os principais provedores de serviços de nuvem não foram hackeados ainda, mas as corporações usuárias precisam estar preparadas. É por isso que 2016 será o ano do planejamento de recuperação de desastres (Disaster Recovery) na nuvem.

Grandes alianças entre fornecedores de segurança surgirão em 2016 

Já vimos o início deste movimento mas, em 2016, haverá uma tendência de aumento das alianças entre fornecedores tradicionais de segurança, empresas de redes e provedores de nuvem. Na era dos data centers híbridos e ambientes de trabalho móveis, as empresas não podem mais depender de firewalls de rede tradicionais para manter seus dados seguros; fornecedores atuando em áreas tecnológicas específicas precisarão de ajuda de outras empresas para fechar as lacunas de seus portfólios. O objetivo de todos será criar uma solução de segurança mais abrangente. O perímetro tradicional está desaparecendo e os fornecedores estão juntando esforços para proporcionar segurança à camada de aplicação, onde quer que ela esteja sendo processada, qualquer que seja o dispositivo pelo qual seja acessada. 


Fonte: Decision Report

Google Drive: o serviço de armazenamento na nuvem está com novos recursos de pesquisa

Utilizar os serviços de armazenamento de arquivos na nuvem já não é uma novidade, afinal existem diversos sites que oferecem dezenas de gigabytes de espaço para que os usuários mantenham on-line os seus vídeos, fotos, documentos, apresentações, etc. O problema é que quanto maior for a quantidade de arquivos, maior será a dificuldade de localiza-los após algum tempo. E por esse motivo o ideal é manter o disco virtual organizado, com os seus arquivos devidamente nomeados. E por esse motivo, aplicar boas práticas de gerenciamento de conteúdo pode se tornar uma tarefa dispendiosa. E nesse quesito, o serviço de armazenamento e compartilhamento de arquivos na nuvem que oferece o melhor recurso de busca é o Google Drive, pois ele conta com a mesma tecnologia empregada no seu site de buscas. E recentemente a sua ferramenta de pesquisa avançada recebeu melhorias significativas que tornam a procura por arquivos ainda mais fácil de usar, confira.   
A nova caixa de busca   
O gerenciador de armazenamento do Google Drive não faz distinção sobre a origem dos arquivos, eles podem ter sido enviados pelo computador, salvos da caixa de entrada do Gmail, ou enviados pelo smartphone. E o seu destino é um só no disco virtual - para a comodidade do usuário a caixa de busca exibe atalhos baseados nos tipos de arquivos.   
Porém, existem situações em que saber se o arquivo é uma apresentação ou uma imagem, não é o suficiente quando se está tentando fazer uma busca entre centenas de arquivos. É necessário informar alguma "pista" sobre o arquivo desejado, e para situações como essa foram adicionados novos campos para o preenchimento de parâmetros na busca avançada. 

Agora é possível informar o tipo de arquivo, uma possível data de modificação, alguma palavra que esteja presente no documento, o nome ou conta de e-mail de alguém que o arquivo tenha sido compartilhado. Quando maior for a quantidade de parâmetros informados, maior será a probabilidade do arquivo ser localizado.
Embora o Google Drive seja conhecido principalmente por sua integração com a suíte de escritório on-line. Ele é útil como uma excelente alternativa para quem está com pouco espaço livre em smartphones e tablets para armazenar fotos, por exemplo. E com a nova ferramenta de busca de arquivos, fica mais fácil localizá-las sem ter que visualizá-las uma a uma na galeria de imagem. 
Fonte: G1

quarta-feira, 16 de dezembro de 2015

Novas ofertas da EMC permitem a integração em nuvem de todo o datacenter

EMC apresenta recursos de nuvem recém-ampliados e integrados para todo o portfólio de armazenamento e proteção, visando armazenar e proteger os dados que entram, saem e permanecem na nuvem.
 
·         Integra soluções corporativas em nuvem para o EMC VMAX® e o EMC VNX®, com suporte ampliado para serviços em nuvens públicas e privadas.
 
·         Amplia os recursos de proteção de dados para garantir a segurança dos dados em qualquer lugar e independentemente do que aconteça.
 
A EMC Corporation (NYSE: EMC) anuncia a chegada de uma ampla gama de produtos e soluções desenvolvidas para possibilitar a conexão de sistemas de armazenamento primário e de proteção de dados em nuvens públicas e privadas. Assim, as organizações estarão mais preparadas para aproveitar tanto a agilidade e a escalabilidade ilimitada dos serviços em nuvem pública, quanto o controle e a segurança de uma infraestrutura de nuvem privada.
 
As soluções de proteção de dados e armazenamento habilitadas para a nuvem, da EMC, permitem que os clientes implementem um ambiente de armazenamento seguro no qual os dados podem ser automaticamente classificados..
 
Novos produtos e soluções que permitem a integração em nuvem de todo o datacenter:
 
·         Classificação de dados por níveis de/para a nuvem - as plataformas de armazenamento VMAX e VNX da EMC permitem a classificação automatizada por níveis de e para nuvens públicas e privadas.  A EMC está ampliando, ainda mais, o alcance de integração do VMAX com as melhorias implantadas na solução de classificação por níveis FAST.X™, permitindo aos clientes reduzirem o custo total de propriedade e fazendo, automaticamente, a classificação por níveis nas transferências de armazenamentos da EMC ou de terceiros para nuvens públicas.  A simples conexão do VMAX a um CloudArray da EMC, uma SAN e um switch de rede, permite aos clientes conectarem imediatamente o poder da nuvem a seus datacenters, bem como automatizarem a alocação de dados para destinos de armazenamento no local e na nuvem, com base em seus próprios objetivos de nível de serviço.
 
Os clientes com orçamentos mais baixos podem desfrutar de uma funcionalidade semelhante, porém em menor escala, substituindo o VNX pelo VMAX na configuração da infraestrutura, e adicionando o EMC VPLEX®.  A classificação em nuvem do VPLEX amplia os serviços inteligentes de mobilidade de dados para a nuvem, permitindo que o VNX classifique os dados de maneira não disruptiva dentro e fora de nuvens públicas e privadas.
 
Tanto o VMAX – com a nova classificação em nuvem integrada – quanto o VNX – que aproveita a nova classificação em nuvem – agora dão suporte ampliado aos provedores de nuvens públicas e privadas.  Agora, a EMC dá suporte ao VMware vCloud Air, Microsoft Azure, Amazon S3 e Google Cloud Platform – tudo isso sem deixar de proporcionar o desempenho e a tranquilidade que os clientes esperam do armazenamento corporativo. 
 
·         Protegendo os dados que entram e saem da nuvem – o CloudBoost 2.0 amplia de maneira homogênea as soluções de proteção de dados já usadas pelos clientes da EMC, entre elas o Data Protection Suite e o Data Domain, para um armazenamento em nuvem elástico, scale-out resiliente. O CloudBoost oferece uma taxa de transferência 3x mais rápida e uma capacidade de dados 15x maior do que as versões anteriores.
 
·         Protegendo dados na nuvem – o Spanning da EMC oferece recursos avançados de restauração e segurança, juntamente com uma nova implementação regional dentro da União Europeia. O Spanning Backup para Salesforce oferece recursos avançados de recuperação de dados de SaaS, permitindo que os clientes restaurem dados perdidos ou excluídos de maneira mais rápida e simples.
 
·         Proteção de dados como serviço - os prestadores de serviço e clientes da EMC que implementam a proteção de dados como serviço (DPaaS) em suas nuvens privadas próprias se beneficiarão dos novos recursos apresentados na versão mais recente do sistema operacional Data Domain® DD OS 5.7, entre eles a capacidade de gerenciamento avançada, o multi-tenancy seguro e uma densa configuração de gavetas que reduz drasticamente o custo total de propriedade.
 
·         Gerenciamento simplificado da proteção de dados – Finalmente, a EMC apresenta a nova geração do NetWorker®, seu software de proteção de dados.  O NetWorker 9 apresenta um novo mecanismo de política universal desenvolvido para automatizar e simplificar o processo de proteção de dados, independentemente de onde os dados residam.  Usando esse mecanismo de política, os clientes da EMC poderão automatizar o processo de mover os dados de proteção entre os níveis de armazenamento, mantendo os dados protegidos armazenados localmente para acesso imediato e enviando sistematicamente os dados frios para destinos em nuvem mais econômicos. Além disso, agora o NetWorker 9 também está integrado ao EMC ProtectPointTM e oferece proteção integrada em nível de block para ambientes Microsoft e Linux.
 
·         Ampliando os data lakes para a nuvem –  Em novembro, a EMC anunciou o EMC CloudPools, um novo recurso do EMC Isilon que permite aos clientes ampliarem seus dados frios para nuvens públicas e privadas. O CloudPools permite que o Isilon classifique os dados de maneira homogênea em nuvens públicas como a Amazon Web Services, Microsoft Azure e Virtustream e nuvens privadas como a EMC ECS ou um cluster Isilon remoto. A classificação por níveis ocorre sem a necessidade de um gateway em nuvem e oferece recursos de nuvem híbrida simples, flexíveis e econômicos. 
 
Palavra do cliente:
 
Richard Hoare, gerente de tecnologia da Sempre Technologies Ltd
 
“A combinação do EMC NetWorker com o CloudBoost mudou a forma de implementarmos a retenção de backups a longo prazo.  Anteriormente, o nível de armazenamento mais econômico que usávamos era a fita, mas essa mídia apresentava seus próprios desafios na forma de custos de manuseio, segurança e longevidade. O CloudBoost nos permite desbloquear um armazenamento em nuvem elástico e de scale-out, de diversos fornecedores, para funcionar como uma extensão contínua de nossa rede de armazenamento de proteção.  Assim economizamos tempo e dinheiro – além de contarmos com uma solução que atende às nossas necessidades agora e no futuro.”
 
Palavra do analista:
 
Mark Peters, diretor de prática e analista sênior, Enterprise Strategy Group
 
“As empresas precisam de parceiros estrategicamente capazes de ajudá-las a progredir e gerenciar seus planos e avançar de maneira pragmática e otimizada diante de demandas crescentes. Com esse anúncio, a EMC oferece aos clientes soluções que lhes permita protegerem melhor seus investimentos atuais e futuros em tecnologias de armazenamento, sejam eles em seus próprios datacenters e/ou na nuvem.”
 
Palavra do executivo:
 
Guy Churchward, presidente, de Core Technologies, EMC
 
“Muitas empresas obtiveram grandes benefícios ao transferirem estrategicamente seus dados e cargas de trabalho para a nuvem. No entanto, geralmente isso significa certa perda de controle sobre os dados. Você pode transferir seus dados entre nuvens públicas?  Você consegue gerenciar seus dados de maneira inteligente por todo o ciclo de vida, do flash para o disco e para a nuvem – e depois recuperá-los quando necessário?  E como você os mantém seguros?  Só a EMC tem um portfólio amplo o suficiente que permita aos clientes assumirem o controle de seus dados e alcançarem os melhores desempenhos.”
 
Sobre a EMC
 
A EMC Corporation é líder mundial em possibilitar que empresas e provedores de serviços transformem suas operações e ofereçam a TI como serviço. A computação em nuvem é fundamental para essa transformação. Através de produtos e serviços inovadores, a EMC acelera a jornada rumo à computação em nuvem, ajudando os departamentos de TI a armazenar, gerenciar, proteger e analisar seus ativos mais valiosos (as informações) de um modo mais ágil, confiável e econômico. Informações adicionais sobre a EMC podem ser encontradas em brazil.EMC.com.
 

Fonte: SEGS

Gratuidade para o Microsoft OneDrive

A Microsoft mantém a sua oferta do OneDrive livre, mas fortalece as condições de acesso ao seu armazenamento na nuvem. 

As contas gratuitas existentes do Onedrive serão mantidas. A Microsoft tranquilizou os usuários quanto à sua oferta de armazenamento após as comunicações contraditórias dos últimos dias. O espaço online oferecido para qualquer abertura de uma conta da Microsoft continua disponível. Mas ele passou para 5 GB, em vez de 15 GB, como antes. Devido às reclamações de inúmeros usuários, o espaço de armazenamento das contas já existentes não será reduzido. Os proprietários de uma conta têm até janeiro de 2016 para se apresentar ao OneDrive. 

Além disso, a gigante do software fez questão de esclarecer os Termos de Uso de sua oferta em matéria de nuvem, que endureceram consideravelmente. Assim, ela acabou com oarmazenamento ilimitado para as licenças do Office 365, agora limitado a 1 TB. Da mesma forma, a Microsoft parou o fornecimento de GB adicionais por patrocínio, para uso móvel, etc. No final, as ofertas do OneDrive estão duas vezes mais caras do que as dos concorrentes, como o Google ou a Apple, sem falar das ofertas de “pure players” do armazenamento online, como oDropBox


Fonte: CCM

terça-feira, 15 de dezembro de 2015

Serpro e Unicamp montam laboratório para testes na nuvem

O Serpro assinou o primeiro acordo da empresa com a Universidade Estadual de Campinas, a Unicamp. O objetivo é a criação de um laboratório de experimentação em nuvem. É um espaço de testes que será utilizado tanto pelos desenvolvedores da empresa quanto pelos pesquisadores da universidade. Segundo o diretor-presidente do Serpro, Marcos Mazoni, a empresa se mantém à frente na inovação em TI graças, em grande parte, às parcerias da empresa com universidades. 

O acerto prevê a doação de três conjuntos de equipamentos de alto desempenho para a montagem de laboratório de pesquisa a fim de desenvolver tecnologias de computação em nuvem. Ficou acordado  ainda que o Serpro poderá utilizar 50% da capacidade do laboratório para experimentação de novas tecnologias.

Os equipamentos, já usados, estão estimados em aproximadamente R$ 2 milhões e ficarão sob a guarda do CCUEC, da Faculdade de Engenharia Elétrica e de Computação (FEEC) e do Instituto de Computação (IC). A expectativa é que eles estejam em funcionamento até meados do ano que vem.

A Universidade viabilizará o desenvolvimento de pesquisas e testes através de técnicos, pesquisadores, alunos (de graduação e de pós-graduação), professores e interessados que tenham qualificação, informou o professor José Raimundo de Oliveira, coordenador de Tecnologia da Informação e Comunicação (CTIC) da Unicamp. De acordo com ele, esses equipamentos estão em bom estado e possuem alta capacidade de processamento e de armazenamento.

O Serpro manifestou o interesse de acelerar a participação das start-ups no Brasil com o know how também da Unicamp, o que deve conferir ainda maior credibilidade aos projetos. O seu presidente, Marcos Vinicius, salientou que Campinas sempre foi uma referência para o órgão, tanto na área de software livre como de inovação. “Teremos uma inovação aberta com uma Universidade que de fato tem experiência. Agradecemos pela oportunidade de construir essa parceria”, finalizou.


Fonte: Convergência Digital

Este é mais um app que o Facebook quer empurrar aos usuários

Um dos 13 aplicativos do Facebook na Play Store atende pelo nome de Moments, e até o momento servia para que amigos e membros de uma mesma família compartilhassem fotos de um evento. Agora, o Moments será o destino de todas as fotos do seu dispositivo, caso você escolha sincronizar suas imagens.
A função Facebook Photo Sync funcionava como um serviço de armazenamento na nuvem. Ao ativá-lo, as imagens feitas com o dispositivo subiam para um álbum privado do Facebook, e agora subirão para o Moments. Isso quer dizer que, para ter o serviço, será necessário baixar mais um app do Facebook.
Aplicativos e serviços para mobile deveriam reunir funções, e não espalhar as que já possuem para apps individuais. Com a medida, o Facebook irá fazer com que mais e mais usuário passem a usar a Rede Social pelo navegador nos smartphones.
Você usa o serviço de sincronização de fotos do Facebook? O que achou da mudança?

Fonte: Androidpit

segunda-feira, 14 de dezembro de 2015

Endeeper tem representante na Ásia

Endeeper, provedora de software e serviços para gestão de conhecimento e integração de dados geológicos, assinou um acordo comercial de longo prazo com a Energy Quest, da Malásia. A empresa passa a ser representante exclusiva da Endeeper no sudeste da Ásia. 
Os softwares para geologia como Strataledge, Petroledge e RockViewer agora podem ser oferecidos em conjunto com os serviços de exploração e produção (E&P) prestados pela Energy Quest. 
Com isso, os clientes da Endeeper e da Energy Quest têm acesso a soluções para a gestão completa de conhecimento em geologia, que incluem licenciamento de software, desenvolvimento de sistemas, gerenciamento de dados, treinamentos e serviços de consultoria.
"Esta é uma parceria forte que compreende um mercado de mais de dez países. A Endeeper é reconhecida por oferecer excelentes sistemas e serviços de desenvolvimento de software para o setor de petróleo e gás. A Energy Quest é uma parceira estratégica, pois é líder no seu segmento e conhece muito bem o mercado na região em que atua", explica  Eduardo Castro, desenvolvedor de negócios da Endeeper.
Fundada em 2004, a Energy Quest tem entre suas clientes algumas das principais operadoras, como Petronas, Talisman, ExxonMobil, Murphy Oil, Genting Oil & Gas e ONGC.
O portfólio da Endeeper é composto por uma gama de soluções que combinam geologia, ciência da computação e gestão do conhecimento. O portfólio inclui software para petrografia, sedimentologia, estratigrafia, software para caracterização de reservatórios, projetos customizados e treinamentos.
A Endeeper está instalada no Centro de Empreendimentos em Informática da UFRGS (CEI). Fundada em 2001, a empresa tem na lista de clientes gigantes do petróleo como ExxonMobil, Chevron, Shell e BP, além de instituições de ensino como PUC-RS, UFRGS, UnB e University of the Phillippines.
O CEI tem uma incubadora de empreendimentos e projetos na área de tecnologia da informação e comunicação fundada em 1996. Desde sua criação, a iniciativa já incubou mais de 40 novas empresas de TI.

Fonte: Baguete

Como manter seus 15 GB (ou 30 GB) de espaço gratuito no OneDrive

O OneDrive, serviço de armazenamento na nuvem que já se chamou Windows Live Folders, Windows Live SkyDrive e depois SkyDrive, com espaço de 5 GB, 25 GB, 7 GB, 15 GB e recentemente teve anúncio de redução para 5 GB, oferecerá novamente 15 GB para os usuários interessados. A Microsoft anunciou nesta sexta-feira (11) que voltou atrás em sua decisão de diminuir o armazenamento gratuito no serviço. Ou quase isso.
A Microsoft permitirá que os usuários gratuitos mantenham os 15 GB de armazenamento e os 15 GB de bônus oferecidos aos que ativaram o recurso de backup automático de fotos. No entanto, o aumento não será para todo mundo. Quem quiser manter o espaço ampliado deverá acessar esta página e manifestar seu interesse manualmente.
onedrive-manter-espaco
A ideia é semelhante ao da última redução no armazenamento, quando a cota diminuiu de 25 GB para 7 GB antes de aumentar para 15 GB: um aviso temporário na interface web convidava os antigos usuários a clicarem num botão para aumentar o espaço. Os novos usuários já estavam sujeitos ao antigo novo limite de 7 GB.
Quem tinha espaço “ilimitado” no OneDrive por ter assinado o Office 365 poderá manter os dados por 12 meses ou pedir um reembolso da assinatura, enquanto os novos clientes receberão 1 TB. Em novembro, quando anunciou a extinção do “ilimitado”, a Microsoft informou que alguns usuários estavam “abusando” do serviço ao enviarem múltiplos terabytes de dados para o OneDrive.
Com o anúncio, o OneDrive, ex-Windows Live Folders, ex-Windows Live SkyDrive e ex-SkyDrive, que oferece 5 GB, 25 GB, 7 GB, 15 GB e agora 5 GB para usuários novos e 15 GB ou 30 GB para usuários antigos, continuará relativamente competitivo para quem não quer gastar dinheiro para guardar arquivos online. Nós fizemos um comparativo entre sete serviços de armazenamento na nuvem.
Quando a Microsoft mudar de ideia novamente em relação ao limite gratuito (ou talvez trocar o nome do OneDrive), avisaremos.

Fonte: Tecnoblog

sexta-feira, 11 de dezembro de 2015

A segurança e o elemento humano - Por Mav Turner*

Explorando o efeito dos usuários finais e dos profissionais de TI em infraestruturas seguras 

O panorama de ameaças à segurança está evoluindo a um ritmo alarmante, afetando empresas de todos os portes. Ao mesmo tempo, a segurança é, com muita frequência, discutida principalmente no contexto de ameaças que vêm de fora. É certo que os criminosos cibernéticos e outras ameaças externas devem ser priorizados, mas as organizações hoje devem reconhecer que também existem ameaças entre suas quatro paredes.

Os usuários finais, sejam bem ou mal intencionados, recebem alguma atenção como potencial de ameaça, mas isso ainda não é o suficiente. E não para por aí. Embora os departamentos de TI e seus veneráveis profissionais mereçam muito crédito não apenas por sua luta incansável contra uma variedade de ameaças, mas também por manter a empresa funcionando, eles próprios também podem, involuntariamente, se tornar uma vulnerabilidade à segurança.

A seguir, apresentaremos as principais maneiras de como os usuários finais podem ameaçar a segurança da infraestrutura de suas organizações e como os profissionais de TI também podem se tornar os piores inimigos de si mesmos, se não forem cuidadosos. Também daremos dicas de como os profissionais de TI podem atenuar essas ameaças internas frequentemente negligenciadas.


Usuários finais como uma vulnerabilidade da segurança


Embora muitos usuários finais não estejam cientes disso, eles podem representar uma grande ameaça à segurança de uma organização ao caírem até mesmo em armadilhas simples. O erro humano, por si só, cria inúmeras oportunidades para o crime cibernético, como phishing, ataques watering hole e outras táticas de engenharia social. Essas ameaças nem sempre dependem de malware sofisticado ou vulnerabilidades técnicas, senão da mentalidade e do comportamento das pessoas. Até mesmo sem que um agente mal-intencionado esteja envolvido, um funcionário desinformado ou descuidado ou um procedimento excessivamente complicado podem resultar no vazamento de informações sigilosas, que podem cair nas mãos de um invasor.

Para a TI, pode ser um desafio quase impossível gerenciar as atividades diárias dos usuários finais e garantir que não estejam, inadvertidamente, compartilhando informações confidenciais da empresa. O truque é começar por algum lugar. Com isso em mente, apresentamos algumas sugestões:

• O mais importante é a informação. Informar os usuários finais sobre medidas preventivas que eles podem implementar com simplicidade em seu dia a dia para proteger dados pessoais e da empresa é um bom primeiro passo. Isso inclui, entre outras coisas, recomendações sólidas sobre a criação de senhas, o uso aceitável de tecnologia que não seja gerenciada pela empresa (e por que certos usuários são inaceitáveis) e como detectar um ataque de engenharia social. Em todos os casos, demonstrações práticas costumam funcionar melhor.


• Informar sim, mas só isso não resolve. A TI deve formar parcerias com departamentos como recursos humanos e finanças para ajudar os usuários finais a entenderem o impacto que as violações podem ter na empresa. Por exemplo, pedir ao departamento financeiro que calcule os custos potenciais de uma violação de dados, que por sua vez afetam a rentabilidade da empresa e o sucesso dos próprios usuários finais, ajudará a convencer os usuários finais que antes acreditavam estar imunes a ameaças, a ataques cibernéticos ou ao impacto de uma violação.


• Busque reduzir o excesso de complexidade e atritos. Aqui também os profissionais de TI devem envolver o departamento de recursos humanos e incluir a liderança executiva para falar sobre processos do cotidiano da empresa. É menos provável que rotinas excessivamente complexas ou intricadas sejam acatadas, o que também se aplica a políticas que causam atrito com os usuários finais. Por exemplo, se muitos usuários finais usarem uma ferramenta de armazenamento de arquivos na nuvem pública, como o Dropbox – criando um cenário de “TI das sombras” no processo – talvez seja melhor adotar a plataforma como uma ferramenta oficial e, portanto, centralmente gerenciada, em vez de tentar proibir o acesso.


• Organize-se e aproveite as ferramentas disponíveis. É imperativo que um plano geral e as políticas de segurança priorizem o fator representado pelo usuário final. O ciclo de vida geral do usuário final, que inclui as mudanças que podem ocorrer sem o uso, depois que ele deixa a empresa, deve ser levado em conta na elaboração de tais políticas. Por exemplo, quando um usuário final muda de cargo ou de departamento, pode ter acesso a informações que não são mais necessárias.


Por fim, intensifique o monitoramento. Uma plataforma de monitoramento da segurança para toda a organização complementa o antimalware, a prevenção da perda de dados e as ferramentas de segurança de e-mail e permite à TI atenuar o fator humano pela detecção de sinais de comportamentos anormais e potencialmente perigosos. Também proporciona à TI uma visão mais clara de como os usuários finais estão usando os aplicativos, a rede, os sistemas etc. Essa inteligência pode então ser usada para determinar a melhor maneira de informar os indivíduos e aprimorar os processos.


O profissional de TI e as complexidades crescentes da TI moderna


Embora os usuários finais representem uma ameaça, algo que costuma ser ainda mais negligenciado é como o próprio departamento e os profissionais de TI podem ser visados pelos invasores. Como heróis desconhecidos na empresa, o departamento de TI está encarregado de gerenciar as imensas complexidades decorrentes da moderna infraestrutura de TI de hoje. Existe uma grande demanda sobre a TI para gerenciar uma variedade de novas tecnologias, como BYOD, nuvem, virtualização e mobilidade, entre muitas outras, com recursos e orçamentos limitados. O que complica ainda mais esse trabalho é que, com novas tecnologias e com a intensificação das telecomunicações, as empresas de fato não têm mais quatro paredes definidas – elas se tornaram porosas, abertas e disponíveis em qualquer lugar, a qualquer hora.


Com essa enorme demanda sobre os modernos profissionais de TI em mente, fica mais fácil entender como erros acontecem, por mais que eles tentem evitá-los. A questão é que as complexidades da TI moderna aumentam muito a probabilidade de os profissionais de TI cometerem erros simples durante o gerenciamento das infraestruturas de hoje – e esses erros simples podem ter ramificações de segurança. O que pode ser feito? Aqui estão algumas dicas:


• Simplifique o gerenciamento da TI, incluindo o gerenciamento da segurança, de modo a reduzir a probabilidade de erros Não há como evitar o aumento da complexidade das infraestruturas de hoje. No entanto, usar as ferramentas corretas para simplificar seu gerenciamento no dia a dia – como monitoramento de redes, servidores, aplicativos e bancos de dados; virtualização, nuvem e gerenciamento de configurações; e software para suporte e central de ajuda remota – pode ajudar a prevenir a ocorrência de erros pelo fornecimento das informações de desempenho necessárias, o que permite a correção simples de problemas e a automação. Ferramentas como gerenciamento de patches e gerenciamento de informações e eventos de segurança (SIEM) também ajudam a simplificar o processo de gerenciar especificamente a segurança de infraestruturas.


• Vigie quem está vigiando. Para prevenir acidentes de gerenciamento incorreto de dados potencialmente sigilosos, os departamentos de TI devem monitorar as atividades das contas de administrador de maneira diferente de como inspecionam os usuários finais, além de auditorar regularmente o uso de contas de administrador. Por meio do processo de auditoria, as empresas podem assegurar que os dados sigilosos se restringem às mãos corretas.


• Confie em terceiros apenas o necessário. Os departamentos de TI devem ser cautelosos com relação ao acesso e aos privilégios que concedem a prestadores de serviços de TI contratados e terceirizados, tomando cuidado para não confiar excessivamente neles. Eles devem ter um escopo de trabalho definido, ser monitorados extensivamente e, se possível, receber apenas um acesso remoto limitado.


• Aplique o princípio do privilégio mínimo. Como fazem com todos os outros, os profissionais de TI também devem atribuir a si próprios contas com credenciais baixas para o trabalho do dia a dia, evitando privilégios globais de administrador, exceto quando isso for absolutamente necessário.


Ao seguir essas práticas recomendadas, os profissionais de TI podem conseguir um tremendo impacto na segurança das infraestruturas de suas organizações. Com o ritmo da evolução e do crescimento do panorama de ameaças, isso deixa de um desejo e se torna uma necessidade.


Fonte; Maxpress 

quinta-feira, 10 de dezembro de 2015

Como apagar arquivos duplicados do Google Drive

Google Drive é uma das melhores opções quando o assunto é armazenamento de arquivos na nuvem. Porém, na correria do dia a dia, é natural que as pastas, documentos e fotos fiquem um pouco desorganizados e a quantidade de arquivos duplicados aumente.
Aprenda a localizar e apagar os arquivos repetidos de sua conta no Google Drive. Documentos duplicados, além de não terem nenhuma utilidade prática para o usuário, ainda consomem espaço desnecessário. 
Passo 1. Acesse o TechTudo Downloads e baixe ou acesse o Google Drive para desktop. Após fazer a instalação, não se esqueça de entrar com a sua conta Google e sincronizar os arquivos da sua conta com o seu PC. Essa ação vai baixar todos os arquivos que estão armazenados em sua conta do Google Drive para o disco rígido. Se você tiver muitos arquivos, o procedimento pode demorar um pouco;
Passo 2. O segundo passo é usar um software localizador de arquivos duplicados para varrer sua pasta do Google Drive em busca desses arquivos repetidos. Nós recomendamos o Duplicate File Finder, que você pode baixar no TechTudo Downloads;
Passo 3. Depois de instalar o Duplicate File Finder, escolha apenas a pasta do Google Drive para ser vasculhada. Para isso, navegue pela árvore de pastas que se encontra do lado esquerdo do programa e vá expandido as seguintes pastas: Disco Local C > Usuários (Users) > Nome de usuário > Google Drive;
Passo 4. Marque a pasta “Google Drive” e, do lado direito, escolha os tipos de arquivos que deseja buscar. A opção “Look for all file types” procura qualquer tipo de arquivo. Um pouco abaixo, você pode escolher apenas imagens, arquivos de áudio, de vídeos e assim por diante. Depois de definir esses parâmetros, clique em “Next”;
Passo 5. Neste passo você pode escolher o tamanho dos arquivos que deseja procurar, refinando ainda mais a sua busca;
Passo 6. Clicando em “Next” novamente, você pode definir quais nomes de arquivos deseja excluir da busca;
Passo 7. Se você souber que o arquivo duplicado possui uma certa palavra em seu nome, pode informá-la na próxima tela. Assim, a busca será ainda mais precisa;
Passo 8. Por fim, antes de iniciar a busca, você pode escolher o que acontece com os arquivos duplicados encontrados: se são jogados na lixeira, se serão arquivados ou excluídos permanentemente. Depois de definir esses parâmetros de busca, basta clicar em “Search” para que o programa comece a procurar pelos arquivos repetidos.
Pronto. Se você não tiver muitos arquivos no Google Drive, a busca será muito rápida. Mas, se você tiver um número muito grande de arquivos, o que provavelmente é o caso, a busca poderá demorar um pouco mais. No final, você deverá ganhar alguns MB extra de espaço.
Fonte: TechTudo

quarta-feira, 9 de dezembro de 2015

RNP aposta em nuvem acadêmica para grande volume de dados das universidades


Segundo ele, a estratégia adotada pelo Brasil para a implantação de uma nuvem acadêmica irá diminuir a fragilidade das universidades e outras instituições de pesquisa diante da necessidade de armazenar e processar grande quantidade de dados.
“Muitas instituições não têm data centers, então a infraestrutura de armazenamento federada é muito útil para elas”, avalia no evento promovido pelo projeto EU Brazil Cloud Connect e financiado pelo Programa de Cooperação Brasil-União Europeia na área de tecnologias da informação e da comunicação (TICs).
O evento também deu detalhes dos cinco projetos selecionados pela 3ª Chamada Coordenada BR-UE em TIC, realizada no primeiro semestre de 2015, com temas em Computação em Nuvem e Plataformas Experimentais.
Um deles é o EUBra-Big Sea, com previsão de início em janeiro, que desenvolverá aplicações na nuvem para análise de big data em sociedades massivamente conectadas. O projeto será realizado em conjunto com a Universidade Federal de Minas Gerais (UFMG) e avaliará casos de uso típicos das cidades inteligentes.
Outro projeto, na área de Plataformas Experimentais, que terá a coordenação dividida entre Brasil e Europa é o Futebol, com início previsto para março de 2016. O objetivo é construir um ambiente de experimentação para explorar a integração entre redes ópticas e redes sem fio.
Segundo o pesquisador Cristiano Both, da Universidade Federal do Rio Grande do Sul (UFRGS), o projeto pode contribuir para aplicações inovadoras em network functions virtualization (NFV), redes definidas por software (SDN), internet das coisas e redes sem fio heterogêneas, além de preencher lacunas em internet do futuro.
*Com informações do Ministério da Comunicação, Tecnologia e Inovação


Fonte: BitMag

Presidente da Oracle diz que 80% dos apps estarão na nuvem até 2025

A Oracle, uma das principais empresas de serviços de TI do mundo, começa nesta terça-feira, 8, em São Paulo, uma série de palestras e debates com empresários do setor de tecnologia do Brasil. Em encontro com jornalistas, o presidente global da empresa, Mark Hurd, falou sobre suas estratégias com relação ao mercado brasileiro e ainda fez previsões para o futuro.

Uma delas é de que, em pelo menos 10 anos, 80% de todos os aplicativos de produção - incluindo, principalmente, softwares usados por empresas - estarão hospedados na nuvem. Para Hurd, o avanço desse tipo de tecnologia, que permite empresas e consumidores tirarem proveito de diversos serviços e aplicações sem precisar de um espaço físico para instalá-los, é uma forte tendência.

O executivo também acredita que, para empresas, o armazenamento de dados e aplicações na nuvem será o modelo de trabalho mais seguro possível até 2025, e que isso já é realidade para 95% de seus produtos. A Oracle é provedora de bancos de dados, servidores, sistemas operacionais e do plugin Java, utilizado em boa parte dos aplicativos e sites da internet.

Oracle no Brasil

Mark Hurd também comentou os investimentos da empresa no Brasil. Segundo o executivo, a crise financeira e política pela qual o país passa não é motivo para a desaceleração de investimentos. "Eu disse isso aos nossos funcionários brasileiros. Eles terão mais treinamentos, mais eventos, mais investimento no país. Situações como essa servem como uma oportunidade para o nosso crescimento", disse o executivo.
Além disso, Hurd comemorou o recém-inaugurado data center da Oracle na cidade de Campinas, em São Paulo, e as mais de 750 contratações feitas nos últimos 18 meses na América Latina. "Não quero que pensem que estamos, não sei, não tão seguros quanto ao Brasil, ou reconsiderando... é tudo bobagem. Estamos investindo no país, na nossa equipe e nesse mercado", concluiu.

Fonte: Olhar Digital

terça-feira, 8 de dezembro de 2015

Visibilidade do ataque minimiza perda de dados


Todos sabemos que as empresas precisam de um grande aparato tecnológico para realizar suas atividades e processos. Isso inclui uma infraestrutura de rede de alta performance, sistemas operacionais, armazenamento em nuvem e principalmente, acesso à Internet. E é justamente por estarem tão digitalizadas que os ataques maliciosos para roubo de informações se tornam cada vez mais frequentes no mercado corporativo.

Aqui no Brasil, questões como a falta de conhecimento dos usuários sobre sistemas de segurança, somada a leis pouco eficientes para a punição dos cibercriminosos, já colocam o país entre os primeiros em número de ataques na América Latina. Diante disso, é primordial que as empresas se preocupem com soluções de segurança e passem a investir em tecnologias que permitam evitar os ataques na rede dos computadores. 

Pela experiência que trago em tecnologia da informação, na média, a cada dez empresas, sete têm algum profissional preocupado com segurança. Esse profissional, geralmente atua na área de TI e não têm especialização em segurança, então ele se baseia nas melhores práticas do mercado para tomar decisões sobre segurança da informação no seu ambiente de rede. O fato é que nem sempre o que é bom para uma empresa é bom para as outras.

Quando falamos sobre segurança da informação, é preciso contratar segurança de verdade. Isso não implica simplesmente na compra de soluções, e sim na análise profunda das atuais necessidades dos negócios. Isso porque, existem fatores que interferem no bom andamento de um projeto. Por exemplo, quando a empresa usa equipamento de diferentes fornecedores para montar uma solução. 

Isso ocorre porque, em muitos casos, a solução voltada à segurança é construída por diferentes profissionais que entram na empresa, mas logo são substituídos. Com o objetivo de melhorar performance ou dar escala aos equipamentos, eles vão adquirindo e integrando equipamentos de diversos fornecedores. De toda forma, essa também é uma boa alternativa para a aquisição de tecnologias a custos mais competitivos, porém, esses equipamentos trabalhando juntos podem não funcionar muito bem. 

Nesse caso, é preciso olhar para a performance do ambiente e avaliar se o projeto está bem desenhado, se a configuração está alinhada com todas as tecnologias, evitando problemas de lentidão e falha no rastreio da informação – fatores que dão abertura para que um ataque seja bem-sucedido.

Monitoramento dos ataques

Nas integrações de soluções para segurança da informação, seja por solução formada por diversos fornecedores ou por uma tecnologia única, é essencial que haja funcionalidades que mostrem a origem dos ataques. Com essa visibilidade, é possível ampliar as possibilidades de proteção da empresa.

Mas um grande problema no mercado de segurança da informação é que mesmo atuando com tecnologias que dê visibilidade para evitar o cibercrime, são poucas as empresas que fazem uma gestão sobre os relatórios oferecidos. Uma análise diária permitiria o rastreio da origem de um ataque e garantiria a identificação de uma solução em pouco tempo, evitando a perda de informações corporativas. 

O ideal, inclusive, seria que as empresas fizessem esse monitoramento via SOC - Centro de Operações de Segurança, para detectar incidentes de segurança, ou que tivessem uma equipe própria para analisar os sinistros, pois o equipamento de segurança (firewall) manda um aviso via e-mail alertando sobre a invasão, mas se ninguém estiver atento aos relatórios o malware vai passar pela rede e o ataque vai acontecer.

Com a análise das ameaças, a empresa intensifica e acelera seu processo de segurança. Além de identificar o ataque, é fundamental atuar por meio de uma equipe proativa, que se adiante quando um ataque é detectado. Por exemplo, se um site e-commerce é atacado com objetivo de ser derrubado, e o sistema mostrar que o ataque chegou ao nível do banco de dados é possível interromper esse banco de dados e ativar o plano de contingência para conseguir manter a integridade do sistema. 

A soma de tecnologias adequadas e bem configuradas a uma atuação dinâmica dos profissionais de TI, vai ajudar sua empresa a reduzir o tempo entre a detecção de um ataque e a resolução do problema. Esse modelo só será efetivo se entre as prioridades de sua empresa estiver um plano de segurança da informação que conte com prevenção por meio de um acompanhamento constante da atualização e performance das tecnologias.

* Rodrigo Alabarce é CEO da Nap IT


Fonte: Decision Report

Dropbox anuncia o fim dos seus aplicativos Mailbox e Carousel

O serviço de armazenamento na nuvem Dropbox anunciou nesta segunda-feira, 7/12, o encerramento dos seus aplicativos Mailbox e Carousel.
Segundo a empresa, essa decisão foi tomada para poder ter um foco maior no aplicativo do próprio Dropbox e em seus recursos de colaboração.
Para quem não lembra, o app de e-mail Mailbox foi comprado pelo Dropbox em 2013, enquanto que o Carousel era uma tentativa da empresa de ter uma solução específica para o gerenciamento de fotos.
“Nós vamos levar recursos chave do Carousel de volta para aonde suas fotos ficam no app do Dropbox. Também vamos usar o que aprendemos com o Mailbox para criar novas maneiras de comunicação e colaboração no Dropbox”, afirmou o CEO do Dropbox, Drew Houston. 
O Mailbox será encerrado oficialmente em 26 de fevereiro de 2016, enquanto que o Carousel acaba um pouco depois, em 31 de março.
Fonte: IDG NOW!

segunda-feira, 7 de dezembro de 2015

Dez previsões para o BI em 2016

O ano de 2015 trouxe mudanças significativas para o mundo do business intelligence (BI). Mais organizações abriram o acesso aos dados para seus funcionários, e mais pessoas começaram a ver os dados como uma ferramenta importante para realizar seu trabalho.
As regras das ferramentas de inteligência de negócio estão evoluindo, e isso vem causando uma grande mudança cultural, não só pela velocidade dos avanços tecnológicos, mas também por novas técnicas de extração de valor dos dados.
Confira dez tendências que influenciarão as ferramentas de business intelligence em 2016.
1. O início de uma grande amizade entre a governança e a análise de autoatendimento
Para muitas pessoas, a governança e a análise de autoatendimento são inimigas naturais. Talvez seja por isso que vê-las andando de mãos dadas cause tanta surpresa. A guerra acabou e a lacuna cultural entre empresas e tecnologia está diminuindo. As organizações já sabem que a governança de dados, quando feita corretamente, pode incentivar uma cultura de análise e atender às necessidades dos negócios. As pessoas ficam mais propensas a analisar seus dados quando têm fontes de dados centralizadas, organizadas e rápidas; e quando sabem que alguém (equipe de TI) está cuidando da segurança e do desempenho.

2. A análise visual se torna um idioma comum
Os dados estão mudando a forma de conversar – em salas de reuniões, na mídia e nas mídias sociais. As pessoas estão visualizando dados para responder a perguntas, descobrir informações úteis e compartilhar histórias com profissionais de todas as áreas, especialistas em dados ou não. Com o aumento da utilização dos dados, cada vez mais pessoas recorrerão a eles para responder a perguntas profissionais e pessoais. Da mesma forma, os empregadores buscarão pessoas que possam analisar os dados com uma visão crítica. A análise visual será o idioma que permitirá às pessoas descobrir informações úteis com rapidez, colaborar de forma significativa e criar uma comunidade voltada para os dados.

3. Os produtos de análise de dados estão mais democráticos
As ferramentas de análise de autoatendimento mudaram permanentemente as expectativas. Em 2016, as pessoas buscarão autonomia no fluxo da análise de dados, especialmente com a chegada de mais membros da geração Y ao mercado de trabalho. Se quiserem continuar dinâmicos, os usuários corporativos devem ser capazes de manipular determinados dados instantaneamente. E é por isso que a demanda por ferramentas de preparação de dados de autoatendimento, e até mesmo por data warehouses de autoatendimento, crescerá como uma extensão natural desse tipo de análise. Essa democratização permitirá que as pessoas respondam rapidamente às mudanças de prioridades.

4. A integração de dados está ainda mais emocionante
Atualmente, muitas empresas precisam de análises ágeis. Elas querem enviar os dados certos para as pessoas certas, rapidamente. Esse não é um desafio simples, porque os dados geralmente estão armazenados em vários lugares diferentes. Trabalhar com diversas fontes de dados pode ser tedioso, impossível ou ambos. Em 2016, veremos muitos concorrentes novos na área de integração de dados. Com o aumento da oferta de ferramentas sofisticadas e o surgimento de novas fontes de dados, as empresas desistirão de tentar reunir cada byte de dados no mesmo lugar. Os exploradores de dados se conectarão a cada conjunto de dados em seus respectivos armazenamentos, usando métodos e ferramentas mais ágeis para fazer as combinações ou uniões necessárias.

5. Análises avançadas não são mais apenas para analistas
Em todas as áreas das empresas, mesmo os profissionais que não são analistas estão cada vez mais exigentes. Eles querem fazer mais do que um gráfico com seus dados. Buscam uma experiência de análise mais significativa e aprofundada. As organizações adotarão plataformas que permitem aos usuários utilizar estatísticas, fazer uma série de perguntas e continuar no fluxo de suas análises.

6. O armazenamento de dados e as análises na nuvem decolam
Em 2015, as pessoas começaram a adotar a nuvem. Elas se deram conta de que colocar os dados na nuvem era fácil e extremamente escalonável. Também viram que a análise na nuvem era mais ágil. Em 2016, mais pessoas migrarão para a nuvem graças, em parte, a ferramentas que as ajudam a utilizar dados da Web. Os primeiros a adotar a nuvem já estão obtendo informações desses dados, e outras pessoas estão percebendo que deveriam fazer o mesmo. Cada vez mais empresas também usarão a análise na nuvem para explorar mais dados com mais rapidez. Esse recurso passará a ser tão importante para elas quanto qualquer outro sistema essencial da empresa.

7. Centros de Excelência em análise assumem um papel crucial
Cada vez mais organizações estabelecerão um Centro de Excelência para incentivar a adoção da análise de autoatendimento. Esses centros desempenham um papel vital na implementação de uma cultura baseada em dados. Através de programas de capacitação, como fóruns on-line e sessões particulares de treinamento, os centros capacitam até mesmo profissionais de outras áreas a incorporar a análise de dados em seus processos decisórios. Ao longo do tempo, esses centros permitirão que os dados sejam a espinha dorsal de todo o fluxo de trabalho da organização.

8. A análise em dispositivos móveis ganha sua independência
A análise em dispositivos móveis cresceu e saiu da casa dos pais. Ela não é mais apenas uma interface para os produtos de BI tradicionais. Em 2015, começaram a surgir produtos que, desenvolvidos com a abordagem mobile-first, ofereciam uma experiência fluida que priorizava dispositivos móveis. Trabalhar com dados em qualquer lugar deixará de ser um suplício para se tornar parte dinâmica do processo de análise. As pessoas começam a descobrir os dados da Internet das Coisas.

9. Tudo indica que a Internet das Coisas ganhará ainda mais terreno em 2016
Parece que tudo terá um sensor que envia informações para a nave-mãe. Pense em todos os dados que são gerados ininterruptamente por dispositivos móveis - e isso é apenas a ponta do iceberg. À medida que o volume de dados da IoT cresce, o potencial para a descoberta de informações também aumenta. Empresas buscarão ferramentas que permitam aos usuários explorar os dados e, em seguida, compartilhar suas descobertas de forma segura, controlada e interativa.

10. Novas tecnologias surgem para preencher as lacunas
Há diversas tecnologias novas em desenvolvimento no ecossistema de BI. À medida que elas chegarem ao mercado, veremos lacunas que precisarão ser preenchidas. Novas empresas surgirão para fazer exatamente isso. Aceleradores do Hadoop, integração de dados NoSQL, integração com dados da IoT, aprimoramento das mídias sociais – cada uma dessas áreas oferece uma oportunidade para o surgimento de uma nova empresa. Em 2016, essas lacunas serão cada vez mais preenchidas, resultando na consolidação do mercado. Da mesma forma, as organizações continuarão migrando de soluções únicas para adotar uma pilha de soluções abertas e flexíveis que incluam essas novas tecnologias.


(*) Ellie Fields é vice-presidente de marketing de produtos da Tableau

Fonte: CIO