quarta-feira, 30 de setembro de 2015

Netshoes usa inteligência de dados para conhecer melhor os clientes


Tail Target, plataforma brasileira de Data Intelligence é que fornece a tecnologia para que a Netshoes atinja suas metas. Ela atuará como Data Management Platform (DMP).
O acordo irá proporcionar à Netshoes uma solução completa de gerenciamento de dados para organizar e entender melhor o perfil de seus clientes, e contará com informações de comportamento on-line de 100 milhões de internautas do Brasil. Tudo isso, a partir de uma robusta solução de Big Data, em tempo real, para elaborar e entregar as ofertas mais relevantes aos seus consumidores.
“Conhecer detalhes do perfil de quem visita o site abre uma gama de possibilidades de geração de negócios e também um modo mais inteligente de a Netshoes interagir com o consumidor”, explica Luciana Finatti, diretora Comercial da Tail Target, ao destacar que o site poderá privilegiar a exibição de um conjunto de produtos de interesse ao potencial comprador, mesmo que ele esteja visitando a página pela primeira vez.
Como funciona
De acordo com a Tail Target, caso o consumidor busque um produto específico – uma bota de caminhada, por exemplo –, saber que ele é do sexo masculino, tem entre 18 e 30 anos e gosta de jogar futebol com os amigos nos fins de semana, dá à Netshoes a possibilidade de surpreendê-lo com oferta adicional de uma chuteira.
plataforma DMP entrega dados de comportamento on-line segmentados em 200 categorias de audiência, divididas em oito módulos de interesse (gênero, faixa etária, localização, geolocalização, renda, interesses e estilos de vida).
“Comercializamos mais de 40 mil artigos esportivos, divididos em mais de 25 categorias. Sermos capazes de conhecer o perfil dos nossos clientes é fundamental”, diz Fred Vila Verde, gerente de Marketing da Netshoes.


Fonte: Bit Magazine

29 novos cursos de TI e Analytics, alguns gratuitos

O Coursera anuncia o lançamento de quase 30 novas especializações nas áreas de negócios, ciência da computação e big data/aprendizado de máquinas. O programas reúnem diversas disciplinas complementares sobre uma mesma área de estudo, e contemplam a elaboração de um projeto de conclusão.
Um dos destaques é o módulo “Desenvolvimento e Design de Aplicativos para iPhone e iPad” elaborado pela Unicamp. Composto por quatro aulas, o curso aborda os fundamentos do desenvolvimento iOS, incluindo programação em Swift, design de interfaces, e implementação e publicação de um aplicativo.
Levantamento do Coursera mostra que mais da metade dos alunos registrados estão buscando especificamente conhecimentos e habilidades que tenham aplicação prática nas suas carreiras, principalmente nas áreas de negócios e tecnologia. Dessa forma, o anúncio dos novos cursos atende perfeitamente a essa demanda.
Algumas das novas especializações foram desenvolvidas com a participação de grandes corporações, como Google, Amazon e IBM, que ajudaram em diferentes aspectos, como a elaboração do conteúdo didático ou a definição dos temas do Projeto de Conclusão, de forma a promover aptidões e conteúdos muito procurados no mercado de trabalho. 
Negócios
1. Business Analytics (University of Pennsylvania)
2. Business Strategy (University of Virginia)
6. Leading People and Teams (University of Michigan)
7. Social Media Marketing (Northwestern University)
8. Strategic Management and Innovation (Copenhagen Business School)
9. Public Relations for Digital Media (National University of Singapore)
Ciência da Computação
11. Full Stack Web Development (The Hong Kong University of Science and Technology)
12. Game Design: Art and Concepts (California Institute of the Arts)
13. Game Design & Development (Michigan State University)
14. iOS App Development with Swift (University of Toronto)
15. iOS Development for Creative Entrepreneurs (University of California, Irvine)
16. Internet of Things (University of California San Diego)
18. Introduction to Software Product Management (University of Alberta)
20. Java Programming: Object-Oriented Design of Data Structures(University of California, San Diego)
21. Python for Everybody (University of Michigan)
22. Responsive Website Development & Design (University of London)
23. Ruby on Rails Web Development (Johns Hopkins University)
24. Web Design for Everybody (University of Michigan)
Ciência de Dados
25. Big Data (University of California, San Diego)
26. Data Science at Scale (University of Washington)
27. Data Warehousing for Business Intelligence (University of Colorado)
28. Machine Learning (University of Washington)
29. Data Analysis and Interpretation (Wesleyan University)

Fonte: CIO

Seis características presentes em todo bom software

Há muitas e muitas linhas de código sustentando sistemas ao redor do mundo. Para se ter uma ideia, apenas o Google soma mais de dois bilhões de linhas em sua estrutura. Mas nem todas fontes são criadas de maneira semelhante. 
Para descobrir o que faz de alguns códigos melhores que outros, buscamos a opinião de diversos desenvolvedores. Além disso, indagamos outros programadores para ver quais características esperam ou querem de um sistema no qual trabalharão. Com base nisso, listamos seis pontos que softwares “bem escritos” têm em comum.
É facilmente legível?
Os desenvolvedores parecem concordar que uma das qualidades mais importantes de um código é a sua legibilidade. Sistemas escritos de uma forma que podem ser lidos rapidamente por outros programadores são considerados um trabalho de alto nível.

“Sinto que se eu não consigo entender a intenção do autor do sistema em cinco minutos ou menos, o programador fez um trabalho ruim”, dispara Luke Burnham, engenheiro de software da Lionbridge. “Um código é escrito uma vez e lido muitas outras ao longo de sua vida útil”, adiciona, citando a necessidade de usar recursos que facilitem esse processo de leitura e entendimento.
Para um desenvolvedor de aplicativos web que pediu para não ser identificado, um bom código é aquele que “segue um estilo de codificação consistente (o espaçamento adequado, o recuo, o fluxo geral)”, disse. Ele também enfatizou a importância de escolher “nomes de variáveis” que fazem sentido de uma maneira geral.
Em resumo: mais legível significa mais compreensível e facilita a vida de todos. Assim, quanto mais rápido alguém poder compreender a estrutura, melhor.
Tem comentários úteis?
Além de boa formatação e “nomeação”, os comentários podem também tornar o código, em última análise, mais facilmente compreendido. Mas não apenas quaisquer comentários, como Burnham salienta. “Eu não preciso comentários para me dizer o que um loop faz. Preciso de comentários para me dizer por que o código está fazendo o que está fazendo”, afirma. “Para mim, um bom código tem comentários que explicam o que passou na cabeça do autor durante a construção”.

É simples?
O melhor código – e isso parece consenso – muitas vezes é algo simples. Bons programadores sabem como fazer o trabalho sem excesso, que compliquem demais as coisas. “... há uma correlação estatística comprovada entre a complexidade de código e bugs ...”, escreveu Neville Kuyt.

É flexível?
A funcionalidade de uma parte do código existente, muitas vezes, necessita ser alterada, expandida, ou reutilizada em outros lugares no futuro. É por isso que Burnham aconselha: “Bons softwares são escritos com as exigências tanto de hoje quanto com as perspectivas para futuro”.

Obviamente, prever o que está porvir é impossível. “Mas praticamente todo bom programador é capaz de criar um sistema flexível o suficiente que exija mudanças mínimas para acomodar novos requerimentos”, adiciona o engenheiro.
Código é bom se os desenvolvedores são capazes de "adicionar ou alterar certas partes do código sem ter que quebrar outras partes do código", comentou um desenvolvedor, que pediu para não ser identificado. “Você realmente saberá quando um código de alguém é bom mesmo terá que mexer nele”.
É sustentável?
Não importa quão bem um pedaço de código é escrito, inevitavelmente, ele terá bugs. "Obviamente alguém pode ter que corrigi-lo", disse Kevin Moylan, engenheiro de software na Genuine Interactive. "E a pessoa que fará isso pode ser você”.

Manutenção, então, é um atributo-chave de um bom código. Todo o código tem de ser mantido: não há necessidade de tornar essa tarefa ainda mais difícil do que o necessário. Portanto, evite fazer coisas como "valores que podem mudar (urls, teclas de acesso, senhas de banco de dados, etc)", escreveu o desenvolvedor anônimo.
Funciona?
Finalmente, há uma característica aparentemente óbvia de bom código de software que provavelmente deve ainda ser reforçada antes do final desse texto: ele precisa, efetivamente, funcionar. Em resumo, o sistema tem que fazer o trabalho para o qual foi projetado. “Não importa o quão grande ele se parece, se ele não fazer o trabalho, não é bom”, sintetizou Burnham.


Fonte: CIO

terça-feira, 29 de setembro de 2015

JOINT VENTURE FORMADA PELA SIEMENS E ACCENTURE PARA SMART GRID CHEGA AO BRASIL

American Utility Week começou na última quarta-feira (23), em São Paulo, e reúne empresas d transmissão, distribuição e comercialização de energia; medição de energia, água e gás; gerenciamento de recursos energéticos e hídricos; entre outros. o evento foi escolhido para apresentação ao mercado da Omnetric Group, joint venture formada pela Siemens e Accenture. A empresa oferece serviços e soluções em tecnologia da informação e operação para redes inteligentes de energia (Smart Grids).
A empresa foi criada no ano passado, em Munique, e une os produtos e soluções da Siemens à expertise em consultoria de gestão e tecnologia, integração de sistemas e serviços gerenciados da Accenture. A empresa oferece integração customizada de tecnologias operacionais, como gerenciamento da distribuição e outras operações em tempo real, com sistemas de TI, omo uma plataforma de gerenciamento de dados da medição (meter data management), sistemas de self-healing e outros.
“Combinando os pontos fortes da Siemens e da Accenture, a Omnetric Group irá oferecer o mais alto nível de especialização e execução a um mercado global de energia em rápida transformação. No Brasil, contaremos com estrutura dedicada, profissionais altamente qualificados e suporte global para atender as mais altas exigências do mercado brasileiro”, explicou o CEO da Omnetric Group, Maikel Van Verseveld.
Fonte: Jornal Dia a Dia

Pacific Controls Cloud Services realiza parceria com a VMware para lançamento de desktop como serviço (DaaS) baseado em nuvem no GCC

Pacific Controls Cloud Services (PCCS), a fornecedora líder de TI como serviço (IT as a Service, ITaaS) e de uma linha completa de soluções em nuvem, anunciou hoje que adquiriu o status de VMware™ Horizon DaaS® Powered, o que ajudará seus clientes a implementar rapidamente desktops e aplicativos como soluções em nuvem integralmente gerenciadas e com acesso a partir de qualquer dispositivo e em qualquer lugar, tudo a um preço acessível.
Como membro do programa VMware vCloud Air Network, a PCCS poderá oferecer desktops e aplicativos virtuais armazenados em nuvem. Aproveitando o potencial do Horizon DaaS Bundle da VMware, a PCCS fornecerá um desktop completo e aplicativos a partir de sua nuvem, que poderão ser acessados em qualquer dispositivo e de qualquer lugar. A solução pode ser oferecida em várias edições, com base nas necessidades dos clientes: VDI Edition ou Remote Desktop Session Host (RDSH) Edition.
“A PCCS sempre se dedicou a proporcionar soluções e serviços únicos e de alto valor a seus clientes para ajudá-los a gerar produtividade, reduzir custos e aumentar sua competitividade”, declarou Dilip Rahulan, presidente executivo da Pacific Controls. “Somos uma fornecedora pioneira de soluções de nuvem no Oriente Médio, com uma infraestrutura de nuvem que não fica atrás de nenhuma outra. Nossa parceria com a VMware é mais um importante passo nessa direção”, acrescentou.
Com a solução VMware Horizon DaaS, a PCCS poderá oferecer a seus clientes benefícios sem precedentes na forma pela qual serviços de desktop são implementados, gerenciados e utilizados. O serviço permitirá que os clientes tenham uma experiência de usuário de primeira categoria, aumentem a eficiência, reduzam custos e alcancem escalonabilidade e agilidade, tudo em um modelo de custo mensal previsível. Por ser o único modelo de implantação de infraestrutura de desktop virtual (virtual desktop infrastructure, VDI) compatível com a plataforma VMware Horizon DaaS de várias locações, torna-se fácil para provedores de serviços como a PCCS oferecer soluções completas em desktop e aplicativos a seus clientes em um ambiente de nuvem verdadeiramente escalonável. Como uma fornecedora Horizon DaaS, a PCCS pode agora oferecer a seus clientes uma plataforma unificada, com desktops virtuais dedicados e separação totalmente segura em cinco níveis: metadados, armazenamento, rede, serviços de diretório e computação.
Para obter mais detalhes, acesse www.pacificcontrols.net e www.vmware.com.
Fonte: R7

Armazenamento — no local ou na nuvem?

Quando se trata de determinar a melhor forma de armazenar enormes quantidades de dados empresariais confidenciais gerados diariamente, as organizações se deparam com duas opções: (aquilo que pode ser considerado o método tradicional) sistemas de armazenamento nas próprias instalações ou uma solução externa hospedada por provedores de computação na nuvem. Embora muitas empresas continuem investindo em armazenamento local, o armazenamento baseado na nuvem está começando a se tornar uma opção potencial para algumas. De fato, espera-se que 36% de todos os dados sejam armazenados na nuvem até 2016, um crescimento da parcela de apenas 7% em 2013. Obviamente, apesar de o armazenamento em nuvem parecer uma opção intrigante, existem pontos positivos e negativos associados a cada método, desde custo e controle até segurança. 

Acima de tudo, as organizações precisam entender que não existe uma solução que atenda a todos os casos. Em vez disso, é basicamente uma questão de identificar um método — local ou baseado na nuvem — que ofereça a melhor opção para uma organização com base em necessidades individuais. Existem três fatores importantes a serem considerados ao avaliar qual opção  é a melhor para uma organização.

Controle e gerenciamento de dados

Controle e gerenciamento são os primeiros fatores importantes que devem ser considerados. Para as organizações que desejam ou precisam de mais controle sobre seu armazenamento, a infraestrutura local oferece uma variedade de opções englobando nível de serviço e graus de proteção de dados. Oferecer maior suporte à replicação de sistemas de arquivos, camadas de dados, capturas de tela, recursos de backup e hardware físico é geralmente ideal para organizações que procuram otimizar o desempenho para diferentes tipos de aplicativos e dados dentro de um único sistema. Além disso, ela oferece maior capacidade de gerenciar e ajustar o desempenho diretamente como parte da pilha de aplicativos coletivos, ou AppStack, que consiste na infraestrutura subjacente necessária para garantir um desempenho ideal de aplicativos. O hardware no local também proporciona às organizações um gerenciamento de segurança e conformidade de dados mais direto, ao passo que alguns provedores de nuvem podem não ter o nível de privacidade necessário para atender aos regulamentos de dados específicos. 
Em comparação, as empresas que optam por utilizar os serviços de um provedor de nuvem, tal como o Amazon Web Services, devem aceitar os termos estipulados no contrato de nível de serviço (SLA). Elas não têm que gerenciar com tanto nível de detalhes, mas também não têm o mesmo nível de controle. Se o SLA inicial, que inclui detalhes como a percentagem de tempo que os serviços estarão disponíveis, o número de usuários que podem ser atendidos simultaneamente e os parâmetros de desempenho, acabarem se tornando inadequados, as organizações deverão migrar para a camada mais alta (e mais dispendiosa) de armazenamento para obter serviços e recursos adicionais.
Apesar disso, para algumas, o armazenamento em nuvem ainda pode oferecer uma alternativa valiosa a hardware físico como, por exemplo, para empresas de pequeno a médio porte com um orçamento de TI limitado e com funcionários que podem achar que o gerenciamento de dados incorporados em armazenamento de nuvem é altamente econômico, apesar do SLA. Além disso, empresas de maior porte que executam aplicativos baseados na nuvem podem optar por implantar armazenamento na nuvem para garantir maior disponibilidade (veja a seguir).

Disponibilidade e latência

A capacidade de armazenar e acessar dados a qualquer momento é um componente crítico das soluções de armazenamento de dados e exerce grande influência sobre a escolha do que é ideal para uma organização: armazenamento local ou na nuvem. Embora uma alternativa relativamente nova à armazenamento local, a disponibilidade de armazenamento na nuvem pode quase sempre exceder a disponibilidade de um ambiente tradicional, porque os sistemas que acessam os dados normalmente não têm um ponto único de falha e podem ser facilmente acessados de vários locais.
Contudo, um desafio inerente ao armazenamento na nuvem é a latência, que é difícil de ser reduzida sem garantir que os dados sejam armazenados em um local físico mais próximo, talvez optando por um provedor de serviços em nuvem que tenha um datacenter próximo a um centro de operações da empresa. Os profissionais de TI que gerenciam o armazenamento para as organizações com aplicativos instalados no local, onde a latência ou uma incapacidade de acessar dados for um problema grave, deverão levar em conta essas desvantagens potenciais da nuvem. 
Por outro lado, a infraestrutura local pode ser configurada para alta disponibilidade, embora muitas vezes isso seja muito caro. Mesmo assim, ele pode oferecer às organizações um armazenamento rápido com o suporte de um sistema de redes de armazenamento, tornando adequada a solução de armazenamento no local para várias cargas de trabalho diferentes que exigem alto desempenho, armazenamento de baixa latência, tais como virtualização de servidor e desktop ou aplicativos de bancos de dados.   
                                             

Economia de custo (ou não)

Muitas empresas continuam investindo em hardware físico, mas cada vez mais, especialmente à medida que os custos de largura de banda caem, a nuvem está se tornando atrativa. Com armazenamento baseado na nuvem, uma organização pode comprar apenas a quantidade de armazenamento necessária e pagar uma tarifa mensal por esse armazenamento, em vez de ter que comprar um dispositivo físico caro que pode acarretar um custo inicial alto de capital, sem contar o custo adicional de alocação de espaço e energia. Esta capacidade de “expandir conforme a necessidade” também pode ajudar as empresas que buscam reduzir os custos iniciais. Se isso pode ser evitado, por que comprar uma solução dispendiosa de 20 terabytes quando a empresa precisa apenas da metade desse armazenamento no momento, mesmo que a expansão no futuro possa exigir isso em determinado ponto?
Todavia, as organizações devem estar cientes de que, ao mesmo tempo que as soluções hospedadas na nuvem reduzem as despesas de capital, geralmente há uma parcela de custos ocultos, por provedor e SLA, é claro, que podem aumentar os custos operacionais. Os custos de provedor por gigabyte de armazenamento, por solicitação e a cada transferência de dados de e para a nuvem podem aumentar rapidamente, resultando em uma economia geral de orçamento menor do que muitas organizações esperam. Para determinar de forma eficaz se a computação em nuvem é uma alternativa econômica às soluções físicas, as empresas devem realizar auditoria suficiente com relação às estruturas de preços em SLAs para que não haja nenhum custo suplementar que as surpreendam.

Então, o que é melhor?

Realmente não se trata de qual método é o melhor, mas de qual método atende melhor às necessidades de uma organização. Se uma empresa precisa de disponibilidade, proteção, desempenho e conformidade de armazenamento, considerando um orçamento de TI, haverá uma necessidade para ambas as soluções de armazenamento: no local e na nuvem. Os profissionais de TI avaliam ambas as opções considerando as necessidades diárias específicas da empresa antes de determinarem se devem armazenar seus dados no local ou movê-los para a nuvem.

*James Honey, gerente de marketing de produto sênior da SolarWinds


Fonte: CanalTech


segunda-feira, 28 de setembro de 2015

Huawei Cloud Congress 2015 - o presente e o futuro da Nuvem!

Como é a visão da Huawei sobre Cloud e como transforma nossa realidade

O imenso desafio de uma empresa que cresce bastante é manter o foco e a coerência entre suas diferentes linhas de produtos. A gigante chinesa Huawei, fundada em 1987 por Ren Zhengfei, visionário empreendedor, nasceu nos anos 80 como fornecedora de equipamentos de telecomunicação de segunda linha e hoje é uma das grandes forças mundiais do setor desafiando e até superando em alguns aspectos as tradicionais gigantes deste mercado e hoje conta com produtos de ponta, primeira linha e tecnologias inovadoras.


Este texto vai percorrer as características da empresa e várias de suas tecnologias e produtos. Você pode lê-lo na íntegra ou os tópicos que sejam mais de seu interesse. No final as ideias serão todas confrontadas e associadas trazendo, espero eu, conclusões interessantes e esclarecedoras. 


A empresa


Estive a convite da Huawei em duas de suas sedes na China. Visitei um centro de experimentação de soluções em Shenzhen e um laboratório de pesquisa e desenvolvimento em Shanghai, aliás um centro imenso, impressionante, com dezenas de milhares de metros quadrados, local onde nascem muitas de suas soluções.



figura 01 – Shanghai Huawei Technologies Corporate Campus



A empresa tem três áreas de atuação:

Carrier: Produtos para operadoras de telecomunicações (por exemplo as empresas que vendem serviço de telefonia móvel). Responsável por aproximadamente 67% de seu faturamento. 
Enterprise: Soluções para empresas como switches, roteadores, firewall, storages, servidores, câmeras de segurança, etc., responsável por aproximadamente 7% de seu faturamento. 
Consumer: Dispositivos móveis como smartphones, modems e tablets, responsável por aproximadamente 27% de seu faturamento. 

A área de produtos Enterprise é o que mais vem crescendo na Huawei. Embora ainda com 7% na participação total das receitas, teve em 2012 US$ 1.5 Bi em receitas e na sequência, US$ 1.9 Bi em 2012, US$ 2.5 Bi em 2013 e fechou 2014 com US$ 3.1 Bi e, um crescimento de 112% em 3 a anos!


A empresa tem hoje segundo dados de 2014 a seguinte divisão geográfica de seu mercado: 

37.8% na própria China 
35.0% EMEA (Europa, Oriente Médio e África) 
14.7% na região Ásia Pacífico 
10.7% nas Américas 

Está presente em mais de 170 países. Conta com 170.000 empregados. Tem 16 centros de Pesquisa e Desenvolvimento e 45 centros de treinamento. Apenas em 2014 foram investidos perto de US$ 7 bilhões (CNY 40.8 bilhões) em pesquisa e desenvolvimento. São números que impressionam, mas não só de números depende o mérito das soluções das empresas. Precisa haver coesão e sinergia. Voltando às diferentes áreas de negócios, segundo minha visão anterior estas divisões tinham atuações praticamente independentes. Não via conexão intensa entre estas áreas. Mas pude enxergar meu erro. Nesta visita também participei do HCC 2015, ou seja, “ Huawei Cloud Conference 2015” e por conta disso minha visão começou a mudar. 


figura 02 – Huawei Cloud Conference 2015 – Shanghai, China


Huawei e a Nuvem


A começar, qual a conexão da Huawei com sistemas de nuvem? Há muita relação. A saber, a empresa tem na China oferta de serviço de nuvem pública contratada por empresas locais, utilizando obviamente toda a sua própria tecnologia, toda sua vertical. Mundialmente a Huawei está fazendo alianças e parcerias para prover este tipo de serviço por meio de Operadoras de Telecomunicações locais. Não por acaso são as empresas que já são clientes de seus produtos da linha “Carrier”. Por exemplo, uma TELEFONICA poderá criar este serviço em vários locais do mundo tendo por base os produtos da empresa. Mas que produtos são estes que suportam a nuvem da Huawei? E devemos lembrar que no atual momento da evolução e maturidade da tecnologia a nuvem não é mais apenas uma base de virtualização e sim orientada e centrada em aplicações (conceito de “Cloud 3.0”).


Quando se fala em nuvem um dos imensos pré-requisitos envolvido é capacidade de comunicação em alta escala e velocidade. Mas este não é o único ponto crítico. Conectividade de rede, processamento e armazenamento são pontos chave! Na linha de produtos Enterprise há oferta de switches e roteadores de alta capacidade com recurso para implantar SDN (Software Defined Network). Trata-se de uma infraestrutura lógica de rede cuja implantação e administração se faz por software (apenas configurações e parâmetros) reduzindo sobremaneira o esforço de implantação de redes complexas e principalmente agilidade no gerenciamento e nas modificações necessárias ao longo do tempo.


FusionSphere 6.0


Uma das importantes novidades do HCC 2015 foi a apresentação do FusionSphere versão 6.0, o sistema operacional para nuvem da Huawei, com mais de 2000 melhorias e aperfeiçoamentos. Integra a plataforma de virtualização FusionCompute e o software de gerenciamento de nuvem FusionManager. Como resultado, uma grande variedade de empresas pode consolidar horizontalmente recursos físicos e virtuais em data centers e otimizar verticalmente a plataforma de serviços. Com arquitetura convergente habilita o controle centralizado de recursos físicos e virtuais, gerenciamento de vários data centers e soluções completas para nuvens privadas, públicas e híbridas. 



figura 03 – modelo conceitual do FusionSphere 6.0


É baseado no padrão aberto OpenStack cuja definição desenvolvida por um grupo de empresas (do qual a Huawei também faz parte) provê compatibilidade de hardware e software em um ecossistema abrangente, APIs abertas padrão e Systems Development Kit incorporado (eSDK) permitindo a integração de um grande número de equipamentos de muitos fabricantes diferentes (que também se fundamentam no OpenStack).


Por meio dessa solução empresas podem implementar sistemas de nuvem privada ou híbrida dentro das suas organizações. Mas a capacidade de escalabilidade do sistema também habilita provedores de serviços criarem sistemas robustos de nuvem pública e oferecerem para o mercado essa solução. É dessa forma que a Huawei pretende alcançar o mercado mundial, por meio de alianças e parcerias com operadoras de telefonia locais que queiram vender o serviço de nuvem pública ou híbrida para seus clientes.


Fonte: ITForum

Siemens e Accenture: juntas em Smart Grid



A Siemens e Accenture anunciaram que sua joint venture com atuação em Smart Grid, a Omnetric Group, expandirá suas operações para o Brasil.  
Criada em 2014 em Munique, a empresa une os produtos e soluções da Siemens e as habilidades em consultoria de gestão e tecnologia, integração de sistemas e serviços gerenciados da Accenture. 
A combinação oferece soluções e serviços de gestão e integração de dados avançados, com o objetivo de ajudar as concessionárias a garantir maior confiabilidade e eficiência em suas redes.
Os serviços e soluções oferecidos pela Omnetric Group permitirão uma integração de tecnologias operacionais (como o gerenciamento da distribuição) com sistemas de TI, como uma plataforma de gerenciamento de dados da medição (meter data management), sistemas de self-healing e outros.   
"No Brasil, contaremos com estrutura dedicada, profissionais qualificados e suporte global para atender às mais altas exigências do mercado brasileiro", explica Maikel Van Verseveld, CEO do Omnetric Group.
O Omnetric Group pretende iniciar suas operações no Brasil ainda neste ano. A empresa será baseada na cidade de Belo Horizonte, onde também se encontra um dos centros de Pesquisa e Desenvolvimento da Siemens para Smart Grids e onde a Accenture também possui escritório.
"O lançamento no país atende a crescente demanda do mercado local para soluções avançadas que facilitam a implementação e o gerenciamento de tecnologias para redes inteligentes de energia", disse Adriano Giudice, diretor executivo da divisão de Energia da Accenture no Brasil.
O mercado global de tecnologias de smart grid deve registrar um crescimento robusto até 2020, de acordo com um relatório da consultoria de análise Navigant Research, lançado em 2013. A previsão é de que até o final de 2020, o setor atinga US$ 73 bilhões em receitas anuais, totalizando US$ 461 bilhão em receita acumulada no período entre 2013 e 2020. Em 2012, o faturamento foi de US$ 33 bilhões.

Fonte: Baguete

Universidades investem em segurança e gestão de identidades para proteger dados

Os recentes casos de ataques cibernéticos e fraudes em instituições de ensino superior no país motivaram universidades brasileiras a buscar ferramentas de segurança da informação para a proteção de dados internos e para garantir a qualidade dos serviços prestados à população e à comunidade acadêmica. Uma das soluções adquiridas por universidades do estado de São Paulo é o software HORACIUS, da empresa E-TRUST. Com ele é possível adaptar todas as funções para as reais necessidades de cada instituição. 
 
“Um ambiente acadêmico é de abertura de informações. A ideia é que elas circulem o mais livremente possível, mas, ao mesmo tempo, uma universidade se comporta de forma parecida com uma empresa, pois existem sistemas de retaguarda iguais aos de outras organizações. E isso tem que pesar de forma muito delicada num ambiente acadêmico para não haver cerceamento da divulgação e da troca de informações livre, que devem sempre ocorrer”, comenta o CEO da E-TRUST, Dino Schwingel.
 
Recentemente, a empresa fechou contrato com a Universidade Presbiteriana Mackenzie, localizada na capital paulista, para fornecer serviços de segurança da informação para os sistemas internos utilizados por funcionários. “A princípio o HOACIUS será implantado na área de controle de funcionários e na área de eventos, ou seja, os visitantes da universidade poderão contar com acessos automatizados”, explica o coordenador do setor de segurança da informação da universidade, Marcio Freitas.
 
Um dos fatores que motivou a implantação do sistema de segurança foi o alto número de chamados abertos por funcionários para solucionar problemas relacionados à concessão de acessos. Segundo Freitas, “sem dúvidas, algo muito importante que o HORACIUS nos permitirá é a revisão dos acessos. Esse será o principal ganho em segurança. A automatização dessa tarefa foi uma das principais razões por termos escolhido o sistema”. Todas as funcionalidades técnicas do programa devem ser implantadas até o final deste semestre e a expectativa é que o HORACIUS seja adotado no controle de acessos dos alunos.
 
Segurança e Produtividade - Outra instituição de ensino que também investiu no software da E-TRUST foi a Universidade Anhembi-Morumbi, em São Paulo. Implantado há três anos, o sistema conseguiu atender as premissas impostas pela instituição. “O principal diferencial do HORACIUS é a facilidade com que podemos administrar a ferramenta e customizá-la. Por meio dela foi possível encerrar os problemas de auditoria interna e controles referentes a acessos, conferindo mais confiança na gestão de identidade dos colaboradores, uma vez que todo o processo de concessão, revogação e revisão de acessos foi automatizado através dos conectores”, esclarece o responsável pelo sistema na Anhembi-Morumbi, Henrique Lucena.
 
Segundo Lucena, os principais ganhos de produtividade foram percebidos na governança de acessos. Antes o prazo de autorização para que os novos colaboradores pudessem acessar os sistemas internos variava entre 5 e 7 dias, agora o tempo de espera é de 12 horas. Além disso, a revisão de acesso, que demorava de 45 a 90 dias, passou para apenas 7 dias. O CEO da E-TRUST comemora. “As autorizações passaram a ser realizadas 10 vezes mais rápidas e as revisões demoram, no mínimo, um sexto do tempo inicial. Além de mais seguro o software possibilita ganho de tempo e redução de custos, já que as horas produtivas despendidas nessas tarefas podem ser redirecionadas”.
 
A E-TRUST fornece soluções customizadas para que as empresas protejam seus sistemas e informações sigilosas. A mais nova versão do software Horacius, o Horacius Cloud, é projetada para atender e sanar as deficiências de segurança da informação de organizações de todos os  portes e segmentos, de forma customizada, e em nuvem. Além de poder ser integrado a qualquer sistema de recursos humanos, ele também permite o gerenciamento de sistemas internos como  SAP, AD, Exchange e Servidor de Arquivos.

Fonte: SEGS

quinta-feira, 24 de setembro de 2015

Você já está nas nuvens? Não? Por que?

Na última década começamos a vivenciar uma revolução digital que tomou proporções exponenciais nos últimos cinco anos, seja no âmbito do volume de dados gerado no universo digital, na quantidade de aplicações que suportamos e utilizamos diariamente ou na quantidade de usuários conectados por meio dos mais variados dispositivos móveis. Quando olhamos para esta revolução, uma das grandes tendências e respostas é a computação em nuvem.

Desde quando foi designado pelo NIST (National Institute of Standards and Technology) como um modelo que permite acesso a um conjunto compartilhado de recursos computacionais configurados, o conceito de computação em nuvem ganhou atenção de diversos mercados por conta da sua eficiência processual. Com esta inovação, cada vez mais as organizações amadureceram a ideia de irem para a nuvem, mas esquecem de aterem sobre qual será o modelo mais adequado.

É preciso explicar! A computação em nuvem pode ser composta por cinco características básicas: on-demand self-service, broad network access, resource pooling, rapid elasticity e measured service. Um dos principais pilares tecnológicos que sua infraestrutura de TI deve ter como base para compor estas cinco características é a virtualização. Antes de tudo é necessário expandir o uso da virtualização para as camadas de infraestrutura de redes e de armazenamento.

Definindo as camadas da infraestrutura por software é possível obter níveis de agilidade, disponibilidade, utilização, programabilidade e controle muito mais altos do que o convencional, permitindo que sua infraestrutura se torne uma fundação adequada para se alcançar às cinco características citadas e, normalmente, este deve ser o passo inicial para atingir a maturidade durante a jornada rumo à nuvem.

Toda esta infraestrutura de computação em nuvem pode ser implantada através de quatro modelos: privada, comunitária, pública e híbrida. O primeiro modelo é apontado por diversas pesquisas no mercado como o caminho mais propício e o que deve ser percorrido nas estratégias dos CIOs. A infraestrutura de nuvem é provisionada exclusivamente para o uso de uma única organização e seus diversos clientes são as linhas de negócios ou departamentos internos.

O conceito de comunidade ainda não é muito utilizado no Brasil, mas alguns executivos compreendem a utilização da infraestrutura de nuvem para uso exclusivo de uma comunidade de organizações, nas quais têm requisitos como compliance e segurança em comum.

O modelo de nuvem pública é o mais comum e talvez o de maior impacto no mercado de TI mundial. Quando ouvimos falar das plataformas AWS da Amazon, Cloud Platform do Google, Azure da Microsoft ou vCloud Air da VMware estamos falando de uma infraestrutura de nuvem provisionada para uso de propósito geral.

O último dos quatro modelos, o híbrido é aquele que os grandes players da indústria acreditam como ideal e que deve ser alcançado pelos CIOs em suas estratégias de computação em nuvem. Neste modelo de nuvem, a infraestrutura é uma composição de duas ou mais nuvens que permanecem como entidades únicas, mas se integram por meio de padrões permitindo a portabilidade de dados e aplicações.

Além de definir o modelo de implementação, é necessário também escolher quais dos três modelos de serviços serão mais propícios para o seu negócio. São eles: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) ou SaaS (Software as a Service). No primeiro modelo todas as camadas da infraestrutura de nuvem são entregues para o usuário, contendo máquinas virtuais com determinadas capacidades de processamento, volumes de armazenamento e até um compartilhamento de rede SMB ou NFS.

Já no modelo PaaS são agregados serviços de middleware, data fabric e ferramentas de desenvolvimento, como por exemplo, linguagens de programação, bibliotecas e até frameworks de desenvolvimento aos serviços de IaaS. O terceiro modelo, o SaaS, é considerado um dos serviços em nuvem que mais cresce em adeptos se comparado aos demais por ser mais transparente e por permitir que os usuários acessem aplicações completas como serviço.

É importante frisar que vivemos um momento em que diversas indústrias e modelos de negócios estão se transformando. Com isso, as empresas descobrem novas oportunidades de maneira preditiva em seus mercados. A grande tônica é entregar uma experiência mais pessoal em seus produtos e serviços, além de ser capaz de inovar de maneira mais rápida e de operar, e reagir, a eventos em tempo real conforme a dinâmica de cada indústria.

Toda esta transformação dos modelos de negócios e aplicações traz também inovações para a infraestrutura de TI, tornando a computação em nuvem a nova cara da TI, pois é possível continuar atendendo as necessidades das linhas de negócios ou departamentos internos na velocidade em que cada mercado exige e, em alguns casos, contribuir para a reduções de custos. Afinal, o tempo corre e você precisa estar nas nuvens à sua maneira.

*Willian Porfirio é especialista de produtos da Divisão de Plataformas da Sonda IT.

Fonte; Computer World

Os desafios do canal de TI na transformação para cloud

Nos últimos anos temos ouvido muito falar em investimentos na “Nuvem” ou o seu termo equivalente em inglês “Cloud Computing”, sem às vezes conseguirmos ter a dimensão do volume e da velocidade envolvidos na transição para esta tecnologia.

Segundo a IDC, em 2015, serão investidos no mundo mais de US$ 2,1 trilhões em TI (hardware, software e serviços), representando um crescimento estimado de algo em torno de 3%. Boa parcela deste crescimento virá dos investimentos em cloud. A IDC estima que mais de 75% das empresas no mundo já tenham hoje alguma estratégia nesta plataforma ou têm planos para estarem lá em breve.

De acordo com recente pesquisa realizada pela IDC, a boa notícia para o canal neste tempo de transformação para a nuvem é que os clientes continuam interessados em comprar TI por meio do canal. As empresas, consideradas por eles como seus consultores de confiança, oferecem soluções de um número variado de fabricantes, permitindo assim a escolha da opção certa que atenda às suas necessidades. E, melhor, estes parceiros deverão continuar tendo a preferência de compra por parte dos clientes.

Na verdade, 86% das empresas que responderam à pesquisa indicaram que compram soluções de TI por meio do canal. Embora a primeira impressão é a de que nas ofertas na nuvem o fabricante fica mais próximo do cliente, supostamente, diminuindo a importância deste meio de compra, só 16% responderam à pesquisa alegando comprar diretamente do fabricante.

Outro dado interessante deste estudo é que 72% dos clientes admitiram que valorizam um “bom” serviço, como sendo mais importante que só o preço. Somente 28% sacrificariam este tópico para ter um melhor preço. Isso mostra a grande oportunidade para o canal - que agrega valor às suas ofertas - que continuará a ser valorizado nestes novos tempos de transformação para a nuvem.

O grande desafio neste cenário pode não estar tão claro nesta discussão de transformação do negócio do canal para a nuvem. As soluções nesta plataforma vão muita além da infraestrutura e aplicações que estavam sob responsabilidade da área de TI.

Cloud traz uma grande oportunidade para que as empresas criem negócios disruptivos, revejam processos, otimizem investimentos, reduzam custos, tudo isto por meio de algoritmos que podem ser desenvolvidos especificamente para cada negócio.

Para que o canal consiga ter sucesso nesta transformação para a nuvem, será imperiosa a interlocução com a área de negócios dos clientes, já que 80% dos novos investimentos em TI passarão a ter o envolvimento desta área. Conhecer o negócio do cliente e aprender a interagir com estes executivos, que têm um perfil diferente dos profissionais de TI, serão fundamentais para garantir a sobrevivência do canal neste novo cenário.

Outra mensagem importante que podemos extrair de todos estes números é que, apenas o parceiro que agrega valor, consegue entender as necessidades e o negócio de seu cliente e realmente atua como um conselheiro de confiança terá seu espaço neste novo cenário.

*Jorge Sukarie é presidente da Abes (Associação Brasileira das Empresas de Software) e presidente da Brasoftware Informática.


Fonte: Computer World

Já pensou em usar mídia social para a segurança da informação?

Como os invasores podem obter, com maior facilidade, informações privilegiadas sobre seu alvo?
 
Acredite ou não, no LinkedIn. Pense bem, por que fazer uma varredura às cegas tentando obter as digitais dos alvos quando basta consultar os perfis de seus administradores de rede e de sistema no LinkedIn para ver em quais sistemas estão trabalhando?
 
A mídia social é uma potente ferramenta para as empresas, mas, como você pode ver, também pode representar uma grande ameaça. Como resultado, muitas empresas estão aplicando políticas que exigem que os funcionários removam detalhes específicos sobre seus cargos. Ao mesmo tempo, contudo, os princípios por trás da mídia social podem, na verdade, ser usados para aumentar a segurança organizacional.
 
Tudo se resume à ideia de compartilhar informações, que representa o foco da mídia social. Compartilhando programaticamente informações sobre ameaças, os defensores podem criar uma defesa mútua muito mais forte do que fariam individualmente.
 
Reconheço que isso é mais fácil falar do que fazer. Quando a questão é segurança, nós, profissionais de TI, temos sido tradicionalmente cautelosos quanto a compartilhar informações, já que isso poderia representar uma vantagem para os invasores. Embora ainda seja importante considerar quais informações são compartilhadas, enquanto setor, devemos encarar o fato de que fazer tudo sozinho não é mais uma opção. Devemos avançar além do compartilhamento de definições básicas de vírus ou assinaturas de IDS.
 
Como?
 
Para variar, precisamos arrancar uma página do manual de estratégia dos invasores. A realidade é que os invasores estão muito à frente dos defensores há um bom tempo. Em geral, eles também são muito sociáveis e compartilham informações sobre vulnerabilidades e táticas de forma muito mais eficiente do que os defensores. Esqueça a imagem do lobo solitário criminoso cibernético – embora eles ainda existam por aí, a maioria dos invasores faz parte de uma comunidade secreta muito ativa que compartilha ferramentas e táticas mais rápido do que qualquer empresa consegue acompanhar. Por isso, precisamos mudar as regras do jogo: tornarmo-nos melhores em compartilhar mais informações de modo mais eficiente.
 
Recentemente, isso se manifestou na forma de feeds de ameaças. Feeds de ameaças são uma tecnologia bastante proclamada para compartilhar rapidamente informações sobre ataques e permitir que sua infraestrutura detecte e responda dinamicamente a novas ameaças. Alguns desses feeds podem ser simples listas de endereços IP ou blocos de rede associados a atividades mal-intencionadas, enquanto outros podem conter análises comportamentais mais complexas.
 
A ideia de compartilhar padrões ou assinaturas de ataques não é nova, mas nos últimos anos, testemunhamos uma integração mais profunda na infraestrutura de detecção e proteção. Feeds de ameaças não garantem a segurança – na verdade, é bom ser cético com relação a qualquer coisa que alegue garantir a segurança – mas representam um passo na direção certa, rumo à criação de arranjos de defesa coletivos. Ainda assim, a maior parte dos dados nos feeds de ameaça de hoje é enviada anonimamente e, portanto, não se trata de uma aliança identificada – mas é um começo.
 
Alguns fornecedores de tecnologia de proteção, como os que oferecem antivírus e firewalls, criaram seus próprios feeds e os oferecem aos clientes como serviços de assinatura premium. Ainda que sejam bons, esses feeds normalmente funcionam somente com a tecnologia de um fornecedor específico, além de estarem limitados com relação à profundidade com que podem ser aproveitados em toda a sua organização de TI. O problema é que, para serem mais eficazes, seria melhor incorporar esses dados em outros locais em sua infraestrutura. Às vezes, é relativamente fácil conseguir isso com os dados brutos desses feeds, mas nem sempre. Também existem fontes de feeds de ameaças agnósticas com relação ao fornecedor que valem a pena conferir. Por exemplo, algumas ferramentas de gerenciamento de informações e eventos de segurança (SIEM) incluem tais recursos.
 
Também é possível obter e compartilhar informações sobre ameaças de outras maneiras.
 
Por exemplo, o Internet Storm Center também é uma excelente fonte de informações sobre ataques ativos. Eles publicam informações sobre as principais portas mal-intencionadas que estão sendo usadas por invasores e os endereços IP dos invasores. Se você vir qualquer servidor em seu data center se comunicando com esses IPs ou por essas portas, vale a pena investigar. Embora possa revelar-se benigno, esses são bons sinalizadores para ajudar a orientar suas investigações.
 
Melhorar o compartilhamento de dados entre as equipes internas é outra maneira. Menos da metade dos profissionais de TI que responderam a uma recente pesquisa da SolarWinds disseram que suas organizações têm segurança e outros processos de TI altamente integrados, mas fazer isso pode ajudar a detectar ataques e comportamentos que, de outra forma, passariam despercebidos. 

Uma boa maneira de começar é contar com ferramentas ou painéis unificados que contenham informações sobre o estado de suas redes e sistemas. Com frequência, dados de desempenho podem ser usados para detectar incidentes de segurança, seja um súbito aumento no tráfego de saída, indicando que alguém está exfiltrando dados, ou uma CPU em um servidor de banco de dados apresentando um pico devido a um ataque. 

A melhor maneira de começar a trilhar esse caminho é incluir outros membros da TI nos relatórios pós-ação de respostas a incidentes. Quanto mais eles compreenderem sobre como as ameaças foram descobertas, mais vigilantes ficarão quanto à detecção de anomalias em seus sistemas e à sua respectiva sinalização.


(*) Mav Turner é diretor de marketing de produtos de segurança da SolarWinds

Fonte: CIO