<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=633097343493783&amp;ev=PageView&amp;noscript=1">
canal-comstor-logo
O blog dos negócios de TI.
Comstor Americas
  • 7 benefícios da videoconferência: colaboração e comunicação a favor de bons negócios
  • 14 dicas de marketing para revendas de TI
  • Baixar agora
  • 7 benefícios da videoconferência: colaboração e comunicação a favor de bons negócios
  • 14 dicas de marketing para revendas de TI
  • Baixar agora

Semana das previsões 2017: Big Data

Publicado em 3/jan/2017 5:00:00

Veja todas as apostas de especialistas para a tendência que está cada vez mais presente nas empresas.

Semana das previsões 2017: Big Data

Segundo estimativas, o mercado de Big Data que fechou 2016 valendo cerca de US$ 1.7 bilhões vai atingir US$ 9.4 bilhões até 2020. Com esse crescimento, os desafios empresariais, as necessidades de habilidades e a paisagem do fornecedor estão se transformando. Este ano promete ser ocupado para profissionais de Big Data.

 

Isso porque o departamento de TI está ganhando uma importância gigantesca nesse novo ambiente de dados. A área está finalmente evoluindo de produtora para capacitadora. Ela está no leme da transformação do autoatendimento analítico em escala, fornecendo a flexibilidade e agilidade que a empresa precisa para inovar, ao mesmo tempo em que equilibra a governança, a segurança de dados e a conformidade. E ao capacitar a organização para tomar decisões baseadas em dados na velocidade dos negócios, a TI emergirá como a “solução” ideal para análise de dados e que ajuda a moldar o futuro do negócio.

 

Em 2017, veremos as ferramentas de análise focadas em impulsionar a satisfação do cliente. À medida que o universo do Big Data explodiu, os líderes corporativos tinham um falso conforto em ter esses reservatórios gigantescos de dados que não trouxeram nenhum valor por conta própria quando estavam lá parados, sem ser analisados. Basicamente, os dados nos fornecem informações sobre os consumidores e sobre como podemos servir eles de forma otimizada. E como os clientes de hoje esperam uma experiência personalizada ao interagir com uma empresa, vamos ver a análise de clientes tornar-se a questão central da jornada do cliente, criando pontos de contato em cada nível do funil e em cada momento de interação.

 

Outro ponto importante para este ano é que os profissionais de TI continuarão tendo preocupações de segurança com relação aos dados, o que significa que veremos um aumento na classificação de dados sistemática, na criptografia e ofuscação de todos os dados de armazenamento de longo prazo. A preparação de dados em fluxo contínuo se tornará fundamental, à medida que as aplicações empresariais mais rápidas e críticas exigirem cada vez mais que os dados sejam filtrados, transformados, agregados e enriquecidos antes de aterrissar em um armazenamento de dados subjacente.

 

Além disso, os especialistas em Big Data também apontam para uma migração das cargas de trabalho para a Nuvem, enquanto um grande número de empresas que tradicionalmente executavam suas operações no formato on-premise passarão para um modelo híbrido de Nuvem/on-premise. As organizações utilizarão a Nuvem não apenas para armazenamento de dados, mas para o processamento deles.

 

Além dessas primeiras previsões apontadas acima, separamos algumas outras que os especialistas em TI apontaram como diferenciais sobre o tema para 2017.

Confira:

 

1- Big Data para Governança ou Vantagem Competitiva

Em 2017, o conflito “governança vs. valor de dados” ganhará bastante atenção. As empresas têm uma riqueza de informações sobre seus clientes e parceiros, e os CEOs estão transformando suas empresas de líderes do setor para empresas impulsionadas por dados. As organizações agora estão enfrentando um conflito crescente entre a governança necessária para a conformidade e o uso de dados para fornecer valor comercial. Isso significa que é preciso implementar soluções de segurança para evitar vazamentos e violações de dados.

 

O setor financeiro e de Healthcare são os mais óbvios, com milhares de clientes que possuem exigências pesadas de governança. As principais organizações farão a gestão de seus dados entre casos de uso regulamentados e não-regulamentados. Os dados regulamentados exigem governança, qualidade de dados e linhagem para que um órgão regulador possa relatar e rastrear dados através de todas as transformações de origem.

 

New Call-to-action

 

2- Inteligência Artificial está de volta à moda

A IA é uma tecnologia com uma história considerável - a teoria da IA foi criada em 1960 por Ray Solomonoff - e está ganhando novas atenções nesses últimos anos com a introdução dos termos “redes neurais”, “machine learning” ou aprendizado de máquina e computação cognitiva.

 

E por que a Inteligência Artificial é uma tendência que voltou à moda? Os 3 V’s do Big Data - Velocidade, Variedade e Volume - são a razão. Plataformas que podem processar os três V's com modelos de processamento modernos e tradicionais que escalam horizontalmente proporcionando uma economia de custos 10 a 20 vezes maior em relação às plataformas tradicionais. O Google documentou como algoritmos simples executados frequentemente contra grandes conjuntos de dados produzem melhores resultados do que outras abordagens usando conjuntos menores. Também veremos o valor mais alto resultado da aplicação de IA em tarefas repetitivas de alto volume, nas quais a consistência é mais eficaz do que a obtenção de uma supervisão intuitiva humana à custa do erro humano.

 

3- Agilidade de dados separa os vencedores dos perdedores

O desenvolvimento de software tornou-se ágil com o devOps fornecendo entrega contínua. Em 2017, os modelos analíticos e de processamento evoluirão para proporcionar um nível de agilidade semelhante à medida que as organizações percebem a agilidade dos dados, a capacidade de entender os dados no contexto e tomar a ação do negócio, é a fonte de vantagem competitiva.

 

O surgimento de modelos de processamento ágeis permitirá que a mesma instância de dados suporte ferramentas analíticas de lote, análise interativa, mensagens globais, banco de dados e modelos baseados em arquivos. Modelos analíticos mais ágeis também são ativados quando uma única instância de dados pode suportar um conjunto mais amplo de ferramentas. O resultado final é uma plataforma ágil de desenvolvimento e uma aplicação que suporta a mais ampla gama de modelos analíticos e de processamento.



4- Soluções de Big-Data-como-Auto-Serviço vão catalisar a adoção da tecnologia

O hype do Big Data já passou e agora as organizações estão começando a perceber que seus dados oferecem insights valiosos para seus negócios. Isso significa que as empresas querem monetizar seus dados. Lentamente, eles estão começando a entender que, na verdade, todas as empresas são empresas de tecnologia. Como tal, eles devem tratar seus dados como se fosse o núcleo de seus negócios. No entanto, para muitas organizações, não é possível gastar milhões em sistemas avançados de análise de Big Data e contratar uma equipe específica de cientistas de dados ou analistas, simplesmente porque essas empresas são muito pequenas para isso. Felizmente, 2017 verá um aumento nas soluções Big-Data-as-a-Self-Service.

 

O autosserviço de análise de Big Data permitirá às organizações monetizar seus dados e usar os insights para melhorar seus negócios. Estas soluções não exigem meses de planejamento e preparação ou o desenvolvimento de uma infraestrutura de TI. Em vez disso, você pode simplesmente conectar suas fontes de dados e começar a trabalhar. Essas plataformas permitirão agilidade, curto prazo de implementação e oferecerão maior produtividade para PMEs. Sabendo que há aproximadamente 125 milhões de PMEs no mundo, é um mercado enorme para conquistar. As soluções de Big-Data-como-Auto-Serviço, permitindo que as organizações preparem dados independentemente do tipo de dados, estruturados, semi-estruturados ou não estruturados, poderiam ser o aplicativo essencial para a adoção de Big Data em 2017.

 

5- O streaming de ferramentas de análise voltarão

Analisar dados em movimento não é novidade - os programas de processamento de eventos já existem há quase 20 anos. Mas há uma série de fatores que estão transformando o streaming em tempo real de uma tecnologia de nicho para uma que é mais amplamente aceita. A tecnologia de código aberto, por exemplo, torna o streaming em tempo real mais acessível, assim como a disponibilidade de infraestrutura de commodities escalonável. Do lado da demanda, a IoT está alimentando o interesse em aplicações de streaming que podem detectar, analisar e responder em tempo real.

 

O que não vai acontecer imediatamente é a consolidação do mercado. Isso porque atualmente há uma crescente variedade de opções que está competindo para novas cargas de trabalho. Eventualmente, é possível que o mercado venha para três ou quatro plataformas de streaming.

 

A ideia é que em 2017 e 2018, as ferramentas de análise de dados em streaming se tornem uma capacidade empresarial padrão, e vamos ver a adoção das empresas e implementação generalizada desta tecnologia como o próximo grande passo para ajudar as organizações a obter uma vantagem competitiva a partir de seus dados. A taxa de adoção vai levar metade do tempo que levou Hadoop para subir como a plataforma de análise de Big Data padrão nos últimos seis anos. As análises em fluxo contínuo permitirão que a empresa em tempo real sirva como uma carga de trabalho transformacional sobre suas plataformas de dados que efetivamente moverá as empresas da análise de dados em modo de carga uma ou duas vezes por dia à ordem dos segundos para obter insights em tempo real e ações.

 

Em geral, as empresas que alavancarem o poder de análise em tempo real streaming se tornarão mais sensíveis, ágeis e vão obter uma melhor compreensão das necessidades dos seus clientes e hábitos para proporcionar uma experiência global mais otimizada. Em termos das tecnologias para conseguir isso, haverá uma aceleração no aumento e expansão do uso de motores de fluxo contínuo de código aberto, como Spark Streaming e Flink, em estreita integração com o lago de dados corporativo Hadoop, e que irá aumentar a demanda por ferramentas e abordagens mais fáceis para aproveitar o código aberto na empresa.

 

6- Aprendizagem profunda torna-se mais inteligente e nos aproxima da Inteligência Geral Artificial

A área de algoritmos tem o potencial de mudar a sociedade e 2016 viu um aumento significativo no desenvolvimento de algoritmos. Um algoritmo ganhou o jogo de Go, pode traduzir idiomas que não conhece e até mesmo detectar um criminoso simplesmente olhando para imagens de rostos. A inteligência artificial não vai parar por aí e nos próximos anos nos moveremos cada vez mais para uma forma de inteligência geral artificial. Existem três tipos de Inteligência Artificial:

 

- Artificial Narrow Intelligence (ANI) ou Inteligência Artificial Estreita que é especializada em uma área.

- Artificial General Intelligence (AGI) ou Inteligência Artificial Geral que é uma máquina que pode executar qualquer tarefa intelectual que um ser humano pode.

- Artificial Superintelligence (ASI) ou Super Inteligência Artificial que é uma mente muito mais inteligente do que os melhores cérebros humanos em praticamente todos os campos, incluindo a criatividade científica, sabedoria geral e habilidades sociais.

 

Com essa explicação sobre inteligência artificial é fácil enxergar que o  modelo geral está se tornando possível por causa do aprendizado profundo. Esse tipo de aprendizado é um subcampo da aprendizagem mecânica e é inspirado pelas redes neurais em nosso cérebro. O objetivo é criar redes neurais artificiais que possam encontrar padrões em grandes quantidades de dados. Ele está se tornando amplamente disponível agora, devido ao aumento do poder de computação e a análise de Big Data que está disponível para os cientistas de todo o mundo. Portanto, em 2017, veremos muitos novos aplicativos de deep learning que podem afetar significativamente nossas vidas.

 

Algoritmos de aprendizagem profunda não são treinados por seres humanos. Em vez disso, eles são expostos a conjuntos de dados maciços, milhões de vídeos / imagens / artigos, etc, e os algoritmos devem descobrir por si próprios como reconhecer diferentes objetos, sentenças, imagens, etc. Como resultado, essa inteligência pode criar soluções que nenhum homem poderia ter pensado. Um exemplo é um conjunto de algoritmos que acabou de desenvolver um algoritmo de criptografia que os humanos não poderiam decifrar usando padrões que os humanos jamais usariam.

 

7- IA Conversacional: Aplicações Inteligentes revolucionam interações

Os dispositivos conectados vão se tornar verdadeiramente inteligentes em 2017. Os robôs, veículos autônomos, drones e todos outros objetos da Internet das Coisas vão ficar cada vez mais inteligentes. Esses dispositivos conseguirão compreender muito melhor o usuário e adaptar o produto ou o serviço às necessidades do usuário. Atualizações de software serão feitas automaticamente, reduzindo a necessidade de comprar constantemente um novo produto.

 

Quando esses dispositivos inteligentes estão conectados a aplicativos inteligentes como Siri, Alexa, Viv, Cortana ou Google Home, as possibilidades tornam-se infinitas. A IA conversacional possibilitará conversas de alto nível com essas aplicações inteligentes. No momento, essas aplicações são usadas principalmente para controlar seu telefone, tocar música ou pedir uma pizza, mas em 2017 esse cenário mudará drasticamente.

 

Proprietários da Alexa já podem controlar seu carro de dentro de sua casa e ligar o motor, mas em breve você será capaz de controlar quase qualquer dispositivo usando sua voz. Especialmente com o desenvolvimento de Viv - cunhado como a próxima geração da Siri - os objetos conectados poderão fazer qualquer coisa que você pedir. Como tal, esses bots, como disse o CEO da Microsoft Satya Nadella, serão os próximos aplicativos. 2017 verá a convergência dessas aplicações inteligentes com muitos dispositivos IoT e com a Amazon anunciando um novo acelerador de inicialização focado em IA de conversação, isso vai modificar como sua organização terá de lidar com os clientes.

 

8- A demanda dos cientistas de dados diminuirá

A demanda por cientistas de dados está diminuindo, segundo a Ovum em seu relatório sobre grandes tendências de dados. A empresa de pesquisa cita dados de Indeed.com que mostra uma demanda plana para cientistas de dados nos últimos quatro anos. Ao mesmo tempo, faculdades e universidades estão criando cursos para credenciar mais profissionais na ciência dos dados.

 

Mas quem está recrutando esses profissionais? Com toda a probabilidade, excluindo os negócios digitais online, relativamente poucas empresas fora do Global 2000 estão contratando, e poucos teriam qualquer ideia de como usar os cientistas de dados. Para as organizações em geral que dependem de análise empacotada, a necessidade não é para os profissionais em si, mas aplicações ou ferramentas que aplicam a ciência dos dados.

 

9- As empresas vão lutar para monetizar dados

As empresas terão muitas opções para produzir dados, mas não será fácil de fazer e muitas delas perderão oportunidades, adverte a empresa de pesquisa IDC. 

 

“Apesar dos desejos dos líderes empresariais, as empresas vão lutar para ter sucesso na criação de produtos significativos e fluxos de receita. Aqueles que tiverem sucesso serão apoiados por sólidas estratégias de TI e serviços orientados a dados que abrangem: aquisição de dados; Transporte, transformação e armazenamento; Ferramentas de análise e dashboards; Dados como um produto/serviço; e segurança e controle de acesso", segundo o relatório IDC FutureScape: Worldwide CIO Agenda 2017 Predictions.

 

Entre as orientações oferecidas pela IDC está a sugestão de que os líderes de TI criem uma equipe de inovação composta por pessoal de TI e de negócios que analise as aplicações e sistemas existentes e futuros para uma possível monetização dos dados resultantes.

 

10- Os reservatórios de dados serão finalmente úteis

Muitas empresas que mergulharam no reservatório de dados nos primeiros dias gastaram uma quantidade significativa de dinheiro não só para comprar armazenamento e processamento de baixo custo, mas uma infinidade de serviços, a fim de agregar e disponibilizar pools significativos de Big Data para serem correlacionados e analisados em busca de melhores insights. Os desafios foram encontrar pessoas com as habilidades para fazer sentido a partir dessas informações permitindo que os reservatórios de dados forneçam entrada e recebam atualizações em tempo real de aplicativos operacionais e unir as lacunas entre o gerenciamento de dados mestre e as aplicações operacionais, armazéns de dados analíticos e reservatórios de dados.

 

Com os projetos de Big Data existentes reconhecendo a necessidade de uma base de dados confiável e novos projetos sendo combinados em uma estratégia holística de gerenciamento de dados, os reservatórios de dados podem finalmente cumprir sua promessa em 2017.

 

Fontes:

http://www.computerworld.com/article/3151172/data-center/8-big-data-predictions-for-2017.html

http://www.kdnuggets.com/2016/12/rijmenam-top-7-big-data-trends-2017.html

http://www.datamation.com/applications/slideshows/10-big-data-predictions-for-2017-and-beyond.html

http://betanews.com/2016/12/23/big-data-predictions-2017/

http://insidebigdata.com/2016/12/21/big-data-industry-predictions-2017/

http://www.cbronline.com/news/big-data/2017-predictions-big-data-coming-of-age/

 

Categorias: Big Data, Semana das Previsões