Muitos de nós na NetApp ouvimos afirmações de que o mundo está a mudar de forma fundamental e rápida. A transformação digital é – ou deveria ser – uma peça central em qualquer estratégia tecnológica empresarial. E, directamente no centro de tudo isso, encontram-se os dados. À medida que os dados se convertem em elementos cada vez mais distribuídos, dinâmicos e diversos, tudo – desde as infra-estruturas tecnológicas às arquitecturas das aplicações ou às estratégias de aprovisionamento – terão de mudar em resposta às novas realidades no mundo da cloud híbrida. Neste contexto, elaborámos as nossas cinco principais previsões para os CTO em 2018. Estamos ansiosos por ver como elas se desenvolvem ao longo do ano que vem.
1. Os dados vão converter-se em elementos conscientes de si mesmos
Na actualidade, contamos com processos que actuam sobre os dados e determinam como se movem, gerem e protegem. Mas, o que aconteceria se, pelo contrário, os dados se definissem sozinhos?
À medida que os dados se convertem em elementos conscientes de si mesmos e, inclusivamente, se tornam mais diversos do que já são na actualidade, os meta-dados permitirão que os dados se transportem, categorizem, analisem e protejam a si mesmos de forma proactiva. O fluxo entre dados, aplicações e elementos de armazenamento irá mapear-se em tempo real e os dados proporcionarão a informação exacta de que os utilizadores necessitam no momento preciso em que dela necessitem. Isto também inclui a possibilidade de auto-governo dos dados. Os dados por si mesmos determinarão quem tem direito a aceder-lhes, além do direito de os partilhar e usar, algo que poderia ter enormes consequências em matéria de protecção externa, privacidade, governance e soberania dos dados.
Por exemplo, se ocorrer um acidente de viação pode haver vários grupos diferentes de pessoas que pretendem ou exigem ter acesso aos dados do veículo. Um juiz ou a companhia de seguros podem precisar deles para determinar a responsabilidade do acidente, enquanto o fabricante do automóvel pode precisar deles para optimizar o rendimento dos travões ou de outros sistemas mecânicos. Esta auto-consciência dos dados permite etiquetá-los para controlar quem vê que parte deles e quando o pode fazer, sem perdas de tempo ou potenciais erros adicionais devido a intervenções de pessoas para subdividir, aprovar e distribuir os dados pertinentes a cada parte interessada.
2. As máquinas virtuais vão converter-se em máquinas de “carpool”
A gestão de dados cada vez mais distribuídos será mais rápida, barata e cómoda usando para tal máquinas virtuais aprovisionadas em infra-estruturas de escala web, em vez de máquinas físicas reais.
Podemos compará-la à compra de um automóvel ou ao uso de um serviço de viagens partilhadas (ou carpool), do tipo Uber ou Lyft. Para aqueles que efectuam transportes de cargas diariamente, poderá fazer sentido adquirir uma camioneta. Já outros podem necessitar de um certo tipo de veículo durante um período de tempo determinado, pelo que o aluguer é a melhor opção. Por fim, há ainda os indivíduos que apenas necessitam de um veículo para ir de um lugar para outro uma única vez; neste caso, o tipo de veículo não importa, só a velocidade e a comodidade, pelo que um serviço de carpool é a melhor opção para este último tipo de utilizadores.
Isto mesmo pode aplicar-se a um contexto de instâncias de máquinas físicas face a virtuais. O hardware personalizado pode ser caro, mas, para volumes de trabalho intensivos e constantes, poderá fazer mais sentido investir numa infra-estrutura física. Uma instância de máquina virtual na cloud que admita volumes de trabalho variáveis poderá ser comparável a um aluguer: os utilizadores podem aceder à máquina virtual sem necessidade de serem proprietários da mesma ou sem necessidade de saber qualquer detalhe sobre ela. E, no fim do período de “aluguer”, desaparece. As máquinas virtuais aprovisionadas em infra-estruturas de escala web (ou seja, a tecnologia sem servidores) são como os serviços de carpool da tecnologia, em que o utilizador simplesmente especifica as tarefas que precisa de realizar, deixando o resto dos detalhes nas mãos do provedor da cloud, o que facilita e torna mais cómodo o seu uso em comparação com os métodos tradicionais para certos tipos de volume de trabalho.
3. A quantidade de dados crescerá mais depressa do que a capacidade para os transportar… e isso não é problema
Não é segredo afirmar que os dados se estão a converter em elementos incrivelmente dinâmicos e que se estão a gerar a uma velocidade sem precedentes, e isto vai fazer com que, em breve, se supere em grande medida a capacidade para os transportar. Todavia, em vez de trasladar os dados, serão as aplicações e os recursos necessários para os processar que se vão mover para os dados e isto terá algumas consequências para as novas arquitecturas, como as de nível local (edge), a essencial (core) e a cloud. No futuro, a quantidade de dados utilizados na arquitectura essencial será sempre inferior à gerada a nível local, mas isto não ocorrerá de forma acidental e deve ser facilitado de forma bastante deliberada para garantir que os dados correctos são retidos para serem aproveitados em tomadas de decisão posteriores.
Por exemplo, os fabricantes de veículos autónomos estão a incorporar sensores que vão gerar uma quantidade tão enorme de dados que irão fazer com que nenhuma rede existente seja suficientemente rápida como para traslada-los agilmente entre os veículos e os centros de dados. Historicamente, os dispositivos a nível local não criaram uma grande quantidade de dados, mas, agora, os sensores incorporados em tudo – desde automóveis a termostatos ou wearables – vão fazer com que os dados a nível local cresçam de uma forma tão rápida que cheguem a superar a capacidade das conexões de rede para os levar à infra-estrutura essencial. Os veículos autónomos e outros dispositivos locais requerem análises em tempo real a nível local para lhes permitir tomar decisões críticas e instantâneas. Como resultado, levaremos as aplicações aos dados.
4. A evolução do “Big Data” ao “Huge Data” exigirá novas arquitecturas impulsionadas por unidades de estado sólido
À medida que se incrementa a procura para analisar com maior rapidez quantidades impressionantes de dados, necessitamos de trasladar os dados para mais perto da computação. A memória persistente é o que vai permitir uma computação de latência ultra baixa sem perda de dados; e estas exigências de latência obrigarão, em última instância, a que as arquitecturas de software mudem e criem novas oportunidades de negócio impulsionadas pelos dados. A tecnologia Flash foi um tema destacado no sector, mas, ainda assim, o software que funciona com esta tecnologia não mudou verdadeiramente, apenas se tornou mais rápido.
Isto está a ser impulsionado pela evolução do papel dos departamentos tecnológicos dentro da organização. No passado, a sua principal função foi a automatização e a optimização de processos como os pedidos, a facturação, as contas por cobrar, etc. Na actualidade, o departamento tecnológico é uma peça básica para melhorar as relações com os clientes, proporcionando serviços sempre activos, aplicações móveis e melhores experiências na Internet. O passo seguinte será a monetização dos dados compilados através de vários sensores e dispositivos, para gerar novas oportunidades de negócio; este é um passo que vai precisar de novas arquitecturas e aplicações compatíveis com tecnologias como, por exemplo, a memoria persistente.
5. Vão emergir mecanismos descentralizados e imutáveis para a gestão dos dados
Surgirão mecanismos para gerir os dados de forma imutável, verdadeiramente distribuída e com toda a confiança (ou seja, sem autoridade central) que vão ter um impacto profundo nos centros de dados. O blockchain é um bom exemplo disto.
Os mecanismos descentralizados como os do blockchain representam um desafio ao conceito tradicional de protecção e gestão de dados. Como não há um ponto central de controlo, como um servidor centralizado, é impossível mudar ou eliminar a informação num blockchain e, além disso, todas as transacções são irreversíveis.
Pense nisto como se fosse um sistema biológico. Tem uma série de pequenos organismos que sabem o que se supõe que têm de fazer, sem ter que comunicar com algo mais ou que lhes digam o que devem fazer. Na esteira disto, proporcionamos alguns nutrientes (neste caso, os dados). Os nutrientes sabem o que fazer e tudo começa a funcionar de maneira cooperativa, sem nenhum controlo central. Como um recife de coral.
Os centros de dados actuais e as aplicações funcionam como quintas geridas de forma comercial, com uma unidade central de controlo que gere o ambiente que tem em seu redor. Os mecanismos imutáveis descentralizados para a gestão de dados oferecerão microserviços que os dados podem usar para realizar as funções necessárias. Os micro-serviços e os dados trabalharão de forma cooperativa, sem um controlo geral gerido de forma centralizada.
Depois do lançamento da app, o site surge agora com novas funcionalidades e mais transparência…
O Bit2Me STX é uma das primeiras infraestruturas do mercado financeiro blockchain destinada a operar…
Bolsa Jorge de Mello é dirigida a investigadores em Portugal e visa impulsionar a investigação…
O ranking reconhece e destaca o papel crescente das universidades na promoção do empreendedorismo em…
O objetivo desta medida é o crescimento económico e o acesso a pagamentos online seguros…
Este novo serviço é especialmente indicado para fornecedores de conteúdos e sites transacionais que procuram…