Big Data
O Big Data abrange todo e qualquer dado disponível, não preocupando-se com a qualidade, mais sim trabalhar de forma ágil e com uma análise profunda. E para fazer estas informações úteis de forma eficiente, dispõe de três características principais: volume, velocidade e variedade.
Volume: Torna-se um aspecto do Big Data pelo fato da grande quantidade de troca de dados entre diversos sistemas e dispositivos (smartphones, geladeiras com acesso à internet, Smart tvs, etc.), e arquivos digitalizados.
Velocidade: Torna-se um aspecto do Big Data pelo fato de associar todas as novas fontes de dados e relacionar com a necessidade de consumo dos mesmos de forma mais ágil. Dentre essas fontes de dados pode-se destacar sensores, RFIDs e GPSs, que por sua vez, geram vários dados em frações de segundo, causando um grande fluxo de dados.
Variedade: Torna-se um aspecto do Big Data pelo fato de organizar e dividi-los em: estruturados (bancos de dados), semiestruturados (logs de sistemas), e não estruturados (conteúdo que passa a ser digital, textos imagens, etc.).
Existem ferramentas para trabalhar com Big Data, entre elas pode-se destacar: Hadoop, e HPCC.
Hadoop é voltado para aplicações que analisam dados massivos, que geralmente não faze parte do conjunto padrão de dados das empresas, sendo Open Source (código livre). O Hadoop foi criado pelo Yahoo! em 2005 e, é considerado uma das maiores invenções da área, hoje faz parte do grupo Apache e vem sendo implementado por várias empresas.
Pode ser dividido em dois pontos: Hadoop MapReduce (HMR, pode ser classificado por processamento paralelo), e Hadoop Distributed File System (HDFS pode ser classificado por sistema de arquivo distribuído e otimizado, geralmente para dados não estruturados).
HPCC (High Performance Computing Cluster), teve sua ideologia iniciada peal IBM por volta da década de 1960, visando interligar vários computadores para obter um bom processamento paralelo. E ao contrário do