0

Para que serve o Apache Spark

Diego Padias
Diego Padias

Olá , me chamo Diego Matos estudante de Análise e Desenvolvimento de Sistemas, com foco na área de Análise de Dados, Big data, BI, machine learning entre outras áreas voltadas para este seguimento.

Já havia escutado muitas vezes sobre o Apache Spark, e sempre me perguntava o que é? E para que serve? E a resposta era sempre a mesma robótica e automática: Apache Spark é um framework de código fonte aberto para computação distribuída.Spark provê uma interface para programação de clusters com paralelismo e tolerância a falhas.

Hei Man! Sou novo na área, isso não me diz muito.

Então decidi ir atrás e entender de forma simples e numa linguagem prática o que é o Apache Spark, enfim. Após ler alguns artigos, assistir alguns vídeos, acabei por entender que o Apache Spark é usado basicamente para processar grandes volumes de dados, de forma rápida, e isso se dá ao fato de ele fazer isso de forma distribuída através de um cluster de computadores e com alta velocidade, ou seja, ele utiliza um espaço na memória de vários computadores ou de um só, e isso faz com que ele consiga processar de forma rápida os dados.

Dessa forma consegui compreender de forma básica a função dessa ferramenta grandiosa, que auxilia muito na hora de fazermos análise de grande volume de dados.

Obrigado por ler até aqui, se tiver algo a acrescentar ficarei agradecido!

0
0

Comentários (0)

Cursando Analise e Desenvolvimento de Sistemas-Unicesumar

Brasil