Como Spark usa a memória para obter performance superior ao MapReduce

Muitas Aplicações de Big Data executam múltiplas operações paralelas sobre o mesmo conjunto de dados. No tradicional modelo MapReduce, estes algoritmos exigem o encadeamento múltiplas operações de map e reduce o que torna o processo lento e dispendioso. O Spark é um framework de processamento paralelo que que visa atender aplicações que se beneficiam do reuso de um conjunto de dados, mantendo a escalabilidade e tolerança a falhas encontradas no modelo MapReduce. »