Nem vált be? Semmi gond! Nálunk 30 napon belül visszaküldheti
Ajándékutalvánnyal nem nyúlhat mellé. A megajándékozott az ajándékutalványért bármit választhat kínálatunkból.
30 nap a termék visszaküldésére
A geraçăo de grandes volumes de dados, também conhecidos com Big Data, vem se tornando muito comum em ambientes acadęmicos e corporativos. Nesse contexto, é essencial que as aplicaçőes que processam Big Data explorem da melhor forma possível as infraestruturas distribuídas de alto desempenho, possivelmente presentes nesses ambientes, através da implantaçăo dessas aplicaçőes sobre sistemas de computaçăo intensiva de dados tais como o popular Hadoop. No que diz respeito ŕ configuraçăo desta plataforma, observa-se uma quantidade considerável de parâmetros que devem ser ajustados e os quais os usuários normalmente năo tęm noçăo de como fazę-los, resultando em um Hadoop mal configurado e com um desempenho aquém do seu real potencial. Este trabalho propőe um processo para auxiliar a configuraçăo eficiente do Hadoop através do uso de técnicas empíricas que utilizam subespaços de parâmetros dessa plataforma, e da aplicaçăo de análises estatísticas para verificar a relevância dos mesmos, extraindo os valores otimizados em funçăo do subespaço de parâmetros considerado.