Analise de algoritmos
Dividimos os resultados em duas vertentes:
Quanto ao tempo e quanto a precisão. 1. Quanto ao tempo Os testes para medir a variância do número de objetos foram feitos aumentando-se de dois em dois. Primeiramente analisando os métodos para quatro objetos. Percebemos que o algoritmo guloso ordenado pela densidade sempre será mais custoso que os outros dois, guloso valor e guloso peso, pois ele cria um novo vetor para guardar os valores da divisão do valor pelo peso. Assim como o algoritmo de aproximação linear sempre levará mais tempo que a programação dinâmica, já que ele faz uso desta.(BARBOSA, 2012; PEREIRA et al, 2012) Ao analisar qual dos algoritmos foi mais eficiente temos: Guloso peso e valor terminaram ao mesmo tempo seguidos pelo dividir para conquistar, guloso densidade, programação dinâmica, aproximação linear e finalmente o algoritmo de força bruta. Ao analisar o teste com 6 objetos percebemos que as observações acima se mantiveram. Para 8 objetos percebemos que o padrão geral se mantém, porém o guloso densidade teve uma performance pior que a programação dinâmica e aproximação. Com o aumento do número de objetos percebemos que o padrão se mantém, os métodos de guloso valor e peso sempre são mais rápidos que os outros, porém como sabemos não apresentam sempre a solução ótima. Então mesmo tendo levado um pouco mais de tempo a programação dinâmica sempre obtém o valor ótimo exato.
Com base na literatura temos que o algoritmo guloso é sempre mais rápido que os outros métodos aqui estudados, analisando os resultados percebemos que exceto pelo guloso densidade obtivemos os resultados esperados, talvez ele não tenha sido tão rápido devido a criação de um vetor para guardar as densidades.
Como o esperado o método de força bruta conforme fomos aumentando o numero de objetos, o número de combinações necessária aumentou exponencialmente, assim o custo em tempo dobrou a cada objeto analisado.
2. Quanto a