Data compression = forminske mængden af bytes fra den originale data kilde, ved enten at pakke dataen ned, eller fjerne udnødvendig data, så jo det er compression :) exif data fylder ikke meget, men du har meget meta data i billeder udover exif du kan fjerne. Jo større et billed er, jo mere meta data indenholder et billed også, som regl 15-25% af et billed, hvis det er originalt, vil være unødig data som du kan fjerne. Eksempel, er alle billeder på ggg.com, agame.com, a10.com, gamesgames.com, zibbo.com etc, som alle er igang med at blive optimeret lossless - hvor jeg som tidligere nævnt har en gennemsnits optimeringsrate på 24% af 78mil billeder - kan være den falder eller stiger lidt da vi stadig har små 165mil billeder tilbage at optimere :) Generelt, metadata, (exif data, ICC, og en del andre oplysninger om hvordan billedet er bygget op), gamma switching, og ændring af hvordan billedet rendere, giver alt sammen en reduction af størrelsen, uden at pårøre kvaliteten. PNG, kan du simpelt gøre det samme, men også lave en recompression, og recalculation af billedets struktur, og pakke det sammen igen - derfor er det muligt lossless (selv med store billeder) at spare oftest op til 1/4 af billedets størrelse fra originalen. Hvis du læser lidt om hvordan de forskellige billedformater virker, og hvordan dataen er sammensat, så kan du også se hvor du kan spare det meste af din data, og ved at lave services der automatisere disse optimeringer. Kræver dog du skriver din egen compression algorithms for at få mest muligt data ud af filer :) Findes sikkert nogle open source programmer/services der giver nogle af disse optimeringer, men langt fra alle gør det godt :) Desværre |
Lyder spændende, men nu er jeg ikke ude i at skrive en algoritme, men finde måder at spare båndbrede hvis det er muligt ;)
Kunne du lave et eksempel med det 129 kb billed jeg har lavet tidligere??
Teddy