BaronVsCorsar ha scritto:io ammetto che non sono curioso, perchè ho studiato l'argomento abbastanza fondo ai bei tempi dell'università.
La teoria dell'informazione mostra bene quanti bit siano superflui per trasmettere l'informazione e quanti indispensabili. Sotto quella soglia non ci si va perdendo informazione (o senza avere altre conoscenze sui dati, o sulla struttura del file o ecc. ec..ecc..)
La possibilità di trovare un algoritmo migliore degli esistenti (ma sempre inferiore o uguale all'ottimo teorico!) è ovviamente possibile.
Ma raggiunto l'ottimo teorico (per definizione non ho più ridondanza dell'informazione, quindi non posso più comprimere senza perdere i dati) non ho ulteriore compressione!
Quindi un metodo di compressione NON PUO' essere ripetuto un numero arbitrario di volte sperando che porti a miglioramenti. Anzi, il metodo ottimo (che toglie cioè TUTTA la ridondanza) non può che essere applicato una sola volta.
PEr migliorare devo perdere informazione o avere altre fonti di informazioni ausiliaria (conoscenza del sistema: esempio: "acqua" poichè in italiano "cq" viene seguita da U per convenzione non lo scrivo: "acqa").
In altre parole jumonp credo proprio che tu abbia travisato i risultati ottenuti (cioè non siano riproducibili con una sequenza di byte arbitraria).
Mi stai un pò deludendo Baron, e mi stai dimostrando un pizzico di presunzione sulle tue conoscenze matematiche universitarie....tutto ciò che mi hai detto nei post precedenti è tutto vero, per carità, da una data somma, non si possono ricavare gli addendi ect ect....
bisogna usare una "matematica creativa" per aggirare l'ostacolo.....ed è una cosa che credo non venga insegnata nelle scuole.....la matematica che voi usate è molto rigida, e di conseguenza è rigido anche il vostro modo di pensare.... se voi provate ad interpretare i numeri in altro modo e non per quello che rappresentano, ci arriverete tranquillamente anche voi....
Non so cosa intendi con il termine "arbitrario" sinceramente, nel post precedente ho chiarito che non si può scendere al di sotto del valore di divisibilità, quindi la "compressione" è pregiudicata a seconda delle dimensioni del file originale.... paradossalmente, più il file originale è grande e più compressione ho in percentuale....
porterò avanti l'exe e vi mostrerò che funziona davvero, potrei farcela in un mese...