Quelle est la fonction entropie et comment l'utiliser?

Considérons un disque dur. Le système de fichiers est une liste chaînée avec un caractère aléatoire. Défragmentation recrée ou améliore «l'ordre». Quelle est l'équivalence de dQ / T?
 
Je suis d'accord que l'entropie révèle l'étendue de hasard et l'incertitude du système. Néanmoins, si vous faites attention à la définition de cette notion dans Matlab, concernant les signaux, vous allez voir des choses étranges: entropie de Shannon: E = somme (si ^ 2 * log2 (SI ^ 2)) - définition de Matlab. SI - des échantillons des signaux en temps discret 1) selon l'expression ci-dessus, entriopy peut être négatif (inférieur à zéro) alors que ce faits contredit le sens intuitif de l'entropie et la définition de celle-ci dans l'information théorie qui soutiennent que entropie> = 0 !!!! 2) Imaginez un signal constant, avec les valeurs très grandes et égales pour tout échantillon de temps. Il aura l'entropie énorme, mais il est facilement prédictive (parce que c'est une constante) devrait donc avoir l'entropie de petite taille. Cependant, le bruit d'oscillation rapide avec une moyenne nulle et écart-type unité doit avoir l'entropie plus grande que le signal constant. Mais, selon la formule c'est vice-versa !!!! Comment pouvez-vous expliquer cela faits curieux? En ce qui concerne. Dmitrij
 

Welcome to EDABoard.com

Sponsor

Back
Top