Entropie de Shannon

Entropie de Shannon

Frederic P. Miller, Agnes F. Vandome, John McBrewster

     

бумажная книга



Издательство: Книга по требованию
Дата выхода: июль 2011
ISBN: 978-6-1328-8103-8
Объём: 76 страниц
Масса: 135 г
Размеры(В x Ш x Т), см: 23 x 16 x 1

Please note that the content of this book primarily consists of articles available from Wikipedia or other free sources online. L'entropie de Shannon, due a Claude Shannon, est une fonction mathematique qui, intuitivement, correspond a la quantite d'information contenue ou delivree par une source d'information. Cette source peut etre un texte ecrit dans une langue donnee, un signal electrique ou encore un fichier informatique quelconque (collection d'octets). Du point de vue d'un recepteur, plus la source emet d'informations differentes, plus l'entropie (ou incertitude sur ce que la source emet) est grande, et vice versa. Plus le recepteur recoit d'information sur le message transmis, plus l'entropie (incertitude) vis-a-vis de ce message decroit, en lueur de ce gain d'information. La definition de l'entropie d'une source selon Shannon est telle que plus la source est redondante, moins elle contient d'information. En l'absence de contraintes particulieres, l'entropie est maximale pour une source dont tous les symboles sont equiprobables. Dans le cas particulier d'un systeme de telecommunication, l'entropie de la source d'information (le transmetteur) indique l'incertitude du recepteur par rapport a ce que la source va transmettre.

Данное издание не является оригинальным. Книга печатается по технологии принт-он-деманд после получения заказа.