Recherches

Théorie de l'information


théorie de l'information elle intéresse à la fois l'informatique et le monde des communications, elle intéresse les curieux et aussi ceux qui remettent en question la transmission de l'information dans toutes les perspectives possibles. D'où la théorie de l'information nous intéresse tous, surtout aujourd'hui celui des passages d'informations, bienvenus ou non, il y a beaucoup de discussions et avec un risque sérieux de "fake news" en partie par incompétence, en partie par désir de faire croire aux gens de fausses choses en mettant des peurs non motivées sur les gens.

On revient à la théorie de l'information, en faisant un pas en arrière pour ensuite faire une dizaine d'avance et ne pas tomber dans les écueils. Cette "théorie" est en vérité une discipline qui se concentre sur l'analyse et le traitement mathématique des phénomènes relatifs à la mesure et à la transmission d'informations sur un canal de communication physique.

Théorie de l'information: Shannon

En abordant cette discipline, nous rencontrons immédiatement la figure de Claude Shannon parce que sa contribution a été décisive dans le développement de la théorie de l'information. Son article qui a ensuite ouvert la voie à l'étude de tout, un article qui a été publié dans le Journal technique du système Bell en juillet et octobre 1948 avec le titre "Une théorie mathématique de la communication". Un autre nom important pour l'histoire de cette théorie est celui de Alan Turing qui en 1940 a utilisé une idée similaire à celle décrite par Shannon pour décrypter les codes cryptographiques, aucun autre que ceux utilisés par les Allemands pendant la Seconde Guerre mondiale.

Il y a beaucoup de mathématiques derrière le théorie de l'information, mathématiques statistiques et probabilistes, développées non spécifiquement pour cette discipline mais déjà explorées pour étudier la thermodynamique par Ludwig Boltzmann et Willard Gibbs. Il existe de nombreuses similitudes entre les deux domaines, un autre exemple est le concept d'entropie qui se pose en théorie de l'information ainsi qu'en thermodynamique. Déjà dans les années 1960, Rolf Landauer l'avait mentionné dans son opéra Entropie en thermodynamique et théorie de l'information.

Le mérite de Shannon a été d'introduire des modèles quantitatifs et qualitatifs dans l'analyse de la communication en adoptant une approche statistique. Dans ses propres mots "Le problème fondamental de la communication est celui de reproduire en un certain point, exactement ou approximativement, un message sélectionné en un autre point ». C'est Shannon qui s'est ouverte à l'introduction de concepts tels que celui déjà mentionné par entropie, à côté de celle de la redondance d'une source. Ceux qui étudient sérieusement la théorie de l'information se trouveront confrontés au théorème de Shannon-Hartley pour la capacité d'un canal gaussien.

Théorie de l'information intégrée

Théorie de l'information intégrée, souvent appelée l'acronyme IIT parmi les experts, il a été développé dans le but exprès de expliquer ce qu'est la conscience. Une mission ambitieuse, bien sûr, car il s'agit de caractériser les exigences des systèmes physiques qui rendent possible la conscience et de mesurer leur quantité et leur qualité.

Normalement, nous avons commencé à étudier les caractéristiques du cerveau, puis nous partons de la physique pour ensuite passer à la phénoménologie, la théorie de l'information intégrée nous conduit plutôt à procéder à l'envers, de la phénoménologie à la physique. Il s'agit donc, plus simplement, d'identifier d'abord les propriétés essentielles de la conscience elle-même et ensuite d'aller en tirer les caractéristiques et le fonctionnement du cerveau. Avant de passer à un autre côté de la théorie, nous disons, pour les plus curieux, ici les propriétés essentielles de la conscience. Il y en a cinq: l'expérience existe intrinsèquement, elle est structurée, elle est informative, intégrée et définie.

Théorie et codes de l'information

L'une des applications de la théorie de l'information qui plus "Fait des nouvelles" est celui de la cryptographie et de la crypto-analyse. En ce sens, nous rappelons les propos de Shannon qui s'était focalisé sur le concept de distance de l'unicité et sur la redondance du texte. Vous devez essayer de donnez la quantité minimale de texte chiffré pour assurer un déchiffrement unique. Même aujourd'hui, c'est un suggestion précieuse pour ceux qui ne veulent pas être décryptés, et pas seulement!

Quand on parle de messages cryptés, on pense services secrets et il ne se trompe pas parce qu'en fait, ils utilisent eux aussi la théorie de l'information pour garder secrètes des informations confidentielles et pour découvrir le maximum d'informations possibles sur un adversaire sans être exposés.

Il y a des considérations générales qui peuvent également intéresser les espions non-CIA. Par exemple, le fait est que il n'est pas possible d'arrêter la fuite d'informations confidentielles, mais ralentissez simplement. Cela ressemble un peu à l'apocalyptique mais c'est en fait comme ça et de plus, plus les gens accèdent à l'information, plus le temps nécessaire à la révision de ces informations augmente, plus la redondance acquise par ces informations est grande. En plus de l'espionnage, on retrouve également des concepts tirés de la théorie de l'information dans les jeux de hasard, la bio-informatique et la musique.

Théorie de l'information: livres

L'information. Une histoire. Une théorie. Un déluge«C'est l'un des livres les plus intéressants à consulter, vous pouvez également le trouver en ligne, sur Amazon, l'auteur est James Gleick traduit par V. B. Sala. Pour préparer les plus petits à la théorie de l'information, un cours de codage amusant

Si vous avez aimé cet article, continuez à me suivre également sur Twitter, Facebook, Google+, Instagram


Vidéo: Théorie de linformation: Correction de lexamen (Août 2021).