Entropie: Wie Information rauscht – und was sie sagt
1. Was ist Entropie im Kontext von Information? Entropie in der Informationstheorie beschreibt die Unordnung oder Unsicherheit eines Nachrichtensystems. Je höher die Entropie, desto mehr „Rauschen“ ist in den Informationen enthalten – und desto schwieriger wird es, verlässliche Botschaften zu verarbeiten. Ursprünglich aus der Thermodynamik stammend, wurde der Begriff durch Claude Shannon neu definiert. Shannon…
