Logo
Unionpedia
Komunikacja
pobierz z Google Play
Nowy! Pobierz Unionpedia na urządzeniu z systemem Android™!
Darmowy
Szybszy dostęp niż przeglądarce!
 

Entropia (teoria informacji)

Indeks Entropia (teoria informacji)

Entropia – średnia ilość informacji, przypadająca na pojedyncząwiadomość ze źródła informacji.

42 kontakty: Analiza składniowa, Atak statystyczny, Ban (informacja), CABAC, Claude E. Shannon, Dywergencja Kullbacka-Leiblera, Ekstremum funkcji, Entropia, Entropia (ujednoznacznienie), Entropia binarna, Entropia krzyżowa, Entropia metryczna, Entropia von Neumanna, Entropia warunkowa, H.264/MPEG-4 AVC, Hasło (kryptografia), Ilość informacji, Informacja, Informacja Fishera, Informacja wzajemna, Informatyka, Kodowanie arytmetyczne, Kodowanie Huffmana, Kodowanie Shannona, Kodowanie transformatowe, Komunikat, Logarytm, Manuskrypt Wojnicza, Mechanika statystyczna, Mnożniki Lagrange’a, Mocne hasło, Move To Front, Near Instantaneous Companded Audio Multiplex, Negentropia, Podstawowe twierdzenie Shannona, Progowanie obrazu, Redundancja, Roman Nalewajski, Teoria informacji, Wektor inicjujący, Wskaźnik Shannona-Wienera, Współczynnik niepewności.

Analiza składniowa

Przykład analizy składniowej (parsingu) wyrażeń matematycznych Analiza składniowa – proces analizy tekstu, w celu ustalenia jego struktury gramatycznej i zgodności z gramatykąjęzyka.

Nowy!!: Entropia (teoria informacji) i Analiza składniowa · Zobacz więcej »

Atak statystyczny

Ataki statystyczne – zespół ataków na szyfry, których wspólnącechąjest wykorzystanie informacji statystycznych na temat struktury tekstu jawnego.

Nowy!!: Entropia (teoria informacji) i Atak statystyczny · Zobacz więcej »

Ban (informacja)

Ban (czasem także hartley – oznaczenie Hart, określany też jako dit od) – logarytmiczna jednostka miary ilości informacji lub entropii.

Nowy!!: Entropia (teoria informacji) i Ban (informacja) · Zobacz więcej »

CABAC

CABAC – kodowanie entropijne użyte w kodeku obrazu AVC jako opcjonalne względem CAVLC (Context-Adaptive Variable Length Coding).

Nowy!!: Entropia (teoria informacji) i CABAC · Zobacz więcej »

Claude E. Shannon

Claude Elwood Shannon (ur. 30 kwietnia 1916 w Gaylord w Michigan, zm. 24 lutego 2001 w Medford w Massachusetts) – amerykański matematyk i inżynier, profesor Massachusetts Institute of Technology (MIT).

Nowy!!: Entropia (teoria informacji) i Claude E. Shannon · Zobacz więcej »

Dywergencja Kullbacka-Leiblera

Dywergencja Kullbacka-Leiblera (zwana też entropiąwzględnąlub relatywnąentropią) jest miarąstosowanąw statystyce i teorii informacji do określenia rozbieżności między dwoma rozkładami prawdopodobieństwa p i q. Czasem zwana jest też odległościąKullbacka-Leiblera, nie jest to jednak prawdziwa metryka, gdyż nie jest symetryczna (d_(p, q) \neq d_(q, p)) ani nie spełnia nierówności trójkąta.

Nowy!!: Entropia (teoria informacji) i Dywergencja Kullbacka-Leiblera · Zobacz więcej »

Ekstremum funkcji

Ekstrema lokalne funkcji f(x).

Nowy!!: Entropia (teoria informacji) i Ekstremum funkcji · Zobacz więcej »

Entropia

Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym.

Nowy!!: Entropia (teoria informacji) i Entropia · Zobacz więcej »

Entropia (ujednoznacznienie)

W termodynamice.

Nowy!!: Entropia (teoria informacji) i Entropia (ujednoznacznienie) · Zobacz więcej »

Entropia binarna

Entropia zmiennej losowej X przyjmującej wartość 0 lub 1. Entropia binarna – w teorii informacji jest zdefiniowana jako entropia zmiennej losowej X, która przyjmuje tylko dwie wartości: 0 lub 1.

Nowy!!: Entropia (teoria informacji) i Entropia binarna · Zobacz więcej »

Entropia krzyżowa

Entropia krzyżowa – wartość używana w teorii informacji.

Nowy!!: Entropia (teoria informacji) i Entropia krzyżowa · Zobacz więcej »

Entropia metryczna

Entropia metryczna – entropia (teoria informacji) znormalizowana przez długość wiadomości.

Nowy!!: Entropia (teoria informacji) i Entropia metryczna · Zobacz więcej »

Entropia von Neumanna

Entropia von Neumanna – wielkość charakteryzująca nieuporządkowanie układu, zdefiniowana dla macierzy gęstości \rho jako Dla układu kwantowego, który jest w stanie czystym, entropia von Neumanna wynosi 0.

Nowy!!: Entropia (teoria informacji) i Entropia von Neumanna · Zobacz więcej »

Entropia warunkowa

Entropia warunkowa – wartość używana w teorii informacji.

Nowy!!: Entropia (teoria informacji) i Entropia warunkowa · Zobacz więcej »

H.264/MPEG-4 AVC

Schemat blokowy warstwy kodowania wideo kodera H.264 z ocenąjakości percepcyjnej AVC – standard kodowania sekwencji wizyjnych przyjęty w roku 2003 jako 10.

Nowy!!: Entropia (teoria informacji) i H.264/MPEG-4 AVC · Zobacz więcej »

Hasło (kryptografia)

Hasło – ciąg znaków stosowany powszechnie jako tajny parametr w kryptografii oraz uwierzytelnianiu.

Nowy!!: Entropia (teoria informacji) i Hasło (kryptografia) · Zobacz więcej »

Ilość informacji

Ilość informacji – wielkość ujmująca (przedstawiająca) ilościowo właściwość zmniejszania (usuwania) nieokreśloności (niepewności), czyli informację, termin używany w matematycznej teorii informacji.

Nowy!!: Entropia (teoria informacji) i Ilość informacji · Zobacz więcej »

Informacja

Informacja (łac. informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektówKlemens Szaniawski, hasło „Informacja”, w: Filozofia a nauka, 1987, s. 244.

Nowy!!: Entropia (teoria informacji) i Informacja · Zobacz więcej »

Informacja Fishera

Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach \theta, jakąniesie obserwowalna związana z nimi zmienna losowa X. Może być rozumiana jako średnia dokładność oszacowania, jakądaje obserwacja danych – tj.

Nowy!!: Entropia (teoria informacji) i Informacja Fishera · Zobacz więcej »

Informacja wzajemna

Informacja wzajemna – pojęcie z zakresu teorii informacji, będące miarązależności pomiędzy dwiema zmiennymi losowymi.

Nowy!!: Entropia (teoria informacji) i Informacja wzajemna · Zobacz więcej »

Informatyka

Informatyka zajmuje się teoretycznymi podstawami informacji, algorytmami i architekturami układów jąprzetwarzających oraz praktycznymi technikami ich stosowania.

Nowy!!: Entropia (teoria informacji) i Informatyka · Zobacz więcej »

Kodowanie arytmetyczne

Kodowanie arytmetyczne – metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana jako jeden z systemów w bezstratnej kompresji danych.

Nowy!!: Entropia (teoria informacji) i Kodowanie arytmetyczne · Zobacz więcej »

Kodowanie Huffmana

Kodowanie Huffmana – jedna z najprostszych i łatwych w implementacji metod kompresji bezstratnej.

Nowy!!: Entropia (teoria informacji) i Kodowanie Huffmana · Zobacz więcej »

Kodowanie Shannona

Kodowanie Shannona – metoda kompresji bezstratnej, którąClaude E. Shannon przedstawił jako jeden z dowodów swojego podstawowego twierdzenia o kodowaniu.

Nowy!!: Entropia (teoria informacji) i Kodowanie Shannona · Zobacz więcej »

Kodowanie transformatowe

Kodowanie transformatowe (inne nazwy: kodowanie transformacyjne, kodowanie transformujące) – algorytm kompresji stratnej sygnałów cyfrowych (obrazu, dźwięku, video).

Nowy!!: Entropia (teoria informacji) i Kodowanie transformatowe · Zobacz więcej »

Komunikat

Komunikat, przekaz informacyjny – tekst (system) złożony z wyrażeń danego języka o strukturze zgodnej z regułami syntaktyki (gramatyki) tego językaSłownik encyklopedyczny informacji, języka i systemów informacyjno-wyszukiwawczych, oprac.

Nowy!!: Entropia (teoria informacji) i Komunikat · Zobacz więcej »

Logarytm

Dzieło ''Logarithmorum canonis descriptio'' Johna Napiera z 1620 roku, w którym podpisuje się on nazwiskiem „Neper”. Logarytm (łac. logarithmus – stosunek, z gr. λόγ- log-, od λόγος logos – zasada, rozum, słowo, i ἀριθμός árithmós – liczba) – dla danych liczb a, b>0,\;a \ne 1 liczba oznaczana \log_a b będąca rozwiązaniem równania a^x.

Nowy!!: Entropia (teoria informacji) i Logarytm · Zobacz więcej »

Manuskrypt Wojnicza

Jedna ze stron księgi Rękopis Wojnicza – pergaminowa księga oprawiona w skórę, składająca się pierwotnie ze 136 dwustronnie zapisanych welinowych kart (czyli 272 stron; do dziś przetrwało 120 kart) formatu 15 na 22,5 cm (6 × 9 cali), pokrytych rysunkami, wykresami i niezrozumiałym pismem.

Nowy!!: Entropia (teoria informacji) i Manuskrypt Wojnicza · Zobacz więcej »

Mechanika statystyczna

Mechanika statystyczna – gałąź fizyki, zajmująca się układami wielu oddziałujących ciał.

Nowy!!: Entropia (teoria informacji) i Mechanika statystyczna · Zobacz więcej »

Mnożniki Lagrange’a

Mnożnik Lagrange’a – metoda obliczania ekstremum warunkowego funkcji różniczkowalnej wykorzystywana w teorii optymalizacji.

Nowy!!: Entropia (teoria informacji) i Mnożniki Lagrange’a · Zobacz więcej »

Mocne hasło

Mocne hasło – hasło używane do potwierdzania tożsamości (uwierzytelniania), które cechuje się zmniejszonym prawdopodobieństwem „złamania” lub odgadnięcia, poprzez m.in.

Nowy!!: Entropia (teoria informacji) i Mocne hasło · Zobacz więcej »

Move To Front

Move To Front (MTF) – prosta transformacja strumienia danych, używana jako część niektórych procesów kompresji, której zastosowanie może spowodować zmniejszenie entropii.

Nowy!!: Entropia (teoria informacji) i Move To Front · Zobacz więcej »

Near Instantaneous Companded Audio Multiplex

System NICAM – system nadawania cyfrowego dźwięku stereofonicznego (10 bit ADPCM, 32 kHz) w telewizji analogowej, stosowany m.in.

Nowy!!: Entropia (teoria informacji) i Near Instantaneous Companded Audio Multiplex · Zobacz więcej »

Negentropia

Negentropia (negatywna entropia, ujemna entropia, ekstropia) – w teorii systemów i cybernetyce – miara stopnia organizacji.

Nowy!!: Entropia (teoria informacji) i Negentropia · Zobacz więcej »

Podstawowe twierdzenie Shannona

Podstawowe twierdzenie Shannona dla kanałów bezszumowych (ang. the fundamental theorem for a noiseless channel) – twierdzenie sformułowane przez Claude’a E. Shannona w 1948 roku, a dotyczy ograniczenia na minimalnąśredniądługość słów kodowych w kodowaniu utworzonym do zapisu symboli generowanych przez pewne dyskretne źródło danych o określonej entropii (średniej liczbie bitów na symbol).

Nowy!!: Entropia (teoria informacji) i Podstawowe twierdzenie Shannona · Zobacz więcej »

Progowanie obrazu

Przykład obrazu binarnego powstałego w wyniku progowania Progowanie (ang. thresholding) – metoda uzyskiwania obrazu binarnego na podstawie obrazu kolorowego lub w odcieniach szarości.

Nowy!!: Entropia (teoria informacji) i Progowanie obrazu · Zobacz więcej »

Redundancja

Redundancja („powódź, nadmiar, zbytek”) – nadmiarowość w stosunku do tego, co konieczne lub zwykłe.

Nowy!!: Entropia (teoria informacji) i Redundancja · Zobacz więcej »

Roman Nalewajski

Roman Franciszek Nalewajski (ur. 12 września 1947 w Gdyni) – chemik teoretyk, profesor doktor habilitowany.

Nowy!!: Entropia (teoria informacji) i Roman Nalewajski · Zobacz więcej »

Teoria informacji

Teoria informacji – dyscyplina zajmująca się problematykąinformacji oraz metodami przetwarzania informacji, np.

Nowy!!: Entropia (teoria informacji) i Teoria informacji · Zobacz więcej »

Wektor inicjujący

Wektor inicjujący – ciąg bitów o stałej długości wykorzystywany jako dodatkowe dane wejściowe do algorytmów kryptograficznych.

Nowy!!: Entropia (teoria informacji) i Wektor inicjujący · Zobacz więcej »

Wskaźnik Shannona-Wienera

Wskaźnik Shannona-Wienera (H') (czasami błędnie nazywany „wskaźnikiem Shannona-Weavera”).

Nowy!!: Entropia (teoria informacji) i Wskaźnik Shannona-Wienera · Zobacz więcej »

Współczynnik niepewności

Współczynnik niepewności, nazywany również biegłością, entropiąproduktową(lub współczynnikiem entropii) oraz współczynnikiem Theila (U Theila), to miara asocjacji nominalnej.

Nowy!!: Entropia (teoria informacji) i Współczynnik niepewności · Zobacz więcej »

Przekierowuje tutaj:

Entropia rozkładu.

TowarzyskiPrzybywający
Hej! Jesteśmy na Facebooku teraz! »