Logo
Unionpedia
Komunikacja
pobierz z Google Play
Nowy! Pobierz Unionpedia na urządzeniu z systemem Android™!
Darmowy
Szybszy dostęp niż przeglądarce!
 

Entropia (teoria informacji)

Indeks Entropia (teoria informacji)

Entropia – średnia ilość informacji, przypadająca na pojedyncząwiadomość ze źródła informacji.

25 kontakty: Alfred Rényi, Ban (informacja), Bit, Claude E. Shannon, Ekstremum funkcji, Entropia, Entropia (ujednoznacznienie), Entropia krzyżowa, Entropia metryczna, Entropia warunkowa, Hasło (kryptografia), Histogram, Ilość informacji, Informacja wzajemna, Kodowanie arytmetyczne, Kodowanie Huffmana, Kompresja (informatyka), Logarytm, Losowość, Nat (jednostka miary), Prawdopodobieństwo, Przestrzeń zdarzeń elementarnych, Teoria informacji, Termodynamika, Współczynnik niepewności.

Alfred Rényi

Alfréd Rényi (20 marca 1921 w Budapeszcie – 1 lutego 1970 tamże) – węgierski matematyk, który znacząco przyczynił się do rozwoju kombinatoryki, teorii grafów, teorii liczb i szczególnie probablilistyki.

Nowy!!: Entropia (teoria informacji) i Alfred Rényi · Zobacz więcej »

Ban (informacja)

Ban (czasem także hartley – oznaczenie Hart, określany też jako dit od) – logarytmiczna jednostka miary ilości informacji lub entropii.

Nowy!!: Entropia (teoria informacji) i Ban (informacja) · Zobacz więcej »

Bit

Bit (z ang., kawałek, także skrót od, czyli cyfra dwójkowa) – najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie prawdopodobnych stanów przyjął układ.

Nowy!!: Entropia (teoria informacji) i Bit · Zobacz więcej »

Claude E. Shannon

Claude Elwood Shannon (ur. 30 kwietnia 1916 w Gaylord w Michigan, zm. 24 lutego 2001 w Medford w Massachusetts) – amerykański matematyk i inżynier, profesor Massachusetts Institute of Technology (MIT).

Nowy!!: Entropia (teoria informacji) i Claude E. Shannon · Zobacz więcej »

Ekstremum funkcji

Ekstrema lokalne funkcji f(x).

Nowy!!: Entropia (teoria informacji) i Ekstremum funkcji · Zobacz więcej »

Entropia

Entropia (s lub S) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym.

Nowy!!: Entropia (teoria informacji) i Entropia · Zobacz więcej »

Entropia (ujednoznacznienie)

W termodynamice.

Nowy!!: Entropia (teoria informacji) i Entropia (ujednoznacznienie) · Zobacz więcej »

Entropia krzyżowa

Entropia krzyżowa – wartość używana w teorii informacji.

Nowy!!: Entropia (teoria informacji) i Entropia krzyżowa · Zobacz więcej »

Entropia metryczna

Entropia metryczna – entropia (teoria informacji) znormalizowana przez długość wiadomości.

Nowy!!: Entropia (teoria informacji) i Entropia metryczna · Zobacz więcej »

Entropia warunkowa

Entropia warunkowa – wartość używana w teorii informacji.

Nowy!!: Entropia (teoria informacji) i Entropia warunkowa · Zobacz więcej »

Hasło (kryptografia)

Hasło – ciąg znaków stosowany powszechnie jako tajny parametr w kryptografii oraz uwierzytelnianiu.

Nowy!!: Entropia (teoria informacji) i Hasło (kryptografia) · Zobacz więcej »

Histogram

Histogram (z gr. ιστos - "maszt", γραµµα - "coś zapisanego") – jeden z graficznych sposobów przedstawiania rozkładu empirycznego cechy.

Nowy!!: Entropia (teoria informacji) i Histogram · Zobacz więcej »

Ilość informacji

Ilość informacji – wielkość ujmująca (przedstawiająca) ilościowo właściwość zmniejszania (usuwania) nieokreśloności (niepewności), czyli informację, termin używany w matematycznej teorii informacji.

Nowy!!: Entropia (teoria informacji) i Ilość informacji · Zobacz więcej »

Informacja wzajemna

Informacja wzajemna – pojęcie z zakresu teorii informacji, będące miarązależności pomiędzy dwiema zmiennymi losowymi.

Nowy!!: Entropia (teoria informacji) i Informacja wzajemna · Zobacz więcej »

Kodowanie arytmetyczne

Kodowanie arytmetyczne – metoda kodowania źródłowego dyskretnych źródeł sygnałów, stosowana jako jeden z systemów w bezstratnej kompresji danych.

Nowy!!: Entropia (teoria informacji) i Kodowanie arytmetyczne · Zobacz więcej »

Kodowanie Huffmana

Kodowanie Huffmana – jedna z najprostszych i łatwych w implementacji metod kompresji bezstratnej.

Nowy!!: Entropia (teoria informacji) i Kodowanie Huffmana · Zobacz więcej »

Kompresja (informatyka)

Kompresja danych – zmiana sposobu zapisu informacji w celu zmniejszenia redundancji i tym samym objętości zbioru.

Nowy!!: Entropia (teoria informacji) i Kompresja (informatyka) · Zobacz więcej »

Logarytm

Dzieło ''Logarithmorum canonis descriptio'' Johna Napiera z 1620 roku, w którym podpisuje się on nazwiskiem „Neper”. Logarytm (łac. logarithmus – stosunek, z gr. λόγ- log-, od λόγος logos – zasada, rozum, słowo, i ἀριθμός árithmós – liczba) – dla danych liczb a, b>0,\;a \ne 1 liczba oznaczana \log_a b będąca rozwiązaniem równania a^x.

Nowy!!: Entropia (teoria informacji) i Logarytm · Zobacz więcej »

Losowość

Losowość – brak celu, przyczyny, porządku lub przewidywalnego zachowania.

Nowy!!: Entropia (teoria informacji) i Losowość · Zobacz więcej »

Nat (jednostka miary)

Nat (skr. od ang. natural unit "jednostka naturalna"; czasami także nit lub nepit, skr. od Neper unit "jednostka Nepera") – logarytmiczna jednostka miary ilości informacji.

Nowy!!: Entropia (teoria informacji) i Nat (jednostka miary) · Zobacz więcej »

Prawdopodobieństwo

Prawdopodobieństwo – w znaczeniu potocznym, szansa na wystąpienie jakiegoś zdarzenia, natomiast w matematycznej teorii prawdopodobieństwa, rodzina miar służących do opisu częstości lub pewności tego zdarzenia.

Nowy!!: Entropia (teoria informacji) i Prawdopodobieństwo · Zobacz więcej »

Przestrzeń zdarzeń elementarnych

Przestrzeń zdarzeń elementarnych (zbiór zdarzeń elementarnych, przestrzeń próbek losowych) – zbiór wszystkich możliwych wyników doświadczenia losowego; wyniki te nazywa się zdarzeniami elementarnymi.

Nowy!!: Entropia (teoria informacji) i Przestrzeń zdarzeń elementarnych · Zobacz więcej »

Teoria informacji

Teoria informacji – dyscyplina zajmująca się problematykąinformacji oraz metodami przetwarzania informacji, np.

Nowy!!: Entropia (teoria informacji) i Teoria informacji · Zobacz więcej »

Termodynamika

Termodynamika – dział fizyki zajmujący się badaniem energetycznych efektów wszelkich przemian fizycznych i chemicznych, które wpływająna zmiany energii wewnętrznej analizowanych układów.

Nowy!!: Entropia (teoria informacji) i Termodynamika · Zobacz więcej »

Współczynnik niepewności

Współczynnik niepewności, nazywany również biegłością, entropiąproduktową(lub współczynnikiem entropii) oraz współczynnikiem Theila (U Theila), to miara asocjacji nominalnej.

Nowy!!: Entropia (teoria informacji) i Współczynnik niepewności · Zobacz więcej »

Przekierowuje tutaj:

Entropia rozkładu.

TowarzyskiPrzybywający
Hej! Jesteśmy na Facebooku teraz! »