5 kontakty: Entropia (teoria informacji), Entropia warunkowa, Informacja wzajemna, Rozkład warunkowy, Zmienna losowa.
Entropia (teoria informacji)
Entropia – średnia ilość informacji, przypadająca na pojedyncząwiadomość ze źródła informacji.
Nowy!!: Współczynnik niepewności i Entropia (teoria informacji) · Zobacz więcej »
Entropia warunkowa
Entropia warunkowa – wartość używana w teorii informacji.
Nowy!!: Współczynnik niepewności i Entropia warunkowa · Zobacz więcej »
Informacja wzajemna
Informacja wzajemna – pojęcie z zakresu teorii informacji, będące miarązależności pomiędzy dwiema zmiennymi losowymi.
Nowy!!: Współczynnik niepewności i Informacja wzajemna · Zobacz więcej »
Rozkład warunkowy
Rozkład warunkowy – rozkład prawdopodobieństwa zmiennej losowej X przy ustalonej wartości zmiennej losowej Y (np. jako funkcja tej wartości).
Nowy!!: Współczynnik niepewności i Rozkład warunkowy · Zobacz więcej »
Zmienna losowa
Zmienna losowa – funkcja przypisująca zdarzeniom elementarnym liczby.
Nowy!!: Współczynnik niepewności i Zmienna losowa · Zobacz więcej »