1. Пользуйтесь тегами кода. - [code] ... [/code]
2. Точно указывайте язык, название и версию компилятора (интерпретатора).
3. Название темы должно быть информативным.
В описании темы указываем язык!!!
| Altair |
19.02.2006 20:20
Сообщение
#1
|
![]() Ищущий истину ![]() ![]() ![]() ![]() ![]() ![]() Группа: Модераторы Сообщений: 4 824 Пол: Мужской Реальное имя: Олег Репутация: 45 |
(из лекции)
Энтропия это величина, вычисляемая по формуле: где P(xi) - вероятность появления символа xi в сообщении, ni - число символов в сообщении объемом n. Вопрос первый. Я верно все записал, т.е. энтропия так считается ? Второй вопрос, пишу программу для подсчета :
выдается какой-то бред. Для сообщения 1111111111111211111111 выдается энтропия 1.750737 а для 1234567890 - 3.654121 мне кажется результат не верен. т.к. вторая строка гораздо больше уменьашет степень неопределенности... где я ошибся ? -------------------- Помогая друг другу, мы справимся с любыми трудностями!
"Не опускать крылья!" (С) |
![]() ![]() |
| volvo |
19.02.2006 20:32
Сообщение
#2
|
|
Гость |
Олег, вопрос на засыпку: Что такое энтропия источника информации? Нас учили, что
Цитата Чем больше энтропия источника, тем больше информации получают от него. Откуда ты получишь больше информации, из первого сообщения, или из второго?P.S. Кстати, у меня результаты на TC++ совершенно другие: Entropy |
Altair Подсчет энтропии источника информации. 19.02.2006 20:20
Altair
:mega_chok:
кашмар. я на MinGW проверял. Ужас. ... 19.02.2006 20:57
volvo Хм... Я бы делал вот так (я например так понимаю п... 19.02.2006 21:00
Altair 1. самое важное - log2 в mingw считает что-то друг... 19.02.2006 23:44
volvo Олег, у тебя тут есть просто ошибки... Смотри:
for... 19.02.2006 23:45
Altair Все отлично.
Теперь осталось узнать, прогонять ли ... 19.02.2006 23:57
Altair Итак.
Общее определение понятия истояника информац... 21.02.2006 0:18![]() ![]() |
|
Текстовая версия | 8.12.2025 13:47 |