1. Пользуйтесь тегами кода. - [code] ... [/code]
2. Точно указывайте язык, название и версию компилятора (интерпретатора).
3. Название темы должно быть информативным.
В описании темы указываем язык!!!
| Altair |
19.02.2006 20:20
Сообщение
#1
|
![]() Ищущий истину ![]() ![]() ![]() ![]() ![]() ![]() Группа: Модераторы Сообщений: 4 824 Пол: Мужской Реальное имя: Олег Репутация: 45 |
(из лекции)
Энтропия это величина, вычисляемая по формуле: где P(xi) - вероятность появления символа xi в сообщении, ni - число символов в сообщении объемом n. Вопрос первый. Я верно все записал, т.е. энтропия так считается ? Второй вопрос, пишу программу для подсчета :
выдается какой-то бред. Для сообщения 1111111111111211111111 выдается энтропия 1.750737 а для 1234567890 - 3.654121 мне кажется результат не верен. т.к. вторая строка гораздо больше уменьашет степень неопределенности... где я ошибся ? -------------------- Помогая друг другу, мы справимся с любыми трудностями!
"Не опускать крылья!" (С) |
![]() ![]() |
| volvo |
19.02.2006 23:45
Сообщение
#2
|
|
Гость |
Олег, у тебя тут есть просто ошибки... Смотри:
for (i=0; i<=strlen(x); i++) if (x[i]==c) res+=1;Это тебе что, Паскаль? Если i = strlen(x), то это - зевершающий нулевой символ строки, по идее он не должен считаться, это же НЕ информация... У меня он как раз не считается. Попробуй подправить везде, может это дает разброс результатов? Во, и я о том же |
Altair Подсчет энтропии источника информации. 19.02.2006 20:20
volvo Олег, вопрос на засыпку: Что такое энтропия источн... 19.02.2006 20:32
Altair
:mega_chok:
кашмар. я на MinGW проверял. Ужас. ... 19.02.2006 20:57
volvo Хм... Я бы делал вот так (я например так понимаю п... 19.02.2006 21:00
Altair 1. самое важное - log2 в mingw считает что-то друг... 19.02.2006 23:44
Altair Все отлично.
Теперь осталось узнать, прогонять ли ... 19.02.2006 23:57
Altair Итак.
Общее определение понятия истояника информац... 21.02.2006 0:18![]() ![]() |
|
Текстовая версия | 8.12.2025 14:32 |