IPB
ЛогинПароль:

> Внимание!

1. Пользуйтесь тегами кода. - [code] ... [/code]
2. Точно указывайте язык, название и версию компилятора (интерпретатора).
3. Название темы должно быть информативным. В описании темы указываем язык!!!

> Энтропия сообщения, С++ Builder
18192123
сообщение 21.02.2009 12:16
Сообщение #1


Профи
****

Группа: Пользователи
Сообщений: 920
Пол: Женский
Реальное имя: Марина

Репутация: -  2  +


Требуется определить энтропию сообщения при условии независимости символов и при условии попарной зависимости символов..
Что касается 1-го случая -
H = -сумма (i=1,m)pi * log pi, логарифм берётся по основанию два, а pi - вероятность появления i-го символа..
Здесь проблем не возникает...нахождение вероятности не вызывает трудностей..
Во 2-м случае:
H = -1/2*сумма (i) сумма(j) pij * log pij, pij - вероятность появления пары символов. И как раз с этой вероятностью pij проблемка - не пойму, как её получить..


struct str
{
char symbol; // очередной символ алфавита
unsigned int count; // частота появления
float probability; // вероятность
};
typedef str STR;
STR Alph[n];
int amount=0; //кол-во всех символов в сообщении

.....

i=0;
while (Alph[i].count)
{
Alph[i].probability=(float)(Alph[i].count)/(amount); //нашли вероятность pi
i++;
}

......
//и дальше вычисляем энтропию на основе pi
float entropy(int i)
{
float Hp=(float)((-1)*Alph[i].probability*((log10(Alph[i].probability))/(log10(2))));
return Hp;
}

.......

void __fastcall TFormTIPiS1::BitBtnHpClick(TObject *Sender)
{
float HpAll=0;
int i=0;
while (Alph[i].count)
{
HpAll+=entropy(i);
i++;
}

}




Объясните пожалуйста, а что нужно делать, чтобы найти вероятность pij (при условии попарной зависимости символов)?
 Оффлайн  Профиль  PM 
 К началу страницы 
+ Ответить 

Сообщений в этой теме


 Ответить  Открыть новую тему 
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0

 



- Текстовая версия 20.07.2025 3:15
Хостинг предоставлен компанией "Веб Сервис Центр" при поддержке компании "ДокЛаб"