Для решения этой задачи, необходимо вычислить, какое количество информации несет каждый символ, а затем умножить это значение на общее количество символов в сообщении.
1. Определим, какое количество информации (в битах) несёт один символ. Для этого воспользуемся формулой Шеннона:
$$N = 2^i$$, где N - мощность алфавита, i - количество бит, необходимое для кодирования одного символа.
В нашем случае N = 15. Нужно найти такое i, чтобы 2 в степени i было равно или чуть больше 15. Так как $$2^3 = 8$$, а $$2^4 = 16$$, то i = 4 бита.
Каждый символ несет 4 бита информации.
2. Вычислим общее количество информации в сообщении, умножив количество бит на количество символов:
$$170 \text{ символов} \cdot 4 \text{ бита/символ} = 680 \text{ бит}$$.
Ответ: 680