В
Все
Б
Биология
Б
Беларуская мова
У
Українська мова
А
Алгебра
Р
Русский язык
О
ОБЖ
И
История
Ф
Физика
Қ
Қазақ тiлi
О
Окружающий мир
Э
Экономика
Н
Немецкий язык
Х
Химия
П
Право
П
Психология
Д
Другие предметы
Л
Литература
Г
География
Ф
Французский язык
М
Математика
М
Музыка
А
Английский язык
М
МХК
У
Українська література
И
Информатика
О
Обществознание
Г
Геометрия
Крис5942314613
Крис5942314613
03.04.2020 11:07 •  Информатика

Исследовательская работа на тему: методы измерения информации

Показать ответ
Ответ:
Dvoeschnick
Dvoeschnick
07.10.2020 17:55

Основные единицы измерения информации должен знать даже информатический дилетант

Бит является наименьшей единицей измерения информации. Один бит представляет собой количество информации, которое содержится в сообщении, позволяющее вдвое уменьшить неопределенность знаний о чём бы то ни было.

Байт является основной единицей измерения информации. В одном байте содержится 8 бит. Байт - достаточно мелкая единица измерения информации. К примеру, при одного байта можно зашифровать только один символ, используя таблицу ASCII.

Производные единицы измерения информации

Название

Обозначение

Взаимосвязь с другими единицами

Килобит

Кбит

1 Кбит = 1024 бит = 210 бит

Мегабит

Мбит

1 Мбит = 1024 Кбит = 220 бит

Гигабит

Гбит

1 Гбит = 1024 Мбит = 230 бит

Килобайт

Кбайт (Кб)

1 Кб = 1024 байт = 210 байт

Мегабайт

Мбайт (Мб)

1 Мб = 1024 Кб = 220 байт

Гигабайт

Гбайт (Гб)

1 Гб = 1024 Мб = 230 байт

Стоит отметить, что прием и передача информации может происходить с различной скоростью. Скоростью передачи информации, либо скоростью информационного потока, является объем информации, переданный за единицу времени. Скорость можно выразить в таких единицах, как бит за секунду (бит/с), байт за секунду (байт/с) и т.п.

Формула Хартли при измерении информации

Как уже было сказано ранее, при одного бита можно вдвое уменьшить неопределенность знаний о чём бы то ни было. При формулы Хартли можно установить связь между количеством возможных событий и объемом информации.

N = 2I, где

N – число возможных событий; I – объем информации.

Вероятностный метод измерения информации

Применение данного метода возможно только тогда, когда вероятность появления в сообщении каждого из символов не является одинаковой. В таком случае объем информации можно определить при использовании формулы Шеннона:

, где

N - число возможных событий; I - объем информации; Pi - вероятность события i

Алфавитный метод измерения информации

Представленный метод предусматривает рассмотрение информации в качестве последовательности знаков в выбранной знаковой системе, при этом не концентрируя внимания на самом смысле информации.

Алфавит, который является множеством символов определенного языка, можно интерпретировать как разные события. Следовательно, если вероятность появления каждого символа в сообщении считать одинаковой, применяя формулу Хартли можно определить объем информации, который содержится в каждом символе:

I = log2N, где

N – число возможных событий; I – объем информации

Использование алфавитного метода измерения информации является наиболее практичным в технических средствах обработки информации.

Алфавитный подход – наиболее объективный измерения информации. Этим он отличается от содержательного подхода, который отличается своей субъективностью. Наиболее удобно измерять информацию в тех случаях, когда число символов в алфавите соответствует целой степени 2. Если N = 64, то в каждом символе будет содержаться 6 бит.

Стоит отметить, что в теории максимальный размер алфавита не может быть ограниченным. В связи с этим употребляется такое понятие, как достаточный алфавит. При работе с вычислительной техникой объем достаточного алфавита составляет 256 символов. В такой алфавит помещаются все необходимые символы.

0,0(0 оценок)
Популярные вопросы: Информатика
Полный доступ
Позволит учиться лучше и быстрее. Неограниченный доступ к базе и ответам от экспертов и ai-bota Оформи подписку
logo
Начни делиться знаниями
Вход Регистрация
Что ты хочешь узнать?
Спроси ai-бота