Какое количество байт информации содержится в слове символ
Катерина В.
14 октября 2018 · 174
Из сколько символов состоит информационное сообщение объемом 650 битов?
IT-сфера. В моей голове прекрасно укладывается то, что не лезет ни в одни…
1 символ – 1 байт (8 бит)
Для кодирования одного символа требуется 1 байт информации. Учитывая что каждый бит принимает значения 1 или 0, получаем, что с помощью 1 байта можно закодировать 256 различных символов(2 в восьмой степени=256).
Итого: 650/8=81,25 байт.
Грубо говоря информационное сообщение будет состоять из 81 символа.
Cколько бит необходимо, чтобы закодировать все десятичные цифры?
Формально, количество бит для представления значений определяется двоичным логарифмом от числа значений. Здесь число десятичных цифр равно 10, значит, число возможных значений равно 10. Осталось вычислить log₂10 — получится приблизительно 3,322 бита.
Иными словами, спросите себя: в какую степень нужно возвести число 2 чтобы получить 10? Правильный ответ: число 2 в степени 3,322 приблизительно равно 10.
Если вам трудно воспринять тот факт, что число бит оказалось нецелым числом, округлите в большую сторону — получится 4 бита. Но тогда и вопрос нужно было начать словами: «Какое минимальное количество бит потребуется, чтобы…»
Нецелое число бит может иметь практический смысл в вычислениях. Например, у вас есть цветное изображение, где каждый пиксель представлен смешением красного, зелёного и синего сигнала, причём для каждого сигнала возможны 10 значений яркости. Сколько бит потребуется для представления одного пикселя? Умножаем 3,322 бита на 3 сигнала — получим 9,966 бит на пиксель. На практике вы будете использовать для представления пикселя не менее 10 бит, округлив до целого числа бит.
Но было бы неправильно сказать, что для пикселя требуется как минимум 12 бит, потому что якобы для 10 значений яркости сигнала нужно целых 4 бита.
Прочитать ещё 1 ответ
В каких единицах измеряют количество информации?
Имею высшее образование в сфере IT. Увлекаюсь компьютерами, чтением, спортом…
В науке общепринято измерять количество информации в битах. Поскольку бит это наименьшая единица измерения информации, а в современном мире используются огромные объемы информации, то для удобства вводят более крупные единицы измерения информации. К таким относят байт, он состоит из восьми бит, затем килобайт – 1024 байта, мегабайт – 1024 килобайта, гигабайт – 1024 мегабайта, терабайт – 1024 гигабайта. Существуют и более крупные единицы информации.
Прочитать ещё 6 ответов
Двоичные кодировки символов в компьютере и азбука Морзе: есть ли схожесть и какие-либо закономерности в логике?
Программирование, машинное обучение, анализ данных, статистика, теория…
Строго говоря, азбука Морзе является не двоичным, а троичным кодом: третий символ – это пауза между символами. Основное свойство данной кодировки – это различная длина кодовых последовательностей: часто используемые буквы кодируются более короткими последовательностями, редко используемые – длинными, чтобы сделать длину закодированных текстовых сообщений поменьше. Этот подход используется в алгоритмах архивации (сжатия информации). Обычная же кодировка символов в компьютере этим свойством не обладает, там для представления одного символа отводится либо 1 байт, либо в некоторых случаях два. Эти кодировки ничего общего с азбукой Морзе не имеют.
Прочитать ещё 1 ответ
Источник
Анонимный вопрос
3 мая 2018 · 13,2 K
Кандидат физ.-мат. наук, делаю Яндекс, увлекаюсь всем на свете
Если бы этот вопрос задали моему ребенку на уроке информатики, то я бы, чтобы помочь ему получить хорошую оценку, ответил, что 88. Сейчас объясню, как обосновать этот ответ в школе, и почему он при этом не совсем правильный, а в настоящем программировании всё сложнее.
В слове “информатика” 11 букв. Каждую букву мы можем закодировать одним байтом. В одном байте 8 бит, поэтому ответ 11х8=88.
Как это проверить? Очень просто, запустите на компьютере “Блокнот” (я предполагаю, что у вас Windows), напечатайте в нём это слово и сохраните в текстовый файл. Кликните правой кнопкой, выберите “свойства”, видите? Размер: 11 байт (то есть 88 бит).
Теперь о том, почему в реальности всё сложнее. Мы выше написали, что каждую букву мы закодируем одним байтом. Всего разных символов у нас, таким образом, может быть максимум столько, сколько разных значений у одного байта, то есть 2 в восьмой степени, 256. Это значит, что все буквы всех алфавитов мира в один байт точно не влезут. Даже одни только японские или китайские иероглифы в один байт не вмещаются.
То есть кодировка, какому значению байта соответствует какая буква, это вовсе не универсальная штука, они бывают разные. В “Блокноте” и много где ещё в Windows используется кодировка Windows-1251 (это если вы в России живете, в других странах другие). В некоторых кодировках слово “информатика” просто нельзя записать. А в Windows-1251 нельзя записать слово 信息学. Если вы свой текстовый файлик, содержащий слово “информатика”, пришлёте китайцу, он, открыв его, увидит какую-то абракадабру, и наоборот. Так что ответ “11 байт или 88 бит” предполагает, что мы с получателем используем одну и ту же однобайтовую кодировку, содержащую кириллические буквы.
А есть такой стандарт кодирования, в котором можно написать что угодно и не устраивать вот этих сложностей? Как ни странно, есть! Он называется Unicode, и в ней каждому символу всех алфавитов Земли (даже вымершим языкам, даже египетским иероглифам, даже смайликам и эмоджи) присвоен свой код. Естественно, в нём много тысяч символов и в один байт всё это не влезет. Unicode можно для компьютера кодировать по-разному, но самый популярный вариант устроен так. В нём самые распространенные символы (цифры, точки-запятые-скобки и буквы латинского алфавита) занимают один байт, чуть менее распространенные (кириллические буквы, а также всякие там Ä и π) два байта, а всякая экзотика вроде индейских узелковых письменностей и четыре может занимать.
С каждым годом Unicode становится всё более популярным, а “старые” кодировки вроде Windows 1251, господствовавшие, когда писался школьный учебник по информатике, уходят на второй план. Так что по-честному я бы ответил, что в слове “информатика” 22 байта = 176 бит, ну, насколько уж этот вопрос вообще имеет смысл.
Вы тоже забыли символ конца строки 🙂
Смотря какой алфавит Вы используете.
Если алфавит – просто строчные русские буквы, то всего имеется 33 символа. В таком случае, для кодировки каждого символа понадобится 6 бит (2^5 < 33, 2^6 >= 33 – берем ближайшую степень двойки, которая вместит наш алфавит). Значит, для кодировки слова “информатика”, где 11 букв, нужно будет 66 бит.
По образу и… Читать далее
Вы символ конца строки забыли 🙂 То есть всего будет 72 бита.
Вероятно, “66 бит” считается правильным ответом в… Читать дальше
Какие два значения имеет слово бит?
Не перестаю узнавать новое. Люблю путешествия и все с этим связанное. Много лет…
Первое значение этого слова: бит – единица, при помощи которой измерияется количество информации.
Второе значение у этого слова музыкальное: бит (от английского beat) – это такт в музыке. Его часто употребляют в выражении “бит в минуту” – bpm, которым измеряется темп музыки. Т.е. чем больше значение bpm, тем быстрее музыка.
Чему учат на специальностях “Информатика и вычислительная техника” и “Информационные системы и технологии”? Чем они отличаются между собой?
DevOps и просто плохой человек
Да, действительно схожие специальности, но есть принципиальное различие. Не знаю, если ли оно в программах обучения, но оно есть в терминологии.
“Информатика и вычислительная техника”
Информатика — Наука, изучающая структуру, общие свойства и методы передачи информации, в том числе связанной с применением ЭВМ. Вычислительная техника — соответсвенно, сами ЭВМ
“Информационные системы и технологии”
Информационная система — система, предназначенная для хранения, поиска и обработки информации и соответствующие организационные ресурсы (человеческие, технические, финансовые и т. д.), которые обеспечивают и распространяют информацию. Информационная технология — это процесс, использующий совокупность средств и методов сбора, обработки и передачи данных для получения информации нового качества о состоянии объекта, процесса или явления.
Из этих определений следует, что первая специальность более ориентирована на аппаратную часть вычислительной техники и её низкоуровневое программное обеспечение(железо, операционная система), а вторая — на программную, скорее прикладную(программы общего пользования)
Прочитать ещё 1 ответ
Чем отличается 8-Битная музыка от 16-битной?
Отличие заключается в том, какой объем информации мы можем использовать для каждого фиксированного блока данных. Разбиение непрерывного аналогового потока данных на конечное число интервалов в цифровом формате – это квантование. Если каждый дискретный интервал будет описан при помощи 8 бит – мы сможем использовать диапазон от −128 до +127 для определения положения точки начала каждого последующего дискретного интервала. Именно этот фактор в первую очередь определяет такой бедный диапазон и низкое качество 8-Битного звука.
Если же при квантовании использовать 16-Битные значения, мы сможем использовать диапазон от −32,768 до +32,767, что соответствует качеству звука формата AudioCD.
Источник
- Главная
- Справочник
- Единицы измерений
- Разное
- Информационный объем текста и единицы измерения информации
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется всего два символа 0 и 1. Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1).
Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц – машинным языком.
Какой длины должен быть двоичный код, чтобы с его помощью можно было закодировать васе символы клавиатуры компьютера?
Информационный объем текста
Информационный объем текста складывается из информационных весов составляющих его символов.
Достаточный алфавит
В алфавит мощностью 256 символов можно поместить практически все символы, которые есть на клавиатуре. Такой алфавит называется достаточным.
Т.к. 256 = 28, то вес 1 символа – 8 бит.
Единице в 8 бит присвоили свое название – байт.
1 байт = 8 бит.
Таким образом, информационный вес одного символа достаточного алфавита равен 1 байту.
Для измерения больших информационных объемов используются более крупные единицы измерения информации:
Единицы измерения количества информации:
1 байт = 8 бит
1 килобайт = 1 Кб = 1024 байта
1 мегабайт = 1 Мб = 1024 Кб
1 гигабайт = 1 Гб = 1024 Гб
Найти информационный объем текста
Книга содержит 150 страниц.
На каждой странице – 40 строк.
В каждой строке 60 символов (включая пробелы).
Найти информационный объем текста.
1. Количество символов в книге:
60 * 40 * 150 = 360 000 символов.
2. Т.к. 1 символ весит 1 байт, информационный объем книги равен
360 000 байтов.
3. Переведем байты в более крупные единицы:
360 000 / 1024 = 351,56 Кб
351,56 / 1024 = 0,34 Мб
Информационный объем текста 0,34 Мб.
Уровень10 класс ПредметИнформатика СложностьПростая
Информационный объем текста, подготовленного с помощью компьютера, равен 3,5 Кб. Сколько символов содержит этот текст?
Информационный объем текста 3,5 Мб.
Найти количество символов в тексте.
1. Переведем объем из Мб в байты:
3,5 Мб * 1024 = 3584 Кб
3584 Кб * 1024 = 3 670 016 байт
2. Т.к. 1 символ весит 1 байт, количество символов в тексте равно
3 670 016.
Количество символов в тексте 3 670 016.
Уровень10 класс ПредметИнформатика СложностьПростая
Если материал понравился Вам и оказался для Вас полезным, поделитесь им со своими друзьями!
Bitcoin, Биткойн, часто Биткоин (от англ. bit — единица информации «бит», англ. coin — «монета») — пиринговая (как торрент или e-mule) электронная платёжная система, использующая одноимённую виртуальную валюту.
1 зиверт — это количество энергии, поглощённое килограммом биологической ткани, равное по воздействию поглощенной дозе 1 Гр.
Лошадиная сила — единица мощности. Она примерно равна значению в 75 кгс/м/с., что соответствует усилию, которое необходимо затратить для подъёма груза в 75 кг. на высоту одно метра за одну секунду.
Система древнерусских мер длины включала в себя следующие основные меры: версту, сажень, аршин, локоть, пядь и вершок.
Количество теплоты – это физическая величина, показывающая, какая энергия передана телу в результате теплообмена.
Мощность – это скорость расходования энергии, выраженная в отношении энергии ко времени: 1 Вт = 1 Дж/1 с. Один ватт равен отношению одного джоуля (единице измерения работы) к одной секунде.
Bitcoin, Биткойн, часто Биткоин (от англ. bit — единица информации «бит», англ. coin — «монета») — пиринговая (как торрент или e-mule) электронная платёжная система, использующая одноимённую виртуальную валюту.
1 Ампер это сила тока, при которой через проводник проходит заряд 1 Кл за 1 сек.
Один морской узел равен одной тысяче восемьсот пятьдесят двум метрам или одному километру восемьсот пятьдесят двум метрам
Четырёхугольник — многоугольник, состоящий из четырех точек (вершин) и четырёх отрезков (сторон), попарно соединяющих эти точки.
Источник
Алфавитный (объёмный) подход к измерению информации позволяет определить количество информации, заключенной в тексте, записанном с помощью некоторого алфавита.
Алфавит – множество используемых символов в языке.
Обычно под алфавитом понимают не только буквы, но и цифры, знаки препинания и пробел.
Мощность алфавита ((N)) – количество символов, используемых в алфавите.
Например, мощность алфавита из русских букв равна (32) (буква ё обычно не используется).
Если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации, которое несет каждый символ, вычисляется по формуле Хартли:
i=log2N,
где (N) – мощность алфавита.
Формула Хартли задает связь между количеством возможных событий (N) и количеством информации (i):
N=2i
Из базового курса информатики известно, что в компьютерах используется двоичное кодирование информации. Для двоичного представления текстов в компьютере чаще всего используется равномерный восьмиразрядный код. С его помощью можно закодировать алфавит из (256) символов, поскольку 256=28.
В стандартную кодовую таблицу (например, ASCII) помещаются все необходимые символы: английские и русские прописные и строчные буквы, цифры, знаки препинания, знаки арифметических операций, всевозможные скобки и пр.
В двоичном коде один двоичный разряд несет одну единицу информации, которая называется 1 бит.
Например, в (2)-символьном алфавите каждый символ «весит» (1) бит (log22=1); в (4)-символьном алфавите каждый символ несет (2) бита информации (log24=2); в (8)-символьном – (3) бита (log28=3) и т. д.
Один символ из алфавита мощностью (256) (28) несет в тексте (8) битов информации. Такое количество информации называется байтом.
Информационный объем текста в памяти компьютера измеряется в байтах. Он равен количеству знаков в записи текста.
Для измерения информации используются и более крупные единицы:
Название единицы измерения | Численная величина в байтах | Точное количество байтов |
Килобайт (Кбайт) | 210 | (1024) байт |
Мегабайт (Мбайт) | 220 | (1024) килобайт 1 048 576 байт |
Гигабайт (Гбайт) | 230 | (1024) мегабайт 1 073 741 824 байт |
Терабайт (Тбайт) | 240 | (1024) гигабайт 1 099 511 627 776 байт |
Петабайт (Пбайт) | 250 | (1024) терабайт 1 125 899 906 842 624 байт |
Эксабайт (Эбайт) | 260 | (1024) петабайт 1 152 921 504 606 846 976 байт |
Зеттабайт (Збайт) | 270 | (1024) эксабайт 1 180 591 620 717 411 303 424 байт |
Йоттабайт (Йбайт) | 280 | (1024) зеттабайт 1208925819614629174706176 байт |
Единицы измерения количества информации, в названии которых есть приставки «кило», «мега» и т. д., с точки зрения теории измерений не являются корректными, поскольку эти приставки используются в метрической системе мер, в которой в качестве множителей кратных единиц используется коэффициент
(10), где (n = 3, 6, 9) и т. д.
Для устранения этой некорректности Международная электротехническая комиссия, занимающаяся созданием стандартов для отрасли электронных технологий, утвердила ряд новых приставок для единиц измерения количества информации: киби (kibi), меби (mebi), гиби (gibi), теби (tebi), пети (peti), эксби (exbi). Однако пока используются старые обозначения единиц измерения количества информации, и требуется время, чтобы новые названия начали широко применяться.
Обрати внимание!
Проблема применения десятичных приставок к единицам измерения в двоичном счислении – ссылка
Последовательность действий при переводе одних единиц измерения информации в другие приведена на следующей схеме:
Если весь текст состоит из (K) символов, то при алфавитном подходе объём (V) содержащейся в нем информации равен:
V=K⋅i
где (i) – информационный вес одного символа в используемом алфавите.
Зная, что i=log2N, данную выше формулу можно представить в другом виде:
если количество символов алфавита равно (N), а количество символов в записи сообщения – (K), то информационный объем (V) данного сообщения вычисляется по формуле:
V=K⋅log2N
При алфавитном подходе к измерению информации информационный объем текста зависит только от размера текста и от мощности алфавита, а не от содержания. Поэтому нельзя сравнивать информационные объемы текстов, написанных на разных языках, по размеру текста.
Пример:
1. Считая, что каждый символ кодируется одним байтом, оцените информационный объем следующего предложения: Белеет Парус Одинокий В Тумане Моря Голубом!
Решение.
Так как в предложении (44) символа (считая знаки препинания и пробелы), то информационный объем вычисляется по формуле:
V=44⋅1 байт=44 байта=44⋅8 бит=352 бита
2. Объем сообщения равен (11) Кбайт. Сообщение содержит (11 264) символа. Какова мощность алфавита?
Решение.
Выясним, какое количество бит выделено на (1) символ. Для этого переведем объем сообщения в биты:
11 Кбайт=11⋅210 байт=11⋅210⋅23 бит=11⋅213 бит и разделим его на число символов.
На (1) символ приходится: 11⋅21311264=11⋅21311⋅210=23=8 бит.
Мощность алфавита определяем из формулы Хартли: N=28=256 символов.
Источники:
Семакин И. Г. Информатика и ИКТ. Базовый уровень : учебник для 10-11 классов / И. Г. Семакин, Е. К. Хеннер. – 8-е изд. – М. : БИНОМ. Лаборатория знаний, 2012, стр. 17-20
Информатика и ИКТ. Задачник-практикум: в 2т. Т. 1 / Л. А. Залогова [и др.] ; под ред. И. Г. Семакина, Е. К. Хеннера. – 3-е изд. – М. : БИНОМ. Лаборатория знаний, 2011, стр. 18-19
Самылкина Н. Н. Информатика : все темы для подготовки к ЕГЭ. (В помощь старшекласснику). М. : Эксмо, 2011, стр. 12-13
Источник
Единицы измерения информации
Для информации существуют свои единицы измерения информации.
Если рассматривать сообщения информации как последовательность знаков,
то их можно представлять битами, а измерять в байтах, килобайтах,
мегабайтах, гигабайтах, терабайтах и петабайтах.
Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера.
Бит
Единицей измерения количества информации является бит – это наименьшая (элементарная) единица.
1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.
Байт
Байт – основная единица измерения количества информации.
Байтом называется последовательность из 8 битов.
Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.
Производные единицы измерения количества информации
1 байт=8 битов
1 килобайт (Кб)=1024 байта =210 байтов
1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов
1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов
1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов
Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 210 .
Методы измерения количества информации
Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информации I определяется формулой Хартли:
Алфавитный подход к измерению количества информации
При этом подходе отвлекаются от содержания (смысла) информации и
рассматривают ее как последовательность знаков определенной знаковой
системы. Набор символов языка, т.е. его алфавит можно рассматривать как
различные возможные события. Тогда, если считать, что появление символов
в сообщении равновероятно, по формуле Хартли можно рассчитать, какое
количество информации несет в себе каждый символ:
Вероятностный подход к измерению количества информации
Этот подход применяют, когда возможные события имеют различные
вероятности реализации. В этом случае количество информации определяют
по формуле Шеннона:
.
, где
I – количество информации,
N – количество возможных событий,
Pi – вероятность i-го события.
Задача 1.
Шар находится в одной из четырех коробок. Сколько бит информации несет сообщение о том, в какой именно коробке находится шар.
Имеется 4 равновероятных события (N=4).
По формуле Хартли имеем: 4=2i. Так как 22=2i, то i=2. Значит, это сообщение содержит 2 бита информации.
Задача 2.
Чему равен информационный объем одного символа русского языка?
В русском языке 32 буквы (буква ё обычно не используется), то есть количество событий будет равно 32. Найдем информационный объем одного символа. I=log2 N=log2 32=5 битов (25=32).
Примечание. Если невозможно найти целую степень числа, то округление производится в большую сторону.
Задача 3.
Чему равен информационный объем одного символа английского языка?
Задача 4.
Световое табло состоит из лампочек, каждая из которых может
находиться в одном из двух состояний (“включено” или “выключено”). Какое
наименьшее количество лампочек должно находиться на табло, чтобы с его
помощью можно было передать 50 различных сигналов?
С помощью N лампочек, каждая из которых может находиться в одном из двух состояний, можно закодировать 2N сигналов.
25< 50 <26, поэтому пяти лампочек недостаточно, а шести хватит. Значит, нужно 6 лампочек.
Задача 5.
Метеостанция ведет наблюдения за влажностью воздуха.
Результатом одного измерения является целое число от 0 до 100, которое
записывается при помощи минимально возможного количества битов. Станция
сделала 80 измерений. Определите информационный объем результатов
наблюдений.
В данном случае алфавитом является множество чисел от 0 до 100, всего
101 значение. Поэтому информационный объем результатов одного измерения
I=log2101. Но это значение не
будет целочисленным, поэтому заменим число 101 ближайшей к нему степенью
двойки, большей, чем 101. это число 128=27. Принимаем для одного измерения I=log2128=7 битов. Для 80 измерений общий информационный объем равен 80*7 = 560 битов = 70 байтов.
Задача 6.
Определите количество информации, которое будет получено
после подбрасывания несимметричной 4-гранной пирамидки, если делают один
бросок.
Пусть при бросании 4-гранной несимметричной пирамидки вероятности отдельных событий будут равны: p1=1/2, p2=1/4, p3=1/8, p4=1/8.
Тогда количество информации, которое будет получено после реализации одного из них, можно вычислить по формуле Шеннона:
I = -[1/2 * log2(1/2) + 1/4 * log2(1/4) + 1/8 * log(1/8) + 1/8 * log(1/8)] = 14/8 битов = 1,75 бита.
Задача 7.
В книге 100 страниц; на каждой странице – 20 строк, в каждой
строке – 50 символов. Определите объем информации, содержащийся в книге.
Задача 8.
Оцените информационный объем следующего предложения:
Тяжело в ученье – легко в бою!
Так как каждый символ кодируется одним байтом, нам только нужно
подсчитать количество символов, но при этом не забываем считать знаки
препинания и пробелы. Всего получаем 30 символов. А это означает, что
информационный объем данного сообщения составляет 30 байтов или 30 * 8 = 240 битов.
Источник