Бит информации: Бит — Википедия

Бит, байт и простое объяснение логических операций.

Как и в любой вычислительной технике,  где применяется цифровой сигнал  практически всегда встречаются такие слова  как  «бит» и «байт».  Не является исключением и микроконтроллеры. Давайте  попробуем разобраться, что же это такое.

 

Бит — (англ. binary digit; также игра слов: англ. bit — немного) — единица измерения информации, один разряд двоичного кода (двоичная цифра).  Бит может принимать только два значения «0» или «1», да или нет, включено/выключено, и т. п. В вычислительной технике  «0» и «1»  передаются различными уровнями напряжения, к примеру, в микросхемах  ТТЛ  «0» соответствует  напряжением в диапазоне от +0 до + 0,8 В, а «1» в диапазоне от 2,0 до 5,0 В»..

«Бит» часто применяется в значении «двоичный разряд»(старший бит — старший двоичный разряд байта или слова, младший бит — младший разряд слова , о которых идёт речь). Относительно к микроконтроллерам, мы часто будем сталкиваться с битами. В семействе  микроконтроллерах 

PIC18XXXX существуют специальные БИТ-ОРИЕНТИРОВАННЫЕ КОМАНДЫ. с помощью которых можно будет сбрасывать/устанавливать определенные биты в байтах (регистрах).
 

Байт (англ. byte) — единица измерения количества информации. В стандартном виде байт считается равным восьми  двоичным цифрам (битам). Он  может принимать 256 (2 в 8 й степени) различных значений. Значениями одного байта можно кодировать довольно большие объемы информации. Например, все заглавные и строчные буквы алфавита, цифры, знаки препинания, символы и служебные коды, используемые при передаче данных.Емкость различных  устройств хранения информации, в том числе и в микроконтроллерах, измеряется тоже в байтах. Так же как при работе с битами, в семействе  микроконтроллерах 

PIC18XXXX существуют и БАЙТ-ОРИЕНТИРОВАННЫЕ КОМАНДЫ, которые позволяют изменять байт «целиком» (сбрасывать, записывать в него данные (0-255) и т.д.). Младший бит находится справа, соответственно старший слева.

Многие путают  производные единицы — килобиты  с  килоБайтами. Заметьте я специально написал байты с большой буквы, вот на это и следует обращать внимание. Если написано кб — имеется в виду килобит, если написано кБ — то имеется ввиду килобайт. И килобайт соответственно больше в восемь раз килобита. То же самое Мегабиты ( Мб ) и  МегаБайты  (МБ)  и т.д..

В битах (килобитах, мегабитах) в секунду и  в байтах (килобайотах, мегабайтах) в секунду измеряется скорость передачи данных  (к примеру скорость Вашего Интернета ).

В предыдущей главе мы выяснили, что двоичные числа,  так же как и десятичные, можно складывать, умножать, вычитать и делить. Естественно, что эти операции можно производить и над байтами. А в  микроконтроллерах кроме этого, предусмотрены различные команды сравнения, сдвига, в том числе и команды, выполняющие простые логические операции.  Если Вы сталкивались ранее с логическими микросхемами, то соответственно сталкивались и с побитовыми логическими операциями «И», «ИЛИ», «НЕ» и исключающие ИЛИ. Для тех кто слабо понимает что это такое попробуем разобраться.

Побитовое отрицание (NOT)  (или побитовое «НЕ», или дополнение) — это бинарная операция, действие которой эквивалентно применению логического отрицания к каждому биту двоичного представления операнда. Простыми  словами, там где в двоичном представлении операнда был 0, после выполнения операции будет 1, и, наоборот, где была 1, там будет 0.  В семействе  микроконтроллерах  PIC18XXXX  есть такая команда  «COMF«, которая инвертирует содержимое регистра (байта). Обозначение:

Пример:

 

1 0 1 1 1 0 0 1
0 1 0 0 0 1 1 0

 

Побитовое И (AND)— это бинарная операция, действие которой эквивалентно применению логического «И»  к каждой паре битов, которые стоят на одинаковых позициях в сравниваемых байтах . Другими словами, если оба соответствующих бита байтов равны 1, то результат двоичного разряда  будет 1; если же хотя бы один бит из пары равен 0, то результат двоичного разряда будет  0. По отношению к микроконтроллерам существуют команда 

«ANDWF», к стати первые три буквы  AND как раз и говорят об  операции «И» над регистром (байтом) «F»  и   «W» (пока не будем вникать и назовем его то же байт, по сути так и есть). Обозначение: a & b

Пример:

1 0 0 1 1 1 0 1
1 1 0 0 0 1 1 1
1 0 0 0 0 1 0 1

Побитовое ИЛИ (OR)  — это бинарная операция, действие которой эквивалентно применению логического «ИЛИ»  к каждой паре битов, которые стоят на одинаковых позициях в сравниваемых байтах. Другими словами, если оба соответствующих бита байтов равны 0, то результат двоичного разряда  будет 0; если же хотя бы один бит из пары равен 1, то результат двоичного разряда будет  1. Опять же по отношению к микроконтроллерам существуют команда  «IORWF».  Обозначение: a | b

Пример:

1
0 0 0 1 1 1 1
0 0 1 0 1 0 0 0
1 0 1 0 1 1 1 1

Сложение по модулю два (XOR) (исключающее ИЛИ) —  это бинарная операция, результат действия которой равен 1, если число складываемых единичных битов нечетно, если же их число четно, то результат ,будет  0. По отношению к микроконтроллерам существуют команда  «

XORWF«. Обозначение: a^b

Пример:

1 1 0 0 0 1 0 0
1 0 0 0 1 1 1 0
0 1 0 0 1 0 1 0

К логическим битовым операциям можно также отнести  битовые сдвиги. Их несколько — это  логический, циклический  и арифметический. Нас интересует только циклический сдвиг.  При циклическом сдвиге, значение последнего бита по направлению сдвига копируется в первый бит .

В  семействе  микроконтроллерах  PIC18XXXX  есть такие команды, как RLCF, RLNCF— сдвиг регистра влево  через перенос и без переноса и RRCF, RRNC — то же самое только сдвиг регистра (байта) происходит вправо. Более подробно мы остановимся,  когда будет рассматривать  команды микроконтроллера.

Бит — это единица информации

Бит — это единица измерения объема информации. Клод Шэннон предложил использовать термин bit в 1948 году для обозначения единицы информации. Сейчас мы обсудим историю и содержание данного понятия подробнее.

Что же это такое

бит этоЕсли говорить о том, как переводится слово «бит», что это за понятие, и каковы его истоки, следует сказать, что английское словосочетание binary digit, от которого возник термин, происходит из английского языка и означает двоичное число. Кроме того, здесь заложена определенная игра слов. Бит — это кусочек или частица.

Если учесть, что один разряд в двоичном коде может принимать лишь два значения, которые исключают друг друга: да/нет, 1/0, мы получаем еще одно определение. Таким образом, бит — это такое число информации, которое дает возможность однозначно дать ответ на поставленный системой вопрос. В электронике один двоичный разряд соответствует одному двоичному триггеру, который имеет два устойчивых состояния.

Разновидности

бит что этоИтак, можно сделать вывод, что один бит — это единица, равная единому разряду в условиях двоичной системы счисления. Возможны 2 физические реализации единого двоичного разряда. Однофазный бит предполагает использование одного выхода двоичного триггера, при этом нулевой уровень может означать как сигнал «0», так и возможную неисправность схемы.

В свою очередь, высокий уровень отвечает за сигнал «1» и полную исправность схемы. Двухфазный бит предполагает использование обоих выходов двоичного триггера. В случае исправной схемы один из 2 уровней высокий, второй — низкий. Следует отметить, что высокий уровень для обоих проводов, а также низкий уровень для обоих проводов свидетельствуют о неисправности схемы.

Передача данных

Если говорить о вычислительной технике, а также сетях по передаче данных, там обычно значения нуля и единицы передаются при помощи различных уровней напряжения или тока. Следует отметить, что в сфере вычислительной техники, особенно если речь идет о стандартах и документации, слово «бит» применяется часто в значении «двоичный разряд». Интересно, что аналогом бита для квантовых компьютеров стал кубит (q-бит).

Байт

один бит этоСовокупность данных в компьютере, состоящая из 8 битов, называется байтом. Именно 8 битов являются основой для представления определенных символов, к примеру буквы «А». Также данная величина позволяет работать с двоичной арифметикой. Другими словами, байт представляет собой команду битов, отвечающую за отдельную деталь в определенном файле.

При этом каждый из байтов имеет уникальный адрес в памяти персонального компьютера. Биты вместе с байтами обладают нумерацией в диапазоне 0–7 и считаются справа налево. К примеру, если воспользоваться номером бита 76543210, значение его будет 01000001, а при выдаче на принтер данного информационного кода будет сгенерирована привычная буква «А».

Подчеркнем, что число включенных битов на едином байте нечетно. Следует учесть, что когда команда обращается к байту, персональный компьютер его проверяет, и если количество включенных битов является четным, система сообщает об ошибке. Что касается ошибки четности, она может быть вызвана сбоем оборудования либо представлять собой случайное явление, однако подобное происходит крайне редко.

При обработке данных в персональном компьютере посредством электронных цепей проходят многочисленные электрические импульсы. Подобные цепи состоят из специальных проводников, а также логических вентилей, так названы электронные микроустройства. При этом импульсы, которые проходят через вентили, способны «гаситься». Благодаря этому обрабатываются данные. В завершение еще раз напомним, что бит – это, прежде всего, крохотная единица информации, о которой мы с вами узнали немного больше.

Биты и байты — что такое и в чем разница

Двоичный кодДвоичный кодСегодняшняя заметка посвящена самым основам информатики, которые, впрочем, иногда забываются как пользователями, так и IT-специалистами (в конце концов, в этой сфере самоучек много как нигде). Итак, углубимся в теорию о битах и байтах.

Бит

Биты это количество информации, равное одному символу или сигналу, которые могут принимать только два значения (да/нет, включено/выключено, 1/0). Ноль и единица взяты из двоичной системы исчисления. Собственно, само слово bit происходит от binary digit — двоичное число. По сути, бит это своеобразная точка отсчёта, базовая единица измерения количества информации.

Биты и байты - что такое и в чем разницаБиты и байты - что такое и в чем разница С помощью лампы можно передать один бит информации.

Пример с лампами далеко не умозрительный. Сейчас далеко не все помнят ламповые компьютеры, которые были предшественниками компьютеров, построенных на основе транзисторов. И пусть в современных компьютерах уже не используются лампы, но принцип, что одна ячейка памяти может находиться в одном из двух состояний (содержать один бит информации), остаётся актуальным.

Вопреки распространённому мнению, в русском языке нет сокращения для слова «бит». Таким образом, правильно писать не «Мб», а «Мбит» и т.п. Это касается и англоязычного написания: «Mbit» — правильно, «Mb» — нет.

Байт

Как многие знают, байт состоит из восьми битов. На самом деле, это не всегда так, и иногда в компьютерных стандартах используется термин «октет» как обозначение байта, равного именно восьми битам. Однако, мы не будем углубляться в историю компьютерной техники. Примем как данность, что байт это совокупность битов, и на текущий момент стандартом является правило «1 байт равен 8 битам». В большинстве вычислительных архитектур байт является минимальным независимо адресуемым набором данных. В этом и заключается суть байта. Байтовая адресация памяти вытеснила используемую ранее адресацию, при которой машинное слово можно было адресовать только целиком, так как этот способ затруднял обработку текстовых данных.

Сам термин byte является преднамеренным искажением слова bite (с английского «кусок», «то, что можно отделить за один укус»).  Замена буквы произведена с той целью, чтобы не было путаницы с битами.

Бит и байтБит и байт Бит и байт

Байт имеет сокращение «Б» («B» в английской версии написания). Таким образом, написания «МБ», «ГБ» («MB», «GB») и тому подобные являются допустимыми и позволяют избежать путаницы с мегабитами, гигабитами и т.д.

Бит Википедия

Эта статья о единице измерения информации; другие значения: бит (значения).
Один бит информации равный 0 (нулю)
лампа выключена
Один бит информации равный 1 (единице)
лампа включена

Бит (русское обозначение: бит; международное: bit; от англ. binary digit — двоичное число; также игра слов: англ. bit — кусочек, частица) — единица измерения количества информации. 1 бит информации — символ или сигнал, который может принимать два значения: включено или выключено, да или нет, высокий или низкий, заряженный или незаряженный; в двоичной системе исчисления это 1 (единица) или 0 (ноль).

В Российской Федерации обозначения бита, а также правила его применения и написания установлены «Положением о единицах величин, допускаемых к применению». В соответствии с данным положением бит относится к числу внесистемных единиц величин с областью применения «информационные технологии, связь» и неограниченным сроком действия[1]. Ранее обозначения бита устанавливались также в ГОСТ 8.417-2002[2]. Для образования кратных единиц применяется с приставками СИ и с двоичными приставками.

История

«Какое количество бит содержит слово «информатика»?» – Яндекс.Кью

Если бы этот вопрос задали моему ребенку на уроке информатики, то я бы, чтобы помочь ему получить хорошую оценку, ответил, что 88. Сейчас объясню, как обосновать этот ответ в школе, и почему он при этом не совсем правильный, а в настоящем программировании всё сложнее.

В слове «информатика» 11 букв. Каждую букву мы можем закодировать одним байтом. В одном байте 8 бит, поэтому ответ 11х8=88.

Как это проверить? Очень просто, запустите на компьютере «Блокнот» (я предполагаю, что у вас Windows), напечатайте в нём это слово и сохраните в текстовый файл. Кликните правой кнопкой, выберите «свойства», видите? Размер: 11 байт (то есть 88 бит).

Теперь о том, почему в реальности всё сложнее. Мы выше написали, что каждую букву мы закодируем одним байтом. Всего разных символов у нас, таким образом, может быть максимум столько, сколько разных значений у одного байта, то есть 2 в восьмой степени, 256. Это значит, что все буквы всех алфавитов мира в один байт точно не влезут. Даже одни только японские или китайские иероглифы в один байт не вмещаются.

То есть кодировка, какому значению байта соответствует какая буква, это вовсе не универсальная штука, они бывают разные. В «Блокноте» и много где ещё в Windows используется кодировка Windows-1251 (это если вы в России живете, в других странах другие). В некоторых кодировках слово «информатика» просто нельзя записать. А в Windows-1251 нельзя записать слово 信息学. Если вы свой текстовый файлик, содержащий слово «информатика», пришлёте китайцу, он, открыв его, увидит какую-то абракадабру, и наоборот. Так что ответ «11 байт или 88 бит» предполагает, что мы с получателем используем одну и ту же однобайтовую кодировку, содержащую кириллические буквы.

А есть такой стандарт кодирования, в котором можно написать что угодно и не устраивать вот этих сложностей? Как ни странно, есть! Он называется Unicode, и в ней каждому символу всех алфавитов Земли (даже вымершим языкам, даже египетским иероглифам, даже смайликам и эмоджи) присвоен свой код. Естественно, в нём много тысяч символов и в один байт всё это не влезет. Unicode можно для компьютера кодировать по-разному, но самый популярный вариант устроен так. В нём самые распространенные символы (цифры, точки-запятые-скобки и буквы латинского алфавита) занимают один байт, чуть менее распространенные (кириллические буквы, а также всякие там Ä и π) два байта, а всякая экзотика вроде индейских узелковых письменностей и четыре может занимать.

С каждым годом Unicode становится всё более популярным, а «старые» кодировки вроде Windows 1251, господствовавшие, когда писался школьный учебник по информатике, уходят на второй план. Так что по-честному я бы ответил, что в слове «информатика» 22 байта = 176 бит, ну, насколько уж этот вопрос вообще имеет смысл.

Что такое биты, байты и другие единицы измерения для цифровых Информация?

Этот контент был заархивирован и больше не поддерживается Университетом Индианы. Информация здесь может быть неточной, а ссылки могут быть недоступны или надежны.

Бит — это двоичная цифра, наименьшее приращение данных на компьютер. Бит может содержать только одно из двух значений: 0 или 1, соответствующие к электрическим значениям выкл. или вкл. соответственно.

Поскольку биты такие маленькие, вы редко работаете с информацией в один бит на время.Биты обычно собираются в группу из восьми, чтобы сформировать байт. Байт содержит достаточно информации для хранения одиночный символ ASCII, например «h».

Килобайт (КБ) — это 1024 байта, а не одна тысяча байтов, как могло бы быть. ожидается, потому что компьютеры используют двоичную математику (основание два), вместо десятичной (десятичной) системы.

Объем памяти и объем памяти компьютера часто измеряется в мегабайтах. (МБ) и гигабайты (ГБ). Роман среднего размера содержит около 1 МБ Информация. 1 МБ составляет 1024 килобайта или 1048 576 (1024×1024) байтов, не один миллион байт.

Аналогично, один 1 ГБ равен 1024 МБ, или 1 073 741 824 (1024x1024x1024). байт. Терабайт (ТБ) составляет 1024 ГБ; 1 ТБ — это примерно столько же информации, как и все книги в большой библиотеке, или примерно 1610 Компакт-диски с данными. Петабайт (ПБ) равен 1024 ТБ. 1 ПБ данных, если записанные на DVD, создадут примерно 223 100 DVD, то есть стопку примерно 878 футов в высоту или стопка компакт-дисков высотой в милю. Университет Индианы теперь строят системы хранения, способные хранить петабайты данных. эксабайт (ЭБ) составляет 1024 ПБ.Зеттабайт (ZB) равен 1024 ЭБ. Наконец, yottabyte (YB) составляет 1024 ЗБ.

Многие производители жестких дисков используют десятичную систему счисления для определения количество места для хранения. В результате 1 МБ определяется как один миллион байтов, 1 ГБ определяется как один миллиард байтов и так далее. Поскольку ваш компьютер использует двоичную систему, как упомянуто выше, вы можете заметить несоответствие между опубликованной емкостью вашего жесткого диска и емкость, подтвержденная вашим компьютером. Например, жесткий диск который, как говорят, содержит 10 ГБ дискового пространства в десятичной системе счисления. на самом деле может хранить 10 000 000 000 байт.Однако в двоичная система, 10 ГБ составляет 10 737 418 240 байт. В результате вместо подтвердив 10 ГБ, ваш компьютер подтвердит 9,31 ГБ. Это не неисправность, а другое определения.

Считаем в базе 10 по степеням 10:

 10  1  = 10
  10 
2
= 10 * 10 = 100 10 3 = 10 * 10 * 10 = 1000 10 6 = 1 000 000

Компьютеров по основанию 2:

 2  1  = 2
  2  2  = 2 * 2 = 4
  2  3  = 2 * 2 * 2 = 8
  2  10  = 1 024
  2  20  = 1 048 576 

Итак, на компьютерном жаргоне используются следующие единицы:

Блок эквивалент
1 килобайт (КБ) 1,024 байта
1 мегабайт (МБ) 1 048 576 байт
1 гигабайт (ГБ) 1,073,741,824 байта
1 терабайт (ТБ) 1,099,511,627,776 байт
1 петабайт (PB) 1,125,899,906,842,624 байта

Примечание: Названия и сокращения номеров байты легко спутать с обозначениями битов. в сокращениях количества битов используется строчная буква «b» вместо заглавная буква «B». Поскольку один байт состоит из восьми битов, это разница может быть значительной. Например, если широкополосный Интернет объявляется соединение со скоростью загрузки 3.0 M b ps, его скорость 3.0 мег бит в секунду, или 0,375 мега байта в секунду (что будет сокращено как 0,375 M B ps). Биты и битрейты (биты со временем, как в битах в секунду [бит / с]) чаще всего используются для описания скорости соединения, поэтому обратите особое внимание, когда сравнение провайдеров и услуг подключения к Интернету.

Этот документ был разработан при поддержке грантов 1053575 и 1548562 Национального научного фонда (NSF). Любые мнения, выводы, выводы или рекомендации, выраженные в этом документе материалы принадлежат авторам и не обязательно отражают взгляды NSF.

,

бит

бит (сокращение от двоичной цифры ) — основная единица информации в вычислительной и телекоммуникационной сфере; это количество информации, хранящейся в цифровом устройстве или другой физической системе, которая находится в одном из двух возможных различных состояний. Это могут быть два стабильных состояния триггера, два положения электрического переключателя, два различных уровня напряжения или тока, допускаемых схемой, два различных уровня интенсивности света, два направления намагничивания или поляризации и т. Д.

В вычислениях бит также может быть определен как переменная или вычисляемая величина, которая может иметь только два возможных значения. Эти два значения часто интерпретируются как двоичные цифры и обычно обозначаются арабскими числовыми цифрами 0 и 1. Два значения также могут быть интерпретированы как логические значения ( истинно / ложно , да / нет ), алгебраические знаки ( + /), состояния активации ( на / на ) или любой другой двузначный атрибут.Соответствие между этими значениями и физическими состояниями нижележащего хранилища или устройства является условием, и различные назначения могут использоваться даже в одном и том же устройстве или программе. Длина двоичного числа может называться его «битовой длиной».

В теории информации один бит обычно определяется как неопределенность двоичной случайной величины, равной 0 или 1 с равной вероятностью, [1] или информации, которая получается, когда значение такой переменной становится известным. [2]

В квантовых вычислениях квантовый бит или кубит — это квантовая система, которая может существовать в суперпозиции двух битовых значений, «истина» и «ложь».

Символ для бита, как единица информации, может быть просто «бит» (рекомендуется стандартом ISO / IEC 80000-13 (2008)) или строчной буквой «b» (рекомендуется стандартом IEEE 1541 (2002)).

История

Кодирование данных дискретными битами использовалось в перфокартах, изобретенных Базилем Бушоном и Жан-Батистом Соколом (1732 г.), разработанных Жозефом Мари Жаккардом (1804 г.), а затем принятых Семеном Корсаковым, Чарльзом Бэббиджем, Германом Холлеритом и первые производители компьютеров, такие как IBM.Другой вариант этой идеи — перфорированная бумажная лента. Во всех этих системах носитель (карта или лента) концептуально содержал множество позиций отверстий; каждая позиция может быть либо пробита, либо нет, таким образом потенциально неся один бит информации. Битовое кодирование текста также использовалось в азбуке Морзе (1844 г.) и ранних машинах цифровой связи, таких как телетайпы и биржевые тикеры (1870 г.).

Ральф Хартли предложил использовать логарифмическую меру информации в 1928 году. [3] Клод Э. Шеннон впервые использовал слово бит в своей основополагающей статье 1948 года Математическая теория коммуникации . Он приписал его происхождение Джону В. Тьюки, который 9 января 1947 года написал меморандум Bell Labs, в котором сократил «двоичную цифру» до «бит». Интересно, что Ванневар Буш написал в 1936 году «биты информации», которые можно было хранить на перфокартах, используемых в механических компьютерах того времени. [4] Первый программируемый компьютер, построенный Конрадом Цузе, использовал двоичную запись для чисел.

Представительство

Передача и обработка

Биты могут быть реализованы во многих формах. В большинстве современных вычислительных устройств бит обычно представлен импульсом электрического напряжения или тока или электрическим состоянием триггерной схемы. Для устройств, использующих положительную логику, цифровое значение 1 (истинное значение или высокое значение) представлено положительным напряжением относительно электрического напряжения заземления (до 5 вольт в случае конструкций TTL), а цифровое значение 0 (ложное значение). значение или низкий) представлен 0 вольт.

Хранилище

В самых ранних неэлектронных устройствах обработки информации, таких как ткацкий станок Жаккарда или аналитическая машина Бэббиджа, бит часто сохранялся как положение механического рычага или шестерни, или наличие или отсутствие отверстия в определенной точке листа бумаги. карта или лента. Первые электрические устройства для дискретной логики (такие как схемы управления лифтами и светофорами, телефонные переключатели и компьютер Конрада Цузе) представляли биты как состояния электрических реле, которые могли быть либо «разомкнутыми», либо «замкнутыми».Когда реле были заменены электронными лампами, начиная с 1940-х годов, производители компьютеров экспериментировали с различными методами хранения, такими как импульсы давления, идущие по ртутной линии задержки, заряды, хранящиеся на внутренней поверхности электронно-лучевой трубки, или непрозрачные пятна. печать на стеклянных дисках фотолитографическими методами.

В 1950-х и 1960-х годах эти методы были в значительной степени вытеснены магнитными запоминающими устройствами, такими как память с магнитным сердечником, магнитные ленты, барабаны и диски, где бит был представлен полярностью намагничивания определенной области ферромагнитной пленки.Тот же принцип позже был использован в магнитной пузырьковой памяти, разработанной в 1980-х годах, и до сих пор используется в различных предметах с магнитной полосой, таких как билеты на метро и некоторые кредитные карты.

В современной полупроводниковой памяти, такой как динамическая память с произвольным доступом или флэш-память, два значения бита могут быть представлены двумя уровнями электрического заряда, хранящегося в конденсаторе. В массивах программируемой логики и некоторых типах постоянной памяти бит может быть представлен наличием или отсутствием проводящего пути в определенной точке схемы.В оптических дисках бит кодируется как наличие или отсутствие микроскопической ямки на отражающей поверхности. В одномерных штрих-кодах биты кодируются как толщина чередующихся черных и белых линий.

Информационная емкость и сжатие информации

Когда информация , емкость системы хранения или канала связи представлена ​​в битах или битах в секунду, это часто относится к двоичным цифрам, которые представляют собой аппаратную емкость для хранения двоичного кода (0 или 1, вверх или вниз, текущий или нет и т. д.).Емкость информации в системе хранения является только верхней границей фактического количества информации , хранящейся в ней. Если два возможных значения одного бита памяти не равновероятны, этот бит памяти будет содержать менее одного бита информации. В самом деле, если значение полностью предсказуемо, то считывание этого значения вообще не предоставит никакой информации (нулевые энтропийные биты, поскольку нет разрешения неопределенности и, следовательно, никакой информации). Если компьютерный файл, который использует n битов памяти, содержит только m < n бит информации, то эта информация в принципе может быть закодирована примерно в m бит, по крайней мере, в среднем.Этот принцип лежит в основе технологии сжатия данных. По аналогии, двоичные цифры оборудования относятся к объему доступного пространства для хранения (например, количество корзин, доступных для хранения вещей), и к информационному содержанию заполнения, которое имеет разные уровни детализации (мелкая или грубая, т. Е. сжатая или несжатая информация). Когда степень детализации более мелкая (когда информация более сжата), то же ведро может содержать больше.

Например, по оценкам, совокупные технологические возможности мира по хранению информации в 2007 году обеспечивают 1300 эксабайт аппаратных цифр.Однако, когда это пространство хранения заполнено и соответствующий контент оптимально сжат, это представляет только 295 эксабайт информации [5] . При оптимальном сжатии результирующая пропускная способность приближается к информации Шеннона или информационной энтропии.

Несколько бит

Есть несколько единиц информации, которые определены как кратные битам, такие как байт (8 бит), килобит (1000 или 2 10 = 1024 бит), мегабайт (8000000 или 8 × 2 20 = 8388608 бит ), и т.д.

Компьютеры обычно обрабатывают биты группами фиксированного размера, обычно называемыми «словами». Количество битов в слове зависит от модели компьютера; обычно от 8 до 80 бит; или даже больше в некоторых специализированных машинах.

Стандарт IEC 60027 Международной электротехнической комиссии определяет, что символ двоичной цифры должен быть «бит», и его следует использовать во всех кратных, например, «кбит» (для килобита). [6] Однако широко используется буква «б» (строчная).Буква «B» (верхний регистр) является одновременно стандартным и обычным символом байта.

В телекоммуникациях (включая компьютерные сети) скорость передачи данных обычно измеряется в битах в секунду (бит / с) или кратных ей величинах, например, кбит / с. (Это устройство не следует путать с бодами.)

Миллибит — это (редкая) единица информации, равная одной тысячной доли бита. [7]

Битовые вычисления

Определенные побитовые инструкции компьютерного процессора (например, набор битов ) работают на уровне манипулирования битами, а не данными, интерпретируемыми как совокупность битов.

В 1980-х, когда растровые компьютерные дисплеи стали популярными, некоторые компьютеры предоставляли специализированные инструкции передачи битовых блоков («bitblt» или «blit») для установки или копирования битов, соответствующих заданной прямоугольной области на экране.

В большинстве компьютеров и языков программирования, когда нужно сослаться на бит в группе битов, такой как байт или слово, он обычно определяется числом от 0 (а не 1) и выше в соответствии с его положением в байте или слово.Однако 0 может относиться либо к наиболее значимому биту, либо к наименее значимому биту в зависимости от контекста, поэтому необходимо знать соглашение об использовании.

Единицы другой информации

Основная статья: Единицы информации

Другие единицы информации, иногда используемые в теории информации, включают натуральную цифру , также называемую nat или nit и определяемую как log 2 e (≈ 1,443) бит, где e — это основание натуральных логарифмов; и dit , ban или Hartley , определенное как log 2 10 (≈ 3. Амитабха Бхаттачарья, Цифровая связь

Внешние ссылки

,

Теория информации | математика | Британника

Историческая справка

Интерес к концепции информации вырос непосредственно с появлением телеграфа и телефона. В 1844 году американский изобретатель Сэмюэл Ф. Морс построил телеграфную линию между Вашингтоном, округ Колумбия, и Балтимором, штат Мэриленд. Морс столкнулся со многими электрическими проблемами, когда отправлял сигналы через подземные линии передачи, но по необъяснимым причинам он столкнулся с меньшим количеством проблем, когда линии были подвешены на опорах.Это привлекло внимание многих выдающихся физиков, в первую очередь шотландца Уильяма Томсона (барон Кельвин). Точно так же изобретение телефона в 1875 году Александром Грэмом Беллом и его последующее распространение привлекло новых научных нотариусов, таких как Анри Пуанкаре, Оливер Хевисайд и Майкл Пупен, к проблемам, связанным с передачей сигналов по проводам. Большая часть их работы была проделана с использованием анализа Фурье, методики, описанной далее в этой статье, но во всех этих случаях анализ был посвящен решению практических инженерных проблем систем связи.

Формальное изучение теории информации началось только в 1924 году, когда Гарри Найквист, исследователь из Bell Laboratories, опубликовал статью, озаглавленную «Некоторые факторы, влияющие на скорость телеграфа». Найквист понял, что каналы связи имеют максимальную скорость передачи данных, и вывел формулу для расчета этих скоростей в бесшумных каналах с конечной полосой пропускания. Еще одним пионером был коллега Найквиста Р.В.Л. Хартли, чья статья «Передача информации» (1928) заложила первые математические основы теории информации.

Настоящее рождение современной теории информации можно проследить до публикации в 1948 году книги Клода Шеннона «Математическая теория коммуникации» в Bell System Technical Journal . Ключевым шагом в работе Шеннона было его осознание того, что для того, чтобы иметь теорию, коммуникационные сигналы должны рассматриваться отдельно от смысла сообщений, которые они передают. Этот взгляд резко контрастирует с общим представлением об информации, в котором значение играет важную роль.Шеннон также понял, что объем знаний, передаваемых сигналом, напрямую не связан с размером сообщения. Известной иллюстрацией этого различия является переписка между французским писателем Виктором Гюго и его издателем после публикации Les Misérables в 1862 году. Гюго отправил своему издателю открытку с единственным символом «?». Взамен он получил карточку только с символом «!». В контексте отношений Хьюго с его издателем и общественностью эти короткие сообщения были наполнены смыслом; в отсутствие такого контекста эти сообщения бессмысленны.Точно так же длинное, полное сообщение на идеальном французском языке передаст мало полезных знаний тому, кто понимает только английский.

Получите эксклюзивный доступ к контенту нашего 1768 First Edition с подпиской. Подпишитесь сегодня

Шеннон, таким образом, мудро понял, что полезная теория информации должна сначала сосредоточиться на проблемах, связанных с отправкой и получением сообщений, и она должна будет оставить вопросы, связанные с любым внутренним значением сообщения, известные как семантическая проблема, для последующих исследователей. ,Ясно, что если техническая проблема не может быть решена, то есть если сообщение не может быть передано правильно, то семантическая проблема вряд ли когда-либо будет решена удовлетворительно. Таким образом, решение технической проблемы было первым шагом в разработке надежной системы связи.

Не случайно Шеннон работал в Bell Laboratories. Практическим стимулом для его работы были проблемы, с которыми он столкнулся при создании надежной телефонной системы. Ключевой вопрос, на который нужно было ответить на заре развития телекоммуникаций, заключался в том, как лучше всего оптимизировать физическое оборудование, в частности, как передать максимальное количество телефонных разговоров по существующим кабелям.До работы Шеннона факторы достижения максимального использования не были четко поняты. В работе Шеннона были определены каналы связи и показано, как назначить им пропускную способность, не только в теоретическом смысле, когда отсутствуют помехи или шум, но также и в практических случаях, когда реальные каналы подвергаются действительному шуму. Шеннон создал формулу, которая показывала, как ширина полосы канала (то есть его теоретическая емкость сигнала) и его отношение сигнал / шум (мера помех) влияют на его способность передавать сигналы.При этом он смог предложить стратегии для максимизации пропускной способности данного канала и показал пределы возможностей данной технологии. Это было очень полезно для инженеров, которые после этого могли сосредоточиться на отдельных случаях и понять конкретные возможные компромиссы.

Шеннон также сделал поразительное открытие, что даже при наличии шума всегда можно передавать сигналы, сколь угодно близкие к теоретической пропускной способности канала. Это открытие вдохновило инженеров на поиски практических методов улучшения характеристик передачи сигналов, которые были далеки от оптимальных.В своей работе Шеннон четко разграничивает выигрыш, который может быть реализован путем принятия другой схемы кодирования, от выигрыша, который может быть реализован только путем изменения самой системы связи. До Шеннона у инженеров отсутствовал систематический способ анализа и решения таких проблем.

Новаторская работа Шеннона, таким образом, представила множество ключевых идей, которыми с тех пор руководствовались инженеры и ученые. Хотя теория информации не всегда дает четкое представление о том, как достичь конкретных результатов, теперь люди знают, какие вопросы стоит задавать, и могут сосредоточиться на областях, которые принесут наибольшую отдачу.Они также знают, на какие вопросы сложно ответить и в каких областях вряд ли можно получить большую отдачу от затраченных усилий.

С 1940-х и 1950-х годов принципы классической теории информации применялись во многих областях. В разделе «Приложения теории информации» рассматриваются достижения не только в таких областях телекоммуникаций, как сжатие данных и исправление ошибок, но и в отдельных дисциплинах физиологии, лингвистики и физики.Более того, даже во времена Шеннона появилось много книг и статей, в которых обсуждалась взаимосвязь между теорией информации и такими областями, как искусство и бизнес. К сожалению, многие из этих предполагаемых отношений имели сомнительную ценность. Попытки связать теорию информации с каждой проблемой и каждой областью настолько обеспокоили самого Шеннона, что в редакционной статье 1956 года под названием «The Bandwagon» он сделал следующее предупреждение:

Я лично считаю, что многие концепции теории информации окажутся полезными и в этих других областях — и, действительно, некоторые результаты уже довольно многообещающие — но создание таких приложений — нетривиальный вопрос перевода слов в новую область , а скорее медленный утомительный процесс гипотез и экспериментальной проверки.

Помня собственные слова Шеннона, теперь мы можем рассмотреть основные принципы классической теории информации.

.

Немного — определение бита в The Free Dictionary

бит 1

(bĭt) n.

1. Небольшая часть, степень или количество: немного ворса; немного удачи.

2. Короткое время; момент: Подожди немного.

3.

а. Короткая сцена или эпизод в театральном представлении.

б. Битовая часть.

4. Развлекательная программа, которую регулярно проводит исполнитель; Акт.

5. Неофициальный

а. Особый вид действия, ситуации или поведения: устал от мачо.

б. Обсуждаемый вопрос: что это за информация об инфляции?

6. Неофициальный Сумма, равная одной восьмой доллара: два бита.

7. В основном британский Маленькая монета: трехпенсовый бит.

Идиомы: немного

В небольшой степени; немного: немного теплый.

бит за битом

Постепенно; постепенно.

do (one) bit

Чтобы внести свой вклад или внести свою долю.



бит 2

(bĭt) n.

1. Острая часть инструмента, например, лезвие ножа или топора.

2. Заостренный и резьбовой инструмент для сверления и растачивания, который закрепляется в скобе, долоте или сверлильном станке.

3. Часть ключа, которая входит в замок и зацепляет задвижку и штифты.

4. Наконечник мундштука на трубку или мундштук для сигареты или сигары.

5. Металлический мундштук уздечки, служащий для управления, обуздания и направления животного.

6. То, что контролирует, направляет или ограничивает.

тр.в. bit · ted , bit · ting , bit

1. Чтобы поместить кусочек в рот (например, лошади).

2. Для проверки или управления битом или как будто с ним.

3. Сделать или приточить биту (ключ).

Идиома: иметь / взять бита в зубах

быть неуправляемыми; сбросить сдержанность.



бит 3

(bĭt) n. Компьютеры

Двоичная цифра, имеющая значение 0 или 1, используемая для хранения или представления данных.



бит 4

(bĭt) v. Прошедшее время и причастие прошедшего времени прикуса.

бит

(bɪt) n

1. небольшой кусок, порция или количество

2. короткое время или расстояние

3. неофициальный США и Канадский стоимость одной восьмой доллара: говорится только в единицах два: два бита.

4. любая мелкая монета

6. неформальный способ поведения, особенно предназначенный для создания особого впечатления: она выполняет роль примадонны.

7. немного скорее; несколько: немного муторно.

8. немного

a. Скорее : немного дури.

б. — значительная сумма: для этого нужно немного мужества.

9. немного в порядке немного пышки немного вещей немного хвоста сленг Brit сексуально привлекательная женщина

10. бит за битом постепенно

11. бит на стороне неформальный внебрачный роман

12. внести свой вклад , чтобы внести свой ожидаемый вклад

13. каждый бит ( после ) в той же степени: она была столь же умна, как и ее брат.

14. ни капли ни капли ни капли; совсем нет

15. на биты полностью разошлись: развалиться на части.

[Древнеанглийский прикус действие прикуса; см. укус]


bit

(bɪt) n

1. (Horse Training, Riding & Manège) металлический мундштук, для управления лошадью на уздечке

2. все, что сдерживает или ограничивает

3. взять биту в зубы взять биту между зубами взять биту в зубы иметь биту между зубами

a. выполнить задачу с определением

b. , чтобы восстать против контроля

4. (Машиностроение) режущий или сверлильный инструмент, деталь или головка в скобе, дрель и т. Д.

5. (Машиностроение) лезвие деревообрабатывающего самолета

6. (Инструменты) часть пары клещей, предназначенная для захвата объекта

7. (General Engineering) медный конец паяльника

8. (Инструменты) часть ключа, которая захватывает рычаги замка

vb ( tr ), бит , бит или бит

9. (обучение лошадям, верховая езда и Манеж) положить кусочек в рот (лошади)

10. сдержать; обочина

[староанглийский бит ; относится к древнеанглийскому bītan to bite]


bit

(bɪt) vb прошедшее время и (архаичное) причастие прошедшего времени прикуса

bit

(bɪt) n

1. (математика) одиночная цифра двоичного представления, представленная либо 0, либо 1

2. (математика) наименьшая единица информации, указывающая на наличие или отсутствие единственной особенности

3. (математика ) единица мощности компьютера, состоящая из элемента его физической структуры, способного находиться в одном из двух состояний, например, переключатель с на и на положениях, или микроскопический магнит, способный выравниваться в двух направлениях.

[C20: от сокращения двоичной цифры]

бит 1

(bɪt)

n., v. bit • ted, bit • ting. п.

1. мундштук уздечки, имеющий на каждом конце приспособления, к которым крепятся поводья.

2. все, что ограничивает или сдерживает.

3. съемный сверлильный или расточный инструмент для использования в скобе, сверлильном станке и т.п.

4. режущая часть топора или топора.

5. широкая часть на конце обычного ключа, который перемещает болт.

в.т.

6. положить немного в рот (лошади).

7. бордюр с битой или как будто с ней.

8. для заточки (ключ).

Идиомы:

1. раздражение или чемпион, , чтобы стать нетерпеливым и беспокойным из-за задержки.

2. взять коронку или между зубами, отвергнуть контроль; идти своим путем.

[до 900; Среднеанглийский bite, Древнеанглийский: действие кусания; с. Древневерхненемецкий biz. См. Фрагмент]

бит 2

(bɪt)

n.

1. небольшой кусок или некоторое количество чего-либо.

2. короткое время: подождите немного.

3. стереотипный набор поведения, отношения или действий, связанных с определенной ролью, ситуацией и т. Д.: Бит Уолл-стрит в целом.

5. Неофициальный. сумма, эквивалентная 12½ центам (используется только в четных кратных): два бита.

Идиомы:

1. немного , немного; немного: немного сонный.

2. Немного много, несколько переборщить или непереносимо.

3. по битам, по градусам; постепенно.

4. вносить свой вклад, вносить свой вклад в усилия.

5. каждый бит, вполне; просто: ничуть не хуже.

6. совсем немного, довольно большая сумма.

[до 1000; Среднеанглийский бит, Древнеанглийский бит бит, кусок; с. Древневерхненемецкий bizzo, Древнескандинавский biti. См. Фрагмент]

бит 3

(bɪt)

n.

единичная базовая единица компьютерной информации, оцениваемая в 0 или 1 для обозначения двоичных альтернатив.

бит 4

(bɪt)

v.

бит

1. «бит»

бит — это небольшое количество или небольшая часть чего-то.

Осталось бит торта.

Он нашел в гараже несколько кусочков дерева.

2. «немного»

Бит означает «в небольшой степени».

Она выглядит немного , как ее мать.

Он был чуток глухой.

Будьте осторожны!
Не используйте слово «немного» с прилагательным перед существительным. Не говорите, например, «Он был глухим».

3. «немного от»

В разговоре и в менее формальном письме вы можете использовать немного от перед , и существительным. Вы делаете это, чтобы заявление выглядело менее радикальным.

В нашей комнате было немного беспорядка тоже.

Его вопрос немного шокировал .

4. «немного» и «один бит» с негативами

Вы можете добавить бит или один бит в конце отрицательного утверждения, чтобы усилить его.

Мне не нравится one bit .

Она не изменила немного .

5. «не бит»

Вы можете использовать не бит перед прилагательным, чтобы подчеркнуть, что кто-то или что-то не имеет определенного качества.Например, если вы говорите, что хоть немного не голодны на , это означает, что вы совсем не голодны.

Они нисколько не интересуют .

Я был нисколько не удивлен новостью.

6. «для бита»

«для бита» означает «на короткий период времени».

Она молчала на бит .

Почему мы не можем остаться здесь ненадолго ?

.

Оставьте комментарий