По мере появления все более быстрых и совершенных носителей информации меняются и способы сохранения на них байта данных. Байт — это единица цифровой информации, состоящая из восьми бит. Бит, в свою очередь, представляет уже минимальную единицу и может быть выражен как логический 0 или 1. В течение статьи будут встречаться группы бит разного размера, так как количество бит в байте зависит от архитектуры носителя информации и с течением времени изменялось.
В качестве первого и самого простого примера можно взять перфоленты, где бит данных хранился в виде наличия или отсутствия дырки в определенном участке. Если же углубиться дальше во времена аналитической машины Бэббиджа, то в ней бит представлялся путем изменения положения механической шестеренки или рычага. На магнитных устройствах хранения, таких как ленты и диски, единица информации представляется полярностью определенной области магнитной пленки. В современной динамической оперативной памяти (DRAM) бит выражается одним из двух возможных уровней электрического заряда конденсатора.
В июне 1956 года Вернер Бухгольц1 придумал термин байт2, описав им группу битов, используемую для кодирования одного знака текста3. Давайте разберем кодирование знаков более подробно, начиная со Стандартного американского кода обмена информацией (ASCII). В основу ASCII был заложен английский алфавит, поэтому каждая буква, цифра и символ (a-z, A-Z, 0-9, +, -, /, “,! и т.д.) представлялись как 7-битное целое число в диапазоне от 32 до 127. Такая система не учитывала другие языки, поэтому для их поддержки стандарт ASCII был расширен до стандарта Unicode. В нем каждый символ представлен кодовой точкой или знаком. Например, строчная j обозначается как U+006A, где U означает Unicode, после чего идет шестнадцатеричное число. |