Для автоматизации работы с данными, относящимися к различным типам, важно унифицировать их форму представления. Для этого используется кодирование.
Кодирование – выражение данных одного типа через данные другого типа.
Примеры кодирования:
- человеческие языки: кодирование понятий для выражения мыслей посредством речи;
- азбуки – кодирование языка с помощью графических символов (букв);
- математические записи, азбуки глухонемых и слепых (система Брайля), азбука Морзе и др.
В вычислительной технике: двоичное кодирование, основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами (binary digit, bit), или битами.
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т. п.).
Два бита (4 понятия): 00 01 10 11;
три бита (8 значений): 000 001 010 011 100 101 110 111
или N = 2m ,
где N – количество независимых кодируемых значений;
m – разряд (количество бит для кодирования).
Целое число делится пополам до тех пор, пока частное не будет равно 1. Совокупность остатков от каждого деления, записанная справа налево вместе с последним частным, даст двоичный аналог десятичного числа.
17 / 2 = 8 + 1,
8 / 2 = 4 + 0,
4 / 2 = 2 + 0,
2 / 2 = 1 + 0,
1710 = 100012 = 1*20 + 0*21 + 0*22 + 0* 23 + 1* 24.
Для кодирования чисел 0 – 255: 8 разрядов двоичного кода (8 бит);
0 – 65535: 16 бит; 24 бита – более 16,5 миллионов различных значений.
Для кодирования действительных чисел используют 80-разрядное кодирование. При этом число предварительно преобразуется в нормализованную форму:
3,1415926 = 0,31415926 * 101;
Первая часть числа называется мантиссой (для ее хранения отводят большую часть из 80 разрядов, вместе со знаком), вторая – характеристикой (фиксированное число разрядов, со знаком).