ответ:Любая информация представляется в компьютере как последовательность байтов. В самих байтах нет информации о том, как их надо трактовать (числа/текстовые знаки/графическое изображение). В любом случае информация кодируется в виде последовательности 0 и 1, т.е. положительных целых двоичных чисел (число записывается с двух цифр – 0/1). Их интерпретация зависит от того, какая программа и какое действие с ними совершает в данный конкретный момент. Если в программе присутствует последовательность команд, ориентированных на работу с числами, то байты рассматриваются, как числа. Если в программе предполагается действие с текстовыми данными, то байты интерпретируются, как условные числовые коды, обозначающие знаки текста.
В качестве краткой записи при или исправлении двоичных данных, находящихся в памяти ЭВМ, используется 16-ричная система счисления. Программы, обеспечивающие «непосредственную» работу человека с памятью ЭВМ, при взаимодействии с ним автоматически преобразовывают двоичное представление данных в 16-ричное и обратно. Любое данное, записанное в 1 байте, представляется всего двумя 16-ричными цифрами, первая из которых соответствует первое четверке битов, а вторая цифра – второй четверке битов.
Такая форма представления двоичных чисел (данных), находящаяся в памяти ЭВМ, - компромисс между человеком и его понятиями об удобстве и компьютером, где вся информация представляется только в двоичной форме.
II.Типы данных и их представления
Одним байтом (8 бит) можно представить 256 положительных целых чисел (0-255). Такой тип данных называется однобайтовым целым без знака.
Числа, превышающие 255, требуют более одного байта для своего представления. Для работы с ними используются типы:
- двухбайтовые целые без знака – обеспечивают представление целых положительных чисел (0-65535)
- четырехбайтовые целые без знака - обеспечивают представление целых положительных чисел (0-≈4,2 млрд.)
Вышеперечисленные типы предполагают, что число должно быть только положительным => называются «без знака». Они отличаются объемом памяти, который отводится для хранения числа. Такие типы используются для числового кодирования знаков текста, цвета, интенсивности графических точек, нумерации элементов и т.д.Числа со знаками используются для представления числовых данных, с которыми производятся арифметические действия.
При взаимодействии с программами используются следующие типы данных:
- целый короткий (SHORT)
- целый обычный (INTEGER)
- целый длинный (LONG INTEGER)
- вещественный с одинарной точностью (FLOAT/REAL)
- вещественный с двойной точностью (DOUBLEFLOAT/REAL)
- символьный (строковый, текстовый) (CHAR)
- логический (LOGIKAL)
Целый короткий, целый обычный и целый длинный – типы соответственно однобайтовое целое со знаком, двухбайтовое целое со знаком, четырехбайтовое целое со знаком.
В информатике при записи чисел в качестве знака, разделяющего дробную и целую часть, используется не запятая, а точка (например, 68.314). Эта точка фиксирует позицию, после которой указана дробная часть. Изменение местоположения точки приводит к изменению числа => такой вид записи (формат записи) вещественных чисел называется форматом с фиксированной точкой.
Обычно различают число с одинарной и двойной точностью. В первом случае при вводе или выводе числа в качестве разделителя мантиссы и порядка указывается E. В памяти ЭВМ такое число занимает обычно 4 байта. Во втором случае в качестве разделителя – D, в памяти ЭВМ число с двойной точностью занимает обычно 8 байтов. Этот тип обеспечивает значительно большую точность вычисления, чем одинарная точность.
Символьные данные составлены из отдельных текстовых знаков. Каждый знак представляется в памяти ЭВМ определенным числовым кодом. Для числового кодирования текстовых знаков используются специальные таблицы кодирования (однобайтовые, двухбайтовые и др.). Имеется в виду тип целого без знака, который использован для числового кодирования. Разные программы могут основываться на разных таблицах => тестовый документ, созданный с одной программы, не обязательно может быть прочитан с другой.
Каналы передачи данных ненадежны (шумы, наводки и т.д.), да и само оборудование обработки информации работает со сбоями. По этой причине важную роль приобретают механизмы детектирования ошибок. Ведь если ошибка обнаружена, можно осуществить повторную передачу данных и решить проблему. Если исходный код по своей длине равен полученному коду, обнаружить ошибку передачи не предоставляется возможным. Можно, конечно, передать код дважды и сравнить, но это уже двойная избыточность обнаружения ошибок является контроль по четности. Обычно контролируется передача блока данных ( М бит). Этому блоку ставится в соответствие кодовое слово длиной N бит, причем N>M. Избыточность кода характеризуется величиной 1-M/N. Вероятность обнаружения ошибки определяется отношением M/N (чем меньше это отношение, тем выше вероятность обнаружения ошибки, но и выше избыточность).
При передаче информации она кодируется таким образом, чтобы с одной стороны характеризовать ее минимальным числом символов, а с другой – минимизировать вероятность ошибки при декодировании получателем. Для выбора типа кодирования важную роль играет так называемое расстояние Хэмминга.
Пусть А и Б — две двоичные кодовые последовательности равной длины. Расстояние Хэмминга между двумя этими кодовыми последовательностями равно числу символов, которыми они отличаются. Например, расстояние Хэмминга между кодами 00111 и 10101 равно 2.
Можно показать, что для детектирования ошибок в n битах схема кодирования требует применения кодовых слов с расстоянием Хэмминга не менее N + 1. Можно также показать, что для исправления ошибок в N битах необходима схема кодирования с расстоянием Хэмминга между кодами не менее 2N + 1. Таким образом, конструируя код, мы пытаемся обеспечить расстояние Хэмминга между возможными кодовыми последовательностями большее, чем оно может возникнуть из-за ошибок.
Широко рас коды с одиночным битом четности. В этих кодах к каждым М бит добавляется 1 бит, значение которого определяется четностью (или нечетностью) суммы этих М бит. Так, например, для двухбитовых кодов 00, 01, 10, 11 кодами с контролем четности будут 000, 011, 101 и 110. Если в процессе передачи один бит будет передан неверно, четность кода из М+1 бита изменится.
Предположим, что частота ошибок ( BER – Bit Error Rate) равна р = 10-4. В этом случае вероятность передачи 8 бит с ошибкой составит 1 – (1 – p)8 = 7,9 х 10-4. Добавление бита четности позволяет детектировать любую ошибку в одном из переданных битах. Здесь вероятность ошибки в одном из 9 битов равна 9p(1 – p)8. Вероятность же реализации необнаруженной ошибки составит 1 – (1 – p)9 – 9p(1 – p)8 = 3,6 x 10-7. Таким образом, добавление бита четности уменьшает вероятность необнаруженной ошибки почти в 1000 раз. Использование одного бита четности типично для асинхронного метода передачи. В синхронных каналах чаще используется вычисление и передача битов четности как для строк, так и для столбцов передаваемого массива данных. Такая схема позволяет не только регистрировать, но и исправлять ошибки в одном из битов переданного блока.
Контроль по четности достаточно эффективен для выявления одиночных и множественных ошибок в условиях, когда они являются независимыми. При возникновении ошибок в кластерах бит метод контроля четности неэффективен, и тогда предпочтительнее метод вычисления циклических сумм ( CRC — Cyclic Redundancy Check). В этом методе передаваемый кадр делится на специально подобранный образующий полином. Дополнение остатка от деления и является контрольной суммой.
В Ethernet вычисление CRC производится аппаратно. На рис. 4.1 показан пример реализации аппаратного расчета CRC для образующего полинома R(x) = 1 + x2 + x3 + x5 + x7. В этой схеме входной код приходит слева.