Самым первым компьютерным стандартом кодирования символов стал ASCII (полное название - American Standart Code for Information Interchange). Для кодирования любого символа в нём использовали всего 7 бит. Как вы помните, что закодировать при бит можно лишь 27 символов или 128 символов. Этого достаточно, чтобы закодировать заглавные и прописные буквы латинского алфавита, арабские цифры, знаки препинания, а так же определенный набор специальных символов, к примеру, знак доллара - «$». Однако, чтобы закодировать символы алфавитов других народов (в том числе и символов русского алфавита) пришлось дополнять код до 8 бит (28=256 символов). При этом, для каждого языка использовалась свой отдельная кодировка.
Все авторские права на этот материал принадлежат исключительно сайту Информатика. В случае обнаружения нарушения условий копирования наших материалов, будут предприняты соответствующие санкции к нарушителям: обращение к хостинговой компании и другие меры в соответствии с действующим законодательством РФ. Источник материала: http://inphormatika.ru/lectures/kodirovanie_informacii.html
0.85Е2 =85
-5.7Е-3 = -0.0057
0.1Е4=1000
Что будет выведено на экран после выполнения следующих команд:
a-435c
c= 35.1b= -435 280.126-435
Вычислить значения выражений:
Round(frac(6.9)); = 1
20 mod 6 * 3; = 6
sqrt(trunc(0.5)) = 0
Записать выражения в общепринятой форме:
(-3ab+(b-4*a*c)^2)/корень(2*a);
(корень(|a-b|)*(a+b)^2.
a) y:= y * 2; правильная. операция возможна для вещественных чисел.
в) х:= х mod 3 + х*cos(0); правильная, все опрации подходят для целых чисел
б) x:=trunc(y); правильная
г) x:= y+1. неверно нельзя преобразовать вещественный тип в целый