uses graphabc;
var x,y,i,n,k,x0,y0: integer;
begin
setwindowsize(640, 480);
setpenwidth(3);
line(10, 240, 630, 240);
line(320, 10, 320, 470);
line(620, 235, 630, 240);
line(620, 245, 630, 240);
line(315, 20, 320, 10);
line(325, 20, 320, 10);
n: =10;
for i: =1 to 61 do begin
line(o+i*n, 243, o+i*n, 237);
end;
for i: =1 to 46 da begin
line(317,20 +i*n, 323,20+i*n);
end;
x0: =320;
y0: =240;
k: =50;
for x: =-320 to 320 do
begin
y: =truns(k*sin(x/k);
putpixel(x0+x, y0-y, clred);
end;
textout (50,40; grafic y=sinx');
end.
Самым первым компьютерным стандартом кодирования символов стал ASCII (полное название - American Standart Code for Information Interchange). Для кодирования любого символа в нём использовали всего 7 бит. Как вы помните, что закодировать при бит можно лишь 27 символов или 128 символов. Этого достаточно, чтобы закодировать заглавные и прописные буквы латинского алфавита, арабские цифры, знаки препинания, а так же определенный набор специальных символов, к примеру, знак доллара - «$». Однако, чтобы закодировать символы алфавитов других народов (в том числе и символов русского алфавита) пришлось дополнять код до 8 бит (28=256 символов). При этом, для каждого языка использовалась свой отдельная кодировка.
Все авторские права на этот материал принадлежат исключительно сайту Информатика. В случае обнаружения нарушения условий копирования наших материалов, будут предприняты соответствующие санкции к нарушителям: обращение к хостинговой компании и другие меры в соответствии с действующим законодательством РФ. Источник материала: http://inphormatika.ru/lectures/kodirovanie_informacii.html
begin
var n:=0;
var a:=ReadlnInteger('Введите а');
if a=0 then n:=n+1;
var b:=ReadlnInteger('Введите b');
if b=0 then n:=n+1;
var c:=ReadlnInteger('Введите c');
if c=0 then n:=n+1;
println(n);
end.