begin writeln('Сколько тебе лет?:'); readln(b); if b > 17 then begin writeln('В каком институте ты учишься?:'); readln(a); writeln(a, ' хороший институт'); writeln('До следующей встречи!'); end else if b <= 17 then begin writeln('В какой школе ты учишься?'); readln(a); writeln(a, ' не плохая школа'); writeln('До следующей встречи!'); end; end.
Тексты вводятся в память компьютера с клавиатуры. На клавишах написаны привычные нам буквы, цифры, знаки препинания и другие символы. В оперативную память они попадают в двоичном коде. Это значит, что каждый символ представляется 8-разрядным двоичным кодом.
Кодирование заключается в том, что каждому символу ставится в соответствие уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от 00000000 до 11111111. Таким образом, человек различает символы по их начертанию, а компьютер - по их коду.
Удобство побайтового кодирования символов очевидно, поскольку байт - наименьшая адресуемая часть памяти и, следовательно, процессор может обратиться к каждому символу отдельно, выполняя обработку текста. С другой стороны, 256 символов – это вполне достаточное количество для представления самой разнообразной символьной информации.
Теперь возникает вопрос, какой именно восьмиразрядный двоичный код поставить в соответствие каждому символу.
Понятно, что это дело условное, можно придумать множество кодировки.
Все символы компьютерного алфавита пронумерованы от 0 до 255. Каждому номеру соответствует восьмиразрядный двоичный код от 00000000 до 11111111. Этот код просто порядковый номер символа в двоичной системе счисления.
int main()
{
int a[40] = { 150, 156, 176, 164, 158, 170, 168, 163, 166, 175,
150, 156, 176, 164, 258, 270, 268, 263, 266, 275,
150, 156, 176, 164, 358, 370, 368, 363, 366, 375,
150, 156, 176, 164, 458, 470, 468, 463, 466, 475, };
int s[2] = { 0 };
for (int i = 0; i < 40; ++i){
if (a[s[0]] < a[i]) s[0] = i; else
if (a[s[1]] < a[i]) s[1] = i;
}
std::cout << "CAR#1: " << s[0] << "CAR#2: " << s[1];
return 0;
}