Тексты вводятся в память компьютера с клавиатуры. На клавишах написаны привычные нам буквы, цифры, знаки препинания и другие символы. В оперативную память они попадают в двоичном коде. Это значит, что каждый символ представляется 8-разрядным двоичным кодом.
Кодирование заключается в том, что каждому символу ставится в соответствие уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от 00000000 до 11111111. Таким образом, человек различает символы по их начертанию, а компьютер - по их коду.
Удобство побайтового кодирования символов очевидно, поскольку байт - наименьшая адресуемая часть памяти и, следовательно, процессор может обратиться к каждому символу отдельно, выполняя обработку текста. С другой стороны, 256 символов – это вполне достаточное количество для представления самой разнообразной символьной информации.
Теперь возникает вопрос, какой именно восьмиразрядный двоичный код поставить в соответствие каждому символу.
Понятно, что это дело условное, можно придумать множество кодировки.
Все символы компьютерного алфавита пронумерованы от 0 до 255. Каждому номеру соответствует восьмиразрядный двоичный код от 00000000 до 11111111. Этот код просто порядковый номер символа в двоичной системе счисления.
В наихудшем случае, последнее новогоднее число - 11111111.
#include <iostream>
bool isNewYearNumber(int n); int sumDigits(int num); bool hasZero(int n);
int main() { const int LASTNEWYEARNUMBER = 11111111; long long sum = 0; for(int i = 0; i <= LASTNEWYEARNUMBER; i++) if ( isNewYearNumber(i) ) sum += i; std::cout << "Сумма всех новогодних чисел: " << sum << '\n'; return 0; }
почему долго играть в компьютер запрещено?
почему лучше не играть в игры?
почему надо сокращать время игр в компьютере?