1) один символ (например буква) = 1 байт. 1 байт = 8 бит (или по другому - 8 разрядов). Некоторые символы, например иероглифы не умещаются в 1 байт потому что их много, поэтому для них используют не один байт, а больше. Если для символа нужно больше 8 бит, то прибавляют не недостающее число битов, а удваивают число байт. Поэтому буквы (символы) или 8-ми разрядные (1 байт), или 16-ти разрядные (2 байта), или 32-х разрядные (4 байта). 2) МАМА - это 4 обычных символа, или 4 байта (32 бита). 3) один байт, или 8 бит. 4) 15 байт - количество всех букв + пробелы + точка. Или 120 бит. 5) 21 байт, или 168 бит (все буквы + пробел + точка). 6) 7 букв = 7 байт. 7) 20 х 40 = 800 символов/страница. 2 страницы = 1600 символов. 1600 символов = 1600 байт, или 1600 х 8 = 12800 бит. 8) 20 байт. 9) большой латинской "ай" - "I". 10) латинская буква "N". 11) маленькая латинская "ай" - "i". Из формулы Хартли N=
57 в восьмеричной системе - это в нашей 10-ричной 47. 2014 в шестнадцатеричной - это в нашей 8212. Составить алгоритм по нахождению последней цифры при возведении а в степень b не сложно: var i,a,b,p:word; {диапазон целых чисел 0..65535} Begin readln(a,b);p:=a mod 10; {первая степень числа а} for i:=2 to b do {если степень больше 1, то в цикле начинаем домножать, пока № витка цикла не дойдет до b } begin p:=p*a; {домножаем результат на последнюю цифру числа а} p:=p mod 10; {отделяем последнюю цифру результата} end; writeln(p); {по окончании цикла в р находится результат задачи} end. В результате вводимых данных (47 и 8212) получаем 1. Думаю, что и в 16-ричной будет тоже 1.
program yourname;
var a,b,c,d:integer;
begin
writeln('Введите ваше число!');
writeln('В каждую ячейку можно вписать только однозначное число.');
writeln('Пример: Число 2341 вводится так: 2 3 4 1 .');
readln(a,b,c,d);
writeln('Ваше число: ' , a,b,c,d);
writeln('Произведение цифр вашего числа: ' , a*b*c*d);
writeln('Сумма цифр вашего числа: ' , a+b+c+d);
end.