#include <iostream> #include <cstdlib> #include <ctime> int main() { using namespace std; cout << "Enter size of array: "; int N; cin >> N; int * ARR = new int[N]; srand(time(0)); int i; for (i = 0; i < N; ++i) ARR[i] = rand() % 100 + 1;
cout << "Here is an original array:\n"; for (i = 0; i < N; ++i) cout << ARR[i] << " "; cout << endl;
int temp = ARR[N - 1]; for (i = N - 1; i > 0; --i) ARR[i] = ARR[i - 1]; ARR[0] = temp;
cout << "\nHere is a new array:\n"; for (i = 0; i < N; ++i) cout << ARR[i] << " "; cout << endl;
№1. Тысячи путей ведут к заблуждению, к истине - только один. Для начала надо посчитать, сколько всего символов в данном предложении, следует считать знаки препинания и пробелы. Посчитав все знаки (Итого:57), мы получаем, что вес предложения 57 байт, переводим в биты, то есть умножаем на 8 (1 байт = 8 бит): 57*8=456.
№2. Кодировка Unicode - это кодировка, каждый символ которой весит 16 бит. Итак, я посчитала количество знаков в предложении (Итого:32). Дальше: 16*32=512 бит.
№3. Итак, мы видим, что из 16-битной кодировки получилась 8-битная, а это значит, что она уменьшилась вдвое. 8x=800 x=100 (у тебя ошибка, я посмотрела аналогичные задания, отличающиеся только значениями)
var
a, b, c: integer;
begin
Writeln('Введите два числа');
Read(a, b);
repeat
if a > b then
a := a mod b
else b := b mod a
until (a = 0) or (b = 0);
c := a + b;
Writeln('Наибольший общий делитель: ', c);
end.