ответ:Любая информация представляется в компьютере как последовательность байтов. В самих байтах нет информации о том, как их надо трактовать (числа/текстовые знаки/графическое изображение). В любом случае информация кодируется в виде последовательности 0 и 1, т.е. положительных целых двоичных чисел (число записывается с двух цифр – 0/1). Их интерпретация зависит от того, какая программа и какое действие с ними совершает в данный конкретный момент. Если в программе присутствует последовательность команд, ориентированных на работу с числами, то байты рассматриваются, как числа. Если в программе предполагается действие с текстовыми данными, то байты интерпретируются, как условные числовые коды, обозначающие знаки текста.
В качестве краткой записи при или исправлении двоичных данных, находящихся в памяти ЭВМ, используется 16-ричная система счисления. Программы, обеспечивающие «непосредственную» работу человека с памятью ЭВМ, при взаимодействии с ним автоматически преобразовывают двоичное представление данных в 16-ричное и обратно. Любое данное, записанное в 1 байте, представляется всего двумя 16-ричными цифрами, первая из которых соответствует первое четверке битов, а вторая цифра – второй четверке битов.
Такая форма представления двоичных чисел (данных), находящаяся в памяти ЭВМ, - компромисс между человеком и его понятиями об удобстве и компьютером, где вся информация представляется только в двоичной форме.
II.Типы данных и их представления
Одним байтом (8 бит) можно представить 256 положительных целых чисел (0-255). Такой тип данных называется однобайтовым целым без знака.
Числа, превышающие 255, требуют более одного байта для своего представления. Для работы с ними используются типы:
- двухбайтовые целые без знака – обеспечивают представление целых положительных чисел (0-65535)
- четырехбайтовые целые без знака - обеспечивают представление целых положительных чисел (0-≈4,2 млрд.)
Вышеперечисленные типы предполагают, что число должно быть только положительным => называются «без знака». Они отличаются объемом памяти, который отводится для хранения числа. Такие типы используются для числового кодирования знаков текста, цвета, интенсивности графических точек, нумерации элементов и т.д.Числа со знаками используются для представления числовых данных, с которыми производятся арифметические действия.
При взаимодействии с программами используются следующие типы данных:
- целый короткий (SHORT)
- целый обычный (INTEGER)
- целый длинный (LONG INTEGER)
- вещественный с одинарной точностью (FLOAT/REAL)
- вещественный с двойной точностью (DOUBLEFLOAT/REAL)
- символьный (строковый, текстовый) (CHAR)
- логический (LOGIKAL)
Целый короткий, целый обычный и целый длинный – типы соответственно однобайтовое целое со знаком, двухбайтовое целое со знаком, четырехбайтовое целое со знаком.
В информатике при записи чисел в качестве знака, разделяющего дробную и целую часть, используется не запятая, а точка (например, 68.314). Эта точка фиксирует позицию, после которой указана дробная часть. Изменение местоположения точки приводит к изменению числа => такой вид записи (формат записи) вещественных чисел называется форматом с фиксированной точкой.
Обычно различают число с одинарной и двойной точностью. В первом случае при вводе или выводе числа в качестве разделителя мантиссы и порядка указывается E. В памяти ЭВМ такое число занимает обычно 4 байта. Во втором случае в качестве разделителя – D, в памяти ЭВМ число с двойной точностью занимает обычно 8 байтов. Этот тип обеспечивает значительно большую точность вычисления, чем одинарная точность.
Символьные данные составлены из отдельных текстовых знаков. Каждый знак представляется в памяти ЭВМ определенным числовым кодом. Для числового кодирования текстовых знаков используются специальные таблицы кодирования (однобайтовые, двухбайтовые и др.). Имеется в виду тип целого без знака, который использован для числового кодирования. Разные программы могут основываться на разных таблицах => тестовый документ, созданный с одной программы, не обязательно может быть прочитан с другой.
#include <iostream>
#include <vector>
using namespace std;
// глобальные переменные
const int arraySize = 10;
vector <int> numbers;
// сам алгоритм.
void result(){
// совет - обьявляй все переменные в начале функции
int leader = 0;
int maxCount = 0;
int count = 0;
// поиск самого частого числа
for (int c = 0; c < 9;c++){
// обнуляем счетчик
count = 0;
for (int c1 = 0;c1 < arraySize;c1++){
if (numbers[c1] == c) count++;
}
// проверка на лидера
if (maxCount < count){
leader = c;
maxCount = count;
}
}
// ну..с посмотрим:
cout << "Leader: " << leader << " (" << maxCount << ") " << std::endl;
}
int main()
{
// подготовка масива
srand(time(NULL)); // обнулем внутрений таймер для полного рандома
for (int c = 0; c < arraySize;c++) {
numbers.push_back(rand() % 9); // заполняем масив числами
}
// посмотрим на оригинальный масив
cout << "Original array: ";
for (int c = 0;c < arraySize;c++) cout << numbers[c] << " ";
cout << std::endl;
// сортировка
result();
return 0;
}
Объяснение:
Хорошая книга по с++: Герберт Шилд - с++ базовый курс.
Объяснение:
program Num1;
var i, s, n : integer;
begin
write('Последнее число n = ');
readln(n);
s:= 0;
for i:=1 to n do s:= s + i*i;
writeln('Сумма квадратов всех чисел = ', s)
end.