10 минут
Объяснение:
Обозначим за V — количество данных, q — сорость передачи, t — время передачи
Тогда V1=V2=12V=12⋅50=25 Мбайт
Переведём 25 Мбайт в Кбиты:
V1=V2=25Мбайт =25Мбайт⋅8бит=200Мбит=200⋅210 Кбит =50⋅4⋅210 Кбит=50⋅22⋅210 Кбит=50⋅212 Кбит
Время передачи определяется как t=t1+t2=V1q1+V2q2 , где q1=1024=210 Кбит/с, q2=10242=512=29 Кбит/с
Таким образом, t=50⋅212210+50⋅21229=50⋅22+50⋅23=50⋅4+50⋅8=200+400=600 c
Переведём полученный результат в минуты ( 1 мин = 60 с):
600с:60с=10 мин.
int main() {
int N;
cin >> N;
int buff;
int min, max;
cin >> buff;
min = max = buff;
for (int i = 1; i < N; ++i) {
cin >> buff;
if (max < buff) max = buff;
if (min > buff) min = buff;
}
cout << min << "\t" << max;
return 0;
}