Function t10_q(x,q:longint):string; const s='0123456789ABCDEFGHI'; var t,m:longint; r:string; begin t:=x; r:=''; while t>=q do begin m:=t mod q; r:=s[m+1]+r; t:=t div q end; t10_q:=s[t+1]+r end;
{ тестирование } var q,n:longint; begin Write('Введите основание системы счисления (2-20): '); Readln(q); Write('Введите натуральное число для перевода: '); Readln(n); Writeln(n,'(10)=',t10_q(n,q),'(',q,')') end.
Тестовое решение: Введите основание системы счисления (2-20): 16 Введите натуральное число для перевода: 16350 16350(10)=3FDE(16)
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком. Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.
const
s='0123456789ABCDEFGHI';
var
t,m:longint;
r:string;
begin
t:=x; r:='';
while t>=q do
begin
m:=t mod q;
r:=s[m+1]+r;
t:=t div q
end;
t10_q:=s[t+1]+r
end;
{ тестирование }
var
q,n:longint;
begin
Write('Введите основание системы счисления (2-20): '); Readln(q);
Write('Введите натуральное число для перевода: '); Readln(n);
Writeln(n,'(10)=',t10_q(n,q),'(',q,')')
end.
Тестовое решение:
Введите основание системы счисления (2-20): 16
Введите натуральное число для перевода: 16350
16350(10)=3FDE(16)