Программа выводит на экран введенное число в двоичном виде.
Объяснение:
long a; // объявление переменной a типа long (8-байтовое целое)
cin >> a; // переменной a присваивается значение, введеное с клавиатуры
bitset<64> b(a); // создается двоичное представление числа a
string s = b.to_string(); // двоичное представление числа a преобразуется в строковый вид
cout << s.substr(s.find_first_of("1"));
На экран выводится двоичное представление числа a (в строковом представлении выбирается подстрока, начинающаяся с первой единицы (чтобы не выводить лишние нули. Например, при вводе 10, на экран будет выведено 1010, а не 00001010)
Программа выводит на экран введенное число в двоичном виде.
Объяснение:
long a; // объявление переменной a типа long (8-байтовое целое)
cin >> a; // переменной a присваивается значение, введеное с клавиатуры
bitset<64> b(a); // создается двоичное представление числа a
string s = b.to_string(); // двоичное представление числа a преобразуется в строковый вид
cout << s.substr(s.find_first_of("1"));
На экран выводится двоичное представление числа a (в строковом представлении выбирается подстрока, начинающаяся с первой единицы (чтобы не выводить лишние нули. Например, при вводе 10, на экран будет выведено 1010, а не 00001010)
Можно так. Не спрашивайте, зачем такие сложные конструкции.
const M = 5;
const N = 8;
var A: array [1..M,1..N] of integer;
var i,j,max,min: integer;
begin
max:=11;
min:=11;
randomize();
For i:= 1 to M do
begin
For j:= 1 to N do
begin
A[i,j]:=random(20)+11;
if (A[i,j]<A[min div 10,min mod 10]) then min:=i*10+j;
if (A[i,j]>A[max div 10,max mod 10]) then max:=i*10+j;
write(A[i,j]:4);
end;
writeln();
end;
writeln('Максимальный элемент массива: ',A[max div 10,max mod 10]);
writeln('Минимальный элемент массива: ',A[min div 10,min mod 10]);
writeln('Их сумма: ',A[max div 10,max mod 10]+A[min div 10,min mod 10]);
end.