Что бы мы понимали, что отвечает компьютер на наши задачи и правильно ли мы задали эту задачу.ASCII ( American standard code for information interchange) (Американский стандартный код для обмена информацией) из начального курса информатики мы знаем, что компьютер может считывать только 0 и 1. А мы читаем буквы, поэтому нам надо переводить данную шифровку компьютера, ASCII Это и делает, превращает его алфавит в наш, что бы нам было удобнее работать с компьютером
Для конвертирования двоичного кода в буквы.
Объяснение
Что бы мы понимали, что отвечает компьютер на наши задачи и правильно ли мы задали эту задачу.ASCII ( American standard code for information interchange) (Американский стандартный код для обмена информацией) из начального курса информатики мы знаем, что компьютер может считывать только 0 и 1. А мы читаем буквы, поэтому нам надо переводить данную шифровку компьютера, ASCII Это и делает, превращает его алфавит в наш, что бы нам было удобнее работать с компьютером
#include <iostream>
#include <math.h>
using namespace std;
int main()
{
int x, faktorial;
faktorial = 1;
cout << "vvedite x" << endl;
cin >> x;
if(x <= 0)
{
cout << "x dolgen bit' > 0" << endl;
return 0;
}
cout << "faktorial " << x " = "; //выводим заготовку для результата, так как x будет меняться
do
{
faktorial *= x; //faktorial = faktorial * x;
}
//если в условие цикла подставить число, то 0 преобразуется к "ложь", а ненулевое значение к "истина"
while(--x);//уменьшаем x на 1, затем проверяем его на 0
cout << faktorial << endl;
return 0;
}
Объяснение: