я понимаю так, что пользователь выбирая качество в настройках дисплея, например 800*600, то будет изображение плохого качества, а если например качество будет 1920*1080, то качество будет куда более лучше, четче, и частота отображения (например 120герц) будет лучше. Тоесть если ваш экран будет иметь 19 дюймов, или какой-то старенький, то естественно что вы не сможете выбрать 1920*1080 разрешение, плотность пикселей не позволит, да и вообще характеристики монитора. Вывод: пользователю будут показывать картинку и ее качество, от его пожелания и возможностей оборудования.
#include <iostream>
#include <cstdlib>
#include <ctime>
typedef int datatype;
void init_array(datatype* arr, int SIZE)
{
for (int i = 0; i < SIZE; ++i)
arr[i] = rand() % 100;
}
void show_array(datatype* arr, int SIZE)
{
std::cout << "array: ";
for (int i = 0; i < SIZE; ++i)
std::cout << arr[i] << " ";
std::cout << "\n";
}
datatype find_sum(datatype* arr, int SIZE)
{
datatype sum = 0;
for (int i = 0; i < SIZE; ++i)
sum += arr[i];
return sum;
}
int main()
{
std::cout << "enter a size of the array: ";
int SIZE;
std::cin >> SIZE;
datatype *arr = new datatype[SIZE];
srand(time(NULL));
init_array(arr, SIZE);
show_array(arr, SIZE);
std::cout << "sum of elements: " << find_sum(arr, SIZE) << "\n";
delete[] arr;
return 0;
}