ПРЕДСТАВЛЕНИЕ И ОБРАБОТКА ЧИСЕЛ В КОМПЬЮТЕРЕ
Одним из основных направлений применения компьютеров были и остаются разнообразные вычисления.
Компьютерная обработка числовой информации ведется и при решении задач, на первый взгляд не связанных с какими-то расчетами, например, при использовании компьютерной графики или звука.
В связи с этим встает вопрос о выборе оптимального представления чисел в компьютере.
Можно было бы использовать 8-битное (байтовое) кодирование отдельных цифр как символов, а из них составлять числа.
Однако такое кодирование не будет оптимальным, что легко увидеть из простого примера.
Пусть имеется двузначное число 13;
При 8-битном кодировании отдельных цифр в кодах ASCII его представление выглядит следующим образом: 0011000100110011, т.е. код имеет длину 16 бит;
Если же определять это число посредством двоичного выборного каскада (например, используя выборочный каскад "Угадайка – 16", подобный ранее описанному), то получим четырехбитную цепочку 1101.
Представление числа определяет не только способ записи данных (букв или чисел), но и допустимый набор операций над ними;
В частности, буквы могут быть только помещены в некоторую последовательность (или исключены из нее) без изменения их самих;
Над числами же возможны операции, изменяющие само число, например, извлечение корня или сложение с другим числом.
Представление чисел в компьютере по сравнению с формами, известными всем со школы, имеет два важных отличия:
во-первых, числа записываются в двоичной системе счисления (в отличие от привычной десятичной);
во-вторых, для записи и обработки чисел отводится конечное количество разрядов (в "некомпьютерной" арифметике такое ограничение отсутствует).
Дата добавления: 2015-07-22; просмотров: 844;