Появление компьютеров и компьютерных технологий
Многие столетия люди пытаются создать различные приспособления для облегчения вычислений. В истории развития компьютеров и компьютерных технологий выделяются несколько важных событий, которые стали определяющими в дальнейшей эволюции.
В 40-е гг. XVII в. Б. Паскаль изобрел механическое устройство, с помощью которого можно было выполнять сложение чисел.
В конце XVIII в. Г. Лейбниц создал механическое устройство, предназначенное для сложения и умножения чисел. Механические вычислители выпускались и позднее.
В 1946 г. были изобретены первые универсальные ЭВМ. Американские ученые Дж. фон Нейман, Г. Голдстайн и А. Берне опубликовали работу, в которой представили основные принципы создания универсальной ЭВМ. Начиная с конца 1940-х гг. стали появляться первые опытные образцы таких машин, условно называемых ЭВМ первого поколения. Эти ЭВМ изготавливались на электронных лампах и по производительности отставали от современных калькуляторов.
В дальнейшем развитии ЭВМ выделяют следующие этапы:
• второе поколение ЭВМ – изобретение транзисторов;
• третье поколение ЭВМ – создание интегральных схем;
• четвертое поколение ЭВМ – появление микропроцессоров (1971 г.).
Первые микропроцессоры выпускались компанией Intel, что и привело к появлению нового поколения ПК. Вследствие возникшего в обществе массового интереса к таким компьютерам компания IBM (International Business Machines Corporation) разработала новый проект по их созданию, а фирма Microsoft – программное обеспечение для данного компьютера. Проект завершился в августе 1981 г., и новый ПК стал называться IBM PC.
Выделение информатики как самостоятельной области человеческой деятельности в первую очередь связано с развитием компьютерной техники. Информатика как наука нацелена на разработку общих методологических принципов построения информационных моделей. Поэтому методы информатики применимы всюду, где существует возможность информационного описания объекта, процесса, явления и т.п. Существует множество определений информатики, что связано с многогранностью ее функций, возможностей, средств и методов. Одно из них:
Информатика– это фундаментальная естественнонаучная дисциплина, изучающая теоретические и практические аспекты процессов сбора, хранения, обработки и передачи информации.
Информатика в широком смысле представляет собой единство разнообразных отраслей науки, техники и производства, ориентированных на разработку информационных технологий и создание аппаратно-технического оборудования, главным образом, компьютерной техники и телекоммуникационных средств связи, обеспечивающих эффективную работу с информацией во всех сферах человеческой деятельности.
Информатика в узком смысле представляет собой науку, состоящую из трех взаимосвязанных частей (направлений):
· алгоритмические средства (brainware);
· программные средства (software);
· технические средства (hardware).
Информация
Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.
Информация в принципиальном плане – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.
Под информацией в функциональном плане понимается способность объектов, процессов и явлений живой и неживой природы порождать многообразие различных состояний, которые посредством отражения передаются от одного объекта к другому и запечатлеваются в том или ином виде в его структуре.
Сбор, хранение, обработка и передача информации присущи живой и неживой природе, человеку, обществу, техническим устройствам. В системах различной природы такие действия с информацией в своей основе одинаковы и называются информационными процессами:
· прием-передача информации между автоматическими устройствами выполняется с использованием технических средств связи.
· устройства хранения информации: кинопленка, CD/DVD/BlueRay диск, флеш-накопитель и др. – называются носителями информации. Носитель информации может быть разной природы: механический, магнитный, электрический, оптический. Носители информации различаются по форме представления информации, по принципу считывания, по типам материала. Информация на носителях запоминается в виде сигналов или знаков;
· обработка информации означает преобразование информации из одного вида в другой, осуществляемое по строгим формальным правилам. Автоматизированная обработка информации выполняется по принципу "черного ящика" – процесс, в котором пользователю важна и необходима лишь входная и выходная информация, но правила, по которым происходит преобразование, его не интересуют и не принимаются во внимание. Кроме этого, автоматизированная обработка не подразумевает осмысления потребителем информации на этапе ее обработки;
· информация передается в виде сообщений от некоторого источника информации к ее приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.
С понятием информации тесно связаны следующие понятия:
Сигнал – это любой процесс, несущий информацию.
Сообщение – это информация, представленная в определенной форме и предназначенная для передачи.
Данные – это информация, представленная в формализованном виде и предназначенная для обработки техническими средствами, например ЭВМ.
К числу основных качественных признаков информации относятся следующие:
Адекватность – достижение нужного уровня соответствия модели (образа) реальному объекту, процессу или явлению.
Актуальность – важность, существенность для настоящего момента.
Достоверность – отражение истинного положения дел.
Объективность – независимость от чьего-либо мнения.
Полнота – достаточность для понимания и принятия решения.
Доступность — мера возможности получить ту или иную информацию.
Вероятностный подход к информации
Значительный вклад в теорию информации внес американский инженер-связист и ученый Клод Шеннон в середине 20 века. Он оперировал терминами вероятностного подхода к информации.
Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации. Чем больше ее значение, тем больше беспорядок.
Информационная энтропия равна нулю, когда вероятность какого-либо сообщения равна единице (а вероятности остальных сообщений = нулю), т. е. когда информация полностью предсказуема и не несёт ничего нового для приёмника.
Энтропия принимает наибольшее значение для равновероятного распределения, когда все вероятности pk одинаковы; т. е. когда неопределённость, разрешаемая сообщением максимальна.
Формула Шеннона: I = - = .
Здесь: I – количество информации, получаемое в результате проведения опыта; N – общее количество исходов в опыте; pi – вероятность i-го исхода.
Например, кидание монеты имеет энтропию − 2(0,5log20,5) = 1 бит на одно кидание (при условии его независимости). У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю: . Так, например, опытным путём можно установить, что энтропия английского текста равна 1,5 бит на символ.
За единицу информации 1 бит(binary digit – двоичная единица) принимается количество информации, получаемое в результате проведения опыта, состоящего в выборе одного из двух равновероятных исходов.
Объемный подход к информации
В техническом устройстве наиболее просто реализовать два противоположных физических состояния – 1/0, вкл/выкл, есть ток/нет тока, поэтому единица Бит является основной, фундаментальной единицей измерения информации. Его можно считать "информационным атомом".
Одним битом могут быть закодированы два понятия: 0 или 1 (да или нет, истина или ложь и т. п.). Двумя битами возможно выразить четыре различных понятия, а тремя – закодировать восемь различных значений.
На практике чаще применяется более крупная единица измерения – байт (1 байт = 8 бит), а также производные от него единицы измерения информации:
1 Кбайт | = 1024 байт | = 210 байт | = 1 024 байт | = 8 192 бит; |
1 Мбайт | = 1024 Кбайт | = 220 байт | = 1 048 576 байт | = 8 388 608 бит; |
1 Гбайт | = 1024 Мбайт | = 230 байт | = 1 073 741 824 байт | = 8 589 934 592 бит; |
1 Тбайт | = 1024 Гбайт | = 240 байт | = 1 099 511 627 776 байт | = 8 796 093 022 208 бит; |
1 Пбайт | = 1024 Тбайт | = 250 байт | = 1 125 899 906 842 620 байт | = 9 007 199 254 740 990 бит. |
При этом важно отличать двоичные кратные приставки от соответствующих десятичных: "один К" – 1 К=210=1024 от "один кило" – 103=1000, "один М" – 1 М=220=1048576 от "один мега" – 106=1000000 и т.д.
Система счисления - принятый способ записи чисел и сопоставления этим записям реальных значений.
Для записи чисел в различных системах счисления используется некоторое количество отличных друг от друга знаков. Число таких знаков в позиционной системе счисления называетсяоснованием системы счисления.
Основание | Система счисления | Знаки |
Двоичная | 0,1 | |
Троичная | 0,1.2 | |
Пятиричная | 0,1,2,3,4 | |
Восьмиричная | 0,1,2,3,4,5,6,7 | |
Десятичная | 0,1,2,3,4,5,6,7,8,9 | |
Шестнадцатиричная | 0,1,2,3,4,5,6,7,8,9,A.B,C,D,E,F |
Пример представления числа в десятичной системе:
692(10) = 6* 102 + 9*101 + 2.
Пример представления числа в двоичной системе:
1101(2)= 1*23 + 1*22+0*21+ 1*2° = 13(10)
Кодирование информации
Кодирование информации применяют для унификации формы представления данных, которые относятся к различным типам, в целях автоматизации работы с информацией.
Кодирование – это выражение данных одного типа через данные другого типа. Например, алфавит русского или английского языка представляет собой систему кодирования человеческого языка с помощью графических символов.
Информация передается и хранится в виде сообщений. Дискретная информация записывается с помощью некоторого конечного набора знаков или символов. Все возможное множество этих символов называется алфавит.
П: 1. Алфавит прописных русских букв:
А Б В Г Д Е Е Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Ъ Ы Ь Э Ю Я
2. Алфавит арабских цифр:
2. Алфавит шестнадцатиричных цифр:
0123456789ABCDEF
3. Алфавит двоичных цифр:
0 1
4. Алфавит римской системы счисления:
I V Х L С D М
Дата добавления: 2017-11-04; просмотров: 358;