Появление компьютеров и компьютерных технологий

Многие столетия люди пытаются создать различные приспособления для облегчения вычислений. В истории развития компьютеров и компьютерных технологий выделяются несколько важных событий, которые стали определяющими в дальнейшей эволюции.

В 40-е гг. XVII в. Б. Паскаль изобрел механическое устройство, с помощью которого можно было выполнять сложение чисел.

В конце XVIII в. Г. Лейбниц создал механическое устройство, предназначенное для сложения и умножения чисел. Механические вычислители выпускались и позднее.

В 1946 г. были изобретены первые универсальные ЭВМ. Американские ученые Дж. фон Нейман, Г. Голдстайн и А. Берне опубликовали работу, в которой представили основные принципы создания универсальной ЭВМ. Начиная с конца 1940-х гг. стали появляться первые опытные образцы таких машин, условно называемых ЭВМ первого поколения. Эти ЭВМ изготавливались на электронных лампах и по производительности отставали от современных калькуляторов.

В дальнейшем развитии ЭВМ выделяют следующие этапы:

• второе поколение ЭВМ – изобретение транзисторов;

• третье поколение ЭВМ – создание интегральных схем;

• четвертое поколение ЭВМ – появление микропроцессоров (1971 г.).

Первые микропроцессоры выпускались компанией Intel, что и привело к появлению нового поколения ПК. Вследствие возникшего в обществе массового интереса к таким компьютерам компания IBM (International Business Machines Corporation) разработала новый проект по их созданию, а фирма Microsoft – программное обеспечение для данного компьютера. Проект завершился в августе 1981 г., и новый ПК стал называться IBM PC.

 

Выделение информатики как самостоятельной области человеческой деятельности в первую очередь связано с развитием компьютерной техники. Информатика как наука нацелена на разработку общих методологических принципов построения информационных моделей. Поэтому методы информатики применимы всюду, где существует возможность информационного описания объекта, процесса, явления и т.п. Существует множество определений информатики, что связано с многогранностью ее функций, возможностей, средств и методов. Одно из них:

Информатика– это фундаментальная естественнонаучная дисциплина, изучающая теоретические и практические аспекты процессов сбора, хранения, обработки и передачи информации.

Информатика в широком смысле представляет собой единство разнообразных отраслей науки, техники и производства, ориентированных на разработку информационных технологий и создание аппаратно-технического оборудования, главным образом, компьютерной техники и телекоммуникационных средств связи, обеспечивающих эффективную работу с информацией во всех сферах человеческой деятельности.

Информатика в узком смысле представляет собой науку, состоящую из трех взаимосвязанных частей (направлений):

· алгоритмические средства (brainware);

· программные средства (software);

· технические средства (hardware).

Информация

 

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Информация в принципиальном плане – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Под информацией в функциональном плане понимается способность объектов, процессов и явлений живой и неживой природы порождать многообразие различных состояний, которые посредством отражения передаются от одного объекта к другому и запечатлеваются в том или ином виде в его структуре.

 

Сбор, хранение, обработка и передача информации присущи живой и неживой природе, человеку, обществу, техническим устройствам. В системах различной природы такие действия с информацией в своей основе одинаковы и называются информационными процессами:

· прием-передача информации между автоматическими устройствами выполняется с использованием технических средств связи.

· устройства хранения информации: кинопленка, CD/DVD/BlueRay диск, флеш-накопитель и др. – называются носителями информации. Носитель информации может быть разной природы: механический, магнитный, электрический, оптический. Носители информации различаются по форме представления информации, по принципу считывания, по типам материала. Информация на носителях запоминается в виде сигналов или знаков;

· обработка информации означает преобразование информации из одного вида в другой, осуществляемое по строгим формальным правилам. Автоматизированная обработка информации выполняется по принципу "черного ящика" – процесс, в котором пользователю важна и необходима лишь входная и выходная информация, но правила, по которым происходит преобразование, его не интересуют и не принимаются во внимание. Кроме этого, автоматизированная обработка не подразумевает осмысления потребителем информации на этапе ее обработки;

· информация передается в виде сообщений от некоторого источника информации к ее приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

С понятием информации тесно связаны следующие понятия:

Сигнал – это любой процесс, несущий информацию.

Сообщение – это информация, представленная в определенной форме и предназначенная для передачи.

Данные – это информация, представленная в формализованном виде и предназначенная для обработки техническими средствами, например ЭВМ.

К числу основных качественных признаков информации относятся следующие:

Адекватность – достижение нужного уровня соответствия модели (образа) реальному объекту, процессу или явлению.

Актуальность – важность, существенность для настоящего момента.

Достоверность – отражение истинного положения дел.

Объективность – независимость от чьего-либо мнения.

Полнота – достаточность для понимания и принятия решения.

Доступность — мера возможности получить ту или иную информацию.

Вероятностный подход к информации

Значительный вклад в теорию информации внес американский инженер-связист и ученый Клод Шеннон в середине 20 века. Он оперировал терминами вероятностного подхода к информации.

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации. Чем больше ее значение, тем больше беспорядок.

Информационная энтропия равна нулю, когда вероятность какого-либо сообщения равна единице (а вероятности остальных сообщений = нулю), т. е. когда информация полностью предсказуема и не несёт ничего нового для приёмника.

Энтропия принимает наибольшее значение для равновероятного распределения, когда все вероятности pk одинаковы; т. е. когда неопределённость, разрешаемая сообщением максимальна.

Формула Шеннона: I = - = .

Здесь: I – количество информации, получаемое в результате проведения опыта; N – общее количество исходов в опыте; pi – вероятность i-го исхода.

Например, кидание монеты имеет энтропию − 2(0,5log20,5) = 1 бит на одно кидание (при условии его независимости). У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю: . Так, например, опытным путём можно установить, что энтропия английского текста равна 1,5 бит на символ.

За единицу информации 1 бит(binary digit – двоичная единица) принимается количество информации, получаемое в результате проведения опыта, состоящего в выборе одного из двух равновероятных исходов.

Объемный подход к информации

В техническом устройстве наиболее просто реализовать два противоположных физических состояния – 1/0, вкл/выкл, есть ток/нет тока, поэтому единица Бит является основной, фундаментальной единицей измерения информации. Его можно считать "информационным атомом".

Одним битом могут быть закодированы два понятия: 0 или 1 (да или нет, истина или ложь и т. п.). Двумя битами возможно выразить четыре различных понятия, а тремя – закодировать восемь различных значений.

На практике чаще применяется более крупная единица измерения – байт (1 байт = 8 бит), а также производные от него единицы измерения информации:

 

1 Кбайт = 1024 байт = 210 байт = 1 024 байт = 8 192 бит;
1 Мбайт = 1024 Кбайт = 220 байт = 1 048 576 байт = 8 388 608 бит;
1 Гбайт = 1024 Мбайт = 230 байт = 1 073 741 824 байт = 8 589 934 592 бит;
1 Тбайт = 1024 Гбайт = 240 байт = 1 099 511 627 776 байт = 8 796 093 022 208 бит;
1 Пбайт = 1024 Тбайт = 250 байт = 1 125 899 906 842 620 байт = 9 007 199 254 740 990 бит.

 

При этом важно отличать двоичные кратные приставки от соответствующих десятичных: "один К" – 1 К=210=1024 от "один кило" – 103=1000, "один М" – 1 М=220=1048576 от "один мега" – 106=1000000 и т.д.

Система счисления - принятый способ записи чисел и сопоставления этим записям реальных значений.

Для записи чисел в различных системах счисления используется некоторое количество отличных друг от друга знаков. Число таких знаков в позиционной системе счисления называетсяоснованием системы счисления.

Основание Система счисления Знаки
Двоичная 0,1
Троичная 0,1.2
Пятиричная 0,1,2,3,4
Восьмиричная 0,1,2,3,4,5,6,7
Десятичная 0,1,2,3,4,5,6,7,8,9
Шестнадцатиричная 0,1,2,3,4,5,6,7,8,9,A.B,C,D,E,F

 

Пример представления числа в десятичной системе:

692(10) = 6* 102 + 9*101 + 2.

Пример представления числа в двоичной системе:

1101(2)= 1*23 + 1*22+0*21+ 1*2° = 13(10)

 

Кодирование информации

Кодирование информации применяют для унификации формы представления данных, которые относятся к различным типам, в целях автоматизации работы с информацией.

Кодирование – это выражение данных одного типа через данные другого типа. Например, алфавит русского или английского языка представляет собой систему кодирования человеческого языка с помощью графических символов.

Информация передается и хранится в виде сообщений. Дискретная информация записывается с помощью некоторого конечного набора знаков или символов. Все возможное множество этих символов называется алфавит.

П: 1. Алфавит прописных русских букв:

А Б В Г Д Е Е Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Ъ Ы Ь Э Ю Я

2. Алфавит арабских цифр:

2. Алфавит шестнадцатиричных цифр:

0123456789ABCDEF

3. Алфавит двоичных цифр:

0 1

4. Алфавит римской системы счисления:

I V Х L С D М

 








Дата добавления: 2017-11-04; просмотров: 365;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.015 сек.