Информационное обеспечение АСУ.

XXI век – это век информатизации и компьютеризации общества, а также

информационных технологий.

Информатизация общества – глобальный социальный прогресс сбора, нако-

пления, обработки, хранения, передачи и использования информации, осуще-

ствляемый на основе современных средств вычислительной техники, а также

на базе разнообразных средств информационного обмена.

Компьютеризация – процесс широкого применения информационных тех-

нологий и ЭВМ.

Технология – реализация научных и технических знаний в процессе разра-

ботки и создания машин и методов, улучшающих условия существования людей и увеличивающих эффективность их деятельности.

Новая технология – технология, впервые реализуемая, разработанная на ос-

нове передовых достижений науки и техники.

Информационные технологии – совокупность конкретных технических и

программных средств, с помощью которых выполняются различные опера-

ции по обработке информации во всех сферах нашей жизни и деятельности.

Любая система управления, в том числе автоматизированная, не может ра- ботать без информации о состоянии управляемого объекта (процесса) и вне-

шней среды, без передачи информации о сформированных управляющих во-

здействиях. Определение оптимальных объемов информации, поступающей

в различные устройства управления и распределения потоков информации

во времени и пространстве, - необходимое условие эффективного функцио-

нирования АСУ.

Непрерывное и своевременное обеспечение системы АСУ всеми необходи-

мыми сведениями – основная функция информационного обеспечения.

Для выполнения задач управления важное значение приобретают вопросы развития и внедрения новой техники и технологий, ускорения научно-техни-

ческого прогресса в экономике России и одного из главных его направлений – управления пищевыми производствами на основе широкого внедрения про-

граммно-технического комплекса (ПТК) для систем автоматического и авто- матизированного управления.

В основе всех процессов управления лежит изучения информационных процессов, происходящих в системе (технической, экономической, биологи-

ческой, социальной и т.п.). Все процессы управления в организованных сис- системах следует рассматривать как процессы формирования, обработки и

преобразования информации, поступающей в эти системы, в новую информа-

цию, необходимую для управления системой.

Настоящее развитие элементной базы основано на вычислительных средст-

вах управления (микропроцессорные системы, коммуникационные сети, ПТК, ЭВМ, ПЭВМ и другие), которые позволяют разрабатывать надежные и

эффективные автоматические и автоматизированные системы управления технологическими процессами. Эти системы обладают значительными функ-

циональными возможностями, гибкостью к изменению алгоритмов их рабо-

ты. Они создаются на базе современных аппаратных и программных средств

вычислительной техники и могут обеспечить высокий уровень автоматиза-

ции и управления пищевыми производствами с целью получения продукции

стандартного качества.

Качество продукции является определяющим фактором в решении вопросов

повышения эффективности производства и благосостояния трудящихся. Ста-

ндартное качество продукции обеспечивается обобщающими показателями:

научно-технического прогресса, уровня организации производства, его куль- туры, определяющим источником экономии трудовых и финансовых ресур-

сов непрерывного улучшения качества продукции, которое постоянно повы-

шает уровень жизни людей и является основой технического и экономичес-

кого подъема производства.

1.1. Информация.

В общем случае информация – это поток знаков и символов, это сообщение,

знания о каком-либо событии, о чей либо деятельности и т.п.. На основе ин-

формации осуществляется функционирование любой управляющей системы

(машин, людей, животных и т.п.).

Информация – это сведения об окружающем мире и протекающих в нем про- цессах, воспринимаемые человеком или специализированным устройством,

например компьютером, для обеспечения целенаправленной деятельности.

Информация возникает в процессе производства и управления. Она прису-

ща лишь организованным системам, способным воспринимать информацию и изменяться под влиянием внешних и внутренним воздействий.

В управлении информация играет главную роль, развиваясь и видоизменяясь

под воздействием экономических факторов, технического прогресса, внеш-

ней среды, потребностей производства, организации процесса управления.

Поток информации – это совокупность данных являющихся частью какой-либо информации, рассматриваемая в процессе ее движения в пространстве

и времени в одном направлении при условии, что у этих данных есть общий источник и общий приемник. Например, в производстве совокупность всех

сведений, передаваемых из объекта управления (технологический процесс) –

источник, а система управления – адресат.

Внутри предприятия (объединения), между их подразделениями циркулиру-

ет огромное количество информации о запасах сырья, наличии мощностей

(оборудования) и рабочей силе, номенклатуре выпускаемой продукции и т.п..

Информация может быть по своей физической природе: числовой, тексто-

вой, графической, звуковой, видео и др. Она также может быть постоянной (неизменяющейся), переменной, случайной, вероятностной. Наибольший ин-

терес представляет переменная информация, так как она позволяет выявлять

причинно-следственные связи в процессах и явлениях.

Существуют различные способы оценки количества информации. Класси-

ческим является подход, использующий формулу К. Шеннона, применитель-

но к двоичной системе счисления она имеет вид:

I = log 2 N , (1 – 1)

где I – количество информации, несущей представления о состоянии, в кото-

ром находится объект; N – количество равновероятных альтернативных сос-

тояний объекта.

Для описания и оценки контролируемых объекта необходимы обобщенные

информационные характеристики, позволяющие применить общие теорети-

ческие выводы и оценки на все области измерительной техники.

Разработка и применение единых критериев и методов для расчетов и оцен-

ки качества измерительных устройств и каналов связи, сложных информаци-

онных и автоматизированных систем управления возможны при использова-

нии основных положений теории информации.

Информационная теория измерений и измерительных устройств как раздел

современной метрологии полностью согласуется с ее прежним представле-

нием и является логическим продолжением и развитием. Согласно этой тео-

рии результаты измерений и контроля рассматриваются как случайные собы-

тия, проводимые эксперименты по процедуре измерений и контролю – как ситуации в которых эти события могут проявляться.

Основным понятием в теории информации является понятие энтропии, ко-

торая в применении к измерениям характеризует меру неопределенности ис-

следуемой ситуации, т.е. процедуры измерения и контроля соответствующих

параметров. Энтропия определяется числом возможных событий в заданной

ситуации и вероятностями их появления.

Энтропией системы называется сумма произведений вероятностей различ-

ных состояний системы на логарифмы этих вероятностей, взятая с обратным

знаком.

При этом рассматривается некоторая физическая система Х, которая может

принимать конечное множество состояний х1, х2,…., хn с вероятностями р1, р2, …., рn , т.е. энтропия: Н(Х) = рi log рi , (1 – 2)

где рi – Р(Х~xi) – вероятность того, что система Х примет состояния хi , а че-

рез Р обозначается статистическая вероятность.

Энтропия Н(Х) обращается в нуль, если одно из состояний системы досто-

верно, а остальные невозможны, т.е. энтропия системы, состояние которой точно известно, обращается в нуль. При заданном числе состояний, когда

эти состояния равновероятны, она (энтропия) сводится к минимуму, а при

увеличении числа этих состояний увеличивается.

Энтропия сложной системы, состоящих из нескольких простых систем,

формируется при их объединении. При этом энтропия сложной системы рав-

на сумме произведений вероятностей всех возможных ее состояний на лога-

рифмы, взятой с обратным знаком, т.е.

Н (Х, У) = - Рij log Pij (1 – 3)

Если объединяемые системы независимы, их энтропии складываются:

Н(Х, У) = Н(Х) + Н(У) (1 – 4)

Если система формируется из независимых друг от друга систем, для ихобъединения вводится понятие условной энтропии, которая имеет вид:

Н(Х/У) = - Pij log P(уj / xi) (1 – 5)

Величина условной энтропии Н(Х/У) характеризует степень неопределен-

ности системы У, оставшееся после того, как состояние системы Х полно-

стью определилось.

Если две системы Х и У объединяются в одну, то энтропия объединенной

системы равна энтропии одной из ее частей плюс условная энтропия второй

части относительно первой:

Н(Х, У) = Н(Х) + Н(Х/У) (1 – 6)

При объединении любого количества систем формула сложения их энтро-

пий имеет вид:

Н(Х1, Х2,…,ХS)=Н(Хi)+Н(Х2i)+Н(Х312)+…+Н(ХS12,…ХS-1) (1 – 7)

Следовательно, в результате получения информации неопределенность системы уменьшается. Чем больше объем и содержательность информации,

тем менее неопределенность состояния системы. Поэтому, актуальна целесо-

образность оценки количества информации измерением энтропии системы,

состояние которой оценивается.

Количество информации, которая приобретается при полном выяснении состояния некоторой системы Х, равно энтропии этой системы:

Iх = Н(Х) (1 – 8)

или Iх = - рi log рi , (1 – 9)

где рi = P(X~xi)

При получении информации о системе Х путем наблюдения за некоторой

другой системой У, связанной с нею, количество полной взаимной информа-

ции, содержащейся в обоих системах, равно сумме энтропий составляющих систем минус энтропия объединенной системы:

Iу«х = Н(Х, У) = Н(Х) + Н(У) – Н(Х, У) ( 1 – 10)

Для физических систем, аналогичных непрерывным случайным величинам,

энтропия имеет вид: НDх(Х) = - f(х) log f(x)dx - logDx , (1 – 11)

где Dх – степень точности определения состояния системы.

Из выражения (1-11) видно, что от Dх зависит только второй его член

(-log Dх), который при Dх®0 стремится к бесконечности, т.е. чем точнее

следует знать состояние системы Х, тем большая часть неопределенности

должна быть устранена.

Таким образом, задаваясь зоной нечувствительности Dх измерительных

средств, с помощью которых производятся измерения для определения состояния системы Х, можно определить энтропию этой системы.

Для определения условной энтропии имеем выражение в виде математиче-

ского ожидания функции: НDх(Х) = - f(x) lоg {f(x)Dx}dx. (1 – 12)

Для двух взаимозависимых непрерывных систем Х и У полная (средняя)

энтропия имеет вид:

НDхDу(У/Х) = - f(х,у) log f(у/х)dxdу - logDу , (1 – 13)

 








Дата добавления: 2016-01-03; просмотров: 872;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.028 сек.