Информационное обеспечение АСУ.
XXI век – это век информатизации и компьютеризации общества, а также
информационных технологий.
Информатизация общества – глобальный социальный прогресс сбора, нако-
пления, обработки, хранения, передачи и использования информации, осуще-
ствляемый на основе современных средств вычислительной техники, а также
на базе разнообразных средств информационного обмена.
Компьютеризация – процесс широкого применения информационных тех-
нологий и ЭВМ.
Технология – реализация научных и технических знаний в процессе разра-
ботки и создания машин и методов, улучшающих условия существования людей и увеличивающих эффективность их деятельности.
Новая технология – технология, впервые реализуемая, разработанная на ос-
нове передовых достижений науки и техники.
Информационные технологии – совокупность конкретных технических и
программных средств, с помощью которых выполняются различные опера-
ции по обработке информации во всех сферах нашей жизни и деятельности.
Любая система управления, в том числе автоматизированная, не может ра- ботать без информации о состоянии управляемого объекта (процесса) и вне-
шней среды, без передачи информации о сформированных управляющих во-
здействиях. Определение оптимальных объемов информации, поступающей
в различные устройства управления и распределения потоков информации
во времени и пространстве, - необходимое условие эффективного функцио-
нирования АСУ.
Непрерывное и своевременное обеспечение системы АСУ всеми необходи-
мыми сведениями – основная функция информационного обеспечения.
Для выполнения задач управления важное значение приобретают вопросы развития и внедрения новой техники и технологий, ускорения научно-техни-
ческого прогресса в экономике России и одного из главных его направлений – управления пищевыми производствами на основе широкого внедрения про-
граммно-технического комплекса (ПТК) для систем автоматического и авто- матизированного управления.
В основе всех процессов управления лежит изучения информационных процессов, происходящих в системе (технической, экономической, биологи-
ческой, социальной и т.п.). Все процессы управления в организованных сис- системах следует рассматривать как процессы формирования, обработки и
преобразования информации, поступающей в эти системы, в новую информа-
цию, необходимую для управления системой.
Настоящее развитие элементной базы основано на вычислительных средст-
вах управления (микропроцессорные системы, коммуникационные сети, ПТК, ЭВМ, ПЭВМ и другие), которые позволяют разрабатывать надежные и
эффективные автоматические и автоматизированные системы управления технологическими процессами. Эти системы обладают значительными функ-
циональными возможностями, гибкостью к изменению алгоритмов их рабо-
ты. Они создаются на базе современных аппаратных и программных средств
вычислительной техники и могут обеспечить высокий уровень автоматиза-
ции и управления пищевыми производствами с целью получения продукции
стандартного качества.
Качество продукции является определяющим фактором в решении вопросов
повышения эффективности производства и благосостояния трудящихся. Ста-
ндартное качество продукции обеспечивается обобщающими показателями:
научно-технического прогресса, уровня организации производства, его куль- туры, определяющим источником экономии трудовых и финансовых ресур-
сов непрерывного улучшения качества продукции, которое постоянно повы-
шает уровень жизни людей и является основой технического и экономичес-
кого подъема производства.
1.1. Информация.
В общем случае информация – это поток знаков и символов, это сообщение,
знания о каком-либо событии, о чей либо деятельности и т.п.. На основе ин-
формации осуществляется функционирование любой управляющей системы
(машин, людей, животных и т.п.).
Информация – это сведения об окружающем мире и протекающих в нем про- цессах, воспринимаемые человеком или специализированным устройством,
например компьютером, для обеспечения целенаправленной деятельности.
Информация возникает в процессе производства и управления. Она прису-
ща лишь организованным системам, способным воспринимать информацию и изменяться под влиянием внешних и внутренним воздействий.
В управлении информация играет главную роль, развиваясь и видоизменяясь
под воздействием экономических факторов, технического прогресса, внеш-
ней среды, потребностей производства, организации процесса управления.
Поток информации – это совокупность данных являющихся частью какой-либо информации, рассматриваемая в процессе ее движения в пространстве
и времени в одном направлении при условии, что у этих данных есть общий источник и общий приемник. Например, в производстве совокупность всех
сведений, передаваемых из объекта управления (технологический процесс) –
источник, а система управления – адресат.
Внутри предприятия (объединения), между их подразделениями циркулиру-
ет огромное количество информации о запасах сырья, наличии мощностей
(оборудования) и рабочей силе, номенклатуре выпускаемой продукции и т.п..
Информация может быть по своей физической природе: числовой, тексто-
вой, графической, звуковой, видео и др. Она также может быть постоянной (неизменяющейся), переменной, случайной, вероятностной. Наибольший ин-
терес представляет переменная информация, так как она позволяет выявлять
причинно-следственные связи в процессах и явлениях.
Существуют различные способы оценки количества информации. Класси-
ческим является подход, использующий формулу К. Шеннона, применитель-
но к двоичной системе счисления она имеет вид:
I = log 2 N , (1 – 1)
где I – количество информации, несущей представления о состоянии, в кото-
ром находится объект; N – количество равновероятных альтернативных сос-
тояний объекта.
Для описания и оценки контролируемых объекта необходимы обобщенные
информационные характеристики, позволяющие применить общие теорети-
ческие выводы и оценки на все области измерительной техники.
Разработка и применение единых критериев и методов для расчетов и оцен-
ки качества измерительных устройств и каналов связи, сложных информаци-
онных и автоматизированных систем управления возможны при использова-
нии основных положений теории информации.
Информационная теория измерений и измерительных устройств как раздел
современной метрологии полностью согласуется с ее прежним представле-
нием и является логическим продолжением и развитием. Согласно этой тео-
рии результаты измерений и контроля рассматриваются как случайные собы-
тия, проводимые эксперименты по процедуре измерений и контролю – как ситуации в которых эти события могут проявляться.
Основным понятием в теории информации является понятие энтропии, ко-
торая в применении к измерениям характеризует меру неопределенности ис-
следуемой ситуации, т.е. процедуры измерения и контроля соответствующих
параметров. Энтропия определяется числом возможных событий в заданной
ситуации и вероятностями их появления.
Энтропией системы называется сумма произведений вероятностей различ-
ных состояний системы на логарифмы этих вероятностей, взятая с обратным
знаком.
При этом рассматривается некоторая физическая система Х, которая может
принимать конечное множество состояний х1, х2,…., хn с вероятностями р1, р2, …., рn , т.е. энтропия: Н(Х) = рi log рi , (1 – 2)
где рi – Р(Х~xi) – вероятность того, что система Х примет состояния хi , а че-
рез Р обозначается статистическая вероятность.
Энтропия Н(Х) обращается в нуль, если одно из состояний системы досто-
верно, а остальные невозможны, т.е. энтропия системы, состояние которой точно известно, обращается в нуль. При заданном числе состояний, когда
эти состояния равновероятны, она (энтропия) сводится к минимуму, а при
увеличении числа этих состояний увеличивается.
Энтропия сложной системы, состоящих из нескольких простых систем,
формируется при их объединении. При этом энтропия сложной системы рав-
на сумме произведений вероятностей всех возможных ее состояний на лога-
рифмы, взятой с обратным знаком, т.е.
Н (Х, У) = - Рij log Pij (1 – 3)
Если объединяемые системы независимы, их энтропии складываются:
Н(Х, У) = Н(Х) + Н(У) (1 – 4)
Если система формируется из независимых друг от друга систем, для ихобъединения вводится понятие условной энтропии, которая имеет вид:
Н(Х/У) = - Pij log P(уj / xi) (1 – 5)
Величина условной энтропии Н(Х/У) характеризует степень неопределен-
ности системы У, оставшееся после того, как состояние системы Х полно-
стью определилось.
Если две системы Х и У объединяются в одну, то энтропия объединенной
системы равна энтропии одной из ее частей плюс условная энтропия второй
части относительно первой:
Н(Х, У) = Н(Х) + Н(Х/У) (1 – 6)
При объединении любого количества систем формула сложения их энтро-
пий имеет вид:
Н(Х1, Х2,…,ХS)=Н(Хi)+Н(Х2/Хi)+Н(Х3/Х1,Х2)+…+Н(ХS/Х1,Х2,…ХS-1) (1 – 7)
Следовательно, в результате получения информации неопределенность системы уменьшается. Чем больше объем и содержательность информации,
тем менее неопределенность состояния системы. Поэтому, актуальна целесо-
образность оценки количества информации измерением энтропии системы,
состояние которой оценивается.
Количество информации, которая приобретается при полном выяснении состояния некоторой системы Х, равно энтропии этой системы:
Iх = Н(Х) (1 – 8)
или Iх = - рi log рi , (1 – 9)
где рi = P(X~xi)
При получении информации о системе Х путем наблюдения за некоторой
другой системой У, связанной с нею, количество полной взаимной информа-
ции, содержащейся в обоих системах, равно сумме энтропий составляющих систем минус энтропия объединенной системы:
Iу«х = Н(Х, У) = Н(Х) + Н(У) – Н(Х, У) ( 1 – 10)
Для физических систем, аналогичных непрерывным случайным величинам,
энтропия имеет вид: НDх(Х) = - f(х) log f(x)dx - logDx , (1 – 11)
где Dх – степень точности определения состояния системы.
Из выражения (1-11) видно, что от Dх зависит только второй его член
(-log Dх), который при Dх®0 стремится к бесконечности, т.е. чем точнее
следует знать состояние системы Х, тем большая часть неопределенности
должна быть устранена.
Таким образом, задаваясь зоной нечувствительности Dх измерительных
средств, с помощью которых производятся измерения для определения состояния системы Х, можно определить энтропию этой системы.
Для определения условной энтропии имеем выражение в виде математиче-
ского ожидания функции: НDх(Х) = - f(x) lоg {f(x)Dx}dx. (1 – 12)
Для двух взаимозависимых непрерывных систем Х и У полная (средняя)
энтропия имеет вид:
НDхDу(У/Х) = - f(х,у) log f(у/х)dxdу - logDу , (1 – 13)
Дата добавления: 2016-01-03; просмотров: 963;