Равномерное приближение функций. Приближение методом наименьших квадратов
До сих пор рассматривалась интерполяция, т. е. такой способ приближения, когда значения приближаемой и приближающей функций совпадают в узлах некоторой сетки. Однако достаточно часто, например, при аппроксимации большого числа экспериментальных точек, найденных с некоторой погрешностью, интерполяция становится неразумной. В этом случае целесообразно строить приближающую функцию таким образом, чтобы сгладить влияние погрешности измерения и числа точек эксперимента. Такое сглаживание реализуется при построении приближающей функции по методу наименьших квадратов. Вид приближающей функции может быть произвольным, далее рассмотрен случай, когда приближающая функция является многочленом. При этом добиваются минимизации суммы квадратов отклонений значений приближаемой и приближающей функций в узлах сетки. Эта сумма называется КВАДРАТИЧНЫМ ОТКЛОНЕНИЕМ.
Пусть функция при задана таблично в узлах хj. Необходимо построить такой многочлен которого минимально квадратичное отклонение
(4.49)
Очевидно, что минимума Ф можно добиться только за счет изменения коэффициента многочлена Fn(x). Необходимые условия экстремума имеют вид
, . (4.50)
Эту систему для удобства преобразуют к виду
, . (4.51)
Система (4.51) называется НОРМАЛЬНОЙ СИСТЕМОЙ МЕТОДА НАИМЕНЬШИХ КВАДРАТОВ и представляет собой систему линейных алгебраических уравнений относительно коэффициентов ai. Решив систему, построим многочлен Fn(x), приближающий функцию f(x) и минимизирующий квадратичное отклонение.
Рассмотрим одно важное свойство системы (4.51). Предположим, что точки равномерно распределены на отрезке [О, 1], т. е. , . В этом случае сумму можно приближенно заменить интегралом
..
Тогда определитель системы (4.51) составляет
,
где — матрица Гильберта порядка n + 1, элементы которой имеют вид . Определитель этой матрицы
весьма быстро убывает с ростом р, что приводит кбыстрому убыванию величины определителя системы . Так для р = 2 и для р = 3. В первом случае n = 1, во втором n = 2.
Следовательно, система (4.51) с увеличением степени n приближающего многочлена становится плохо обусловленной и решение её связано с большой потерей точности. Поэтому в методе наименьших квадратов, как правило, используют приближающий многочлен не выше третьей степени. При необходимости построения многочленов большей степени применяют приемы, позволяющие повысить обусловленность системы (4.51); обычно таких приемов два. В первом используют систему точек, позволяющую разбить систему (4.51) на две подсистемы меньшего порядка, во втором — систему ортогональных многочленов,
Как отмечалось, метод наименьших квадратов широко применяется для сглаживания экспериментальных кривых, полученных с некоторой погрешностью. Если степень аппроксимирующего многочлена равна числу точек, то среднеквадратичный многочлен совпадает с интерполяционным. Поэтому хорошее сглаживание будет при . Но если n очень мало, то для описания сложной кривой коэффициентов может не хватить. Чтобы выбрать оптимальную степень многочлена, строят многочлен по методу наименьших квадратов некоторой степени n, вычисляют квадратичное отклонение Ф и сравнивают его с известной величиной погрешности .
Если , т.е. математическая ошибка существенно превышает ошибку экспериментальных данных, то степень приближающего многочлена недостаточна для описания кривой. Если же , то старшие коэффициенты аппроксимации физически недостоверны. Хорошее сглаживание получается в том случае, когда. . В этом случае степень приближающего многочлена оптимальна. Обычно начинают построение приближающего многочлена для случая n = 1 и увеличивают его степень до тек пор, пока отклонение Ф не станет примерно равным . Если при этом , то приближающий многочлен выбран верно. Если это условие не соблюдается, то следует поискать более удачный вид приближающей функции.
Можно показать методами теории вероятностей, что функция , найденная по формулам (4.50), (4.51), с наибольшим правдоподобием совпадает с оценкой математического ожидания для заданной выборки , т.е. метод наименьших квадратов обладает сглаживающими свойствами.
5. ЧИСЛЕННОЕ ИНТЕГРИРОВАНИЕ И ДИФФЕРЕНЦИРОВАНИЕ
Дата добавления: 2015-11-06; просмотров: 1117;