Проектирование систем искусственного интеллекта

       

Метод наименьших квадратов


Перед тем, как начинать рассмотрение МГУА, было бы полезно вспомнить (или узнать впервые) метод наименьших квадратов — наиболее распространенный метод подстройки линейно зависимых параметров.

Рассмотрим для примера МНК для трех аргументов.

Пусть функция T=T(U, V, W) задана таблицей, то есть из опыта известны числа Ui, Vi, Wi, Ti ( i = 1, … , n). Будем искать зависимость между этими данными в виде:

T(U,V,W)=aU+bV+cW (4.43)

где a, b, c — неизвестные параметры.

Подберем значения этих параметров так, чтобы была наименьшей сумма квадратов уклонений опытных данных Ti и теоретических Ti = aUwi + bVi + cWi, то есть сумма:

(4.44)

Величина

является функцией трех переменных a, b, c. Необходимым и достаточным условием существования минимума этой функции является равенство нулю частных производных функции
по всем переменным, то есть:

(4.45)

Так как:

(4.46)

система для нахождения a, b, c будет иметь вид:

(4.47)

Данная система решается любым стандартным методом решения систем линейных уравнений (Гаусса, Жордана, Зейделя, Крамера).

Рассмотрим некоторые практические примеры нахождения приближающих функций.

  1. Задача подбора коэффициентов

    ,
    ,
    сводится к решению общей задачи при T=y, U=x2, V=x, W=1,
    .

  2. Задача подбора коэффициентов

    ,
    ,
    сводится к решению общей задачи при T=f, U=sin(x), V=cos(y), W=1/x,
    .

Если мы распространим МНК на случай с m параметрами,

(4.48)

то путем рассуждений, аналогичных приведенным выше, получим следующую систему линейных уравнений:

(4.49)

где



Содержание раздела