|
Лекция 02.
|
Рис. 2.1. Обозначение черного ящика на схемах |
Значения на входах и выходах черного ящика можно наблюдать и измерять. Содержимое ящика неизвестно.
Задача состоит в том, чтобы, зная множество значений на входах и выходах, построить модель, то есть определить функцию ящика, по которой вход преобразуется в выход. Такая задача называется задачей регрессионного анализа.
В зависимости от того, доступны входы исследователю для управления или только для наблюдения, можно говорить про активный или пассивный эксперимент с ящиком.
Пусть, например, перед нами стоит задача определить, как зависит выпуск продукции от количества потребляемой электроэнергии. Результаты наблюдений отобразим на графике (см. рис. 2.2). Всего на графике n экспериментальных точек, которые соответствуют n наблюдениям.
Рис. 2.2. Графический вид представления результатов наблюдения над черным ящиком |
Для начала предположим, что мы имеем дело с черным ящиком, имеющим один вход и один выход. Допустим для простоты, что зависимость между входом и выходом линейная или почти линейная. Тогда данная модель будет называться линейной одномерной регрессионной моделью.
1) Исследователь вносит гипотезу о структуре ящика
Рассматривая экспериментально полученные данные, предположим, что они подчиняются линейной гипотезе, то есть выход Y зависит от входа X линейно, то есть гипотеза имеет вид: Y = A1X + A0 (рис. 2.2).
2) Определение неизвестных коэффициентов A0 и A1 модели
Линейная одномерная модель (рис. 2.3).
Рис. 2.3. Одномерная модель черного ящика |
Для каждой из n снятых экспериментально точек вычислим ошибку (Ei) между экспериментальным значением (YiЭксп.) и теоретическим значением (YiТеор.), лежащим на гипотетической прямой A1X + A0 (см. рис. 2.2):
Ei = (YiЭксп. YiТеор.), i = 1, , n;
Ei = Yi A0 A1 · Xi, i = 1, , n.
Ошибки Ei для всех n точек следует сложить. Чтобы положительные ошибки не компенсировали в сумме отрицательные, каждую из ошибок возводят в квадрат и складывают их значения в суммарную ошибку F уже одного знака:
Ei2 = (Yi A0 A1 · Xi)2, i = 1, , n.
Цель метода минимизация суммарной ошибки F за счет подбора коэффициентов A0, A1. Другими словами, это означает, что необходимо найти такие коэффициенты A0, A1 линейной функции Y = A1X + A0, чтобы ее график проходил как можно ближе одновременно ко всем экспериментальным точкам. Поэтому данный метод называется методом наименьших квадратов.
Суммарная ошибка F является функцией двух переменных A0 и A1, то есть F(A0, A1), меняя которые, можно влиять на величину суммарной ошибки (см. рис. 2.4).
Рис. 2.4. Примерный вид функции ошибки |
Чтобы суммарную ошибку минимизировать, найдем частные производные от функции F по каждой переменной и приравняем их к нулю (условие экстремума):
После раскрытия скобок получим систему из двух линейных уравнений:
Для нахождения коэффициентов A0 и A1 методом Крамера представим систему в матричной форме:
Решение имеет вид:
Вычисляем значения A0 и A1.
3) Проверка
Чтобы определить, принимается гипотеза или нет, нужно, во-первых, рассчитать ошибку между точками заданной экспериментальной и полученной теоретической зависимости и суммарную ошибку:
Ei = (YiЭксп. YiТеор.), i = 1, , n
И, во-вторых, необходимо найти значение σ по формуле , где F суммарная ошибка, n общее число экспериментальных точек.
Если в полосу, ограниченную линиями YТеор. S и YТеор. + S (рис. 2.5), попадает 68.26% и более экспериментальных точек YiЭксп., то выдвинутая нами гипотеза принимается. В противном случае выбирают более сложную гипотезу или проверяют исходные данные. Если требуется большая уверенность в результате, то используют дополнительное условие: в полосу, ограниченную линиями YТеор. 2S и YТеор. + 2S, должны попасть 95.44% и более экспериментальных точек YiЭксп..
Рис. 2.5. Исследование допустимости принятия гипотезы |
Расстояние S связано с σ следующим соотношением:
S = σ/sin(β) = σ/sin(90° arctg(A1)) = σ/cos(arctg(A1)),
что проиллюстрировано на рис. 2.6.
Рис. 2.6. Связь значений σ и S |
Условие принятия гипотезы выведено из нормального закона распределения случайных ошибок (см. рис. 2.7). P вероятность распределения нормальной ошибки.
Рис. 2.7. Иллюстрация закона нормального распределения ошибок |
Наконец, приведем на рис. 2.8 графическую схему реализации одномерной линейной регрессионной модели.
Рис. 2.8. Схема реализации метода наименьших квадратов в среде моделирования |
Практика № 01: «Регрессионные модели»
Лабораторная работа № 01: «Линейные регрессионные модели»
Предположим, что функциональная структура ящика снова имеет линейную зависимость, но количество входных сигналов, действующих одновременно на объект, равно m (см. рис. 2.9):
Y = A0 + A1 · X1 + + Am · Xm.
Рис. 2.9. Обозначение многомерного черного ящика на схемах |
Так как подразумевается, что мы имеем экспериментальные данные о всех входах и
выходах черного ящика, то можно вычислить ошибку между экспериментальным
(YiЭксп.)
и теоретическим
(YiТеор.)
значением
Y
для каждой
Ei = (YiЭксп. YiТеор.), i = 1, , n;
Ei = Yi A0 A1 · X1i Am · Xmi, i = 1, , n.
Минимизируем суммарную ошибку F:
Ошибка F зависит от выбора параметров A0, A1, , Am. Для нахождения экстремума приравняем все частные производные F по неизвестным A0, A1, , Am к нулю:
Получим систему из m + 1 уравнения с m + 1 неизвестными, которую следует решить, чтобы определить коэффициенты линейной множественной модели A0, A1, , Am. Для нахождения коэффициентов методом Крамера представим систему в матричном виде:
Вычисляем коэффициенты A0, A1, , Am.
Далее, по аналогии с одномерной моделью (см. 3). «Проверка»), для каждой точки вычисляется ошибка Ei; затем находится суммарная ошибка F и значения σ и S с целью определить, принимается ли выдвинутая гипотеза о линейности многомерного черного ящика или нет.
При помощи подстановок и переобозначений к линейной множественной модели приводятся многие нелинейные модели. Подробно об этом рассказывается в материале следующей лекции.
Лекция 01. Понятие моделирования. Способы | Лекция 03. Нелинейные регрессионные модели | ||||||||||||||||
|