Необходимые условия экстремума функций с ограничениями-равенствами.

Метод множителей Лагранжа

Рассмотрим задачу нелинейного программирования с ограничениями-равенствами:

IV = /(л,, ...,хя) -> тіп(шах); (4.26)

Ф/(^1 ’ • • • 5 хп) ь]І— 1? 2, ..., 1п. (4.27)

Необходимые условия экстремума функции (4.26) при ограничениях (4.27) даются методом множителей Лагранжа и записываются следующим образом:

(4.28)

дФ/дХ] = Ь] -<ру-(х,, = 0, у = 1, ...,т,

где функция

Ф(х], ...,Хт) = /{хь • ••,*„) + - еру (х,, ...,х„)](4.29)

У=1

называется функцией Лагранжа, А.,, ..., Xт — множители Лагранжа.

Согласно методу множителей Лагранжа задача оптимизации (4.26), (4.27) решается в следующей последовательности:

  • 1) составляется функция Лагранжа (4.29);
  • 2) отыскиваются ее частные производные по переменным х,, х2, ..., х„ и по А.,, Х2, ..., Хт, которые приравниваются к нулю;
  • 3) в результате получается система (4.28) из (п + т) уравнений, которую следует решить. Среди решений этой системы содержатся искомые точки экстремума функции (4.26), удовлетворяющие ограничениям (4.27).

При непосредственном применении метода множителей Лагранжа для решения практических задач оптимизации часто возникают трудности, связанные прежде всего с решением системы (4.28).

Для задач нелинейного программирования с ограничениями-неравенствами также получены необходимые условия экстремума [20]. С использованием этих условий разработан простой алгоритм, являющийся вариантом симплекс-метода, для решения одного специального типа задач нелинейного программирования. Это задачи, в которых минимизируемая целевая функция является квадратичной, т.е. имеет вид

И' = Xе/*/ + X йиххр

/=1 /,у=1

/<У

и выпуклой, а функции в ограничениях линейны. Такие задачи называются задачами квадратичного программирования.

Функция /(х) называется выпуклой функцией в выпуклой области (7, если для любых двух точек х(1) и х^ из (7 выполняется отношение

/

А,х^ + (1 - А,)х^ < А,/(х^ | + (1 - А,)/(х^У

гпе 0 < I < 1

Задача минимизации выпуклой функции IV = /(х) при ограничениях ф,- (5с) < 0 (у = 1, ..., т) и х > 0, где сру(х) — тоже выпуклые функции, называется задачей выпуклого программирования. Доказано, что эта задача является одноэкстремальной. Задача квадратичного программирования является ее частным случаем.

В деревообработке оптимизационную модель иногда строят по результатам экспериментальных исследований и формулируют в виде задачи минимизации квадратичной функции при простых ограничениях х/тіп < х, <х/тах, / = 1, п. поскольку целевая функция здесь не обязательно выпуклая, эта задача в общем случае не является задачей квадратичного программирования. Для ее решения специально разработан алгоритм, называемый диссоциативно-шаговым методом [7].

Методы линейной аппроксимации

Если нелинейные функции, входящие в математическую модель задачи, незначительно отличаются от линейных, то для решения задачи нелинейного программирования можно использовать методы линейной аппроксимации. В этом случае каждую из нелинейных функций ф(х,, ...,х„) заменяют членами первого порядка

в разложении ее в ряд Тейлора в окрестности исходной точки

(0)

х

Эср

Эх,-

Это эквивалентно тому, что функция аппроксимируется уравнением плоскости, касательной к ней в точке |х[0^,..., х^ На рис. 4.18

приведен пример, иллюстрирующий одномерный случай.

Схема метода линейной аппроксимации для одномерного случая

Рис. 4.18. Схема метода линейной аппроксимации для одномерного случая

Далее решают полученную задачу линейного программирования, ограничивая значения переменных небольшой окрестностью исходной точки Х(0). На следующем этапе вновь линеаризуют нелинейные функции уже в окрестности полученного решения ЗЛП и решают следующую ЗЛП и т.д. Процедура прекращается, когда при переходе от одной итерации к другой промежуточные решения ЗЛП перестают заметно отличаться друг от друга.

Методы штрафных функций

Эти методы основаны на идее преобразования оптимизационной задачи с ограничениями в последовательность задач без ограничений. (Для определенности будем говорить о задачах минимизации.) Отметим, что аналогичная идея используется в методе множителей Лагранжа (подпараграф 4.4.2). Преимущество в этом случае состоит в том, что задачи безусловной минимизации решаются проще, чем задачи минимизации с ограничениями. Функция, для которой отыскивается безусловный экстремум, составляется в виде комбинации целевой функции исходной задачи нелинейного программирования и функций, входящих в ее ограничения.

Пример. Пусть требуется минимизировать функцию двух переменных

W = /(х,,х2) = А + 3*2 —> min (4.30)

при ограничении типа равенства

х, + 4х2 + 3 = 0. (4.31)

Вместо этой задачи рассмотрим задачу безусловной минимизации для функции

Р(х,,х2) = xj2 + Зх2 + ?(х, + 4х2 + З)2 —> min, (4.32)

где к — некоторое достаточно большое положительное число. Функцию />(*!, х2) называют штрафной функцией. Из выражения (4.32) видно, что она включает в качестве слагаемых целевую функцию (4.30) исходной задачи и квадрат функции из ограничения (4.31). Поэтому несоблюдение данного ограничения приводит к увеличению значения штрафной функции — своего рода штрафу. Следовательно, достижению минимума функции Р{хх, х2) способствуют как минимизация целевой функции (4.30), так и более строгое выполнение ограничения (4.31). Тем не менее точка минимума функции Р(хх, х2) не совпадает с решением задачи (4.30), (4.31).

Для доказательства решим каждую из этих задач. Для отыскания решения задачи (4.30), (4.31) выразим х, из ограничения (4.31) и подставим найденное выражение в (4.30). Получим задачу 19х2 + 24х2 + 9 —» min.

Приравняв производную по х2 от этой функции к нулю, найдем х2опт - -12/19. А из равенства (4.31) получим х1опт = -9/19. (Использованный здесь метод подстановки иногда применяется при решении задач нелинейного программирования с ограничениями-равенствами.)

Для решения задачи безусловной минимизации (4.32) продифференцируем функцию Р(х{, х2) последовательно по х, и х2 и приравняем к нулю найденные производные. Получим систему уравнений:

х, (1 + к) + 4 кх2 = -3 к]

4 кхх + х2(3 + вк) = -2к.

Решением ее являются значения х,опт =-9/(ЗД + 19); х2опт = = -12/(3 +19). Отсюда видно, что при любом к решения задачи минимизации с ограничениями (4.30) и (4.31) и задачи безусловной минимизации (4.32) не совпадают. Однако в пределе при к —> °° последовательность решений задачи безусловной минимизации сходится к решению исходной задачи.

Изложим теперь один из методов штрафных функций для решения задачи нелинейного программирования с ограничениями-неравенствами:

IV = /(*!, ...,хп) шт; (4.33)

Фу {*, 6у,у = 1, ..., т. (4.34)

Обозначим через а+ число а+ = тах {а, 0}, т.е.

, (а, если а > 0;

а = (

[0, если а < 0.

Введем в рассмотрение функцию

+

т г

Выражение [фу {, ...,хп)~ ЬЛ возведено в четвертую степень,

чтобы сделать его достаточно гладким. Очевидно, что Ф(х) ^ 0, причем Ф(х) = 0 тогда и только тогда, когда фу-(х1} ...,х2) < 6,-

для всех у = 1, ..., т, то есть при выполнении всех ограничений.

Рассмотрим задачу безусловной минимизации для штрафной функции Р{х, ...,хп) = /(*!, + /:Ф(хь ...,хп). Можно пока

зать, что последовательность решений этой задачи сводится к решению задачи (4.33), (4.34) при к —> Это позволяет вместо задачи

(4.33), (4.34) решить при некотором большом значении к задачу

/(*!, + АгФ(*1, ??-,хп) -> тт. (4.35)

На практике обычно поступают следующим образом. Задаются малым числом е > 0, характеризующим допустимую степень невыполнения ограничений (4.34). Берут некоторое к = к{0) и с ним решают задачу (4.35). Если для полученного решения х0ПТ неравенство

Ф(^пт)<е (4.36)

не выполняется, то задачу (4.35) решают вновь для к=к0) >?(0), и так до тех пор, пока неравенство (4.36) не окажется выполненным.

Метод перебора (сканирования)

Большинство методов нелинейного программирования представляет собой различные модификации того или иного метода безусловной минимизации. Для задач небольшой размерности может быть использован метод перебора. Отличие его от одноименного метода безусловной минимизации (подпараграф 4.3.6)

заключается лишь в том, что в процессе перебора точек х^к являющихся узлами сетки, для каждой из них сначала проверяется выполнение ограничений задачи. Если все они удовлетворяются, то для этой точки вычисляется значение целевой функции. В противном случае, то есть при нарушении хотя бы одного из ограничений, сразу осуществляется переход к следующей точке. Этот метод, несмотря на его несовершенство, иногда приходится применять, когда не гарантирована одноэкстремальность задачи, либо при наличии дискретно заданных переменных.

Пример. Требуется решить следующую задачу нелинейного программирования:

У(х,,х2) = Х|2х2/^(х, + х2) —> шах;

  • 7(х,х2) = х^вт^/хз) < 9;
  • 2 < х, < 4; 25 < х2 < 35.

Схема алгоритма, основанного на идее перебора значений переменных х, их,, приведена на рис. 4.19. Предварительно выбраны величины шагов по х, и х2, обеспечивающие удовлетворительную точность решения задачи. Обозначим их и с/2, и пусть = 0,1; с12 = 0,2. Вначале (блок /) переменные х, и х2 полагают равными их исходным значениям: х, := 2; х2 := 25. (Символ := — это знак присваивания, поэтому запись Х( := 2 означает: «переменной х, присвоить значение 2»).

Переменная М в дальнейшем на каждой итерации будет принимать значение, равное наибольшей величине целевой функции Т(х,, х2) по всем предыдущим этапам. Поэтому вначале ее следует положить равной любому числу, заведомо меньшему максимального значения целевой функции. Поскольку в данной задаче целевая функция неотрицательна, можно положить М= 0, что и сделано в блоке I.

Далее проверяется, удовлетворяет ли исходная точка {х, = 2; х2 = 25} ограничению решаемой задачи: Z(xl, х2) < 9. С этой целью в блоке 2 вычисляется значение функции Z(x1, х2) из этого ограничения, а полученное числовое значение присваивается переменной I-

В блоке проверки условия 3, имеющем на схеме вид ромба, проверяется выполнение записанного внутри него соотношения (в данном случае неравенства г < 9). Если это неравенство оказалось справедливым, т.е. рассматриваемая точка удовлетворяет данному ограничению, то осуществляется переход по стрелке «Да» к блоку 4, где вычисляется значение целевой функции в той же точке {х, = 2; х2 = 25}. Оно присваивается переменной у.

Невыполнение условия I ^ 9 в блоке 3 означает, что эта точка не принадлежит области допустимых значений. Поэтому не имеет смысла вычислять в ней значение целевой функции, а следует сразу же перейти к следующей точке. Это и реализовано переходом к блоку 8. Соответствующее ему действие х, := х, + 0,1 означает, что к зафиксированному ранее значению переменной X! добавляется число 0,1. Значит, при первом обращении к блоку 8 х, примет значение 2 + 0,1 = 2,1 и таким образом будет исследоваться точка {х, = 2,1; х2 = 25}.

Схема алгоритма решения задачи

Рис. 4.19. Схема алгоритма решения задачи

Обратимся к операциям в блоке 5, выполняемым вслед за операциями в блоке 4. Здесь анализируется выполнение неравенства у > М, то есть проверяется, будет ли только что найденное значение целевой функции больше М. При первом обращении к этому блоку М - 0 (блок /), поэтому неравенство у > М в этом случае наверняка будет выполнено, и, следовательно, произойдет переход к блоку 6. Выполняемое здесь присваивание М := у означает, что переменная М примет теперь значение, равное значению целевой функции в анализируемой точке.

Согласно блоку 7 значения аргументов х, и х2 присваиваются новым переменным а и Ь, которые тем самым будут хранить значения переменных х, и х2, соответствующие значению целевой функции, равному М. Далее выполняется переход к следующей точке с большим значением х, (блок 8) и проверяется, не превысит ли это значение максимальной для него величины х, = 4 (блок 9). Если оказалось, что х, < 4, то осуществляется возврат к блоку 2, т.е. все описанные выше процедуры, начиная с проверки выполнения ограничения Z(x1, х2) < 9, выполняются для новой точки {х1? х2}.

Отметим, что при в тором и последующих обращениях к блоку 5 уже возможны разные случаи. До тех пор, пока значение целевой функции в очередной точке больше, чем в предыдущей, неравенство у > М будет выполняться, и согласно блоку 6 переменная М будет каждый раз принимать значение, равное очередному возрастающему значению целевой функции У(хх, х2).

Если же в некоторой точке ее величина окажется меньше, чем в предыдущей точке (или равна ей), то вследствие невыполнения неравенства у > М присваивание М := у не будет сделано (блоки 6 и 7 обходятся). Благодаря этому переменная М сохраняет значение, равное максимальному значению целевой функции по всем предыдущим точкам, принадлежащим области допустимых решений, а переменные а и Ь равны значениям аргументов х, и х2 в точке максимума.

Вернемся к блоку 9 и рассмотрим случай, когда записанное в нем условие не выполняется. Это означает, что для данного значения х2 = 25 перебор по х, следует завершить и возобновить его вновь, начиная с х, = 2, уже для следующего значения х2. Поэтому в блоке 10 реализовано присваивание х, := 2, а согласно блоку 11 значение х, увеличивается на величину ее шага.

После этого осуществляется возврат к блоку 2, т.е. анализируется очередная точка. Невыполнение неравенства х2 < 35 в блоке 12 свидетельствует о необходимости завершить перебор. В этом случае согласно блоку 13 выводится на печать найденное оптимальное решение: значение М, равное максимальному значению целевой функции по всем точкам из области допустимых решений, и значения переменных а н Ь, равные аргументам х, и х2 в точке оптимума. Этим завершается работа алгоритма. Реализация его на компьютере позволила получить следующие результаты: я =х1опт = 3,7; Ь = х2от = 35; М= Уот = 301,79.

Метод допустимых направлений

По этому методу поиск начинается из точки, находящейся внутри области допустимых решений. Траектория поиска обеспечивает наибольшее возрастание целевой функции на каждом шаге (в случае отыскания ее максимума) и никогда не выходит за пределы допустимой области. До тех пор, пока движение происходит внутри области допустимых решений (ОДР), данный метод аналогичен градиентному. При достижении границы области наилучшее направление движения на каждом шаге отыскивается с учетом нарушенного ограничения. С этой целью каждый раз решается вспомогательная задача линейного или квадратичного программирования.

Пример. В задаче с двумя переменными х, и х2 начальная точка х0 расположена внутри ОДР, а ограничения линейны (рис. 4.20). Областью допустимых решений в данном случае служит часть первого квадранта координатной плоскости, лежащая внутри угла ЛВС. На рис. 4.20 изображены также линии уровня целевой функции /(х), которую требуется максимизировать. Вначале поиск будет осуществляться вдоль направления градиента — до точки Д где дальнейшему движению в этом направлении уже препятствует ограничение. Наилучшим направлением движения из точки Э будет направление, совпадающее с граничной прямой ОБ. При достижении точки В процесс поиска прекратится.

Таким образом, метод допустимых направлений можно рассматривать как естественное распространение градиентного метода на задачи оптимизации с ограничениями.

*2

Схема метода допустимых направлений

Рис. 4.20. Схема метода допустимых направлений

Математическая модель задач оптимизации режимов

механической обработки древесины

Для задач оптимизации режимов механической обработки древесины разработана общая математическая модель в рамках задачи нелинейного программирования [17]. Она применима, в частности, к процессам сверления, точения, шлифования, пиления древесины круглыми и ленточными пилами. Оптимизационная модель процесса рамного пиления древесины имеет ряд особенностей и поэтому была рассмотрена отдельно (подпараграф 4.1.2). Элементами решения в общей математической модели служат скорость подачи, период стойкости режущего инструмента, а также параметры его формы и геометрические размеры. Общее число переменных не превышает шести.

Рассмотрим два варианта построения целевой функции в зависимости от выбранного критерия оптимальности: минимума себестоимости или максимума производительности обработки.

Себестоимость обработки можно представить в виде двух составляющих, первая из которых постоянная, т.е. не зависит от режима обработки, вторая — зависящая от него переменная составляющая. Постоянная доля себестоимости включает в себя затраты на вспомогательные операции, переменная доля Спер содержит затраты 30 на основные операции и затраты Зи, связанные с износом и расходом режущего инструмента,

(4.37)

Эту величину и рассматривают в качестве целевой функции.

В затраты, связанные с основной операцией, входят затраты на электроэнергию, заработная плата рабочих-станочников и подсобных рабочих, амортизационные отчисления и эксплуатационные расходы за период основной операции, т.е.

30 ~ ^обР(^ + г + гп + а + Ьэ) + 7ХО>0 + г + гп + а + Ьэ), (4.38)

где /обр — длительность обработки одной детали, мин; ^ — длительность работы станка вхолостую, мин; g — затраты на электроэнергию, израсходованную на обработку за 1 мин; g0 затраты на электроэнергию за 1 мин при работе станка вхолостую; г — заработная плата рабочего-станочника за 1 мин; гп заработная плата подсобных рабочих за 1 мин; а — амортизационные отчисления за 1 мин; Ьэ эксплуатационные расходы за 1 мин — техническое обслуживание, ремонты и т.д.

Длительность рабочего хода станка /р х складывается из длительности обработки Гобр и длительности /х работы станка вхолостую до входа и после выхода инструмента из заготовки:

(4.39)

Обозначим через 8 отношение времени обработки к времени рабочего хода:

(4.40)

Отсюда

(4.41)

Подставив выражение (4.41) в формулу (4.38), получим

(4.42)

Зо ~ ^обр §0 ~ 0/^) (&о ^ ^ + Ьэ

Второе слагаемое в формуле (4.37), т.е. затраты, связанные с износом инструмента, приходящиеся на обработку одной заготовки, равны

3„ = ХЗ/ЛГ, (4.43)

где N — число заготовок, обработанных инструментом за период стойкости; ^3— сумма всех затрат за период стойкости, связанных с затуплением инструмента, т.е. его сменой и подготовкой.

X3 = ги («о +г + а + Ь0) + Гиги + (кСии//зат) + кС.зат, (4.44)

где /п — длительность простоя станка при смене и подготовке инструмента; время, затрачиваемое наладчиком на смену и подготовку инструмента (как правило, 7П = /н); ен — коэффициент, учитывающий долю холостых ходов станка при его подналадке; гн — заработная плата наладчика за 1 мин; Син — затраты на новый инструмент; /зат — число заточек, допускаемое конструкцией инструмента; Сзат — затраты на одну заточку с накладными расходами заточного отделения; к — число инструментов.

В частном случае, когда инструмент сменяется и подготавливается в рабочее время рабочим-станочником, /н = 0. Если смена и подготовка инструмента выполняются рабочим-наладчиком в нерабочее время, то в этой формуле полагают г - 0.

Число заготовок, обработанных инструментом за период стойкости Тст,

N = Тст т//обр, (4.45)

где т — число одновременно обрабатываемых заготовок. За меру стойкости инструмента принимается длина пути резца в древесине между его переточками, Тст, км. Тогда выражение для периода стойкости определяется по формуле

Т„ = Тст10 м, (4.46)

где Ьм — путь резца в древесине за 1 мин, мм.

Длительность обработки одной заготовки

'обР = /0/«, (4.47)

где /0 — длина обрабатываемой заготовки, м; и — скорость подачи, м/мин.

Подставив выражения для Тст (4.46) и для ?обр (4.47) в формулу (4.45), получим

N = 106. (4.48)

Тогда формула (4.43) примет вид

=Х^/(4т'Ш'-Ю6). (4.49)

Подставив выражения для 30 (4.42) и для Зи (4.49) в формулу

(4.37) с учетом (4.47), получим выражение для целевой функции:

Спер = (1о/и)\_? - §0 + (1/е)(^о + г + гп + а + Ьэ)] +

+ Х31м/0/(4 ТтиОьу (4.50)

Упростим эту формулу, выделив в ней элементы решения, которыми служат и и Ьсг:

Спер = а/и +Ь/{и1ст)’ (4.51)

где а{ = /0[я - g0 + (1/е) + г + гп + а + А,)]; Ьх = ^ЗЬМ 10/{тЮ6)-

Для процессов пиления древесины переменная доля себестоимости зависит, кроме того, от потерь сырья в процессе распиливания. Их величина пропорциональна толщине 5 пил, мм. Поэтому при оптимизации процессов пиления целевая функция по критерию минимума себестоимости зависит уже от трех элементов решения и, ?ст, 5 и имеет вид

Спер ]/и + Ьх/(и1СТ) + С,5, (4.52)

где с, — коэффициент, равный стоимости потерь сырья из расчета на 1 мм толщины пилы.

Рассмотрим теперь вывод формулы для целевой функции по критерию максимума производительности обработки. Штучная производительность П станка за смену при однооперационной обработке определяется по формуле

П = коЪТситп1{*р.х + 'в + 'вц)> (4.53)

где /вц — внецикловые потери времени на одну операцию, связанные с износом и затуплением режущего инструмента; /в — суммарная длительность всех вспомогательных операций; п — число изделий, вырабатываемых из одной заготовки.

За период стойкости внецикловые потери времени, связанные с износом и затуплением режущего инструмента, равны длительности простоя станка при смене и подготовке инструмента ?п. Следовательно, внепикловые потери на одну заготовку равны /ВЦ=/П/Я. Использовав формулу (4.48), получим

'вц = ^кЛ/{1стти • Ю6)- (4.54)

Выражение для 1 х найдем из формулы (4.39), подставив в нее значение /р х (4.41): tp х = Сбр/?- С учетом (4.47)

V х (4.55)

Подставив выражения для Гвц (4.54) и для /р х (4.55) в (4.53), получим искомую формулу для целевой функции

К0бТсмтп

4/«? + /п1м/о/(4т'и«

(4.56)

Поскольку числитель этого выражения не зависит от элементов решения, достижение максимума производительности эквивалентно минимизации знаменателя функции (4.56). Его переменную составляющую можно переписать в виде

о = а2/и + Ь21иЬСТ, (4.57)

где а2 = 10/ г ; Ь2- ^Ьм10/ (т ? 106). Величина 0 является целевой функцией, подлежащей минимизации.

При оптимизации процессов пиления древесины можно рассматривать в качестве критерия производительности как по пропуску сырья, так и по выработке пиломатериалов в кубометрах за смену. В последнем случае в выражение для целевой функции войдет еще один элемент решения — толщина пил.

Покажем это применительно к процессу распиливания бревен на пиломатериалы. Параметр п в формуле (4.56) будет в данном случае означать число досок, выпиливаемых из одного бревна, а величина т равна 1. Поделив выражение (4.56) на п и умножив его на величину Уп объема пиломатериалов, вырабатываемых из одного бревна, получим выражение для производительности Я, станка в кубометрах вырабатываемых пиломатериалов:

(4.58)

Кп = У6 - 2УГ - 10-35(5 + 2Х), (4.59)

где Уб средний объем бревна, м3; УГ средний объем горбыля, м3; 5 — суммарная площадь пропилов в бревне, м2; X — величина уширения зубьев пилы на сторону, мм.

Величины У6 и Уг нетрудно вычислить, пользуясь обычными моделями поверхности бревен в виде усеченных конусов или параболоидов вращения. Подставив в формулу (4.58) выражения для Я (4.56), с учетом т = 1, и для Уи (4.59), получим

= а:о6гсм6-2кг-ю-3^5 + 2^)] =

1о/и? + 1п1м1о/(ЬСТи6) + {в

= _8 - _.

10/“? + 'п А1/О/(1ст"10б) + /в’

^=коЬтси[у,-2Ут-2т-ъз},

82 = ^06^,10-^.

Перепишем выражение для Я, в виде

п 82{8І8і -^Ап-Ц

(^/є)4 т + гп АЛ/ +

Тогда в качестве целевой функции можно взять выражение

  • —> шах,
  • (4.60)

где с2 = ^в; c3=g^ / g2, а коэффициенты а2 и Ь2 определяют по тем же формулам, что и для выражения (4.57), с учетом т = 1.

Совокупность ограничений математических моделей процессов механической обработки древесины можно разделить на три группы:

  • 1) конструктивно-технологические — по мощности привода главного и вспомогательного движения, устойчивости инструмента, условиям заполнения пазух инструмента стружкой; наибольшей и наименьшей скоростям резания и подачи, допустимым кинематикой станка; наибольшей и наименьшей глубине резания;
  • 2) качественные — по точности обработки и качеству обрабатываемой поверхности; применительно к процессу пиления древесины на лесопильных рамах рассмотрены в подпараграфе 4.1.2;
  • 3) технико-экономические — по заданной производительности оборудования, если она не является критерием оптимальности, или по ритму работы автоматической или поточной линии, объему заготовок в партии или некоторые другие.

Многие из перечисленных ограничений являются нелинейными.

Таким образом, в общем виде математическая модель процессов механической обработки древесины может быть представлена следующими целевыми функциями:

  • (4.61)
  • (4.62)
  • (4.63)

Щ(Х,Х2) = Л о/*, + 5о/(*1*2) -»min;

W2 (xj, х2, х3) = Ахх + Вх/{хjjc2) + С,х3 —> min;

, . X1X9 (С3 - х3)

W-, (х,, х7, х3) -------> max;

3V 1 2 3J A2x2+C2xxx2 + B2

и ограничениями

фу(х,, ..., x6) < yy, у = 1,2,...,А:; (4.64)

•*7 min — -*7 ^ ^ 2, ..., 6. (4.65)

Здесь целевые функции — это выражения (4.51), (4.57), (4.52), (4.60), переписанные с учетом замены и —> хх; Lcr —> х2; s —> х3. Практически число ограничений вида (4.64) не превышает восьми.

Алгоритм решения задачи оптимизации режимов механической обработки древесины

Оптимизационные модели, описываемые соотношениями (4.61)—(4.65), относятся к задачам нелинейного, невыпуклого программирования. Последнее означает, что поставленная задача может быть многоэкстремальной и, следовательно, достаточно сложна. Алгоритм, специально разработанный для ее решения [17], учитывает специфику задачи, в частности тот факт, что ее целевая функция зависит не более чем от трех переменных при их общем числе, равном шести. Ниже приводится его краткое описание.

Рассмотрим наиболее сложный случай задачи с тремя переменными в целевой функции и считаем для единообразия, что она подлежит минимизации.

Назовем совокупность значений трех переменных х,, х2, х3, входящих в целевую функцию, допустимой тройкой, если для нее можно найти такие значения остальных переменных, при которых совокупность значений всех переменных {х,, ..., х6} удовлетворяет всем ограничениям задачи. Здесь предполагается, что значения переменных х,, х2, х3 берутся из множества

V.

•*7 min

< X; <

v.

•*7 max ’

/ = 1,2,3.

(4.66)

Теперь можно утверждать: решение задачи эквивалентно отысканию такой допустимой тройки, для которой значение целевой функции минимально.

Согласно алгоритму на первом этапе выполняется перебор троек {х,, х2, х3} из множества (4.66) с помощью сетки, равномерной по каждой координате. Для этого каждый из отрезков [х/гп1п, х/тах], /= 1, 2, 3, разбивается на равные части заданной длины. На втором этапе выполняется проверка каждой тройки на допустимость. Тройка и х2, х3} будет допустимой, если система неравенств (4.64), (4.65) окажется совместной при х1 = х); х2 = х2; х3 = х3.

Задачу, поставленную таким образом, удалось свести к задаче выпуклого программирования. Последняя сведена к задаче безусловной минимизации с помощью метода штрафных функций (подпараграф 4.4.4) и решается методом сопряженных градиентов, являющимся наиболее эффективной разновидностью градиентного метода.

 
< Пред   СОДЕРЖАНИЕ     След >