Мультиэвристический подход к задачам дискретной оптимизации1



Скачать 475.48 Kb.
страница6/9
Дата17.01.2013
Размер475.48 Kb.
ТипДокументы
1   2   3   4   5   6   7   8   9

6. О некоторых других применяемых эвристиках


Материал этого раздела мало связан с главным вопросом – про функции риска в дискретной оптимизации, но связан с общей темой статьи. Выше мы практически не касались вопроса о выборе нескольких конкретных эвристик для организации очередного шага МВГ, а также – в упрощённом случае – для проведения турнирного самообучения.

Как уже было сказано выше, практически все эвристические методы дискретной оптимизации, описываемые в настоящей статье, связаны с методами, применявшимися автором при программировании интеллектуальных компьютерных игр, прежде всего – бэкгеммона.36 Аналоги с программированием игр проявляются не только в организации турнирного самообучения и в применении функций риска37. Ещё более важные аналоги проявляются в следующем. Во-первых, несколько критериев статической оценки позиции игры аналогичны нескольким эвристикам, необходимым для выбора очередного шага МВГ. Во-вторых, разные классы игровых позиций абсолютно аналогичны разным классам конкретных подзадач некоторой задачи дискретной оптимизации. В-третьих, методами ГА удобно одновременно самообучать совершенно разные критерии:

  • в программировании игр таковыми являются параметры оценки позиции и конкретные значения коэффициентов функций риска;38

  • а в создании anytime-алгоритмов к этим двум группам критериев39 добавляются, среди прочего, коэффициенты зависимости между границей и размерностью – см. об этом далее.

Заметим, что всё сказанное в данном абзаце показывает, среди прочего, и очень высокую роль методов игрового программирования среди всех методов искусственного интеллекта. Более того, по мнению автора настоящей статьи, все приёмы и методы искусственного интеллекта (к которым относится и описание любых эвристик) необходимо предварительно проверять на игровых программах. Автор надеется, что данная статья отвечает на возможный вопрос, как именно это делать.40

Теперь опишем некоторые вспомогательные эвристики. Сначала – те из них, которые являются общими:

  • для турнирного самообучения и для выбора очередного шага в МВГ;

  • для всех возможных ЗДО.

Поскольку мы конструируем вспомогательные эвристики, в первую очередь, для незавершённого МВГ, мы в процессе решения некоторой конкретной подзадачи кроме главной характеристики обычного (завершённого) МВГ – т.е. границы – имеем ещё одну, не менее важную характеристику – размерность задачи.41 Выбор этой эвристики как вспомогательной объясняется тем простейшим фактом, что задача, имеющая меньшую размерность, с несколько большей вероятностью даст новое псевдо-оптимальное решение – текущее на данный момент для выполняющегося anytime-алгоритма.
Однако совсем игнорировать границу, конечно же, нельзя – поэтому для выбора очередной задачи из списка автор применяет упорядочение задач согласно значениям некоторой линейной функции двух переменных – границы и размерности; коэффициенты при переменных этой функции, как было отмечено ранее, добавляются к коэффициентам самообучения методами ГА.42

В разделе 3 уже было отмечено, что часто на практике алгоритмы, использующие ДФР, удачно работают и в том случае, когда не существует никакой эвристики для выбора аналога оценки текущей позиции в играх. Т.е., когда отсутствует информация об отрезке для возможных оценок (наименьшей и наибольшей), возвращаемых предикторами.43 Однако и в этом случае нам всё равно удаётся применять ДФР.44 При этом для старта процесса построения этих функций на практике обычно используется следующая весьма простая вспомогательная эвристика. В ней в начале применения алгоритма построения ДФР минимальная и максимальная из текущих оценок предикторов выступают в роли минимальной и максимальной из возможных; производится обычная нормализация, простое усреднение в качестве первой (статической) оценки, и т.д. А на каждом из последующих шагов данного алгоритма мы используем в качестве минимальной и максимальной из возможных оценок соответствующие значения, взятые по всем предыдущим шагам.

Отметим, что подробное объяснение последней эвристики (т.е. тот факт, что она действительно может дать хорошие практические результаты) выходит за рамки вопросов, рассматриваемых в данной статье – поскольку это объяснение желательно приводить отдельно для каждой конкретной решаемой ЗДО. Краткое же её объяснение можно привести, если посмотреть с иной точки зрения на априорное наличие информация об отрезке возможных оценок предикторов (отмеченное в одной из предыдущих сносок). А именно, поскольку эта информация всегда является следствием рассматриваемой ЗДО, мы можем условно считать, что такой отрезок не задан заранее, а итерационно получается именно в результате многократного применения алгоритма, описанного в предыдущем абзаце.

Среди большого количества эвристик для конкретных ЗДО, в связи с естественными ограничениями на объём настоящей статьи, рассмотрим только одну из вышеупомянутых задач – а именно, задачу вершинной минимизации НКА.45 Как уже было сказано выше, описываемые эвристики являются общими для турнирного самообучения и для выбора очередного шага в МВГ.

Описание вспомогательных жадных эвристик для задачи вершинной минимизации НКА предполагает знакомство с материалом статей [28–33]; при этом обозначения, добавленные ниже к использовавшимся в этих работах, представляются очевидными. Итак, из всего множества блоков таблицы соответствий некоторого регулярного языка нам необходимо выбрать некоторое подмножество, включающее в себя все имеющиеся (т.е. построенные в процессе канонизации прямого и зеркального автоматов) элементы #.46 Для такого выбора необходимо ответить на вопрос о включении некоторого конкретного блока в оптимальное подмножество (важно отметить, что это необходимо как для турнирного самообучения, так и для описания очередного шага МВГ), и для ответа на этот вопрос мы будем использовать следующий эвристический алгоритм, формулируемый для матрицы элементов #.

Пусть рассматривается клетка матрицы таблицы соответствий состояний с координатами (i,j), пусть также R(i) – количество знаков # в строке i, а C(j) – количество знаков # в столбце j. Тогда:

  1. Для каждой пары (i,j), содержащей #, посчитаем значение

F(i,j) = G(H(R(i)),H(C(j))), (1)

где G(x,y) и H(x) – некоторые функции. При выборе этих функций методами ГА относительно вида функции H(x) заранее ничего не известно. Про функцию G(x,y) известно лишь то, что она является возрастающей (т.к. чем больше соседей у ячейки, тем с большей вероятностью она должна войти в искомый блок), но не известно ничего о её выпуклости.47 G, вообще говоря, не обязана удовлетворять условию симметричности G(x,y)=G(y,x) – поскольку общее число строк и столбцов в рассматриваемой таблице соответствий может различаться. Отметим ещё, что если у ячейки нет соседей ни в строке, ни в столбце (т.е. R(i)=0 либо C(j)=0), то соответствующий ей блок обязательно должен войти в искомое множество покрывающих блоков. Итак, подбор параметров, необходимых для описания поведения этих функций, и есть объект самообучения.

  1. При самообучении обычно использовался следующий конкретный вид функции H(x):

H(x)= e–(P1X) + P2N(x–1)–1 + P3 x + 1, (2)

где N – соответствующая размерность таблицы соответствий состояний. Отметим, что здесь возникает ещё одна аналогия с результатами, полученными в статье [7] при самообучении игровых программ: при начале самообучения с функциями произвольного вида, т.е. функциями, не имеющими вид (2), результат работы ГА даёт функции вида, близкого к указанному. Однако вид (2) всё же был априори подобран эвристически.

Возможные графики функции (2) для двух различных вариантов значений параметров (а именно, для P1=2/N, P2=1, P3=1 и P1=4/N, P2=5/N, P3=0.01) изображены ниже:



  1. Среди всех блоков выбираем такой (R,C), для которого т.н. итоговая рейтинговая сумма F(Ri,Cj), где RiR и CjC, будет наибольшей. Ещё раз отметим, что функция F выбирается согласно (1), а функции G и H при этом получаются в результате самообучения методами ГА. Поместим выбранный блок в итоговое множество.

  2. Специальным образом пометим ячейки, принадлежащие выбранному на шаге 3 блоку, чтобы они не учитывались при вычислении F(Ri,Cj), но могли входить в любой вновь выбираемый блок. Итак, в будущем, т.е. при повторном выполнении шагов 1–3, эти ячейки уже не считается помеченными символом #.

  3. Если остались еще ячейки, не вошедшие ни в один блок из итогового множества, то возвращаемся на этап 1. Заметим, что блоки, которым принадлежит хотя бы одна ячейка, не имеющая соседей по вертикали либо по горизонтали, будут обязательно включены в искомое множество, т.к., согласно виду функции F, их рейтинговая сумма равна бесконечности.

Полученное множество блоков считается искомым – и используется либо для проведения очередного шага турнирного самообучения (в простом случае), либо (после применения к результатам работы нескольких программ-предикторов аппарата ДФР) для проведения очередного шага МВГ.

1   2   3   4   5   6   7   8   9

Похожие:

Мультиэвристический подход к задачам дискретной оптимизации1 iconСитуационный подход к задачам поиска текстовой информации
Здесь тоже присутствуют идеи такого рода: будет использоваться некий набор экстралингвистических отношений, и эти экстралингвистические...
Мультиэвристический подход к задачам дискретной оптимизации1 iconЭлементы дискретной математики
П. А. Корнилов, Н. И. Никулина, Семенова О. Г. Элементы дискретной математики. Учебное пособие. Ярославль: Изд-во ягпу им. К. Д....
Мультиэвристический подход к задачам дискретной оптимизации1 iconУрок по геометрии в 7-м классе на тему "Некоторые свойства прямоугольных треугольников"
Раздаточный материал: карточки с тестом, листы с чертежами к задачам самостоятельной работы, листы для ответов к задачам самостоятельной...
Мультиэвристический подход к задачам дискретной оптимизации1 iconЛингвистические противоречия в терминологической системе дискретной математики
Именно таким путем язык может разрешить определяющее противоречие говорящего и слушающего, которое в терминологической системе дискретной...
Мультиэвристический подход к задачам дискретной оптимизации1 iconСборник упражнений для студентов математического факультета пединститута
В сборник включены упражнения по дискретной математике. Основная цель упражнений – отработка основных понятий дискретной математики,...
Мультиэвристический подход к задачам дискретной оптимизации1 icon"Построение конечно-разностных формул на границе дискретной области счёта"
При численном решении уравнений математической физики важным становится вопрос замены непрерывной области изменения аргумента дискретной...
Мультиэвристический подход к задачам дискретной оптимизации1 iconВ. П. Голубятников известный специалист в области геометрии, топологии и их приложений к задачам математического моделирования и к обратным задачам. Он опубликовал 160 научных работ, в том числе монографию Uniqueness q
«Uniqueness questions in reconstruction of multidimensional objects from tomography-type projection data», изданную в Голландии,...
Мультиэвристический подход к задачам дискретной оптимизации1 iconПрограмма курса Дополнительные главы дискретной математики для групп 318, 319 кафедры математической кибернетики
«Дополнительные главы дискретной математики» (для студентов 3-го курса 2-го потока). В нее включены разделы, относящиеся к конечнозначным...
Мультиэвристический подход к задачам дискретной оптимизации1 iconЛичностно-ориентированный подход к обучению иностранному языку
Личностный подход к обучающимся при организации учебно– воспитательного процесса
Мультиэвристический подход к задачам дискретной оптимизации1 iconМеждународный опыт в области инклюзивного образования: Норвегия
...
Разместите кнопку на своём сайте:
ru.convdocs.org


База данных защищена авторским правом ©ru.convdocs.org 2016
обратиться к администрации
ru.convdocs.org