Более

Как оценить качество алгоритма TSP?


Я пытаюсь разработать свой собственный алгоритм решения задачи коммивояжера (TSP). Я протестировал его (в текущем состоянии) на экземпляре att48 TSPLIB и получил следующие результаты:

Как мы видим, более 3/4 результатов находятся в пределах 110% от оптимальной длины маршрута. Но в научной литературе они сообщают за более чем 20 десятилетий, что их алгоритмы решают 99% экземпляров TSPLIB на 1% оптимальных расстояний (хотя где их реализации ГИС ?!). Поэтому мне интересно, есть ли, например, общепринятый порог для вывода алгоритма, чтобы определить, является ли он мусором или может быть использован в реальной жизни? Или существуют другие способы оценки решателя TSP?


Хорошо, я нашел недавнюю статью, в которой они тестировали и сравнивали несколько алгоритмов TSP. Они заставили протестированные алгоритмы найти свои решения в пределах 100 секунд для нескольких наборов данных. К моему счастью, среди них был att48. Вот одна из сравнительных таблиц (удаленные делятся на 100):

Так что у меня для себя хорошие новости - мои решения были найдены менее чем за 100 секунд (85-95) реального времени (не процессора), и единственный алгоритм в этой таблице, который превосходит мой для att48, - это имитация отжига.


Правильная реализация TSP с помощью грубой силы

Мне нужно реализовать алгоритм TSP с помощью грубой силы в учебных целях.

Я понял, что есть набор городов, назовем это V и можно получить матричное представление затрат на переход от v1 город в v2 город. Я предполагаю, что циклов нет, поэтому перейти от v1 вернуться к v1

Затем я должен сгенерировать матрицу после этих сумм:

Однако я действительно не могу представить себе на практике, как матрица будет исключена из ограничений.

Таким образом, стоимость пути (и обратного пути не обязательно должна быть такой же):

Из Мадрида в:

Из Берлина в

Из Мальмё в:

Как следует вычислить матрицу в соответствии с рядом сумм?

Я предполагаю, что алгоритму потребуется сгенерировать матрицу из этого примера:

Есть 3 города x1, x2 и x3 и получили матрицу затрат, представленную ниже:

В следующем примере показана следующая матрица:

Это будет то же самое, что:

Затем, с учетом мощности трех городов, в матрицу были добавлены следующие строки:

Наконец, вся сгенерированная матрица:


Оценка качества алгоритмов онлайн-оптимизации с помощью моделирования дискретных событий

Ключевой особенностью динамических задач, которые предлагают степень свободы для лиц, принимающих решения, является необходимость целенаправленной процедуры принятия решений, которая используется каждый раз, когда логика системы требует решения. В этой статье мы рассмотрим процедуры оптимизации, которые появляются как подпрограммы в динамических задачах, и покажем, как моделирование дискретных событий можно использовать для оценки качества алгоритмов: после установления общей связи между онлайн-оптимизацией и системами дискретных событий мы обращаемся к измерению производительности в динамические настройки и получить соответствующий набор инструментов. Затем мы анализируем несколько стратегий управления, используя методологии, рассмотренные ранее в двух реальных примерах дискретных имитационных моделей событий: система ручной комплектации заказов и служба самовывоза и доставки.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Алгоритм типа потока воды для задачи коммивояжера

Алгоритм типа потока воды (WFA) - это относительно новая метаэвристика, которая хорошо справляется с проблемой группировки объектов, возникающей при комбинаторной оптимизации. В этой статье представлена ​​WFA для решения задачи коммивояжера (TSP) в виде задачи на основе графов. Эффективность WFA на TSP оценивается с использованием 23 наборов данных тестов TSP и путем сравнения с предыдущими алгоритмами. Результаты экспериментов показывают, что предложенный WFA нашел лучшие решения с точки зрения среднего решения и процентного отклонения среднего решения от наиболее известного решения.

1. Введение

Задача коммивояжера (TSP) - это классическая задача комбинаторной оптимизации (COP), которая была введена много лет назад в 1985 году [1]. TSP ищет кратчайший путь среди множества городов с известными расстояниями между парами городов, чтобы найти решение для маршрута. Решение маршрута можно сформулировать как полный граф с набором вершин, который представляет собой набор ребер, взвешенных по расстоянию между двумя вершинами (городами), чтобы найти кратчайший маршрут, посетив каждый город ровно один раз и вернувшись в исходный город. .

Были предложены многочисленные подходы и получены хорошие решения. Однако они различаются по сложности и эффективности, а также по способности решать поставленную задачу на разных уровнях сложности и размера (малый, средний и большой). В более ранних исследованиях использовалось линейное программирование Dantzig et al. [2], динамическая формулировка Хельда и Карпа [3], ветвь и граница [4] и ветвь и разрез [1], но их возможности ограничены небольшими задачами (менее 40 городов). Позже было доказано, что подходы с искусственным интеллектом способны решать более сложные задачи. Один из этих подходов, самоорганизованная нейронная сеть [5–7], позже был расширен как метаэвристический. Метаэвристика может оптимизировать сложную проблему путем поиска среди множества возможных решений с небольшими предположениями или без каких-либо предположений о решаемой проблеме и без каких-либо гарантий нахождения оптимального решения. Некоторые метаэвристики используют либо подход, основанный на единственном решении (например, поиск табу (TS) и моделирование отжига (SA)), либо популяционный подход (например, генетический алгоритм (GA)) [8–10], в то время как другие используют интеллект роя ( например, оптимизация колонии муравьев (ACO)) [11], а недавно были предложены гибридные метаэвристики [7, 12]. Результаты показывают, что гибридная метаэвристика может дать наилучший результат при использовании 23 эталонных наборов данных TSP.

Недавно был предложен новый метаэвристический алгоритм, известный как алгоритм потока воды (WFA) [13]. Алгоритм основан на потоке воды с больших высот на более низкие. Поток может разделиться на подпотоки, когда он пересекает жесткую местность, и эти подпотоки сливаются, когда встречаются в одном и том же месте. Потоки застаиваются в местах с меньшей высотой, если их импульс не может вытеснить воду из текущего местоположения. Поток представляет агент решения, высота потока представляет собой целевую функцию, а пространство решения проблемы представлено географическим ландшафтом.

Предыдущие метаэвристические алгоритмы были разработаны для поиска в проблемном пространстве с фиксированным числом агентов решения [8, 11, 14], однако были предложены некоторые подходы для получения подходящей настройки числа популяции алгоритма. Эти подходы классифицируются как автономные или онлайн-подходы к настройке численности населения. При автономной настройке размера популяции цель состоит в том, чтобы найти подходящее количество популяции до того, как алгоритм запустит процесс оптимизации и процессы настройки, которые выполняются методом проб и ошибок человеческим агентом, что делает их трудоемкими и подверженными ошибкам и обычно приводит к к неравномерной настройке алгоритма [15]. С другой стороны, настройка размера популяции онлайн намного более эффективна, потому что, как следует из названия, она настраивает размер популяции онлайн и делает это во время процесса оптимизации или во время решения проблемных экземпляров. Настройка размера популяции в режиме онлайн имеет потенциальное преимущество в том, что она может позволить алгоритму лучше адаптироваться к характеристикам конкретного экземпляра проблемы.

Тем не менее, использование онлайн-настройки для управления размером популяции алгоритма остается проблемой [15–19], Gen and Cheng [20]. Многие исследования были сосредоточены на поиске методов, позволяющих метаэвристике на основе популяций корректировать размер популяции в режиме онлайн при решении экземпляра проблемы, принимая во внимание влияние характеристик экземпляра и ландшафта пригодности. Однако эти методы основаны на анализе накопленной информации, которая была собрана в процессе оптимизации, которая может относиться к глобальным свойствам ландшафта пригодности, таким как неровность или шум ландшафта, или может относиться к локальным свойствам конкретного ландшафта. область. Сбор и анализ этой информации усложняют алгоритм, а также увеличивают время вычислений. Кроме того, большинство онлайн-методов настройки параметров было разработано для преодоления ограничений существующих метаэвристик путем расширения или изменения алгоритмической структуры, чего трудно достичь в большинстве ситуаций, и успех был ограничен теми алгоритмами, которые предназначены для поиска проблемное пространство с фиксированной численностью населения.

WFA [13] использует концепцию динамической популяции как фундаментальную основу для разработки алгоритмов. Эту концепцию можно применить для преодоления многих недостатков популяционной метаэвристики, и для этого авторы обратились к двум основным проблемам, влияющим на эффективность оптимизации алгоритмов. Во-первых, необходимо уменьшить количество избыточных поисков, что увеличивает вычислительные затраты алгоритма в процессе оптимизации. Избыточный поиск происходит при объединении популяционных решений, имеющих одну и ту же объективную ценность. Вторая проблема заключается в том, чтобы дать алгоритму возможность адаптироваться к разным размерам популяции в процессе оптимизации. Размер популяции в алгоритмах ACO и GA назначается на начальном этапе при выполнении алгоритма и не может быть изменен в процессе оптимизации.

WFA был успешно адаптирован и применен к различным COP, включая упаковку контейнеров [13], производство фракции клеток [21] и планирование медсестер [22]. Результаты этих исследований показывают, что WFA имеет хороший потенциал для решения нескольких COP. Таким образом, эта статья направлена ​​на исследование производительности WFA при применении к TSP с точки зрения точности и времени. Предыдущие исследования также показывают, что WFA выполняла более быстрое решение, поскольку представляла динамическое поведение решения. Остальная часть статьи организована следующим образом. В разделе 2 обсуждается литература по WFA. В Разделе 3 представлена ​​предлагаемая WFA для решения TSP, а в Разделе 4 представлены эксперименты и анализ результатов, за которым следует обсуждение в Разделе 5. Наконец, Раздел 6 завершает статью.

2. Связанные работы

WFA [13] классифицируется как популяционный метаэвристический алгоритм и основан на естественном поведении воды, текущей с больших высот на более низкие. Водные потоки могут разделяться или сливаться в зависимости от топографии области поиска. Основные преимущества WFA заключаются в том, что он самонастраивающийся и динамичный в отношении размера популяции. Другими словами, размер агента решения не фиксирован, в отличие от традиционной популяционной метаэвристики. Число потоков может увеличиваться или уменьшаться в процессе оптимизации, а размер популяции изменяется в зависимости от уменьшения проблемы и качества решения, найденного агентами. Ян и Ван [13] описывают и наносят на карту динамический размер популяции на основе естественного поведения водных потоков при их разделении, движении и слиянии.

Первая версия WFA была разработана Янгом и Вангом [13] для решения проблемы группировки объектов, называемой проблемой упаковки в бункеры (BPP), которая представляет собой проблему дискретной оптимизации и хорошо известна как NP-сложная задача. BPP с его жесткими ограничениями по мощности требует нескольких эвристических методов для получения возможных и оптимальных решений. Традиционный BPP - это проблема минимизации количества используемых бункеров с учетом ограничений по весу. Авторы используют BPP в качестве эталона для измерения выполнимости WFA для решения таких задач оптимизации. Предложенный ими алгоритм в основном основан на поиске соседа решения, где стратегия одношагового перемещения используется для поиска соседа решения с постоянным шагом, продвигающимся вперед для каждого потока. На движение потока (изменение местоположения) влияет сила тяжести и закон сохранения энергии. Итерация за итерацией, вода постоянно перемещается на более низкие высоты, что коррелирует с улучшением поиска решения. WFA начинает поиск в проблемном пространстве, используя один агент решения (поток) с начальным импульсом. Впоследствии поток разделяется на несколько подпотоков, когда поток встречает неровную местность и если импульс потока превышает величину разделения. Поток с большим импульсом генерирует больше подпотоков, чем поток с меньшим импульсом. Поток с ограниченным импульсом уступает место рельефу и поддерживает единый поток. Многие потоки сливаются в один поток, когда получают одинаковые объективные значения. Чтобы избежать избыточного поиска, WFA сокращает количество агентов решения, когда несколько агентов перемещаются в одно и то же место. Водные потоки также подвержены испарению воды в атмосфере. Выпаренная вода возвращается на землю в виде дождя (осадки). В WFA часть потока воды удаляется для имитации испарения воды. Эта операция по выпадению осадков реализована в WFA для имитации естественных осадков и исследования более широкой территории.

В [13] производительность WFA сравнивается с GA, оптимизацией роя частиц (PSO) и ACO. Результаты экспериментов показали, что WFA превосходит GA, PSO и ACO как по качеству, так и по времени выполнения. Основываясь на результатах экспериментов, авторы пришли к выводу, что WFA может иметь возможность решать сложные задачи оптимизации, и предположили, что его можно использовать для решения проблем секвенирования, таких как TSP.

В 2010 году WFA был улучшен для решения проблемы фракции производственных клеток [21]. В модели используются коэффициенты подобия и методы назначения машин, а также назначения деталей для генерации начального допустимого решения на первом этапе, а затем, на втором этапе, используется этап разделения потока и перемещения для улучшения решения с использованием соседнего объекта. поиск, чтобы получить почти оптимальное решение. Результаты показали, что WFA превосходит гибридный генетический алгоритм (HGA) и SA. Shahrezaei et al. [22] использовали WFA для решения задачи планирования медсестер, которая является многокритериальной задачей оптимизации. Авторы сравнили WFA с алгоритмом дифференциальной оценки (DE), и результаты показали, что лучшее качество решения может быть достигнуто с помощью WFA.

Сила WFA для решения TSP заключается в специфической особенности WFA, а именно в динамическом поведении размера популяции. WFA использует решения для популяций, которые отображаются в потоках воды, а целевые функции отображаются в виде ландшафта. Разделение потока происходит при пересечении пересеченной местности. И наоборот, потоки воды сливаются друг с другом, когда они соединяются в одной точке. Предлагаемый WFA для TSP (WFA-TSP) основан на базовом WFA, используемом в [13].

3. Предлагаемый алгоритм, подобный потоку воды для TSP.

В этом разделе представлена ​​предлагаемая WFA для TSP. Предлагаемый алгоритм использует основные операции инициализации, разделения и перемещения потока, слияния потоков, испарения воды и осаждения воды. На рисунке 2 показан поток WFA-TSP, взятый из основного TSP. Он запускает процесс оптимизации с операции инициализации, которая не является повторяющейся операцией, которая отвечает за назначение начального состояния алгоритма. Операция инициализации включает в себя настройку параметров и генерацию начального решения. Как правило, улучшение решений начинается после завершения операции инициализации. Алгоритм интерактивно выполняет оставшиеся операции, такие как разделение и перемещение потока, слияние потоков, испарение воды и осаждение воды, до тех пор, пока не будет выполнено условие завершения. Основные различия между WFA-TSP и базовым WFA [13] заключаются в представлении решения, технике, используемой при инициализации, а также в процедуре разделения и перемещения потока, а также в операции осаждения, которая всегда зависит от определения структуры окрестности данного объекта. КС. Три различные операции показаны темными процессами на рисунке 2. Базовый WFA применяется для задачи упаковки бункеров, где он использовал массив с двукратным уменьшением для хранения набора бункеров и его объектов для представления решения, в то время как для WFA-TSP использовался решение представлено в виде одномерного массива длиной

, где - количество городов в исходном наборе данных. Значение каждой ячейки в массиве представляет собой номер города, выбранный в определенном порядке в решении. На рисунке 1 показан пример решения TSP. Возможное решение представлено в виде последовательности узлов, где

представляет индексированный город и

представляет номер города, расположенный в последовательности, представляющей конкретный маршрут тура.


Ищи задача по ориентированию или призовой ТСП.

В этой категории есть несколько проблем. Это варианты задачи коммивояжера, в которой вам не нужно посещать всех клиентов, но вы можете выбрать, каких из них посетить. Они подпадают под общее название «Проблемы коммивояжера с прибылью».

  • В Задача по ориентированию (OP), в котором вы хотите максимизировать прибыль, полученную от посещенных клиентов, в пределах верхней границы продолжительности поездки.
  • В Призовой TSP в котором вы хотите минимизировать продолжительность поездки под нижней границей суммы полученной прибыли.
  • В Проблема прибыльного тура в котором вместо того, чтобы учитывать время в пути, вы рассматриваете путешествие расходы. В этом случае вы можете выразить полученную прибыль и командировочные расходы с помощью одной и той же единицы измерения (например, евро). Цель состоит в том, чтобы максимизировать доход (= полученная прибыль минус командировочные расходы).

Большинство этих проблем также встречается в литературе с вариантами (несколько транспортных средств, временные окна и т. Д.), Которые являются общими для других «классических» задач маршрутизации. Например, OP с несколькими транспортными средствами называется Задачей командного ориентирования (TOP). Добавление временных окон дает OPTW и TOPTW. При сложении вместимости транспортного средства получается Емкостный ВЕРХ. Некоторые стохастические версии включают TSP с прибылью и стохастическими клиентами, OP со стохастическим временем прохождения и OP со стохастической прибылью.

Что касается методов решения задачи по ориентированию (которая кажется наиболее подходящей для вашего вопроса), насколько мне известно, современный точный алгоритм по-прежнему принадлежит Фишетти, Салазар-Гонсалес и Тоту. За последние пару лет новая эвристика улучшила ранее известные результаты: генетический алгоритм и ALNS.


SLS МЕТОДЫ

Хольгер Х. Хус, Томас Штютцле, в Stochastic Local Search, 2005 г.

Итерированный локальный поиск

В предыдущих разделах мы обсудили различные механизмы предотвращения застревания методов итеративного улучшения в локальных оптимумах функции оценки. Возможно, одна из самых простых и интуитивно понятных идей для решения этой фундаментальной проблемы - использовать два типа шагов SLS: один для максимально эффективного достижения локальных оптимумов, а другой - для эффективного выхода из локальных оптимумов. Это ключевая идея, лежащая в основе Итерированный локальный поиск (ILS)[Lourenço et al., 2002], метод SLS, который по существу использует эти два типа шагов поиска поочередно для выполнения обхода в пространстве локальных оптимумов w.r.t. данная функция оценки.

На рисунке 2.10 показана схема алгоритма ILS. Как обычно, процесс поиска можно инициализировать различными способами, например, начиная с случайно выбранного элемента пространства поиска. Из исходного решения-кандидата локально оптимальное решение получается путем применения дополнительной процедуры локального поиска. localSearch. Затем каждая итерация алгоритма состоит из трех основных этапов: во-первых, к текущему потенциальному решению применяется возмущение. s это дает модифицированное решение кандидата s′, Из которого на следующем этапе выполняется дополнительный локальный поиск до локального оптимума s′ Получается. На последнем этапе критерий приемки принимать используется, чтобы решить, из двух локальных оптимумов s или s′, Поиск продолжается. Обе функции, возмущать и принимать, может использовать аспекты истории поиска, например, когда одни и те же локальные оптимумы встречаются повторно, могут применяться более сильные шаги возмущения. Как и в случае с большинством других алгоритмов SLS, множество предикатов завершения прекратить может использоваться для принятия решения о завершении процесса поиска.

Рисунок 2.10. Схема алгоритма итерационного локального поиска (ILS) для задач оптимизации. (Подробности см. В тексте.)

Три процедуры localSearch, возмущение и принимать составляют основу любого алгоритма ILS. Конкретный выбор этих процедур имеет решающее влияние на производительность результирующего алгоритма. Как мы обсудим ниже, эти компоненты должны дополнять друг друга для достижения хорошего компромисса между интенсификацией и диверсификацией процесса поиска, что имеет решающее значение для получения хорошей производительности при решении сложных комбинаторных задач.

Совершенно очевидно, что вспомогательная процедура локального поиска, localSearch , оказывает значительное влияние на производительность любого алгоритма ILS. В целом, более эффективные методы локального поиска приводят к более высокой эффективности алгоритмов ILS. Например, при применении ILS к задаче коммивояжера использование 3-опционного локального поиска (т. Е. Итеративного алгоритма улучшения на основе отношения соседства с 3-мя обменами) обычно приводит к более высокой производительности, чем использование 2-опционного локального поиска, хотя даже лучше. результаты, чем при локальном поиске с 3 опциями, получаются при использовании алгоритма Лин-Кернигана в качестве вспомогательной процедуры локального поиска. Хотя часто для дополнительного локального поиска в ILS используются итерационные методы улучшения, вместо этого вполне возможно использовать более сложные алгоритмы SLS, такие как SA, TS или DLS.

Роль возмущать состоит в том, чтобы изменить текущий вариант решения таким образом, чтобы он не был немедленно отменен последующей фазой локального поиска. Это помогает процессу поиска эффективно уйти от локальных оптимумов, и последующая фаза локального поиска дает шанс обнаружить другие локальные оптимумы. В простейшем случае шаг случайного блуждания в большей окрестности, чем тот, который используется localSearch может быть достаточно для достижения этой цели. Существуют также алгоритмы ILS, которые используют возмущения, состоящие из ряда простых шагов (например, последовательности шагов случайного блуждания в окрестности с 1 обменом).

Обычно сила возмущения оказывает сильное влияние на продолжительность последующей фазы локального поиска. Слабые возмущения обычно приводят к более коротким фазам локального поиска, чем сильные возмущения, потому что процедура локального поиска требует меньше шагов для достижения локального оптимума. Однако, если возмущение слишком слабое, локальный поиск часто возвращается к только что просмотренному локальному оптимуму, что приводит к стагнации поиска. В то же время, если возмущение слишком велико, его эффект может быть подобен случайному перезапуску процесса поиска, который обычно приводит к низкой вероятности нахождения лучших решений на последующей фазе локального поиска. Чтобы решить эти проблемы, как сила, так и природа шагов возмущения могут быть изменены адаптивно во время поиска. Более того, существуют довольно сложные методы возмущения, такие как использованный в Лоренсу [1995], который основан на поиске оптимальных решений для частей данного экземпляра проблемы.

Критерий приемки, принимать, также оказывает сильное влияние на поведение и производительность ILS. Сильная интенсификация поиска достигается, если лучшее из двух решений s и s'Всегда принимается. Алгоритмы ILS, использующие этот критерий приемлемости, эффективно выполняют итеративное улучшение в пространстве локальных оптимумов, достигаемых вспомогательной процедурой локального поиска. И наоборот, если новый локальный оптимум, s′, Всегда принимается независимо от качества его решения, поведение результирующего алгоритма ILS соответствует случайному блужданию в пространстве локальных оптимумов данной оценочной функции. Между этими крайностями существует множество промежуточных вариантов, например, критерий приемлемости для мегаполиса, известный из Simulated Annealing, использовался в раннем классе алгоритмов ILS, называемых Цепи Маркова с большим шагом [Мартин и др., 1991]. Хотя все эти критерии приемки являются марковскими, то есть они зависят только от s и s ', было показано, что критерии приемлемости, которые учитывают аспекты истории поиска, такие как количество шагов поиска с момента последнего улучшения существующего решения кандидата, часто помогают повысить производительность ILS [Stützle, 1998c].

Пример 2.7 Итерированный локальный поиск для TSP

В этом примере мы описываем Итерированный алгоритм Лин-Кернигана (ILK) , алгоритм ILS, который в настоящее время является одним из наиболее эффективных неполных алгоритмов для задачи коммивояжера. ILK основан на том же пространстве поиска и наборе решений, что и в примере 2.3 (стр. 75). Дополнительная процедура местного поиска localSearch алгоритм поиска с переменной глубиной (LK) Лин-Кернигана, описанный в Разделе 2.1 (стр. 68).ff.) .

Как и почти все алгоритмы ILS для задачи коммивояжера, ILK использует конкретный шаг из 4-х обменов, называемый двухмостовой ход, как шаг возмущения. Это движение с двойным мостом показано на рис. 2.11, оно имеет желаемое свойство, заключающееся в том, что его нельзя напрямую отменить последовательностью ходов с двумя заменами, как это выполняется алгоритмом LK. Более того, в ходе эмпирических исследований было обнаружено, что это возмущение эффективно независимо от размера проблемы. Наконец, используется критерий приемлемости, который всегда возвращает лучшее из двух возможных решений. s и s″. Было показано, что эффективная реализация этого довольно простого по структуре алгоритма обеспечивает отличную производительность [Johnson and McGeoch, 1997]. (Подробная информация об этом и других алгоритмах ILS для TSP представлена ​​в Разделе 8.3, стр. 384ff.)

Рисунок 2.11. Схематическое изображение двухмостового хода, используемого в ILK. Четыре пунктирных края слева удаляются, а оставшиеся пути A, B, C, D повторно соединяются, как показано справа.

Как правило, ILS можно рассматривать как простой, но мощный метод расширения «простых» алгоритмов SLS, таких как итеративное улучшение. Концептуальная простота основной идеи привела к частым повторным открытиям и множеству вариантов, большинство из которых известны под разными названиями, такими как Цепи Маркова с большим шагом [Martin et al., 1991], Связанный местный поиск [Martin and Otto, 1996], а также, применительно к конкретным алгоритмам, к конкретным методам, таким как итерированные алгоритмы Лин-Кернигана [Johnson and McGeoch, 1997]. Несмотря на то, что лежащие в основе идеи совершенно разные, существует также тесная концептуальная взаимосвязь между ILS и некоторыми вариантами поиска по переменным окрестностям (VNS), такими как Basic VNS и Skewed VNS [Hansen and Mladenović, 2002].

Алгоритмы ILS привлекательны еще и тем, что их обычно легко реализовать: во многих случаях существующие реализации SLS можно расширить до алгоритмов ILS, добавив всего несколько строк кода. В то же время алгоритмы ILS в настоящее время являются одними из наиболее эффективных методов неполного поиска для многих комбинаторных задач, наиболее известным из которых является задача коммивояжера [Johnson and McGeoch, 1997 Martin and Otto, 1996]. Для обзора различных проблем, возникающих при разработке и реализации алгоритмов ILS, мы обращаемся к Lourenço et al. [2002].


Комплексная система оценки репутации для добровольно предоставленной географической информации в краудсенсорных приложениях.

Добровольно предоставляемая географическая информация (VGI) - это результат деятельности, в которой люди, поддерживаемые соответствующими технологиями, ведут себя как физические датчики, собирая и систематизируя контент с географической привязкой, обычно в своем окружении. И исследователи, и организации признали ценность контента VGI, однако этот контент, как правило, неоднороден по качеству и пространственному охвату. Как следствие, чтобы приложения могли извлечь из этого пользу, необходимо заранее оценить его качество и надежность. Это может быть непросто, поскольку, как правило, неизвестно, как и кем проводился процесс сбора и организации контента VGI. В литературе представлены различные предложения, посвященные косвенному процессу оценки качества на основе оценок репутации. Следуя этой перспективе, настоящий документ предоставляет в качестве основных вкладов: (i) многоуровневую архитектуру для VGI, которая поддерживает процесс оценки репутации (ii) новую комплексную модель для вычисления оценок репутации как для данных VGI, так и для участников, на основе прямого и косвенные оценки, выраженные пользователями, включая концепцию старения данных (iii) различные эксперименты, оценивающие точность модели. Наконец, актуальность принятия этой концепции обсуждается с помощью прикладного сценария для рекомендации туристических маршрутов.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.


Как оценить качество алгоритма TSP? - Географические информационные системы

Информация о бумаге

Информация о журнале

Электротехника и электроника

p-ISSN: 2162-9455 e-ISSN: 2162-8459

Получено: 28 ноября 2020 г. Принято: 20 декабря 2020 г. Опубликовано: 28 декабря 2020 г.

Решение задачи коммивояжера с помощью генетического алгоритма

Рипон Сорма 1 , Md. Abdul Wadud 1 , С. М. Резаул Карим 1 , Ф. А. Саббир Ахамед 2

1 Департамент EEE, Международный университет делового сельского хозяйства и технологий, Уттара Дакка, Бангладеш

2 Физический факультет Международного сельскохозяйственного и технологического университета, Уттара Дакка, Бангладеш

Для корреспонденции: Рипон Сорма, Департамент EEE, Международный университет делового сельского хозяйства и технологий, Уттара Дакка, Бангладеш.

Электронное письмо:

© 2020 Автор (ы). Опубликовано Scientific & Academic Publishing.

Эта работа находится под лицензией Creative Commons Attribution International License (CC BY).
http://creativecommons.org/licenses/by/4.0/

Этот анализ исследовал применение генетического алгоритмического правила, способного найти характерный недостаток. Генетические алгоритмы квадратного метра, способные, в свою очередь, генерировать более короткие возможные маршруты на основе информации о виктимизации, накопленной среди типов путей секреции, размещенных на периметрах типичного графа недостатков. pc Моделирование демонстрирует, что генетическое алгоритмическое правило способно генерировать жидкие решения для каждого двусторонне симметричного и неравномерного экземпляра репрезентативного недостатка. Тактика - это пример младшего медсестры, например, симулированное закаливание младшего медсестры, органическое вычисление процесса продуктивного использования естественной фигуры для внедрения алгоритмического правила оптимизации. Исследование генетического алгоритмического правила объясняет его эффективность и показывает, что его скоро увидят как параллельный вариант запретного поиска с неявной памятью. Генетическое алгоритмическое правило гласит, что лучше всего по машинному времени, но наименее экономичен в потреблении памяти. Генетическое алгоритмическое правило отличается от эвристики ближайшего соседства тем, что оно рассматривает ближайший маршрут, эвристика соседства рассматривает самый близкий путь. Генетическому алгоритмическому правилу нужна система с параллельным дизайном и ее оптимальная реализация. Действия каждого генетического алгоритмического правила должны выполняться как отдельный метод ОС.

Ключевые слова: Генетический алгоритм, Нечеткая система, Машинное обучение, Применение генетического алгоритма, Работа Mat Lab


Абстрактный

В задачах маршрутизации часто используются экспериментальные сети для представления реальных сценариев. However most ignore the inclusion of triangle inequality violations, a phenomenon resulting from delays or rounding errors within a network. This work evaluates the effect of both frequency – the number of violations – and severity – the degree of intensity of a violation – of triangle inequality and evaluates both solution quality and solution time based on Simulated Annealing, Ant Colony Optimization and Savings Algorithm methods. Findings indicate that while both frequency and severity degrade solution quality, increased levels of frequency and severity together result in significant adverse affects to solution quality. Solution time, however, is not impacted by the presence of triangle inequality violations within the network. This information should encourage practitioners to identify delays and maintain the presence of triangle inequality violations in a network to ensure accuracy of solution quality.

Основные моменты

► We evaluate the influence of triangle inequality violations on routing networks. ► Violations are introduced systematically by frequency and severity. ► Ant Colony Optimization outperforms Simulated Annealing on violated networks. ► Solutions with no violations are similar to those with networks with few violations. ► Triangle inequality violations affect networks similarly despite of network size.


A solution quality assessment method for swarm intelligence optimization algorithms.

Swarm intelligence (SI) optimization [1] is a class of certain population-based metaheuristics which are inspired by the behavior of swarm of agents (i.e., living beings) interacting locally with each other and with their environment. SI is relatively new subfield of artificial intelligence. The behavior of every agent in SI is simple and does not have intelligence. But a number of simple agents through local rules are able to have the emergence of collective intelligence and come to intelligent solutions for complex problems. In recent years, SI has received widespread attention in research. Typical SI schemes include ant colony optimization (ACO) [2], particle swarm optimization (PSO) [3], artificial bee colony (ABC) [4], and artificial fish swarm algorithm (AFS) [5].

ACO is a class of optimization algorithms modeled on the foraging behavior of an ant colony. In ACO, a colony of artificial ants with the artificial pheromone trails and heuristic information are stochastic constructive heuristics that build better and better solutions by using and updating pheromone trail. New solutions are generated using a parameterized probabilistic model, the parameters of which are updated using previously generated solutions so as to direct the search towards promising areas of the solution space. The first ACO algorithm is ant system (AS) [6]. In the next years, many kinds of ACO algorithms have been developed to improve the performance of AS, such as ant colony system (ACS) [7], max-min ant system (MMAS) [8], and two-stage updating pheromone for invariant ant colony optimization algorithm (TSIACO) [9]. PSO is a metaheuristic search method that simulates the movements of a flock of birds which aim to find food. PSO optimizes a problem by having a population of candidate solutions, called particles, and moving these particles around in the search space according to simple mathematical formulae over the particle's position and velocity. Each particle's movement is influenced by its local best known position and also guided toward the best known positions in the search space, which are updated as better positions founded by other particles. The first PSO algorithm was introduced by Kennedy and Eberhart. ABC is an optimization algorithm based on the intelligent foraging behavior of honey bee swarm, proposed by Karaboga in 2005. In the ABC model, the colony consists of three groups of bees: employed bees, onlookers, and scouts. It is assumed that there is only one artificial employed bee for each food source. Employed bees go to their food source and come back to hive and dance on this area. The employed bee whose food source has been abandoned becomes a scout and starts to search for finding a new food source. Onlookers watch the dances of employed bees and choose food sources depending on dances. The scout bee moves in the solution space to discover new food sources. SI has been applied to many applications problems, such as knapsack problems, scheduling problems, assignment problems, multiobjective optimization problem, and cluster analysis.

Although great progress has been achieved in application, there is also a basic question, which is how to quantify the goodness of the solution obtained in finite time, needed to be answered. We call it solution quality evaluation problem. At present, the existing researches focus on the solution "value performance," namely, the difference between the solution obtained by algorithm and the optimal solution of the problem. The general use of the method is ratio analysis, namely, ratio between solution obtained by algorithm and optimal solution. If the ratio is closer to 1, it means that higher quality is obtained by algorithm and the algorithm is more effective. Competitive analysis [10] of online algorithm also can be employed. The drawback of two methods is that they need optimal solution of problem. There are some approximation methods used to estimate optimal for example, extreme value theory [11] and Lagrange's relaxation method [12], to get the solution value or bound to replace the optimal solution in practical problems. This analysis method generally requires strong theoretical basis of mathematic and strong math skills, and even it is difficult or impossible to give this kind of boundary for most of the problems. In addition to bias in the theoretical study of evaluation methods, some scholars pay more attention to the experimental analysis method. Hoos and Stutzle [13] proposed to analyze the performance and behavior of stochastic local search algorithm by experimental analysis method. The performance of several existing particle swarm optimization algorithms was compared by using this method, and an improved particle swarm optimization algorithm was introduced according to the law in [14].

With development of the ordinal optimization (OO) theory [15], the research changes the angle to solution "ordinal performance" to evaluate solution quality of optimization method. Here the solution "ordinal performance" refers to the judgment about whether the solution is belonging to the good enough solution set. Shen et al. [16] used solution comparison between heuristic methods and uniform sampling to evaluate the solution. The evaluation criterion is alignment probability used in OO. As the extension of this work, author used the knowledge of hypothesis testing to develop it into a theory in [17]. In this paper, we proposed an experimental analysis method based on the analysis of search space and characteristic of algorithm itself to evaluate the solution quality for SI.

The rest of this paper is organized as follows: Section 2 reviews the basic idea of OO and indicates the difficulty of quantifying solution quality by analyzing the existing method. Section 3 describes our experimental analysis method detailed. Some simulation results are presented in Section 4 to show the feasibility of proposed method. Finally, Section 5 concludes the paper.

2. Basics of Ordinal Performance

The ordinal performance is concerned with whether the solution belongs to the good enough set. The evaluation criterion is alignment probability. The definition of good enough set and alignment probability is introduced in OO. So, in this section, we briefly overview OO.

2.1. Brief Overview of OO. OO was first introduced by Ho et al. in 1992 [15], which has become an important tool for optimizing discrete event dynamic system (DEDS). There are two basic ideas in OO. The first idea is ordinal comparison that is, "order" is easier to ascertain than "value." The second idea is goal softening. Instead of only caring about optimal solution, OO is willing to settle for the "good enough" solution.

In OO, [THETA] is the search space and satisfies [absolute value of ([THETA])] = N. The "good enough" set G is defined as the top-g of the search space [THETA] or top p% of the search space [THETA]. It satisfies [absolute value of (G)] = g. Selected set S is selected by rule and satisfies [absolute value of (S)] = s. OO can guarantee that S contains top-g solutions of the search space with a high probability. It is called alignment probability in OO and denoted by [P.sub.AP].

2.2. Ordinal Performance. The research of solution quality evaluation method transfers from the value performance to the ordinal performance, after the definition of the good enough set, selected set, and alignment probability introduced. Based on this knowledge, Shen et al. [17] proposed evaluation method, called ordinal optimization ruler (OO ruler), using the related knowledge of hypothesis testing. So we can use OO ruler to qualify the ordinal performance of solution. One of the intuitive understandings of OO ruler is that uniform samples are taken out from the whole search space and evaluated with a crude but computationally easy model when applying OO. After ordering via the crude performance estimates, the lined-up uniform samples can be seen as an approximate ruler. By comparing the heuristic design with such a ruler, we can quantify the heuristic design, just as we measure the length of an object with a ruler. If the OO ruler gets from all the solutions, it is an accurate ruler. But this is obviously an ideal situation for practical problems. It is proved that approximate OO ruler is also effective.

Theorem 1 (see [17]). If the k solution obtained by optimization algorithm is better than t solution of selected set obtained by uniform sampling, we can judge that the k solution belongs to the top p% of the search space [C] at least. And the type II error probability is not larger than [[beta].sub.0]. The relation between s, [[beta].sub.0], t, and p% is determined by

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (1)

where [MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII] represents the number of different choices of s designed out of j distinguished ones.

In the case of given parameters of s and [[beta].sub.0], we can get relation between t and p% through the list method.

For an arbitrary solution obtained by heuristic algorithm, we only need to compare it whether satisfies the conditions of Theorem 1, then we can make the corresponding judgment, so as to realize the evaluation ordinal performance of solution. But OO ruler has a premise. To get OO ruler, uniform sampling for search space is needed. It is also prerequisite for OO. The so-called uniform sampling refers to the same probability of getting arbitrary solution. It is also the reason why the uniform sampling can provide quantitative reference. But, for some problems, it is difficult to achieve uniform sampling, and thus it will not be able to get OO ruler. In addition, the price of getting OO ruler for huge solution space is very high. These two problems limit the application of OO ruler in solution evaluation. However, the introduction of ordinal performance has great inspiration for the research of solution quality evaluation for SI.

3. The Framework of Assessment Method

In this section, we take traveling salesman problem (TSP) as an example to describe experimental analysis method of solution quality evaluation.

3.1. Sample Characteristics of SI. For SI, the feature of the algorithm itself determines that the sampling method in the search space is not uniform. Especially by the partial reinforcement effect, it makes the algorithm more and more concentrated in certain regions. So it is not suitable for evaluating method directly using OO ruler. In addition, the algorithm produces a large number of feasible solutions. The feasible solution contains the search characteristics of some algorithms and the distribution of the solution space. To obtain the hidden information and its rational utilization through some analysis methods, we need to do some research. It plays an important role in the research of quality evaluation and improving the algorithm performance.

3.2. The Framework of Assessment Method. Based on the above analysis, this paper presents a general framework of the quality evaluation method for SI. The framework contains three procedures. First, to get some internal approximate uniform subclass, using cluster method, the solution samples (corresponding to selected subset of OO) were homogeneous processing. Second, discrete probability distribution solution samples of each subclass and the scale relationship of the subclass are estimated in the fitness space. Based on the characteristics of the subclass, the presupposition ratio of the good enough set is distributed to each subclass. Last, alignment probability is calculated according to the model of solution quality evaluation, so as to complete the evaluation of the solution quality.

3.2.1. Uniform Clustering for Nonuniform Samples. According to the characteristics of discrete space, uniform clustering of samples is that obtaining probability of solution is approximating same. Compared with the continuous space, clustering is very different from discrete space. General discrete spatial distance features are defined with the question, and not as the continuous space as a distance to define general way. This makes clustering method based on grid no longer applicable, which is used in continuous space such as density clustering and clustering method based on grid. And the huge solution sample set also limits the use of some special clustering method. Therefore, we need to design a suitable and efficient clustering algorithm based on demand.

Approximate sampling probability is the purpose of clustering. The approximate sampling probability here refers to the neighbor characteristics (including the distance and number of nearest neighbors) consistent approximation. A feasible method for TSP is to calculate the distance between all solution samples. Then clustering is done according to the nearest neighbor statistical feature of each sample distance. But it is only applicable to the small size of the solution sample. Another possible method is that the clustering centers are selected from the best solutions. The distance is calculated between each feasible solution and the cluster center. Then the solution samples are clustered according to the distance. The calculation complexity of this algorithm is low. It is more suitable for clustering large scale solution samples. In the next section, we use this clustering method.

3.2.2. The "Good Enough" Set Decomposition. The solution alignment probability is calculated using a priori ratio of the good enough set (the ration between the good enough set and search space) in OO. The ratio of each kind of the good enough sets is needed to know after clustering. The prior ratio requires decomposing prior ratio of each class. This decomposition has a certain relationship with each class distribution of samples and the class size. Therefore, the distribution characteristics of solution in the fitness value, as well as proportional relation of class size, are needed to estimate.

Estimation of distribution of solution in the fitness value is problem of one-dimensional distribution sequence estimation. The purpose of distribution estimation is to obtain the good enough set distribution. If the fitness value is arranged according to the order from small to large, ordered performance curve (OPC) can be obtained. For the minimization problem, the good enough set is in the first half of the OPC. To obtain a true estimation of the good enough set, you need to consider the types of OPC.

3.2.3. Ordinal Performance Estimation. The original search space after clustering is divided into l approximate uniform partition. Search space [[THETA].sub.k], the good enough set [G.sub.i], and selected set St of each partition and search space 0, good enough set G, and selected set S of the original search space have the following correspondence in the collection and base:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (2)

where [absolute value of (*)] is the base of set *.

Since the probability of any feasible solution pumped into each subclass is the same, for a sampling result [[theta].sub.i] has

P([[theta].sub.s] = [[theta].sub.i]) = 1/[N.sub.i], [for all][[theta].sub.i], [member of] [[THETA].sub.i]. (3)

In this paper, we only concern the selected set whether has at least one solution in good enough set. So we can draw the following conclusions:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII]. (4)

3.2.4. Procedures of Assessment Method. The main steps to get the evaluation method by the above analysis are described in Algorithm 1.

4. Experimental Results and Analysis

In this section, we take the Hopfield 10-city problem, which is also used in [17], as the example to demonstrate our experimental analysis method. The coordinates of the 10 cities are <(0.4000, 0.4439) (0.2439, 0.1463) (0.1707, 0.2293) (0.2293, 0.7610) (0.5171, 0.9414) (0.8732, 0.6536) (0.6878, 0.5219) (0.8488, 0.3609) (0.6683, 0.2536) (0.6195, 0.2634)>. There is (10-1)! = 362880 solutions in the search space. The best path is [1,4, 5, 6,7,8, 9,10,2, 3] or [1, 3,2,10, 9,8,7, 6, 5,4]. Here we define [absolute value of (G)] = 0.005N. We use two groups of experimental simulation to demonstrate effectiveness of proposed method, where [P.sub.AP] is alignment probability. Statistics value represents the alignment probability by our methods. Computational value is the alignment probability, and the error represents the difference of two alignment probabilities.

4.1. Evaluation Index. Alignment probability is a measure of whether optimal solution belongs to the good enough set. It is a probability value. Therefore, studying this value has little significance in one experiment. It is needed to do many experiments to study the statistical laws. So, each kind of experiment independently does K times. If the optimal of i time belongs to the good enough set, let [s.sub.i] = 1 otherwise [s.sub.i] = 0. Let [P.sub.g] be statistical frequency. Then, for K times experiment, we have

[P.sub.g] = [[summation].sup.r.sub.i=1] r = 1, 2, . K. (5)

From (5), the following can be seen, when K tends to infinity:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (6)

where [P'.sub.g] is the alignment probability value, but it is generally difficult to obtain. In general, we only need to compute the [P.sub.g] value which may be tested experimentally.

Let [[bar.P].sub.A](r) be the alignment probability in an experiment by the evaluation method [P.sub.A] is average value of [[bar.P].sub.A](r). Рассматривать

[P.sub.A] = [[summation].sup.r.sub.i=1] [[bar.P].sub.A] (r)/r, r = 1, 2, . K. (7)

Let [e.sub.r] be the absolute value of error of [P.sub.g] and [P.sub.A] that is,

[e.sub.r] = [absolute value of ([P.sub.A] - [P.sub.g])]. (8)

In the following experiments, we are using [e.sub.r] as the standard evaluation index.

4.2. Ordinal Performance Evaluation of Nonuniform Sampling. The solution space is sorted according to the fitness values and gets the whole solution space of the sample set, denoted by [OMEGA]. We deliberately partition the search space into the same two parts [[OMEGA].sub.1] and [[OMEGA].sub.2]. Then we sample, respectively, in parts [[OMEGA].sub.1] and [[OMEGA].sub.2], respectively. Times are denoted by [n.sub.1] and [n.sub.2]. Then the total number of samplings is n. Затем

Let K = 5000 and n = 3000. Because the value of ration can be divided into two cases. One is no less than 1, and the other is less than 1. So, the following points are discussed.

4.2.1. Ratio [greater than or equal to] 1. This case illustrates the sampling times in area [[OMEGA].sub.1] more than in area [[OMEGA].sub.2], and the good enough set is in area [[OMEGA].sub.1]. The experiment results can be seen in Figures 1 and 2. The abscissa is value of ratio. The values from left to right, respectively, are 1, 2, 5, 10, and 100. In Figure 1, we can see that, with the increasing value of ratio, the sampling point in area [[OMEGA].sub.1] is increasing. The probability of obtaining the good enough solution increases as the good enough set is in area [[OMEGA].sub.1]. In addition, except for the case of ratio = 1, [P.sub.A] is slightly higher than [P.sub.g]. The rest of [P.sub.A] are lower than [P.sub.g]. The error of two probabilities seen from Figure 2 is lower and no more than 2% generally.

4.2.2. Ratio < 1. This case illustrates the sampling times in area [[OMEGA].sub.2] more than in area [[OMEGA].sub.1]. The experiment results can be seen in Figures 3 and 4. The abscissa is value of ratio. The values from left to right, respectively, are 0.01, 0.1, 0.2, 0.5, and 0.9. In Algorithm 1 and Figure 1, we can see that the error of two probabilities is high. But the error decreases with the ratio increasing.

4.3. Ordinal Performance Evaluation of ACO. Let K = 2000 the computational results can be seen from Figures 5 and 6. From Figure 5 we can see that the alignment probability of [P.sub.A] and [P.sub.g] is close to 1 and the difference is low. The [P.sub.A] is slightly lower than [P.sub.g]. It is showed that the evaluation method is conservative. The error range is less than 0.1%. This shows that the calculation result is credible.

In order to further study the relation between the parameters of ant colony algorithm and evaluation results, we focus on the relationship between the maximum number of iterations changes and ant number changes and evaluation of results. The results can be seen from Tables 1 and 2.

First, we study the ant number. The ant number m belongs to the set <2,4,5,8,10>. From Tablet we can see that the value of [P.sub.A] is increasing with the m increasing. The error of probability is reducing with the m increasing. This shows that the size of solution has some influence on the evaluation method. Second, we study the iteration number [N.sub.max] which is selected from the set <10,20,30, 50,100,200>. From Table 2 we can see that [P.sub.A] is much less than [P.sub.g] when [N.sub.max] is 10. But, with [N.sub.max] increasing, the error is reducing. The reason is that the information of space is accumulated with [N.sub.max] increasing. It is showed that the more the utilization of information of the solution space, the more accurate the result.

4.4. Ordinal Performance Evaluation of PSO and AFS. We also do the same comparison for PSO and AFS. The results can be seen from Tables 3 and 4. m is particle number in Table 3 and m is fish number in Table 4. From Tables 3 and 4 we can see that the value of [P.sub.A] is increasing with the m increasing and the maximum number of iterations [N.sub.max]. The average solution is also improved. It is showed that the solution quality is effect on [P.sub.A].

A solution assessment method of SI is presented in this paper. Based on the analysis of the existing knowledge foundation, combined with the ordinal optimization theory, the ordinal performance is research target to evaluate solution. Then based on the analysis of characteristics of SI algorithms, the framework of evaluation method is given. The detailed steps of the method are presented. Finally, taking the Hopfield 10-city problem as an example, some simulation experiments are done. The experimental results show that the proposed method is feasible.

The authors declare that there is no conflict of interests regarding the publication of this paper.

This work was supported by the National Natural Science Foundation of China (Grant nos. 61305149, 61104222, and 61304175) and the Science Fundamental Research Project of Jiangsu Normal University (Grant no. 12XL063). The authors are also thankful to the anonymous referees.

[1] J. Kennedy, R. C. Eberhart, and Y. H. Shi, Swarm Intelligence, Morgan Kaufmann, San Mateo, Calif, USA, 2001.

[2] M. Dorigo and T. Stutzle, Ant Colony Optimization, MIT Press, Cambridge, Mass, USA, 2004.

[3] J. Kennedy and R. Eberhart, "Particle swarm optimization," in Proceedings of the IEEE International Conference on Neural Networks, pp. 1942-1948, December 1995.

[4] D. Karaboga and B. Akay, "A survey: algorithms simulating bee swarm intelligence," Artificial Intelligence Review, vol. 31, нет. 14, pp. 61-85, 2009.

[5] X.-L. Li, Z.-J. Shao, and J.-X. Qian, "An optimizing method based on autonomous animals: fish-swarm algorithm," System Engineering Theory and Practice, vol. 22, нет. 11, pp. 32-38, 2002.

[6] M. Dorigo, V. Maniezzo, and A. Colorni, "Ant system: optimization by a colony of cooperating agents," IEEE Transactions on Systems, Man, and Cybernetics, B: Cybernetics, vol. 26, no. 1, pp. 29-41, 1996.

[7] M. Dorigo and L. M. Gambardella, "Ant colony system: a cooperative learning approach to the traveling salesman problem," IEEE Transactions on Evolutionary Computation, vol. 1, вып. 1, pp. 53-66, 1997.

[8] T. Stutzle and H. H. Hoos, "MAX-MIN ant system," Future Generation Computer Systems, vol. 16, no. 8, pp. 889-914, 2000.

[9] Z. J. Zhang and Z. R. Feng, "Two-stage updating pheromone for invariant ant colony optimization algorithm," Expert Systems with Applications, vol. 39, no. 1, pp. 706-712, 2012.

[10] J. Aspnes and O. Waarts, "Compositional competitiveness for distributed algorithms," Journal of Algorithms, vol. 54, нет. 2, pp. 127-151, 2005.

[11] J. Hsler, P. Cruz, A. Hall, and C. M. Fonseca, "On optimization and extreme value theory," Methodology and Computing in Applied Probability, vol. 5, вып. 2, pp. 183-195, 2003.

[12] D. P. Bertsekas, Nonlinear Programming, Athena Scientific Press, Belmont, Mass, USA, 1999.

[13] H. H. Hoos and T. Stutzle, Stochastic Local Search: Foundations and Applications, Morgan Kaufmann Press, San Francisco, Calif, USA, 2005.

[14] M. A. Montes de Oca, T Stutzle, M. Birattari, and M. Dorigo, "Frankenstein's PSO: a composite particle swarm optimization algorithm," IEEE Transactions on Evolutionary Computation, vol. 13, no. 5, pp. 1120-1132, 2009.

[15] Y. C. Ho, R. S. Sreenivas, and P. Vakili, "Ordinal optimization of DEDS," Discrete Event Dynamic Systems, vol. 2, no. 1, pp. 61-88, 1992.

[16] Z. Shen, Y.-C. Ho, and Q.-C. Zhao, "Ordinal optimization and quantification of heuristic designs," Discrete Event Dynamic Systems: Theory and Applications, vol. 19, нет. 3, pp. 317-345, 2009.

[17] Z. Shen, Q.-C. Zhao, and Q.-S. Jia, "Quantifying heuristics in the ordinal optimization framework," Discrete Event Dynamic Systems: Theory and Applications, vol. 20, нет. 4, pp. 441-471, 2010.

Zhaojun Zhang, (1) Gai-Ge Wang, (2) Kuansheng Zou, (1) and Jianhua Zhang (1)

(1) School of Electrical Engineering and Automation, Jiangsu Normal University, Xuzhou, Jiangsu 221116, China

(2) School of Computer Science and Technology, Jiangsu Normal University, Xuzhou, Jiangsu 221116, China