Поддержка векторной машины: полезный инструмент для применения технологических процессов
Выше классификации и регрессии способности недавно представил машины опорных векторов предлагает привлекательную альтернативу для решения ряда задач технологических процессов.
Присущие нелинейность, сложность и неопределенность в химических процессах затрудняют разработку компактных математической модели представляют собой системы в широком диапазоне определяющих параметров. Это обеспечивает постоянной движущей силой, изучить альтернативные способы достижения поставленных целей. Управляемые данными модели, которые не требуют значительных понимания феноменологии участвуют и являются более надежными для присутствия шума и сравнительно мало измерений, таким образом, становится все более привлекательным.
В последнее десятилетие наблюдается значительный рост в области разработки и применения искусственных нейронных сетей - в частности, многослойные персептрона (MLP) - для обработки инженерных приложений (1-3). ВЮР успешно решить ряд трудных и самых разных проблем путем обучения их на охраняемой способом, используя ошибки обратного распространения алгоритма (EBPA). Этот алгоритм использует простые исправления ошибок правило обучения и может рассматриваться как применение рекурсивного метода, известного как стохастической аппроксимации.
В качестве альтернативного подхода дизайн нейронной сети можно рассматривать как кривой установки задачи в многомерном пространстве. Обучение является то эквивалентно нахождению поверхность, что обеспечивает наилучшее согласие на подготовку данных, а затем интерполяции экспериментальных данных. Эти сети, известной как радиальных базисных функций (RBF) сетей, что использование интерполяции в многомерном пространстве (4). Обучение с использованием этих парадигм нейронных сетей означает, определения их оптимального подключения и весов связей. Задача заключается не только учиться и правильно классифицировать подготовки данных, но и обобщить, так что новые данные могут быть размещены. Ключ к этой проблеме заключается в понимании того, как высокопроизводительные обучения могут быть достигнуты.
С этой целью новый подход, называемый опорным машин (SVM) предлагается. SVM являются универсальными кормить вперед сети прочно опирается на строгие статистические теории обучения разработана Вапника (5, 6). Они имеют несколько желательных возможности, необходимые для бинарных и мультиклассируют задачи классификации. Они содержат большое класс нейронных сетей, RBF сетей и полиномиальных классификаторы, помимо других функций, как подмножества. Простота их реализации и двухканального на трудных задач является привлечение дополнительного внимания.
SVM соответствуют простых линейных классификаторов в преобразованном пространстве высшего функцию, которая не является линейно связана с исходного пространства ввода. SVM могут эффективно использовать некоторые существующие функции и ядра для получения оптимального гиперплоскость, отделяющая данные, принадлежащие к разным классам. SVM использования выпуклых квадратичных алгоритм оптимизации, чтобы найти уникальное глобальное оптимальное решение поверхности. Это решение поверхности могут быть представлены подмножества обучающих данных лежать на полях. Эти данные, известные как поддержка векторов, провести все необходимые сведения о задаче классификации. Алгоритм является строгим, но очень компактный, так как проблема оптимизации и решения поверхности зависят только от скалярного произведения между подготовкой данных, х ^ к югу я ^ х ^ к югу J ^, где х ^ ^ я к югу и к югу х ^ J ^ являются SUP я ^ е ^ и / ^ SUP ^ го данных, соответственно.
ВЮР тренировался с EBPA полагаться на форму глобальной оптимизации, в то время RBF-сети зависит от местных оптимизации конструкции. SVM, с другой стороны, использование Вапника-Червоненкиса (VC) теории размерности для их проектирования. VC размерности является мерой сложности решения пространства. Это облегчает количественный средство дискриминации между возможностями различных классификаторов. Методология обеспечивает поддержку векторной решение пространства с минимальной размерности VC и обучение ошибки, чтобы классификатор мере вероятность ошибки обобщения. Хотя, возможно, трудно дать количественную оценку ошибки обобщения, можно подчеркнуть, что решение поверхности с большей размерности VC всегда будет иметь более высокую вероятность ошибки обобщения в связи с увеличением сложности поверхности.
Применение SVM для диагностики
Давайте посмотрим на реакторе пример, приведенный в Луибен (20) и разработан Venkatsubramanian, и. др.. (15) с помощью обратного распространения сетей нейронных. Разломов (F ^ югу т ^-F ^ ^ 6 к югу) происходят из-за сбоев в: высокий расход на входе, F ^ ^ 1 к югу, низкий расход на входе, F ^ 2 ^ к югу, высокий входной концентрации реагента, F ^ к югу 3 ^; низкий входной концентрации реагента, F ^ ^ 4 к югу, высокая температура входе реагента потока, F ^ ^ 5 к югу, и низкая температура входе реагента потока, F ^ ^ 6 к югу. Таблица 2 показывает, измеряется 12 модели реактора выходных данных, соответствующих недостатков F ^ ^ 1 подпункта-F югу ^ ^ 6. Данные, принадлежащие к обычному режиму работы также могут быть показаны в таблице 2. Таблица 3 показывает 12 измерений выхода соответствующих двойных ошибок. Все недостатки дважды включать одновременное возникновение неисправностей из-за высокой температуры входе потока ввода реактора наряду с другими дефектами, например, в первой строке в таблице 3 для сбой из-за одновременного появления высокого расхода входе и высокой температуры потока входе ..
Для классификации этих моделей, мы приняли процедура несколько отличается от принятой в один ранних исследований Venkatasubramanian и др. (15). Во-первых, мы использовали отдельный классификатор для одиночных и двойных ошибок. Это включало объединения всех данных в таблице 2 для одиночной неисправности в одной группе, а данные в таблице 3 для двойных ошибок в другую группу и использовать SVM классифицировать их в два разных классов. SVM с ядром РФБ удалось классифицировать одной ошибки и двойных ошибок в отдельных классах 100% успеха. Тестовые данные представлены в таблице 4 также использовались для оценки надежности машин в обобщающих машина возможности для классификации данных неподготовленным. Набор множителей Лагранжа получены классификаторов RBF приведены в таблице 5.
Кроме того, мы использовали мультиклассируют SVMs для выявления и классификации по различным типам неисправностей в обоих таблице 2 и в таблице 3. Для обоих одной ошибки и двойной ошибки случаях, наша цель состояла в подготовке SVM правильно классифицировать неисправности, принадлежащих к конкретной вины, независимо от доли отклонения. Таким образом, для одной объективной структуры, измерение модели с 15% больше, и 5%-ное увеличение расхода входе были введены в классе 1 (т. е. F ^ 1 ^ к югу Class), 15% и 5% меньше, были введены в классе 2, и так далее. Существуют различные алгоритмы используются для различных классов классификации. Мы использовали самый простой способ, т. е. 1-против-все (21) метод, классифицировать различные классы ошибок. В этом методе к проблеме класса превращается в вопрос о решении проблемы к бинарных классификаторов. SUP К ^ ^ й классификатора строит гиперплоскость между классом п и К-1 других классов. Большинством голосов через классификаторов применяется для классификации, новая точка испытания. Новые методы для различных классов распознавания решения проблем недавно были описаны, но эти методы не из-выполнить-один против всех методов, описанных выше.
Вышеуказанной проблемой разделения одной ошибкой в данных
Подтверждение
Авторы хотели бы выразить признательность за поддержку, за эту работу получил от ICI, Великобритания в 6 различных классах была решена проблема SVM мультиклассируют использованием 1-против всех способом. Оба полинома и RBF ядра смогли классифицировать данные в 7 различных классов без misclassifications. Мы использовали аналогичную методологию к югу от классификации двойной ошибки данных в 4 различных классов, т. е. данные, принадлежащие к югу F ^ 1 ^ и ^ ^ к югу 5 класс, F ^ 2 ^ к югу и к югу F ^ ^ 5 класса , F ^ ^ 3 к югу и к югу F ^ ^ 5 класса, а к югу F ^ 4 ^ и к югу F ^ ^ 5 класса. Затем мы расширили набор данных в таблицах 2 и 3, чтобы включить ошибки в диапазоне от -25% до 25%. Опять же, SVM успешно классифицировать неисправности, принадлежащих к отдельным классам прекрасно. Подготовку классификаторов были также испытаны с тестовыми данными. Вся вина этих структур данных испытаний были снова успешно классифицировать по SVM без ошибок. Наконец, мы включили данных, в которой три недостатки происходят одновременно. Данные приведены в таблице 6. Все эти данные представляют случаи, в которых происходит одновременное неисправности на входе расход на входе концентрация и температура на входе.
Мы использовали SVM с ядром RBF для разделения данных, принадлежащих к одной ошибки, двойные ошибки и недостатки в тройной различных групп. 3 класса классификатора классифицировать все данные в разных классов без ошибок ..
ЛИТЕРАТУРА
1. Bulsari, AB, под ред. "Нейронных сетей для инженеров-химиков", Elsevier Science Publishers, Амстердам (1995).
2. Bulsari, AB, "Применение искусственных нейронных сетей в Технологических Процессов," J. Syst. Engng., 4, с. 131-170 (1994).
3. Хоскинс, JC, и DM Химмельблау, "Искусственный нейросетевых моделей представления знаний в области химического машиностроения", вычи. Химреагент Engng., 12, стр. 881 (1988).
4. Вассерман, Д., "Современные методы в нейронные вычисления," ИЛ Рейнгольд, Нью-Йорк (1993).
5. Вапника В., "Природа статистической теории обучения", Springer, в Нью-Йорке (1995).
6. Вапника В., статистической теории обучения ", Springer, в Нью-Йорке (1998). 7. Burger, ЗАО, "Учебник по поддержке Векторный Машины для распознавания образов", интеллектуального анализа данных и знаний "Дискавери", 2, с. 121-167 (1998).
8. Christianini, Н. и Д. Шо-Тейлор, "Введение в поддержку векторной машины", Cambridge University Press, Кембридж, Великобритания (2000).
9. Друкер, Х. и др.. "Поддержка машины Векторный регрессии", нейронных систем обработки информации, 9, MIT Press. Cambridge, MA (ред.: Мозер, М., Иордании, М., Пецш, Т.) (1997).
10. Смола, А. и Б. Scholkopf, "Учебник по поддержке регрессии" Вектор "," Технический отчет NeuroCOLT2 NC-TR-98-030, Королевский колледж Холлоуэй, Univ. Лондон, Соединенное Королевство Великобритании и Северной Ирландии (1998).
11. Ганн, S, "Поддержка векторных Машины для классификации и регрессии," ISIS технический отчет, кафедра электроники и компьютерных наук, Univ. Саутгемптон (1997).
12. Хоскинс, JC, "Эль Аль". ", Диагностика неисправностей в сложных химических заводов с использованием искусственных нейронных сетей", Айше Journal, 37 (1), с. 137-141 (1991).
13. Чан, ЛГ, и др.., "Обнаружение неисправностей и диагностики в системах промышленной", Springer-Verlag, Berlin (2000).
14. Чан, ЛГ, и др.., "Data-Driven методы обнаружения неисправностей и диагностики в химических процессах," Springer-Verlag, Лондоне (2000). 15. Venkatasubramanian, В. и др. /. "Процесс диагностики и Di
agnosis с использованием нейронных сетей-1. Стационарные процессы ", Comp. Chem. Engng., 14 (7), с. 699-712 (1990).
16. Бхат Н.В., TJ МакЭвой, "Использование нейронных сетей для динамического моделирования и контроля химических процессов Системы", Comp. Химреагент Engng., 30, с. 2563-2573 (1990).
17. Рико-Мартинес, Р. и И. Kevrekidis, "Нелинейные системы идентификации с использованием нейронных сетях, использующих Динамика и неустойчивости", в АО Bulsari, нейронных сетей для инженеров-химиков, Elsevier, Амстердам, соч. 409-442 (1995).
18. Вы, Ю. и М. Николау, "Динамические Моделирование процессов с периодические нейронных сетей", Айше Journal, 39, с. 1654-1667 годов (1993).
19. Чжоу, XJ, и др.., "Интеллектуальный нейронной сети модель, основанная на Karkhunen-Лоэва расширения для стеновых охлаждения с неподвижным слоем катализатора реакторов", Canadian Journal Chem. Engng., 74, с. 638-646 (1996).
20. Луибен, WL, "Моделирование процессов, моделирования и управления для инженеров-химиков" (2-е изд.) McGraw-Хилл в Нью-Йорке (1990). 21. Уэстон, J., В и С. Уоткин "Поддержка векторной машины для мульти
Распознавание класса ", Труды Седьмой Европейский симпозиум по искусственных нейронных сетей (1999).
М. Агравал, А. М. JADE,
В. К. Джаяраман И BD Kulkarni НАЦИОНАЛЬНОГО химическая лаборатория
М. Агравал настоящее время выпускных студент инженерного факультета региональной технологический колледж, Tiruchirapalli, Индия. Он принимал участие в этой работе во время его учебы время в Национальном химической лаборатории, Пуна, Индия, зимой 2001 года.
М. JADE является старший научный сотрудник химического сектора инженерии Национальной химической лаборатории, Пуне, Индия. Его исследовательские интересы включают процесс мониторинга и применения средств искусственного интеллекта для технологических процессов. Он получил BE в области химического машиностроения BAMU Аурангабад, Индия, и магистров по химической технологии из Индийского технологического института, Рурки.
В. К. Джаяраман является старший научный сотрудник химического сектора инженерии Национальной химической лаборатории, Пуна, Индия (<a href="mailto:jayaram@che.ncl.res.in"> jayaram@che.ncl.res.in </ >). Его интересы включают в себя химические и биологические реакции техники, применения искусственного интеллекта инструменты в области проектирования, моделирования процессов, оптимизации и контроля. Джаяраман посещает факультет обучаться в индийских университетах, преподавал курсы многих химических основных инженерных для аспирантов. Он получил степень бакалавра и магистра в области химического машиностроения Изд. Мадраса и степень доктора философии, работая в Национальном химической лаборатории. Он имеет более чем 45 международных публикаций.
BD Kulkarni является старший научный сотрудник и руководители химического сектора инженерии Национальной химической лаборатории (NCL), Пуне, Индия. Он был с NCL на протяжении более 25 лет. Его интересы случайных процессов, нелинейных систем, химической реакции, техники, применения искусственного - разведка инструменты в области проектирования, моделирования процессов, оптимизации и контроля. Сотрудник Индийской национальной академии наук, Национальной академии наук, Национальной инженерной академии, а также третьей Всемирной академии наук, он получил множество наград за свою работу. Он опубликовал три книги и более 200 научных работ в престижных международных журналах. Kulkarni получил степени бакалавра и магистра в области химического машиностроения Laxminarayan технологического института в Нагпур, Индия, и получил ученую степень кандидата наук во время работы в НКС.