Uploaded by Николь RoNi

Семестровая работа Бондарева КАМО-0122

advertisement
МИНОБРНАУКИ РОССИИ
Федеральное государственное бюджетное образовательное учреждение
высшего образования
"МИРЭА - Российский технологический университет"
РТУ МИРЭА
Институт Искусственного интеллекта
Кафедра Промышленной Информатики
СЕМЕСТРОВАЯ РАБОТА
по дисциплине
«Разработка программного обеспечения систем управления»
по теме
«Нейросети. Виды, методы, подходы. Моделирование технологических
процессов на основе нейросетей и big data. Нейросети и предиктивная
аналитика.»
Выполнил студент
группы КАМО-01-22
Бондарева Н.А.
Принял
Рылов С.А.
Задание выполнено
«Зачтено»
«16» мая 2023 г.
«__» _________ 2023 г.
Москва 2023
Нейросети. Виды, методы, подходы.
Нейронные сети — это математические алгоритмы, которые являются основой
современного машинного обучения. Их главная задача — находить закономерности в
большом объеме данных, обрабатывать их и делать выводы.
1. Виды нейросетей
Есть разные виды нейронных сетей, каждый из которых используется для определенных
целей. Вот самые популярные из них.
1) Перцептрон
Модель перцептрона — пример самой простой архитектуры нейронной сети. Эту модель
придумал Фрэнк Розенблатт в 1958 году. Перцептрон — это математическая модель
восприятия информации мозгом.
Сейчас модель перцептрона в чистом виде практически не используется в мире
нейронных сетей. Но на ее основе сделали искусственный нейрон, который является
минимальным «кирпичиком» для многих других нейронных сетей.
Модель перцептрона состоит из четырех основных компонентов: входа, веса, сумматора и
функции активации. Входные данные перемножаются с весами, суммируются и
поступают на вход функции активации. Таким образом формируется результат работы
перцептрона.
В основе перцептрона лежит математическая модель восприятия информации мозгом.
Разные исследователи по-разному его определяют. В самом общем своем виде (как его
описывал Розенблатт) он представляет систему из элементов трех разных типов: сенсоров,
ассоциативных элементов и реагирующих элементов.
Математическая модель нейронной сети, состоящего из одного нейрона, который
выполняет две последовательные операции:
2

вычисляет сумму входных сигналов с учетом их весов (проводимости или
сопротивления) связи

применяет активационную функцию к общей сумме воздействия входных
сигналов.
2) Многослойные нейронные сети
Многослойная нейронная сеть — одна из самых базовых архитектур. Она состоит
из искусственных нейронов, которые объединяются в слои. Нейрон из одного слоя связан
с каждым нейроном из следующего слоя, поэтому такие нейронные сети часто называют
полносвязными.
Чаще всего их используют для обработки числовых данных или в составе других
нейронных сетей.
3
Многослойными называются нейронные сети, в которых нейроны сгруппированы в слои.
При этом каждый нейрон предыдущего слоя связан со всеми нейронами следующего слоя,
а внутри слоёв связи между нейронами отсутствуют.
Слои нумеруются слева направо. Первый слой называют входным или
распределительным. Его нейроны (которые также называют входными) принимают
элементы вектора признаков и распределяют их по нейронам следующего слоя. При этом
обработка данных во входном слое не производится.
Последний слой называется выходным. На выходах его нейронов (они
называются выходными) формируется результат работы сети — элементы выходного
вектора.
Между входным и выходным слоем располагаются один или несколько промежуточных
или скрытых слоёв. Скрытыми они называются по тому, что их входы и выходы
неизвестны для внешних по отношению к нейронной сети программам и пользователю.
Для обучения многослойных нейронных сетей используется обучение с учителем.
Наиболее популярным алгоритмом обучения для них является алгоритм обратного
распространения ошибки и его разновидности.
3) Свёрточные нейронные сети
Еще один вид популярных нейросетей — свёрточная нейронная сеть. Идея создания такой
архитектуры тоже во многом заимствована из исследований по работе зрительной коры
головного мозга. Неслучайно область, где свёрточные нейронные сети нашли применение,
— это обработка изображений.
Основной принцип работы — переиспользование части нейронной сети внутри самой себя
для обработки небольших участков входного изображения.
Другими словами, каждый слой такой архитектуры «смотрит» на фиксированный кусочек
входа и извлекает из него информацию. Далее из этой информации строится новое
«изображение», которое подается на вход следующего слоя.
Такие нейронные сети очень эффективны в распознавании простых элементов
(паттернов): нос, глаз, ухо и так далее.
4
Сверточные нейронные сети являются разновидностью многослойного перспептрона с
использованием операций свёртки. Они нашли применение в распознавании изображений
и видео, рекомендательных системах, классификации изображений, NLP (natural language
processing) и анализе временных рядов.
Принцип работы операции свертки
Операцию свёртки можно представить следующим алгоритмом:
1. Скользящее окно, называемое фильтром, с размером (n,n) двигается по входному
признаку. Количество движений определяется заданным количеством фильтров.
2. Каждый полученный шаблон имеет форму (n,n,d), где d — глубина входного
признака.
3. Каждый шаблон умножается на своё ядро свёртки, в результате,
формируется выходная карта признаков. Полученная выходная карта признаков
имеет форму (h,w,N), где h и w — длина и ширина, полученные в результате
отсечения, а N — количество фильтров.
Количество фильтров — гиперпараметр, поэтому выбирается самостоятельно. Обычно его
подбирают как степень двойки с увеличением количества фильтров по мере увеличения
глубины архитектуры. А ядра свёртки являются обучаемыми параметрами.
4) Рекуррентные нейронные сети (Recurrent Neural Network, RNN)
5
Для обработки последовательностей чаще всего используют рекуррентные нейронные
сети. Основная особенность данной архитектуры — использование памяти. Нейронная
сеть хранит внутри себя информацию о предыдущих данных и выдает ответ с учетом
знания о всей последовательности.
Такая архитектура мотивирована исследованиями принципов работы памяти в головном
мозге. Эти нейронные сети высоко зарекомендовали себя в задачах обработки текста,
видео, аудио и других данных, зависимых от времени.
Идея RNN заключается в последовательном использовании информации. В традиционных
нейронных сетях подразумевается, что все входы и выходы независимы. Но для многих
задач это не подходит. Если вы хотите предсказать следующее слово в предложении,
лучше учитывать предшествующие ему слова. RNN называются рекуррентными, потому
что они выполняют одну и ту же задачу для каждого элемента последовательности,
причем выход зависит от предыдущих вычислений. Еще одна интерпретация RNN: это
сети, у которых есть «память», которая учитывает предшествующую информацию.
Рекуррентные нейронные сети продемонстрировали большой успех во многих задачах
NLP. На этом этапе нужно упомянуть, что наиболее часто используемым типом RNN
являются LSTM (Long short-term memory; сети долгой краткосрочной памяти), которые
намного лучше захватывают (хранят) долгосрочные зависимости, чем RNN. Но не
волнуйтесь, LSTM — это, по сути, то же самое, что и RNN, которые мы разберем в этом
уроке, у них просто есть другой способ вычисления скрытого состояния. Более подробно
мы рассмотрим LSTM в другом посте. Вот некоторые примеры приложений RNN в NLP.




Языковое моделирование и генерация текстов
Машинный перевод
Распознавание речи
Генерация описания изображений
6
2. Для каких задач используют нейронные сети?
Есть несколько больших классов задач нейронных сетей:

обучение с учителем;

обучение без учителя;

обучение с подкреплением.
1) Обучение с учителем
Для обучения с учителем нужен набор данных, для которых заранее известны ответы.
Такие данные называются тренировочными. На этапе обучения нейросеть пытается найти
закономерности в данных, чтобы правильно решить исходную задачу.
Основная идея — показать нейронной сети много разноплановых примеров, а во время
работы нейросеть будет использовать найденные закономерности из тренировочного
набора на новых данных. И такой способ отлично работает на практике. При таком
процессе нейросети предлагают выборку обучающих примеров. Данные подают на «вход»
сети, ожидая получить правильный «выход», т.е. ответ, который даст нейросеть после
обработки внутри своей структуры. Результат сравнивают с эталонным, т.е. правильным
ответом. Если нейросеть выдает неверное решение, то необходимо откорректировать
весовые коэффициенты связи и запустить процесс заново, тем самым добиваясь снижения
процента ошибочных ответов.
Обучающие примеры поступают в нейросеть в определенной последовательности. Для
каждого ответа происходит расчет ошибки и подстройка весов. Все это происходит до тех
пор, пока неверные ответы по всему объему обучающего материала не примут значение
допустимых показателей.
Такой тип обучения имеет отличительную черту – уровень ошибочных ответов, который
выясняют путем сравнения планируемых показателей с реальными. С помощью
многократного повторения процесса происходит выявление стоимостной функции, т.е.
разницы между ожидаемыми и текущими результатами.
Основными задачами обучения с учителем являются классификация и регрессия.
1. Классификация
В задаче классификации чаще всего есть конечный набор классов, который определен на
моменте проектирования нейросети.
Главная задача — отнести входной объект к нужному классу. При этом классы могут быть
вполне определенные: кошка, собака, енот — а могут быть и весьма абстрактными:
животное, камень или вовсе не относиться к другим классам.
К примерам задачи классификации можно отнести:

разделение отзывов к товару на положительные и отрицательные;
7

поиск фотографии с Мэрилин Монро;

распознавание японских иероглифов.
2. Регрессия
В задаче регрессии нейронная сеть пытается предсказать не класс, а число. При этом
искомая величина может принимать бесконечное количество значений — неважно,
ограничено ли оно сверху или снизу.
Примеры задачи регрессии:

предсказание цены дома в зависимости от района или площади подвала;

определение роста человека по фотографии;

прогноз цены акций на следующей неделе.
На самом деле, задачи с учителем могут решать сразу задачу классификации и задачу
регрессии.
Самый простой пример — детекция (поиск) объекта на картинке. Нам одновременно
нужно предсказать границы прямоугольника, который выделяет объект, а также класс, к
которому относится объект.
В простейшем случае достаточно предсказать четыре числа: два числа — координаты
верхнего левого угла и еще два — координаты правого нижнего, а также классификация
на два класса: задний фон и сам объект.
2) Обучение без учителя
В обучении без учителя нейросеть получает на вход данные, для которых ответы заранее
неизвестны. В таком классе задач нейронная сеть занимается поиском паттернов, чтобы
решить полученную задачу.
С одной стороны, этот подход более привлекательный: не требует разметки данных — и в
теории нейронная сеть может обучаться на большем количестве данных. Но в этом
процессе есть свои особенности, поэтому нейронные сети чаще обучаются с учителем.
К обучению без учителя можно отнести задачи кластеризации и генерации.
1. Кластеризация
В этой задаче нужно разделить данные на заранее неизвестные классы по мере схожести
по какому-то признаку. Таким образом, нужно, чтобы на выходе получилось разбиение,
где образцы одного класса максимально близки друг к другу по некоторой оценке, а всё
остальное — значительно дальше.
По своей идее этот класс задач очень похож на классификацию, но зачастую отличается
тем, что заранее неизвестно, как правильно выделить классы — и даже их число.
Примеры задачи кластеризации:
8

выявление групп семантически похожих документов;

разбиение животных на разные виды.
2. Генерация
Задача генерации — нейросеть должна создать что-то новое по заданной тематике. Это
могут быть целые картинки или их части, музыка, видео, тексты.
Это направление очень популярно, и каждый год выходят новые исследования, которые
решают задачу генерации всё лучше и лучше. Существует отдельное течение в
медиаискусстве — компьютерное искусство. Многие сервисы бесплатны и доступны
онлайн.
Примеры задач:

генерация лица человека, которого никогда не существовало;

продолжение текста разных жанров и направленностей;

генерация картинки по текстовому описанию — DALL-E;

увеличение разрешения картинки.
3) Обучение с подкреплением
Еще один большой класс задач — обучение с подкреплением. Основная идея — создать
для нейронной сети окружение, которое будет моделировать реальную задачу.
Обучение происходит за счет реакции окружающей среды на каждое действие нейросети.
В данной задаче она называется агентом. Агент получает вознаграждение за верные
действия и наказания за всё, что не приводит к успеху.
Такой подход популярен в сфере обучения нейронных сетей играм:

AlphaGo: алгоритм на базе нейронных сетей для игры в Го, который победил
трехкратного чемпиона Европы Фань Хуэя в 2015 году;

AlphaStar: программа, которая использует нейронные сети для игры в Starcraft II.
Обучение с подкреплением может успешно применяться не только в играх. Этот подход
успешно применяют в робототехнике, химии и других областях.
Область обучения с подкреплением состоит из нескольких алгоритмов, использующих
разные подходы. Различия в основном связаны с их стратегиями взаимодействия с
окружающей средой.

State-Action-Reward-State-Action (SARSA). Этот алгоритм обучения с
подкреплением начинается с предоставления агенту такого коэффициента, как
политика (on-policy). В данном случае политика – это вероятность, с помощью
которой алгоритм оценивает шансы определенных действий, приводящих к
вознаграждениям или положительным состояниям.
9

Q-Learning. В этом подходе к Reinforcement Learning используется
противоположный подход. Агент не получает политики (on-policy),
соответственно, его исследование окружающей среды является более
самостоятельным. В Q-learning у нас нет ограничений на выбор действия (action)
для алгоритма. Он полагает, что все последующие выборы actions будут
оптимальными по умолчанию, поэтому алгоритм производит операцию выбора
исходя из максимизации оценки Q.

Deep Q-Networks (Глубокие Q-сети). Этот алгоритм использует нейронные сети в
дополнение к методам обучения с подкреплением (reinforcement learning).
Нейросети осуществляют самостоятельное исследование (research) среды обучения
с подкреплением для выбора наиболее оптимального значения. То, как алгоритм
будет себя вести и подбирать значения, основано на выборке прошлых
положительных действий, полученных нейронной сетью.
Обучение с подкреплением похоже на глубокое обучение, за исключением одного
момента: в случае Reinforcement Learning машина обучаются методом проб и ошибок,
используя данные из собственного опыта.
Алгоритм обучения с подкреплением – это независимая система с самообучением. Чтобы
добиться наилучших результатов, машина учится в режиме постоянной практики, из чего
следует концепция обучения методом проб и ошибок.
Человек в какой-то степени представляет из себя пример обучения с подкреплением.
Например, попытки научиться ездить на велосипеде, или плавать: процесс состоит из
правильных и неправильных ходов.
1. Глубокое обучение предполагает исследование уже существующей “даты”, на
основе чего мы позже применяем наши наработки к новому набору данных.
2. Обучение с подкреплением, в свою очередь, является динамическим
(самостоятельным) обучением, которое использует метод проб и ошибок для того,
чтоб обоснованно принять решение.
Данная классификация условна, и можно придумать много задач, которые относятся сразу
к нескольким типам или решаются гибридными методами. Ученые в области нейронных
сетей смешивают разные подходы и методы и всё чаще получают интересные результаты.
2. Моделирование технологических процессов на основе нейросетей и
big data.
Мировой объем оцифрованной информации растет по экспоненте. По данным компании
IBS, к 2003 году мир накопил 5 эксабайтов данных (1 ЭБ = 1 млрд гигабайтов). К 2008
году этот объем вырос до 0,18 зеттабайта (1 ЗБ = 1024 эксабайта), к 2011 году — до 1,76
зеттабайта, к 2013 году — до 4,4 зеттабайта. В мае 2015 года глобальное количество
данных превысило 6,5 зеттабайта. К 2020 году, по прогнозам, человечество сформирует
40-44 зеттабайтов информации.
10
Сможет ли человечество совладать с ней? По расчетам IBS, в 2013 году только 1,5%
накопленных массивов данных имело информационную ценность. К счастью, мир спасут
технологии обработки больших данных. Они позволяют людям объять необъятное и
получить из этого пользу.
Big data (большие данные) — огромные объемы неоднородной и быстро поступающей
цифровой информации, которые невозможно обработать традиционными инструментами.
В русскоязычной среде под большими данными подразумевают также технологии их
обработки. В мировой практике большими данными называют только объект анализа.
Термин big data родился в 2008 году. Редактор журнала Nature Клиффорд Линч употребил
это выражение в спецвыпуске, посвященном взрывному росту мировых объемов
информации. Хотя, конечно, сами большие данные существовали и ранее. По словам
специалистов, к категории big data относится большинство потоков данных свыше 100 Гб
в день.
Анализ больших данных позволяет увидеть скрытые закономерности, незаметные
ограниченному человеческому восприятию. Это дает беспрецедентные возможности
оптимизации всех сфер нашей жизни: государственного управления, медицины,
телекоммуникаций, финансов, транспорта, производства и так далее.
К слову, в последние годы big data фактически перестали быть термином. Журналисты и
предприниматели сильно злоупотребляли им, и значение размылось. Российские
специалисты до сих пор спорят о том, входят ли в понятие big data инструменты работы с
ними. Западные эксперты считают этот термин окончательно дискредитированным и
предлагают от него отказаться.
Data science — это непрерывно эволюционирующая научная дисциплина, нацеленная на
понимание данных (структурированных и неструктурированных) и на поиск выводов из
них. Data science использует big data и обширное множество различных исследований,
методов, технологий и инструментов, в том числе машинное обучение, ИИ, глубокое
обучение и data mining. Эта научная сфера сильно зависит от анализа данных, статистики,
математики и программирования, а также от визуализации и интерпретирования данных.
Всё это помогает дата-саентистам принимать обоснованные решения на основании
данных и определять, как извлекать из них ценность и полезные для бизнеса выводы.
Data mining — это набор техник и инструментов, широко используемых учёными и
исследователями для извлечения новой и потенциально полезной информации из больших
массивов ранее неизвестных данных, а также преобразования их в легко воспринимаемые
структуры для дальнейшего применения. В основе современных технологий data mining
лежит концепция поиска сокрытых паттернов и аномалий, отражающих многогранные
соотношения между сырыми данными.
Процесс data mining и примеры его использования
Процесс data mining состоит из двух частей, называемых предварительной обработкой
данных (data pre-processing) и самим data mining. Первая включает в себя такие этапы, как
очистка данных, интеграция данных и преобразование данных, в то время как data mining
11
занимается выявлением паттернов и представлением данных в понятном для понимания
виде. Data mining часто рассматривается как часть более обширной области под названием
Knowledge Discovery in Databases (KDD).
С точки зрения применения нейросетей в промышленности наиболее перспективными
направлениями являются следующие:
1.
Поиск полезных ископаемых. Объем данных, генерируемый геологами, огромен, и
новые методы на базе нейронных сетей позволяют выявить особенности, которые
достаточно часто приводят к ответу "да" в тех случаях, где старые алгоритмы
говорили "нет".
2.
Транспортные и логистические задачи. Хотя они давно успешно решаются
методами линейного программирования, но при огромной размерности процесс
будет долгим. Обучение нейронной сети на решение транспортной задачи –
действенный способ разрешения подобных ситуаций, если объем данных очень
большой.
3.
Предсказание неисправностей. Возможна не просто реакция на неисправность, а
именно предсказание поведения системы, когда есть вероятность какого-то ЧП,
например выброса химических веществ. По набору из 50–100 датчиков система
должна обучаться как на успешных событиях, так и неприятных, которые имели
место в прошлом. Подобные задачи уже решаются – быстро и с хорошими
показателями.
В процессе проектирования директивных технологических процессов технолог имеет две
основные возможности:
•
•
рецептурного улучшения технологического процесса путем выбора того или иного
варианта операций, методов обработки или сборки, средств технологического
оснащения,
использования методов системотехнического проектирования на основе
математического моделирования и оптимизации проектнотехнологических
решений, руководствуясь различными критериями.
Для обеспечения конкурентоспособности новых изделий на этапах и стадиях НИОКР
необходимо рассматривать соотношение двух групп критериев:
•
•
качества изделия, показателями которого являются параметры технического
уровня, трудоемкости как показателя технологичности – их записывают в карте
технического уровня и качества изделия;
цены изделия, показателями которой являются параметры затрат,
капиталовложений и рисков инвестиционных (инновационных) проектов.
В случаях, когда необходимо решать задачи многокритериальной оптимизации, можно
использовать искуственные нейронные сети. К таким можно, к примеру, причислить
нейросеть Элмана. Сеть Элмана – это один из видов рекуррентных сетей, которую
получают из многослойного персептрона введением обратных связей. Эти обратные связи
12
идут не от выхода сети, а от выходов внутренних нейронов. Это структурное свойство
позволяет учесть предысторию наблюдаемых процессов.
Перед тем как осуществлять многокритериальную оптимизацию перспективного
технологического процесса в условиях действующего серийного производства,
необходимо осуществить классификацию и группирование изделий либо в соответствии с
существующим классификатором ЕСКД (Единой системой конструкторской
документации), либо с помощью отраслевых (заводских) классификаторов изделий.
Выполнение таких работ показывает, что для сложных изделий, например, таких как
авиационный двигатель, детали не всегда можно точно отнести к тому или иному классу,
подклассу, виду, группе или типу, их классификационные характеристики могут
соответствовать нескольким классам (группам или типам одного класса) одновременно.
Эту проблему можно решить с помощью вероятностной нейронной сети (PNN), которая
позволяет решить задачу классификации и группирования в условиях неопределенностей.
3. Нейросети и предиктивная аналитика.
Аналитика данных – это процесс поиска системных закономерностей в массивах
информации и интерпретации найденных фактов с целью получения важных для бизнеса
сведений (инсайтов, insights), которые позволят оптимизировать деятельность: увеличить
доход, сократить затраты или достичь других важных результатов.
Принято выделять 4 вида аналитики данных, отличающихся уровнем сложности работы с
информацией и степенью человеческого участия:

Описательная (дескриптивная), которая отвечает на вопрос «Что случилось?»,
создавая сводку исторических данных для их дальнейшего анализа. Например,
непрерывный сбор информации с производственного оборудования с помощью
smart-датчиков и других IoT/IIoT-устройств позволит точно идентифицировать
момент сбоя в технологическом процессе.

Диагностическая, которая анализирует информацию, чтобы ответить на вопрос
«Почему это случилось?». Здесь используются статистические методы анализа
данных с целью их кластеризации, классификации, детализации и обнаружения
корреляции, чтобы выявить основные факторы влияния на результаты.

Предиктивная (прогнозная, предсказательная), которая прогнозирует
неизвестные события в будущем, отвечая на вопрос «Что может случиться?» на
основе анализа накопленной информации. Здесь используется множество методов:
математическая статистика, моделирование, машинное обучение и другие
области Data Science, а также интеллектуальный анализ данных (Data Mining). К
примеру, предиктивная аналитика текущих и прошлых показателей работы
производственного оборудования заблаговременно определит время его
профилактического ремонта, чтобы избежать поломки дорогостоящей техники.
13

Предписывающая (предписательная), которая отвечает на, пожалуй, главный
управленческий вопрос «Что делать?». Здесь машинное обучение и другие методы
искусственного интеллекта анализируют все накопленные и обработанные данные,
чтобы найти наилучшие решения для конкретной ситуации. В рассматриваемом
примере модуль предписывающей аналитики подскажет, какая именно деталь
производственного оборудования больше всего износилась и как это исправить
наиболее оптимальным с точки зрения экономики образом: заменить на новую или
отремонтировать.
Аналитическая пирамида: от описательной к предписывающей аналитики данных
Предиктивная аналитика – научная дисциплина и отрасль Индустрии 4.0, которая изучает
методы и способы составления прогнозов. На основе данных о прошлом и текущем
состоянии объекта возможно относительно точно рассчитать его характеристики в
будущем.
Развитие Индустрии 4.0 и, в частности, концепции интернета вещей, позволило перейти
к более современной методике ТОиР — предиктивному обслуживанию оборудования.
Её основная идея заключается в том, чтобы за счёт использования передовых технологий
предсказывать поломки до того, как они произойдут.
Для этого на оборудование — трансформаторы, насосы, турбины, электродвигатели —
устанавливаются датчики, которые непрерывно отслеживают различные параметры его
работы и состояния, а также окружающей среды. Замеры, собранные с датчиков,
отправляются в централизованную систему, где алгоритмы машинного обучения
«смотрят» на них, сравнивают с нормальными показателями и прогнозируют, что
в ближайшее время те или иные детали могут выйти из строя. К примеру, система
предиктивной аналитики может определить, что при текущем уровне шума, нагрузке
и вибрации электродвигатель сломается через 3 дня. Благодаря такому подходу
менеджеры могут заблаговременно просчитывать риски и предпринимать меры
по обслуживанию и ремонту активов. Причём именно там, где это действительно
требуется.
Предиктивное обслуживание внедряется в российских и зарубежных промышленных
компаниях для решения нескольких задач.
1. Для сокращения материальных и трудозатрат на обслуживание оборудования.
14
В цехах Магнитогорского металлургического комбината для контроля состояния
электромеханического оборудования — электродвигателей, насосов, редукторов —
постоянно присутствовал технический персонал. Плановые выезды бригад проводились
еженедельно, однако на диагностику и выявление неисправностей электродвигателя
всё равно уходило до 20 дней. После внедрения программно-технического комплекса
с искусственным интеллектом процессы ТОиР были переведены из режима плановых
ремонтов электромеханического оборудования в режим обслуживания по состоянию.
В результате компания начала экономить на каждом ремонте до 200 000 рублей, а расходы
ММК на обслуживающий персонал снизились на 17,5%.
2. Для раннего прогнозирования поломок и аварий.
На Череповецком металлургическом комбинате инструменты предиктивной аналитики
используются для выявления возможности перегрева подшипника шестерённых клетей
на конвейере. Это одна из самых частых причин его остановки. Прогнозирование
перегрева подшипников даже при точности в 50% позволило сократить количество таких
случаев в 3 раза и уменьшить общее время простоя с 5—6 часов до 1,5 часа в год.
Впрочем, сейчас компания совершенствует результат, применяя более прогрессивные
технологии прогнозирования.
Другой пример — использование предиктивной аналитики для прогнозирования
системных сбоев оборудования для глобальной компании по производству медицинского
оборудования Siemens Healthineers. У компании около 600 000 клиентов по всему миру,
и многие из них подключены к Siemens Healthineers удалённо с целью профилактического
и оперативного обслуживания. Применение алгоритмов распознавания образов
на собранных данных позволило Siemens Healthineers идентифицировать определённые
системные сбои за 21 день до того, как они повлияют на производительность
оборудования.
В свою очередь, энергетическая компания British Petroleum начала использовать датчики,
которые стоят на 99% нефтяных и газовых скважин, а также на буровых установках. Они
используются для сбора данных о параметрах, важных для непрерывной работы
оборудования. Это позволяет компании предсказывать, например, коррозию
трубопровода. В 2006 году именно она способствовала розливу 200 000 галлонов нефти
и вынудила компанию выплатить рекордный штраф в размере 25 млн долларов.
3. Для улучшения качества работы оборудования.
Компания «Сибур» несколько лет назад начала использовать предиктивную аналитику
для сокращения числа обрывов при производстве биаксиально-ориентированной
полипропиленовой (БОПП) плёнки на новокуйбышевской площадке «Биаксплена».
Совместно с компанией Teradata была построена аналитическая модель зависимости
обрывов от режимов производства полипропилена. Из более чем сотни параметров
производства были выделены пять, наибольшим образом влияющие на обрывность
плёнок. По этим показателям были рекомендованы диапазоны значений. Согласно этим
рекомендациям в Тобольске были выпущены экспериментальные партии пропилена,
обрывность плёнок с использованием которых по результатам измерений сократилась
более чем на 50%.
15
4. Для решения актуальных проблем с оборудованием.
В ПАО «Газпромнефть» аналитики собрали 200 млн записей за год с контроллеров систем
управления на 1649 скважинах, а также записи из аварийных журналов, схемы
электроснабжения и множество другой информации для понимания причин сбоев
в автозапуске насосов. Благодаря анализу big data и моделированию событий им удалось
выяснить в том числе ранее неизвестные взаимосвязи в работе насосного оборудования.
Например, они узнали, что в ряде случаев при отключении электропитания насоса
проявляется эффект турбинного вращения, который приводит к обратному сливу нефти.
В прогнозных моделях используются известные результаты для разработки (или
обучения) модели, которая может быть использована для прогнозирования значений для
различных или новых данных. Моделирование дает результаты в виде прогнозов, которые
представляют вероятность целевой переменной (например, доходов), основанной на
оценочной значимости набора входных переменных.
Это отличается от описательных моделей, которые помогают понять, что произошло, или
диагностических моделей, которые помогают понять ключевые взаимосвязи и определить,
почему что-то произошло. Целые книги посвящены аналитическим методам и приемам. В
комплексных университетских программах эта тема подробно изучается. Но для начала,
вот некоторые основы.
Существует два типа прогностических моделей. Классификационные модели
предполагают принадлежность к классу. Например, они пытаются классифицировать,
будет ли кто-то, скорее всего, уходить, будет ли он реагировать на просьбы, является ли
это хорошим или плохим кредитным риском и т. д. Обычно, результаты модели в форме 0
или 1, и 1 является целевым событием. Регрессивные модели предсказывают число –
например, сколько клиент будет генерировать в следующем году или количество месяцев
до того, как компонент выйдет из строя на машине.
Наиболее часто используемыми методами прогностического моделирования являются
деревья решений, регрессия и нейронные сети.
1. Деревья решений представляют собой классификационные модели, которые
подразделяют данные на подмножества на основе категорий входных переменных. Это
помогает понять путь чьих-либо решений. Дерево решений представлено в виде
дерева, каждая ветвь которого представляет собой выбор между набором альтернатив
и каждым листом, представляющим классификацию или решение. Оно смотрит на
данные и пытается найти единственную переменную, которая разделяет данные на
наиболее разнообразные логические группы. Деревья принятия решений популярны,
потому что их легко понять и интерпретировать. Они также хорошо справляются с
пропущенными значениями и полезны для предварительного выбора переменных.
Таким образом, если у вас много пропущенных значений или вы хотите быстро и
легко интерпретировать ответ, вы можете начать с дерева.
2. Регрессия (линейная и логистическая) является одним из самых популярных методов в
статистике. Регрессионный анализ оценивает отношения между переменными.
Предназначен для непрерывных данных, которые можно предположить, что они
16
следуют нормальному распределению, он находит ключевые закономерности в
больших массивах данных и часто используется для определения того, как конкретные
факторы, такие как цена, влияют на движение актива. С помощью регрессионного
анализа мы хотим предсказать число, называемое реакцией или переменной Y. С
помощью линейной регрессии независимая переменная используется для объяснения
и/или предсказания результата Y. Кратная регрессия использует две или более
независимых переменных для предсказания результата. При логистической регрессии
неизвестные переменные дискретной переменной предсказываются на основе
известного значения других переменных. Переменная реакции является категоричной,
что означает, что она может предполагать только ограниченное число значений. В
двоичной логистической регрессии переменная ответа имеет только два значения,
например, 0 или 1. Переменная ответа может иметь различные уровни, такие как
низкий, средний и высокий, или 1, 2 и 3 в многократной логистической регрессии…
Они популярны, потому что являются мощными и гибкими. Мощность исходит от их
способности работать с нелинейными отношениями в данных, что становится все
более распространенным по мере сбора большего количества данных. Они часто
используются для подтверждения результатов простых методов, таких как регрессия и
деревья принятия решений. Нейронные сети основаны на распознавании моделей и
некоторых процессах ИА, которые графически “моделируют” параметры. Они хорошо
работают, когда нет известных математических формул, связывающих входы и
выходы, прогнозирование более важно, чем объяснение, или имеется много данных,
полученных в ходе обучения. Искусственные нейронные сети были изначально
разработаны исследователями, которые стремились имитировать нейрофизиологию
человеческого мозга.
Есть и другие популярные методы, например:
3. Байесовский анализ. Байесовские методы рассматривают параметры как случайные
переменные и определяют вероятность как “степень веры” (т.е. вероятность события –
это степень, в которой событие считается истинным). Выполняя байесовский анализ,
вы начинаете с предыдущего убеждения относительно распределения вероятности
неизвестного параметра. После того, как вы узнаете информацию из имеющихся у вас
данных, измените или обновите ваше убеждение относительно неизвестного
параметра.
4. Сбор моделей. Модели ансамбля создаются путем обучения нескольких аналогичных
моделей и объединения их результатов для повышения точности, уменьшения
искажений, снижения дисперсии и определения наилучшей модели для использования
с новыми данными.
5. Увеличение градиента. Это ускоряющий подход, при котором повторная выборка
набора данных выполняется несколько раз для получения результатов, которые
формируют средневзвешенную величину повторной выборки. Как и в случае деревьев
принятия решений, при увеличении градиента не делается никаких предположений о
распределении данных. Ускорение менее склонно к избыточному размеру данных, чем
одно дерево решений, и если дерево решений достаточно хорошо вписывается в
17
данные, то ускорение часто улучшает подгонку. (Переподстановка данных означает,
что вы используете слишком много переменных, а модель слишком сложна.
Недостаточная подгонка означает обратное: переменных не хватает, а модель слишком
проста. И то, и другое снижает точность прогнозирования).
6. Инкрементальная реакция (также называемая моделью подъема или моделью чистого
подъема). Эти модели представляют собой изменение вероятности, вызванное
действием. Они широко используются для уменьшения оттока и обнаружения
эффектов различных маркетинговых программ.
7. K- Ближайший к (knn). Это непараметрический метод классификации и регрессии,
который включает в себя значения принадлежности к объекту или классу, основанные
на k-кратчайших учебных примерах.
8. Рассуждения на основе памяти. Аргументация на основе памяти – это метод
классификации или прогнозирования наблюдений, основанный на k-крайних соседях.
9. Минимальные квадратичные числа. Этот гибкий статистический метод может быть
применен к данным любой формы. Она моделирует отношения между входами и
выходами, даже если входы связаны и шумны, есть больше выходов или больше
входов, чем наблюдений. Метод частичных наименьших квадратов ищет факторы,
объясняющие как вариации отклика, так и вариации предиктора.
10. Анализ основных компонентов. Целью анализа основных компонент является
получение небольшого числа независимых линейных комбинаций (основных
компонент) набора переменных, которые сохраняют как можно больше информации в
исходных переменных.
11. Векторная машинная поддержка. В данной методике обучения на машине под
наблюдением специалистов используются соответствующие алгоритмы обучения для
анализа данных и распознавания закономерностей. Он может использоваться как для
классификации, так и для регрессии.
12. Поиск данных временных рядов. Анализ данных временных рядов производится по
времени и собирается в течение определенного интервала времени (продажи за месяц,
звонки в день, посещения Интернета в час и т.д.). Анализ данных временных рядов
сочетает в себе традиционные методы анализа и прогнозирования данных. Методы
интеллектуального анализа данных, такие как выборка, кластеризация и деревья
принятия решений, применяются к данным, собранным с течением времени с целью
улучшения прогнозирования.
Как устроена современная предиктивная и предписательная аналитика.
На реальных производствах этот процесс чаще всего проистекает определенных образом.
На входе необходимо:
18
1. Получить исторические данные с оборудования. Минимум за три месяца, лучше —
за полгода–год. Там должен быть поток данных со всех датчиков, поток данных по
производственным параметрам и так далее — в общем, не 40 Кб дискретных
значений за полгода, а реально гигабайты. Эти данные можно «скормить» какойлибо математической модели (раньше использовались разные совокупности
эвристик, сейчас обучают нейросети на прогнозы), чтобы понять ожидаемое
будущее состояние системы на основании прошлого опыта.
2. После обучения нейросети дать в модель на вход также текущие данные в
реальном времени, чтобы она строила уже реальный прогноз. Затем при каждом
регламенте реально оценивать износ элементов и состояние оборудования, чтобы
понимать, правильно ли работает модель. Как правило, модель способна далеко не
на всё: она может предсказывать случаи, которые уже были на этом оборудовании,
достаточно точно, но редко когда удаётся предвидеть новый случай, которого не
было в истории.
3. К оборудованию строится физическая модель. Точнее, матмодель физических и
химических процессов внутри узла. Например, если речь про подшипник, к
«слепому» анализу исторических данных добавляется моделирование физических
процессов, происходящих с ним. Эти модели в совокупности с предиктивной
аналитикой из пункта 2 очень сильно повышают точность прогноза, с одной
стороны, — и очень сильно повышают трудоёмкость разработки, с другой.
Проблема в том, что потоки данных с одного элемента оборудования неприменимы для
другого, принципиально похожего, но другой серии. Вдобавок к этому для каждого
наименования оборудования нужна своя физическая модель: принципиальная подходит
для всего класса оборудования, но даёт незначительный прирост точности. Однако
написанная под конкретное аппаратное оборудование уже работает значительно точнее.
Более того, два экземпляра одного и того же аппаратного оборудования требуют разных
физических моделей и работают совершенно по-разному. Первая причина в том, что они
физически отличаются: каждый подшипник и каждая другая деталь имеют свои
характеристики, укладывающиеся в вилку допусков и достаточно случайно меняющиеся в
процессе эксплуатации. Замена элемента приводит к другому поведению системы.
Добавьте к этому текущие ремонты, часто меняющие физическую модель, добавьте
человеческий фактор по замене комплектующих на глаз точно такие же, только
отличающиеся последней цифрой в номере, добавьте возможность некорректного
импортозамещения — и вы получите два визуально похожих элемента оборудования, но с
данными, неприменимыми друг к другу.
Поэтому нейронные сети учатся именно на данных каждого конкретного элемента
оборудования и уточняются физической моделью для данного типа (серии) устройств.
19
Download