Лекции

#ТемаДата

M1

Классификация и кластеризация

L01Задача классификации и искусственная нейронная сеть09 фев
L02Стандартизация исходных данных. Гистограмма. Наивный байесовский классификатор (NBC)16 фев
L03Понижение размерности. Метод главных компонент (PCA)20 фев
L04Кластеризация методом k-средних и сети радиально-базисных функций (RBF)23 фев

M2

Метод опорных векторов (SVM)

L05Линейная разделимость, опорные векторы, повышение размерности02 мар
L06Метод опорных векторов (SVM): ядра и штрафы09 мар
L07Сведение обучения SVM к решению задачи квадратичного программирования16 мар

M3

Метод обратного распространения ошибки

L08Обучение с учителем. Дельта-правило обучения23 мар
L09Обучение многослойного персептрона методом обратного распространения ошибки30 мар
L10Свёрточные нейронные сети (CNN). Операция свёртки06 апр
L11Архитектура свёрточных нейронных сетей (CNN)13 апр
L12Обучение свёрточных нейронных сетей (CNN)20 апр
L13Обучение свёрточных нейронных сетей (CNN) методом обратного распространения ошибки27 апр

M4

Эволюционные и генетические алгоритмы

L14Генетическое кодирование и генетические операторы05 мая
L15Репродуктивный план Холланда11 мая
L16Гаплоидные и диплоидные популяции18 мая
L17Эволюционные алгоритмы: оптимизация методом роя частиц (PSO)25 мая

Практика

#ТемаСдать
М1T01Многослойный персептрон14 фев
М1T02Наивный байесовский классификатор21 фев
М1T03Метод главных компонент26 фев
М1T04Метод k-средних и RBF-сети28 фев
М2T05Линейная разделимость, опорные векторы, повышение размерности07 мар
М2T06Метод опорных векторов: ядра и штрафы14 мар
М2T07Обучение SVM последовательным методом активных ограничений (IncAS)21 мар
М3T08Обучение с учителем. Дельта-правило обучения28 мар
М3T09Метод обратного распространения ошибки04 апр
М3T10Свёртка. Фильтрация изображений11 апр
М3T11Архитектура свёрточных нейронных сетей18 апр
М3T12Метод обратного распространения ошибки20 апр
М3T13Обучение свёрточных нейронных сетей (CNN) методом обратного распространения ошибки02 мая
М4T14Генетическое кодирование, генетические операции09 мая
М4T15Репродуктивный план Холланда16 мая
М4T16Гаплоидные и диплоидные алгоритмы23 мая
М4T17Оптимизация методом роя частиц30 мая

Литература

  1. Николенко С., Кадурин А., Архангельская Е. Глубокое обучение. Погружение в мир нейронных сетей. — СПб.: Питер, 2020. — 480 c.  
  2. Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение. — М.: "ДМК Пресс", 2017. — 652 С.  
  3. Будума Н., Локашо Н. Основы глубокого обучения. Создание алгоритмов для искусственного интеллекта следующего поколения — М.: «Манн, Иванов и Фербер», 2019. — 304 с.
  4. Хайкин С. Нейронные сети. Полный курс. 2-е изд. — М.: Вильямс, 2006. — 1104 С.  
  5. Котельников И.А., Чеботаев П.З. LaTeX по-русски. 3-е изд. — Новосибирск: Сибирский хронограф, 2004. — 496 с.
  6. Львовский С.М. Набор и вёрстка в системе LATEX. 3-е изд. — 2003 — 488 c.
  7. Overleaf Online LaTeX Editor© 2023 Overleaf  
  8. Wolfram Language & System. Documentation Center © 2023 Wolfram  
  9. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М.: Наука, 1973. — 832 С.  
  10. LeCun Y., Cortes C., Burges C.J.C. The MNIST database of handwritten digits. —
  11. Эсбенсен К. Анализ многомерных данных. — Черноголовка: Изд-во ИПХФ РАН, 2005. — 160 С.  
  12. ГОСТ Р 52633.5–2011. Защита информации. Техника защиты информации. Автоматическое обучение нейросетевых преобразователей биометрия-код доступа. — 2011. — 20 С.  
  13. Motmans R. Body dimensions of the Belgian population. — DINBelg-2005. Ergonomie RC, Leuven © 2005-2006.  
  14. Померанцев А. Метод главных компонент. — СПб: Российское Хемометрическое Общество, 2008. — 20 с.
  15. Воронцов К.В. Лекции по методу опорных векторов. — 2007. — 18 С.  
  16. Микелуччи У. Прикладное глубокое обучение. Подход к пониманию глубоких нейронных сетей на основе метода кейсов. — СПб.: БХВ-Петербург, 2020. — 368 С.  
  17. Гонсалес Р., Вудс Р. Цифровая обработка изображений. Издание 3-е. — М.: "Техносфера", 2012. — 1104 С.  
  18. Голиков И. Сверточная нейронная сеть. В 2-х частях. — Хабр, 2018:
    Ч.1 Структура, топология, функции активации и обучающее множество. — 20 С.  
    Ч.2 Обучение алгоритмом обратного распространения ошибки. — 10 С.  
  19. Вороновский Г.К. и др. Генетические алгоритмы, Искусственные нейронные сети и Проблемы виртуальной реальности. — Харьков: "Основа", 1997. — 107 С.  
  20. Sean Luke Essentials of Metaheuristics. — Second Edition (Online Version 2.2). George Mason University, 2015. — 263 P.  
  21. Цой Ю.Р. Метаэвристика (перевод книги "Essentials of Metaheuristics") — 2011. — 204 С.  
  22. Новиков Ф.А. Дискретная математика: Учебник для вузов. 3-е изд. — СПб.: Питер, 2009. — 384 с.
  23. Карпенко А.П. Современные алгоритмы поисковой оптимизации. Алгоритмы, вдохновленные природой. 2-е изд. — Москва: Изд. МГТУ им.Н.Э.Баумана, 2017. — 446 с.
  24. Клименко К.В. Нейроэволюционные алгоритмы и глубокое обучение беспилотных моделей автомобилей в генерируемых 2D- и 3D-симуляциях дорожного окружении. Дипломная работа — Минск: БГУ, 2022. — 81 с.

Результаты

ЛекцииМ1М2М3М4Итог
L M  T01   T02   T03   T04   T05   T06   T07   T08   T09   T10   T11   T12   T13   T14   T15   T16   T17   А   К   1   2   3   4 
 1.   11   17  142 212 262 282 73 163 193 264 264 95 95 204 235 13/13
 2.   15   8  142 222 262 13 83 143 213 283 44 114 184 204 245 245 16/17
 3.  5 16 164 164 163 233 204 204 12/14
 4.   1   11  142 212 262 282 73 153 193 263 64 114 174 204 215 15/16
 5.   1   10  142 262 272 23 83 143 183 283 104 114 224 204 245 15/16
 6.   2   8  152 212 262 73 73 143 163 273 44 114 184 204 175 175 14/13
 7.   2   5  142 153 245 223 305 204 305 11/8
 8.   4   2  142 212 262 282 73 163 213 283 44 124 204 204 25 95 165 12/11
 9.   6   14  142 212 262 282 73 143 203 283 44 114 274 204 225 16/17
 10.   15   14  142 212 262 282 73 143 213 283 44 124 194 204 235 12/11
 11.   16   9  142 212 262 282 73 153 203 283 124 245 245 204 245 16/14
 12.   14   6  142 212 262 282 73 153 173 34 124 144 85 204 215 16/16
 13.   4   5  285 245 143 244 215 153 105 195 204 115 14/15
 14.   3   10  142 222 262 282 73 143 163 273 54 104 184 204 185 185 15/15
 15.   1   7  142 202 282 282 225 143 213 75 75 215 215 204 225 14/13
 16.   17   7  152 252 262 143 83 153 213 283 44 114 184 204 235 235 235 12/13
 17.   11   16  142 212 262 282 73 163 193 244 15 225 204 235 15/13
 18.   6   15  142 212 73 282 103 153 193 293 44 114 184 204 245 16/17
 19.   13   17  142 212 262 282 73 205 193 244 244 244 185 204 195 235 15/12
 20.   1   4  142 212 262 282 24 143 75 44 15 15 204 145 15/14
 21.  5 13 204 11/13
 22.   7   3  142 212 262 53 83 163 193 293 45 235 204 245 13/14
 23.   15   13  142 212 262 282 73 163 185 105 184 184 185 204 235 14/15
 24.   10   8  142 212 262 282 73 143 213 283 54 124 184 204 235 11/12
 25.   17   9  142 212 262 282 73 143 183 283 44 114 184 204 25 95 235 17/18
 26.  3  16  233 174 204 53 254 194 174 204 245 17/18
 27.   9   17  152 212 262 282 73 143 193 283 124 194 235 204 235 17/16

 

    1. Классификация и кластеризация

  1. Задачи классификации и кластеризации данных
  2. Архитектура искусственной нейронной сети
  3. Искусственный нейрон и линейная отделимость
  4. Нейронные сети, реализующие логические операторы
  5. Фазовое пространство, приборы и признаки, стандартизация данных
  6. Понижение и повышение размерности фазового пространства
  7. Задача распознавания Свой/Чужой (IFF). Ошибки первого и второго рода
  8. Случайная величина: равномерно распределённая, нормально распределённая. Среднее значение, стандартное (среднеквадратичное) отклонение
  9. Функция плотности вероятности, гистограмма. Правило трёх сигм
  10. Многомерная нормально распределённая случайная величина, центроид, ковариационная матрица, эллипсоид рассеивания
  11. Наивный классификатор Байеса (NBC)
  12. Метод наименьших квадратов, линейная регрессия
  13. Метод главных компонент (PCA)
  14. Сингулярное разложение матрицы (SVD), псевдообратная матрица
  15. Кластеризация методом k-средних
  16. Нейронные сети радиально-базисных функций (RBF)
  17. 2. Метод опорных векторов

  18. Общая идея метода опорных векторов (SVM)
  19. Метод опорных векторов в случае линейно разделимых классов
  20. Обобщение метода опорных векторов на случай линейно неразделимых классов
  21. Метод опорных векторов: ядра и повышение размерности
  22. Задача условной оптимизации, множители Лагранжа, двойственная задача оптимизации
  23. Решение задачи квадратичного программирования последовательным методом активных ограничений (IncAS)
  24. 3. Метод обратного распространения ошибки

  25. Искусственный нейрон. Однослойный персептрон
  26. Линейная отделимость, функция активации
  27. Обучение с учителем. Дельта-правило обучения
  28. Многослойный персептрон
  29. Обучение с учителем: обучающий набор, функция потерь, эпоха обучения
  30. Обучение методом обратного распространения ошибки
  31. Функция активации и её производная в методе обратного распространения ошибки
  32. Корректировка весов скрытых слоёв при обучении методом обратного распространения ошибки
  33. Архитектура свёрточной нейросети (CNN), операция свёртки
  34. Обучение свёрточной нейросети
  35. Алгоритмы функционирования и обучения слоя свёртки
  36. 4. Эволюционные и генетические алгоритмы

  37. Генетические алгоритмы, генетическое кодирование, генетические операторы, код Грея
  38. Репродуктивный план Холланда и его вариации, селекция, элитаризм, элиминация
  39. Диплоидные генетические алгоритмы, разрешение конфликтов признаков в паре гомологичных генов
  40. Эволюционные алгоритмы. Оптимизация роем частиц (PSO)