«И» «ИЛИ»  
© Публичная Библиотека
 -  - 
Универсальная библиотека, портал создателей электронных книг. Только для некоммерческого использования!
Вапник Владимир Наумович (математик)

Владимир Наумович Вапник 201k

-

(06.12.1936)

  ◄  СМЕНИТЬ  ►  |▼ О СТРАНИЦЕ ▼
▼ ОЦИФРОВЩИКИ ▼|  ◄  СМЕНИТЬ  ►  
Википедия: Владимир Наумович Вапник (род. 6 декабря 1936, Ташкент) - советский и американский математик, внес важный вклад в теорию машинного обучения, разработав вместе с Алексеем Червоненкисом статистическую теорию восстановления зависимостей по эмпирическим данным (теорию Вапника - Червоненкиса), которая обосновывает принцип минимизации эмпирического риска.
Родился 6 декабря 1936 года в Ташкенте, в семье Наума Ноеховича Вапника (1898-1963) и Гени Вольфовны Вапник (урожденной Разнощиковой, 1909-1967), уроженки Рашкова. В 1943-1953 годы учился в школе №18 в Ташкенте. В 1958 году окончил Узбекский государственный университет в Самарканде.
В 1964 году защитил диссертацию на соискание степени кандидата технических наук в Институте проблем управления (Москва) под руководством А.Я. Лернера. В 1984 году защитил докторскую диссертацию.
С 1990 года живет в США. Работал в Bell Labs (1990-2002), в NEC (с 2002 года). Является одним из соавторов алгоритма опорных векторов. Также с 1995 года является приглашенным профессором в Королевском колледже Холловей (Лондонский университет) и с 2003 - в Колумбийском университете в Нью-Йорке.
:
AAW, bolega...




  • Вапник В.Н... Теория распознавания образов. Статистические проблемы обучения. [Djv-Fax- 5.0M] [Pdf-Fax- 6.2M] Авторы: Владимир Наумович Вапник, Алексей Яковлевич Червоненкис.
    (Москва: Издательство «Наука»: Главная редакция физико-математической литературы, 1974)
    Скан: AAW, OCR, обработка, формат Djv-Fax: bolega, 2024
    • ОГЛАВЛЕНИЕ:
      Предисловие (9).
      ЧАСТЬ ПЕРВАЯ. ЭЛЕМЕНТАРНАЯ ТЕОРИЯ.
      Глава I. Персептрон Розенблатта (16).
      §1. Феномен восприятия (16).
      §2. Физиологическая модель восприятия (17).
      §3. Техническая модель. Персептрон (19).
      §4. Математическая модель (20).
      §5. Обобщенная математическая модель (23).
      §6. Теорема Новикова (25).
      §7. Доказательство теоремы Новикова (28).
      §8. Двухуровневая схема распознавания (30).
      Глава II. Задача обучения машин распознаванию образов (34).
      §1. Задача имитации (34).
      §2 Качество обучения (35).
      §3. Надежность обучения (37).
      §4. Обучение - задача выбора (38).
      §5. Две задачи конструирования обучающихся устройств (39).
      §6. Математическая постановка задачи обучения (41).
      §7. Три пути решения задачи о минимизации среднего риска (43).
      §8. Задача обучения распознаванию образов и методы минимизации среднего риска (47).
      Глава III. Методы обучения, основанные на восстановлении распределения вероятностей (49).
      §1. О восстановлении распределения вероятностей (49).
      §2. Классификация оценок (52).
      §3. Метод максимума правдоподобия (54).
      §4. Байесов принцип восстановления (55).
      §5. Сравнение байесова метода оценивания и оценивания методом максимума правдоподобия (59).
      §6. Оценка параметров распределения дискретных независимых признаков (60).
      §7. Байесовы оценки параметров распределения дискретных независимых признаков (63).
      §8. Восстановление параметров нормального распределения методом максимума правдоподобия (65).
      §9. Байесов метод восстановления нормального распределения (67).
      Глава IV. Рекуррентные алгоритмы обучения распознаванию образов (72).
      §1. Метод стохастической аппроксимации (72).
      §2. Детерминистская и стохастическая постановки задачи обучения распознаванию образов (73).
      §3. Конечно-сходящиеся рекуррентные процедуры (78).
      §4. Теоремы об останове (80).
      §5. Метод циклического повторения обучающей последовательности (84).
      §6. Метод потенциальных функций (86).
      Глава V. Алгоритмы, минимизирующие эмпирический риск (89).
      §1. Метод минимизации эмпирического риска (89).
      §2. Равномерная сходимость частот появления событий к их вероятностям (90).
      §3. Теорема Гливенко (92).
      §4. Частный случай (93).
      §5. Оценка числа различных линейных разделений векторов (96).
      §6. Условия равномерной сходимости частот появления событий к их вероятностям (99).
      §7. Свойства функции роста (101).
      §8. Оценка уклонения эмпирически оптимального решающего правила (102).
      §9. Метод минимизации эмпирического риска в детерминистской постановке задачи обучения распознаванию образов (104).
      §10. Замечание об оценке скорости равномерной сходимости частот появления событий к их вероятностям (107).
      §11. Замечания об особенностях метода минимизации эмпирического риска (111).
      §12. Алгоритмы метода обобщенного портрета (113).
      §13. Алгоритм Кора (115).
      Глава VI. Метод упорядоченной минимизации риска (118).
      §1. О критериях оценки качества алгоритмов (118).
      §2. Минимаксный критерий (121).
      §3. Критерий минимакса потерь (123).
      §4. Критерий Байеса (126).
      §5. Упорядочение классов решающих правил (127).
      §6. О критериях выбора (129).
      §7. Несмещенность оценки скользящего контроля (130).
      §8. Упорядочение по размерностям (132).
      §9. Упорядочение по относительным расстояниям (134).
      §10. Упорядочение по эмпирическим оценкам относительного расстояния и задача минимизации суммарного риска (139).
      §11. О выборе оптимальной совокупности признаков (147).
      §12. Алгоритмы упорядоченной минимизации суммарного риска (151).
      §13. Алгоритмы построения экстремальных кусочнолинейных решающих правил (155).
      §14. Приложение к главе VI (156).
      Глава VII. Примеры применения методов обучения распознаванию образов (161).
      §1. Задача о различении нефтеносных и водоносных пластов в скважине (161).
      §2. Задача о различении сходных почерков (164).
      §3. Задача о контроле качества продукции (166).
      §4. Задача о прогнозе погоды (169).
      §5. Применение методов обучения распознаванию образов в медицине (171).
      §6. Замечания о применениях методов обучения распознаванию образов (176).
      Глава VIII. Несколько общих замечаний (178).
      §1. Еще раз о постановке задачи (178).
      §2. Физики об интуиции (180).
      §3. Машинная интуиция (181).
      §4. О мире, в котором возможна интуиция (181).
      ЧАСТЬ ВТОРАЯ. СТАТИСТИЧЕСКИЕ ОСНОВЫ ТЕОРИИ.
      Глава IX. О сходимости рекуррентных алгоритмов обучения распознаванию образов (184).
      §1. Определение понятия сходимости (184).
      §2. Выпуклые функции (187).
      §3. Обобщенный градиент (188).
      §4. Условия сходимости рекуррентных алгоритмов (190).
      §5. Еще одно условие сходимости рекуррентных алгоритмов (200).
      Глава X. Достаточные условия равномерной сходимости частот к вероятностям по классу событий (203).
      §1. О близости минимума эмпирического риска к минимуму среднего риска (203).
      §2. Определение равномерной сходимости частот к вероятностям (206).
      §3. Определение функции роста (211).
      §4. Свойство функции роста (213).
      §5. Основная лемма (219).
      §6. Вывод достаточных условий равномерной сходимости частот к вероятностям по классу событий (223).
      §7. О равномерной сходимости с вероятностью единица (229).
      §8. Примеры и дополнительные замечания.231
      §9. Приложение к главе X (236).
      Глава XI. Необходимые и достаточные условия равномерной сходимости частот к вероятностям по классу событий (240).
      §1. Энтропия системы событий (240).
      §2. Асимптотические свойства энтропии (242).
      §3. Необходимые и достаточные условия равномерной сходимости (доказательство достаточности) (248).
      §4. Доказательство необходимости условий равномерной сходимости (251).
      §5. Примеры и дополнительные критерии (261).
      Глава XII. Оценки равномерного относительного уклонения частот от вероятностей в классе событий (267).
      §1. О равномерном относительном уклонении (267).
      §2. Оценка равномерного относительного уклонения частот в двух полувыборках (269).
      §3. Оценка равномерного относительного уклонения частот от вероятностей (272).
      Глава XIII. Применение теории равномерной сходимости к методам минимизации эмпирического риска (276).
      §1. Оценка достаточной длины обучающей последовательности в задачах обучения распознаванию (276).
      §2. Равномерная сходимость средних к математическим ожиданиям (285).
      ЧАСТЬ ТРЕТЬЯ. МЕТОДЫ ПОСТРОЕНИЯ РАЗДЕЛЯЮЩИХ ПОВЕРХНОСТЕЙ.
      Глава XIV. Построение разделяющей гиперплоскости (метод обобщенного портрета) (292).
      §1. Оптимальная разделяющая гиперплоскость (292).
      §2. Однопараметрическое семейство разделяющих гиперплоскостей (295).
      §3. Некоторые свойства обобщенного портрета (299).
      §4. Двойственная задача (302).
      §5. Алгоритмы персептронного типа (306).
      §6. Градиентные методы построения разделяющей гиперплоскости (вычисление обобщенного портрета) (310).
      §7. Теория оптимальной разделяющей гиперплоскости (316).
      §8. Двойственная задача (318).
      §9. Методы вычисления оптимальной разделяющей гиперплоскости (322).
      §10. Построение оптимальной разделяющей гиперплоскости модифицированным методом Гаусса - Зайделя (324).
      §11. Применение метода обобщенного портрета для нахождения оптимальной разделяющей гиперплоскости (326).
      §12. Некоторые статистические особенности метода обобщенного портрета (328).
      §13. Приложение к главе XIV (335).
      Глава XV. Алгоритмы обучения распознаванию образов, реализующие метод обобщенного портрета (344).
      §1. Способы представления информации (344).
      §2. Алгоритм построения разделяющей гиперплоскости (349).
      §3. Алгоритм построения разделяющей гиперплоскости, минимизирующей число ошибочно классифицируемых векторов (359).
      §4. Алгоритм построения кусочно-линейной разделяющей поверхности (360).
      §5. Алгоритмы построения разделяющей гиперплоскости в пространстве минимального числа признаков (362).
      §6. Алгоритм построения экстремальной линейной разделяющей поверхности (365).
      §7. Алгоритм построения экстремальной кусочнолинейной разделяющей поверхности (367).
      §8. Алгоритм построения разделяющей гиперплоскости с оценкой ее качества методом скользящего контроля (368).
      §9. Алгоритмы построения экстремальных разделяющих гиперповерхностей с помощью процедуры скользящий контроль (370).
      §10. О работе с алгоритмами (371).
      Глава XVI. Метод сопряженных направлений (373).
      §1. Идея метода (373).
      §2. Метод сопряженных градиентов (380).
      §3. Метод параллельных касательных (партан) (387).
      §4. Анализ погрешностей метода (391).
      Комментарии (397).
      Литература (410).
ИЗ ИЗДАНИЯ: Книга посвящена изложению статистической теории распознавания образов.
В первой части книги задача распознавания образов рассматривается с точки зрения проблемы минимизации среднего риска. Показано, как далеко можно продвинуться в решении задачи обучения распознаванию образов, следуя по каждому из существующих в статистике путей минимизации риска, и к каким алгоритмам они приводят. Вторая часть посвящена исследованию математических проблем обучения. Изложена теория равномерной сходимости частот появлений событий к их вероятностям, которая является предельным обобщением теоремы Гливенко. Третья часть посвящена алгоритмам построения линейных и кусочно-линейных решающих правил.
Книга рассчитана на студентов старших курсов, аспирантов, инженеров и научных сотрудников, занятых в области теоретической и технической кибернетики. Она будет также интересна специалистам по теории вероятностей и математической статистике.