Ешь, двигайся, спи Жесткий подход Дэна Кеннеди Телефоны Бизбук - c 10 до 18 по будним дням
 
Наши проекты:
Вход для зарегистрированных пользователей
Регистрация нового пользователя
Каталог книг Новинки Анонсы Заказы / Корзина Рассылка Оплата и Доставка Контакты
Вы находитесь в разделе каталога:
• Введение в статистическое обучение с примерами на языке R, Джеймс Г., Уиттон Д., Хасти Т., Тибширани Р.


Введение в статистическое обучение с примерами на языке R
Введение в статистическое обучение с примерами на языке R
Джеймс Г., Уиттон Д., Хасти Т., Тибширани Р.
Год выпуска: 2016
Изд-во: ДМК
ISBN: 978-5-97060-293-5
Переплёт: твердый
460 страниц
Цена: 1835.00 грн.
Временно отсутствует     Оставить заявку
Книга "Введение в статистическое обучение с примерами на языке R" представляет собой доступно изложенное введение в статистическое обучение - незаменимый набор инструментов, позволяющих извлечь полезную информацию из больших и сложных наборов данных, которые начали возникать в последние 20 лет в таких областях, как биология, экономика, маркетинг, физика и др. В этой книге описаны одни из наиболее важных методов моделирования и прогнозирования, а также примеры их практического применения. Рассмотренные темы включают линейную регрессию, классификацию, создание повторных выборок, регуляризацию, деревья решений, машины опорных векторов, кластеризацию и др. Описание этих методов сопровождается многочисленными иллюстрациями и практическими примерами. Поскольку цель этого учебника заключается в продвижении методов статистического обучения среди практикующих академических исследователей и промышленных аналитиков, каждая глава включает примеры практической реализации соответствующих методов с помощью R - чрезвычайно популярной среды статистических вычислений с открытым кодом.

Издание рассчитано на неспециалистов, которые хотели бы применять современные методы статистического обучения для анализа своих данных. Предполагается, что читатели ранее прослушали лишь курс по линейной регрессии и не обладают знаниями матричной алгебры.

Гарет Джеймс занимает должность профессора статистики в университете Южной Калифорнии. Он является автором многочисленных методологических работ в области статистического обучения, посвященных анализу многомерных данных. Концепция настоящей книги во многом отражает содержание его курса по этой теме для студентов, обучающихся по специальности "магистр делового администрирования".

Даниэла Уиттон является специалистом в области биостатистики и занимает должность ассистента в университете Вашингтона. Ее исследовательская работа в основном посвящена применению методов машинного обучения для анализа многомерных данных. Благодаря ее вкладу, методы машинного обучения стали более широко применяться в геномных исследованиях.

Тревор Хасти и Роберт Тибширани являются профессорами статистики в Стэнфордском Университете, соавторами популярной книги "Элементы статистического обучения" и создателями обобщенных аддитивных моделей. Проф. Хасти внес также большой вклад в разработку статистического программного обеспечения на языках R и S-PLUS и создал методы "главных кривых" и "главных поверхностей". Проф. Тибширани предложил метод лассо и является одним из авторов популярной книги "Введение в бутстреп".




Оглавление книги Джеймс Г., Уиттон Д., Хасти Т., Тибширани Р. "Введение в статистическое обучение с примерами на языке R"




От переводчика 10
Предисловие 11
1 Введение 13
2 Статистическое обучение 27
2.1 Что такое статистическое обучение? . . . . . . . . . . . . . . 27
2.1.1 Зачем оценивать ??? . . . . . . . . . . . . . . . . . . . . 29
2.1.2 Как мы оцениваем ??? . . . . . . . . . . . . . . . . . . . 33
2.1.3 Компромисс между точностью предсказаний
и интерпретируемостью модели . . . . . . . . . . . . . 36
2.1.4 Обучение с учителем и без учителя . . . . . . . . . . 38
2.1.5 Различия между проблемами регрессии
и классификации . . . . . . . . . . . . . . . . . . . . . 40
2.2 Описание точности модели . . . . . . . . . . . . . . . . . . . . 41
2.2.1 Измерение качества модели . . . . . . . . . . . . . . . 41
2.2.2 Компромисс между смещением и дисперсией . . . . . 46
2.2.3 Задачи классификации . . . . . . . . . . . . . . . . . . 49
2.3 Лабораторная работа: введение в R . . . . . . . . . . . . . . . 56
2.3.1 Основные команды . . . . . . . . . . . . . . . . . . . . 56
2.3.2 Графики . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.3.3 Индексирование данных . . . . . . . . . . . . . . . . . 60
2.3.4 Загрузка данных . . . . . . . . . . . . . . . . . . . . . 61
2.3.5 Дополнительные графические и количественные
сводки . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.4 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3 Линейная регрессия 71
3.1 Простая линейная регрессия . . . . . . . . . . . . . . . . . . . 72
3.1.1 Оценивание коэффициентов . . . . . . . . . . . . . . . 73
3.1.2 Точность оценок коэффициентов . . . . . . . . . . . . 75
3.1.3 Оценивание точности модели . . . . . . . . . . . . . . 80
3.2 Множественная линейная регрессия . . . . . . . . . . . . . . 83
3.2.1 Оценивание регрессионных коэффициентов . . . . . . 84
3.2.2 Некоторые важные вопросы . . . . . . . . . . . . . . . 87
3.3 Другие аспекты регрессионной модели . . . . . . . . . . . . . 95
3.3.1 Качественные предикторы . . . . . . . . . . . . . . . . 95
3.3.2 Потенциальные проблемы . . . . . . . . . . . . . . . . 105
3.4 Маркетинговый план . . . . . . . . . . . . . . . . . . . . . . . 116
3.5 Сравнение линейной регрессии с методом ?? ближайших
соседей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.6 Лабораторная работа: линейная регрессия . . . . . . . . . . . 123
3.6.1 Библиотеки . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.6.2 Простая линейная регрессия . . . . . . . . . . . . . . . 124
3.6.3 Множественная линейная регрессия . . . . . . . . . . 127
3.6.4 Эффекты взаимодействия . . . . . . . . . . . . . . . . 129
3.6.5 Нелинейные преобразования предикторов . . . . . . . 130
3.6.6 Качественные предикторы . . . . . . . . . . . . . . . . 132
3.6.7 Написание функций . . . . . . . . . . . . . . . . . . . . 134
3.7 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4 Классификация 143
4.1 Общее представление о классификации . . . . . . . . . . . . 143
4.2 Почему не линейная регрессия? . . . . . . . . . . . . . . . . . 144
4.3 Логистическая регрессия . . . . . . . . . . . . . . . . . . . . . 146
4.3.1 Логистическая модель . . . . . . . . . . . . . . . . . . 147
4.3.2 Оценивание регрессионных коэффициентов . . . . . . 149
4.3.3 Предсказания . . . . . . . . . . . . . . . . . . . . . . . 150
4.3.4 Множественная логистическая модель . . . . . . . . . 151
4.3.5 Логистическая регрессия для зависимых переменных
с числом классов > 2 . . . . . . . . . . . . . . . . . . . 154
4.4 Дискриминантный анализ . . . . . . . . . . . . . . . . . . . . 154
4.4.1 Использование теоремы Байеса для классификации . 155
4.4.2 Линейный дискриминантый анализ для ?? = 1 . . . . . 155
4.4.3 Линейный дискриминантный анализ для ?? > 1 . . . . 158
4.4.4 Квадратичный дискриминантный анализ . . . . . . . 166
4.5 Сравнение методов классификации . . . . . . . . . . . . . . . 168
4.6 Лабораторная работа: логистическая регрессия, LDA, QDA
и KNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
4.6.1 Данные по цене акций . . . . . . . . . . . . . . . . . . 172
4.6.2 Логистическая регрессия . . . . . . . . . . . . . . . . . 173
4.6.3 Линейный дискриминантный анализ . . . . . . . . . . 178
4.6.4 Квадратичный дискриминантный анализ . . . . . . . 180
4.6.5 Метод ?? ближайших соседей . . . . . . . . . . . . . . 181
4.6.6 Применение к данным по жилым прицепам . . . . . . 182
4.7 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
5 Методы создания повторных выборок 192
5.1 Перекрестная проверка . . . . . . . . . . . . . . . . . . . . . . 193
5.1.1 Метод проверочной выборки . . . . . . . . . . . . . . . 193
5.1.2 Перекрестная проверка по отдельным наблюдениям . 196
5.1.3 ??-кратная перекрестная проверка . . . . . . . . . . . 198
5.1.4 Компромисс между смещением и дисперсией
в контексте ??-кратной перекрестной проверки . . . . 201
5.1.5 Перекрестная проверка при решении задач
классификации . . . . . . . . . . . . . . . . . . . . . . 202
5.2 Бутстреп . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.3 Лабораторная работа: перекрестная проверка и бутстреп . . 209
5.3.1 Метод проверочной выборки . . . . . . . . . . . . . . . 209
5.3.2 Перекрестная проверка по отдельным наблюдениям . 210
5.3.3 ??-кратная перекрестная проверка . . . . . . . . . . . 212
5.3.4 Бутстреп . . . . . . . . . . . . . . . . . . . . . . . . . . 212
5.4 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
6 Отбор и регуляризация линейных моделей 221
6.1 Отбор подмножества переменных . . . . . . . . . . . . . . . . 223
6.1.1 Отбор оптимального подмножества . . . . . . . . . . . 223
6.1.2 Пошаговый отбор . . . . . . . . . . . . . . . . . . . . . 225
6.1.3 Выбор оптимальной модели . . . . . . . . . . . . . . . 228
6.2 Методы сжатия . . . . . . . . . . . . . . . . . . . . . . . . . . 234
6.2.1 Гребневая регрессия . . . . . . . . . . . . . . . . . . . 234
6.2.2 Лассо . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
6.2.3 Выбор гиперпараметра . . . . . . . . . . . . . . . . . . 248
6.3 Методы снижения размерности . . . . . . . . . . . . . . . . . 249
6.3.1 Регрессия на главные компоненты . . . . . . . . . . . 251
6.3.2 Метод частных наименьших квадратов . . . . . . . . 257
6.4 Особенности работы с данными большой размерности . . . . 259
6.4.1 Данные большой размерности . . . . . . . . . . . . . . 259
6.4.2 Что не так с большими размерностями? . . . . . . . . 260
6.4.3 Регрессия для данных большой размерности . . . . . 262
6.4.4 Интерпретация результатов в задачах большой
размерности . . . . . . . . . . . . . . . . . . . . . . . . 264
6.5 Лабораторная работа 1: методы отбора подмножеств
переменных . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
6.5.1 Отбор оптимального подмножества . . . . . . . . . . . 265
6.5.2 Отбор путем пошагового включения и исключения
переменных . . . . . . . . . . . . . . . . . . . . . . . . 268
6.5.3 Нахождение оптимальной модели при помощи
методов проверочной выборки и перекрестной
проверки . . . . . . . . . . . . . . . . . . . . . . . . . . 269
6.6 Лабораторная работа 2: гребневая регрессия и лассо . . . . 272
6.6.1 Гребневая регрессия . . . . . . . . . . . . . . . . . . . 273
6.6.2 Лассо . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
6.7 Лабораторная работа 3: регрессия при помощи методов PCR
и PLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
6.7.1 Регрессия на главные компоненты . . . . . . . . . . . 278
6.7.2 Регрессия по методу частных наименьших
квадратов . . . . . . . . . . . . . . . . . . . . . . . . . . 280
6.8 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
7 Выходя за пределы линейности 288
7.1 Полиномиальная регрессия . . . . . . . . . . . . . . . . . . . 289
7.2 Ступенчатые функции . . . . . . . . . . . . . . . . . . . . . . 291
7.3 Базисные функции . . . . . . . . . . . . . . . . . . . . . . . . 293
7.4 Регрессионные сплайны . . . . . . . . . . . . . . . . . . . . . 294
7.4.1 Кусочно-полиномиальная регрессия . . . . . . . . . . 294
7.4.2 Ограничения и сплайны . . . . . . . . . . . . . . . . . 295
7.4.3 Представление сплайнов с помощью базисных
функций . . . . . . . . . . . . . . . . . . . . . . . . . . 296
7.4.4 Выбор числа и расположения узлов . . . . . . . . . . 298
7.4.5 Сравнение с полиномиальной регрессией . . . . . . . 299
7.5 Сглаживающие сплайны . . . . . . . . . . . . . . . . . . . . . 300
7.5.1 Общее представление о сглаживающих сплайнах . . . 300
7.5.2 Нахождение параметра сглаживания ?? . . . . . . . . 302
7.6 Локальная регрессия . . . . . . . . . . . . . . . . . . . . . . . 304
7.7 Обобщенные аддитивные модели . . . . . . . . . . . . . . . . 307
7.7.1 GAM для регрессионных задач . . . . . . . . . . . . . 307
7.7.2 GAM для задач классификации . . . . . . . . . . . . . 311
7.8 Лабораторная работа: нелинейные модели . . . . . . . . . . . 312
7.8.1 Полиномиальная регрессия и ступенчатые функции . 313
7.8.2 Сплайны . . . . . . . . . . . . . . . . . . . . . . . . . . 318
7.8.3 GAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
7.9 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
8 Методы, основанные на деревьях решений 328
8.1 Деревья решений: основные понятия . . . . . . . . . . . . . . 328
8.1.1 Регрессионные деревья . . . . . . . . . . . . . . . . . . 329
8.1.2 Деревья классификации . . . . . . . . . . . . . . . . . 337
8.1.3 Сравнение деревьев с линейными моделями . . . . . . 339
8.1.4 Преимущества и недостатки деревьев решений . . . . 341
8.2 Бэггинг, случайные леса, бустинг . . . . . . . . . . . . . . . . 342
8.2.1 Бэггинг . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
8.2.2 Случайные леса . . . . . . . . . . . . . . . . . . . . . . 347
8.2.3 Бустинг . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
8.3 Лабораторная работа: деревья решений . . . . . . . . . . . . 351
8.3.1 Построение деревьев классификации . . . . . . . . . . 351
8.3.2 Построение регрессионных деревьев . . . . . . . . . . 355
8.3.3 Бэггинг и случайные леса . . . . . . . . . . . . . . . . 356
8.3.4 Бустинг . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
8.4 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
9 Машины опорных векторов 364
9.1 Классификатор с максимальным зазором . . . . . . . . . . . 364
9.1.1 Что такое гиперплоскость? . . . . . . . . . . . . . . . . 365
9.1.2 Классификация с использованием гиперплоскости . . 365
9.1.3 Классификатор с максимальным зазором . . . . . . . 368
9.1.4 Построение классификатора с максимальным
зазором . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
9.1.5 Случай, когда разделяющая гиперплоскость
не существует . . . . . . . . . . . . . . . . . . . . . . . 370
9.2 Классификаторы на опорных векторов . . . . . . . . . . . . . 371
9.2.1 Общие представления о классификаторах
на опорных векторах . . . . . . . . . . . . . . . . . . . 371
9.2.2 Более подробное описание классификатора
на опорных векторах . . . . . . . . . . . . . . . . . . . 374
9.3 Машины опорных векторов . . . . . . . . . . . . . . . . . . . 377
9.3.1 Классификация с использованием нелинейных
решающих границ . . . . . . . . . . . . . . . . . . . . . 377
9.3.2 Машина опорных векторов . . . . . . . . . . . . . . . 378
9.3.3 Применение к данным по нарушению сердечной
функции . . . . . . . . . . . . . . . . . . . . . . . . . . 382
9.4 Машины опорных векторов для случаев с несколькими
классами . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
9.4.1 Классификация типа "один против одного" . . . . . . 384
9.4.2 Классификация типа "один против всех" . . . . . . . 384
9.5 Связь с логистической регрессией . . . . . . . . . . . . . . . . 384
9.6 Лабораторная работа: машины опорных векторов . . . . . . 387
9.6.1 Классификатор на опорных векторах . . . . . . . . . 387
9.6.2 Машина опорных векторов . . . . . . . . . . . . . . . 391
9.6.3 ROC-кривые . . . . . . . . . . . . . . . . . . . . . . . . 393
9.6.4 SVM с несколькими классами . . . . . . . . . . . . . . 395
9.6.5 Применение к данным по экспрессии генов . . . . . . 395
9.7 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
10 Обучение без учителя 402
10.1 Трудность обучения без учителя . . . . . . . . . . . . . . . . 402
10.2 Анализ главных компонент . . . . . . . . . . . . . . . . . . . 403
10.2.1 Что представляют собой главные компоненты? . . . . 404
10.2.2 Альтернативная интерпретация главных компонент . 408
10.2.3 Дополнительный материал по PCA . . . . . . . . . . . 409
10.2.4 Другие приложения PCA . . . . . . . . . . . . . . . . 414
10.3 Методы кластеризации . . . . . . . . . . . . . . . . . . . . . . 414
10.3.1 Кластеризация по методу К средних . . . . . . . . . . 415
10.3.2 Иерархическая кластеризация . . . . . . . . . . . . . . 418
10.3.3 Практические аспекты применения кластеризации . . 429
10.4 Лабораторная работа 1: анализ главных компонент . . . . . 432
10.5 Лабораторная работа 2: кластерный анализ . . . . . . . . . . 434
10.5.1 Кластеризация по методу K средних . . . . . . . . . . 434
10.5.2 Иерархическая кластеризация . . . . . . . . . . . . . . 436
10.6 Лабораторная работа 3: анализ данных NCI60 . . . . . . . . 438
10.6.1 Применение PCA к данным NCI60 . . . . . . . . . . . 439
10.6.2 Кластеризация наблюдений из набора данных
NCI60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
10.7 Упражнения . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444

С этой книгой чаще всего покупают:
Язык R в задачах науки о данных: импорт, подготовка, обработка, визуализация и моделирование данных (полноцветное издание)

Язык R в задачах науки о данных: импорт, подготовка, обработка, визуализация и моделирование данных (полноцветное издание)

рекомендуем
Хэдли Уикем, Гарретт Гроулмунд
Год выпуска: 2018
Изд-во: Диалектика-Вильямс
в корзину
Только на 1 книгу
 
Глубокое обучение на R

Глубокое обучение на R

Шолле Ф.
Год выпуска: 2018
Изд-во: Питер
в корзину
Только на 1 книгу
Цена: 800.00 грн. 
 
Цена: 760.00 грн. 
Практическая статистика для специалистов Data Science

Практическая статистика для специалистов Data Science

Брюс П., Брюс Э.
Год выпуска: 2018
Изд-во: BHV-СПб
в корзину
Только на 1 книгу
 
Data Science. Инсайдерская информация для новичков. Включая язык R

Data Science. Инсайдерская информация для новичков. Включая язык R

Кэти О’Нил, Рэйчел Шатт
Год выпуска: 2018
Изд-во: Питер
в корзину
Только на 1 книгу
Цена: 396.00 грн. 
 
Цена: 660.00 грн. 
Искусство программирования на R. Погружение в большие данные

Искусство программирования на R. Погружение в большие данные

Норман Мэтлофф
Год выпуска: 2019
Изд-во: Питер

в корзину

Instant Purshare Только на 1 книгу
 
   
Цена: 625.00 грн. 
   

Хотите оставить отзыв? У Вас возникли вопросы о книге "Введение в статистическое обучение с примерами на языке R, Джеймс Г., Уиттон Д., Хасти Т., Тибширани Р." ? Пишите:

* Текст сообщения:
 
  Отправить
Поиск по каталогу
 поиск в аннотациях
Искать

* Подробнее об условиях доставки смотрите в разделе "Оплата и Доставка" нашего магазина.
Если у Вас возникли вопросы как подобрать и купить книги в нашем интернет-магазине звоните с 9 до 18 по будним дням: Киев 331-04-53, Водафон (050) 809-56-66, Киевстар (067) 408-26-36, Лайф (063) 227-24-47, Интертелеком (094) 831-04-53 или пишите нам

 
   
  Programming - Dmitriy Kotov & Andrey Kotov