¿Cuáles son los mejores libros sobre análisis de conglomerados?

Algunas listas:

  • Libros sobre algoritmos de clúster: validación cruzada
  • ¿Libros o artículos recomendados como introducción al análisis de conglomerados?

Otro libro:
Sewell, Grandville y PJ Rousseau. “Encontrar grupos en datos: una introducción al análisis de conglomerados”. (1990, 2005) proporciona una buena visión general del campo. Se centra en algunos algoritmos / métodos (por ejemplo, la conocida silueta, que resultó haber sido diseñada por uno de los autores del libro) y los cubre ampliamente. También viene con algún código, pero estilo 1990.

Tabla de contenido:

1. Introducción
1. Motivación, 1
2. Tipos de datos y cómo manejarlos, 3
2.1 Variables a escala de intervalo, 4
2.2 Disimilitudes, 16
2.3 Similitudes, 20
2.4 Variables binarias, 22
2.5 Variables nominales, ordinales y de relación, 28
2.6 Variables mixtas, 32
3. Qué algoritmo de agrupamiento elegir, 37
3.1 Métodos de partición, 38
3.2 Métodos jerárquicos, 44
4. Una descripción esquemática de nuestros programas, 50
5. Cálculo de diferencias con el programa DAISY, 52
Variables nominales, ordinales y de relación, 28
Ejercicios y problemas, 63

2. Particionamiento en torno a los medoides (Programa PAM)
1. Breve descripción del método, 68
2. Cómo usar el programa PAM, 72
2.1 Uso interactivo y entrada, 72
2.2 Salida, 80
2.3 Valores perdidos, 88
* 4. Más sobre el algoritmo y el programa, 102
4.1 Descripción del algoritmo, 102
4.2 Estructura del programa, 104
* 5. Métodos relacionados y referencias, 108
5.1 El método k-medoide y la ubicación óptima de la planta, 108
5.2 Otros métodos basados ​​en la selección de objetos representativos, 110
5.3 Métodos basados ​​en la construcción de puntos centrales, 111
5.4 Algunos otros métodos no jerárquicos, 116
5.5 ¿Por qué elegimos el método k-medoide? 117
5.6 Pantallas gráficas, 119
Ejercicios y problemas, 123

3. Agrupación de aplicaciones grandes (Programa CLARA)
1. Descripción breve del método, 126
2. Cómo usar el programa CLARA, 127
2.1 Uso interactivo y entrada, 127
2.2 Salida, 130
2.3 Valores perdidos, 134
3. Un ejemplo, 139
* 4. Más sobre el algoritmo y el programa, 144
4.1 Descripción del algoritmo, 144
4.2 Estructura del programa, 146
4.3 Limitaciones y mensajes especiales, 151
4.4 Modificaciones y extensiones de CLARA, 153
* 5. Métodos relacionados y referencias, 155
5.1 Métodos de partición para grandes conjuntos de datos, 155
5.2 Métodos jerárquicos para grandes conjuntos de datos, 157
5.3 Implementación de CLARA en una computadora paralela, 160
Uso interactivo y entrada, 127
Ejercicios y problemas, 162

4. Análisis difuso (Programa FANNY)
1. El propósito de la agrupación difusa, 164
2. Cómo usar el programa FANNY, 166
2.1 Uso interactivo y entrada, 166
2.2 Salida, 170
* 4. Más sobre el algoritmo y el programa, 182
4.1 Descripción del algoritmo, 182
4.2 Estructura del programa, 188
* 5. Métodos y referencias relacionadas, 189
5.1 Fuzzy k-Means y el método MND2, 189
5.2 ¿Por qué elegimos FANNY ?, 191
5.3 Medición de la cantidad de borrosidad, 191
5.4 Una muestra gráfica de membresías difusas, 195
Ejercicios y problemas, 197

5. Anidamiento aglomerativo (Programa AGNES)
1. Descripción breve del método, 199
2. Cómo usar el programa AGNES, 208
2.1 Uso interactivo y entrada, 208
2.2 Salida, 209
* 4. Más sobre el algoritmo y el programa, 221
4.1 Descripción del algoritmo, 221
4.2 Estructura del programa, 223
* 5. Métodos y referencias relacionadas, 224
5.1 Otros métodos de agrupamiento aglomerativo, 224
5.2 Comparación de sus propiedades, 238
5.3 Pantallas gráficas, 243
Uso interactivo y entrada, 208
3. Ejemplos, 214
Ejercicios y problemas, 250

6. Análisis divisivo (Programa DIANA)
1. Descripción breve del método, 253
2. Cómo usar el programa DIANA, 259
3. Ejemplos, 263
* 4. Más sobre el Algoritmo y el Programa, 271
4.1 Descripción del algoritmo, 271
4.2 Estructura del programa, 272
* 5. Métodos y referencias relacionadas, 273
5.1 Variantes del método seleccionado, 273
5.2 Otras técnicas divisivas, 275
Ejercicios y problemas, 277

7. Análisis monotético (Programa MONA)
1. Descripción breve del método, 280
2. Cómo usar el programa MONA, 283
2.1 Uso interactivo y entrada, 284
2.2 Salida, 287
* 4. Más sobre el algoritmo y el programa, 298
4.1 Descripción del algoritmo, 298
4.2 Estructura del programa, 301
* 5. Métodos relacionados y referencias, 304
5.1 Análisis de asociación, 304
5.2 Otros algoritmos divisivos monoteticos
para datos binarios, 307
5.3 Algunos otros métodos de agrupamiento divisivo, 308
Uso interactivo y entrada, 284
3. Ejemplos, 290
Ejercicios y problemas, 310

APÉNDICE 312
1. Implementación y estructura de los programas, 312
2. Ejecución de los programas, 313
3. Adaptando los programas a sus necesidades, 316
4. El programa CLUSPLOT, 318

Referencias 320
Índice de autores 332
Índice de materias 335

Los elementos del aprendizaje estadístico: minería de datos, inferencia y predicción por Trevor Hastie, Robert Tibshirani y Jerome Friedman es un buen punto de partida (para la agrupación, así como una gama de otros métodos de aprendizaje estadístico). El pdf está disponible de forma gratuita por los autores aquí: minería de datos, inferencia y predicción. 2da Edición ..

Los temas que cubre en la sección sobre análisis de conglomerados son:
Análisis de conglomerados . . . . . . . . . . . . . . . . . . . . . . . 501
14.3.1 Matrices de proximidad. . . . . . . . . . . . . . . . 503
14.3.2 Disimilitudes basadas en atributos. . . . . . . 503
14.3.3 Disimilitud de objetos. . . . . . . . . . . . . . . . 505
14.3.4 Algoritmos de agrupamiento. . . . . . . . . . . . . . . 507
14.3.5 Algoritmos combinatorios. . . . . . . . . . . . 507
14.3.6 K-medias. . . . . . . . . . . . . . . . . . . . . . 509
14.3.7 Mezclas gaussianas como agrupación suave de K-medias. 510
14.3.8 Ejemplo: datos de microarrays de tumores humanos. . . 512
14.3.9 Cuantización vectorial. . . . . . . . . . . . . . . . 514
14.3.10 K-medoides. . . . . . . . . . . . . . . . . . . . . 515
14.3.11 Cuestiones prácticas. . . . . . . . . . . . . . . . . . 518
14.3.12 Agrupación jerárquica. . . . . . . . . . . . . . 520

¡Buena suerte!