Data mining for business analytics (Registro nro. 4784)

000 -CABECERA
Campo de control de longitud fija 15863nam a22003377a 4500
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL
Campo de control OSt
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN
Campo de control 20230804133300.0
008 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA
Campo de control de longitud fija 230804t2020 xxu||||| |||| 00| 0 eng d
020 ## - NÚMERO INTERNACIONAL NORMALIZADO PARA LIBROS (ISBN)
Número Internacional Normalizado para Libros (ISBN) 9781119549864
040 ## - FUENTE DE LA CATALOGACIÓN
Centro que cataloga Bogotá (Dr. David Ordóñez Rueda) - Campus Norte
Centro catalogador de origen Unicoc
Lengua de catalogación spa
Centro modificador Bogotá (Dr. David Ordóñez Rueda) - Campus Norte
100 ## - PUNTO DE ACCESO PRINCIPAL - NOMBRE DE PERSONA
Nombre de persona Shmueli, Galit
9 (RLIN) 10743
245 ## - MENCIÓN DE TÍTULO
Título Data mining for business analytics
Subtitulo o Resto del título : concepts, techniques and applications in Python
Mención de responsabilidad etc. / Galit Shmueli; Peter C. Bruce; Peter Gedeck; Nitin R. Patel
250 ## - MENCIÓN DE EDICIÓN
Mención de edición 1 ed.
260 ## - PUBLICATION, DISTRIBUTION, ETC. (IMPRINT)
Lugar de publicación distribución etc. Estados Unidos de América :
Nombre del editor distribuidor etc. John Wiley & Sons, Inc. ,
Fecha de publicación distribución etc. 2020.
300 ## - DESCRIPCIÓN FÍSICA
Extensión xxvii; 607 páginas :
Otras características físicas tablas, gráficas y mapas;
500 ## - NOTA GENERAL
Nota general PART I PRELIMINARIES
CHAPTER 1 Introduction 3
1.1 What Is Business Analytics? . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 What Is Data Mining? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Data Mining and Related Terms . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Data Science . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Why Are There So Many Different Methods? . . . . . . . . . . . . . . . . . . . 8
1.7 Terminology and Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8 Road Maps to This Book . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
CHAPTER 2 Overview of the Data Mining Process 15
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Core Ideas in Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 The Steps in Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Preliminary Steps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Predictive Power and Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6 Building a Predictive Model . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.7 Using Python for Data Mining on a Local Machine . . . . . . . . . . . . . . . . 44
2.8 Automating Data Mining Solutions . . . . . . . . . . . . . . . . . . . . . . . . 45
2.9 Ethical Practice in Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . 47
PART II DATA EXPLORATION AND DIMENSION REDUCTION
CHAPTER 3 Data Visualization 61
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Data Examples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3 Basic Charts: Bar Charts, Line Graphs, and Scatter Plots . . . . . . . . . . . . . 65
3.4 Multidimensional Visualization . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.5 Specialized Visualizations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.6 Summary: Major Visualizations and Operations, by Data Mining Goal . . . . . . . 93
CHAPTER 4 Dimension Reduction 99
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.2 Curse of Dimensionality . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.3 Practical Considerations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.4 Data Summaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.5 Correlation Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.6 Reducing the Number of Categories in Categorical Variables . . . . . . . . . . . 106
4.7 Converting a Categorical Variable to a Numerical Variable . . . . . . . . . . . . 108
4.8 Principal Components Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.9 Dimension Reduction Using Regression Models . . . . . . . . . . . . . . . . . . 119
4.10 Dimension Reduction Using Classification and Regression Trees . . . . . . . . . . 119
PART III PERFORMAN CEEVALUATION
CHAPTER 5 Evaluating Predictive Performance 125
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.2 Evaluating Predictive Performance . . . . . . . . . . . . . . . . . . . . . . . . 126
5.3 Judging Classifier Performance . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4 Judging Ranking Performance . . . . . . . . . . . . . . . . . . . . . . . . . . 144
5.5 Oversampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
CHAPTER 6 Multiple Linear Regression 161
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
6.2 Explanatory vs. Predictive Modeling . . . . . . . . . . . . . . . . . . . . . . . 162
6.3 Estimating the Regression Equation and Prediction . . . . . . . . . . . . . . . . 164
6.4 Variable Selection in Linear Regression . . . . . . . . . . . . . . . . . . . . . 169
CHAPTER 7 k-Nearest Neighbors (kNN) 185
7.1 The k-NN Classifier (Categorical Outcome) . . . . . . . . . . . . . . . . . . . . 185
7.2 k-NN for a Numerical Outcome . . . . . . . . . . . . . . . . . . . . . . . . . . 193
7.3 Advantages and Shortcomings of k-NN Algorithms . . . . . . . . . . . . . . . . 195
CHAPTER 8 The Naive Bayes Classifier 199
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
8.2 Applying the Full (Exact) Bayesian Classifier . . . . . . . . . . . . . . . . . . . 201
8.3 Advantages and Shortcomings of the Naive Bayes Classifier . . . . . . . . . . . 210
CHAPTER 9 Classification and Regression Trees 217
9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
9.2 Classification Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
9.3 Evaluating the Performance of a Classification Tree . . . . . . . . . . . . . . . . 228
9.4 Avoiding Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
9.5 Classification Rules from Trees . . . . . . . . . . . . . . . . . . . . . . . . . . 238
9.6 Classification Trees for More Than Two Classes . . . . . . . . . . . . . . . . . . 239
9.7 Regression Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
9.8 Improving Prediction: Random Forests and Boosted Trees . . . . . . . . . . . . 243
9.9 Advantages and Weaknesses of a Tree . . . . . . . . . . . . . . . . . . . . . . 246
CHAPTER 10 Logistic Regression 251
10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
10.2 The Logistic Regression Model . . . . . . . . . . . . . . . . . . . . . . . . . . 253
10.3 Example: Acceptance of Personal Loan . . . . . . . . . . . . . . . . . . . . . . 255
10.4 Evaluating Classification Performance . . . . . . . . . . . . . . . . . . . . . . 261
10.5 Logistic Regression for Multi-class Classification . . . . . . . . . . . . . . . . . 264
10.6 Example of Complete Analysis: Predicting Delayed Flights . . . . . . . . . . . . 269
CHAPTER 11 Neural Nets 283
11.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
11.2 Concept and Structure of a Neural Network . . . . . . . . . . . . . . . . . . . . 284
11.3 Fitting a Network to Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
11.4 Required User Input . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
11.5 Exploring the Relationship Between Predictors and Outcome . . . . . . . . . . . 299
11.6 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
11.7 Advantages and Weaknesses of Neural Networks . . . . . . . . . . . . . . . . . 305
CHAPTER 12 Discriminant Analysis 309
12.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
12.2 Distance of a Record from a Class . . . . . . . . . . . . . . . . . . . . . . . . 311
12.3 Fisher’s Linear Classification Functions . . . . . . . . . . . . . . . . . . . . . . 314
12.4 Classification Performance of Discriminant Analysis . . . . . . . . . . . . . . . 317
12.5 Prior Probabilities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
12.6 Unequal Misclassification Costs . . . . . . . . . . . . . . . . . . . . . . . . . 319
12.7 Classifying More Than Two Classes . . . . . . . . . . . . . . . . . . . . . . . . 319
12.8 Advantages and Weaknesses . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
CHAPTER 13 Combining Methods: Ensembles and Uplift Modeling 327
13.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
13.2 Uplift (Persuasion) Modeling . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
13.3 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
CHAPTER 14 Association Rules and Collaborative Filtering 345
14.1 Association Rules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
14.2 Collaborative Filtering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
14.3 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
CHAPTER 15 Cluster Analysis 375
15.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
15.2 Measuring Distance Between Two Records . . . . . . . . . . . . . . . . . . . . 379
15.3 Measuring Distance Between Two Clusters . . . . . . . . . . . . . . . . . . . . 385
15.4 Hierarchical (Agglomerative) Clustering . . . . . . . . . . . . . . . . . . . . . 387
15.5 Non-Hierarchical Clustering: The k-Means Algorithm . . . . . . . . . . . . . . . 395
CHAPTER 16 Handling Time Series 407
16.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
16.2 Descriptive vs. Predictive Modeling . . . . . . . . . . . . . . . . . . . . . . . 409
16.3 Popular Forecasting Methods in Business . . . . . . . . . . . . . . . . . . . . . 409
16.4 Time Series Components . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
16.5 Data-Partitioning and Performance Evaluation . . . . . . . . . . . . . . . . . . 415
CHAPTER 17 Regression-Based Forecasting 423
17.1 A Model with Trend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
17.2 A Model with Seasonality . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
17.3 A Model with Trend and Seasonality . . . . . . . . . . . . . . . . . . . . . . . 432
17.4 Autocorrelation and ARIMA Models . . . . . . . . . . . . . . . . . . . . . . . . 433
CHAPTER 18 Smoothing Methods 451
18.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452
18.2 Moving Average . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452
18.3 Simple Exponential Smoothing . . . . . . . . . . . . . . . . . . . . . . . . . . 457
18.4 Advanced Exponential Smoothing . . . . . . . . . . . . . . . . . . . . . . . . 460
CHAPTER 19 Social Network Analytics 473
19.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
19.2 Directed vs. Undirected Networks . . . . . . . . . . . . . . . . . . . . . . . . 475
19.3 Visualizing and Analyzing Networks . . . . . . . . . . . . . . . . . . . . . . . 476
19.4 Social Data Metrics and Taxonomy . . . . . . . . . . . . . . . . . . . . . . . . 480
19.5 Using Network Metrics in Prediction and Classification . . . . . . . . . . . . . . 485
19.6 Collecting Social Network Data with Python . . . . . . . . . . . . . . . . . . . 491
19.7 Advantages and Disadvantages . . . . . . . . . . . . . . . . . . . . . . . . . 491
CHAPTER 20 Text Mining 495
20.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496
20.2 The Tabular Representation of Text: Term-Document Matrix and “Bag-of-Words’’ . 496
20.3 Bag-of-Words vs. Meaning Extraction at Document Level . . . . . . . . . . . . . 497
20.4 Preprocessing the Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498
20.5 Implementing Data Mining Methods . . . . . . . . . . . . . . . . . . . . . . . 506
20.6 Example: Online Discussions on Autos and Electronics . . . . . . . . . . . . . . 506
20.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 510
CHAPTER 21 Cases 515
21.1 Charles Book Club . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515
21.2 German Credit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522
21.3 Tayko Software Cataloger . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527
21.4 Political Persuasion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531
21.5 Taxi Cancellations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535
21.6 Segmenting Consumers of Bath Soap . . . . . . . . . . . . . . . . . . . . . . . 537
21.7 Direct-Mail Fundraising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
21.8 Catalog Cross-Selling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544
21.9 Time Series Case: Forecasting Public Transportation Demand . . . . . . . . . . . 546
504 ## - NOTA DE BIBLIOGRAFÍA; ETC.
Nota de bibliografía etc. Incluye referencias bibliográficas.
505 ## - NOTA DE CONTENIDO CON FORMATO
Título CHAPTER 1 Introduction. --

-- CHAPTER 2 Overview of the Data Mining Process. --
-- CHAPTER 3 Data Visualization. --
-- CHAPTER 4 Dimension Reduction. --
-- CHAPTER 5 Evaluating Predictive Performance. --
-- CHAPTER 6 Multiple Linear Regression. --
-- CHAPTER 7 k-Nearest Neighbors (kNN). --
-- CHAPTER 8 The Naive Bayes Classifier. --
-- CHAPTER 9 Classification and Regression Trees. --
-- CHAPTER 10 Logistic Regression. --
-- CHAPTER 11 Neural Nets. --
-- CHAPTER 12 Discriminant Analysis. --
-- CHAPTER 13 Combining Methods: Ensembles and Uplift Modeling. --
-- CHAPTER 14 Association Rules and Collaborative Filtering. --
-- CHAPTER 15 Cluster Analysis. --
-- CHAPTER 16 Handling Time Series. --
-- CHAPTER 17 Regression-Based Forecasting. --
-- CHAPTER 18 Smoothing Methods. --
-- CHAPTER 19 Social Network Analytics. --
-- CHAPTER 20 Text Mining. --
-- CHAPTER 21 Cases. --
520 ## - NOTA DE SUMARIO; ETC.
Sumario etc. Este libro proporciona una guía profunda y detallada sobre técnicas fundamentales de minería de datos. El libro guía a los lectores a través del uso del software Python para desarrollar técnicas y modelos predictivos con el fin de describir y encontrar patrones en los datos. Los autores usan ejemplos interesantes del mundo real para desarrollar una comprensión teórica y práctica de los métodos clave de minería de datos, con un enfoque en el análisis en lugar de la programación. El libro incluye discusiones sobre las subrutinas de Python, lo que permite a los lectores trabajar de forma práctica con los datos proporcionados. A lo largo del libro, las aplicaciones de los temas discutidos centrarse en el problema empresarial como motivación y evitar la teoría estadística innecesaria. Los temas tratados incluyen series temporales, minería de texto y reducción de dimensiones. Cada capítulo concluye con ejercicios que permiten a los lectores ampliar su comprensión del material presentado. Más de una docena de casos que requieren su uso se presentan las diferentes técnicas de extracción de datos y un sitio web relacionado presenta más de dos docenas de conjuntos de datos, soluciones de ejercicios, diapositivas de PowerPoint y soluciones de casos
526 ## - NOTA DE INFORMACIÓN SOBRE EL PROGRAMA DE ESTUDIO
Institución que aplica el campo Unicoc
Nombre del programa Ingeniería De Sistemas
Codigo SNIES del programa 109967
546 ## - NOTA DE LENGUA
Nota de lengua Inglés
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento inicial Procesamiento de datos
9 (RLIN) 10744
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento inicial Minería de datos
9 (RLIN) 7113
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento inicial Python (lenguaje de programación)
9 (RLIN) 10745
658 #0 - TÉRMINO DE INDIZACIÓN - OBJETIVO CURRICULAR
9 (RLIN) 8220
Programa Académico Programa de Ingeniería de Sistemas
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA
9 (RLIN) 10746
Nombre de persona Bruce, Peter C.
Término indicativo de función autor
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA
9 (RLIN) 10747
Nombre de persona Gedeck, Peter
Término indicativo de función autor
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA
9 (RLIN) 10748
Nombre de persona Patel, Nitin R.
Término indicativo de función autor
856 ## - LOCALIZACIÓN Y ACCESO ELECTRÓNICOS
Identificador Uniforme del Recurso (URI) https://unicoceduco-my.sharepoint.com/:b:/g/personal/direccionbiblioteca_unicoc_edu_co/EcRjDo2hvy1BrWjOgv5p8NsBpfJqcThUJ6lSRYZBS3JxfA?e=9m1UC4
Texto del enlace Acceso online exclusivo para comunidad Unicoc.
942 ## - ENTRADA PARA ELEMENTOS AGREGADOS (KOHA)
Fuente de clasificación o esquema de ordenación en estanterías
Koha [por defecto] tipo de item Libro electrónico
Existencias
Estropeado Fuente de adquisición Tipo de item de Koha Localización permanente Estado de pérdida Fecha última consulta Código de colección Fecha de adquisición Fuente de clasificación o esquema de ordenación en estanterías Fecha del precio de reemplazo No para préstamo Código de barras Localización actual
 CompraLibro electrónicoCentro de Documentación (Clínica Odontológica Unicoc Bogotá) 2024-03-07Coleccion Online2024-03-07 2024-03-07 Ebook4784Centro de Documentación (Clínica Odontológica Unicoc Bogotá)

© 2014 UNICOC | Institución Universitaria Colegios de Colombia - UNICOC
Bogotá D.C. Autopista Norte Km. 20. Teléfono:(571)6683535
Cali: Calle 13 Norte No. 3N-13. Teléfono: (572)6608887

Idiomas: 
Con tecnología de Koha