000 -CABECERA | |
---|---|
Campo de control de longitud fija | 15863nam a22003377a 4500 |
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL | |
Campo de control | OSt |
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN | |
Campo de control | 20230804133300.0 |
008 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA | |
Campo de control de longitud fija | 230804t2020 xxu||||| |||| 00| 0 eng d |
020 ## - NÚMERO INTERNACIONAL NORMALIZADO PARA LIBROS (ISBN) | |
Número Internacional Normalizado para Libros (ISBN) | 9781119549864 |
040 ## - FUENTE DE LA CATALOGACIÓN | |
Centro que cataloga | Bogotá (Dr. David Ordóñez Rueda) - Campus Norte |
Centro catalogador de origen | Unicoc |
Lengua de catalogación | spa |
Centro modificador | Bogotá (Dr. David Ordóñez Rueda) - Campus Norte |
100 ## - PUNTO DE ACCESO PRINCIPAL - NOMBRE DE PERSONA | |
Nombre de persona | Shmueli, Galit |
9 (RLIN) | 10743 |
245 ## - MENCIÓN DE TÍTULO | |
Título | Data mining for business analytics |
Subtitulo o Resto del título | : concepts, techniques and applications in Python |
Mención de responsabilidad etc. | / Galit Shmueli; Peter C. Bruce; Peter Gedeck; Nitin R. Patel |
250 ## - MENCIÓN DE EDICIÓN | |
Mención de edición | 1 ed. |
260 ## - PUBLICATION, DISTRIBUTION, ETC. (IMPRINT) | |
Lugar de publicación distribución etc. | Estados Unidos de América : |
Nombre del editor distribuidor etc. | John Wiley & Sons, Inc. , |
Fecha de publicación distribución etc. | 2020. |
300 ## - DESCRIPCIÓN FÍSICA | |
Extensión | xxvii; 607 páginas : |
Otras características físicas | tablas, gráficas y mapas; |
500 ## - NOTA GENERAL | |
Nota general | PART I PRELIMINARIES CHAPTER 1 Introduction 3 1.1 What Is Business Analytics? . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 What Is Data Mining? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Data Mining and Related Terms . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.4 Big Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.5 Data Science . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.6 Why Are There So Many Different Methods? . . . . . . . . . . . . . . . . . . . 8 1.7 Terminology and Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.8 Road Maps to This Book . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 CHAPTER 2 Overview of the Data Mining Process 15 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Core Ideas in Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 The Steps in Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.4 Preliminary Steps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.5 Predictive Power and Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.6 Building a Predictive Model . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.7 Using Python for Data Mining on a Local Machine . . . . . . . . . . . . . . . . 44 2.8 Automating Data Mining Solutions . . . . . . . . . . . . . . . . . . . . . . . . 45 2.9 Ethical Practice in Data Mining . . . . . . . . . . . . . . . . . . . . . . . . . 47 PART II DATA EXPLORATION AND DIMENSION REDUCTION CHAPTER 3 Data Visualization 61 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.2 Data Examples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.3 Basic Charts: Bar Charts, Line Graphs, and Scatter Plots . . . . . . . . . . . . . 65 3.4 Multidimensional Visualization . . . . . . . . . . . . . . . . . . . . . . . . . . 74 3.5 Specialized Visualizations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 3.6 Summary: Major Visualizations and Operations, by Data Mining Goal . . . . . . . 93 CHAPTER 4 Dimension Reduction 99 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.2 Curse of Dimensionality . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.3 Practical Considerations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.4 Data Summaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.5 Correlation Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 4.6 Reducing the Number of Categories in Categorical Variables . . . . . . . . . . . 106 4.7 Converting a Categorical Variable to a Numerical Variable . . . . . . . . . . . . 108 4.8 Principal Components Analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.9 Dimension Reduction Using Regression Models . . . . . . . . . . . . . . . . . . 119 4.10 Dimension Reduction Using Classification and Regression Trees . . . . . . . . . . 119 PART III PERFORMAN CEEVALUATION CHAPTER 5 Evaluating Predictive Performance 125 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 5.2 Evaluating Predictive Performance . . . . . . . . . . . . . . . . . . . . . . . . 126 5.3 Judging Classifier Performance . . . . . . . . . . . . . . . . . . . . . . . . . . 131 5.4 Judging Ranking Performance . . . . . . . . . . . . . . . . . . . . . . . . . . 144 5.5 Oversampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 CHAPTER 6 Multiple Linear Regression 161 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 6.2 Explanatory vs. Predictive Modeling . . . . . . . . . . . . . . . . . . . . . . . 162 6.3 Estimating the Regression Equation and Prediction . . . . . . . . . . . . . . . . 164 6.4 Variable Selection in Linear Regression . . . . . . . . . . . . . . . . . . . . . 169 CHAPTER 7 k-Nearest Neighbors (kNN) 185 7.1 The k-NN Classifier (Categorical Outcome) . . . . . . . . . . . . . . . . . . . . 185 7.2 k-NN for a Numerical Outcome . . . . . . . . . . . . . . . . . . . . . . . . . . 193 7.3 Advantages and Shortcomings of k-NN Algorithms . . . . . . . . . . . . . . . . 195 CHAPTER 8 The Naive Bayes Classifier 199 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 8.2 Applying the Full (Exact) Bayesian Classifier . . . . . . . . . . . . . . . . . . . 201 8.3 Advantages and Shortcomings of the Naive Bayes Classifier . . . . . . . . . . . 210 CHAPTER 9 Classification and Regression Trees 217 9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 9.2 Classification Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 9.3 Evaluating the Performance of a Classification Tree . . . . . . . . . . . . . . . . 228 9.4 Avoiding Overfitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 9.5 Classification Rules from Trees . . . . . . . . . . . . . . . . . . . . . . . . . . 238 9.6 Classification Trees for More Than Two Classes . . . . . . . . . . . . . . . . . . 239 9.7 Regression Trees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 9.8 Improving Prediction: Random Forests and Boosted Trees . . . . . . . . . . . . 243 9.9 Advantages and Weaknesses of a Tree . . . . . . . . . . . . . . . . . . . . . . 246 CHAPTER 10 Logistic Regression 251 10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 10.2 The Logistic Regression Model . . . . . . . . . . . . . . . . . . . . . . . . . . 253 10.3 Example: Acceptance of Personal Loan . . . . . . . . . . . . . . . . . . . . . . 255 10.4 Evaluating Classification Performance . . . . . . . . . . . . . . . . . . . . . . 261 10.5 Logistic Regression for Multi-class Classification . . . . . . . . . . . . . . . . . 264 10.6 Example of Complete Analysis: Predicting Delayed Flights . . . . . . . . . . . . 269 CHAPTER 11 Neural Nets 283 11.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 11.2 Concept and Structure of a Neural Network . . . . . . . . . . . . . . . . . . . . 284 11.3 Fitting a Network to Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 11.4 Required User Input . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 11.5 Exploring the Relationship Between Predictors and Outcome . . . . . . . . . . . 299 11.6 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 11.7 Advantages and Weaknesses of Neural Networks . . . . . . . . . . . . . . . . . 305 CHAPTER 12 Discriminant Analysis 309 12.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 12.2 Distance of a Record from a Class . . . . . . . . . . . . . . . . . . . . . . . . 311 12.3 Fisher’s Linear Classification Functions . . . . . . . . . . . . . . . . . . . . . . 314 12.4 Classification Performance of Discriminant Analysis . . . . . . . . . . . . . . . 317 12.5 Prior Probabilities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 12.6 Unequal Misclassification Costs . . . . . . . . . . . . . . . . . . . . . . . . . 319 12.7 Classifying More Than Two Classes . . . . . . . . . . . . . . . . . . . . . . . . 319 12.8 Advantages and Weaknesses . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 CHAPTER 13 Combining Methods: Ensembles and Uplift Modeling 327 13.1 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328 13.2 Uplift (Persuasion) Modeling . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 13.3 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 CHAPTER 14 Association Rules and Collaborative Filtering 345 14.1 Association Rules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 14.2 Collaborative Filtering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 14.3 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 CHAPTER 15 Cluster Analysis 375 15.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 15.2 Measuring Distance Between Two Records . . . . . . . . . . . . . . . . . . . . 379 15.3 Measuring Distance Between Two Clusters . . . . . . . . . . . . . . . . . . . . 385 15.4 Hierarchical (Agglomerative) Clustering . . . . . . . . . . . . . . . . . . . . . 387 15.5 Non-Hierarchical Clustering: The k-Means Algorithm . . . . . . . . . . . . . . . 395 CHAPTER 16 Handling Time Series 407 16.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408 16.2 Descriptive vs. Predictive Modeling . . . . . . . . . . . . . . . . . . . . . . . 409 16.3 Popular Forecasting Methods in Business . . . . . . . . . . . . . . . . . . . . . 409 16.4 Time Series Components . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410 16.5 Data-Partitioning and Performance Evaluation . . . . . . . . . . . . . . . . . . 415 CHAPTER 17 Regression-Based Forecasting 423 17.1 A Model with Trend . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 17.2 A Model with Seasonality . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 17.3 A Model with Trend and Seasonality . . . . . . . . . . . . . . . . . . . . . . . 432 17.4 Autocorrelation and ARIMA Models . . . . . . . . . . . . . . . . . . . . . . . . 433 CHAPTER 18 Smoothing Methods 451 18.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452 18.2 Moving Average . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452 18.3 Simple Exponential Smoothing . . . . . . . . . . . . . . . . . . . . . . . . . . 457 18.4 Advanced Exponential Smoothing . . . . . . . . . . . . . . . . . . . . . . . . 460 CHAPTER 19 Social Network Analytics 473 19.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473 19.2 Directed vs. Undirected Networks . . . . . . . . . . . . . . . . . . . . . . . . 475 19.3 Visualizing and Analyzing Networks . . . . . . . . . . . . . . . . . . . . . . . 476 19.4 Social Data Metrics and Taxonomy . . . . . . . . . . . . . . . . . . . . . . . . 480 19.5 Using Network Metrics in Prediction and Classification . . . . . . . . . . . . . . 485 19.6 Collecting Social Network Data with Python . . . . . . . . . . . . . . . . . . . 491 19.7 Advantages and Disadvantages . . . . . . . . . . . . . . . . . . . . . . . . . 491 CHAPTER 20 Text Mining 495 20.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496 20.2 The Tabular Representation of Text: Term-Document Matrix and “Bag-of-Words’’ . 496 20.3 Bag-of-Words vs. Meaning Extraction at Document Level . . . . . . . . . . . . . 497 20.4 Preprocessing the Text . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498 20.5 Implementing Data Mining Methods . . . . . . . . . . . . . . . . . . . . . . . 506 20.6 Example: Online Discussions on Autos and Electronics . . . . . . . . . . . . . . 506 20.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 510 CHAPTER 21 Cases 515 21.1 Charles Book Club . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 21.2 German Credit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522 21.3 Tayko Software Cataloger . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527 21.4 Political Persuasion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 531 21.5 Taxi Cancellations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535 21.6 Segmenting Consumers of Bath Soap . . . . . . . . . . . . . . . . . . . . . . . 537 21.7 Direct-Mail Fundraising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541 21.8 Catalog Cross-Selling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 544 21.9 Time Series Case: Forecasting Public Transportation Demand . . . . . . . . . . . 546 |
504 ## - NOTA DE BIBLIOGRAFÍA; ETC. | |
Nota de bibliografía etc. | Incluye referencias bibliográficas. |
505 ## - NOTA DE CONTENIDO CON FORMATO | |
Título | CHAPTER 1 Introduction. -- |
-- | CHAPTER 2 Overview of the Data Mining Process. -- |
-- | CHAPTER 3 Data Visualization. -- |
-- | CHAPTER 4 Dimension Reduction. -- |
-- | CHAPTER 5 Evaluating Predictive Performance. -- |
-- | CHAPTER 6 Multiple Linear Regression. -- |
-- | CHAPTER 7 k-Nearest Neighbors (kNN). -- |
-- | CHAPTER 8 The Naive Bayes Classifier. -- |
-- | CHAPTER 9 Classification and Regression Trees. -- |
-- | CHAPTER 10 Logistic Regression. -- |
-- | CHAPTER 11 Neural Nets. -- |
-- | CHAPTER 12 Discriminant Analysis. -- |
-- | CHAPTER 13 Combining Methods: Ensembles and Uplift Modeling. -- |
-- | CHAPTER 14 Association Rules and Collaborative Filtering. -- |
-- | CHAPTER 15 Cluster Analysis. -- |
-- | CHAPTER 16 Handling Time Series. -- |
-- | CHAPTER 17 Regression-Based Forecasting. -- |
-- | CHAPTER 18 Smoothing Methods. -- |
-- | CHAPTER 19 Social Network Analytics. -- |
-- | CHAPTER 20 Text Mining. -- |
-- | CHAPTER 21 Cases. -- |
520 ## - NOTA DE SUMARIO; ETC. | |
Sumario etc. | Este libro proporciona una guía profunda y detallada sobre técnicas fundamentales de minería de datos. El libro guía a los lectores a través del uso del software Python para desarrollar técnicas y modelos predictivos con el fin de describir y encontrar patrones en los datos. Los autores usan ejemplos interesantes del mundo real para desarrollar una comprensión teórica y práctica de los métodos clave de minería de datos, con un enfoque en el análisis en lugar de la programación. El libro incluye discusiones sobre las subrutinas de Python, lo que permite a los lectores trabajar de forma práctica con los datos proporcionados. A lo largo del libro, las aplicaciones de los temas discutidos centrarse en el problema empresarial como motivación y evitar la teoría estadística innecesaria. Los temas tratados incluyen series temporales, minería de texto y reducción de dimensiones. Cada capítulo concluye con ejercicios que permiten a los lectores ampliar su comprensión del material presentado. Más de una docena de casos que requieren su uso se presentan las diferentes técnicas de extracción de datos y un sitio web relacionado presenta más de dos docenas de conjuntos de datos, soluciones de ejercicios, diapositivas de PowerPoint y soluciones de casos |
526 ## - NOTA DE INFORMACIÓN SOBRE EL PROGRAMA DE ESTUDIO | |
Institución que aplica el campo | Unicoc |
Nombre del programa | Ingeniería De Sistemas |
Codigo SNIES del programa | 109967 |
546 ## - NOTA DE LENGUA | |
Nota de lengua | Inglés |
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA | |
Término de materia o nombre geográfico como elemento inicial | Procesamiento de datos |
9 (RLIN) | 10744 |
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA | |
Término de materia o nombre geográfico como elemento inicial | Minería de datos |
9 (RLIN) | 7113 |
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA | |
Término de materia o nombre geográfico como elemento inicial | Python (lenguaje de programación) |
9 (RLIN) | 10745 |
658 #0 - TÉRMINO DE INDIZACIÓN - OBJETIVO CURRICULAR | |
9 (RLIN) | 8220 |
Programa Académico | Programa de Ingeniería de Sistemas |
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA | |
9 (RLIN) | 10746 |
Nombre de persona | Bruce, Peter C. |
Término indicativo de función | autor |
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA | |
9 (RLIN) | 10747 |
Nombre de persona | Gedeck, Peter |
Término indicativo de función | autor |
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA | |
9 (RLIN) | 10748 |
Nombre de persona | Patel, Nitin R. |
Término indicativo de función | autor |
856 ## - LOCALIZACIÓN Y ACCESO ELECTRÓNICOS | |
Identificador Uniforme del Recurso (URI) | https://unicoceduco-my.sharepoint.com/:b:/g/personal/direccionbiblioteca_unicoc_edu_co/EcRjDo2hvy1BrWjOgv5p8NsBpfJqcThUJ6lSRYZBS3JxfA?e=9m1UC4 |
Texto del enlace | Acceso online exclusivo para comunidad Unicoc. |
942 ## - ENTRADA PARA ELEMENTOS AGREGADOS (KOHA) | |
Fuente de clasificación o esquema de ordenación en estanterías | |
Koha [por defecto] tipo de item | Libro electrónico |
Estropeado | Fuente de adquisición | Tipo de item de Koha | Localización permanente | Estado de pérdida | Fecha última consulta | Código de colección | Fecha de adquisición | Fuente de clasificación o esquema de ordenación en estanterías | Fecha del precio de reemplazo | No para préstamo | Código de barras | Localización actual |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Compra | Libro electrónico | Centro de Documentación (Clínica Odontológica Unicoc Bogotá) | 2024-03-07 | Coleccion Online | 2024-03-07 | 2024-03-07 | Ebook4784 | Centro de Documentación (Clínica Odontológica Unicoc Bogotá) |
© 2014 UNICOC | Institución Universitaria Colegios de Colombia - UNICOC
Bogotá D.C. Autopista Norte Km. 20. Teléfono:(571)6683535
Cali: Calle 13 Norte No. 3N-13. Teléfono: (572)6608887