000 -CABECERA | |
---|---|
Campo de control de longitud fija | 41944nam a22003137a 4500 |
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL | |
Campo de control | OSt |
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN | |
Campo de control | 20230804133658.0 |
008 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA | |
Campo de control de longitud fija | 230804t2023 xxu||||| |||| 00| 0 eng d |
020 ## - NÚMERO INTERNACIONAL NORMALIZADO PARA LIBROS (ISBN) | |
Número Internacional Normalizado para Libros (ISBN) | 9780128117606 |
040 ## - FUENTE DE LA CATALOGACIÓN | |
Centro que cataloga | Bogotá (Dr. David Ordóñez Rueda) - Campus Norte |
Centro catalogador de origen | Unicoc |
Lengua de catalogación | spa |
Centro modificador | Bogotá (Dr. David Ordóñez Rueda) - Campus Norte |
100 ## - PUNTO DE ACCESO PRINCIPAL - NOMBRE DE PERSONA | |
Nombre de persona | Han, Jiawei |
9 (RLIN) | 10749 |
245 ## - MENCIÓN DE TÍTULO | |
Título | Data Mining |
Subtitulo o Resto del título | : Concepts and Techniques |
Mención de responsabilidad etc. | / Jiawei Han; Jian Pei; Hanghang Tong |
250 ## - MENCIÓN DE EDICIÓN | |
Mención de edición | 4 ed. |
260 ## - PUBLICATION, DISTRIBUTION, ETC. (IMPRINT) | |
Lugar de publicación distribución etc. | Estados Unidos de América : |
Nombre del editor distribuidor etc. | Morgan Kaufmann Publishers; |
-- | Elsevier, |
Fecha de publicación distribución etc. | 2023. |
300 ## - DESCRIPCIÓN FÍSICA | |
Extensión | xxix; 752 páginas : |
Otras características físicas | ilustraciones, tablas y gráficas; |
500 ## - NOTA GENERAL | |
Nota general | CHAPTER 1 Introduction .................................................. 1 1.1 What is data mining? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Data mining: an essential step in knowledge discovery . ................. 2 1.3 Diversity of data types for data mining .............................. 4 1.4 Mining various kinds of knowledge ................................ 5 1.4.1 Multidimensional data summarization ........................ 6 1.4.2 Mining frequent patterns, associations, and correlations . . . ........ 6 1.4.3 Classification and regression for predictive analysis .............. 7 1.4.4 Cluster analysis ......................................... 9 1.4.5 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.4.6 Outlier analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.4.7 Are all mining results interesting? . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5 Data mining: confluence of multiple disciplines . . . . . . . . . . . . . . . . . . . . . . . 12 1.5.1 Statistics and data mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.5.2 Machine learning and data mining . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.5.3 Database technology and data mining . . . . . . . . . . . . . . . . . . . . . . . . 15 1.5.4 Data mining and data science . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.5.5 Data mining and other disciplines . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.6 Data mining and applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.7 Data mining and society . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.8 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.9 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.10 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 CHAPTER 2 Data, measurements, and data preprocessing ........................ 23 2.1 Data types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.1 Nominal attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.2 Binary attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1.3 Ordinal attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1.4 Numeric attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.1.5 Discrete vs. continuous attributes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Statistics of data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2.1 Measuring the central tendency . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2.2 Measuring the dispersion of data . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2.3 Covariance and correlation analysis . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.2.4 Graphic displays of basic statistics of data . . . . . . . . . . . . . . . . . . . . . 38 2.3 Similarity and distance measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.3.1 Data matrix vs. dissimilarity matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.3.2 Proximity measures for nominal attributes . . . . . . . . . . . . . . . . . . . . . 44 2.3.3 Proximity measures for binary attributes . . . . . . . . . . . . . . . . . . . . . . 46 2.3.4 Dissimilarity of numeric data: Minkowski distance . . . . . . . . . . . . . . 48 2.3.5 Proximity measures for ordinal attributes . . . . . . . . . . . . . . . . . . . . . . 49 2.3.6 Dissimilarity for attributes of mixed types . . . . . . . . . . . . . . . . . . . . . 50 2.3.7 Cosine similarity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 2.3.8 Measuring similar distributions: the Kullback-Leibler divergence . . . . 53 2.3.9 Capturing hidden semantics in similarity measures . . . . . . . . . . . . . . . 55 2.4 Data quality, data cleaning, and data integration . . . . . . . . . . . . . . . . . . . . . . . 55 2.4.1 Data quality measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.4.2 Data cleaning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.4.3 Data integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 2.5 Data transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.5.1 Normalization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 2.5.2 Discretization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 2.5.3 Data compression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 2.5.4 Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 2.6 Dimensionality reduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.6.1 Principal components analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.6.2 Attribute subset selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2.6.3 Nonlinear dimensionality reduction methods . . . . . . . . . . . . . . . . . . . 74 2.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 2.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.9 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 CHAPTER 3 Data warehousing and online analytical processing ................... 85 3.1 Data warehouse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.1.1 Data warehouse: what and why? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3.1.2 Architecture of data warehouses: enterprise data warehouses and data marts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 3.1.3 Data lakes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 3.2 Data warehouse modeling: schema and measures . . . . . . . . . . . . . . . . . . . . . . 96 3.2.1 Data cube: a multidimensional data model . . . . . . . . . . . . . . . . . . . . . 97 3.2.2 Schemas for multidimensional data models: stars, snowflakes, and fact constellations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.2.3 Concept hierarchies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.2.4 Measures: categorization and computation . . . . . . . . . . . . . . . . . . . . . 105 3.3 OLAP operations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.3.1 Typical OLAP operations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.3.2 Indexing OLAP data: bitmap index and join index . . . . . . . . . . . . . . . 108 3.3.3 Storage implementation: column-based databases . . . . . . . . . . . . . . . 111 3.4 Data cube computation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 3.4.1 Terminology of data cube computation . . . . . . . . . . . . . . . . . . . . . . . 113 3.4.2 Data cube materialization: ideas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 3.4.3 OLAP server architectures: ROLAP vs. MOLAP vs. HOLAP . . . . . . 117 3.4.4 General strategies for data cube computation . . . . . . . . . . . . . . . . . . . 119 3.5 Data cube computation methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 3.5.1 Multiway array aggregation for full cube computation . . . . . . . . . . . . 121 3.5.2 BUC: computing iceberg cubes from the apex cuboid downward . . . . 125 3.5.3 Precomputing shell fragments for fast high-dimensional OLAP . . . . . 129 3.5.4 Efficient processing of OLAP queries using cuboids . . . . . . . . . . . . . . 132 3.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 3.7 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 3.8 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 CHAPTER 4 Pattern mining: basic concepts and methods ........................ 145 4.1 Basic concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 4.1.1 Market basket analysis: a motivating example . . . . . . . . . . . . . . . . . . 145 4.1.2 Frequent itemsets, closed itemsets, and association rules . . . . . . . . . . 147 4.2 Frequent itemset mining methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 4.2.1 Apriori algorithm: finding frequent itemsets by confined candidate generation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 4.2.2 Generating association rules from frequent itemsets . . . . . . . . . . . . . . 153 4.2.3 Improving the efficiency of Apriori . . . . . . . . . . . . . . . . . . . . . . . . . . 155 4.2.4 A pattern-growth approach for mining frequent itemsets . . . . . . . . . . 157 4.2.5 Mining frequent itemsets using the vertical data format . . . . . . . . . . . 160 4.2.6 Mining closed and max patterns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 4.3 Which patterns are interesting?—Pattern evaluation methods . . . . . . . . . . . . . 163 4.3.1 Strong rules are not necessarily interesting . . . . . . . . . . . . . . . . . . . . . 163 4.3.2 From association analysis to correlation analysis . . . . . . . . . . . . . . . . 164 4.3.3 A comparison of pattern evaluation measures . . . . . . . . . . . . . . . . . . . 165 4.4 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 4.5 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 4.6 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 CHAPTER 5 Pattern mining: advanced methods ................................ 175 5.1 Mining various kinds of patterns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 5.1.1 Mining multilevel associations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 5.1.2 Mining multidimensional associations . . . . . . . . . . . . . . . . . . . . . . . . 179 5.1.3 Mining quantitative association rules . . . . . . . . . . . . . . . . . . . . . . . . . 180 5.1.4 Mining high-dimensional data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 5.1.5 Mining rare patterns and negative patterns . . . . . . . . . . . . . . . . . . . . . 185 5.2 Mining compressed or approximate patterns . . . . . . . . . . . . . . . . . . . . . . . . . . 187 5.2.1 Mining compressed patterns by pattern clustering . . . . . . . . . . . . . . . 187 5.2.2 Extracting redundancy-aware top-k patterns . . . . . . . . . . . . . . . . . . . . 189 5.3 Constraint-based pattern mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 5.3.1 Pruning pattern space with pattern pruning constraints . . . . . . . . . . . . 193 5.3.2 Pruning data space with data pruning constraints . . . . . . . . . . . . . . . . 196 5.3.3 Mining space pruning with succinctness constraints . . . . . . . . . . . . . . 197 5.4 Mining sequential patterns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 5.4.1 Sequential pattern mining: concepts and primitives . . . . . . . . . . . . . . 198 5.4.2 Scalable methods for mining sequential patterns . . . . . . . . . . . . . . . . 200 5.4.3 Constraint-based mining of sequential patterns . . . . . . . . . . . . . . . . . . 210 5.5 Mining subgraph patterns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 5.5.1 Methods for mining frequent subgraphs . . . . . . . . . . . . . . . . . . . . . . . 212 5.5.2 Mining variant and constrained substructure patterns . . . . . . . . . . . . . 219 5.6 Pattern mining: application examples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 5.6.1 Phrase mining in massive text data . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 5.6.2 Mining copy and paste bugs in software programs . . . . . . . . . . . . . . . 230 5.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 5.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 5.9 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 CHAPTER 6 Classification: basic concepts and methods ......................... 239 6.1 Basic concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 6.1.1 What is classification? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 6.1.2 General approach to classification . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 6.2 Decision tree induction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 6.2.1 Decision tree induction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 6.2.2 Attribute selection measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 6.2.3 Tree pruning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 6.3 Bayes classification methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 6.3.1 Bayes’ theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 6.3.2 Naïve Bayesian classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262 6.4 Lazy learners (or learning from your neighbors) . . . . . . . . . . . . . . . . . . . . . . . 266 6.4.1 k-nearest-neighbor classifiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 6.4.2 Case-based reasoning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 6.5 Linear classifiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 6.5.1 Linear regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 6.5.2 Perceptron: turning linear regression to classification . . . . . . . . . . . . . 272 6.5.3 Logistic regression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 6.6 Model evaluation and selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 6.6.1 Metrics for evaluating classifier performance . . . . . . . . . . . . . . . . . . . 278 6.6.2 Holdout method and random subsampling . . . . . . . . . . . . . . . . . . . . . 283 6.6.3 Cross-validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 6.6.4 Bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 6.6.5 Model selection using statistical tests of significance . . . . . . . . . . . . . 285 6.6.6 Comparing classifiers based on cost–benefit and ROC curves . . . . . . . 286 6.7 Techniques to improve classification accuracy . . . . . . . . . . . . . . . . . . . . . . . . 290 6.7.1 Introducing ensemble methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 6.7.2 Bagging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 6.7.3 Boosting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 6.7.4 Random forests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 6.7.5 Improving classification accuracy of class-imbalanced data . . . . . . . . 297 6.8 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 6.9 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 6.10 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 CHAPTER 7 Classification: advanced methods ................................. 307 7.1 Feature selection and engineering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 7.1.1 Filter methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 7.1.2 Wrapper methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 7.1.3 Embedded methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 7.2 Bayesian belief networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 7.2.1 Concepts and mechanisms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 7.2.2 Training Bayesian belief networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 317 7.3 Support vector machines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 7.3.1 Linear support vector machines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 7.3.2 Nonlinear support vector machines . . . . . . . . . . . . . . . . . . . . . . . . . . 324 7.4 Rule-based and pattern-based classification . . . . . . . . . . . . . . . . . . . . . . . . . . 327 7.4.1 Using IF-THEN rules for classification . . . . . . . . . . . . . . . . . . . . . . . 328 7.4.2 Rule extraction from a decision tree . . . . . . . . . . . . . . . . . . . . . . . . . . 330 7.4.3 Rule induction using a sequential covering algorithm . . . . . . . . . . . . . 331 7.4.4 Associative classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 7.4.5 Discriminative frequent pattern–based classification . . . . . . . . . . . . . . 338 7.5 Classification with weak supervision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 7.5.1 Semisupervised classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 7.5.2 Active learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 7.5.3 Transfer learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 7.5.4 Distant supervision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 7.5.5 Zero-shot learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 7.6 Classification with rich data type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 7.6.1 Stream data classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352 7.6.2 Sequence classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 7.6.3 Graph data classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 7.7 Potpourri: other related techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 7.7.1 Multiclass classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 7.7.2 Distance metric learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 7.7.3 Interpretability of classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364 7.7.4 Genetic algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 7.7.5 Reinforcement learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 7.8 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 7.9 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370 7.10 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374 CHAPTER 8 Cluster analysis: basic concepts and methods ....................... 379 8.1 Cluster analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 8.1.1 What is cluster analysis? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 8.1.2 Requirements for cluster analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 8.1.3 Overview of basic clustering methods . . . . . . . . . . . . . . . . . . . . . . . . 383 8.2 Partitioning methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385 8.2.1 k-Means: a centroid-based technique . . . . . . . . . . . . . . . . . . . . . . . . . 386 8.2.2 Variations of k-means . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388 8.3 Hierarchical methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 8.3.1 Basic concepts of hierarchical clustering . . . . . . . . . . . . . . . . . . . . . . 394 8.3.2 Agglomerative hierarchical clustering . . . . . . . . . . . . . . . . . . . . . . . . 397 8.3.3 Divisive hierarchical clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 8.3.4 BIRCH: scalable hierarchical clustering using clustering feature trees 402 8.3.5 Probabilistic hierarchical clustering . . . . . . . . . . . . . . . . . . . . . . . . . . 404 8.4 Density-based and grid-based methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 8.4.1 DBSCAN: density-based clustering based on connected regions with high density . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408 8.4.2 DENCLUE: clustering based on density distribution functions . . . . . . 411 8.4.3 Grid-based methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414 8.5 Evaluation of clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 8.5.1 Assessing clustering tendency . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 8.5.2 Determining the number of clusters . . . . . . . . . . . . . . . . . . . . . . . . . . 419 8.5.3 Measuring clustering quality: extrinsic methods . . . . . . . . . . . . . . . . . 420 8.5.4 Intrinsic methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 8.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 8.7 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 8.8 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 CHAPTER 9 Cluster analysis: advanced methods ............................... 431 9.1 Probabilistic model-based clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431 9.1.1 Fuzzy clusters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 9.1.2 Probabilistic model-based clusters . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 9.1.3 Expectation-maximization algorithm . . . . . . . . . . . . . . . . . . . . . . . . . 438 9.2 Clustering high-dimensional data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 9.2.1 Why is clustering high-dimensional data challenging? . . . . . . . . . . . . 441 9.2.2 Axis-parallel subspace approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . 445 9.2.3 Arbitrarily oriented subspace approaches . . . . . . . . . . . . . . . . . . . . . . 447 9.3 Biclustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 9.3.1 Why and where is biclustering useful? . . . . . . . . . . . . . . . . . . . . . . . . 448 9.3.2 Types of biclusters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450 9.3.3 Biclustering methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452 9.3.4 Enumerating all biclusters using MaPle . . . . . . . . . . . . . . . . . . . . . . . 453 9.4 Dimensionality reduction for clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454 9.4.1 Linear dimensionality reduction methods for clustering . . . . . . . . . . . 455 9.4.2 Nonnegative matrix factorization (NMF) . . . . . . . . . . . . . . . . . . . . . . 458 9.4.3 Spectral clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 460 9.5 Clustering graph and network data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 9.5.1 Applications and challenges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 9.5.2 Similarity measures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465 9.5.3 Graph clustering methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 470 9.6 Semisupervised clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475 9.6.1 Semisupervised clustering on partially labeled data . . . . . . . . . . . . . . 475 9.6.2 Semisupervised clustering on pairwise constraints . . . . . . . . . . . . . . . 476 9.6.3 Other types of background knowledge for semisupervised clustering . 477 9.7 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 9.8 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 9.9 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482 CHAPTER 10 Deep learning ................................................ 485 10.1 Basic concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485 10.1.1 What is deep learning? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485 10.1.2 Backpropagation algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 489 10.1.3 Key challenges for training deep learning models . . . . . . . . . . . . . . . . 498 10.1.4 Overview of deep learning architecture . . . . . . . . . . . . . . . . . . . . . . . 499 10.2 Improve training of deep learning models . . . . . . . . . . . . . . . . . . . . . . . . . . . . 500 10.2.1 Responsive activation functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 500 10.2.2 Adaptive learning rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 501 10.2.3 Dropout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504 10.2.4 Pretraining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 507 10.2.5 Cross-entropy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 509 10.2.6 Autoencoder: unsupervised deep learning . . . . . . . . . . . . . . . . . . . . . 511 10.2.7 Other techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514 10.3 Convolutional neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 10.3.1 Introducing convolution operation . . . . . . . . . . . . . . . . . . . . . . . . . . . 517 10.3.2 Multidimensional convolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 519 10.3.3 Convolutional layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523 10.4 Recurrent neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526 10.4.1 Basic RNN models and applications . . . . . . . . . . . . . . . . . . . . . . . . . 526 10.4.2 Gated RNNs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532 10.4.3 Other techniques for addressing long-term dependence . . . . . . . . . . . 536 10.5 Graph neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539 10.5.1 Basic concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 540 10.5.2 Graph convolutional networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541 10.5.3 Other types of GNNs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 545 10.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547 10.7 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548 10.8 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552 CHAPTER 11 Outlier detection .............................................. 557 11.1 Basic concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 557 11.1.1 What are outliers? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 558 11.1.2 Types of outliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559 11.1.3 Challenges of outlier detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 561 11.1.4 An overview of outlier detection methods . . . . . . . . . . . . . . . . . . . . . 562 11.2 Statistical approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565 11.2.1 Parametric methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565 11.2.2 Nonparametric methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 569 11.3 Proximity-based approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572 11.3.1 Distance-based outlier detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 572 11.3.2 Density-based outlier detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573 11.4 Reconstruction-based approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 576 11.4.1 Matrix factorization–based methods for numerical data . . . . . . . . . . . 577 11.4.2 Pattern-based compression methods for categorical data . . . . . . . . . . . 582 11.5 Clustering- vs. classification-based approaches . . . . . . . . . . . . . . . . . . . . . . . . 585 11.5.1 Clustering-based approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585 11.5.2 Classification-based approaches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 588 11.6 Mining contextual and collective outliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 590 11.6.1 Transforming contextual outlier detection to conventional outlier detection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 591 11.6.2 Modeling normal behavior with respect to contexts . . . . . . . . . . . . . . 591 11.6.3 Mining collective outliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 592 11.7 Outlier detection in high-dimensional data . . . . . . . . . . . . . . . . . . . . . . . . . . . 593 11.7.1 Extending conventional outlier detection . . . . . . . . . . . . . . . . . . . . . . 594 11.7.2 Finding outliers in subspaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595 11.7.3 Outlier detection ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596 11.7.4 Taming high dimensionality by deep learning . . . . . . . . . . . . . . . . . . . 597 11.7.5 Modeling high-dimensional outliers . . . . . . . . . . . . . . . . . . . . . . . . . . 599 11.8 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 600 11.9 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601 11.10 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602 CHAPTER 12 Data mining trends and research frontiers ........................... 605 12.1 Mining rich data types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605 12.1.1 Mining text data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605 12.1.2 Spatial-temporal data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 610 12.1.3 Graph and networks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 612 12.2 Data mining applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 617 12.2.1 Data mining for sentiment and opinion . . . . . . . . . . . . . . . . . . . . . . . . 617 12.2.2 Truth discovery and misinformation identification . . . . . . . . . . . . . . . 620 12.2.3 Information and disease propagation . . . . . . . . . . . . . . . . . . . . . . . . . 623 12.2.4 Productivity and team science . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 626 12.3 Data mining methodologies and systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629 12.3.1 Structuring unstructured data for knowledge mining: a data-driven approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629 12.3.2 Data augmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632 12.3.3 From correlation to causality . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635 12.3.4 Network as a context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637 12.3.5 Auto-ML: methods and systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 640 12.4 Data mining, people, and society . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642 12.4.1 Privacy-preserving data mining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642 12.4.2 Human-algorithm interaction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646 12.4.3 Mining beyond maximizing accuracy: fairness, interpretability, and robustness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648 12.4.4 Data mining for social good . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652 APPENDIX A Mathematical background ....................................... 655 A.1 Probability and statistics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655 A.1.1 PDF of typical distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 655 A.1.2 MLE and MAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 656 A.1.3 Significance test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 657 A.1.4 Density estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658 A.1.5 Bias-variance tradeoff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 659 A.1.6 Cross-validation and Jackknife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 660 A.2 Numerical optimization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661 A.2.1 Gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661 A.2.2 Variants of gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 662 A.2.3 Newton’s method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 664 A.2.4 Coordinate descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666 A.2.5 Quadratic programming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 666 A.3 Matrix and linear algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 668 A.3.1 Linear system Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 668 A.3.2 Norms of vectors and matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 669 A.3.3 Matrix decompositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 669 A.3.4 Subspace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 671 A.3.5 Orthogonality . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 672 A.4 Concepts and tools from signal processing . . . . . . . . . . . . . . . . . . . . . . . . . . . 673 A.4.1 Entropy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673 A.4.2 Kullback-Leibler divergence (KL-divergence) . . . . . . . . . . . . . . . . . . 674 A.4.3 Mutual information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675 A.4.4 Discrete Fourier transform (DFT) and fast Fourier transform (FFT) . . 676 A.5 Bibliographic notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 678 |
504 ## - NOTA DE BIBLIOGRAFÍA; ETC. | |
Nota de bibliografía etc. | Incluye referencias bibliográficas |
505 ## - NOTA DE CONTENIDO CON FORMATO | |
Título | CHAPTER 1 Introduction. -- |
-- | CHAPTER 2 Data, measurements, and data preprocessing. -- |
-- | CHAPTER 3 Data warehousing and online analytical processing. -- |
-- | CHAPTER 4 Pattern mining: basic concepts and methods. -- |
-- | CHAPTER 5 Pattern mining: advanced methods. -- |
-- | CHAPTER 6 Classification: basic concepts and methods. -- |
-- | CHAPTER 7 Classification: advanced methods. -- |
-- | CHAPTER 8 Cluster analysis: basic concepts and methods. - - |
-- | CHAPTER 9 Cluster analysis: advanced methods. -- |
-- | CHAPTER 10 Deep learning. -- |
-- | CHAPTER 11 Outlier detection. -- |
-- | CHAPTER 12 Data mining trends and research frontiers. -- |
520 ## - NOTA DE SUMARIO; ETC. | |
Sumario etc. | Minería de datos: conceptos y técnicas proporciona los conceptos y técnicas en el procesamiento de datos o información recopilados, que se utilizarán en diversas aplicaciones. Específicamente, explica la minería de datos y las herramientas utilizadas para descubrir conocimiento a partir de los datos recopilados. Este libro se conoce como descubrimiento de conocimiento a partir de datos (KDD). Se centra en la viabilidad, utilidad, eficacia y escalabilidad de las técnicas de grandes conjuntos de datos. Después de describir la minería de datos, esta edición explica los métodos de conocimiento, preprocesamiento, procesamiento y almacenamiento de datos. Luego presenta información sobre almacenes de datos, procesamiento analítico en línea (OLAP) y tecnología de cubo de datos. Luego, se describen los métodos involucrados en la extracción de patrones frecuentes, asociaciones y correlaciones para grandes conjuntos de datos. El libro detalla los métodos para la clasificación de datos e introduce los conceptos y métodos para la agrupación de datos. Los capítulos restantes analizan la detección de valores atípicos y las tendencias, aplicaciones y fronteras de investigación en la minería de datos. Este libro está destinado a estudiantes de Ciencias de la Computación, desarrolladores de aplicaciones, profesionales de negocios e investigadores que buscan información sobre minería de datos. Presenta docenas de algoritmos y ejemplos de implementación, todos en pseudocódigo y adecuados para su uso en proyectos de minería de datos a gran escala del mundo real. Aborda temas avanzados como la minería de bases de datos relacionales de objetos, bases de datos espaciales, bases de datos multimedia, bases de datos de bases de datos de texto, la World Wide Web y aplicaciones en varios campos Brinda una visión integral y práctica de los conceptos y técnicas que necesita para aprovechar al máximo sus datos |
526 ## - NOTA DE INFORMACIÓN SOBRE EL PROGRAMA DE ESTUDIO | |
Institución que aplica el campo | Unicoc |
Nombre del programa | Ingeniería De Sistemas |
Codigo SNIES del programa | 109967 |
546 ## - NOTA DE LENGUA | |
Nota de lengua | Inglés |
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA | |
Término de materia o nombre geográfico como elemento inicial | Procesamiento de datos |
9 (RLIN) | 10750 |
650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA | |
Término de materia o nombre geográfico como elemento inicial | Minería de datos |
9 (RLIN) | 7113 |
658 #0 - TÉRMINO DE INDIZACIÓN - OBJETIVO CURRICULAR | |
9 (RLIN) | 8220 |
Programa Académico | Programa de Ingeniería de Sistemas |
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA | |
9 (RLIN) | 10751 |
Nombre de persona | Pei, Jian |
Término indicativo de función | autor |
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA | |
9 (RLIN) | 10752 |
Nombre de persona | Tong, Hanghang |
Término indicativo de función | autor |
856 ## - LOCALIZACIÓN Y ACCESO ELECTRÓNICOS | |
Identificador Uniforme del Recurso (URI) | https://unicoceduco-my.sharepoint.com/:b:/g/personal/direccionbiblioteca_unicoc_edu_co/EZzUapzf4plEsUhfenawts0BeMlfBR8bc3ihfj84PvhkDQ?e=mmg7Ql |
Texto del enlace | Acceso online exclusivo para comunidad Unicoc. |
942 ## - ENTRADA PARA ELEMENTOS AGREGADOS (KOHA) | |
Fuente de clasificación o esquema de ordenación en estanterías | |
Koha [por defecto] tipo de item | Libro electrónico |
Código de barras | Fuente de clasificación o esquema de ordenación en estanterías | Estado de pérdida | Fecha de adquisición | Código de colección | Tipo de item de Koha | No para préstamo | Localización actual | Fecha última consulta | Fecha del precio de reemplazo | Fuente de adquisición | Localización permanente | Estropeado |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Ebook6391 | 2024-03-07 | Coleccion Online | Libro electrónico | Centro de Documentación (Clínica Odontológica Unicoc Bogotá) | 2024-03-07 | 2024-03-07 | Compra | Centro de Documentación (Clínica Odontológica Unicoc Bogotá) |
© 2014 UNICOC | Institución Universitaria Colegios de Colombia - UNICOC
Bogotá D.C. Autopista Norte Km. 20. Teléfono:(571)6683535
Cali: Calle 13 Norte No. 3N-13. Teléfono: (572)6608887