000 | 04070nam a22002777a 4500 | ||
---|---|---|---|
003 | OSt | ||
005 | 20250218135352.0 | ||
008 | 250218t2023 xxu||||| |||| 00| 0 spa d | ||
040 |
_aUnicoc _bspa _c00001 _d00001 |
||
082 | _a006.3 | ||
100 |
_911593 _aGrus, Joel |
||
245 |
_aCiencia de datos desde cero _b: principios básicos con Python _c/ Joel Grus |
||
246 | _aData Science from Scratch | ||
250 | _a2 Ed. | ||
260 |
_aEspaña : _bAnaya , _c2023 |
||
300 |
_a478 Paginas _bIlustraciones, Cuadros |
||
505 |
_t1. El ascenso de los datos. -- _t¿Qué es la ciencia de datos o data science?. -- _tHipótesis motivadora: DataSciencester. -- _t2. Un curso acelerado de Python. -- _tEl zen de Python. -- _tFormato con espacios en blanco. -- _tFlujo de control. -- _tProgramación orientada a objetos. -- _t3. Visualizar datos. -- _tmatplotlib. -- _tGráficos de dispersión. -- _t4. Álgebra lineal. -- _tVectores/Matrices. -- _t5. Estadística. -- _tDescribir un solo conjunto de datos. -- _tLa paradoja de Simpson. -- _tCorrelación y causación. -- _t6. Probabilidad. -- _tDependencia e independencia. -- _tProbabilidad condicional. -- _tDistribuciones continuas. -- _tEl teorema central del límite. -- _t7. Hipótesis e inferencia. -- _tComprobación de hipótesis estadísticas. -- _tp-hacking o dragado de datos. -- _t8. Descenso de gradiente. -- _tLa idea tras el descenso de gradiente. -- _tLa idea tras el descenso de gradiente. -- _tDescenso de gradiente en minilotes y estocástico. -- _t9. Obtener datos. -- _tstdin y stdout. -- _tRaspado web. -- _tUtilizar API. -- _tJSON y XML. -- _tUtilizar una API no autenticada. -- _t10. Trabajar con datos. -- _t10. Trabajar con datos. -- _tUtilizar NamedTuples. -- _tReducción de dimensionalidad. -- _t11. Machine learning (aprendizaje automático). -- _tModelos. -- _tEl término medio entre sesgo y varianza. -- _t12. k vecinos más cercanos. -- _tEl modelo. -- _tLa maldición de la dimensionalidad. -- _t13. Naive Bayes. -- _tUn filtro de spam realmente tonto. -- _tUtilizar nuestro modelo. -- _t14. Regresión lineal simple. -- _tEstimación por máxima verosimilitud. -- _t15. Regresión múltiple. -- _tOtros supuestos del modelo de mínimos cuadrados. -- _tInterpretar el modelo. -- _tErrores estándares de coeficientes de regresión. -- _t16. Regresión logística. -- _tMáquinas de vectores de soporte. -- _t17. Árboles de decisión. -- _tCrear un árbol de decisión. -- _tAhora, a combinarlo todo. -- _t18. Redes neuronales. -- _tRedes neuronales prealimentadas. -- _t19. Deep learning (aprendizaje profundo). -- _tFunciones softmax y entropía cruzada. -- _tLa capa de abstracción. -- _t20. Agrupamiento (clustering). -- _t20. Agrupamiento (clustering). -- _tAgrupamiento jerárquico de abajo a arriba. -- _t21. Procesamiento del lenguaje natural. -- _tGramáticas. -- _tModelos de temas. -- _tRedes neuronales recurrentes. -- _t22. Análisis de redes. -- _tGrafos dirigidos y PageRank. -- _t23. Sistemas recomendadores. -- _tMétodo manual. -- _tFiltrado colaborativo basado en artículos. -- _tFactorización de matrices. -- _t24. Bases de datos y SQL. -- _tCREATE TABLE e INSERT. -- _tDELETE. -- _tNoSQL. -- _t25. MapReduce. -- _tEjemplo: Recuento de palabras. -- _tUn inciso: Combinadores. -- _t26. La ética de los datos. -- _tNo, ahora en serio, ¿qué es la ética de datos?. -- _tCompromiso entre precisión e imparcialidad. -- _tDatos sesgados. -- _t27. Sigamos haciendo ciencia de datos. -- _tIPython. -- _tscikit-learn. -- _tDeep learning (aprendizaje profundo). -- _tHacker News. |
||
526 | _5Unicoc | ||
546 | _aEspañol | ||
650 | 0 |
_910745 _aPython (lenguaje de programación) |
|
650 | 0 |
_911598 _aCiencia de Datos (Data Science) |
|
650 | 0 |
_96403 _aProgramación (Matemáticas) |
|
658 | 0 |
_98220 _aPrograma de Ingeniería de Sistemas |
|
856 |
_uhttps://unicoceduco-my.sharepoint.com/:b:/g/personal/direccionbiblioteca_unicoc_edu_co/EXIFBnk_O0pImxxiC6VLHoYB60PL49ARDmcUFfRcMaSDpg?e=TXES72 _yAcceso online exclusivo para comunidad Unicoc. |
||
942 |
_2ddc _cEBOOK |
||
999 |
_c10311 _d10311 |