Demuestra tus habilidades resolviendo problemas y creando al menos dos proyectos:
– Código Leet y HackerRank: Ambas plataformas para principiantes con preguntas de nivel fácil a medio para la resolución de problemas.
– Extracción de datos: escriba scripts de Python para extraer datos de sitios como soundcloud.com. Guarde los datos extraídos en archivos CSV o bases de datos SQL.
– Proyectos de juegos: Crea juegos como piedra, papel y tijera, el ahorcado o el tres en raya.
– Herramientas web sencillas: Desarrolle herramientas como un descargador de videos de YouTube, un bloqueador de sitios web o un reproductor de música.
Aloja estos proyectos en páginas de GitHub o GitHub para aprender el uso de Git.
estoy compartiendo mi Repositorio de Githubestaré publicando los más buscados Ciencia de los datos y análisis de datost Proyectos cada semana a partir de los conocimientos de mis otros colegas analistas de datos de otras empresas que los reclutadores esperan en cada currículum.
(Tiempo estimado: 2 meses)
El abastecimiento de datos es crucial en la ciencia de datos. Recopile datos de sitios web (si está permitido), API, bases de datos o repositorios públicos. Utilice bibliotecas como pandas y NumPy para limpiar y preparar los datos para el análisis.
Recursos para aprender a recopilar y limpiar datos:
– cubiertas freeCodeCamp Numpy, Pandas, Matplotlib y Seaborn.
– HackerEarth ofrece un tutorial práctico sobre manipulación de datos usando NumPy y Pandas.
– Kaggle proporciona Tutoriales gratuitos sobre Pandas y limpieza de datos..
(Tiempo estimado: 2 a 3 meses)
Domina el arte del análisis de datos y la narración. Extraiga conocimientos y comuníqueselos de forma eficaz a través de visualizaciones y una comunicación clara.
Temas para aprender:
– Análisis exploratorio de datos: Manejo de valores faltantes, valores atípicos, filtrado y análisis univariado/multivariado.
– Visualización de datos: Usando bibliotecas como Matplotlib, Seaborn y Plotly.
– Creación de tablero: Aprender a resumir y presentar datos para la toma de decisiones.
Recursos para el análisis de datos:
– Campamento de código gratuito ofrece gratis Curso de análisis de datos en Python.
– Portadas del “Análisis de datos usando Python” de Coursera de IBM manipulación de datos, análisis exploratorio y modelado básico.
– Kaggle proporciona interacción cursos de visualización de datos.
Además, libros recomendados para mejorar el producto. conocimiento y comercial perspicacia son: “Lo que importa se debe medir”, “Decodificar y tomar el control”, y “Superando la entrevista del primer ministro”.
Ideas de proyectos de análisis de datos:
1. Exploración del conjunto de datos de películas: Utilice conjuntos de datos de diversos dominios, como atención médica, finanzas, OMS, censos anteriores, comercio electrónico, etc., para realizar investigación exploratoria sobre conjuntos de datos de películas. Trate de descubrir patrones que conduzcan a películas exitosas y rentables.
2. Creación de tablero: Emplee los recursos mencionados anteriormente para crear paneles completos utilizando herramientas como cuadernos Jupyter, Excel o Cuadro. Presente conocimientos y visualizaciones de datos para ilustrar los hallazgos clave de manera efectiva.
3. Análisis sanitario:
Analice registros médicos para predecir resultados de enfermedades o identificar patrones en los datos de salud del paciente. Explore la accesibilidad a la atención médica en función de datos geográficos.
4.Análisis financiero:
Prediga los precios de las acciones o las tendencias del mercado utilizando datos financieros históricos. Analice los hábitos de gasto de los clientes o prediga las tasas de incumplimiento de los préstamos de una institución financiera.
5. Análisis de comercio electrónico:
Realizar segmentación de clientes para comprender el comportamiento de compra. Pronosticar la demanda de productos en función de los datos de ventas.
He creado un proyecto de análisis de datos que cubre todos Dominio para agregar más valor a su currículum. Siga mi cuenta para obtener más recursos,
Repositorio Github: Parvezshahshaik
La ingeniería de datos desempeña un papel fundamental en las empresas basadas en datos, ya que garantiza datos limpios para los equipos de investigación. Es un campo distinto, esencial para gestionar y optimizar los sistemas de datos.
Las responsabilidades clave incluyen el diseño de arquitecturas de datos eficientes, la racionalización del procesamiento de datos y el mantenimiento de sistemas de datos a gran escala. Los ingenieros de datos crean canalizaciones ETL, automatizan tareas del sistema de archivos y mejoran el rendimiento de la base de datos mediante Shell (CLI), SQL y Python/Scala.
Otra habilidad crucial es implementar estas estructuras, lo que requiere familiaridad con proveedores de servicios en la nube como Amazon Web Services, Google Cloud Platform, Microsoft Azure y otros.
Recursos de aprendizaje para ingeniería de datos:
– Nanogrado en ingeniería de datos de Udacity ofrece un curso integral que cubre los principios esenciales desde cero.
– La especialización Coursera de Google sobre ingeniería de datos, big data y aprendizaje automático en GCP lo guía a través de las API y los servicios de GCP para crear soluciones de datos completas.
Prepárese para las siguientes certificaciones/proyectos de ingeniería de datos:
– Aprendizaje automático certificado por AWS (Costo: $300): este examen supervisado de AWS agrega credibilidad a su perfil y evalúa su comprensión de los servicios de AWS y el aprendizaje automático.
PCG Certificación de ingeniero de datos profesional: Un examen supervisado por GCP que prueba su capacidad para desarrollar sistemas de procesamiento de datos, implementar modelos de aprendizaje automático y garantizar la calidad y la automatización de las soluciones.
(Aproximadamente 4 a 5 meses)
Las estadísticas constituyen la columna vertebral de la ciencia de datos. Las entrevistas a menudo enfatizan las estadísticas descriptivas e inferenciales, pero muchas se sumergen en la codificación de algoritmos de aprendizaje automático sin una comprensión sólida de los principios estadísticos subyacentes, un enfoque menos eficiente.
En Estadística Aplicada y Matemáticas, concéntrese en:
– Estadísticas descriptivas: Aprenda a resumir datos comprendiendo las estimaciones de ubicación (media, mediana, moda, estadísticas ponderadas y recortadas) y la variabilidad.
– Estadística inferencial: Diseñe pruebas de hipótesis, pruebas A/B, evalúe métricas comerciales e interprete hallazgos experimentales utilizando intervalos de confianza, valores p y valores alfa.
Comprensión álgebra lineal, cálculo simple y multivariadoy su papel en la pérdida funciones, gradientes y optimizadores en el aprendizaje automático es crucial.
Recursos para aprender estadística y matemáticas:
– Curso de YouTube de 8 horas de freeCodeCamp en estadísticas a nivel universitario ofrece un aprendizaje integral.
– Libro muy recomendado: “Estadística práctica para la ciencia de datos”: una guía completa con ejemplos y aplicaciones claros.
– “Estadísticas desnudas” es una guía no técnica que desmitifica el impacto de las estadísticas en la vida cotidiana, los deportes, los sistemas de recomendación, etc.
– “Pensamiento estadístico en Python”presenta técnicas y pensamientos estadísticos fundamentales.
– cursos de udacity incluir “Introducción a la estadística descriptiva” que cubre métricas de ubicación y variabilidad, y “Estadística inferencial”centrándose en hipótesis y pruebas comunes como pruebas t, ANOVA y regresión.
Para un buen comienzo, consulte la sección “Guía de estadísticas de ciencia de datos.
Ideas de proyectos de estadística:
1. Practica con los ejercicios del curso: Aplicar los conceptos aprendidos en los cursos mediante la resolución de ejercicios. Luego, explore conjuntos de datos públicos para aplicar conceptos estadísticos de manera práctica. Por ejemplo, analice los datos para determinar si la edad media de las madres que dan a luz en Boston es superior a 25 años con un nivel de significancia de 0,05.
2. Realizar mini experimentos: Involucre a compañeros o grupos en mini experimentos a través de una aplicación o preguntas de encuesta. Acumular datos suficientes a lo largo del tiempo y aplicar algoritmos estadísticos para el análisis. Aunque desafiante, es un proyecto intrigante.
3. Analizar datos financieros: Investigue los precios de las acciones o las criptomonedas y cree hipótesis basadas en rendimientos promedio u otras estadísticas. Utilice valores críticos para probar hipótesis y determinar si se acepta o rechaza la hipótesis nula.
(Aproximadamente 4 a 5 meses):
Una vez que haya comprendido los principios fundamentales, es hora de sumergirse en los algoritmos de aprendizaje automático avanzados. Esta fase de aprendizaje se puede dividir en tres categorías:
– Aprendizaje supervisado: Explore la regresión, los problemas de clasificación y varios modelos, como la regresión lineal, la regresión polinómica, Bayes ingenuo, KNN, modelos de árbol y modelos de conjuntos. Conozca las diferentes medidas de evaluación.
– Aprendizaje sin supervisión: Centrarse en técnicas de agrupamiento y reducción de dimensionalidad como PCA, agrupamiento de K-medias, agrupamiento jerárquico y mezclas gaussianas.
– Aprendizaje reforzado: Comprenda cómo la biblioteca TF-Agents ayuda a crear sistemas de autorrecompensa, construir redes Deep Q y más.
Recursos de aprendizaje automático:
– freeCodeCamp ofrece un completo curso gratuito sobre Aprendizaje automático en Python usando ScikitLearn.
– Recomendación de libro: “Aprendizaje automático práctico con Scikit-Learn, Keras y TensorFlow, segunda edición”- cubre teoría e implementaciones prácticas con ejercicios.
– Andrew Ng Curso de aprendizaje automático Es muy recomendable para una comprensión más profunda.
– Kaggle ofrece cursos interactivos sobre IIntroducción al aprendizaje automático y al aprendizaje por refuerzo.
Especialización en Aprendizaje Profundo:
Para aquellos interesados en profundizar en el aprendizaje profundo, es valioso completar la especialidad que ofrece deeplearning.ai y hacer referencia al libro “Hands-On”, especialmente para los desafíos de visión por computadora o procesamiento del lenguaje natural.
Nota: El aprendizaje profundo merece una hoja de ruta detallada por separado, que se tratará más adelante.
Esta descripción general toca la superficie del vasto panorama de la ciencia de datos. Para una comprensión más profunda, considere profundizar más en cada categoría, construyendo una comprensión más detallada.
Gracias por invertir su tiempo en mi artículo.
