Quiero pasar de ser un desarrollador de Java a un desarrollador de Big Data y Hadoop. ¿Necesito tomar algún curso o debo aprenderlo por mi cuenta?

Hola,

Al ser un desarrollador de Java, tendrá una ventaja adicional mientras aprende Hadoop. Aunque Java no es obligatorio para aprender Hadoop, el conocimiento de Java le brinda una ventaja en ciertos escenarios, como la configuración de opciones avanzadas en MapReduce. MapReduce es un paradigma de programación para escribir su lógica en forma de funciones de mapeador y reductor.

Aquellos que tienen una gran capacidad de autoaprendizaje pueden elegir Hadoop por su cuenta utilizando excelentes recursos en línea que se enumeran a continuación. Para otros que prefieren cursos dirigidos por un instructor, también hay buenos cursos en línea.

Recursos gratuitos para autoaprendices

  1. Blog de Yahoo
  2. Guía definitiva de Hadoop
  3. Tutoriales de práctica de HortonWorks

El mayor desafío al que se enfrenta cualquier alumno de Hadoop es la práctica. Cuanto más practique, más práctica obtendrá con Hadoop y las tecnologías de Big Data relacionadas. Generalmente para practicar Hadoop, los alumnos descargan y configuran una máquina virtual provista por los principales proveedores de Hadoop como Hortownworks y Cloudera. Practicar Hadoop en una máquina virtual no te dará la experiencia del mundo real. También descargar, instalar y configurar la máquina virtual es un proceso doloroso. Algunas de las desventajas de las máquinas virtuales son

  1. Las máquinas virtuales son de gran tamaño, por ejemplo, la máquina virtual de HortonWorks es de 9 GB.
  2. Es posible que deba actualizar su RAM a 8 GB.
  3. Algunos BIOS no permiten la virtualización. Es posible que deba cambiar la configuración del BIOS.
  4. Es posible que algunas máquinas, como las computadoras de escritorio / portátiles de oficina, no permitan la instalación.

Puede usar CloudxLab para practicar Hadoop después de haber aprendido los conceptos de los recursos en línea anteriores. CloudxLab es un clúster virtual de Hadoop basado en la nube para practicar Hadoop y las tecnologías de Big Data relacionadas

Además de los recursos en línea anteriores, necesitará conocimientos básicos de Linux. Para resumir, puede aprender Hadoop por su cuenta siguiendo los recursos en línea anteriores y practicando mucho en un clúster de Hadoop.

Espero que esto ayude. Feliz aprendizaje !!

Big Data es oportuno : el 60% de cada día laboral, los trabajadores del conocimiento pasan intentando encontrar y administrar datos.

  • Big Data es accesible : la mitad de los altos ejecutivos informan que es difícil acceder a los datos correctos.
  • Big Data es holístico : la información se mantiene actualmente en silos dentro de la organización. Los datos de marketing, por ejemplo, se pueden encontrar en análisis web, análisis móvil, análisis social, CRM, herramientas de prueba A / B, sistemas de marketing por correo electrónico y más … cada uno centrado en su silo. Puede visitar este enlace más información: Big Data, Data Science – Clases de capacitación de cursos combinados en línea | Big Data, Data Science: curso combinado Cursos Datos en línea de fuentes tradicionales:
  • Big Data es confiable : el 29% de las empresas miden el costo monetario de la mala calidad de los datos. Cosas tan simples como monitorear múltiples sistemas para actualizaciones de información de contacto del cliente pueden ahorrar millones de dólares.
  • Big Data es relevante : el 43% de las empresas no está satisfecho con la capacidad de sus herramientas para filtrar datos irrelevantes. Algo tan simple como filtrar clientes de sus análisis web puede proporcionarle una gran cantidad de información sobre sus esfuerzos de adquisición.
  • Big Data es seguro : la violación de seguridad de datos promedio cuesta $ 214 por cliente. Las infraestructuras seguras que están construyendo los socios de hosting y tecnología de big data pueden ahorrarle a la compañía promedio un 1.6% de los ingresos anuales.
  • Big Data es Autorizado : el 80% de las organizaciones luchan con múltiples versiones de la verdad dependiendo de la fuente de sus datos. Al combinar múltiples fuentes examinadas, más compañías pueden producir fuentes de inteligencia altamente precisas.
  • Big Data es procesable : los datos obsoletos o incorrectos dan como resultado que el 46% de las empresas toman malas decisiones que pueden costar miles de millones.

En los viejos tiempos … ya sabes … hace unos años, utilizábamos sistemas para extraer, transformar y cargar datos (ETL) en almacenes de datos gigantes que tenían soluciones de inteligencia empresarial construidas sobre ellos para la presentación de informes. Periódicamente, todos los sistemas respaldarían y combinarían los datos en una base de datos donde se podrían ejecutar informes y todos podrían tener una idea de lo que estaba sucediendo.

El problema era que la tecnología de la base de datos simplemente no podía manejar múltiples flujos continuos de datos. No pudo manejar el volumen de datos. No pudo modificar los datos entrantes en tiempo real. Y faltaban herramientas de informes que no pudieran manejar nada más que una consulta relacional en el back-end. Las soluciones de Big Data ofrecen alojamiento en la nube, estructuras de datos altamente indexadas y optimizadas, capacidades automáticas de archivo y extracción, y las interfaces de informes se han diseñado para proporcionar análisis más precisos que permitan a las empresas tomar mejores decisiones.

Mejores decisiones comerciales significa que las empresas pueden reducir el riesgo de sus decisiones y tomar mejores decisiones que reducen los costos y aumentan la efectividad del marketing y las ventas.

Hola,

Sería muy fácil para usted ser un desarrollador de Java convertirse en un desarrollador de Big Data en realidad un desarrollador de Hadoop. Sugeriría ir a un curso en línea básico porque, aunque conoce todo lo relacionado con Java, también necesita comprender el funcionamiento principal del hadoop y su arquitectura. También sería genial si los desarrolladores de Java solo comprendan rápidamente la arquitectura hadoop y algunos comandos básicos de Linux. Aparte de ese descanso, puede hacerlo usted mismo como practicarlo y escribir códigos para cualquier lógica particular. Pero asegúrese de obtener primero toda la comprensión requerida de la arquitectura.

Espero que esto te sea útil.

Gracias.

Hay varios cursos y certificados para la prueba de habilidades. El riesgo con ‘aprenderlo por mi cuenta’ es el progreso no estructurado y la falsa confianza al implementar análisis complejos. El trabajo a nivel profesional requiere una comprensión sólida de la teoría, sus limitaciones, cómo optimizar y probar los resultados.

Me estoy inclinando hacia una combinación de cursos y proyectos personales como prueba de habilidad. Construir reputación a través de proyectos conjuntos es aún mejor.

Somos un grupo de apasionados geeks a quienes les encanta codificar y entrenar. Nuestras décadas de
La experiencia en la industria de TI (principalmente en el mundo de Big Data) nos ha permitido
para conectar los puntos entre la teoría y la práctica. Sabemos el
bombeo subterráneo y el meollo de los sistemas del mundo real. Tú
mencione algunas excepciones / errores y las posibilidades son – ¡hemos tratado con ellos!

Ofrecemos cursos de capacitación para big data y hadoop!

Visite Hadoop y Big Data Training para registrarse en una de nuestras próximas clases de prueba gratuita.

¡Gracias!

Aprende por tu cuenta. Hadoop es solo una aplicación Java y el hecho de que usted sea un desarrollador de Java sería una gran ventaja. No malgastes tu dinero en un instituto de capacitación que en realidad no enseña nada que sea fructífero en la vida real.

Deberá obtener la certificación de Cloudera o Hortonworks para Hadoop Developer. Puede tomar el curso / capacitación de cloudera, que le costará alrededor de $ 2995 (185836.61 INR). Será el entrenamiento de clase virtual como video conferencia.

Desarrollador Hadoop CCDH

Puedes escribirme [correo electrónico protegido] . Le reenviaré el conjunto completo de libros, video conferencia de hadoop, ciencia de datos y Java también con una hoja de ruta completa y también preguntas frecuentes.

¡No vayas por ningún curso! ¡Prueba y aprende que es fácil de manejar! Instale vm precompilado cloudera o hortonworks y comience a explorar. Sigue algunos buenos blogs. Teóricamente, hadoop es difícil pero prácticamente es muy fácil. Si estás cómodo en Java y SQL, entonces estás dentro.

Iniciar sesión o Registrarse / hadooplearningcenter

Aprende por tu cuenta para obtener conocimientos básicos inscribirte en cursos en coursera