¿Es necesario tener una buena experiencia en Java para trabajar en Hadoop / big data?

Definitivamente no necesita tener ningún trabajo previo en Java para ser exitoso en Hadoop y Big Data. Puede trabajar muy cómodamente en los lenguajes de consulta de Pig & Hive sin absolutamente ninguna necesidad de Java.

Puede consultar el siguiente artículo que profundizará en este tema.

¿Necesita Java para aprender Hadoop?


También te sugiero que revises otros artículos disponibles en línea que te ayudarán a tomar una decisión si quieres aprender Big Data y Hadoop.

  • 10 razones por las que Big Data Analytics es el mejor movimiento profesional
  • ¿Necesita Java para aprender Hadoop?
  • 5 razones para aprender Hadoop
  • Curso de formación en línea de Big Data y Hadoop | Certificación Edureka

¡También es posible que desee ver algunos videos tutoriales gratuitos en línea solo para familiarizarse con lo que realmente es Big Data y cómo le ayudaría!

  • Big Data y Hadoop 1 | Tutorial Hadoop 1 | Tutorial de Big Data 1 | Tutorial de Hadoop para principiantes – 1
  • Big Data y Hadoop 2 | Tutorial de Hadoop 2 | Tutorial de Big Data 2 | Tutorial de Hadoop para principiantes – 2
  • Introducción a Big Data y Hadoop | Rutas de aprendizaje de Big Data | Tutorial de Hadoop para principiantes

¡Espero que esto te ayude y responda tu pregunta!

¡Absolutamente no! Aprender Java no es obligatorio para desarrollar tu carrera en el dominio de Big Data. Todo lo que tienes que hacer es adquirir habilidades de big data que llevarán tu carrera a un nivel completamente nuevo. De hecho, la mayoría de los marcos de Big Data se desarrollan en Java, pero cualquier lenguaje de programación con la característica de entrada / salida estándar puede servir para el propósito. Te sugiero que vayas al curso de capacitación Big Data Hadoop de Intellipaat que ofrece clases de Java y Linux sin costo. No solo esto, recibirá capacitación en cuatro dimensiones diferentes de Hadoop, es decir, desarrollador, administrador, pruebas y analista. Mira el curso aquí:

Big Data Hadoop Training – Curso de certificación de Hadoop – Intellipaat

Al ser alumno de este instituto, he adquirido un conocimiento profundo junto con una rica experiencia práctica. Los entrenadores experimentados y expertos me han enseñado a elaborar muy bien cada aspecto. Gracias a Intellipaat por brindarme la oportunidad de desarrollar mi carrera en el dominio de Big Data.

Si bien Java no es necesario para algunos componentes del ecosistema de Hadoop como Hive y Pig, es útil para su comprensión profunda de Hadoop si tiene conocimiento de Java. Entonces podrás entenderlo de manera holística y profunda como se supone que debe ser.

El Mercado del Reino Unido para cursos en línea y capacitación en TI organizará un evento en línea para Introducción a Big Dat & Hadoop . ¡La mejor parte es que es absolutamente gratis! . Está dirigido a beneficiar a principiantes y principiantes que buscan desarrollar una carrera en este campo.

Habrá una explicación detallada sobre Big Data y las soluciones actuales para manejar grandes datos y bases de datos.

Luego estará expuesto a Hadoop y sus herramientas y técnicas como Sqoop, Oozie, cerdo, colmena, HBase, Cassandra. Este evento también incluirá un resumen de los servicios web de Amazon (nube) y mucho más.

En general, esto será como un curso intensivo en Hadoop y Big Data que lo ayudará con sus decisiones importantes de la vida.

También obtendrá su respuesta aquí si Java es necesario para Hadoop / Big Data o no.

No te pierdas esta oportunidad de oro que solo exige tu tiempo y nada más.

Tiempos de eventos:

Sáb 14 enero 2017

11:00 – 12:00 GMT

Enlaces al evento:

Confirmación vía Facebook Introducción a la ciencia de datos

Registro para este evento en EventBrite https://goo.gl/il6cmo

Esperamos su participación

No es obligatorio ser un experto en Java para convertirse en un desarrollador de hadoop. Con hadoop 2, no necesita escribir obligatoriamente el código MapReduce para el procesamiento de datos. Puede elegir cualquier herramienta de nivel superior como cerdo o colmena para un procesamiento por lotes similar. Sin embargo, el conocimiento de core java lo ayudará a comprender la reducción de mapas de una mejor manera.
Te sugiero que sigas la guía paso a paso para convertirte en desarrollador de Big Data.

Después de revisarlo, te recomendaría que revises los siguientes blogs.

Comprensión de Big Data: esto lo ayudará a comprender el ciclo de vida completo de un proyecto de Big Data.

Terminologías de Big Data: breve introducción sobre todos los componentes del ecosistema hadoop.

Instalación del clúster hadoop 2.X: todos los pasos y enlaces para descargar los softwares necesarios.

Ejecutando su primera aplicación hadoop.

Sumit Anand | Consultor de Big Data en AcadGild

No necesariamente. Si no eres bueno en Java, puedes elegir cualquier herramienta de consulta como HIVE para procesar datos en Hadoop. Pero la colmena básica tampoco es suficiente si quieres trabajar en proyectos en tiempo real. También debe tener conocimiento de ADVANCE Hive. Estoy compartiendo un enlace para la colmena avanzada.

https://www.udemy.com/hadoop-que

Si quiere ser un usuario experto del ecosistema Hadoop, es bueno tener experiencia con Java. La mayoría de las extensiones que escriba para el sistema (funciones personalizadas, tipos de datos, tipos de archivos, etc.) requerirán que use Java.

Para hacer el procesamiento de reducción de mapas, Hadoop le permitirá usar casi cualquier lenguaje (Python, Ruby, etc.) para implementar funciones de mapa / reducción. El idioma debe estar disponible en todo el clúster.

Si solo está utilizando Hive para consultar / transformar datos, entonces puede sobrevivir con algunas habilidades simples similares a SQL o extraer los datos en sus herramientas favoritas utilizando la conexión ODBC de Hive.

La mayoría de los trabajos escritos para Hadoop no estarán en Java, sino en Hive, Pig, Python, R u otros lenguajes de secuencias de comandos. Spark generalmente usará Scala. Dicho esto, para los componentes que se integran con el ecosistema hadoop es muy útil conocer Java. Si no tiene experiencia en Java, ayudaría al menos a poder entenderlo, y a medida que crezca en experiencia, puede considerar usarlo para ciertas partes de su aplicación, por ejemplo, UDF, Coprocesadores HBase personalizados, Acciones oozie personalizadas … etc.

Si !!! Java es imprescindible para hadoop, la reducción de mapas es el núcleo de cualquier proyecto basado en hadoop. Sin java, tendrá dificultades para comprender las cosas básicas en hadoop, incluso para colmena y java de cerdo.

Y todo lo anterior en la producción de rocas de Java con hadoop.

Para grandes proyectos de hadoop, necesita Java avanzado también para mejorar el marco de hadoop.