Trabajé 4 años en pruebas. No lo encuentro desafiante o interesante. Ahora quiero trabajar en Big Data y Hadoop como desarrollador. ¿Será un buen movimiento? ¿Puedo conseguir un trabajo en esta tecnología, siempre que mi experiencia haya sido en pruebas?

No hay requisitos previos predefinidos o estrictos para aprender Hadoop, pero la Capacitación integral de certificación de Big Data Hadoop puede ayudarlo a obtener un trabajo de Big data Hadoop si está listo para desarrollar una carrera en Big Data Domain.

Es una creencia errónea que solo los profesionales con experiencia en la programación de Java son aptos para aprender Big Data Hadoop o unirse a una carrera en este dominio. Un conocimiento básico de cualquier lenguaje de programación como Java, C ++ o Python, y Linux siempre es una ventaja adicional. Las siguientes personas pueden convertirse en un profesional de Big Data Hadoop, desarrolladores de software, arquitectos, analistas, DBA, analistas de datos, analistas de negocios, profesionales de Big Data o cualquier persona que esté considerando construir una carrera en Big Data y Hadoop es un candidato ideal para la formación Big Data y Hadoop.

Dice ha citado: “ Los profesionales de la tecnología deberían ser voluntarios para proyectos de Big Data, lo que los hace más valiosos para su empleador actual y más comercializables para otros empleadores.

“Las empresas están apostando fuerte que el aprovechamiento de los datos puede desempeñar un papel importante en sus planes competitivos, y eso está llevando a un alto salario por las habilidades críticas”, dijo Shravan Goli, presidente de Dice, en un estadista.

t.

Hola,
si observa que los programas de Hadoop inscritos son casi un 90% profesionales que trabajan para pruebas de software, IBM MainFrame o Java Developer. Todas estas tecnologías en algún momento pueden ser aburridas o menos oportunidades profesionales si se comparan otras tecnologías. Big Data Hadoop es ahora una tendencia. Si menciona en Google su consulta como trabajos en caliente en TI o las habilidades de TI más exigentes en 2015, se dará cuenta de que debe ser Big Data, Hadoop, Cloud, etc.

Elegir Hadoop no es una mala idea. Usted menciona que es un profesional de pruebas. Sugiero mover el desarrollador de Hadoop o el análisis de Hadoop incluso Data Scientist.

Pero si observó una llamada de entrevista de mercado, exigen 2 años de experiencia en Hadoop. Por lo tanto, prepárese para poner 2 años de experiencia en su currículum, de lo contrario, intente cambios internos de carrera en su organización si algún cliente es un proyecto de Hadoop. La mudanza interna del proyecto es la manera fácil de migrar una tecnología a otra.

Definitivamente, puede cambiar a la tecnología Big Data y Hadoop incluso después de ser un experto en pruebas de software. Muchas personas en la industria han hecho eso y han tenido éxito en cambiar sus carreras y conseguir un trabajo que les resulta realmente satisfactorio. Esto se debe a que para trabajar en Hadoop no es necesario tener experiencia previa en programación. Para profundizar en este módulo, le recomendaría que lea el siguiente artículo que le dice exactamente por qué mudarse a Big Data es un buen movimiento para un profesional de pruebas de software.

¿Por qué un ingeniero de pruebas de software debe aprender las tecnologías Big Data y Hadoop Ecosystem?

Además, también le recomendaría que lea algunos de los recursos gratuitos en línea que pueden ayudarlo a tomar una decisión para que pueda tomar una decisión informada:

  • 10 razones por las que Big Data Analytics es el mejor movimiento profesional
  • ¿Necesita Java para aprender Hadoop?
  • 5 razones para aprender Hadoop
  • Curso de formación en línea de Big Data y Hadoop | Certificación Edureka

¡También es posible que desee ver algunos videos tutoriales gratuitos en línea solo para familiarizarse con lo que realmente es Big Data y cómo lo ayudaría!

  • Big Data y Hadoop 1 | Tutorial Hadoop 1 | Tutorial de Big Data 1 | Tutorial de Hadoop para principiantes – 1
  • Big Data y Hadoop 2 | Tutorial de Hadoop 2 | Tutorial de Big Data 2 | Tutorial de Hadoop para principiantes – 2
  • Introducción a Big Data y Hadoop | Rutas de aprendizaje de Big Data | Tutorial de Hadoop para principiantes

¡Espero que esto ayude!

Sí. Definitivamente, puede cambiar a la tecnología Big Data y Hadoop, incluso después de ser un experto en pruebas de software, ya que esta es la tecnología más exigente actualmente y también estará allí durante décadas. Aprender esta tecnología y convertirse en desarrollador de Hadoop no es una tarea difícil. Todo lo que requiere es una dedicación de 1 a 2 meses por parte de usted y conocimientos prácticos que podrían obtenerse fácilmente después de hacer algunos POC y proyectos en vivo si es posible.

Mire el siguiente video para comenzar a aprender esta tecnología de tendencias ahora:

Además de esto, también puede comenzar a leer blogs en el siguiente enlace para ensuciarse las manos con esta tecnología y dar un impulso a su carrera:

  • ¿Por qué deberías aprender Big Data?
  • Comprender qué es Big Data: la palabra de moda más grande
  • Introducción a Hadoop: una guía completa para principiantes
  • Introducción a HDFS: el sistema de almacenamiento más confiable del mundo

Aprende más aquí..

El objetivo principal del análisis de big data es ayudar a las empresas a tomar decisiones comerciales más informadas al permitir que DATA Scientist, modeladores predictivos y otros profesionales de análisis analicen grandes volúmenes de datos de transacciones, así como otras formas de datos que la inteligencia comercial convencional puede aprovechar. (BI) programas. Big Data, Data Science – Clases de capacitación de cursos combinados en línea | Big Data, Data Science – Cursos combinados de cursos en línea

Eso podría incluir registros del servidor web y datos de Internet Click Stream, contenido de redes sociales e informes de actividad de redes sociales, texto de correos electrónicos de clientes y respuestas de encuestas, registros detallados de llamadas de teléfonos móviles y datos de máquinas capturados por sensores conectados a INTERNET. Algunas personas se asocian exclusivamente Big Data con datos semiestructurados y no estructurados de ese tipo, pero empresas consultoras como Gartner Inc.

y Forrester Research Inc. también considera que las transacciones y otros datos estructurados son componentes válidos de las aplicaciones de análisis de big data. Los datos grandes se pueden analizar con las herramientas de software comúnmente utilizadas como parte de las disciplinas de Advance Analytics, como la minería de datos de análisis preventivo, análisis de texto y estadísticas. Método.

El software de BI convencional y las herramientas de visualización también pueden desempeñar un papel en el proceso de análisis. Pero los datos semiestructurados y no estructurados pueden no encajar bien en el almacén de datos tradicional basado en la base de datos relacional. Además, es posible que los almacenes de datos no puedan manejar las demandas de procesamiento que plantean los conjuntos de grandes datos que deben actualizarse con frecuencia o incluso continuamente, por ejemplo, datos en tiempo real sobre el rendimiento de aplicaciones móviles o de oleoductos y gasoductos. Capacitación de Hadoop y capacitación de Big Data Certification en línea | Intellipaat

Como resultado, muchas organizaciones que buscan recopilar, procesar y analizar grandes datos han recurrido a una nueva clase de tecnologías que incluye Hadoop y herramientas relacionadas como Yarn Spook, Spark y Pig, así como bases de datos No Sql. Esas tecnologías forman el núcleo de un marco de software de código abierto que admite el procesamiento de conjuntos de datos grandes y diversos en algunos casos agrupados, Hadoop Cluster y No SQL systems se están utilizando como plataformas de aterrizaje y áreas de preparación de datos antes de que se cargue en los datos. almacén para el análisis, a menudo en forma resumida que es más propicio para las estructuras relacionales. Sin embargo, cada vez más, los proveedores de Big Data están impulsando el concepto de una toma de datos Hadoop que sirve como depósito central para un

flujos entrantes de datos sin procesar de la organización. En tales arquitecturas, los subconjuntos de datos se pueden filtrar para su análisis en almacenes de datos y bases de datos de análisis, o se pueden analizar directamente en Hadoop utilizando herramientas de consulta por lotes, software de procesamiento de flujo y tecnologías SQL y Hdoop que ejecutan consultas interactivas y ad hoc escritas en SQL Las posibles dificultades que pueden hacer tropezar a las organizaciones en iniciativas de análisis de big data incluyen la falta de habilidades analíticas internas y el alto costo de contratar profesionales analíticos experimentados. La cantidad de información que generalmente está involucrada, y su variedad, también pueden causar dolores de cabeza en la gestión de datos, incluidos la calidad de los datos y los problemas de coherencia. Además, integrar sistemas Hadoop y almacenes de datos puede ser un desafío,

aunque varios proveedores ahora ofrecen conectores de software entre Hadoop y bases de datos relacionales, así como otras herramientas de integración de datos con capacidades de big data. Las empresas están utilizando el poder de los conocimientos proporcionados por big data para establecer instantáneamente quién hizo qué, cuándo y dónde. El mayor valor creado por estos conocimientos oportunos y significativos de grandes conjuntos de datos es a menudo la toma de decisiones empresariales eficaces que permiten los conocimientos. Extrapolar conocimientos valiosos de cantidades muy grandes de datos estructurados y no estructurados de fuentes dispares en diferentes formatos requiere la estructura adecuada y Las herramientas adecuadas. Para obtener el máximo impacto comercial,

Este proceso también requiere una combinación precisa de personas, procesos y herramientas analíticas. Algunos de los beneficios comerciales potenciales de implementar una metodología efectiva de información de big data incluyen: Información oportuna de la gran cantidad de datos. Esto incluye aquellos que ya están almacenados en las bases de datos de la compañía, de fuentes externas de terceros, Internet, redes sociales y sensores remotos. Monitoreo y pronóstico en tiempo real de eventos que impactan el rendimiento o la operación del negocio Capacidad para encontrar, adquirir, extraer, manipular, analice, conecte y visualice datos con las herramientas de elección (SAP HANA, SAP Sybase®, SAP Intelligence Analysis para la aplicación del sector público de Palantir, Kapow®, Hadoop).

Convergencia de la solución BDI para la variedad con la velocidad de SAP HANA para la velocidad La capacidad de Hadoop para volúmenes de administrar grandes cantidades de datos, dentro o fuera de la nube, con validación y verificación. Identificar información significativa que puede mejorar la calidad de la decisión Mitigar el riesgo optimizando las decisiones complejas de eventos no planificados más rápidamente Aborda la velocidad y escalabilidad, movilidad y seguridad, flexibilidad y estabilidad Integración de datos estructurados y no estructurados El tiempo de obtención de información es crítico para extraer valor de varias fuentes de datos, incluidos dispositivos móviles, radiofrecuencia identificación (RFID),

la Web y una lista cada vez mayor de tecnologías sensoriales automatizadas Sap HANA proporciona el almacén de datos empresariales / empresariales extremadamente acelerado (BW / EDW) .Hadoop proporciona almacenamiento de datos confiable y procesamiento paralelo de datos de alto rendimiento, la capacidad de almacenar conjuntos de datos extremadamente grandes.

La nube es extensible, flexible, escalable, elástica, autorreparable, bajo demanda, etc. y proporciona la plataforma económica de hardware / software con todas las aplicaciones (como Kapok, SAP Intelligence Analysis para la aplicación del sector público por Palantir, CRM, SAP Sybase IQ, SAP Data Services con análisis de texto) para una aceleración rápida con requisitos de menor costo de capital. Hadoop es un marco de código abierto que permite almacenar y procesar grandes datos en un entorno distribuido en grupos de computadoras utilizando modelos de programación simples. Está diseñado para escalar desde servidores individuales a miles de máquinas, cada una de las cuales ofrece cómputo y almacenamiento local. Este breve tutorial proporciona una introducción rápida al Big Data, el algoritmo de reducción de mapas y el sistema de archivos distribuidos Hadoop. Hadoop es un marco de código abierto de Apache escrito en Java que permite el procesamiento distribuido de grandes conjuntos de datos en grupos de computadoras utilizando modelos de programación simples. Una aplicación con marco Hadoop funciona en un entorno que proporciona almacenamiento distribuido y cómputo en grupos de computadoras. Hadoop está diseñado para escalar de un solo servidor a miles de máquinas, cada una de las cuales ofrece computación y almacenamiento local.

Hadoop Common: Estas son bibliotecas y utilidades de Java requeridas por otros módulos de Hadoop. Estas bibliotecas proporcionan abstracciones a nivel del sistema de archivos y del sistema operativo y contienen los archivos y scripts Java necesarios para iniciar Hadoop.

Hadoop YARN: este es un marco para la programación de trabajos y la gestión de recursos de clúster.

Sistema de archivos distribuidos de Hadoop (HDFS ™): un sistema de archivos distribuido que proporciona acceso de alto rendimiento a los datos de la aplicación.

Hadoop Map Reduce: este es un sistema basado en YARN para el procesamiento paralelo de grandes conjuntos de datos. Hadoop

Map Reduce es un marco de software para escribir fácilmente aplicaciones que procesan grandes cantidades de datos en paralelo en grandes grupos (miles de nodos) de hardware Commodity de una manera confiable y tolerante a fallas. El término Map Reduce en realidad se refiere a los dos siguientes tareas que realizan los programas de Hadoop:

La tarea de mapa: esta es la primera tarea, que toma datos de entrada y los convierte en un conjunto de datos, donde los elementos individuales se dividen en tuplas (pares clave / valor).

La tarea Reducir: esta tarea toma la salida de una tarea de mapa como entrada y combina esas tuplas de datos en un conjunto más pequeño de tuplas. La tarea de reducción siempre se realiza después de la tarea de mapa. Normalmente, tanto la entrada como la salida se almacenan en un sistema de archivos. El marco se encarga de programar tareas, monitorearlas y volver a ejecutar las tareas fallidas. El marco de reducción de mapa consta de un solo maestro

Job Tracker y un esclavo

Rastreador de tareas por nodo de clúster. El maestro es responsable de la gestión de recursos, rastreando el consumo / disponibilidad de recursos y programando las tareas del componente de trabajos en los esclavos, monitoreándolos y volviendo a ejecutar las tareas fallidas. Los esclavos Task Tracker ejecutan las tareas según lo indicado por el maestro y proporcionan información del estado de la tarea al maestro periódicamente. El Job Tracker es un punto único de falla para el servicio Hadoop Map Reduce, lo que significa que si Job Tracker se cae, todos los trabajos en ejecución son se detuvo

Sistema de archivos distribuidos de Hadoop Hadoop puede trabajar directamente con cualquier sistema de archivos distribuido montable, como Local FS, HFTP FS, S3 FS y otros, pero el sistema de archivos más común utilizado por Hadoop es el Sistema de archivos distribuidos de Hadoop (HDFS). El Sistema de archivos (HDFS) se basa en el Sistema de archivos de Google (GFS) y proporciona un sistema de archivos distribuido que está diseñado para ejecutarse en grandes grupos (miles de computadoras) de máquinas pequeñas de una manera confiable y tolerante a fallas. HDFS utiliza una arquitectura maestro / esclavo donde el maestro consiste en un solo

Nombre Nodo que gestiona los metadatos del sistema de archivos y uno o más Nodos de datos esclavos que almacenan los datos reales. Un archivo en un espacio de nombres HDFS se divide en varios bloques y esos bloques se almacenan en un conjunto de Nodos de datos. El nodo de nombre determina la asignación de bloques a los nodos de datos. Los nodos de datos se encargan de la operación de lectura y escritura con el sistema de archivos. También se encargan de la creación, eliminación y replicación de bloques en función de las instrucciones impartidas por Name Node.

HDFS proporciona un shell como cualquier otro sistema de archivos y hay una lista de comandos disponibles para interactuar con el sistema de archivos. Estos comandos de shell se tratarán en un capítulo separado junto con los ejemplos apropiados.

¿Cómo funciona Hadoop?

Etapa 1 Un usuario / aplicación puede enviar un trabajo al Hadoop (un cliente de trabajo hadoop) para el proceso requerido especificando los siguientes elementos: La ubicación de los archivos de entrada y salida en el sistema de archivos distribuido. Las clases de Java en forma de jar archivo que contiene la implementación del mapa y funciones de reducción. La configuración del trabajo mediante el establecimiento de diferentes parámetros específicos para el trabajo.

Etapa 2 El cliente de trabajo de Hadoop luego envía el trabajo (jar / ejecutable, etc.) y la configuración al Job Tracker, que luego asume la responsabilidad de distribuir el software / configuración a los esclavos, programar tareas y monitorearlas, proporcionando información de estado y diagnóstico al trabajo-cliente

Etapa 3 Los rastreadores de tareas en diferentes nodos ejecutan la tarea según la implementación de Map Reduce y la salida de la función reduce se almacena en los archivos de salida en el sistema de archivos.

Ventajas del marco Hadoop Hadoop permite al usuario escribir y probar rápidamente sistemas distribuidos. Es eficiente y distribuye automáticamente los datos y el trabajo a través de las máquinas y, a su vez, utiliza el paralelismo subyacente de los núcleos de la CPU. Hadoop no depende del hardware para proporcionar tolerancia a fallas y alta disponibilidad (FTHA), sino que la biblioteca de Hadoop en sí misma ha sido diseñada para detectar y manejar fallas en la capa de aplicación. Los servidores se pueden agregar o quitar del clúster dinámicamente y Hadoop continúa operando sin interrupción. Otra gran ventaja de Hadoop es que, además de ser de código abierto, es compatible en todas las plataformas, ya que está basado en Java.

Bro, relájate … Si estás pensando, entonces sería un movimiento genial … ¡No te preocupes! En big data o para ser precisos, hadoop está escrito en Java como su idioma principal. Pero no es necesario que conozca Java de antemano.
El ecosistema de Hadoop consta de ciertas herramientas como pig, colmena en las que puede usar fácilmente sus scripts o consultas SQL solo para procesar los datos de manera oportuna. De hecho, la verdad es que cada vez más compañías están recurriendo al uso de estas herramientas para procesar datos y no escribir trabajos innecesarios de MR para hacer eso.
También me gustaría destacar que si va a una entrevista, las personas a menudo consideran que las personas tienen conocimientos previos de Java. Si ha terminado con algunas pruebas de automatización, creo que eso no debería ser un problema para usted.

Todo lo mejor y ¡adelante!

Hola,

Hadoop es muy buen movimiento de carrera. Pero puede considerar algunas oportunidades más, como el lado de Data Analytics. Hay tantas herramientas avanzadas como Alteryx, Cassandra, Mongo DB y muchas más.

Solo aprender Hadoop no ayuda. necesitas tener otras habilidades como Hive, Map Reduce, Pig, Sqoop, etc. para hacer carrera en Hadoop.

eKnowledge Infotech: una oferta líder de pruebas de software y capacitación en análisis de datos en Bangalore. Tenemos sucursales en Vijay Nagar, Marathalli, Rajaji Nagar, BTM.

visítenos en http://www.eknowledgeinfotech.co.in

El ecosistema de Hadoop es muy grande, siendo una tecnología de código abierto, cada año nuevas herramientas se unen o reemplazan a las herramientas existentes.

Aprender hadoop y su ecosistema requiere mucha dedicación y práctica.

Nada puede garantizar tu trabajo. Según mi experiencia, encontrar trabajo en hadoop sin experiencia es poco difícil, ya que la mayoría del trabajo requiere al menos 2 años de experiencia en hadoop.

Aunque es duro pero no imposible. Ahora depende de ti cuán desesperadamente quieras hacer carrera en hadoop.

La vida comienza cuando te mudas de la zona de confort …

¡¡La mejor de las suertes!!

Teniendo en cuenta su experiencia hasta ahora en las pruebas, pasar al desarrollo sería un poco difícil. Sin embargo, no debería detenerte.

¿Sería un buen movimiento? – Esto depende de tu interés. Si está realmente interesado en trabajar en Big Data, sería genial. Este campo tiene un gran potencial y sería un excelente cambio de carrera.

Pero tenga en cuenta que tendría que esforzarse mucho más que el resto, ya que no tiene mucha experiencia en desarrollo.
Todo lo mejor !

Hola,

Gracias por A2A.

Como Hadoop tiene mucha demanda hoy en día y Todos quieren mudarse a Hadoop.

Si una persona no ha hecho la codificación antes, entonces creo que sería difícil para él / ella trabajar en Hadoop, ya que requiere conocimientos de SQL, Unix, Java para aprender Hadoop.

Como tiene 4 años de experiencia en Pruebas, le sugiero que se cambie a Big Data / Hadoop Testing Job. Aprenda y obtenga exposición del entorno de Hadoop / Big Data y más tarde si tiene ganas de pasar al Desarrollo, puede pasar al proyecto de Desarrollo.

Feliz aprendizaje.

Oye..

Cuatro años es mucho tiempo para decidir que nada es interesante y desafiante en las pruebas.

Pero me alegro de que finalmente lo descubras …

Lo siguiente es sobre hadoop … por favor desentierra en esto para saber si estás interesado en esto o no …

Usted está interesado en el desarrollo o no … ya que hace 4 años que ha trabajado en las pruebas … esta experiencia no contará de todos modos … es un nuevo comienzo para usted … no vaya con la corriente … esta vez todos están pensando en aprender hadoop y querer conseguir un buen trabajo en él … pero no vuelvas a cometer el mismo error que hiciste hace 4 años … así que investiga, trata de averiguar qué tipo de trabajo es, y serás capaz de hacer ese trabajo … muchas preguntas similares a esta … intente averiguar las respuestas de estas preguntas … y luego hágalo.

Con respecto a los trabajos y el futuro … es muy brillante en todos los campos si está interesado en él.

No diré que cambiar de Testing a Big Data Hadoop es fácil o difícil, pero requiere paciencia y pasión para aprender las cosas en Hadoop. No te rindas y nunca te instales en la zona de confort. Si mantiene esto, será uno en el mundo de Big Data Hadoop.

Big Data es algo con lo que todos quieren trabajar. Pero dada su experiencia en Pruebas, pasar al desarrollo no sería una cosa muy fácil. Conseguir un trabajo más reciente en algunas tecnologías es difícil a menos que conozca a alguien que pueda darle una oportunidad. Sugeriría hablar con su RRHH y explicarles sobre su interés.

Hadoop / big data son herramientas de gestión de datos. Tienes Hadoop hoy, mañana tendrás otra cosa.

Si desea ingresar el campo “datos”, primero entienda la ciencia de datos. No hay mucha gente que tenga conocimiento de esto, lo que será bueno para usted 🙂

Sí, puedes cambiar fácilmente a haddop.