Data Engineer - Streaming
직군
Data
경력사항
경력 5년 이상
고용형태
정규직
근무지
뤼튼테크놀로지스대한민국 서울특별시 서초구 서초대로77길 17, 14층

AI 유니콘의 ​기회, ​놓치지 ​마세요!

국내 최초, ​최대의 생성 AI 서비스 ​뤼튼에서 ​동료를 찾습니다.


역사적으로 ​새로운 기술 전환기 ​때 마다 ​가장 ​많은 소비자 ​접점을 ​보유한 ​서비스 회사들이 수십조 ​이상 ​규모의 테크 자이언트로 ​성장해왔습니다. ​인터넷과 ​모바일을 잇는 AI ​혁명 시기에 ​1300억원의 ​누적 투자 ​유치, ARR(연간 ​예상 ​매출) 300억, 월 ​2억건 이상의 ​생성량, 500만의 MAU를 보유한 뤼튼이 B2C 대표 주자로서의 역할을 수행하고 있습니다.


앞으로 MAU 500만에서 5000만까지의 초고속 성장을 함께할 동료를 찾습니다!


▪️ Data팀 소개

Data 팀은 데이터의 수집부터 활용까지 전 과정을 책임지는 핵심적인 역할을 수행하며, 비즈니스의 심장과 같은 실시간 데이터를 안정적으로 처리하는 파이프라인과 환경을 구축합니다.

그 중에서도 스트리밍을 담당하는 엔지니어는 수십개의 카프카 커넥터와 LLM 서비스에서 발생하는 대규모 자연어 텍스트 스트림을 포함한 하루 평균 1.3억건의 카프카 메시지가 흐르는 안정적인 스트리밍 플랫폼을 책임지는 역할에 집중합니다. 복잡한 데이터 문제를 해결하고, 실시간 기술의 모든 잠재력을 이끌어내는 도전에 함께할 스트리밍 데이터 전문가를 찾습니다.


▪️ 주요 업무

  • Kubernetes 환경에서 Strimzi를 기반으로 Kafka 클러스터 및 Kafka Connect 생태계를 안정적으로 운영합니다.
  • Kafka 프로듀서/컨슈머 애플리케이션을 개발하고 운영합니다.
  • Flink, Spark Streaming과 같은 분산 스트림 처리 프레임워크를 사용하여, 실시간 추천 및 이상 탐지 등 비즈니스 가치를 창출하는 데이터 애플리케이션을 개발하고 운영합니다.
  • 실시간 데이터 파이프라인의 처리량, 지연 시간 등을 면밀히 모니터링하고 지표화하여, 잠재적인 문제를 사전에 감지하고 해결합니다.


▪️ 자격요건

  • Java, Python 중 하나 이상의 언어를 이용한 데이터 처리 애플리케이션 개발에 능숙하신 분
  • 대규모 트래픽 환경에서 Kafka를 이용한 데이터 파이프라인 개발 및 운영 경험이 풍부하신 분
  • 스키마 레지스트리와 함께 Avro/Protobuf 같은 포맷으로 직렬화된 메시지를 다루는데 능숙하신 분
  • Flink 또는 Spark Streaming과 같은 분산 스트림 처리 프레임워크 사용 경험이 있으신 분
  • 분산 시스템 환경에서의 개발 및 트러블슈팅 경험이 있으신 분


▪️ 우대사항

  • Strimzi 기반 환경에서 Kafka Connect를 사용하여 데이터 파이프라인을 구축하고 운영해 본 경험이 있으신 분
  • 대규모 Kafka 클러스터를 직접 설계하고 운영해 본 경험이 있으신 분
  • MSA(Microservice Architecture) 환경에서 실시간 데이터 처리 경험이 있으신 분
  • Kubernetes 환경에서 스트리밍 애플리케이션을 운영해 본 경험이 있으신 분
  • Exactly-once processing, Watermark 등 스트림 처리의 고급 개념에 대한 깊은 이해가 있으신 분


▪️ 뤼튼 팀 합류 여정

  • 채용 과정은 ‘서류 전형 → 실무 인터뷰 → 컬처핏 인터뷰 → 대표 인터뷰 → 레퍼런스 체크 & 합격 안내’로 이루어지며 절차는 변경될 수 있습니다.
  • 본 포지션에 합격하시는 경우, 3개월의 수습 기간을 적용합니다.
  • 국가유공자 및 장애인 등 취업 보호 대상자는 관계 법령에 따라 우대합니다.
  • 연봉 협상과 입사 일정 조율은 최종 합격 이후 진행됩니다.
  • 입사 지원 서류에 허위 사실이 발견되는 경우, 채용 확정 이후에도 채용이 취소될 수 있습니다.
공유하기
Data Engineer - Streaming

AI 유니콘의 ​기회, ​놓치지 ​마세요!

국내 최초, ​최대의 생성 AI 서비스 ​뤼튼에서 ​동료를 찾습니다.


역사적으로 ​새로운 기술 전환기 ​때 마다 ​가장 ​많은 소비자 ​접점을 ​보유한 ​서비스 회사들이 수십조 ​이상 ​규모의 테크 자이언트로 ​성장해왔습니다. ​인터넷과 ​모바일을 잇는 AI ​혁명 시기에 ​1300억원의 ​누적 투자 ​유치, ARR(연간 ​예상 ​매출) 300억, 월 ​2억건 이상의 ​생성량, 500만의 MAU를 보유한 뤼튼이 B2C 대표 주자로서의 역할을 수행하고 있습니다.


앞으로 MAU 500만에서 5000만까지의 초고속 성장을 함께할 동료를 찾습니다!


▪️ Data팀 소개

Data 팀은 데이터의 수집부터 활용까지 전 과정을 책임지는 핵심적인 역할을 수행하며, 비즈니스의 심장과 같은 실시간 데이터를 안정적으로 처리하는 파이프라인과 환경을 구축합니다.

그 중에서도 스트리밍을 담당하는 엔지니어는 수십개의 카프카 커넥터와 LLM 서비스에서 발생하는 대규모 자연어 텍스트 스트림을 포함한 하루 평균 1.3억건의 카프카 메시지가 흐르는 안정적인 스트리밍 플랫폼을 책임지는 역할에 집중합니다. 복잡한 데이터 문제를 해결하고, 실시간 기술의 모든 잠재력을 이끌어내는 도전에 함께할 스트리밍 데이터 전문가를 찾습니다.


▪️ 주요 업무

  • Kubernetes 환경에서 Strimzi를 기반으로 Kafka 클러스터 및 Kafka Connect 생태계를 안정적으로 운영합니다.
  • Kafka 프로듀서/컨슈머 애플리케이션을 개발하고 운영합니다.
  • Flink, Spark Streaming과 같은 분산 스트림 처리 프레임워크를 사용하여, 실시간 추천 및 이상 탐지 등 비즈니스 가치를 창출하는 데이터 애플리케이션을 개발하고 운영합니다.
  • 실시간 데이터 파이프라인의 처리량, 지연 시간 등을 면밀히 모니터링하고 지표화하여, 잠재적인 문제를 사전에 감지하고 해결합니다.


▪️ 자격요건

  • Java, Python 중 하나 이상의 언어를 이용한 데이터 처리 애플리케이션 개발에 능숙하신 분
  • 대규모 트래픽 환경에서 Kafka를 이용한 데이터 파이프라인 개발 및 운영 경험이 풍부하신 분
  • 스키마 레지스트리와 함께 Avro/Protobuf 같은 포맷으로 직렬화된 메시지를 다루는데 능숙하신 분
  • Flink 또는 Spark Streaming과 같은 분산 스트림 처리 프레임워크 사용 경험이 있으신 분
  • 분산 시스템 환경에서의 개발 및 트러블슈팅 경험이 있으신 분


▪️ 우대사항

  • Strimzi 기반 환경에서 Kafka Connect를 사용하여 데이터 파이프라인을 구축하고 운영해 본 경험이 있으신 분
  • 대규모 Kafka 클러스터를 직접 설계하고 운영해 본 경험이 있으신 분
  • MSA(Microservice Architecture) 환경에서 실시간 데이터 처리 경험이 있으신 분
  • Kubernetes 환경에서 스트리밍 애플리케이션을 운영해 본 경험이 있으신 분
  • Exactly-once processing, Watermark 등 스트림 처리의 고급 개념에 대한 깊은 이해가 있으신 분


▪️ 뤼튼 팀 합류 여정

  • 채용 과정은 ‘서류 전형 → 실무 인터뷰 → 컬처핏 인터뷰 → 대표 인터뷰 → 레퍼런스 체크 & 합격 안내’로 이루어지며 절차는 변경될 수 있습니다.
  • 본 포지션에 합격하시는 경우, 3개월의 수습 기간을 적용합니다.
  • 국가유공자 및 장애인 등 취업 보호 대상자는 관계 법령에 따라 우대합니다.
  • 연봉 협상과 입사 일정 조율은 최종 합격 이후 진행됩니다.
  • 입사 지원 서류에 허위 사실이 발견되는 경우, 채용 확정 이후에도 채용이 취소될 수 있습니다.