ML Researcher
yDeVUY
zeta
cd8TZH
ML리서치
1a8WHX
ML리서치
/u5j0s
hTGops
DvUa5s
W+7+Ss
hqff73
스캐터랩 - ScatterLab대한민국 서울특별시 성동구 왕십리로 125, 9층 스캐터랩

스캐터랩 ML ​Researcher ​의 ​이야기를 담았어요

매주 ​새로운 LLM 모델을 배포하는 ​제타의 ​AI 팀 ​이야기

유저들이 일주일에 12시간 ​사용하는 AI ​모델은 ​어떻게 만들어질까요?

https://blog.scatterlab.co.kr/interview-mlresearch


회사 ​및 ​제품 ​소개 : 스캐터랩 ​및 ​제타

스캐터랩은 2024년 ​4월 ​1일 ​새로운 AI B2C ​서비스인 '제타(zeta)'를 ​출시한 ​이후, 제품의 ​성장에 집중하고 ​있습니다. ​제타는 유저가 주인공이 ​되어 AI와 ​대화하며 캐릭터, 세계관, 상황이 실시간으로 변화하는 스토리 기반 엔터테인먼트 서비스입니다. 정해진 콘텐츠를 수동적으로 소비하는 것이 아니라, 유저가 선택하고 개입하며 자신만의 이야기를 능동적으로 만들어가는 경험을 제공합니다. 제타는 액티브 유저 기준 하루 평균 약 2시간, 주간 평균 8시간 이상의 사용 시간을 기록하고 있으며, 출시 이후 유저 수와 매출이 함께 성장 곡선을 그리고 있습니다.


현재 제타는 글로벌로 확장하고 있습니다. 일본에 출시된 제타는 한국과 유사한 수준의 높은 사용 시간을 보이고 있으며, 공격적인 마케팅과 현지화 전략을 통해 빠른 성장을 이어가고 있습니다. 최근 미국에도 서비스를 출시하여 다양한 문화권의 유저들이 제타의 스토리 경험을 즐기고 있습니다. 스캐터랩은 한국과 일본에서 축적한 성공 경험을 바탕으로, 글로벌 시장에서 AI 엔터테인먼트의 새로운 기준을 만들어가고자 합니다.



포지션 소개

제타는 유저가 주인공이 되어 자신만의 스토리를 만들어가는 AI 네이티브 엔터테인먼트 서비스입니다. 제타에서 가장 중요한 것은 유저가 상상한 플레이를 얼마나 설득력 있게 구현하느냐이며, 그 중심에는 서사와 캐릭터 경험을 정교하게 설계하는 AI가 있습니다.


스캐터랩의 ML Researcher는 실제 사용자 경험을 바탕으로 문제를 정의하고, 머신러닝 기술로 이를 해결함으로써 사용자의 몰입도를 높이고 경험을 혁신합니다. 단순히 모델의 성능을 개선하는 데 그치지 않고, 데이터 수집과 정제, 모델 학습과 평가, 실제 서비스 적용과 운영까지 전 과정을 연결해 제품의 성장에 실질적으로 기여합니다.


이 과정의 출발점은 언제나 제품입니다. ML Researcher는 기능 출시나 모델 업데이트 이후의 지표 변화뿐 아니라, 유저가 몰입하는 순간과 이탈이 발생하는 지점을 관찰하고 해석합니다. 원인을 기술적으로 설명 가능한 가설로 정리한 뒤, 실험과 분석을 통해 빠르게 검증하고 결과를 다시 제품 개선으로 이어갑니다.


제타는 자체 모델로 대부분의 트래픽을 감당하고 있으며, 자체 모델의 경쟁력은 제품에 쌓이는 양질의 데이터에서 나옵니다. 데이터의 품질을 집요하게 관리하고 더 나은 학습과 평가를 설계하기 위해 고민하는 데이터 중심의 사고가 곧 모델과 서비스의 경쟁력으로 이어집니다. 또한, 자체 모델뿐 아니라 다양한 ML 모델의 성능을 체계적으로 측정하고 지속적으로 추적하며, 이를 기반으로 최적화 방향을 결정합니다. 따라서 최신 기술을 빠르게 파악하는 것에 머무르지 않고, 이를 제타의 문제와 제약 조건에 맞게 재구성해 실제 업무에 적용할 수 있는 연구 및 엔지니어링 역량이 중요합니다.


제타는 새로운 장르를 개척하는 제품이기에 끊임없이 새로운 문제를 마주하고, 때로는 직관에 반하는 결과를 얻기도 합니다. 이때 유연한 사고를 바탕으로 가설을 빠르게 갱신하고 반복적인 실험으로 답을 찾아가며, 불확실성 속에서도 실행을 멈추지 않는 태도가 성과를 만듭니다.


제타의 성장은 한국어를 넘어 일본어, 영어 등 다양한 언어권으로 확장되고 있습니다. 한국어 모델에서 쌓은 경험을 바탕으로 다양한 언어 모델을 학습하고 현지 사용자 경험을 개선해 나가는 과정에서, 한국에서 검증한 방식을 글로벌로 확장해나가는 과정을 직접 경험할 수 있습니다.


주요 업무

스캐터랩의 ML Researcher는 제타 서비스의 핵심인 LLM의 학습부터 실제 서비스 서빙까지 이르는 전체 사이클을 주도합니다. 유저의 재미와 경험을 최우선 지표로 삼아, 제한된 자원 내에서 최고의 성능과 안정성을 갖춘 모델을 개발하기 위해 아래 업무를 수행합니다.

  • 최신 학습 방법론 적용: 제타 서비스에 최적화된 모델 구축을 위해 Continual Pre-training 및 SFT(Supervised Fine-tuning) 관련 최신 방법론을 탐색하고 적용합니다.
  • 유저 선호도 최적화: 제품 내 유저 선호도와 상호작용 데이터를 분석하여 RLHF, DPO, GRPO 등 다양한 Preference Optimization 기법을 적용하고, 유저와 밀접하게 정렬된 모델을 제공합니다.
  • 효율적인 서빙 전략 설계: 최소 비용으로 최대 성능을 내기 위해 Knowledge Distillation, Quantization-aware Training 등의 학습 방법론을 개발하고, Weight/KV Cache Quantization 등 캐시 친화적인 서빙 전략을 설계합니다.
  • 답변 품질 극대화: Model Ensemble, Rejection Sampling 등 여러 모델의 강점을 결합하는 전략을 연구하여 실제 서비스 환경에서의 응답 품질을 높입니다.
  • 모델 평가 방법론 개발: 다양한 방법론으로 개발되는 모델들을 빠르고 정확하게 평가하기 위해 A/B 테스트, Multi-armed Bandit(MAB), 자체 리더보드 등 실서비스 지표를 활용한 평가 시스템을 구축합니다.


필수 역량

  • AI 기술을 실제 제품에 적용하는 과정에 높은 관심을 가지고, 출시 이후에도 성능을 지속적으로 개선하며 고도화할 수 있는 분
  • AI/ML 분야에 대한 탄탄한 기본기를 바탕으로, 최소 한 가지 이상의 특정 도메인에 대해 깊이 있게 이해하고 관련 프로젝트 경험을 보유한 분
  • 문제를 명확하게 정의하고, 적절한 실험을 설계 및 수행한 뒤 결과를 분석해 인사이트를 도출하는 전 과정을 주도적으로 수행할 수 있는 분
  • PyTorch, TensorFlow 등 오픈소스 ML 프레임워크를 활용해 학습 파이프라인을 직접 구현하고 개선해 본 경험이 있으며, Python 기반으로 실험과 개발을 빠르게 반복할 수 있는 분

우대 역량

  • AI 기술을 활용한 제품이나 기능을 직접 개발·운영해 본 경험이 있거나, 실제 서비스 환경에서 발생하는 제약과 요구사항을 고려한 개선 경험이 있는 분
  • AI 관련 연구, 논문, 프로젝트를 주도적으로 이끌어 목표를 설정하고 실행 계획을 수립한 뒤, 결과물을 만들어 임팩트로 연결해 본 경험이 있는 분
  • NeurIPS, ICML, ICLR, CVPR, ICCV, ACL, EMNLP 등 주요 학회에 1저자로 논문을 게재했거나, Kaggle 등 관련 대회에서 수상하여 객관적으로 검증된 성과를 보유한 분
  • Hugging Face, DeepSpeed 등 AI/ML 생태계의 주요 오픈소스에 기여하여 실제로 코드와 커뮤니티에 기여한 경험이 있는 분
  • FSDP, DeepSpeed, Slurm 등을 활용하여 멀티 클러스터 환경에서의 분산 학습을 진행한 경험이 있는 분

채용 프로세스

  • 서류 전형 -> 리쿠르터 콜 -> 컬처 에세이 -> 직무 과제 -> 직무 면접 -> 컬처핏 면접 -> 처우 협의 -> 최종 합격


티타임 요청

지원하기에 앞서서 궁금한 점이 있으신가요? 편하게 티타임 요청해 주세요!

https://www.scatterlab.co.kr/ko/o/108669

+uEs0S
ML Researcher

스캐터랩 ML ​Researcher ​의 ​이야기를 담았어요

매주 ​새로운 LLM 모델을 배포하는 ​제타의 ​AI 팀 ​이야기

유저들이 일주일에 12시간 ​사용하는 AI ​모델은 ​어떻게 만들어질까요?

https://blog.scatterlab.co.kr/interview-mlresearch


회사 ​및 ​제품 ​소개 : 스캐터랩 ​및 ​제타

스캐터랩은 2024년 ​4월 ​1일 ​새로운 AI B2C ​서비스인 '제타(zeta)'를 ​출시한 ​이후, 제품의 ​성장에 집중하고 ​있습니다. ​제타는 유저가 주인공이 ​되어 AI와 ​대화하며 캐릭터, 세계관, 상황이 실시간으로 변화하는 스토리 기반 엔터테인먼트 서비스입니다. 정해진 콘텐츠를 수동적으로 소비하는 것이 아니라, 유저가 선택하고 개입하며 자신만의 이야기를 능동적으로 만들어가는 경험을 제공합니다. 제타는 액티브 유저 기준 하루 평균 약 2시간, 주간 평균 8시간 이상의 사용 시간을 기록하고 있으며, 출시 이후 유저 수와 매출이 함께 성장 곡선을 그리고 있습니다.


현재 제타는 글로벌로 확장하고 있습니다. 일본에 출시된 제타는 한국과 유사한 수준의 높은 사용 시간을 보이고 있으며, 공격적인 마케팅과 현지화 전략을 통해 빠른 성장을 이어가고 있습니다. 최근 미국에도 서비스를 출시하여 다양한 문화권의 유저들이 제타의 스토리 경험을 즐기고 있습니다. 스캐터랩은 한국과 일본에서 축적한 성공 경험을 바탕으로, 글로벌 시장에서 AI 엔터테인먼트의 새로운 기준을 만들어가고자 합니다.



포지션 소개

제타는 유저가 주인공이 되어 자신만의 스토리를 만들어가는 AI 네이티브 엔터테인먼트 서비스입니다. 제타에서 가장 중요한 것은 유저가 상상한 플레이를 얼마나 설득력 있게 구현하느냐이며, 그 중심에는 서사와 캐릭터 경험을 정교하게 설계하는 AI가 있습니다.


스캐터랩의 ML Researcher는 실제 사용자 경험을 바탕으로 문제를 정의하고, 머신러닝 기술로 이를 해결함으로써 사용자의 몰입도를 높이고 경험을 혁신합니다. 단순히 모델의 성능을 개선하는 데 그치지 않고, 데이터 수집과 정제, 모델 학습과 평가, 실제 서비스 적용과 운영까지 전 과정을 연결해 제품의 성장에 실질적으로 기여합니다.


이 과정의 출발점은 언제나 제품입니다. ML Researcher는 기능 출시나 모델 업데이트 이후의 지표 변화뿐 아니라, 유저가 몰입하는 순간과 이탈이 발생하는 지점을 관찰하고 해석합니다. 원인을 기술적으로 설명 가능한 가설로 정리한 뒤, 실험과 분석을 통해 빠르게 검증하고 결과를 다시 제품 개선으로 이어갑니다.


제타는 자체 모델로 대부분의 트래픽을 감당하고 있으며, 자체 모델의 경쟁력은 제품에 쌓이는 양질의 데이터에서 나옵니다. 데이터의 품질을 집요하게 관리하고 더 나은 학습과 평가를 설계하기 위해 고민하는 데이터 중심의 사고가 곧 모델과 서비스의 경쟁력으로 이어집니다. 또한, 자체 모델뿐 아니라 다양한 ML 모델의 성능을 체계적으로 측정하고 지속적으로 추적하며, 이를 기반으로 최적화 방향을 결정합니다. 따라서 최신 기술을 빠르게 파악하는 것에 머무르지 않고, 이를 제타의 문제와 제약 조건에 맞게 재구성해 실제 업무에 적용할 수 있는 연구 및 엔지니어링 역량이 중요합니다.


제타는 새로운 장르를 개척하는 제품이기에 끊임없이 새로운 문제를 마주하고, 때로는 직관에 반하는 결과를 얻기도 합니다. 이때 유연한 사고를 바탕으로 가설을 빠르게 갱신하고 반복적인 실험으로 답을 찾아가며, 불확실성 속에서도 실행을 멈추지 않는 태도가 성과를 만듭니다.


제타의 성장은 한국어를 넘어 일본어, 영어 등 다양한 언어권으로 확장되고 있습니다. 한국어 모델에서 쌓은 경험을 바탕으로 다양한 언어 모델을 학습하고 현지 사용자 경험을 개선해 나가는 과정에서, 한국에서 검증한 방식을 글로벌로 확장해나가는 과정을 직접 경험할 수 있습니다.


주요 업무

스캐터랩의 ML Researcher는 제타 서비스의 핵심인 LLM의 학습부터 실제 서비스 서빙까지 이르는 전체 사이클을 주도합니다. 유저의 재미와 경험을 최우선 지표로 삼아, 제한된 자원 내에서 최고의 성능과 안정성을 갖춘 모델을 개발하기 위해 아래 업무를 수행합니다.

  • 최신 학습 방법론 적용: 제타 서비스에 최적화된 모델 구축을 위해 Continual Pre-training 및 SFT(Supervised Fine-tuning) 관련 최신 방법론을 탐색하고 적용합니다.
  • 유저 선호도 최적화: 제품 내 유저 선호도와 상호작용 데이터를 분석하여 RLHF, DPO, GRPO 등 다양한 Preference Optimization 기법을 적용하고, 유저와 밀접하게 정렬된 모델을 제공합니다.
  • 효율적인 서빙 전략 설계: 최소 비용으로 최대 성능을 내기 위해 Knowledge Distillation, Quantization-aware Training 등의 학습 방법론을 개발하고, Weight/KV Cache Quantization 등 캐시 친화적인 서빙 전략을 설계합니다.
  • 답변 품질 극대화: Model Ensemble, Rejection Sampling 등 여러 모델의 강점을 결합하는 전략을 연구하여 실제 서비스 환경에서의 응답 품질을 높입니다.
  • 모델 평가 방법론 개발: 다양한 방법론으로 개발되는 모델들을 빠르고 정확하게 평가하기 위해 A/B 테스트, Multi-armed Bandit(MAB), 자체 리더보드 등 실서비스 지표를 활용한 평가 시스템을 구축합니다.


필수 역량

  • AI 기술을 실제 제품에 적용하는 과정에 높은 관심을 가지고, 출시 이후에도 성능을 지속적으로 개선하며 고도화할 수 있는 분
  • AI/ML 분야에 대한 탄탄한 기본기를 바탕으로, 최소 한 가지 이상의 특정 도메인에 대해 깊이 있게 이해하고 관련 프로젝트 경험을 보유한 분
  • 문제를 명확하게 정의하고, 적절한 실험을 설계 및 수행한 뒤 결과를 분석해 인사이트를 도출하는 전 과정을 주도적으로 수행할 수 있는 분
  • PyTorch, TensorFlow 등 오픈소스 ML 프레임워크를 활용해 학습 파이프라인을 직접 구현하고 개선해 본 경험이 있으며, Python 기반으로 실험과 개발을 빠르게 반복할 수 있는 분

우대 역량

  • AI 기술을 활용한 제품이나 기능을 직접 개발·운영해 본 경험이 있거나, 실제 서비스 환경에서 발생하는 제약과 요구사항을 고려한 개선 경험이 있는 분
  • AI 관련 연구, 논문, 프로젝트를 주도적으로 이끌어 목표를 설정하고 실행 계획을 수립한 뒤, 결과물을 만들어 임팩트로 연결해 본 경험이 있는 분
  • NeurIPS, ICML, ICLR, CVPR, ICCV, ACL, EMNLP 등 주요 학회에 1저자로 논문을 게재했거나, Kaggle 등 관련 대회에서 수상하여 객관적으로 검증된 성과를 보유한 분
  • Hugging Face, DeepSpeed 등 AI/ML 생태계의 주요 오픈소스에 기여하여 실제로 코드와 커뮤니티에 기여한 경험이 있는 분
  • FSDP, DeepSpeed, Slurm 등을 활용하여 멀티 클러스터 환경에서의 분산 학습을 진행한 경험이 있는 분

채용 프로세스

  • 서류 전형 -> 리쿠르터 콜 -> 컬처 에세이 -> 직무 과제 -> 직무 면접 -> 컬처핏 면접 -> 처우 협의 -> 최종 합격


티타임 요청

지원하기에 앞서서 궁금한 점이 있으신가요? 편하게 티타임 요청해 주세요!

https://www.scatterlab.co.kr/ko/o/108669