글로벌 빅테크 경험을 한국 AI 혁신으로 연결해요 - 트릴리온랩스 Research Engineer
AI 기술이 급속도로 발전하는 가운데, 한국에서도 세계적 수준의 LLM(Large Language Model)을 사전학습부터 개발하는 스타트업이 있는데요. 트릴리온랩스는 특히 소규모의 작은 팀이 적은 자원으로도 효율적인 AI 모델을 만드는 독창적인 접근법으로 업계의 관심을 모으고 있어요. 글로벌 빅테크 경험을 바탕으로 트릴리온랩스에 합류한 Research Engineer 님을 만나, 세계적 수준의 AI 연구 현장에서의 경험과 도전에 대해 들어보았습니다.
안녕하세요! 간단히 자기소개 부탁드립니다.
캐나다 토론토대에서 학부를 마치고, 유럽에서 석사를 했습니다. 졸업 후에는 아마존 알렉사 팀과 벤츠 리서치 부문에서 근무했는데요, 음성 기반 AI 어시스턴트와 관련된 연구와 엔지니어링 경험을 주로 쌓았습니다.
캐나다나 미국에서 더 높은 연봉으로 커리어를 이어갈 수도 있었을 텐데 한국으로 돌아온 특별한 이유가 있나요?
개인적인 이유가 큰데요. 부모님이 은퇴하시고 한국으로 돌아오셨는데, 형도 해외에 있어서 부모님 곁을 지켜드리고 싶었어요. 마침 제가 하고 싶은 분야인 AI 리서치 기회가 한국에서는 점점 더 커지고 있던 시기라 자연스럽게 귀국을 결심하게 됐습니다.
캐나다는 학계 연구는 활발하지만, 산업계에서 대규모 AI 리서치 엔지니어링을 할 기회는 생각보다 적었습니다. 반면 한국은 AI 투자와 연구가 빠르게 늘어나고 있었기에 부모님 곁에 머물면서도 제가 하고 싶은 일을 할 수 있겠다 싶었죠.
하고 싶었던 일은 구체적으로 어떤 건가요?
‘리서치 엔지니어’를 하고 싶었는데요. 이 역할은 단순히 기존 기술을 구현하는 게 아니라, 최신 연구 동향을 빠르게 따라가고, 논문과 경험을 토대로 가설을 만들고 과학적 결정을 내려 실제 솔루션으로 만드는 일입니다. 모든 실험을 다 해볼 수는 없으니, 지식을 기반으로 어떤 방향으로 나아가야 할지를 추론해야 하죠. 저는 그 과정이 재미있고, 의미 있다고 생각했습니다. 특히 AI 같은 분야에서 학습을 처음부터 시킬 때 이 역할은 더욱 중요해집니다.
한국에 와서는 어떤 회사를 선택하셨나요?
현대차 자회사 포티투닷에 들어갔습니다. 아마존·벤츠에서 쌓은 대화형 AI 경험을 살릴 수 있었고, 무엇보다 여러 도전을 경험하며 경쟁력 있는 커리어를 만들고 싶었기에 대기업이 아닌 스타트업을 가고 싶었어요.
경험해 보니 어땠나요?
막상 들어가 보니 스타트업이라기보다는 대기업에 가까운 문화였습니다. 위계가 촘촘했고 정치도 많았죠. 무엇보다 리서치 엔지니어링보다는 소프트웨어 엔지니어링 비중이 크다 보니 제 성장을 제약하는 한계가 있었습니다. AI라는 산업 자체가 오래되지 않다 보니, 산업에 대한 이해도 부족으로 단기적이거나 즉각적인 의사결정으로 이어지는 경우도 많았고요.
그러다보니 제가 하고싶은 업무인 리서치 엔지니어가 아니라 소프트 엔지니어 업무를 하게 된 것에 대한 아쉬움이 컸습니다. 두 직무의 가장 큰 차이는 ‘모델의 학습’인데요. 소프트웨어 엔지니어는 주로 기존 모델을 잘 활용하는 데 집중하지만, 리서치 엔지니어는 학습과 실험을 통해 새로운 성과를 내야 합니다. 기존의 것을 더 잘 굴러가게 하는 것이 아닌 새로운 결과물에 대한 최적의 의사결정을 위해 배우고 탐구하는 과정 자체가 업무의 본질이라고 할 수 있죠.
트릴리온랩스에는 어떻게 합류하게 되었나요?
아마존 근무경험이 계기가 됐습니다. CEO이자 파운더이신 재민님과 직접 아는 사이는 아니었지만, 아마존 알렉사라는 같은 조직의 연구원으로로 일했기 때문에 서로 어떤 역량이 필요한지는 잘 알고 있었죠. 재민님이 먼저 연락을 주셔서 커피챗을 하며 이야기를 나눴는데, 제가 원하던 리서치 방향과 회사의 비전이 놀랍도록 잘 맞았습니다.
무엇보다 제가 정말 하고 싶었던 사전 학습(pre-training)과 사후 학습(post-training)을 직접 할 수 있는 환경이 마련돼 있었는데요. 내가 하는 업무가 실질적인 임팩트를 만들 수 있겠다고 생각했고, 이미 내부에 있는 동료들 또한 AI 분야에서 가장 최고의 커리어를 가진 분들이 모여있었어요. 커리어나 실력 측면에서도 경쟁력을 키울 수 있겠다 생각했고요. 거기에 세계적으로도 드문 풀스택 LLM 연구 환경을 갖추고 있어 지금이야말로 도전할 기회다라는 생각에 합류를 결심했습니다.
함께 일하는 동료들은 어떤가요?
이 부분이 아마 트릴리온랩스의 가장 큰 매력일 거예요.
솔직히 말해서, 이곳 동료들은 최고의 실력과 경험을 가진 엘리트들입니다. 국내외 빅테크와 연구기관에서 경력을 쌓은 사람들이 모였고, 각자 분야에서 깊은 전문성을 가지고 있어요. 한국에서 일하면서 답답했던 부분이 학위나 경력이 있어도 기본을 못 지키는 경우가 많았는데, 여기서는 모두가 문제 해결 의지로 움직입니다. “가장 효율적인 방법으로 베이스라인을 만들고, 그걸 발전시켜 나간다”는 리서치의 기본이 철저하게 지켜지는 연구환경이라고 할까요.
그런데 단순히 ‘잘한다’에 그치지 않습니다. 열정이 대단하고, 서로 배우려는 태도가 열려 있어요. 회의 때는 자유롭게 의견을 던지고, 날카로운 피드백도 주고받지만, 결국에는 가장 좋은 해답을 찾기 위해 다 같이 고민합니다.
덕분에 프로젝트가 끝날 때마다 “이 팀과 함께라면 불가능도 가능하겠다”는 확신이 생깁니다. 저도 매일 배우면서 성장하고 있다는 걸 실감해요.
글로벌 빅테크와 대기업, 한국 대기업의 자회사인 스타트업을 거쳐 합류하셨는데, 다른곳과 다른 트릴리온랩스의 연구문화도 궁금합니다.
저희는 토론을 굉장히 많이 하는 팀입니다. 대기업에서는 상상하기 힘든 문화죠. 정해진 미팅 시간이 아니어도 누군가 특정 프로젝트에 몰두하고 있으면, 팀원들이 자연스럽게 다가가서 "지금 뭐하고 있어요?"라고 묻고 바로 논의가 시작돼요. 이전 회사에서는 주로 위계에 따라 의견을 조심스럽게 전달하거나, 정해진 프로세스를 따라야 했는데, 여기서는 정말 다릅니다. 문제가 생기면 누구든 상관없이 머리를 맞대고 해결책을 찾아요. "A는 A다"라고 주장하기보다는, 서로의 의견을 듣고 날카로운 질문을 주고받으면서 가장 합리적인 답을 찾는 데 집중하죠.
자존심 싸움이나 불필요한 논쟁은 전혀 없어요. '어떻게 하면 이 문제를 가장 효율적으로 풀 수 있을까?' 이 하나의 목표를 향해 모든 논의가 이루어집니다.
정기적인 발표 세션도 있는데, 서로의 연구 결과를 공유하고 건설적인 피드백을 주고받아요. 이런 과정을 통해 단순히 일을 처리하는 것을 넘어서, 정말 최고의 결과물을 만들어내려는 의지가 팀 전체에 흐르고 있습니다. 이런 환경에서 일하다 보니 매일이 자극적이고, 계속 성장하고 있다는 걸 느껴요.
의견대립이 치열했던 경험이 있었나요?
가장 치열했던 논쟁 중 하나는 '모델의 크기' 문제였어요. 21B와 32B 모델 중 어떤 걸 학습시킬지 결정해야 했는데, 생각보다 복잡한 문제였습니다.
보통은 더 큰 모델인 32B가 성능이 좋다고 여겨지잖아요. 하지만 학습 시간과 비용이 어마어마하게 들어가는 게 문제였어요. 32B는 학습 속도가 훨씬 느려서 정해진 시간 안에 볼 수 있는 데이터양이 제한적이었고, 21B는 더 많은 데이터를 학습할 수 있지만 과연 우리가 원하는 수준의 추론 능력을 보여줄 수 있을지 확신이 서지 않았죠.
이게 단순히 숫자 비교가 아니라 저희의 기술적 방향성을 결정하는 중요한 갈림길이었어요. 오픈소스 모델들이 대부분 32B로 학습되다 보니 "우리도 당연히 32B로 가야 하는 거 아니야?"라는 의견도 있었고요.
하지만 계속 논의하다 보니 21B로도 충분히 훌륭한 성능을 낼 수 있다는 확신이 생겼습니다. 저희가 가진 기술로 스케일링을 좀더 efficient하게 만들수 있기때문에 21로도 충분히 가능하다고 판단했기 때문이에요. 실제 개발한 모델 또한 예상치를 뛰어 넘는 성능을 보여주었구요.
이런 경험이 저희 팀의 강점을 보여주는 것 같아요. 남들이 하는 대로 따라가는 게 아니라, 주어진 환경에서 최적의 결과를 내는 방법을 끊임없이 고민하거든요. 이번 일로 결국 우리는 주어진 환경에서 더 나은 기술을 만들어갈 수 있다는 자신감이 더 생겼습니다.
가장 힘들었던 순간과 짜릿했던 순간은요?
가장 어려웠던 순간은 저희가 확신했던 가설이 완전히 틀렸다는 걸 깨달았을 때였어요.
논문에서 검증된 '스케일링 법칙'이 있거든요. 모델 크기를 키우면 성능이 비례해서 좋아진다는 내용인데, 저희는 이걸 믿고 7B 모델에서 성공한 방식을 그대로 적용했어요. 데이터를 한 번 학습한 후 좋은 부분만 선별해서 다시 학습시키는 방식이었는데, 7B에서는 성능이 크게 향상됐거든요.
당연히 이 방식이 21B, 70B 같은 더 큰 모델에서도 통할 거라 생각했죠. 그런데 완전히 실패했습니다.
실패 원인은 뭐였나요?
나중에 분석해보니, 스케일링 법칙은 데이터를 바꾸지 않았을 때만 유효하더라고요. 모델이 커질수록 같은 데이터에서도 더 많은 걸 학습할 수 있어요. 7B는 좋은 데이터만 따로 뽑아서 다시 보여주면 효과가 있었지만, 이미 충분히 학습한 21B에서는 그 방식이 별로 소용없었던 거죠.
결국 큰 모델은 데이터를 훨씬 많이 봐야 한다는 걸 깨달았어요. 그런데 저희 목표는 적은 데이터로 효율적인 스케일업이거든요. 학계 방식과는 다른 길을 가야 하는 상황이었죠
그럼 그 문제를 어떻게 해결하셨나요?
바로 이 부분이 저희만의 기술력이라고 생각해요. 어떻게 해야 진짜 스케일링이 되는지를 저희만의 방식으로 파악했거든요. 같은 데이터를 써도 모델은 좋아지지만, 작은 모델에서 통했던 방식이 큰 모델에서는 왜 안 통하는지 그 원인을 찾아낸 게 핵심이었어요. 사실 이런 것들을 발견하고 또 문제를 해결하는 경험도 매우 짜릿해요.
그런데 역시 가장 짜릿했던 건 처음으로 모델을 세상에 공개했을 떄죠. 저희가 7B모델을 처음 내놓았을 때만해도 LLM 파운데이션 모델은 엄청난 자본과 인력, 데이터를 투입해도 하기 어렵다는 인식이 이미 한국을 지배하고 있을 때 였어요. 우리는 적은 인력과 비용으로도 LLM을 만들 수 있다는 가설을 7B모델을 통해 증명했습니다.
당시 저희는 설립된지 얼마 안 된 스타트업이라 외부에 많이 알려지진 않았지만 중국의 딥시크가 한 것과 비슷한 성과를 아주 짧은 시간에, 이렇게 소수의 팀이 해냈을 때 성취감은 말로 표현하기 어려울 만큼 뿌듯했습니다. 작은 팀이 세계적인 수준에 도전했다는 사실에 팀 모두가 정말 짜릿한 순간이었죠.
트릴리온랩스에서 일한다는 건, 어떤 의미인가요?
여기는 누가 시켜서 하는 게 아니라, 모두가 스스로 몰입하고 즐기면서 새로운 AI의 길을 만들어가고 있어요.
공통점을 꼽으라면, 우리는 모두 ‘문제 해결’에 집중하는 사람들인 것 같아요. 어떤 문제에 대한 풀고 싶어 하는 열정이 되게 큰 것 같고 그리고 그 문제를 잘 풀고 싶다에 대한 욕심이랄까 이런 욕구를 가진 분들이 모여서 결국 그 문제를 해결하고 또 해결하다보면 다른 회사와는 조금 다른 길, 다른 결과물을 만들게 되는 것 같아요.
마지막으로, 트릴리온랩스에서 이루고 싶은 꿈은 무엇인가요?
사실 처음 입사할 때만 해도 리서치 엔지니어로 다양한 경험과 실력을 쌓고 싶다는 생각이었고 사전학습을 처음부터 해볼 수 있다는 것만으로도 의미가 있다고 생각했는데요.
실제로 일을 하면서 그게 어떤 형태든 이제는 정말 대중들에게, 고객들이 필요로 하고 유용한 AI를 만들고 싶어요. 우리의 기술이, 우리가 만든 AI가 사람들의 실제 생활에 도움이 될 수 있고 그래서 정말 많은 사람들이 쓰게 된다면 개인의 커리어 성장을 넘어서 진짜 가치있는 일이 될거라 생각해요.