"Alibaba, 고급 추론 능력을 갖춘 LLM Marco-o1 공개! AI의 새로운 전쟁터를 연다!"


News Image
제목이 "Alibaba 연구자들이 고급 추론 능력을 갖춘 LLM Marco-o1을 공개하다"인 VentureBeat 기사에서는 Alibaba 연구팀의 최신 혁신인 Marco-o1 모델에 대해 다루고 있습니다. 이 모델은 대형 언어 모델(LLM)의 추론 능력을 향상시키기 위해 설계되었습니다.

주요 내용은 다음과 같습니다.

고급 추론 기술
Marco-o1은 추론 능력을 개선하기 위해 여러 가지 고급 기술을 사용합니다. 여기에는 다음이 포함됩니다:
- Chain-of-Thought (CoT) 파인튜닝 : 이 모델은 오픈소스 CoT 데이터셋과 Alibaba가 개발한 독점 합성 데이터를 조합하여 파인튜닝됩니다. 이 접근법은 인간의 사고 과정을 모방하여 점진적으로 해결책을 개발하는 방식을 취합니다.
- Monte Carlo Tree Search (MCTS) : MCTS를 통합하여 소프트맥스 적용 로그 확률에서 유도된 신뢰도 점수를 기반으로 여러 추론 경로를 탐색합니다. 이는 모델이 다양한 답변 옵션을 더 효율적으로 탐색하고 최상의 해결책을 위한 경로를 최적화하는 데 도움을 줍니다.

추론 행동 전략 및 반영 메커니즘
이 모델은 새로운 추론 행동 전략과 Marco-o1-MCTS Mini-Step이라는 반영 메커니즘을 포함합니다. 이는 MCTS 프레임워크 내에서 다양한 행동 세분화를 탐색하고 모델이 자신의 결정을 스스로 반성하도록 유도하여 복잡한 문제를 해결하는 능력을 향상시킵니다.

성능 및 적용
Marco-o1은 여러 데이터셋에서 정확도가 크게 향상되는 모습을 보였습니다. 예를 들어, MGSM 영어 데이터셋에서 6.17% 증가한 정확도를 달성했으며, MGSM 중국어 데이터셋에서는 5.60% 향상되었습니다. 이 모델은 특히 구어체 표현에 강점을 보이며 기계 번역 작업에서도 뛰어난 능력을 발휘하여 미묘한 의미를 이해하고 전달하는 능력을 보여주었습니다.

경쟁 위치
Marco-o1은 OpenAI의 o1과 경쟁할 수 있는 위치에 있으며, 이는 AIME 및 CodeForces와 같은 대회에서 우수한 성과를 보였습니다. Alibaba의 모델은 전통적인 영역에서 성능을 초과 달성하는 것뿐만 아니라 명확한 기준과 보상이 없는 더욱 도전적이고 개방적인 맥락으로 발전하는 것을 목표로 하고 있습니다.

미래 작업
연구자들은 Outcome Reward Modeling (ORM)과 Process Reward Modeling (PRM)을 통해 MCTS의 보상 신호를 개선하고, Marco-o1의 의사결정 프로세스를 파인튜닝하기 위한 강화 학습 기법을 탐색하여 모델을 더욱 개선할 계획입니다.

전반적으로 Marco-o1은 복잡한 실제 문제를 해결하고 대형 언어 모델의 해결책 공간을 확장하기 위해 혁신적인 기술을 활용하여 AI의 추론 능력에서 중요한 발전을 나타냅니다.