← πŸ“š 이번 μ£Ό Weekly Digest둜 λŒμ•„κ°€κΈ°

DD-077 Recursive Multi-Agent Systems

arXiv: 2604.25917 κΈ°κ΄€: Stanford University Upvotes: 240 | Comments: 3 μˆœμœ„: 이번 μ£Ό Top 1


1. μ™œ 이 논문이 μ€‘μš”ν•œκ°€?

기쑴의 λ©€ν‹° μ—μ΄μ „νŠΈ μ‹œμŠ€ν…œ(Multi-Agent Systems)은 μ—μ΄μ „νŠΈ κ°„μ˜ ν˜‘λ ₯을 μœ„ν•΄ ν…μŠ€νŠΈλ₯Ό μ£Όκ³ λ°›μ•„μ•Ό ν–ˆκΈ° λ•Œλ¬Έμ— 속도가 느리고, 전체 μ‹œμŠ€ν…œμ„ ν†΅ν•©ν•˜μ—¬ ν•™μŠ΅μ‹œν‚€κΈ°κ°€ 맀우 μ–΄λ ΅λ‹€λŠ” ν•œκ³„κ°€ μžˆμ—ˆμŠ΅λ‹ˆλ‹€. 이 논문은 ν…μŠ€νŠΈ λŒ€μ‹  λͺ¨λΈμ˜ λ‚΄λΆ€ μƒνƒœμΈ 잠재 곡간(Latent Space)을 톡해 μ—μ΄μ „νŠΈλ“€μ΄ 직접 생각을 μ£Όκ³ λ°›κ²Œ ν•˜κ³ , 전체 μ‹œμŠ€ν…œμ„ ν•˜λ‚˜μ˜ μˆœν™˜ ꡬ쑰둜 ν•™μŠ΅μ‹œν‚€λŠ” RecursiveMASλ₯Ό μ œμ•ˆν•˜μ—¬ 이 문제λ₯Ό ν•΄κ²°ν–ˆμŠ΅λ‹ˆλ‹€. 이λ₯Ό 톡해 κ°œλ³„ μ—μ΄μ „νŠΈμ˜ λŠ₯λ ₯을 λ›°μ–΄λ„˜λŠ” μ‹œμŠ€ν…œ μ°¨μ›μ˜ μ§€λŠ₯이 효율적으둜 ν™•μž₯될 수 μžˆλŠ” 길을 μ—΄μ—ˆλ‹€λŠ” μ μ—μ„œ 맀우 μ€‘μš”ν•©λ‹ˆλ‹€.

2. 핡심 아이디어 μ‰½κ²Œ μ΄ν•΄ν•˜κΈ°

μΌμƒμƒν™œ λΉ„μœ 

이 λ…Όλ¬Έμ˜ 핡심 μ•„μ΄λ””μ–΄λŠ” β€˜μ „λ¬Έκ°€ νŒ€μ˜ ν…”λ ˆνŒŒμ‹œ νšŒμ˜β€™μ™€ κ°™μŠ΅λ‹ˆλ‹€. κΈ°μ‘΄ 방식은 μˆ˜ν•™μž, ν”„λ‘œκ·Έλž˜λ¨Έ, μž‘κ°€λ‘œ κ΅¬μ„±λœ νŒ€μ΄ 회의λ₯Ό ν•  λ•Œ, ν•œ μ‚¬λžŒμ΄ μ˜κ²¬μ„ 말둜 μ μ–΄μ„œ 쒅이에 λ„˜κ²¨μ£Όλ©΄, λ‹€λ₯Έ μ‚¬λžŒμ΄ κ·Έκ±Έ 읽고 μ΄ν•΄ν•œ λ’€ λ‹€μ‹œ μ μ–΄μ„œ λ„˜κ²¨μ£ΌλŠ” μ‹μ΄μ—ˆμŠ΅λ‹ˆλ‹€. 이 κ³Όμ •μ—μ„œ λ§ν•˜κ³ , 적고, μ½λŠ” μ‹œκ°„μ΄ λ‚­λΉ„λ©λ‹ˆλ‹€. 반면, 이 λ…Όλ¬Έμ˜ 방식(RecursiveMAS)은 각 μ „λ¬Έκ°€μ˜ 머리에 νŠΉλ³„ν•œ μž₯치(RecursiveLink)λ₯Ό λ‹¬μ•„μ„œ, 말둜 ν•˜μ§€ μ•Šκ³  머릿속 생각(잠재 μƒνƒœ)λ§Œμ„ μ„œλ‘œμ˜ λ‡Œμ— 직접 μ „μ†‘ν•˜λŠ” λ°©μ‹μž…λ‹ˆλ‹€. λ§ˆμ§€λ§‰ μ „λ¬Έκ°€μ˜ 생각이 λ‹€μ‹œ 첫 번째 μ „λ¬Έκ°€μ—κ²Œ λŒμ•„κ°€λ©°, νŒ€ 전체가 ν•˜λ‚˜μ˜ κ±°λŒ€ν•œ λ‡Œμ²˜λŸΌ μˆœκ³ ν•˜λ©° 닡을 점점 더 λ˜‘λ˜‘ν•˜κ²Œ 닀듬어 λ‚˜κ°‘λ‹ˆλ‹€.

단계별 λ™μž‘ κ³Όμ •

μ‹œμŠ€ν…œμ€ 크게 μ„Έ κ°€μ§€ λ‹¨κ³„λ‘œ μž‘λ™ν•©λ‹ˆλ‹€. 첫째, λ‚΄λΆ€ μˆœν™˜(Inner Link) λ‹¨κ³„μ—μ„œ 각 μ—μ΄μ „νŠΈλŠ” μžμ‹ μ΄ μƒμ„±ν•œ μƒκ°μ˜ 핡심(λ§ˆμ§€λ§‰ λ ˆμ΄μ–΄μ˜ νžˆλ“  μƒνƒœ)을 μΆ”μΆœν•˜μ—¬ 이λ₯Ό λ‹€μ‹œ μžμ‹ μ˜ μž…λ ₯으둜 λ„£μ–΄ 슀슀둜의 생각을 더 깊게 λ°˜μΆ”ν•©λ‹ˆλ‹€. λ‘˜μ§Έ, μ™ΈλΆ€ μ—°κ²°(Outer Link) λ‹¨κ³„μ—μ„œ μ—μ΄μ „νŠΈ Aκ°€ 닀듬은 생각을 ν…μŠ€νŠΈλ‘œ λ³€ν™˜ν•˜μ§€ μ•Šκ³ , κ³§λ°”λ‘œ μ—μ΄μ „νŠΈ B의 μž…λ ₯ μž„λ² λ”© 측으둜 μ£Όμž…ν•˜μ—¬ Bκ°€ A의 κ³ λ„ν™”λœ 생각을 λ°”νƒ•μœΌλ‘œ 일을 μ‹œμž‘ν•˜κ²Œ ν•©λ‹ˆλ‹€. μ…‹μ§Έ, 전체 μ‹œμŠ€ν…œ μˆœν™˜ λ‹¨κ³„μ—μ„œλŠ” λ§ˆμ§€λ§‰ μ—μ΄μ „νŠΈκ°€ 내놓은 κ²°κ³Όκ°€ λ‹€μ‹œ 첫 번째 μ—μ΄μ „νŠΈλ‘œ ν”Όλ“œλ°±λ˜μ–΄, μ—μ΄μ „νŠΈ νŒ€ 전체가 문제λ₯Ό ν•΄κ²°ν•  λ•ŒκΉŒμ§€ 이 과정을 λ°˜λ³΅ν•˜λ©° 닡을 μ •μ œν•΄ λ‚˜κ°‘λ‹ˆλ‹€.

핡심 μ•Œκ³ λ¦¬μ¦˜κ³Ό μˆ˜μ‹

ν•™μŠ΅μ€ 두 λ‹¨κ³„μ˜ 루프(Loop)둜 μ§„ν–‰λ©λ‹ˆλ‹€. λ¨Όμ € λ‚΄λΆ€ 루프(Inner Loop)μ—μ„œλŠ” 각 μ—μ΄μ „νŠΈκ°€ μ˜¬λ°”λ₯Έ 닡을 생각해낼 수 μžˆλ„λ‘, μ—μ΄μ „νŠΈκ°€ μƒμ„±ν•œ 잠재 생각(H)κ³Ό μ •λ‹΅ ν…μŠ€νŠΈ(y)λ₯Ό μž„λ² λ”©ν•œ κ°’ μ‚¬μ΄μ˜ 코사인 μœ μ‚¬λ„(Cosine Similarity)λ₯Ό μ΅œλŒ€ν™”ν•˜λŠ” λ°©μ‹μœΌλ‘œ RecursiveLinkλ₯Ό ν›ˆλ ¨ν•©λ‹ˆλ‹€. μˆ˜μ‹μœΌλ‘œλŠ” $\mathcal{L}{\mathrm{in}} = 1 - \cos(\mathcal{R}{\mathrm{in}}(H), \mathrm{Emb}_{\theta_i}(y))$와 같이 λ‚˜νƒ€λ‚΄λ©°, μ΄λŠ” μ—μ΄μ „νŠΈμ˜ 생각이 μ •λ‹΅κ³Ό 같은 λ°©ν–₯을 가리킀도둝 벑터λ₯Ό μ •λ ¬ν•˜λŠ” 역할을 ν•©λ‹ˆλ‹€. 이후 μ™ΈλΆ€ 루프(Outer Loop)μ—μ„œλŠ” μ—μ΄μ „νŠΈ κ°„μ˜ 연결을 μ΅œμ ν™”ν•˜μ—¬ 전체 μ‹œμŠ€ν…œμ˜ μ„±λŠ₯을 λŒμ–΄μ˜¬λ¦½λ‹ˆλ‹€.

3. μ‹€ν—˜ κ²°κ³Ό 뢄석

ν…ŒμŠ€νŠΈ 벀치마크

연ꡬ진은 μˆ˜ν•™ 및 과학적 μΆ”λ‘ (Mathematical and Scientific Reasoning), μ½”λ“œ 생성(Code Generation), 검색(Search) λ“± λ³΅μž‘ν•œ 사고가 ν•„μš”ν•œ λ‹€μ–‘ν•œ λ²€μΉ˜λ§ˆν¬μ—μ„œ RecursiveMAS의 μ„±λŠ₯을 κ²€μ¦ν–ˆμŠ΅λ‹ˆλ‹€. μ΄λŸ¬ν•œ μž‘μ—…μ€ 단일 λͺ¨λΈμ΄ ν•΄κ²°ν•˜κΈ° μ–΄λ ΅κ³  λ‹€μ–‘ν•œ μ „λ¬Έ 지식이 ν•„μš”ν•˜μ—¬ λ©€ν‹° μ—μ΄μ „νŠΈ μ‹œμŠ€ν…œμ˜ νš¨μœ¨μ„±μ„ μž…μ¦ν•˜κΈ°μ— μ ν•©ν•œ λ„λ©”μΈμž…λ‹ˆλ‹€.

κΈ°μ‘΄ SOTA λŒ€λΉ„ μ„±λŠ₯

μ‹€ν—˜ κ²°κ³Ό, RecursiveMASλŠ” ν…μŠ€νŠΈ 기반의 κΈ°μ‘΄ μ΅œμ‹  기술(SOTA) λŒ€λΉ„ μΌκ΄€λ˜κ²Œ 더 높은 정확도(Accuracy)λ₯Ό κΈ°λ‘ν–ˆμŠ΅λ‹ˆλ‹€. ꡬ체적인 μˆ˜μΉ˜λŠ” λ…Όλ¬Έμ˜ ν‘œλ₯Ό 톡해 확인해야 ν•˜κ² μ§€λ§Œ, λ‹¨μˆœνžˆ μ •λ‹΅λ₯ μ„ 높인 것을 λ„˜μ–΄μ„œ, μΆ”λ‘  κ³Όμ •μ—μ„œ λ°œμƒν•  수 μžˆλŠ” 였λ₯˜λ₯Ό μˆœν™˜ κ³Όμ •μ—μ„œ 슀슀둜 μˆ˜μ •ν•˜λ©° μ„±λŠ₯을 κ°œμ„ ν–ˆμŒμ„ λ³΄μ—¬μ£Όμ—ˆμŠ΅λ‹ˆλ‹€.

μ£Όλͺ©ν•  λ§Œν•œ μ„±κ³Ό

κ°€μž₯ 인상적인 점은 정확도 ν–₯μƒλΏλ§Œ μ•„λ‹ˆλΌ νš¨μœ¨μ„±μ˜ 획기적 κ°œμ„ μž…λ‹ˆλ‹€. μ—μ΄μ „νŠΈ κ°„μ˜ ν…μŠ€νŠΈ 생성 및 νŒŒμ‹± 과정을 μƒλž΅ν•˜κ³  잠재 μƒνƒœ(Latent State)λ₯Ό 직접 μ „λ‹¬ν•¨μœΌλ‘œμ¨, μΆ”λ‘  μ‹œκ°„(Inference Time)κ³Ό 토큰 μ‚¬μš©λŸ‰(Token Usage)을 크게 μ€„μ˜€μŠ΅λ‹ˆλ‹€.这意味着 즉, 더 λΉ λ₯Έ 속도와 더 적은 λΉ„μš©μœΌλ‘œ 더 λ˜‘λ˜‘ν•œ κ²°κ³Όλ₯Ό 얻을 수 μžˆμŒμ„ μž…μ¦ν•œ κ²ƒμž…λ‹ˆλ‹€.

4. ν•œκ³„μ κ³Ό ν–₯ν›„ 연ꡬ λ°©ν–₯

μ €μžκ°€ μ–ΈκΈ‰ν•œ ν•œκ³„

μ €μžλ“€μ€ 이둠적인 뢄석을 톡해 ν›ˆλ ¨ μ—­ν•™(Training Dynamics)의 μ•ˆμ •μ„±κ³Ό 계산 λ³΅μž‘λ„λ₯Ό 증λͺ…ν–ˆμ§€λ§Œ, μ‹€μ œλ‘œ μ„œλ‘œ 맀우 λ‹€λ₯Έ ꡬ쑰λ₯Ό κ°€μ§„ 이질적인(Heterogeneous) μ—μ΄μ „νŠΈλ“€μ΄ λ§Žμ•„μ§ˆμˆ˜λ‘ 잠재 곡간(Latent Space)을 μ •λ ¬ν•˜λŠ” 데 어렀움이 μžˆμ„ 수 μžˆμŒμ„ μ‹œμ‚¬ν•©λ‹ˆλ‹€. λ˜ν•œ, μˆœν™˜(Recursion) κΉŠμ΄κ°€ κΉŠμ–΄μ§ˆ 경우 λ°œμƒν•  수 μžˆλŠ” μ •λ³΄μ˜ μ™œκ³‘μ΄λ‚˜ μ†Œμ‹€ κ°€λŠ₯성도 κ³ λ €ν•΄μ•Ό ν•©λ‹ˆλ‹€.

κ°œμ„  κ°€λŠ₯ν•œ 점

ν–₯ν›„ μ—°κ΅¬μ—μ„œλŠ” 더 λ‹€μ–‘ν•œ λ„λ©”μΈμ˜ μ „λ¬Έκ°€ μ—μ΄μ „νŠΈλ₯Ό μ‹œμŠ€ν…œμ— ν†΅ν•©ν•˜κ³ , μ—μ΄μ „νŠΈ κ°„μ˜ 톡신을 λ”μš± 효율적으둜 μ œμ–΄ν•˜λŠ” λ©”μ»€λ‹ˆμ¦˜μ΄ 개발될 κ²ƒμž…λ‹ˆλ‹€. λ˜ν•œ, ν˜„μž¬μ˜ μˆœν™˜ ꡬ쑰λ₯Ό 더 λ³΅μž‘ν•œ λ„€νŠΈμ›Œν¬ ν˜•νƒœλ‚˜ 계측 ꡬ쑰둜 ν™•μž₯ν•˜μ—¬, 더 λŒ€κ·œλͺ¨μ˜ ν˜‘μ—… μ§€λŠ₯을 κ΅¬ν˜„ν•˜λŠ” λ°©ν–₯으둜 λ‚˜μ•„κ°ˆ κ²ƒμž…λ‹ˆλ‹€.

5. 싀무 적용 κ°€λŠ₯μ„±

어디에 λ°”λ‘œ 적용 κ°€λŠ₯?

이 κΈ°μˆ μ€ λ³΅μž‘ν•œ 단계가 ν•„μš”ν•œ μ†Œν”„νŠΈμ›¨μ–΄ 개발 ν”„λ‘œμ„ΈμŠ€μ— μ¦‰μ‹œ μ μš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, 기획자, 개발자, ν…ŒμŠ€ν„° 역할을 ν•˜λŠ” μ—μ΄μ „νŠΈλ“€μ΄ RecursiveMAS둜 μ—°κ²°λ˜μ–΄, μ½”λ“œλ₯Ό μž‘μ„±ν•˜κ³  κ²€μ¦ν•˜λŠ” 과정을 ν…μŠ€νŠΈ μ£Όκ³ λ°›μŒ 없이 μ¦‰κ°μ μœΌλ‘œ μˆ˜ν–‰ν•˜λŠ” μ‹œμŠ€ν…œμ„ ꡬ좕할 수 μžˆμŠ΅λ‹ˆλ‹€. λ˜ν•œ, λ³΅μž‘ν•œ 금육 λΆ„μ„μ΄λ‚˜ 의료 진단과 같이 μ—¬λŸ¬ μ „λ¬Έκ°€μ˜ ν˜‘μ˜κ°€ ν•„μˆ˜μ μΈ λΆ„μ•Όμ—μ„œλ„ 빛을 λ°œν•  κ²ƒμž…λ‹ˆλ‹€.

ν•„μš”ν•œ λ¦¬μ†ŒμŠ€

이 ν”„λ ˆμž„μ›Œν¬λ₯Ό κ΅¬μΆ•ν•˜κΈ° μœ„ν•΄μ„œλŠ” 각 역할을 μˆ˜ν–‰ν•  사전 ν›ˆλ ¨λœ λŒ€κ·œλͺ¨ μ–Έμ–΄ λͺ¨λΈ(LLM)듀이 ν•„μš”ν•©λ‹ˆλ‹€. λ‹€λ§Œ, RecursiveMAS의 큰 μž₯점은 λͺ¨λΈ 전체λ₯Ό μž¬ν›ˆλ ¨(Fine-tuning)ν•˜λŠ” 것이 μ•„λ‹ˆλΌ κ°€λ²Όμš΄ μ–΄λŒ‘ν„° 역할을 ν•˜λŠ” RecursiveLink만 ν•™μŠ΅μ‹œν‚€λ©΄ λœλ‹€λŠ” μ μž…λ‹ˆλ‹€. λ”°λΌμ„œ 전체 λͺ¨λΈμ„ μ—…λ°μ΄νŠΈν•˜λŠ” 것보닀 훨씬 적은 GPU λ©”λͺ¨λ¦¬μ™€ ν•™μŠ΅ μ‹œκ°„μœΌλ‘œ μ‹œμŠ€ν…œμ„ μ΅œμ ν™”ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

6. 이 논문을 μ΄ν•΄ν•˜κΈ° μœ„ν•œ 사전 지식

  • 잠재 곡간(Latent Space): 데이터가 μ‚¬λžŒμ΄ μ΄ν•΄ν•˜κΈ° μ–΄λ €μš΄ κ³ μ°¨μ›μ˜ 숫자 ν˜•νƒœλ‘œ μ••μΆ•λ˜μ–΄ μžˆλŠ” κ³΅κ°„μœΌλ‘œ, λͺ¨λΈμ΄ λ°μ΄ν„°μ˜ 의미λ₯Ό λ‚΄λΆ€μ μœΌλ‘œ μ²˜λ¦¬ν•˜λŠ” κ³³μž…λ‹ˆλ‹€.
  • λ©€ν‹° μ—μ΄μ „νŠΈ μ‹œμŠ€ν…œ(Multi-Agent Systems): μ—¬λŸ¬ 개의 인곡지λŠ₯ μ—μ΄μ „νŠΈκ°€ 각자의 역할을 κ°€μ§€κ³  μƒν˜Έμž‘μš©ν•˜λ©° κ³΅λ™μ˜ λͺ©ν‘œλ₯Ό λ‹¬μ„±ν•˜λŠ” μ‹œμŠ€ν…œμž…λ‹ˆλ‹€.
  • μ˜€ν† λ¦¬κ·Έλ ˆμ‹œλΈŒ 생성(Auto-regressive Generation): λͺ¨λΈμ΄ 이전에 μƒμ„±ν•œ 토큰을 λ‹€μ‹œ μž…λ ₯으둜 μ‚¬μš©ν•˜μ—¬ λ‹€μŒ 토큰을 순차적으둜 μ˜ˆμΈ‘ν•˜λŠ” λ°©μ‹μž…λ‹ˆλ‹€.
  • 코사인 μœ μ‚¬λ„(Cosine Similarity): 두 벑터 κ°„μ˜ κ°λ„μ˜ 코사인 값을 μ΄μš©ν•΄ λ°©ν–₯성이 μ–Όλ§ˆλ‚˜ 같은지λ₯Ό μΈ‘μ •ν•˜λŠ” μ§€ν‘œμž…λ‹ˆλ‹€.
  • μž„λ² λ”© μΈ΅(Embedding Layer): ν…μŠ€νŠΈμ™€ 같은 μž…λ ₯ 데이터λ₯Ό λͺ¨λΈμ΄ μ²˜λ¦¬ν•  수 μžˆλŠ” 숫자 λ²‘ν„°λ‘œ λ³€ν™˜ν•˜λŠ” μ‹ κ²½λ§μ˜ 초기 μΈ΅μž…λ‹ˆλ‹€.
  • μ—­μ „νŒŒ(Backpropagation): μ‹ κ²½λ§μ˜ 좜λ ₯ 였차λ₯Ό 쀄이기 μœ„ν•΄ 각 νŒŒλΌλ―Έν„°κ°€ μ˜€μ°¨μ— μ–Όλ§ˆλ‚˜ κΈ°μ—¬ν–ˆλŠ”μ§€λ₯Ό κ³„μ‚°ν•˜μ—¬ κ°€μ€‘μΉ˜λ₯Ό μ—…λ°μ΄νŠΈν•˜λŠ” μ•Œκ³ λ¦¬μ¦˜μž…λ‹ˆλ‹€.
  • μˆœν™˜ 신경망(Recurrent Neural Networks): 이전 λ‹¨κ³„μ˜ 정보가 ν˜„μž¬ λ‹¨κ³„μ˜ μž…λ ₯으둜 λ“€μ–΄κ°€λŠ” μˆœν™˜ ꡬ쑰λ₯Ό κ°€μ§„ μ‹ κ²½λ§μœΌλ‘œ, μ‹œκ³„μ—΄ λ°μ΄ν„°λ‚˜ 순차적인 데이터 μ²˜λ¦¬μ— μ‚¬μš©λ©λ‹ˆλ‹€.

πŸ“š 이번 μ£Ό κ΄€λ ¨ Deep Dive

μˆœμœ„λ…Όλ¬ΈDeep Dive
πŸ₯‡Recursive Multi-Agent SystemsπŸ“ ν˜„μž¬ λ¬Έμ„œ
πŸ₯ˆAgentic World Modeling: Foundations…DD-078
πŸ₯‰Heterogeneous Scientific Foundation…DD-079
4.From Skills to Talent: Organising H…DD-080
5.World-R1: Reinforcing 3D Constraint…DD-081

πŸ“… 생성일: 2026-05-03 | πŸ€– GLM-4.7 Deep Dive