Sebastian Raschka · ML 연구자, 저자 (Python ML, LLM From Scratch) · 2026.04.06 ~ 04.20 큐레이션
오픈소스 LLM(거대 언어 모델) 생태계가 빠르게 재편되고 있어요. 새로운 플래그십 모델의 등장, 아키텍처 정보를 한데 모은 갤러리 업데이트, 그리고 파인튜닝(fine-tuning) 기법의 새 연구까지 — 짧은 기간 동안 주목할 만한 흐름이 한꺼번에 등장했답니다.
오픈웨이트 모델의 새 기준, GLM-5.1
Strong release! GLM-5.1 is a DeepSeek-V3.2-like architecture (including MLA and DeepSeek Sparse Attention) but with more layers. And the benchmarks look better throughout! Looks like THE flagship open-weight model now.
GLM-5.1은 DeepSeek-V3.2와 유사한 구조(MLA 어텐션 및 희소 어텐션 기법)를 채택하면서도 레이어 수를 더 늘렸어요. 전반적인 벤치마크 성능이 기존 모델들을 앞서면서, 현시점 최고의 오픈웨이트 모델로 평가받고 있어요. 오픈소스 진영에서 독점 모델과의 격차를 빠르게 좁히고 있다는 신호이기도 해요.
아키텍처 갤러리 RSS 추가와 파인튜닝 연구
Added an RSS feed to the LLM Architecture Gallery so it is a bit easier to keep up with new additions over time.
LLM 아키텍처 갤러리에 RSS 피드가 추가되면서, 새 모델 구조가 올라올 때마다 쉽게 알림을 받을 수 있게 됐어요. 모델 아키텍처 흐름을 꾸준히 추적하고 싶은 연구자나 개발자에게 유용한 업데이트예요.
↻ 공유한 글
RT @StenRuediger: I’ve uploaded a new paper on arXiv (co-authored by @rasbt): MiCA Learns More Knowledge Than LoRA and Full Fine-Tuning
공동 저자로 참여한 논문도 주목할 만해요. MiCA라는 새로운 파인튜닝 기법이 널리 쓰이는 LoRA(저랭크 적응)와 풀 파인튜닝보다 더 많은 지식을 학습할 수 있다는 내용으로, arXiv에 공개됐어요. 효율적인 모델 적응 방법론에 관심 있다면 챙겨볼 만한 연구예요.
빠른 모델 릴리스 속도 속에서도 아키텍처 이해와 파인튜닝 기법의 발전을 꾸준히 주시하는 태도가 인상적이에요. 기술의 흐름을 따라가는 것과 직접 기여하는 것을 동시에 이어가는 모습에서 실용적인 연구자의 시각이 느껴져요.
📚 출처 (Sources)
- [1]@rasbt on 𝕏 · 2026-04-08 — “Strong release! GLM-5.1 is a DeepSeek-V3.2-like architecture (including MLA and DeepSeek S…”
- [2]@rasbt on 𝕏 · 2026-04-06 — “Added an RSS feed to the LLM Architecture Gallery so it is a bit easier to keep up with ne…”
- [3]↻ RT@rasbt on 𝕏 · 2026-04-08 — “I’ve uploaded a new paper on arXiv (co-authored by @rasbt):
MiCA Learns More Knowledge Tha…”
본 글은 Sebastian Raschka(@rasbt)이(가) 지난 14일간 X(트위터)에 올린 게시물 중 3건을 인용해
Claude(Anthropic)가 한국어로 큐레이션·해설한 것입니다. 원문 저작권은 작성자에게 있으며,
출처 목록의 [n] 번호 또는 본문 내 [n] 표시를 누르면 원문 트윗으로 이동합니다.
AI·로봇 뉴스레터
매주 월·목, 한국어 AI·로봇 핵심 소식을 이메일로 받아보세요.