📌 핵심 요약: Meta가 700명 이상의 뇌 스캔 데이터로 훈련한 AI 모델 TRIBE v2를 오픈소스로 공개했습니다. 시각·청각·언어에 걸쳐 신경 활동을 시뮬레이션하며, 실제 fMRI 촬영보다 더 정확한 예측 결과를 보여줬습니다.
Meta, 뇌를 읽는 AI를 오픈소스로 공개하다
2026년 3월 27일, Meta가 AI 뇌 시뮬레이션 모델 TRIBE v2를 오픈소스로 공개했습니다. 700명 이상의 피험자 뇌 스캔 데이터로 훈련된 이 모델은 시각·청각·언어 자극에 반응하는 신경 활동을 소프트웨어로 예측합니다. 놀라운 점은, 그 예측이 실제 fMRI 장비로 촬영한 데이터보다 더 정확했다는 것입니다.
기존 신경과학 연구는 모든 실험마다 피험자를 고가의 MRI 스캐너 안에 넣어야 했습니다. TRIBE v2는 이 병목 자체를 제거할 가능성을 보여줬습니다.
TRIBE v2란? 핵심 스펙 정리
- 규모의 도약
초기 버전이 피험자 4명·뇌 영역 1,000개 수준이었던 것에 비해, v2는 피험자 700명 이상·뇌 영역 70,000개로 확장됐습니다. 학습에 사용된 뇌 데이터는 1,000시간 이상입니다. - 실제 스캔보다 정확한 예측
TRIBE v2의 합성 예측은 집단 수준 뇌 활동을 실제 fMRI 데이터보다 더 잘 재현했습니다. 실제 fMRI는 심박·움직임·노이즈로 인해 데이터가 오염되는 반면, AI는 이런 잡음이 없습니다. - 수십 년 신경과학 연구를 소프트웨어로 재현
얼굴 인식·음성 처리·텍스트 이해를 담당하는 뇌 영역을 단 한 번의 스캔 없이 정확히 찾아냈습니다. - 완전 오픈소스 공개
코드, 가중치(weights), 라이브 데모까지 모두 공개했습니다. 어떤 연구자든 즉시 가상 뇌 실험을 시작할 수 있습니다.
왜 중요한가? — “뇌과학의 AlphaFold”
Meta는 이를 단백질 구조 예측에서 혁명을 일으킨 AlphaFold에 비유합니다. AlphaFold가 수십 년치 단백질 연구를 수초 만에 압축한 것처럼, TRIBE v2는 뇌 스캔 실험을 컴퓨팅으로 대체할 수 있는 가능성을 열었습니다.
기존에 몇 달이 걸리던 실험을 단 몇 초의 연산으로 대체할 수 있다면, 알츠하이머·파킨슨병·우울증 등 뇌 질환 연구의 속도가 근본적으로 달라질 수 있습니다.
“AI 기업들이 뇌처럼 생각하는 시스템을 만들려 할 때, Meta는 반대 방향으로 갔다 — 뇌 자체를 읽는 모델을 만든 것이다.”
— The Rundown AI, 2026년 3월
📊 TRIBE v1 vs v2 비교
| 항목 | TRIBE v1 | TRIBE v2 |
|---|---|---|
| 피험자 수 | 4명 | 700명+ |
| 뇌 영역 | 1,000개 | 70,000개 |
| 학습 데이터 | 소규모 | 1,000시간+ |
| fMRI 대비 정확도 | 낮음 | 실제 스캔 초과 |
| 오픈소스 | 제한적 | 코드·가중치·데모 전체 공개 |
오늘의 다른 주요 AI 뉴스
- Apple, Siri를 경쟁 AI에 개방
iOS 27부터 사용자가 ChatGPT 외 다른 AI 모델을 Siri에 연결해 사용할 수 있게 됩니다. 구글 Gemini가 Siri의 기반 기술을 재구축 중이며, WWDC(6월)에서 공개 예정입니다. - Wikipedia, AI 기사 작성 금지
영문 Wikipedia가 LLM을 이용한 기사 작성·수정을 40대 2 압도적 찬성으로 금지했습니다. 문법 교정·번역 목적의 AI 활용은 인간 검토 전제하에 허용됩니다. - Mistral, 음성 복제 AI Voxtral TTS 출시
3초 음성 클립으로 화자를 복제하고 9개 언어에서 자연스러운 음성을 생성하는 경량 모델을 공개했습니다.
AI 매거진 코리아의 시각
TRIBE v2는 AI가 단순히 인간의 언어를 모방하는 수준을 넘어, 인간의 생물학적 인지 과정 자체를 모델링하기 시작했다는 신호입니다. 뇌과학·의료·인지과학 분야에서 연구 속도를 수십 배 끌어올릴 잠재력을 갖고 있습니다.
다만 Meta가 세계 최대 소셜미디어·광고 플랫폼을 운영하는 회사라는 점에서, 이 기술이 장기적으로 어떤 방향으로 활용될지는 지켜볼 필요가 있습니다.
태그: Meta · TRIBE v2 · 뇌 AI · 오픈소스 · 신경과학 · AI 뉴스