Post

[2025 Recap] Day 6: 모니터를 찢고 나온 AI, 로봇의 몸을 입다 (11월-12월)

[2025 Recap] Day 6: 모니터를 찢고 나온 AI, 로봇의 몸을 입다 (11월-12월)

들어가는 글

지난 [Day 5]까지 우리는 소프트웨어와 비즈니스 영역에서의 AI 생태계 재편을 살펴보았다. 찬바람이 불기 시작한 11월과 12월, IT 업계의 마지막 화두는 ‘피지컬(Physical)’이었다.

수년간 텍스트와 이미지라는 가상 공간(Virtual Space)에서만 머물던 인공지능이, 마침내 팔다리를 얻어 물리 세계(Physical World)로 걸어 나왔다.

11월: 휴머노이드, 실험실을 떠나다

11월은 ‘로봇의 달’이라 불러도 과언이 아니었다. 테슬라(Tesla)의 옵티머스(Optimus)를 비롯해 피규어(Figure), 보스턴 다이내믹스 등 선두 주자들이 일제히 상용화 버전의 휴머노이드를 공개하거나 실제 공장 투입 소식을 알렸다.

Embodied AI (체화된 인공지능)

기존 로봇이 미리 입력된 좌표대로만 움직이는 ‘기계’였다면, 2025년 말의 로봇은 ‘눈으로 보고 판단하는 지능’을 탑재했다. LLM(거대 언어 모델)의 시각 처리 능력(Vision)이 로봇의 제어 시스템과 결합된 VLA(Vision-Language-Action) 모델이 표준이 되었다.

  • 과거: “좌표 (X, Y)로 팔을 이동해.” (코딩 필요)
  • 현재: “저기 있는 빨간 사과 좀 집어서 씻어줘.” (자연어 명령)

로봇은 카메라로 사과를 인식하고, ‘집는다’는 행위를 계획하며, ‘씻는다’는 목적을 달성하기 위해 수도꼭지를 찾는다. 이 모든 과정이 별도의 하드코딩 없이 AI 모델의 추론만으로 이루어졌다.

12월: ‘물리 지능(Physical Intelligence)’의 폭발

한 해의 끝자락인 12월, 연구계의 가장 뜨거운 감자는 ‘물리 지능’이었다. 텍스트로 배운 지식이 아닌, 시뮬레이션과 현실 세계의 상호작용을 통해 배운 물리학적 감각이다.

심투리얼(Sim-to-Real)의 격차 해소

그동안 로봇 학습의 난제는 시뮬레이션(가상)과 리얼(현실)의 미세한 마찰력, 중력 차이였다. 하지만 엔비디아의 아이작(Isaac) 짐과 같은 고도화된 물리 시뮬레이터 덕분에, 로봇은 가상 공간에서 수억 년 치의 시행착오를 단 며칠 만에 학습하고 현실 세계로 ‘전생’했다.

이제 로봇들은 낯선 물체를 잡아도 미끄러뜨리지 않을 만큼 악력을 조절하고, 울퉁불퉁한 길에서도 균형을 잡으며 걷는 법을 스스로 터득했다.

가정용 로봇의 ‘아이폰 모먼트’는 아직

산업 현장에서는 휴머노이드가 용접을 하고 상자를 나르기 시작했지만, 가정용 로봇 시장은 여전히 ‘시기상조’라는 평가를 받았다.

11월 말 블랙프라이데이 시즌, 몇몇 가정용 집사 로봇이 출시되었으나 높은 가격(수천만 원대)과 배터리 타임, 그리고 안전 문제로 인해 얼리어답터들의 장난감 수준에 머물렀다. “설거지와 빨래를 완벽하게 해주는 로봇”은 2025년에도 여전히 크리스마스 소원 리스트에만 남았다.

기술적 회고: 데이터의 마지막 퍼즐, ‘행동(Action)’

AI 모델 관점에서 11월과 12월은 ‘행동 데이터(Action Data)’ 확보 전쟁의 서막이었다.

인터넷에 널린 텍스트와 이미지는 이미 다 학습했다. 남은 것은 ‘어떻게 걷고, 어떻게 잡는지’에 대한 물리적 데이터다. 빅테크 기업들은 이를 얻기 위해 로봇 팔 수천 대가 하루 종일 물건을 집고 놓는 ‘로봇 농장(Robot Farm)’을 짓거나, 사람이 웨어러블 장비를 차고 움직이는 데이터를 수집하는 데 혈안이 되었다.

요약

2025년의 겨울, AI는 드디어 ‘몸(Body)’을 얻었다. 비록 아직은 뒤뚱거리고 서툴지만, 뇌(LLM)와 몸(Robot)이 연결된 순간 그 잠재력은 폭발적이었다. 공장과 물류 센터에서 시작된 이 변화는 곧 우리의 거실과 부엌으로 들어올 준비를 마쳤다.

이제 이 긴 여정을 마무리할 시간이다. 1년간 숨 가쁘게 달려온 2025년의 IT 트렌드, 그 끝에는 무엇이 기다리고 있으며 우리는 2026년을 어떻게 맞이해야 할까?

This post is licensed under CC BY 4.0 by the author.