FT: AI models must adapt or die
스케일링이 이제 체감효과를 내기 시작함. 생성형 AI 모델은, 여전히 진실성에 문제가 있으며 할루시네이션도 많이 발생하는데다가 추론에 애를 먹는 “강화된 되풀이 기계(souped-up regurgitation machines)”로 보아야 함. 게다가 생성형 AI의 학습에 사용할만한 고품질 데이터가 이미 거의 소진됨. 이를 생각한다면 생성형 AI로는 AGI에 도달할 수 없음.
그러나 좀 더 근본적인 이유는 따로 있음. 생성형 AI모델은 내부에 “행위성(agency)“이 없기 때문에 AGI에 도달하지는 못할 것임. AGI는 능동 추론(active inference)”을 통해서만 달성될 수 있음. 지능 개념을 적용하기 이전에 “먼저” 세계에 능동적으로 참여하고, 물리적 환경에 체현되어 그 환경에 작용할 수 있어야 함(For true AGI, you have to be active and embodied and situated physically in a world that you can act upon before you can even think about applying the notion of intelligence). 즉, 스스로가 (물리적, 3D) 현실 세계와 상호작용하여 새로운 입력을 스스로 생성하고, 그 경험에서 데이터를 얻어야 하는 것.