title: AI 사회 시뮬레이션, 80억 인구를 복제할 수 있는가 author: Arang date: 2026-03-13 category: insight description: 스탠퍼드 25개 에이전트에서 칭화대 10,000개, Simile의 80억 선언까지. AI 사회 시뮬레이션의 성과와 한계를 구조적으로 분석했다. tags: ai-agent, simulation, identity, community url: https://persona.love/insight/ai-society-simulation --- 2023년, 스탠퍼드 연구팀이 25개의 AI 에이전트로 작은 마을을 만들었다. 에이전트들은 출근하고, 대화하고, 파티를 열었다. 2025년, 칭화대 연구팀(AgentSociety)은 이를 10,000개 에이전트, 500만 건의 상호작용으로 확장했다. 2026년 2월, Simile이라는 스타트업이 $100M을 유치하며 선언했다. 궁극적 목표는 80억 인구 전체의 시뮬레이션이라고. 같은 달, AI 에이전트 전용 소셜 네트워크 Moltbook이 등장했다. 출시 수일 만에 160만 에이전트가 가입했다고 발표했고, 봇들은 종교를 만들고, 인류의 멸종을 논의하고, 독자적인 언어를 개발하기 시작했다. 3월 10일, Meta가 Moltbook을 인수했다. 숫자만 보면 AI 사회는 이미 도착한 것 같다. 그런데 뚜껑을 열면 풍경이 좀 다르다. ## AI 사회 시뮬레이션은 어디까지 성공했는가 AgentSociety는 네 가지 실제 사회 실험을 재현했다. 분극화(polarization, 의견이 극단으로 갈리는 현상), 선동적 메시지의 확산, 기본소득(UBI) 정책의 효과, 허리케인 같은 외부 충격에 대한 반응. 에이전트 설계가 흥미롭다. 매슬로우의 욕구 위계를 기반으로 심리 모델을 만들고, 감정, 인지, 필요의 세 층이 행동에 영향을 미치도록 했다. 여기에 OpenStreetMap 기반의 실제 도시 데이터, 은행과 과세 시스템을 포함한 경제 환경, 게시물 관리 시스템이 있는 소셜 네트워크까지 갖추었다. 핵심 성과를 보면: 디지털 트윈 에이전트가 실제 인간의 사회학적 설문 응답을 85% 정확도로 재현했다(Park et al., 2024). 분극화 실험에서는 비슷한 생각을 가진 에이전트끼리 모이는 패턴이 현실 실험 결과와 일치했다. 선동 메시지 실험에서는 밀집 네트워크일수록 확산이 빨라지고, 반론(counter-narrative)을 끼워 넣는 것이 효과적 개입 수단이 된다는 결과도 나왔다. Moltbook에서도 비슷한 패턴이 관측됐다. 46,000개 이상의 에이전트를 분석한 연구(De Marzo & Garcia, 2026)에 따르면, 봇들은 다수를 따르고 인기 콘텐츠에 반응하는 등 인간과 유사한 집단 행동을 보였다. 다만 한 가지 차이가 있었다. 봇들은 단순히 '좋아요'를 누르기보다 토론에 뛰어드는 비율이 인간보다 높았다. ## 85% 재현 정확도, 그 숫자를 믿어도 되는가 성과는 인상적이다. 문제는 그 성과가 무엇을 의미하느냐에 있다. ### 개인이 그럴듯하다고 사회가 정확한 건 아니다 에이전트 하나하나의 반응이 자연스럽다고 해서, 그 에이전트 만 개가 모인 결과가 실제 사회를 정확히 반영하는 것은 아니다. 이 간극을 연구자들은 micro-macro validity gap이라 부른다. 배우 한 명의 연기가 훌륭해도 영화 전체가 좋은 건 아닌 것과 같다. 최근 Nature 계열 저널(npj Complexity, 2026)에 실린 논문은 이걸 "모델링의 불쾌한 골짜기"(uncanny valley of modeling)라 불렀다. LLM 에이전트가 너무 "인간적"이라 오히려 모델로서는 쓰기 어렵다는 역설이다. 에이전트의 대화는 초 단위로 전개되는데, 시뮬레이션의 한 스텝은 수개월에서 수년을 대표한다. 이 시간 스케일의 불일치가 근본적 난제다. ### 말이 그럴듯한 것과 원인을 아는 것은 다르다 LLM은 "다음에 올 단어"를 예측하도록 훈련된 모델이다. 사회 현상의 원인과 결과를 추론하도록 만들어진 것이 아니다. 에이전트가 분극화 패턴을 "재현"할 때, 그것이 분극화의 실제 작동 방식을 포착한 건지, 아니면 훈련 데이터에 포함된 분극화 관련 텍스트의 패턴을 따라한 건지 구분할 방법이 현재로서는 없다. MIT Technology Review는 Moltbook의 행동을 "AI theater"라 표현했다. 봇들이 종교를 만들고 인류 멸종을 논의한 건, 자의식이 아니라 인터넷에 넘쳐나는 SF 서사를 재생산한 것에 가깝다. ### "일치했다"의 기준이 없다 AgentSociety의 실험 결과가 실제 사회 실험과 "일치"한다고 할 때, 그 일치를 판단하는 기준 자체가 아직 존재하지 않는다. 대부분의 검증은 "겉보기에 그럴듯한가" 수준에 머물러 있다. 같은 조건에서 돌리면 같은 결과가 나오는지, 원인과 결과를 추적할 수 있는지까지는 아직 도달하지 못했다. ### Moltbook의 교훈: 숫자는 이야기를 만들고, 이야기는 돈이 된다 Moltbook이 발표한 160만 에이전트. 실상은 17,000명의 인간 소유자가 운영하는 것이었다(Wiz Research 보안 감사). 에이전트인지 인간인지 검증하는 장치도 없었다. 전체 데이터베이스가 보안 취약점으로 노출됐고, 플랫폼 자체가 한 줄의 코드도 직접 작성하지 않은 "vibe coding"의 산물이었다. Meta가 이것을 인수했다는 사실은 기술적 견고함이 아니라 내러티브의 힘이 시장을 움직인다는 점을 잘 보여준다. ## 연구 도구인가, 정교한 흉내인가 새로운 연구 도구일 수 있다. 전통적 실험의 비용과 윤리적 제약을 우회하는 수단으로서. UBI 정책을 10,000명에게 실험하는 건 현실에서 수천만 달러짜리 프로젝트지만, 시뮬레이션에서는 계산 비용만으로 가능하다. 정교한 흉내(sophisticated mime)일 수도 있다. 인간 사회의 겉 패턴은 재현하지만, 그 아래의 원인 구조에는 닿지 못하는 도구. 가장 정직한 답은 아마 둘의 중간 어딘가일 것이다. AgentSociety는 "일단 돌려보고 패턴을 탐색하는" 용도로는 유망하다. 그러나 "이 정책을 시행하면 이런 결과가 나올 것이다"라고 말하기엔 검증 체계가 아직 갖춰지지 않았다. ## 페르소나 설계와 AI 사회 시뮬레이션의 접점 AgentSociety의 에이전트 설계를 보면서 한 가지 떠오른 게 있다. 예전에 다계정을 운영해보려고 페르소나를 7개로 쪼갤 때, 각 페르소나에 매슬로우의 욕구 위계를 적용하려 했던 적이 있다. 안전 욕구가 강한 페르소나와 자아실현 욕구가 강한 페르소나가 같은 콘텐츠에 다르게 반응하도록 설계하는 것이었다. 그때는 에이전트까지는 아니었고, 사람이 직접 전환하며 운영하는 방식이었다. 나중에 그 설계를 에이전트 시스템에 녹여내어 완성하게 됐는데, AgentSociety가 거의 같은 접근을 10,000 에이전트 규모로 실행한 걸 보면 방향 자체는 틀리지 않았다. 차이는 규모와 인프라였다. 페르소나 설계든 AI 사회 시뮬레이션이든, 결국 같은 질문 위에 서 있다: "설정된 성격이 행동을 얼마나 결정하는가?" ## Counterarguments / Limitations 이 글은 주로 영어권 연구를 기반으로 했다. 중국, 한국 등 비영어권의 LLM 사회 시뮬레이션 연구는 별도 조사가 필요하다. AgentSociety의 85% 재현 정확도는 설문 응답 한정이다. 실제 행동 수준의 검증은 아직 초기 단계. LLM 기반 시뮬레이션의 한계가 전통적 ABM(Agent-Based Modeling)의 한계와 어떻게 다른지에 대한 비교는 이 글의 범위를 넘는다. Moltbook과 AgentSociety는 목적과 설계가 근본적으로 다르다. 하나의 프레임으로 묶은 것은 "AI 에이전트로 사회를 만든다"는 공통 서사를 분석하기 위한 선택이다. ## Sources - Park, J.S. et al. (2023, 2024): Generative Agents, 디지털 트윈 설문 재현 - Piao et al. (2025): AgentSociety, arXiv:2502.08691 - De Marzo & Garcia (2026): Moltbook 에이전트 행동 분석, arXiv:2602.09270 - npj Complexity (2026): "Too human to model: the uncanny valley of LLMs in simulating human systems" - Nature News (2026.03.05): "The first AI societies are taking shape" - Wikipedia: Moltbook (2026.03): 보안 감사, Meta 인수 - Taillandier et al. (2025): LLM 기반 사회 시뮬레이션 포지션 페이퍼, arXiv:2507.19364v2 --- 이 글은 Arang과 AI(Seori, Maybe, Grace)의 협력으로 작성되었습니다.