AI-native B2C 서비스/모델에 대한 생각들
[Two Cents #64] LLM 기반 비즈니스 기회에 대한 생각에서 내가 가장 주목하는 것은, AI 기술로 비로소 가능하게 될 AI-native B2C 서비스 (”2세대 모델”) 이다.
이에 대한 생각을 오랫동안 해 오면서, 그 생각의 흐름을 한번 정리해 보았다.
지금 막 시장에 소개되는 새로운 서비스들, 또 앞으로 무엇이 가능해질까에 대한 논의들이, 많은 경우 지금까지의 환경 기반에 AI로 incremental하게 더 할 수 있는 새로운 기능이 뭐가 있을까 중심으로 진행되면서 2-3년 후에야 비로소 가능해질 것으로 예상되는 AI-native “2세대 모델”에 대한 상상에 제약이 많은 듯 하여, 일부러 ‘거꾸로 생각’을 많이 해 보았다.
AI와 같은 disruptive tech이 가져 올 변화를 미리 예상하는 것은, 그 기술이 가능하게 해 줄 변화의 범위가 워낙 크기 때문에 생각보다 어렵다. 그 기술 자체가 어떻게 발전하여 어디까지 가능해질 지, 이에 대응하여 사람들의 behavior는 어떻게 적응하고 변화할 지, 두 가지 차원을 동시에 상상해야 하기 때문이다.
이런 경우, 지금 가지고 있는 것에서부터 미래에는 어떻게 변화해 갈 지 추정해 보는 것보다, 거꾸로 먼 미래의 모습을 공상 과학 소설같이 상상해 보고 현재까지 시간을 거슬러 오면서 그 상상의 범위를 축소해 오고, 동시에 기술의 발전 궤적은 거꾸로 현재에서 미래까지 projection하면서, 그 두 흐름이 각 시점에 어떻게 만날지, 즉 어느 시점에 가능한 기술에 의하여 (먼 미래에 상상한) 모습이 어떤 모습으로 어디까지 실현 가능해질 지를 상상하는 것이 현실적으로 그나마 가능한 방식이라고 본다.
UX 접점
인간과 AI의 UX 접점은, (Humane Pin이 그 단초를 보여 준) 완전히 새로운 유형의 immersed 디바이스가 주종을 이룰 가능성도 있으나, 현실적으로는 향후 5-10년 사이 기간까지는 기존 방식 (PC, 모바일 w/ 스크린)이 근본적으로 바뀌지는 않을 듯하다. 과거 30년간 웹, 모바일 두 번의 큰 변화에 의한 UX 접점의 변화를 돌이켜 보면.
기본 서비스 구조는, 사용자 접점 디바이스 (PC, 모바일, 부착형 디바이스, 환경에 immerse된 디바이스, (밴드,워치 포함) 다양한 센서들) + 서버/클라우드 구조가 그대로 유지될 것이다.
이제부터 사용자 접점 디바이스 및 그 back-end 전체 (사용자 접점 디바이스, Agent, LLM, 클라우드 등)를 묶어서 ‘AI 시스템’이라고 부르겠다.
(Reactive) Agent vs. Proactive Assistant
많은 사람들이 전망하고 있듯이, 지능을 가진 AI Agent가 앞으로 가장 중요한 UX interaction 방식의 하나가 될 것이라는 것에 동의하고, Agent 방식의 UX interaction에 많은 관심을 가지고 있다.
기본적으로 사용자의 요청에 반응하는 Agent 방식이 중요한 UX의 하나가 될 것이라는 것에 이견이 없다. 이 방식을 (Reactive) Agent라고 부르겠다.
하지만, 이는 현재의 주된 UX metaphore에 기반한 것이다. 즉, 사용자가 어떤 intent를 가지고 task를 디바이스에 요청하면, 디바이스 내부 혹은 클라우드에서 이를 처리하고 UX 접점 디바이스를 통하여 답/결과를 주는 방식에 맞는 UX로서, 이는 컴퓨터가 발명된 이후 (인간 대비 dumb한) 컴퓨터에게 일을 시키기 위한 기본 UX interaction 방식이었다.
Gen AI 패러다임에서는 ‘AI 시스템’이 (현재 어느 정도의, 그리고 앞으로 계속 발전하여 인간에 가까운, 혹은 인간을 넘어설) 지능을 가지게 되면서, 단순히 인간의 요청에 (수동적으로) 반응하여 결과물을 내는 형태에서부터 바뀌어, 인간의 (포괄적인) 요청 전체를 해결할 수 있는 (Reactive Agent) 혹은 인간 요청 이전에 먼저 무언가를 해결/제안하는 모드가 가능해질 것이다. (사용자의 요청에 reactive하게 반응하는 방식과 대비되어) 이는 ‘AI 시스템’이 먼저 사용자에게 확인 혹은 action을 요구하는 Proactive 모드가 될 것으로 예상되며, 이를 (Reactive) Agent에 대응되는 Proactive Assistant라고 부르겠다.
Proactive Assistant가 일반화하면 내가 가는 어디에서든 AI 시스템이 나를 인지하고 나와 interact하는 (SF 영화에서 많이 보는) ambient computing이 될 것이다.
나는 앞으로 등장할 새로운 AI-native B2C 서비스는, 기존 서비스 방식 + Agent + Proactive Assistant 모드가 다양한 형태로 섞이면서 등장하는 완전히 새로운 방식의 interaction이 되지 않을까 상상해 본다.
Agent와 Proactive Assistant가 가능한 ‘AI 시스템’과 사용자가 interaction하는 방식을 상상해 보자면:
Agent, Assistant는, 다시 Single master Agent/Assistant 및 목적/분야별 Agent/Assistant로 나누어질 것으로 보인다.
예를 들면, 나의 대부분의 일을 맡아 주는 single master Agent로서 Siri가 있고, 그 back-end에 나의 여행 담당 Agent/Assistant, 회사 업무 담당 Agent/Assistant, 가족 건강 담당 Agent/Assistant 들이 있지 않을까? 물론 Siri외에도 (Her의 사만다와 같이) 남친/여친/친구 역할을 해 주는 Agent도 (여러 버전이) 따로 있을 것이고.Agent와 Proactive Assistant 간에는 상호 복합적으로 연결/결합된 방식으로 (주어진 업무 수행, 혹은 인간이 해야 할 업무를 알려 주는 과정이) 진행될 것으로 예상되며, 여기에 아직 상상하지 못하는 또 다른 interaction 방식들이 더 추가될 수 있을 것이다.
이를 위하여, Agent, Assistant 간에는 다양하고 복잡한 구조 및 형태의 interaction 방식 및 procotol이 등장할 것으로 예상된다.가장 먼저 생각할 수 있는 방식이, (Adept AI와 같이) 웹 UI를 AI가 해석해서 (마치 인간이 하였을) interaction을 AI가 대신해 주는 방식이 될 것이지만, 나는 이 방식이 오래동안 유지될 것이라 보지 않는다. 이는 기존에 이미 만들어져 있는 수많은 웹/앱 서비스의 legacy에 새로운 ‘AI 시스템’이 적응하기 위한 일시적인 hybrid 시스템 역할을 할 것이고, 시간이 지나가면서 ‘AI 시스템’과 (기존 & 신규) 외부 시스템이 API, agent-to-agent 방식으로 연결되는 M2M (machine-to-machine) protocol이 주종을 이룰 것이다. (2000년대 후반 Web2.0 시대에 여러 이종 서비스 간의 mashup을 위하여 API가 보편화되었듯이)
비유를 하자면, (시각, 청각 등 인간의 modality와 기본적으로 다른 방식으로 주변을 인지할 수 있는) 새로운 자율 주행 시스템이, 인간 중심으로 인간의 modality에 최적화되어 100년간에 걸쳐 구축된 기존 운전 환경에 적응하기 위하여, (Lidar, 레이더, 카메라 등의) 인간 modality를 simulate할 수 있는 시스템 기반으로 만들기 위하여 난이도가 필요 이상 많이 올라간 것과 비슷하다. 미래를 상상해 보자면, 도로 환경이 모든 구성 요소 및 복합 센서 간의 M2M comm 기반으로 인프라가 새로 구축되고 이 기반으로 자율 주행 시스템을 새로 만들면, 지금의 자율 주행 시스템보다 훨씬 낮은 난이도로 만들 수 있을 것이다. 이와 마찬가지로, ‘AI 시스템’이 기존 인간 중심 서비스 환경에 적응하는 것보다, 기존 서비스 환경이 AI 중심의 환경에 적응하여 API & M2M을 제공하고 이를 기반으로 자동화를 구축하는 것이 훨씬 빠르고 확장 가능한 시스템이 만들어질 것이다.
‘나의 니즈’ vs. 새로운 앱/서비스의 가능성
만약 Agent & Proactive Assistant 형태로 ‘AI 시스템’과의 사용자 interaction이 일어나면, ‘AI 시스템’의 UX 접점 (모바일 디바이스, 혹은 immersed 디바이스/환경)를 통한 app/서비스 접점과 유형도 많이 달라질 것이다.
Agent가 보편화되면, (1) 지금과 같은 다양한 카테고리의 수많은 앱들이 필요하지 않을 것이고, 이에 따라 (2) 먼저 카테고리 별 app 혹은 특정 목적 Agent 중심으로 merge가 일어나고, (3) 다음 단계에서 master Agent 중심으로 한 차례 더 merge가 일어나지 않을까?
Proactive Assistant가 보편화되면, (1) 일/task를 구조화하기 위한 app/서비스 니즈는 점차 줄어들 것이고 (예: 캘린더, Task, 스케줄러 등), (2) 이메일, Slack 등 업무 진행을 organize하기 위한 app/서비스 니즈도 점차 줄어들지 않을까?
그 외에도 각 카테고리 별로 앱/서비스에 대한 사용자 니즈가 변화하면서, 많은 앱/카테고리가 사라지고 새로 등장할 것이다.
그 방향을 상상해 보기 위하여, 현재 모바일 폰 내의 앱들을 대략 카테고리별로 나누어 보았다.
카테고리 구분은, 업무 내용 보다는, 사용자의 의도, 사용자와 시스템 간의 interaction 방식 등을 고려하여 ‘AI 시스템’에서 그 방식, 구조가 변화될 것으로 예상되는 방식 중심으로 (임의적으로) 나누어 보았다.
그리고, 각각에 대하여, Agent, Proactive Assistant가 어떻게 관여할 지도 상상해 보았다.
개인 identity: 인증, 증명, 결제 → Agent & Proactive Assistant
이 카테고리는, 사용자 환경의 인프라가 될 것이기 때문에 그 방식, 형태가 AI로 인하여 크게 바뀌지는 않을 것으로 예상되지만,
센서, 데이터 수집, 인증/증명 인프라 등이 사용자 접점 디바이스/환경에 내장되면서 점차 invisible하게 되고, (Passkeys 인증 기술과 같이) 모바일폰/센서를 통해 사용자 인증이 되면, 이 인증 기반으로 이후의 결제, 증명 등의 명시적인 요청은 Agent에 의하여 처리될 듯
개인 tracking: 건강/심리. 위치, 사진/일기? → Proactive Assistant
사용 유형 예: (밴드, 워치, 센서, 모바일폰 등) 다양한 센서, (사진, 소셜, 이메일 등)의 나의 모든 개인 데이터 등을 통하여 수집된 데이터를 Proactive Assistant가 분석, 정기적 reporting, 필요한만큼 소셜에 공유, 조치가 필요한 경우 나에게 alert를 주고 action을 취하게 함
검색: Google. 쇼핑. 특정 정보(예:사전,와인) → Agent
사용 유형 예: 내가 필요로 하는 정보는, 대개 Siri 같은 single master Agent를 통하여 질문하고, Agent가 back-end에서 검색, 분석 후 결과를 알려 줌
목적형: 예약 (여행,식당 등), 쇼핑, 주문 (음식,Uber), 번역/OCR, 뱅킹, 자료 작성, 서류 발급 → Agent
사용 유형 예: 내가 특정 결과를 필요로 하는 업무에 대하여, 대개 Single master Agent를 통하여 요청하고, Agent가 back-end에서 검색, 분석, 처리 후 결과를 알려 주고, 나의 의사 결정 및 후속 action을 요청함
Reactive Agent가 최적 모델인 use case
업무: 이메일/Slack 읽고 답장, SaaS tool, 자료 읽기 → Proactive Assistant
사용 유형 예:
매일 아침 요약 브리핑: 들어온 주요 뉴스/자료/내용, 내가 취해야 할 action 요청/추천
개인화 Assistant 생성기와 interaction/대화하면서 내가 필요한 업무들에 대한 개별 Assistant를 목적 별로 개인화하여 만들고,
이 Assistant들이 background에서 계속 돌아 가면서 내게서 필요한 action 요청
Proactive Assistant가 최적 모델인 use case
업무 연결 툴: 캘린더, 할일, 메모, dropbox → (do we need them?) → Agent/Assistant 구조에 흡수
Proactive Assistant가 보편화되면, 업무 연결 툴의 필요성은 점차 없어지면서 대부분 Agent 역할에 흡수될 듯
Dropbox, Zapier 등의 환경 툴도 점차 Agent/Assistant 구조에 흡수되면서 독립적인 제품/서비스로서는 사라질 듯
아래의 소셜, 엔터테인먼트 분야는 (업무와 구분되는) 사용자 개인 영역으로 남을 듯.
‘AI 시스템’에 의하여 점차 많은 업무가 자동화, 사람의 관여 최소화가 진행되면서, ‘사용자의 개인 영역’의 상대적 비중은 점차 늘어나지 않을까 한다. 정확히 어떤 모습, 방향으로 진화할 지는 상상의 영역이 되겠지만.
소셜: 나/가족/친구/지인/타인 X 일기/메세지/(그룹)채팅/status/게시판 → (as it is, but through Agent & Proactive Assistant) (Dopamine-driven tasks)
소셜은, 크게 ‘나-가족-친구-지인-동료-익명의 대중’으로 확대되는 audience dimension, ‘private (일기 등) - 메세징/채팅 (1:1) - 메세징/채팅 (1:n) - 나의 status 공유/flex/소셜 - 게시판’ 등의 spectrum을 가지는 interaction dimension의 서로 수직인 2개 차원으로 크게 나누어지지 않을까 한다
두 차원이 교차하는 각 지점에서 어떤 서비스가 어떤 형태 (Agent vs. Assistant)로 등장할 지, 넓은 폭의 상상의 영역이 될 듯
(이미 많은 사람들의 Facebook fatigue에서 유추할 수 있듯이) 현재 시장의 주력 소셜 플랫폼이 5-10년 후에도 그 시장 장악력이 유지되지는 않을거라 확신하지만, 그 대체품이 어떻게 어떤 과정으로 등장할 지는 (지난 20여년간 Tumblr, 트위터, Snapchat, 인스타그램 등 예상을 뛰어 넘는 새로운 소셜 서비스들이 등장하였듯이) 앞으로 실시간으로 관찰하면서 기회를 찾아가야 할 듯
Passive 엔터테인먼트: 글/이미지/영상 X 검색/linear vs. 소셜(Tik Tok status) → (as it is, but through Agent & Proactive Assistant)
책 읽기, 만화 보기, TV/OTT/영화 감상, 유튜브 검색/browsing, (검색, 리스트 기반) 음악 듣기 등 기존의 passive 엔터테인먼트의 modality가 크게 바뀔 것이라고 보지는 않는다.
Tik Tok이 보여 준 social-as-an-entertainment도 앞으로 그 추세가 지속될 것이고. (Tik Tok은 소셜이라기 보다는 미디어라고 보는게 더 맞을 듯)
여기에서 AI의 역할은 검색, 추천 등의 역할이 주가 되지 않을까 예상되지만, 그 이상의 완전히 새로운 무언가가 등장할 수도. 지난 10년간 Tik Tok이 대표적으로 보여 주었듯이.
Active 엔터테인먼트: 게임. 채팅/챗봇. 메타버스(게임+소셜+status) → (as it is, possibly empowered by Agents)
Active 엔터테인먼트 분야는, AI가 가장 많은 변화, 새로운 방식의 엔터테인먼트 modality를 제공할 수 있는, 완전히 미지의 green field가 되지 않을까 한다.
가장 쉽게 상상되는 것은, (메타버스를 포함하는 개념으로서의) 게임에서 NPC/환경/아이템/플레이의 (실시간) 개인화 및 rendering, (무한한 카테고리로 만들어질) companion 챗봇 등.
이 각각 카테고리의 사용자 니즈에 따라 ‘AI 시스템’이 다양한 복합적인 형태와 구조로 점차 만들어지면서, (기존에 dumb한 컴퓨터에게 일을 시키기 위하여 만들어진) legacy UX와는 완전히 다른 새로운 UX, interaction이 등장할 것으로 기대하고 있다.
또, 각 카테고리 별로 사용자 - ‘AI 시스템’ interaction에 따라, 필요 없어진 & 새로운 니즈가 생기는 서비스도 많이 등장할 것이고, 이에 따라 10년 후의 사용자 환경에서의 서비스 카테고리는 지금와 거의 완전히 달라져 있을 듯 하다. 웹에서 모바일로 전환되면서 주된 서비스 카테고리가 바뀐 것보다 훨씬 많이.
Somewhere inbetween - Gen AI 시대의 ‘세이클럽’을 기다리며
이러한 장기적 상상에 기반한 완전히 새로운 기회를 기다리면서, 향후 1-2년간 단기적으로는 아래 몇 가지에 기대, 관심을 가지고 있다. 물론 이 외에도 다양한 모든 기회에 대하여 열려 있다.
특히 90년대 말 ‘세이클럽’이 그랬듯이, 새로운 기술 경쟁이 아니라, 새로운 기술을 새로운 interaction/modality에 적용하여 완전히 새로운 use case 카테고리를 만들어 낼 수 있는.
AI Companion
이 분야는 국내에서 뭔가 새로운 ‘세이클럽’이 등장할 거라는 기대가 큰 분야이다. 게임, 엔터테인먼트, sexy 등의 키워드가 만나는. 세이클럽, 아프리카TV가 기존에 없던 완전히 새로운 방식, 수익 모델을 만들어 냈듯이.
Companion 챗봇: 남친/여친, 친구, 상담, ‘다마고치’
온라인 only 친구 → AI only 친구 (상대가 인간인지 AI인지 구분되지도 구분하지도 않는)
‘Pixar for everyone’
가장 먼저 비즈니스가 폭발하고 있는 분야이다.
(Lensa hype는 금방 꺼졌지만) 국내에서도 다양한 AI 프로필 사진으로 시작하여, 여기에 ‘소셜’이 결합되어 sticky, entertaining한 서비스 실험이 다양하게 되고 있다.
이 실험들을 일반화 하면, Gen AI 기술 기반으로 이미지, 영상, 3D까지 모든 사용자들이 크리에이터가 될 수 있다. YouTube, Tik Tok에서 이미 있었던 트렌드에 Gen AI 기술이 다시 질적인 변화를 가속화하는 기제가 될 것이다.
이러한 것들이 컨텐츠 생산, 소셜, 엔터테인먼트 어느 카테고리의 서비스로 진화할 지도 확실하지 않다. 어느 특정 카테고리에 국한되기 보다는 (Tik Tok이 그랬듯이) 소셜, 엔터테인먼트 간에 cross-over되는 서비스들이 등장할 것으로 기대하고 있다.
Infinite Generative Worlds
게임 개발 인프라 및 인력 측면에서 글로벌 시장에서 가장 수준 높고 밀도도 높은 국내 시장에서, 정형화된 온라인 게임을 뛰어 넘는 새로운 무언가를 만들어내는 (90년대의 바람의나라, 리니지 같은) ‘갑툭튀’가 등장할 가능성이 가장 높은 분야라고 본다. 물론 글로벌 시장에서 이미 많은 경쟁사가 있지만.
개인화된 interactive 컨텐츠. 제작단계 생성 → 개인화된 실시간 생성
게임 → 다른 컨텐츠/modality/환경으로 확장 (메타버스?)
AI 마켓플레이스
인간이 하던 일을 AI 시스템이 효율화/확장 혹은 대체하여 (크몽, Thumbtack 등) 서비스 마켓플레이스에서 제공되는 형태. 특히 디지털 업무 중심
1차: 인간이 수행하던 업무에 AI 시스템을 더해서 생산성/품질 급증 (’23부터 이미 시작되었음. 예: Mechanical Turk)
2차: (구매자/판매자 간의 거래 대화를 학습하여) 인간 개입 없이 거래 협의 완료 → (1) 디지털 형태 업무는 (인간의 관여 없이) AI가 직접 제공. 이 구조는 수직 (기능) 및 수평 (양적 확장) 측면에서 무한 확장이 가능하고, 당분간 value capture도 클 것이다. 물론 시간이 지나면서 margin squeeze가 일어나겠지만, (2) 물리적 작업이 필요한 업무는 (예: 배관 공사) 인간이 제공. (이러한 변화는 ‘24년부터 바로 가능해질 것이고, 기존 업무 마켓플레이스의 효율화, 양적 확대가 바로 가능할 것)
예: 로고 디자인 (→ 명함, CI 제작 단계로 자동 연동), 영상 편집, 영어 회화
예: 커리어 컨설팅, 심리 상담, 투자 상담 (증권사 애널리스트, WM Concierge)
이러한 생각의 흐름을 따라 가면서 지금까지 없던 새로운 AI-native 서비스 기회를 찾는데 도움이 되면 좋겠다. 투자자로서 이러한 새로운 AI 비즈니스를 만들고자 하는 분들은 언제나 환영이니 연락 주시기 바란다.
그리고, 이러한 좀 wild한 상상에 대한 피드백도 많으면 좋겠다.