[Two Cents #76] “Flights of Thought” on Consumer + AI — Part 2: UI, UX
Consumer AI에 대한 ‘시장의 준비’가 tipping point를 넘어 가고 있는 것으로 보인다.
지금 필요한 일은, AI 기술에 의한 시장 변화가 어떤 방향, 어떤 방식으로 일어나고 그 것이 (산업 및 시장의 구조, 시장 참여자 간의 구도 및 economics 구조 등에) 어떤 영향을 가져 올 지에 대하여 최대한 구체적으로 예상, 예측해 보고,
그 과정에서 예상 가능한 기회를 조금이라도 먼저 찾고 시작하고 (스타트업 입장에서), 마찬가지로 이렇게 시작한 기회를 먼저 인지하고 이를 지원하는 (투자자 입장에서) 것이 필요하다고 본다.
이 흐름과 과정에서 일어날 다양한 ‘것’들, 관련된 아이디어들에 대한 나의 생각의 흐름 (”Flights of Thought”)을 공유 하려고 한다.
가장 먼저 소비자들이 뛰어 놀 공간, 그 공간에서의 UI 접점 및 사용자 경험 UX에 대하여 생각해 보자.
소비자의 주된 UI 접점
소비자의 ‘주된 UI’에 대하여 먼 미래까지 상상하면서 던지는 질문들 몇 가지:
어느 곳이 소비자가 AI와 interact할 가장 주된 공간이 될까? 스마트폰? 다시, 데스크탑? 아니면, (CCTV, 스피커, 마이크 등이 가득한) ambient 공간 (예를 들면, 자동차, 사무실, 집안의 거실/서재/침실, 지하철/버스, 길거리 …)? 아니면, (Humane pin 혹은 AR Glass, Meta wristband 등의) ambient device?
이 공간에서 소비자가 AI와 interact하는 주된 방식, modality는 무엇일까? 현재와 같이 스마트폰 화면 보면서, 사진 업로드하고 키보드 입력하는 방식? 스마트폰과 음성 대화로? 이때 음성 대화를 나누는 상대는 ‘Siri’? 아니면, ambient device(의 ‘Alexa’)와의 음성 대화? 혹은 스크린을 보면서 AI app과 직접 음성 대화? ambient 공간에서 (클라우드에 있는) Alexa 서버와 음성 대화를 하면 클라우드 Alex 서버가 알아서 triage?
위의 환경으로 진화하기 전까지, 현재의 디바이스 및 환경에서 어느 것이 가장 주된 interaction 주체 및 방식이 될까? Siri (음성 에이전트)가 주된 접점이 되고, 나머지는 모두 Siri가 triage? 아니면, ChatGPT/Claude가 새로운 super app이자 app store로? (지금 스마트폰에서 처럼) 사용자가 각각의 AI App 혹은 AI URL 기반으로 서비스를 찾아 가는 방식? 아니면, 다시 브라우저?
이러한 상상과 그 상태까지 가능한 경로에 대한 예상/예측을 해 보면서, 현재 모드로 돌아 와서 지금 시장에서 일어나고 있는 변화에 대한 몇 가지 생각들을 살펴 본다.
Battle for Attention
현재 시장에서는 아래와 같은 일들이 일어나고 있다.
ChatGPT, Claude 등 ‘LLM 챗봇’의 “AI Super App” 및 AI app store 경쟁
LLM 챗봇을 고객과의 main UI 접점으로 만들고,
(Claude artifacts, ChatGPT GPTs 등을 통하여) prompt 형태로 구현된 다양한 기능 및 (Computer Use, Operators 기반의) workflow agents들을 모두 이 UI 접점에서 접근할 수 있게 만들면서 (두 유형 모두 ‘AI app’이라고 보면 됨), 자연스럽게 이 AI app들의 App Store 역할까지 하게 됨.
LLM 챗봇이 default AI super app 및 AI app store가 된다면, 사용자 접점에서 가장 중요한 두 요소를 확보하게 되고 (지금 데스크탑에서의 Chrome, 중국 모바일에서의 WeChat과 같은) 사용자의 default 접점 역할을 하게 되면서 Consumer + AI 접점을 장악할 수 있을거라고 봄
(유출된 “ChatGPT 2025 H1 Strategy” memo에서도 정확히 ChatGPT가 “사용자들이 인터넷을 사용하는 주된 인터페이스 역할을 하는 Super Assistant”가 되는 것을 목표로 하고 있다)
이와 동시에, 당분간은 스마트폰이 각 개인의 모든 활동이 모이고 쌓이는 ‘서버/센터’ 역할을 할 것이고, 애플과 구글이 이 ‘서버/센터’에 대한 OS 수준의 third-party 접근을 허용하지는 않을 가능성이 높기 때문에, LLM 챗봇이 (Siri 같은) default agent에 대한 default 접근이 가능하지는 않을 것임
(사족: OpenAI가 Jony Ive와 만들고 있는 디바이스는 위의 제약을 (편법 방식으로?) by-pass하여 스마트폰 상의 default agent (Siri)에 대한 접근, 혹은 ChatGPT가 default agent 역할을 할 수 있도록 해 주는 역할을 하지 않을까 상상하고 있음. 예를 들면, ChatGPT와 default 연결된 마이크로서의 역할?)
이와 경쟁하는 AI browser 경쟁
이들과 경쟁하여 사용자 UI 접점을 확보하기 위한 AI browser들이 또 하나의 그룹으로 등장하고 있음.
현재 참여자는, Perplexity Comet, (Arc 브라우저로 파란을 일으킨) The Browser Company의 Dia, (workflow agent 기능에서 출발한) Genspark, Fellou 등에서 발표한 AI browser 등이 있고, OpenAI도 곧 AI browser 발표 예정.
(사족: Genspark 브라우저를 보면 Baidu AI browser와 크게 차이가 없다. 모두 독자적인 브라우저를 만들었다기 보다는, 아직은 브라우저 bookmark을 ‘앱’으로 포장한 수준으로 보인다. 지금은 독자적인 AI 브라우저와 비슷하게 보이지만 다음 단계에서 AI app을 내부 생태계에 포함하는 과정에서 (‘AI app store’ 경쟁), 이 같은 pseudo-브라우저가 ‘사용자 접점을 장악’할 수 있을 지에 대해서는 의문이 크다. 이 것으로 유추해 보면, Genspark이 아직 ‘Agent 플랫폼’으로서의 identity를 넘어서, AI super app/app store로서의 경쟁에 본격 참전한 것으로 보이지는 않는다. 아직 그 가능성이 남아 있기는 하지만, 스타트업으로서 이 2개의 큰 전략을 동시에 추진하기에는 resource가 벅차지 않을까 싶다)
AI browser도 (LLM 챗봇과 비슷한 구조로) 내부에 ‘AI app’ store를 포함하면서 독자적인 생태계를 지향할 수 있다. (Dia는 skills gallery라는 이름으로 이미 시작하였고, 다른 브라우저는 대부분 agent directory 형태로 시작하고 있다)
LLM 챗봇 및 AI 브라우저들의 이러한 노력은 모두 AI agent, prompt workflow 형태로 속속 등장하는 다양한 ‘AI app’들에 대한 소비자 접근 경로를 누가 장악할 것인가에 대한 경쟁이라고 본다. AI 브라우저가 지향하는 지점도 LLM 챗봇이 내부에 AI app 생태계를 구축하면서 사용자의 ‘주된 UI 접점’을 지향하는 것과 같은 목적을 가지고 있다고 본다.
아직은 데스크탑 중심으로 시작하고 있으며, 모바일 버젼도 시간 문제로 모두 출시하겠지만, 모바일에서 브라우저가 가지는 (OS 수준 기능에 대한 접근의) 한계로 인하여, 모바일에서 AI super app이 될 수 있을 지에 대해서는 의문이 크다.
(애플 생태계 내애서 ‘super app’이 된 WeChat의 선례가 있기는 하지만, 이는 WeChat 초기에 창업자를 포함한 대규모 ‘특사단’을 애플에 보내서 ‘중국 시장의 특성상 mini app 기반의 mini app store 운영’에 대한 예외적 허용을 받았기 때문에 가능했던 것이다. 애플은 중국 소비자 시장 진입의 중요성때문에 이러한 예외를 허용한 것이고. 이후 WeChat이 너무 커진 후에는 이러한 WeChat—애플 역학 관계가 거꾸로 뒤집어져서 애플이 곤혹스러워 한 사례가 있기 때문에, 이러한 예외가 다시 반복될 가능성은 없다고 본다)
모바일 gatekeeper (aka 애플, 안드로이드)
(아직 애플은 본격적인 움직임을 보이지 ‘못’하고 있지만) 구글 검색 AI Mode 데모를 보면 스마트폰 검색과의 integration이 (구글 Lens 검색을 넘어) 라이브 카메라까지 가능해졌고, (데스크탑 및 모바일 모두) 화면에서 일어나고 있는 것들에 대하여 구글 검색으로의 통합이 이미 이루어지고 있다.
이는 스마트폰 화면에서 일어나고 있는 모든 일에 대하여, 모바일 gatekeeper (aka 애플, 안드로이드)가 그 내용에 대한 action (여기에서는 구글 검색. 애플은 좀 다른 접근을 할 듯)을 취하는 것이 가능해지고, (더 중요한 것은) 그 사용자의 (스마트폰에서의) 모든 활동, 그에 대한 action 전체가 데이터로 확보된다는 점일 것이다.
(아래의 ‘개인화 데이터 layer’에서 다시 언급하겠지만) 이는 모바일 gatekeeper가 장기적으로 사용자의 attention을 확보하고, 더 나아가 그 사용자의 개인 데이터 (예: 애플 건강 데이터)와 결합하여, 그 사용자를 위한 personalization data layer를 확보할 수 있다는 것을 의미하며,
이는 장기적으로 Consumer 대상 시장 경쟁에서 가장 핵심 moat가 될 personalization data를 확보하는데 가장 좋은 position을 확보하게 된다는 의미를 가진다.
“until it isn’t” — 여기에서 변수는 스마트폰이 (앞에서 논의하였듯이) 사용자 접점을 (현재와 같이) 계속 확보할 수 있을 것인가 라는, 사용자 UI 접점에 대한 가장 첫 번째 질문의 답에 따라 달라질 것으로 보인다. 이 ‘long-game’은 앞으로 OpenAI—Jony Ive, Meta (AR Glass), (Humane의 뒤를 이을) 스타트업들의 역할에 따라 그 결과가 달라질 수도 있을 것이다.
multi-agent 환경
다양한 multi-agent가 등장, 실험되고 있지만, 이들을 소비자가 직접 접할 수 있는 접점은 아직 (거의) 없다.
이렇게 multi-agent 형태로 구현된 기능/워크플로우들은, 각각 개별 ‘AI app’ 형태, 별도의 aggregator 혹은 super app, 혹은 LLM 챗봇의 app store, AI 브라우저 (데스크탑, 모바일 모두) 등을 통하여 소비자들에게 reach-out하게 될 것이다.
이 과정에서 multi-agent 형태로 만들어진 AI app들은 사용자 경험을 장악하는 경쟁의 주체라기 보다는 그러한 주체들 (app store, super app, AI browser 등)의 경쟁 대상이 될 것으로 보이지만,
그 중에 일부 outbreak가 다타나서 (중국의 WeChat과 같은 super app으로서) 소비자의 주된 접점 역할을 할 가능성도 있다. (이 super app이 (AppStore 등록이 필요한) 모바일 앱 형태를 취하지 않는 한, 애플/안드로이드의 사전 허락을 받을 필요는 없다)
Ambient Agent, “ambient intelligence”
Agent 환경의 진화는 현재 하나의 task를 독자적으로 실행하여 (필요하면, Computer Use 방식 혹은 MCP connector를 통하여 (웹앱, 데이터 소스 등) 외부에도 접근하여) 결과를 내는 워크플로우 에이전트들이 다양하게 확산되고 있는 수준으로서,
클라우드에 상주하는 Ambient Agent가 등장하기까지는 아직 좀 더 시간이 필요할 것으로 보임. (‘25.7월 현재 다양한 해커톤에서 Ambient Agent가 가장 많이 다루어지고 있고, 이미 이전 해커톤에서도 ambient intelligence의 use case가 실험이 되고 있는 단계로서, 조만간 (앞으로 6~12개월?) 다양한 Ambient Agent use case들이 시장에 등장할 것으로 예상된다)
하지만, 전반적으로 A2A 환경이 multi-agent, autonomous agent 환경으로 진화함에 따라, 궁극적으로는 Ambient Agent가 소비자에게 서비스가 제공되는 주된 방식의 하나가 될 가능성이 충분히 높다고 본다. 5년 후 기준으로 상상해 보면, 소비자와 직접 대면하는 UI (스마트폰, ambient device)를 통한 워크플로우 자동화 형태의 Agent와 (클라우드 상주 기반의) Ambient Agent 간의 역할 분담은 대략 (2배 이내의) 대등한 규모가 되지 않을까 예상해 본다.
Ambient Agent로의 shift가 이 정도 규모로 크게 일어난다면, 앞에서 언급한 ‘사용자 접점’ (디바이스, 센터/서버, UI 접점의 modality 등)에서는, 데스크탑에서 모바일로의 전환보다 훨씬 더 큰 변화가 일어나야 하지 않을까 한다.
Agent 환경에서의 UI, UX
Agent-to-Agent (A2A) 환경으로 빠르게 진화햐고 있으며, A2A 환경이 결국 보편화 될 것이라는 예상 하에, 앞으로 Consumer + AI의 주된 환경이 될 Agent 기반 UI, UX가 어떻게 바뀔 지에 대한 상상.
Agent 구분 — 구조, 방식에 따른
Agent는 그 구조, 방식에 따라, 몇 가지의 유형으로 나누어질 것으로 본다
Human Agents
Auto Agents
Workflow Agents
Ambient Agents
Virtual Human Agents
아직은 이 구분을 넘어서는 더 다양한 Agent 구조까지는 정리하지 못 하였다.
(유형별 명칭은 이를 구분하기 위한 정도의 의미이고, ‘Ambient Agent’의 예와 같이 늘 업계에서 새로운 용어가 등장하고 정착될 수 있다.)
Workflow agent, Ambient Agent는 기본적으로 (상당히 많은 agent가 autonomous하게 동작하는) multi-agent 환경을 가정한다.
다른 Agent와의 interaction 방식에 따라, initiating agents, serving agents (MCP Server?), autonomous (navigating) agents? Ambient Agents? 등으로 세분하는 것도 가능할 듯 한데, 이러한 추가 구분이 특별한 효용성이 있을지는 아직은 의문.
UI, UX for AI app & Agents
특정 기능을 수행하는 ‘AI app’(*) 들이 어떤 형태로 실체화되고, 이 Agent에 대한 접근, Agent들간의 interaction 방식에 대하여 UI, UX 관점에서 상상을 해 보면:
(*) ‘AI app’ — 그 형태와 관계없이 사용자가 원하는 기능을 수행하는 ‘것’들을 포괄하는 일반적인 개념으로서 사용하며, 모바일/웹 앱, Agent 등 다양한 interaction 방식의 기능을 포괄할 것으로 본다. 이 글에서는 ‘AI app’ 표현을 이런 의미로 계속 사용할 예정.
‘AI app’ 및 Agent의 형태 및 이들을 접근하는 경로로 현재 상상되는 형태 및 방식:
‘AI app’ 형태
(1) 앱 (모바일/웹), 브라우저 URL: 별도의 모바일/웹 앱으로서 app store 혹은 브라우저 URL 형태로 접근
(2) ‘AI super apps’ (예: ChatGPT, Claude 등의 chatbot 인터페이스) 내의 ‘app’ 형태: /agent-name 혹은 @agent-name 등 형태로 chatbot 대화 내부에서 접근 가능하지 않을까?
(3) ‘AI app store’ (예: ChatGPT GPTs, Claude artifact directory, AI 브라우저 내의 agents/skills/apps directory)를 통하여.
Auto Agent, Workflow Agent들에 대해서는 기본적으로 이 방식이 유효할 것으로 예상됨.
Headless 형태
(1) 클라우드/서버에 상주하는 ‘daemon’ 혹은 server에서 부터 initiation되는 형태
(2) (사용자 접점의 consumer-facing agent) ‘Siri/Alex’를 통하여 initiation되는 형태 (on-device, cloud-based 모두 포함)
등등
이러한 방식은 주로 Ambient Agent에 적용될 것으로 보이며,
Ambient Agent와의 interaction을 위한 (feed를 보고, confirmation을 하고, 다른 요청을 하는 등) 별도의 dashboard 혹은 feed 접점 (예: 메신저, 별도 앱, ‘Siri’ 같은 master/personal Agent, 기존 ‘AI super app’과의 연동/통합 등의 형태)가 필요할 것으로 보인다.
‘캐릭터’ 형태 (as profile pic, ‘game character’-like, 음성 대화 상태 (예: ChatGPT 음성모드))
Virtual Human Agents는 주로 이런 형태로서, 다른 앱, ‘AI app’등에 내장될 듯 하다.
그 외에 이러한 몇 가지 케이스에 국한되지 않고 아주 다양한 형태, 방식이 새롭게 등장할 것으로 예상된다.
Voice UX, ambient device 기반 UI, UX
(Headless 형태의) 음성 기반 UX, (AI pin, AR glasses 등의) ambient device 기간의 UI는, 기존에 익숙한 모바일/웹 앱과 상당히 다른 UI, UX 형태를 가질 것으로 보이며, 기존 데스크탑, 모바일 이외의 대안으로서 이를 대체하는 새로운 주된 UI접점이 될 가능성도 크다.
Meta, OpenAI등 (애플, 구글과 같이 사용자 접점을 이미 장악하고 있지 않은) Big Tech가 이 기회에 주목하고 크게 베팅하는 이유는, AI와 같은 새로운 Tech Wave에서 (consumer behavioral shift가 일어난다면) 이 새로운 behavior에 기반하여 새로 등장하는 사용자 접점을 장악할 기회가 생기기 때문이다.
Voice UX, ambient device 기반의 UI, UX에 대한 몇 가지 생각:
(GUI, 화면 등을 통한) 사용자의 ‘선택’이 극히 제한되거나, 없거나. (ARS에서 가능한 제한된 메뉴와 비슷하거나 더 적은 수준)
voice UX 경우에는, (interaction에 시간이 필요한) temporal UX이기 때문에, ‘선택의 폭’을 제시하고 선택하게 하기 보다는 ‘원하는 intent’를 전달하고 실행하는 방식이 더 선호될 듯
중요한 포인트는 ‘사용자가 ‘자연스러운 흐름’을 통해 ‘원하는 것을 잘 찾고 선택’하게 하는’ (GUI 기반으로 실행되는 사용자의 분절된 행위들을 가이드/찾아가는 방식의) 기존 UX 방식은 점차 그 효용성를 잃게 될 것이라는 점
핵심 키워드: personalization, default, intent
이를 위하여, 새로운 (agent에 특화된?) UI/UX, (개인화) 데이터 기반으로 사용자 워크플로우를 완전히 ‘재 구성’ 필요
(이 분야는 앞으로 상당히 오랜 기간에 걸쳐 변화가 일어날 것이고, 그 과정에서 많은 상상과 시행착오가 필요할 듯)
개인화 데이터 layer/agents
개인화에 필요한 모든 개인 데이터를 모으거나, 개인 데이터에 대한 router 역할을 하는 곳.
데이터: 개인 데이터 (일정, 메일, 메신저, 소셜 네트워크 등), 자료 (사진첩, 파일 등), 행동 데이터 (구매, 서비스, 항공권/호텔, 강의 수강 등 이력) 등
형태: reactive agent, Ambient Agent, MCP Server, data layer 등의 다양한 형태를 띌 것으로 예상
핵심 키워드: personalization (다양한 방식, 유형, depth), privacy, trust (data layer, data ownership/sovereignty)
on-device vs. cloud-based
개인화와 관련된, 개인화에 필요한 Agent 혹은 data layer의 위치, 기능, 운영 방식은 on-device, cloud-based 모두 복합적으로 필요할 듯 하다.
관련 이슈: on-device vs. cloud-based의 역할 분담, 데이터 저장, privacy 등
on-device:
my agent 기능의 일부/전체가 on-device 상주 → on-device 기반으로 개인화에 필요한 data capture (예: 나의 워크플로우, 그 과정에서의 화면 변화 및 나의 선택, 메신저 데이터 등) 담당.
개인화 담당 LLM의 on-device 상주도 하나의 옵션
hybrid (on-device/hybrid) 개인화 방식 (데이터 capture, 처리, 저장 및 개인화 처리 등)
cloud-based:
capture된 개인화 데이터의 back-end 처리
클라우드 기반 개인 데이터 (이메일, 메신저, 사진, 파일 등의 자료)에 대한 처리 및 proactive actions (예: 이메일 작성, 쇼핑/자료처리 등에 대한 confirmation 요청 등)
Ambient Agent 형태
관련 스타트업, 프로젝트 예:
Apple ReALM: 아이폰 화면, 사용자의 반응 데이터를 모아서 Siri가 이해하고 개인화 데이터에 사용. (애플 내부 프로젝트)
Scribe record 기능: (Apple ReALM이 OS-level 데이터 접근성을 기반으로 Siri를 위한 개인화 데이터를 모을 수 있는 것과 비교하면 제약이 크지만) Scribe의 워크플로우 recording 기능이 확대되어 (사용자 활동을 default로) 녹화할 수 있다면, 이 데이터 + vLLM이 결합하여 개인의 워크플로우를 기록, 이해, 개인화할 수 있는 데이터 플랫폼이 될 수도 있지 않을까 한다
사족:
상상의 나래를 펼쳐 보면, 개인적으로는 이 ‘개인화 데이터 layer/agent’ 분야에서 (Web 1.0 시대의 ‘구글’에 버금가는) “2세대 모델”이 나오거나, 나올 수 있는 기반 역할을 하지 않을까 상상한다. 아직은 데이터를 어떻게 모으고 (애플과 같이 OS layer에서 first-party로 모을 수 있으면 가장 이상적이곘지만 애플/안드로이드가 아닌 third party로서는 어려울 듯 하고, 그 데이터에 대한 접근을 어떻게 할지 등의 이슈가 있지만), 모은 데이터를‘ 개인화’에 어떻게 적용할 지에 대한 답을 더 찾아야 하지만. ‘95-97년만 해도 찾지 못하지만 결국 지금의 구글을 가능하게 한 2가지 핵심 키워드 (PageRank 및 키워드 광고 모델) 답을 결국 찾아서 ‘구글’이라는 “2세대 모델”이 탄생하였듯이.
Key takeaways
국내 시장에서 체감하는 것보다 훨씬 빠르게, Agent가 B2B 뿐 아니라 B2C에도 적용 및 확산되고 있다. 현재 시점에서 Consumer 대상 서비스는 대략 native 앱/웹 방식과 ‘브라우저 방식’이 공존하고 있다. ‘브라우저 방식’은 현재는 대체로 Chrome extension 형태로 구현되고 있고, AI 브라우저, LLM 챗봇 기반 Agent AI app의 확산과 함께 빠르게 그 방식으로 전환될 것으로 예상된다.
Consumer AI 서비스를 native 웹/앱 방식으로 만드는 경우와 ‘브라우저’/챗봇 app 방식으로 만드는 경우, 각각 discoverability가 완전히 다르기 때문에 각각 완전히 새로운 GTM, 마케팅이 필요할 것이다. ChatGPT 초기 GPTs에서 organic 성장한 ‘학교 생기부 작성 프롬프트’의 예를 보면, 애플 앱스토어가 허허벌판일때 맥주 마시는 앱, 촛불 앱도 폭발적인 다운로드가 이루어졌던 것이 연상되었다. (하지만, 앱스토어 초기에도 그랬듯이, 이 시장 기회 자체가 sustainable한 기회가 될거라 보지는 않는다)
네이버, 카카오 등의 incumbent player 외에도, 뤼튼, 라이너 등 일정 수준 이상의 DAU, MAU를 확보한 Consumer AI 서비스들은 이제 막 열리기 시작하는 ‘AI app store 기회’, 개인화 layer (Agent, data layer)를 모색해 보면 어떨까 하는 상상도 해 보지만, 정확히 어떤 방식으로 시장이 펼쳐질지, 국내 시장 vs. 글로벌 시장 구도가 어떻게 될지, 지속가능한 기회가 될지 등에 대해서는 (의문이라기 보다는) 질문이 많다.
관련하여 현재까지 등장한 몇 가지 이슈에 대하여
(1) “AI 서비스/앱은 내재적인 ‘네트워크 효과’는 없다”는 분석은 대체로 맞다고 본다,
(2) 현재까지는 분명히 “velocity/momentum is moat”도 어느 정도는 맞다고 본다. 다만, 그 moat가 내재적인 것이 아닌 time arbitrage에 의한 것이기 때문에 그를 능가하는 경쟁이 나타나기 전까지에 한해서 (“until it isn’t”).
이 의미는 현재 velocity, 시장 선점에 의한 momentum이 분명히 moat가 되고, 이 중에 일부는 data moat, (indirect) network effect moat 등을 확보할 것이라고 믿지만, ‘momentum moat’ 그 자체가 내내적으로 sustainable defensibility를 가지지는 않는다고 본다. 따라서, velocity/momentum으로 시장을 먼저 확보하고 있는 Consumer app (예: Cluely 포함해서 WRTN, Liner 등)들은 이를 지속 가능한 moat로 전환하는 작업이 필요하다는 의미이다.
아직 Voice UX에 대해서는 앞으로 꽤 큰 white-space 기회가 있을 것이고, 동시에 challenge도 크다고 보는데, ‘한국어’라는 locality가 과연 (90년대 Web 1.0 시대에 그랬듯이) 큰 moat 역할을 할 수 있을지는 아직 잘 모르겠다. (부정적인 의미가 아니라, neutral하게)
다만, 거꾸로 생각해서 ElevenLabs가 폴란드에서 시작해서 자체 시장의 문제를 해결하기 위한 기술과 제품으로 글로벌 시장에서 경쟁력을 갖춘 사례를 보면서, ‘한국어’라는 locality가 오히려 글로벌 시장에서 더 정교하고 강한 제품을 만들 토양이 될 수 있지 않을까 하는 생각도 있다. 미국에서 출발하는 스타트업과 달리 미국 외에서 출발하는 스타트업에게는 multi-language가 자연스럽게 해결해야 할 이슈가 되는 환경이 되니까.
이전의 모든 모든 tech shift에서 소비자 접점의 UI, 그 곳에서의 사용자 경험 UX는 엄청난 규모의 큰 변화를 경험하였고, 그 과정에서 수많은 새로운 기회가 등장하였다. (물론 그보다 훨씬 더 많은 희생자를 남기기도 하였지만.)
이러한 변화는 기존 플레이어에게는 큰 위협, 새로 등장하는 스타트업에게는 당연히도 큰 기회가 될 것이라고 본다. 특히 개인화를 위한 데이터 layer/agent 분야.
Epilogue
Consumer + AI 분야에 집중하는 초기 투자자로서 이러한 생각의 흐름을 공유하는 주된 목적은, 이 글을 통하여 기존 스타트업들이 AI 흐름을 잘 활용하여 어떤 새로운 기회를 찾아 낼 지, 또 새로운 창업자들이 어떤 새로운 기회를 모색하면 좋을 지 고민할 때, 그 시행착오를 줄일 수 있는 하나의 참고 자료가 되기를 바라기 때문이다.
Two Cents 나름 방식의 Call for Startup이라 할 수 있다.
이러한 기회를 찾았다고 생각하는 Consumer + AI 분야 초기 창업자/스타트업들은 언제라도 열려 있으니 DM 혹은 이메일 (hur at hanriverpartners dot com)으로 연락 주시기 바란다.