Anthropic은 자사 코드의 70~90%가 AI로 작성된다고 밝혔다. Claude Code 자체 코드베이스는 약 90%가 Claude가 생성한 것이다. OpenAI의 Sam Altman은 2026년 9월까지 'AI 리서치 인턴' 수준의 시스템을 목표로 한다고 공언했다. Google은 에이전틱 워크플로우에 특화된 오픈 모델 Gemma 4를 출시했다. AI 코드 생성이 일상이 된 지금, Voice AI 개발의 판도는 어떻게 바뀌고 있는가?
숫자가 말하는 현실: 코드의 70~90%가 AI 산출물
Anthropic 대변인에 따르면, 회사 전체 기준으로 코드의 70~90%가 AI가 작성한 초안에서 출발한다(Fortune, 2026.01). Claude Code의 R&D 코드베이스 — 모델 학습, 데이터 파이프라인, 평가 프레임워크, 안전성 테스트 — 에서는 그 비율이 약 90%에 달한다. 엔지니어는 리뷰하고 수정하지만, 첫 번째 초안은 기계가 쓴다.
Google에서도 코드의 약 25%가 AI 보조로 작성되며, CEO Sundar Pichai는 '대체가 아닌 속도'가 핵심이라고 강조했다. GitHub Copilot의 코드 제안 수용률은 약 30%지만, 개발자의 82%가 이미 AI 코딩 도구를 일상적으로 사용한다(NetCorp, 2026).
에이전틱 AI의 부상: Gemma 4와 자율 워크플로우
Google이 2026년 4월 출시한 Gemma 4는 '에이전틱 워크플로우'를 위해 설계된 오픈 모델이다. 함수 호출, 구조화된 JSON 출력, 네이티브 시스템 명령어를 기본 지원하며, 256K 컨텍스트 윈도우와 140개 이상 언어를 처리한다. 2B부터 31B까지 4가지 크기로 제공되어 모바일 디바이스에서도 멀티스텝 에이전트가 가능하다.
Sam Altman: "우리는 2026년 9월까지 수십만 GPU 위에서 동작하는 자동화된 AI 리서치 인턴을, 2028년 3월까지는 진정한 AI 연구자를 내부 목표로 세웠다." (X, 2025.10)
코드를 '쓰는' AI에서 코드를 '계획하고 실행하는' AI로의 전환이 이미 시작되었다. 이 변화는 Voice AI 영역에서 특히 의미가 크다.
Voice AI 개발에 미치는 실질적 영향
- 프로토타이핑 속도 혁신 — 음성 에이전트의 기본 구조(STT → LLM → TTS 파이프라인)를 AI가 수 시간 내에 생성할 수 있다. Y Combinator 최근 배치의 약 25%가 음성 우선 제품을 만들고 있으며, 이는 2024년 대비 70% 증가한 수치다(Speechmatics, 2026.01).
- 진입 장벽 하락 — 텔레포니 통합, WebRTC 설정, 코덱 처리 등 기존에 전문 엔지니어가 필요했던 영역을 AI 코딩 도구가 상당 부분 자동화한다. 비음성 전문가도 기본적인 음성 에이전트를 구축할 수 있는 시대가 열렸다.
- 온디바이스 에이전트의 현실화 — Gemma 4의 2B 모델은 모바일에서 오프라인 음성 워크플로우를 가능하게 한다. 네트워크 지연 없는 음성 에이전트라는 새로운 카테고리가 열리고 있다.
그래도 사람이 해야 하는 것들
AI가 코드의 90%를 쓴다 해도, Voice AI에서 진짜 어려운 부분은 코드 바깥에 있다. 대화 설계(conversation design)는 사용자의 발화 패턴, 감정, 맥락 전환을 이해해야 하는 영역이다. 레이턴시 최적화는 200ms 이하의 응답 시간을 위해 STT-LLM-TTS 파이프라인 전체를 튜닝하는 시스템 엔지니어링이다. 텔레포니 통합은 30개국 이상의 통신 규제와 코덱, STIR/SHAKEN 인증을 다루는 도메인 지식이다.
# AI가 생성할 수 있는 것
basic_pipeline = STT() → LLM() → TTS()
# 사람이 설계해야 하는 것
production_agent = (
conversation_design # 대화 흐름, 인터럽트 처리, 감정 대응
+ latency_engineering # sub-200ms 파이프라인 최적화
+ telephony_compliance # SIP, 코덱, 규제 준수
+ domain_expertise # 산업별 용어, 프로세스, 예외 케이스
)개발자의 역할 전환: 코드 작성자에서 시스템 설계자로
Anthropic CPO Mike Krieger는 코드의 대부분이 AI로 작성될 때 병목이 이동한다고 말했다. 상류(upstream)에서는 '무엇을 만들 것인가'에 대한 팀 정렬이, 하류(downstream)에서는 품질 검증과 시스템 통합이 핵심이 된다.
Voice AI에서 이는 더 극적이다. 음성 에이전트는 실시간 시스템이고, 사용자의 인내심은 2초 미만이며, 실패는 곧바로 통화 이탈로 이어진다. AI가 코드를 쓰더라도, 그 코드가 실제 통화 환경에서 작동하게 만드는 것은 여전히 깊은 도메인 전문성을 요구한다.
BringTalk의 시각
BringTalk은 AI 코드 생성 도구를 적극 활용하면서도, 차별화의 핵심은 코드가 아닌 '경험 설계'에 있다고 본다. 우리가 축적한 엔터프라이즈 음성 에이전트 운영 경험 — 실시간 레이턴시 튜닝, 다국어 대화 설계, 통신사급 안정성 확보 — 은 AI 코딩 도구가 대체할 수 없는 영역이다.