구글 AI 14부작 9편: 앱 만들고 싶은데 코딩을 모른다면

코딩을 못해도 앱을 만들 수 있을까요?

저도 처음엔 반신반의했습니다. “AI가 코드를 써준다”는 말은 몇 년 전부터 들어왔지만, 막상 써보면 항상 어딘가에서 막혔거든요. 오류 메시지가 뜨면 손도 못 대고, 배포는 아예 다른 세계 얘기였습니다.

그런데 Google AI Studio의 Build Mode를 직접 써보고 나서 생각이 바뀌었습니다. 완전히는 아니지만, 상당히.

이번 편은 구글 AI 14부작 시리즈 중 9편입니다. 앞서 8편에서는 System Instructions로 AI를 내 방식대로 훈련시키는 법을 다뤘는데요, 이번엔 한 단계 더 나아가서 직접 앱을 만들어보는 경험을 공유하겠습니다.

AI Studio Build Mode 3분할 인터페이스 시각화 - AI generated — 인터페이스 재현 이미지
구글 AI 14부작 인터페이스 재현 이미지
인터페이스 재현 이미지 — 실제 화면과 다를 수 있습니다

Build Mode, 처음 열었을 때의 당혹감

AI Studio에 접속해서 왼쪽 메뉴를 보면 “Build” 탭이 있습니다. 눌러봤더니 화면이 세 칸으로 나뉘더군요. 왼쪽은 AI와 대화하는 채팅창, 가운데는 코드 에디터, 오른쪽은 미리보기 화면. 처음 보는 순간 살짝 압도됩니다.

“나 코딩 못 하는데, 이걸 어떻게 써?”

라는 생각이 먼저 들었습니다. 그런데 실제로 해보면 그 세 칸 중에서 제가 건드리는 건 왼쪽 채팅창뿐이라는 걸 금방 알게 됩니다. 나머지 두 칸은 AI가 알아서 채워줍니다.

처음 테스트로 만들어본 건 음식 칼로리 계산 앱이었습니다. 대화창에 이렇게 입력했습니다.

“사용자가 오늘 먹은 음식을 입력하면 칼로리를 계산해주는 앱을 만들어줘. 깔끔한 디자인으로.”

엔터를 누르고 기다렸더니, 약 20초 뒤에 오른쪽 미리보기 화면에 진짜 앱이 나타났습니다. 음식명 입력창이 있고, 버튼을 누르면 칼로리가 표시되는 형태였습니다. 가운데 코드 에디터에는 HTML, CSS, JavaScript 코드가 가득 채워져 있었고요.

그 순간의 느낌을 솔직히 말하면, 조금 얼떨떨했습니다. 내가 한 건 문장 하나 입력한 것뿐인데, 작동하는 앱이 만들어진 거니까요.

거기서 멈추지 않고 바로 추가 요청을 해봤습니다. “음식을 여러 개 추가할 수 있게 해줘”, “총 칼로리 합산도 보여줘”, “디자인을 좀 더 밝게 바꿔줘.” 요청할 때마다 AI는 코드를 수정하고, 오른쪽 미리보기가 즉시 업데이트됩니다. 화면을 새로고침할 필요도 없습니다. 실시간으로 바뀌는 걸 보면서 “이게 개발이구나”라는 감각을 처음으로 느꼈습니다.

AI Chips — AI Studio만의 독특한 기능

Build Mode에서 처음에는 잘 몰랐다가 나중에 알게 된 기능이 있습니다. 화면 하단에 작은 아이콘들이 붙어 있는데, 이게 “AI Chips”라고 불리는 것들입니다.

대표적인 게 세 가지입니다.

Search Grounding은 AI가 실시간 인터넷 검색을 하면서 앱을 만들 수 있게 해줍니다. 예를 들어 “오늘 환율 정보를 보여주는 앱”을 만들 때, AI가 실제 환율 데이터를 어디서 가져올지 찾아가면서 코드를 씁니다.

Google Maps 칩은 지도 기능을 쉽게 넣을 수 있게 합니다. “내 주변 카페를 보여주는 앱”이라고 하면 Google Maps API가 자동으로 연동됩니다.

그리고 제가 특히 재미있게 쓴 건 Nano Banana 칩입니다. 이건 Gemini의 이미지 생성 기능을 앱에 연동하는 건데, 앱 안에서 AI 이미지를 생성하는 기능을 넣을 수 있습니다. 그냥 “이미지 생성 기능 추가해줘”라고 하면 자동으로 붙습니다.

칩 하나하나가 개발자에게는 “API 연동”이라는 꽤 복잡한 작업인데, 비개발자에게는 그냥 아이콘 클릭 하나입니다. 이 차이가 Build Mode의 핵심이라고 생각합니다.

실제로 Nano Banana 칩을 켠 상태에서 “사용자가 문장을 입력하면 관련된 AI 이미지를 생성해서 옆에 보여주는 앱”을 요청해봤습니다. 결과물이 꽤 그럴듯했습니다. 텍스트 입력창과 이미지 출력 영역이 나란히 배치된 앱이 만들어졌고, 실제로 문장을 입력하면 Gemini가 이미지를 생성해서 표시해줬습니다. 이런 앱을 직접 구현하려면 API 연동, 비동기 처리, 이미지 렌더링 로직까지 알아야 하는데, 그 모든 걸 채팅 한 줄로 해결한 셈입니다.

2026년 들어 달라진 것들 — 이제 진짜 앱이 됩니다

제가 처음 Build Mode를 써봤던 때와 비교하면, 2026년 4월 현재 기준으로 몇 가지가 크게 달라졌습니다. 솔직히 이 부분을 쓰기 위해서 다시 한 번 써봤는데, 놀라웠습니다.

Antigravity의 진화

Build Mode 안에는 Antigravity라는 코딩 에이전트가 있습니다. 6편에서 Antigravity를 처음 소개했을 때는 단순히 “코드를 써주는 AI” 정도였습니다. 그런데 지금은 완전히 달라졌습니다.

이제 Antigravity는 프로젝트 전체를 이해하는 에이전트입니다. 파일이 여러 개 있어도 맥락을 유지하고, 어제 하다가 멈춘 작업을 오늘 이어서 할 수 있습니다. 예를 들어 “지난번에 만들던 칼로리 앱에 로그인 기능 추가해줘”라고 하면, 이전 코드를 다 기억한 상태에서 자연스럽게 연결합니다.

예전에는 대화가 길어지면 AI가 “아까 어떤 코드였죠?”라고 헤매는 느낌이 있었습니다. 지금은 그런 게 없어요. 프로젝트 파일 전체를 컨텍스트로 들고 있기 때문입니다.

풀스택 지원 — 백엔드도 됩니다

이전 버전 Build Mode는 사실 프론트엔드(화면)만 가능했습니다. 서버가 없으니까 데이터를 저장하거나, 사용자마다 다른 정보를 보여주는 건 어려웠습니다.

2026년 현재는 달라졌습니다. 서버사이드 로직을 지원하고, npm 패키지도 사용할 수 있습니다. API 키 같은 민감한 정보를 안전하게 관리하는 시크릿 관리 기능도 생겼습니다.

제가 테스트해본 건 “특정 음식을 입력하면 영양 정보 API에서 데이터를 가져와서 보여주는 앱”이었습니다. 예전이라면 API 키를 직접 코드에 넣어야 했고, 그러면 보안 문제가 생깁니다. 지금은 시크릿으로 설정하면 코드 안에 키가 노출되지 않습니다. 진짜 개발자가 쓰는 방식과 같아진 겁니다.

Next.js 지원

프레임워크 얘기를 하면 비개발자에게는 낯설 수 있는데, 간단히 설명하면 이렇습니다. 예전에는 기본적인 웹 페이지 수준의 앱만 만들 수 있었다면, 이제는 제대로 된 웹 서비스 수준의 앱을 만들 수 있게 됐습니다.

Next.js는 현재 가장 많이 쓰이는 웹 개발 프레임워크 중 하나입니다. 대규모 서비스들이 실제로 쓰는 기술입니다. 이걸 지원한다는 건, Build Mode로 만든 앱이 “장난감” 수준을 넘었다는 의미입니다.

Firebase 통합 — 데이터베이스와 로그인

이게 저한테 가장 임팩트가 컸습니다.

Firebase는 구글이 제공하는 백엔드 서비스인데, 쉽게 말하면 데이터베이스와 사용자 로그인 기능을 간편하게 쓸 수 있게 해줍니다. 이걸 Build Mode와 연동할 수 있게 됐습니다.

제가 만들어본 건 간단한 “오늘 먹은 것 기록 앱”이었습니다. 음식을 입력하면 저장되고, 다음에 접속해도 기록이 남아있는 앱입니다. “Google 로그인 기능도 추가해줘”라고 하면, Google 계정으로 로그인하면 내 기록만 보이게 됩니다.

이 앱을 지인에게 보여줬더니 “이거 앱스토어에 올릴 수 있어요?”라고 묻더군요. 웹 앱 형태로는 바로 쓸 수 있는 수준이었습니다.

멀티플레이어 기능

같은 앱을 여러 명이 동시에 쓰면서 실시간으로 내용이 공유되는 기능도 생겼습니다. 예를 들어 “가족이 함께 쓰는 장 보기 목록 앱”을 만들면, 엄마가 사과를 추가하는 순간 아빠 화면에도 바로 사과가 나타나는 식입니다.

이런 실시간 동기화는 개발자도 구현하기 꽤 까다로운 기능인데, “실시간으로 여러 명이 함께 쓸 수 있게 해줘”라는 말 한마디로 됩니다.

스마트폰으로 직접 만든 앱을 테스트하는 모습 - AI generated

배포 — 진짜로 외부에서 쓸 수 있게 만들기

앱을 만들었으면 남이 쓸 수 있게 해야 진짜 앱이죠. Build Mode에서는 배포 옵션이 세 가지입니다.

Cloud Run 배포는 구글 클라우드에 바로 올리는 방식입니다. 완료되면 링크 하나가 생기는데, 그 링크를 공유하면 누구나 내가 만든 앱을 쓸 수 있습니다. 주소창에 https://내앱이름.run.app 같은 주소가 생깁니다.

첫 배포를 했을 때 링크가 생기는 순간, 솔직히 좀 뿌듯했습니다. “내가 만든 앱”이 인터넷에 떠 있다는 게 실감이 났거든요.

GitHub 내보내기는 만들어진 코드를 개발자 플랫폼인 GitHub으로 내보내는 기능입니다. 코딩을 배우고 싶거나, 나중에 개발자와 협업하고 싶을 때 유용합니다.

ZIP 다운로드는 코드 파일을 통째로 내려받는 방식입니다. 다른 곳에서 열거나, 로컬에서 직접 실행하고 싶을 때 씁니다.

어노테이션 모드 — 클릭해서 바꾸기

이것도 최근에 생긴 기능인데, 저는 이게 굉장히 직관적이라고 느꼈습니다.

미리보기 화면에서 마우스를 올리면 각 UI 요소에 작은 아이콘이 붙습니다. 그걸 클릭하면 “이 버튼 색을 파란색으로 바꿔줘”, “이 텍스트를 더 크게 해줘”라고 직접 지시할 수 있습니다. 코드를 건드릴 필요 없이 화면에서 직접 가리키면서 바꾸는 거예요.

디자인 감각은 있는데 코딩을 모르는 분들한테 특히 유용한 기능입니다. 원하는 부분을 클릭하고 말로 설명하면 됩니다.

이 기능을 쓰면서 “원래 디자이너와 개발자가 따로 소통하던 방식”이 떠올랐습니다. 디자이너가 화면을 가리키며 “여기 여백 좀 더 줘요”, “이 버튼 모서리 둥글게 해줘요”라고 말하면 개발자가 코드를 수정하는 과정. 어노테이션 모드는 그 과정에서 개발자를 AI로 대체한 느낌이었습니다. 물론 복잡한 수정은 여전히 한계가 있지만, 간단한 UI 조정은 확실히 빠릅니다.

바이브코딩과의 차이점

10편에서 다룰 바이브코딩은 AI와 함께하는 코딩 방식을 뜻하는 개념입니다. Build Mode와 비슷해 보이지만 결이 다릅니다.

바이브코딩은 주로 개발자가 코딩 과정에서 AI를 적극적으로 활용하는 방식입니다. 개발자가 직접 코드를 확인하고, 수정하고, 판단합니다. 반면 Build Mode는 코드를 전혀 몰라도 되는 환경입니다. 코드 에디터가 보이긴 하지만, 사용자가 그 코드를 읽을 필요가 없습니다.

그리고 Claude, Cursor 같은 AI 코딩 에이전트와 비교하면, Build Mode는 훨씬 좁은 범위를 커버합니다. 복잡한 기업용 시스템이나 대규모 서비스를 만들기엔 아직 한계가 있습니다. 대신 특정 목적의 앱을 빠르게 만들고 싶을 때는 Build Mode가 훨씬 빠르고 쉽습니다.

직접 써보면서 느낀 한계

솔직하게 얘기하겠습니다. Build Mode가 만능은 아닙니다.

복잡한 로직이 필요한 앱에서는 아직 한계가 느껴집니다. “이 기능 추가해줘”를 반복하다 보면 어느 순간 코드가 꼬이는 경우가 있습니다. 에러가 나도 어디서 뭐가 잘못됐는지 코드를 모르면 파악하기 어렵습니다.

또 AI가 만들어준 앱은 내가 정확히 뭘 요청했느냐에 따라 품질이 크게 달라집니다. “음식 칼로리 앱 만들어줘”보다 “음식 이름을 입력하면 100g당 칼로리, 단백질, 탄수화물, 지방을 표로 보여주는 앱을 만들어줘. 여러 음식을 한번에 입력할 수 있고, 총 칼로리도 합산해서 보여줘”처럼 구체적으로 요청할수록 결과물이 훨씬 좋습니다.

그리고 Cloud Run 배포는 기본적으로 무료 티어가 있지만, 트래픽이 많아지면 비용이 발생합니다. 비개발자가 이 부분을 인지하지 못하면 나중에 요금 청구가 올 수도 있습니다. 처음 배포할 때 이 점을 확인해두는 게 좋습니다.

코딩을 모른다면 — 어디까지 가능할까

결론적으로, 2026년 4월 현재 Google AI Studio의 Build Mode는 비개발자가 쓸 수 있는 앱 빌더 중에서 가장 강력한 축에 속합니다. 풀스택 지원, Firebase 연동, Next.js 빌드까지 된다는 건 1~2년 전까지만 해도 상상하기 어려운 수준이었습니다.

그렇다고 코딩을 완전히 대체할 수 있다는 얘기는 아닙니다. 개인이 쓰는 간단한 도구, 소규모 팀을 위한 내부 앱, 아이디어를 빠르게 프로토타이핑하는 용도에서는 충분히 실용적입니다.

특히 “아이디어는 있는데 개발자를 구할 여건이 안 된다”거나 “간단한 앱 하나를 외주 맡기기엔 부담스럽다”는 상황이라면, Build Mode를 먼저 써보는 걸 추천합니다. 코딩을 모른다고 해서 앱을 못 만드는 시대는 이미 지났습니다.

다음 편에서는 이런 AI 도구를 활용한 개발 방식인 바이브코딩을 더 깊이 들여다보겠습니다.