AI로 제거할 것과 유지할 것

3 min read

이전 포스팅 이후 2주 동안 AI와 함께 꽤 많은 TIL을 썼다. Claude Code로 주제를 리서치하고, 대화하면서 학습하고, 플러그인으로 Obsidian에 자동 저장했다. 분야를 넘나들며 파일이 쌓였다.

연휴가 끝나고 업무에서 Datadog Synthetic Monitoring을 설정할 일이 생겼다. 분명 TIL을 쓴 기억이 있어서 파일을 열어봤다. 내용은 깔끔하게 정리되어 있었다. 그런데 읽어봐도 어디서부터 손을 대야 할지 감이 안 왔다.

불편한 질문이 떠올랐다.

나는 이걸 정말 이해한 걸까, 아니면 AI가 정리해준 걸 저장한 걸까?

이해가 남은 것과 파일만 남은 것

솔직하게 점검해봤다.

Claude Code의 Hooks는 지금도 설명할 수 있다. 공부할 때 "왜 이렇게 설계됐지?"라는 질문이 자꾸 떠올랐다. 이해가 안 되는 지점에서 멈추고, 다시 물었다. 그 불편함 안에서 이해가 생겼다.

Datadog은 달랐다. "이런 기능이 있구나"로 넘어갔다. 설명을 들으면 고개를 끄덕였다. 파일은 만들어졌지만, 내가 한 건 읽고 수긍한 것뿐이었다.

같은 도구, 같은 날인데 결과가 달랐다. 왜 달랐는지는 한참 뒤에야 알았다.

두 종류의 마찰

이 경험을 되짚으면서 학습에는 두 종류의 마찰이 있다는 걸 깨달았다.

행정적 마찰 — 정보를 찾고, 정리하고, 저장하는 과정. 검색하고, 탭을 열고, 파일을 만드는 것들. 이건 학습 자체가 아니라 학습의 부수 작업이다.

인지적 마찰 — 이해가 안 되는 지점에서 멈추고, "왜?"라고 묻고, 내 말로 다시 설명해보고, 틀리면 교정받는 과정. 이건 불편하지만, 이 불편함이 학습 그 자체다.

AI는 행정적 마찰을 거의 0으로 만들어준다. 검색하지 않아도 되고, 정리하지 않아도 되고, 저장도 자동으로 된다. 덕분에 인지적 마찰에 더 많은 시간을 쓸 수 있다 — 이론적으로는.

문제는 그 다음이다.

AI 이전에는 행정적 마찰이 인지적 마찰을 어느 정도 강제했다. 책을 다시 펼치고, 노트를 정리하고, 검색하는 과정에서 어쩔 수 없이 반복 노출이 생겼다. 완벽하지 않았지만, 그 비효율 안에 학습이 끼어 있었다.

AI가 그걸 없애면서, 인지적 마찰은 순수하게 선택의 문제가 됐다. 더 쉽게 깊어질 수 있게 됐는데, 동시에 더 쉽게 얕아질 수 있게도 됐다. "아 그렇구나"로 넘어가는 건 언제나 더 쉽고, 파일은 어차피 만들어지니까.

내가 저항한 곳에서 이해가 생겼고, 순순히 받아들인 곳에서는 파일만 남았다.

호기심이 생기는 구조

그러면 Hooks에서는 왜 저항이 생겼고, Datadog에서는 왜 안 생겼을까.

호기심은 의지로 만드는 게 아닌 것 같다. "자, 이제 호기심을 가져보자"고 다짐하지 않았다. 그냥 이해가 안 되는 게 보였고, 그게 신경 쓰였다. 호기심은 "모른다는 걸 아는 순간" 생기는 것 같다 — 아는 것과 새로운 정보가 충돌할 때, 뭔가 기대와 다를 때, 이해했다고 생각했는데 설명할 수 없을 때.

그런데 같은 기간에 Anki도 공부했다. 능동적 회상(Active Recall) — 답을 보기 전에 스스로 끌어내려는 시도가 기억을 강화한다는 원리. TIL로 정리까지 했다. 근데 Hooks를 공부하면서 "왜 이렇게 설계됐지?"라고 물었을 때, 그게 정확히 능동적 회상이었다는 걸 그때는 몰랐다. Datadog을 "아 그렇구나"하고 넘어갈 때, 그게 회상 없이 노출만 한 거라는 것도.

학습 방법론을 공부했는데, 그 공부에 적용하지 못했다. 파일은 있는데 이해는 없는 것의 가장 깔끔한 예가 내 Anki TIL이었다.

근데 아이러니하게도, 플러그인에 /til-review 기능을 만들면서 능동적 회상이 뭔지 처음으로 몸으로 알았다. Anki를 공부하면서 이해 못 했던 게, 그걸 구현하면서 이해됐다. 파일만 남았던 지식이 만드는 과정에서 살아났다.

학습이 구체적인 목표에 붙어 있을 때는 달랐다. 이해하지 못하면 작동하지 않았다. "아 그렇구나"로 넘어갈 수 없는 구조였다.

조건이 보였다. 호기심은 두 가지 상황에서 자연스럽게 생겼다 — 뭔가 이상한 게 걸릴 때, 그리고 학습이 구체적인 목표에 붙어 있을 때. 둘 다 "틀리면 바로 안다"는 피드백이 있었다.

그렇다면 조건을 만들 수 있을까. 완벽하진 않지만, 한 가지는 할 수 있다 — 질문을 먼저 던지는 것. "이게 뭔지" 말고 "왜 이렇게 만들었지", "이게 없으면 어떻게 됐을까", "어디서 이게 깨질까". 답을 받기 전에 잠깐, 이상한 게 없는지 먼저 보는 것.

질문이 잘 안 떠오르는 주제 앞에서는 여전히 잘 안 된다. 하지만 적어도, 그 자리를 만드는 것과 그냥 넘어가는 것의 차이는 있다.

마무리

AI는 행정적 마찰을 없애준다. 그 덕분에 인지적 마찰을 선택할 여지가 생긴다. 하지만 선택지가 생겼다는 건, 안 선택할 수도 있다는 뜻이다.

이건 학습만의 이야기가 아닌 것 같다. 인지적 마찰의 본질은 "내가 직접 판단하고 느끼는 과정"이다. 그게 학습에서는 이해이고, 의사결정에서는 납득이다. AI가 선택지를 정리해줄 때 "이게 나한테 맞는 선택인지" 느끼는 과정을 건너뛰면, 결정은 했는데 납득은 없는 상태가 된다. 패턴이 같다.

AI가 마찰을 줄여줄수록, 어떤 마찰을 남길지 고르는 건 점점 더 온전히 내 몫이 된다. 그리고 그 선택은 호기심이 생길 자리를 만드는 것에서 시작하는 것 같다. "왜?"라고 묻는 것 — 답을 받기 전에, 잠깐.