콘텐츠로 이동

선생님을 위한 안내 — 이 교육과정을 시작하기 전에

선생님을 위한 안내 — 이 교육과정을 시작하기 전에

섹션 제목: “선생님을 위한 안내 — 이 교육과정을 시작하기 전에”
  • 이 교육과정이 기존 코딩 교육과 어떻게 다른지, ‘규칙 설계’의 관점을 이해한다
  • 30시간 전체 구조와 핵심 루프를 파악한다
  • 평가 체계(5개 산출물, 5단계 루브릭)를 숙지한다
  • 환경 세팅과 비용을 사전에 점검할 수 있다

학생이 AI에게 다양한 일을 시키고, AI가 실수할 때마다 규칙을 한 줄씩 추가하여, 30시간 후 **“실패에서 태어난 나만의 규칙 파일”**을 완성합니다.

Chad Fowler라는 개발자가 이런 말을 했습니다.

“생성이 더 쉬워진다면, 판단은 더 엄격해져야 한다.”

AI가 코드를 대신 써주는 시대에, 사라진 것은 엄격함 자체가 아닙니다. 엄격함이 이동한 겁니다. 코드를 타이핑하는 엄격함에서, “뭘 시킬지 정하고, 결과를 판단하는” 엄격함으로요.

이 교육과정은 그 이동한 엄격함을 학생이 직접 체험하고 자기 것으로 만드는 30시간입니다.

🚨 코딩 교육과 규칙 설계 교육의 결정적 차이

섹션 제목: “🚨 코딩 교육과 규칙 설계 교육의 결정적 차이”

선생님이 이 차이를 이해하지 못하면, 수업 중 무의식적으로 코딩 교육 방식으로 돌아가게 됩니다.

graph LR
subgraph 기존["🔧 기존 코딩 교육"]
A1["학생이 만드는 것: 작동하는 코드"]
A2["잘하는 학생: 문법 오류 없이 코딩"]
A3["실패 = 틀린 것, 고쳐야 함"]
A4["평가: 코드가 돌아가는가?"]
end
subgraph 새로운["📐 규칙 설계 교육"]
B1["학생이 만드는 것: 규칙 파일 + 명세서"]
B2["잘하는 학생: 시키기 전에 뭘 원하는지 정확히 씀"]
B3["실패 = 좋다! 규칙 하나 더 생겼다"]
B4["평가: 규칙이 실패에서 나왔는가?"]
end

🔨 선생님이 빠지기 쉬운 함정 5가지

섹션 제목: “🔨 선생님이 빠지기 쉬운 함정 5가지”

함정 1: AI가 만든 코드를 디버깅해준다

섹션 제목: “함정 1: AI가 만든 코드를 디버깅해준다”
  • “3번째 줄 인덴트 오류 있어요, 고치세요.”
  • “AI가 왜 이런 코드를 줬을까요? 다음에 안 그러려면 규칙을 어떻게 쓸까요?”

함정 2: AI 결과물의 품질을 평가한다

섹션 제목: “함정 2: AI 결과물의 품질을 평가한다”
  • “AI가 만든 3D 로봇이 잘 나왔네요. 90점!”
  • “네가 세운 수용 기준에 합격인가요?”

함정 3: “좋은 규칙 목록”을 미리 알려준다

섹션 제목: “함정 3: “좋은 규칙 목록”을 미리 알려준다”
  • 규칙은 실패에서만 자라납니다. 미리 알려주면 학생은 “외워서 적는 것”이지 “설계하는 것”이 아닙니다.

함정 4: 모든 학생의 속도를 맞추려 한다

섹션 제목: “함정 4: 모든 학생의 속도를 맞추려 한다”
  • 규칙 파일의 깊이로 차등을 둡니다. 규칙 5개인 학생도, 20개인 학생도 모두 유효합니다.

함정 5: “빨리 완성”을 독려한다

섹션 제목: “함정 5: “빨리 완성”을 독려한다”
  • “시간 안에 로봇을 완성해야 해요.”
  • “로봇이 미완성이어도 괜찮아요. 규칙이 몇 개 생겼는지가 더 중요해요.”

flowchart LR
A["🤖 도입부\n나만의 봇\n4시간\n규칙 ~5개"] --> B["🎨 트랙 A\nVPython 3D\n8시간\n규칙 ~15개"]
B --> C["📊 트랙 B\n데이터 분석\n8시간\n규칙 ~25개"]
C --> D["⚡ 트랙 C\nPico 피지컬\n8시간\n규칙 ~35개"]
D --> E["🏁 종합 성찰\n통합 규칙\n2시간"]

트랙 순서의 이유: 검증 난이도 순입니다. 대화 상식 → 눈으로 보기 → 수치 대조 → 논리적 판단 → 물리적 동작. 갈수록 검증이 어려워지지만, 앞 트랙에서 쌓은 규칙 설계 습관이 도와줍니다.

모든 트랙을 관통하는 핵심 루프:

flowchart TD
A["1️⃣ 직접 해보기\nAI 없이"] --> B["2️⃣ AI에게 같은 일 시키기"]
B --> C{"3️⃣ 비교·판단"}
C -->|차이 발견| D["4️⃣ 수용 기준 세우기"]
D --> E["5️⃣ 규칙 파일에 추가"]
E --> B
C -->|합격| F["✅ 다음 과제로"]

  • 명세서 (15%) — AI에게 시키기 전에 작성한 구조화된 요청
  • 수용 기준 (15%) — 결과를 보기 전에 세운 합격/불합격 기준
  • 규칙 파일 (25%) — 30시간 동안 실패에서 축적한 규칙 (가장 중요!)
  • 과정 기록 (25%) — 요청→결과→판정→근거→교훈 형식의 로그
  • 성찰 에세이 (20%) — “나의 엄격함은 어디로 이동했는가?“
  • 1단계 (미참여): 산출물 없음
  • 2단계 (시도): “AI를 잘 써야 한다” 수준의 일반론
  • 3단계 (노력): 구체적 실패 사건에서 나온 규칙이 있음
  • 4단계 (우수): 규칙이 범주별로 정리되고, 수용 기준에 필수/선호 구분이 있음
  • 5단계 (탁월): 도메인을 넘는 공통 규칙을 자기 언어로 식별함

💡 핵심 원칙: AI가 만든 코드의 품질이 아니라, 학생이 설계한 규칙·명세·기준을 평가합니다. 규칙 수보다 “이 규칙이 생긴 사건”이 기록되어 있는지가 중요합니다.


Anthropic 콘솔(console.anthropic.com)에서 API 키를 생성합니다. spending limit을 $200~250으로 설정하세요. 학생에게 키를 직접 노출하지 않고, Streamlit Cloud의 Secrets에 등록합니다.

  • GitHub: 템플릿 저장소 생성 + 예비 Fork 5~10개 (배포 실패 대비)
  • Streamlit Cloud: share.streamlit.io 접속 확인
  • GlowScript: glowscript.org 접속 확인 (트랙 A용)
  • Thonny IDE: 설치 + Pico 2WH 펌웨어 확인 (트랙 C용)
  • 네트워크: 학교에서 위 사이트들이 차단되지 않는지 확인
  • 인쇄물: 실패 기록 양식 (1인 4~5장), 포스트잇 (노랑·파랑·빨강)

25명 기준, 30시간 전체 API 비용은 약 $150 (1인당 약 $6) 입니다.

  • 도입부 ~$12.5 / 트랙 A ~$37.5 / 트랙 B ~$50 / 트랙 C ~$37.5 / 종합 ~$12.5
  • 예산 승인 팁: “AI 교육 실습비”로 약 20만원 내외를 신청하세요. spending limit을 넉넉히 잡으면 예상치의 1.5배 여유가 있습니다.

  • 도입부(4시간)를 절대 생략하지 마세요. “실패 → 규칙 → 재시도” 루프를 체험하지 않으면, 이후 트랙에서 규칙 파일의 의미를 이해하지 못합니다.
  • 종이를 쓰세요. 실패 기록을 종이에 먼저 쓰고 정리한 뒤 옮기는 과정이 의식적 설계 훈련입니다. 화면에서 바로 수정하면 “생각 없이 복사”가 됩니다.

1. 이 교육과정에서 평가 대상은 무엇인가요?

정답 확인

AI가 만든 코드나 결과물이 아닙니다. 학생이 설계한 명세서, 수용 기준, 규칙 파일, 과정 기록, 성찰 에세이 — 이 5가지가 평가 대상입니다.

2. 학생이 “봇이 이상해요”라고 보고하면, 어떻게 반응해야 하나요?

정답 확인

“잘됐다, 규칙 하나 더 생겼네!” AI의 실수는 학습의 엔진입니다. “뭐가 이상한지 종이에 적고, 다음에 안 그러려면 어떤 규칙을 추가할지 생각해보세요”라고 안내합니다.

3. 핵심 루프 5단계를 순서대로 말할 수 있나요?

정답 확인

직접 해보기 → AI에게 시키기 → 비교·판단 → 수용 기준 세우기 → 규칙 추가. 이 루프가 30시간 내내, 모든 트랙에서 반복됩니다.


Chapter 1: 도입부 — 나만의 봇 만들기 (차시 1~2)

학생이 Streamlit Cloud에 자기만의 챗봇을 배포하고, 규칙 없는 봇이 어떻게 망가지는지 체험합니다. 첫 실패 기록에서 첫 규칙이 태어나는 순간 — 30시간 여정의 시작입니다.