ChatGPT, 이럴 땐 절대 쓰지 마세요
자소서·논문에 의존하다 망하는 진짜 이유와 해결법
"ChatGPT로 글쓰기가 너무 쉬워졌대."
그 말, 반은 맞고 반은 틀립니다.
실제로 많은 사람들이 자기소개서, 리포트, 블로그, 심지어 논문까지도 ChatGPT에 맡기고 있습니다.
하지만 그렇게 작성된 글이 '표절', '부정행위', '내용 오류'로 판명돼 낭패를 본 사례도 많습니다.
AI가 쓴 글은 '생산성 도구'가 될 수도 있지만, 잘못 쓰면 부메랑이 되어 돌아옵니다.
이번 포스팅에서는 ChatGPT 사용 시 주의해야 할 상황과 그에 대한 해결책을 자세히 소개합니다.
ChatGPT, 언제 쓰면 안 되는 걸까?
1. 자기소개서 (자소서)
문제점: AI가 생성하는 자소서는 문장이 과도하게 정형화되어 있으며, 감정과 개인 경험이 결여돼 있습니다.
예시:
- "저는 항상 책임감을 가지고 업무에 임해왔습니다."
- "성실함과 끈기를 바탕으로 어려움을 극복했습니다."
이런 문장은 많은 지원자들이 동일하게 쓰는 문장입니다.
면접관들은 이런 'AI 냄새' 나는 표현을 수백 번 봤기 때문에 즉시 알아차립니다.
실제 사례:
한 대기업 인사팀에서는 “지원서 10개 중 3개는 AI 특유의 문장 구조와 단어 선택이 반복돼 필터링된다”고 밝혔습니다.
2. 학위 논문, 리포트
문제점: ChatGPT는 논리적인 문장을 작성할 수 있지만, 사실 검증을 하지 않습니다.
예시:
- "2023년 OECD 보고서에 따르면 한국의 출산율은 1.3명이다." → 실제 출처는 존재하지 않거나 수치가 다를 수 있음
- 참고문헌 표기 없이, '그럴듯하게 만든 내용'을 나열할 가능성 있음
위험성:
- 대학에서 AI 생성물은 ‘표절’로 간주
- 졸업 논문에서 ChatGPT 사용 사실이 발각되어 논문 반려된 사례 존재
- GPT 사용을 탐지하는 TurnItIn AI Detector, GPTZero 등 프로그램이 실제 사용 중
3. 법률·의료·금융 콘텐츠
문제점: 전문성과 정확성이 필수인 분야에 AI는 절대적인 신뢰를 줄 수 없습니다.
AI는 기존 텍스트 기반으로 추론하기 때문에, 최신 법령이나 개정된 정책을 반영하지 못합니다.
예시:
- “2024년부터 퇴직연금 IRP 세액공제는 연 900만 원까지 가능합니다.” → 실제로는 700만 원이 한도
- “갑의 책임은 민법 제300조에 의거하여 성립합니다.” → 조문 번호 오류 또는 잘못된 인용
그렇다면, 어떻게 써야 할까?
1. 구조 설계에 활용하라
AI에게 전체 글을 맡기지 말고, '글의 뼈대'만 요청하세요.
예: "고객 응대 경험 중심 자소서 목차 추천해줘", "기획안 초안 틀 만들어줘"
→ 글을 ‘시작’하는 데 도움을 줄 수는 있어도, ‘완성’까지 맡기면 안 됩니다.
2. 내 이야기를 직접 써 넣어라
실전 비교:
- ChatGPT 생성: "고객과의 소통을 통해 문제를 해결한 경험이 있습니다."
- 직접 쓴 문장: "작년 9월, 한 고객님이 예약 시스템 문제로 불만을 제기하셨고, 그 상황에서 제가 직접 시스템 로그를 확인해 해결까지 30분 내에 처리했던 경험이 있습니다."
이런 디테일과 구체성은 AI가 만들어낼 수 없습니다.
3. AI의 답변은 반드시 검증하라
ChatGPT는 틀린 정보를 그럴듯하게 말할 수 있습니다.
따라서 '사실 기반 문서' 작성 시엔 반드시 2차 검증이 필요합니다.
예:
- “최근 한국은행은 기준금리를 인하했다.” → 날짜, 수치 반드시 확인
- “정부 보조금은 3년간 지급된다.” → 최신 정책 공고 확인 필수
요약: AI는 비서다. 작가는 아니다
ChatGPT는 글을 쓰는 데 있어 강력한 보조 도구입니다.
하지만 완성된 글을 대체할 수는 없습니다.
자기소개서, 논문, 정책자료 같은 ‘핵심 문서’는
내 경험과 판단을 바탕으로 직접 작성해야 신뢰를 얻을 수 있습니다.