본문 바로가기
카테고리 없음

ChatGPT, 이럴 땐 절대 쓰지 마세요. 제발 좀!

by 서기0606 2025. 6. 11.

ChatGPT, 이럴 땐 절대 쓰지 마세요

자소서·논문에 의존하다 망하는 진짜 이유와 해결법


"ChatGPT로 글쓰기가 너무 쉬워졌대."
그 말, 반은 맞고 반은 틀립니다.

실제로 많은 사람들이 자기소개서, 리포트, 블로그, 심지어 논문까지도 ChatGPT에 맡기고 있습니다.
하지만 그렇게 작성된 글이 '표절', '부정행위', '내용 오류'로 판명돼 낭패를 본 사례도 많습니다.

AI가 쓴 글은 '생산성 도구'가 될 수도 있지만, 잘못 쓰면 부메랑이 되어 돌아옵니다.
이번 포스팅에서는 ChatGPT 사용 시 주의해야 할 상황과 그에 대한 해결책을 자세히 소개합니다.


ChatGPT, 언제 쓰면 안 되는 걸까?

1. 자기소개서 (자소서)

문제점: AI가 생성하는 자소서는 문장이 과도하게 정형화되어 있으며, 감정과 개인 경험이 결여돼 있습니다.

예시:

  • "저는 항상 책임감을 가지고 업무에 임해왔습니다."
  • "성실함과 끈기를 바탕으로 어려움을 극복했습니다."

이런 문장은 많은 지원자들이 동일하게 쓰는 문장입니다.
면접관들은 이런 'AI 냄새' 나는 표현을 수백 번 봤기 때문에 즉시 알아차립니다.

실제 사례:
한 대기업 인사팀에서는 “지원서 10개 중 3개는 AI 특유의 문장 구조와 단어 선택이 반복돼 필터링된다”고 밝혔습니다.


2. 학위 논문, 리포트

문제점: ChatGPT는 논리적인 문장을 작성할 수 있지만, 사실 검증을 하지 않습니다.

예시:

  • "2023년 OECD 보고서에 따르면 한국의 출산율은 1.3명이다." → 실제 출처는 존재하지 않거나 수치가 다를 수 있음
  • 참고문헌 표기 없이, '그럴듯하게 만든 내용'을 나열할 가능성 있음

위험성:

  • 대학에서 AI 생성물은 ‘표절’로 간주
  • 졸업 논문에서 ChatGPT 사용 사실이 발각되어 논문 반려된 사례 존재
  • GPT 사용을 탐지하는 TurnItIn AI Detector, GPTZero 등 프로그램이 실제 사용 중

3. 법률·의료·금융 콘텐츠

문제점: 전문성과 정확성이 필수인 분야에 AI는 절대적인 신뢰를 줄 수 없습니다.
AI는 기존 텍스트 기반으로 추론하기 때문에, 최신 법령이나 개정된 정책을 반영하지 못합니다.

예시:

  • “2024년부터 퇴직연금 IRP 세액공제는 연 900만 원까지 가능합니다.” → 실제로는 700만 원이 한도
  • “갑의 책임은 민법 제300조에 의거하여 성립합니다.” → 조문 번호 오류 또는 잘못된 인용

그렇다면, 어떻게 써야 할까?

1. 구조 설계에 활용하라

AI에게 전체 글을 맡기지 말고, '글의 뼈대'만 요청하세요.
예: "고객 응대 경험 중심 자소서 목차 추천해줘", "기획안 초안 틀 만들어줘"

→ 글을 ‘시작’하는 데 도움을 줄 수는 있어도, ‘완성’까지 맡기면 안 됩니다.


2. 내 이야기를 직접 써 넣어라

실전 비교:

  • ChatGPT 생성: "고객과의 소통을 통해 문제를 해결한 경험이 있습니다."
  • 직접 쓴 문장: "작년 9월, 한 고객님이 예약 시스템 문제로 불만을 제기하셨고, 그 상황에서 제가 직접 시스템 로그를 확인해 해결까지 30분 내에 처리했던 경험이 있습니다."

이런 디테일구체성은 AI가 만들어낼 수 없습니다.


3. AI의 답변은 반드시 검증하라

ChatGPT는 틀린 정보를 그럴듯하게 말할 수 있습니다.
따라서 '사실 기반 문서' 작성 시엔 반드시 2차 검증이 필요합니다.

예:

  • “최근 한국은행은 기준금리를 인하했다.” → 날짜, 수치 반드시 확인
  • “정부 보조금은 3년간 지급된다.” → 최신 정책 공고 확인 필수

요약: AI는 비서다. 작가는 아니다

ChatGPT는 글을 쓰는 데 있어 강력한 보조 도구입니다.
하지만 완성된 글을 대체할 수는 없습니다.
자기소개서, 논문, 정책자료 같은 ‘핵심 문서’는
내 경험과 판단을 바탕으로 직접 작성해야 신뢰를 얻을 수 있습니다.