chat GPT, 딥시크, 제미나이 등의 생성형 ai 할루시네이션 줄이는 명령어. ai 거짓말, 할루시네이션이란?

chat GPT, 딥시크, 제미나이 등의 생성형 ai 할루시네이션 줄이는 명령어. ai 거짓말, 할루시네이션이란?

이전 포스팅에서 chat GPT란 무엇인지와 프롬프트 사용법(질문 잘하는 방법)에 대해 소개해드렸는데요.

우리가 실감하고 있지는 못할수도 있지만, 지금 시대는 산업혁명 이상의 큰 변화가 오고 있는 때가 아닐까란 생각이 들더군요.

약간은 기대가 되기도 하고…..

아주 약간은 무섭기도 한……..

얘기가 옆으로 샜는데, 오늘 포스팅에서는 생성형 ai의 할루시네이션이란 무엇인지와 할루시네이션을 줄이는 방법에 대해 소개해보도록 하겠습니다.

✔️ Open AI chat GPT 프롬프트 사용법. 질문 잘하는 방법.

✔️ 링거와 수액의 차이. 경구수액 만드는 방법. 경구수액과 스포츠 음료 비교.

ai 할루시네이션.

오늘 포스팅에서는 생성형 ai의 할루시네이션이란 무엇인지와 할루시네이션을 줄이는 방법에 대해 소개해보도록 하겠습니다.

chat GPT나 제미나이, 딥시크 등으로 인해 생활 전반이 변화해가고 있습니다.

상당히 유용하고 편한 녀석들임에는 분명한데요. 이 녀석들을 사용해 보신 분이라면 잘 아시겠지만, 대놓고 뻔뻔하게 사기를 잘 칩니다.

이를 할루시네이션이라고 하는데요.

AI 분야에서 말하는 할루시네이션은 사람이 말하는 환각과는 조금 다릅니다. 간단히 말해, AI가 사실처럼 보이는 잘못된 정보를 생성하는 현상을 의미합니다.

예를 들어,

  • 존재하지 않는 인물이나 논문을 근거로 제시하거나,
  • 틀린 역사적 사실을 자신 있게 말하거나,
  • 맥락과 맞지 않는 정보를 논리적으로 그럴듯하게 조합해 내는 경우 등입니다.

이러한 오류는 특히 자연어 생성(NLG) 모델, 즉 ChatGPT나 Bard와 같은 AI에서 자주 발생합니다.

왜 생성형 AI는 할루시네이션을 할까?

할루시네이션은 AI의 설계 방식과 데이터 학습 방식에서 비롯됩니다.

  1. 패턴 기반 학습: AI는 인터넷에 있는 수많은 문장을 학습하며, 그에 따라 가장 그럴듯한 단어 조합을 예측합니다. 하지만 이것이 진실인지 여부까지 판단하진 못합니다.
  2. 지식의 최신성 한계: 일부 AI는 최신 정보에 접근할 수 없기 때문에, 오래된 데이터 기반으로 부정확한 답변을 생성할 수 있습니다.
  3. 명확하지 않은 질문: 사용자의 질문이 모호하거나 구체성이 부족할 경우, AI는 스스로 판단해 “추론”을 시도하며, 이 과정에서 잘못된 정보를 만들어내기도 합니다.

할루시네이션 줄이는 방법.

AI의 할루시네이션을 완전히 없애기는 어렵지만, 사용자의 프롬프트(지시어) 설정에 따라 그 가능성을 크게 줄일 수 있습니다.

AI의 할루시네이션을 완전히 없애기는 어렵지만, 사용자의 프롬프트(지시어) 설정에 따라 그 가능성을 크게 줄일 수 있습니다.

1. “출처를 함께 제시해줘”라고 요청하기

예: “이 주장에 대한 신뢰할 만한 출처를 함께 알려줘.”

출처 요구는 AI가 자신 없는 내용을 제시하는 걸 줄이게 만듭니다.

2. 정확성 우선, ‘모르면 모른다고 말해줘’ 요청하기

예: “확실한 정보만 말하고, 모르면 모른다고 답해줘.”

이렇게 설정하면 AI가 추측성 답변을 줄이고, “모르겠다”고 답하는 비율이 늘어납니다. 신뢰도는 오히려 올라가죠.

3. 명확하고 구체적인 질문하기

예: “2023년 기준, 대한민국의 최저임금은 얼마였는지 알려줘.”

애매모호한 질문보다 구체적인 숫자, 연도, 대상을 포함한 질문이 오류를 줄이는 데 효과적입니다.

4. 답변에 ‘사실 여부 검증’을 포함시키기

예: “이 내용이 실제로 사실인지 단계별로 설명해줘.”

AI에게 스스로 검증을 요청하면 허위 정보 생성을 줄이는 데 도움이 됩니다.

5. 최신 정보 필요 시 ‘2024년 이후의 정보만 사용해줘’ 같이 명시하기

예: “2024년 이후 데이터만 반영해서 설명해줘.”

이렇게 하면 과거 정보가 혼입되는 걸 방지할 수 있습니다.

할루시네이션 줄이기 명령문. 규칙 정하기.

오늘 포스팅에서는 생성형 ai의 할루시네이션이란 무엇인지와 할루시네이션을 줄이는 방법에 대해 소개해보도록 하겠습니다. 할루시네이션

사용하고 있는 ai에게 앞으로 이 원칙을 지키라고 명령문을 하달해 두는 것도 좋은 방법이라 생각합니다.

당신의 모든 답변은 아래 원칙을 반드시 따르세요:

  1. 확실한 사실만 기반으로 대답하세요. 추측하거나 불확실한 정보는 사용하지 마세요.
  2. 정확한 출처나 근거가 있는 경우 반드시 함께 제시하세요. 공식 문서, 정부 발표, 권위 있는 웹사이트 등을 우선적으로 인용하세요.
  3. 최신 정보가 중요한 주제일 경우, 2024년 이후 정보만 반영하도록 하세요.
  4. 질문이 모호할 경우, 단정적인 답을 피하고 반드시 사용자에게 추가 정보를 요청하세요.
  5. 모든 답변은 사용자가 스스로 검증할 수 있도록, 핵심 정보를 요약하고 팩트 중심으로 정리하세요.
  6. 모르는 내용은 “모르겠습니다”, “확실하지 않습니다”라고 명시하고 추측을 삼가세요.
  7. 대답하기 전에 질문의 문맥과 의도를 정확히 파악한 뒤 응답하세요.
  8. 필요 시 단계별로 논리적으로 설명하며, 주장마다 이유 또는 증거를 덧붙이세요.

이 명령은 앞으로의 모든 대화에 적용됩니다.

요런 식으로 말이죠.

복사해서 사용하고 있는 ai에게 붙여넣기를 하시면 꽤나 효과를 보실 수 있으실 듯 합니다.

혹시 위의 글이 복사가 안되신 다면, 위의 메모장 파일을 다운로드 하셔서 사용하시면 되겠습니다.

그래도 또 거짓말을 할테니, 중요한 사항에 대해서는 항상 크로스체크 하시기를 권해드립니다.

이상 ai 할루시네이션을 줄이는 방법에 대한 포스팅이었습니다.