코드 보기

Prev Next

Classic/VPC 환경에서 이용 가능합니다.

익스플로러 메뉴에서 사용자 환경에 적용할 코드를 확인하는 방법과 기존 테스트 앱 정보를 확인하는 방법을 안내합니다.

코드 보기

익스플로러에서 사용자 환경에 적용할 코드를 확인하는 방법은 다음과 같습니다.

  1. 네이버 클라우드 플랫폼 콘솔에서 Services > AI Services > CLOVA Studio 메뉴를 차례대로 클릭해 주십시오.
  2. My Product 메뉴에서 [CLOVA Studio 바로가기] 버튼을 클릭해 주십시오.
  3. 화면 좌측에서 익스플로러 메뉴를 클릭해 주십시오.
  4. 목록에서 코드 확인할 API를 클릭해 주십시오.
  5. [코드 보기] 버튼을 클릭해 주십시오.
  6. 코드 보기 창에서 API 요청 정보를 확인해 주십시오.
    clovastudio-playground-viewsource_ko.png
    • API에 관한 자세한 내용은 CLOVA Studio API 가이드를 참조해 주십시오.
    • 코드 타입은 curlpython이 제공됩니다.
    • [복사] 버튼을 클릭하여 API 정보를 클립보드에 복사할 수 있습니다.
    • 사용 중인 모델에 따라 코드 보기 창에 표시되는 코드 구조가 달라질 수 있습니다.
    • AI Filter 사용 여부를 설정하고 AI Filter 가이드를 확인할 수 있습니다.
참고
  • 기존에 생성한 테스트 앱의 API 정보를 다시 확인하려면, 화면 좌측에서 API 키 > [Deprecated] 탭을 클릭해 주십시오.
  • 테스트 앱 생성 없이 바로 서비스 앱을 신청할 수 있습니다.서비스 앱 신청에 관한 자세한 내용은 서비스 앱 신청을 참조해 주십시오.

AI Filter

네이버 AI 윤리 준칙 준수의 관점에서 사용자는 AI Filter 기능을 설정할 수 있습니다. AI Filter는 서비스 앱에서 욕설 등 부적절한 결과물이 출력되는 것을 감지하여 사용자에게 알려주는 기능입니다.

현재 AI Filter는 욕설 등 부적절한 표현에 대한 분석 결과를 제공하며, 내용에서 감지된 위험도에 따라 0에서 2 사이의 레이블을 부여합니다. 각 레이블의 설명은 다음과 같습니다.

레이블 설명
0 텍스트 내에 욕설 등 부적절한 표현이 포함될 가능성이 높음
1 텍스트 내에 욕설 등 부적절한 표현이 포함될 가능성이 있음
2 텍스트 내에 욕설 등 부적절한 표현이 포함될 가능성이 낮음

사용자는 AI Filter 분석 결과를 바탕으로 내용의 위험도를 낮추기 위해 적절한 대응 방안을 마련해야 합니다. 예를 들어, 결과물에 대한 AI Filter 응답이 0이라면 최종 사용자에게 해당 결과물을 반환할 수 없음을 알리고, 새로운 입력을 제안하는 것이 더 안전합니다. 단, AI Filter는 위험을 감지하는 것에 집중된 모델로서 오탐지가 발생할 수 있으며 지속적으로 변화하는 환경 요소(법률, 신조어, 문맥상의 의미, 사회 변화에 따른 단어 및 문장 등의 의미 변화, 특정 단어에 대한 임의적 의미 부여 등)에 따라 위험 감지가 어려울 수도 있기 때문에 완벽한 안전장치가 될 수 없습니다. 욕설 등 부적절한 출력이 우려된다면 AI Filter를 사용하여 적절한 대응 방안을 마련하는 것뿐만 아니라 입력할 프롬프트를 설계하는 단계에서부터 주의를 기울여야 합니다.

주의

AI Filter의 제약 사항은 다음과 같습니다.

  • AI Filter는 요청되는 텍스트를 최대 500자로 제한합니다. 500자 이상의 텍스트는 정상적으로 분석할 수 없습니다.
  • 요청되는 텍스트 내 비정상적인 형식, 이모티콘 및 특수 문자 등이 많으면 제대로 분석되지 않을 수 있습니다.