Classic/VPC 환경에서 이용 가능합니다.
튜닝에서 수행한 작업의 테스트 앱을 생성하는 방법을 설명합니다.
테스트 앱 생성
튜닝 작업의 테스트 앱을 생성하는 방법은 다음과 같습니다.
- 네이버 클라우드 플랫폼 콘솔에서 Services > AI Services > CLOVA Studio 메뉴를 차례대로 클릭해 주십시오.
- My Product 메뉴에서 [CLOVA Studio 바로가기] 버튼을 클릭해 주십시오.
- 화면 상단의 프로필 > 내 작업 > [튜닝] 탭을 클릭해 주십시오.
- 테스트 앱을 생성할 작업 이름을 클릭해 주십시오.
- 학습이 완료된 작업만 테스트 앱을 생성할 수 있습니다.
- [테스트 앱 생성] 버튼을 클릭해 주십시오.
- 테스트 앱 이름을 입력한 후 [생성] 버튼을 클릭해 주십시오.
- 테스트 앱이 생성되고 테스트 앱 팝업 창이 나타납니다.
- 테스트 앱 팝업 창에서 테스트 앱의 API 정보를 확인해 주십시오.
- API에 관한 자세한 내용은 CLOVA Studio API 가이드를 참조해 주십시오.
- 코드 타입은 curl과 python이 제공됩니다.
- [복사] 버튼을 클릭하여 API 정보를 클립보드에 복사할 수 있습니다.
- AI Filter 사용 여부를 설정하고 AI Filter 가이드를 확인할 수 있습니다.
주의[기존] 탭의 호출 및 인증 방식과 코드는 제공이 중단될 예정입니다. 더 편리한 CLOVA Studio 서비스 이용을 위해 [신규] 탭의 API 및 코드를 이용하는 것을 권장합니다.
- 생성한 테스트 앱의 API 정보를 다시 확인하려면 화면 우측 상단에 있는 프로필 > 앱 신청 현황 > [테스트 앱] 탭을 클릭해 주십시오.
- 테스트 앱을 생성하여 사용에 문제가 없는지 확인한 후 서비스 앱을 신청할 수 있습니다. 서비스 앱 신청에 관한 자세한 내용은 서비스 앱 신청을 참조해 주십시오.
AI Filter
네이버 AI 윤리 준칙 준수의 관점에서 사용자는 AI Filter 기능을 설정할 수 있습니다. AI Filter는 테스트 앱에서 욕설 등 부적절한 결과물이 출력되는 것을 감지하여 사용자에게 알려주는 기능입니다.
현재 AI Filter는 욕설 등 부적절한 표현에 대한 분석 결과를 제공하며, 내용에서 감지된 위험도에 따라 0에서 2 사이의 레이블을 부여합니다. 각 레이블의 설명은 다음과 같습니다.
레이블 | 설명 |
---|---|
0 | 텍스트 내에 욕설 등 부적절한 표현이 포함될 가능성이 높음 |
1 | 텍스트 내에 욕설 등 부적절한 표현이 포함될 가능성이 있음 |
2 | 텍스트 내에 욕설 등 부적절한 표현이 포함될 가능성이 낮음 |
사용자는 AI Filter 분석 결과를 바탕으로 내용의 위험도를 낮추기 위해 적절한 대응 방안을 마련해야 합니다. 예를 들어, 결과물에 대한 AI Filter 응답이 0이라면 최종 사용자에게 해당 결과물을 반환할 수 없음을 알리고, 새로운 입력을 제안하는 것이 더 안전합니다. 단, AI Filter는 위험을 감지하는 것에 집중된 모델로서 오탐지가 발생할 수 있으며 지속적으로 변화하는 환경 요소(법률, 신조어, 문맥상의 의미, 사회 변화에 따른 단어 및 문장 등의 의미 변화, 특정 단어에 대한 임의적 의미 부여 등)에 따라 위험 감지가 어려울 수도 있기 때문에 완벽한 안전장치가 될 수 없습니다. 욕설 등 부적절한 출력이 우려된다면 AI Filter를 사용하여 적절한 대응 방안을 마련하는 것뿐만 아니라 입력할 프롬프트를 설계하는 단계에서부터 주의를 기울여야 합니다.
AI Filter의 제약 사항은 다음과 같습니다.
- AI Filter는 요청되는 텍스트를 최대 500자로 제한합니다. 500자 이상의 텍스트는 정상적으로 분석할 수 없습니다.
- 요청되는 텍스트 내 비정상적인 형식, 이모티콘 및 특수 문자 등이 많으면 제대로 분석되지 않을 수 있습니다.