다음을 통해 공유


OpenAI 호환 Google Gemini API 가져오기

적용 대상: 모든 API Management 계층

이 문서에서는 다음과 같은 gemini-2.0-flash모델에 액세스하기 위해 OpenAI 호환 Google Gemini API를 가져오는 방법을 보여 줍니다. 이러한 모델의 경우 Azure API Management는 OpenAI 호환 채팅 완료 엔드포인트를 관리할 수 있습니다.

API Management에서 AI API를 관리하는 방법에 대해 자세히 알아봅니다.

필수 조건

포털을 사용하여 OpenAI 호환 Gemini API 가져오기

  1. Azure Portal에서 API Management 인스턴스로 이동합니다.

  2. 왼쪽 메뉴의 API에서 API>+ API 추가를 선택합니다.

  3. 새 API 정의에서 언어 모델 API를 선택합니다.

    포털에서 통과 언어 모델 API를 만드는 스크린샷

  4. API 구성 탭에서 다음을 수행합니다.

    1. API에 대한 표시 이름과 선택 사항인 설명을 입력합니다.

    2. URLGemini OpenAI 호환성 설명서에서 다음 기본 URL을 입력합니다.https://generativelanguage.googleapis.com/v1beta/openai

    3. 경로에서 API Management 인스턴스가 Gemini API 엔드포인트로 요청을 라우팅하는 데 사용하는 경로를 추가합니다.

    4. 형식에서 OpenAI API 만들기를 선택합니다.

    5. Access 키에서 다음을 입력합니다.

      1. 헤더 이름: 권한 부여.
      2. 헤더 값(키): Bearer Gemini API에 대한 API 키가 뒤따릅니다.

    포털에서 Gemini LLM API를 가져오는 스크린샷

  5. 나머지 탭에서 필요에 따라 토큰 소비, 의미 체계 캐싱 및 AI 콘텐츠 안전을 관리하는 정책을 구성합니다. 자세한 내용은 언어 모델 API 가져오기를 참조하세요.

  6. 검토를 선택합니다.

  7. 설정의 유효성을 검사한 후 만들기를 선택합니다.

API Management는 API를 만들고 다음을 구성합니다.

  • API 요청을 Google Gemini 엔드포인트로 전송하는 백 엔드 리소스 및 set-backend-service 정책입니다.
  • 제공한 Gemini API 키를 사용하여 LLM 백 엔드에 액세스합니다. 키는 API Management에서 명명된 비밀 값 으로 보호됩니다.
  • (선택 사항) API를 모니터링하고 관리하는 데 도움이 되는 정책입니다.

Gemini 모델 테스트

API를 가져온 후 API에 대한 채팅 완료 엔드포인트를 테스트할 수 있습니다.

  1. 이전 단계에서 만든 API를 선택합니다.

  2. 테스트 탭을 선택합니다.

  3. POST Creates a model response for the given chat conversation 작업을 선택합니다. 이는 /chat/completions 엔드포인트에 대한 POST 요청입니다.

  4. 요청 본문 섹션에서 다음 JSON을 입력하여 모델 및 예제 프롬프트를 지정합니다. 이 예제에서는 gemini-2.0-flash 모델이 사용됩니다.

    {
        "model": "gemini-2.0-flash",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    테스트가 성공하면 백 엔드는 성공적인 HTTP 응답 코드와 일부 데이터로 응답합니다. 응답에 추가된 토큰 사용량 데이터는 언어 모델 토큰 사용량을 모니터링하고 관리하는 데 도움이 됩니다.

    포털에서 Gemini LLM API를 테스트하는 스크린샷