InferenceConfig クラス
コンストラクター
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
パラメーター
名前 | 説明 |
---|---|
entry_script
必須
|
イメージに対して実行するコードを含むローカル ファイルへのパス。 |
runtime
|
イメージに使用するランタイム。 現在サポートされているランタイムは、'spark-py' と 'python' です。 規定値: None
|
conda_file
|
イメージに使用する conda 環境定義を含むローカル ファイルへのパス。 規定値: None
|
extra_docker_file_steps
|
イメージの設定時に実行する追加の Docker ステップを含むローカル ファイルへのパス。 規定値: None
|
source_directory
|
イメージを作成するすべてのファイルを含むフォルダーへのパス。 規定値: None
|
enable_gpu
|
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning Compute、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービスで使用する必要があります。 既定値は False です。 規定値: None
|
description
|
このイメージを指定する説明。 規定値: None
|
base_image
|
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合は、指定されたランタイム パラメーターに基づいて基本イメージが使用されます。 規定値: None
|
base_image_registry
|
基本イメージを含むイメージ レジストリ。 規定値: None
|
cuda_version
|
GPU サポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning Compute、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービスで使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
規定値: None
|
environment
|
デプロイに使用する環境オブジェクト。 環境を登録する必要はありません。 このパラメーターまたは他のパラメーターのいずれかを指定しますが、両方は指定しないでください。 個々のパラメーターは、環境オブジェクトのオーバーライドとして機能しません。 例外には、 規定値: None
|
entry_script
必須
|
イメージに対して実行するコードを含むローカル ファイルへのパス。 |
runtime
必須
|
イメージに使用するランタイム。 現在サポートされているランタイムは、'spark-py' と 'python' です。 |
conda_file
必須
|
イメージに使用する conda 環境定義を含むローカル ファイルへのパス。 |
extra_docker_file_steps
必須
|
イメージの設定時に実行する追加の Docker ステップを含むローカル ファイルへのパス。 |
source_directory
必須
|
イメージを作成するすべてのファイルを含むフォルダーへのパス。 |
enable_gpu
必須
|
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning Compute、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービスで使用する必要があります。 既定値は False です。 |
description
必須
|
このイメージを指定する説明。 |
base_image
必須
|
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合は、指定されたランタイム パラメーターに基づいて基本イメージが使用されます。 |
base_image_registry
必須
|
基本イメージを含むイメージ レジストリ。 |
cuda_version
必須
|
GPU サポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning Compute、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービスで使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
|
environment
必須
|
デプロイに使用する環境オブジェクト。 環境を登録する必要はありません。 このパラメーターまたは他のパラメーターのいずれかを指定しますが、両方は指定しないでください。 個々のパラメーターは、環境オブジェクトのオーバーライドとして機能しません。 例外には、 |
注釈
次の例では、InferenceConfig オブジェクトを作成し、それを使用してモデルをデプロイする方法を示します。
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
変数
名前 | 説明 |
---|---|
entry_script
|
イメージに対して実行するコードを含むローカル ファイルへのパス。 |
runtime
|
イメージに使用するランタイム。 現在サポートされているランタイムは、'spark-py' と 'python' です。 |
conda_file
|
イメージに使用する conda 環境定義を含むローカル ファイルへのパス。 |
extra_docker_file_steps
|
イメージの設定時に実行する追加の Docker ステップを含むローカル ファイルへのパス。 |
source_directory
|
イメージを作成するすべてのファイルを含むフォルダーへのパス。 |
enable_gpu
|
イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning Compute、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービスで使用する必要があります。 |
azureml.core.model.InferenceConfig.description
|
このイメージを指定する説明。 |
base_image
|
基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合は、指定されたランタイム パラメーターに基づいて基本イメージが使用されます。 |
base_image_registry
|
基本イメージを含むイメージ レジストリ。 |
cuda_version
|
GPU サポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning Compute、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービスで使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。
|
azureml.core.model.InferenceConfig.environment
|
デプロイに使用する環境オブジェクト。 環境を登録する必要はありません。 このパラメーターまたは他のパラメーターのいずれかを指定しますが、両方は指定しないでください。 個々のパラメーターは、環境オブジェクトのオーバーライドとして機能しません。 例外には、 |
メソッド
build_create_payload |
コンテナー イメージの作成ペイロードをビルドします。 |
build_profile_payload |
モデル パッケージのプロファイリング ペイロードをビルドします。 |
validate_configuration |
指定した構成値が有効であることを確認します。 検証が失敗した場合に WebserviceException を発生させます。 |
validation_script_content |
スコア スクリプトの構文が ast.parse で有効であることを確認します。 検証が失敗した場合に UserErrorException を発生させます。 |
build_create_payload
build_profile_payload
モデル パッケージのプロファイリング ペイロードをビルドします。
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
パラメーター
名前 | 説明 |
---|---|
profile_name
必須
|
プロファイル実行の名前。 |
input_data
|
プロファイリング用の入力データ。 規定値: None
|
workspace
|
モデルをプロファイリングする Workspace オブジェクト。 規定値: None
|
models
|
モデル オブジェクトの一覧。 空のリストを指定できます。 規定値: None
|
dataset_id
|
プロファイリング実行の入力データを含むデータセットに関連付けられている ID。 規定値: None
|
container_resource_requirements
|
モデルのデプロイ先となる最大インスタンスのコンテナー リソース要件 規定値: None
|
description
|
プロファイル実行に関連付ける説明。 規定値: None
|
戻り値
型 | 説明 |
---|---|
モデル プロファイル ペイロード |
例外
型 | 説明 |
---|---|
validate_configuration
validation_script_content
スコア スクリプトの構文が ast.parse で有効であることを確認します。
検証が失敗した場合に UserErrorException を発生させます。
validation_script_content()
例外
型 | 説明 |
---|---|