Compartir a través de


core Paquete

Contiene la funcionalidad principal de las canalizaciones de Azure Machine Learning, que son flujos de trabajo de aprendizaje automático configurables.

Las canalizaciones de Azure Machine Learning permiten crear flujos de trabajo de aprendizaje automático que se pueden usar como plantilla para los escenarios de aprendizaje automático. Este paquete contiene la funcionalidad principal para trabajar con canalizaciones de Azure ML y se usa normalmente junto con las clases del steps paquete.

Una canalización de aprendizaje automático se representa mediante una colección de PipelineStep objetos que se pueden secuenciar y paralelizar o crearse con dependencias explícitas entre pasos. Los pasos de canalización se usan para definir un Pipeline objeto que representa el flujo de trabajo que se va a ejecutar. Puede crear y trabajar con canalizaciones en un cuaderno de Jupyter Notebook o con cualquier otro IDE con el SDK de Azure ML instalado.

Las canalizaciones de Azure ML permiten centrarse en el aprendizaje automático en lugar de en la infraestructura. Para empezar a compilar una canalización, consulte https://aka.ms/pl-first-pipeline.

Para más información sobre las ventajas de la canalización de Machine Learning y cómo está relacionada con otras canalizaciones que ofrece Azure, consulte ¿Qué son las canalizaciones de MACHINE Learning en Azure Machine Learning Service?

Módulos

builder

Define clases para crear una canalización de Azure Machine Learning.

Un gráfico de canalización se compone de pasos de canalización (PipelineStep), datos de canalización opcionales (PipelineData) generados o consumidos en cada paso y una secuencia de ejecución de pasos opcional (StepSequence).

graph

Define clases para construir gráficos de canalización de Azure Machine Learning.

Los gráficos de canalización de Azure ML se crean para Pipeline objetos, cuando se usan PipelineStep (y clases derivadas), PipelineDatay PipelineData objetos . En casos de uso típicos, no tendrá que usar directamente las clases de este módulo.

Un gráfico de ejecución de canalización consta de nodos de módulo que representan unidades básicas, como un origen de datos o un paso. Los nodos pueden tener puertos de entrada y puertos de salida y parámetros asociados. Los bordes definen relaciones entre dos puertos de nodo en un gráfico.

module

Contiene clases para crear y administrar unidades de cálculo que se pueden volver a usar de una canalización de Azure Machine Learning.

Los módulos permiten crear unidades de cálculo en , Pipelineque pueden tener entradas, salidas y confiar en parámetros y una configuración de entorno para funcionar. Un módulo se puede versionar y usar en diferentes canalizaciones de Azure Machine Learning a diferencia PipelineStep de las clases derivadas (y que se usan en una canalización).

Los módulos están diseñados para reutilizarse en varias canalizaciones y pueden evolucionar para adaptar una lógica de cálculo específica para distintos casos de uso. Un paso de una canalización se puede usar en iteraciones rápidas para mejorar un algoritmo y, una vez que se logra el objetivo, el algoritmo normalmente se publica como módulo para habilitar la reutilización.

module_step_base

Contiene la funcionalidad para agregar un paso a una canalización mediante una versión de .Module

pipeline

Define la clase para crear flujos de trabajo de Azure Machine Learning reutilizables.

pipeline_draft

Define clases para administrar canalizaciones mutables.

pipeline_endpoint

Define clases para administrar canalizaciones, incluidos el control de versiones y los puntos de conexión.

pipeline_output_dataset

Contiene funcionalidad para promover una salida intermedia a un conjunto de datos de Azure Machine Learning.

Los datos intermedios (salida) de una canalización de forma predeterminada no se convertirán en un conjunto de datos de Azure Machine Learning. Para promover datos intermedios a un conjunto de datos de Azure Machine Learning, llame al as_dataset método en la clase PipelineData para devolver un PipelineOutputFileDataset objeto. Desde un objeto PipelineOutputFileDataset, puede crear un PipelineOutputTabularDataset objeto.

run

Define clases para canalizaciones enviadas, incluidas las clases para comprobar el estado y recuperar los detalles de ejecución.

schedule

Define clases para programar envíos de canalizaciones de Azure Machine Learning.

Clases

InputPortBinding

Define un enlace de un origen a una entrada de un paso de canalización.

InputPortBinding se puede usar como entrada para un paso. El origen puede ser , PipelineDataPortDataReference, DataReference, PipelineDataseto OutputPortBinding.

InputPortBinding es útil para especificar el nombre de la entrada del paso, si debe ser diferente del nombre del objeto de enlace (es decir, para evitar nombres de entrada y salida duplicados o porque el script de paso necesita una entrada para tener un nombre determinado). También se puede usar para especificar el bind_mode para PythonScriptStep las entradas.

Inicialice InputPortBinding.

Module

Representa una unidad de cálculo que se usa en una canalización de Azure Machine Learning.

Un módulo es una colección de archivos que se ejecutarán en un destino de proceso y una descripción de una interfaz. La colección de archivos puede ser script, archivos binarios o cualquier otro archivo necesario para ejecutarse en el destino de proceso. La interfaz del módulo describe las entradas, salidas y definiciones de parámetros. No los enlaza a valores o datos específicos. Un módulo tiene una instantánea asociada, que captura la colección de archivos definidos para el módulo.

Inicializar módulo.

ModuleVersion

Representa la unidad de cálculo real dentro de .Module

No debe usar esta clase directamente. En su lugar, use uno de los métodos de publicación de la Module clase .

Inicializar ModuleVersion.

ModuleVersionDescriptor

Define la versión y el identificador de .ModuleVersion

Initialize ModuleVersionDescriptor.

OutputPortBinding

Define una salida con nombre de un paso de canalización.

OutputPortBinding se puede usar para especificar el tipo de datos que se producirán paso a paso y cómo se generarán los datos. Se puede usar con InputPortBinding para especificar que la salida del paso es una entrada necesaria de otro paso.

Inicialice OutputPortBinding.

Pipeline

Representa una colección de pasos que se pueden ejecutar como un flujo de trabajo reutilizable de Azure Machine Learning.

Use una canalización para crear y administrar flujos de trabajo que unen varias fases de aprendizaje automático. Cada fase de aprendizaje automático, como la preparación de datos y el entrenamiento del modelo, puede constar de uno o varios pasos en una canalización.

Para obtener información general sobre por qué y cuándo usar canalizaciones, consulte https://aka.ms/pl-concept.

Para obtener información general sobre la construcción de una canalización, consulte https://aka.ms/pl-first-pipeline.

Inicializar canalización.

PipelineData

Representa datos intermedios en una canalización de Azure Machine Learning.

Los datos usados en la canalización se pueden producir en un paso y consumirse en otro paso proporcionando un objeto PipelineData como salida de un paso y una entrada de uno o varios pasos posteriores.

Tenga en cuenta que si usa los datos de canalización, asegúrese de que el directorio usado existía.

Ejemplo de Python para asegurarse de que el directorio existía, supongamos que tiene un puerto de salida denominado output_folder en un paso de canalización, quiere escribir algunos datos en la ruta de acceso relativa de esta carpeta.


   import os
   os.makedirs(args.output_folder, exist_ok=True)
   f = open(args.output_folder + '/relative_path/file_name', 'w+')

PipelineData usa DataReference subyacente que ya no es el enfoque recomendado para el acceso y la entrega de datos, use OutputFileDatasetConfig en su lugar, puede encontrar un ejemplo aquí: Canalización mediante OutputFileDatasetConfig.

Inicializar PipelineData.

PipelineDataset

Actúa como adaptador para el conjunto de datos y la canalización.

Nota:

Esta clase está en desuso. Para aprender a usar el conjunto de datos con la canalización, consulte https://aka.ms/pipeline-with-dataset.

Se trata de una clase interna. No debe crear esta clase directamente, sino llamar a los métodos de instancia de as_* en las clases Dataset o OutputDatasetConfig.

Actúe como adaptador para el conjunto de datos y la canalización.

Se trata de una clase interna. No debe crear esta clase directamente, sino llamar a los métodos de instancia de as_* en las clases Dataset o OutputDatasetConfig.

PipelineDraft

Representa una canalización mutable que se puede usar para enviar ejecuciones y crear canalizaciones publicadas.

Use PipelineDrafts para iterar en canalizaciones. PipelineDrafts se puede crear desde cero, otra pipelineDraft o canalizaciones existentes: Pipeline, PublishedPipelineo PipelineRun.

Inicializar PipelineDraft.

PipelineEndpoint

Representa un Pipeline flujo de trabajo que se puede desencadenar desde una dirección URL de punto de conexión única.

PipelineEndpoints se puede usar para crear nuevas versiones de un PublishedPipeline mientras se mantiene el mismo punto de conexión. PipelineEndpoints se denominan de forma única dentro de un área de trabajo.

Con el atributo endpoint de un objeto PipelineEndpoint, puede desencadenar nuevas ejecuciones de canalización desde aplicaciones externas con llamadas REST. Para obtener información sobre cómo autenticarse al llamar a puntos de conexión REST, consulte https://aka.ms/pl-restep-auth.

Para más información sobre cómo crear y ejecutar canalizaciones de aprendizaje automático, consulte https://aka.ms/pl-first-pipeline.

Inicializar PipelineEndpoint.

PipelineParameter

Define un parámetro en una ejecución de canalización.

Use PipelineParameters para construir canalizaciones versátiles que se pueden volver a enviar más adelante con distintos valores de parámetro.

Inicialice los parámetros de canalización.

PipelineRun

Representa una ejecución de .Pipeline

Esta clase se puede usar para administrar, comprobar el estado y recuperar los detalles de ejecución una vez que se envía una ejecución de canalización. Use get_steps para recuperar los StepRun objetos creados por la ejecución de la canalización. Otros usos incluyen recuperar el Graph objeto asociado a la ejecución de la canalización, capturar el estado de la ejecución de la canalización y esperar la finalización de la ejecución.

Inicialice una ejecución de canalización.

PipelineStep

Representa un paso de ejecución en una canalización de Azure Machine Learning.

Las canalizaciones se construyen a partir de varios pasos de canalización, que son unidades de cálculo distintas en la canalización. Cada paso puede ejecutarse de forma independiente y usar recursos de proceso aislados. Cada paso normalmente tiene sus propias entradas, salidas y parámetros con nombre.

La clase PipelineStep es la clase base de la que se heredan otras clases de paso integradas diseñadas para escenarios comunes, como PythonScriptStep, DataTransferStepy HyperDriveStep.

Para obtener información general sobre cómo se relacionan las canalizaciones y PipelineSteps, consulte ¿Qué son las canalizaciones de ML?

Inicializar PipelineStep.

PortDataReference

Modela los datos asociados a una salida de un StepRun completado.

Un objeto PortDataReference se puede usar para descargar los datos de salida generados por .StepRun También se puede usar como entrada de paso en una canalización futura.

Inicialice PortDataReference.

PublishedPipeline

Representa una canalización que se va a enviar sin el código de Python que lo construyó.

Además, se puede usar publishedPipeline para volver a enviar un Pipeline con valores y entradas diferentes PipelineParameter .

Inicialice PublishedPipeline.

:p aram punto de conexión La dirección URL del punto de conexión REST para enviar ejecuciones de canalización para esta canalización. :type endpoint: str :p aram total_run_steps: el número de pasos de esta canalización :type total_run_steps: int :p aram workspace: el área de trabajo de la canalización publicada. :type workspace: azureml.core.Workspace :p aram continue_on_step_failure: Si desea continuar la ejecución de otros pasos en PipelineRun

si se produce un error en un paso, el valor predeterminado es false.

Schedule

Define una programación en la que se va a enviar una canalización.

Una vez publicada una canalización, se puede usar una programación para enviar la canalización a un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.

Inicializar programación.

ScheduleRecurrence

Define la frecuencia, el intervalo y la hora de inicio de una canalización Schedule.

ScheduleRecurrence también permite especificar la zona horaria y las horas o minutos o días de la semana para la periodicidad.

Inicialice una periodicidad de programación.

También permite especificar la zona horaria y las horas o minutos o días de la semana para la periodicidad.

StepRun

Ejecución de un paso en un Pipeline.

Esta clase se puede usar para administrar, comprobar el estado y recuperar los detalles de ejecución una vez que se envía la ejecución de la canalización primaria y la canalización ha enviado la ejecución del paso.

Inicialice un StepRun.

StepRunOutput

Representa una salida creada por en StepRun una canalización.

StepRunOutput se puede usar para acceder PortDataReference al objeto creado por el paso.

Inicializar StepRunOutput.

StepSequence

Representa una lista de pasos de Pipeline y el orden en el que se van a ejecutar.

Use stepSequence al inicializar una canalización para crear un flujo de trabajo que contenga pasos para ejecutarse en un orden específico.

Inicialice StepSequence.

TrainingOutput

Define una salida especializada de determinados PipelineSteps para su uso en una canalización.

TrainingOutput permite que una métrica o modelo de aprendizaje automático automatizado esté disponible como salida de paso para que lo consuma otro paso en una canalización de Azure Machine Learning. Se puede usar con AutoMLStep o HyperDriveStep.

Inicialice TrainingOutput.

param model_file: el archivo de modelo específico que se va a incluir en la salida. Sólo para HyperDriveStep .

Enumeraciones

TimeZone

Enumera las zonas horarias válidas para una periodicidad Schedule.