Dataset Clase
Representa un recurso para explorar, transformar y administrar datos en Azure Machine Learning.
Un conjunto de datos es una referencia a los datos de una Datastore dirección URL web pública o detrás de ellos.
Para los métodos en desuso en esta clase, compruebe la AbstractDataset clase para ver las API mejoradas.
Se admiten los siguientes tipos de conjuntos de datos:
TabularDataset representa los datos en un formato tabular creado mediante el análisis del archivo o la lista de archivos proporcionados.
FileDataset hace referencia a uno o varios archivos en almacenes de datos o desde direcciones URL públicas.
Para empezar a trabajar con conjuntos de datos, consulte el artículo Agregar y registrar conjuntos de datos, o vea los cuadernos https://aka.ms/tabulardataset-samplenotebook y https://aka.ms/filedataset-samplenotebook.
Inicialice el objeto Dataset.
Para obtener un conjunto de datos que ya se ha registrado en el área de trabajo, use el método get.
Constructor
Dataset(definition, workspace=None, name=None, id=None)
Parámetros
Nombre | Description |
---|---|
definition
Requerido
|
<xref:azureml.data.DatasetDefinition>
Definición del conjunto de datos. |
workspace
Requerido
|
Área de trabajo en la que existe el conjunto de datos. |
name
Requerido
|
Nombre del conjunto de datos. |
id
Requerido
|
Identificador único del conjunto de datos. |
Comentarios
La clase Dataset expone dos atributos de clase útiles (File
y Tabular
) que puede usar para crear un conjunto de datos sin trabajar con los métodos de fábrica correspondientes. Por ejemplo, para crear un conjunto de datos mediante estos atributos:
Dataset.Tabular.from_delimited_files()
Dataset.File.from_files()
También puede crear un nuevo objeto TabularDataset o FileDataset llamando directamente a los métodos de fábrica correspondientes de la clase definida en TabularDatasetFactory y FileDatasetFactory.
En el ejemplo siguiente se muestra cómo crear un objeto TabularDataset que apunte a una única ruta de acceso en un almacén de datos.
from azureml.core import Dataset
dataset = Dataset.Tabular.from_delimited_files(path = [(datastore, 'train-dataset/tabular/iris.csv')])
# preview the first 3 rows of the dataset
dataset.take(3).to_pandas_dataframe()
El ejemplo completo está disponible en https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/work-with-data/datasets-tutorial/train-with-datasets/train-with-datasets.ipynb
Variables
Nombre | Description |
---|---|
azureml.core.Dataset.File
|
Atributo de clase que proporciona acceso a los métodos FileDatasetFactory para crear nuevos objetos FileDataset. Uso: Dataset.File.from_files(). |
azureml.core.Dataset.Tabular
|
Atributo de clase que proporciona acceso a los métodos TabularDatasetFactory para crear nuevos objetos TabularDataset. Uso: Dataset.Tabular.from_delimited_files(). |
Métodos
archive |
Archivar un conjunto de datos activo o en desuso. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
auto_read_files |
Analiza los archivos en la ruta de acceso especificada y devuelve un nuevo conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar los métodos Dataset.Tabular.from_* para leer archivos. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
compare_profiles |
Compare el perfil del conjunto de datos actual con otro perfil de conjunto de datos. Esto muestra las diferencias en las estadísticas de resumen entre dos conjuntos de datos. El parámetro "rhs_dataset" significa "lado derecho" y es simplemente el segundo conjunto de datos. El primer conjunto de datos (el objeto del conjunto de datos actual) se considera el "lado izquierdo". Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
create_snapshot |
Cree una instantánea del conjunto de datos registrado. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
delete_snapshot |
Elimine la instantánea del conjunto de datos por nombre. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
deprecate |
Desuso de un conjunto de datos activo en un área de trabajo por otro conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
diff |
Diff the current Dataset with rhs_dataset. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
from_binary_files |
Cree un conjunto de datos en memoria sin registrar a partir de archivos binarios. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar Dataset.File.from_files en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
from_delimited_files |
Cree un conjunto de datos en memoria sin registrar a partir de archivos delimitados. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar Dataset.Tabular.from_delimited_files en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
|
from_excel_files |
Cree un conjunto de datos en memoria sin registrar a partir de archivos de Excel. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
from_json_files |
Cree un conjunto de datos en memoria sin registrar a partir de archivos JSON. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar Dataset.Tabular.from_json_lines_files en su lugar para leer desde el archivo de líneas JSON. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
from_pandas_dataframe |
Cree un conjunto de datos en memoria sin registrar a partir de un dataframe de Pandas. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar Dataset.Tabular.register_pandas_dataframe en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
from_parquet_files |
Cree un conjunto de datos en memoria sin registrar a partir de archivos parquet. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar Dataset.Tabular.from_parquet_files en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
from_sql_query |
Cree un conjunto de datos en memoria sin registrar a partir de una consulta SQL. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar Dataset.Tabular.from_sql_query en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
generate_profile |
Genere un nuevo perfil para el conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
get |
Obtenga un conjunto de datos que ya exista en el área de trabajo especificando su nombre o identificador. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar get_by_name y get_by_id en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
get_all |
Obtenga todos los conjuntos de datos registrados en el área de trabajo. |
get_all_snapshots |
Obtenga todas las instantáneas del conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
get_by_id |
Obtenga un conjunto de datos que se guarda en el área de trabajo. |
get_by_name |
Obtenga un conjunto de datos registrado del área de trabajo por su nombre de registro. |
get_definition |
Obtenga una definición específica del conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
get_definitions |
Obtenga todas las definiciones del conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
get_profile |
Obtenga estadísticas de resumen en el conjunto de datos calculado anteriormente. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
get_snapshot |
Obtenga la instantánea del conjunto de datos por nombre. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
head |
Extraiga el número especificado de registros especificados de este conjunto de datos y los devuelve como dataframe. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
list |
Enumere todos los conjuntos de datos del área de trabajo, incluidos los que tienen Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar get_all en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
reactivate |
Reactivar un conjunto de datos archivado o en desuso. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
register |
Registre el conjunto de datos en el área de trabajo, lo que hace que esté disponible para otros usuarios del área de trabajo. Nota: Este método está en desuso y ya no se admitirá. Se recomienda usar register en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
sample |
Genere un nuevo ejemplo a partir del conjunto de datos de origen mediante la estrategia de muestreo y los parámetros proporcionados. Nota: Este método está en desuso y ya no se admitirá. Cree un mediante una TabularDataset llamada a los métodos estáticos en Dataset.Tabular y use el take_sample método allí. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
to_pandas_dataframe |
Cree un dataframe de Pandas ejecutando la canalización de transformación definida por esta definición de conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Cree un mediante una TabularDataset llamada a los métodos estáticos en Dataset.Tabular y use el to_pandas_dataframe método allí. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
to_spark_dataframe |
Cree un DataFrame de Spark que pueda ejecutar la canalización de transformación definida por esta definición de conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Cree un mediante una TabularDataset llamada a los métodos estáticos en Dataset.Tabular y use el to_spark_dataframe método allí. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
update |
Actualice los atributos mutables del conjunto de datos en el área de trabajo y devuelva el conjunto de datos actualizado del área de trabajo. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
update_definition |
Actualice la definición del conjunto de datos. Nota: Este método está en desuso y ya no se admitirá. Para obtener más información, consulte https://aka.ms/dataset-deprecation. |
archive
Archivar un conjunto de datos activo o en desuso.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
archive()
Devoluciones
Tipo | Description |
---|---|
Ninguno. |
Comentarios
Después del archivado, cualquier intento de consumir el conjunto de datos producirá un error. Si se archiva por accidente, reactivará la activará.
auto_read_files
Analiza los archivos en la ruta de acceso especificada y devuelve un nuevo conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar los métodos Dataset.Tabular.from_* para leer archivos. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static auto_read_files(path, include_path=False, partition_format=None)
Parámetros
Nombre | Description |
---|---|
path
Requerido
|
Ruta de acceso de datos en un almacén de datos registrado, una ruta de acceso local o una dirección URL HTTP (CSV/TSV). |
include_path
Requerido
|
Si se debe incluir una columna que contenga la ruta de acceso del archivo desde el que se leyeron los datos. Resulta útil al leer varios archivos y desea saber a qué archivo se originó un registro determinado. También resulta útil si hay información en la ruta de acceso del archivo o el nombre que desea en una columna. |
partition_format
Requerido
|
Especifique el formato de partición en la ruta de acceso y cree columnas de cadena a partir del formato '{x}' y la columna datetime del formato '{x:aaaa/MM/dd/HH/mm/ss}', donde 'aaaa', 'MM', 'dd', 'HH', 'mm' y 'ss' se usan para extrat year, month, day, hour, minute y second para el tipo datetime. El formato debe comenzar desde la posición de la primera clave de partición hasta el final de la ruta de acceso del archivo. Por ejemplo, dada una ruta de acceso de archivo '.. /Accounts/2019/01/01/data.csv' donde los datos se particionan por nombre y hora del departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.csv' para crear columnas 'Department' de tipo de cadena y 'PartitionDate' del tipo datetime. |
Devoluciones
Tipo | Description |
---|---|
Objeto dataset. |
Comentarios
Use este método cuando se detecten automáticamente formatos de archivo y delimitadores.
Después de crear un conjunto de datos, debe usar get_profile para enumerar los tipos de columna detectados y las estadísticas de resumen de cada columna.
El conjunto de datos devuelto no está registrado en el área de trabajo.
compare_profiles
Compare el perfil del conjunto de datos actual con otro perfil de conjunto de datos.
Esto muestra las diferencias en las estadísticas de resumen entre dos conjuntos de datos. El parámetro "rhs_dataset" significa "lado derecho" y es simplemente el segundo conjunto de datos. El primer conjunto de datos (el objeto del conjunto de datos actual) se considera el "lado izquierdo".
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
compare_profiles(rhs_dataset, profile_arguments={}, include_columns=None, exclude_columns=None, histogram_compare_method=HistogramCompareMethod.WASSERSTEIN)
Parámetros
Nombre | Description |
---|---|
rhs_dataset
Requerido
|
Un segundo conjunto de datos, también denominado conjunto de datos "lado derecho" para la comparación. |
profile_arguments
Requerido
|
Argumentos para reintentar perfil específico. |
include_columns
Requerido
|
Lista de nombres de columna que se van a incluir en comparación. |
exclude_columns
Requerido
|
Lista de nombres de columna que se van a excluir en comparación. |
histogram_compare_method
Requerido
|
Enumeración que describe el método de comparación, por ejemplo: Wasserstein o Energy |
Devoluciones
Tipo | Description |
---|---|
<xref:azureml.dataprep.api.engineapi.typedefinitions.DataProfileDifference>
|
Diferencia entre los dos perfiles de conjunto de datos. |
Comentarios
Solo para conjuntos de datos registrados. Genera una excepción si el perfil del conjunto de datos actual no existe. Para conjuntos de datos no registrados, use el método profile.compare.
create_snapshot
Cree una instantánea del conjunto de datos registrado.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
create_snapshot(snapshot_name, compute_target=None, create_data_snapshot=False, target_datastore=None)
Parámetros
Nombre | Description |
---|---|
snapshot_name
Requerido
|
Nombre de la instantánea. Los nombres de instantánea deben ser únicos dentro de un conjunto de datos. |
compute_target
Requerido
|
Destino de proceso opcional para realizar la creación del perfil de instantánea. Si se omite, se usa el proceso local. |
create_data_snapshot
Requerido
|
Si es True, se creará una copia materializada de los datos. |
target_datastore
Requerido
|
Almacén de datos de destino para guardar la instantánea. Si se omite, la instantánea se creará en el almacenamiento predeterminado del área de trabajo. |
Devoluciones
Tipo | Description |
---|---|
Objeto de instantánea del conjunto de datos. |
Comentarios
Las instantáneas capturan estadísticas de resumen a un momento dado de los datos subyacentes y una copia opcional de los propios datos. Para más información sobre la creación de instantáneas, vaya a https://aka.ms/azureml/howto/createsnapshots.
delete_snapshot
Elimine la instantánea del conjunto de datos por nombre.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
delete_snapshot(snapshot_name)
Parámetros
Nombre | Description |
---|---|
snapshot_name
Requerido
|
Nombre de la instantánea. |
Devoluciones
Tipo | Description |
---|---|
Ninguno. |
Comentarios
Úselo para liberar el almacenamiento consumido por los datos guardados en instantáneas que ya no necesite.
deprecate
Desuso de un conjunto de datos activo en un área de trabajo por otro conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
deprecate(deprecate_by_dataset_id)
Parámetros
Nombre | Description |
---|---|
deprecate_by_dataset_id
Requerido
|
Identificador del conjunto de datos que es el reemplazo previsto para este conjunto de datos. |
Devoluciones
Tipo | Description |
---|---|
Ninguno. |
Comentarios
Los conjuntos de datos en desuso registrarán advertencias cuando se consuman. La desuso de un conjunto de datos deja de usar todas sus definiciones.
Los conjuntos de datos en desuso todavía se pueden consumir. Para bloquear completamente que se consuma un conjunto de datos, archivelo.
Si está en desuso por accidente, se activará.
diff
Diff the current Dataset with rhs_dataset.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
diff(rhs_dataset, compute_target=None, columns=None)
Parámetros
Nombre | Description |
---|---|
rhs_dataset
Requerido
|
Otro conjunto de datos también denominado Conjunto de datos del lado derecho para la comparación |
compute_target
Requerido
|
destino de proceso para realizar la diferencia. Si se omite, se usa el proceso local. |
columns
Requerido
|
Lista de nombres de columna que se van a incluir en diferencias. |
Devoluciones
Tipo | Description |
---|---|
Objeto de ejecución de acción del conjunto de datos. |
from_binary_files
Cree un conjunto de datos en memoria sin registrar a partir de archivos binarios.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar Dataset.File.from_files en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static from_binary_files(path)
Parámetros
Nombre | Description |
---|---|
path
Requerido
|
Ruta de acceso de datos en un almacén de datos registrado o una ruta de acceso local. |
Devoluciones
Tipo | Description |
---|---|
Objeto Dataset. |
Comentarios
Use este método para leer archivos como secuencias de datos binarios. Devuelve un objeto de secuencia de archivos por lectura de archivo. Use este método cuando lea imágenes, vídeos, audio u otros datos binarios.
get_profile y create_snapshot no funcionarán según lo previsto para un conjunto de datos creado por este método.
El conjunto de datos devuelto no está registrado en el área de trabajo.
from_delimited_files
Cree un conjunto de datos en memoria sin registrar a partir de archivos delimitados.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar Dataset.Tabular.from_delimited_files en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
# Create a dataset from delimited files with header option as ALL_FILES_HAVE_SAME_HEADERS
dataset = Dataset.Tabular.from_delimited_files(path=(datastore, 'data/crime-spring.csv'),
header='ALL_FILES_HAVE_SAME_HEADERS')
df = dataset.to_pandas_dataframe()
static from_delimited_files(path, separator=',', header=PromoteHeadersBehavior.ALL_FILES_HAVE_SAME_HEADERS, encoding=FileEncoding.UTF8, quoting=False, infer_column_types=True, skip_rows=0, skip_mode=SkipLinesBehavior.NO_ROWS, comment=None, include_path=False, archive_options=None, partition_format=None)
Parámetros
Nombre | Description |
---|---|
path
Requerido
|
Ruta de acceso de datos en un almacén de datos registrado, una ruta de acceso local o una dirección URL HTTP. |
separator
Requerido
|
Separador usado para dividir columnas. |
header
Requerido
|
Controla cómo se promueven los encabezados de columna al leer archivos. |
encoding
Requerido
|
Codificación de los archivos que se van a leer. |
quoting
Requerido
|
Especifique cómo controlar los nuevos caracteres de línea entre comillas. El valor predeterminado (False) es interpretar los nuevos caracteres de línea como inicio de nuevas filas, independientemente de si los nuevos caracteres de línea están entre comillas o no. Si se establece en True, los nuevos caracteres de línea dentro de comillas no darán lugar a nuevas filas y la velocidad de lectura de archivos se ralentizará. |
infer_column_types
Requerido
|
Indica si se deducen los tipos de datos de columna. |
skip_rows
Requerido
|
Número de filas que se van a omitir en los archivos que se van a leer. |
skip_mode
Requerido
|
Controla cómo se omiten las filas al leer archivos. |
comment
Requerido
|
Carácter usado para indicar líneas de comentario en los archivos que se leen. Se omitirán las líneas que comienzan con esta cadena. |
include_path
Requerido
|
Si se debe incluir una columna que contenga la ruta de acceso del archivo desde el que se leyeron los datos. Esto resulta útil cuando está leyendo varios archivos y desea saber de qué archivo se originó un registro determinado o para mantener información útil en la ruta de acceso del archivo. |
archive_options
Requerido
|
<xref:azureml.dataprep.ArchiveOptions>
Opciones para el archivo de archivo, incluido el tipo de archivo y el patrón glob de entrada. Solo se admite ZIP como tipo de archivo en este momento. Por ejemplo, especificando
lee todos los archivos con el nombre que termina con "10-20.csv" en ZIP. |
partition_format
Requerido
|
Especifique el formato de partición en la ruta de acceso y cree columnas de cadena a partir del formato '{x}' y la columna datetime del formato '{x:aaaa/MM/dd/HH/mm/ss}', donde 'aaaa', 'MM', 'dd', 'HH', 'mm' y 'ss' se usan para extrat year, month, day, hour, minute y second para el tipo datetime. El formato debe comenzar desde la posición de la primera clave de partición hasta el final de la ruta de acceso del archivo. Por ejemplo, dada una ruta de acceso de archivo '.. /Accounts/2019/01/01/data.csv' donde los datos se particionan por nombre y hora del departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.csv' para crear columnas 'Department' de tipo de cadena y 'PartitionDate' del tipo datetime. |
Devoluciones
Tipo | Description |
---|---|
Objeto dataset. |
Comentarios
Use este método para leer archivos de texto delimitados cuando desee controlar las opciones usadas.
Después de crear un conjunto de datos, debe usar get_profile para enumerar los tipos de columna detectados y las estadísticas de resumen de cada columna.
El conjunto de datos devuelto no está registrado en el área de trabajo.
from_excel_files
Cree un conjunto de datos en memoria sin registrar a partir de archivos de Excel.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static from_excel_files(path, sheet_name=None, use_column_headers=False, skip_rows=0, include_path=False, infer_column_types=True, partition_format=None)
Parámetros
Nombre | Description |
---|---|
path
Requerido
|
Ruta de acceso de datos en un almacén de datos registrado o una ruta de acceso local. |
sheet_name
Requerido
|
Nombre de la hoja de Excel que se va a cargar. De forma predeterminada, se lee la primera hoja de cada archivo de Excel. |
use_column_headers
Requerido
|
Controla si se va a usar la primera fila como encabezados de columna. |
skip_rows
Requerido
|
Número de filas que se van a omitir en los archivos que se van a leer. |
include_path
Requerido
|
Si se debe incluir una columna que contenga la ruta de acceso del archivo desde el que se leyeron los datos. Esto resulta útil cuando está leyendo varios archivos y desea saber de qué archivo se originó un registro determinado o para mantener información útil en la ruta de acceso del archivo. |
infer_column_types
Requerido
|
Si es true, se deducirán los tipos de datos de columna. |
partition_format
Requerido
|
Especifique el formato de partición en la ruta de acceso y cree columnas de cadena a partir del formato '{x}' y la columna datetime del formato '{x:aaaa/MM/dd/HH/mm/ss}', donde 'aaaa', 'MM', 'dd', 'HH', 'mm' y 'ss' se usan para extrat year, month, day, hour, minute y second para el tipo datetime. El formato debe comenzar desde la posición de la primera clave de partición hasta el final de la ruta de acceso del archivo. Por ejemplo, dada una ruta de acceso de archivo '.. /Accounts/2019/01/01/data.xlsx' donde los datos se particionan por nombre y hora del departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.xlsx' para crear columnas 'Department' de tipo de cadena y 'PartitionDate' del tipo datetime. |
Devoluciones
Tipo | Description |
---|---|
Objeto dataset. |
Comentarios
Use este método para leer archivos de Excel en formato .xlsx. Los datos se pueden leer desde una hoja en cada archivo de Excel. Después de crear un conjunto de datos, debe usar get_profile para enumerar los tipos de columna detectados y las estadísticas de resumen de cada columna. El conjunto de datos devuelto no está registrado en el área de trabajo.
from_json_files
Cree un conjunto de datos en memoria sin registrar a partir de archivos JSON.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar Dataset.Tabular.from_json_lines_files en su lugar para leer desde el archivo de líneas JSON. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static from_json_files(path, encoding=FileEncoding.UTF8, flatten_nested_arrays=False, include_path=False, partition_format=None)
Parámetros
Nombre | Description |
---|---|
path
Requerido
|
Ruta de acceso a los archivos o carpetas que desea cargar y analizar. Puede ser una ruta de acceso local o una dirección URL de blob de Azure. Se admite la globbing. Por ejemplo, puede usar path = "./data*" para leer todos los archivos con el nombre a partir de "data". |
encoding
Requerido
|
Codificación de los archivos que se van a leer. |
flatten_nested_arrays
Requerido
|
Propiedad que controla el control del programa de matrices anidadas. Si decide aplanar matrices JSON anidadas, podría dar lugar a un número mucho mayor de filas. |
include_path
Requerido
|
Indica si se debe incluir una columna que contenga la ruta de acceso desde la que se leyeron los datos. Esto es útil cuando se leen varios archivos y es posible que desee saber a qué archivo se originó un registro determinado o para mantener información útil en la ruta de acceso del archivo. |
partition_format
Requerido
|
Especifique el formato de partición en la ruta de acceso y cree columnas de cadena a partir del formato '{x}' y la columna datetime del formato '{x:aaaa/MM/dd/HH/mm/ss}', donde 'aaaa', 'MM', 'dd', 'HH', 'mm' y 'ss' se usan para extrat year, month, day, hour, minute y second para el tipo datetime. El formato debe comenzar desde la posición de la primera clave de partición hasta el final de la ruta de acceso del archivo. Por ejemplo, dada una ruta de acceso de archivo '.. /Accounts/2019/01/01/data.json' y los datos se particionan por nombre y hora del departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.json' para crear columnas 'Departamento' de tipo de cadena y 'PartitionDate' de tipo datetime. |
Devoluciones
Tipo | Description |
---|---|
Objeto Dataset local. |
from_pandas_dataframe
Cree un conjunto de datos en memoria sin registrar a partir de un dataframe de Pandas.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar Dataset.Tabular.register_pandas_dataframe en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static from_pandas_dataframe(dataframe, path=None, in_memory=False)
Parámetros
Nombre | Description |
---|---|
dataframe
Requerido
|
DataFrame de Pandas. |
path
Requerido
|
Ruta de acceso de datos en el almacén de datos registrado o la ruta de acceso de carpeta local. |
in_memory
Requerido
|
Indica si se va a leer el dataframe de la memoria en lugar de conservarlo en el disco. |
Devoluciones
Tipo | Description |
---|---|
Un objeto Dataset. |
Comentarios
Use este método para convertir un dataframe de Pandas en un objeto Dataset. No se puede registrar un conjunto de datos creado por este método, ya que los datos proceden de la memoria.
Si in_memory
es False, el DataFrame de Pandas se convierte en un archivo CSV localmente. Si pat
es de tipo DataReference, el marco pandas se cargará en el almacén de datos y el conjunto de datos se basará en DataReference. Si ''path' es una carpeta local, el conjunto de datos se creará fuera del archivo local que no se puede eliminar.
Genera una excepción si dataReference actual no es una ruta de acceso de carpeta.
from_parquet_files
Cree un conjunto de datos en memoria sin registrar a partir de archivos parquet.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar Dataset.Tabular.from_parquet_files en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static from_parquet_files(path, include_path=False, partition_format=None)
Parámetros
Nombre | Description |
---|---|
path
Requerido
|
Ruta de acceso de datos en un almacén de datos registrado o una ruta de acceso local. |
include_path
Requerido
|
Si se debe incluir una columna que contenga la ruta de acceso del archivo desde el que se leyeron los datos. Esto resulta útil cuando está leyendo varios archivos y desea saber de qué archivo se originó un registro determinado o para mantener información útil en la ruta de acceso del archivo. |
partition_format
Requerido
|
Especifique el formato de partición en la ruta de acceso y cree columnas de cadena a partir del formato '{x}' y la columna datetime del formato '{x:aaaa/MM/dd/HH/mm/ss}', donde 'aaaa', 'MM', 'dd', 'HH', 'mm' y 'ss' se usan para extrat year, month, day, hour, minute y second para el tipo datetime. El formato debe comenzar desde la posición de la primera clave de partición hasta el final de la ruta de acceso del archivo. Por ejemplo, dada una ruta de acceso de archivo '.. /Accounts/2019/01/01/data.parquet" donde los datos se particionan por nombre y hora del departamento, podemos definir '/{Department}/{PartitionDate:yyyy/MM/dd}/data.parquet' para crear columnas 'Department' de tipo de cadena y 'PartitionDate' de tipo datetime. |
Devoluciones
Tipo | Description |
---|---|
Objeto dataset. |
Comentarios
Use este método para leer archivos Parquet.
Después de crear un conjunto de datos, debe usar get_profile para enumerar los tipos de columna detectados y las estadísticas de resumen de cada columna.
El conjunto de datos devuelto no está registrado en el área de trabajo.
from_sql_query
Cree un conjunto de datos en memoria sin registrar a partir de una consulta SQL.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar Dataset.Tabular.from_sql_query en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static from_sql_query(data_source, query)
Parámetros
Nombre | Description |
---|---|
data_source
Requerido
|
Detalles del almacén de datos de Azure SQL. |
query
Requerido
|
Consulta que se va a ejecutar para leer datos. |
Devoluciones
Tipo | Description |
---|---|
Objeto Dataset local. |
generate_profile
Genere un nuevo perfil para el conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
generate_profile(compute_target=None, workspace=None, arguments=None)
Parámetros
Nombre | Description |
---|---|
compute_target
Requerido
|
Un destino de proceso opcional para realizar la creación del perfil de instantánea. Si se omite, se usa el proceso local. |
workspace
Requerido
|
Área de trabajo, necesaria para conjuntos de datos transitorios (no registrados). |
arguments
Requerido
|
Argumentos de perfil. Los argumentos válidos son:
|
Devoluciones
Tipo | Description |
---|---|
Objeto de ejecución de acción del conjunto de datos. |
Comentarios
La llamada sincrónica se bloqueará hasta que se complete. Llame get_result a para obtener el resultado de la acción.
get
Obtenga un conjunto de datos que ya exista en el área de trabajo especificando su nombre o identificador.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar get_by_name y get_by_id en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static get(workspace, name=None, id=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo de AzureML existente en la que se creó el conjunto de datos. |
name
Requerido
|
Nombre del conjunto de datos que se va a recuperar. |
id
Requerido
|
Identificador único del conjunto de datos en el área de trabajo. |
Devoluciones
Tipo | Description |
---|---|
Conjunto de datos con el nombre o el identificador especificados. |
Comentarios
Puede proporcionar o name
id
. Se produce una excepción si:
name
yid
se especifican, pero no coinciden.el conjunto de datos con el especificado
name
oid
no se encuentra en el área de trabajo.
get_all
Obtenga todos los conjuntos de datos registrados en el área de trabajo.
get_all()
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo de AzureML existente en la que se registraron los conjuntos de datos. |
Devoluciones
Tipo | Description |
---|---|
Diccionario de objetos TabularDataset y FileDataset con clave por su nombre de registro. |
get_all_snapshots
Obtenga todas las instantáneas del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
get_all_snapshots()
Devoluciones
Tipo | Description |
---|---|
Lista de instantáneas del conjunto de datos. |
get_by_id
Obtenga un conjunto de datos que se guarda en el área de trabajo.
get_by_id(id, **kwargs)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo de AzureML existente en la que se guarda el conjunto de datos. |
id
Requerido
|
Identificador del conjunto de datos. |
Devoluciones
Tipo | Description |
---|---|
Objeto de conjunto de datos. Si el conjunto de datos está registrado, también se devolverá su nombre de registro y su versión. |
get_by_name
Obtenga un conjunto de datos registrado del área de trabajo por su nombre de registro.
get_by_name(name, version='latest', **kwargs)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo de AzureML existente en la que se registró el conjunto de datos. |
name
Requerido
|
Nombre del registro. |
version
Requerido
|
Versión de registro. El valor predeterminado es "latest". |
Devoluciones
Tipo | Description |
---|---|
Objeto de conjunto de datos registrado. |
get_definition
Obtenga una definición específica del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
get_definition(version_id=None)
Parámetros
Nombre | Description |
---|---|
version_id
Requerido
|
El identificador de versión de la definición del conjunto de datos |
Devoluciones
Tipo | Description |
---|---|
Definición del conjunto de datos. |
Comentarios
Si version_id
se proporciona, Azure Machine Learning intenta obtener la definición correspondiente a esa versión. Si esa versión no existe, se produce una excepción.
Si version_id
se omite, se recupera la versión más reciente.
get_definitions
Obtenga todas las definiciones del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
get_definitions()
Devoluciones
Tipo | Description |
---|---|
Diccionario de definiciones de conjunto de datos. |
Comentarios
Un conjunto de datos registrado en un área de trabajo de AzureML puede tener varias definiciones, cada una creada mediante una llamada a update_definition. Cada definición tiene un identificador único. La definición actual es la más reciente creada.
Para conjuntos de datos no registrados, solo existe una definición.
get_profile
Obtenga estadísticas de resumen en el conjunto de datos calculado anteriormente.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
get_profile(arguments=None, generate_if_not_exist=True, workspace=None, compute_target=None)
Parámetros
Nombre | Description |
---|---|
arguments
Requerido
|
Argumentos de perfil. |
generate_if_not_exist
Requerido
|
Indica si se va a generar un perfil si no existe. |
workspace
Requerido
|
Área de trabajo, necesaria para conjuntos de datos transitorios (no registrados). |
compute_target
Requerido
|
Destino de proceso para ejecutar la acción de perfil. |
Devoluciones
Tipo | Description |
---|---|
<xref:azureml.dataprep.DataProfile>
|
DataProfile del conjunto de datos. |
Comentarios
Para un conjunto de datos registrado con un área de trabajo de Azure Machine Learning, este método recupera un perfil existente que se creó anteriormente llamando get_profile
a si sigue siendo válido. Los perfiles se invalidan cuando se detectan datos modificados en el conjunto de datos o los argumentos para get_profile
son diferentes de los usados cuando se generó el perfil. Si el perfil no está presente o no está invalidado, generate_if_not_exist
determinará si se genera un perfil nuevo.
En el caso de un conjunto de datos que no está registrado con un área de trabajo de Azure Machine Learning, este método siempre se ejecuta generate_profile y devuelve el resultado.
get_snapshot
Obtenga la instantánea del conjunto de datos por nombre.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
get_snapshot(snapshot_name)
Parámetros
Nombre | Description |
---|---|
snapshot_name
Requerido
|
Nombre de la instantánea. |
Devoluciones
Tipo | Description |
---|---|
Objeto de instantánea del conjunto de datos. |
head
Extraiga el número especificado de registros especificados de este conjunto de datos y los devuelve como dataframe.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
head(count)
Parámetros
Nombre | Description |
---|---|
count
Requerido
|
Número de registros que se van a extraer. |
Devoluciones
Tipo | Description |
---|---|
Un DataFrame de Pandas. |
list
Enumere todos los conjuntos de datos del área de trabajo, incluidos los que tienen is_visible
la propiedad igual a False.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar get_all en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
static list(workspace)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo para la que desea recuperar la lista de conjuntos de datos. |
Devoluciones
Tipo | Description |
---|---|
Lista de objetos Dataset. |
reactivate
Reactivar un conjunto de datos archivado o en desuso.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
reactivate()
Devoluciones
Tipo | Description |
---|---|
Ninguno. |
register
Registre el conjunto de datos en el área de trabajo, lo que hace que esté disponible para otros usuarios del área de trabajo.
Nota:
Este método está en desuso y ya no se admitirá.
Se recomienda usar register en su lugar. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
register(workspace, name, description=None, tags=None, visible=True, exist_ok=False, update_if_exist=False)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo de AzureML en la que se va a registrar el conjunto de datos. |
name
Requerido
|
Nombre del conjunto de datos en el área de trabajo. |
description
Requerido
|
Descripción del conjunto de datos. |
tags
Requerido
|
Etiquetas que se van a asociar al conjunto de datos. |
visible
Requerido
|
Indica si el conjunto de datos está visible en la interfaz de usuario. Si es False, el conjunto de datos se oculta en la interfaz de usuario y está disponible a través del SDK. |
exist_ok
Requerido
|
Si es True, el método devuelve el conjunto de datos si ya existe en el área de trabajo especificada; de lo contrario, se producirá un error. |
update_if_exist
Requerido
|
Si |
Devoluciones
Tipo | Description |
---|---|
Objeto Dataset registrado en el área de trabajo. |
sample
Genere un nuevo ejemplo a partir del conjunto de datos de origen mediante la estrategia de muestreo y los parámetros proporcionados.
Nota:
Este método está en desuso y ya no se admitirá.
Cree un mediante una TabularDataset llamada a los métodos estáticos en Dataset.Tabular y use el take_sample método allí. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
sample(sample_strategy, arguments)
Parámetros
Nombre | Description |
---|---|
sample_strategy
Requerido
|
Estrategia de ejemplo que se va a usar. Los valores aceptados son "top_n", "simple_random" o "estratificado". |
arguments
Requerido
|
Diccionario con claves del "Argumento opcional" de la lista mostrada anteriormente y valores de la columna "Type". Solo se pueden usar argumentos del método de muestreo correspondiente. Por ejemplo, para un tipo de ejemplo "simple_random", solo puede especificar un diccionario con claves de "probabilidad" y "inicialización". |
Devoluciones
Tipo | Description |
---|---|
Objeto dataset como ejemplo del conjunto de datos original. |
Comentarios
Los ejemplos se generan mediante la ejecución de la canalización de transformación definida por este conjunto de datos y, a continuación, la aplicación de la estrategia de muestreo y los parámetros a los datos de salida. Cada método de muestreo admite los siguientes argumentos opcionales:
top_n
Argumentos opcionales
- n, escriba entero. Seleccione las N primeras filas como ejemplo.
simple_random
Argumentos opcionales
probabilidad, escriba float. Muestreo aleatorio simple en el que cada fila tiene la misma probabilidad de seleccionarse. La probabilidad debe ser un número comprendido entre 0 y 1.
inicialización, escriba float. Usado por el generador de números aleatorios. Se usa para la repetibilidad.
estratificado
Argumentos opcionales
columns, type list[str]. Lista de columnas de estrato en los datos.
inicialización, escriba float. Usado por el generador de números aleatorios. Se usa para la repetibilidad.
fracciones, tipo dict[tupla, float]. Tupla: los valores de columna que definen un estrato deben estar en el mismo orden que los nombres de columna. Float: peso asociado a un estrato durante el muestreo.
Los fragmentos de código siguientes son patrones de diseño de ejemplo para diferentes métodos de ejemplo.
# sample_strategy "top_n"
top_n_sample_dataset = dataset.sample('top_n', {'n': 5})
# sample_strategy "simple_random"
simple_random_sample_dataset = dataset.sample('simple_random', {'probability': 0.3, 'seed': 10.2})
# sample_strategy "stratified"
fractions = {}
fractions[('THEFT',)] = 0.5
fractions[('DECEPTIVE PRACTICE',)] = 0.2
# take 50% of records with "Primary Type" as THEFT and 20% of records with "Primary Type" as
# DECEPTIVE PRACTICE into sample Dataset
sample_dataset = dataset.sample('stratified', {'columns': ['Primary Type'], 'fractions': fractions})
to_pandas_dataframe
Cree un dataframe de Pandas ejecutando la canalización de transformación definida por esta definición de conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Cree un mediante una TabularDataset llamada a los métodos estáticos en Dataset.Tabular y use el to_pandas_dataframe método allí. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
to_pandas_dataframe()
Devoluciones
Tipo | Description |
---|---|
Un DataFrame de Pandas. |
Comentarios
Devuelve un DataFrame de Pandas totalmente materializado en la memoria.
to_spark_dataframe
Cree un DataFrame de Spark que pueda ejecutar la canalización de transformación definida por esta definición de conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Cree un mediante una TabularDataset llamada a los métodos estáticos en Dataset.Tabular y use el to_spark_dataframe método allí. Para obtener más información, consulte https://aka.ms/dataset-deprecation.
to_spark_dataframe()
Devoluciones
Tipo | Description |
---|---|
Un dataframe de Spark. |
Comentarios
La trama de datos de Spark devuelta es solo un plan de ejecución y no contiene realmente ningún dato, ya que los dataframes de Spark se evalúan de forma diferida.
update
Actualice los atributos mutables del conjunto de datos en el área de trabajo y devuelva el conjunto de datos actualizado del área de trabajo.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
update(name=None, description=None, tags=None, visible=None)
Parámetros
Nombre | Description |
---|---|
name
Requerido
|
Nombre del conjunto de datos en el área de trabajo. |
description
Requerido
|
Descripción de los datos. |
tags
Requerido
|
Etiquetas a las que se va a asociar el conjunto de datos. |
visible
Requerido
|
Indica si el conjunto de datos está visible en la interfaz de usuario. |
Devoluciones
Tipo | Description |
---|---|
Objeto Dataset actualizado desde el área de trabajo. |
update_definition
Actualice la definición del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
update_definition(definition, definition_update_message)
Parámetros
Nombre | Description |
---|---|
definition
Requerido
|
Nueva definición de este conjunto de datos. |
definition_update_message
Requerido
|
Mensaje de actualización de definición. |
Devoluciones
Tipo | Description |
---|---|
Objeto Dataset actualizado desde el área de trabajo. |
Comentarios
Para consumir el conjunto de datos actualizado, use el objeto devuelto por este método.
Atributos
definition
Devuelve la definición actual del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
Devoluciones
Tipo | Description |
---|---|
Definición del conjunto de datos. |
Comentarios
Una definición de conjunto de datos es una serie de pasos que especifican cómo leer y transformar datos.
Un conjunto de datos registrado en un área de trabajo de AzureML puede tener varias definiciones, cada una creada mediante una llamada a update_definition. Cada definición tiene un identificador único. Tener varias definiciones le permite realizar cambios en los conjuntos de datos existentes sin interrumpir modelos y canalizaciones que dependen de la definición anterior.
Para conjuntos de datos no registrados, solo existe una definición.
definition_version
Devuelve la versión de la definición actual del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
Devoluciones
Tipo | Description |
---|---|
Versión de definición del conjunto de datos. |
Comentarios
Una definición de conjunto de datos es una serie de pasos que especifican cómo leer y transformar datos.
Un conjunto de datos registrado en un área de trabajo de AzureML puede tener varias definiciones, cada una creada mediante una llamada a update_definition. Cada definición tiene un identificador único. La definición actual es la más reciente creada, cuyo identificador lo devuelve.
Para conjuntos de datos no registrados, solo existe una definición.
description
Devuelve la descripción del conjunto de datos.
Devoluciones
Tipo | Description |
---|---|
Descripción del conjunto de datos. |
Comentarios
Especificar una descripción de los datos del conjunto de datos permite a los usuarios del área de trabajo comprender lo que representan los datos y cómo pueden usarlos.
id
Si el conjunto de datos se registró en un área de trabajo, devuelva el identificador del conjunto de datos. De lo contrario, devuelve None.
Devoluciones
Tipo | Description |
---|---|
Identificador del conjunto de datos. |
is_visible
Controlar la visibilidad de un conjunto de datos registrado en la interfaz de usuario del área de trabajo de Azure ML.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
Devoluciones
Tipo | Description |
---|---|
Visibilidad del conjunto de datos. |
Comentarios
Valores devueltos:
True: el conjunto de datos está visible en la interfaz de usuario del área de trabajo. Predeterminado.
False: el conjunto de datos está oculto en la interfaz de usuario del área de trabajo.
No tiene ningún efecto en los conjuntos de datos no registrados.
name
Devuelve el nombre del conjunto de datos.
Devoluciones
Tipo | Description |
---|---|
Nombre del conjunto de datos. |
state
Devuelve el estado del conjunto de datos.
Nota:
Este método está en desuso y ya no se admitirá.
Para obtener más información, consulte https://aka.ms/dataset-deprecation.
Devoluciones
Tipo | Description |
---|---|
Estado del conjunto de datos. |
Comentarios
El significado y el efecto de los estados son los siguientes:
Activo. Las definiciones activas son exactamente lo que suenan, todas las acciones se pueden realizar en definiciones activas.
Obsolescente. se puede usar la definición en desuso, pero provocará que se registre una advertencia en los registros cada vez que se acceda a los datos subyacentes.
Archivados. No se puede usar una definición archivada para realizar ninguna acción. Para realizar acciones en una definición archivada, debe reactivarse.
tags
workspace
Si el conjunto de datos se registró en un área de trabajo, devuelva eso. De lo contrario, devuelve None.
Devoluciones
Tipo | Description |
---|---|
Área de trabajo. |
Tabular
Generador para crear FileDataset
alias de TabularDatasetFactory