Saltar para o conteúdo

Como Exportar para o Formato PaddlePaddle a partir de Modelos YOLO11

Preencher a lacuna entre o desenvolvimento e a implantação de modelos de visão computacional em cenários do mundo real com condições variáveis pode ser difícil. O PaddlePaddle facilita esse processo com seu foco em flexibilidade, desempenho e sua capacidade de processamento paralelo em ambientes distribuídos. Isso significa que você pode usar seus modelos de visão computacional YOLO11 em uma ampla variedade de dispositivos e plataformas, de smartphones a servidores baseados em nuvem.



Ver: Como Exportar Modelos Ultralytics YOLO11 para o Formato PaddlePaddle | Principais Recursos do Formato PaddlePaddle

A capacidade de exportar para o formato de modelo PaddlePaddle permite otimizar seus modelos Ultralytics YOLO11 para uso dentro da estrutura PaddlePaddle. O PaddlePaddle é conhecido por facilitar as implementações industriais e é uma boa escolha para implantar aplicações de visão computacional em ambientes do mundo real em vários domínios.

Por que você deve exportar para PaddlePaddle?

Logotipo do PaddlePaddle

Desenvolvido pela Baidu, o PaddlePaddle (PArallel Distributed Deep LEarning) é a primeira plataforma de aprendizado profundo de código aberto da China. Ao contrário de algumas estruturas construídas principalmente para pesquisa, o PaddlePaddle prioriza a facilidade de uso e a integração suave em todos os setores.

Oferece ferramentas e recursos semelhantes a frameworks populares como TensorFlow e PyTorch, tornando-o acessível para desenvolvedores de todos os níveis de experiência. Desde agricultura e fábricas até empresas de serviços, a grande comunidade de desenvolvedores da PaddlePaddle, com mais de 4,77 milhões de pessoas, está ajudando a criar e implantar aplicações de IA.

Ao exportar seus modelos Ultralytics YOLO11 para o formato PaddlePaddle, você pode aproveitar os pontos fortes do PaddlePaddle na otimização de desempenho. O PaddlePaddle prioriza a execução eficiente do modelo e o uso reduzido de memória. Como resultado, seus modelos YOLO11 podem potencialmente alcançar um desempenho ainda melhor, entregando resultados de primeira linha em cenários práticos.

Principais funcionalidades dos modelos PaddlePaddle

Os modelos PaddlePaddle oferecem uma gama de recursos-chave que contribuem para sua flexibilidade, desempenho e escalabilidade em diversos cenários de implementação:

  • Gráfico Dinâmico para Estático: O PaddlePaddle suporta compilação dinâmico para estático, onde os modelos podem ser traduzidos em um gráfico computacional estático. Isso permite otimizações que reduzem a sobrecarga de tempo de execução e aumentam o desempenho da inferência.

  • Fusão de Operadores: PaddlePaddle, como TensorRT, usa fusão de operadores para otimizar a computação e reduzir a sobrecarga. A framework minimiza as transferências de memória e as etapas computacionais, unindo operações compatíveis, resultando em uma inferência mais rápida.

  • Quantização: O PaddlePaddle suporta técnicas de quantização, incluindo quantização pós-treinamento e treinamento com reconhecimento de quantização. Essas técnicas permitem o uso de representações de dados de menor precisão, aumentando efetivamente o desempenho e reduzindo o tamanho do modelo.

Opções de Implementação em PaddlePaddle

Antes de mergulharmos no código para exportar modelos YOLO11 para PaddlePaddle, vamos dar uma olhada nos diferentes cenários de implantação em que os modelos PaddlePaddle se destacam.

O PaddlePaddle oferece uma variedade de opções, cada uma oferecendo um equilíbrio distinto de facilidade de uso, flexibilidade e desempenho:

  • Paddle Serving: Esta estrutura simplifica a implementação de modelos PaddlePaddle como APIs RESTful de alto desempenho. O Paddle Serving é ideal para ambientes de produção, fornecendo recursos como versionamento de modelo, testes A/B online e escalabilidade para lidar com grandes volumes de solicitações.

  • Paddle Inference API: A Paddle Inference API oferece controle de baixo nível sobre a execução do modelo. Esta opção é adequada para cenários onde você precisa integrar o modelo de forma precisa dentro de uma aplicação personalizada ou otimizar o desempenho para hardware específico.

  • Paddle Lite: O Paddle Lite foi projetado para implementação em dispositivos móveis e embarcados onde os recursos são limitados. Ele otimiza modelos para tamanhos menores e inferência mais rápida em CPUs ARM, GPUs e outros hardwares especializados.

  • Paddle.js: O Paddle.js permite que você implemente modelos PaddlePaddle diretamente em navegadores da web. O Paddle.js pode carregar um modelo pré-treinado ou transformar um modelo do paddle-hub com ferramentas de transformação de modelo fornecidas pelo Paddle.js. Ele pode ser executado em navegadores que suportam WebGL/WebGPU/WebAssembly.

Exportar para PaddlePaddle: Convertendo Seu Modelo YOLO11

Converter modelos YOLO11 para o formato PaddlePaddle pode melhorar a flexibilidade de execução e otimizar o desempenho para vários cenários de implantação.

Instalação

Para instalar o pacote necessário, execute:

Instalação

# Install the required package for YOLO11
pip install ultralytics

Para obter instruções detalhadas e melhores práticas relacionadas com o processo de instalação, consulte o nosso guia de instalaçãoUltralytics . Ao instalar os pacotes necessários para YOLO11, se encontrar alguma dificuldade, consulte o nosso guia de Problemas comuns para obter soluções e dicas.

Utilização

Todos os modelos Ultralytics YOLO11 suportam exportação, e você pode navegar pela lista completa de formatos e opções de exportação para encontrar a melhor opção para suas necessidades de implantação.

Utilização

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

Argumentos de Exportação

Argumento Tipo Predefinição Descrição
format str 'paddle' Formato de destino para o modelo exportado, definindo a compatibilidade com vários ambientes de implementação.
imgsz int ou tuple 640 Tamanho de imagem pretendido para a entrada do modelo. Pode ser um número inteiro para imagens quadradas ou uma tupla (height, width) para dimensões específicas.
batch int 1 Especifica o tamanho da inferência em lote do modelo de exportação ou o número máximo de imagens que o modelo exportado irá processar em simultâneo em predict modo.
device str None Especifica o dispositivo para exportar: CPU (device=cpu), MPS para silício Apple (device=mps).

Para mais informações sobre o processo de exportação, visite a página de documentaçãoUltralytics sobre exportação.

Implantação de Modelos PaddlePaddle YOLO11 Exportados

Após exportar com sucesso seus modelos Ultralytics YOLO11 para o formato PaddlePaddle, você já pode implementá-los. O primeiro passo principal e recomendado para executar um modelo PaddlePaddle é usar o método YOLO("yolo11n_paddle_model/"), conforme descrito no trecho de código de uso anterior.

No entanto, para obter instruções detalhadas sobre como implantar seus modelos PaddlePaddle em várias outras configurações, consulte os seguintes recursos:

  • Paddle Serving: Aprenda como implantar seus modelos PaddlePaddle como serviços de alto desempenho usando o Paddle Serving.

  • Paddle Lite: Explore como otimizar e implantar modelos em dispositivos móveis e embarcados usando o Paddle Lite.

  • Paddle.js: Descubra como executar modelos PaddlePaddle em navegadores da web para IA do lado do cliente usando o Paddle.js.

Resumo

Neste guia, exploramos o processo de exportação de modelos Ultralytics YOLO11 para o formato PaddlePaddle. Seguindo estas etapas, você pode aproveitar os pontos fortes do PaddlePaddle em diversos cenários de implantação, otimizando seus modelos para diferentes ambientes de hardware e software.

Para obter mais detalhes sobre o uso, visite a documentação oficial do PaddlePaddle.

Quer explorar mais maneiras de integrar seus modelos Ultralytics YOLO11? Nossa página de guia de integração explora várias opções, fornecendo recursos e insights valiosos.

FAQ

Como exportar modelos Ultralytics YOLO11 para o formato PaddlePaddle?

Exportar modelos Ultralytics YOLO11 para o formato PaddlePaddle é simples. Você pode usar o export método da classe YOLO para realizar esta exportação. Aqui está um exemplo usando Python:

Utilização

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Export the model to PaddlePaddle format
model.export(format="paddle")  # creates '/yolo11n_paddle_model'

# Load the exported PaddlePaddle model
paddle_model = YOLO("./yolo11n_paddle_model")

# Run inference
results = paddle_model("https://ultralytics.com/images/bus.jpg")
# Export a YOLO11n PyTorch model to PaddlePaddle format
yolo export model=yolo11n.pt format=paddle # creates '/yolo11n_paddle_model'

# Run inference with the exported model
yolo predict model='./yolo11n_paddle_model' source='https://ultralytics.com/images/bus.jpg'

Para uma configuração e resolução de problemas mais detalhadas, consulte o Guia de Instalação da Ultralytics e o Guia de Problemas Comuns.

Quais são as vantagens de usar o PaddlePaddle para implantação de modelos?

O PaddlePaddle oferece diversas vantagens importantes para a implementação de modelos:

  • Otimização de Desempenho: O PaddlePaddle destaca-se na execução eficiente de modelos e na redução do uso de memória.
  • Compilação de Gráfico Dinâmico para Estático: Suporta compilação dinâmico para estático, permitindo otimizações em tempo de execução.
  • Fusão de Operadores: Ao combinar operações compatíveis, reduz a sobrecarga computacional.
  • Técnicas de Quantização: Suporta treinamento pós-treino e com reconhecimento de quantização, permitindo representações de dados de menor precisão para melhor desempenho.

Você pode obter resultados aprimorados exportando seus modelos Ultralytics YOLO11 para PaddlePaddle, garantindo flexibilidade e alto desempenho em diversas aplicações e plataformas de hardware. Explore os principais recursos e capacidades do PaddlePaddle na documentação oficial do PaddlePaddle.

Por que devo escolher o PaddlePaddle para implementar meus modelos YOLO11?

O PaddlePaddle, desenvolvido pela Baidu, é otimizado para implementações de IA industriais e comerciais. Sua grande comunidade de desenvolvedores e estrutura robusta fornecem ferramentas extensivas semelhantes ao TensorFlow e PyTorch. Ao exportar seus modelos YOLO11 para PaddlePaddle, você aproveita:

  • Desempenho Aprimorado: Velocidade de execução ideal e pegada de memória reduzida.
  • Flexibilidade: Ampla compatibilidade com vários dispositivos, desde smartphones até servidores em nuvem.
  • Escalabilidade: Capacidades eficientes de processamento paralelo para ambientes distribuídos.

Esses recursos tornam o PaddlePaddle uma escolha atraente para implantar modelos YOLO11 em ambientes de produção.

Como o PaddlePaddle melhora o desempenho do modelo em relação a outras estruturas?

O PaddlePaddle emprega diversas técnicas avançadas para otimizar o desempenho do modelo:

  • Gráfico Dinâmico para Estático: Converte modelos em um gráfico computacional estático para otimizações em tempo de execução.
  • Fusão de Operadores: Combina operações compatíveis para minimizar a transferência de memória e aumentar a velocidade de inferência.
  • Quantização: Reduz o tamanho do modelo e aumenta a eficiência usando dados de menor precisão, mantendo a acurácia.

Essas técnicas priorizam a execução eficiente do modelo, tornando o PaddlePaddle uma excelente opção para implantar modelos YOLO11 de alto desempenho. Para mais informações sobre otimização, consulte a documentação oficial do PaddlePaddle.

Quais opções de implementação o PaddlePaddle oferece para modelos YOLO11?

O PaddlePaddle oferece opções de implementação flexíveis:

  • Paddle Serving: Implementa modelos como APIs RESTful, ideal para produção com recursos como versionamento de modelo e testes A/B online.
  • Paddle Inference API: Oferece controle de baixo nível sobre a execução do modelo para aplicações personalizadas.
  • Paddle Lite: Otimiza modelos para os recursos limitados de dispositivos móveis e embarcados.
  • Paddle.js: Permite a implementação de modelos diretamente em navegadores da web.

Essas opções abrangem uma ampla gama de cenários de implantação, desde a inferência no dispositivo até serviços de nuvem escaláveis. Explore mais estratégias de implantação na página de Opções de Implantação de Modelos Ultralytics.



📅 Criado há 1 ano ✏️ Atualizado há 3 meses

Comentários