Ir para o conteúdo

Análise Comparativa das Opções de Implementação do YOLO11

Introdução

Você percorreu um longo caminho em sua jornada com o YOLO11. Você coletou dados diligentemente, anotou-os meticulosamente e dedicou horas para treinar e avaliar rigorosamente seu modelo YOLO11 personalizado. Agora, é hora de colocar seu modelo para trabalhar em sua aplicação, caso de uso ou projeto específico. Mas há uma decisão crítica que se apresenta diante de você: como exportar e implantar seu modelo de forma eficaz.



Assista: Como Escolher o Melhor Formato de Implantação do Ultralytics YOLO11 para o Seu Projeto | TensorRT | OpenVINO 🚀

Este guia explica as opções de implantação do YOLO11 e os fatores essenciais a serem considerados para escolher a opção certa para o seu projeto.

Como selecionar a opção de implementação certa para o seu modelo YOLO11

Ao implantar seu modelo YOLO11, selecionar um formato de exportação adequado é muito importante. Conforme descrito na documentação de Modos YOLO11 da Ultralytics, a função model.export() permite converter seu modelo treinado em uma variedade de formatos adaptados a diversos ambientes e requisitos de desempenho.

O formato ideal depende do contexto operacional pretendido do seu modelo, equilibrando velocidade, restrições de hardware e facilidade de integração. Na seção a seguir, examinaremos mais de perto cada opção de exportação, entendendo quando escolher cada uma.

Opções de Implementação do YOLO11

Vamos percorrer as diferentes opções de implantação do YOLO11. Para obter um passo a passo detalhado do processo de exportação, visite a página de documentação da Ultralytics sobre exportação.

PyTorch

PyTorch é uma biblioteca de aprendizado de máquina de código aberto amplamente utilizada para aplicações em aprendizado profundo e inteligência artificial. Ele oferece um alto nível de flexibilidade e velocidade, o que o tornou um favorito entre pesquisadores e desenvolvedores.

  • Benchmarks de Desempenho: PyTorch é conhecido por sua facilidade de uso e flexibilidade, o que pode resultar em uma ligeira desvantagem no desempenho bruto quando comparado a outras estruturas que são mais especializadas e otimizadas.
  • Compatibilidade e Integração: Oferece excelente compatibilidade com várias bibliotecas de ciência de dados e aprendizado de máquina em python.
  • Suporte da Comunidade e Ecossistema: Uma das comunidades mais vibrantes, com extensos recursos para aprendizado e solução de problemas.
  • Estudos de Caso: Comumente usado em protótipos de pesquisa, muitos artigos acadêmicos referenciam modelos implantados em PyTorch.
  • Manutenção e Atualizações: Atualizações regulares com desenvolvimento ativo e suporte para novos recursos.
  • Considerações de Segurança: Patches regulares para problemas de segurança, mas a segurança depende em grande parte do ambiente geral em que é implantado.
  • Aceleração de Hardware: Suporta CUDA para aceleração de GPU, essencial para acelerar o treinamento e a inferência do modelo.

TorchScript

TorchScript expande as capacidades do PyTorch ao permitir que os modelos sejam exportados para serem executados em um ambiente de tempo de execução C++. Isso o torna adequado para ambientes de produção onde o python não está disponível.

  • Benchmarks de Desempenho: Pode oferecer desempenho aprimorado em relação ao PyTorch nativo, especialmente em ambientes de produção.
  • Compatibilidade e Integração: Projetado para uma transição perfeita do PyTorch para ambientes de produção C++, embora alguns recursos avançados possam não ser traduzidos perfeitamente.
  • Suporte da Comunidade e Ecossistema: Beneficia-se da grande comunidade do PyTorch, mas tem um escopo mais restrito de desenvolvedores especializados.
  • Estudos de Caso: Amplamente utilizado em ambientes industriais onde a sobrecarga de desempenho do python é um gargalo.
  • Manutenção e Atualizações: Mantido juntamente com o PyTorch com atualizações consistentes.
  • Considerações de Segurança: Oferece segurança melhorada, permitindo a execução de modelos em ambientes sem instalações completas de python.
  • Aceleração de Hardware: Herda o suporte CUDA do PyTorch, garantindo a utilização eficiente da GPU.

ONNX

O Open Neural Network Exchange (ONNX) é um formato que permite a interoperabilidade de modelos entre diferentes frameworks, o que pode ser crítico ao implantar em várias plataformas.

  • Benchmarks de Desempenho: Os modelos ONNX podem apresentar um desempenho variável, dependendo do runtime específico em que são implementados.
  • Compatibilidade e Integração: Alta interoperabilidade em múltiplas plataformas e hardware devido à sua natureza independente de framework.
  • Suporte da Comunidade e Ecossistema: Apoiado por muitas organizações, levando a um amplo ecossistema e uma variedade de ferramentas para otimização.
  • Estudos de Caso: Frequentemente usado para mover modelos entre diferentes estruturas de aprendizado de máquina, demonstrando sua flexibilidade.
  • Manutenção e Atualizações: Como um padrão aberto, o ONNX é atualizado regularmente para suportar novas operações e modelos.
  • Considerações de Segurança: Tal como acontece com qualquer ferramenta multiplataforma, é essencial garantir práticas seguras no pipeline de conversão e implementação.
  • Aceleração de Hardware: Com o ONNX Runtime, os modelos podem aproveitar várias otimizações de hardware.

OpenVINO

OpenVINO é um conjunto de ferramentas da Intel projetado para facilitar a implantação de modelos de aprendizado profundo em hardware Intel, melhorando o desempenho e a velocidade.

  • Benchmarks de Desempenho: Especificamente otimizado para CPUs Intel, GPUs e VPUs, oferecendo aumentos de desempenho significativos em hardware compatível.
  • Compatibilidade e Integração: Funciona melhor dentro do ecossistema Intel, mas também suporta uma variedade de outras plataformas.
  • Suporte da Comunidade e Ecossistema: Apoiado pela Intel, com uma base de usuários sólida, especialmente no domínio de visão computacional.
  • Estudos de Caso: Frequentemente utilizado em cenários de IoT e computação de borda onde o hardware Intel é predominante.
  • Manutenção e Atualizações: A Intel atualiza regularmente o OpenVINO para suportar os modelos de deep learning e o hardware Intel mais recentes.
  • Considerações de Segurança: Fornece funcionalidades de segurança robustas adequadas para implementação em aplicações sensíveis.
  • Aceleração de Hardware: Projetado para aceleração no hardware Intel, aproveitando conjuntos de instruções dedicados e recursos de hardware.

Para obter mais detalhes sobre a implementação usando o OpenVINO, consulte a documentação de Integração da Ultralytics: Exportação Intel OpenVINO.

TensorRT

TensorRT é um otimizador e runtime de inferência de aprendizado profundo de alto desempenho da NVIDIA, ideal para aplicações que necessitam de velocidade e eficiência.

  • Benchmarks de Desempenho: Oferece desempenho de alto nível em GPUs NVIDIA com suporte para inferência de alta velocidade.
  • Compatibilidade e Integração: Mais adequado para hardware NVIDIA, com suporte limitado fora deste ambiente.
  • Suporte da Comunidade e Ecossistema: Forte rede de suporte através dos fóruns de desenvolvedores e documentação da NVIDIA.
  • Estudos de Caso: Amplamente adotado em indústrias que exigem inferência em tempo real em dados de vídeo e imagem.
  • Manutenção e Atualizações: A NVIDIA mantém o TensorRT com atualizações frequentes para melhorar o desempenho e suportar novas arquiteturas de GPU.
  • Considerações de Segurança: Tal como muitos produtos da NVIDIA, tem uma forte ênfase na segurança, mas os detalhes dependem do ambiente de implementação.
  • Aceleração de Hardware: Projetado exclusivamente para GPUs NVIDIA, proporcionando otimização e aceleração profundas.

Para obter mais informações sobre a implantação do TensorRT, consulte o guia de integração do TensorRT.

CoreML

CoreML é a estrutura de machine learning da Apple, otimizada para desempenho no dispositivo no ecossistema Apple, incluindo iOS, macOS, watchOS e tvOS.

  • Benchmarks de Desempenho: Otimizado para desempenho no dispositivo em hardware Apple com uso mínimo de bateria.
  • Compatibilidade e Integração: Exclusivamente para o ecossistema da Apple, proporcionando um fluxo de trabalho simplificado para aplicações iOS e macOS.
  • Suporte da Comunidade e Ecossistema: Forte suporte da Apple e uma comunidade de desenvolvedores dedicada, com extensa documentação e ferramentas.
  • Estudos de Caso: Comumente usado em aplicações que exigem capacidades de aprendizado de máquina no dispositivo em produtos Apple.
  • Manutenção e Atualizações: Regularmente atualizado pela Apple para suportar os mais recentes avanços em machine learning e hardware da Apple.
  • Considerações de Segurança: Beneficia do foco da Apple na privacidade do utilizador e na segurança de dados.
  • Aceleração de Hardware: Aproveita ao máximo o motor neural e a GPU da Apple para tarefas aceleradas de aprendizado de máquina.

TF SavedModel

TF SavedModel é o formato do TensorFlow para salvar e servir modelos de aprendizado de máquina, particularmente adequado para ambientes de servidor escaláveis.

  • Benchmarks de Desempenho: Oferece desempenho escalável em ambientes de servidor, especialmente quando usado com o TensorFlow Serving.
  • Compatibilidade e Integração: Ampla compatibilidade em todo o ecossistema do TensorFlow, incluindo implementações em nuvem e servidores empresariais.
  • Suporte da Comunidade e Ecossistema: Grande suporte da comunidade devido à popularidade do TensorFlow, com uma vasta gama de ferramentas para implantação e otimização.
  • Estudos de Caso: Amplamente utilizado em ambientes de produção para servir modelos de aprendizado profundo em escala.
  • Manutenção e Atualizações: Suportado pelo Google e pela comunidade TensorFlow, garantindo atualizações regulares e novos recursos.
  • Considerações de Segurança: A implementação utilizando o TensorFlow Serving inclui funcionalidades de segurança robustas para aplicações de nível empresarial.
  • Aceleração de Hardware: Suporta várias acelerações de hardware através dos backends do TensorFlow.

TF GraphDef

TF GraphDef é um formato TensorFlow que representa o modelo como um grafo, o que é benéfico para ambientes onde um grafo de computação estático é necessário.

  • Benchmarks de Desempenho: Fornece desempenho estável para gráficos de computação estáticos, com foco na consistência e confiabilidade.
  • Compatibilidade e Integração: Integra-se facilmente na infraestrutura do TensorFlow, mas é menos flexível em comparação com o SavedModel.
  • Suporte da Comunidade e Ecossistema: Bom suporte do ecossistema do TensorFlow, com muitos recursos disponíveis para otimizar gráficos estáticos.
  • Estudos de Caso: Útil em cenários onde um grafo estático é necessário, como em certos sistemas embarcados.
  • Manutenção e Atualizações: Atualizações regulares juntamente com as atualizações principais do TensorFlow.
  • Considerações de Segurança: Garante uma implementação segura com as práticas de segurança estabelecidas do TensorFlow.
  • Aceleração de Hardware: Pode utilizar as opções de aceleração de hardware do TensorFlow, embora não seja tão flexível quanto o SavedModel.

Saiba mais sobre o TF GraphDef em nosso guia de integração do TF GraphDef.

TF Lite

TF Lite é a solução do TensorFlow para aprendizado de máquina em dispositivos móveis e embarcados, fornecendo uma biblioteca leve para inferência no dispositivo.

  • Benchmarks de Desempenho: Projetado para velocidade e eficiência em dispositivos móveis e embarcados.
  • Compatibilidade e Integração: Pode ser usado em uma ampla gama de dispositivos devido à sua natureza leve.
  • Suporte da Comunidade e Ecossistema: Apoiado pelo Google, possui uma comunidade robusta e um número crescente de recursos para desenvolvedores.
  • Estudos de Caso: Popular em aplicações móveis que exigem inferência no dispositivo com mínima pegada.
  • Manutenção e Atualizações: Regularmente atualizado para incluir os recursos e otimizações mais recentes para dispositivos móveis.
  • Considerações de Segurança: Fornece um ambiente seguro para executar modelos em dispositivos de utilizadores finais.
  • Aceleração de Hardware: Suporta uma variedade de opções de aceleração de hardware, incluindo GPU e DSP.

TF Edge TPU

O TF Edge TPU foi projetado para computação de alta velocidade e eficiente no hardware Edge TPU da Google, perfeito para dispositivos IoT que exigem processamento em tempo real.

  • Benchmarks de Desempenho: Especificamente otimizado para computação eficiente e de alta velocidade no hardware Edge TPU do Google.
  • Compatibilidade e Integração: Funciona exclusivamente com modelos TensorFlow Lite em dispositivos Edge TPU.
  • Suporte da Comunidade e Ecossistema: Suporte crescente com recursos fornecidos pelo Google e desenvolvedores terceirizados.
  • Estudos de Caso: Usado em dispositivos IoT e aplicações que exigem processamento em tempo real com baixa latência.
  • Manutenção e Atualizações: Melhorado continuamente para aproveitar os recursos das novas versões de hardware Edge TPU.
  • Considerações de Segurança: Integra-se com a segurança robusta da Google para dispositivos IoT e edge.
  • Aceleração de Hardware: Projetado sob medida para aproveitar ao máximo os dispositivos Google Coral.

TF.js

TensorFlow.js (TF.js) é uma biblioteca que traz capacidades de aprendizado de máquina diretamente para o navegador, oferecendo um novo leque de possibilidades para desenvolvedores web e usuários. Ele permite a integração de modelos de aprendizado de máquina em aplicações web sem a necessidade de infraestrutura de back-end.

  • Benchmarks de Desempenho: Permite o aprendizado de máquina diretamente no navegador com desempenho razoável, dependendo do dispositivo cliente.
  • Compatibilidade e Integração: Alta compatibilidade com tecnologias web, permitindo fácil integração em aplicações web.
  • Suporte da Comunidade e Ecossistema: Suporte de uma comunidade de desenvolvedores web e Node.js, com uma variedade de ferramentas para implantar modelos de ML em navegadores.
  • Estudos de Caso: Ideal para aplicações web interativas que se beneficiam do aprendizado de máquina do lado do cliente sem a necessidade de processamento do lado do servidor.
  • Manutenção e Atualizações: Mantido pela equipe do TensorFlow com contribuições da comunidade de código aberto.
  • Considerações de Segurança: É executado dentro do contexto seguro do navegador, utilizando o modelo de segurança da plataforma web.
  • Aceleração de Hardware: O desempenho pode ser aprimorado com APIs baseadas na web que acessam a aceleração de hardware como WebGL.

PaddlePaddle

PaddlePaddle é uma estrutura de aprendizado profundo de código aberto desenvolvida pela Baidu. Ele é projetado para ser eficiente para pesquisadores e fácil de usar para desenvolvedores. É particularmente popular na China e oferece suporte especializado para processamento da língua chinesa.

  • Benchmarks de Desempenho: Oferece desempenho competitivo com foco na facilidade de uso e escalabilidade.
  • Compatibilidade e Integração: Bem integrado no ecossistema da Baidu e suporta uma ampla gama de aplicações.
  • Suporte da Comunidade e Ecossistema: Embora a comunidade seja menor globalmente, está crescendo rapidamente, especialmente na China.
  • Estudos de Caso: Comumente usado em mercados chineses e por desenvolvedores que procuram alternativas para outras estruturas principais.
  • Manutenção e Atualizações: Regularmente atualizado com foco no fornecimento de aplicações e serviços de IA em língua chinesa.
  • Considerações de Segurança: Enfatiza a privacidade de dados e a segurança, atendendo aos padrões chineses de governação de dados.
  • Aceleração de Hardware: Suporta várias acelerações de hardware, incluindo os chips Kunlun da Baidu.

MNN

MNN é uma estrutura de aprendizado profundo altamente eficiente e leve. Ele suporta inferência e treinamento de modelos de aprendizado profundo e tem desempenho líder do setor para inferência e treinamento no dispositivo. Além disso, o MNN também é usado em dispositivos embarcados, como IoT.

  • Benchmarks de Desempenho: Alto desempenho para dispositivos móveis com excelente otimização para sistemas ARM.
  • Compatibilidade e Integração: Funciona bem com sistemas móveis e embarcados ARM e arquiteturas de CPU X86-64.
  • Suporte da Comunidade e Ecossistema: Apoiado pela comunidade de aprendizado de máquina móvel e embarcado.
  • Estudos de Caso: Ideal para aplicações que exigem desempenho eficiente em sistemas móveis.
  • Manutenção e Atualizações: Mantido regularmente para garantir alto desempenho em dispositivos móveis.
  • Considerações de Segurança: Fornece vantagens de segurança no dispositivo, mantendo os dados locais.
  • Aceleração de Hardware: Otimizado para CPUs e GPUs ARM para máxima eficiência.

NCNN

NCNN é uma estrutura de inferência de rede neural de alto desempenho otimizada para a plataforma móvel. Destaca-se por sua natureza leve e eficiência, tornando-o particularmente adequado para dispositivos móveis e embarcados onde os recursos são limitados.

  • Benchmarks de Desempenho: Altamente otimizado para plataformas móveis, oferecendo inferência eficiente em dispositivos baseados em ARM.
  • Compatibilidade e Integração: Adequado para aplicações em telefones móveis e sistemas embarcados com arquitetura ARM.
  • Suporte da Comunidade e Ecossistema: Apoiado por uma comunidade de nicho, mas ativa, focada em aplicações de ML móveis e embarcadas.
  • Estudos de Caso: Preferido para aplicações móveis onde eficiência e velocidade são críticas em Android e outros sistemas baseados em ARM.
  • Manutenção e Atualizações: Aprimorado continuamente para manter o alto desempenho em uma variedade de dispositivos ARM.
  • Considerações de Segurança: Concentra-se na execução local no dispositivo, aproveitando a segurança inerente ao processamento no dispositivo.
  • Aceleração de Hardware: Projetado para CPUs e GPUs ARM, com otimizações específicas para essas arquiteturas.

Análise Comparativa das Opções de Implementação do YOLO11

A tabela a seguir fornece um panorama das várias opções de implantação disponíveis para modelos YOLO11, ajudando você a avaliar qual pode ser a mais adequada para as necessidades do seu projeto com base em vários critérios críticos. Para uma análise aprofundada do formato de cada opção de implantação, consulte a página de documentação da Ultralytics sobre formatos de exportação.

Opção de Implementação Benchmarks de Desempenho Compatibilidade e Integração Suporte da Comunidade e Ecossistema Estudos de Caso Manutenção e Atualizações Considerações de Segurança Aceleração de Hardware
PyTorch Boa flexibilidade; pode comprometer o desempenho bruto Excelente com bibliotecas Python Ampla gama de recursos e comunidade Pesquisa e protótipos Desenvolvimento regular e ativo Dependente do ambiente de implantação Suporte CUDA para aceleração de GPU
TorchScript Melhor para produção do que PyTorch Transição suave de PyTorch para C++ Especializado, mas mais restrito que o PyTorch Setor onde Python é um gargalo Atualizações consistentes com PyTorch Segurança aprimorada sem Python completo Herda o suporte CUDA do PyTorch
ONNX Variável dependendo do tempo de execução Alto em diferentes frameworks Amplo ecossistema, suportado por muitas organizações Flexibilidade entre frameworks de ML Atualizações regulares para novas operações Garanta práticas seguras de conversão e implantação Várias otimizações de hardware
OpenVINO Otimizado para hardware Intel Melhor dentro do ecossistema Intel Sólido no domínio da visão computacional IoT e edge com hardware Intel Atualizações regulares para hardware Intel Recursos robustos para aplicações sensíveis Feito sob medida para hardware Intel
TensorRT Desempenho de topo em GPUs NVIDIA Ideal para hardware NVIDIA Rede forte através da NVIDIA Inferência de vídeo e imagem em tempo real Atualizações frequentes para novas GPUs Ênfase na segurança Projetado para GPUs NVIDIA
CoreML Otimizado para hardware Apple no dispositivo Exclusivo para o ecossistema Apple Forte suporte da Apple e de desenvolvedores ML no dispositivo em produtos Apple Atualizações regulares da Apple Foco em privacidade e segurança Apple Neural Engine e GPU
TF SavedModel Escalável em ambientes de servidor Ampla compatibilidade no ecossistema TensorFlow Grande suporte devido à popularidade do TensorFlow Servindo modelos em escala Atualizações regulares do Google e da comunidade Recursos robustos para empresas Várias acelerações de hardware
TF GraphDef Estável para grafos de computação estáticos Integra-se bem com a infraestrutura TensorFlow Recursos para otimizar gráficos estáticos Cenários que exigem gráficos estáticos Atualizações juntamente com o núcleo do TensorFlow Práticas de segurança TensorFlow estabelecidas Opções de aceleração do TensorFlow
TF Lite Velocidade e eficiência em dispositivos móveis/embarcados Ampla gama de suporte a dispositivos Comunidade robusta, com apoio do Google Aplicações móveis com pegada mínima Recursos mais recentes para dispositivos móveis Ambiente seguro em dispositivos do usuário final GPU e DSP, entre outros
TF Edge TPU Otimizado para o hardware Edge TPU do Google Exclusivo para dispositivos Edge TPU Crescendo com o Google e recursos de terceiros Dispositivos IoT que exigem processamento em tempo real Melhorias para novo hardware Edge TPU A robusta segurança de IoT do Google Projetado sob medida para Google Coral
TF.js Desempenho razoável no navegador Alto com tecnologias web Suporte para desenvolvedores Web e Node.js Aplicações web interativas Contribuições da equipe e da comunidade TensorFlow Modelo de segurança da plataforma Web Aprimorado com WebGL e outras APIs
PaddlePaddle Competitivo, fácil de usar e escalável Ecossistema Baidu, amplo suporte a aplicativos Crescimento rápido, especialmente na China Mercado chinês e processamento de linguagem Foco em aplicações de IA chinesas Enfatiza a privacidade e segurança dos dados Incluindo os chips Kunlun da Baidu
MNN Alto desempenho para dispositivos móveis. Sistemas ARM móveis e embarcados e CPU X86-64 Comunidade de ML móvel/embarcada Eficiência de sistemas móveis Manutenção de alto desempenho em dispositivos móveis Vantagens de segurança no dispositivo Otimizações de CPUs e GPUs ARM
NCNN Otimizado para dispositivos móveis baseados em ARM Sistemas ARM móveis e embarcados Comunidade de ML móvel/embarcado de nicho, mas ativa Eficiência de sistemas Android e ARM Manutenção de alto desempenho em ARM Vantagens de segurança no dispositivo Otimizações de CPUs e GPUs ARM

Esta análise comparativa oferece uma visão geral de alto nível. Para a implementação, é essencial considerar os requisitos e restrições específicos do seu projeto e consultar a documentação detalhada e os recursos disponíveis para cada opção.

Comunidade e Suporte

Ao começar a usar o YOLO11, ter uma comunidade e suporte úteis pode causar um impacto significativo. Veja como se conectar com outras pessoas que compartilham seus interesses e obter a assistência de que precisa.

Interaja com a Comunidade Mais Ampla

  • Discussões no GitHub: O repositório YOLO11 no GitHub tem uma seção de "Discussões" onde você pode fazer perguntas, relatar problemas e sugerir melhorias.
  • Servidor Ultralytics Discord: A Ultralytics tem um servidor Discord onde você pode interagir com outros usuários e desenvolvedores.

Documentação e Recursos Oficiais

  • Documentos Ultralytics YOLO11: A documentação oficial fornece uma visão geral abrangente do YOLO11, juntamente com guias sobre instalação, uso e solução de problemas.

Esses recursos ajudarão você a enfrentar desafios e a se manter atualizado sobre as últimas tendências e práticas recomendadas na comunidade YOLO11.

Conclusão

Neste guia, exploramos as diferentes opções de implantação para YOLO11. Também discutimos os fatores importantes a serem considerados ao fazer sua escolha. Essas opções permitem que você personalize seu modelo para vários ambientes e requisitos de desempenho, tornando-o adequado para aplicações do mundo real.

Não se esqueça de que o YOLO11 e a comunidade Ultralytics são uma fonte valiosa de ajuda. Conecte-se com outros desenvolvedores e especialistas para aprender dicas e soluções exclusivas que você pode não encontrar na documentação comum. Continue buscando conhecimento, explorando novas ideias e compartilhando suas experiências.

Boas implementações!

FAQ

Quais são as opções de implementação disponíveis para YOLO11 em diferentes plataformas de hardware?

Ultralytics YOLO11 oferece suporte a vários formatos de implantação, cada um projetado para ambientes e plataformas de hardware específicos. Os principais formatos incluem:

  • PyTorch para pesquisa e prototipagem, com excelente integração com Python.
  • TorchScript para ambientes de produção onde Python não está disponível.
  • ONNX para compatibilidade entre plataformas e aceleração de hardware.
  • OpenVINO para desempenho otimizado em hardware Intel.
  • TensorRT para inferência de alta velocidade em GPUs NVIDIA.

Cada formato tem vantagens únicas. Para um passo a passo detalhado, consulte nossa documentação do processo de exportação.

Como posso melhorar a velocidade de inferência do meu modelo YOLO11 em uma CPU Intel?

Para aumentar a velocidade de inferência em CPUs Intel, você pode implementar seu modelo YOLO11 usando o kit de ferramentas OpenVINO da Intel. O OpenVINO oferece aumentos de desempenho significativos, otimizando os modelos para aproveitar o hardware Intel de forma eficiente.

  1. Converta seu modelo YOLO11 para o formato OpenVINO usando o model.export() função.
  2. Siga o guia de configuração detalhado na documentação de Exportação Intel OpenVINO.

Para obter mais informações, confira a nossa postagem no blog.

Posso implementar modelos YOLO11 em dispositivos móveis?

Sim, os modelos YOLO11 podem ser implantados em dispositivos móveis usando TensorFlow Lite (TF Lite) para plataformas Android e iOS. O TF Lite foi projetado para dispositivos móveis e embarcados, fornecendo inferência eficiente no dispositivo.

Exemplo

# Export command for TFLite format
model.export(format="tflite")
# CLI command for TFLite export
yolo export --format tflite

Para obter mais detalhes sobre a implementação de modelos em dispositivos móveis, consulte o nosso guia de integração do TF Lite.

Que fatores devo considerar ao escolher um formato de implantação para o meu modelo YOLO11?

Ao escolher um formato de implantação para YOLO11, considere os seguintes fatores:

  • Desempenho: Alguns formatos como o TensorRT fornecem velocidades excepcionais em GPUs NVIDIA, enquanto o OpenVINO é otimizado para hardware Intel.
  • Compatibilidade: ONNX oferece ampla compatibilidade entre diferentes plataformas.
  • Facilidade de Integração: Formatos como CoreML ou TF Lite são feitos sob medida para ecossistemas específicos como iOS e Android, respectivamente.
  • Suporte da Comunidade: Formatos como PyTorch e TensorFlow têm extensos recursos e suporte da comunidade.

Para uma análise comparativa, consulte nossa documentação de formatos de exportação.

Como posso implementar modelos YOLO11 em uma aplicação web?

Para implementar modelos YOLO11 numa aplicação web, pode usar TensorFlow.js (TF.js), que permite executar modelos de aprendizagem automática diretamente no navegador. Esta abordagem elimina a necessidade de infraestrutura de backend e proporciona desempenho em tempo real.

  1. Exporte o modelo YOLO11 para o formato TF.js.
  2. Integre o modelo exportado em sua aplicação web.

Para obter instruções passo a passo, consulte nosso guia sobre integração do TensorFlow.js.



📅 Criado há 1 ano ✏️ Atualizado há 1 mês

Comentários