\u200E
  • 开始使用
  • 特性
  • 文档
    • API
    • 使用指南
  • 工具平台
    • 工具
      • AutoDL
      • PaddleHub
      • PARL
      • ERNIE
      • 全部
    • 平台
      • AI Studio
      • EasyDL
      • EasyEdge
  • 资源
    • 模型和数据集
    • 学习资料
    • 应用案例
  • develop
  • v2.12
  • v2.11
  • v2.10
  • v2.9
  • v2.8
  • v2.7
  • v2.6
  • v2.3
  • 中文(简)
  • English(En)
Search — Paddle-Lite documentation
Paddle-Lite
latest

Paddle Lite 介绍

  • Paddle Lite 介绍
  • Road map

快速开始

  • Paddle Lite 预测流程
  • Paddle Lite 预编译库下载
  • 试用 Paddle Lite
  • 硬件支持及示例
  • 支持模型
  • 支持算子
  • Paddle Lite FAQ

源码编译

  • 源码编译概述
  • Docker 统一环境搭建
  • Linux x86 环境下编译适用于 Linux x86 的库
  • Linux x86 环境下编译适用于 ARM Linux 的库
  • Linux x86 环境下编译适用于 Android 的库
  • ARM Linux 环境下编译适用于 ARM Linux 的库
  • macOS 环境下编译适用于 macOS 的库
  • macOS 环境下编译适用于 iOS 的库
  • macOS 环境下编译适用于 Android 的库
  • Windows 环境下编译适用于 Windows 的库
  • 编译选项说明
  • 裁剪预测库

程序开发

  • C++ 完整示例
  • Java 完整示例
  • Python 完整示例
  • 程序开发概览
  • 模型优化工具 opt
  • 模型量化
  • 模型可视化方法
  • Profiler 工具
  • 模型的非结构化稀疏

多硬件部署示例

  • Android 工程示例
  • iOS 工程示例
  • Linux(ARM) 工程示例
  • ARM CPU 部署示例
  • X86 部署示例
  • OpenCL 部署示例
  • Metal 部署示例
  • 百度 EdgeBoard 部署示例
  • 华为麒麟 NPU 部署示例
  • 华为昇腾 NPU 部署示例
  • 昆仑芯 XPU 部署示例
  • 瑞芯微 NPU 部署示例
  • 晶晨 NPU 部署示例
  • 芯原 TIM-VX 部署示例
  • Android NNAPI 部署示例
  • 联发科 APU 部署示例
  • 颖脉 NNA 部署示例
  • 比特大陆 NPU 部署示例
  • 英特尔 FPGA 部署示例
  • 英特尔 OpenVINO 部署示例

性能优化

  • 最佳做法
  • 性能测试
  • 性能数据
  • 使用 GPU 获取最佳性能

开发者贡献

  • 开发基础须知
  • 架构详解
  • 新增 OP
  • 新增单测
  • 新增 Layout
  • 新增 Pass
  • 新增硬件
  • NNAdapter:飞桨推理 AI 硬件统一适配框架

训练示例(预览)

  • C++ Train Demo

API文档

  • C++ API
  • Java API
  • Python API
  • CV 图像预处理 API

FAQ

  • Paddle Lite FAQ

训练推理示例说明

  • 训练推理示例说明
Paddle-Lite
  • »
  • Search


© Copyright 2020, Paddle-Lite Developer.

Built with Sphinx using a theme provided by Read the Docs.