如何在 Jetson Orin NX 上部署 NanoOWL大模型

 公司新闻     |      2023-12-08 17:24:42    |      沥拓

在生成式AI崛起的浪潮中,NVIDIA Jetson Orin NX 作为一款强大的嵌入式AI计算平台,为在边缘端运行大模型提供了理想的硬件支持。本文将介绍如何在 Leetop Jetson Orin NX 解决方案上部署 NanoOWL大模型并提供了详细步骤。

在开始之前,请确保你已经完成以下准备工作:

一、获取硬件(一套ALP-606

我们准备一套LEETOPALP-606(配置Jetson Orin NX 16G核心板)边缘计算终端和摄像头,并且正确安装操作系统及软件

图片

二、配置ALP-606

连接 Alp-606 到计算机(Ubuntu 20.04),并使用 SDK Manager 完成初始配置。确保 JetPack 和所需的软件库已经正确安装。

三、安装依赖库

 Jetson Orin NX 上运行以下命令安装所需的依赖库:

1.安装依赖库

sudo apt-get update

sudo apt-get install libhdf5-serial-dev \

hdf5-tools \

libhdf5-dev \

zlib1g-dev \

zip \

libjpeg8-dev \

liblapack-dev \

libblas-dev \

gfortran

2.安装和升级pip3工具

sudo apt-get install python3-pip

sudo python3 -m pip install --upgrade pip

sudo pip3 install -U testresources setuptools==65.5.0

3.安装python依赖包

sudo pip3 install -U numpy==1.22 \

future==0.18.2 \

mock==3.0.5 \

keras_preprocessing==1.1.2 \

keras_applications==1.0.8 \

gast==0.4.0 \

protobuf \

pybind11 \

cython \

pkgconfig \

packaging \

h5py==3.6.0

4.安装tensorflow

sudo pip3 install --extra-index-url https://developer.download.nvidia.com/compute/redist/jp/v512 tensorflow==2.12.0+nv23.06

接下来我们就开始在ALP-606上快速部署NanoOWL算法

1.配置jetson_contain

git clone https://github.com/dusty-nv/jetson-containers

cd jetson-containers

sudo apt update; sudo apt install -y python3-pip

pip3 install -r requirements.txt

2.运行脚本拉取docker镜像并进入nanoowldocker环境

cd jetson-containers

./run.sh $(./autotag nanoowl)

等待拉取nanoowldocker镜像,成功后会自动进入docker环境

3.运行NanoOWL算法example

cd examples

python3 owl_predict.py \

--prompt="[an owl, a glove]" \

--threshold=0.1 \

--image_encoder_engine=../data/owl_image_encoder_patch32.engine


运行成功生成/opt/nanoowl/data/owl_predict_out.jpg文件

图片

4.运行NanoOWL算法树型预测demo (Live Camera)

## 查看docker环境里的USB摄像头节点,根据具体设备号修改tree_demo.py

ls /dev/video*

## 运行demo

python3 tree_demo.py ../../data/owl_image_encoder_patch32.engine

等待模型加载,加载成功如下图所示

图片

5.PC主机或者ALP-606上打开浏览器进入http://<ip address>:7860

可以看到摄像头的实时画面,在下方编辑栏内填入想要识别的物体种类名称,如

[a face [a nose, an eye, a mouth]][a chair [a cellphone]]

此时会在实时画面上能看到想要识别的目标框

图片

结论

通过这个简单的指南,你已经可以成功地在 Jetson Orin NX 上部署 NanoOWL 大模型。在实际生产环境中,确保进行性能优化和安全性评估,以满足您的实际应用需求。

希望这篇指南对您在Jetson Orin NX上部署大模型有所帮助。

 leetop 提供一系列支撑边缘计算和大模型部署的众多方案 ,并支持产品定制化

图片

如果您有任何需求或者疑问和反馈,欢迎在评论中留言或者直接联系我们.

GTC 2024 将于 2024 年 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。扫描下方海报二维码,立即注册 GTC 大会。


图片