jeston LingBot-Depth复现
1.参考其他教程安装jetpack,现在多为6.2版本 cuda12.6
2.执行官方教程中的代码
git clone https://github.com/robbyant/lingbot-depth
cd lingbot-depth
# Install the package (use 'python -m pip' to ensure correct environment)
conda create -n lingbot-depth python=3.10 #这里替换为3.10
conda activate lingbot-depth
python -m pip install -e .
3.安装jeston版本的torch torchvision(可以先现在一下当前的,再安装)
python -m pip install torch==2.8.0 torchvision==0.23.0 --index-url=https://pypi.jetson-ai-lab.io/jp6/cu126
会提示与项目中mdm要求或requirements.txt要求不符,忽视或者手动改一下相关文件即可。
4.安装jeston版本的triton xformers
python -m pip install triton==3.4.0 xformers --index-url=https://pypi.jetson-ai-lab.io/jp6/cu126 #triton==3.4.0运行没问题
python -m pip install triton xformers --index-url=https://pypi.jetson-ai-lab.io/jp6/cu126 #最新的triton应该也可以,这里懒得测试了
5.在项目文件夹下打开终端运行
# Basic usage - processes example 0
python example.py
# Use a different example (0-7 available)
python example.py --example 1
# Use depth completion optimized model
python example.py --model robbyant/lingbot-depth-postrain-dc-vitl14
# Custom output directory
python example.py --output my_results
# See all options
python example.py --help
没有问题的话,应该可以正常运行。
查看一下gpu占用,可能本人板子环境问题,运行其他项目或者改项目总是跑在cpu上,在代码里手动指定一下device即可运行在gpu上。








