nvidia显卡实时查看 GPU 的占用
nvidia-smi
可以实时查看 GPU 的占用情况。要实时监控 GPU 使用情况,你可以使用以下几种方法:
1. 直接使用 nvidia-smi
命令
你可以使用以下命令,每隔一秒刷新一次显示:
1 | watch -n 1 nvidia-smi |
这将每秒钟刷新一次 nvidia-smi
输出,让你实时看到 GPU 的使用情况。
2. 使用 nvidia-smi
的查询模式
nvidia-smi
也支持查询模式,可以监控特定的指标。以下是一个示例,监控 GPU 的利用率、显存使用情况和温度:
1 | nvidia-smi --query-gpu=timestamp,name,pci.bus_id,temperature.gpu,utilization.gpu,utilization.memory,memory.total,memory.free,memory.used --format=csv -l 1 |
这条命令每秒钟输出一次 GPU 的使用情况,并以 CSV 格式显示。
3. 使用 nvidia-smi dmon
模式
nvidia-smi
还提供了一个守护进程监控模式,可以实时监控 GPU 的使用情况:
1 | nvidia-smi dmon |
这个命令会以表格形式显示实时的 GPU 使用情况。
4. 使用 nvidia-smi pmon
模式
nvidia-smi
的进程监控模式 (pmon
) 可以显示每个 GPU 上的进程使用情况:
1 | nvidia-smi pmon -i 0 |
这个命令会显示 GPU 0 上每个进程的 GPU 使用情况。
示例
watch -n 1 nvidia-smi
1 | watch -n 1 nvidia-smi |
输出会每秒钟刷新一次:
1 | Every 1.0s: nvidia-smi |
nvidia-smi --query-gpu
1 | nvidia-smi --query-gpu=timestamp,name,pci.bus_id,temperature.gpu,utilization.gpu,utilization.memory,memory.total,memory.free,memory.used --format=csv -l 1 |
输出会每秒钟更新一次,并以 CSV 格式显示:
1 | timestamp, name, pci.bus_id, temperature.gpu, utilization.gpu [%], utilization.memory [%], memory.total [MiB], memory.free [MiB], memory.used [MiB] |
通过这些方法,你可以实时监控你的 GPU 使用情况,确认 ollama
运行的 qwen
模型是否在使用你的显卡。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 树灼的博客!