全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 879|回复: 11
打印 上一主题 下一主题

有没有大神会用gpu跑llama3 8b的

[复制链接]
跳转到指定楼层
1#
发表于 2024-5-8 15:23:16 来自手机 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
有张3060,但不会用。求大神指点
推荐
 楼主| 发表于 2024-5-8 19:07:21 | 只看该作者
Eureka 发表于 2024-5-8 15:37
在用rs2000(8H16G)跑llama3 8B,加了各种prompt后,生成速度5.74tokens/s,速度还不错。

显卡可以试着多 ...

找了挺多教程,没看懂。
是不是不能在windows平台下用,
windows平台好像只能用cpu跑,这个太慢了。
2#
发表于 2024-5-8 15:33:38 | 只看该作者
那么多教程,就是下载python装环境,下载模型和demo跑
3#
发表于 2024-5-8 15:35:05 | 只看该作者
直接用ollama简单点。
4#
发表于 2024-5-8 15:37:08 来自手机 | 只看该作者
本帖最后由 Eureka 于 2024-5-8 15:39 编辑

在用rs2000(8H16G)跑llama3 8B,加了各种prompt后,生成速度5.74tokens/s,速度还不错。

显卡可以试着多加几张,跑个llama3 70B,ollama支持多卡的,总显存有50G这样子就可以非常流畅的运行了。
6#
发表于 2024-5-8 19:25:40 | 只看该作者
ollama,windows下也可以用显卡,直接run就完事了
7#
发表于 2024-5-8 19:29:51 | 只看该作者
lilyhcn1 发表于 2024-5-8 19:07
找了挺多教程,没看懂。
是不是不能在windows平台下用,
windows平台好像只能用cpu跑,这个太慢了。 ...

https://ollama.com/
windows上官网下载安装,然后打开cmd运行

  1. ollama run llama3
复制代码


会自动下载几个G的模型,下载完然后就可以用了

GPU我是N卡,什么都没配置,直接就用上GPU了。
8#
 楼主| 发表于 2024-5-8 21:22:01 | 只看该作者
Eureka 发表于 2024-5-8 19:29
https://ollama.com/
windows上官网下载安装,然后打开cmd运行

!!!我也是这样啊,但GPU就没有用上。
那我重装试试
9#
发表于 2024-5-8 21:51:32 | 只看该作者
lilyhcn1 发表于 2024-5-8 21:22
!!!我也是这样啊,但GPU就没有用上。
那我重装试试


据我的经验来看,运算的时候,GPU使用率不会太明显,只是显存会被占满,然后溢出,继续占用主板上的内存容量。
10#
发表于 2024-5-8 21:57:48 | 只看该作者
lilyhcn1 发表于 2024-5-8 21:22
!!!我也是这样啊,但GPU就没有用上。
那我重装试试

只要看启动的时候的日志,就可以知道是cpu还是gpu了
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2024-7-3 12:41 , Processed in 0.066492 second(s), 11 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表