登录
|
注册
桌面版导航
搜索
社区论坛任务
停止自动跳转移动版
桌面版首页
南+ South Plus
AI交流 (beta)
请问20g的内存模型速度快还是7gb的显存速度快?
柳下瑜
- 2024-03-29 19:27
[GF]
我的配置是3060ti+32g内存,用什么模型速度和回复质量最高?另外求个AI聊天群。今天第一次了解到是酒馆和webui使用了一下很有意思。
回复
7cbbceca
- 2024-03-29 19:35
[B1F]
什么llama,gpt都行吧,去huggingface上找找看,有不少大模型是开源的
回复
柳下瑜
- 2024-03-29 19:46
[B2F]
有群吗老哥
回复
dcb06d03
- 2024-03-29 20:00
[B3F]
7gb显存还是太少了
回复
onexph
- 2024-03-29 20:07
[B4F]
正常情况肯定显存快,只能说3060ti跑不动显存占用大点的模型
回复
柳下瑜
- 2024-03-29 21:02
[B5F]
能不能显存内存同时调用?
回复
onexph
- 2024-03-29 22:39
[B6F]
不能
回复
柳下瑜
- 2024-03-30 00:19
[B7F]
老哥,我发现酒馆调动本地模型文本量都有限啊,所以是不是才有了破限的概念?那怎么在后台调整文本量大小?
回复
柳下瑜
- 2024-03-30 00:47
[B8F]
老哥,为什么角色卡导入进去后跟她们聊天输出的都是角色介绍的内容?
回复
糸樂沢
- 2024-04-13 02:12
[B9F]
破限应该指的是突破chatgpt或者claude这种禁止色色的模型的限制吧
回复
Mni
- 2024-04-13 21:31
[B10F]
回复
回复
表 情
桌面版
Powered by
SP Project
v1.0
© 2010-2019
Time 0.001538 second(s),query:3 Gzip enabled
Top