开通会员 尊享会员权益
登录
注册
找回密码
发布
发布文章
创建话题
创建版块
发布帖子
首页
社区
AI玩法
工作流
AI交易
AI生成
供需发布
玩机交流
软路由
NAS
TV盒子
3D打印
无线电
开发板
跳骚市场
电商交流
独立站
TikTok
咸鱼
GEO
灌水专区
随便聊聊
搞钱搞钱
AI相关
网络技术
开源分享
首页
社区
AI玩法
工作流
AI交易
AI生成
供需发布
玩机交流
软路由
NAS
TV盒子
3D打印
无线电
开发板
跳骚市场
电商交流
独立站
TikTok
咸鱼
GEO
灌水专区
随便聊聊
搞钱搞钱
AI相关
网络技术
开源分享
开通会员 尊享会员权益
登录
注册
找回密码
Ollama
共1篇
排序
更新
浏览
点赞
评论
在M3 utral 512GB混合内存的Mac上部署Ollama及大模型的体验
写在最前如果你准备在本地跑一些大型模型,例如 Qwen 120B、DeepSeek-R1 671B(Q4量化)、GPT-OSS 120B 等,而且使用场景并发不高、甚至只有你自己一人使用,那么这台机器依然是 性价比非常不错...
AI
AI算力
肆喜同学
4个月前
0
170
7
发布文章
创建话题
创建版块
发布帖子
在手机上浏览此页面
登录
没有账号?立即注册
用户名或邮箱
登录密码
记住登录
找回密码
登录
注册
已有账号,立即登录
设置用户名
邮箱
验证码
发送验证码
设置密码
注册
已阅读并同意
用户协议