首页
社区
AI玩法
工作流
AI交易
AI生成
供需发布
玩机交流
软路由
NAS
TV盒子
3D打印
无线电
开发板
跳骚市场
电商交流
独立站
TikTok
咸鱼
GEO
灌水专区
随便聊聊
搞钱搞钱
AI相关
网络技术
开源分享
发布
发布文章
创建话题
创建版块
发布帖子
开通会员 尊享会员权益
登录
注册
找回密码
首页
社区
AI玩法
工作流
AI交易
AI生成
供需发布
玩机交流
软路由
NAS
TV盒子
3D打印
无线电
开发板
跳骚市场
电商交流
独立站
TikTok
咸鱼
GEO
灌水专区
随便聊聊
搞钱搞钱
AI相关
网络技术
开源分享
开通会员 尊享会员权益
登录
注册
找回密码
Ollama
共1篇
排序
更新
浏览
点赞
评论
在M3 utral 512GB混合内存的Mac上部署Ollama及大模型的体验
写在最前如果你准备在本地跑一些大型模型,例如 Qwen 120B、DeepSeek-R1 671B(Q4量化)、GPT-OSS 120B 等,而且使用场景并发不高、甚至只有你自己一人使用,那么这台机器依然是 性价比非常不错...
AI
AI算力
肆喜同学
20天前
0
154
7
发布文章
创建话题
创建版块
发布帖子
在手机上浏览此页面
登录
没有账号?立即注册
用户名或邮箱
登录密码
记住登录
找回密码
登录
注册
已有账号,立即登录
设置用户名
邮箱
验证码
发送验证码
设置密码
注册