开通会员 尊享会员权益
登录
注册
找回密码
发布
发布文章
创建话题
创建版块
发布帖子
首页
社区
AI玩法
工作流
AI交易
AI生成
供需发布
玩机交流
软路由
NAS
TV盒子
3D打印
无线电
开发板
跳骚市场
电商交流
独立站
TikTok
咸鱼
GEO
灌水专区
随便聊聊
搞钱搞钱
AI相关
网络技术
开源分享
首页
社区
AI玩法
工作流
AI交易
AI生成
供需发布
玩机交流
软路由
NAS
TV盒子
3D打印
无线电
开发板
跳骚市场
电商交流
独立站
TikTok
咸鱼
GEO
灌水专区
随便聊聊
搞钱搞钱
AI相关
网络技术
开源分享
开通会员 尊享会员权益
登录
注册
找回密码
独乐乐不如众乐乐
分享是一种态度,交流是一种温度
优雅的打开AI之门
从灵感到实现,只需一步之遥
最新发布
第4页
在M3 utral 512GB混合内存的Mac上部署Ollama及大模型的体验
写在最前如果你准备在本地跑一些大型模型,例如 Qwen 120B、DeepSeek-R1 671B(Q4量化)、GPT-OSS 120B 等,而且使用场景并发不高、甚至只有你自己一人使用,那么这台机器依然是 性价比非常不错...
AI
AI算力
# Mac studio
# Ollama
# gpt-oss
肆喜同学
4个月前
0
170
7
软路由
咸鱼
独立站
Tiktok
AI
搞钱
侃大山
鱼小铺
飞牛
量化
软路由
跨境收款
跨境付款
豆包手机
视频工厂
自动回复
自动发货
美股
网络收音机
短视频生成
知识库
独立站
爬虫
梯子
暗网
新闻中心
收音机
发布文章
创建话题
创建版块
发布帖子
在手机上浏览此页面
登录
没有账号?立即注册
用户名或邮箱
登录密码
记住登录
找回密码
登录
注册
已有账号,立即登录
设置用户名
邮箱
验证码
发送验证码
设置密码
注册
已阅读并同意
用户协议