V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  vpsvps  ›  全部回复第 1 页 / 共 7 页
回复总数  133
1  2  3  4  5  6  7  
8 天前
回复了 ok168168 创建的主题 随想 有没有觉得人生真的很短暂!
05 年感觉很近
但都已经是二十年前了
10 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
@NamelessRain
FP16 精度的吗? 1.3T 的版本 没见过搭建成功的?
10 天前
回复了 momomoi 创建的主题 MacBook 买了个 14 寸 m4pro 48+512
16 寸用惯了换 14 觉得习惯吗
10 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
去 B 站搜了下
发现需要上百万的硬件设备才行的
猜一下内心想法:
认识 2 年了,还以为你有钱,搞了这么久发现你存款才这么点,浪费老娘的青春。
21 天前
回复了 BlackHole1 创建的主题 分享创造 一款全新的工作流 IDE
分子子
魔兽世界
https://www.bilibili.com/video/BV19b4y1p717

很多人不信 oled 会造成眼睛散光
可以看看这个视频里收集了很多用户反馈
se4 也是 oled 瞎眼屏
真是服了
我也发现京东上很多非自营的假店铺,特别是百亿补贴里面的
@uncat 谢谢 我试试
@uncat 谢谢回复,是直接 ollama run deepseek-r1:671b 这个就行吗?这个简单些。huginnface 上的版本还得合并,比较麻烦,您说的是指用 unsloth/DeepSeek-R1-GGUF 这个模型文件吗
@snowkylin #6 👍,这种方式是不是不能直接使用 ollama run deepseek-r1:671b 从 ollama 上下载,404G 的,而需要在 huginnface 上下载?

Download the model files (.gguf) from HuggingFace (better with a downloader, I use XDM), then merge the seperated files into one
@snowkylin #4 谢谢回复,用 ollama 就可以吧,显存用完就会调用内存,
比如 我的服务器有 8 块 4090 ,内存 640G ,能跑得动 671b 404GB 这个,就是速度慢点是吧?
请问 1.73-bit 量化版( 158GB 大小的模型)
一个 4090 24G 加上 160G 内存
可以跑起来吗?
不是需要 7 块 4090 吗?
50 天前
回复了 Czzzzzzzzzzr 创建的主题 买买买 今年买的最值的电子产品是什么
Mac mini m4
@yzqn 细说下平时如何相处之类的,谢谢
居然设置后门!
真服了

点开已安装套件页面
进入软件界面
看到发布者是矿神 XXX 的
我都把卸载了
谢谢提醒!
已卸载全部群晖上的所有矿神源提供的软件!
56 天前
回复了 louisliu813 创建的主题 Apple 2025 了,大家怎么在 iPad 远程 macbook
@xinmans windows App ( remote desktop ) 可以远程 Mac ?
1  2  3  4  5  6  7  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1049 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 22:51 · PVG 06:51 · LAX 15:51 · JFK 18:51
Developed with CodeLauncher
♥ Do have faith in what you're doing.