V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wenerme  ›  全部回复第 1 页 / 共 8 页
回复总数  160
1  2  3  4  5  6  7  8  
7 天前
回复了 Chairs0 创建的主题 DNS 分享一次 FakeIP 的踩坑记录
有时候真的是没有别的选择。

macos ,通过修改 dns 就能全局正常工作。
有一个办法是允许 FakeIP 返回一个固定的正常外部 IP 然后拦截,然后通过 SNI 方式检测域名。
但是 mihomo 不支持返回固定 IP ,之前有用过 dnsmasq 来做这样的事情,这样的 SNI 方式不支持 mysql 这种非 http 请求。
如果能接受这种返回固定 IP ,那直接本地创建一个 interface 给 IP ,然后 gost 启动一个 sni 代理,就能随便处理了,但是这种情况支持的端口有限。
9 天前
回复了 shihao9618 创建的主题 Visual Studio Code gemini vscode 持续在后台活动
antigravity 占用 CPU 超高
@imik 不是,旧项目,cursor agent 能 link 到 repo ,然后 yolo 模式一次性操作完。但是结果很多时候不理想,打算最近再试试,反正以前是不理想。


@auhah 看到 composer 1 free ,且 opus 4.5 最近两周收费和 sonet 4.5 一样
@imik cursor agent 的网页版不需要,直接一口气操作完,但是试过几次都不理想。还没用过 claude 的网页版
@bobkingdom 是很多导出的,但是不敢随便用,有些拿 key 的方式怕被封号

@korvin 谢谢,我试试,看到有 fork
16 天前
回复了 wenerme 创建的主题 程序员 LLAMA CPP 比 Ollama 快得多
@TabGre llamacpp 支持 mps


@mooyo 我本地二手显卡,qwen3 vl 32b 30tk/s, gpt-oss 20b 100tk/s


@secretys vllm 对显卡有要求,我 v100 跑不了

@slowgen 模型加载用 llama-swap 配合下来感觉比 ollama 舒服,主要是可控制的参数太多了,就觉得爽
16 天前
回复了 wenerme 创建的主题 程序员 LLAMA CPP 比 Ollama 快得多
@c0xt30a

```yaml
services:
ollama:
# 0.11.6 0.12.3
image: docker.m.daocloud.io/ollama/ollama:0.13.0
container_name: ollama
networks:
- service
ports:
- 11434:11434
volumes:
- /data/home/.ollama/:/root/.ollama/
restart: unless-stopped
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [ gpu ]
environment:
# qwen3 vl 最大 256K
#OLLAMA_CONTEXT_LENGTH: 16384 # 16k
#OLLAMA_CONTEXT_LENGTH: 32768 # 32k
# qwen3-vl:32b 256K 206.6 GiB
# qwen3-vl:32b 64K 42.7 GiB
OLLAMA_CONTEXT_LENGTH: 64000

OLLAMA_DEBUG: 1

#OLLAMA_KV_CACHE_TYPE: q4_0
OLLAMA_FLASH_ATTENTION: 1
#OLLAMA_NEW_ENGINE: true
OLLAMA_NUM_PARALLEL: 2


llama:
image: ghcr.io/mostlygeek/llama-swap:v172-cuda-b7062
container_name: llama
command:
- -watch-config
- -config
- /llama/llama-swap.yaml
volumes:
- ./models:/models
- ./models:/root/.cache/llama.cpp
# the user is app, home is /app, uid=10001
- ./models:/app/.cache/llama.cpp
- ./llama:/llama
ports:
- 11435:8080
environment:
HF_ENDPOINT: https://modelscope.cn
sysctls:
net.ipv6.conf.all.disable_ipv6: 1
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [ gpu ]
extra_hosts:
- "host.docker.internal:host-gateway"

```
30 天前
回复了 aikilan 创建的主题 Markdown 用 AI 搞了个小玩具
一般告诉 agent 直接把一个文件翻译为中文写入到哪里就可以了
47 天前
回复了 wenerme 创建的主题 程序员 沦落到给 AI 打工了
@Lockroach

手写和 AI 一起维护的一些 log

```
tree logs
logs
├── 2025-08-w35.md
├── ...
├── 2025-11-w45.md
├── 2025-Q4
│ ├── 2025-Q4-ref.md
│ ├── architecture.md
│ ├── metrics.md
│ ├── README.md
│ ├── .....
│ └── work-tracking.md
├── glossary.md
├── ideas.md
└── template.md
```
在 HN 里,这种情况第一句都是 shameless plug, 不然都会显得不礼貌。如果还觉得别人 mark as spam 不爽, 那就真 shameless 了。
@azzzzzz 所以当老板就是更累了,更穷了么?又没能多赚到一份钱 😭
@HangoX 我是 2.x 的,最新版可以的,你可以试试它网页版能不能行,https://app.happy.engineering/ 手机上干完活还能在网页上继续接管。但是感觉现在功能还有点不是很顺,不过可用性还是很高了。
@cvooc 能胜任需求,但是胜任不了使用的人也搞不懂的需求,主要靠使用的人来指导方向逐步优化完善。然后就是利用好信息,例如配置好 context7 之类这种,把文档放一些在本地,让它直接随时能获取到信息
> 后排求一份使用指南, 老看你们 PUA AI. 具体工作流/开发效果/速度/花费啥的也没见人分享过.

@cvooc 这种太 case by case 了,很多东西都是和 ai 慢慢聊出来的,或者有个大概的思路,知道 workflow 大致会是什么样,然后慢慢聊逐步做,就干的多了。
@yolee599 😭
我现在 cursor 和 webstorm 换着用,cursor 用来出代码,webstorm 用来精修
有种找小三的感觉,因为 ai 我背叛了 webstorm
@goofish 因为做的更快了,所以做的更多了,以前的一些想法就有时间了,循环下来更累了
@WongHuang 有点这种感觉,但是感觉自己也是被压榨的,就觉得很奇怪
@HangoX 我一直能用,可能因为我代理了?如果不能用可以试试自己部署 server
1  2  3  4  5  6  7  8  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2535 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 05:42 · PVG 13:42 · LAX 21:42 · JFK 00:42
♥ Do have faith in what you're doing.