V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  ipwx  ›  全部回复第 69 页 / 共 200 页
回复总数  3991
1 ... 65  66  67  68  69  70  71  72  73  74 ... 200  
2021-05-25 14:00:57 +08:00
回复了 qqqtz 创建的主题 问与答 你们都把 capslock 跟 ctrl 对调吗
可能是我手大,按 ctrl 挺自然的没问题。
2021-05-25 13:58:23 +08:00
回复了 longway 创建的主题 git 真有人觉得 Git 会提高生产力?
@longway 高效的大项目(也是 git 适合的场景):每个组负责不同的子系统、组内每个人负责不同的子模块。每个人负责的文件都不一样,哪来的冲突机会?组和组之间的接口由总架构师协调,组内由组长协调。架构师干嘛的?不就是干这个的吗?

你一坨浆糊当然一直冲突…… 而且还没法开发更大的项目。
2021-05-25 13:55:54 +08:00
回复了 longway 创建的主题 git 真有人觉得 Git 会提高生产力?
@masterclock @jones2000 所以就是楼主 @longway 团队的合作方式有问题啊。如果每天都有大量 conflict,说明根本没有进行团队工作切分,都是临时给人派任务。。。。这妥妥的缺少个架构师
2021-05-25 13:53:58 +08:00
回复了 longway 创建的主题 git 真有人觉得 Git 会提高生产力?
1. 你得用 branch 。branch 功能特别爽,每个人独立开发个把月,最后合并就行了。
2. 如果你们不能用 (1) 的方法工作,说明你们团队每个人的功能划分太奇怪了。哪有这么多的一起修改同一个文件的情况啊?这哪种工具都高效不起来啊喂。你们得有分组分层责任划分,每个组每个层和别的层除了接口其他互不相关才行啊。
2021-05-24 23:05:14 +08:00
回复了 815979670 创建的主题 问与答 后端程序员有必要学 PostgreSQL 吗?
很多时候 MySQL 要有经验地写法才能避开的坑,Postgres 的查询优化器已经帮你解决了。PG 能够高效运行的子查询的种类比 MySQL 多得多。所以,很多情况下,Postgres “不用学”。
2021-05-24 17:09:02 +08:00
回复了 Phishion 创建的主题 Python 我想维护一个大型字典,有没有什么省内存的方法
@lujjjh 虽然你说的对,这个场景的冲突概率很低,但是并没有低到 2^(-128)。这是典型的生日问题,因为你的问题不是给定某个特定川,表里面有川和它冲突的概率,而是表里面有任意两个串冲突的概率。

https://en.wikipedia.org/wiki/Birthday_problem#Probability_table

这里写出来结论了,超过 p=0.001 有任意两个串冲突,表里面需要有 8*10^17 个元素就行。
2021-05-24 14:34:18 +08:00
回复了 Phishion 创建的主题 Python 我想维护一个大型字典,有没有什么省内存的方法
@lujjjh 哈希只能是概率性不冲突啊,虽然概率小,但是不能保证程序**一定**正确不是么?

楼主没有讲可以概率性正确,你这就加上这个条件,这不好。
2021-05-24 10:16:06 +08:00
回复了 Phishion 创建的主题 Python 我想维护一个大型字典,有没有什么省内存的方法
@ZhangZisu 但其实哈希表用平方探测不是只要两倍内存就基本能保证性能么。。而且两倍的是哈希表节点而不是字符串。用上 StringPool + string_view 咱觉得基本就是最好的方案了。

@Phishion 咱多少觉得,楼主有种 XY Problem 的感觉。到底什么场景下 400MB 的表都会 concern ?是不是和多进程有关? Linux fork 的话,因为内存使用是 COW 的,所以可以主进程创建完整个表,然后子进程就不用创建第二份了。

那如果是设备内存太小,或者本身楼主要处理的不是 400MB 而是 40GB 这种场景,那可能就需要使用 disk-backend 的数据结构了。比如 B-Tree 。
2021-05-24 00:59:59 +08:00
回复了 Phishion 创建的主题 Python 我想维护一个大型字典,有没有什么省内存的方法
@ZhangZisu 我觉得楼主这个需求,trie 树不太好用。因为楼主的字符串是真随机,trie 树每层都会分出一堆节点,基本是个满 K 叉树,比一个大哈希表用更多内存
@Phishion https://developers.digitalocean.com/libraries/

楼主估计说的是这里,Official API 只有 Go 和 Ruby,其他的是社区提供的。

但是,这难道不能说明其他语言社区比同时期 Go/Ruby 好很多,所以官方都不用动手就有 Binding 了吗 。。。。
2021-05-21 14:32:06 +08:00
回复了 zxCoder 创建的主题 Python 关于 WSL docker cuda,安装深度学习 Python 环境
2021-05-21 14:31:06 +08:00
回复了 zxCoder 创建的主题 Python 关于 WSL docker cuda,安装深度学习 Python 环境
唯一不带的好像是 TensorFlow,你自己随便装一个
2021-05-21 14:30:50 +08:00
回复了 zxCoder 创建的主题 Python 关于 WSL docker cuda,安装深度学习 Python 环境
@zxCoder 还有 graph_tool,滑稽~

你可以看看我这个版本适合不:

https://hub.docker.com/layers/129864161/haowenxu/ml-runtime2/gpu-cuda10.1-cudnn7-py3.6-torch1.7.1/

Python 3.6 CUDA 10.1 CUDNN 7 PyTorch 1.7.1 带 graph-tool
2021-05-21 09:57:17 +08:00
回复了 zxCoder 创建的主题 Python 关于 WSL docker cuda,安装深度学习 Python 环境
@zxCoder 虚拟机也基本不行,你只能 Ubuntu 。

微信可以考虑 https://deepin-wine.i-m.dev/
2021-05-21 09:56:12 +08:00
回复了 baoker 创建的主题 随想 人终究逃不出去吗?
@3dwelcome 钱不重要,ummm 那是你自己没有遇到真的想要却因为缺少条件而要不了的东西。在我看来,物质欲望和精神欲望,两手都要抓两手都要硬。

而且说起精神欲望,我就打个比方,我喜欢我博士读的学科,但我不喜欢科研(圈子)。我不喜欢做一些 incremental 的工作,为了发论文而调整研究方向,哪怕这一生做不出什么有用的突破,那是我的兴趣。但是这样是混不了学术界的,没人给你经费,没有学生会冒着无法毕业的风险跟你做。

如果我自己有钱,自己给自己发科研经费,就没这些问题了不是么。
2021-05-21 01:11:33 +08:00
回复了 baoker 创建的主题 随想 人终究逃不出去吗?
1. 世界上大部分人都是庸人,而且大部分人这样过反而是最容易的过法。
2. 你不想做庸人,也就是说,你想做 1% 不到的那种人。
3. 世界上但凡要做 1% 不到的那种人,都不容易。
4. 只有足够强才有任性的资本。
----

所以问题只有一个原因,你不够强。你现在如果有一千万现金加北京一套无贷款的学区房,我想你就不会想着只能老实带孩子上班看周围人脸色的问题了。
2021-05-21 00:18:59 +08:00
回复了 ylsc633 创建的主题 生活方式 在外拼搏的我们,什么才是向往的生活呢
《叶公好龙》
2021-05-21 00:11:34 +08:00
回复了 zxCoder 创建的主题 Python 关于 WSL docker cuda,安装深度学习 Python 环境
1. Windows 别想了。本体用 TensorFlow / PyTorch 可能会有各种奇怪的问题,因为你这真的是小众平台很少有搞学术这么做的,碰到问题不好解决。而 WSL/WSL2/虚拟机都是不可能用 CUDA 的,无解。
2. Linux 下用 Docker 启动 CUDA + TensorFlow 是可能的。我在实验室这么干了好几年了,不然我们实验室那么多人用服务器,每个人环境都不同,我得管死。
1 ... 65  66  67  68  69  70  71  72  73  74 ... 200  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2101 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 11:20 · PVG 19:20 · LAX 04:20 · JFK 07:20
Developed with CodeLauncher
♥ Do have faith in what you're doing.