1
nbndco 2015-09-10 17:37:14 +08:00 via iPhone
你还是先对 cnn 有个概念再来弄 caffe 吧,你这里连个 loss 都没有, solver 和初始化有什么关系
|
2
xunyu 2015-09-10 18:31:17 +08:00 via Android
filter 是阈值,不是初始化,不敢确定你的模型是哪个
|
4
skyduy OP @nbndco 我看 caffe 教程里的, loss 默认使用了 L (W )≈1/N∑fW (X (i ))+λr (W ) , solvers 有 SGD ADAGRAD NESTEROV ,我现在最想不通的就是用来卷积的 filter 到底是通过什么优化得到的,毕竟一个 filter 意味着提取某一个 feature ,我之前说了通过 Sparse Autoencoder 可以模拟人脑提取特征,但这里完全没有出现它的影子,而且还出现了新的 weight_filter 和 type...求不嫌麻烦解释一下...万分感谢
|
5
skyduy OP 发现一个神器: Keras.
|
6
nbndco 2015-09-11 09:10:16 +08:00 via iPhone
@skyduy autoencoder 是 unsupervised 学习,自然不需要任何其他信息, cnn 是 supervised ,你要有一个目标,由 loss 层表示
|
7
nbndco 2015-09-11 09:11:31 +08:00 via iPhone
weight 就是连接权重,初始化用了 gaussian 随机采样,都是最常见的方式
|
8
ihciah 2015-09-11 09:15:00 +08:00
远程围观
|
13
skyduy OP @nbndco 嗯,这里有 supervise...难道 filter 的获取也要根据定义的 model 通过从 input 到最终的 label supervise 到?
还有 autoencoder 不也可以把 label 看成是 input 的 supervise 吗? |
14
xunyu 2015-09-11 09:57:48 +08:00
深度学习里的人脑特征主要是通过非线性提现的,在教材里是 sigmoid 或 tan 函数处理后的非线性通过 bptt 调参,你最好把整个模型都贴出来,这个层的激活函数是哪个, filler 就是 filter 的功能没啥其他功能的
|
15
skyduy OP @xunyu
@nbndco 谢谢,参照 http://blog.csdn.net/whiteinblue/article/details/43083815 问题已经解决,这里采用的 filter 是 gaussian filter , type 就是用来指定 filter 类型的,和我说的那个自编码出来的 filter 没有冲突,而不同的 filter 在具体的问题也应该会出现不同的结果。 再次谢谢。 |