Categories

各大深度学习顶会举办地点

TIP

最近在做本科毕设,查了好多好多文献,不过都木有按照具体格式来写,但这两天临近中期检查,不得不整理一下咯

但,论文要求里的参考文献格式就很麻烦,国内的倒还好,知网或维普搜一下直接导出后稍作修改就好了,但国外的论文所提供的 cite 与要求的格式相差很多,特别是会议论文,居然还需要填写会议地址,这我哪里知道嘛(⇀‸↼‶)

所幸我搜到了 ref1,解决了我的燃眉之急ヾ(≧∇≦*)ゝ,这里我先转载一下其内容,并进行部分补充

初尝 GAN

TIP

最近在 DL 的学习方向上稍有迷茫,毕竟有那么多学习的方向嘛。“开学”那几天初尝 RL 做了个 AlphaZero 五子棋,但理论什么的尚需补足,而且暂时没有什么别的想做的也没继续深入。毕设这段时间主要是学习一些机器学习领域的知识啦,大多是一些浅层神经网络及其优化算法,比如 AutoEncoder 和遗传算法等等,唔,本来兴趣就寥寥,然后毕设凉了就更没动力了……

前两天突然翻出来一张猫猫十年前的照片,但分辨率实在太低啦(240 * 320),就想尝试一下超分辨率相关模型,发现最近超分辨率也在用 GAN 啦,所以,就尝试学一下~

初识图卷积神经网络(GCN)

TIP

随着深度学习的快速发展,传统神经网络结构的弊端也日益凸显,无论是 CNNCNN 还是 RNNRNN ,处理的数据仅限于欧式空间,而对于拓扑结构的数据就手足无措了,然而我们我们生活的世界更多的数据还是拓扑结构数据,至于表示拓扑结构的最好方法,非图莫属了,那么如何利用图的结构进行学习呢,下面让我们一探 GCNGCN 的究竟

使用 JupyterLab 开启全新的炼丹之旅

TIP

本地设备的配置大大限制了炼丹的效率,如果有一个合适的服务器的话,如何配置能最方便地进行炼丹呢?

Maxout 的简单理解与实现

TIP

Maxout 是 Goodfellow 在 2013 年提出的一个新的激活函数,相比于其它的激活函数,Maxout 本身是需要参数的,参数可以通过网络的反向传播得到学习,相应地,它比其它激活函数有着更好的性能,理论上可以拟合任意凸函数,进而使得网络取得更好的性能

TensorFlow 踩坑记:训练状态的设置

TIP

虽然说 TensorFlow2.x 比 1.x 易用了很多,但杂乱的 API 还是让人抓狂,特别是 Keras 中有着多种多样的模型实现方式(最简单的 Sequential、最灵活的 Functional、最规整的 SubClass)以及训练方式(fit 和自己写训练循环),fit 过于封装,有时候想加点东西都挺麻烦,而自己写循环又怕效率较低,也可能会忽略点什么,果不其然,最近又发现了训练状态的设置问题,于是它差点又把我推向了 Pytorch 的怀抱