- 学习笔记的归类
- 有关DL、ML的资料的积累
- 相关领域:神经网络、计算机视觉
- 1-1 神经网络与深度学习(1)-深度学习概论
- 1-2 神经网络与深度学习(2)-逻辑回归
- 1-3 神经网络与深度学习(3)-Python与向量化
- 机器学习常见评价指标及分割指标MIoU
- MIoU基于PyTorch的计算
- 深度可分离卷积
- Kappa系数基于PyTorch的计算
- 过拟合问题原因
- k折交叉验证
- sklearn中k折交叉验证的实现
- 离线数据增强与在线数据增强
- 语义分割中的三种上采样方式:转置卷积、线性插值、Unpooling
- 上采样-双线性插值的理解
- 上采样-最邻近插值
- 某大佬对align_corners的理解
- 深度学习的11个技巧
- Focal-Loss损失函数的理解
- labelme标注工具的安装及使用总结
- 一份很全的Pytorch数据增强的总结
- CNN学习笔记(1)-CNN基本结构简介
- CNN学习笔记(2)-CNN基本流程
- CNN学习笔记(3)-CNN_卷积层
- CNN学习笔记(4)-CNN_池化层
- CNN学习笔记(5)-CNN_激活函数与全连接层
- CNN学习笔记(6)-CNN_填充和步幅
- CNN学习笔记(7)-CNN_channels
- CNN学习笔记(8)-张量
- DL知识随笔记录
- 全连接层流程及softmax loss
- 过拟合欠拟合问题
- 权重衰减的推导
- 归一化
- 网络参数的几种初始化方式
- 机器学习模型的三种评估方法
- 感受野
- 全局平均池化
- 张量的维度判断技巧
- Focal Loss
- 1. FCN
- 2. UNet
- 3. Deeplabv3
- 4. Deeplabv3+
- 5. DFN
- 6. Non-local-Net
- 7. CCNet
- 8. DAN
- 9. PANet
- 10. ResNeSt
- R-CNN:Rich feature hierarchies for accurate object detection and semantic segmentation Tech report (v5)
- R-CNN学习笔记
- Fast R-CNN:Fast R-CNN
- Fast R-CNN学习笔记
- Faster R-CNN:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
- Faster R-CNN学习笔记
- Mask R-CNN:Mask R-CNN
- Mask R-CNN学习笔记
- 简单认识CV中的注意力机制
- Attention机制的文章总结
- 深入理解注意力机制
- CV中的Attention机制-SENet中的SE模块
- 视觉注意力机制 | Non-local模块与Self-attention的之间的关系与区别
- SENet论文笔记:博文地址
- SKNet论文笔记:博文地址
- 融合SENet、SKNet、ResNeXt、ResNet的backbone网络:ResNeSt
- CCNet论文:论文地址
- CCNet论文的实现:官方实现、非官方简单实现
- Non-local-Net论文:论文地址
- DAN论文:Dual Attention Network for Scene Segmentation
- DAN代码实现:代码地址1、代码地址2
- PANet论文:Pyramid Attention Network for Semantic Segmentation
- PAN的代码实现:参考1、参考2,后者是前者的改进
- DFN的实现:参考
- EMANet论文: Expectation-Maximization Attention Networks for Semantic Segmentation