Hello,大家好,我是小马🚀🚀🚀
作为研究生,读论文一直都是都是一件非常费时费脑的事情,因为帮助大家用5分钟的时间就能知道某篇论文的大致内容,我会把我看过的论文做好解析分享在这里。**项目持续更新,每周至少更新三篇!**⭐⭐⭐
本项目的宗旨是🚀让世界上没有难读的论文🚀,论文主题包括但不限于检测、分类、分割、Backbone、多模态等等,论文来源包括但不限于最新的arXiv论文、ICCV2021、CVPR2021、MM2021。**(项目会保持持续更新,每周至少三篇)**⭐⭐⭐
(最新还更新了【Attention、MLP、Conv、MLP、Backbone的代码复现项目】,欢迎大家学习交流)
欢迎大家关注公众号:FightingCV
公众号每天都会进行论文、算法和代码的干货分享哦~
已建立机器学习/深度学习算法/计算机视觉/多模态交流群微信交流群!
每天在群里分享一些近期的论文和解析,欢迎大家一起学习交流哈~~~
强烈推荐大家关注知乎账号和FightingCV公众号,可以快速了解到最新优质的干货资源。
- Less is More-CVPR2021最佳学生论文提名
- CVPR2021-RSTNet:自适应Attention的“看图说话”模型
- CVPR2021 Oral《Seeing Out of the Box》北科大&中山大学&微软提出端到端视觉语言表征预训练方法 【视频讲解】
- CVPR2021-开放式的Video Captioning,中科院自动化所提出基于“检索-复制-生成”的网络
- 谷歌新作HaloNet:Transformer一作用Self-Attention的方式进行卷积
- Involution(附对Involution的思考):港科大、字节跳动、北大提出“内卷”神经网络算子,在CV三大任务上提点明显
- ICCV2021-iRPE-还在魔改Transformer结构吗?微软&中山大学提出超强的图片位置编码,涨点显著 【视频讲解】
- ICCV2021 | 池化操作不是CNN的专属,Vision Transformer说:“我也可以”;南大提出池化视觉Transformer(PiT)
- ICCV2021 | CNN+Transformer=Better,国科大&华为&鹏城实验室 出Conformer,84.1% Top-1准确率
- ICCV2021 | MicroNets-更小更快更好的MicroNet,三大CV任务都秒杀MobileNetV3
- ICCV 2021|“白嫖”性能的MixMo,一种新的数据增强or模型融合方法 【视频讲解】
- ICCV'21 Oral|拒绝调参,显著提点!检测分割任务的新损失函数RS Loss开源
- ICCV21 | 大道至简,仅需4行代码提升多标签分类性能! 南大提出Residual Attention
- OutLook Attention:具有局部信息感知能力的ViT
- CoAtNet:卷积+注意力=???
- Multi-Scale Densenet续作?动态ViT
- 微软新作Focal Self-Attention:具备Local和Global交互能力的Transformer
- CSWin-T:微软、中科大提出十字形注意力的CSWin Transformer
- Circle Kernel:清华黄高团队、康奈尔大学提出圆形卷积,进一步提升卷积结构的性能
- 视觉解析器ViP:牛津大学&字节跳动提出Visual Parser,显式建模高级语义信息
- LG-Transformer:全局和局部建模Transformer结构新作
- CoTNet-重磅开源!京东AI Research提出新的主干网络CoTNet,在CVPR上获得开放域图像识别竞赛冠军
- S2-MLPV2-百度提出目前最强的视觉MLP架构,超越MLP-Mixer、Swin Transformer、CycleMLP等,达到83.6% Top-1准确率
- 更深和更宽的Transformer,那个比较好?NUS团队给出了给出“Go Wider Instead of Deeper”的结论
- 在目标检测任务上怒涨8.6 AP,微软新作MobileFormer