点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
点击进入—>【盘算机视觉】微信技能交流群
2023 年 2 月 28 日凌晨,CVPR 2023 顶会论文接收结果出炉!这次没有先放出论文 ID List,而是直接 email 关照作者(朋侪圈挚友纷纷晒截图,报喜讯~你被刷屏了没?!)。
CVPR 2023 主委会官方发布这次论文接收数据:有效投稿 9155 篇(比 CVPR 2022 增长12%),收录 2360 篇(CVPR 2016 投稿才 2145 篇),接收率为 25.78 %。
CVPR 2023 集会会议将于 2023 年 6 月 18 日至 22 日在加拿大温哥华(Vancouver)举行。这次线下到场人数一定会比客岁多许多,因为将会有一大波国内的学者线下到场学术交流(公费旅游bushi)。
Amusi 简朴推测一下,CVPR 2023 收录的工作中 " 扩散模子、多模态、预练习、MAE " 相干工作的数量会明显增长。
本文快速整理了10篇 CVPR 2023 最新工作,内容如下所示。如果你想持续相识更多更新的CVPR 2023 论文和代码,各人可以关注CVPR2023-Papers-with-Code,在CVer公众号背景复兴:CVPR2023,即可下载,链接如下:
https://github.com/amusi/CVPR2023-Papers-with-Code
这个项目是从2020年开始,累计提交了600+次!Star数已经破万+!覆盖CVPR 2020-2023的论文工作,很开心能帮助到一些同砚。
如果你的 CVPR 2023 论文接收了,接待提交issues~
Backbone
1. Integrally Pre-Trained Transformer Pyramid Networks
- 单位:国科大, 华为, 鹏城实行室
- Paper: https://arxiv.org/abs/2211.12735
- Code: https://github.com/sunsmarterjie/iTPN
本文提出团体预练习的ViT金字塔网络(iTPN):通过团体预练习主干和金字塔网络缩小上游预练习和微调的gap,体现SOTA!性能优于CAE、ConvMAE等网络,代码已开源!
2. Stitchable Neural Networks
- 单位:蒙纳士大学ZIP Lab
- Homepage: https://snnet.github.io/
- Paper: https://arxiv.org/abs/2302.06586
- Code: https://github.com/ziplab/SN-Net
Stitchable 神经网络(SN-Net):一种用于模子摆设的新的可扩展和高效的框架,它可以快速地天生具有差别复杂性和性能权衡的大量网络,促进了现实天下应用的深度模子的大规模摆设,代码即将开源!
MAE
3. Learning 3D Representations from 2D Pre-trained Models via Image-to-Point Masked Autoencoders
- 单位:上海AI Lab, 港中大MMLab, 北大
- Paper: https://arxiv.org/abs/2212.06785
- Code: https://github.com/ZrrSkywalker/I2P-MAE
I2P-MAE:Image-to-Point掩码自编码器,一种从2D预练习模子中获得良好的3D表现方法,在3D点云分类上体现SOTA(革新ModelNet40和ScanObjectNN新记载)!性能优于P2P、PointNeXt等网络,代码即将开源!
NeRF
4. NoPe-NeRF: Optimising Neural Radiance Field with No Pose Prior
- 单位:牛津大学
- Home: https://nope-nerf.active.vision/
- Paper: https://arxiv.org/abs/2212.07388
- Code: None
NoPe-NeRF:一个端到端可微模子,用于团结相机姿势估计和从图像序列中进行新奇的视图合成,在真实室内和室外场景上实行表明:此方法在新奇的视图渲染质量和姿态估计精度方面优于现有方法。
Diffusion Models(扩散模子)
5. Video Probabilistic Diffusion Models in Projected Latent Space
- 单位:KAIST, 谷歌
- Homepage: https://sihyun.me/PVDM/
- Paper: https://arxiv.org/abs/2302.07685
- Code: https://github.com/sihyun-yu/PVDM
据称PVDM:是第一个用于视频合成的latent扩散模子,它学习低维隐空间中的视频分布,可以在有限资源下使用高分辨率视频进行有效练习,以使用单个模子合成恣意长度的视频,代码刚刚开源!单位:KAIST, 谷歌
6. Solving 3D Inverse Problems using Pre-trained 2D Diffusion Models
- 单位:KAIST, 洛斯阿拉莫斯国家实行室
- Paper: https://arxiv.org/abs/2211.10655
- Code: None
本文提出DiffusionMBIR:一种用于3D医学图像重修的扩散模子重修计谋,实行证明:其可以或许实现希罕视图CT、有限角度CT和压缩感知MRI的开始进重修。
视觉和语言(Vision-Language)
7. GIVL: Improving Geographical Inclusivity of Vision-Language Models with Pre-Training Methods
- 单位:UCLA, 亚马逊Alexa AI
- Paper: https://arxiv.org/abs/2301.01893
- Code: None
本文提出GIVL:一种地理包容性视觉和语言预练习模子,在地理多样化的V&L使命上实现了开始进的和更平衡的性能。
目的检测(Object Detection)
8. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors
- 单位:YOLOv4 原班人马
- Paper: https://arxiv.org/abs/2207.02696
- Code: https://github.com/WongKinYiu/yolov7
逾越YOLOv5、YOLOX、PPYOLOE、YOLOR等目的检测网络!
9. DETRs with Hybrid Matching
- 单位:北大, 中科大, 浙大, MSRA
- Paper: https://arxiv.org/abs/2207.13080
- Code: https://github.com/HDETR
本文提出一种非常简朴且有效的肴杂匹配方案,以办理基于 DETR 的方法在多种视觉使命(2D/3D目的检测、姿态估计等)上的低练习服从,并进步正确性,如助力PETRv2、TransTrack和可变形DETR等网络性能提拔,代码已开源!
10. Enhanced Training of Query-Based Object Detection via Selective Query Recollection
- 单位:CMU, Meta AI
- Paper: https://arxiv.org/abs/2212.07593
- Code: https://github.com/Fangyi-Chen/SQR
即插即用!本文提出选择性查询回忆(SQR):一种基于查询的目的检测器练习新计谋,可以很容易地插入到各种DETR变体中,明显进步它们的性能,代码已开源!
点击进入—>【盘算机视觉】微信技能交流群
最新CVPP 2023论文和代码下载
- [/code] [align=left]背景复兴:[b]CVPR2023,[/b]即可下载CVPR 2023论文和代码开源的论文合集[/align]
- [align=left]背景复兴:[b]Transformer综述,[/b]即可下载最新的3篇Transformer综述PDF[/align]
- [code]目标检测和Transformer交流群成立
- 扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
- 一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
- ▲扫码或加微信号: CVer333,进交流群
- CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!
- ▲扫码进群
- ▲点击上方卡片,关注CVer公众号
复制代码 来源:https://blog.csdn.net/amusi1994/article/details/129273152
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |