在工业生产中, 待抓取物体往往具有种类众多、摆放位置杂乱、形状不规则等特点, 使得难以准确获取物体抓取位姿。针对以上问题, 提出一种基于深度学习的两阶段抓取位姿估计方法。第1阶段, 提出一种基于YOLOv4(you only look once version4)改进的轻量级旋转目标检测算法, 提高目标的检测速度和检测精度。首先, 使用轻量化网络GhostNet和深度可分离卷积对原始网络进行重构, 降低整个模型参数。然后, 在颈部网络中增加自适应空间特征融合结构和无参注意力模块, 提高对感兴趣区域的定位精度; 最后, 使用近似倾斜交并比(skew intersection over union, SkewIoU)损失解决角度的周期性问题。第2阶段, 制作与原始图片尺寸一样的掩膜提取感兴趣区域; 同时, 提出一种改进的DeepLabV3+算法, 用以检测感兴趣区域中物体的抓取位姿。实验结果表明, 改进后的YOLOv4网络检测精度达到92.5%, 改进的DeepLabV3+算法在Cornell抓取数据集上的图像拆分和对象拆分精度分别达到94.6%, 92.4%, 且能准确检测出物体的抓取位姿。