Processing math: 2%

基于自适应深度约束的水下双目图像特征匹配

田嘉禾, 王宁, 陈廷凯, 李春艳, 陈帅

田嘉禾, 王宁, 陈廷凯, 等. 基于自适应深度约束的水下双目图像特征匹配[J]. 中国舰船研究, 2021, 16(6): 124–131. DOI: 10.19693/j.issn.1673-3185.02197
引用本文: 田嘉禾, 王宁, 陈廷凯, 等. 基于自适应深度约束的水下双目图像特征匹配[J]. 中国舰船研究, 2021, 16(6): 124–131. DOI: 10.19693/j.issn.1673-3185.02197
TIAN J H, WANG N, CHEN T K, et al. Adaptive depth constraint-based underwater binocular image feature matching[J]. Chinese Journal of Ship Research, 2021, 16(6): 124–131. DOI: 10.19693/j.issn.1673-3185.02197
Citation: TIAN J H, WANG N, CHEN T K, et al. Adaptive depth constraint-based underwater binocular image feature matching[J]. Chinese Journal of Ship Research, 2021, 16(6): 124–131. DOI: 10.19693/j.issn.1673-3185.02197
田嘉禾, 王宁, 陈廷凯, 等. 基于自适应深度约束的水下双目图像特征匹配[J]. 中国舰船研究, 2021, 16(6): 124–131. CSTR: 32390.14.j.issn.1673-3185.02197
引用本文: 田嘉禾, 王宁, 陈廷凯, 等. 基于自适应深度约束的水下双目图像特征匹配[J]. 中国舰船研究, 2021, 16(6): 124–131. CSTR: 32390.14.j.issn.1673-3185.02197
TIAN J H, WANG N, CHEN T K, et al. Adaptive depth constraint-based underwater binocular image feature matching[J]. Chinese Journal of Ship Research, 2021, 16(6): 124–131. CSTR: 32390.14.j.issn.1673-3185.02197
Citation: TIAN J H, WANG N, CHEN T K, et al. Adaptive depth constraint-based underwater binocular image feature matching[J]. Chinese Journal of Ship Research, 2021, 16(6): 124–131. CSTR: 32390.14.j.issn.1673-3185.02197

基于自适应深度约束的水下双目图像特征匹配

基金项目: 辽宁省“兴辽英才计划”资助项目(XLYC1807013);装备预研重点实验室基金资助项目(6142215200106);基础加强计划重点基础研究项目资助(2020-JCJQ-ZD-153);青年科学家培育基金资助项目(79000006)
详细信息
    作者简介:

    田嘉禾,男,1996年生,硕士。研究方向:双目视觉三维重建。E-mail:tianj_h@163.com

    王宁,男,1983年生,博士,教授,博士生导师。研究方向:无人系统建模与控制,自适应智能控制,机器学习,非线性控制。E-mail:n.wang.dmu.cn@gmail.com

    陈廷凯,男,1993年生,博士生。研究方向:目标识别与检测。E-mail:tingkai.chen@aliyun.com

    通讯作者:

    王宁

  • 中图分类号: U662.9

Adaptive depth constraint-based underwater binocular image feature matching

知识共享许可协议
基于自适应深度约束的水下双目图像特征匹配田嘉禾,采用知识共享署名4.0国际许可协议进行许可。
  • 摘要:
      目的  针对水下双目图像特征点稀疏、极线约束模型失效等难题,提出一种基于自适应深度约束的水下图像特征匹配(ADC-UFM)算法。
      方法  结合FAST算子与SIFT描述子,提高图像匹配精度;提出基于水下折射因子的特征匹配约束模型(MCM),有效剔除误匹配点;提出自适应阈值选取(ATC)方法,最大限度地保留复杂水下环境下的图像特征信息。
      结果  实验结果显示,ADC-UFM算法优于现有的SIFT,SURF和UCC-SIFT等典型方法,匹配准确率可达85.2%,满足实时匹配需求。
      结论  研究成果可为基于双目视觉系统的水下三维重建提供关键技术支撑。
    Abstract:
      Objective   In this paper, to address sparse feature points and unique epipolar constraints, an adaptive depth constraint-based underwater feature matching (ADC-UFM) scheme is proposed.
      Methods  By combining a features from accelerated segment test (FAST) operator with scale invariant feature transform (SIFT) descriptors, the matching accuracy can be dramatically improved. By introducing an underwater refractive factor, the matching constraint model (MCM) can be effectively established, thereby contributing to eliminating mismatched points. The adaptive threshold choosing (ATC) module is finely devised to preserve image feature information in changeable underwater environments to an extreme extent.
      Results  Comprehensive experiments show that the proposed ADC-UFM scheme can outperform typical matching schemes including SIFT, speeded-up robust features (SURF) and SIFT feature matching based on underwater curve constraint (UCC-SIFT), which not only achieves 85.2% matching accuracy but also meets the real-time requirements.
      Conclusion  The results of this study can provide a reliable guarantee for subsequent underwater 3D reconstruction based on the binocular vision system.
  • 随着海洋智能体技术的快速发展,基于计算机视觉的水下环境智能感知技术在海洋开发中扮演着越来越重要的角色,尤其是在海底地形勘察、海洋环境监测以及水下目标检测识别等领域,具有重要的研究意义[1]。双目立体匹配作为双目视觉系统的核心技术,其精度与效率对后续的三维重建等工作有着极大的影响[2]。高精度的图像匹配技术引起了国内外学者的广泛关注,针对空气中的立体匹配研究,Lowe[3]提出了具有旋转和尺度不变性的SIFT (scale invariant feature transform)图像描述方法,但使用高维的描述向量不可避免地导会致SIFT算法计算缓慢,难以满足实时性要求。Bay等[4]等提出了稳健加速SURF(speeded-up robust features)算法,即在匹配过程中采用具有64维向量的特征点描述子,可有效提高匹配效率。PCA-SIFT (principal components analysis-SIFT)算法[5]借助主成分分析的策略可改善SIFT平滑加权直方图的描述方法,能使特征描述更加简洁、快速;ORB (oriented FAST and rotated BRIEF)算法[6]结合FAST (features from accelerated segment test)算子与BRIEF (binary robust independent elementary features)描述符,可使匹配速率提升2个量级。上述算法虽然能够提高匹配速率,但难以保证水下图像匹配的准确率。

    需要指出的是,一方面,水中折射会影响光线的照射方向[7],导致相机的水下成像模型与空气中不同;另一方面,水下光照不均匀,会导致图像特征点稀疏,空气中的匹配方法难以直接平移应用于水下图像匹配。就目前而言,水下匹配方法主要分为稠密匹配与稀疏特征匹配2种。李雅倩等[8]提出了一种基于深度约束的半全局算法,通过采用抛物拟合法得到亚像素级的稠密视差图,有效实现了高精度的水下稠密立体匹配;Gedge[9]提出了一种水下相机反投影折射模型并建立了曲线约束条件,可有效删除误匹配点,获取稠密的特征点视差;Ferreira等[10]分析了折射因素对水下图像的影响并进行了近似估计,在对水下图像进行处理时,弱化折射因素对水下图像的影响可提高水下双目图像匹配的正确率。针对稀疏特征匹配研究,张强等[11]提出了基于曲线约束的UCC-SIFT(SIFT feature matching based on underwater curve constraint)特征匹配算法,通过对水下成像模型的分析建模,并引入折射率因素,构建曲线约束方程来改善空气中的极线约束模型,改善了SIFT算法在水下双目立体匹配中误匹配率高的问题,但对于约束剔除阈值的选取不具泛化性;李佳宽等[12]将ORB算法与水下曲线约束策略相结合,可有效剔除水下图像的误匹配点,提高了匹配效率。

    需要注意的是,上述方法在匹配的过程中并未考量水下特征信息缺失的因素,剔除了大量带有水下特征信息的关键点。另外,上述匹配算法的效率与精度还受最邻近匹配阈值的影响,阈值的选取难以统一。基于此,本文拟提出一种基于自适应深度约束(ADC)的水下双目图像稀疏特征匹配算法,针对水下图像中的稀疏特征,结合FAST算子与SIFT描述子来有效提高正确匹配点对的数量,以在保证算法稳定性的同时提高匹配效率;然后,通过建立自适应阈值约束的方法降低阈值选取对图像匹配的影响,极大程度地还原图像原始特征信息。

    在水下拍摄的图像受光照和介质散射的影响,具有纹理不清、色彩单一以及光照不均的特点,若采用传统的特征点检测方法,将仅能获取有限的特征点[13]。因此,本文拟采用FAST算法提取大量特征点,用于描述水下图像的纹理信息,然后采用SIFT方法构建高维匹配基元,用以保证匹配准确率。

    FAST[14]作为一种角点检测算法,不涉及特征点的特征描述。为获取图像中的特征点位置,首先,对图像施加FAST算子以提取响应值最大的特征点,然后,对相应的特征点添加方向属性,以此获取具有位置和旋转属性的特征区域。

    为了获取不同位置的像素状态Spm,如图1所示,以像素点P为圆心,以r =3为半径作圆[14],覆盖周围的16个像素点分别对应16个位置,则Spm可以表示为:

    {S_{p \to m}} = \left\{ {\begin{array}{*{20}{c}} {d,} \\ {s,} \\ {b,} \end{array}} \right.{\text{ }}\begin{array}{*{20}{l}} {{I_{p \to m}} - {I_p} \leqslant - t} \\ { - t \leqslant {I_{p \to m}} - {I_p} \leqslant t} \\ {t \leqslant {I_{p \to m}} - {I_p}} \end{array} (1)

    式中:m\in \left\{1,\;2,\cdots ,16\right\},为点P周围像素点的索引值;{I_{p \to m}}为对应像素点的像素值;t为检测时的经验阈值。当周围像素的像素值与P点像素值的差值分别小于、大于和等于经验阈值时,该位置像素点的状态分别为d(dark),b(bright)和s(similar),分别表示周围像素点的亮度为暗、亮和约等于P点的亮度。

    图  1  FAST特征检测原理图
    Figure  1.  Schematic diagram of FAST feature detection

    为了获得关键点集合,计算每个检测到的角点得分,如式(2)所示。

    V = \max \left( {\sum\limits_{m \in {S_b}} {\left| {{I_{p \to m}} - {I_p}} \right|} - t,\sum\limits_{m \in {S_d}} {\left| {{I_{p \to m}} - {I_p}} \right|} - t,} \right) (2)

    其中,

    \left\{ \begin{aligned} & {{S_b} = \left\{ {\left. m \right|{I_{p \to m}} - {I_p} \geqslant t} \right\}} \\ & {{S_d} = \left\{ {\left. m \right|{I_{p \to m}} - {I_p} \leqslant - t} \right\}} \end{aligned}\right. (3)

    式中, {S_b} {S_d} 分别指像素点状态为bd时该像素点所在位置的集合。计算以P点为中心的邻域内16个像素点与P点的像素值差的总和,保留响应分数最大的特征点,得到最终的关键点集合。

    SIFT[3]特征匹配方法由特征检测与特征点描述2部分组成。针对特征点描述部分,SIFT方法通过计算像素梯度方向,为每个像素点分配高维的、具有独特性的描述符,以使匹配度量不受角度影响。本文将借助SIFT描述子的稳定性来对经过FAST方法检测后的关键点建立描述向量。首先,根据输入的图像建立尺度空间,即利用高斯函数对图像进行模糊和降采样工作来得到图像高斯金字塔,计算公式为:

    L(x,\;y,\;\sigma ) = G(x,\;y,\;\sigma )I(x,\;y) (4)
    G(x,\;y,\;\sigma )\text=\frac{1}{2{\text{π}} {\sigma }^{2}}{{\rm{e}}}^{-\frac{{x}^{2}+{y}^{2}}{2{\sigma }^{2}}} (5)

    式中:L(x,\;y,\;\sigma )为高斯函数G(x,\;y,\;\sigma )对图像I(x,\;y)的模糊函数; {\sigma ^2} 为分布方差。

    经高斯金字塔筛选出的关键点具有尺度不变性,在匹配过程中,为使匹配度量不受角度的影响,为每个关键点建立了独特的描述符,如图2所示。

    图  2  关键点主方向分配原理图
    Figure  2.  Schematic diagram of main direction assignment of key points

    采用16×16的窗口建立关键点描述区域,将关键点的基准方向旋转至与x轴重合,其中,像素点梯度方向的选取如式(6)所示:

    \left\{ \begin{aligned} & m(x,\;y)=\sqrt{{\left(L(x+1,\;y)-L(x-1,\;y)\right)}^{2}+{\left(L(x,\;y+1)-L(x,\;y-1)\right)}^{2}}\\& \theta (x,\;y)={\mathrm{tan}}^{-1}\left((L(x,\;y+1)-L(x,\;y-1))/\left(L(x+1,\;y)-L(x-1,\;y)\right)\right) \end{aligned}\right. (6)

    式中:m(x,\;y)\theta (x,\;y)分别为图像中像素点的梯度模值与方向角;L(x+1,\;y)L(x-1,\;y)L(x,\;y+1)L(x,\;y-1)分别为对应像素点在其邻域内的尺度空间函数。通过构建关键点邻域梯度分布直方图,选取分布最广的方向作为关建点的主方向。

    旋转后的坐标(x, y)表示为

    \left( {\begin{array}{*{20}{c}} x \\ y \end{array}} \right) = \left( {\begin{array}{*{20}{c}} {\cos {\theta _{\text{0}}}}&{ - \sin {\theta _{\text{0}}}} \\ {\sin {\theta _{\text{0}}}}&{\cos {\theta _{\text{0}}}} \end{array}} \right)\left( {\begin{array}{*{20}{c}} {{x_i}} \\ {{y_i}} \end{array}} \right) (7)

    式中:\left({x}_{i},\;{y}_{i}\right)为关键点的初始坐标;\theta 0为绕基准方向旋转的角度。在图像半径区域内,根据每个像素点的梯度幅值与方向,通过分配高斯权重来生成方向分布直方图。

    利用上述方法,在4×4区域内生成8个方向的梯度方向直方图,然后将每个方向的梯度累加,形成一个种子点。在16×16区域内共生成了16个种子点,因为每个描述子包含邻域128维相关信息,因此,每个关键点的描述向量都具备独特性与互异性,提高了算法的抗噪能力。

    使用欧氏距离对双目图像中待匹配点的相似性进行度量,即寻找与关键点欧氏距离最小的特征点,即可得到最近相邻点距离N。根据欧氏距离计算次近相邻点距离S,通过比较相邻点距离与次近点距离的比值是否小于阈值T来判断是否接受这一对匹配点,如式(8)所示:

    T > {N \mathord{\left/ {\vphantom {N S}} \right. } S} (8)

    式中,T为预设阈值,且0<T≤1。匹配对数会随着预设阈值T的增大而增加,匹配对数增加,特征点匹配正确率却逐渐降低;相反,当降低预设阈值T时,匹配的对数减少,匹配过程更加稳定。

    当双目相机在水下环境工作时,空气中的极线约束方法由于受到光的折射影响难以适用[15],因此在实际水下环境中,可通过考虑不同介质之间的折射率,设计自适应深度约束模型来减小图像匹配过程中的搜索区域,提高匹配效率。

    为了减小匹配过程中关键点的搜索范围并提高匹配精度,在空气中常用极线约束方法来对最终匹配结果进行筛选[16]。考虑到水介质会对水下图像带来不良影响[17],为剔除误匹配点,本文构建了不同介质间相对折射率的约束模型,具体如图3所示。

    图  3  水下反投影模型
    Figure  3.  Underwater back projection model

    图3中:水下目标点Q在相机坐标系下的坐标为({x_2},\;{y_2},\;{{\textit{z}}_2});投影到左、右成像面上的投影点分别为{P_{\rm{l}}}{P_{\rm{r}}};投影到折射平面上的投影点分别为{P_{\rm{l}}}'{P_{\rm{r}}}';双目相机焦距为f;光心到水面的距离为h;目标点至水面的距离为d\theta 为左成像点与相机坐标系下y轴的夹角; {\varphi _2} {\varphi _3} 分别为左、右折射面对应的入射角; {\varphi _1} {\varphi _4} 分别为左、右折射面对应的折射角。根据相似三角形原理,可将坐标({x_1},\;{y_1},\;{{\textit{z}}_1})表示为

    \left\{ \begin{aligned} & {x_1} = h\tan {\varphi _1}\sin \theta = \frac{h}{f}{x_0} \\& {y_1} = h\tan {\varphi _1}\cos \theta = \frac{h}{f}{y_0} \\& {{\textit{z}}_1} = h \end{aligned} \right. (9)

    相应地,根据dh以及折射点之间的位置关系,得到水下目标点Q的坐标({x_2},{y_2},{{\textit{z}}_2})

    \left\{ \begin{aligned} {x_2} = & (d\tan {\varphi _2} + h\tan {\varphi _1})\sin \theta = \\&\frac{{d{y_0}}}{{\sqrt {{n^2}(x_0^2 + y_0^2 + {\textit{z}}_0^2) - (x_0^2 + y_0^2)} }} + \frac{h}{f}{x_0} \\ {y_2} =& (d\tan {\varphi _2} + h\tan {\varphi _1})\cos \theta = \\&\frac{{d{x_0}}}{{\sqrt {{n^2}(x_0^2 + y_0^2 + {\textit{z}}_0^2) - (x_0^2 + y_0^2)} }} + \frac{h}{f}{y_0} \\ {{\textit{z}}_2} = & d + h \end{aligned} \right. (10)

    式中,n = \dfrac{{\sin {\varphi _4}}}{{\sin {\varphi _3}}},为空气与水的相对折射率。设基线距离{O_{\rm{l}}}{O_{\rm{r}}} = b,则根据折射定律,可求得右折射点{P}_{{\rm{r}}}'({x}_{3},\;{y}_{3},\;{\textit{z}}_{3})与水下目标点Q的关系式为

    \begin{split} \frac{{{{({x_3} - {x_2})}^2} + {{({y_3} - {y_2})}^2}}}{{{d^2}}} = \frac{{x_3^2 + {{({y_3} - b)}^2}}}{{{n^2}{h^2} + ({n^2} - 1)\left[ {{x_3} + {{({y_3} - b)}^2}} \right]}} \\ \end{split} (11)

    利用QP_{\rm{r}}'{O_{\rm{r}}}这3点的坐标,求得平面方程为

    \begin{split} & \left[ {{y_2}h - {y_3}h - {y_3}d + bd} \right]{x_{\text{3}}} + \left[ {h({x_3} - {x_2}) + {x_3}d} \right]({y_{\text{3}}} - b) +\\&\qquad\qquad \left[ {{x_2}{y_3} - {x_3}{y_2} + b({x_3} - {x_2})} \right]h = 0 \end{split} (12)

    利用P_{\rm{r}}'{P_{\rm{r}}}的坐标,建立直线P_{\rm{r}}'{P_{\rm{r}}}的方程为

    \frac{x}{{{x_3}}} = \frac{{y - b}}{{{y_3} - b}} = \frac{z}{h} (13)

    由于{P_{\rm{r}}}的纵坐标z=f,由此可得{P_{\rm{r}}}的坐标方程为

    \left\{ \begin{aligned} & {x_4} = \frac{f}{h}{x_3} \\ & {y_4} = \frac{f}{h}({y_3} - b) + b \\ & {{\textit{z}}_4} = f \end{aligned} \right. (14)

    结合式(11)、式(12)可解得{P'_{\rm{r}}}的坐标,再将该坐标代入式(14)中,可解算得最终的{P_{\rm{r}}}坐标。当物体在不同的点{q_1}和点{q_2}时,对于不同的深度d,会得到不同的{P_{\rm{r}}}坐标。需要注意的是,不同于空气中的成像模型,不同深度d对应的{P_{\rm{r}}}坐标点会拟合成一条曲线,以此条曲线替代极线对匹配结果进行约束,即可剔除误匹配点。

    本文在SIFT算法的基础上,结合FAST角点检测算法,并引入水下折射率因素的约束条件,实行了水下双目图像特征匹配,具体的流程如图4所示。匹配过程主要分为4个步骤:

    图  4  水下图像匹配流程图
    Figure  4.  Flow chart of underwater image matching

    1) 利用FAST角点提取算法,通过设定阈值计算像素点状态,并提取左、右两幅图像关键点的位置。通过计算关键点的FAST得分,得到两幅图像各自的待匹配特征点集。

    2) 使用SIFT算法对两幅图像的待匹配特征点集进行描述,并利用中心像素点周围像素的梯度信息生成128维描述子。

    3) 通过关键点的描述信息计算左、右图像特征点的欧氏距离,得到最近相邻点距离以及次近邻点距离。计算2个距离的比值,筛选出比值小于阈值T的左、右图像特征点来作为预备匹配点对,T值通常取为0.4~0.6[3]

    4) 利用相机的内、外参数以及水下折射率,对不在约束方程的匹配点对进行筛选。在筛选过程中,由于误差的存在,特征点不会完全落在约束曲线上,此时,检测特征点与约束曲线的距离,当该距离小于设定阈值\tau 时,保留该匹配结果,其中\tau 的初值为1像素,即{\tau _0} = {l_{{\rm{pix}}}}{l_{{\rm{pix}}}}为图像中相邻两像素点的间距)。当保留点对数少于总匹配点对数的50%时,重新设置阈值,使阈值大小增加一个像素距离,即{\tau _1} = {\tau _0}{\text{ + }}{l_{{\rm{pix}}}},然后扩大搜索区域,重新进行匹配点对的剔除操作,直至循环i次,阈值{\tau _i} = {\tau _0} + i{l_{{\rm{pix}}}},使保留特征点对数满足条件,从而获取最终的匹配点对。

    为了证明本文算法的有效性与优越性,将本文所提算法与经典的SIFT[3],SURF[4]以及UCC-SIFT[11]在匹配对数、准确率和实时性方面进行了对比。为了体现本文算法的鲁棒性和普适性,本文针对自采数据与公开数据集[18-19]分别计算了匹配结果,数据采集平台如图5所示。

    图  5  水下数据采集平台
    Figure  5.  Underwater data acquisition platform

    实验所用相机尺寸为80 mm×22 mm×25 mm,分辨率为640×480,视场角为72°,焦距为3.6 mm,数据采集地址为大连海事大学凌海港口水域。为避免水域特性对实验结果产生影响,选取了公开的数据集[18-19]。其中,文献[18]中数据集所选取图片的分辨率为512×512,水体颜色偏绿,水质较为浑浊;文献[19]中数据集所选取图片的分辨率为640×360,水体呈蓝色,数据的亮度皆较暗。实验平台基于win10系统,Intel Core i3 8代处理器,配置Visual Studio 2013与Opencv2.4环境。本文通过张正友标定法计算了相机内部参数,如表1所示。表中,(fxfy)为相机的焦距相关参数,(u0v0)为像素坐标系下原点坐标,K为相机畸变参数矩阵。

    表  1  双目相机内部参数
    Table  1.  Internal parameters of binocular camera
    参数左相机右相机
    (fx, fy)(1 201.30, 1 200.86)(1 211.81, 1 207.01)
    (u0, v0)(319.24, 255.25)(322.34, 316.32)
    K(0.28, −0.74, 0.01, 0.03, 0.0)(−0.10, −0.06, 0.02, 0.01, 0.00)
    下载: 导出CSV 
    | 显示表格

    在3种典型的水下环境(暗光、旋转、浑浊)下共选取6组图片进行了对比,相应的匹配结果如图6所示。

    图  6  不同数据集匹配结果
    Figure  6.  Matching results under different data sets

    图6所示,在3种典型的水下环境中,SIFT与SURF算法在匹配的过程中同名点之间连线的斜率不一致,存在明显的误匹配点;基于水下约束的UCC-SIFT算法则能明显降低误匹配点对,但特征点数量有所下降。需要强调的是,本文所提的ADC-UFM算法与传统的SIFT,SURF算法相比,能够明显剔除误匹配点,与UCC-SIFT算法相比能够保留更多的特征点对,且不受水下环境影响,更加稳定。

    除上述匹配结果图外,采用4种匹配算法在T=0.4的情况下测得相应的量化指标如表2所示。

    表  2  实验结果数据对比
    Table  2.  Comparison of experimental data
    数据来源算法匹配对数正确率/%匹配时间/s
    采集的数据暗光SIFT5384.90.108
    SURF6484.30.060
    UCC-SIFT2684.61.930
    ADC-UFM5286.50.721
    旋转SIFT9882.70.112
    SURF10383.40.062
    UCC-SIFT5284.61.963
    ADC-UFM7384.90.730
    浑浊SIFT3479.40.093
    SURF7078.50.058
    UCC-SIFT2986.21.884
    ADC-UFM4082.50.710
    公开数据暗光SIFT6281.30.098
    SURF8082.50.060
    UCC-SIFT4383.71.901
    ADC-UFM6085.00.712
    旋转SIFT12184.20.293
    SURF10783.10.061
    UCC-SIFT6285.41.970
    ADC-UFM9085.60.732
    浑浊SIFT17284.30.300
    SURF19583.50.064
    UCC-SIFT9885.71.991
    ADC-UFM12086.70.753
    下载: 导出CSV 
    | 显示表格

    表2所示,在匹配点对数方面,采用本文所提ADC-UFM算法对双目图像匹配进行条件约束时,匹配点对数在绝大多数水下环境中均少于传统的SIFT和SURF算法,考虑到水下图像特征点易聚簇的情况,本文所提方法在迭代阈值\tau 的过程中易接受多余的特征点,因此自采数据在浑浊环境下的特征点对数高于SIFT算法,且此时本文所提ADC-UFM算法的准确率有所下降,低于UCC-SIFT算法。另外,借助FAST算子,本文所提ADC-UFM算法在特征提取方面能够比UCC-SIFT算法获取更多的匹配点对数,更适用于双目视觉后续的三维重建工作。

    在匹配正确率方面,对于缺乏误匹配点剔除策略的SIFT和SURF算法,其准确率在上述3种典型水下环境中均低于本文所提ADC-UFM算法。需要指出的是,缺乏自适应阈值选取的UCC-SIFT算法不可避免地会剔除正确的匹配点对。因此,本文所提ADC-UFM算法的匹配正确率要高于UCC-SIFT算法。图7所示为在自建数据集和公开数据集下不同算法匹配正确率与阈值T的关系,由于数据集包含的图像较多,所以每组数据集皆采用50组图像。由图7可知,与SIFT,SURF和UCC-SIFT算法相比,本文所提ADC-UFM方法在T=0.4~0.8之间有着较高的准确率,在T=0.4时准确率能够达到85.2%。

    图  7  不同算法匹配准确率对比图
    Figure  7.  Comparison of matching accuracy of different algorithms

    在匹配效率方面,由于采用的是外加深度约束策略,本文所提ADC-UFM算法在匹配效率方面要低于无约束策略的SIFT和SURF算法。但相比SIFT特征提取方法,因本文采用了效率更高的FAST算子,因此在旋转、浑浊和暗光的水下环境中,其匹配速率高于UCC-SIFT算法。

    本文提出了一种基于FAST与SIFT算法相结合的高精度双目水下图像特征匹配方法。通过考虑水下折射率,明显提升了水下匹配约束模型的可用性,能够有效剔除误匹配点对。通过设计自适应阈值选取模块,最大程度地保留了水下图像特征信息的完整性。实验结果和比较分析验证了本文所提出ADC-UFM算法的有效性和优越性,为基于双目视觉的三维重建以及测距等提供了新的技术手段。需要指出的是,ADC-UFM算法在抵抗光照性与匹配效率方面略有不足,还有一定的提升空间。

  • 图  1   FAST特征检测原理图

    Figure  1.   Schematic diagram of FAST feature detection

    图  2   关键点主方向分配原理图

    Figure  2.   Schematic diagram of main direction assignment of key points

    图  3   水下反投影模型

    Figure  3.   Underwater back projection model

    图  4   水下图像匹配流程图

    Figure  4.   Flow chart of underwater image matching

    图  5   水下数据采集平台

    Figure  5.   Underwater data acquisition platform

    图  6   不同数据集匹配结果

    Figure  6.   Matching results under different data sets

    图  7   不同算法匹配准确率对比图

    Figure  7.   Comparison of matching accuracy of different algorithms

    表  1   双目相机内部参数

    Table  1   Internal parameters of binocular camera

    参数左相机右相机
    (fx, fy)(1 201.30, 1 200.86)(1 211.81, 1 207.01)
    (u0, v0)(319.24, 255.25)(322.34, 316.32)
    K(0.28, −0.74, 0.01, 0.03, 0.0)(−0.10, −0.06, 0.02, 0.01, 0.00)
    下载: 导出CSV

    表  2   实验结果数据对比

    Table  2   Comparison of experimental data

    数据来源算法匹配对数正确率/%匹配时间/s
    采集的数据暗光SIFT5384.90.108
    SURF6484.30.060
    UCC-SIFT2684.61.930
    ADC-UFM5286.50.721
    旋转SIFT9882.70.112
    SURF10383.40.062
    UCC-SIFT5284.61.963
    ADC-UFM7384.90.730
    浑浊SIFT3479.40.093
    SURF7078.50.058
    UCC-SIFT2986.21.884
    ADC-UFM4082.50.710
    公开数据暗光SIFT6281.30.098
    SURF8082.50.060
    UCC-SIFT4383.71.901
    ADC-UFM6085.00.712
    旋转SIFT12184.20.293
    SURF10783.10.061
    UCC-SIFT6285.41.970
    ADC-UFM9085.60.732
    浑浊SIFT17284.30.300
    SURF19583.50.064
    UCC-SIFT9885.71.991
    ADC-UFM12086.70.753
    下载: 导出CSV
  • [1]

    KAWAI R, YAMASHITA A, KANEKO T. Three-dimensional measurement of objects in water by using space encoding method[C]//Proceedings of 2009 IEEE International Conference on Robotics and Automation. Kobe, Japan: IEEE, 2009: 2830−2835.

    [2]

    BROWN M Z, BURSCHKA D, HAGER G D. Advances in computational stereo[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(8): 993–1008. doi: 10.1109/TPAMI.2003.1217603

    [3]

    LOWE D G. Distinctive image features from scale-invariant keypoint[J]. International Journal of Computer Vision, 2004, 60(2): 91–110. doi: 10.1023/B:VISI.0000029664.99615.94

    [4]

    BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346–359. doi: 10.1016/j.cviu.2007.09.014

    [5]

    KE Y, SUKTHANKAR R. PCA-SIFT: a more distinctive representation for local image descriptors[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). Washington, DC, USA: IEEE, 2004: 506–513.

    [6]

    RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C]//Proceedings of 2011 International Conference on Computer Vision (ICCV). Barcelona, Spain: IEEE, 2011: 2564–2571.

    [7]

    NEGAHDARIPOUR S, SARAFRAZ A. Improved stereo matching in scattering media by incorporating a backscatter cue[J]. IEEE Transactions on Image Processing, 2014, 23(12): 5743–5755. doi: 10.1109/TIP.2014.2358882

    [8] 李雅倩, 张岩松, 李 海滨, 等. 基于深度约束的水下稠密立体匹配[J]. 光子学报, 2017, 46(7): 0715001-1−0715001-10. doi: 10.3788/gzxb20174607.0715001

    LI Y Q, ZHANG Y S, LI H B, et al. Underwater dense stereo matching based on depth constraint[J]. Acta Photonica Sinica, 2017, 46(7): 0715001-1−0715001-10 (in Chinese). doi: 10.3788/gzxb20174607.0715001

    [9]

    GEDGE J. Underwater stereo matching and its calibration[D]. Edmonton: University of Alberta, 2011.

    [10]

    FERREIRA R, COSTEIRA J P, SANTOS J A. Stereo reconstruction of a submerged scene[M]//MARQUES J S, PÉREZ DE LA BLANCA N, PINA P. Pattern Recognition and Image Analysis. Berlin, Heidelberg: Springer, 2005: 102–109.

    [11] 张强, 郝凯, 李海滨. 水下环境中基于曲线约束的SIFT特征匹配算法研究[J]. 光学学报, 2014, 34(2): 0215003-1−0215003-7. doi: 10.3788/AOS201434.0215003

    ZHANG Q, HAO K, LI H B. Research on scale invariant feature transform feature matching based on underwater curve constraint[J]. Acta Optica Sinica, 2014, 34(2): 0215003-1−0215003-7 (in Chinese). doi: 10.3788/AOS201434.0215003

    [12] 李佳宽, 孙春生, 胡艺铭, 等. 一种基于ORB特征的水下立体匹配方法[J]. 光电工程, 2019, 46(4): 180456.

    LI J K, SUN C S, HU Y M, et al. An underwater stereo matching method based on ORB features[J]. Opto-Electronic Engineering, 2019, 46(4): 180456 (in Chinese).

    [13]

    CHEN H H, WANG C C, SHIU D C, et al. A preliminary study on positioning of an underwater vehicle based on feature matching of seafloor images[C]//2018 OCEANS-MTS/IEEE Kobe Techno-Oceans (OTO). Kobe, Japan: IEEE, 2018: 1–6.

    [14]

    ROSTEN E, PORTER R, DRUMMOND T. Faster and better: a machine learning approach to corner detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(1): 105–119. doi: 10.1109/TPAMI.2008.275

    [15] 张岩松. 基于深度约束的水下立体匹配研究[D]. 秦皇岛: 燕山大学, 2017.

    ZHANG Y S. Researching on underwater stereo matching based on depth constraint[D]. Qinhuangdao: Yanshan University, 2017 (in Chinese).

    [16] 刘士荣, 吴楚, 张波涛, 等. 基于极线约束SIFT特征和粒子滤波的目标跟踪算法[J]. 上海交通大学学报, 2014, 48(7): 1026–1032,1038.

    LIU S R, WU C, ZHANG B T, et al. A tracking algorithm based on SIFT feature and particle filter with epipolar constraint[J]. Journal of Shanghai Jiaotong University, 2014, 48(7): 1026–1032,1038 (in Chinese).

    [17] 李炼, 李维嘉, 吴耀中. 基于红色暗通道先验理论与CLAHE算法的水下图像增强算法[J]. 中国舰船研究, 2019, 14(增刊 1): 175–182. doi: 10.19693/j.issn.1673-3185.01508

    LI L, LI W J, WU Y Z. An underwater image enhancement algorithm based on RDCP and CLAHE[J]. Chinese Journal of Ship Research, 2019, 14(Supp 1): 175–182 (in Chinese). doi: 10.19693/j.issn.1673-3185.01508

    [18]

    SKINNER K A, ZHANG J M, OLSON E A, et al. UWStereoNet: unsupervised learning for depth estimation and color correction of underwater stereo imagery[C]//Proceedings of 2019 International Conference on Robotics and Automation (ICRA). Montreal, QC, Canada: IEEE, 2019: 7947–7954.

    [19]

    SWIRSKI Y, SCHECHNER Y Y. 3Deflicker from motion[C]//Proceedings of IEEE International Conference on Computational Photography (ICCP). Cambridge, MA, USA: IEEE, 2013: 1–9.

  • 期刊类型引用(2)

    1. 郭银景,马新瑞,许越铖,孔芳,吕文红. 水下光声图像空间配准算法研究综述. 计算机工程与应用. 2023(05): 14-27 . 百度学术
    2. 李晓明,郝沙沙,陈双慧. 结合先验知识的海底图像配准方法. 计算机辅助设计与图形学学报. 2023(11): 1743-1750 . 百度学术

    其他类型引用(7)

图(7)  /  表(2)
计量
  • 文章访问数:  685
  • HTML全文浏览量:  230
  • PDF下载量:  88
  • 被引次数: 9
出版历程
  • 收稿日期:  2020-11-22
  • 修回日期:  2021-03-25
  • 网络出版日期:  2021-09-25
  • 刊出日期:  2021-12-19

目录

/

返回文章
返回