本文内容来源于《测绘通报》2024年第8期,审图号:GS京(2024)1527号
基于球形标靶自动提取的大场景三维扫描仪地形测量方法张旭1,2, 毛庆洲1,2, 徐浩轩1, 楼梁伟3,4, 王晓凯3,4
1. 武汉大学遥感信息工程学院,湖北 武汉 430079;
2. 湖北珞珈实验室,湖北 武汉 430079;
3. 中国铁道科学研究院集团有限公司高速铁路轨道系统全国重点实验室,北京 100081;
4. 中国铁道科学研究院集团有限公司铁道建筑研究所,北京 100081
基金项目:国家重点研发计划(2023YFC3009400);中央高校自主科研项目(2042023kf0221;2042022dx0001)
关键词:大点云;球形标靶;三维扫描仪;Zernike;标靶提取
引文格式:张旭, 毛庆洲, 徐浩轩, 等. 基于球形标靶自动提取的大场景三维扫描仪地形测量方法[J]. 测绘通报,2024(8):13-19. DOI: 10.13474/j.cnki.11-2246.2024.0803.摘要 :针对地面三维扫描仪大点云地形测绘中缺乏可信特征点的问题,本文提出了一种高精度自动定位和提取球形标靶中心的方法。由三维点云获得点云强度图,并将强度图划分为多个子图,利用现有图像处理算法获取子图中候选标靶感兴趣区域(ROI);提出了一种基于一维最大熵改进的Zernike矩亚像素边缘检测算法,从而准确获取每个ROI中候选标靶的像素集合;利用标靶半径和圆球率相关阈值确定可信标靶,将可信标靶的点云交替完成圆球拟合和粗差剔除,得到准确的标靶中心。试验结果表明,直径14.5 cm的球形标靶布设测量范围在80 m内,该算法从点云中提取标靶的成功率达96.7%;基于自动提取球形标靶中心的方法完成扫描坐标系向指定坐标系的转换,其中三项中误差(高程中误差、平面中误差、三维空间误差)均小于1 cm。
地面激光扫描(terrestrial laser scanning,TLS)是一种先进的全自动高精度立体测量技术,又称为实景复制技术[1]。三维激光扫描技术是继GNSS空间定位后的又一项技术革新[2],使得测绘数据的获取方法、服务能力与水平,以及数据处理方法等进入新的发展阶段。在地形测绘方面,基于全站仪等设备的传统测量耗时长、成本高,已经不能满足环境迅速变化和物体丰富多样这一实际情况。采用GNSS、地面三维扫描仪及全站仪等联合测绘已成为目前大场景地形测量的重要手段[3-5]。TLS地形测量的首要任务是从点云中提取特征点,依据特征点将每站扫描点云坐标转换到地形测绘统一指定坐标系中(国家或地方坐标系统),该过程称为点云定位定向[6-7]。
人工设立标靶为点云定位定向技术提供标准控制点坐标。人工布设标靶的种类包括平面反射标靶/球形标靶等[8-9]。球形标靶以其几何特性被广泛应用,其相对于平面反射标靶的优点有:①识别距离远,平面反射标靶是根据反射强度高点或影像检索技术识别标靶,识别距离有限;而球形标靶利用表面4个点即可拟合出球心坐标,可放置于更远的距离[10]。②多角度测量,反射标靶要求必须与扫描仪激光束近似垂直[11]而球形标靶具有旋转不变性,无论从何角度观测球形标靶,球心坐标均可拟合出。③制作方便,专用反射标靶价格昂贵,球形标靶可用简单材料制作。④球形标靶可用于高精度仪器的参数检测[12-13]。因此,球形标靶可作为点云定位定向的标准控制点。
对于地面三维扫描技术数据获取速度较快、数据量较大、测量距离远、点云处理自动化程度有限的现状,本文提出一种球形标靶自动检测下的点云定位定向方法。该方法主要解决在大场景点云中自动提取球形标靶的问题,首先进行由粗到精确定标靶的检测过程,并在球心拟合中逐步剔除粗差以达到高精度提取标靶中心的目标;然后结合标准控制点在指定坐标系中的信息,建立点云坐标系与指定坐标系之间准确的转换关系。
点云定位定向技术的关键是解算坐标转换参数。图 1展示了点云坐标系o-xyz与外部坐标系O-XYZ之间的关系,点云坐标系原点o为扫描仪测站的中心,z轴是设备的竖轴,y轴是扫描水平旋转面的起始方向,x轴与两轴垂直构成右手系。测站中心o在指定坐标系O-XYZ中的坐标为(Xw,Yw,Zw)。(φ,ω,κ)为坐标系3个方向上的旋转角,或扫描仪相对于指定坐标系的姿态角。在几何问题上,确定点云姿态参数(φ,ω,κ)和位置参数(Xw,Yw,Zw)的过程称为点云定位定向。针对这一过程,目前有间接定向和独立模型定向两种方法。间接定向方法就是先对多站点云完成拼接成整体点云,再将整体点云指定坐标系完成转换。独立模型法是以标靶中心为控制点,用全站仪、GNSS、水准仪测量控制点在外部坐标系中的三维坐标,在点云中识别并计算出控制点坐标,平差解算坐标转换参数。从点云坐标系向指定坐标系转换的模型为式中,λ为缩放因子,取1;R (φ,ω,κ)为坐标旋转矩阵。利用多个标准特征点平差解算6个参数。
从大场景中提取标靶点云是点云定位定向的首要任务。由球成像模型将点云投影成与全景图像相同分辨率的强度图,记录每个像素对应的点云群;从强度图中提取有圆特征的感兴趣区域(region of interest,ROI),将ROI所包含的点云群作为候选标靶点云,拟合球面,设置几何约束条件得到可信标靶点云。具体步骤如下介绍。步骤1:由三维点云生成强度图。将三维点云以激光器为原点单位球面化,公式为式中,(Xi,Yi,Zi)为球面单点在扫描仪坐标系中的坐标;(xi,yi,zi)为单点单位球面化后的坐标;Ai、Hi分别为单点在扫描坐标系中的水平角和高度角。以0.05°×0.05°为单位方格栅格化球面,展开为7200×3600像素的图像,点云零位置对应图像中心。将点云根据角度关系“发牌式”存入像素格(int为取整函数),公式为定义一个像素格中的点云为一个点云群。将强度最大值作为像素强度,利用一维插值法计算各像素灰度值。图 2为点云生成强度图的过程。步骤2:全景图中获取候选ROI。球形标靶相对周围环境的反射强度高,灰度明显。全景图像的信息单元较多,直接全局处理可能效果不佳。因此,将图像分割成20×10张等尺寸的子图,相邻图像间重叠100像素。对每张子图单独完成预处理和ROI获取。子图预处理主要包括图像灰度化、滤波处理、阈值分割及形态学操作等。预先从全景图像中检测圆形特征ROI可大致确定标靶位置,从而提高计算效率。ROI获取的步骤如下。(1) 预处理后,对二值图像做连通域检测,获得m个灰度区域。(2) 记录第i个灰度区域的宽wi、高hi及面积Si,根据摆放距离和像素分辨率分析所占像素数量在60~500像素之间。若,且Si>500或Si < 60,则该区域内像素灰度置零,遍历所有灰度区域。(3) Canny边缘检测,以独立边缘的像素群为范围构建矩形包围框,记录每个包围框的宽wj、高hi、中心坐标(xj,yj)(j=1,2,…,n)。(4) 统计二值图中矩形框内灰度为1的像素数量,计算ratio。若ratio>0.7,则以(xj,yj)在全景图像中的坐标(x,y)为中心,宽1.2×wj,高1.2×hj的矩形作为ROI,遍历所有矩形框。即(5) 将200幅子图,按步骤(1)—(4)处理,获取ROI集合{DROI},流程如图 3所示。步骤3:亚像素提取ROI中候选标靶的边缘像素点。将标靶所在像素的集合称为标靶像素包。为准确获得候选标靶所占像素位置,需预先确定标靶在图像中的边缘像素包。因此,提取标靶亚像素级边缘是获取高精度标靶中心的前提。Zernike矩是一种正交矩,具有对图像旋转前后尺寸不变的特性[14-15]。基于Zernike矩的边缘定位精度较高、耗时少,具有良好的抗噪性能,但该算法在判定边缘点时,阶跃灰度阈值kt难以选择。一维最大熵法是一种基于灰度信息熵的分割算法[16],该方法根据灰度自适应选取合理的阈值分离前后景,可为Zernike矩边缘检测自适应地提供kt。本文提出基于最大熵改进的Zernike矩亚像素检测算法,以提取ROI中的标靶边缘。原理如下。(1) 计算矩Z00、Z11、Z20。为减小计算量,对ROI区域利用Canny算子提取像素级边缘,通过Zernike矩阵模板M00、M11、M20与像素级边缘点卷积运算得到3个Zernike矩Z00、Z11、Z20。像素点(x0,y0)处的Zernike矩可由N×N大小的模板Mnm表示,当P=N/2时,其矩定义为构造7阶矩阵模板的实现步骤:单位圆被7×7个小方块网格划分,将第j行、第k列的小方格记为Sjk,δ表示积分圆区域,Zernike矩阵模板系数可表示为(2) 计算旋转θ后的Zernike矩Z′00,Z′11,Z′20,Zernike的边缘模型如图 4所示。直线L代表理想边缘,直线L两侧的灰度值分别为h和h+k,k为阶跃灰度值,l为原点到边缘的垂直距离,θ为l和x轴的夹角。模型旋转后,θ、h、k、d与Zernike矩Z′00、Z′11、Z′20之间可建立函数关系。3个矩对应积分核函数分别为V00=1、V11=x+jy、V20=2x2+2y2-1。可得(3) 解算边缘参数由Zernike矩旋转不变性可得Z′00=Z00、Z′11=Z11ejθ、Z′20=Z20。边缘分割线顺时针旋转之后与y轴平行,则可得0。由Z′11定义式可知,Z′11的虚部为0。由矩Z11旋转前后的关系式可得(4) 一维最大熵获取阶跃阈值kt。选择合理的阶跃阈值可提高算法的效率。以往kt为人工选择阈值,过小会检测出虚假边缘,过大会丢失边缘信息,需要反复调试。标靶相对背景灰度突出,一维最大熵法利用信息熵最大的原理可有效分离靶球,过程如下。a. 假设初始阈值为T,p0,p1,p2,…,pn为图像各个灰度等级出现的概率,前景灰度区域A出现的概率为pA=p0+p1+p2+…+pT,背景灰度区域B出现的概率为pB=1-pA=pT+1+pT+2+…+pn。c. 遍历整个弧度层级,得到使H(T)最大的T,即kt=T。H(T)公式为(5) 亚像素坐标计算。由像素级边缘点计算出的位置参数经阈值判断确定亚像素边缘。基于d≤dt、k≥kt条件判定亚像素边缘点,dt为距离阈值,由于单位圆以像素中心为圆心,2dt小于一个像素单元,因此,dt的阈值范围较小;kt为灰度梯度阈值,由式(10)计算。本文采用7×7的矩阵模版卷积,积分圆区域半径为3.5,亚像素边缘坐标由式(11)计算,边缘点集合为{Q}。流程如图 5所示。步骤4:确定可信标靶。解码每个候选ROI中的点云群,利用最小二乘法拟合球面,得到拟合球半径r0与球心(x0,y0,z0)。标靶中心偏离误差约为1~2 mm,以4.8 cm < r0 < 5.2 cm作为可信标靶的一个约束条件。当点云到球心的距离dis(O,pi)与r0之差小于2σ(σ为设备三维点位误差,由仪器厂商标定),则该点可能是标靶上的点。将圆球度C在90%以上的候选ROI标记为可信标靶。这其中可能出现重复球的现象,拟合球心近似相等,若两球之间距离在一定范围之内,则保留圆球度高的一个。C的公式为步骤5:标靶中心计算。球拟合可信标靶的点云,计算拟合残差di和拟合中误差mr,公式分别为式中,N为拟合点个数。为提高球心拟合的精度,将残差值di>2mr的点剔除,重复拟合,得到标靶中心坐标,如图 6所示。需要说明的是,处在分割图片重复范围内的标靶可能会被两次拟合,拟合出的球心坐标基本相同,如果两个球之间的距离较小,则应保留圆球度高的一个。
试验在华中地区某实验基地进行,使用设备包括FARO 150s三维扫描仪、索佳NET1200、GNSS设备、ARO 14.5 cm球形标靶等。每站布设4个试验标靶和2个检核标靶,扫描仪到标靶的距离在10~80 m之间变动,共扫描20站数据。球形标靶固定于三脚架上,如图 7所示。以NET1200全站仪提供的坐标系作为指定坐标系,全站仪测量球形标靶棱镜面中心的坐标作为特征点在指定坐标系中的坐标。扫描仪测量圆球面拟合得到的圆心坐标为特征点在扫描仪坐标系下的坐标。球形标靶自动提取算法基于Visual C++编程实现。
以某站扫描数据为例,分析球形标靶自动提取方法的有效性。将全站点云投影成强度全景图,并将强度图划分为200张子图,且相邻子图间的重叠度为100像素。对单个子图完成预处理获得所有的ROI区域,并进行亚像素边缘提取以获得候选标靶的像素包。此时有14个候选标靶,将每个标靶的像素包对应的点云做球拟合,得到的相关参数见表 1。圆球度大于90%的可信标靶有8个,见表 2。显然,这其中有部分重复标靶,删除圆球度相对较低的标靶得到最终标靶中心提取结果,见表 3。选10组数据的识别和配对结果(见表 4)。该算法下点云中标靶识别具有极高的准确率,标靶提取率达到96.7%。其中,点云中所提取标靶识别总数全为真实靶球,这是由于点云中信息丰富,可将强度、几何信息作为目标识别条件,大大增加了目标识别的准确性。值得说明的是,大场景测量相对于近景测量,标靶球布设距离远且所需点云分辨率高,单站测量的点数多,工程应用中面对这类大场景点云标靶提取效率通常较低。然而,该标靶检测算法可以同时提高大场景点云标靶自动提取的准确度和效率。在实际测量输入包含约4000万点的大场景地铁隧道点云时,该方法可以在100 s内有效提取6个球形标靶。
首先从5站点云中提取28个准确的标靶中心,将所提取标靶中心在扫描仪坐标系中的坐标和全站仪测量坐标代入式(1),解算每站扫描仪坐标系与指定坐标系间的转换参数;然后将标靶中心在扫描仪中的坐标依据转换参数转换得到指定坐标系下的坐标,将转换坐标与全站仪直接测量的坐标之间的误差称为坐标转换误差。根据坐标转换误差计算每个标靶的平面误差、高程误差、三维坐标误差这3项误差,28个球形标靶的3项误差如图 8所示。5站测量数据中,高程中误差为5.8 mm,平面中误差为6.9 mm,三维空间中误差为9.0 mm。
针对大场景点云地形测绘中缺乏标准特征参考的问题,以球形标靶中心为特征点,本文提出了一种高精度自动定位和提取球形标靶中心的方法,详细介绍了数据自动化处理的各个环节,设计了实测试验验证方法的可行性。试验结果表明,测量范围在80 m内,该算法点云中标靶识别具有极高的准确率,标靶提取率达到96.7%;基于自动提取球形标靶中心的方法完成扫描坐标系向指定坐标系的转换,高程中误差为5.8 mm,平面中误差为6.9 mm,三维空间中误差为9.0 mm,3项误差均小于1 cm。此研究为后续自动化高精度地形测量提供重要技术参考。下一步,可结合图像数据提供场景的纹理信息,进一步简化球形标靶自动提取的过程;此外,在标靶中心拟合过程中存在较多粗差,研究自适应抗差估计算法提高远距离标靶中心提取的精度。作者简介:张旭(1997—),男,博士生,研究方向为多传感器标定与数据融合。E-mail:zhangxuwhu97@whu.edu.cn通信作者:毛庆洲。E-mail:qzhmao@whu.edu.cn