快速检索        
  武汉大学学报·信息科学版  2018, Vol. 43 Issue (7): 978-983

文章信息

张春森, 王西旗, 郭丙轩
ZHANG Chunsen, WANG Xiqi, GUO Bingxuan
城市环境下基于C/S架构的影像空间定位
Space Location of Image in Urban Environments Based on C/S Structure
武汉大学学报·信息科学版, 2018, 43(7): 978-983
Geomatics and Information Science of Wuhan University, 2018, 43(7): 978-983
http://dx.doi.org/10.13203/j.whugis20160455

文章历史

收稿日期: 2017-03-13
城市环境下基于C/S架构的影像空间定位
张春森1 , 王西旗1 , 郭丙轩2     
1. 西安科技大学测绘科学与技术学院, 陕西 西安, 710054;
2. 武汉大学测绘遥感信息工程国家重点实验室, 湖北 武汉, 430079
摘要:针对城市环境下影像空间定位精度低等问题,提出了一种在C/S架构下基于影像的移动平台空间自定位方法。首先对预采集的城市建筑物序列影像,利用最近邻距离比率(nearest neighbor distance ratio,NNDR)算法和归一化互相关匹配(normalized cross correlation,NCC)算法得到SIFT粗匹配,通过随机抽样一致(random sample consensus,RANSAC)算法对粗匹配点进行优化,通过精确解算基本矩阵F和投影矩阵P,建立建筑物三维点云模型,进而获得由影像特征点、像点坐标以及物方点坐标组成的物方特征库。其次以用户通过手机拍摄的影像作为定位影像,进行特征提取并与物方特征库影像匹配,获取对应物方点坐标。最后通过精确计算定位影像外方位元素,并在手机客户端中显示所拍照瞬间手机的空间位置,实现移动平台空间自定位。实验结果表明,该方法能够达到厘米级定位精度,可作为其他空间定位方法的有效补充。
关键词空间定位     影像匹配     基本矩阵     投影矩阵     三维重建     外方位元素    
Space Location of Image in Urban Environments Based on C/S Structure
ZHANG Chunsen1, WANG Xiqi1, GUO Bingxuan2     
1. College of Geomatics, Xi'an University of Science and Technology, Xi'an 710054, China;
2. State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing, Wuhan University, Wuhan 430079, China
First author: ZHANG Chunsen, PhD, professor, specializes in photogrammetry and remote sensing.E-mail:zhchunsen@aliyun.com
Corresponding author: GUO Bingxuan, PhD, professor.E-mail:mobilemap@163.com
Foundation support: The National Key Research and Development Program of China, No.2016YFB0502200;Surveying and Mapping Geographic Information Public Industry Research Projects, No.210600001;Guangzhou Science and Technology Plan, No.2017010160173
Abstract: Aiming at the low positioning accuracy of image space location in urban environments, this paper proposes a new method of space location of image in urban environments based on C/S structure. First, a series of indoor images are taken in advance. We use the nearest neighbor distance ratio (NNDR) and normalized cross correlation (NCC) to get the SIFT coarse matches, then use RANSAC method to optimize it, and calculate the fundamental matrix and projection matrix. Building 3D point cloud model is established, and the object space feature library including image feature points, image point coordinates and object space point coordinates are got. Second, we regard the building images which are taken by user's mobile phone as the location images. Image feature points of location images are extracted and matched with the feature points of object space feature library, then the object space point coordinates are obtained. Finally, we use collinearity equation model to accurately calculate the exterior orientation elements, and display the user's space position on the phone, thus space positioning is realized. The experimental results show that the positioning method in this paper can reach the centimeter level positioning accuracy, and can meet the requirements of the user positioning accuracy.
Key words: space location     image matching     fundamental matrix     projection matrix     three-dimensional reconstruction     exterior orientation elements    

在大数据时代, 随着互联网技术和智能手机的普及, 基于位置的移动服务越来越深入地进入到各个行业和人们的日常生活中。路线导航、应急救援、商业及个人位置服务都需要准确的位置信息, 因此高精度的定位服务成为当前研究热点。

目前手机中常用的定位方法主要采用内置GPS芯片、移动基站、无线保真(wireless fidelity, WiFi)、蓝牙(bluetooth, BT)等定位方法。但是以上方法都是基于无线电信号的定位方法, 在高楼林立的城市环境中, 受建筑物的遮挡, 无线电信号往往处在多路径和非视线环境中, 信号衰减严重, 使得定位精度受到很大挑战[1]

基于影像的空间定位具有可视化效果好、信息丰富、易操作、精度高、速度快等特点, 一定程度上能够满足用户的定位需求, 吸引了国内外学者的关注与深入研究。

摄影测量和计算机视觉技术的不断发展, 使快速准确地提取影像特征、实现高精度影像匹配、解算影像的基本矩阵以及外方位元素成为可能。目前基于影像的定位主要采用人工标注的方法, 即将名称、位置等属性信息标注在建筑物影像中并存储在数据库, 用户将拍摄得到的建筑物影像上传到数据库, 从而查询到用户所在的位置信息。该方法需要对影像进行人工标注, 费时费力, 无法实现准确定位[2]。Zhang等为了提高定位影像与数据库中影像匹配准确率, 提出了一种基于尺度不变特征转换(scale-invariant feature transform, SIFT)的宽基线匹配技术[3]。冯春针对单目视觉的目标物深度估计和目标物定位问题进行了深入研究, 并应用于估算两航天器之间的相对位置参数[4]。李海丰利用高分辨率的卫星影像和多层特征图结构确定移动机器人在卫星影像图中的准确位置[5]。王保丰等提出了一种基于计算机视觉的定位方法, 将SIFT匹配、相关系数匹配、最小二乘匹配和光束法平差等多项技术进行融合, 实现了相邻站间月面巡视器的导航定位[6]

本文提出了一种在C/S(Client/Server)架构下, 以计算机视觉原理为基础的影像移动平台空间自定位方法。用户首先通过手机内置相机获取定位影像, 将影像传输到服务器端; 然后借助事先在服务器端建立的物方特征库, 在服务器端计算出定位影像的外方位元素; 最后将影像外方位元素传回用户手机端, 实现手机用户空间位置的自定位。系统工作流程如图 1所示。

图 1 系统工作流程 Figure 1 System Work Flowchart
1 影像物方特征库建立

利用预先采集的建筑物序列影像建立物方特征库是城市环境下影像空间定位的前提, 物方特征库是由影像特征点、像点坐标和物方点坐标组成的库文件, 其作用是为定位影像提供物方点坐标。

建立物方特征库的技术流程如图 2所示, 步骤为:①首先在建筑物影像中刺点, 加入控制点坐标, 然后提取目标物序列影像的SIFT特征点并进行特征匹配, 采用随机抽样一致(random sample consensus, RANSAC)算法[7]剔除粗差, 提高匹配正确率。根据相机检校参数校正特征点的像点坐标, 并计算基本矩阵F。②在相机内参数K已知的条件下, 通过分解基本矩阵得到本质矩阵E。③对本质矩阵进行奇异值分解, 计算相机的旋转矩阵R和平移向量t, 结合相机内参数求得投影矩阵P1P2。④利用投影矩阵以及特征点像点坐标求得物方三维坐标, 并将特征点、像点坐标、物方三维坐标存储为物方特征库文件。

图 2 物方特征库建立流程图 Figure 2 Flowchart of Building Object Space Feature Library
1.1 像点坐标校正

由于相机镜头的结构特点, 相机在成像过程中会产生一定的畸变, 其中径向畸变最为明显, 使得影像像点坐标沿半径方向发生偏移。为了保证定位结果的精度, 需对像点坐标进行径向畸变校正。径向畸变方程为:

$ \left\{ \begin{array}{l} \mathop x\limits^ \gg = x + x\left[{{k_1}\left( {{x^2} + {y^2}} \right) + {k_2}{{\left( {{x^2} + {y^2}} \right)}^2}} \right]\\ \mathop y\limits^ \gg = y + y\left[{{k_1}({x^2} + {y^2}) + {k_2}{{({x^2} + {y^2})}^2}} \right] \end{array} \right. $ (1)

式中, $\mathop x\limits^ \gg 、\mathop y\limits^ \gg $为校正后的像点坐标; xy为校正前的像点坐标; k1k2为径向畸变系数, 由相机检校获得。通过L-M (Levenberg-Marquardt)算法优化校正结果。

1.2 SIFT特征匹配

特征点匹配过程中会产生误匹配, 误匹配点对的存在会严重影响基本矩阵的鲁棒性, 为了提高基本矩阵的准确性, 采用以下匹配策略:由于直接利用RANSAC算法剔除误匹配时, 要保证粗匹配中至少包括50%的正确匹配点对[8], 因此首先利用最近邻距离比率(nearest neighbor distance ratio, NNDR)算法和归一化互相关匹配(normalized cross correlation, NCC)算法约束SIFT特征点匹配, 剔除大量误匹配点对, 再利用RANSAC算法计算基本矩阵。具体步骤为:

1) 特征点提取及描述:提取相邻影像特征点, 并建立128维SIFT特征向量。

2) 粗匹配:采用NNDR算法, 计算不同影像间特征点欧氏距离, 当次最小距离与最小距离的比值小于0.85时[9], 认为特征点为匹配点对。NCC匹配算法为:

$ {\rm{NCC}} = \frac{{\sum\limits_{i = 1}^{128} {\left( {{\mathit{\boldsymbol{a}}_i}-\mathit{\boldsymbol{\bar a}}} \right)\left( {{\mathit{\boldsymbol{b}}_i}-\mathit{\boldsymbol{\bar b}}} \right)} }}{{\sqrt {\sum\limits_{i = 1}^{128} {{{\left( {{\mathit{\boldsymbol{a}}_i}-\mathit{\boldsymbol{\bar a}}} \right)}^2}} \sum\limits_{i = 1}^{128} {{{\left( {{\mathit{\boldsymbol{b}}_i} - \mathit{\boldsymbol{\bar b}}} \right)}^2}} } }} $ (2)

式中, aibi为两个SIFT特征向量; , ab为两个特征向量各元素的平均值。当NCC>0.6时[10], 认为特征点为匹配点对。采用该方法可以保证在正确匹配点率的前提下, 有效剔除误匹配点。

1.3 计算物方三维坐标

根据粗匹配点对利用RANSAC算法计算影像间的基本矩阵F。根据公式E=KTFK求得本质矩阵E, 相机内参数矩阵为K= $= \left[{\begin{array}{*{20}{c}} {{f_x}}&0&{{c_{_x}}}\\ 0&{{f_y}}&{{c_y}}\\ 0&0&1 \end{array}} \right]$。其中, fxfy分别表示水平方向与垂直方向的相机主距; cxcy分别表示像主点在水平方向与垂直方向的偏移量。

通过奇异值分解(singular value decomposi-tion, SVD)可以将本质矩阵E分解为旋转矩阵R和平移向量t, 进而求出影像的投影矩阵。在此过程中, 本质矩阵SVD分解为E=Udiag(1, 1, 0)VT, 若第1幅影像的投影矩阵P=K[I|0](I为单位矩阵), 那么第2幅影像的投影矩阵可表示为P′=K[R|t], 其中Rt分别存在以下两种可能:

$ \left\{ \begin{array}{l} \mathit{\boldsymbol{R}} = \mathit{\boldsymbol{UW}}{\mathit{\boldsymbol{V}}^{\rm{T}}}{或}{\rm{ }}\mathit{\boldsymbol{U}}{\mathit{\boldsymbol{W}}^{\rm{T}}}\mathit{\boldsymbol{}}{\mathit{\boldsymbol{V}}^{\rm{T}}}\\ \mathit{\boldsymbol{t}} =-{\mathit{\boldsymbol{U}}_3}{或}{\mathit{\boldsymbol{U}}_3} \end{array} \right. $ (3)

式中, $\mathit{\boldsymbol{W}} = \left[{\begin{array}{*{20}{c}} 0&{-1}&0\\ 1&0&0\\ 0&0&1 \end{array}} \right]$; U3U的第3列, 在相差一个常数因子的意义下表示平移向量t。可通过测试某一点, 验证该点是否位于相机前, 即可在4种不同解中确定唯一的投影矩阵P[11]

P1P2P3分别表示投影矩阵P的行向量, (xi, yi, 1)为第1幅影像中第i个匹配点的齐次坐标, Xi=[XwiYwi Zwi1]T为第i个匹配点所对应的物方三维齐次坐标, s表示常数因子。则像点和物方坐标的投影关系为:

$ s\left[{\begin{array}{*{20}{c}} {{x_i}}\\ {{y_i}}\\ 1 \end{array}} \right] = \left[{\begin{array}{*{20}{c}} {{\mathit{\boldsymbol{P}}_1}}\\ {{\mathit{\boldsymbol{P}}_2}}\\ {{\mathit{\boldsymbol{P}}_3}} \end{array}} \right]\mathit{\boldsymbol{X}}{_i} $ (4)

消去常数因子s, 可得:

$ \left\{ \begin{array}{l} {\mathit{\boldsymbol{P}}_3}{\mathit{\boldsymbol{X}}_i}{x_i}-{\mathit{\boldsymbol{P}}_1}{\mathit{\boldsymbol{X}}_i} = 0\\ {\mathit{\boldsymbol{P}}_3}{\mathit{\boldsymbol{X}}_i}{y_i}-{\mathit{\boldsymbol{P}}_2}{\mathit{\boldsymbol{X}}_i} = 0 \end{array} \right. $ (5)

设(xi, yi, 1)为第2幅影像中第i个匹配点的齐次坐标, 同理可得:

$ \left\{ \begin{array}{l} {{\mathit{\boldsymbol{P'}}}_3}{\mathit{\boldsymbol{X}}_i}{{x'}_{i}}-{{\mathit{\boldsymbol{P'}}}_1}{\mathit{\boldsymbol{X}}_i} = 0\\ {{\mathit{\boldsymbol{P'}}}_3}{\mathit{\boldsymbol{X}}_i}{{y'}_i}-{{\mathit{\boldsymbol{P'}}}_2}{\mathit{\boldsymbol{X}}_i} = 0 \end{array} \right. $ (6)

综合式(5)、(6)可得

$ \left[{\begin{array}{*{20}{l}} {{\mathit{\boldsymbol{P}}_3}{x_i}-{\rm{ }}{\mathit{\boldsymbol{P}}_1}}\\ {{\mathit{\boldsymbol{P}}_3}{y_i}-{\mathit{\boldsymbol{P}}_2}}\\ {{{\mathit{\boldsymbol{P'}}}_3}{{x'}_i}-{{\mathit{\boldsymbol{P'}}}_1}}\\ {{{\mathit{\boldsymbol{P'}}}_{\rm{3}}}{{y'}_i} - {{\mathit{\boldsymbol{P'}}}_{\rm{2}}}} \end{array}} \right]{\mathit{\boldsymbol{X}}_i} = {\bf{0}} $ (7)

$\mathit{\boldsymbol{A = }}\left[{\begin{array}{*{20}{l}} {{\mathit{\boldsymbol{P}}_3}{x_i}-{\rm{ }}{\mathit{\boldsymbol{P}}_1}}\\ {{\mathit{\boldsymbol{P}}_3}{y_i}-{\mathit{\boldsymbol{P}}_2}}\\ {{{\mathit{\boldsymbol{P'}}}_3}{{x'}_i}-{{\mathit{\boldsymbol{P'}}}_1}}\\ {{{\mathit{\boldsymbol{P'}}}_{\rm{3}}}{{y'}_i} - {{\mathit{\boldsymbol{P'}}}_{\rm{2}}}} \end{array}} \right]$, 则式(7)可写成AXi= 0, 由于Xi是在常数因子情况下定义的, 增加约束条件‖Xi‖=1, 则物方三维坐标即可转化为求解ATA的最小特征值所对应的特征向量。对A进行奇异值分解:

$ \mathit{\boldsymbol{A}} = \mathit{\boldsymbol{U \boldsymbol{\varSigma} }}{\mathit{\boldsymbol{V}}^{\rm{T}}} $ (8)

V的最后一列即为所求物方空间坐标。

将特征点、像点坐标和物方三维坐标存储为库文件, 建立物方特征库。

2 定位影像外方位元素求解

首先, 在客户端, 用户通过手机内置相机获取定位影像, 并将定位影像上传到服务器。在服务器端, 通过定位影像特征点与物方特征库中的特征点进行匹配, 获取特征点的物方三维坐标, 根据特征点的像点坐标和物方点坐标计算投影矩阵P, 并利用L-M算法对投影矩阵进行优化。然后, 从记录手机内置相机影像属性信息的可交换图像文件(Exif信息)中查询影像内参数, 分解投影矩阵获得影像外方位元素初值。最后, 利用共线方程精确求解影像外方位元素, 并在用户端三维显示外方位元素坐标。实现流程如图 3所示。

图 3 外方位元素求解流程图 Figure 3 Flowchart of Calculating Exterior Orientation Elements

本文采用基于共线方程的单像空间后方交会求解定位影像的外方位元素。单像空间后方交会求解时需要给定比较准确的初始值, 否则会出现迭代不收敛或者计算结果错误等问题。为了避免上述问题, 通过分解定位影像投影矩阵获得外方位元素作为空间后方交会的初始值, 采用最小二乘方法精确求解出外方位元素。

提取影像特征点并与特征库中特征点匹配, 获取特征点的物方三维坐标。由于像点坐标与物方点坐标已知, 即可恢复定位影像物方点与像点投影关系, 如式(4)所示。消掉常数因子s并整理公式可得:

$ \left[{\begin{array}{*{20}{l}} {-{\mathit{\boldsymbol{X}}_i}^{\rm{T}}}&0&{{x_i}\mathit{\boldsymbol{X}}_i^{\rm{T}}}\\ 0&{-\mathit{\boldsymbol{X}}_i^{\rm{T}}}&{{x_i}\mathit{\boldsymbol{X}}_i^{\rm{T}}} \end{array}} \right]\left[{\begin{array}{*{20}{c}} {\mathit{\boldsymbol{P}}_1^{\rm{T}}}\\ {\mathit{\boldsymbol{P}}_2^{\rm{T}}}\\ {\mathit{\boldsymbol{P}}_3^{\rm{T}}} \end{array}} \right] = {\bf{0}} $ (9)

设定位影像中有n对对应点, 则可以得到n组形如式(9)的公式, 将公式组合后, 可得:

$ \left[{\begin{array}{*{20}{l}} {-{\mathit{\boldsymbol{X}}_i}^{\rm{T}}}&0&{{x_i}\mathit{\boldsymbol{X}}_i^{\rm{T}}}\\ 0&{-{\mathit{\boldsymbol{X}}_i}^{\rm{T}}}&{{x_i}\mathit{\boldsymbol{X}}_i^{\rm{T}}}\\ \vdots&\vdots&\vdots \\ {-{\mathit{\boldsymbol{X}}_n}^{\rm{T}}}&0&{{x_n}\mathit{\boldsymbol{X}}_n^{\rm{T}}}\\ 0&{ - {\mathit{\boldsymbol{X}}_n}^{\rm{T}}}&{{x_n}\mathit{\boldsymbol{X}}_n^{\rm{T}}} \end{array}} \right]\left[{\begin{array}{*{20}{c}} {\mathit{\boldsymbol{P}}_1^{\rm{T}}}\\ {\mathit{\boldsymbol{P}}_2^{\rm{T}}}\\ {\mathit{\boldsymbol{P}}_3^{\rm{T}}} \end{array}} \right] = {\bf{0}} $ (10)

根据式(10)求得定位影像的投影矩阵P, 并利用L-M方法优化计算结果。投影矩阵中包含了相机的内参数和外方位元素, 其中手机内置相机的内参数矩阵Ka可以从影像Exif信息中获取, 根据Ka来确定定位影像外方位元素初值, 即:

$ \left\{ \begin{array}{l} {\mathit{\boldsymbol{r}}_1} = \lambda \mathit{\boldsymbol{K}}_a^{-1}{\mathit{\boldsymbol{P}}_{{\rm{col}}1}}\\ {\mathit{\boldsymbol{r}}_2} = \lambda \mathit{\boldsymbol{K}}_a^{-1}{\mathit{\boldsymbol{P}}_{{\rm{col}}2}}\\ {\mathit{\boldsymbol{r}}_3} = {\mathit{\boldsymbol{r}}_1} \times {\mathit{\boldsymbol{r}}_2}\\ \mathit{\boldsymbol{t}} = \lambda \mathit{\boldsymbol{K}}_a^{-1}{\mathit{\boldsymbol{P}}_{{\rm{col}}3}} \end{array} \right. $ (11)

式中, $\lambda = \frac{1}{{\left\| {\mathit{\boldsymbol{K}}_a^{-1}{\mathit{\boldsymbol{P}}_{{\rm{col}}1}}} \right\|}} = \frac{1}{{\left\| {\mathit{\boldsymbol{K}}_a^{-1}{\mathit{\boldsymbol{P}}_{{\rm{col}}2}}} \right\|}}$; ri表示旋转矩阵R的第i列; Pcoli表示投影矩阵的第i列。

将定位影像内参数、外方位元素初值、像点坐标以及物方三维坐标代入共线方程模型, 经过多次迭代精确求解出最终外方位元素, 完成用户在拍照瞬间的定位。

3 实验与结果分析

为了验证本文方法的有效性及可靠性, 通过Apache软件建立网络服务器, 服务器环境配置为Window 7, 6 GB RAM, i5 CPU。利用SONYDSC-QX100相机获取某建筑物序列影像, 如图 4所示。

图 4 影像数据 Figure 4 Images Data
3.1 计算物方三维坐标

为了方便评定定位精度, 在影像中人工刺点, 加入控制点坐标。将计算得到的物方三维坐标转换到控制点坐标系下。控制点坐标如表 1所示。图 5为经过影像匹配计算得到的某建筑物三维点云数据。将物方三维坐标、像点坐标以及特征点写入物方特征库文件。

表 1 控制点坐标/m Table 1 Control Points Coordinates/m
点号 X Y Z
P01 444.213 25.510 -661.818
P02 455.307 18.693 -655.523
P03 459.001 10.909 -654.398
P04 451.421 4.793 -659.922
P05 462.617 6.756 -652.835
P06 466.298 17.487 -651.232
P07 466.334 10.924 -651.277
P08 467.812 6.722 -650.643
P09 477.188 18.756 -646.537
P10 469.901 18.732 -649.585
图 5 物方三维坐标立体显示 Figure 5 3D Display of Object 3D Coordinates
3.2 外方位元素计算及显示

利用Android手机客户端, 调用手机内置相机拍摄多张建筑物影像, 作为用户的定位影像, 如图 6所示, 上传到服务器, 接收计算结果。为了验证定位结果的准确性, 利用全站仪确定拍照瞬间手机内置相机的空间位置。定位坐标与空间测量坐标的比较结果如表 2所示。可以看出, 外方位元素的计算结果与全站仪测量的结果基本一致。如果将全站仪测量数据作为真值, 点位误差的平均值为5.133 cm, 通过多组实验验证得出, 本文方法的定位精度稳定在厘米级。

图 6 定位影像数据 Figure 6 Location Images Data
表 2 计算坐标与测量坐标结果比较 Table 2 Comparison of Calculated and Measured Results
影像 外方位元素(线元素)/m 测量坐标/m 点位误差/cm
X Y Z X Y Z
IMG_1985 488.331 2.807 -623.282 488.311 2.792 -623.301 3.113
IMG_1986 493.57 2.724 -621.451 493.603 2.731 -621.424 4.308
IMG_1987 497.164 2.716 -620.120 497.201 2.703 -620.094 4.690
IMG_1988 499.972 2.715 -618.613 500.018 2.743 -618.638 5.958
IMG_1989 500.092 2.717 -618.668 500.152 2.731 -618.671 6.185
IMG_1990 504.930 2.892 -616.651 504.957 2.909 -616.672 3.806
IMG_1993 513.719 2.773 -613.204 513.698 2.783 -613.236 3.952
IMG_1995 518.077 3.139 -610.369 518.102 3.140 -610.412 4.975
IMG_1999 531.538 2.844 -604.170 531.541 2.858 -604.261 9.207

分析发现, 影像IMG_1999的定位误差最大, 为9.207 cm, 原因是由于影像在拍摄时, 相机与被摄物体夹角较小, 导致影像与物方特征库仅有25对匹配点对。因此为了保证定位精度, 用户在拍摄定位影像时, 应该与被摄物体尽可能保持垂直。

图 7为在手机客户端中立体显示用户位置的示意图, 图中红色四棱锥表示用户拍照瞬间的位置, 图 8为该位置的定位影像。

图 7 立体显示定位坐标 Figure 7 3D Display of Location Coordinates
图 8 定位影像 Figure 8 Location Image
4 结语

本文针对手机无线电信号在建筑密集的城市环境中定位精度低、可视化效果差等问题, 提出了一种基于C/S架构的影像空间定位方法。该方法基于计算机视觉原理, 先建立物方特征库, 并在服务器端与定位影像特征点匹配, 从特征库中获取影像特征点的物方坐标; 通过计算定位影像的外方位元素, 完成用户的定位。实验结果表明, 该方法能够达到厘米级定位精度, 优于基于无线电信号的定位方法, 可视为手机高精度空间定位的有效方法之一。

参考文献
[1] Ruan Ling, Zhang Ling, Xu Yue, et al. Indoor Positioning:Classification, Methods and Applications[J]. Geomatics World, 2015, 22(2): 8–14 ( 阮陵, 张翎, 许越, 等. 室内定位:分类、方法与应用综述[J]. 地理信息世界, 2015, 22(2): 8–14. )
[2] Lu Y H, Delp E J. An Overview of Problems in Image-Based Location Awareness and Navigation[C]. SPIE Conference on Electronic Imaging, San Jose, California, USA, 2004
[3] Zhang W, Kosecka J. Image Based Localization in Urban Environments[C]. International Symposium on 3D Data Processing, Visualization and Transmission, Chapel Hill, USA, 2006
[4] Feng Chun. Research on Identification and Location of Object Based on Monocular Vision[D]. Nanjing: University of Aeronautics and Astronautics, 2013 ( 冯春. 基于单目视觉的目标识别与定位研究[D]. 南京: 南京航空航天大学, 2013 )
[5] Li Haifeng. Research on Visual Localization for Mobile Robot in Urban Environment[D]. Tianjin: Nankai University, 2012 ( 李海丰. 城市环境中移动机器人视觉定位研究[D]. 天津: 南开大学, 2012 )
[6] Wang Baofeng, Zhou Jianliang, Tang Geshi, et al. Research on Visual Localization Method of Lunar Rover[J]. Science China:Information Sciences, 2014, 44(4): 452–460 ( 王保丰, 周建亮, 唐歌实, 等. 嫦娥三号巡视器视觉定位方法[J]. 中国科学:信息科学, 2014, 44(4): 452–460. )
[7] Dou Yanyan. Research of 3D Reconstruction Based on Image Sequence[D]. Nanjing: Nanjing University of Information Science and Technology, 2013 ( 窦艳艳. 基于图像序列三维重建相关技术研究[D]. 南京: 南京信息工程大学, 2013 )
[8] Xiao Xiongwu, Guo Bingxuan, Li Deren, et al. A Quick and Affine Invariance Matching Method for Oblique Images[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(4): 414–421 ( 肖雄武, 郭丙轩, 李德仁, 等. 一种具有仿射不变性的倾斜影像快速匹配方法[J]. 测绘学报, 2015, 44(4): 414–421. DOI:10.11947/j.AGCS.2015.20140048 )
[9] David G L. Distinctive Image Features from Scale-Invariant Keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91–110 DOI:10.1023/B:VISI.0000029664.99615.94
[10] Klippenstein J, Zhang H. Quantitative Evaluation of Feature Extractors for Visual SLAM[C]. The 4th Canadian Conference on Computer and Robot Vision, Montreal, Quebec, Canada, 2007
[11] Hartley R, Zisserman A. Multiple View Geometry in Computer Vision[M]. Cambridge: Cambridge University Press, 2000