Korean J. Remote Sens. 2024; 40(6): 1369-1378
Published online: December 31, 2024
https://doi.org/10.7780/kjrs.2024.40.6.2.8
© Korean Society of Remote Sensing
정용한1, 임언택1, 구 슬1, 김성삼2*
1국립재난안전연구원 재난원인조사실 연구원
2국립재난안전연구원 재난원인조사실 시설연구사
Correspondence to : Seongsam Kim
E-mail: sskim73@korea.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
This study aims to evaluate the applicability of ground and drone light detection and ranging (LiDAR) for use in disaster sites where damage to facilities and structures has occurred. For this purpose, 3D data was acquired from a disaster environment building of the Korea Institute of Robot and Technology Convergence, using Terrestrial LiDAR for indoor areas and drone LiDAR for outdoor areas. The indoor data were aligned using different methods (target registration, auto, and visual alignment), while the outdoor data were modeled at two different altitudes (30 m and 50 m), resulting in two separate 3D models for each scenario. An accuracy assessment of each model was conducted, revealing that the indoor model’s root mean square error (RMSE) was approximately 2 cm, while the outdoor model’s RMSE was around 3 cm. Additionally, indoor and outdoor models were aligned across eight different cases, with accuracy evaluations carried out accordingly. The results showed no significant differences based on the alignment method. The best accuracy was observed in the alignment model between the target registered indoor model and the 30 m altitude outdoor model, with RMSE values of 0.020, 0.023, and 0.018, respectively. In contrast, the auto and visual alignment indoor model combined with the outdoor model at a 30 m altitude showed the lowest accuracy. Based on these findings, it is anticipated that diverse investigations can be conducted by integrating ground and drone LiDAR data, depending on the type of disaster and site conditions.
Keywords Terrestrial LiDAR, Drone LiDAR, Accuracy assessment, Disaster investigation
Light detection and ranging (LiDAR)은 초당 수 천에서 수 만개의 레이저 펄스를 활용하여 주변 대상물을 스캔(scan)하는 기술로 정밀한 지도제작 및 3차원 모델 구축이 가능하다(Jung et al., 2023). LiDAR는 자체 성능과 처리에 따라 다양한 정밀도로 나타나는데, Lee and Park (2019)은 다양한 LiDAR 플랫폼 중에 장비를 고정시켜 활용하는 static scanner가 mobile mapping system 및 handheld scanner에 비해 실내 공간 정보 구축에 효과적으로 활용될 수 있다고 하였고, Park and Um (2020)은 취득한 스캔 데이터의 iterative closest point (ICP)와 형상 정합에 따른 정확도를 비교하여 활용 가능성을 확인하였다.
지상 LiDAR를 활용한 연구로 Park et al. (2024)은 지상 LiDAR를 활용하여 취득 산림 데이터에서 개체목을 자동으로 분리하는 파이프라인(pipeline) 기반 알고리즘을 구현하는 연구를 수행하였다. Seo et al. (2016)은 지상 LiDAR를 통해 산불 및 산사태 발생 지역과 일반 산지의 연간 토사 유입량을 비교하여 산림 훼손지의 조기 복구의 중요성과 관리방안에 대한 연구를 수행하였다. 또한, Lee et al. (2016)은 지상 LiDAR를 통해 3차원 자료를 구축하여 지적성과 등과 분석을 통해 농업지역 경지면적을 산출하는 연구를 수행하였다. Kim et al. (2017)은 LiDAR 반사율 특성을 이용하여 무인 차량의 보다 효과적인 주행 가능 영역 검출에 대해 연구하였다.
최근에는 지상 LiDAR뿐만 아니라 드론을 함께 활용하는 연구도 수행되고 있다. 드론 영상 및 LiDAR, 지상 LiDAR 데이터 정합을 통해 건물 또는 시설물에 대한 모델링을 수행하여 building information modeling 활용을 위한 데이터를 효과적으로 생성할 수 있으며(Lee, 2023; Lee and Suh, 2022), 시뮬레이션 데이터로 학습한 딥러닝 기법을 적용하여 자동으로 3D 건물 모델링을 수행하는 연구도 진행되었다(Shin et al., 2023). 또한, Park (2017)도 도시 내 수목의 3차원 환경정보 데이터를 생성하기 위한 디바이스와 방법론으로 unmanned aerial vehicle (UAV)과 structure from motion-multi view stereo, solid modeling을 제시하여 단일 수목의 정량화 하는 연구를 수행하였고, Kim et al. (2016)은 지상 LiDAR와 모션 센서(motion sensor), real time kinematic (RTK) global navigation satellite system (GNSS)을 함께 선박에 고정·설치하여 해안선을 일정하게 모니터링 할 수 있는 해상모바일라이다(shipborne mobile LiDAR) 시스템을 구축하였으며, Trepekli et al. (2022)은 UAV에 탑재된 조명 및 LiDAR를 활용하여 지역 규모의 도시 홍수 모델링 및 평가를 개선하는 연구를 수행하였다.
이에 본 연구에서는 다양한 분야 활용되고 있는 지상 및 드론 LiDAR를 통해 시설물 및 건축물의 피해가 발생한 재난현장에서 활용하기 위한 정확도 평가를 수행하였다. 연구 대상 건축물의 실내를 지상 LiDAR, 실외를 드론 LiDAR를 통해 3차원 데이터를 취득하여 모델링하였다. 또한, 두 데이터를 융합한 하나의 3차원 모델을 구축하여 정확도 평가를 실시하였으며, 정확도는 실내와 실외 각각 사전에 설치한 검사점을 통해 수행하였다. 따라서 지상 및 드론 LiDAR를 통해 구축된 모델과 두 데이터를 융합한 모델의 정확도를 평가하여 실제 재난현장에서 활용될 수 있는 가능성을 확인하고자 한다.
본 연구의 실내외 데이터 취득 대상은 한국로봇융합연구원 안전로봇실증센터의 재난환경건축물이다(Fig. 1). 본 건물은 농연 환경 극복, 인명탐지, 건축물 탐색 및 이동 성능 등 다양한 시험을 위한 지상 2층 건물이다. 건축물의 전체 모습은 Fig. 1과 같으며, 연면적 770 m2 (약 232평)의 지상 2층 건물이다. 대상 건물의 1층 내부 공간 중앙부분에 2개의 기둥이 서있는 트인 공간이고, 2층은 내부에 8개의 격방이 있고 그 둘레로 복도가 이어진 구조이다. 1층과 2층은 양쪽에 계단이 연결되어 있다.
본 연구는 더욱 정밀하고 3차원적인 재난원인 및 피해조사를 위하여 지상 및 드론 LiDAR를 통해 취득한 건축물의 실내외 데이터를 융합하고 그 정확도를 평가하고자 한다. 따라서 정확도 평가를 위한 검사점 설치 및 측정, 실내 데이터 취득을 위한 지상 LiDAR 측량, 실외 데이터 취득을 위한 드론 LiDAR 측량을 순서대로 수행하였다. 이후, 지상 및 드론 LiDAR로 취득한 포인트 클라우드를 case별로 각각 정합하여 하나의 실내 모델과 실외 모델을 구축하였고, 두 데이터를 다시 융합하여 건축물 전체 모델을 구성하였다. 사전에 측량을 통해 취득한 검사점과 좌표 비교를 통해 정확도를 평가하는 방법으로 수행되었다.
실내외 융합 데이터에 대한 정확도 평가를 위해 본 연구에서 검사점 비교를 선택하였다. 검사점은 평면 타겟(black and white)을 부착하는 방식으로 설치하였다. 실내에는 1층 기둥 및 벽에 총 4개의 검사점을 설치하였고, 실외는 주변 장애물 측정이 불가한 지점을 제외하고 취득이 가능한 총 7점을 배치하였다(Fig. 2).
검사점의 좌표 취득을 위해 Trimble R10 GNSS 수신기와 Leica Total Station TS10을 활용하였고, 두 장비의 세부 규격은 Table 1과 같다. 먼저, GNSS 수신기를 통해 건축물 실외에 Total Station 장비를 세우기 위한 기계점과 기준으로 활용할 후시점, 좌표 취득 정확도를 확인하기 위한 확인점의 좌표를 취득하였다. 확인점에서 dx=8 mm, dy=13 mm, dz=5 mm로 양호하게 나타남을 확인한 이후 Total Station을 활용하여 검사점의 좌표를 취득하였다(Table 2).
Table 1 Specifications for GNSS and Total Station
Equipment | Specification | Image | ||
---|---|---|---|---|
Trimble R10 | Positioning accuracy (Static, mm) | Hor. 3 ± 0.1 ppm | ||
Ver. 3.5 ± 0.4 ppm | ||||
Positioning accuracy (RTK, mm) | Hor. 8 ± 1 ppm | |||
Ver. 15 ± 1 ppm | ||||
Leica TS10 | Range (m) | Non-prism | 0.9–1,000 | |
Prism | 0.9–3,500 | |||
Accuracy (mm) | Non-prism | 2 ± 2 ppm | ||
Prism | 1 ± 1.5 ppm |
RTK: real time kinematic.
Table 2 Checkpoint coordinates
Point | X (m) | Y (m) | Z (m) |
---|---|---|---|
CP1 | 391256.621 | 237467.432 | 13.163 |
CP2 | 391267.886 | 237466.472 | 14.157 |
CP3 | 391262.690 | 237472.163 | 14.132 |
CP4 | 391259.727 | 237463.035 | 12.873 |
CP5 | 391268.801 | 237477.763 | 20.862 |
CP6 | 391276.361 | 237468.792 | 15.292 |
CP7 | 391274.019 | 237471.553 | 20.757 |
CP8 | 391276.236 | 237462.674 | 20.841 |
CP9 | 391275.910 | 237462.391 | 15.295 |
CP10 | 391270.663 | 237456.680 | 15.407 |
CP11 | 391269.822 | 237457.285 | 20.831 |
대상 건축물의 실내 데이터는 Leica BLK360 LiDAR 장비를 활용하여 취득하였다(Table 3). BLK360은 레이저 스캐너에 high dynamic range 및 열화상 카메라가 내장되어 있어 RGB 영상도 함께 취득 가능하다. 360,000 pts/s로 최대 60 m까지 스캔 데이터를 취득할 수 있지만 유효한 스캔 범위는 최대 20–30 m 정도로 확인되었다. 스캐너의 유효 범위가 짧은 대신 크기가 작고, 전용 삼각대를 통해 높이 조절 또한 편리하여 실내 스캔에 활용성이 뛰어나다. 스캔 모드는 신속, 표준, 고밀도 3가지로 스캔 가능하며, 본 연구에서는 해상도 0.5 mm의 고밀도 모드로 수행하였다.
Table 3 Specifications for terrestrial LiDAR
Equipment | Specification | Image | |
---|---|---|---|
Leica BLK360 | Field of view (°) | Hor. 360° / Ver. 300° | |
Range (m) | Min. 0.6–up to 60m | ||
Pint measurement rate (pts/sec) | Max. 360,000 pts/sec | ||
Ranging accuracy (mm) | 4 (at 10 m) / 7 (at 20 m) | ||
Measurement modes | 3 user selectable resolution settings |
BLK360 자료 정합은 전용 software (SW)인 Cyclone에서 수행하게 되는데, SW내 정합 기능은 크게 타겟 정합, auto alignment, visual alignment 3가지 방법이 있다. 타겟 정합은 취득한 두 스캔 데이터 내 3개 이상의 전용 타겟을 기준으로 정합하는 방법으로 주로 기하학적 타겟 기반 정합 알고리즘과 최소제곱법을 핵심으로 사용한다. 사전에 스캔 포지션을 계획하고 그에 맞게 타겟을 설치 후 수행하는 준비가 필요하지만 그 만큼 높은 정밀도를 확보할 수 있다. Auto alignment는 두 스캔 데이터 간의 중복되는 공통 영역을 SW에서 자동으로 탐지하여 정합을 수행하는 방법으로 특징점 추출 및 ICP 알고리즘을 활용한다. 데이터 처리에서는 가장 효율적인 정합 방법이지만 두 스캔 데이터 간 공통 영역을 위해 더욱 세심하고 조밀한 스캔 포지션 계획을 고려해야 한다.
Visual alignment는 타겟을 설치하지 않고 두 스캔 데이터 간 공통영역도 충분하지 않을 때, 스캔된 공통 영역을 최대한 시각적으로 맞춘 후 ICP 알고리즘을 통해 정합하는 방법이다. Auto alignment와 같이 ICP 알고리즘을 통한 정합 방법이지만 초기 정렬을 수동으로 한다는 점에서 차이가 있다. 타겟 정합이 더욱 간편하게 정합할 수 있지만 실제 재난현장에서는 타겟의 설치가 불가능한 경우가 많기 때문에 별도의 타겟 설치가 필요 없는 auto alignment와 visual alignment가 활용 가능성이 높다. 이에 본 연구에서는 타겟 정합과 auto alignment와 visual alignment를 병행한 정합으로 2가지 방식으로 정합을 수행하였다. 실내 데이터 취득을 위한 스캔 포지션 및 타겟의 위치는 다음 그림과 같다(Fig. 3). 스캔 포지션의 경우 많을수록 정밀도는 높아지지만 효율성과 신속성을 높이기 위해 정합이 가능한 최소 스캔으로 계획하여 수행하였다.
건축물의 실외 데이터 취득은 DJIMatrice 300 RTK 드론과 Zenmuse L1 LiDAR 센서를 활용하였다(Table 4). Matrice 300 RTK는 방진 및 방수가 가능한 IP45 등급으로 -20~50°C 내에서 최대 12 m/s의 풍속에도 비행할 수 있으며 최대 55분까지 비행할 수 있다. 또한, GNSS를 통한 자체 위치정보를 취득할 수 있는 RTK 모델로 그 정확도가 수평 ±1 cm, 수직 ±1.5 cm로 매우 높다. 특히, Matrice 300 RTK의 장점은 다양한 센서와 호환이 가능하다는 것이다. 일반적으로 활용하는 광학, 열화상, 다중분광센서뿐만 아니라 LiDAR 센서까지 호환된다. 본 연구에서는 DJI Zenmuse L1 LiDAR 센서를 활용하였다.
Table 4 Specifications for drone and LiDAR sensor
Equipment | Specification | Image | ||
---|---|---|---|---|
DJI Matrice 300 RTK | Maximum takeoff weight (kg) | 9 | ||
Accuracy (m) | Hovering (P mode) | Hor. ±0.1 | ||
Ver. ±0.1 | ||||
Positioning (RTK) | Hor. ±0.01 | |||
Ver. ±0.015 | ||||
Fight time (min.) | Max. 55 | |||
Operating temperature (°C) | –20 to 50 | |||
DJI Zenmuse L1 | Ranging accuracy (cm) | 3 (at 100 m) | ||
Pint measurement rate (pts/s) | Max. 480,000 | |||
Supported max. returns | 3 returns | |||
Scan mode | Repetitive/Non-repetitive | |||
Field of view (°) | Repetitive: 70.4 × 4.5 | |||
Non-repeatitive: 70.4 × 77.2 |
Zenmuse L1은 최대 3회 다중 반사를 지원하며 거리 측정 정확도는 3 cm@ 100 m이다. 특징으로는 반복 패턴, 비반복 패턴의 2가지 스캔모드가 있다. 반복 패턴은 70.4°(수평) × 4.5°(수직)의 field of view (FOV)를 가지며 선형의 패턴으로 반복 스캔을 수행하여 균일한 데이터 취득이 가능하며, 비반복 패턴은 70.4°(수평) × 77.2°(수직)의 FOV를 가지며 8자 형태의 패턴으로 약 1초 후 원형에 가까운 패턴으로 넓은 부분을 스캔하며 중심에 가까울수록 포인트의 밀도가 높게 취득되는 특징이 있다.
드론 LiDAR를 통해 취득하는 데이터는 비행 고도, 속도, 중복률, 반사 횟수 등 다양한 조건에 밀도가 달라진다. 본 연구에서는 고도를 30 m, 50 m로 달리하여 취득하였고 다른 조건은 동일하게 설정하였다. 비행은 normal 방식과 건축물의 측면 데이터의 취득을 위한 smart oblique 방식을 병행하여 수행하였다(Table 5).
Table 5 Flight settings and results
Altitude (m) | Method | Shooting angle (°) | Point density (point/m2) | Ground sample distance (GSD, cm/pixel) |
---|---|---|---|---|
30 | Normal | 90 | 4,083 | 0.82 |
Smart oblique | 45 | 2,663 | 1.16 | |
50 | Normal | 90 | 2,450 | 1.36 |
Smart oblique | 45 | 1,597 | 1.93 |
취득한 데이터의 처리는 전용 SW인DJI Terra를 활용하였다. Terra에서는 광학, 다중분광, LiDAR 등의 다양한 데이터 처리를 수행할 수 있으며, LiDAR 스캔 데이터의 경우 유효 거리 범위를 입력하여 불필요한 데이터를 제외하고 처리할 수 있다. 데이터 처리 후 주요 성과물로는 3D 모델, 정사영상, digital surface model (DSM), digital terrain model (DTM) 등이 있다.
지상 LiDAR와 드론 LiDAR를 이용하여 각각의 실내외 정합 모델을 구축하였다(Figs. 4, 5). 실내 모델은 타겟 정합과 auto and visual alignment 정합 모델, 실외는 고도 30 m와 50 m모델로 총 4개의 case에 대해 실내외 각각의 검사점을 통해 먼저 정확도 평가를 실시하였다.
Table 6은 지상 LiDAR를 활용하여 구축한 실내 모델의 정확도 평가 결과이다. 타겟정합 RMSE는 X, Y, Z 방향으로 각각 0.020, 0.020, 0.005m이며, auto and visual alignment 정합 방식에서는 X, Y, Z 방향으로 각각 0.015, 0.021, 0.010 m로 나타났다. 두 정합 방식 간의 RMSE는 근소한 차이로 발생하고 있으며, 두 실내 모델에서의 정확도는 대체로 높은 것으로 나타났다. 이에 실제 현장에서 활용할 때 타겟의 별도 설치가 필요하지 않은 auto and visual alignment 방식의 효율성이 높을 것으로 판단된다.
Table 6 Accuracy assessment of indoor models (each registration method)
Checkpoint | Target registration | Auto and visual alignment | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | 0.019 | 0.018 | -0.005 | 0.014 | 0.019 | -0.010 |
CP2 | 0.022 | 0.020 | -0.005 | 0.016 | 0.020 | -0.009 |
CP3 | 0.019 | 0.023 | -0.003 | 0.015 | 0.024 | -0.005 |
CP4 | 0.020 | 0.018 | -0.007 | 0.015 | 0.019 | -0.014 |
RMSE | 0.020 | 0.020 | 0.005 | 0.015 | 0.021 | 0.010 |
Table 7은 드론 LiDAR를 활용하여 구축한 실외 모델의 정확도 평가 결과이다. 고도별 두 모델의 RMSE의 차이는 근소하게 나타났으며, 전반적으로 3 cm정도로 확인되어 별도의 지상기준점측량없이 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있어 실제 현장에서 유용할 것으로 판단된다.
Table 7 Accuracy assessment of outdoor models (each flight altitude)
Checkpoint | Flight altitude @30 m | Flight altitude @50 m | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP5 | 0.024 | 0.021 | 0.010 | 0.024 | 0.012 | -0.050 |
CP6 | 0.004 | -0.028 | -0.039 | 0.000 | -0.034 | -0.039 |
CP7 | 0.016 | -0.009 | -0.022 | 0.017 | -0.011 | -0.009 |
CP8 | -0.013 | -0.043 | -0.014 | -0.014 | -0.043 | -0.016 |
CP9 | -0.030 | -0.026 | -0.037 | -0.029 | -0.030 | -0.033 |
CP10 | -0.044 | -0.024 | -0.038 | -0.048 | -0.018 | -0.035 |
CP11 | -0.037 | -0.028 | -0.043 | -0.040 | -0.022 | -0.032 |
RMSE | 0.027 | 0.027 | 0.032 | 0.029 | 0.027 | 0.033 |
지상 및 드론 LiDAR를 통해 구축한 각각의 모델들을 융합하여 정확도 평가를 실시하였다. 지상 LiDAR를 통해 구축한 실내 모델이 더 정확한 것으로 확인되어 실내 모델을 기준으로 실외 모델 정합을 수행하였다. 실내외 각각 2가지 방식의 모델을 BLK360 전용 SWCyclone의 타겟정합과 visual alignment 방식으로 각각 정합하여 총 8가지 융합 모델을 생성하였다. Table 8은 각 case별 실내외 융합 모델의 방식을 정리한 표이다. 8개의 실내외 정합 case별로 1~8번으로 구성하였고, 이를 검사점을 통한 정확도 평가를 실시하여 그 결과를 Table 9~12와 같이 정리하였다.
Table 8 Overview of indoor and outdoor registration models
Case | Indoor (Terrestrial LiDAR) | Outdoor (Drone LiDAR) | Registration method |
---|---|---|---|
1 | Terrestrial LiDAR model (Target registration) | Drone LiDAR model (@30 m) | Target registration |
2 | Visual alignment | ||
3 | Drone LiDAR model (@50 m) | Target registration | |
4 | Visual alignment | ||
5 | Terrestrial LiDAR model (Auto and visual alignment) | Drone LiDAR model (@30 m) | Target registration |
6 | Visual alignment | ||
7 | Drone LiDAR model (@50 m) | Target registration | |
8 | Visual alignment |
Table 9 Accuracy assessment of fused models (case 1 and case 2)
Checkpoint | Model no. 1 | Model no. 2 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.018 | -0.008 | 0.027 | -0.018 | -0.008 | 0.027 |
CP6 | 0.019 | -0.027 | 0.008 | 0.019 | -0.027 | 0.008 |
CP7 | 0.001 | -0.013 | 0.016 | 0.001 | -0.013 | 0.016 |
CP8 | 0.001 | -0.034 | 0.032 | 0.001 | -0.034 | 0.032 |
CP9 | 0.006 | -0.018 | 0.005 | 0.006 | -0.018 | 0.005 |
CP10 | 0.020 | -0.036 | -0.013 | 0.020 | -0.036 | -0.013 |
CP11 | 0.003 | -0.041 | -0.022 | 0.003 | -0.041 | -0.023 |
RMSE | 0.020 | 0.023 | 0.018 | 0.023 | 0.023 | 0.020 |
Table 9는 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 1의 RMSE는 0.020, 0.023, 0.018 m로 나타났으며, case 2는 0.023, 0.023, 0.020 m로 유사한 수준의 정확도로 확인되었다.
Table 10은 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 3의 RMSE는 각각 0.045, 0.031, 0.018 m로 나타났으며, case 4는 0.041, 0.026, 0.020 m로 두 모델의 정확도는 Table 9의 결과와 같이 비슷한 것으로 확인되었으나 고도 30 m일 때 보다는 낮은 정확도로 나타났다.
Table 10 Accuracy assessment of fused models (case 3 and case 4)
Checkpoint | Model no. 3 | Model no. 4 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.020 | -0.002 | 0.039 | -0.036 | -0.002 | 0.038 |
CP6 | -0.028 | -0.047 | 0.001 | -0.029 | -0.034 | -0.001 |
CP7 | -0.024 | -0.026 | 0.015 | -0.019 | -0.031 | 0.013 |
CP8 | -0.055 | -0.055 | 0.023 | -0.049 | -0.044 | 0.020 |
CP9 | -0.064 | -0.037 | -0.003 | -0.056 | -0.025 | -0.006 |
CP10 | -0.070 | -0.035 | -0.010 | -0.054 | -0.031 | -0.016 |
CP11 | -0.072 | -0.039 | -0.018 | -0.058 | -0.037 | -0.024 |
RMSE | 0.045 | 0.031 | 0.018 | 0.041 | 0.026 | 0.020 |
Table 11은 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 5의 RMSE는 0.066, 0.036, 0.131 m로 각각 나타났으며, case 6은 0.067, 0.036, 0.132 m로 두 모델의 정확도는 비슷하게 나타났으나 RMSE가 높아졌고, Z 방향으로는 약 13 cm정도의 차이가 확인되었다.
Table 11 Accuracy assessment of fusion models (case 5 and 6)
Checkpoint | Model no. 5 | Model no. 6 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | 0.092 | 0.069 | 0.073 | 0.092 | 0.069 | 0.073 |
CP6 | 0.065 | 0.006 | 0.108 | 0.065 | 0.006 | 0.108 |
CP7 | 0.104 | 0.063 | 0.130 | 0.104 | 0.063 | 0.130 |
CP8 | 0.092 | 0.042 | 0.173 | 0.092 | 0.042 | 0.173 |
CP9 | 0.051 | 0.016 | 0.157 | 0.051 | 0.016 | 0.157 |
CP10 | 0.053 | 0.015 | 0.223 | 0.053 | 0.015 | 0.223 |
CP11 | 0.086 | 0.049 | 0.226 | 0.086 | 0.049 | 0.226 |
RMSE | 0.066 | 0.036 | 0.131 | 0.067 | 0.036 | 0.132 |
Table 12는 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 7의 RMSE는 각각 0.031, 0.020, 0.015 m로 나타났으며, case 8은 0.029, 0.049, 0.017 m 수준으로 나타났다.
Table 12 Accuracy assessment of fusion models (no. 7 and 8)
Checkpoint | Model no. 7 | Model no. 8 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | –0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.010 | 0.001 | -0.021 | -0.009 | -0.040 | -0.029 |
CP6 | -0.014 | -0.033 | -0.001 | -0.010 | -0.073 | -0.006 |
CP7 | -0.007 | -0.012 | 0.026 | -0.003 | -0.051 | 0.019 |
CP8 | -0.033 | -0.037 | 0.020 | -0.025 | -0.075 | 0.016 |
CP9 | -0.038 | -0.022 | -0.001 | -0.031 | -0.063 | -0.004 |
CP10 | -0.045 | -0.015 | -0.010 | -0.036 | -0.058 | -0.011 |
CP11 | -0.047 | -0.020 | -0.009 | -0.037 | -0.061 | -0.009 |
RMSE | 0.031 | 0.020 | 0.015 | 0.029 | 0.049 | 0.017 |
전체 8가지 case별 모델의 정확도 평가를 수행한 결과를 전체적으로 확인하면 실내 및 실외 모델의 정합 방식에 따라서는 큰 차이가 없는 것으로 확인되었다. 타겟 정합 실내 모델과 고도 30 m의 실외 모델을 융합한 case 1과 2, auto and visual alignment 내 정합 모델과 고도 50 m의 실외 모델을 융합한 case 7의 정확도가 높은 것으로 확인되었다. 그리고, 타겟 정합 실내 모델과 비행 고도 50 m 실외 모델을 융합한 case 3과 4도 약 4 cm 이하의 RMSE를 나타내어 양호한 결과를 확인할 수 있었다. Auto and visual alignment 실내 정합 모델과 비행 고도 30 m실외 모델을 융합한 case 5와 6의 RMSE가 높아 정확도가 낮은 것으로 확인되었다.
본 연구에서는 지상 LiDAR와 드론 LiDAR를 통해 실내 및 실외 모델을 융합하여 3차원 모델을 구축하고, 이를 건축물 및 시설물의 붕괴와 같은 재난현장조사에 효율적으로 활용하기 위해 정확도 평가를 수행하였다. 정확도 평가는 검사점 좌표 비교를 통해 수행하였고, 실내 및 실외 각각의 모델과 실내외 정합 모델을 각각 수행하여 다음과 같은 결과를 확인하였다.
첫째, 타겟 정합과 auto and visual alignment 정합 2가지 실내 모델과 드론 비행 고도 30 m와 50 m2가지 case로 총 4개 case에 대해 정확도 평가를 실시한 결과, 실내 모델의 RMSE는 약 2 cm, 실외 모델은 약 3 cm 정도의 높은 정확도를 확인하였다. 이에, 타겟의 설치가 필요하지 않은 auto and visual alignment 방식과 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있는 것으로 확인되어 실제 현장에서 유용할 것으로 판단된다.
둘째, 실내외 8가지 case별로 건물 3차원 모델 생성 및 정확도를 평가한 결과, 정합 방식별 3D 모델 정확도는 근소한 차이의 오차가 발생함을 알 수 있었다. 그리고 타겟 정합 실내 모델과 고도 30 m의 실외 모델의 융합한 case의 RMSE가 0.020, 0.023, 0.018 m로 가장 양호하게 나타났으며, auto and visual alignment 실내 모델과 비행 고도 30 m에서 구축한 실외 모델을 융합한 case의 정확도가 가장 낮은 것으로 확인되었다. 또한, auto and visual alignment 실내 모델과 고도 50 m 실외 모델을 융합한 case의 RMSE가 0.029, 0.049, 0.017 m로 양호하게 확인되어 제약이 많은 재난현장에서 활용 가능성이 충분한 것으로 판단된다. 따라서, 본 연구에서는 지상 및 드론 LiDAR를 활용하여 구축한 모델과 두 LiDAR를 통해 구축한 융합 모델의 정확도를 평가한 결과를 통해 재난현장조사에 활용할 수 있는 가능성을 확인하였으며, 재난현장의 상황에 맞게 활용한다면 더욱 효율적이고 신속한 현장조사가 이루어질 것으로 생각된다.
이 논문은 2024년 국립재난안전연구원의 “재난안전관리업무지원기술개발(R&D)-이동형 로봇기반 재난사고 현장조사 공유 기술개발(NDMI-2024-06-02)”의 지원으로 수행되었습니다.
No potential conflict of interest relevant to this article was reported.
Korean J. Remote Sens. 2024; 40(6): 1369-1378
Published online December 31, 2024 https://doi.org/10.7780/kjrs.2024.40.6.2.8
Copyright © Korean Society of Remote Sensing.
정용한1, 임언택1, 구 슬1, 김성삼2*
1국립재난안전연구원 재난원인조사실 연구원
2국립재난안전연구원 재난원인조사실 시설연구사
Yonghan Jung1 , Eontaek Lim1 , Seul Koo1 , Seongsam Kim2*
1Researcher, Disaster Scientific Investigation Division, National Disaster Management Research Institute, Ulsan, Republic of Korea
2Research Officer, Disaster Scientific Investigation Division, National Disaster Management Research Institute, Ulsan, Republic of Korea
Correspondence to:Seongsam Kim
E-mail: sskim73@korea.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
This study aims to evaluate the applicability of ground and drone light detection and ranging (LiDAR) for use in disaster sites where damage to facilities and structures has occurred. For this purpose, 3D data was acquired from a disaster environment building of the Korea Institute of Robot and Technology Convergence, using Terrestrial LiDAR for indoor areas and drone LiDAR for outdoor areas. The indoor data were aligned using different methods (target registration, auto, and visual alignment), while the outdoor data were modeled at two different altitudes (30 m and 50 m), resulting in two separate 3D models for each scenario. An accuracy assessment of each model was conducted, revealing that the indoor model’s root mean square error (RMSE) was approximately 2 cm, while the outdoor model’s RMSE was around 3 cm. Additionally, indoor and outdoor models were aligned across eight different cases, with accuracy evaluations carried out accordingly. The results showed no significant differences based on the alignment method. The best accuracy was observed in the alignment model between the target registered indoor model and the 30 m altitude outdoor model, with RMSE values of 0.020, 0.023, and 0.018, respectively. In contrast, the auto and visual alignment indoor model combined with the outdoor model at a 30 m altitude showed the lowest accuracy. Based on these findings, it is anticipated that diverse investigations can be conducted by integrating ground and drone LiDAR data, depending on the type of disaster and site conditions.
Keywords: Terrestrial LiDAR, Drone LiDAR, Accuracy assessment, Disaster investigation
Light detection and ranging (LiDAR)은 초당 수 천에서 수 만개의 레이저 펄스를 활용하여 주변 대상물을 스캔(scan)하는 기술로 정밀한 지도제작 및 3차원 모델 구축이 가능하다(Jung et al., 2023). LiDAR는 자체 성능과 처리에 따라 다양한 정밀도로 나타나는데, Lee and Park (2019)은 다양한 LiDAR 플랫폼 중에 장비를 고정시켜 활용하는 static scanner가 mobile mapping system 및 handheld scanner에 비해 실내 공간 정보 구축에 효과적으로 활용될 수 있다고 하였고, Park and Um (2020)은 취득한 스캔 데이터의 iterative closest point (ICP)와 형상 정합에 따른 정확도를 비교하여 활용 가능성을 확인하였다.
지상 LiDAR를 활용한 연구로 Park et al. (2024)은 지상 LiDAR를 활용하여 취득 산림 데이터에서 개체목을 자동으로 분리하는 파이프라인(pipeline) 기반 알고리즘을 구현하는 연구를 수행하였다. Seo et al. (2016)은 지상 LiDAR를 통해 산불 및 산사태 발생 지역과 일반 산지의 연간 토사 유입량을 비교하여 산림 훼손지의 조기 복구의 중요성과 관리방안에 대한 연구를 수행하였다. 또한, Lee et al. (2016)은 지상 LiDAR를 통해 3차원 자료를 구축하여 지적성과 등과 분석을 통해 농업지역 경지면적을 산출하는 연구를 수행하였다. Kim et al. (2017)은 LiDAR 반사율 특성을 이용하여 무인 차량의 보다 효과적인 주행 가능 영역 검출에 대해 연구하였다.
최근에는 지상 LiDAR뿐만 아니라 드론을 함께 활용하는 연구도 수행되고 있다. 드론 영상 및 LiDAR, 지상 LiDAR 데이터 정합을 통해 건물 또는 시설물에 대한 모델링을 수행하여 building information modeling 활용을 위한 데이터를 효과적으로 생성할 수 있으며(Lee, 2023; Lee and Suh, 2022), 시뮬레이션 데이터로 학습한 딥러닝 기법을 적용하여 자동으로 3D 건물 모델링을 수행하는 연구도 진행되었다(Shin et al., 2023). 또한, Park (2017)도 도시 내 수목의 3차원 환경정보 데이터를 생성하기 위한 디바이스와 방법론으로 unmanned aerial vehicle (UAV)과 structure from motion-multi view stereo, solid modeling을 제시하여 단일 수목의 정량화 하는 연구를 수행하였고, Kim et al. (2016)은 지상 LiDAR와 모션 센서(motion sensor), real time kinematic (RTK) global navigation satellite system (GNSS)을 함께 선박에 고정·설치하여 해안선을 일정하게 모니터링 할 수 있는 해상모바일라이다(shipborne mobile LiDAR) 시스템을 구축하였으며, Trepekli et al. (2022)은 UAV에 탑재된 조명 및 LiDAR를 활용하여 지역 규모의 도시 홍수 모델링 및 평가를 개선하는 연구를 수행하였다.
이에 본 연구에서는 다양한 분야 활용되고 있는 지상 및 드론 LiDAR를 통해 시설물 및 건축물의 피해가 발생한 재난현장에서 활용하기 위한 정확도 평가를 수행하였다. 연구 대상 건축물의 실내를 지상 LiDAR, 실외를 드론 LiDAR를 통해 3차원 데이터를 취득하여 모델링하였다. 또한, 두 데이터를 융합한 하나의 3차원 모델을 구축하여 정확도 평가를 실시하였으며, 정확도는 실내와 실외 각각 사전에 설치한 검사점을 통해 수행하였다. 따라서 지상 및 드론 LiDAR를 통해 구축된 모델과 두 데이터를 융합한 모델의 정확도를 평가하여 실제 재난현장에서 활용될 수 있는 가능성을 확인하고자 한다.
본 연구의 실내외 데이터 취득 대상은 한국로봇융합연구원 안전로봇실증센터의 재난환경건축물이다(Fig. 1). 본 건물은 농연 환경 극복, 인명탐지, 건축물 탐색 및 이동 성능 등 다양한 시험을 위한 지상 2층 건물이다. 건축물의 전체 모습은 Fig. 1과 같으며, 연면적 770 m2 (약 232평)의 지상 2층 건물이다. 대상 건물의 1층 내부 공간 중앙부분에 2개의 기둥이 서있는 트인 공간이고, 2층은 내부에 8개의 격방이 있고 그 둘레로 복도가 이어진 구조이다. 1층과 2층은 양쪽에 계단이 연결되어 있다.
본 연구는 더욱 정밀하고 3차원적인 재난원인 및 피해조사를 위하여 지상 및 드론 LiDAR를 통해 취득한 건축물의 실내외 데이터를 융합하고 그 정확도를 평가하고자 한다. 따라서 정확도 평가를 위한 검사점 설치 및 측정, 실내 데이터 취득을 위한 지상 LiDAR 측량, 실외 데이터 취득을 위한 드론 LiDAR 측량을 순서대로 수행하였다. 이후, 지상 및 드론 LiDAR로 취득한 포인트 클라우드를 case별로 각각 정합하여 하나의 실내 모델과 실외 모델을 구축하였고, 두 데이터를 다시 융합하여 건축물 전체 모델을 구성하였다. 사전에 측량을 통해 취득한 검사점과 좌표 비교를 통해 정확도를 평가하는 방법으로 수행되었다.
실내외 융합 데이터에 대한 정확도 평가를 위해 본 연구에서 검사점 비교를 선택하였다. 검사점은 평면 타겟(black and white)을 부착하는 방식으로 설치하였다. 실내에는 1층 기둥 및 벽에 총 4개의 검사점을 설치하였고, 실외는 주변 장애물 측정이 불가한 지점을 제외하고 취득이 가능한 총 7점을 배치하였다(Fig. 2).
검사점의 좌표 취득을 위해 Trimble R10 GNSS 수신기와 Leica Total Station TS10을 활용하였고, 두 장비의 세부 규격은 Table 1과 같다. 먼저, GNSS 수신기를 통해 건축물 실외에 Total Station 장비를 세우기 위한 기계점과 기준으로 활용할 후시점, 좌표 취득 정확도를 확인하기 위한 확인점의 좌표를 취득하였다. 확인점에서 dx=8 mm, dy=13 mm, dz=5 mm로 양호하게 나타남을 확인한 이후 Total Station을 활용하여 검사점의 좌표를 취득하였다(Table 2).
Table 1 . Specifications for GNSS and Total Station.
Equipment | Specification | Image | ||
---|---|---|---|---|
Trimble R10 | Positioning accuracy (Static, mm) | Hor. 3 ± 0.1 ppm | ||
Ver. 3.5 ± 0.4 ppm | ||||
Positioning accuracy (RTK, mm) | Hor. 8 ± 1 ppm | |||
Ver. 15 ± 1 ppm | ||||
Leica TS10 | Range (m) | Non-prism | 0.9–1,000 | |
Prism | 0.9–3,500 | |||
Accuracy (mm) | Non-prism | 2 ± 2 ppm | ||
Prism | 1 ± 1.5 ppm |
RTK: real time kinematic..
Table 2 . Checkpoint coordinates.
Point | X (m) | Y (m) | Z (m) |
---|---|---|---|
CP1 | 391256.621 | 237467.432 | 13.163 |
CP2 | 391267.886 | 237466.472 | 14.157 |
CP3 | 391262.690 | 237472.163 | 14.132 |
CP4 | 391259.727 | 237463.035 | 12.873 |
CP5 | 391268.801 | 237477.763 | 20.862 |
CP6 | 391276.361 | 237468.792 | 15.292 |
CP7 | 391274.019 | 237471.553 | 20.757 |
CP8 | 391276.236 | 237462.674 | 20.841 |
CP9 | 391275.910 | 237462.391 | 15.295 |
CP10 | 391270.663 | 237456.680 | 15.407 |
CP11 | 391269.822 | 237457.285 | 20.831 |
대상 건축물의 실내 데이터는 Leica BLK360 LiDAR 장비를 활용하여 취득하였다(Table 3). BLK360은 레이저 스캐너에 high dynamic range 및 열화상 카메라가 내장되어 있어 RGB 영상도 함께 취득 가능하다. 360,000 pts/s로 최대 60 m까지 스캔 데이터를 취득할 수 있지만 유효한 스캔 범위는 최대 20–30 m 정도로 확인되었다. 스캐너의 유효 범위가 짧은 대신 크기가 작고, 전용 삼각대를 통해 높이 조절 또한 편리하여 실내 스캔에 활용성이 뛰어나다. 스캔 모드는 신속, 표준, 고밀도 3가지로 스캔 가능하며, 본 연구에서는 해상도 0.5 mm의 고밀도 모드로 수행하였다.
Table 3 . Specifications for terrestrial LiDAR.
Equipment | Specification | Image | |
---|---|---|---|
Leica BLK360 | Field of view (°) | Hor. 360° / Ver. 300° | |
Range (m) | Min. 0.6–up to 60m | ||
Pint measurement rate (pts/sec) | Max. 360,000 pts/sec | ||
Ranging accuracy (mm) | 4 (at 10 m) / 7 (at 20 m) | ||
Measurement modes | 3 user selectable resolution settings |
BLK360 자료 정합은 전용 software (SW)인 Cyclone에서 수행하게 되는데, SW내 정합 기능은 크게 타겟 정합, auto alignment, visual alignment 3가지 방법이 있다. 타겟 정합은 취득한 두 스캔 데이터 내 3개 이상의 전용 타겟을 기준으로 정합하는 방법으로 주로 기하학적 타겟 기반 정합 알고리즘과 최소제곱법을 핵심으로 사용한다. 사전에 스캔 포지션을 계획하고 그에 맞게 타겟을 설치 후 수행하는 준비가 필요하지만 그 만큼 높은 정밀도를 확보할 수 있다. Auto alignment는 두 스캔 데이터 간의 중복되는 공통 영역을 SW에서 자동으로 탐지하여 정합을 수행하는 방법으로 특징점 추출 및 ICP 알고리즘을 활용한다. 데이터 처리에서는 가장 효율적인 정합 방법이지만 두 스캔 데이터 간 공통 영역을 위해 더욱 세심하고 조밀한 스캔 포지션 계획을 고려해야 한다.
Visual alignment는 타겟을 설치하지 않고 두 스캔 데이터 간 공통영역도 충분하지 않을 때, 스캔된 공통 영역을 최대한 시각적으로 맞춘 후 ICP 알고리즘을 통해 정합하는 방법이다. Auto alignment와 같이 ICP 알고리즘을 통한 정합 방법이지만 초기 정렬을 수동으로 한다는 점에서 차이가 있다. 타겟 정합이 더욱 간편하게 정합할 수 있지만 실제 재난현장에서는 타겟의 설치가 불가능한 경우가 많기 때문에 별도의 타겟 설치가 필요 없는 auto alignment와 visual alignment가 활용 가능성이 높다. 이에 본 연구에서는 타겟 정합과 auto alignment와 visual alignment를 병행한 정합으로 2가지 방식으로 정합을 수행하였다. 실내 데이터 취득을 위한 스캔 포지션 및 타겟의 위치는 다음 그림과 같다(Fig. 3). 스캔 포지션의 경우 많을수록 정밀도는 높아지지만 효율성과 신속성을 높이기 위해 정합이 가능한 최소 스캔으로 계획하여 수행하였다.
건축물의 실외 데이터 취득은 DJIMatrice 300 RTK 드론과 Zenmuse L1 LiDAR 센서를 활용하였다(Table 4). Matrice 300 RTK는 방진 및 방수가 가능한 IP45 등급으로 -20~50°C 내에서 최대 12 m/s의 풍속에도 비행할 수 있으며 최대 55분까지 비행할 수 있다. 또한, GNSS를 통한 자체 위치정보를 취득할 수 있는 RTK 모델로 그 정확도가 수평 ±1 cm, 수직 ±1.5 cm로 매우 높다. 특히, Matrice 300 RTK의 장점은 다양한 센서와 호환이 가능하다는 것이다. 일반적으로 활용하는 광학, 열화상, 다중분광센서뿐만 아니라 LiDAR 센서까지 호환된다. 본 연구에서는 DJI Zenmuse L1 LiDAR 센서를 활용하였다.
Table 4 . Specifications for drone and LiDAR sensor.
Equipment | Specification | Image | ||
---|---|---|---|---|
DJI Matrice 300 RTK | Maximum takeoff weight (kg) | 9 | ||
Accuracy (m) | Hovering (P mode) | Hor. ±0.1 | ||
Ver. ±0.1 | ||||
Positioning (RTK) | Hor. ±0.01 | |||
Ver. ±0.015 | ||||
Fight time (min.) | Max. 55 | |||
Operating temperature (°C) | –20 to 50 | |||
DJI Zenmuse L1 | Ranging accuracy (cm) | 3 (at 100 m) | ||
Pint measurement rate (pts/s) | Max. 480,000 | |||
Supported max. returns | 3 returns | |||
Scan mode | Repetitive/Non-repetitive | |||
Field of view (°) | Repetitive: 70.4 × 4.5 | |||
Non-repeatitive: 70.4 × 77.2 |
Zenmuse L1은 최대 3회 다중 반사를 지원하며 거리 측정 정확도는 3 cm@ 100 m이다. 특징으로는 반복 패턴, 비반복 패턴의 2가지 스캔모드가 있다. 반복 패턴은 70.4°(수평) × 4.5°(수직)의 field of view (FOV)를 가지며 선형의 패턴으로 반복 스캔을 수행하여 균일한 데이터 취득이 가능하며, 비반복 패턴은 70.4°(수평) × 77.2°(수직)의 FOV를 가지며 8자 형태의 패턴으로 약 1초 후 원형에 가까운 패턴으로 넓은 부분을 스캔하며 중심에 가까울수록 포인트의 밀도가 높게 취득되는 특징이 있다.
드론 LiDAR를 통해 취득하는 데이터는 비행 고도, 속도, 중복률, 반사 횟수 등 다양한 조건에 밀도가 달라진다. 본 연구에서는 고도를 30 m, 50 m로 달리하여 취득하였고 다른 조건은 동일하게 설정하였다. 비행은 normal 방식과 건축물의 측면 데이터의 취득을 위한 smart oblique 방식을 병행하여 수행하였다(Table 5).
Table 5 . Flight settings and results.
Altitude (m) | Method | Shooting angle (°) | Point density (point/m2) | Ground sample distance (GSD, cm/pixel) |
---|---|---|---|---|
30 | Normal | 90 | 4,083 | 0.82 |
Smart oblique | 45 | 2,663 | 1.16 | |
50 | Normal | 90 | 2,450 | 1.36 |
Smart oblique | 45 | 1,597 | 1.93 |
취득한 데이터의 처리는 전용 SW인DJI Terra를 활용하였다. Terra에서는 광학, 다중분광, LiDAR 등의 다양한 데이터 처리를 수행할 수 있으며, LiDAR 스캔 데이터의 경우 유효 거리 범위를 입력하여 불필요한 데이터를 제외하고 처리할 수 있다. 데이터 처리 후 주요 성과물로는 3D 모델, 정사영상, digital surface model (DSM), digital terrain model (DTM) 등이 있다.
지상 LiDAR와 드론 LiDAR를 이용하여 각각의 실내외 정합 모델을 구축하였다(Figs. 4, 5). 실내 모델은 타겟 정합과 auto and visual alignment 정합 모델, 실외는 고도 30 m와 50 m모델로 총 4개의 case에 대해 실내외 각각의 검사점을 통해 먼저 정확도 평가를 실시하였다.
Table 6은 지상 LiDAR를 활용하여 구축한 실내 모델의 정확도 평가 결과이다. 타겟정합 RMSE는 X, Y, Z 방향으로 각각 0.020, 0.020, 0.005m이며, auto and visual alignment 정합 방식에서는 X, Y, Z 방향으로 각각 0.015, 0.021, 0.010 m로 나타났다. 두 정합 방식 간의 RMSE는 근소한 차이로 발생하고 있으며, 두 실내 모델에서의 정확도는 대체로 높은 것으로 나타났다. 이에 실제 현장에서 활용할 때 타겟의 별도 설치가 필요하지 않은 auto and visual alignment 방식의 효율성이 높을 것으로 판단된다.
Table 6 . Accuracy assessment of indoor models (each registration method).
Checkpoint | Target registration | Auto and visual alignment | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | 0.019 | 0.018 | -0.005 | 0.014 | 0.019 | -0.010 |
CP2 | 0.022 | 0.020 | -0.005 | 0.016 | 0.020 | -0.009 |
CP3 | 0.019 | 0.023 | -0.003 | 0.015 | 0.024 | -0.005 |
CP4 | 0.020 | 0.018 | -0.007 | 0.015 | 0.019 | -0.014 |
RMSE | 0.020 | 0.020 | 0.005 | 0.015 | 0.021 | 0.010 |
Table 7은 드론 LiDAR를 활용하여 구축한 실외 모델의 정확도 평가 결과이다. 고도별 두 모델의 RMSE의 차이는 근소하게 나타났으며, 전반적으로 3 cm정도로 확인되어 별도의 지상기준점측량없이 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있어 실제 현장에서 유용할 것으로 판단된다.
Table 7 . Accuracy assessment of outdoor models (each flight altitude).
Checkpoint | Flight altitude @30 m | Flight altitude @50 m | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP5 | 0.024 | 0.021 | 0.010 | 0.024 | 0.012 | -0.050 |
CP6 | 0.004 | -0.028 | -0.039 | 0.000 | -0.034 | -0.039 |
CP7 | 0.016 | -0.009 | -0.022 | 0.017 | -0.011 | -0.009 |
CP8 | -0.013 | -0.043 | -0.014 | -0.014 | -0.043 | -0.016 |
CP9 | -0.030 | -0.026 | -0.037 | -0.029 | -0.030 | -0.033 |
CP10 | -0.044 | -0.024 | -0.038 | -0.048 | -0.018 | -0.035 |
CP11 | -0.037 | -0.028 | -0.043 | -0.040 | -0.022 | -0.032 |
RMSE | 0.027 | 0.027 | 0.032 | 0.029 | 0.027 | 0.033 |
지상 및 드론 LiDAR를 통해 구축한 각각의 모델들을 융합하여 정확도 평가를 실시하였다. 지상 LiDAR를 통해 구축한 실내 모델이 더 정확한 것으로 확인되어 실내 모델을 기준으로 실외 모델 정합을 수행하였다. 실내외 각각 2가지 방식의 모델을 BLK360 전용 SWCyclone의 타겟정합과 visual alignment 방식으로 각각 정합하여 총 8가지 융합 모델을 생성하였다. Table 8은 각 case별 실내외 융합 모델의 방식을 정리한 표이다. 8개의 실내외 정합 case별로 1~8번으로 구성하였고, 이를 검사점을 통한 정확도 평가를 실시하여 그 결과를 Table 9~12와 같이 정리하였다.
Table 8 . Overview of indoor and outdoor registration models.
Case | Indoor (Terrestrial LiDAR) | Outdoor (Drone LiDAR) | Registration method |
---|---|---|---|
1 | Terrestrial LiDAR model (Target registration) | Drone LiDAR model (@30 m) | Target registration |
2 | Visual alignment | ||
3 | Drone LiDAR model (@50 m) | Target registration | |
4 | Visual alignment | ||
5 | Terrestrial LiDAR model (Auto and visual alignment) | Drone LiDAR model (@30 m) | Target registration |
6 | Visual alignment | ||
7 | Drone LiDAR model (@50 m) | Target registration | |
8 | Visual alignment |
Table 9 . Accuracy assessment of fused models (case 1 and case 2).
Checkpoint | Model no. 1 | Model no. 2 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.018 | -0.008 | 0.027 | -0.018 | -0.008 | 0.027 |
CP6 | 0.019 | -0.027 | 0.008 | 0.019 | -0.027 | 0.008 |
CP7 | 0.001 | -0.013 | 0.016 | 0.001 | -0.013 | 0.016 |
CP8 | 0.001 | -0.034 | 0.032 | 0.001 | -0.034 | 0.032 |
CP9 | 0.006 | -0.018 | 0.005 | 0.006 | -0.018 | 0.005 |
CP10 | 0.020 | -0.036 | -0.013 | 0.020 | -0.036 | -0.013 |
CP11 | 0.003 | -0.041 | -0.022 | 0.003 | -0.041 | -0.023 |
RMSE | 0.020 | 0.023 | 0.018 | 0.023 | 0.023 | 0.020 |
Table 9는 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 1의 RMSE는 0.020, 0.023, 0.018 m로 나타났으며, case 2는 0.023, 0.023, 0.020 m로 유사한 수준의 정확도로 확인되었다.
Table 10은 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 3의 RMSE는 각각 0.045, 0.031, 0.018 m로 나타났으며, case 4는 0.041, 0.026, 0.020 m로 두 모델의 정확도는 Table 9의 결과와 같이 비슷한 것으로 확인되었으나 고도 30 m일 때 보다는 낮은 정확도로 나타났다.
Table 10 . Accuracy assessment of fused models (case 3 and case 4).
Checkpoint | Model no. 3 | Model no. 4 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.020 | -0.002 | 0.039 | -0.036 | -0.002 | 0.038 |
CP6 | -0.028 | -0.047 | 0.001 | -0.029 | -0.034 | -0.001 |
CP7 | -0.024 | -0.026 | 0.015 | -0.019 | -0.031 | 0.013 |
CP8 | -0.055 | -0.055 | 0.023 | -0.049 | -0.044 | 0.020 |
CP9 | -0.064 | -0.037 | -0.003 | -0.056 | -0.025 | -0.006 |
CP10 | -0.070 | -0.035 | -0.010 | -0.054 | -0.031 | -0.016 |
CP11 | -0.072 | -0.039 | -0.018 | -0.058 | -0.037 | -0.024 |
RMSE | 0.045 | 0.031 | 0.018 | 0.041 | 0.026 | 0.020 |
Table 11은 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 5의 RMSE는 0.066, 0.036, 0.131 m로 각각 나타났으며, case 6은 0.067, 0.036, 0.132 m로 두 모델의 정확도는 비슷하게 나타났으나 RMSE가 높아졌고, Z 방향으로는 약 13 cm정도의 차이가 확인되었다.
Table 11 . Accuracy assessment of fusion models (case 5 and 6).
Checkpoint | Model no. 5 | Model no. 6 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | 0.092 | 0.069 | 0.073 | 0.092 | 0.069 | 0.073 |
CP6 | 0.065 | 0.006 | 0.108 | 0.065 | 0.006 | 0.108 |
CP7 | 0.104 | 0.063 | 0.130 | 0.104 | 0.063 | 0.130 |
CP8 | 0.092 | 0.042 | 0.173 | 0.092 | 0.042 | 0.173 |
CP9 | 0.051 | 0.016 | 0.157 | 0.051 | 0.016 | 0.157 |
CP10 | 0.053 | 0.015 | 0.223 | 0.053 | 0.015 | 0.223 |
CP11 | 0.086 | 0.049 | 0.226 | 0.086 | 0.049 | 0.226 |
RMSE | 0.066 | 0.036 | 0.131 | 0.067 | 0.036 | 0.132 |
Table 12는 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 7의 RMSE는 각각 0.031, 0.020, 0.015 m로 나타났으며, case 8은 0.029, 0.049, 0.017 m 수준으로 나타났다.
Table 12 . Accuracy assessment of fusion models (no. 7 and 8).
Checkpoint | Model no. 7 | Model no. 8 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | –0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.010 | 0.001 | -0.021 | -0.009 | -0.040 | -0.029 |
CP6 | -0.014 | -0.033 | -0.001 | -0.010 | -0.073 | -0.006 |
CP7 | -0.007 | -0.012 | 0.026 | -0.003 | -0.051 | 0.019 |
CP8 | -0.033 | -0.037 | 0.020 | -0.025 | -0.075 | 0.016 |
CP9 | -0.038 | -0.022 | -0.001 | -0.031 | -0.063 | -0.004 |
CP10 | -0.045 | -0.015 | -0.010 | -0.036 | -0.058 | -0.011 |
CP11 | -0.047 | -0.020 | -0.009 | -0.037 | -0.061 | -0.009 |
RMSE | 0.031 | 0.020 | 0.015 | 0.029 | 0.049 | 0.017 |
전체 8가지 case별 모델의 정확도 평가를 수행한 결과를 전체적으로 확인하면 실내 및 실외 모델의 정합 방식에 따라서는 큰 차이가 없는 것으로 확인되었다. 타겟 정합 실내 모델과 고도 30 m의 실외 모델을 융합한 case 1과 2, auto and visual alignment 내 정합 모델과 고도 50 m의 실외 모델을 융합한 case 7의 정확도가 높은 것으로 확인되었다. 그리고, 타겟 정합 실내 모델과 비행 고도 50 m 실외 모델을 융합한 case 3과 4도 약 4 cm 이하의 RMSE를 나타내어 양호한 결과를 확인할 수 있었다. Auto and visual alignment 실내 정합 모델과 비행 고도 30 m실외 모델을 융합한 case 5와 6의 RMSE가 높아 정확도가 낮은 것으로 확인되었다.
본 연구에서는 지상 LiDAR와 드론 LiDAR를 통해 실내 및 실외 모델을 융합하여 3차원 모델을 구축하고, 이를 건축물 및 시설물의 붕괴와 같은 재난현장조사에 효율적으로 활용하기 위해 정확도 평가를 수행하였다. 정확도 평가는 검사점 좌표 비교를 통해 수행하였고, 실내 및 실외 각각의 모델과 실내외 정합 모델을 각각 수행하여 다음과 같은 결과를 확인하였다.
첫째, 타겟 정합과 auto and visual alignment 정합 2가지 실내 모델과 드론 비행 고도 30 m와 50 m2가지 case로 총 4개 case에 대해 정확도 평가를 실시한 결과, 실내 모델의 RMSE는 약 2 cm, 실외 모델은 약 3 cm 정도의 높은 정확도를 확인하였다. 이에, 타겟의 설치가 필요하지 않은 auto and visual alignment 방식과 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있는 것으로 확인되어 실제 현장에서 유용할 것으로 판단된다.
둘째, 실내외 8가지 case별로 건물 3차원 모델 생성 및 정확도를 평가한 결과, 정합 방식별 3D 모델 정확도는 근소한 차이의 오차가 발생함을 알 수 있었다. 그리고 타겟 정합 실내 모델과 고도 30 m의 실외 모델의 융합한 case의 RMSE가 0.020, 0.023, 0.018 m로 가장 양호하게 나타났으며, auto and visual alignment 실내 모델과 비행 고도 30 m에서 구축한 실외 모델을 융합한 case의 정확도가 가장 낮은 것으로 확인되었다. 또한, auto and visual alignment 실내 모델과 고도 50 m 실외 모델을 융합한 case의 RMSE가 0.029, 0.049, 0.017 m로 양호하게 확인되어 제약이 많은 재난현장에서 활용 가능성이 충분한 것으로 판단된다. 따라서, 본 연구에서는 지상 및 드론 LiDAR를 활용하여 구축한 모델과 두 LiDAR를 통해 구축한 융합 모델의 정확도를 평가한 결과를 통해 재난현장조사에 활용할 수 있는 가능성을 확인하였으며, 재난현장의 상황에 맞게 활용한다면 더욱 효율적이고 신속한 현장조사가 이루어질 것으로 생각된다.
이 논문은 2024년 국립재난안전연구원의 “재난안전관리업무지원기술개발(R&D)-이동형 로봇기반 재난사고 현장조사 공유 기술개발(NDMI-2024-06-02)”의 지원으로 수행되었습니다.
No potential conflict of interest relevant to this article was reported.
Table 1 . Specifications for GNSS and Total Station.
Equipment | Specification | Image | ||
---|---|---|---|---|
Trimble R10 | Positioning accuracy (Static, mm) | Hor. 3 ± 0.1 ppm | ||
Ver. 3.5 ± 0.4 ppm | ||||
Positioning accuracy (RTK, mm) | Hor. 8 ± 1 ppm | |||
Ver. 15 ± 1 ppm | ||||
Leica TS10 | Range (m) | Non-prism | 0.9–1,000 | |
Prism | 0.9–3,500 | |||
Accuracy (mm) | Non-prism | 2 ± 2 ppm | ||
Prism | 1 ± 1.5 ppm |
RTK: real time kinematic..
Table 2 . Checkpoint coordinates.
Point | X (m) | Y (m) | Z (m) |
---|---|---|---|
CP1 | 391256.621 | 237467.432 | 13.163 |
CP2 | 391267.886 | 237466.472 | 14.157 |
CP3 | 391262.690 | 237472.163 | 14.132 |
CP4 | 391259.727 | 237463.035 | 12.873 |
CP5 | 391268.801 | 237477.763 | 20.862 |
CP6 | 391276.361 | 237468.792 | 15.292 |
CP7 | 391274.019 | 237471.553 | 20.757 |
CP8 | 391276.236 | 237462.674 | 20.841 |
CP9 | 391275.910 | 237462.391 | 15.295 |
CP10 | 391270.663 | 237456.680 | 15.407 |
CP11 | 391269.822 | 237457.285 | 20.831 |
Table 3 . Specifications for terrestrial LiDAR.
Equipment | Specification | Image | |
---|---|---|---|
Leica BLK360 | Field of view (°) | Hor. 360° / Ver. 300° | |
Range (m) | Min. 0.6–up to 60m | ||
Pint measurement rate (pts/sec) | Max. 360,000 pts/sec | ||
Ranging accuracy (mm) | 4 (at 10 m) / 7 (at 20 m) | ||
Measurement modes | 3 user selectable resolution settings |
Table 4 . Specifications for drone and LiDAR sensor.
Equipment | Specification | Image | ||
---|---|---|---|---|
DJI Matrice 300 RTK | Maximum takeoff weight (kg) | 9 | ||
Accuracy (m) | Hovering (P mode) | Hor. ±0.1 | ||
Ver. ±0.1 | ||||
Positioning (RTK) | Hor. ±0.01 | |||
Ver. ±0.015 | ||||
Fight time (min.) | Max. 55 | |||
Operating temperature (°C) | –20 to 50 | |||
DJI Zenmuse L1 | Ranging accuracy (cm) | 3 (at 100 m) | ||
Pint measurement rate (pts/s) | Max. 480,000 | |||
Supported max. returns | 3 returns | |||
Scan mode | Repetitive/Non-repetitive | |||
Field of view (°) | Repetitive: 70.4 × 4.5 | |||
Non-repeatitive: 70.4 × 77.2 |
Table 5 . Flight settings and results.
Altitude (m) | Method | Shooting angle (°) | Point density (point/m2) | Ground sample distance (GSD, cm/pixel) |
---|---|---|---|---|
30 | Normal | 90 | 4,083 | 0.82 |
Smart oblique | 45 | 2,663 | 1.16 | |
50 | Normal | 90 | 2,450 | 1.36 |
Smart oblique | 45 | 1,597 | 1.93 |
Table 6 . Accuracy assessment of indoor models (each registration method).
Checkpoint | Target registration | Auto and visual alignment | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | 0.019 | 0.018 | -0.005 | 0.014 | 0.019 | -0.010 |
CP2 | 0.022 | 0.020 | -0.005 | 0.016 | 0.020 | -0.009 |
CP3 | 0.019 | 0.023 | -0.003 | 0.015 | 0.024 | -0.005 |
CP4 | 0.020 | 0.018 | -0.007 | 0.015 | 0.019 | -0.014 |
RMSE | 0.020 | 0.020 | 0.005 | 0.015 | 0.021 | 0.010 |
Table 7 . Accuracy assessment of outdoor models (each flight altitude).
Checkpoint | Flight altitude @30 m | Flight altitude @50 m | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP5 | 0.024 | 0.021 | 0.010 | 0.024 | 0.012 | -0.050 |
CP6 | 0.004 | -0.028 | -0.039 | 0.000 | -0.034 | -0.039 |
CP7 | 0.016 | -0.009 | -0.022 | 0.017 | -0.011 | -0.009 |
CP8 | -0.013 | -0.043 | -0.014 | -0.014 | -0.043 | -0.016 |
CP9 | -0.030 | -0.026 | -0.037 | -0.029 | -0.030 | -0.033 |
CP10 | -0.044 | -0.024 | -0.038 | -0.048 | -0.018 | -0.035 |
CP11 | -0.037 | -0.028 | -0.043 | -0.040 | -0.022 | -0.032 |
RMSE | 0.027 | 0.027 | 0.032 | 0.029 | 0.027 | 0.033 |
Table 8 . Overview of indoor and outdoor registration models.
Case | Indoor (Terrestrial LiDAR) | Outdoor (Drone LiDAR) | Registration method |
---|---|---|---|
1 | Terrestrial LiDAR model (Target registration) | Drone LiDAR model (@30 m) | Target registration |
2 | Visual alignment | ||
3 | Drone LiDAR model (@50 m) | Target registration | |
4 | Visual alignment | ||
5 | Terrestrial LiDAR model (Auto and visual alignment) | Drone LiDAR model (@30 m) | Target registration |
6 | Visual alignment | ||
7 | Drone LiDAR model (@50 m) | Target registration | |
8 | Visual alignment |
Table 9 . Accuracy assessment of fused models (case 1 and case 2).
Checkpoint | Model no. 1 | Model no. 2 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.018 | -0.008 | 0.027 | -0.018 | -0.008 | 0.027 |
CP6 | 0.019 | -0.027 | 0.008 | 0.019 | -0.027 | 0.008 |
CP7 | 0.001 | -0.013 | 0.016 | 0.001 | -0.013 | 0.016 |
CP8 | 0.001 | -0.034 | 0.032 | 0.001 | -0.034 | 0.032 |
CP9 | 0.006 | -0.018 | 0.005 | 0.006 | -0.018 | 0.005 |
CP10 | 0.020 | -0.036 | -0.013 | 0.020 | -0.036 | -0.013 |
CP11 | 0.003 | -0.041 | -0.022 | 0.003 | -0.041 | -0.023 |
RMSE | 0.020 | 0.023 | 0.018 | 0.023 | 0.023 | 0.020 |
Table 10 . Accuracy assessment of fused models (case 3 and case 4).
Checkpoint | Model no. 3 | Model no. 4 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.020 | -0.002 | 0.039 | -0.036 | -0.002 | 0.038 |
CP6 | -0.028 | -0.047 | 0.001 | -0.029 | -0.034 | -0.001 |
CP7 | -0.024 | -0.026 | 0.015 | -0.019 | -0.031 | 0.013 |
CP8 | -0.055 | -0.055 | 0.023 | -0.049 | -0.044 | 0.020 |
CP9 | -0.064 | -0.037 | -0.003 | -0.056 | -0.025 | -0.006 |
CP10 | -0.070 | -0.035 | -0.010 | -0.054 | -0.031 | -0.016 |
CP11 | -0.072 | -0.039 | -0.018 | -0.058 | -0.037 | -0.024 |
RMSE | 0.045 | 0.031 | 0.018 | 0.041 | 0.026 | 0.020 |
Table 11 . Accuracy assessment of fusion models (case 5 and 6).
Checkpoint | Model no. 5 | Model no. 6 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | -0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | 0.092 | 0.069 | 0.073 | 0.092 | 0.069 | 0.073 |
CP6 | 0.065 | 0.006 | 0.108 | 0.065 | 0.006 | 0.108 |
CP7 | 0.104 | 0.063 | 0.130 | 0.104 | 0.063 | 0.130 |
CP8 | 0.092 | 0.042 | 0.173 | 0.092 | 0.042 | 0.173 |
CP9 | 0.051 | 0.016 | 0.157 | 0.051 | 0.016 | 0.157 |
CP10 | 0.053 | 0.015 | 0.223 | 0.053 | 0.015 | 0.223 |
CP11 | 0.086 | 0.049 | 0.226 | 0.086 | 0.049 | 0.226 |
RMSE | 0.066 | 0.036 | 0.131 | 0.067 | 0.036 | 0.132 |
Table 12 . Accuracy assessment of fusion models (no. 7 and 8).
Checkpoint | Model no. 7 | Model no. 8 | ||||
---|---|---|---|---|---|---|
dX (m) | dY (m) | dZ (m) | dX (m) | dY (m) | dZ (m) | |
CP1 | –0.029 | 0.015 | -0.019 | -0.034 | 0.016 | -0.024 |
CP2 | -0.027 | 0.001 | -0.009 | -0.033 | 0.001 | -0.013 |
CP3 | -0.023 | 0.015 | -0.016 | -0.027 | 0.016 | -0.018 |
CP4 | -0.034 | 0.008 | -0.013 | -0.039 | 0.009 | -0.020 |
CP5 | -0.010 | 0.001 | -0.021 | -0.009 | -0.040 | -0.029 |
CP6 | -0.014 | -0.033 | -0.001 | -0.010 | -0.073 | -0.006 |
CP7 | -0.007 | -0.012 | 0.026 | -0.003 | -0.051 | 0.019 |
CP8 | -0.033 | -0.037 | 0.020 | -0.025 | -0.075 | 0.016 |
CP9 | -0.038 | -0.022 | -0.001 | -0.031 | -0.063 | -0.004 |
CP10 | -0.045 | -0.015 | -0.010 | -0.036 | -0.058 | -0.011 |
CP11 | -0.047 | -0.020 | -0.009 | -0.037 | -0.061 | -0.009 |
RMSE | 0.031 | 0.020 | 0.015 | 0.029 | 0.049 | 0.017 |
Ebtihal Taki Al-Khakani 1)† · Watheq Fahem Al-janabi 2)
Korean J. Remote Sens. 2023; 39(1): 99-110