Research Article

Split Viewer

Korean J. Remote Sens. 2024; 40(6): 1369-1378

Published online: December 31, 2024

https://doi.org/10.7780/kjrs.2024.40.6.2.8

© Korean Society of Remote Sensing

재난현장조사 활용을 위한 지상 및 드론 LiDAR 기반 모델 정확도 평가

정용한1, 임언택1, 구 슬1, 김성삼2*

1국립재난안전연구원 재난원인조사실 연구원
2국립재난안전연구원 재난원인조사실 시설연구사

Received: November 1, 2024; Accepted: November 28, 2024

Accuracy Assessment of Terrestrial and Drone LiDAR-Based Model for Disaster Site Investigation

Yonghan Jung1 , Eontaek Lim1 , Seul Koo1 , Seongsam Kim2*

1Researcher, Disaster Scientific Investigation Division, National Disaster Management Research Institute, Ulsan, Republic of Korea
2Research Officer, Disaster Scientific Investigation Division, National Disaster Management Research Institute, Ulsan, Republic of Korea

Correspondence to : Seongsam Kim
E-mail: sskim73@korea.kr

Received: November 1, 2024; Accepted: November 28, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

This study aims to evaluate the applicability of ground and drone light detection and ranging (LiDAR) for use in disaster sites where damage to facilities and structures has occurred. For this purpose, 3D data was acquired from a disaster environment building of the Korea Institute of Robot and Technology Convergence, using Terrestrial LiDAR for indoor areas and drone LiDAR for outdoor areas. The indoor data were aligned using different methods (target registration, auto, and visual alignment), while the outdoor data were modeled at two different altitudes (30 m and 50 m), resulting in two separate 3D models for each scenario. An accuracy assessment of each model was conducted, revealing that the indoor model’s root mean square error (RMSE) was approximately 2 cm, while the outdoor model’s RMSE was around 3 cm. Additionally, indoor and outdoor models were aligned across eight different cases, with accuracy evaluations carried out accordingly. The results showed no significant differences based on the alignment method. The best accuracy was observed in the alignment model between the target registered indoor model and the 30 m altitude outdoor model, with RMSE values of 0.020, 0.023, and 0.018, respectively. In contrast, the auto and visual alignment indoor model combined with the outdoor model at a 30 m altitude showed the lowest accuracy. Based on these findings, it is anticipated that diverse investigations can be conducted by integrating ground and drone LiDAR data, depending on the type of disaster and site conditions.

Keywords Terrestrial LiDAR, Drone LiDAR, Accuracy assessment, Disaster investigation

Light detection and ranging (LiDAR)은 초당 수 천에서 수 만개의 레이저 펄스를 활용하여 주변 대상물을 스캔(scan)하는 기술로 정밀한 지도제작 및 3차원 모델 구축이 가능하다(Jung et al., 2023). LiDAR는 자체 성능과 처리에 따라 다양한 정밀도로 나타나는데, Lee and Park (2019)은 다양한 LiDAR 플랫폼 중에 장비를 고정시켜 활용하는 static scanner가 mobile mapping system 및 handheld scanner에 비해 실내 공간 정보 구축에 효과적으로 활용될 수 있다고 하였고, Park and Um (2020)은 취득한 스캔 데이터의 iterative closest point (ICP)와 형상 정합에 따른 정확도를 비교하여 활용 가능성을 확인하였다.

지상 LiDAR를 활용한 연구로 Park et al. (2024)은 지상 LiDAR를 활용하여 취득 산림 데이터에서 개체목을 자동으로 분리하는 파이프라인(pipeline) 기반 알고리즘을 구현하는 연구를 수행하였다. Seo et al. (2016)은 지상 LiDAR를 통해 산불 및 산사태 발생 지역과 일반 산지의 연간 토사 유입량을 비교하여 산림 훼손지의 조기 복구의 중요성과 관리방안에 대한 연구를 수행하였다. 또한, Lee et al. (2016)은 지상 LiDAR를 통해 3차원 자료를 구축하여 지적성과 등과 분석을 통해 농업지역 경지면적을 산출하는 연구를 수행하였다. Kim et al. (2017)은 LiDAR 반사율 특성을 이용하여 무인 차량의 보다 효과적인 주행 가능 영역 검출에 대해 연구하였다.

최근에는 지상 LiDAR뿐만 아니라 드론을 함께 활용하는 연구도 수행되고 있다. 드론 영상 및 LiDAR, 지상 LiDAR 데이터 정합을 통해 건물 또는 시설물에 대한 모델링을 수행하여 building information modeling 활용을 위한 데이터를 효과적으로 생성할 수 있으며(Lee, 2023; Lee and Suh, 2022), 시뮬레이션 데이터로 학습한 딥러닝 기법을 적용하여 자동으로 3D 건물 모델링을 수행하는 연구도 진행되었다(Shin et al., 2023). 또한, Park (2017)도 도시 내 수목의 3차원 환경정보 데이터를 생성하기 위한 디바이스와 방법론으로 unmanned aerial vehicle (UAV)과 structure from motion-multi view stereo, solid modeling을 제시하여 단일 수목의 정량화 하는 연구를 수행하였고, Kim et al. (2016)은 지상 LiDAR와 모션 센서(motion sensor), real time kinematic (RTK) global navigation satellite system (GNSS)을 함께 선박에 고정·설치하여 해안선을 일정하게 모니터링 할 수 있는 해상모바일라이다(shipborne mobile LiDAR) 시스템을 구축하였으며, Trepekli et al. (2022)은 UAV에 탑재된 조명 및 LiDAR를 활용하여 지역 규모의 도시 홍수 모델링 및 평가를 개선하는 연구를 수행하였다.

이에 본 연구에서는 다양한 분야 활용되고 있는 지상 및 드론 LiDAR를 통해 시설물 및 건축물의 피해가 발생한 재난현장에서 활용하기 위한 정확도 평가를 수행하였다. 연구 대상 건축물의 실내를 지상 LiDAR, 실외를 드론 LiDAR를 통해 3차원 데이터를 취득하여 모델링하였다. 또한, 두 데이터를 융합한 하나의 3차원 모델을 구축하여 정확도 평가를 실시하였으며, 정확도는 실내와 실외 각각 사전에 설치한 검사점을 통해 수행하였다. 따라서 지상 및 드론 LiDAR를 통해 구축된 모델과 두 데이터를 융합한 모델의 정확도를 평가하여 실제 재난현장에서 활용될 수 있는 가능성을 확인하고자 한다.

2.1. 연구 대상 건축물

본 연구의 실내외 데이터 취득 대상은 한국로봇융합연구원 안전로봇실증센터의 재난환경건축물이다(Fig. 1). 본 건물은 농연 환경 극복, 인명탐지, 건축물 탐색 및 이동 성능 등 다양한 시험을 위한 지상 2층 건물이다. 건축물의 전체 모습은 Fig. 1과 같으며, 연면적 770 m2 (약 232평)의 지상 2층 건물이다. 대상 건물의 1층 내부 공간 중앙부분에 2개의 기둥이 서있는 트인 공간이고, 2층은 내부에 8개의 격방이 있고 그 둘레로 복도가 이어진 구조이다. 1층과 2층은 양쪽에 계단이 연결되어 있다.

Fig. 1. Research target building.

2.2. 건축물 실내외 데이터 취득 및 자료처리

본 연구는 더욱 정밀하고 3차원적인 재난원인 및 피해조사를 위하여 지상 및 드론 LiDAR를 통해 취득한 건축물의 실내외 데이터를 융합하고 그 정확도를 평가하고자 한다. 따라서 정확도 평가를 위한 검사점 설치 및 측정, 실내 데이터 취득을 위한 지상 LiDAR 측량, 실외 데이터 취득을 위한 드론 LiDAR 측량을 순서대로 수행하였다. 이후, 지상 및 드론 LiDAR로 취득한 포인트 클라우드를 case별로 각각 정합하여 하나의 실내 모델과 실외 모델을 구축하였고, 두 데이터를 다시 융합하여 건축물 전체 모델을 구성하였다. 사전에 측량을 통해 취득한 검사점과 좌표 비교를 통해 정확도를 평가하는 방법으로 수행되었다.

2.2.1. 정확도 평가를 위한 검사점 취득

실내외 융합 데이터에 대한 정확도 평가를 위해 본 연구에서 검사점 비교를 선택하였다. 검사점은 평면 타겟(black and white)을 부착하는 방식으로 설치하였다. 실내에는 1층 기둥 및 벽에 총 4개의 검사점을 설치하였고, 실외는 주변 장애물 측정이 불가한 지점을 제외하고 취득이 가능한 총 7점을 배치하였다(Fig. 2).

Fig. 2. Location of checkpoints.

검사점의 좌표 취득을 위해 Trimble R10 GNSS 수신기와 Leica Total Station TS10을 활용하였고, 두 장비의 세부 규격은 Table 1과 같다. 먼저, GNSS 수신기를 통해 건축물 실외에 Total Station 장비를 세우기 위한 기계점과 기준으로 활용할 후시점, 좌표 취득 정확도를 확인하기 위한 확인점의 좌표를 취득하였다. 확인점에서 dx=8 mm, dy=13 mm, dz=5 mm로 양호하게 나타남을 확인한 이후 Total Station을 활용하여 검사점의 좌표를 취득하였다(Table 2).

Table 1 Specifications for GNSS and Total Station

EquipmentSpecificationImage
Trimble R10Positioning accuracy (Static, mm)Hor. 3 ± 0.1 ppm
Ver. 3.5 ± 0.4 ppm
Positioning accuracy (RTK, mm)Hor. 8 ± 1 ppm
Ver. 15 ± 1 ppm
Leica TS10Range (m)Non-prism0.9–1,000
Prism0.9–3,500
Accuracy (mm)Non-prism2 ± 2 ppm
Prism1 ± 1.5 ppm

RTK: real time kinematic.



Table 2 Checkpoint coordinates

PointX (m)Y (m)Z (m)
CP1391256.621237467.43213.163
CP2391267.886237466.47214.157
CP3391262.690237472.16314.132
CP4391259.727237463.03512.873
CP5391268.801237477.76320.862
CP6391276.361237468.79215.292
CP7391274.019237471.55320.757
CP8391276.236237462.67420.841
CP9391275.910237462.39115.295
CP10391270.663237456.68015.407
CP11391269.822237457.28520.831


2.2.2. 지상 LiDAR 데이터 취득 및 자료처리

대상 건축물의 실내 데이터는 Leica BLK360 LiDAR 장비를 활용하여 취득하였다(Table 3). BLK360은 레이저 스캐너에 high dynamic range 및 열화상 카메라가 내장되어 있어 RGB 영상도 함께 취득 가능하다. 360,000 pts/s로 최대 60 m까지 스캔 데이터를 취득할 수 있지만 유효한 스캔 범위는 최대 20–30 m 정도로 확인되었다. 스캐너의 유효 범위가 짧은 대신 크기가 작고, 전용 삼각대를 통해 높이 조절 또한 편리하여 실내 스캔에 활용성이 뛰어나다. 스캔 모드는 신속, 표준, 고밀도 3가지로 스캔 가능하며, 본 연구에서는 해상도 0.5 mm의 고밀도 모드로 수행하였다.

Table 3 Specifications for terrestrial LiDAR

EquipmentSpecificationImage
Leica BLK360Field of view (°)Hor. 360° / Ver. 300°
Range (m)Min. 0.6–up to 60m
Pint measurement rate (pts/sec)Max. 360,000 pts/sec
Ranging accuracy (mm)4 (at 10 m) / 7 (at 20 m)
Measurement modes3 user selectable resolution settings


BLK360 자료 정합은 전용 software (SW)인 Cyclone에서 수행하게 되는데, SW내 정합 기능은 크게 타겟 정합, auto alignment, visual alignment 3가지 방법이 있다. 타겟 정합은 취득한 두 스캔 데이터 내 3개 이상의 전용 타겟을 기준으로 정합하는 방법으로 주로 기하학적 타겟 기반 정합 알고리즘과 최소제곱법을 핵심으로 사용한다. 사전에 스캔 포지션을 계획하고 그에 맞게 타겟을 설치 후 수행하는 준비가 필요하지만 그 만큼 높은 정밀도를 확보할 수 있다. Auto alignment는 두 스캔 데이터 간의 중복되는 공통 영역을 SW에서 자동으로 탐지하여 정합을 수행하는 방법으로 특징점 추출 및 ICP 알고리즘을 활용한다. 데이터 처리에서는 가장 효율적인 정합 방법이지만 두 스캔 데이터 간 공통 영역을 위해 더욱 세심하고 조밀한 스캔 포지션 계획을 고려해야 한다.

Visual alignment는 타겟을 설치하지 않고 두 스캔 데이터 간 공통영역도 충분하지 않을 때, 스캔된 공통 영역을 최대한 시각적으로 맞춘 후 ICP 알고리즘을 통해 정합하는 방법이다. Auto alignment와 같이 ICP 알고리즘을 통한 정합 방법이지만 초기 정렬을 수동으로 한다는 점에서 차이가 있다. 타겟 정합이 더욱 간편하게 정합할 수 있지만 실제 재난현장에서는 타겟의 설치가 불가능한 경우가 많기 때문에 별도의 타겟 설치가 필요 없는 auto alignment와 visual alignment가 활용 가능성이 높다. 이에 본 연구에서는 타겟 정합과 auto alignment와 visual alignment를 병행한 정합으로 2가지 방식으로 정합을 수행하였다. 실내 데이터 취득을 위한 스캔 포지션 및 타겟의 위치는 다음 그림과 같다(Fig. 3). 스캔 포지션의 경우 많을수록 정밀도는 높아지지만 효율성과 신속성을 높이기 위해 정합이 가능한 최소 스캔으로 계획하여 수행하였다.

Fig. 3. Scan position and target location. (a) First floor. (b) Second floor.

2.2.3. 드론 LiDAR 데이터 취득 및 자료처리

건축물의 실외 데이터 취득은 DJIMatrice 300 RTK 드론과 Zenmuse L1 LiDAR 센서를 활용하였다(Table 4). Matrice 300 RTK는 방진 및 방수가 가능한 IP45 등급으로 -20~50°C 내에서 최대 12 m/s의 풍속에도 비행할 수 있으며 최대 55분까지 비행할 수 있다. 또한, GNSS를 통한 자체 위치정보를 취득할 수 있는 RTK 모델로 그 정확도가 수평 ±1 cm, 수직 ±1.5 cm로 매우 높다. 특히, Matrice 300 RTK의 장점은 다양한 센서와 호환이 가능하다는 것이다. 일반적으로 활용하는 광학, 열화상, 다중분광센서뿐만 아니라 LiDAR 센서까지 호환된다. 본 연구에서는 DJI Zenmuse L1 LiDAR 센서를 활용하였다.

Table 4 Specifications for drone and LiDAR sensor

EquipmentSpecificationImage
DJI Matrice 300 RTKMaximum takeoff weight (kg)9
Accuracy (m)Hovering (P mode)Hor. ±0.1
Ver. ±0.1
Positioning (RTK)Hor. ±0.01
Ver. ±0.015
Fight time (min.)Max. 55
Operating temperature (°C)–20 to 50
DJI Zenmuse L1Ranging accuracy (cm)3 (at 100 m)
Pint measurement rate (pts/s)Max. 480,000
Supported max. returns3 returns
Scan modeRepetitive/Non-repetitive
Field of view (°)Repetitive: 70.4 × 4.5
Non-repeatitive: 70.4 × 77.2


Zenmuse L1은 최대 3회 다중 반사를 지원하며 거리 측정 정확도는 3 cm@ 100 m이다. 특징으로는 반복 패턴, 비반복 패턴의 2가지 스캔모드가 있다. 반복 패턴은 70.4°(수평) × 4.5°(수직)의 field of view (FOV)를 가지며 선형의 패턴으로 반복 스캔을 수행하여 균일한 데이터 취득이 가능하며, 비반복 패턴은 70.4°(수평) × 77.2°(수직)의 FOV를 가지며 8자 형태의 패턴으로 약 1초 후 원형에 가까운 패턴으로 넓은 부분을 스캔하며 중심에 가까울수록 포인트의 밀도가 높게 취득되는 특징이 있다.

드론 LiDAR를 통해 취득하는 데이터는 비행 고도, 속도, 중복률, 반사 횟수 등 다양한 조건에 밀도가 달라진다. 본 연구에서는 고도를 30 m, 50 m로 달리하여 취득하였고 다른 조건은 동일하게 설정하였다. 비행은 normal 방식과 건축물의 측면 데이터의 취득을 위한 smart oblique 방식을 병행하여 수행하였다(Table 5).

Table 5 Flight settings and results

Altitude (m)MethodShooting angle (°)Point density (point/m2)Ground sample distance (GSD, cm/pixel)
30Normal904,0830.82
Smart oblique452,6631.16
50Normal902,4501.36
Smart oblique451,5971.93


취득한 데이터의 처리는 전용 SW인DJI Terra를 활용하였다. Terra에서는 광학, 다중분광, LiDAR 등의 다양한 데이터 처리를 수행할 수 있으며, LiDAR 스캔 데이터의 경우 유효 거리 범위를 입력하여 불필요한 데이터를 제외하고 처리할 수 있다. 데이터 처리 후 주요 성과물로는 3D 모델, 정사영상, digital surface model (DSM), digital terrain model (DTM) 등이 있다.

3.1. 실내 및 실외 모델 정확도 평가

지상 LiDAR와 드론 LiDAR를 이용하여 각각의 실내외 정합 모델을 구축하였다(Figs. 4, 5). 실내 모델은 타겟 정합과 auto and visual alignment 정합 모델, 실외는 고도 30 m와 50 m모델로 총 4개의 case에 대해 실내외 각각의 검사점을 통해 먼저 정확도 평가를 실시하였다.

Fig. 4. Indoor model using terrestrial LiDAR. (a) Target registration. (b) Auto and visual alignment.

Fig. 5. Outdoor model using terrestrial LiDAR. (a) Altitude 30 m. (b) Altitude 50 m.

Table 6은 지상 LiDAR를 활용하여 구축한 실내 모델의 정확도 평가 결과이다. 타겟정합 RMSE는 X, Y, Z 방향으로 각각 0.020, 0.020, 0.005m이며, auto and visual alignment 정합 방식에서는 X, Y, Z 방향으로 각각 0.015, 0.021, 0.010 m로 나타났다. 두 정합 방식 간의 RMSE는 근소한 차이로 발생하고 있으며, 두 실내 모델에서의 정확도는 대체로 높은 것으로 나타났다. 이에 실제 현장에서 활용할 때 타겟의 별도 설치가 필요하지 않은 auto and visual alignment 방식의 효율성이 높을 것으로 판단된다.

Table 6 Accuracy assessment of indoor models (each registration method)

CheckpointTarget registrationAuto and visual alignment
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP10.0190.018-0.0050.0140.019-0.010
CP20.0220.020-0.0050.0160.020-0.009
CP30.0190.023-0.0030.0150.024-0.005
CP40.0200.018-0.0070.0150.019-0.014
RMSE0.0200.0200.0050.0150.0210.010


Table 7은 드론 LiDAR를 활용하여 구축한 실외 모델의 정확도 평가 결과이다. 고도별 두 모델의 RMSE의 차이는 근소하게 나타났으며, 전반적으로 3 cm정도로 확인되어 별도의 지상기준점측량없이 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있어 실제 현장에서 유용할 것으로 판단된다.

Table 7 Accuracy assessment of outdoor models (each flight altitude)

CheckpointFlight altitude @30 mFlight altitude @50 m
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP50.0240.0210.0100.0240.012-0.050
CP60.004-0.028-0.0390.000-0.034-0.039
CP70.016-0.009-0.0220.017-0.011-0.009
CP8-0.013-0.043-0.014-0.014-0.043-0.016
CP9-0.030-0.026-0.037-0.029-0.030-0.033
CP10-0.044-0.024-0.038-0.048-0.018-0.035
CP11-0.037-0.028-0.043-0.040-0.022-0.032
RMSE0.0270.0270.0320.0290.0270.033


3.2. 실내외 3차원 정합 모델 정확도 평가

지상 및 드론 LiDAR를 통해 구축한 각각의 모델들을 융합하여 정확도 평가를 실시하였다. 지상 LiDAR를 통해 구축한 실내 모델이 더 정확한 것으로 확인되어 실내 모델을 기준으로 실외 모델 정합을 수행하였다. 실내외 각각 2가지 방식의 모델을 BLK360 전용 SWCyclone의 타겟정합과 visual alignment 방식으로 각각 정합하여 총 8가지 융합 모델을 생성하였다. Table 8은 각 case별 실내외 융합 모델의 방식을 정리한 표이다. 8개의 실내외 정합 case별로 1~8번으로 구성하였고, 이를 검사점을 통한 정확도 평가를 실시하여 그 결과를 Table 9~12와 같이 정리하였다.

Table 8 Overview of indoor and outdoor registration models

CaseIndoor (Terrestrial LiDAR)Outdoor (Drone LiDAR)Registration method
1Terrestrial LiDAR model (Target registration)Drone LiDAR model (@30 m)Target registration
2Visual alignment
3Drone LiDAR model (@50 m)Target registration
4Visual alignment
5Terrestrial LiDAR model (Auto and visual alignment)Drone LiDAR model (@30 m)Target registration
6Visual alignment
7Drone LiDAR model (@50 m)Target registration
8Visual alignment


Table 9 Accuracy assessment of fused models (case 1 and case 2)

CheckpointModel no. 1Model no. 2
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.018-0.0080.027-0.018-0.0080.027
CP60.019-0.0270.0080.019-0.0270.008
CP70.001-0.0130.0160.001-0.0130.016
CP80.001-0.0340.0320.001-0.0340.032
CP90.006-0.0180.0050.006-0.0180.005
CP100.020-0.036-0.0130.020-0.036-0.013
CP110.003-0.041-0.0220.003-0.041-0.023
RMSE0.0200.0230.0180.0230.0230.020


Table 9는 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 1의 RMSE는 0.020, 0.023, 0.018 m로 나타났으며, case 2는 0.023, 0.023, 0.020 m로 유사한 수준의 정확도로 확인되었다.

Table 10은 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 3의 RMSE는 각각 0.045, 0.031, 0.018 m로 나타났으며, case 4는 0.041, 0.026, 0.020 m로 두 모델의 정확도는 Table 9의 결과와 같이 비슷한 것으로 확인되었으나 고도 30 m일 때 보다는 낮은 정확도로 나타났다.

Table 10 Accuracy assessment of fused models (case 3 and case 4)

CheckpointModel no. 3Model no. 4
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.020-0.0020.039-0.036-0.0020.038
CP6-0.028-0.0470.001-0.029-0.034-0.001
CP7-0.024-0.0260.015-0.019-0.0310.013
CP8-0.055-0.0550.023-0.049-0.0440.020
CP9-0.064-0.037-0.003-0.056-0.025-0.006
CP10-0.070-0.035-0.010-0.054-0.031-0.016
CP11-0.072-0.039-0.018-0.058-0.037-0.024
RMSE0.0450.0310.0180.0410.0260.020


Table 11은 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 5의 RMSE는 0.066, 0.036, 0.131 m로 각각 나타났으며, case 6은 0.067, 0.036, 0.132 m로 두 모델의 정확도는 비슷하게 나타났으나 RMSE가 높아졌고, Z 방향으로는 약 13 cm정도의 차이가 확인되었다.

Table 11 Accuracy assessment of fusion models (case 5 and 6)

CheckpointModel no. 5Model no. 6
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP50.0920.0690.0730.0920.0690.073
CP60.0650.0060.1080.0650.0060.108
CP70.1040.0630.1300.1040.0630.130
CP80.0920.0420.1730.0920.0420.173
CP90.0510.0160.1570.0510.0160.157
CP100.0530.0150.2230.0530.0150.223
CP110.0860.0490.2260.0860.0490.226
RMSE0.0660.0360.1310.0670.0360.132


Table 12는 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 7의 RMSE는 각각 0.031, 0.020, 0.015 m로 나타났으며, case 8은 0.029, 0.049, 0.017 m 수준으로 나타났다.

Table 12 Accuracy assessment of fusion models (no. 7 and 8)

CheckpointModel no. 7Model no. 8
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1–0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.0100.001-0.021-0.009-0.040-0.029
CP6-0.014-0.033-0.001-0.010-0.073-0.006
CP7-0.007-0.0120.026-0.003-0.0510.019
CP8-0.033-0.0370.020-0.025-0.0750.016
CP9-0.038-0.022-0.001-0.031-0.063-0.004
CP10-0.045-0.015-0.010-0.036-0.058-0.011
CP11-0.047-0.020-0.009-0.037-0.061-0.009
RMSE0.0310.0200.0150.0290.0490.017


전체 8가지 case별 모델의 정확도 평가를 수행한 결과를 전체적으로 확인하면 실내 및 실외 모델의 정합 방식에 따라서는 큰 차이가 없는 것으로 확인되었다. 타겟 정합 실내 모델과 고도 30 m의 실외 모델을 융합한 case 1과 2, auto and visual alignment 내 정합 모델과 고도 50 m의 실외 모델을 융합한 case 7의 정확도가 높은 것으로 확인되었다. 그리고, 타겟 정합 실내 모델과 비행 고도 50 m 실외 모델을 융합한 case 3과 4도 약 4 cm 이하의 RMSE를 나타내어 양호한 결과를 확인할 수 있었다. Auto and visual alignment 실내 정합 모델과 비행 고도 30 m실외 모델을 융합한 case 5와 6의 RMSE가 높아 정확도가 낮은 것으로 확인되었다.

본 연구에서는 지상 LiDAR와 드론 LiDAR를 통해 실내 및 실외 모델을 융합하여 3차원 모델을 구축하고, 이를 건축물 및 시설물의 붕괴와 같은 재난현장조사에 효율적으로 활용하기 위해 정확도 평가를 수행하였다. 정확도 평가는 검사점 좌표 비교를 통해 수행하였고, 실내 및 실외 각각의 모델과 실내외 정합 모델을 각각 수행하여 다음과 같은 결과를 확인하였다.

첫째, 타겟 정합과 auto and visual alignment 정합 2가지 실내 모델과 드론 비행 고도 30 m와 50 m2가지 case로 총 4개 case에 대해 정확도 평가를 실시한 결과, 실내 모델의 RMSE는 약 2 cm, 실외 모델은 약 3 cm 정도의 높은 정확도를 확인하였다. 이에, 타겟의 설치가 필요하지 않은 auto and visual alignment 방식과 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있는 것으로 확인되어 실제 현장에서 유용할 것으로 판단된다.

둘째, 실내외 8가지 case별로 건물 3차원 모델 생성 및 정확도를 평가한 결과, 정합 방식별 3D 모델 정확도는 근소한 차이의 오차가 발생함을 알 수 있었다. 그리고 타겟 정합 실내 모델과 고도 30 m의 실외 모델의 융합한 case의 RMSE가 0.020, 0.023, 0.018 m로 가장 양호하게 나타났으며, auto and visual alignment 실내 모델과 비행 고도 30 m에서 구축한 실외 모델을 융합한 case의 정확도가 가장 낮은 것으로 확인되었다. 또한, auto and visual alignment 실내 모델과 고도 50 m 실외 모델을 융합한 case의 RMSE가 0.029, 0.049, 0.017 m로 양호하게 확인되어 제약이 많은 재난현장에서 활용 가능성이 충분한 것으로 판단된다. 따라서, 본 연구에서는 지상 및 드론 LiDAR를 활용하여 구축한 모델과 두 LiDAR를 통해 구축한 융합 모델의 정확도를 평가한 결과를 통해 재난현장조사에 활용할 수 있는 가능성을 확인하였으며, 재난현장의 상황에 맞게 활용한다면 더욱 효율적이고 신속한 현장조사가 이루어질 것으로 생각된다.

이 논문은 2024년 국립재난안전연구원의 “재난안전관리업무지원기술개발(R&D)-이동형 로봇기반 재난사고 현장조사 공유 기술개발(NDMI-2024-06-02)”의 지원으로 수행되었습니다.

No potential conflict of interest relevant to this article was reported.

  1. Jung, Y. H., Lim, E. T., Suk, J. W., Koo, S., and Kim, S. S., 2023. Utilization of drone LiDAR for field investigation of facility collapse accident. Korean Journal of Remote Sensing, 39(5-2), 849-858. https://doi.org/10.7780/kjrs.2023.39.5.2.9
  2. Kim, C. H., Kim, H. W., Kang, G. M., Kim, G. Y., Kim, W. H., and Park, C. H., et al, 2016. Shipborne mobile LiDAR (light detection and ranging) system for the monitoring of coastal changes. Economic and Environmental Geology, 49(4), 281-290. https://doi.org/10.9719/EEG.2016.49.4.281
  3. Kim, J., Ahn, S. Y., Min, J. H., and Bae, K. S., 2017. Analysis of traversable candidate region for unmanned ground vehicle using 3D LiDAR reflectivity. Transactions of the Korean Society of Mechanical Engineers, 41(11), 1047-1053. https://doi.org/10.3795/KSMEA.2017.41.11.1047
  4. Lee, H. H., Lee, J. I., Oh, M. K., and Lee, K. D., 2016. Experimental comparative analysis of terrestrial LiDAR data and cadastral data for the calculation of the slope area of highland agriculture region. Journal of Cadastre &Land InformatiX, 46(2), 137-153. https://doi.org/10.22640/lxsiri.2016.46.2.137
  5. Lee, J. G., 2023. A study on the accuracy analysis and registration of drone image and LiDAR data for building BIM construction. Doctoral dissertation, Pukyong National University, Busan, Republic of Korea.
  6. Lee, J. G., and Suh, Y. C., 2022. Indoor and outdoor building modeling based on point cloud data convergence using drone and terrestrial LiDAR. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 40(6), 613-620. https://doi.org/10.7848/ksgpc.2022.40.6.613
  7. Lee, K. W., and Park, J. K., 2019. Comparison of characteristics of 3D laser scanner for construction of indoor geospatial information. International Journal of Advanced Science and Technology, 129, 151-160. https://doi.org/10.33832/ijast.2019.129.13
  8. Park, H. K., 2017. 3D Measurement method based on point cloud and solid model for urban single trees. Korean Journal of Remote Sensing, 33(6-2), 1139-1149. https://doi.org/10.7780/kjrs.2017.33.6.2.8
  9. Park, J. K., and Um, D. Y., 2020. Accuracy evaluation by point cloud data registration method. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 38(1), 35-41. https://doi.org/10.7848/ksgpc.2020.38.1.35
  10. Park, J. M., Yim, J. S., Kang, J. T., Cho, H. J., and Kim, D. G., 2024. Pipeline approach to segmenting individual trees from terrestrial LiDAR forest data. Journal of Korea Multimedia Society, 27(3), 420-435. https://doi.org/10.9717/kmms.2024.27.3.420
  11. Seo, J. P., Lee, C. W., Kim, D. Y., and Woo, C. S., 2016. Estimating of annual sediment yield at mountain stream in fire/landslide damaged forest by using terrestrial LiDAR spatial analysis. Journal of The Korean Society of Hazard Mitigation, 16(6), 219-227. https://doi.org/10.9798/KOSHAM.2016.16.6.219
  12. Shin, Y. H., Hyung, S. W., Son, K. W., and Lee, D. C., 2023. Building modeling from airborne LiDAR data using deep learning trained with simulated dataset. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 41(6), 439-461. https://doi.org/10.7848/ksgpc.2023.41.6.439
  13. Trepekli, K., Balstrom, T., Friborg, T., Fog, B., Allotey, A. N., Kofie, R. Y., and Møller-Jensen, L., 2022. UAV-borne, LiDAR-based elevation modelling: A method for improving local-scale urban flood risk assessment. Natural Hazards, 113, 423-451. https://doi.org/10.1007/s11069-022-05308-9

Research Article

Korean J. Remote Sens. 2024; 40(6): 1369-1378

Published online December 31, 2024 https://doi.org/10.7780/kjrs.2024.40.6.2.8

Copyright © Korean Society of Remote Sensing.

재난현장조사 활용을 위한 지상 및 드론 LiDAR 기반 모델 정확도 평가

정용한1, 임언택1, 구 슬1, 김성삼2*

1국립재난안전연구원 재난원인조사실 연구원
2국립재난안전연구원 재난원인조사실 시설연구사

Received: November 1, 2024; Accepted: November 28, 2024

Accuracy Assessment of Terrestrial and Drone LiDAR-Based Model for Disaster Site Investigation

Yonghan Jung1 , Eontaek Lim1 , Seul Koo1 , Seongsam Kim2*

1Researcher, Disaster Scientific Investigation Division, National Disaster Management Research Institute, Ulsan, Republic of Korea
2Research Officer, Disaster Scientific Investigation Division, National Disaster Management Research Institute, Ulsan, Republic of Korea

Correspondence to:Seongsam Kim
E-mail: sskim73@korea.kr

Received: November 1, 2024; Accepted: November 28, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

This study aims to evaluate the applicability of ground and drone light detection and ranging (LiDAR) for use in disaster sites where damage to facilities and structures has occurred. For this purpose, 3D data was acquired from a disaster environment building of the Korea Institute of Robot and Technology Convergence, using Terrestrial LiDAR for indoor areas and drone LiDAR for outdoor areas. The indoor data were aligned using different methods (target registration, auto, and visual alignment), while the outdoor data were modeled at two different altitudes (30 m and 50 m), resulting in two separate 3D models for each scenario. An accuracy assessment of each model was conducted, revealing that the indoor model’s root mean square error (RMSE) was approximately 2 cm, while the outdoor model’s RMSE was around 3 cm. Additionally, indoor and outdoor models were aligned across eight different cases, with accuracy evaluations carried out accordingly. The results showed no significant differences based on the alignment method. The best accuracy was observed in the alignment model between the target registered indoor model and the 30 m altitude outdoor model, with RMSE values of 0.020, 0.023, and 0.018, respectively. In contrast, the auto and visual alignment indoor model combined with the outdoor model at a 30 m altitude showed the lowest accuracy. Based on these findings, it is anticipated that diverse investigations can be conducted by integrating ground and drone LiDAR data, depending on the type of disaster and site conditions.

Keywords: Terrestrial LiDAR, Drone LiDAR, Accuracy assessment, Disaster investigation

1. 서론

Light detection and ranging (LiDAR)은 초당 수 천에서 수 만개의 레이저 펄스를 활용하여 주변 대상물을 스캔(scan)하는 기술로 정밀한 지도제작 및 3차원 모델 구축이 가능하다(Jung et al., 2023). LiDAR는 자체 성능과 처리에 따라 다양한 정밀도로 나타나는데, Lee and Park (2019)은 다양한 LiDAR 플랫폼 중에 장비를 고정시켜 활용하는 static scanner가 mobile mapping system 및 handheld scanner에 비해 실내 공간 정보 구축에 효과적으로 활용될 수 있다고 하였고, Park and Um (2020)은 취득한 스캔 데이터의 iterative closest point (ICP)와 형상 정합에 따른 정확도를 비교하여 활용 가능성을 확인하였다.

지상 LiDAR를 활용한 연구로 Park et al. (2024)은 지상 LiDAR를 활용하여 취득 산림 데이터에서 개체목을 자동으로 분리하는 파이프라인(pipeline) 기반 알고리즘을 구현하는 연구를 수행하였다. Seo et al. (2016)은 지상 LiDAR를 통해 산불 및 산사태 발생 지역과 일반 산지의 연간 토사 유입량을 비교하여 산림 훼손지의 조기 복구의 중요성과 관리방안에 대한 연구를 수행하였다. 또한, Lee et al. (2016)은 지상 LiDAR를 통해 3차원 자료를 구축하여 지적성과 등과 분석을 통해 농업지역 경지면적을 산출하는 연구를 수행하였다. Kim et al. (2017)은 LiDAR 반사율 특성을 이용하여 무인 차량의 보다 효과적인 주행 가능 영역 검출에 대해 연구하였다.

최근에는 지상 LiDAR뿐만 아니라 드론을 함께 활용하는 연구도 수행되고 있다. 드론 영상 및 LiDAR, 지상 LiDAR 데이터 정합을 통해 건물 또는 시설물에 대한 모델링을 수행하여 building information modeling 활용을 위한 데이터를 효과적으로 생성할 수 있으며(Lee, 2023; Lee and Suh, 2022), 시뮬레이션 데이터로 학습한 딥러닝 기법을 적용하여 자동으로 3D 건물 모델링을 수행하는 연구도 진행되었다(Shin et al., 2023). 또한, Park (2017)도 도시 내 수목의 3차원 환경정보 데이터를 생성하기 위한 디바이스와 방법론으로 unmanned aerial vehicle (UAV)과 structure from motion-multi view stereo, solid modeling을 제시하여 단일 수목의 정량화 하는 연구를 수행하였고, Kim et al. (2016)은 지상 LiDAR와 모션 센서(motion sensor), real time kinematic (RTK) global navigation satellite system (GNSS)을 함께 선박에 고정·설치하여 해안선을 일정하게 모니터링 할 수 있는 해상모바일라이다(shipborne mobile LiDAR) 시스템을 구축하였으며, Trepekli et al. (2022)은 UAV에 탑재된 조명 및 LiDAR를 활용하여 지역 규모의 도시 홍수 모델링 및 평가를 개선하는 연구를 수행하였다.

이에 본 연구에서는 다양한 분야 활용되고 있는 지상 및 드론 LiDAR를 통해 시설물 및 건축물의 피해가 발생한 재난현장에서 활용하기 위한 정확도 평가를 수행하였다. 연구 대상 건축물의 실내를 지상 LiDAR, 실외를 드론 LiDAR를 통해 3차원 데이터를 취득하여 모델링하였다. 또한, 두 데이터를 융합한 하나의 3차원 모델을 구축하여 정확도 평가를 실시하였으며, 정확도는 실내와 실외 각각 사전에 설치한 검사점을 통해 수행하였다. 따라서 지상 및 드론 LiDAR를 통해 구축된 모델과 두 데이터를 융합한 모델의 정확도를 평가하여 실제 재난현장에서 활용될 수 있는 가능성을 확인하고자 한다.

2. 데이터 취득 및 처리

2.1. 연구 대상 건축물

본 연구의 실내외 데이터 취득 대상은 한국로봇융합연구원 안전로봇실증센터의 재난환경건축물이다(Fig. 1). 본 건물은 농연 환경 극복, 인명탐지, 건축물 탐색 및 이동 성능 등 다양한 시험을 위한 지상 2층 건물이다. 건축물의 전체 모습은 Fig. 1과 같으며, 연면적 770 m2 (약 232평)의 지상 2층 건물이다. 대상 건물의 1층 내부 공간 중앙부분에 2개의 기둥이 서있는 트인 공간이고, 2층은 내부에 8개의 격방이 있고 그 둘레로 복도가 이어진 구조이다. 1층과 2층은 양쪽에 계단이 연결되어 있다.

Figure 1. Research target building.

2.2. 건축물 실내외 데이터 취득 및 자료처리

본 연구는 더욱 정밀하고 3차원적인 재난원인 및 피해조사를 위하여 지상 및 드론 LiDAR를 통해 취득한 건축물의 실내외 데이터를 융합하고 그 정확도를 평가하고자 한다. 따라서 정확도 평가를 위한 검사점 설치 및 측정, 실내 데이터 취득을 위한 지상 LiDAR 측량, 실외 데이터 취득을 위한 드론 LiDAR 측량을 순서대로 수행하였다. 이후, 지상 및 드론 LiDAR로 취득한 포인트 클라우드를 case별로 각각 정합하여 하나의 실내 모델과 실외 모델을 구축하였고, 두 데이터를 다시 융합하여 건축물 전체 모델을 구성하였다. 사전에 측량을 통해 취득한 검사점과 좌표 비교를 통해 정확도를 평가하는 방법으로 수행되었다.

2.2.1. 정확도 평가를 위한 검사점 취득

실내외 융합 데이터에 대한 정확도 평가를 위해 본 연구에서 검사점 비교를 선택하였다. 검사점은 평면 타겟(black and white)을 부착하는 방식으로 설치하였다. 실내에는 1층 기둥 및 벽에 총 4개의 검사점을 설치하였고, 실외는 주변 장애물 측정이 불가한 지점을 제외하고 취득이 가능한 총 7점을 배치하였다(Fig. 2).

Figure 2. Location of checkpoints.

검사점의 좌표 취득을 위해 Trimble R10 GNSS 수신기와 Leica Total Station TS10을 활용하였고, 두 장비의 세부 규격은 Table 1과 같다. 먼저, GNSS 수신기를 통해 건축물 실외에 Total Station 장비를 세우기 위한 기계점과 기준으로 활용할 후시점, 좌표 취득 정확도를 확인하기 위한 확인점의 좌표를 취득하였다. 확인점에서 dx=8 mm, dy=13 mm, dz=5 mm로 양호하게 나타남을 확인한 이후 Total Station을 활용하여 검사점의 좌표를 취득하였다(Table 2).

Table 1 . Specifications for GNSS and Total Station.

EquipmentSpecificationImage
Trimble R10Positioning accuracy (Static, mm)Hor. 3 ± 0.1 ppm
Ver. 3.5 ± 0.4 ppm
Positioning accuracy (RTK, mm)Hor. 8 ± 1 ppm
Ver. 15 ± 1 ppm
Leica TS10Range (m)Non-prism0.9–1,000
Prism0.9–3,500
Accuracy (mm)Non-prism2 ± 2 ppm
Prism1 ± 1.5 ppm

RTK: real time kinematic..



Table 2 . Checkpoint coordinates.

PointX (m)Y (m)Z (m)
CP1391256.621237467.43213.163
CP2391267.886237466.47214.157
CP3391262.690237472.16314.132
CP4391259.727237463.03512.873
CP5391268.801237477.76320.862
CP6391276.361237468.79215.292
CP7391274.019237471.55320.757
CP8391276.236237462.67420.841
CP9391275.910237462.39115.295
CP10391270.663237456.68015.407
CP11391269.822237457.28520.831


2.2.2. 지상 LiDAR 데이터 취득 및 자료처리

대상 건축물의 실내 데이터는 Leica BLK360 LiDAR 장비를 활용하여 취득하였다(Table 3). BLK360은 레이저 스캐너에 high dynamic range 및 열화상 카메라가 내장되어 있어 RGB 영상도 함께 취득 가능하다. 360,000 pts/s로 최대 60 m까지 스캔 데이터를 취득할 수 있지만 유효한 스캔 범위는 최대 20–30 m 정도로 확인되었다. 스캐너의 유효 범위가 짧은 대신 크기가 작고, 전용 삼각대를 통해 높이 조절 또한 편리하여 실내 스캔에 활용성이 뛰어나다. 스캔 모드는 신속, 표준, 고밀도 3가지로 스캔 가능하며, 본 연구에서는 해상도 0.5 mm의 고밀도 모드로 수행하였다.

Table 3 . Specifications for terrestrial LiDAR.

EquipmentSpecificationImage
Leica BLK360Field of view (°)Hor. 360° / Ver. 300°
Range (m)Min. 0.6–up to 60m
Pint measurement rate (pts/sec)Max. 360,000 pts/sec
Ranging accuracy (mm)4 (at 10 m) / 7 (at 20 m)
Measurement modes3 user selectable resolution settings


BLK360 자료 정합은 전용 software (SW)인 Cyclone에서 수행하게 되는데, SW내 정합 기능은 크게 타겟 정합, auto alignment, visual alignment 3가지 방법이 있다. 타겟 정합은 취득한 두 스캔 데이터 내 3개 이상의 전용 타겟을 기준으로 정합하는 방법으로 주로 기하학적 타겟 기반 정합 알고리즘과 최소제곱법을 핵심으로 사용한다. 사전에 스캔 포지션을 계획하고 그에 맞게 타겟을 설치 후 수행하는 준비가 필요하지만 그 만큼 높은 정밀도를 확보할 수 있다. Auto alignment는 두 스캔 데이터 간의 중복되는 공통 영역을 SW에서 자동으로 탐지하여 정합을 수행하는 방법으로 특징점 추출 및 ICP 알고리즘을 활용한다. 데이터 처리에서는 가장 효율적인 정합 방법이지만 두 스캔 데이터 간 공통 영역을 위해 더욱 세심하고 조밀한 스캔 포지션 계획을 고려해야 한다.

Visual alignment는 타겟을 설치하지 않고 두 스캔 데이터 간 공통영역도 충분하지 않을 때, 스캔된 공통 영역을 최대한 시각적으로 맞춘 후 ICP 알고리즘을 통해 정합하는 방법이다. Auto alignment와 같이 ICP 알고리즘을 통한 정합 방법이지만 초기 정렬을 수동으로 한다는 점에서 차이가 있다. 타겟 정합이 더욱 간편하게 정합할 수 있지만 실제 재난현장에서는 타겟의 설치가 불가능한 경우가 많기 때문에 별도의 타겟 설치가 필요 없는 auto alignment와 visual alignment가 활용 가능성이 높다. 이에 본 연구에서는 타겟 정합과 auto alignment와 visual alignment를 병행한 정합으로 2가지 방식으로 정합을 수행하였다. 실내 데이터 취득을 위한 스캔 포지션 및 타겟의 위치는 다음 그림과 같다(Fig. 3). 스캔 포지션의 경우 많을수록 정밀도는 높아지지만 효율성과 신속성을 높이기 위해 정합이 가능한 최소 스캔으로 계획하여 수행하였다.

Figure 3. Scan position and target location. (a) First floor. (b) Second floor.

2.2.3. 드론 LiDAR 데이터 취득 및 자료처리

건축물의 실외 데이터 취득은 DJIMatrice 300 RTK 드론과 Zenmuse L1 LiDAR 센서를 활용하였다(Table 4). Matrice 300 RTK는 방진 및 방수가 가능한 IP45 등급으로 -20~50°C 내에서 최대 12 m/s의 풍속에도 비행할 수 있으며 최대 55분까지 비행할 수 있다. 또한, GNSS를 통한 자체 위치정보를 취득할 수 있는 RTK 모델로 그 정확도가 수평 ±1 cm, 수직 ±1.5 cm로 매우 높다. 특히, Matrice 300 RTK의 장점은 다양한 센서와 호환이 가능하다는 것이다. 일반적으로 활용하는 광학, 열화상, 다중분광센서뿐만 아니라 LiDAR 센서까지 호환된다. 본 연구에서는 DJI Zenmuse L1 LiDAR 센서를 활용하였다.

Table 4 . Specifications for drone and LiDAR sensor.

EquipmentSpecificationImage
DJI Matrice 300 RTKMaximum takeoff weight (kg)9
Accuracy (m)Hovering (P mode)Hor. ±0.1
Ver. ±0.1
Positioning (RTK)Hor. ±0.01
Ver. ±0.015
Fight time (min.)Max. 55
Operating temperature (°C)–20 to 50
DJI Zenmuse L1Ranging accuracy (cm)3 (at 100 m)
Pint measurement rate (pts/s)Max. 480,000
Supported max. returns3 returns
Scan modeRepetitive/Non-repetitive
Field of view (°)Repetitive: 70.4 × 4.5
Non-repeatitive: 70.4 × 77.2


Zenmuse L1은 최대 3회 다중 반사를 지원하며 거리 측정 정확도는 3 cm@ 100 m이다. 특징으로는 반복 패턴, 비반복 패턴의 2가지 스캔모드가 있다. 반복 패턴은 70.4°(수평) × 4.5°(수직)의 field of view (FOV)를 가지며 선형의 패턴으로 반복 스캔을 수행하여 균일한 데이터 취득이 가능하며, 비반복 패턴은 70.4°(수평) × 77.2°(수직)의 FOV를 가지며 8자 형태의 패턴으로 약 1초 후 원형에 가까운 패턴으로 넓은 부분을 스캔하며 중심에 가까울수록 포인트의 밀도가 높게 취득되는 특징이 있다.

드론 LiDAR를 통해 취득하는 데이터는 비행 고도, 속도, 중복률, 반사 횟수 등 다양한 조건에 밀도가 달라진다. 본 연구에서는 고도를 30 m, 50 m로 달리하여 취득하였고 다른 조건은 동일하게 설정하였다. 비행은 normal 방식과 건축물의 측면 데이터의 취득을 위한 smart oblique 방식을 병행하여 수행하였다(Table 5).

Table 5 . Flight settings and results.

Altitude (m)MethodShooting angle (°)Point density (point/m2)Ground sample distance (GSD, cm/pixel)
30Normal904,0830.82
Smart oblique452,6631.16
50Normal902,4501.36
Smart oblique451,5971.93


취득한 데이터의 처리는 전용 SW인DJI Terra를 활용하였다. Terra에서는 광학, 다중분광, LiDAR 등의 다양한 데이터 처리를 수행할 수 있으며, LiDAR 스캔 데이터의 경우 유효 거리 범위를 입력하여 불필요한 데이터를 제외하고 처리할 수 있다. 데이터 처리 후 주요 성과물로는 3D 모델, 정사영상, digital surface model (DSM), digital terrain model (DTM) 등이 있다.

3. 연구결과 분석

3.1. 실내 및 실외 모델 정확도 평가

지상 LiDAR와 드론 LiDAR를 이용하여 각각의 실내외 정합 모델을 구축하였다(Figs. 4, 5). 실내 모델은 타겟 정합과 auto and visual alignment 정합 모델, 실외는 고도 30 m와 50 m모델로 총 4개의 case에 대해 실내외 각각의 검사점을 통해 먼저 정확도 평가를 실시하였다.

Figure 4. Indoor model using terrestrial LiDAR. (a) Target registration. (b) Auto and visual alignment.

Figure 5. Outdoor model using terrestrial LiDAR. (a) Altitude 30 m. (b) Altitude 50 m.

Table 6은 지상 LiDAR를 활용하여 구축한 실내 모델의 정확도 평가 결과이다. 타겟정합 RMSE는 X, Y, Z 방향으로 각각 0.020, 0.020, 0.005m이며, auto and visual alignment 정합 방식에서는 X, Y, Z 방향으로 각각 0.015, 0.021, 0.010 m로 나타났다. 두 정합 방식 간의 RMSE는 근소한 차이로 발생하고 있으며, 두 실내 모델에서의 정확도는 대체로 높은 것으로 나타났다. 이에 실제 현장에서 활용할 때 타겟의 별도 설치가 필요하지 않은 auto and visual alignment 방식의 효율성이 높을 것으로 판단된다.

Table 6 . Accuracy assessment of indoor models (each registration method).

CheckpointTarget registrationAuto and visual alignment
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP10.0190.018-0.0050.0140.019-0.010
CP20.0220.020-0.0050.0160.020-0.009
CP30.0190.023-0.0030.0150.024-0.005
CP40.0200.018-0.0070.0150.019-0.014
RMSE0.0200.0200.0050.0150.0210.010


Table 7은 드론 LiDAR를 활용하여 구축한 실외 모델의 정확도 평가 결과이다. 고도별 두 모델의 RMSE의 차이는 근소하게 나타났으며, 전반적으로 3 cm정도로 확인되어 별도의 지상기준점측량없이 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있어 실제 현장에서 유용할 것으로 판단된다.

Table 7 . Accuracy assessment of outdoor models (each flight altitude).

CheckpointFlight altitude @30 mFlight altitude @50 m
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP50.0240.0210.0100.0240.012-0.050
CP60.004-0.028-0.0390.000-0.034-0.039
CP70.016-0.009-0.0220.017-0.011-0.009
CP8-0.013-0.043-0.014-0.014-0.043-0.016
CP9-0.030-0.026-0.037-0.029-0.030-0.033
CP10-0.044-0.024-0.038-0.048-0.018-0.035
CP11-0.037-0.028-0.043-0.040-0.022-0.032
RMSE0.0270.0270.0320.0290.0270.033


3.2. 실내외 3차원 정합 모델 정확도 평가

지상 및 드론 LiDAR를 통해 구축한 각각의 모델들을 융합하여 정확도 평가를 실시하였다. 지상 LiDAR를 통해 구축한 실내 모델이 더 정확한 것으로 확인되어 실내 모델을 기준으로 실외 모델 정합을 수행하였다. 실내외 각각 2가지 방식의 모델을 BLK360 전용 SWCyclone의 타겟정합과 visual alignment 방식으로 각각 정합하여 총 8가지 융합 모델을 생성하였다. Table 8은 각 case별 실내외 융합 모델의 방식을 정리한 표이다. 8개의 실내외 정합 case별로 1~8번으로 구성하였고, 이를 검사점을 통한 정확도 평가를 실시하여 그 결과를 Table 9~12와 같이 정리하였다.

Table 8 . Overview of indoor and outdoor registration models.

CaseIndoor (Terrestrial LiDAR)Outdoor (Drone LiDAR)Registration method
1Terrestrial LiDAR model (Target registration)Drone LiDAR model (@30 m)Target registration
2Visual alignment
3Drone LiDAR model (@50 m)Target registration
4Visual alignment
5Terrestrial LiDAR model (Auto and visual alignment)Drone LiDAR model (@30 m)Target registration
6Visual alignment
7Drone LiDAR model (@50 m)Target registration
8Visual alignment


Table 9 . Accuracy assessment of fused models (case 1 and case 2).

CheckpointModel no. 1Model no. 2
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.018-0.0080.027-0.018-0.0080.027
CP60.019-0.0270.0080.019-0.0270.008
CP70.001-0.0130.0160.001-0.0130.016
CP80.001-0.0340.0320.001-0.0340.032
CP90.006-0.0180.0050.006-0.0180.005
CP100.020-0.036-0.0130.020-0.036-0.013
CP110.003-0.041-0.0220.003-0.041-0.023
RMSE0.0200.0230.0180.0230.0230.020


Table 9는 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 1의 RMSE는 0.020, 0.023, 0.018 m로 나타났으며, case 2는 0.023, 0.023, 0.020 m로 유사한 수준의 정확도로 확인되었다.

Table 10은 지상 LiDAR 실내 모델(타겟 정합)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 3의 RMSE는 각각 0.045, 0.031, 0.018 m로 나타났으며, case 4는 0.041, 0.026, 0.020 m로 두 모델의 정확도는 Table 9의 결과와 같이 비슷한 것으로 확인되었으나 고도 30 m일 때 보다는 낮은 정확도로 나타났다.

Table 10 . Accuracy assessment of fused models (case 3 and case 4).

CheckpointModel no. 3Model no. 4
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.020-0.0020.039-0.036-0.0020.038
CP6-0.028-0.0470.001-0.029-0.034-0.001
CP7-0.024-0.0260.015-0.019-0.0310.013
CP8-0.055-0.0550.023-0.049-0.0440.020
CP9-0.064-0.037-0.003-0.056-0.025-0.006
CP10-0.070-0.035-0.010-0.054-0.031-0.016
CP11-0.072-0.039-0.018-0.058-0.037-0.024
RMSE0.0450.0310.0180.0410.0260.020


Table 11은 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 30 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 5의 RMSE는 0.066, 0.036, 0.131 m로 각각 나타났으며, case 6은 0.067, 0.036, 0.132 m로 두 모델의 정확도는 비슷하게 나타났으나 RMSE가 높아졌고, Z 방향으로는 약 13 cm정도의 차이가 확인되었다.

Table 11 . Accuracy assessment of fusion models (case 5 and 6).

CheckpointModel no. 5Model no. 6
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP50.0920.0690.0730.0920.0690.073
CP60.0650.0060.1080.0650.0060.108
CP70.1040.0630.1300.1040.0630.130
CP80.0920.0420.1730.0920.0420.173
CP90.0510.0160.1570.0510.0160.157
CP100.0530.0150.2230.0530.0150.223
CP110.0860.0490.2260.0860.0490.226
RMSE0.0660.0360.1310.0670.0360.132


Table 12는 지상 LiDAR 실내 모델(auto and visual alignment)과 드론 LiDAR 실외 모델(고도 50 m)의 정합 방식을 달리하여 정합한 모델에 대한 정확도 평가 결과이다. Case 7의 RMSE는 각각 0.031, 0.020, 0.015 m로 나타났으며, case 8은 0.029, 0.049, 0.017 m 수준으로 나타났다.

Table 12 . Accuracy assessment of fusion models (no. 7 and 8).

CheckpointModel no. 7Model no. 8
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1–0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.0100.001-0.021-0.009-0.040-0.029
CP6-0.014-0.033-0.001-0.010-0.073-0.006
CP7-0.007-0.0120.026-0.003-0.0510.019
CP8-0.033-0.0370.020-0.025-0.0750.016
CP9-0.038-0.022-0.001-0.031-0.063-0.004
CP10-0.045-0.015-0.010-0.036-0.058-0.011
CP11-0.047-0.020-0.009-0.037-0.061-0.009
RMSE0.0310.0200.0150.0290.0490.017


전체 8가지 case별 모델의 정확도 평가를 수행한 결과를 전체적으로 확인하면 실내 및 실외 모델의 정합 방식에 따라서는 큰 차이가 없는 것으로 확인되었다. 타겟 정합 실내 모델과 고도 30 m의 실외 모델을 융합한 case 1과 2, auto and visual alignment 내 정합 모델과 고도 50 m의 실외 모델을 융합한 case 7의 정확도가 높은 것으로 확인되었다. 그리고, 타겟 정합 실내 모델과 비행 고도 50 m 실외 모델을 융합한 case 3과 4도 약 4 cm 이하의 RMSE를 나타내어 양호한 결과를 확인할 수 있었다. Auto and visual alignment 실내 정합 모델과 비행 고도 30 m실외 모델을 융합한 case 5와 6의 RMSE가 높아 정확도가 낮은 것으로 확인되었다.

4. 결론

본 연구에서는 지상 LiDAR와 드론 LiDAR를 통해 실내 및 실외 모델을 융합하여 3차원 모델을 구축하고, 이를 건축물 및 시설물의 붕괴와 같은 재난현장조사에 효율적으로 활용하기 위해 정확도 평가를 수행하였다. 정확도 평가는 검사점 좌표 비교를 통해 수행하였고, 실내 및 실외 각각의 모델과 실내외 정합 모델을 각각 수행하여 다음과 같은 결과를 확인하였다.

첫째, 타겟 정합과 auto and visual alignment 정합 2가지 실내 모델과 드론 비행 고도 30 m와 50 m2가지 case로 총 4개 case에 대해 정확도 평가를 실시한 결과, 실내 모델의 RMSE는 약 2 cm, 실외 모델은 약 3 cm 정도의 높은 정확도를 확인하였다. 이에, 타겟의 설치가 필요하지 않은 auto and visual alignment 방식과 드론 자체에 탑재되어 있는 RTK-GNSS 만으로 충분히 높은 정확도를 확보할 수 있는 것으로 확인되어 실제 현장에서 유용할 것으로 판단된다.

둘째, 실내외 8가지 case별로 건물 3차원 모델 생성 및 정확도를 평가한 결과, 정합 방식별 3D 모델 정확도는 근소한 차이의 오차가 발생함을 알 수 있었다. 그리고 타겟 정합 실내 모델과 고도 30 m의 실외 모델의 융합한 case의 RMSE가 0.020, 0.023, 0.018 m로 가장 양호하게 나타났으며, auto and visual alignment 실내 모델과 비행 고도 30 m에서 구축한 실외 모델을 융합한 case의 정확도가 가장 낮은 것으로 확인되었다. 또한, auto and visual alignment 실내 모델과 고도 50 m 실외 모델을 융합한 case의 RMSE가 0.029, 0.049, 0.017 m로 양호하게 확인되어 제약이 많은 재난현장에서 활용 가능성이 충분한 것으로 판단된다. 따라서, 본 연구에서는 지상 및 드론 LiDAR를 활용하여 구축한 모델과 두 LiDAR를 통해 구축한 융합 모델의 정확도를 평가한 결과를 통해 재난현장조사에 활용할 수 있는 가능성을 확인하였으며, 재난현장의 상황에 맞게 활용한다면 더욱 효율적이고 신속한 현장조사가 이루어질 것으로 생각된다.

사사

이 논문은 2024년 국립재난안전연구원의 “재난안전관리업무지원기술개발(R&D)-이동형 로봇기반 재난사고 현장조사 공유 기술개발(NDMI-2024-06-02)”의 지원으로 수행되었습니다.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

Fig 1.

Figure 1.Research target building.
Korean Journal of Remote Sensing 2024; 40: 1369-1378https://doi.org/10.7780/kjrs.2024.40.6.2.8

Fig 2.

Figure 2.Location of checkpoints.
Korean Journal of Remote Sensing 2024; 40: 1369-1378https://doi.org/10.7780/kjrs.2024.40.6.2.8

Fig 3.

Figure 3.Scan position and target location. (a) First floor. (b) Second floor.
Korean Journal of Remote Sensing 2024; 40: 1369-1378https://doi.org/10.7780/kjrs.2024.40.6.2.8

Fig 4.

Figure 4.Indoor model using terrestrial LiDAR. (a) Target registration. (b) Auto and visual alignment.
Korean Journal of Remote Sensing 2024; 40: 1369-1378https://doi.org/10.7780/kjrs.2024.40.6.2.8

Fig 5.

Figure 5.Outdoor model using terrestrial LiDAR. (a) Altitude 30 m. (b) Altitude 50 m.
Korean Journal of Remote Sensing 2024; 40: 1369-1378https://doi.org/10.7780/kjrs.2024.40.6.2.8

Table 1 . Specifications for GNSS and Total Station.

EquipmentSpecificationImage
Trimble R10Positioning accuracy (Static, mm)Hor. 3 ± 0.1 ppm
Ver. 3.5 ± 0.4 ppm
Positioning accuracy (RTK, mm)Hor. 8 ± 1 ppm
Ver. 15 ± 1 ppm
Leica TS10Range (m)Non-prism0.9–1,000
Prism0.9–3,500
Accuracy (mm)Non-prism2 ± 2 ppm
Prism1 ± 1.5 ppm

RTK: real time kinematic..


Table 2 . Checkpoint coordinates.

PointX (m)Y (m)Z (m)
CP1391256.621237467.43213.163
CP2391267.886237466.47214.157
CP3391262.690237472.16314.132
CP4391259.727237463.03512.873
CP5391268.801237477.76320.862
CP6391276.361237468.79215.292
CP7391274.019237471.55320.757
CP8391276.236237462.67420.841
CP9391275.910237462.39115.295
CP10391270.663237456.68015.407
CP11391269.822237457.28520.831

Table 3 . Specifications for terrestrial LiDAR.

EquipmentSpecificationImage
Leica BLK360Field of view (°)Hor. 360° / Ver. 300°
Range (m)Min. 0.6–up to 60m
Pint measurement rate (pts/sec)Max. 360,000 pts/sec
Ranging accuracy (mm)4 (at 10 m) / 7 (at 20 m)
Measurement modes3 user selectable resolution settings

Table 4 . Specifications for drone and LiDAR sensor.

EquipmentSpecificationImage
DJI Matrice 300 RTKMaximum takeoff weight (kg)9
Accuracy (m)Hovering (P mode)Hor. ±0.1
Ver. ±0.1
Positioning (RTK)Hor. ±0.01
Ver. ±0.015
Fight time (min.)Max. 55
Operating temperature (°C)–20 to 50
DJI Zenmuse L1Ranging accuracy (cm)3 (at 100 m)
Pint measurement rate (pts/s)Max. 480,000
Supported max. returns3 returns
Scan modeRepetitive/Non-repetitive
Field of view (°)Repetitive: 70.4 × 4.5
Non-repeatitive: 70.4 × 77.2

Table 5 . Flight settings and results.

Altitude (m)MethodShooting angle (°)Point density (point/m2)Ground sample distance (GSD, cm/pixel)
30Normal904,0830.82
Smart oblique452,6631.16
50Normal902,4501.36
Smart oblique451,5971.93

Table 6 . Accuracy assessment of indoor models (each registration method).

CheckpointTarget registrationAuto and visual alignment
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP10.0190.018-0.0050.0140.019-0.010
CP20.0220.020-0.0050.0160.020-0.009
CP30.0190.023-0.0030.0150.024-0.005
CP40.0200.018-0.0070.0150.019-0.014
RMSE0.0200.0200.0050.0150.0210.010

Table 7 . Accuracy assessment of outdoor models (each flight altitude).

CheckpointFlight altitude @30 mFlight altitude @50 m
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP50.0240.0210.0100.0240.012-0.050
CP60.004-0.028-0.0390.000-0.034-0.039
CP70.016-0.009-0.0220.017-0.011-0.009
CP8-0.013-0.043-0.014-0.014-0.043-0.016
CP9-0.030-0.026-0.037-0.029-0.030-0.033
CP10-0.044-0.024-0.038-0.048-0.018-0.035
CP11-0.037-0.028-0.043-0.040-0.022-0.032
RMSE0.0270.0270.0320.0290.0270.033

Table 8 . Overview of indoor and outdoor registration models.

CaseIndoor (Terrestrial LiDAR)Outdoor (Drone LiDAR)Registration method
1Terrestrial LiDAR model (Target registration)Drone LiDAR model (@30 m)Target registration
2Visual alignment
3Drone LiDAR model (@50 m)Target registration
4Visual alignment
5Terrestrial LiDAR model (Auto and visual alignment)Drone LiDAR model (@30 m)Target registration
6Visual alignment
7Drone LiDAR model (@50 m)Target registration
8Visual alignment

Table 9 . Accuracy assessment of fused models (case 1 and case 2).

CheckpointModel no. 1Model no. 2
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.018-0.0080.027-0.018-0.0080.027
CP60.019-0.0270.0080.019-0.0270.008
CP70.001-0.0130.0160.001-0.0130.016
CP80.001-0.0340.0320.001-0.0340.032
CP90.006-0.0180.0050.006-0.0180.005
CP100.020-0.036-0.0130.020-0.036-0.013
CP110.003-0.041-0.0220.003-0.041-0.023
RMSE0.0200.0230.0180.0230.0230.020

Table 10 . Accuracy assessment of fused models (case 3 and case 4).

CheckpointModel no. 3Model no. 4
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.020-0.0020.039-0.036-0.0020.038
CP6-0.028-0.0470.001-0.029-0.034-0.001
CP7-0.024-0.0260.015-0.019-0.0310.013
CP8-0.055-0.0550.023-0.049-0.0440.020
CP9-0.064-0.037-0.003-0.056-0.025-0.006
CP10-0.070-0.035-0.010-0.054-0.031-0.016
CP11-0.072-0.039-0.018-0.058-0.037-0.024
RMSE0.0450.0310.0180.0410.0260.020

Table 11 . Accuracy assessment of fusion models (case 5 and 6).

CheckpointModel no. 5Model no. 6
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1-0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP50.0920.0690.0730.0920.0690.073
CP60.0650.0060.1080.0650.0060.108
CP70.1040.0630.1300.1040.0630.130
CP80.0920.0420.1730.0920.0420.173
CP90.0510.0160.1570.0510.0160.157
CP100.0530.0150.2230.0530.0150.223
CP110.0860.0490.2260.0860.0490.226
RMSE0.0660.0360.1310.0670.0360.132

Table 12 . Accuracy assessment of fusion models (no. 7 and 8).

CheckpointModel no. 7Model no. 8
dX (m)dY (m)dZ (m)dX (m)dY (m)dZ (m)
CP1–0.0290.015-0.019-0.0340.016-0.024
CP2-0.0270.001-0.009-0.0330.001-0.013
CP3-0.0230.015-0.016-0.0270.016-0.018
CP4-0.0340.008-0.013-0.0390.009-0.020
CP5-0.0100.001-0.021-0.009-0.040-0.029
CP6-0.014-0.033-0.001-0.010-0.073-0.006
CP7-0.007-0.0120.026-0.003-0.0510.019
CP8-0.033-0.0370.020-0.025-0.0750.016
CP9-0.038-0.022-0.001-0.031-0.063-0.004
CP10-0.045-0.015-0.010-0.036-0.058-0.011
CP11-0.047-0.020-0.009-0.037-0.061-0.009
RMSE0.0310.0200.0150.0290.0490.017

References

  1. Jung, Y. H., Lim, E. T., Suk, J. W., Koo, S., and Kim, S. S., 2023. Utilization of drone LiDAR for field investigation of facility collapse accident. Korean Journal of Remote Sensing, 39(5-2), 849-858. https://doi.org/10.7780/kjrs.2023.39.5.2.9
  2. Kim, C. H., Kim, H. W., Kang, G. M., Kim, G. Y., Kim, W. H., and Park, C. H., et al, 2016. Shipborne mobile LiDAR (light detection and ranging) system for the monitoring of coastal changes. Economic and Environmental Geology, 49(4), 281-290. https://doi.org/10.9719/EEG.2016.49.4.281
  3. Kim, J., Ahn, S. Y., Min, J. H., and Bae, K. S., 2017. Analysis of traversable candidate region for unmanned ground vehicle using 3D LiDAR reflectivity. Transactions of the Korean Society of Mechanical Engineers, 41(11), 1047-1053. https://doi.org/10.3795/KSMEA.2017.41.11.1047
  4. Lee, H. H., Lee, J. I., Oh, M. K., and Lee, K. D., 2016. Experimental comparative analysis of terrestrial LiDAR data and cadastral data for the calculation of the slope area of highland agriculture region. Journal of Cadastre &Land InformatiX, 46(2), 137-153. https://doi.org/10.22640/lxsiri.2016.46.2.137
  5. Lee, J. G., 2023. A study on the accuracy analysis and registration of drone image and LiDAR data for building BIM construction. Doctoral dissertation, Pukyong National University, Busan, Republic of Korea.
  6. Lee, J. G., and Suh, Y. C., 2022. Indoor and outdoor building modeling based on point cloud data convergence using drone and terrestrial LiDAR. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 40(6), 613-620. https://doi.org/10.7848/ksgpc.2022.40.6.613
  7. Lee, K. W., and Park, J. K., 2019. Comparison of characteristics of 3D laser scanner for construction of indoor geospatial information. International Journal of Advanced Science and Technology, 129, 151-160. https://doi.org/10.33832/ijast.2019.129.13
  8. Park, H. K., 2017. 3D Measurement method based on point cloud and solid model for urban single trees. Korean Journal of Remote Sensing, 33(6-2), 1139-1149. https://doi.org/10.7780/kjrs.2017.33.6.2.8
  9. Park, J. K., and Um, D. Y., 2020. Accuracy evaluation by point cloud data registration method. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 38(1), 35-41. https://doi.org/10.7848/ksgpc.2020.38.1.35
  10. Park, J. M., Yim, J. S., Kang, J. T., Cho, H. J., and Kim, D. G., 2024. Pipeline approach to segmenting individual trees from terrestrial LiDAR forest data. Journal of Korea Multimedia Society, 27(3), 420-435. https://doi.org/10.9717/kmms.2024.27.3.420
  11. Seo, J. P., Lee, C. W., Kim, D. Y., and Woo, C. S., 2016. Estimating of annual sediment yield at mountain stream in fire/landslide damaged forest by using terrestrial LiDAR spatial analysis. Journal of The Korean Society of Hazard Mitigation, 16(6), 219-227. https://doi.org/10.9798/KOSHAM.2016.16.6.219
  12. Shin, Y. H., Hyung, S. W., Son, K. W., and Lee, D. C., 2023. Building modeling from airborne LiDAR data using deep learning trained with simulated dataset. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 41(6), 439-461. https://doi.org/10.7848/ksgpc.2023.41.6.439
  13. Trepekli, K., Balstrom, T., Friborg, T., Fog, B., Allotey, A. N., Kofie, R. Y., and Møller-Jensen, L., 2022. UAV-borne, LiDAR-based elevation modelling: A method for improving local-scale urban flood risk assessment. Natural Hazards, 113, 423-451. https://doi.org/10.1007/s11069-022-05308-9
KSRS
December 2024 Vol. 40, No.6, pp. 1005-989

Metrics

Share

  • line

Korean Journal of Remote Sensing