Korean J. Remote Sens. 2024; 40(5): 479-493
Published online: October 31, 2024
https://doi.org/10.7780/kjrs.2024.40.5.1.6
© Korean Society of Remote Sensing
남윤지1, 손종환2, 김태정3, 이수암4*
1인하대학교 공간정보공학과 석사과정생
2(주)쓰리디랩스 영상공학연구소 선임연구원
3인하대학교 공간정보공학과 교수
4(주)쓰리디랩스 영상공학연구소 연구소장
Correspondence to : Sooahm Rhee
E-mail: ahmkun@3dlabs.co.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
The Korean government plans to launch the CAS500-4 specialized for efficient management of the land. The CAS500-4 enables periodic monitoring of the Korean Peninsula with a spatial resolution of 5m along a 120 km swath width and a short revisit cycle of 3 days. To increase the usability of the CAS500-4, a process of removing geometric distortion is necessary. For this process, ground control points (GCPs) are used as key data. Acquiring GCPs through a field survey takes time and cost and cannot be achieved for inaccessible and overseas areas. In this study, we propose a method to automatically extract GCP based on Sentinel-2 Level-1C (L1C) images and generate CAS500-4 ortho-images using Rapideye 1B images with specifications like the CAS500-4 images. The proposed method is performed by generating GCP and ortho-images generation through geometric correction. After verifying the accuracy of the generated ortho-images, the sensor model accuracy before and after the geometric correction was analyzed. As a result, the sensor model accuracy with an error of less than 2 pixels was confirmed in all experimental images. Therefore, the proposed method is possible to automatically acquire GCP, it is expected to be utilized in the generation of ortho-images of CAS500-4 images in the future.
Keywords CAS500-4, Extraction of automatic GCP, Precision geometric correction, Precision orthoimage
위성영상은 접근하기 어렵고 광범위한 지역에 대한 정보를 주기적으로 취득할 수 있다는 이점으로 인해 다양한 분야에서 그 수요가 증가하고 있다. 이에 따라 우리나라에서도 위성영상에 대한 다양한 수요에 대응하기 위해 다목적 실용위성을 시작으로 차세대 중형위성, 초소형 위성 등 다양한 위성을 지속적으로 개발하고 있다. 특히, 한반도의 경우 농지와 산림이 국토 면적의 80%를 차지하고 있기 때문에 효율적인 국토 모니터링을 위해서는 이에 특화된 위성영상이 필수적이다. 이에 대한민국 정부는 농업 및 산림 분야에 특화된 농림위성을 발사할 예정이다. 농림위성은 120 km의 관측폭에 5 m 공간해상도를 제공하며, 농작물 및 산림자원의 관측을 위해 기존 국토위성(차세대 중형위성 1호)의 분광해상도인 Blue, Green, Red, near infrared (NIR) 밴드에 식생에 민감한 Red-Edge 밴드를 추가하여 탑재하였다(Kim et al., 2016a). 또한, 한반도 재방문 주기가 3일로 매우 짧기 때문에 한반도의 주기적인 광역 모니터링이 가능하다. 이러한 농림위성영상의 활용성을 높이기 위해서는 기하 정확도가 높은 위성영상이 사용자에게 제공되어야 한다.
위성영상은 위성의 자세, 궤도 정보 등으로 인해 위치오차를 포함하고 있어 이러한 오차를 보정하기 위해서는 정밀 기하보정이 반드시 수행되어야 한다. 이때 정밀 기하보정에는 정확한 지상좌표를 알고 있는 지상기준점(ground control point, GCP)이 필요하다. 그러나 현장 측량을 통한 지상좌표의 취득은 많은 시간과 비용이 소요되며, 특히 접근이 불가능한 지역과 해외지역에 대해서는 취득이 어렵다. 이를 위해 2000년대 초 수행된 연구에서는 과거에 사용했던 지상기준점을 새로운 위성영상의 기하보정을 위해 재사용하는 방법을 제안하였으며(Kim and Im, 2003), Lim et al. (2004)은 기하 보정된 Landsat-7 영상에서 지상기준점을 수동으로 추출하여 Kompsat-1의 왜곡된 기하를 보정하고자 하였다. 이후, 2010년대 후반에 수행된 연구에서는 국토지리정보원에서 운영하는 국토정보 맵으로부터 통합기준점 조서와 항공정사영상을 사용하여 지상기준점을 추출하고 이를 Kompsat-3A 영상의 정밀 센서모델 수립을 위한 관측자료로 사용하였다(Yoon et al., 2018). 그러나 해당 연구는 수동으로 지상기준점을 추출하므로 촬영주기가 짧은 위성영상이 지속적으로 수신될 경우, 지형 변화가 고려되지 않은 지상기준점을 사용함으로써 처리된 기하보정 성능이 저하될 수 있다. 그러므로 지상기준점의 최신성을 유지하기 위해서는 자동으로 지상기준점을 추출하는 기술이 필요하다.
이를 보완하기 위해, Lee and Yoon (2019)은 Kompsat-2 영상으로 제작된 정사영상을 활용하여 Harris corner, scale-invariant feature transform (SIFT), speeded-up robust feature (SURF) 등 특징점 추출 기법을 적용하여 지상기준점을 자동으로 추출하는 방안을 제안함으로써 다량의 지상기준점 구축 가능성을 분석하였다. 또한, Park et al. (2020)은 국토위성영상의 자동 정밀 기하보정을 위해 Kompsat-2 영상과 digital elevation model (DEM) 자료를 이용하여 자동으로 지상기준점을 추출하였다. 앞선 연구들은 고해상도 위성영상의 기하보정을 위해 정사영상 및 항공영상 상에서 지상기준점을 추출하였으며, 농림위성과 같은 중·저해상도 영상의 기하보정을 위한 방안은 제시되지 않았다.
최근 농림위성영상 및 중·저해상도 영상의 기하보정을 위해 Lee and Kim (2021)은 국토위성용 지상기준점의 사용가능성을 검토하고 정합 성능 향상을 위한 적절한 공간해상도를 검토하였으며, Choi and Kim (2022)은 국토위성용 지상기준점을 기반으로 농림위성영상의 기하보정 시 최적의 해상도와 지상기준점 칩의 개수를 분석하였다. 앞서 수행된 연구는 농림위성의 기하보정을 위해 기 구축된 국토위성용 지상기준점을 사용하였으며, 이는 국토위성영상의 특성을 고려하여 제작되었기 때문에 농림위성의 기하보정에 적용 시 정확도에 한계가 발생할 수 있다. 이러한 한계를 극복하기 위해서는 농림위성의 특성에 적합한 지상기준점 구축이 필수적이다.
농림위성영상은 전 지구 단위로 촬영되기 때문에 이를 포함하는 정사영상을 제작하기 위해서는 전 지구 단위의 지상기준점이 필요하다. Sentienl-2 영상은 290 km 넓은 촬영폭을 가지며, 농림위성영상의 분광해상도와 유사한 밴드를 포함하고 있다. 따라서 Sentinel-2 영상은 전 세계 정밀 정사영상이 제공 가능하며, 산림자원과 농작물 등 모니터링에 사용 가능하다는 특성이 있다(Son et al., 2021b). 이에 본 연구에서는 전 세계 정밀 정사영상을 제공하는 Sentinel-2 영상에서 특징점을 추출하고 이를 기반으로 지상기준점 패치를 자동으로 제작하였다. 이를 통해 자동으로 지상기준점을 추출하고 농림위성영상의 정사영상을 제작할 수 있는 방안을 제시하고자 한다.
본 연구에서는 10 m 공간해상도의 중·저해상도 영상인 Sentinel-2 영상을 기반으로 자동으로 지상기준점을 추출할 수 있는 기술을 개발하여 농림위성영상의 정사영상 제작 방안을 제시한다. 본 연구의 방법은 크게 지상기준점 패치 제작, 기하보정 2단계로 진행되며 아래의 Fig. 1과 같다. 우선 지상기준점 제작 단계에서는 농림위성과 동일한 지역을 촬영한 Sentienl-2 L1C 영상을 수집하고 이를 기반으로 feature from accelerated segment test (FAST) 알고리즘을 적용하여 특징점을 추출한다. 이후, 추출된 특징점의 지상좌표에 대응되는 높이값을 추출하기 위해 shuttle radar topography mission (SRTM)과 지오이드(geoid) 모델인 Earth gravitational model 2008 (EGM2008)에서 추출한다. 이후, 추출된 특징점을 중심으로 125 × 125 크기의 지상기준점 패치를 제작하였다. 그런 다음 제작된 지상기준점 패치와 목표영상 간 매칭을 수행하여 자동으로 지상기준점을 추출한다. 최종적으로 추출된 지상기준점을 기반으로 정밀 센서모델링을 수행한 후 정사보정을 통해 정사영상을 생성한다.
특징점은 영상의 corner, edge, line 등과 같이 주변 화소값과 비교하였을 때 화소값이 급격하게 변화하는 지점을 말하며, 이는 영상의 축척과 회전의 영향을 받지 않는다(Kim and Kim, 2015). 또한, 특징점은 입력되는 영상의 크기, 영상의 촬영 지역, 특징점 추출 기법의 종류에 따라 수백, 수천개의 특징점이 추출될 수 있다. 대표적인 특징점 추출 기법으로는 SIFT, SURF, FAST 등이 있으며, 대부분 영상 내 객체 탐지나 영상 간 정합 등을 위해 사용되고 있다.
SIFT 알고리즘은 축척, 회전 등의 변화에 강인하지만 연산량이 많아 수행 속도가 느리다(Kim et al., 2023). SURF 알고리즘은 SIFT 알고리즘을 개선한 방법으로 SIFT에 비해 수행 속도가 개선되었으나 여전히 연산량이 많다는 특징이 있다. FAST 알고리즘은 SIFT, SURF 등의 특징점 추출 방법과는 다르게 픽셀 간 화소값 비교를 통해 특징점을 검출하기 때문에 연산량이 적어 빠른 속도로 특징점 검출이 가능하다는 이점을 가지고 있다(Rosten and Drummond, 2006; Kim et al., 2016b). 따라서 본 연구에서는 FAST 알고리즘을 이용하여 기준 영상 내 특징점을 추출하였다. 또한, 정밀 기하보정의 안정적인 수행을 위해서는 약 100개 이상의 지상기준점이 필요하다(Choi and Kim, 2022). 이를 위해 FAST 알고리즘 적용 시 수동으로 임계값을 설정하여 약 100개 정도의 특징점이 추출될 수 있도록 한다. 이어서, 추출된 특징점의 중심 화소의 영상좌표 열, 행을 정방향 매핑하여 지상좌표 X, Y를 추출하였다. 그리고 Sentinl-2 영상에서 추출한 지상좌표 X, Y 좌표는 UTM 좌표이다. 그러나 농림위성은 UTM-K 좌표계로 이에 적용하기 위해서는 Sentinel-2 영상에서 추출된 좌표를 UTM-K로 좌표 변환하여 최종 지상기준점 X, Y 좌표를 추출하였다.
지상기준점은 영상자료와 지상좌표 X, Y, Z로 구성되어 있으며, 그중 영상자료에서의 X, Y 좌표는 Sentienl-2 영상에서 FAST 알고리즘을 적용하여 추출된 특징점에서 취득하였다. 여기서 좌표 Z는 높이값을 의미하며 해당 값을 추출하기 위해서는 수치표고자료가 필요하다. 이를 위해 본 연구에서는 전 세계를 대상으로 높이값을 제공하는 SRTM과 EGM2008 지오이드 모델을 사용하였다. 본 연구에서 최종적으로 산출하고자 하는 높이값은 타원체고로 정표고와 지오이드고의 합으로 계산된다. 따라서 본 연구에서는 추출된 특징점과 일치하는 지점의 타원체고를 산출하기 위해 SRTM에서는 정표고를, EGM2008에서는 지오이드고를 추출하였다. 그러나 제작된 지상기준점 패치는 10 m의 공간해상도를, 높이값 추출을 위한 SRTM은 30 m의 공간해상도를 가지고 있다. 이에 따라 두 자료 간 일치하는 지점을 찾기 위해서는 공간해상도의 차이가 발생한다. 그러므로 본 논문에서는 Bilinear 보간법을 적용하여 최종적으로 높이값을 추출하였다(Fig. 2).
제안된 방법에서는 목표영상을 넓은 범위로 커버할 수 있도록 추출된 특징점을 중심으로 10 m의 공간해상도에 125 × 125 사이즈의 패치를 제작한다. 또한, 제작된 패치는 GeoTiff 파일 형식으로, 패치간 매칭 시 지상좌표 X, Y, Z 값을 빠르게 취득 가능하도록 파일 명명 규칙을 Chip_X_Y_Z.tif로 설정하였으며 제작된 패치의 세부 정보는 Table 1과 같다.
Table 1 Attribute of patch image
List | Contents | Remark |
---|---|---|
Image data | Sentienl-2 | Product level: L1C |
Band | Blue, Green, Red | - |
Patch size | 125 × 125 | Resolution 10 m |
Ground coordinate | X, Y | UTM-K |
Height | Ellipsoid height | Orthometric height+ geoid |
Patch image name convention | Chip_X_Y_Z.tif | X, Y: ground coordinate Z: height- |
위성영상의 기하보정을 수행하기 위해 FAST 특징점 기반의 지상기준점 패치를 사용하여 Fig. 3과 같이 지상기준점을 추출하였다. 지상기준점 패치의 지상좌표와 보정되지 않은 목표영상의 rational polynomial coefficient (RPC)를 기반으로 역방향 매핑을 수행하여 목표영상에서의 좌표를 추정한다. 그런 다음 추정된 영상좌표를 중심으로 제작된 지상기준점 패치와 목표영상 간 대응되는 위치를 찾기 위해 검색 영역을 설정한다. 이 때 검색 영역은 제작된 패치 보다 α만큼 큰 영역으로 설정하며, 해당 값은 경험적 실험을 통해 도출된 값을 적용한다. 본 연구에서는 검색영역을 200 pixels로 설정하였다.
그런 다음 zero mean normalized cross correlation (ZNCC) 알고리즘을 적용하여 목표영상과 지상기준점 패치 간 화소값 유사도를 비교하였으며, 이 중 유사도가 가장 높게 산출된 지점을 정합점으로 선정하였다. 본 연구에 적용된 ZNCC 알고리즘의 수식은 아래의 식(1)과 같다. 식(1)에서 f와 g는 목표영상과 지상기준점 패치를 의미하며, M과 N은 지상기준점 패치의 열과 행의 크기를 의미한다. fi와 gi는 목표영상과 지상기준점 패치에 대한 i번째 화소값을 의미하고 f, g는 두 영상의 화소값 평균을 의미한다. 아래의 식은 두 영상의 평균을 기반으로 정규화를 수행하였기 때문에 –1과 1 사이의 값을 가지며, 1에 가까울수록 높은 유사도를 가진다.
자동으로 추출된 지상기준점 중에서는 필연적으로 오정합점이 존재하기 때문에 이를 random sample consensus (RANSAC) 알고리즘을 활용하여 자동으로 제거하였다. RANSAC알고리즘은 모델 수립에 필요한 최소 크기의 표본을 임의로 반복 추출하여 모델을 수립한 후 가장 많은 수의 자료로부터 지지를 받은 모델을 최종 모델로 선정하는 기법이다(Fischler and Bolles, 1981). 이후 오정합점이 제거된 자동 정합 결과를 바탕으로 센서 모델링을 수립한다.
센서모델이란 위성영상의 영상 좌표계와 지상 좌표계 간의 기하학적 관계를 의미한다. 센서모델은 크게 위성의 위치, 자세 등의 정보를 요구하는 물리적 모델, 영상좌표와 지상좌표의 관계를 수학적 모델로 표현하는 수학적 모델, 위성의 위치, 자세 등의 정보 없이 단순화된 모델로 표현하는 추상적 모델로 구분된다(Son et al., 2021a). 이러한 수학적 모델 중 하나인 rational function model (RFM)은 투영방적식과 매우 유사하여 좌표계에 유연하며 실시간 구현에 용이하다는 이점으로 인해 현재 대다수의 위성영상의 센서모델 시 적용되고 있다. 따라서 본 논문에서는 수학적 모델인 RFM 모델을 이용하여 기하보정을 수행하였으며, 영상 및 지상좌표와의 관계를 나타내는 RFM은 식(2)와 같이 표현된다.
위의 수식에서 cn과 rn은 정규화된 영상좌표이며, Xn, Yn, Zn은 정규화된 지상좌표를 나타낸다. aijk, bijk, cijk, dijk는 각 영상의 행, 열 좌표와 지상좌표 간 관계를 정의하는 유리함수식을 구성하는 유리다항식 P1, P2, P3, P4의 계수이다. RPC 보정 방법에는 다항식 조정과 RPC 블록조정으로 크게 두 가지가 있다. 다항식 조정은 기준점의 지상좌표와 제공되는 RPC로부터 획득되어지는 지상좌표 간 오차를 다항식으로 조정하는 방법이다. RPC 블록조정은 RPC의 영상좌표 오차항을 조정계수로 두고 번들 블록 조정을 적용하는 방법이다. RPC 블록조정은 조정계수 2개만으로도 RPC 보정이 가능하다는 이점이 있다(Lee et al., 2013). RPC 블록조정 방법에는 translate 변위오차 계산을 통한 보정, affine 변환, 다항식 변환이 있다. 이 중 본 논문에서는 이동, 축척, 회전에 모두 강인한 특징을 보이는 affine 변환 계수를 이용하여 정밀 센서모델링을 수행하며 아래의 식(3)과 같다.
위의 수식에서 a0, ac, ar, b0, bc, br은 최소제곱에 의해 계산되는 미지 변수를 나타내며, Δp과 Δr은 각각 열, 행 방향으로 조정된 값을 나타낸다.
본 논문에서는 자동 추출된 지상기준점 열, 행과 초기 센서모델을 통해 추정된 열, 행을 기반으로 affine 변환 계수를 추정함으로써 갱신된 RPC 계수를 추출하고 이를 통해 정밀 센서모델을 수립한다. 이후 이를 기반으로 DEM자료에 매핑함으로써 높이값을 획득하여 정사영상을 생성한다.
본 논문에서는 지상기준점 패치 제작을 위해 전 세계 정밀 정사영상을 제공하는 Sentinel-2 L1C 영상을 사용하였으며 천안시, 인천시, 의정부시, 강원도 양구군, 개성시의 총 5장의 영상을 사용하였다(Fig. 4). 또한, 패치 제작을 위해 Blue, Green, Red 밴드가 합성된 영상을 사용하였으며 이는 10 m급의 공간해상도로 자세한 사양은 Table 2와 같다.
Table 2 Specification of Sentinel-2 images
Area | Cheonan | Incheon | Uijeongbu | Yanggu | Gaesung |
---|---|---|---|---|---|
Satellite | Sentienl-2 | ||||
Product level | L1C | ||||
Spectral band | Coastal aerosol (442.7 nm (S2A), 442.3 nm (S2B)) | ||||
Blue (492.4 nm (S2A), 492.1 nm (S2B)) | |||||
Green (559.8 nm (S2A), 559.0 nm (S2B)) | |||||
Red (664.6 nm (S2A), 665.0 nm (S2B)) | |||||
Vegetation red edge, 704.1 nm (S2A), 703.8 nm (S2B) | |||||
Vegetation red edge, 740.5 nm (S2A), 739.1 nm (S2B) | |||||
Vegetation red edge, 782.8 nm (S2A), 779.7 nm (S2B) | |||||
NIR, 832.8 nm (S2A), 833.0 nm (S2B) | |||||
Narrow NIR, 864.7 nm (S2A), 864.0 nm (S2B) | |||||
Water vapor, 945.1 nm (S2A), 943.2 nm (S2B) | |||||
SWIR - Cirrus, 1373.5 nm (S2A), 1376.9 nm (S2B) | |||||
SWIR, 1613.7 nm (S2A), 1610.4 nm (S2B) | |||||
SWIR, 2202.4 nm (S2A), 2185.7 nm (S2B) | |||||
Coordinate system | WGS 84 / UTM zone 52N | ||||
Image size | 10,980 × 10,980 | ||||
GSD (m) | 10 m |
본 연구에서는 자동 추출된 지상기준점을 이용하여 정사영상을 생성하기 위해 농림위성 영상과 유사한 사양의 Rapideye 영상을 사용하였다. 연구에 사용한 Rapideye 영상은 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상을 사용하였으며 Fig. 5와 같다. Rapideye 영상은 기하왜곡이 제거되지 않은 처리된 1B 영상을 사용하였으며, 6.5 m의 공간해상도를 가진다. 분광해상도는 Blue, Green, Red, RedEdge, NIR 5개로 농림위성과 동일하며, 자세한 사양은 아래의 Table 3과 같다.
Table 3 Specification of Rapideye images
Area | Cheonan | Incheon | Uijeongbu | Yanggu | Gaesung |
---|---|---|---|---|---|
Satellite | Rapideye | ||||
Product level | 1B (Basic product) | ||||
Spectral band | Blue (410–510 nm) | ||||
Green (520–590 nm) | |||||
Red (630–685 nm) | |||||
Red-Edge (690–730 nm) | |||||
NIR (760–850 nm) | |||||
Image size | 11,754 × 11,965 | 11,824 × 14,509 | 11,819 × 15,360 | 11,760 × 14,196 | 11,772 × 11,910 |
GSD (m) | 6.5 m |
지상기준점의 높이값 추출을 위한 기반 자료는 SRTM과 EGM2008 지오이드 모델을 사용하였다(Fig. 6). SRTM과 EGM2008은 WGS84 타원체를 기반으로 전 세계의 높이 정보를 제공하고 있으나 본 연구에서는 한반도에 해당하는 자료만 사용하였다. SRTM의 공간해상도는 30 m로 해당 자료에서 의미하는 높이값은 정표고를 의미하며 자세한 사양은 Table 4와 같다. EGM2008의 공간해상도는 5′ × 5′로 EGM2008은 WGS84 타원체로 여기서 의미하는 높이값은 지오이드고를 의미하며 자세한 사양은 Table 4와 같다. 본 연구에서 사용되는 높이값은 타원체고로, 이는 정표고와 지오이드고의 합으로 최종적으로 산출할 수 있다.
Table 4 Specification of SRTM DEM and EGM2008
List | SRTM DEM | EGM2008 |
---|---|---|
Horizontal datum | WGS84 | WGS84 |
Height value | Orthometric height | Geoid height |
Spatial resolution | 30 m | 5’ × 5’ |
Sentinel-2 영상을 기반으로 FAST 알고리즘을 적용해 추출된 특징점 결과는 아래의 Fig. 7과 같다. 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상에 대하여 추출된 특징점은 천안 418개, 인천 374개, 의정부 181개, 강원도 양구 108개, 북한 개성 101개로 추출되었다. 추출된 특징점은 대체로 농경지, 도심지에 다수 분포하고 있으며 건물, 수계, 지형의 경계 등과 같이 주변 픽셀과 비교하였을 때 화소값이 급격히 변하는 지점을 특징점으로 선정하였음을 확인하였다. 또한, 산악지는 농경지, 도심지에 비해 적은 수량의 특징점이 분포하였으며 대체로 산림 내 도로, 건물, 지형의 경계 등에서 추출되었음을 확인하였다. 이는 농경지, 도심지에 비해 지형적 특징이 적기 때문에 적은 수량의 특징점이 추출되는 것으로 판단된다.
자동으로 추출된 지상좌표 X, Y, Z를 기반으로 제작된 지상기준점 패치는 광학영상으로 10 m 공간해상도를 가지며 제작 결과 일부는 Fig. 8과 같다. 지역별로 제작된 지상기준점 패치의 개수는 천안 408개, 인천 364개, 의정부 170개, 강원도 양구군 108개, 개성 96개 패치가 제작되었다. 제작된 패치의 수량을 보면 앞서 추출된 특징점의 개수보다 적은 개수인 것을 확인할 수 있다. 이는 특징점을 중심으로 패치를 제작하기 때문에 영상의 경계 부분에서 추출된 특징점을 중심으로 설정한 크기의 패치를 제작할 경우 Sentinel-2 영상의 범위를 벗어나게 된다. 그러므로 Fig. 9와 같이 영상 내 정보가 손실될 경우 기하보정 처리 사용되기 어렵기 때문에 다음과 같은 경우 패치 제작을 수행하지 않도록 하였다.
제작된 정사영상의 정확도를 검증하기 위해 Rapideye 영상의 기하보정 전·후의 센서모델 정확도를 분석하였다. 우선, Rapideye 영상과 제작된 지상기준점 패치 간 매칭 결과는 Fig. 10과 같으며 주로 건물, 지형의 경계에서 추출된 것을 확인하였다. 더불어 지역별 Rapideye 전체 영상 내 추출된 지상기준점의 분포는 Fig. 11과 같으며 천안 131개, 인천 315개, 의정부 128개, 양구 59개, 개성 50개가 추출되었음을 확인하였다. 또한, 추출된 지상기준점은 주로 도심지, 농경지에 분포하고 있음을 확인하였다. 산악지의 경우 도심지, 농경지에 비해 적은 양의 지상기준점이 분포함을 확인했다. 이는 도심지, 농경지에 비해 뚜렷한 지형적 특성이 존재하지 않아 발생한 것으로 판단된다.
이후, 지상기준점을 기반으로 센서모델링을 수립하여 기하품질을 개선한 후 DEM을 이용하여 정사영상을 Fig. 12와 같이 제작하였다. 제작된 정사영상의 위치 정확도를 평가하기 위해 항공정사영상과 중첩 분석을 수행하였다(Fig. 13). 먼저, Rapideye 1B 영상과 항공정사영상을 중첩하여 영상 경계에 위치한 도로, 하천, 지형의 경계 등을 육안 분석하였다. 그 결과 두 영상 간 이격이 존재함을 확인하였으며, 이는 Rapideye 1B 영상이 위성의 자세, 촬영 각도 등으로 인해 기하학적 왜곡을 포함하고 있기 때문인 것으로 판단된다. 반면, 제안된 기법으로 제작된 정사영상과 항공정사영상을 중첩한 결과, 영상 경계에 위치한 도로, 하천, 지형의 경계 등에서 이격없이 동일한 위치에 존재하는 것을 확인하였다. 이는 제안 기법을 통해 생성된 정사영상은 기하품질이 개선되어 항공정사영상과의 이격이 존재하지 않는 것으로 판단된다.
정사영상 제작 결과 정확도를 정량적으로 평가하기 위해 초기 센서모델 및 정밀 센서모델 정확도를 분석하였다. 이를 위해 본 논문에서는 초기센서모델 정확도와 정밀센서모델 정확도를 정량적으로 평가하였다. 초기센서모델 정확도는 위성영상 제공 시 함께 제공된 초기 RPC를 이용하여 초기 센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 정밀 센서모델 정확도는 추출된 지상기준점을 이용하여 초기센서모델을 보정한 뒤, 정밀센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 지역별 센서모델 정확도 평가를 위해 사용된 지상기준점은 천안 127개, 인천 311개, 의정부 124개, 양구 59개, 개성 49개이다.
지역별 산출된 초기센서모델 정확도는 천안 1.42 pixel, 인천 1.94 pixel, 의정부 2.13 pixel, 양구 2.12 pixel, 개성 0.90 pixel의 정확도를 보였다. 산출된 지역별 정밀센서모델 정확도는 천안 0.56 pixel, 인천 0.74 pixel, 의정부 0.72 pixel, 양구 0.82 pixel, 개성 0.63 pixel의 정확도를 보였다(Table 5). 기하보정 결과 모든 실험 영상에서 센서모델 정확도가 향상되었음을 확인할 수 있었으며, 모두 2 pixels 미만의 센서 모델 정확도를 보였다. 그러나 개성의 경우, 타 지역에 비해 정확도 변화 추이가 적은 것을 확인하였다. 이를 통해 초기 센서 모델링으로 자동 추출한 지상 기준점과 비교하여 센서 모델의 정확도 확보가 가능함을 확인하였다.
Table 5 Sensor modeling accuracy of the proposed method
Data | Initial accuracy before precision geometric (pixel) | Modeling accuracy after precision geometric (pixel) |
---|---|---|
Cheonan | 1.42 | 0.56 |
Incheon | 1.94 | 0.74 |
Uijeongbu | 2.13 | 0.72 |
Yanggu | 2.12 | 0.82 |
Gaesung | 0.90 | 0.63 |
본 논문에서는 Sentinel-2 L1C 영상과 특징점 추출 기법을 활용해 패치를 제작하고 이를 기반으로 위성영상과의 매칭을 통해 자동으로 지상기준점을 추출하여 정사영상을 제작하는 방안을 제시하였다. 또한, 제작된 정사영상의 정확도를 평가하기 위해 기하보정 전·후의 센서모델 정확도를 산출하였다. 그 결과, 모든 영상에서 센서모델 정확도가 2 pixels 미만으로 향상되었음을 확인하였으며, 제안 방안을 통해 자동으로 지상기준점을 취득하여 농림위성 정사영상이 생성 가능함을 확인하였다. 특히, 본 연구에서 제안된 방안을 통해 지상기준점 취득이 어려운 해외지역 농림위성 영상의 자동 기하보정 가능하다는 점에서 의의가 있다.
그러나 제안된 방법은 특징점을 기반으로 자동으로 지상기준점을 추출하므로 참조영상 내 특징점이 편향되어 산출될 경우 정확도에 영향을 미칠 수 있다. 따라서, 추후 연구에서는 영상 내에서 특징점이 편향되지 않고 균등하게 추출할 수 있는 연구를 추가적으로 진행할 예정이다. 또한, 본 논문에서는 제안된 방안의 적용 가능성을 확인하기 위해 한반도를 대상으로 수행되었다. 그러므로 해외지역에서 제안된 방안의 유효성을 검증하기 위해 국외 다양한 지역을 대상으로한 추가 실험을 수행할 것이다.
본 논문은 국립산림과학원 연구과제 “농림위성정보 수신·처리·ARD 표준화 및 지능형 산림정보 플랫폼 개발 연구(과제번호: FM0103-2021-01-2024)”의 지원과 농촌진흥청 국립농업과학원 농업과학기술 연구개발사업의 연구비 지원(과제번호: PJ0162342024)에 의해 수행되었습니다.
No potential conflict of interest relevant to this article was reported.
Korean J. Remote Sens. 2024; 40(5): 479-493
Published online October 31, 2024 https://doi.org/10.7780/kjrs.2024.40.5.1.6
Copyright © Korean Society of Remote Sensing.
남윤지1, 손종환2, 김태정3, 이수암4*
1인하대학교 공간정보공학과 석사과정생
2(주)쓰리디랩스 영상공학연구소 선임연구원
3인하대학교 공간정보공학과 교수
4(주)쓰리디랩스 영상공학연구소 연구소장
Yunji Nam1, Jong-Hwan Son2, Taejung Kim3, Sooahm Rhee4*
1Master Student, Department of Geoinformatic Engineering, Inha University, Incheon, Republic of Korea
2Senior Researcher, Image Engineering Research Center, 3DLabs Co., Ltd., Incheon, Republic of Korea
3Professor, Department of Geoinformatic Engineering, Inha University, Incheon, Republic of Korea
4Director, Image Engineering Research Center, 3DLabs Co., Ltd., Incheon, Republic of Korea
Correspondence to:Sooahm Rhee
E-mail: ahmkun@3dlabs.co.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
The Korean government plans to launch the CAS500-4 specialized for efficient management of the land. The CAS500-4 enables periodic monitoring of the Korean Peninsula with a spatial resolution of 5m along a 120 km swath width and a short revisit cycle of 3 days. To increase the usability of the CAS500-4, a process of removing geometric distortion is necessary. For this process, ground control points (GCPs) are used as key data. Acquiring GCPs through a field survey takes time and cost and cannot be achieved for inaccessible and overseas areas. In this study, we propose a method to automatically extract GCP based on Sentinel-2 Level-1C (L1C) images and generate CAS500-4 ortho-images using Rapideye 1B images with specifications like the CAS500-4 images. The proposed method is performed by generating GCP and ortho-images generation through geometric correction. After verifying the accuracy of the generated ortho-images, the sensor model accuracy before and after the geometric correction was analyzed. As a result, the sensor model accuracy with an error of less than 2 pixels was confirmed in all experimental images. Therefore, the proposed method is possible to automatically acquire GCP, it is expected to be utilized in the generation of ortho-images of CAS500-4 images in the future.
Keywords: CAS500-4, Extraction of automatic GCP, Precision geometric correction, Precision orthoimage
위성영상은 접근하기 어렵고 광범위한 지역에 대한 정보를 주기적으로 취득할 수 있다는 이점으로 인해 다양한 분야에서 그 수요가 증가하고 있다. 이에 따라 우리나라에서도 위성영상에 대한 다양한 수요에 대응하기 위해 다목적 실용위성을 시작으로 차세대 중형위성, 초소형 위성 등 다양한 위성을 지속적으로 개발하고 있다. 특히, 한반도의 경우 농지와 산림이 국토 면적의 80%를 차지하고 있기 때문에 효율적인 국토 모니터링을 위해서는 이에 특화된 위성영상이 필수적이다. 이에 대한민국 정부는 농업 및 산림 분야에 특화된 농림위성을 발사할 예정이다. 농림위성은 120 km의 관측폭에 5 m 공간해상도를 제공하며, 농작물 및 산림자원의 관측을 위해 기존 국토위성(차세대 중형위성 1호)의 분광해상도인 Blue, Green, Red, near infrared (NIR) 밴드에 식생에 민감한 Red-Edge 밴드를 추가하여 탑재하였다(Kim et al., 2016a). 또한, 한반도 재방문 주기가 3일로 매우 짧기 때문에 한반도의 주기적인 광역 모니터링이 가능하다. 이러한 농림위성영상의 활용성을 높이기 위해서는 기하 정확도가 높은 위성영상이 사용자에게 제공되어야 한다.
위성영상은 위성의 자세, 궤도 정보 등으로 인해 위치오차를 포함하고 있어 이러한 오차를 보정하기 위해서는 정밀 기하보정이 반드시 수행되어야 한다. 이때 정밀 기하보정에는 정확한 지상좌표를 알고 있는 지상기준점(ground control point, GCP)이 필요하다. 그러나 현장 측량을 통한 지상좌표의 취득은 많은 시간과 비용이 소요되며, 특히 접근이 불가능한 지역과 해외지역에 대해서는 취득이 어렵다. 이를 위해 2000년대 초 수행된 연구에서는 과거에 사용했던 지상기준점을 새로운 위성영상의 기하보정을 위해 재사용하는 방법을 제안하였으며(Kim and Im, 2003), Lim et al. (2004)은 기하 보정된 Landsat-7 영상에서 지상기준점을 수동으로 추출하여 Kompsat-1의 왜곡된 기하를 보정하고자 하였다. 이후, 2010년대 후반에 수행된 연구에서는 국토지리정보원에서 운영하는 국토정보 맵으로부터 통합기준점 조서와 항공정사영상을 사용하여 지상기준점을 추출하고 이를 Kompsat-3A 영상의 정밀 센서모델 수립을 위한 관측자료로 사용하였다(Yoon et al., 2018). 그러나 해당 연구는 수동으로 지상기준점을 추출하므로 촬영주기가 짧은 위성영상이 지속적으로 수신될 경우, 지형 변화가 고려되지 않은 지상기준점을 사용함으로써 처리된 기하보정 성능이 저하될 수 있다. 그러므로 지상기준점의 최신성을 유지하기 위해서는 자동으로 지상기준점을 추출하는 기술이 필요하다.
이를 보완하기 위해, Lee and Yoon (2019)은 Kompsat-2 영상으로 제작된 정사영상을 활용하여 Harris corner, scale-invariant feature transform (SIFT), speeded-up robust feature (SURF) 등 특징점 추출 기법을 적용하여 지상기준점을 자동으로 추출하는 방안을 제안함으로써 다량의 지상기준점 구축 가능성을 분석하였다. 또한, Park et al. (2020)은 국토위성영상의 자동 정밀 기하보정을 위해 Kompsat-2 영상과 digital elevation model (DEM) 자료를 이용하여 자동으로 지상기준점을 추출하였다. 앞선 연구들은 고해상도 위성영상의 기하보정을 위해 정사영상 및 항공영상 상에서 지상기준점을 추출하였으며, 농림위성과 같은 중·저해상도 영상의 기하보정을 위한 방안은 제시되지 않았다.
최근 농림위성영상 및 중·저해상도 영상의 기하보정을 위해 Lee and Kim (2021)은 국토위성용 지상기준점의 사용가능성을 검토하고 정합 성능 향상을 위한 적절한 공간해상도를 검토하였으며, Choi and Kim (2022)은 국토위성용 지상기준점을 기반으로 농림위성영상의 기하보정 시 최적의 해상도와 지상기준점 칩의 개수를 분석하였다. 앞서 수행된 연구는 농림위성의 기하보정을 위해 기 구축된 국토위성용 지상기준점을 사용하였으며, 이는 국토위성영상의 특성을 고려하여 제작되었기 때문에 농림위성의 기하보정에 적용 시 정확도에 한계가 발생할 수 있다. 이러한 한계를 극복하기 위해서는 농림위성의 특성에 적합한 지상기준점 구축이 필수적이다.
농림위성영상은 전 지구 단위로 촬영되기 때문에 이를 포함하는 정사영상을 제작하기 위해서는 전 지구 단위의 지상기준점이 필요하다. Sentienl-2 영상은 290 km 넓은 촬영폭을 가지며, 농림위성영상의 분광해상도와 유사한 밴드를 포함하고 있다. 따라서 Sentinel-2 영상은 전 세계 정밀 정사영상이 제공 가능하며, 산림자원과 농작물 등 모니터링에 사용 가능하다는 특성이 있다(Son et al., 2021b). 이에 본 연구에서는 전 세계 정밀 정사영상을 제공하는 Sentinel-2 영상에서 특징점을 추출하고 이를 기반으로 지상기준점 패치를 자동으로 제작하였다. 이를 통해 자동으로 지상기준점을 추출하고 농림위성영상의 정사영상을 제작할 수 있는 방안을 제시하고자 한다.
본 연구에서는 10 m 공간해상도의 중·저해상도 영상인 Sentinel-2 영상을 기반으로 자동으로 지상기준점을 추출할 수 있는 기술을 개발하여 농림위성영상의 정사영상 제작 방안을 제시한다. 본 연구의 방법은 크게 지상기준점 패치 제작, 기하보정 2단계로 진행되며 아래의 Fig. 1과 같다. 우선 지상기준점 제작 단계에서는 농림위성과 동일한 지역을 촬영한 Sentienl-2 L1C 영상을 수집하고 이를 기반으로 feature from accelerated segment test (FAST) 알고리즘을 적용하여 특징점을 추출한다. 이후, 추출된 특징점의 지상좌표에 대응되는 높이값을 추출하기 위해 shuttle radar topography mission (SRTM)과 지오이드(geoid) 모델인 Earth gravitational model 2008 (EGM2008)에서 추출한다. 이후, 추출된 특징점을 중심으로 125 × 125 크기의 지상기준점 패치를 제작하였다. 그런 다음 제작된 지상기준점 패치와 목표영상 간 매칭을 수행하여 자동으로 지상기준점을 추출한다. 최종적으로 추출된 지상기준점을 기반으로 정밀 센서모델링을 수행한 후 정사보정을 통해 정사영상을 생성한다.
특징점은 영상의 corner, edge, line 등과 같이 주변 화소값과 비교하였을 때 화소값이 급격하게 변화하는 지점을 말하며, 이는 영상의 축척과 회전의 영향을 받지 않는다(Kim and Kim, 2015). 또한, 특징점은 입력되는 영상의 크기, 영상의 촬영 지역, 특징점 추출 기법의 종류에 따라 수백, 수천개의 특징점이 추출될 수 있다. 대표적인 특징점 추출 기법으로는 SIFT, SURF, FAST 등이 있으며, 대부분 영상 내 객체 탐지나 영상 간 정합 등을 위해 사용되고 있다.
SIFT 알고리즘은 축척, 회전 등의 변화에 강인하지만 연산량이 많아 수행 속도가 느리다(Kim et al., 2023). SURF 알고리즘은 SIFT 알고리즘을 개선한 방법으로 SIFT에 비해 수행 속도가 개선되었으나 여전히 연산량이 많다는 특징이 있다. FAST 알고리즘은 SIFT, SURF 등의 특징점 추출 방법과는 다르게 픽셀 간 화소값 비교를 통해 특징점을 검출하기 때문에 연산량이 적어 빠른 속도로 특징점 검출이 가능하다는 이점을 가지고 있다(Rosten and Drummond, 2006; Kim et al., 2016b). 따라서 본 연구에서는 FAST 알고리즘을 이용하여 기준 영상 내 특징점을 추출하였다. 또한, 정밀 기하보정의 안정적인 수행을 위해서는 약 100개 이상의 지상기준점이 필요하다(Choi and Kim, 2022). 이를 위해 FAST 알고리즘 적용 시 수동으로 임계값을 설정하여 약 100개 정도의 특징점이 추출될 수 있도록 한다. 이어서, 추출된 특징점의 중심 화소의 영상좌표 열, 행을 정방향 매핑하여 지상좌표 X, Y를 추출하였다. 그리고 Sentinl-2 영상에서 추출한 지상좌표 X, Y 좌표는 UTM 좌표이다. 그러나 농림위성은 UTM-K 좌표계로 이에 적용하기 위해서는 Sentinel-2 영상에서 추출된 좌표를 UTM-K로 좌표 변환하여 최종 지상기준점 X, Y 좌표를 추출하였다.
지상기준점은 영상자료와 지상좌표 X, Y, Z로 구성되어 있으며, 그중 영상자료에서의 X, Y 좌표는 Sentienl-2 영상에서 FAST 알고리즘을 적용하여 추출된 특징점에서 취득하였다. 여기서 좌표 Z는 높이값을 의미하며 해당 값을 추출하기 위해서는 수치표고자료가 필요하다. 이를 위해 본 연구에서는 전 세계를 대상으로 높이값을 제공하는 SRTM과 EGM2008 지오이드 모델을 사용하였다. 본 연구에서 최종적으로 산출하고자 하는 높이값은 타원체고로 정표고와 지오이드고의 합으로 계산된다. 따라서 본 연구에서는 추출된 특징점과 일치하는 지점의 타원체고를 산출하기 위해 SRTM에서는 정표고를, EGM2008에서는 지오이드고를 추출하였다. 그러나 제작된 지상기준점 패치는 10 m의 공간해상도를, 높이값 추출을 위한 SRTM은 30 m의 공간해상도를 가지고 있다. 이에 따라 두 자료 간 일치하는 지점을 찾기 위해서는 공간해상도의 차이가 발생한다. 그러므로 본 논문에서는 Bilinear 보간법을 적용하여 최종적으로 높이값을 추출하였다(Fig. 2).
제안된 방법에서는 목표영상을 넓은 범위로 커버할 수 있도록 추출된 특징점을 중심으로 10 m의 공간해상도에 125 × 125 사이즈의 패치를 제작한다. 또한, 제작된 패치는 GeoTiff 파일 형식으로, 패치간 매칭 시 지상좌표 X, Y, Z 값을 빠르게 취득 가능하도록 파일 명명 규칙을 Chip_X_Y_Z.tif로 설정하였으며 제작된 패치의 세부 정보는 Table 1과 같다.
Table 1 . Attribute of patch image.
List | Contents | Remark |
---|---|---|
Image data | Sentienl-2 | Product level: L1C |
Band | Blue, Green, Red | - |
Patch size | 125 × 125 | Resolution 10 m |
Ground coordinate | X, Y | UTM-K |
Height | Ellipsoid height | Orthometric height+ geoid |
Patch image name convention | Chip_X_Y_Z.tif | X, Y: ground coordinate Z: height- |
위성영상의 기하보정을 수행하기 위해 FAST 특징점 기반의 지상기준점 패치를 사용하여 Fig. 3과 같이 지상기준점을 추출하였다. 지상기준점 패치의 지상좌표와 보정되지 않은 목표영상의 rational polynomial coefficient (RPC)를 기반으로 역방향 매핑을 수행하여 목표영상에서의 좌표를 추정한다. 그런 다음 추정된 영상좌표를 중심으로 제작된 지상기준점 패치와 목표영상 간 대응되는 위치를 찾기 위해 검색 영역을 설정한다. 이 때 검색 영역은 제작된 패치 보다 α만큼 큰 영역으로 설정하며, 해당 값은 경험적 실험을 통해 도출된 값을 적용한다. 본 연구에서는 검색영역을 200 pixels로 설정하였다.
그런 다음 zero mean normalized cross correlation (ZNCC) 알고리즘을 적용하여 목표영상과 지상기준점 패치 간 화소값 유사도를 비교하였으며, 이 중 유사도가 가장 높게 산출된 지점을 정합점으로 선정하였다. 본 연구에 적용된 ZNCC 알고리즘의 수식은 아래의 식(1)과 같다. 식(1)에서 f와 g는 목표영상과 지상기준점 패치를 의미하며, M과 N은 지상기준점 패치의 열과 행의 크기를 의미한다. fi와 gi는 목표영상과 지상기준점 패치에 대한 i번째 화소값을 의미하고 f, g는 두 영상의 화소값 평균을 의미한다. 아래의 식은 두 영상의 평균을 기반으로 정규화를 수행하였기 때문에 –1과 1 사이의 값을 가지며, 1에 가까울수록 높은 유사도를 가진다.
자동으로 추출된 지상기준점 중에서는 필연적으로 오정합점이 존재하기 때문에 이를 random sample consensus (RANSAC) 알고리즘을 활용하여 자동으로 제거하였다. RANSAC알고리즘은 모델 수립에 필요한 최소 크기의 표본을 임의로 반복 추출하여 모델을 수립한 후 가장 많은 수의 자료로부터 지지를 받은 모델을 최종 모델로 선정하는 기법이다(Fischler and Bolles, 1981). 이후 오정합점이 제거된 자동 정합 결과를 바탕으로 센서 모델링을 수립한다.
센서모델이란 위성영상의 영상 좌표계와 지상 좌표계 간의 기하학적 관계를 의미한다. 센서모델은 크게 위성의 위치, 자세 등의 정보를 요구하는 물리적 모델, 영상좌표와 지상좌표의 관계를 수학적 모델로 표현하는 수학적 모델, 위성의 위치, 자세 등의 정보 없이 단순화된 모델로 표현하는 추상적 모델로 구분된다(Son et al., 2021a). 이러한 수학적 모델 중 하나인 rational function model (RFM)은 투영방적식과 매우 유사하여 좌표계에 유연하며 실시간 구현에 용이하다는 이점으로 인해 현재 대다수의 위성영상의 센서모델 시 적용되고 있다. 따라서 본 논문에서는 수학적 모델인 RFM 모델을 이용하여 기하보정을 수행하였으며, 영상 및 지상좌표와의 관계를 나타내는 RFM은 식(2)와 같이 표현된다.
위의 수식에서 cn과 rn은 정규화된 영상좌표이며, Xn, Yn, Zn은 정규화된 지상좌표를 나타낸다. aijk, bijk, cijk, dijk는 각 영상의 행, 열 좌표와 지상좌표 간 관계를 정의하는 유리함수식을 구성하는 유리다항식 P1, P2, P3, P4의 계수이다. RPC 보정 방법에는 다항식 조정과 RPC 블록조정으로 크게 두 가지가 있다. 다항식 조정은 기준점의 지상좌표와 제공되는 RPC로부터 획득되어지는 지상좌표 간 오차를 다항식으로 조정하는 방법이다. RPC 블록조정은 RPC의 영상좌표 오차항을 조정계수로 두고 번들 블록 조정을 적용하는 방법이다. RPC 블록조정은 조정계수 2개만으로도 RPC 보정이 가능하다는 이점이 있다(Lee et al., 2013). RPC 블록조정 방법에는 translate 변위오차 계산을 통한 보정, affine 변환, 다항식 변환이 있다. 이 중 본 논문에서는 이동, 축척, 회전에 모두 강인한 특징을 보이는 affine 변환 계수를 이용하여 정밀 센서모델링을 수행하며 아래의 식(3)과 같다.
위의 수식에서 a0, ac, ar, b0, bc, br은 최소제곱에 의해 계산되는 미지 변수를 나타내며, Δp과 Δr은 각각 열, 행 방향으로 조정된 값을 나타낸다.
본 논문에서는 자동 추출된 지상기준점 열, 행과 초기 센서모델을 통해 추정된 열, 행을 기반으로 affine 변환 계수를 추정함으로써 갱신된 RPC 계수를 추출하고 이를 통해 정밀 센서모델을 수립한다. 이후 이를 기반으로 DEM자료에 매핑함으로써 높이값을 획득하여 정사영상을 생성한다.
본 논문에서는 지상기준점 패치 제작을 위해 전 세계 정밀 정사영상을 제공하는 Sentinel-2 L1C 영상을 사용하였으며 천안시, 인천시, 의정부시, 강원도 양구군, 개성시의 총 5장의 영상을 사용하였다(Fig. 4). 또한, 패치 제작을 위해 Blue, Green, Red 밴드가 합성된 영상을 사용하였으며 이는 10 m급의 공간해상도로 자세한 사양은 Table 2와 같다.
Table 2 . Specification of Sentinel-2 images.
Area | Cheonan | Incheon | Uijeongbu | Yanggu | Gaesung |
---|---|---|---|---|---|
Satellite | Sentienl-2 | ||||
Product level | L1C | ||||
Spectral band | Coastal aerosol (442.7 nm (S2A), 442.3 nm (S2B)) | ||||
Blue (492.4 nm (S2A), 492.1 nm (S2B)) | |||||
Green (559.8 nm (S2A), 559.0 nm (S2B)) | |||||
Red (664.6 nm (S2A), 665.0 nm (S2B)) | |||||
Vegetation red edge, 704.1 nm (S2A), 703.8 nm (S2B) | |||||
Vegetation red edge, 740.5 nm (S2A), 739.1 nm (S2B) | |||||
Vegetation red edge, 782.8 nm (S2A), 779.7 nm (S2B) | |||||
NIR, 832.8 nm (S2A), 833.0 nm (S2B) | |||||
Narrow NIR, 864.7 nm (S2A), 864.0 nm (S2B) | |||||
Water vapor, 945.1 nm (S2A), 943.2 nm (S2B) | |||||
SWIR - Cirrus, 1373.5 nm (S2A), 1376.9 nm (S2B) | |||||
SWIR, 1613.7 nm (S2A), 1610.4 nm (S2B) | |||||
SWIR, 2202.4 nm (S2A), 2185.7 nm (S2B) | |||||
Coordinate system | WGS 84 / UTM zone 52N | ||||
Image size | 10,980 × 10,980 | ||||
GSD (m) | 10 m |
본 연구에서는 자동 추출된 지상기준점을 이용하여 정사영상을 생성하기 위해 농림위성 영상과 유사한 사양의 Rapideye 영상을 사용하였다. 연구에 사용한 Rapideye 영상은 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상을 사용하였으며 Fig. 5와 같다. Rapideye 영상은 기하왜곡이 제거되지 않은 처리된 1B 영상을 사용하였으며, 6.5 m의 공간해상도를 가진다. 분광해상도는 Blue, Green, Red, RedEdge, NIR 5개로 농림위성과 동일하며, 자세한 사양은 아래의 Table 3과 같다.
Table 3 . Specification of Rapideye images.
Area | Cheonan | Incheon | Uijeongbu | Yanggu | Gaesung |
---|---|---|---|---|---|
Satellite | Rapideye | ||||
Product level | 1B (Basic product) | ||||
Spectral band | Blue (410–510 nm) | ||||
Green (520–590 nm) | |||||
Red (630–685 nm) | |||||
Red-Edge (690–730 nm) | |||||
NIR (760–850 nm) | |||||
Image size | 11,754 × 11,965 | 11,824 × 14,509 | 11,819 × 15,360 | 11,760 × 14,196 | 11,772 × 11,910 |
GSD (m) | 6.5 m |
지상기준점의 높이값 추출을 위한 기반 자료는 SRTM과 EGM2008 지오이드 모델을 사용하였다(Fig. 6). SRTM과 EGM2008은 WGS84 타원체를 기반으로 전 세계의 높이 정보를 제공하고 있으나 본 연구에서는 한반도에 해당하는 자료만 사용하였다. SRTM의 공간해상도는 30 m로 해당 자료에서 의미하는 높이값은 정표고를 의미하며 자세한 사양은 Table 4와 같다. EGM2008의 공간해상도는 5′ × 5′로 EGM2008은 WGS84 타원체로 여기서 의미하는 높이값은 지오이드고를 의미하며 자세한 사양은 Table 4와 같다. 본 연구에서 사용되는 높이값은 타원체고로, 이는 정표고와 지오이드고의 합으로 최종적으로 산출할 수 있다.
Table 4 . Specification of SRTM DEM and EGM2008.
List | SRTM DEM | EGM2008 |
---|---|---|
Horizontal datum | WGS84 | WGS84 |
Height value | Orthometric height | Geoid height |
Spatial resolution | 30 m | 5’ × 5’ |
Sentinel-2 영상을 기반으로 FAST 알고리즘을 적용해 추출된 특징점 결과는 아래의 Fig. 7과 같다. 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상에 대하여 추출된 특징점은 천안 418개, 인천 374개, 의정부 181개, 강원도 양구 108개, 북한 개성 101개로 추출되었다. 추출된 특징점은 대체로 농경지, 도심지에 다수 분포하고 있으며 건물, 수계, 지형의 경계 등과 같이 주변 픽셀과 비교하였을 때 화소값이 급격히 변하는 지점을 특징점으로 선정하였음을 확인하였다. 또한, 산악지는 농경지, 도심지에 비해 적은 수량의 특징점이 분포하였으며 대체로 산림 내 도로, 건물, 지형의 경계 등에서 추출되었음을 확인하였다. 이는 농경지, 도심지에 비해 지형적 특징이 적기 때문에 적은 수량의 특징점이 추출되는 것으로 판단된다.
자동으로 추출된 지상좌표 X, Y, Z를 기반으로 제작된 지상기준점 패치는 광학영상으로 10 m 공간해상도를 가지며 제작 결과 일부는 Fig. 8과 같다. 지역별로 제작된 지상기준점 패치의 개수는 천안 408개, 인천 364개, 의정부 170개, 강원도 양구군 108개, 개성 96개 패치가 제작되었다. 제작된 패치의 수량을 보면 앞서 추출된 특징점의 개수보다 적은 개수인 것을 확인할 수 있다. 이는 특징점을 중심으로 패치를 제작하기 때문에 영상의 경계 부분에서 추출된 특징점을 중심으로 설정한 크기의 패치를 제작할 경우 Sentinel-2 영상의 범위를 벗어나게 된다. 그러므로 Fig. 9와 같이 영상 내 정보가 손실될 경우 기하보정 처리 사용되기 어렵기 때문에 다음과 같은 경우 패치 제작을 수행하지 않도록 하였다.
제작된 정사영상의 정확도를 검증하기 위해 Rapideye 영상의 기하보정 전·후의 센서모델 정확도를 분석하였다. 우선, Rapideye 영상과 제작된 지상기준점 패치 간 매칭 결과는 Fig. 10과 같으며 주로 건물, 지형의 경계에서 추출된 것을 확인하였다. 더불어 지역별 Rapideye 전체 영상 내 추출된 지상기준점의 분포는 Fig. 11과 같으며 천안 131개, 인천 315개, 의정부 128개, 양구 59개, 개성 50개가 추출되었음을 확인하였다. 또한, 추출된 지상기준점은 주로 도심지, 농경지에 분포하고 있음을 확인하였다. 산악지의 경우 도심지, 농경지에 비해 적은 양의 지상기준점이 분포함을 확인했다. 이는 도심지, 농경지에 비해 뚜렷한 지형적 특성이 존재하지 않아 발생한 것으로 판단된다.
이후, 지상기준점을 기반으로 센서모델링을 수립하여 기하품질을 개선한 후 DEM을 이용하여 정사영상을 Fig. 12와 같이 제작하였다. 제작된 정사영상의 위치 정확도를 평가하기 위해 항공정사영상과 중첩 분석을 수행하였다(Fig. 13). 먼저, Rapideye 1B 영상과 항공정사영상을 중첩하여 영상 경계에 위치한 도로, 하천, 지형의 경계 등을 육안 분석하였다. 그 결과 두 영상 간 이격이 존재함을 확인하였으며, 이는 Rapideye 1B 영상이 위성의 자세, 촬영 각도 등으로 인해 기하학적 왜곡을 포함하고 있기 때문인 것으로 판단된다. 반면, 제안된 기법으로 제작된 정사영상과 항공정사영상을 중첩한 결과, 영상 경계에 위치한 도로, 하천, 지형의 경계 등에서 이격없이 동일한 위치에 존재하는 것을 확인하였다. 이는 제안 기법을 통해 생성된 정사영상은 기하품질이 개선되어 항공정사영상과의 이격이 존재하지 않는 것으로 판단된다.
정사영상 제작 결과 정확도를 정량적으로 평가하기 위해 초기 센서모델 및 정밀 센서모델 정확도를 분석하였다. 이를 위해 본 논문에서는 초기센서모델 정확도와 정밀센서모델 정확도를 정량적으로 평가하였다. 초기센서모델 정확도는 위성영상 제공 시 함께 제공된 초기 RPC를 이용하여 초기 센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 정밀 센서모델 정확도는 추출된 지상기준점을 이용하여 초기센서모델을 보정한 뒤, 정밀센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 지역별 센서모델 정확도 평가를 위해 사용된 지상기준점은 천안 127개, 인천 311개, 의정부 124개, 양구 59개, 개성 49개이다.
지역별 산출된 초기센서모델 정확도는 천안 1.42 pixel, 인천 1.94 pixel, 의정부 2.13 pixel, 양구 2.12 pixel, 개성 0.90 pixel의 정확도를 보였다. 산출된 지역별 정밀센서모델 정확도는 천안 0.56 pixel, 인천 0.74 pixel, 의정부 0.72 pixel, 양구 0.82 pixel, 개성 0.63 pixel의 정확도를 보였다(Table 5). 기하보정 결과 모든 실험 영상에서 센서모델 정확도가 향상되었음을 확인할 수 있었으며, 모두 2 pixels 미만의 센서 모델 정확도를 보였다. 그러나 개성의 경우, 타 지역에 비해 정확도 변화 추이가 적은 것을 확인하였다. 이를 통해 초기 센서 모델링으로 자동 추출한 지상 기준점과 비교하여 센서 모델의 정확도 확보가 가능함을 확인하였다.
Table 5 . Sensor modeling accuracy of the proposed method.
Data | Initial accuracy before precision geometric (pixel) | Modeling accuracy after precision geometric (pixel) |
---|---|---|
Cheonan | 1.42 | 0.56 |
Incheon | 1.94 | 0.74 |
Uijeongbu | 2.13 | 0.72 |
Yanggu | 2.12 | 0.82 |
Gaesung | 0.90 | 0.63 |
본 논문에서는 Sentinel-2 L1C 영상과 특징점 추출 기법을 활용해 패치를 제작하고 이를 기반으로 위성영상과의 매칭을 통해 자동으로 지상기준점을 추출하여 정사영상을 제작하는 방안을 제시하였다. 또한, 제작된 정사영상의 정확도를 평가하기 위해 기하보정 전·후의 센서모델 정확도를 산출하였다. 그 결과, 모든 영상에서 센서모델 정확도가 2 pixels 미만으로 향상되었음을 확인하였으며, 제안 방안을 통해 자동으로 지상기준점을 취득하여 농림위성 정사영상이 생성 가능함을 확인하였다. 특히, 본 연구에서 제안된 방안을 통해 지상기준점 취득이 어려운 해외지역 농림위성 영상의 자동 기하보정 가능하다는 점에서 의의가 있다.
그러나 제안된 방법은 특징점을 기반으로 자동으로 지상기준점을 추출하므로 참조영상 내 특징점이 편향되어 산출될 경우 정확도에 영향을 미칠 수 있다. 따라서, 추후 연구에서는 영상 내에서 특징점이 편향되지 않고 균등하게 추출할 수 있는 연구를 추가적으로 진행할 예정이다. 또한, 본 논문에서는 제안된 방안의 적용 가능성을 확인하기 위해 한반도를 대상으로 수행되었다. 그러므로 해외지역에서 제안된 방안의 유효성을 검증하기 위해 국외 다양한 지역을 대상으로한 추가 실험을 수행할 것이다.
본 논문은 국립산림과학원 연구과제 “농림위성정보 수신·처리·ARD 표준화 및 지능형 산림정보 플랫폼 개발 연구(과제번호: FM0103-2021-01-2024)”의 지원과 농촌진흥청 국립농업과학원 농업과학기술 연구개발사업의 연구비 지원(과제번호: PJ0162342024)에 의해 수행되었습니다.
No potential conflict of interest relevant to this article was reported.
Table 1 . Attribute of patch image.
List | Contents | Remark |
---|---|---|
Image data | Sentienl-2 | Product level: L1C |
Band | Blue, Green, Red | - |
Patch size | 125 × 125 | Resolution 10 m |
Ground coordinate | X, Y | UTM-K |
Height | Ellipsoid height | Orthometric height+ geoid |
Patch image name convention | Chip_X_Y_Z.tif | X, Y: ground coordinate Z: height- |
Table 2 . Specification of Sentinel-2 images.
Area | Cheonan | Incheon | Uijeongbu | Yanggu | Gaesung |
---|---|---|---|---|---|
Satellite | Sentienl-2 | ||||
Product level | L1C | ||||
Spectral band | Coastal aerosol (442.7 nm (S2A), 442.3 nm (S2B)) | ||||
Blue (492.4 nm (S2A), 492.1 nm (S2B)) | |||||
Green (559.8 nm (S2A), 559.0 nm (S2B)) | |||||
Red (664.6 nm (S2A), 665.0 nm (S2B)) | |||||
Vegetation red edge, 704.1 nm (S2A), 703.8 nm (S2B) | |||||
Vegetation red edge, 740.5 nm (S2A), 739.1 nm (S2B) | |||||
Vegetation red edge, 782.8 nm (S2A), 779.7 nm (S2B) | |||||
NIR, 832.8 nm (S2A), 833.0 nm (S2B) | |||||
Narrow NIR, 864.7 nm (S2A), 864.0 nm (S2B) | |||||
Water vapor, 945.1 nm (S2A), 943.2 nm (S2B) | |||||
SWIR - Cirrus, 1373.5 nm (S2A), 1376.9 nm (S2B) | |||||
SWIR, 1613.7 nm (S2A), 1610.4 nm (S2B) | |||||
SWIR, 2202.4 nm (S2A), 2185.7 nm (S2B) | |||||
Coordinate system | WGS 84 / UTM zone 52N | ||||
Image size | 10,980 × 10,980 | ||||
GSD (m) | 10 m |
Table 3 . Specification of Rapideye images.
Area | Cheonan | Incheon | Uijeongbu | Yanggu | Gaesung |
---|---|---|---|---|---|
Satellite | Rapideye | ||||
Product level | 1B (Basic product) | ||||
Spectral band | Blue (410–510 nm) | ||||
Green (520–590 nm) | |||||
Red (630–685 nm) | |||||
Red-Edge (690–730 nm) | |||||
NIR (760–850 nm) | |||||
Image size | 11,754 × 11,965 | 11,824 × 14,509 | 11,819 × 15,360 | 11,760 × 14,196 | 11,772 × 11,910 |
GSD (m) | 6.5 m |
Table 4 . Specification of SRTM DEM and EGM2008.
List | SRTM DEM | EGM2008 |
---|---|---|
Horizontal datum | WGS84 | WGS84 |
Height value | Orthometric height | Geoid height |
Spatial resolution | 30 m | 5’ × 5’ |
Table 5 . Sensor modeling accuracy of the proposed method.
Data | Initial accuracy before precision geometric (pixel) | Modeling accuracy after precision geometric (pixel) |
---|---|---|
Cheonan | 1.42 | 0.56 |
Incheon | 1.94 | 0.74 |
Uijeongbu | 2.13 | 0.72 |
Yanggu | 2.12 | 0.82 |
Gaesung | 0.90 | 0.63 |
Junho Ser, Jung-Il Shin
Korean J. Remote Sens. 2024; 40(5): 601-615Kyoung-Min Kim, Joongbin Lim , Sol-E Choi, Nanghyun Cho, Minji Seo, Sunjoo Lee, Hanbyol Woo, Junghee Lee, Cheolho Lee, Junhee Lee, Seunghyun Lee, Myoungsoo Won
Korean J. Remote Sens. 2024; 40(5): 783-812