Research Article

Split Viewer

Korean J. Remote Sens. 2024; 40(5): 479-493

Published online: October 31, 2024

https://doi.org/10.7780/kjrs.2024.40.5.1.6

© Korean Society of Remote Sensing

Sentinel-2 영상 기반 자동 지상기준점 추출 방법을 이용한 농림위성영상 정사영상 생성

남윤지1, 손종환2, 김태정3, 이수암4*

1인하대학교 공간정보공학과 석사과정생
2(주)쓰리디랩스 영상공학연구소 선임연구원
3인하대학교 공간정보공학과 교수
4(주)쓰리디랩스 영상공학연구소 연구소장

Received: October 6, 2024; Revised: October 18, 2024; Accepted: October 23, 2024

Generation of CAS500-4 Orthoimages Using Automatic GCP Extraction Method Based on Sentinel-2 Images

Yunji Nam1, Jong-Hwan Son2, Taejung Kim3, Sooahm Rhee4*

1Master Student, Department of Geoinformatic Engineering, Inha University, Incheon, Republic of Korea
2Senior Researcher, Image Engineering Research Center, 3DLabs Co., Ltd., Incheon, Republic of Korea
3Professor, Department of Geoinformatic Engineering, Inha University, Incheon, Republic of Korea
4Director, Image Engineering Research Center, 3DLabs Co., Ltd., Incheon, Republic of Korea

Correspondence to : Sooahm Rhee
E-mail: ahmkun@3dlabs.co.kr

Received: October 6, 2024; Revised: October 18, 2024; Accepted: October 23, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

The Korean government plans to launch the CAS500-4 specialized for efficient management of the land. The CAS500-4 enables periodic monitoring of the Korean Peninsula with a spatial resolution of 5m along a 120 km swath width and a short revisit cycle of 3 days. To increase the usability of the CAS500-4, a process of removing geometric distortion is necessary. For this process, ground control points (GCPs) are used as key data. Acquiring GCPs through a field survey takes time and cost and cannot be achieved for inaccessible and overseas areas. In this study, we propose a method to automatically extract GCP based on Sentinel-2 Level-1C (L1C) images and generate CAS500-4 ortho-images using Rapideye 1B images with specifications like the CAS500-4 images. The proposed method is performed by generating GCP and ortho-images generation through geometric correction. After verifying the accuracy of the generated ortho-images, the sensor model accuracy before and after the geometric correction was analyzed. As a result, the sensor model accuracy with an error of less than 2 pixels was confirmed in all experimental images. Therefore, the proposed method is possible to automatically acquire GCP, it is expected to be utilized in the generation of ortho-images of CAS500-4 images in the future.

Keywords CAS500-4, Extraction of automatic GCP, Precision geometric correction, Precision orthoimage

위성영상은 접근하기 어렵고 광범위한 지역에 대한 정보를 주기적으로 취득할 수 있다는 이점으로 인해 다양한 분야에서 그 수요가 증가하고 있다. 이에 따라 우리나라에서도 위성영상에 대한 다양한 수요에 대응하기 위해 다목적 실용위성을 시작으로 차세대 중형위성, 초소형 위성 등 다양한 위성을 지속적으로 개발하고 있다. 특히, 한반도의 경우 농지와 산림이 국토 면적의 80%를 차지하고 있기 때문에 효율적인 국토 모니터링을 위해서는 이에 특화된 위성영상이 필수적이다. 이에 대한민국 정부는 농업 및 산림 분야에 특화된 농림위성을 발사할 예정이다. 농림위성은 120 km의 관측폭에 5 m 공간해상도를 제공하며, 농작물 및 산림자원의 관측을 위해 기존 국토위성(차세대 중형위성 1호)의 분광해상도인 Blue, Green, Red, near infrared (NIR) 밴드에 식생에 민감한 Red-Edge 밴드를 추가하여 탑재하였다(Kim et al., 2016a). 또한, 한반도 재방문 주기가 3일로 매우 짧기 때문에 한반도의 주기적인 광역 모니터링이 가능하다. 이러한 농림위성영상의 활용성을 높이기 위해서는 기하 정확도가 높은 위성영상이 사용자에게 제공되어야 한다.

위성영상은 위성의 자세, 궤도 정보 등으로 인해 위치오차를 포함하고 있어 이러한 오차를 보정하기 위해서는 정밀 기하보정이 반드시 수행되어야 한다. 이때 정밀 기하보정에는 정확한 지상좌표를 알고 있는 지상기준점(ground control point, GCP)이 필요하다. 그러나 현장 측량을 통한 지상좌표의 취득은 많은 시간과 비용이 소요되며, 특히 접근이 불가능한 지역과 해외지역에 대해서는 취득이 어렵다. 이를 위해 2000년대 초 수행된 연구에서는 과거에 사용했던 지상기준점을 새로운 위성영상의 기하보정을 위해 재사용하는 방법을 제안하였으며(Kim and Im, 2003), Lim et al. (2004)은 기하 보정된 Landsat-7 영상에서 지상기준점을 수동으로 추출하여 Kompsat-1의 왜곡된 기하를 보정하고자 하였다. 이후, 2010년대 후반에 수행된 연구에서는 국토지리정보원에서 운영하는 국토정보 맵으로부터 통합기준점 조서와 항공정사영상을 사용하여 지상기준점을 추출하고 이를 Kompsat-3A 영상의 정밀 센서모델 수립을 위한 관측자료로 사용하였다(Yoon et al., 2018). 그러나 해당 연구는 수동으로 지상기준점을 추출하므로 촬영주기가 짧은 위성영상이 지속적으로 수신될 경우, 지형 변화가 고려되지 않은 지상기준점을 사용함으로써 처리된 기하보정 성능이 저하될 수 있다. 그러므로 지상기준점의 최신성을 유지하기 위해서는 자동으로 지상기준점을 추출하는 기술이 필요하다.

이를 보완하기 위해, Lee and Yoon (2019)은 Kompsat-2 영상으로 제작된 정사영상을 활용하여 Harris corner, scale-invariant feature transform (SIFT), speeded-up robust feature (SURF) 등 특징점 추출 기법을 적용하여 지상기준점을 자동으로 추출하는 방안을 제안함으로써 다량의 지상기준점 구축 가능성을 분석하였다. 또한, Park et al. (2020)은 국토위성영상의 자동 정밀 기하보정을 위해 Kompsat-2 영상과 digital elevation model (DEM) 자료를 이용하여 자동으로 지상기준점을 추출하였다. 앞선 연구들은 고해상도 위성영상의 기하보정을 위해 정사영상 및 항공영상 상에서 지상기준점을 추출하였으며, 농림위성과 같은 중·저해상도 영상의 기하보정을 위한 방안은 제시되지 않았다.

최근 농림위성영상 및 중·저해상도 영상의 기하보정을 위해 Lee and Kim (2021)은 국토위성용 지상기준점의 사용가능성을 검토하고 정합 성능 향상을 위한 적절한 공간해상도를 검토하였으며, Choi and Kim (2022)은 국토위성용 지상기준점을 기반으로 농림위성영상의 기하보정 시 최적의 해상도와 지상기준점 칩의 개수를 분석하였다. 앞서 수행된 연구는 농림위성의 기하보정을 위해 기 구축된 국토위성용 지상기준점을 사용하였으며, 이는 국토위성영상의 특성을 고려하여 제작되었기 때문에 농림위성의 기하보정에 적용 시 정확도에 한계가 발생할 수 있다. 이러한 한계를 극복하기 위해서는 농림위성의 특성에 적합한 지상기준점 구축이 필수적이다.

농림위성영상은 전 지구 단위로 촬영되기 때문에 이를 포함하는 정사영상을 제작하기 위해서는 전 지구 단위의 지상기준점이 필요하다. Sentienl-2 영상은 290 km 넓은 촬영폭을 가지며, 농림위성영상의 분광해상도와 유사한 밴드를 포함하고 있다. 따라서 Sentinel-2 영상은 전 세계 정밀 정사영상이 제공 가능하며, 산림자원과 농작물 등 모니터링에 사용 가능하다는 특성이 있다(Son et al., 2021b). 이에 본 연구에서는 전 세계 정밀 정사영상을 제공하는 Sentinel-2 영상에서 특징점을 추출하고 이를 기반으로 지상기준점 패치를 자동으로 제작하였다. 이를 통해 자동으로 지상기준점을 추출하고 농림위성영상의 정사영상을 제작할 수 있는 방안을 제시하고자 한다.

본 연구에서는 10 m 공간해상도의 중·저해상도 영상인 Sentinel-2 영상을 기반으로 자동으로 지상기준점을 추출할 수 있는 기술을 개발하여 농림위성영상의 정사영상 제작 방안을 제시한다. 본 연구의 방법은 크게 지상기준점 패치 제작, 기하보정 2단계로 진행되며 아래의 Fig. 1과 같다. 우선 지상기준점 제작 단계에서는 농림위성과 동일한 지역을 촬영한 Sentienl-2 L1C 영상을 수집하고 이를 기반으로 feature from accelerated segment test (FAST) 알고리즘을 적용하여 특징점을 추출한다. 이후, 추출된 특징점의 지상좌표에 대응되는 높이값을 추출하기 위해 shuttle radar topography mission (SRTM)과 지오이드(geoid) 모델인 Earth gravitational model 2008 (EGM2008)에서 추출한다. 이후, 추출된 특징점을 중심으로 125 × 125 크기의 지상기준점 패치를 제작하였다. 그런 다음 제작된 지상기준점 패치와 목표영상 간 매칭을 수행하여 자동으로 지상기준점을 추출한다. 최종적으로 추출된 지상기준점을 기반으로 정밀 센서모델링을 수행한 후 정사보정을 통해 정사영상을 생성한다.

Fig. 1. Flowchart of the proposed method.

2.1. 특징점 기반 지상기준점 패치 생성

특징점은 영상의 corner, edge, line 등과 같이 주변 화소값과 비교하였을 때 화소값이 급격하게 변화하는 지점을 말하며, 이는 영상의 축척과 회전의 영향을 받지 않는다(Kim and Kim, 2015). 또한, 특징점은 입력되는 영상의 크기, 영상의 촬영 지역, 특징점 추출 기법의 종류에 따라 수백, 수천개의 특징점이 추출될 수 있다. 대표적인 특징점 추출 기법으로는 SIFT, SURF, FAST 등이 있으며, 대부분 영상 내 객체 탐지나 영상 간 정합 등을 위해 사용되고 있다.

SIFT 알고리즘은 축척, 회전 등의 변화에 강인하지만 연산량이 많아 수행 속도가 느리다(Kim et al., 2023). SURF 알고리즘은 SIFT 알고리즘을 개선한 방법으로 SIFT에 비해 수행 속도가 개선되었으나 여전히 연산량이 많다는 특징이 있다. FAST 알고리즘은 SIFT, SURF 등의 특징점 추출 방법과는 다르게 픽셀 간 화소값 비교를 통해 특징점을 검출하기 때문에 연산량이 적어 빠른 속도로 특징점 검출이 가능하다는 이점을 가지고 있다(Rosten and Drummond, 2006; Kim et al., 2016b). 따라서 본 연구에서는 FAST 알고리즘을 이용하여 기준 영상 내 특징점을 추출하였다. 또한, 정밀 기하보정의 안정적인 수행을 위해서는 약 100개 이상의 지상기준점이 필요하다(Choi and Kim, 2022). 이를 위해 FAST 알고리즘 적용 시 수동으로 임계값을 설정하여 약 100개 정도의 특징점이 추출될 수 있도록 한다. 이어서, 추출된 특징점의 중심 화소의 영상좌표 열, 행을 정방향 매핑하여 지상좌표 X, Y를 추출하였다. 그리고 Sentinl-2 영상에서 추출한 지상좌표 X, Y 좌표는 UTM 좌표이다. 그러나 농림위성은 UTM-K 좌표계로 이에 적용하기 위해서는 Sentinel-2 영상에서 추출된 좌표를 UTM-K로 좌표 변환하여 최종 지상기준점 X, Y 좌표를 추출하였다.

지상기준점은 영상자료와 지상좌표 X, Y, Z로 구성되어 있으며, 그중 영상자료에서의 X, Y 좌표는 Sentienl-2 영상에서 FAST 알고리즘을 적용하여 추출된 특징점에서 취득하였다. 여기서 좌표 Z는 높이값을 의미하며 해당 값을 추출하기 위해서는 수치표고자료가 필요하다. 이를 위해 본 연구에서는 전 세계를 대상으로 높이값을 제공하는 SRTM과 EGM2008 지오이드 모델을 사용하였다. 본 연구에서 최종적으로 산출하고자 하는 높이값은 타원체고로 정표고와 지오이드고의 합으로 계산된다. 따라서 본 연구에서는 추출된 특징점과 일치하는 지점의 타원체고를 산출하기 위해 SRTM에서는 정표고를, EGM2008에서는 지오이드고를 추출하였다. 그러나 제작된 지상기준점 패치는 10 m의 공간해상도를, 높이값 추출을 위한 SRTM은 30 m의 공간해상도를 가지고 있다. 이에 따라 두 자료 간 일치하는 지점을 찾기 위해서는 공간해상도의 차이가 발생한다. 그러므로 본 논문에서는 Bilinear 보간법을 적용하여 최종적으로 높이값을 추출하였다(Fig. 2).

Fig. 2. Method for extracting height values from SRTM and EGM2008.

제안된 방법에서는 목표영상을 넓은 범위로 커버할 수 있도록 추출된 특징점을 중심으로 10 m의 공간해상도에 125 × 125 사이즈의 패치를 제작한다. 또한, 제작된 패치는 GeoTiff 파일 형식으로, 패치간 매칭 시 지상좌표 X, Y, Z 값을 빠르게 취득 가능하도록 파일 명명 규칙을 Chip_X_Y_Z.tif로 설정하였으며 제작된 패치의 세부 정보는 Table 1과 같다.

Table 1 Attribute of patch image

ListContentsRemark
Image dataSentienl-2Product level: L1C
BandBlue, Green, Red-
Patch size125 × 125Resolution 10 m
Ground coordinateX, YUTM-K
HeightEllipsoid heightOrthometric height+ geoid
Patch image name conventionChip_X_Y_Z.tifX, Y: ground coordinate
Z: height-


2.2. 기하보정

위성영상의 기하보정을 수행하기 위해 FAST 특징점 기반의 지상기준점 패치를 사용하여 Fig. 3과 같이 지상기준점을 추출하였다. 지상기준점 패치의 지상좌표와 보정되지 않은 목표영상의 rational polynomial coefficient (RPC)를 기반으로 역방향 매핑을 수행하여 목표영상에서의 좌표를 추정한다. 그런 다음 추정된 영상좌표를 중심으로 제작된 지상기준점 패치와 목표영상 간 대응되는 위치를 찾기 위해 검색 영역을 설정한다. 이 때 검색 영역은 제작된 패치 보다 α만큼 큰 영역으로 설정하며, 해당 값은 경험적 실험을 통해 도출된 값을 적용한다. 본 연구에서는 검색영역을 200 pixels로 설정하였다.

Fig. 3. GCP extraction method using image patch based on FAST feature point.

그런 다음 zero mean normalized cross correlation (ZNCC) 알고리즘을 적용하여 목표영상과 지상기준점 패치 간 화소값 유사도를 비교하였으며, 이 중 유사도가 가장 높게 산출된 지점을 정합점으로 선정하였다. 본 연구에 적용된 ZNCC 알고리즘의 수식은 아래의 식(1)과 같다. 식(1)에서 fg는 목표영상과 지상기준점 패치를 의미하며, MN은 지상기준점 패치의 열과 행의 크기를 의미한다. figi는 목표영상과 지상기준점 패치에 대한 i번째 화소값을 의미하고 f, g는 두 영상의 화소값 평균을 의미한다. 아래의 식은 두 영상의 평균을 기반으로 정규화를 수행하였기 때문에 –1과 1 사이의 값을 가지며, 1에 가까울수록 높은 유사도를 가진다.

ZNCC= i=1 MN(fif¯)(gig¯) i=1 MN(fif¯)2 i=1 MN(gig¯)2

자동으로 추출된 지상기준점 중에서는 필연적으로 오정합점이 존재하기 때문에 이를 random sample consensus (RANSAC) 알고리즘을 활용하여 자동으로 제거하였다. RANSAC알고리즘은 모델 수립에 필요한 최소 크기의 표본을 임의로 반복 추출하여 모델을 수립한 후 가장 많은 수의 자료로부터 지지를 받은 모델을 최종 모델로 선정하는 기법이다(Fischler and Bolles, 1981). 이후 오정합점이 제거된 자동 정합 결과를 바탕으로 센서 모델링을 수립한다.

센서모델이란 위성영상의 영상 좌표계와 지상 좌표계 간의 기하학적 관계를 의미한다. 센서모델은 크게 위성의 위치, 자세 등의 정보를 요구하는 물리적 모델, 영상좌표와 지상좌표의 관계를 수학적 모델로 표현하는 수학적 모델, 위성의 위치, 자세 등의 정보 없이 단순화된 모델로 표현하는 추상적 모델로 구분된다(Son et al., 2021a). 이러한 수학적 모델 중 하나인 rational function model (RFM)은 투영방적식과 매우 유사하여 좌표계에 유연하며 실시간 구현에 용이하다는 이점으로 인해 현재 대다수의 위성영상의 센서모델 시 적용되고 있다. 따라서 본 논문에서는 수학적 모델인 RFM 모델을 이용하여 기하보정을 수행하였으며, 영상 및 지상좌표와의 관계를 나타내는 RFM은 식(2)와 같이 표현된다.

cn=P1(Xn,Yn,Zn)P2(Xn,Yn,Zn)= i=03 j=03 k=03 aijk Xni Ynj Znk i=0 IB j=0 JB k=0 KB bijk Xni Ynj Znk rn=P3(Xn,Yn,Zn)P4(Xn,Yn,Zn)= i=03 j=03 k=03 cijk Xni Ynj Znk i=03 j=03 k=03 dijk Xni Ynj Znk

위의 수식에서 cnrn은 정규화된 영상좌표이며, Xn, Yn, Zn은 정규화된 지상좌표를 나타낸다. aijk, bijk, cijk, dijk는 각 영상의 행, 열 좌표와 지상좌표 간 관계를 정의하는 유리함수식을 구성하는 유리다항식 P1, P2, P3, P4의 계수이다. RPC 보정 방법에는 다항식 조정과 RPC 블록조정으로 크게 두 가지가 있다. 다항식 조정은 기준점의 지상좌표와 제공되는 RPC로부터 획득되어지는 지상좌표 간 오차를 다항식으로 조정하는 방법이다. RPC 블록조정은 RPC의 영상좌표 오차항을 조정계수로 두고 번들 블록 조정을 적용하는 방법이다. RPC 블록조정은 조정계수 2개만으로도 RPC 보정이 가능하다는 이점이 있다(Lee et al., 2013). RPC 블록조정 방법에는 translate 변위오차 계산을 통한 보정, affine 변환, 다항식 변환이 있다. 이 중 본 논문에서는 이동, 축척, 회전에 모두 강인한 특징을 보이는 affine 변환 계수를 이용하여 정밀 센서모델링을 수행하며 아래의 식(3)과 같다.

Δp=a0+acColumn+arRowΔr=b0+bcColumn+brRow

위의 수식에서 a0, ac, ar, b0, bc, br은 최소제곱에 의해 계산되는 미지 변수를 나타내며, Δp과 Δr은 각각 열, 행 방향으로 조정된 값을 나타낸다.

본 논문에서는 자동 추출된 지상기준점 열, 행과 초기 센서모델을 통해 추정된 열, 행을 기반으로 affine 변환 계수를 추정함으로써 갱신된 RPC 계수를 추출하고 이를 통해 정밀 센서모델을 수립한다. 이후 이를 기반으로 DEM자료에 매핑함으로써 높이값을 획득하여 정사영상을 생성한다.

본 논문에서는 지상기준점 패치 제작을 위해 전 세계 정밀 정사영상을 제공하는 Sentinel-2 L1C 영상을 사용하였으며 천안시, 인천시, 의정부시, 강원도 양구군, 개성시의 총 5장의 영상을 사용하였다(Fig. 4). 또한, 패치 제작을 위해 Blue, Green, Red 밴드가 합성된 영상을 사용하였으며 이는 10 m급의 공간해상도로 자세한 사양은 Table 2와 같다.

Fig. 4. Experimental Sentinel-2 images: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.

Table 2 Specification of Sentinel-2 images

AreaCheonanIncheonUijeongbuYangguGaesung
SatelliteSentienl-2
Product levelL1C
Spectral bandCoastal aerosol (442.7 nm (S2A), 442.3 nm (S2B))
Blue (492.4 nm (S2A), 492.1 nm (S2B))
Green (559.8 nm (S2A), 559.0 nm (S2B))
Red (664.6 nm (S2A), 665.0 nm (S2B))
Vegetation red edge, 704.1 nm (S2A), 703.8 nm (S2B)
Vegetation red edge, 740.5 nm (S2A), 739.1 nm (S2B)
Vegetation red edge, 782.8 nm (S2A), 779.7 nm (S2B)
NIR, 832.8 nm (S2A), 833.0 nm (S2B)
Narrow NIR, 864.7 nm (S2A), 864.0 nm (S2B)
Water vapor, 945.1 nm (S2A), 943.2 nm (S2B)
SWIR - Cirrus, 1373.5 nm (S2A), 1376.9 nm (S2B)
SWIR, 1613.7 nm (S2A), 1610.4 nm (S2B)
SWIR, 2202.4 nm (S2A), 2185.7 nm (S2B)
Coordinate systemWGS 84 / UTM zone 52N
Image size10,980 × 10,980
GSD (m)10 m


본 연구에서는 자동 추출된 지상기준점을 이용하여 정사영상을 생성하기 위해 농림위성 영상과 유사한 사양의 Rapideye 영상을 사용하였다. 연구에 사용한 Rapideye 영상은 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상을 사용하였으며 Fig. 5와 같다. Rapideye 영상은 기하왜곡이 제거되지 않은 처리된 1B 영상을 사용하였으며, 6.5 m의 공간해상도를 가진다. 분광해상도는 Blue, Green, Red, RedEdge, NIR 5개로 농림위성과 동일하며, 자세한 사양은 아래의 Table 3과 같다.

Fig. 5. Experimental Rapideye images: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.

Table 3 Specification of Rapideye images

AreaCheonanIncheonUijeongbuYangguGaesung
SatelliteRapideye
Product level1B (Basic product)
Spectral bandBlue (410–510 nm)
Green (520–590 nm)
Red (630–685 nm)
Red-Edge (690–730 nm)
NIR (760–850 nm)
Image size11,754 × 11,96511,824 × 14,50911,819 × 15,36011,760 × 14,19611,772 × 11,910
GSD (m)6.5 m


지상기준점의 높이값 추출을 위한 기반 자료는 SRTM과 EGM2008 지오이드 모델을 사용하였다(Fig. 6). SRTM과 EGM2008은 WGS84 타원체를 기반으로 전 세계의 높이 정보를 제공하고 있으나 본 연구에서는 한반도에 해당하는 자료만 사용하였다. SRTM의 공간해상도는 30 m로 해당 자료에서 의미하는 높이값은 정표고를 의미하며 자세한 사양은 Table 4와 같다. EGM2008의 공간해상도는 5′ × 5′로 EGM2008은 WGS84 타원체로 여기서 의미하는 높이값은 지오이드고를 의미하며 자세한 사양은 Table 4와 같다. 본 연구에서 사용되는 높이값은 타원체고로, 이는 정표고와 지오이드고의 합으로 최종적으로 산출할 수 있다.

Fig. 6. SRTM DEM and EGM2008 for extracting orthometric height values of GCPs: (a) SRTM DEM and (b) EGM2008.

Table 4 Specification of SRTM DEM and EGM2008

ListSRTM DEMEGM2008
Horizontal datumWGS84WGS84
Height valueOrthometric heightGeoid height
Spatial resolution30 m5’ × 5’

4.1. 특징점 기반 지상기준점 패치 생성 결과

Sentinel-2 영상을 기반으로 FAST 알고리즘을 적용해 추출된 특징점 결과는 아래의 Fig. 7과 같다. 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상에 대하여 추출된 특징점은 천안 418개, 인천 374개, 의정부 181개, 강원도 양구 108개, 북한 개성 101개로 추출되었다. 추출된 특징점은 대체로 농경지, 도심지에 다수 분포하고 있으며 건물, 수계, 지형의 경계 등과 같이 주변 픽셀과 비교하였을 때 화소값이 급격히 변하는 지점을 특징점으로 선정하였음을 확인하였다. 또한, 산악지는 농경지, 도심지에 비해 적은 수량의 특징점이 분포하였으며 대체로 산림 내 도로, 건물, 지형의 경계 등에서 추출되었음을 확인하였다. 이는 농경지, 도심지에 비해 지형적 특징이 적기 때문에 적은 수량의 특징점이 추출되는 것으로 판단된다.

Fig. 7. Results of FAST feature points extracted from Sentinel-2 images.

자동으로 추출된 지상좌표 X, Y, Z를 기반으로 제작된 지상기준점 패치는 광학영상으로 10 m 공간해상도를 가지며 제작 결과 일부는 Fig. 8과 같다. 지역별로 제작된 지상기준점 패치의 개수는 천안 408개, 인천 364개, 의정부 170개, 강원도 양구군 108개, 개성 96개 패치가 제작되었다. 제작된 패치의 수량을 보면 앞서 추출된 특징점의 개수보다 적은 개수인 것을 확인할 수 있다. 이는 특징점을 중심으로 패치를 제작하기 때문에 영상의 경계 부분에서 추출된 특징점을 중심으로 설정한 크기의 패치를 제작할 경우 Sentinel-2 영상의 범위를 벗어나게 된다. 그러므로 Fig. 9와 같이 영상 내 정보가 손실될 경우 기하보정 처리 사용되기 어렵기 때문에 다음과 같은 경우 패치 제작을 수행하지 않도록 하였다.

Fig. 8. Results of image patch generation based on feature points.
Fig. 9. Example of not generating patches.

4.2. 정사영상 정확도 분석

제작된 정사영상의 정확도를 검증하기 위해 Rapideye 영상의 기하보정 전·후의 센서모델 정확도를 분석하였다. 우선, Rapideye 영상과 제작된 지상기준점 패치 간 매칭 결과는 Fig. 10과 같으며 주로 건물, 지형의 경계에서 추출된 것을 확인하였다. 더불어 지역별 Rapideye 전체 영상 내 추출된 지상기준점의 분포는 Fig. 11과 같으며 천안 131개, 인천 315개, 의정부 128개, 양구 59개, 개성 50개가 추출되었음을 확인하였다. 또한, 추출된 지상기준점은 주로 도심지, 농경지에 분포하고 있음을 확인하였다. 산악지의 경우 도심지, 농경지에 비해 적은 양의 지상기준점이 분포함을 확인했다. 이는 도심지, 농경지에 비해 뚜렷한 지형적 특성이 존재하지 않아 발생한 것으로 판단된다.

Fig. 10. Results of extracted GCPs between Rapideye image and GCP patch using the proposed method.
Fig. 11. Distribution of extracted GCPs using the proposed method: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.

이후, 지상기준점을 기반으로 센서모델링을 수립하여 기하품질을 개선한 후 DEM을 이용하여 정사영상을 Fig. 12와 같이 제작하였다. 제작된 정사영상의 위치 정확도를 평가하기 위해 항공정사영상과 중첩 분석을 수행하였다(Fig. 13). 먼저, Rapideye 1B 영상과 항공정사영상을 중첩하여 영상 경계에 위치한 도로, 하천, 지형의 경계 등을 육안 분석하였다. 그 결과 두 영상 간 이격이 존재함을 확인하였으며, 이는 Rapideye 1B 영상이 위성의 자세, 촬영 각도 등으로 인해 기하학적 왜곡을 포함하고 있기 때문인 것으로 판단된다. 반면, 제안된 기법으로 제작된 정사영상과 항공정사영상을 중첩한 결과, 영상 경계에 위치한 도로, 하천, 지형의 경계 등에서 이격없이 동일한 위치에 존재하는 것을 확인하였다. 이는 제안 기법을 통해 생성된 정사영상은 기하품질이 개선되어 항공정사영상과의 이격이 존재하지 않는 것으로 판단된다.

Fig. 12. RapidEye orthoimage generated using the proposed method.
Fig. 13. Results of evaluating the location accuracy of the precision ortho-image.

정사영상 제작 결과 정확도를 정량적으로 평가하기 위해 초기 센서모델 및 정밀 센서모델 정확도를 분석하였다. 이를 위해 본 논문에서는 초기센서모델 정확도와 정밀센서모델 정확도를 정량적으로 평가하였다. 초기센서모델 정확도는 위성영상 제공 시 함께 제공된 초기 RPC를 이용하여 초기 센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 정밀 센서모델 정확도는 추출된 지상기준점을 이용하여 초기센서모델을 보정한 뒤, 정밀센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 지역별 센서모델 정확도 평가를 위해 사용된 지상기준점은 천안 127개, 인천 311개, 의정부 124개, 양구 59개, 개성 49개이다.

지역별 산출된 초기센서모델 정확도는 천안 1.42 pixel, 인천 1.94 pixel, 의정부 2.13 pixel, 양구 2.12 pixel, 개성 0.90 pixel의 정확도를 보였다. 산출된 지역별 정밀센서모델 정확도는 천안 0.56 pixel, 인천 0.74 pixel, 의정부 0.72 pixel, 양구 0.82 pixel, 개성 0.63 pixel의 정확도를 보였다(Table 5). 기하보정 결과 모든 실험 영상에서 센서모델 정확도가 향상되었음을 확인할 수 있었으며, 모두 2 pixels 미만의 센서 모델 정확도를 보였다. 그러나 개성의 경우, 타 지역에 비해 정확도 변화 추이가 적은 것을 확인하였다. 이를 통해 초기 센서 모델링으로 자동 추출한 지상 기준점과 비교하여 센서 모델의 정확도 확보가 가능함을 확인하였다.

Table 5 Sensor modeling accuracy of the proposed method

DataInitial accuracy before precision geometric (pixel)Modeling accuracy after precision geometric (pixel)
Cheonan1.420.56
Incheon1.940.74
Uijeongbu2.130.72
Yanggu2.120.82
Gaesung0.900.63

본 논문에서는 Sentinel-2 L1C 영상과 특징점 추출 기법을 활용해 패치를 제작하고 이를 기반으로 위성영상과의 매칭을 통해 자동으로 지상기준점을 추출하여 정사영상을 제작하는 방안을 제시하였다. 또한, 제작된 정사영상의 정확도를 평가하기 위해 기하보정 전·후의 센서모델 정확도를 산출하였다. 그 결과, 모든 영상에서 센서모델 정확도가 2 pixels 미만으로 향상되었음을 확인하였으며, 제안 방안을 통해 자동으로 지상기준점을 취득하여 농림위성 정사영상이 생성 가능함을 확인하였다. 특히, 본 연구에서 제안된 방안을 통해 지상기준점 취득이 어려운 해외지역 농림위성 영상의 자동 기하보정 가능하다는 점에서 의의가 있다.

그러나 제안된 방법은 특징점을 기반으로 자동으로 지상기준점을 추출하므로 참조영상 내 특징점이 편향되어 산출될 경우 정확도에 영향을 미칠 수 있다. 따라서, 추후 연구에서는 영상 내에서 특징점이 편향되지 않고 균등하게 추출할 수 있는 연구를 추가적으로 진행할 예정이다. 또한, 본 논문에서는 제안된 방안의 적용 가능성을 확인하기 위해 한반도를 대상으로 수행되었다. 그러므로 해외지역에서 제안된 방안의 유효성을 검증하기 위해 국외 다양한 지역을 대상으로한 추가 실험을 수행할 것이다.

본 논문은 국립산림과학원 연구과제 “농림위성정보 수신·처리·ARD 표준화 및 지능형 산림정보 플랫폼 개발 연구(과제번호: FM0103-2021-01-2024)”의 지원과 농촌진흥청 국립농업과학원 농업과학기술 연구개발사업의 연구비 지원(과제번호: PJ0162342024)에 의해 수행되었습니다.

No potential conflict of interest relevant to this article was reported.

  1. Choi, H., and Kim, T., 2022. Analysis of optimal resolution and number of GCP chips for precision sensor modeling efficiency in satellite images. Korean Journal of Remote Sensing, 38(6-1), 1445-1462. https://doi.org/10.7780/kjrs.2022.38.6.1.34
  2. Fischler, M. A., and Bolles, R. C., 1981. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6), 381-395. https://doi.org/10.1145/358669.358692
  3. Kim, B.-S., Lee, K.-D., Hong, S.-Y., and Lee, W.-K., 2016a. Analysis of payload technical specifications for efficient agriculture and forestry satellite observation. Korean Journal of Remote Sensing, 32(3), 287-305. https://doi.org/10.7780/kjrs.2016.32.3.8
  4. Kim, J. H., Ko, J. W., and Yu, J. S., 2016b. A panorama image generation method using FAST algorithm. Journal of the Korea Institute of Information and Communication Engineering, 20(3), 630-638. https://doi.org/10.6109/jkiice.2016.20.3.630
  5. Kim, T., and Im, Y. J., 2003. Automatic satellite image registration by combination of matching and random sample consensus. IEEE Transactions on Geoscience and Remote Sensing, 41(5), 1111-1117. https://doi.org/10.1109/TGRS.2003.811994
  6. Kim, T., Yun, Y., Lee, C., Bovolo, F., and Han, Y., 2023. FMPR-Net: False matching point removal network for very-high-resolution satellite image registration. IEEE Transactions on Geoscience and Remote Sensing, 61, 1-16. https://doi.org/10.1109/TGRS.2023.3333811
  7. Kim, Y. J., and Kim, Y. I., 2015. Evaluation on tie point extraction methods of WorldView-2 stereo images to analyze height information of buildings. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 33(5), 407-414. https://doi.org/10.7848/ksgpc.2015.33.5.407
  8. Lee, G. D., and Yoon, J. S., 2019. GCP chip automatic extraction of satellite imagery using interest point in North Korea. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(4), 211-218. https://doi.org/10.7848/ksgpc.2019.37.4.211
  9. Lee, H., Seo, D., Ahn, K., and Jeong, D., 2013. Positioning accuracy analysis of KOMPSAT-3 satellite imagery by RPC adjustment. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 31(6-1), 503-509. https://doi.org/10.7848/ksgpc.2013.31.6-1.503
  10. Lee, Y., and Kim, T., 2021. Determination of spatial resolution to improve GCP chip matching performance for CAS-4. Korean Journal of Remote Sensing, 37(6-1), 1517-1526. https://doi.org/10.7780/KJRS.2021.37.6.1.3
  11. Lim, Y. J., Kim, M. G., Kim, T., and Cho, S. I., 2004. Automatic precision correction of satellite images using the GCP chips of lower resolution. In Proceeding of the 2004 IEEE International Geoscience and Remote Sensing Symposium, Anchorage, AK, USA, Sept. 20-24, pp. 1394-1397. https://doi.org/10.1109/IGARSS.2004.1368679
  12. Park, H., Son, J.-H., Jung, H.-S., Kweon, K.-E., Lee, K.-D., and Kim, T., 2020. Development of the precision image processing system for CAS-500. Korean Journal of Remote Sensing, 36(5-2), 881-891. https://doi.org/10.7780/KJRS.2020.36.5.2.3
  13. Rosten, E., and Drummond, T., 2006. Machine learning for high-speed corner detection. In: Leonardis, A., Bischof, H., Pinz, A., (eds.), Computer Vision - ECCV 2006, Springer, pp. 430-443. https://doi.org/10.1007/11744023_34
  14. Son, J.-H., Yoon, W., Kim, T., and Rhee, S., 2021a. Iterative precision geometric correction for high-resolution satellite images. Korean Journal of Remote Sensing, 37(3), 431-447. https://doi.org/10.7780/KJRS.2021.37.3.6
  15. Son, M.-B., Chung, J.-H., Lee, Y.-G., and Kim, S.-J., 2021b. A comparative analysis of vegetation and agricultural monitoring of Terra MODIS and Sentinel-2 NDVIs. Journal of The Korean Society of Agricultural Engineers, 63(6), 101-115. https://doi.org/10.5389/KSAE.2021.63.6.101
  16. Yoon, W., Park, H., and Kim, T., 2018. Feasibility analysis of precise sensor modelling for KOMPSAT-3A imagery using unified control points. Korean Journal of Remote Sensing, 34(6-1), 1089-1100. https://doi.org/10.7780/KJRS.2018.34.6.1.19

Research Article

Korean J. Remote Sens. 2024; 40(5): 479-493

Published online October 31, 2024 https://doi.org/10.7780/kjrs.2024.40.5.1.6

Copyright © Korean Society of Remote Sensing.

Sentinel-2 영상 기반 자동 지상기준점 추출 방법을 이용한 농림위성영상 정사영상 생성

남윤지1, 손종환2, 김태정3, 이수암4*

1인하대학교 공간정보공학과 석사과정생
2(주)쓰리디랩스 영상공학연구소 선임연구원
3인하대학교 공간정보공학과 교수
4(주)쓰리디랩스 영상공학연구소 연구소장

Received: October 6, 2024; Revised: October 18, 2024; Accepted: October 23, 2024

Generation of CAS500-4 Orthoimages Using Automatic GCP Extraction Method Based on Sentinel-2 Images

Yunji Nam1, Jong-Hwan Son2, Taejung Kim3, Sooahm Rhee4*

1Master Student, Department of Geoinformatic Engineering, Inha University, Incheon, Republic of Korea
2Senior Researcher, Image Engineering Research Center, 3DLabs Co., Ltd., Incheon, Republic of Korea
3Professor, Department of Geoinformatic Engineering, Inha University, Incheon, Republic of Korea
4Director, Image Engineering Research Center, 3DLabs Co., Ltd., Incheon, Republic of Korea

Correspondence to:Sooahm Rhee
E-mail: ahmkun@3dlabs.co.kr

Received: October 6, 2024; Revised: October 18, 2024; Accepted: October 23, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

The Korean government plans to launch the CAS500-4 specialized for efficient management of the land. The CAS500-4 enables periodic monitoring of the Korean Peninsula with a spatial resolution of 5m along a 120 km swath width and a short revisit cycle of 3 days. To increase the usability of the CAS500-4, a process of removing geometric distortion is necessary. For this process, ground control points (GCPs) are used as key data. Acquiring GCPs through a field survey takes time and cost and cannot be achieved for inaccessible and overseas areas. In this study, we propose a method to automatically extract GCP based on Sentinel-2 Level-1C (L1C) images and generate CAS500-4 ortho-images using Rapideye 1B images with specifications like the CAS500-4 images. The proposed method is performed by generating GCP and ortho-images generation through geometric correction. After verifying the accuracy of the generated ortho-images, the sensor model accuracy before and after the geometric correction was analyzed. As a result, the sensor model accuracy with an error of less than 2 pixels was confirmed in all experimental images. Therefore, the proposed method is possible to automatically acquire GCP, it is expected to be utilized in the generation of ortho-images of CAS500-4 images in the future.

Keywords: CAS500-4, Extraction of automatic GCP, Precision geometric correction, Precision orthoimage

1. 서론

위성영상은 접근하기 어렵고 광범위한 지역에 대한 정보를 주기적으로 취득할 수 있다는 이점으로 인해 다양한 분야에서 그 수요가 증가하고 있다. 이에 따라 우리나라에서도 위성영상에 대한 다양한 수요에 대응하기 위해 다목적 실용위성을 시작으로 차세대 중형위성, 초소형 위성 등 다양한 위성을 지속적으로 개발하고 있다. 특히, 한반도의 경우 농지와 산림이 국토 면적의 80%를 차지하고 있기 때문에 효율적인 국토 모니터링을 위해서는 이에 특화된 위성영상이 필수적이다. 이에 대한민국 정부는 농업 및 산림 분야에 특화된 농림위성을 발사할 예정이다. 농림위성은 120 km의 관측폭에 5 m 공간해상도를 제공하며, 농작물 및 산림자원의 관측을 위해 기존 국토위성(차세대 중형위성 1호)의 분광해상도인 Blue, Green, Red, near infrared (NIR) 밴드에 식생에 민감한 Red-Edge 밴드를 추가하여 탑재하였다(Kim et al., 2016a). 또한, 한반도 재방문 주기가 3일로 매우 짧기 때문에 한반도의 주기적인 광역 모니터링이 가능하다. 이러한 농림위성영상의 활용성을 높이기 위해서는 기하 정확도가 높은 위성영상이 사용자에게 제공되어야 한다.

위성영상은 위성의 자세, 궤도 정보 등으로 인해 위치오차를 포함하고 있어 이러한 오차를 보정하기 위해서는 정밀 기하보정이 반드시 수행되어야 한다. 이때 정밀 기하보정에는 정확한 지상좌표를 알고 있는 지상기준점(ground control point, GCP)이 필요하다. 그러나 현장 측량을 통한 지상좌표의 취득은 많은 시간과 비용이 소요되며, 특히 접근이 불가능한 지역과 해외지역에 대해서는 취득이 어렵다. 이를 위해 2000년대 초 수행된 연구에서는 과거에 사용했던 지상기준점을 새로운 위성영상의 기하보정을 위해 재사용하는 방법을 제안하였으며(Kim and Im, 2003), Lim et al. (2004)은 기하 보정된 Landsat-7 영상에서 지상기준점을 수동으로 추출하여 Kompsat-1의 왜곡된 기하를 보정하고자 하였다. 이후, 2010년대 후반에 수행된 연구에서는 국토지리정보원에서 운영하는 국토정보 맵으로부터 통합기준점 조서와 항공정사영상을 사용하여 지상기준점을 추출하고 이를 Kompsat-3A 영상의 정밀 센서모델 수립을 위한 관측자료로 사용하였다(Yoon et al., 2018). 그러나 해당 연구는 수동으로 지상기준점을 추출하므로 촬영주기가 짧은 위성영상이 지속적으로 수신될 경우, 지형 변화가 고려되지 않은 지상기준점을 사용함으로써 처리된 기하보정 성능이 저하될 수 있다. 그러므로 지상기준점의 최신성을 유지하기 위해서는 자동으로 지상기준점을 추출하는 기술이 필요하다.

이를 보완하기 위해, Lee and Yoon (2019)은 Kompsat-2 영상으로 제작된 정사영상을 활용하여 Harris corner, scale-invariant feature transform (SIFT), speeded-up robust feature (SURF) 등 특징점 추출 기법을 적용하여 지상기준점을 자동으로 추출하는 방안을 제안함으로써 다량의 지상기준점 구축 가능성을 분석하였다. 또한, Park et al. (2020)은 국토위성영상의 자동 정밀 기하보정을 위해 Kompsat-2 영상과 digital elevation model (DEM) 자료를 이용하여 자동으로 지상기준점을 추출하였다. 앞선 연구들은 고해상도 위성영상의 기하보정을 위해 정사영상 및 항공영상 상에서 지상기준점을 추출하였으며, 농림위성과 같은 중·저해상도 영상의 기하보정을 위한 방안은 제시되지 않았다.

최근 농림위성영상 및 중·저해상도 영상의 기하보정을 위해 Lee and Kim (2021)은 국토위성용 지상기준점의 사용가능성을 검토하고 정합 성능 향상을 위한 적절한 공간해상도를 검토하였으며, Choi and Kim (2022)은 국토위성용 지상기준점을 기반으로 농림위성영상의 기하보정 시 최적의 해상도와 지상기준점 칩의 개수를 분석하였다. 앞서 수행된 연구는 농림위성의 기하보정을 위해 기 구축된 국토위성용 지상기준점을 사용하였으며, 이는 국토위성영상의 특성을 고려하여 제작되었기 때문에 농림위성의 기하보정에 적용 시 정확도에 한계가 발생할 수 있다. 이러한 한계를 극복하기 위해서는 농림위성의 특성에 적합한 지상기준점 구축이 필수적이다.

농림위성영상은 전 지구 단위로 촬영되기 때문에 이를 포함하는 정사영상을 제작하기 위해서는 전 지구 단위의 지상기준점이 필요하다. Sentienl-2 영상은 290 km 넓은 촬영폭을 가지며, 농림위성영상의 분광해상도와 유사한 밴드를 포함하고 있다. 따라서 Sentinel-2 영상은 전 세계 정밀 정사영상이 제공 가능하며, 산림자원과 농작물 등 모니터링에 사용 가능하다는 특성이 있다(Son et al., 2021b). 이에 본 연구에서는 전 세계 정밀 정사영상을 제공하는 Sentinel-2 영상에서 특징점을 추출하고 이를 기반으로 지상기준점 패치를 자동으로 제작하였다. 이를 통해 자동으로 지상기준점을 추출하고 농림위성영상의 정사영상을 제작할 수 있는 방안을 제시하고자 한다.

2. 연구 방법

본 연구에서는 10 m 공간해상도의 중·저해상도 영상인 Sentinel-2 영상을 기반으로 자동으로 지상기준점을 추출할 수 있는 기술을 개발하여 농림위성영상의 정사영상 제작 방안을 제시한다. 본 연구의 방법은 크게 지상기준점 패치 제작, 기하보정 2단계로 진행되며 아래의 Fig. 1과 같다. 우선 지상기준점 제작 단계에서는 농림위성과 동일한 지역을 촬영한 Sentienl-2 L1C 영상을 수집하고 이를 기반으로 feature from accelerated segment test (FAST) 알고리즘을 적용하여 특징점을 추출한다. 이후, 추출된 특징점의 지상좌표에 대응되는 높이값을 추출하기 위해 shuttle radar topography mission (SRTM)과 지오이드(geoid) 모델인 Earth gravitational model 2008 (EGM2008)에서 추출한다. 이후, 추출된 특징점을 중심으로 125 × 125 크기의 지상기준점 패치를 제작하였다. 그런 다음 제작된 지상기준점 패치와 목표영상 간 매칭을 수행하여 자동으로 지상기준점을 추출한다. 최종적으로 추출된 지상기준점을 기반으로 정밀 센서모델링을 수행한 후 정사보정을 통해 정사영상을 생성한다.

Figure 1. Flowchart of the proposed method.

2.1. 특징점 기반 지상기준점 패치 생성

특징점은 영상의 corner, edge, line 등과 같이 주변 화소값과 비교하였을 때 화소값이 급격하게 변화하는 지점을 말하며, 이는 영상의 축척과 회전의 영향을 받지 않는다(Kim and Kim, 2015). 또한, 특징점은 입력되는 영상의 크기, 영상의 촬영 지역, 특징점 추출 기법의 종류에 따라 수백, 수천개의 특징점이 추출될 수 있다. 대표적인 특징점 추출 기법으로는 SIFT, SURF, FAST 등이 있으며, 대부분 영상 내 객체 탐지나 영상 간 정합 등을 위해 사용되고 있다.

SIFT 알고리즘은 축척, 회전 등의 변화에 강인하지만 연산량이 많아 수행 속도가 느리다(Kim et al., 2023). SURF 알고리즘은 SIFT 알고리즘을 개선한 방법으로 SIFT에 비해 수행 속도가 개선되었으나 여전히 연산량이 많다는 특징이 있다. FAST 알고리즘은 SIFT, SURF 등의 특징점 추출 방법과는 다르게 픽셀 간 화소값 비교를 통해 특징점을 검출하기 때문에 연산량이 적어 빠른 속도로 특징점 검출이 가능하다는 이점을 가지고 있다(Rosten and Drummond, 2006; Kim et al., 2016b). 따라서 본 연구에서는 FAST 알고리즘을 이용하여 기준 영상 내 특징점을 추출하였다. 또한, 정밀 기하보정의 안정적인 수행을 위해서는 약 100개 이상의 지상기준점이 필요하다(Choi and Kim, 2022). 이를 위해 FAST 알고리즘 적용 시 수동으로 임계값을 설정하여 약 100개 정도의 특징점이 추출될 수 있도록 한다. 이어서, 추출된 특징점의 중심 화소의 영상좌표 열, 행을 정방향 매핑하여 지상좌표 X, Y를 추출하였다. 그리고 Sentinl-2 영상에서 추출한 지상좌표 X, Y 좌표는 UTM 좌표이다. 그러나 농림위성은 UTM-K 좌표계로 이에 적용하기 위해서는 Sentinel-2 영상에서 추출된 좌표를 UTM-K로 좌표 변환하여 최종 지상기준점 X, Y 좌표를 추출하였다.

지상기준점은 영상자료와 지상좌표 X, Y, Z로 구성되어 있으며, 그중 영상자료에서의 X, Y 좌표는 Sentienl-2 영상에서 FAST 알고리즘을 적용하여 추출된 특징점에서 취득하였다. 여기서 좌표 Z는 높이값을 의미하며 해당 값을 추출하기 위해서는 수치표고자료가 필요하다. 이를 위해 본 연구에서는 전 세계를 대상으로 높이값을 제공하는 SRTM과 EGM2008 지오이드 모델을 사용하였다. 본 연구에서 최종적으로 산출하고자 하는 높이값은 타원체고로 정표고와 지오이드고의 합으로 계산된다. 따라서 본 연구에서는 추출된 특징점과 일치하는 지점의 타원체고를 산출하기 위해 SRTM에서는 정표고를, EGM2008에서는 지오이드고를 추출하였다. 그러나 제작된 지상기준점 패치는 10 m의 공간해상도를, 높이값 추출을 위한 SRTM은 30 m의 공간해상도를 가지고 있다. 이에 따라 두 자료 간 일치하는 지점을 찾기 위해서는 공간해상도의 차이가 발생한다. 그러므로 본 논문에서는 Bilinear 보간법을 적용하여 최종적으로 높이값을 추출하였다(Fig. 2).

Figure 2. Method for extracting height values from SRTM and EGM2008.

제안된 방법에서는 목표영상을 넓은 범위로 커버할 수 있도록 추출된 특징점을 중심으로 10 m의 공간해상도에 125 × 125 사이즈의 패치를 제작한다. 또한, 제작된 패치는 GeoTiff 파일 형식으로, 패치간 매칭 시 지상좌표 X, Y, Z 값을 빠르게 취득 가능하도록 파일 명명 규칙을 Chip_X_Y_Z.tif로 설정하였으며 제작된 패치의 세부 정보는 Table 1과 같다.

Table 1 . Attribute of patch image.

ListContentsRemark
Image dataSentienl-2Product level: L1C
BandBlue, Green, Red-
Patch size125 × 125Resolution 10 m
Ground coordinateX, YUTM-K
HeightEllipsoid heightOrthometric height+ geoid
Patch image name conventionChip_X_Y_Z.tifX, Y: ground coordinate
Z: height-


2.2. 기하보정

위성영상의 기하보정을 수행하기 위해 FAST 특징점 기반의 지상기준점 패치를 사용하여 Fig. 3과 같이 지상기준점을 추출하였다. 지상기준점 패치의 지상좌표와 보정되지 않은 목표영상의 rational polynomial coefficient (RPC)를 기반으로 역방향 매핑을 수행하여 목표영상에서의 좌표를 추정한다. 그런 다음 추정된 영상좌표를 중심으로 제작된 지상기준점 패치와 목표영상 간 대응되는 위치를 찾기 위해 검색 영역을 설정한다. 이 때 검색 영역은 제작된 패치 보다 α만큼 큰 영역으로 설정하며, 해당 값은 경험적 실험을 통해 도출된 값을 적용한다. 본 연구에서는 검색영역을 200 pixels로 설정하였다.

Figure 3. GCP extraction method using image patch based on FAST feature point.

그런 다음 zero mean normalized cross correlation (ZNCC) 알고리즘을 적용하여 목표영상과 지상기준점 패치 간 화소값 유사도를 비교하였으며, 이 중 유사도가 가장 높게 산출된 지점을 정합점으로 선정하였다. 본 연구에 적용된 ZNCC 알고리즘의 수식은 아래의 식(1)과 같다. 식(1)에서 fg는 목표영상과 지상기준점 패치를 의미하며, MN은 지상기준점 패치의 열과 행의 크기를 의미한다. figi는 목표영상과 지상기준점 패치에 대한 i번째 화소값을 의미하고 f, g는 두 영상의 화소값 평균을 의미한다. 아래의 식은 두 영상의 평균을 기반으로 정규화를 수행하였기 때문에 –1과 1 사이의 값을 가지며, 1에 가까울수록 높은 유사도를 가진다.

ZNCC= i=1 MN(fif¯)(gig¯) i=1 MN(fif¯)2 i=1 MN(gig¯)2

자동으로 추출된 지상기준점 중에서는 필연적으로 오정합점이 존재하기 때문에 이를 random sample consensus (RANSAC) 알고리즘을 활용하여 자동으로 제거하였다. RANSAC알고리즘은 모델 수립에 필요한 최소 크기의 표본을 임의로 반복 추출하여 모델을 수립한 후 가장 많은 수의 자료로부터 지지를 받은 모델을 최종 모델로 선정하는 기법이다(Fischler and Bolles, 1981). 이후 오정합점이 제거된 자동 정합 결과를 바탕으로 센서 모델링을 수립한다.

센서모델이란 위성영상의 영상 좌표계와 지상 좌표계 간의 기하학적 관계를 의미한다. 센서모델은 크게 위성의 위치, 자세 등의 정보를 요구하는 물리적 모델, 영상좌표와 지상좌표의 관계를 수학적 모델로 표현하는 수학적 모델, 위성의 위치, 자세 등의 정보 없이 단순화된 모델로 표현하는 추상적 모델로 구분된다(Son et al., 2021a). 이러한 수학적 모델 중 하나인 rational function model (RFM)은 투영방적식과 매우 유사하여 좌표계에 유연하며 실시간 구현에 용이하다는 이점으로 인해 현재 대다수의 위성영상의 센서모델 시 적용되고 있다. 따라서 본 논문에서는 수학적 모델인 RFM 모델을 이용하여 기하보정을 수행하였으며, 영상 및 지상좌표와의 관계를 나타내는 RFM은 식(2)와 같이 표현된다.

cn=P1(Xn,Yn,Zn)P2(Xn,Yn,Zn)= i=03 j=03 k=03 aijk Xni Ynj Znk i=0 IB j=0 JB k=0 KB bijk Xni Ynj Znk rn=P3(Xn,Yn,Zn)P4(Xn,Yn,Zn)= i=03 j=03 k=03 cijk Xni Ynj Znk i=03 j=03 k=03 dijk Xni Ynj Znk

위의 수식에서 cnrn은 정규화된 영상좌표이며, Xn, Yn, Zn은 정규화된 지상좌표를 나타낸다. aijk, bijk, cijk, dijk는 각 영상의 행, 열 좌표와 지상좌표 간 관계를 정의하는 유리함수식을 구성하는 유리다항식 P1, P2, P3, P4의 계수이다. RPC 보정 방법에는 다항식 조정과 RPC 블록조정으로 크게 두 가지가 있다. 다항식 조정은 기준점의 지상좌표와 제공되는 RPC로부터 획득되어지는 지상좌표 간 오차를 다항식으로 조정하는 방법이다. RPC 블록조정은 RPC의 영상좌표 오차항을 조정계수로 두고 번들 블록 조정을 적용하는 방법이다. RPC 블록조정은 조정계수 2개만으로도 RPC 보정이 가능하다는 이점이 있다(Lee et al., 2013). RPC 블록조정 방법에는 translate 변위오차 계산을 통한 보정, affine 변환, 다항식 변환이 있다. 이 중 본 논문에서는 이동, 축척, 회전에 모두 강인한 특징을 보이는 affine 변환 계수를 이용하여 정밀 센서모델링을 수행하며 아래의 식(3)과 같다.

Δp=a0+acColumn+arRowΔr=b0+bcColumn+brRow

위의 수식에서 a0, ac, ar, b0, bc, br은 최소제곱에 의해 계산되는 미지 변수를 나타내며, Δp과 Δr은 각각 열, 행 방향으로 조정된 값을 나타낸다.

본 논문에서는 자동 추출된 지상기준점 열, 행과 초기 센서모델을 통해 추정된 열, 행을 기반으로 affine 변환 계수를 추정함으로써 갱신된 RPC 계수를 추출하고 이를 통해 정밀 센서모델을 수립한다. 이후 이를 기반으로 DEM자료에 매핑함으로써 높이값을 획득하여 정사영상을 생성한다.

3. 실험 자료

본 논문에서는 지상기준점 패치 제작을 위해 전 세계 정밀 정사영상을 제공하는 Sentinel-2 L1C 영상을 사용하였으며 천안시, 인천시, 의정부시, 강원도 양구군, 개성시의 총 5장의 영상을 사용하였다(Fig. 4). 또한, 패치 제작을 위해 Blue, Green, Red 밴드가 합성된 영상을 사용하였으며 이는 10 m급의 공간해상도로 자세한 사양은 Table 2와 같다.

Figure 4. Experimental Sentinel-2 images: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.

Table 2 . Specification of Sentinel-2 images.

AreaCheonanIncheonUijeongbuYangguGaesung
SatelliteSentienl-2
Product levelL1C
Spectral bandCoastal aerosol (442.7 nm (S2A), 442.3 nm (S2B))
Blue (492.4 nm (S2A), 492.1 nm (S2B))
Green (559.8 nm (S2A), 559.0 nm (S2B))
Red (664.6 nm (S2A), 665.0 nm (S2B))
Vegetation red edge, 704.1 nm (S2A), 703.8 nm (S2B)
Vegetation red edge, 740.5 nm (S2A), 739.1 nm (S2B)
Vegetation red edge, 782.8 nm (S2A), 779.7 nm (S2B)
NIR, 832.8 nm (S2A), 833.0 nm (S2B)
Narrow NIR, 864.7 nm (S2A), 864.0 nm (S2B)
Water vapor, 945.1 nm (S2A), 943.2 nm (S2B)
SWIR - Cirrus, 1373.5 nm (S2A), 1376.9 nm (S2B)
SWIR, 1613.7 nm (S2A), 1610.4 nm (S2B)
SWIR, 2202.4 nm (S2A), 2185.7 nm (S2B)
Coordinate systemWGS 84 / UTM zone 52N
Image size10,980 × 10,980
GSD (m)10 m


본 연구에서는 자동 추출된 지상기준점을 이용하여 정사영상을 생성하기 위해 농림위성 영상과 유사한 사양의 Rapideye 영상을 사용하였다. 연구에 사용한 Rapideye 영상은 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상을 사용하였으며 Fig. 5와 같다. Rapideye 영상은 기하왜곡이 제거되지 않은 처리된 1B 영상을 사용하였으며, 6.5 m의 공간해상도를 가진다. 분광해상도는 Blue, Green, Red, RedEdge, NIR 5개로 농림위성과 동일하며, 자세한 사양은 아래의 Table 3과 같다.

Figure 5. Experimental Rapideye images: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.

Table 3 . Specification of Rapideye images.

AreaCheonanIncheonUijeongbuYangguGaesung
SatelliteRapideye
Product level1B (Basic product)
Spectral bandBlue (410–510 nm)
Green (520–590 nm)
Red (630–685 nm)
Red-Edge (690–730 nm)
NIR (760–850 nm)
Image size11,754 × 11,96511,824 × 14,50911,819 × 15,36011,760 × 14,19611,772 × 11,910
GSD (m)6.5 m


지상기준점의 높이값 추출을 위한 기반 자료는 SRTM과 EGM2008 지오이드 모델을 사용하였다(Fig. 6). SRTM과 EGM2008은 WGS84 타원체를 기반으로 전 세계의 높이 정보를 제공하고 있으나 본 연구에서는 한반도에 해당하는 자료만 사용하였다. SRTM의 공간해상도는 30 m로 해당 자료에서 의미하는 높이값은 정표고를 의미하며 자세한 사양은 Table 4와 같다. EGM2008의 공간해상도는 5′ × 5′로 EGM2008은 WGS84 타원체로 여기서 의미하는 높이값은 지오이드고를 의미하며 자세한 사양은 Table 4와 같다. 본 연구에서 사용되는 높이값은 타원체고로, 이는 정표고와 지오이드고의 합으로 최종적으로 산출할 수 있다.

Figure 6. SRTM DEM and EGM2008 for extracting orthometric height values of GCPs: (a) SRTM DEM and (b) EGM2008.

Table 4 . Specification of SRTM DEM and EGM2008.

ListSRTM DEMEGM2008
Horizontal datumWGS84WGS84
Height valueOrthometric heightGeoid height
Spatial resolution30 m5’ × 5’

4. 실험 결과

4.1. 특징점 기반 지상기준점 패치 생성 결과

Sentinel-2 영상을 기반으로 FAST 알고리즘을 적용해 추출된 특징점 결과는 아래의 Fig. 7과 같다. 천안시, 인천시, 의정부시, 강원도 양구군, 개성시 총 5장의 영상에 대하여 추출된 특징점은 천안 418개, 인천 374개, 의정부 181개, 강원도 양구 108개, 북한 개성 101개로 추출되었다. 추출된 특징점은 대체로 농경지, 도심지에 다수 분포하고 있으며 건물, 수계, 지형의 경계 등과 같이 주변 픽셀과 비교하였을 때 화소값이 급격히 변하는 지점을 특징점으로 선정하였음을 확인하였다. 또한, 산악지는 농경지, 도심지에 비해 적은 수량의 특징점이 분포하였으며 대체로 산림 내 도로, 건물, 지형의 경계 등에서 추출되었음을 확인하였다. 이는 농경지, 도심지에 비해 지형적 특징이 적기 때문에 적은 수량의 특징점이 추출되는 것으로 판단된다.

Figure 7. Results of FAST feature points extracted from Sentinel-2 images.

자동으로 추출된 지상좌표 X, Y, Z를 기반으로 제작된 지상기준점 패치는 광학영상으로 10 m 공간해상도를 가지며 제작 결과 일부는 Fig. 8과 같다. 지역별로 제작된 지상기준점 패치의 개수는 천안 408개, 인천 364개, 의정부 170개, 강원도 양구군 108개, 개성 96개 패치가 제작되었다. 제작된 패치의 수량을 보면 앞서 추출된 특징점의 개수보다 적은 개수인 것을 확인할 수 있다. 이는 특징점을 중심으로 패치를 제작하기 때문에 영상의 경계 부분에서 추출된 특징점을 중심으로 설정한 크기의 패치를 제작할 경우 Sentinel-2 영상의 범위를 벗어나게 된다. 그러므로 Fig. 9와 같이 영상 내 정보가 손실될 경우 기하보정 처리 사용되기 어렵기 때문에 다음과 같은 경우 패치 제작을 수행하지 않도록 하였다.

Figure 8. Results of image patch generation based on feature points.
Figure 9. Example of not generating patches.

4.2. 정사영상 정확도 분석

제작된 정사영상의 정확도를 검증하기 위해 Rapideye 영상의 기하보정 전·후의 센서모델 정확도를 분석하였다. 우선, Rapideye 영상과 제작된 지상기준점 패치 간 매칭 결과는 Fig. 10과 같으며 주로 건물, 지형의 경계에서 추출된 것을 확인하였다. 더불어 지역별 Rapideye 전체 영상 내 추출된 지상기준점의 분포는 Fig. 11과 같으며 천안 131개, 인천 315개, 의정부 128개, 양구 59개, 개성 50개가 추출되었음을 확인하였다. 또한, 추출된 지상기준점은 주로 도심지, 농경지에 분포하고 있음을 확인하였다. 산악지의 경우 도심지, 농경지에 비해 적은 양의 지상기준점이 분포함을 확인했다. 이는 도심지, 농경지에 비해 뚜렷한 지형적 특성이 존재하지 않아 발생한 것으로 판단된다.

Figure 10. Results of extracted GCPs between Rapideye image and GCP patch using the proposed method.
Figure 11. Distribution of extracted GCPs using the proposed method: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.

이후, 지상기준점을 기반으로 센서모델링을 수립하여 기하품질을 개선한 후 DEM을 이용하여 정사영상을 Fig. 12와 같이 제작하였다. 제작된 정사영상의 위치 정확도를 평가하기 위해 항공정사영상과 중첩 분석을 수행하였다(Fig. 13). 먼저, Rapideye 1B 영상과 항공정사영상을 중첩하여 영상 경계에 위치한 도로, 하천, 지형의 경계 등을 육안 분석하였다. 그 결과 두 영상 간 이격이 존재함을 확인하였으며, 이는 Rapideye 1B 영상이 위성의 자세, 촬영 각도 등으로 인해 기하학적 왜곡을 포함하고 있기 때문인 것으로 판단된다. 반면, 제안된 기법으로 제작된 정사영상과 항공정사영상을 중첩한 결과, 영상 경계에 위치한 도로, 하천, 지형의 경계 등에서 이격없이 동일한 위치에 존재하는 것을 확인하였다. 이는 제안 기법을 통해 생성된 정사영상은 기하품질이 개선되어 항공정사영상과의 이격이 존재하지 않는 것으로 판단된다.

Figure 12. RapidEye orthoimage generated using the proposed method.
Figure 13. Results of evaluating the location accuracy of the precision ortho-image.

정사영상 제작 결과 정확도를 정량적으로 평가하기 위해 초기 센서모델 및 정밀 센서모델 정확도를 분석하였다. 이를 위해 본 논문에서는 초기센서모델 정확도와 정밀센서모델 정확도를 정량적으로 평가하였다. 초기센서모델 정확도는 위성영상 제공 시 함께 제공된 초기 RPC를 이용하여 초기 센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 정밀 센서모델 정확도는 추출된 지상기준점을 이용하여 초기센서모델을 보정한 뒤, 정밀센서모델을 수립한 다음 추출된 지상기준점에 대하여 측정한 정확도이다. 지역별 센서모델 정확도 평가를 위해 사용된 지상기준점은 천안 127개, 인천 311개, 의정부 124개, 양구 59개, 개성 49개이다.

지역별 산출된 초기센서모델 정확도는 천안 1.42 pixel, 인천 1.94 pixel, 의정부 2.13 pixel, 양구 2.12 pixel, 개성 0.90 pixel의 정확도를 보였다. 산출된 지역별 정밀센서모델 정확도는 천안 0.56 pixel, 인천 0.74 pixel, 의정부 0.72 pixel, 양구 0.82 pixel, 개성 0.63 pixel의 정확도를 보였다(Table 5). 기하보정 결과 모든 실험 영상에서 센서모델 정확도가 향상되었음을 확인할 수 있었으며, 모두 2 pixels 미만의 센서 모델 정확도를 보였다. 그러나 개성의 경우, 타 지역에 비해 정확도 변화 추이가 적은 것을 확인하였다. 이를 통해 초기 센서 모델링으로 자동 추출한 지상 기준점과 비교하여 센서 모델의 정확도 확보가 가능함을 확인하였다.

Table 5 . Sensor modeling accuracy of the proposed method.

DataInitial accuracy before precision geometric (pixel)Modeling accuracy after precision geometric (pixel)
Cheonan1.420.56
Incheon1.940.74
Uijeongbu2.130.72
Yanggu2.120.82
Gaesung0.900.63

5. 결론

본 논문에서는 Sentinel-2 L1C 영상과 특징점 추출 기법을 활용해 패치를 제작하고 이를 기반으로 위성영상과의 매칭을 통해 자동으로 지상기준점을 추출하여 정사영상을 제작하는 방안을 제시하였다. 또한, 제작된 정사영상의 정확도를 평가하기 위해 기하보정 전·후의 센서모델 정확도를 산출하였다. 그 결과, 모든 영상에서 센서모델 정확도가 2 pixels 미만으로 향상되었음을 확인하였으며, 제안 방안을 통해 자동으로 지상기준점을 취득하여 농림위성 정사영상이 생성 가능함을 확인하였다. 특히, 본 연구에서 제안된 방안을 통해 지상기준점 취득이 어려운 해외지역 농림위성 영상의 자동 기하보정 가능하다는 점에서 의의가 있다.

그러나 제안된 방법은 특징점을 기반으로 자동으로 지상기준점을 추출하므로 참조영상 내 특징점이 편향되어 산출될 경우 정확도에 영향을 미칠 수 있다. 따라서, 추후 연구에서는 영상 내에서 특징점이 편향되지 않고 균등하게 추출할 수 있는 연구를 추가적으로 진행할 예정이다. 또한, 본 논문에서는 제안된 방안의 적용 가능성을 확인하기 위해 한반도를 대상으로 수행되었다. 그러므로 해외지역에서 제안된 방안의 유효성을 검증하기 위해 국외 다양한 지역을 대상으로한 추가 실험을 수행할 것이다.

사사

본 논문은 국립산림과학원 연구과제 “농림위성정보 수신·처리·ARD 표준화 및 지능형 산림정보 플랫폼 개발 연구(과제번호: FM0103-2021-01-2024)”의 지원과 농촌진흥청 국립농업과학원 농업과학기술 연구개발사업의 연구비 지원(과제번호: PJ0162342024)에 의해 수행되었습니다.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

Fig 1.

Figure 1.Flowchart of the proposed method.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 2.

Figure 2.Method for extracting height values from SRTM and EGM2008.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 3.

Figure 3.GCP extraction method using image patch based on FAST feature point.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 4.

Figure 4.Experimental Sentinel-2 images: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 5.

Figure 5.Experimental Rapideye images: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 6.

Figure 6.SRTM DEM and EGM2008 for extracting orthometric height values of GCPs: (a) SRTM DEM and (b) EGM2008.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 7.

Figure 7.Results of FAST feature points extracted from Sentinel-2 images.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 8.

Figure 8.Results of image patch generation based on feature points.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 9.

Figure 9.Example of not generating patches.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 10.

Figure 10.Results of extracted GCPs between Rapideye image and GCP patch using the proposed method.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 11.

Figure 11.Distribution of extracted GCPs using the proposed method: (a) Cheonan-si, (b) Inchoen-si, (c) Uijeongbu-si, (d) Yanggu-gun, Gangwon-do, and (e) Gaesung-si.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 12.

Figure 12.RapidEye orthoimage generated using the proposed method.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Fig 13.

Figure 13.Results of evaluating the location accuracy of the precision ortho-image.
Korean Journal of Remote Sensing 2024; 40: 479-493https://doi.org/10.7780/kjrs.2024.40.5.1.6

Table 1 . Attribute of patch image.

ListContentsRemark
Image dataSentienl-2Product level: L1C
BandBlue, Green, Red-
Patch size125 × 125Resolution 10 m
Ground coordinateX, YUTM-K
HeightEllipsoid heightOrthometric height+ geoid
Patch image name conventionChip_X_Y_Z.tifX, Y: ground coordinate
Z: height-

Table 2 . Specification of Sentinel-2 images.

AreaCheonanIncheonUijeongbuYangguGaesung
SatelliteSentienl-2
Product levelL1C
Spectral bandCoastal aerosol (442.7 nm (S2A), 442.3 nm (S2B))
Blue (492.4 nm (S2A), 492.1 nm (S2B))
Green (559.8 nm (S2A), 559.0 nm (S2B))
Red (664.6 nm (S2A), 665.0 nm (S2B))
Vegetation red edge, 704.1 nm (S2A), 703.8 nm (S2B)
Vegetation red edge, 740.5 nm (S2A), 739.1 nm (S2B)
Vegetation red edge, 782.8 nm (S2A), 779.7 nm (S2B)
NIR, 832.8 nm (S2A), 833.0 nm (S2B)
Narrow NIR, 864.7 nm (S2A), 864.0 nm (S2B)
Water vapor, 945.1 nm (S2A), 943.2 nm (S2B)
SWIR - Cirrus, 1373.5 nm (S2A), 1376.9 nm (S2B)
SWIR, 1613.7 nm (S2A), 1610.4 nm (S2B)
SWIR, 2202.4 nm (S2A), 2185.7 nm (S2B)
Coordinate systemWGS 84 / UTM zone 52N
Image size10,980 × 10,980
GSD (m)10 m

Table 3 . Specification of Rapideye images.

AreaCheonanIncheonUijeongbuYangguGaesung
SatelliteRapideye
Product level1B (Basic product)
Spectral bandBlue (410–510 nm)
Green (520–590 nm)
Red (630–685 nm)
Red-Edge (690–730 nm)
NIR (760–850 nm)
Image size11,754 × 11,96511,824 × 14,50911,819 × 15,36011,760 × 14,19611,772 × 11,910
GSD (m)6.5 m

Table 4 . Specification of SRTM DEM and EGM2008.

ListSRTM DEMEGM2008
Horizontal datumWGS84WGS84
Height valueOrthometric heightGeoid height
Spatial resolution30 m5’ × 5’

Table 5 . Sensor modeling accuracy of the proposed method.

DataInitial accuracy before precision geometric (pixel)Modeling accuracy after precision geometric (pixel)
Cheonan1.420.56
Incheon1.940.74
Uijeongbu2.130.72
Yanggu2.120.82
Gaesung0.900.63

References

  1. Choi, H., and Kim, T., 2022. Analysis of optimal resolution and number of GCP chips for precision sensor modeling efficiency in satellite images. Korean Journal of Remote Sensing, 38(6-1), 1445-1462. https://doi.org/10.7780/kjrs.2022.38.6.1.34
  2. Fischler, M. A., and Bolles, R. C., 1981. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6), 381-395. https://doi.org/10.1145/358669.358692
  3. Kim, B.-S., Lee, K.-D., Hong, S.-Y., and Lee, W.-K., 2016a. Analysis of payload technical specifications for efficient agriculture and forestry satellite observation. Korean Journal of Remote Sensing, 32(3), 287-305. https://doi.org/10.7780/kjrs.2016.32.3.8
  4. Kim, J. H., Ko, J. W., and Yu, J. S., 2016b. A panorama image generation method using FAST algorithm. Journal of the Korea Institute of Information and Communication Engineering, 20(3), 630-638. https://doi.org/10.6109/jkiice.2016.20.3.630
  5. Kim, T., and Im, Y. J., 2003. Automatic satellite image registration by combination of matching and random sample consensus. IEEE Transactions on Geoscience and Remote Sensing, 41(5), 1111-1117. https://doi.org/10.1109/TGRS.2003.811994
  6. Kim, T., Yun, Y., Lee, C., Bovolo, F., and Han, Y., 2023. FMPR-Net: False matching point removal network for very-high-resolution satellite image registration. IEEE Transactions on Geoscience and Remote Sensing, 61, 1-16. https://doi.org/10.1109/TGRS.2023.3333811
  7. Kim, Y. J., and Kim, Y. I., 2015. Evaluation on tie point extraction methods of WorldView-2 stereo images to analyze height information of buildings. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 33(5), 407-414. https://doi.org/10.7848/ksgpc.2015.33.5.407
  8. Lee, G. D., and Yoon, J. S., 2019. GCP chip automatic extraction of satellite imagery using interest point in North Korea. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(4), 211-218. https://doi.org/10.7848/ksgpc.2019.37.4.211
  9. Lee, H., Seo, D., Ahn, K., and Jeong, D., 2013. Positioning accuracy analysis of KOMPSAT-3 satellite imagery by RPC adjustment. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 31(6-1), 503-509. https://doi.org/10.7848/ksgpc.2013.31.6-1.503
  10. Lee, Y., and Kim, T., 2021. Determination of spatial resolution to improve GCP chip matching performance for CAS-4. Korean Journal of Remote Sensing, 37(6-1), 1517-1526. https://doi.org/10.7780/KJRS.2021.37.6.1.3
  11. Lim, Y. J., Kim, M. G., Kim, T., and Cho, S. I., 2004. Automatic precision correction of satellite images using the GCP chips of lower resolution. In Proceeding of the 2004 IEEE International Geoscience and Remote Sensing Symposium, Anchorage, AK, USA, Sept. 20-24, pp. 1394-1397. https://doi.org/10.1109/IGARSS.2004.1368679
  12. Park, H., Son, J.-H., Jung, H.-S., Kweon, K.-E., Lee, K.-D., and Kim, T., 2020. Development of the precision image processing system for CAS-500. Korean Journal of Remote Sensing, 36(5-2), 881-891. https://doi.org/10.7780/KJRS.2020.36.5.2.3
  13. Rosten, E., and Drummond, T., 2006. Machine learning for high-speed corner detection. In: Leonardis, A., Bischof, H., Pinz, A., (eds.), Computer Vision - ECCV 2006, Springer, pp. 430-443. https://doi.org/10.1007/11744023_34
  14. Son, J.-H., Yoon, W., Kim, T., and Rhee, S., 2021a. Iterative precision geometric correction for high-resolution satellite images. Korean Journal of Remote Sensing, 37(3), 431-447. https://doi.org/10.7780/KJRS.2021.37.3.6
  15. Son, M.-B., Chung, J.-H., Lee, Y.-G., and Kim, S.-J., 2021b. A comparative analysis of vegetation and agricultural monitoring of Terra MODIS and Sentinel-2 NDVIs. Journal of The Korean Society of Agricultural Engineers, 63(6), 101-115. https://doi.org/10.5389/KSAE.2021.63.6.101
  16. Yoon, W., Park, H., and Kim, T., 2018. Feasibility analysis of precise sensor modelling for KOMPSAT-3A imagery using unified control points. Korean Journal of Remote Sensing, 34(6-1), 1089-1100. https://doi.org/10.7780/KJRS.2018.34.6.1.19
KSRS
October 2024 Vol. 40, No.5, pp. 419-879

Share

  • line

Related Articles

Korean Journal of Remote Sensing