Korean J. Remote Sens. 2024; 40(5): 445-453
Published online: October 31, 2024
https://doi.org/10.7780/kjrs.2024.40.5.1.3
© Korean Society of Remote Sensing
이정희1, 김광섭2, 이기원3*
1한성대학교 융합보안학과 석사과정생
2경민대학교 컴퓨터소프트웨어학과 조교수
3한성대학교 정보시스템트랙 교수
Correspondence to : Kiwon Lee
E-mail: kilee@hansung.ac.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
This study conducted multi-sensor image classification by utilizing Google Earth Engine (GEE) and applying satellite imagery from Compact Advanced Satellite 500-1 (CAS500-1), Sentinel-1, and Sentinel-2. The Land Use and Land Cover classification was performed using the Random Forest algorithm provided by GEE. The study experimented with various combinations of input data, integrating CAS500-1, Sentinel-1, and Sentinel-2 imagery with Normalized Difference Vegetation Index (NDVI) data from CAS500-1. The study area focused on the Goryeong County region in Gyeongsangbuk-do, and the satellite imagery was acquired in early January 2023. The results of this study showed that the highest classified result (94.51%) in overall accuracy and Kappa coefficient (0.9342) were achieved when applying CAS500-1, Sentinel-1, Sentinel-2 imagery, and NDVI data. The NDVI data is believed to complement the CAS500-1 imagery, improving classification accuracy. This study confirmed that applying multi-sensor data can improve classification accuracy, and the high-resolution characteristics of CAS500-1 imagery are expected to enable more detailed analyses within GEE.
Keywords Google Earth Engine, CAS500-1, Multi-sensor, Random forest, Image classification
Google이 2010년에 클라우드 기반의 정보처리 환경에서 Explorer, Code Editor, Timelapse로 구성된 위성영상 처리 플랫폼인 Google Earth Engine (GEE)을 공개한 이후, 전 세계에서 2018년부터 매년 이 플랫폼을 활용한 100편 이상의 연구 논문이 발표되고 있다(Amani et al., 2020). GEE는 수 페타바이트(petabyte)에 달하는 위성영상정보와 지구과학 정보를 애플리케이션 프로그래밍 인터페이스(application programming interface, API)를 통해 무료로 제공한다. 이러한 자료들을 실시간으로 처리할 수 있는 영상 처리 함수를 Code Editor (JavaScript) 또는 Colab (Python)을 사용하여 별도 설치 없이 바로 활용할 수 있기 때문에 이 플랫폼의 사용자가 점점 증가하고 있다. GEE는 per-pixel 연산, kernel 연산, 배열/행렬 연산, reducer를 기반으로한 통계 수치 정보 처리 및 기계학습 함수 등을 제공하며, 개인이 만든 소스코드 또한 공유할 수 있기 때문에 여러 활용 분야에 필요한 전문 함수(specialized function)들이 개발자 커뮤니티를 중심으로 계속 개발되고 있다. Amani et al. (2020)의 조사에 의하면 GEE가 주로 활용되는 분야는 식생, 농업, 수문학, 토지 피복, 도시 연구 분야 순이다.
GEE가 제공하는 함수 중에서 기계학습 응용을 위한 함수는 Random Forest (RF), Support Vector Machine (SVM), Classification and Regression Trees (CART)와 Naive Bayes 등이 있다. Zhao et al. (2024)은 Sentinel-2 영상을 활용하여 GEE에서 제공하는 기계학습 알고리즘의 정확도를 비교한 연구에서, RF 알고리즘이 CART나 SVM 등 다른 알고리즘보다 우수한 결과를 보였다고 보고하였다. 이 결과를 근거로 하여 이 연구에서 RF 알고리즘을 기계학습 방법으로 채택하였다. RF 알고리즘은 지도 학습의 일종으로, 입력 데이터에 대한 일련의 규칙을 학습하여 데이터를 분류하거나 회귀 분석을 수행하는 결정 트리(decision tree)를 기반으로 한다. 이 알고리즘은 특히 무작위 변수 선택을 통해 트리를 학습함으로써 특정 자료에만 치우친 결과를 제공하는 과적합(overfitting) 문제를 완화하여, 위성영상 분류에서 널리 사용되고 있다.
최근 GEE 플랫폼의 RF 기계학습 알고리즘을 적용한 여러 사례 연구가 발표되고 있다. Aji et al. (2023)은 인도네시아 지역 내 맹그로브(mangrove) 종의 시계열 분류를 위해 Sentinel-2 영상과 정규식생지수(Normalized Difference Vegetation Index, NDVI) 자료를 RF 알고리즘에 적용한 연구를 수행하였으며, Eisfelder et al. (2024)은 에티오피아 지역 내 농경지와 작물 유형을 Sentinel-1과 Sentinel-2 영상정보를 사용해 RF 알고리즘으로 토지 사용 및 토지 피복(Land Use and Land Cover, LULC) 분류를 수행한 결과, 높은 정확도를 보였다. Ahmed et al. (2024)은 독일 연구 지역의 20년간의 LULC 주제도를 제작하기 위해 Landsat-7과 Landsat-9 영상정보를 RF 알고리즘에 적용하였으며, 이 연구 결과가 지역 계획 및 정책 결정에 중요한 정보로 활용될 수 있다고 보고하였다. Fernando and Senanayake (2024)는 GEE에서 Landsat 영상정보를 사용하여 스리랑카 내 연구 지역에 대해 80% 이상의 정확도를 보이는 20년간의 농작물 주제도를 제작하기 위해 RF 알고리즘을 적용하였다. 또한, Seitkazy et al. (2024)은 카자흐스탄 지역에서 Landsat 위성영상과 RF 알고리즘을 적용하여 토지이용 변화를 분석하는 연구를 수행하였다. Amindin et al. (2024)은 이란 지역에서 생태 안정성 분석을 위해 여러 시기의 LULC 주제도를 작성하면서 Landsat 영상정보와 RF 알고리즘을 활용하였다. 이와 같이 GEE에서 RF 알고리즘을 사용한 연구는 GEE에서 제공하는 위성영상을 활용하여 10년 이상의 장기 변화를 분석하거나 광범위한 연구 지역을 대상으로 분류도를 제작하는 연구가 주로 수행되고 있으며 작은 지역의 정밀 영상 분류 목적으로 사용된 경우는 발표된 사례가 많지 않다.
한편, Tassi and Vizzari (2020)는 LULC 주제도 제작을 위해 RF 알고리즘을 사용하면서 GEE에서 제공하지 않는 PlanetScope 위성영상을 추가하여 Landsat-8과 Sentinel-2 영상정보를 함께 적용한 결과, 고해상도 위성영상을 사용하면 정확도가 향상된다는 결과를 발표하였다. Peters et al. (2024)은 GEE 플랫폼에서 산사태 감지를 위해 RF 알고리즘을 적용하며, Sentinel-1과 Sentinel-2 영상정보와 함께 Japan Aerospace Exploration Agency (JAXA)의 ALOS-2 PALSAR-2 영상을 통합하여 사용하였다. 우리나라에서는 수재해 모니터링(Park and Kang, 2022), 기름 유출 모니터링(Kim and Hyun, 2023)이나 토양 수분도 제작(Lee et al., 2023) 연구 등에서 GEE 플랫폼에서 제공하는 위성영상을 사용한 사례가 있지만 사용자 데이터를 추가로 입력한 뒤에 이 데이터들을 GEE가 제공하는 데이터와 직접 연계하여 분석한 연구는 아직 발표되지 않았다.
이 연구의 목적은 GEE에서 제공하는 Sentinel-1, Sentinel-2 위성인 광학 및 synthetic aperture radar (SAR) 위성영상정보와 함께 CAS500-1 영상정보를 GEE에 등록 후 자료를 조합하여 다중 센서 영상정보로부터 GEE의 RF 알고리즘을 적용하여 LULC 주제도를 위한 영상 분류에 적용하는 것이다. 또한 GEE에서 계산한 전체 정확도 overall accuracy (OA) 값과 Kappa 계수의 계산 값을 이용하여 정확도 결과를 분석하였다.
연구 지역은 대구광역시 서남부에 위치한 고령군 일대 지역으로 광주대구고속도로와 중부내륙도로가 교차하는 지역이다. 도로 주변 지역으로 마을과 공·상업 지역이 일부 포함되어 있고, 도로를 벗어나면 낙동강을 포함하는 농경 재배와 산림이 우세한 지역으로 전체 면적은 약 177 km2이다(Fig. 1). 이 지역은 Sentinel-1, Sentinel-2, CAS500-1 영상 등의 촬영일자가 2023년 1월 1일부터 1월 7일까지의 1주일 이내로 거의 일치하는 지역이다. 이와 같은 시기적 일치도와 다양한 클래스로 분류할 수 있다는 점이 이 지역이 연구지역으로 선정된 주요 이유이다. 이 연구에서 사용한 자료는 Table 1에 정리하였다.
Table 1 Data used for RF scheme in GEE
Data sensor | Data type | Acquisition date | Source | Resolution |
---|---|---|---|---|
CAS500-1 (Level-1G) | R, G, B, and NIR | 2023-01-01, 2023-01-06 | NGII Bundled Image Set | 2 m |
Sentinel-1 | VV and VH (GRD) | 2023-01-07 | GEE API | 10 m |
Sentinel-2 | R, G, B, and NIR (Surface Reflectance) | 2023-01-02 | GEE API | 10 m |
CAS500-1 (User-Friendly Image) | R, G, B, and NIR (Surface Reflectance) | 2023-01-01, 2023-01-06 | NGII Bundled Image Set | 2 m |
NDVI | Computed by CAS500-1 Surface Reflectance | 2023-01-01, 2023-01-06 | GEE API | 2 m |
NIR: near-infrared, NGII: National Geographic Information Institute.
GEE에서 제공하는 Sentinel-1 ground range detected (GRD) SAR 영상은 radiometric calibration geometric correction, thermal noise removal, multilooking과 terrain correction 등의 전처리 과정을 거친 자료를 플랫폼에 적합한 위성영상 분석 준비 데이터(analysis ready data, ARD) 형식으로 변환한 것이다(Mullissa et al., 2021). Sentinle-2 광학영상의 경우는 각 밴드의 지표반사도 처리 영상을 사용하였다.
본 연구에서는 7개의 클래스를 분류 대상으로 설정하고, 각 클래스마다 120~130개의 학습자료와 30개의 검증자료를 GEE 플랫폼에 입력하여 전체 학습 자료는 850개, 검증 자료는 210개로 구성하였다. RF 알고리즘을 통해 분류한 클래스는 수부 지역, 도로, 농경/수풀 지역, 산림 지역, 도심지, 모래/강변 토양 지역, 나대지로 구성하였다. 기존 여러 연구에서는 도로, 모래 지역, 나대지 등을 포함하지 않았으나, 본 연구에서는 고해상도 국토 위성을 사용함에 따라 이러한 클래스를 추가하였다(Amindin et al., 2024; Eisfelder et al., 2024; Fernando and Senanayake, 2024; Seitkazy et al., 2024).
CAS500-1 위성영상은 국토정보플랫폼(https://map.ngii.go.kr)을 통해 정사영상, 모자이크영상, 사용자 친화형 국토위성영상을 제공하고 있다. 본 연구에서는 기하보정이 처리된 분광 위성영상(정사영상, Level-1G)과 지표 반사도 제품으로 제공되는 사용자 친화형 자료를 모두 사용하였다. 특히 사용자 친화형 자료는 중복 적용의 의미가 있을 수 있어 분광 영상정보의 각 밴드별 지표반사도를 직접 사용하지 않고 NDVI 자료로 계산하여 RF 알고리즘에 적용하였다.
Fig. 2는 연구의 자료 처리 방법과 연구 흐름도를 정리한 것이다. GEE에서 제공하는 RF 방법은 여러 개의 개별 학습 모델을 결합하여 하나의 강력한 모델을 만드는 기계학습 기법인 앙상블 학습(ensemble learning) 방법의 일종이다. 앙상블 학습은 bagging, boosting, stacking 등 다양한 방식으로 구현될 수 있다. GEE는 여러 개의 학습 데이터 샘플을 무작위로 생성하고, 각 샘플에 대해 개별 모델을 학습시킨 후, 이 모델들의 예측을 평균하거나 투표하여 최종 예측을 도출하는 bagging 방식을 기반으로 한 RF 알고리즘을 제공한다(https://developers.google.com/earth-engine/apidocs/ee-classifier-smilerandomforest).
위성영상 처리 도구를 활용한 다중 분광 영상 분류 작업에서는 종종 폴리곤(polygon) 유형의 데이터를 사용하지만, GEE에서 기계학습을 위한 학습자료와 검증자료는 포인트 유형의 데이터를 사용한다. Google에서는 이러한 방식이 다양한 위치에서 데이터를 수집하여 모델이 더 일반화된 학습을 할 수 있다는 장점과 단일 좌표로 구성되어 처리 속도가 빠르고 메모리와 계산 자원을 효율적으로 사용할 수 있다는 이유로 설명하고 있다(https://openmrv.org/web/guest/w/modules/mrv/modules_1/training-data-collection-using-google-earth-engine).
CAS500-1과 같이 외부에서 입력된 자료를 연구 지역에 맞게 위치를 정합하기 위하여 GEE 내부에서 입력된 4장의 CAS500-1 위성영상에 대한 mosaicking과 clipping을 수행하였다. 한편 다중 센서 영상 정보처리에서 필요한 재배열(resampling)은 CAS500-1 영상을 기준으로 하여 Sentinel-1과 Sentinel-2 영상정보를 upsampling하여 처리하였다.
이 연구에서는 5가지 경우에 대해 RF 알고리즘을 이용한 분류 작업을 수행하였다. 첫 번째는 CAS500-1 영상정보와 Sentinel-2 영상을 적용한 경우, 두 번째는 CAS500-1 영상정보와 Sentinel-1 SAR 영상을 적용한 경우이고 세 번째는 GEE에서 제공하는 Sentinel-1 SAR 영상정보와 Sentinel-2 영상만을 적용한 경우이다. 한편, 나머지 두 가지 경우는 CAS500-1, Sentinel-1, Sentinel-2의 모든 영상정보 조합에서 사용자 친화형 국토위성 데이터로 처리한 NDVI 자료의 적용 유무이다.
앞에서 적용한 세 가지 적용 결과는 Fig. 3에 제시하였고, 검증자료를 이용하여 산정한 OA 값과 Kappa 계수로 계산한 분류 정확도는 Fig. 4에 나타냈다. Fig. 3(a)와 Table 2는 CAS500-1과 Sentinel-2 영상을, Fig. 3(b)와 Table 3는 CAS500-1과 Sentinel-1 SAR 영상을, Fig. 3(c)와 Table 4는 GEE의 Sentinel-1 SAR 및 Sentinel-2 영상만을 적용한 분류 결과와 confusion matrix를 각각 보여준다. GEE 플랫폼의 RF 알고리즘을 적용하여 얻은 분류 결과는 가능한 환경부의 토지피복지도 분류코드 및 색상표준(https://egis.me.go.kr/bbs/landcover.do)에 맞추었다.
Table 2 Confusion matrix of classification results: CAS500-1 and Sentinel-2 (Unit: %)
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 86.58 | 6.66 | 0 | 0 | 3.33 | 0 | 3.33 |
Road | 3.33 | 73.26 | 9.99 | 0 | 16.65 | 16.65 | 0 | |
Grass | 0 | 6.66 | 83.25 | 0 | 9.99 | 6.66 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 13.32 | 0 | 0 | 66.60 | 0 | 0 | |
Sand | 0 | 0 | 6.66 | 0 | 3.33 | 76.59 | 0 | |
Bare | 6.66 | 0 | 0 | 0 | 0 | 0 | 96.57 |
Table 3 Confusion matrix of classification results: CAS500-1 and Sentinel-1 (Unit: %)
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 93.24 | 13.32 | 0 | 0 | 0 | 6.66 | 0 |
Road | 3.33 | 69.93 | 9.99 | 0 | 6.66 | 16.65 | 0 | |
Grass | 0 | 9.99 | 89.91 | 0 | 0 | 13.32 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 3.33 | 0 | 0 | 89.91 | 3.33 | 0 | |
Sand | 0 | 3.33 | 9.99 | 0 | 3.33 | 59.94 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 100 |
Table 4 Confusion matrix of classification results: Sentinel-1 and Sentinel-2 (Unit: %)
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 89.91 | 3.33 | 0 | 0 | 0 | 3.33 | 3.33 |
Road | 6.66 | 73.26 | 13.32 | 0 | 3.33 | 3.33 | 0 | |
Grass | 0 | 3.33 | 83.25 | 0 | 0 | 9.99 | 0 | |
Forest | 0 | 0 | 0 | 96.57 | 3.33 | 0 | 3.33 | |
Urban | 0 | 16.65 | 0 | 3.33 | 89.91 | 0 | 0 | |
Sand | 3.33 | 3.33 | 3.33 | 0 | 0 | 83.25 | 0 | |
Bare | 0 | 0 | 0 | 0 | 3.33 | 0 | 93.24 |
CAS500-1 영상과 Sentinel-2 영상을 적용한 분류 결과로 도심지가 가장 낮은 정확도(66.60%)를 보였고(Table 2), CAS500-1 영상과 Sentinel-1 SAR 영상을 적용하여 얻은 분류와 SAR 영상과 Sentinel-2 영상만을 적용한 분류 결과에서는 각각 모래/강변 토양 지역(59.94%)과 도로(73.26%)가 낮은 정확도를 나타냈다(Tables 3 and 4). 한편 세 가지 경우 모두 산림지역은 96.57%에서 100%에 이르는 가장 높은 정확도를 보였다.
앞의 세 가지 경우에 대한 전체 분류 정확도 결과로, CAS500-1 영상과 Sentinel-2 영상을 적용한 경우가 각각 83.3333%와 0.8056으로 가장 낮게 나온 반면에(Fig. 4a), Sentinel-1 SAR 영상과 Sentinel-2 영상을 적용한 결과가 OA 정확도 값과 Kappa 계수 값이 각각 87.1429%와 0.8500으로 가장 높은 정확도를 보였다(Fig. 4c). 이와 같이 CAS500-1과 Sentinel-2의 광학영상만 이용한 정확도는 상대적으로 낮은 값을 보였지만, CAS500-1과 Sentinel-1을 처리했을 때는 Sentinel-1과 Sentinel-2를 처리한 경우처럼 SAR 영상을 이용한 경우에는 각각 OA와 Kappa 계수의 값이 86.1905%, 0.8389와 87.1429%, 0.8500으로 차이가 크지 않았다. 이 결과의 의미는 연구 지역에 대해 CAS500-1 영상정보가 Sentinel-1 영상정보와 같이 사용되는 경우 Sentinel-2 영상정보와 Sentinel-1 영상정보를 적용한 결과와 차이가 크지 않다는 것을 의미한다고 할 수 있다.
세 가지 이상의 다중 센서를 적용한 분류 결과는 Fig. 5에 제시하였다. Table 5는 CAS500-1, Sentinel-1, Sentinel-2 영상정보를 적용한 분류 결과의 confusion matrix이고, Table 6은 이 세 가지 영상정보에 NDVI를 추가하여 분류한 결과의 confusion matrix이다. CAS500-1, Sentinel-1, Sentinel-2 영상정보를 적용한 분류 결과로 산림지역(100%), 수부지역과 나대지(96.57%), 농경/수풀지역(93.24%) 순으로 정확도가 높게 나타났다(Table 5). 한편 CAS500-1, Sentinel-1, Sentinel-2 영상정보와 NDVI를 추가하여 적용한 분류 결과는 수부지역, 농경/수풀지역, 산림지역과 나대지는 모두 100%의 정확도를 보였다(Table 6).
Table 5 Confusion matrix of classification results: CAS500-1, Sentinel-1, and Sentinel-2 (Unit: %)
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 96.57 | 3.33 | 0 | 0 | 3.33 | 6.66 | 0 |
Road | 0 | 76.59 | 6.66 | 0 | 9.99 | 6.66 | 0 | |
Grass | 0 | 3.33 | 93.24 | 0 | 0 | 9.99 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 3.33 | |
Urban | 0 | 9.99 | 0 | 0 | 86.58 | 0 | 0 | |
Sand | 0 | 6.66 | 0 | 0 | 0 | 76.59 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 96.57 |
Table 6 Confusion matrix of classification results: CAS500-1, Sentinel-1, Sentinel-2, and NDVI (Unit: %)
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 100 | 0 | 0 | 0 | 0 | 3.33 | 0 |
Road | 0 | 89.91 | 0 | 0 | 3.33 | 6.66 | 0 | |
Grass | 0 | 3.33 | 100 | 0 | 0 | 6.66 | 0 | |
Forest | 0 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 3.33 | 0 | 0 | 89.91 | 3.33 | 0 | |
Sand | 0 | 0 | 0 | 0 | 0 | 79.92 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 100 |
Fig. 6은 이 분류 결과에 대한 OA와 Kappa 계수로 나타낸 정확도 계산 결과이다. CAS500-1, Sentinel-1, Sentinel-2 영상정보를 적용한 결과(Fig. 5a)는 89.5238%와 0.8778 이다(Fig. 6a). 한편, CAS500-1, Sentinel-1, Sentinel-2 영상정보와 NDVI 자료를 적용한 결과(Fig. 5b)로 전체 정확도 값과 Kappa 계수 값이 각각 94.5122%와 0.9342이며(Fig. 6b), 이 값은 이 연구에서 적용한 5가지 경우 중에서 가장 높은 값이다.
이 연구의 결과로 다중 센서 영상을 사용하는 경우 두 가지의 영상정보를 사용하는 경우에 비하여 전반적으로 정확도가 향상되는 것을 알 수 있었다. 또한, CAS500-1 영상정보와 함께 사용자 친화형 자료인 지표반사도로부터 산출한 NDVI 자료를 사용하는 경우 정확도가 좋아지는 것은 CAS500-1 분광 영상과 사용자 친화형 자료 간의 상관도를 고려하면 일종이 강화 효과(reinforcement effect)가 작용한 것으로 생각된다.
전 세계 대상의 클라우드 기반 위성영상정보 플랫폼인 GEE에서 제공하는 위성영상의 종류와 개수가 계속 증가하고 이를 실시간으로 가공, 처리하는 함수들이 계속 개발되면서 다양한 분야에서 이 플랫폼을 직접 활용하는 사례가 계속 증가하고 있다. 이 연구에서 이 플랫폼에서 제공하지 않는 CAS500-1 위성영상정보를 추가로 입력하여 GEE에서 제공하는 광학 및 SAR 위성영상과 함께 LULC 주제도를 위한 영상 분류를 목적으로 GEE의 RF 알고리즘을 적용하고 이 결과를 분석해 보고자 하였다. 이 분류 작업에는 위성영상정보 뿐만 아니라 NDVI 자료를 같이 고려하여 여러 가지 자료를 적용하는 실험을 수행하였다.
분류 실험 결과로 정확도가 가장 높게 나온 경우는 CAS500-1, Sentinel-1, Sentinel-2 영상정보와 NDVI 자료를 적용한 결과로 OA 값과 Kappa 계수 값이 각각 94.5122%와 0.9342로 나타났고, CAS500-1 영상정보와 Sentinel-2 영상을 적용한 경우가 각각 83.3333%와 0.8056으로 가장 낮은 값을 보였다. 또한 OA 값과 Kappa 계수의 값은 confusion matrix 결과를 제시하여 신뢰하기에 충분하다는 것을 증명하고자 하였다.
이 연구의 접근 방식은 다목적실용위성이나 기타 민간위성에서 얻어질 고해상도 위성영상정보를 별도의 도구 없이 GEE에서 직접 적용할 수 있기 때문에 위성정보를 보다 효율적으로 활용할 수 있게 한다. 또한 앞으로 CAS500-1 영상정보의 활용을 극대화하기 위하여 GEE에 이 영상정보를 제공하는 경우 고해상도 CAS500-1 영상정보를 기계학습에 사용할 수 있을 것으로 예상한다. 이번 연구에서는 데이터 연계를 통해 세분화된 분류가 가능하면 이 영상정보가 정확도 향상에 기여한다는 결과를 제시했다는 점에서 의의가 있다고 생각한다.
본 연구는 한성대학교 교내학술연구비 지원과제임.
No potential conflict of interest relevant to this article was reported.
Korean J. Remote Sens. 2024; 40(5): 445-453
Published online October 31, 2024 https://doi.org/10.7780/kjrs.2024.40.5.1.3
Copyright © Korean Society of Remote Sensing.
이정희1, 김광섭2, 이기원3*
1한성대학교 융합보안학과 석사과정생
2경민대학교 컴퓨터소프트웨어학과 조교수
3한성대학교 정보시스템트랙 교수
Jeonghee Lee1, Kwangseob Kim2, Kiwon Lee3*
1Master Student, Department of Applied Convergence Security, Hansung University, Seoul, Republic of Korea
2Assistant Professor, Department of Computer Software, Kyungmin University, Uijeongbu, Republic of Korea
3Professor, Information System Track, Hansung University, Seoul, Republic of Korea
Correspondence to:Kiwon Lee
E-mail: kilee@hansung.ac.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
This study conducted multi-sensor image classification by utilizing Google Earth Engine (GEE) and applying satellite imagery from Compact Advanced Satellite 500-1 (CAS500-1), Sentinel-1, and Sentinel-2. The Land Use and Land Cover classification was performed using the Random Forest algorithm provided by GEE. The study experimented with various combinations of input data, integrating CAS500-1, Sentinel-1, and Sentinel-2 imagery with Normalized Difference Vegetation Index (NDVI) data from CAS500-1. The study area focused on the Goryeong County region in Gyeongsangbuk-do, and the satellite imagery was acquired in early January 2023. The results of this study showed that the highest classified result (94.51%) in overall accuracy and Kappa coefficient (0.9342) were achieved when applying CAS500-1, Sentinel-1, Sentinel-2 imagery, and NDVI data. The NDVI data is believed to complement the CAS500-1 imagery, improving classification accuracy. This study confirmed that applying multi-sensor data can improve classification accuracy, and the high-resolution characteristics of CAS500-1 imagery are expected to enable more detailed analyses within GEE.
Keywords: Google Earth Engine, CAS500-1, Multi-sensor, Random forest, Image classification
Google이 2010년에 클라우드 기반의 정보처리 환경에서 Explorer, Code Editor, Timelapse로 구성된 위성영상 처리 플랫폼인 Google Earth Engine (GEE)을 공개한 이후, 전 세계에서 2018년부터 매년 이 플랫폼을 활용한 100편 이상의 연구 논문이 발표되고 있다(Amani et al., 2020). GEE는 수 페타바이트(petabyte)에 달하는 위성영상정보와 지구과학 정보를 애플리케이션 프로그래밍 인터페이스(application programming interface, API)를 통해 무료로 제공한다. 이러한 자료들을 실시간으로 처리할 수 있는 영상 처리 함수를 Code Editor (JavaScript) 또는 Colab (Python)을 사용하여 별도 설치 없이 바로 활용할 수 있기 때문에 이 플랫폼의 사용자가 점점 증가하고 있다. GEE는 per-pixel 연산, kernel 연산, 배열/행렬 연산, reducer를 기반으로한 통계 수치 정보 처리 및 기계학습 함수 등을 제공하며, 개인이 만든 소스코드 또한 공유할 수 있기 때문에 여러 활용 분야에 필요한 전문 함수(specialized function)들이 개발자 커뮤니티를 중심으로 계속 개발되고 있다. Amani et al. (2020)의 조사에 의하면 GEE가 주로 활용되는 분야는 식생, 농업, 수문학, 토지 피복, 도시 연구 분야 순이다.
GEE가 제공하는 함수 중에서 기계학습 응용을 위한 함수는 Random Forest (RF), Support Vector Machine (SVM), Classification and Regression Trees (CART)와 Naive Bayes 등이 있다. Zhao et al. (2024)은 Sentinel-2 영상을 활용하여 GEE에서 제공하는 기계학습 알고리즘의 정확도를 비교한 연구에서, RF 알고리즘이 CART나 SVM 등 다른 알고리즘보다 우수한 결과를 보였다고 보고하였다. 이 결과를 근거로 하여 이 연구에서 RF 알고리즘을 기계학습 방법으로 채택하였다. RF 알고리즘은 지도 학습의 일종으로, 입력 데이터에 대한 일련의 규칙을 학습하여 데이터를 분류하거나 회귀 분석을 수행하는 결정 트리(decision tree)를 기반으로 한다. 이 알고리즘은 특히 무작위 변수 선택을 통해 트리를 학습함으로써 특정 자료에만 치우친 결과를 제공하는 과적합(overfitting) 문제를 완화하여, 위성영상 분류에서 널리 사용되고 있다.
최근 GEE 플랫폼의 RF 기계학습 알고리즘을 적용한 여러 사례 연구가 발표되고 있다. Aji et al. (2023)은 인도네시아 지역 내 맹그로브(mangrove) 종의 시계열 분류를 위해 Sentinel-2 영상과 정규식생지수(Normalized Difference Vegetation Index, NDVI) 자료를 RF 알고리즘에 적용한 연구를 수행하였으며, Eisfelder et al. (2024)은 에티오피아 지역 내 농경지와 작물 유형을 Sentinel-1과 Sentinel-2 영상정보를 사용해 RF 알고리즘으로 토지 사용 및 토지 피복(Land Use and Land Cover, LULC) 분류를 수행한 결과, 높은 정확도를 보였다. Ahmed et al. (2024)은 독일 연구 지역의 20년간의 LULC 주제도를 제작하기 위해 Landsat-7과 Landsat-9 영상정보를 RF 알고리즘에 적용하였으며, 이 연구 결과가 지역 계획 및 정책 결정에 중요한 정보로 활용될 수 있다고 보고하였다. Fernando and Senanayake (2024)는 GEE에서 Landsat 영상정보를 사용하여 스리랑카 내 연구 지역에 대해 80% 이상의 정확도를 보이는 20년간의 농작물 주제도를 제작하기 위해 RF 알고리즘을 적용하였다. 또한, Seitkazy et al. (2024)은 카자흐스탄 지역에서 Landsat 위성영상과 RF 알고리즘을 적용하여 토지이용 변화를 분석하는 연구를 수행하였다. Amindin et al. (2024)은 이란 지역에서 생태 안정성 분석을 위해 여러 시기의 LULC 주제도를 작성하면서 Landsat 영상정보와 RF 알고리즘을 활용하였다. 이와 같이 GEE에서 RF 알고리즘을 사용한 연구는 GEE에서 제공하는 위성영상을 활용하여 10년 이상의 장기 변화를 분석하거나 광범위한 연구 지역을 대상으로 분류도를 제작하는 연구가 주로 수행되고 있으며 작은 지역의 정밀 영상 분류 목적으로 사용된 경우는 발표된 사례가 많지 않다.
한편, Tassi and Vizzari (2020)는 LULC 주제도 제작을 위해 RF 알고리즘을 사용하면서 GEE에서 제공하지 않는 PlanetScope 위성영상을 추가하여 Landsat-8과 Sentinel-2 영상정보를 함께 적용한 결과, 고해상도 위성영상을 사용하면 정확도가 향상된다는 결과를 발표하였다. Peters et al. (2024)은 GEE 플랫폼에서 산사태 감지를 위해 RF 알고리즘을 적용하며, Sentinel-1과 Sentinel-2 영상정보와 함께 Japan Aerospace Exploration Agency (JAXA)의 ALOS-2 PALSAR-2 영상을 통합하여 사용하였다. 우리나라에서는 수재해 모니터링(Park and Kang, 2022), 기름 유출 모니터링(Kim and Hyun, 2023)이나 토양 수분도 제작(Lee et al., 2023) 연구 등에서 GEE 플랫폼에서 제공하는 위성영상을 사용한 사례가 있지만 사용자 데이터를 추가로 입력한 뒤에 이 데이터들을 GEE가 제공하는 데이터와 직접 연계하여 분석한 연구는 아직 발표되지 않았다.
이 연구의 목적은 GEE에서 제공하는 Sentinel-1, Sentinel-2 위성인 광학 및 synthetic aperture radar (SAR) 위성영상정보와 함께 CAS500-1 영상정보를 GEE에 등록 후 자료를 조합하여 다중 센서 영상정보로부터 GEE의 RF 알고리즘을 적용하여 LULC 주제도를 위한 영상 분류에 적용하는 것이다. 또한 GEE에서 계산한 전체 정확도 overall accuracy (OA) 값과 Kappa 계수의 계산 값을 이용하여 정확도 결과를 분석하였다.
연구 지역은 대구광역시 서남부에 위치한 고령군 일대 지역으로 광주대구고속도로와 중부내륙도로가 교차하는 지역이다. 도로 주변 지역으로 마을과 공·상업 지역이 일부 포함되어 있고, 도로를 벗어나면 낙동강을 포함하는 농경 재배와 산림이 우세한 지역으로 전체 면적은 약 177 km2이다(Fig. 1). 이 지역은 Sentinel-1, Sentinel-2, CAS500-1 영상 등의 촬영일자가 2023년 1월 1일부터 1월 7일까지의 1주일 이내로 거의 일치하는 지역이다. 이와 같은 시기적 일치도와 다양한 클래스로 분류할 수 있다는 점이 이 지역이 연구지역으로 선정된 주요 이유이다. 이 연구에서 사용한 자료는 Table 1에 정리하였다.
Table 1 . Data used for RF scheme in GEE.
Data sensor | Data type | Acquisition date | Source | Resolution |
---|---|---|---|---|
CAS500-1 (Level-1G) | R, G, B, and NIR | 2023-01-01, 2023-01-06 | NGII Bundled Image Set | 2 m |
Sentinel-1 | VV and VH (GRD) | 2023-01-07 | GEE API | 10 m |
Sentinel-2 | R, G, B, and NIR (Surface Reflectance) | 2023-01-02 | GEE API | 10 m |
CAS500-1 (User-Friendly Image) | R, G, B, and NIR (Surface Reflectance) | 2023-01-01, 2023-01-06 | NGII Bundled Image Set | 2 m |
NDVI | Computed by CAS500-1 Surface Reflectance | 2023-01-01, 2023-01-06 | GEE API | 2 m |
NIR: near-infrared, NGII: National Geographic Information Institute..
GEE에서 제공하는 Sentinel-1 ground range detected (GRD) SAR 영상은 radiometric calibration geometric correction, thermal noise removal, multilooking과 terrain correction 등의 전처리 과정을 거친 자료를 플랫폼에 적합한 위성영상 분석 준비 데이터(analysis ready data, ARD) 형식으로 변환한 것이다(Mullissa et al., 2021). Sentinle-2 광학영상의 경우는 각 밴드의 지표반사도 처리 영상을 사용하였다.
본 연구에서는 7개의 클래스를 분류 대상으로 설정하고, 각 클래스마다 120~130개의 학습자료와 30개의 검증자료를 GEE 플랫폼에 입력하여 전체 학습 자료는 850개, 검증 자료는 210개로 구성하였다. RF 알고리즘을 통해 분류한 클래스는 수부 지역, 도로, 농경/수풀 지역, 산림 지역, 도심지, 모래/강변 토양 지역, 나대지로 구성하였다. 기존 여러 연구에서는 도로, 모래 지역, 나대지 등을 포함하지 않았으나, 본 연구에서는 고해상도 국토 위성을 사용함에 따라 이러한 클래스를 추가하였다(Amindin et al., 2024; Eisfelder et al., 2024; Fernando and Senanayake, 2024; Seitkazy et al., 2024).
CAS500-1 위성영상은 국토정보플랫폼(https://map.ngii.go.kr)을 통해 정사영상, 모자이크영상, 사용자 친화형 국토위성영상을 제공하고 있다. 본 연구에서는 기하보정이 처리된 분광 위성영상(정사영상, Level-1G)과 지표 반사도 제품으로 제공되는 사용자 친화형 자료를 모두 사용하였다. 특히 사용자 친화형 자료는 중복 적용의 의미가 있을 수 있어 분광 영상정보의 각 밴드별 지표반사도를 직접 사용하지 않고 NDVI 자료로 계산하여 RF 알고리즘에 적용하였다.
Fig. 2는 연구의 자료 처리 방법과 연구 흐름도를 정리한 것이다. GEE에서 제공하는 RF 방법은 여러 개의 개별 학습 모델을 결합하여 하나의 강력한 모델을 만드는 기계학습 기법인 앙상블 학습(ensemble learning) 방법의 일종이다. 앙상블 학습은 bagging, boosting, stacking 등 다양한 방식으로 구현될 수 있다. GEE는 여러 개의 학습 데이터 샘플을 무작위로 생성하고, 각 샘플에 대해 개별 모델을 학습시킨 후, 이 모델들의 예측을 평균하거나 투표하여 최종 예측을 도출하는 bagging 방식을 기반으로 한 RF 알고리즘을 제공한다(https://developers.google.com/earth-engine/apidocs/ee-classifier-smilerandomforest).
위성영상 처리 도구를 활용한 다중 분광 영상 분류 작업에서는 종종 폴리곤(polygon) 유형의 데이터를 사용하지만, GEE에서 기계학습을 위한 학습자료와 검증자료는 포인트 유형의 데이터를 사용한다. Google에서는 이러한 방식이 다양한 위치에서 데이터를 수집하여 모델이 더 일반화된 학습을 할 수 있다는 장점과 단일 좌표로 구성되어 처리 속도가 빠르고 메모리와 계산 자원을 효율적으로 사용할 수 있다는 이유로 설명하고 있다(https://openmrv.org/web/guest/w/modules/mrv/modules_1/training-data-collection-using-google-earth-engine).
CAS500-1과 같이 외부에서 입력된 자료를 연구 지역에 맞게 위치를 정합하기 위하여 GEE 내부에서 입력된 4장의 CAS500-1 위성영상에 대한 mosaicking과 clipping을 수행하였다. 한편 다중 센서 영상 정보처리에서 필요한 재배열(resampling)은 CAS500-1 영상을 기준으로 하여 Sentinel-1과 Sentinel-2 영상정보를 upsampling하여 처리하였다.
이 연구에서는 5가지 경우에 대해 RF 알고리즘을 이용한 분류 작업을 수행하였다. 첫 번째는 CAS500-1 영상정보와 Sentinel-2 영상을 적용한 경우, 두 번째는 CAS500-1 영상정보와 Sentinel-1 SAR 영상을 적용한 경우이고 세 번째는 GEE에서 제공하는 Sentinel-1 SAR 영상정보와 Sentinel-2 영상만을 적용한 경우이다. 한편, 나머지 두 가지 경우는 CAS500-1, Sentinel-1, Sentinel-2의 모든 영상정보 조합에서 사용자 친화형 국토위성 데이터로 처리한 NDVI 자료의 적용 유무이다.
앞에서 적용한 세 가지 적용 결과는 Fig. 3에 제시하였고, 검증자료를 이용하여 산정한 OA 값과 Kappa 계수로 계산한 분류 정확도는 Fig. 4에 나타냈다. Fig. 3(a)와 Table 2는 CAS500-1과 Sentinel-2 영상을, Fig. 3(b)와 Table 3는 CAS500-1과 Sentinel-1 SAR 영상을, Fig. 3(c)와 Table 4는 GEE의 Sentinel-1 SAR 및 Sentinel-2 영상만을 적용한 분류 결과와 confusion matrix를 각각 보여준다. GEE 플랫폼의 RF 알고리즘을 적용하여 얻은 분류 결과는 가능한 환경부의 토지피복지도 분류코드 및 색상표준(https://egis.me.go.kr/bbs/landcover.do)에 맞추었다.
Table 2 . Confusion matrix of classification results: CAS500-1 and Sentinel-2 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 86.58 | 6.66 | 0 | 0 | 3.33 | 0 | 3.33 |
Road | 3.33 | 73.26 | 9.99 | 0 | 16.65 | 16.65 | 0 | |
Grass | 0 | 6.66 | 83.25 | 0 | 9.99 | 6.66 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 13.32 | 0 | 0 | 66.60 | 0 | 0 | |
Sand | 0 | 0 | 6.66 | 0 | 3.33 | 76.59 | 0 | |
Bare | 6.66 | 0 | 0 | 0 | 0 | 0 | 96.57 |
Table 3 . Confusion matrix of classification results: CAS500-1 and Sentinel-1 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 93.24 | 13.32 | 0 | 0 | 0 | 6.66 | 0 |
Road | 3.33 | 69.93 | 9.99 | 0 | 6.66 | 16.65 | 0 | |
Grass | 0 | 9.99 | 89.91 | 0 | 0 | 13.32 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 3.33 | 0 | 0 | 89.91 | 3.33 | 0 | |
Sand | 0 | 3.33 | 9.99 | 0 | 3.33 | 59.94 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 100 |
Table 4 . Confusion matrix of classification results: Sentinel-1 and Sentinel-2 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 89.91 | 3.33 | 0 | 0 | 0 | 3.33 | 3.33 |
Road | 6.66 | 73.26 | 13.32 | 0 | 3.33 | 3.33 | 0 | |
Grass | 0 | 3.33 | 83.25 | 0 | 0 | 9.99 | 0 | |
Forest | 0 | 0 | 0 | 96.57 | 3.33 | 0 | 3.33 | |
Urban | 0 | 16.65 | 0 | 3.33 | 89.91 | 0 | 0 | |
Sand | 3.33 | 3.33 | 3.33 | 0 | 0 | 83.25 | 0 | |
Bare | 0 | 0 | 0 | 0 | 3.33 | 0 | 93.24 |
CAS500-1 영상과 Sentinel-2 영상을 적용한 분류 결과로 도심지가 가장 낮은 정확도(66.60%)를 보였고(Table 2), CAS500-1 영상과 Sentinel-1 SAR 영상을 적용하여 얻은 분류와 SAR 영상과 Sentinel-2 영상만을 적용한 분류 결과에서는 각각 모래/강변 토양 지역(59.94%)과 도로(73.26%)가 낮은 정확도를 나타냈다(Tables 3 and 4). 한편 세 가지 경우 모두 산림지역은 96.57%에서 100%에 이르는 가장 높은 정확도를 보였다.
앞의 세 가지 경우에 대한 전체 분류 정확도 결과로, CAS500-1 영상과 Sentinel-2 영상을 적용한 경우가 각각 83.3333%와 0.8056으로 가장 낮게 나온 반면에(Fig. 4a), Sentinel-1 SAR 영상과 Sentinel-2 영상을 적용한 결과가 OA 정확도 값과 Kappa 계수 값이 각각 87.1429%와 0.8500으로 가장 높은 정확도를 보였다(Fig. 4c). 이와 같이 CAS500-1과 Sentinel-2의 광학영상만 이용한 정확도는 상대적으로 낮은 값을 보였지만, CAS500-1과 Sentinel-1을 처리했을 때는 Sentinel-1과 Sentinel-2를 처리한 경우처럼 SAR 영상을 이용한 경우에는 각각 OA와 Kappa 계수의 값이 86.1905%, 0.8389와 87.1429%, 0.8500으로 차이가 크지 않았다. 이 결과의 의미는 연구 지역에 대해 CAS500-1 영상정보가 Sentinel-1 영상정보와 같이 사용되는 경우 Sentinel-2 영상정보와 Sentinel-1 영상정보를 적용한 결과와 차이가 크지 않다는 것을 의미한다고 할 수 있다.
세 가지 이상의 다중 센서를 적용한 분류 결과는 Fig. 5에 제시하였다. Table 5는 CAS500-1, Sentinel-1, Sentinel-2 영상정보를 적용한 분류 결과의 confusion matrix이고, Table 6은 이 세 가지 영상정보에 NDVI를 추가하여 분류한 결과의 confusion matrix이다. CAS500-1, Sentinel-1, Sentinel-2 영상정보를 적용한 분류 결과로 산림지역(100%), 수부지역과 나대지(96.57%), 농경/수풀지역(93.24%) 순으로 정확도가 높게 나타났다(Table 5). 한편 CAS500-1, Sentinel-1, Sentinel-2 영상정보와 NDVI를 추가하여 적용한 분류 결과는 수부지역, 농경/수풀지역, 산림지역과 나대지는 모두 100%의 정확도를 보였다(Table 6).
Table 5 . Confusion matrix of classification results: CAS500-1, Sentinel-1, and Sentinel-2 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 96.57 | 3.33 | 0 | 0 | 3.33 | 6.66 | 0 |
Road | 0 | 76.59 | 6.66 | 0 | 9.99 | 6.66 | 0 | |
Grass | 0 | 3.33 | 93.24 | 0 | 0 | 9.99 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 3.33 | |
Urban | 0 | 9.99 | 0 | 0 | 86.58 | 0 | 0 | |
Sand | 0 | 6.66 | 0 | 0 | 0 | 76.59 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 96.57 |
Table 6 . Confusion matrix of classification results: CAS500-1, Sentinel-1, Sentinel-2, and NDVI (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 100 | 0 | 0 | 0 | 0 | 3.33 | 0 |
Road | 0 | 89.91 | 0 | 0 | 3.33 | 6.66 | 0 | |
Grass | 0 | 3.33 | 100 | 0 | 0 | 6.66 | 0 | |
Forest | 0 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 3.33 | 0 | 0 | 89.91 | 3.33 | 0 | |
Sand | 0 | 0 | 0 | 0 | 0 | 79.92 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 100 |
Fig. 6은 이 분류 결과에 대한 OA와 Kappa 계수로 나타낸 정확도 계산 결과이다. CAS500-1, Sentinel-1, Sentinel-2 영상정보를 적용한 결과(Fig. 5a)는 89.5238%와 0.8778 이다(Fig. 6a). 한편, CAS500-1, Sentinel-1, Sentinel-2 영상정보와 NDVI 자료를 적용한 결과(Fig. 5b)로 전체 정확도 값과 Kappa 계수 값이 각각 94.5122%와 0.9342이며(Fig. 6b), 이 값은 이 연구에서 적용한 5가지 경우 중에서 가장 높은 값이다.
이 연구의 결과로 다중 센서 영상을 사용하는 경우 두 가지의 영상정보를 사용하는 경우에 비하여 전반적으로 정확도가 향상되는 것을 알 수 있었다. 또한, CAS500-1 영상정보와 함께 사용자 친화형 자료인 지표반사도로부터 산출한 NDVI 자료를 사용하는 경우 정확도가 좋아지는 것은 CAS500-1 분광 영상과 사용자 친화형 자료 간의 상관도를 고려하면 일종이 강화 효과(reinforcement effect)가 작용한 것으로 생각된다.
전 세계 대상의 클라우드 기반 위성영상정보 플랫폼인 GEE에서 제공하는 위성영상의 종류와 개수가 계속 증가하고 이를 실시간으로 가공, 처리하는 함수들이 계속 개발되면서 다양한 분야에서 이 플랫폼을 직접 활용하는 사례가 계속 증가하고 있다. 이 연구에서 이 플랫폼에서 제공하지 않는 CAS500-1 위성영상정보를 추가로 입력하여 GEE에서 제공하는 광학 및 SAR 위성영상과 함께 LULC 주제도를 위한 영상 분류를 목적으로 GEE의 RF 알고리즘을 적용하고 이 결과를 분석해 보고자 하였다. 이 분류 작업에는 위성영상정보 뿐만 아니라 NDVI 자료를 같이 고려하여 여러 가지 자료를 적용하는 실험을 수행하였다.
분류 실험 결과로 정확도가 가장 높게 나온 경우는 CAS500-1, Sentinel-1, Sentinel-2 영상정보와 NDVI 자료를 적용한 결과로 OA 값과 Kappa 계수 값이 각각 94.5122%와 0.9342로 나타났고, CAS500-1 영상정보와 Sentinel-2 영상을 적용한 경우가 각각 83.3333%와 0.8056으로 가장 낮은 값을 보였다. 또한 OA 값과 Kappa 계수의 값은 confusion matrix 결과를 제시하여 신뢰하기에 충분하다는 것을 증명하고자 하였다.
이 연구의 접근 방식은 다목적실용위성이나 기타 민간위성에서 얻어질 고해상도 위성영상정보를 별도의 도구 없이 GEE에서 직접 적용할 수 있기 때문에 위성정보를 보다 효율적으로 활용할 수 있게 한다. 또한 앞으로 CAS500-1 영상정보의 활용을 극대화하기 위하여 GEE에 이 영상정보를 제공하는 경우 고해상도 CAS500-1 영상정보를 기계학습에 사용할 수 있을 것으로 예상한다. 이번 연구에서는 데이터 연계를 통해 세분화된 분류가 가능하면 이 영상정보가 정확도 향상에 기여한다는 결과를 제시했다는 점에서 의의가 있다고 생각한다.
본 연구는 한성대학교 교내학술연구비 지원과제임.
No potential conflict of interest relevant to this article was reported.
Table 1 . Data used for RF scheme in GEE.
Data sensor | Data type | Acquisition date | Source | Resolution |
---|---|---|---|---|
CAS500-1 (Level-1G) | R, G, B, and NIR | 2023-01-01, 2023-01-06 | NGII Bundled Image Set | 2 m |
Sentinel-1 | VV and VH (GRD) | 2023-01-07 | GEE API | 10 m |
Sentinel-2 | R, G, B, and NIR (Surface Reflectance) | 2023-01-02 | GEE API | 10 m |
CAS500-1 (User-Friendly Image) | R, G, B, and NIR (Surface Reflectance) | 2023-01-01, 2023-01-06 | NGII Bundled Image Set | 2 m |
NDVI | Computed by CAS500-1 Surface Reflectance | 2023-01-01, 2023-01-06 | GEE API | 2 m |
NIR: near-infrared, NGII: National Geographic Information Institute..
Table 2 . Confusion matrix of classification results: CAS500-1 and Sentinel-2 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 86.58 | 6.66 | 0 | 0 | 3.33 | 0 | 3.33 |
Road | 3.33 | 73.26 | 9.99 | 0 | 16.65 | 16.65 | 0 | |
Grass | 0 | 6.66 | 83.25 | 0 | 9.99 | 6.66 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 13.32 | 0 | 0 | 66.60 | 0 | 0 | |
Sand | 0 | 0 | 6.66 | 0 | 3.33 | 76.59 | 0 | |
Bare | 6.66 | 0 | 0 | 0 | 0 | 0 | 96.57 |
Table 3 . Confusion matrix of classification results: CAS500-1 and Sentinel-1 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 93.24 | 13.32 | 0 | 0 | 0 | 6.66 | 0 |
Road | 3.33 | 69.93 | 9.99 | 0 | 6.66 | 16.65 | 0 | |
Grass | 0 | 9.99 | 89.91 | 0 | 0 | 13.32 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 3.33 | 0 | 0 | 89.91 | 3.33 | 0 | |
Sand | 0 | 3.33 | 9.99 | 0 | 3.33 | 59.94 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 100 |
Table 4 . Confusion matrix of classification results: Sentinel-1 and Sentinel-2 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 89.91 | 3.33 | 0 | 0 | 0 | 3.33 | 3.33 |
Road | 6.66 | 73.26 | 13.32 | 0 | 3.33 | 3.33 | 0 | |
Grass | 0 | 3.33 | 83.25 | 0 | 0 | 9.99 | 0 | |
Forest | 0 | 0 | 0 | 96.57 | 3.33 | 0 | 3.33 | |
Urban | 0 | 16.65 | 0 | 3.33 | 89.91 | 0 | 0 | |
Sand | 3.33 | 3.33 | 3.33 | 0 | 0 | 83.25 | 0 | |
Bare | 0 | 0 | 0 | 0 | 3.33 | 0 | 93.24 |
Table 5 . Confusion matrix of classification results: CAS500-1, Sentinel-1, and Sentinel-2 (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 96.57 | 3.33 | 0 | 0 | 3.33 | 6.66 | 0 |
Road | 0 | 76.59 | 6.66 | 0 | 9.99 | 6.66 | 0 | |
Grass | 0 | 3.33 | 93.24 | 0 | 0 | 9.99 | 0 | |
Forest | 3.33 | 0 | 0 | 100 | 0 | 0 | 3.33 | |
Urban | 0 | 9.99 | 0 | 0 | 86.58 | 0 | 0 | |
Sand | 0 | 6.66 | 0 | 0 | 0 | 76.59 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 96.57 |
Table 6 . Confusion matrix of classification results: CAS500-1, Sentinel-1, Sentinel-2, and NDVI (Unit: %).
Truth | ||||||||
---|---|---|---|---|---|---|---|---|
Water | Road | Grass | Forest | Urban | Sand | Bare | ||
Classified | Water | 100 | 0 | 0 | 0 | 0 | 3.33 | 0 |
Road | 0 | 89.91 | 0 | 0 | 3.33 | 6.66 | 0 | |
Grass | 0 | 3.33 | 100 | 0 | 0 | 6.66 | 0 | |
Forest | 0 | 0 | 0 | 100 | 0 | 0 | 0 | |
Urban | 0 | 3.33 | 0 | 0 | 89.91 | 3.33 | 0 | |
Sand | 0 | 0 | 0 | 0 | 0 | 79.92 | 0 | |
Bare | 0 | 0 | 0 | 0 | 0 | 0 | 100 |
Jisang Lee, Hojin Kim, Jamyoung Koo, Hyunguk Choi, Doyoung Jeong
Korean J. Remote Sens. 2024; 40(5): 495-506Younghyun Cho, Joonwoo Noh
Korean J. Remote Sens. 2024; 40(4): 363-375Hayoung Lee, Kwangseob Kim, Kiwon Lee
Korean J. Remote Sens. 2024; 40(4): 343-350