Research Article

Split Viewer

Korean J. Remote Sens. 2024; 40(5): 617-627

Published online: October 31, 2024

https://doi.org/10.7780/kjrs.2024.40.5.1.16

© Korean Society of Remote Sensing

초소형 위성과 연계한 딥러닝 수계 및 침수 지역 탐지 활용성 평가: PlanetScope 위성 영상과 HRNet 모형

김완엽1, 조신현2, 정준혁3, 김예지4, 김현옥5, 최민하6,7,8*

1성균관대학교 글로벌스마트시티융합전공 박사과정생
2성균관대학교 글로벌스마트시티융합전공 석사과정생
3성균관대학교 건설환경공학부 학사과정생
4한국항공우주연구원 위성활용부 연구원
5한국항공우주연구원 위성활용부 책임연구원
6성균관대학교 글로벌스마트시티융합전공 교수
7성균관대학교 건설환경공학부 교수
8성균관대학교 수자원학과 교수

Received: September 24, 2024; Revised: October 16, 2024; Accepted: October 23, 2024

Evaluation of Deep Learning-Based Water Bodies and Flooded Area Detection with Nanosatellites: The PlanetScope Satellite Imageries and HRNet Model

Wanyub Kim1, Shinhyeon Cho2, Junhyuk Jeong3, Yeji Kim4, Hyun Ok Kim5, Minha Choi6,7,8*

1PhD Student, Department of Global Smart City, Sungkyunkwan University, Suwon, Republic of Korea
2Master Student, Department of Global Smart City, Sungkyunkwan University, Suwon, Republic of Korea
3Undergraduate Student, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
4Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
5Principal Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
6Professor, Department of Global Smart City, Sungkyunkwan University, Suwon, Republic of Korea
7Professor, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
8Professor, Graduate School of Water Resources, Sungkyunkwan University, Suwon, Republic of Korea

Correspondence to : Minha Choi
E-mail: mhchoi@skku.edu

Received: September 24, 2024; Revised: October 16, 2024; Accepted: October 23, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

The continuous monitoring of water body is essential for efficient water resource management and the prevention of water-related disasters. Microsatellite and nanosatellite imageries provide a tool for continuous and accurate monitoring of water bodies at high spatial and temporal resolution. In this study, PlanetScope imagery with a resolution of 3.7 m and High-Resolution Network (HRNet) model were used to detect water bodies at dams and rivers in Korea, with the objective of evaluating the utility of water surface area monitoring. The HRNet model and the optimal band combinations of PlanetScope imagery which were R+G+B, R+G+B+NIR, Normalized Difference Water Index (NDWI), and Green+NIR+NDWI, were initially evaluated. The Green+NIR+NDWI combination performed the best, with an accuracy of 0.91 and loss function of 0.05 for the validation set. Water body detection was performed using the HRNet model with the optimal band combination and models from previous studies (Otsu, K-means, U-net) The performance was evaluated through quantitative validation using labeled images. The HRNet model showed the best performance with an Intersection over Union (IoU) of 0.96, compared to models in previous studies (Otsu: 0.90, K-means: 0.92, U-net: 0.95). Additionally, the HRNet model’s flood detection performance showed an IoU of 0.93, indicating a high accuracy. However, there were limitations, as muddy and wet soil at the boundaries of flooded areas were false detected as water bodies. In the future, when a constellation of microsatellites is developed in Korea, the results of this study are expected to contribute to better management of water resources and water-related disasters through continuous monitoring of water bodies.

Keywords Water body detection, Flood detection, Optical satellite imagery, PlanetScope, HRNet

강, 호수, 저수지 및 댐 등 수계는 수자원 공급, 생태계 유지, 재해 예방에 있어 중요한 자원으로, 지속적인 관리와 모니터링이 필수적이다(Li et al., 2022b; Delaney et al., 2022; Pena et al., 2024). 특히 한반도의 경우 강우가 여름에 편중되어 있는 특성으로 해마다 가뭄 및 홍수의 위협을 받고 있어 수계 모니터링의 중요성이 더욱 부각되고 있다(Jeong et al., 2021; Kim et al., 2022). 국내 수계의 경우, 대부분 현장관측을 통해 관리 및 모니터링이 이루어지고 있으나 비용과 시간적인 측면에서 한계점이 존재한다(Lee et al., 2022; Valman et al., 2024). 또한, 폭우 및 홍수 등 극한 기상 조건이나 접근성이 제한된 지역에서는 지속적이고 세밀한 모니터링이 불가능하다.

최근 이러한 현장 관측 기반 수계 모니터링의 한계점을 극복하기 위하여 지속적으로 광범위한 지역을 관측할 수 있는 위성 원격 탐사자료의 활용에 관한 연구가 활발히 진행되고 있다(Xu et al., 2021; Corderio et al., 2021; Kavats et al., 2022; Choi et al., 2022; Lee et al., 2022; 2023). 특히 광학(optical) 센서를 탑재한 위성 영상의 경우 근적외선(Near-Infrared, NIR) 대역의 분광 특성과Normalized Difference Water Index (NDWI), Modified Normalized Difference Water Index (MNDWI) 등 분광지수를 활용하여 높은 정확도에서 수체 탐지가 가능하다(Du et al., 2016; Yang et al., 2017, 2018; Jiang et al., 2021). 광학 위성 영상 기반 수체 탐지 시 10 m 급 해상도를 제공하는 Sentinel-2 Multispectral Instrument (MSI) 영상이 대표적으로 사용되고 있으나 공간 해상도의 한계로 복잡한 지형이나 작은 수계에서의 정밀한 탐지가 어렵다는 한계점이 존재한다(Lee et al., 2023; Kim et al., 2024). 반면 PlanetScope와 같은 고해상도 광학 위성 영상은 3.7 m급의 공간해상도를 제공하여 정밀한 수체 탐지가 가능하다(Freitas et al., 2024; Valman et al., 2024).

수체 탐지를 위한 전통적인 방법으로 히스토그램(histogram) 기반 임계값 및 클러스터링(clustering) 기법이 주로 적용되었다(Xu et al., 2021; Li et al., 2022a). 대표적인 임계값 기법으로 히스토그램의 클래스 내 분산(intra-class variance)은 최소화하고 각 클래스 간 분산(inter-class variance)의 비는 최대화하는 Otsu 임계값이 일반적으로 사용되었다(Otsu, 1975). 또한, 데이터의 유클리드 거리가 최소가 되는 픽셀들을 군집화 하는 K-means 클러스터링 기법이 수체 탐지에 주로 사용되었다(Krishna and Murty, 1999). 하지만 임계값 및 클러스터링 기법의 경우 수체와 비수체의 비율이 불균일할 경우 안정적인 수체 탐지가 어렵다(Kim et al., 2024). 특히 고해상도 영상에서의 적용 시 수체/비수체 경계에서의 반사 특성이 다양하여 탐지 성능이 저하된다는 한계점이 존재한다(Wieland et al., 2023).

이러한 전통적인 수체 탐지 기법의 한계점을 극복하기 위하여 Artificial Neural Network (ANN), Support Vector Machine (SVM), Random Forest (RF) 등 기계학습(machine learning) 모델을 활용한 연구가 진행되어 왔다(Bijeesh and Narasimhamurthy, 2020; Choi et al., 2022; Li et al., 2022a). 이러한 모델들은 비교적 적은 컴퓨팅 비용(computing complexity)에서 수체/비수체 특성을 효과적으로 학습이 가능하다. 하지만 기계학습 모델의 경우 영상의 공간적 특성을 고려하지 않고 학습을 하여 복잡한 지형이나 다양한 토지피복이 존재하는 수계에서 낮은 탐지 성능이 나타난다(Guo et al., 2022). 또한 학습과정에서 영상의 비선형적인 관계와 공간적 특성을 고려하지 않아 학습에 사용되지 않은 수계 지역에서 탐지 성능이 저하된다는 한계점이 존재한다(Ling et al., 2019).

최근에는 영상의 공간적 특성을 반영하는 의미론적 영상분할(semantic segmentation)이 가능한 Convolutional Neural Network (CNN) 모델 기반 수체 탐지 연구가 활발히 진행되고 있다(Yang et al., 2022; Yuan et al., 2023; Kang et al., 2023). CNN기반 모델은 계층적 특징 학습을 통하여 얕은 계층에서는 객체의 형태 및 경계와 같은 저해상도의 특징을 학습하고, 깊은 계층으로 갈수록 세부적이고 복잡한 고해상도 특징을 학습하여 적은 컴퓨팅 연산 자원에서 모델의 학습 및 객체 탐지가 가능하다(Guo et al., 2022). 또한 영상의 해상도를 줄이면서도 중요한 특징을 유지하는 풀링(pooling) 연산을 통하여 공간적 특징의 학습이 가능하다(Chen et al., 2023).

U-net은 대표적인 CNN 기반 모델로 인코더(encoder)-디코더(decoder) 구조를 기반으로 다양한 공간적 학습이 가능하여 수체 탐지 분야에서 활발히 활용되고 있다(Ronneberger et al., 2015; Qin et al., 2021). 하지만 U-net 모델은 이미지의 해상도를 축소 후 다시 복원하는 구조적 특성으로 인해 복잡하거나 작은 수계에서의 탐지 성능에 한계점이 존재한다(Wang et al., 2024). 이러한 한계점을 극복하기 위해 Wang et al. (2020)은 다양한 해상도의 특징을 학습하는 병렬네트워크 구조의 High-Resolution Network (HRNet) 모델을 제안하였다. HRNet 모델은 저해상도 및 고해상도 특징 간의 상호 보완을 통해, 복잡한 수계에서도 높은 정확도의 객체 탐지가 가능하다(Yu et al., 2022). 이는 기존의 CNN 모델의 한계점을 보완하고, 보다 정밀한 수체 탐지를 가능하게 한다.

이에 본 연구에서는 PlanetScope 영상과 HRNet 모델을 활용한 수체 탐지 활용성을 평가하고자 하였다. PlanetScope 영상의 밴드 조합별 HRNet 모델의 수체 탐지 성능을 정량적으로 평가하였다. 이후, 최적의 밴드 조합에서 HRNet 모델의 수체 탐지 성능을 선행 연구의 모델(Otsu, K-means clustering, U-net)들과 비교하였다. 마지막으로 HRNet 모델의 침수 탐지 활용 가능성을 평가하였다.

2.1. 연구 지역

본 연구에서는 HRNet 모델의 훈련 및 테스트를 위해 다양한 지형적 특성을 가진 수계를 대상으로 이루어졌다. 모델의 훈련 및 검증에는 댐 9개소(대청, 대곡, 사연, 횡성, 소양강, 장흥, 장성, 주암, 나주)와 저수지 2개소(경천, 이동)가 사용되었다(Fig. 1). 이러한 수계들은 수면적이 다양하고, 도심지와 농경지, 습지 및 산지 등 다양한 토지 피복형태가 나타나고 수계의 복잡성을 띠고 있어 훈련 및 검증에 적합한 수계로 선정되었다.

Fig. 1. Spatial distribution of the reference water body data used for training, validating, and testing the deep-learning models.

테스트 지역으로는 각기 다른 특징이 존재하는 충주댐, 용담댐, 형산강으로 선정하였다. 충주댐은 남한강 유역에서 유일한 다목적 댐으로 소양강댐 다음으로 큰 다목적 댐 중 하나로 2,750,000,000 m3의 총 저수량과 664,800 ha의 유역면적을 가지고 있으며, 토지 사면의 경사가 급하고 주변에는 산림과 농업지가 혼재되어 있어 다양한 환경조건을 제공한다. 용담댐은 금강 최상류에 위치하여 좁은 계곡과 급경사로 이루어져 있는 산악 지형으로 다목적 댐들 중 상대적으로 적은 저수 면적을 가지고 있으며, 산림 및 농경지의 환경으로 분포되어 있다. 형산강은 166,000 ha의 유역면적을 가지고 있으며, 경상북도를 거쳐 동해로 흐르는 가장 긴 하천이다. 주변 환경으로는 저지대에 위치한 농경지와 강 하류로 갈수록 산업단지 및 도시화된 지역으로 인해 다양한 토지 피복 형태가 혼재되어 복합적인 환경을 가지는 특징이 있어 도시화된 환경에서의 수체 변화 탐지를 할 수 있는 여건을 제공한다. Table 1에서는 농촌용수종합정보시스템(https://rawris.ekr.or.kr), 국가수자원관리종합정보시스템(http://www.wamis.go.kr), 하천정보관리시스템(http://www.river.go.kr)에 공개된 각 저수지, 댐, 하천의 제원을 나타낸다.

Table 1 Target water bodies’ specifications

Water bodyFull water storage (1,000 m3)Water storage capacity (1,000 m3)Full surface area (ha)Full water level (EL.m)Lowest water leve (EL.m)
Train and validation setDaecheong Dam1,490,000790,000320,40076.5060.00
Daegok Dam36,20027,8005,750120.0091.00
Sayeon Dam30,30020,0006,70060.0045.00
Hoengseong Dam86,90073,40020,900180.00160.00
Soyanggang Dam2,900,0001,900,000270,300193.50150.00
Jangheung Dam191,000171,00019,30082.0055.00
Jangsung Dam103,88399,70712,28090.9566.50
Juam Dam457,000352,000101,000108.5085.00
Naju Dam107,810106,54410,47068.0342.96
Gyeongcheon Reservoir25,60425,3469,76584.2067.45
Idong Reservoir20,94920,9069,30043.0031.30
Test setChungju Dam2,750,0001,789,000664,800141.00110.00
Yongdam Dam815,000672,50093,000263.50228.50
Hyeongsan River--116,600--


2.2. 데이터

2.2.1. PlanetScope

PlanetScope는 Planet Labs Public Benefit Corporation에서 운영하는 광학 센서를 탑재한 200개 이상의 큐브샛(CubeSat) 위성으로 구성된 군집 시스템이다(Valman et al., 2024). 2014년에 Dove Classic (PS2) 위성의 발사를 시작으로, Bayer 패턴과 Pass-band 필터가 개선된 Dove-R (PS2.SD)과 4개의 밴드가 추가된 SuperDove (PSB.SD) 위성군이 지속적으로 발사되었다. PlanetScope는 약 3.7 m의 고해상도로 지표면을 1일의 시간해상도로 촬영하며, PS2.SD는 R-G-B-NIR의 4개의 밴드 영상을, PSB.SD는 8개의 밴드 영상을 제공한다. 본 연구에 서는 지형보정, 대기방사보정, 좌표계 투영이 수행된 Level 3B의 Blue, Green, Red, NIR 영상을 사용하였으며, 국내 수계별 4장씩 총 56장의 영상을 활용하였다. 모델의 훈련 및 검증에는 PSB.SD 영상 43개와 PS2.SD 영상 1개가 사용되었으며 테스트에는 PSB.SD 영상 12개가 사용되었다. PS2.SD와 PSB.SD의 제원은 Table 2에 제시되어 있다.

Table 2 PlanetScope bands information

Bands and observation attributePS2.SDPSB.SD
Spectral bandBand 1: Coastal Blue-431–452 nm
Band 2: Blue464–517 nm465–515 nm
Band 3: Green I-513–549 nm
Band 4: Green547–585 nm547–583 nm
Band 5: Yellow-600–620 nm
Band 6: Red650–682 nm650–680 nm
Band 7: Red-Edge-697–713 nm
Band 8: NIR846–888 nm845–885 nm
Ground sample distance3.7–4.1 m3.7–4.2 m
Frame size24 km × 16 km32.5 km × 19.6 km
Revisit timeDaily


2.3. 방법론

2.3.1. NDWI

광학 영상을 기반으로 한 수체 탐지에서는 NDWI가 널리 사용된다(Yang et al., 2017; Singh and Kansal, 2022). 수체 표면은NIR 밴드에서는 낮은 반사 특성이 나타나며, 육지나 식생의 표면은 Green 밴드에서 높은 반사 특성이 나타난다(McFeeters, 1996; Du et al., 2016). NDWI는 두 밴드 간의 반사 특성 차이를 이용하여 식(1)과 같이 계산된다. 본 연구에서는 PS2.SD 영상의 2번 밴드(Green)와 4번 밴드(NIR), 그리고 PSB.SD 영상의 4번 밴드(Green)와 8번 밴드(NIR)를 이용하여 NDWI를 산정하였다. NDWI 값은 –1부터 1 사이에 분포하며, 토양 식생 등 비수체 영역과 비교하여 수체 영역에서 높은 값이 나타난다. 이를 통해 비교적 높은 정확도에서 수체 탐지가 가능하다.

NDWI=GreenNIRGreen+NIR

2.3.2. HRNet

HRNet은 영상의 다양한 해상도에서 정보를 병렬로 처리하도록 설계된 CNN 기반 모델이다(Wang et al., 2020). 전통적인 CNN 모델들은 일반적으로 정보를 점점 축소하면서 특징을 추출하는 반면 HRNet 모델은 여러 해상도의 정보를 병렬로 유지하여 연산을 수행하여 고해상도의 정보를 지속적으로 유지할 수 있다. 기본 구조로 병렬 네트워크로 구성되어 있으며, 각 레이어 마다 다른 해상도의 이미지 특징을 처리하면서 고해상도 특징을 유지한 채 학습이 진행된다. 저해상도의 특징맵(feature map)에서는 객체의 크기와 위치 같은 전역적인 특징을 학습하며, 고해상도의 특징맵에서는 객체의 경계와 같은 세밀한 특징을 학습한다. 또한 크로스 네트워크 연결(cross network connection)을 사용하여 레이어간 특징맵의 연결이 가능하여 고해상도의 세부 정보와 저해상도의 넓은 맥락 정보의 통합이 가능하다. 이러한 모델의 특성으로 고해상도 정보를 유지하면서 기울기 소실 문제를 최소화할 수 있어 안정적이고 효율적인 객체 탐지가 가능하다.

본 연구에서는 수체 탐지를 위한 HRNet 모델의 훈련에 512 × 512 사이즈로 크롭(crop)한 영상을 입력자료로 사용하였다. 이후, 원본 영상과 동일한 사이즈로 수체 탐지 결과를 결합하기 위하여 300 × 300 픽셀 크기로 마진(margin)을 설정하여 각 영상을 합치는 방식을 사용하였다. 512 × 512 크기의 영상을 그대로 사용할 경우 영상의 가장자리 부분에서 탐지 성능이 저하되는 한계점이 존재한다. 이에 마진을 설정함으로써 영상의 가장자리에서도 성능 저하 없이 수체 탐지 결과를 도출하였다.

2.3.3. 검증도구

수체 탐지 분류 모델의 성능을 평가하기 위해 혼동행렬(confusion matrix) 기반 성능 평가 지수를 사용하였다(Table 3). 본 연구에서 예측값은 수체 탐지 결과가 사용되었으며 레이블 자료로는 PlanetScope의 RGB, NIR, NDWI 영상과 환경공간정보서비스의 토지피복 지도를 참조하여 디지타이징(digitizing)한 manual mask 자료가 사용되었다. 혼동행렬 기반 성능 평가 지수로는 분류 모델의 종합적인 정확도 평가를 위한 정확도(Accuracy), Intersection over Union (IoU)이 사용되었으며, 미탐지 평가를 위한 재현율(Recall), 오탐지 평가를 위한 정밀도(Precision), 수체/비수체 픽셀 개수의 불균형한 데이터에서 모델의 성능평가에 효과적인 F1-score가 사용되었다(식 2~6). 모든 평가지표는 0부터 1사이의 값이 나타나며, 그 값이 클수록 탐지 정확도가 높음을 의미한다.

Table 3 Confusion matrix

Model prediction
WaterNon-water
LabelWaterTPFN
Non-waterFPTN

TP: True Positive, FN: False Negative, FP: False Positive, TN: True Negative.


Accuracy=TP+TNTP+FN+FP+TN Recall=TPTP+FN Precision=TPTP+FP F1 Score=2×Precision×RecallPrecision+Recall IoU=TPTP+FP+FN

3.1. 밴드 조합별 HRNet 모델 학습 성능 평가

Fig. 2는 PlanetScope 위성 영상 밴드 조합별 HRNet 모델의 Validation set의 Accuracy와 Loss 값을 나타낸다. R+G+B 조합은 초기 학습 후 비교적 안정적인 학습이 되었으나, 다른 조합들과 비교하여 Accuracy, Loss 값 모두 가장 낮게 나타났다(Table 4). 이는 단순한 가시광선 정보만으로는 정확한 수체/비수체의 분류에 한계가 있음을 의미한다(Yu et al., 2022). R+G+B+NIR 조합의 경우 학습 초기에는 낮은 Accuracy와 높은 Loss 값이 나타나지만 학습이 진행되는 동안 성능 향상이 나타났다. 수체 픽셀에서 낮은 반사율이 나타나는 NIR 밴드를 추가함으로써 수체와 비수체 픽셀 간의 차이를 더욱 명확하게 구분 가능하다(Wieland et al., 2023). NDWI 밴드만을 사용할 경우 Loss 값의 변동이 자주 발생하였다. R+G+B 조합과 비교하여 전반적인 정확도는 높게 나타났으나 NIR 밴드가 추가된 조합과 비교하여 성능이 다소 떨어졌다(Table 4). NDWI는 수체 탐지에 유용하지만 추가적인 스펙트럼 정보 없이 단독으로 사용할 경우 한계점이 존재하는 것으로 판단된다. G+NIR+NDWI 조합의 경우 학습 초반부터 높은 성능 향상이 나타났으며 Accuracy, Loss 모두 가장 우수한 성능이 나타났다(Table 4). 이는 Green, NIR 밴드 및 NDWI가 결합된 조합에서 수체탐지에 매우 효과적임을 나타낸다.

Fig. 2. Training performance variation of HRNet model based on PlanetScope band combinations. (a) Variation of accuracy values. (b) Variation in loss values.

Table 4 Performance metrics for HRNet model training

ModelR-G-BR-G-B-NIRNDWIG-NIR-NDWI
Accuracy0.820.850.870.91
Loss0.070.060.060.05


3.2. 수체 탐지 성능 평가

앞선 3.1절에서는 HRNet 모델의 최적 밴드 조합은 Green + NIR + NDWI로 나타났다. 이에 본 절에서는 해당 밴드 조합에서 80,000 iteration에서 학습된 HRNet 모델과 다른 객체 탐지 모델(Otsu, K-means, U-net) 간의 수체 탐지 결과를 비교하여 성능을 평가하였다. Otsu, K-means 모델에서는 NDWI 영상만을 사용하였으며, U-net 모델의 경우 HRNet 모델과 동일한 밴드 조합과 iteration에서 학습 후 수체 탐지를 수행하였다.

Table 5는 각 수체 탐지 모델 별 혼동행렬 결과를 나타낸다. Fig. 3, 4는 테스트셋 수계를 대상으로 수체 탐지 결과를 나타내며, Table 6에 정량적 평가 결과를 기재하였다. Otsu 및 K-means 모델에서의 수체 탐지 결과는 비슷한 패턴을 보였다(Figs. 3c, d; 4c, d). 재현율은 0.97로 미탐지율은 낮게 나타났지만 정밀도는 각각 0.65, 0.70으로 오탐지율이 높게 나타났다. 특히 강과 같은 수체보다 비수체 픽셀의 비율이 높은 영상에서 수체 주변의 건물, 식생에서 오탐지 픽셀이 다수 존재하였다(Figs. 4c, d). Otsu, K-means 기법의 경우 수체/비수체 픽셀의 비율이 균일하지 않을 경우 정확한 수체와 비수체의 분류가 어렵다는 한계점이 존재한다(Jeong et al., 2021; Kim et al., 2024). 또한 NDWI는 건물 같은 인공구조물에서 수체와 유사한 특성이 나타나는 한계점이 존재한다(Kaplan and Avdan, 2017; Lee et al., 2023). 이에 NDWI 만을 사용하는 Otsu, K-means 클러스터링 기법의 경우 건물, 식생 등 비수체 픽셀에서 오탐지율이 높게 나타났다.

Fig. 3. Example of water body detection results for Chungju Dam using PlanetScope image and object detection models. (a) RGB image, (b) label image, (c) Otsu, (d) K-means, (e) U-net, and (f) HRNet.
Fig. 4. Example of water body detection results for Hyeongsan River using PlanetScope image and object detection models. (a) RGB image, (b) label image, (c) Otsu, (d) K-means, (e) U-net, and (f) HRNet.

Table 5 Confusion matrix performance of water body detection

ModelTPFPFNTN
Otsu5002265263169114237822023361
K-means4999740213928714490322515765
U-net503714515745810749824497594
HRNet49919229043215272124564620

Table 6 Performance metrics of water body detection results for test set

ModelAccuracyPrecisionRecallIoUF1-score
Otsu0.900.650.970.640.78
K-means0.920.700.970.680.81
U-net0.990.970.970.950.97
HRNet0.990.980.970.960.98


U-net 및 HRNet 모델의 IoU는 각각 0.95, 0.96으로 Otsu, K-means 기법과 비교하여 높은 정확도가 나타났다(Table 6). 이는 복합적인 밴드 조합을 사용하는 딥러닝 기반 모델들이 NDWI만을 단독으로 사용하는 전통적인 모델과 비교하여 높은 정확도에서 수체 탐지가 가능함을 보여준다(Valman et al., 2024). 댐의 경우 딥러닝 모델 모두 수계 경계에서 미탐지 및 오탐지 픽셀도 존재하였지만 높은 정확도에서 수체 탐지가 가능하였다(Figs. 3e, f). 반면 강과 같은 얇은 수계의 경우 HRNet 모델에서는 안정적인 수체 탐지가 가능하였지만, U-net 모델에서는 미탐지 픽셀이 다수 존재하였다(Figs. 4e, f). 이는 U-net 모델의 경우 저해상도 특징맵의 복원 과정에서 복잡하고 작은 객체픽셀의 공간 정보 손실로 좁고 작은 수계의 탐지에 한계점이 존재하는 것으로 판단된다(Li et al., 2023). 반면 HRNet 모델의 경우 계층적이고 병렬적인 네트워크 구조를 가지고 있어 댜양한 해상도의 특징 맵을 동시에 유지하고 있어 공간 정보의 손실 없이 복잡하고 좁은 수계에서도 높은 정확도의 수체 탐지가 가능하였다(Yu et al., 2022).

3.3. 침수 탐지 적용성 평가

Fig. 5는 2022년 9월 7일 형산강을 촬영한 PlanetScope 영상에 HRNet 모델을 적용한 수체 및 침수지역 탐지 결과를 나타내며, Table 7은 혼동행렬 결과를 나타낸다. 파란색 픽셀은 환경공간정보서비스(https://egis.me.go.kr/)의 세분류 토지피복도에서 내륙수(하천, 호소)로 분류된 영역을 나타내며, 빨간색 픽셀은 레이블 영상 및 HRNet 모델 결과의 침수 영역을 나타낸다(Figs. 5b, c). 시각적으로 HRNet 모델은 레이블 영상과 비교하여 수체 및 침수 탐지 시 우수한 성능을 보였지만 복잡한 침수 경계 픽셀에서는 탐지 성능의 저하가 존재하였다. 또한, 정량적인 평가 결과는 Accuracy, IoU, F1-score가 각각 0.98, 0.93, 0.97로 앞선 3.2절의 수체 탐지 결과와 비교하여 정확도가 상대적으로 낮게 나타났다(Fig. 5c, Table 8). 재현율은 0.99로 미탐지율은 매우 낮게 나타났으나 정밀도는 0.94로 오탐지율이 다소 높았다 (Table 8). 진흙이나 습한 토양은 NIR 밴드에서 수체와 유사한 반사 특성이 나타나기 때문에 NIR 및 NDWI 기반 수체 탐지 시 오탐지 픽셀의 탐지 가능성이 존재한다(Mondejar and Tongco, 2019; McGuirk and Cairns, 2024). 이에 침수로 인해 발생한 진흙, 습윤한 토양 및 복잡한 침수 경계 등 비수체 영역에서 오탐지 픽셀도 존재하였다(Fig. 5c). 이를 통해 PlanetScope 영상 및 HRNet 모델을 활용한 침수 지역탐지가 가능함이 확인되었으나 복잡한 침수 지형에서 높은 정확도의 탐지 성능을 위해서는 추가적인 연구가 필요한 것으로 판단된다.

Fig. 5. Water and flood area detection results for Hyeongsan River using PlanetScope image and HRNet model. (a) full RGB image, (b) subset RGB images, (c) label images for water bodies, and (d) water and flood area detection results using HRNet model.

Table 7 Confusion matrix performance of flood detection

ModelTPFPFNTN
HRNet132992680108125627857524

Table 8 Performance metrics of water and flood area detection results for Hyeongsan River

ModelAccuracyPrecisionRecallIoUF1-score
HRNet0.990.940.990.930.97

본 연구에서는 PlanetScope 영상에 HRNet 모델을 적용하여 국내 수계 및 침수 지역을 탐지하고 성능을 정량적으로 평가하였다. 수체 탐지를 위한 최적 밴드 조합을 분석하고, 국내를 대상으로 초소형 위성자료를 통한 고해상도 침수 모니터링의 활용성을 평가하였다는 점에서 그 의미가 있다고 판단된다. 본 연구를 통한 결과는 다음과 같다.

1) HRNet 모델 기반 수체 탐지 시, Green + NIR + NDWI 조합에서 가장 높은 성능이 나타났다. 특히 NIR 밴드가 포함되어 있는 조합에서 훈련 성능이 크게 향상되었다.

2) CNN 기반 모델은 기존의 전통적인 수체 탐지 기법(Otsu, K-means)과 비교하여 높은 탐지 성능이 나타났다. 이는 수체/비수체 픽셀 비율이 불균형 하더라도 NDWI만을 단독으로 사용하는 전통적인 기법과 달리 다양한 밴드 조합을 활용하여 높은 정확도에서 수체탐지가 가능하다.

3) HRNet 모델은 병렬적 네트워크 구조를 통해 다양한 해상도의 특징을 동시에 훈련함으로써 좁고 복잡한 수계에서도 높은 정확도의 수체 탐지가 가능하였다.

4) HRNet 모델은 높은 정확도에서 침수 지역 탐지가 가능하였지만 강우로 인한 진흙 및 습윤한 토양에서 오탐지 픽셀이 다수 존재하였다.

초소형 위성 영상의 경우 높은 시공간해상도를 활용하여 대규모 저수지 및 댐뿐만 아니라 소규모 저수지와 얇은 강에서도 지속적인 수체 탐지가 가능하다. 본 연구를 바탕으로 더욱 높은 정확도에서 수체 탐지가 가능하다면 지역규모의 가용수량 파악을 통하여 효과적인 수자원 관리가 가능할 것으로 기대된다. 추후 국내에서 초소형 군집위성의 개발과 함께 고도화된 딥러닝 기반 수체 탐지 모델이 개발된다면 안정적인 수자원 관리뿐만 아니라 실시간 가뭄 및 홍수 모니터링을 통한 신속하고 효율적인 수재해 대응 체계가 구축될 것으로 예상된다.

본 연구는 과학기술정보통신부의 “초소형위성 군집시스템의 활용 지원시스템 및 활용기술개발(과제번호: 2021M1A3A4A11032019)”의 일환으로 수행되었습니다. 본 연구는 교육부 및 한국연구재단의 4단계 두뇌한국21 사업(4단계 BK21 사업)과 국토교통부의 스마트시티 혁신인재육성사업으로 지원되었습니다.

No potential conflict of interest relevant to this article was reported.

  1. Bijeesh, T. V., and Narasimhamurthy, K. N., 2020. Surface water detection and delineation using remote sensing images: A review of methods and algorithms. Sustainable Water Resources Management, 6(4), 68. https://doi.org/10.1007/s40899-020-00425-4
  2. Chen, L., Cai, X., Xing, J., Li, Z., Zhu, W., and Yuan, Z., et al, 2023. Towards transparent deep learning for surface water detection from SAR imagery. International Journal of Applied Earth Observation and Geoinformation, 118, 103287. https://doi.org/10.1016/j.jag.2023.103287
  3. Choi, S., Youn, Y., Kang, J., Park, G., Kim, G., and Lee, S., et al, 2022. An artificial intelligence approach to water-body detection of the agricultural reservoirs in South Korea using Sentinel-1 SAR images. Korean Journal of Remote Sensing, 38(5-3), 925-938. https://doi.org/10.7780/kjrs.2022.38.5.3.10
  4. Cordeiro, M. C., Martinez, J. M., and Peña-Luque, S., 2021. Automatic water detection from multidimensional hierarchical clustering for Sentinel-2 images and a comparison with Level 2A processors. Remote Sensing of Environment, 253, 112209. https://doi.org/10.1016/j.rse.2020.112209
  5. Delaney, C., Li, X., Holmberg, K., Wilson, B., Heathcote, A., and Nieber, J., 2022. Estimating lake water volume with regression and machine learning methods. Frontiers in Water, 4, 886964. https://doi.org/10.3389/frwa.2022.886964
  6. Du, Y., Zhang, Y., Ling, F., Wang, Q., Li, W., and Li, X., 2016. Water bodies' mapping from Sentinel-2 imagery with modified normalized difference water index at 10-m spatial resolution produced by sharpening the SWIR band. Remote Sensing, 8(4), 354. https://doi.org/10.3390/rs8040354
  7. Freitas, P., Vieira, G., Canário, J., Vincent, W. F., Pina, P., and Mora, C., 2024. A trained Mask R-CNN model over PlanetScope imagery for very-high resolution surface water mapping in boreal forest-tundra. Remote Sensing of Environment, 304, 114047. https://doi.org/10.1016/j.rse.2024.114047
  8. Guo, Z., Wu, L., Huang, Y., Guo, Z., Zhao, J., and Li, N., 2022. Water-body segmentation for SAR images: Past, current, and future. Remote Sensing, 14(7), 1752. https://doi.org/10.3390/rs14071752
  9. Jeong, J., Oh, S., Lee, S., Kim, J., and Choi, M. H., 2021. Sentinel-1 SAR image-based waterbody detection technique for estimating the water storage in agricultural reservoirs. Journal of Korea Water Resources Association, 54(7), 535-544. https://doi.org/10.3741/JKWRA.2021.54.7.535
  10. Jiang, W., Ni, Y., Pang, Z., Li, X., Ju, H., He, G., and Qin, X., 2021. An effective water body extraction method with new water index for Sentinel-2 imagery. Water, 13(12), 1647. https://doi.org/10.3390/w13121647
  11. Kang, J., Guan, H., Ma, L., Wang, L., Xu, Z., and Li, J., 2023. WaterFormer: A coupled transformer and CNN network for waterbody detection in optical remotely-sensed imagery. ISPRS Journal of Photogrammetry and Remote Sensing, 206, 222-241. https://doi.org/10.1016/j.isprsjprs.2023.11.006
  12. Kaplan, G., and Avdan, U., 2017. Object-based water body extraction model using Sentinel-2 satellite imagery. European Journal of Remote Sensing, 50(1), 137-143. https://doi.org/10.1080/22797254.2017.1297540
  13. Kavats, O., Khramov, D., and Sergieieva, K., 2022. Surface water mapping from SAR images using optimal threshold selection method and reference water mask. Water, 14(24), 4030. https://doi.org/10.3390/w14244030
  14. Kim, W., Jeong, J., and Choi, M., 2022. Evaluation of reservoir monitoring-based hydrological drought index using Sentinel-1 SAR waterbody detection technique. Korean Journal of Remote Sensing, 38(2), 153-166. https://doi.org/10.7780/kjrs.2022.38.2.2
  15. Kim, W., Lee, S., and Choi, M., 2024. A comparative study of remotely sensed reservoir monitoring across multiple land cover types. Science of The Total Environment, 948, 174678. https://doi.org/10.1016/j.scitotenv.2024.174678
  16. Krishna, K., and Murty, M. N., 1999. Genetic K-means algorithm. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 29(3), 433-439. https://doi.org/10.1109/3477.764879
  17. Lee, S., Jeong, J., Oh, S., Jeong, H., and Choi, M., 2022. Multi-resolution SAR image-based agricultural reservoir monitoring. Korean Journal of Remote Sensing, 38(5-1), 497-510. https://doi.org/10.7780/kjrs.2022.38.5.1.5
  18. Lee, S., Kim, W., Cho, S., Jeon, H., and Choi, M., 2023. Water resources monitoring technique using multi-source satellite image data fusion. Journal of Korea Water Resources Association, 56(8), 497-508. https://doi.org/10.3741/JKWRA.2023.56.8.497
  19. Li, J., Ma, R., Cao, Z., Xue, K., Xiong, J., Hu, M., and Feng, X., 2022a. Satellite detection of surface water extent: A review of methodology. Water, 14(7), 1148. https://doi.org/10.3390/w14071148
  20. Li, J., Meng, Y., Li, Y., Cui, Q., Yang, X., Tao, C., and Zhang, W., 2022b. Accurate water extraction using remote sensing imagery based on normalized difference water index and unsupervised deep learning. Journal of Hydrology, 612, 128202. https://doi.org/10.1016/j.jhydrol.2022.128202
  21. Li, Z., and Demir, I., 2023. U-net-based semantic classification for flood extent extraction using SAR imagery and GEE platform: A case study for 2019 central US flooding. Science of The Total Environment, 869, 161757. https://doi.org/10.1016/j.scitotenv.2023.161757
  22. Ling, F., Boyd, D., Ge, Y., Foody, G. M., Li, X., Wang, L., and Du, Y., 2019. Measuring river wetted width from remotely sensed imagery at the subpixel scale with a deep convolutional neural network. Water Resources Research, 55(7), 5631-5649. https://doi.org/10.1029/2018WR024136
  23. McFeeters, S. K., 1996. The use of the Normalized Difference Water Index (NDWI) in the delineation of open water features. International Journal of Remote Sensing, 17(7), 1425-1432. https://doi.org/10.1080/01431169608948714
  24. McGuirk, S. L., and Cairns, I. H., 2024. Relationships between soil moisture and Visible-NIR soil reflectance: A review presenting new analyses and data to fill the gaps. Geotechnics, 4(1), 78-108. https://doi.org/10.3390/geotechnics4010005
  25. Mondejar, J. P., and Tongco, A. F., 2019. Near infrared band of Landsat 8 as water index: A case study around Cordova and Lapu-Lapu City, Cebu, Philippines. Sustainable Environment Research, 29, 1-15. https://doi.org/10.1186/s42834-019-0016-5
  26. Otsu, N., 1975. A threshold selection method from gray-level histograms. Automatica, 11(285-296), 23-27.
  27. Peña, F. J., Hübinger, C., Payberah, A. H., and Jaramillo, F., 2024. DeepAqua: Semantic segmentation of wetland water surfaces with SAR imagery using deep neural networks without manually annotated data. International Journal of Applied Earth Observation and Geoinformation, 126, 103624. https://doi.org/10.1016/j.jag.2023.103624
  28. Qin, P., Cai, Y., and Wang, X., 2021. Small waterbody extraction with improved U-Net using Zhuhai-1 hyperspectral remote sensing images. IEEE Geoscience and Remote Sensing Letters, 19, 1-5. https://doi.org/10.1109/LGRS.2020.3047918
  29. Ronneberger, O., Fischer, P., and Brox, T., 2015. U-Net: Convolutional networks for biomedical image segmentation. In: Navab, N., Hornegger, J., Wells, W., Frangi, A., (eds.), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
  30. Singh, S., and Kansal, M. L., 2022. Chamoli flash-flood mapping and evaluation with a supervised classifier and NDWI thresholding using Sentinel-2 optical data in Google Earth Engine. Earth Science Informatics, 15(2), 1073-1086. https://doi.org/10.1007/s12145-022-00786-8
  31. Valman, S. J., Boyd, D. S., Carbonneau, P. E., Johnson, M. F., and Dugdale, S. J., 2024. An AI approach to operationalise global daily PlanetScope satellite imagery for river water masking. Remote Sensing of Environment, 301, 113932. https://doi.org/10.1016/j.rse.2023.113932
  32. Wang, G., Chen, G., Sui, B., Quan, L. A., Ni, E. R., and Zhang, J., 2024. Surface water extraction from high-resolution remote sensing images based on an improved U-net network model. Earth Science Informatics, 17, 2555-2568. https://doi.org/10.1007/s12145-024-01306-6
  33. Wang, J., Sun, K., Cheng, T., Jiang, B., Deng, C., Zhao, Y., and Xiao, B., 2020. Deep high-resolution representation learning for visual recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43(10), 3349-3364. https://doi.org/10.1109/TPAMI.2020.2983686
  34. Wieland, M., Martinis, S., Kiefl, R., and Gstaiger, V., 2023. Semantic segmentation of water bodies in very high-resolution satellite and aerial images. Remote Sensing of Environment, 287, 113452. https://doi.org/10.1016/j.rse.2023.113452
  35. Xu, Y., Lin, J., Zhao, J., and Zhu, X., 2021. New method improves extraction accuracy of lake water bodies in Central Asia. Journal of Hydrology, 603, 127180. https://doi.org/10.1016/j.jhydrol.2021.127180
  36. Yang, L., Driscol, J., Sarigai, S., Wu, Q., Lippitt, C. D., and Morgan, M., 2022. Towards synoptic water monitoring systems: A review of AI methods for automating water body detection and water quality monitoring using remote sensing. Sensors, 22(6), 2416. https://doi.org/10.3390/s22062416
  37. Yang, X., Qin, Q., Grussenmeyer, P., and Koehl, M., 2018. Urban surface water body detection with suppressed built-up noise based on water indices from Sentinel-2 MSI imagery. Remote Sensing of Environment, 219, 259-270. https://doi.org/10.1016/j.rse.2018.09.016
  38. Yang, X., Zhao, S., Qin, X., Zhao, N., and Liang, L., 2017. Mapping of urban surface water bodies from Sentinel-2 MSI imagery at 10 m resolution via NDWI-based image sharpening. Remote Sensing, 9(6), 596. https://doi.org/10.3390/rs9060596
  39. Yu, Y., Huang, L., Lu, W., Guan, H., Ma, L., Jin, S., and Li, J., 2022. WaterHRNet: A multibranch hierarchical attentive network for water body extraction with remote sensing images. International Journal of Applied Earth Observation and Geoinformation, 115, 103103. https://doi.org/10.1016/j.jag.2022.103103
  40. Yuan, Q., Wu, L., Huang, Y., Guo, Z., and Li, N., 2023. Water-body detection from spaceborne SAR images with DBO-CNN. IEEE Geoscience and Remote Sensing Letters, 20, 4013405. https://doi.org/10.1109/LGRS.2023.3325939

Research Article

Korean J. Remote Sens. 2024; 40(5): 617-627

Published online October 31, 2024 https://doi.org/10.7780/kjrs.2024.40.5.1.16

Copyright © Korean Society of Remote Sensing.

초소형 위성과 연계한 딥러닝 수계 및 침수 지역 탐지 활용성 평가: PlanetScope 위성 영상과 HRNet 모형

김완엽1, 조신현2, 정준혁3, 김예지4, 김현옥5, 최민하6,7,8*

1성균관대학교 글로벌스마트시티융합전공 박사과정생
2성균관대학교 글로벌스마트시티융합전공 석사과정생
3성균관대학교 건설환경공학부 학사과정생
4한국항공우주연구원 위성활용부 연구원
5한국항공우주연구원 위성활용부 책임연구원
6성균관대학교 글로벌스마트시티융합전공 교수
7성균관대학교 건설환경공학부 교수
8성균관대학교 수자원학과 교수

Received: September 24, 2024; Revised: October 16, 2024; Accepted: October 23, 2024

Evaluation of Deep Learning-Based Water Bodies and Flooded Area Detection with Nanosatellites: The PlanetScope Satellite Imageries and HRNet Model

Wanyub Kim1, Shinhyeon Cho2, Junhyuk Jeong3, Yeji Kim4, Hyun Ok Kim5, Minha Choi6,7,8*

1PhD Student, Department of Global Smart City, Sungkyunkwan University, Suwon, Republic of Korea
2Master Student, Department of Global Smart City, Sungkyunkwan University, Suwon, Republic of Korea
3Undergraduate Student, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
4Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
5Principal Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
6Professor, Department of Global Smart City, Sungkyunkwan University, Suwon, Republic of Korea
7Professor, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
8Professor, Graduate School of Water Resources, Sungkyunkwan University, Suwon, Republic of Korea

Correspondence to:Minha Choi
E-mail: mhchoi@skku.edu

Received: September 24, 2024; Revised: October 16, 2024; Accepted: October 23, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

The continuous monitoring of water body is essential for efficient water resource management and the prevention of water-related disasters. Microsatellite and nanosatellite imageries provide a tool for continuous and accurate monitoring of water bodies at high spatial and temporal resolution. In this study, PlanetScope imagery with a resolution of 3.7 m and High-Resolution Network (HRNet) model were used to detect water bodies at dams and rivers in Korea, with the objective of evaluating the utility of water surface area monitoring. The HRNet model and the optimal band combinations of PlanetScope imagery which were R+G+B, R+G+B+NIR, Normalized Difference Water Index (NDWI), and Green+NIR+NDWI, were initially evaluated. The Green+NIR+NDWI combination performed the best, with an accuracy of 0.91 and loss function of 0.05 for the validation set. Water body detection was performed using the HRNet model with the optimal band combination and models from previous studies (Otsu, K-means, U-net) The performance was evaluated through quantitative validation using labeled images. The HRNet model showed the best performance with an Intersection over Union (IoU) of 0.96, compared to models in previous studies (Otsu: 0.90, K-means: 0.92, U-net: 0.95). Additionally, the HRNet model’s flood detection performance showed an IoU of 0.93, indicating a high accuracy. However, there were limitations, as muddy and wet soil at the boundaries of flooded areas were false detected as water bodies. In the future, when a constellation of microsatellites is developed in Korea, the results of this study are expected to contribute to better management of water resources and water-related disasters through continuous monitoring of water bodies.

Keywords: Water body detection, Flood detection, Optical satellite imagery, PlanetScope, HRNet

1. 서론

강, 호수, 저수지 및 댐 등 수계는 수자원 공급, 생태계 유지, 재해 예방에 있어 중요한 자원으로, 지속적인 관리와 모니터링이 필수적이다(Li et al., 2022b; Delaney et al., 2022; Pena et al., 2024). 특히 한반도의 경우 강우가 여름에 편중되어 있는 특성으로 해마다 가뭄 및 홍수의 위협을 받고 있어 수계 모니터링의 중요성이 더욱 부각되고 있다(Jeong et al., 2021; Kim et al., 2022). 국내 수계의 경우, 대부분 현장관측을 통해 관리 및 모니터링이 이루어지고 있으나 비용과 시간적인 측면에서 한계점이 존재한다(Lee et al., 2022; Valman et al., 2024). 또한, 폭우 및 홍수 등 극한 기상 조건이나 접근성이 제한된 지역에서는 지속적이고 세밀한 모니터링이 불가능하다.

최근 이러한 현장 관측 기반 수계 모니터링의 한계점을 극복하기 위하여 지속적으로 광범위한 지역을 관측할 수 있는 위성 원격 탐사자료의 활용에 관한 연구가 활발히 진행되고 있다(Xu et al., 2021; Corderio et al., 2021; Kavats et al., 2022; Choi et al., 2022; Lee et al., 2022; 2023). 특히 광학(optical) 센서를 탑재한 위성 영상의 경우 근적외선(Near-Infrared, NIR) 대역의 분광 특성과Normalized Difference Water Index (NDWI), Modified Normalized Difference Water Index (MNDWI) 등 분광지수를 활용하여 높은 정확도에서 수체 탐지가 가능하다(Du et al., 2016; Yang et al., 2017, 2018; Jiang et al., 2021). 광학 위성 영상 기반 수체 탐지 시 10 m 급 해상도를 제공하는 Sentinel-2 Multispectral Instrument (MSI) 영상이 대표적으로 사용되고 있으나 공간 해상도의 한계로 복잡한 지형이나 작은 수계에서의 정밀한 탐지가 어렵다는 한계점이 존재한다(Lee et al., 2023; Kim et al., 2024). 반면 PlanetScope와 같은 고해상도 광학 위성 영상은 3.7 m급의 공간해상도를 제공하여 정밀한 수체 탐지가 가능하다(Freitas et al., 2024; Valman et al., 2024).

수체 탐지를 위한 전통적인 방법으로 히스토그램(histogram) 기반 임계값 및 클러스터링(clustering) 기법이 주로 적용되었다(Xu et al., 2021; Li et al., 2022a). 대표적인 임계값 기법으로 히스토그램의 클래스 내 분산(intra-class variance)은 최소화하고 각 클래스 간 분산(inter-class variance)의 비는 최대화하는 Otsu 임계값이 일반적으로 사용되었다(Otsu, 1975). 또한, 데이터의 유클리드 거리가 최소가 되는 픽셀들을 군집화 하는 K-means 클러스터링 기법이 수체 탐지에 주로 사용되었다(Krishna and Murty, 1999). 하지만 임계값 및 클러스터링 기법의 경우 수체와 비수체의 비율이 불균일할 경우 안정적인 수체 탐지가 어렵다(Kim et al., 2024). 특히 고해상도 영상에서의 적용 시 수체/비수체 경계에서의 반사 특성이 다양하여 탐지 성능이 저하된다는 한계점이 존재한다(Wieland et al., 2023).

이러한 전통적인 수체 탐지 기법의 한계점을 극복하기 위하여 Artificial Neural Network (ANN), Support Vector Machine (SVM), Random Forest (RF) 등 기계학습(machine learning) 모델을 활용한 연구가 진행되어 왔다(Bijeesh and Narasimhamurthy, 2020; Choi et al., 2022; Li et al., 2022a). 이러한 모델들은 비교적 적은 컴퓨팅 비용(computing complexity)에서 수체/비수체 특성을 효과적으로 학습이 가능하다. 하지만 기계학습 모델의 경우 영상의 공간적 특성을 고려하지 않고 학습을 하여 복잡한 지형이나 다양한 토지피복이 존재하는 수계에서 낮은 탐지 성능이 나타난다(Guo et al., 2022). 또한 학습과정에서 영상의 비선형적인 관계와 공간적 특성을 고려하지 않아 학습에 사용되지 않은 수계 지역에서 탐지 성능이 저하된다는 한계점이 존재한다(Ling et al., 2019).

최근에는 영상의 공간적 특성을 반영하는 의미론적 영상분할(semantic segmentation)이 가능한 Convolutional Neural Network (CNN) 모델 기반 수체 탐지 연구가 활발히 진행되고 있다(Yang et al., 2022; Yuan et al., 2023; Kang et al., 2023). CNN기반 모델은 계층적 특징 학습을 통하여 얕은 계층에서는 객체의 형태 및 경계와 같은 저해상도의 특징을 학습하고, 깊은 계층으로 갈수록 세부적이고 복잡한 고해상도 특징을 학습하여 적은 컴퓨팅 연산 자원에서 모델의 학습 및 객체 탐지가 가능하다(Guo et al., 2022). 또한 영상의 해상도를 줄이면서도 중요한 특징을 유지하는 풀링(pooling) 연산을 통하여 공간적 특징의 학습이 가능하다(Chen et al., 2023).

U-net은 대표적인 CNN 기반 모델로 인코더(encoder)-디코더(decoder) 구조를 기반으로 다양한 공간적 학습이 가능하여 수체 탐지 분야에서 활발히 활용되고 있다(Ronneberger et al., 2015; Qin et al., 2021). 하지만 U-net 모델은 이미지의 해상도를 축소 후 다시 복원하는 구조적 특성으로 인해 복잡하거나 작은 수계에서의 탐지 성능에 한계점이 존재한다(Wang et al., 2024). 이러한 한계점을 극복하기 위해 Wang et al. (2020)은 다양한 해상도의 특징을 학습하는 병렬네트워크 구조의 High-Resolution Network (HRNet) 모델을 제안하였다. HRNet 모델은 저해상도 및 고해상도 특징 간의 상호 보완을 통해, 복잡한 수계에서도 높은 정확도의 객체 탐지가 가능하다(Yu et al., 2022). 이는 기존의 CNN 모델의 한계점을 보완하고, 보다 정밀한 수체 탐지를 가능하게 한다.

이에 본 연구에서는 PlanetScope 영상과 HRNet 모델을 활용한 수체 탐지 활용성을 평가하고자 하였다. PlanetScope 영상의 밴드 조합별 HRNet 모델의 수체 탐지 성능을 정량적으로 평가하였다. 이후, 최적의 밴드 조합에서 HRNet 모델의 수체 탐지 성능을 선행 연구의 모델(Otsu, K-means clustering, U-net)들과 비교하였다. 마지막으로 HRNet 모델의 침수 탐지 활용 가능성을 평가하였다.

2. 연구 자료 및 방법

2.1. 연구 지역

본 연구에서는 HRNet 모델의 훈련 및 테스트를 위해 다양한 지형적 특성을 가진 수계를 대상으로 이루어졌다. 모델의 훈련 및 검증에는 댐 9개소(대청, 대곡, 사연, 횡성, 소양강, 장흥, 장성, 주암, 나주)와 저수지 2개소(경천, 이동)가 사용되었다(Fig. 1). 이러한 수계들은 수면적이 다양하고, 도심지와 농경지, 습지 및 산지 등 다양한 토지 피복형태가 나타나고 수계의 복잡성을 띠고 있어 훈련 및 검증에 적합한 수계로 선정되었다.

Figure 1. Spatial distribution of the reference water body data used for training, validating, and testing the deep-learning models.

테스트 지역으로는 각기 다른 특징이 존재하는 충주댐, 용담댐, 형산강으로 선정하였다. 충주댐은 남한강 유역에서 유일한 다목적 댐으로 소양강댐 다음으로 큰 다목적 댐 중 하나로 2,750,000,000 m3의 총 저수량과 664,800 ha의 유역면적을 가지고 있으며, 토지 사면의 경사가 급하고 주변에는 산림과 농업지가 혼재되어 있어 다양한 환경조건을 제공한다. 용담댐은 금강 최상류에 위치하여 좁은 계곡과 급경사로 이루어져 있는 산악 지형으로 다목적 댐들 중 상대적으로 적은 저수 면적을 가지고 있으며, 산림 및 농경지의 환경으로 분포되어 있다. 형산강은 166,000 ha의 유역면적을 가지고 있으며, 경상북도를 거쳐 동해로 흐르는 가장 긴 하천이다. 주변 환경으로는 저지대에 위치한 농경지와 강 하류로 갈수록 산업단지 및 도시화된 지역으로 인해 다양한 토지 피복 형태가 혼재되어 복합적인 환경을 가지는 특징이 있어 도시화된 환경에서의 수체 변화 탐지를 할 수 있는 여건을 제공한다. Table 1에서는 농촌용수종합정보시스템(https://rawris.ekr.or.kr), 국가수자원관리종합정보시스템(http://www.wamis.go.kr), 하천정보관리시스템(http://www.river.go.kr)에 공개된 각 저수지, 댐, 하천의 제원을 나타낸다.

Table 1 . Target water bodies’ specifications.

Water bodyFull water storage (1,000 m3)Water storage capacity (1,000 m3)Full surface area (ha)Full water level (EL.m)Lowest water leve (EL.m)
Train and validation setDaecheong Dam1,490,000790,000320,40076.5060.00
Daegok Dam36,20027,8005,750120.0091.00
Sayeon Dam30,30020,0006,70060.0045.00
Hoengseong Dam86,90073,40020,900180.00160.00
Soyanggang Dam2,900,0001,900,000270,300193.50150.00
Jangheung Dam191,000171,00019,30082.0055.00
Jangsung Dam103,88399,70712,28090.9566.50
Juam Dam457,000352,000101,000108.5085.00
Naju Dam107,810106,54410,47068.0342.96
Gyeongcheon Reservoir25,60425,3469,76584.2067.45
Idong Reservoir20,94920,9069,30043.0031.30
Test setChungju Dam2,750,0001,789,000664,800141.00110.00
Yongdam Dam815,000672,50093,000263.50228.50
Hyeongsan River--116,600--


2.2. 데이터

2.2.1. PlanetScope

PlanetScope는 Planet Labs Public Benefit Corporation에서 운영하는 광학 센서를 탑재한 200개 이상의 큐브샛(CubeSat) 위성으로 구성된 군집 시스템이다(Valman et al., 2024). 2014년에 Dove Classic (PS2) 위성의 발사를 시작으로, Bayer 패턴과 Pass-band 필터가 개선된 Dove-R (PS2.SD)과 4개의 밴드가 추가된 SuperDove (PSB.SD) 위성군이 지속적으로 발사되었다. PlanetScope는 약 3.7 m의 고해상도로 지표면을 1일의 시간해상도로 촬영하며, PS2.SD는 R-G-B-NIR의 4개의 밴드 영상을, PSB.SD는 8개의 밴드 영상을 제공한다. 본 연구에 서는 지형보정, 대기방사보정, 좌표계 투영이 수행된 Level 3B의 Blue, Green, Red, NIR 영상을 사용하였으며, 국내 수계별 4장씩 총 56장의 영상을 활용하였다. 모델의 훈련 및 검증에는 PSB.SD 영상 43개와 PS2.SD 영상 1개가 사용되었으며 테스트에는 PSB.SD 영상 12개가 사용되었다. PS2.SD와 PSB.SD의 제원은 Table 2에 제시되어 있다.

Table 2 . PlanetScope bands information.

Bands and observation attributePS2.SDPSB.SD
Spectral bandBand 1: Coastal Blue-431–452 nm
Band 2: Blue464–517 nm465–515 nm
Band 3: Green I-513–549 nm
Band 4: Green547–585 nm547–583 nm
Band 5: Yellow-600–620 nm
Band 6: Red650–682 nm650–680 nm
Band 7: Red-Edge-697–713 nm
Band 8: NIR846–888 nm845–885 nm
Ground sample distance3.7–4.1 m3.7–4.2 m
Frame size24 km × 16 km32.5 km × 19.6 km
Revisit timeDaily


2.3. 방법론

2.3.1. NDWI

광학 영상을 기반으로 한 수체 탐지에서는 NDWI가 널리 사용된다(Yang et al., 2017; Singh and Kansal, 2022). 수체 표면은NIR 밴드에서는 낮은 반사 특성이 나타나며, 육지나 식생의 표면은 Green 밴드에서 높은 반사 특성이 나타난다(McFeeters, 1996; Du et al., 2016). NDWI는 두 밴드 간의 반사 특성 차이를 이용하여 식(1)과 같이 계산된다. 본 연구에서는 PS2.SD 영상의 2번 밴드(Green)와 4번 밴드(NIR), 그리고 PSB.SD 영상의 4번 밴드(Green)와 8번 밴드(NIR)를 이용하여 NDWI를 산정하였다. NDWI 값은 –1부터 1 사이에 분포하며, 토양 식생 등 비수체 영역과 비교하여 수체 영역에서 높은 값이 나타난다. 이를 통해 비교적 높은 정확도에서 수체 탐지가 가능하다.

NDWI=GreenNIRGreen+NIR

2.3.2. HRNet

HRNet은 영상의 다양한 해상도에서 정보를 병렬로 처리하도록 설계된 CNN 기반 모델이다(Wang et al., 2020). 전통적인 CNN 모델들은 일반적으로 정보를 점점 축소하면서 특징을 추출하는 반면 HRNet 모델은 여러 해상도의 정보를 병렬로 유지하여 연산을 수행하여 고해상도의 정보를 지속적으로 유지할 수 있다. 기본 구조로 병렬 네트워크로 구성되어 있으며, 각 레이어 마다 다른 해상도의 이미지 특징을 처리하면서 고해상도 특징을 유지한 채 학습이 진행된다. 저해상도의 특징맵(feature map)에서는 객체의 크기와 위치 같은 전역적인 특징을 학습하며, 고해상도의 특징맵에서는 객체의 경계와 같은 세밀한 특징을 학습한다. 또한 크로스 네트워크 연결(cross network connection)을 사용하여 레이어간 특징맵의 연결이 가능하여 고해상도의 세부 정보와 저해상도의 넓은 맥락 정보의 통합이 가능하다. 이러한 모델의 특성으로 고해상도 정보를 유지하면서 기울기 소실 문제를 최소화할 수 있어 안정적이고 효율적인 객체 탐지가 가능하다.

본 연구에서는 수체 탐지를 위한 HRNet 모델의 훈련에 512 × 512 사이즈로 크롭(crop)한 영상을 입력자료로 사용하였다. 이후, 원본 영상과 동일한 사이즈로 수체 탐지 결과를 결합하기 위하여 300 × 300 픽셀 크기로 마진(margin)을 설정하여 각 영상을 합치는 방식을 사용하였다. 512 × 512 크기의 영상을 그대로 사용할 경우 영상의 가장자리 부분에서 탐지 성능이 저하되는 한계점이 존재한다. 이에 마진을 설정함으로써 영상의 가장자리에서도 성능 저하 없이 수체 탐지 결과를 도출하였다.

2.3.3. 검증도구

수체 탐지 분류 모델의 성능을 평가하기 위해 혼동행렬(confusion matrix) 기반 성능 평가 지수를 사용하였다(Table 3). 본 연구에서 예측값은 수체 탐지 결과가 사용되었으며 레이블 자료로는 PlanetScope의 RGB, NIR, NDWI 영상과 환경공간정보서비스의 토지피복 지도를 참조하여 디지타이징(digitizing)한 manual mask 자료가 사용되었다. 혼동행렬 기반 성능 평가 지수로는 분류 모델의 종합적인 정확도 평가를 위한 정확도(Accuracy), Intersection over Union (IoU)이 사용되었으며, 미탐지 평가를 위한 재현율(Recall), 오탐지 평가를 위한 정밀도(Precision), 수체/비수체 픽셀 개수의 불균형한 데이터에서 모델의 성능평가에 효과적인 F1-score가 사용되었다(식 2~6). 모든 평가지표는 0부터 1사이의 값이 나타나며, 그 값이 클수록 탐지 정확도가 높음을 의미한다.

Table 3 . Confusion matrix.

Model prediction
WaterNon-water
LabelWaterTPFN
Non-waterFPTN

TP: True Positive, FN: False Negative, FP: False Positive, TN: True Negative..


Accuracy=TP+TNTP+FN+FP+TN Recall=TPTP+FN Precision=TPTP+FP F1 Score=2×Precision×RecallPrecision+Recall IoU=TPTP+FP+FN

3. 연구 결과 및 토의

3.1. 밴드 조합별 HRNet 모델 학습 성능 평가

Fig. 2는 PlanetScope 위성 영상 밴드 조합별 HRNet 모델의 Validation set의 Accuracy와 Loss 값을 나타낸다. R+G+B 조합은 초기 학습 후 비교적 안정적인 학습이 되었으나, 다른 조합들과 비교하여 Accuracy, Loss 값 모두 가장 낮게 나타났다(Table 4). 이는 단순한 가시광선 정보만으로는 정확한 수체/비수체의 분류에 한계가 있음을 의미한다(Yu et al., 2022). R+G+B+NIR 조합의 경우 학습 초기에는 낮은 Accuracy와 높은 Loss 값이 나타나지만 학습이 진행되는 동안 성능 향상이 나타났다. 수체 픽셀에서 낮은 반사율이 나타나는 NIR 밴드를 추가함으로써 수체와 비수체 픽셀 간의 차이를 더욱 명확하게 구분 가능하다(Wieland et al., 2023). NDWI 밴드만을 사용할 경우 Loss 값의 변동이 자주 발생하였다. R+G+B 조합과 비교하여 전반적인 정확도는 높게 나타났으나 NIR 밴드가 추가된 조합과 비교하여 성능이 다소 떨어졌다(Table 4). NDWI는 수체 탐지에 유용하지만 추가적인 스펙트럼 정보 없이 단독으로 사용할 경우 한계점이 존재하는 것으로 판단된다. G+NIR+NDWI 조합의 경우 학습 초반부터 높은 성능 향상이 나타났으며 Accuracy, Loss 모두 가장 우수한 성능이 나타났다(Table 4). 이는 Green, NIR 밴드 및 NDWI가 결합된 조합에서 수체탐지에 매우 효과적임을 나타낸다.

Figure 2. Training performance variation of HRNet model based on PlanetScope band combinations. (a) Variation of accuracy values. (b) Variation in loss values.

Table 4 . Performance metrics for HRNet model training.

ModelR-G-BR-G-B-NIRNDWIG-NIR-NDWI
Accuracy0.820.850.870.91
Loss0.070.060.060.05


3.2. 수체 탐지 성능 평가

앞선 3.1절에서는 HRNet 모델의 최적 밴드 조합은 Green + NIR + NDWI로 나타났다. 이에 본 절에서는 해당 밴드 조합에서 80,000 iteration에서 학습된 HRNet 모델과 다른 객체 탐지 모델(Otsu, K-means, U-net) 간의 수체 탐지 결과를 비교하여 성능을 평가하였다. Otsu, K-means 모델에서는 NDWI 영상만을 사용하였으며, U-net 모델의 경우 HRNet 모델과 동일한 밴드 조합과 iteration에서 학습 후 수체 탐지를 수행하였다.

Table 5는 각 수체 탐지 모델 별 혼동행렬 결과를 나타낸다. Fig. 3, 4는 테스트셋 수계를 대상으로 수체 탐지 결과를 나타내며, Table 6에 정량적 평가 결과를 기재하였다. Otsu 및 K-means 모델에서의 수체 탐지 결과는 비슷한 패턴을 보였다(Figs. 3c, d; 4c, d). 재현율은 0.97로 미탐지율은 낮게 나타났지만 정밀도는 각각 0.65, 0.70으로 오탐지율이 높게 나타났다. 특히 강과 같은 수체보다 비수체 픽셀의 비율이 높은 영상에서 수체 주변의 건물, 식생에서 오탐지 픽셀이 다수 존재하였다(Figs. 4c, d). Otsu, K-means 기법의 경우 수체/비수체 픽셀의 비율이 균일하지 않을 경우 정확한 수체와 비수체의 분류가 어렵다는 한계점이 존재한다(Jeong et al., 2021; Kim et al., 2024). 또한 NDWI는 건물 같은 인공구조물에서 수체와 유사한 특성이 나타나는 한계점이 존재한다(Kaplan and Avdan, 2017; Lee et al., 2023). 이에 NDWI 만을 사용하는 Otsu, K-means 클러스터링 기법의 경우 건물, 식생 등 비수체 픽셀에서 오탐지율이 높게 나타났다.

Figure 3. Example of water body detection results for Chungju Dam using PlanetScope image and object detection models. (a) RGB image, (b) label image, (c) Otsu, (d) K-means, (e) U-net, and (f) HRNet.
Figure 4. Example of water body detection results for Hyeongsan River using PlanetScope image and object detection models. (a) RGB image, (b) label image, (c) Otsu, (d) K-means, (e) U-net, and (f) HRNet.

Table 5 . Confusion matrix performance of water body detection.

ModelTPFPFNTN
Otsu5002265263169114237822023361
K-means4999740213928714490322515765
U-net503714515745810749824497594
HRNet49919229043215272124564620

Table 6 . Performance metrics of water body detection results for test set.

ModelAccuracyPrecisionRecallIoUF1-score
Otsu0.900.650.970.640.78
K-means0.920.700.970.680.81
U-net0.990.970.970.950.97
HRNet0.990.980.970.960.98


U-net 및 HRNet 모델의 IoU는 각각 0.95, 0.96으로 Otsu, K-means 기법과 비교하여 높은 정확도가 나타났다(Table 6). 이는 복합적인 밴드 조합을 사용하는 딥러닝 기반 모델들이 NDWI만을 단독으로 사용하는 전통적인 모델과 비교하여 높은 정확도에서 수체 탐지가 가능함을 보여준다(Valman et al., 2024). 댐의 경우 딥러닝 모델 모두 수계 경계에서 미탐지 및 오탐지 픽셀도 존재하였지만 높은 정확도에서 수체 탐지가 가능하였다(Figs. 3e, f). 반면 강과 같은 얇은 수계의 경우 HRNet 모델에서는 안정적인 수체 탐지가 가능하였지만, U-net 모델에서는 미탐지 픽셀이 다수 존재하였다(Figs. 4e, f). 이는 U-net 모델의 경우 저해상도 특징맵의 복원 과정에서 복잡하고 작은 객체픽셀의 공간 정보 손실로 좁고 작은 수계의 탐지에 한계점이 존재하는 것으로 판단된다(Li et al., 2023). 반면 HRNet 모델의 경우 계층적이고 병렬적인 네트워크 구조를 가지고 있어 댜양한 해상도의 특징 맵을 동시에 유지하고 있어 공간 정보의 손실 없이 복잡하고 좁은 수계에서도 높은 정확도의 수체 탐지가 가능하였다(Yu et al., 2022).

3.3. 침수 탐지 적용성 평가

Fig. 5는 2022년 9월 7일 형산강을 촬영한 PlanetScope 영상에 HRNet 모델을 적용한 수체 및 침수지역 탐지 결과를 나타내며, Table 7은 혼동행렬 결과를 나타낸다. 파란색 픽셀은 환경공간정보서비스(https://egis.me.go.kr/)의 세분류 토지피복도에서 내륙수(하천, 호소)로 분류된 영역을 나타내며, 빨간색 픽셀은 레이블 영상 및 HRNet 모델 결과의 침수 영역을 나타낸다(Figs. 5b, c). 시각적으로 HRNet 모델은 레이블 영상과 비교하여 수체 및 침수 탐지 시 우수한 성능을 보였지만 복잡한 침수 경계 픽셀에서는 탐지 성능의 저하가 존재하였다. 또한, 정량적인 평가 결과는 Accuracy, IoU, F1-score가 각각 0.98, 0.93, 0.97로 앞선 3.2절의 수체 탐지 결과와 비교하여 정확도가 상대적으로 낮게 나타났다(Fig. 5c, Table 8). 재현율은 0.99로 미탐지율은 매우 낮게 나타났으나 정밀도는 0.94로 오탐지율이 다소 높았다 (Table 8). 진흙이나 습한 토양은 NIR 밴드에서 수체와 유사한 반사 특성이 나타나기 때문에 NIR 및 NDWI 기반 수체 탐지 시 오탐지 픽셀의 탐지 가능성이 존재한다(Mondejar and Tongco, 2019; McGuirk and Cairns, 2024). 이에 침수로 인해 발생한 진흙, 습윤한 토양 및 복잡한 침수 경계 등 비수체 영역에서 오탐지 픽셀도 존재하였다(Fig. 5c). 이를 통해 PlanetScope 영상 및 HRNet 모델을 활용한 침수 지역탐지가 가능함이 확인되었으나 복잡한 침수 지형에서 높은 정확도의 탐지 성능을 위해서는 추가적인 연구가 필요한 것으로 판단된다.

Figure 5. Water and flood area detection results for Hyeongsan River using PlanetScope image and HRNet model. (a) full RGB image, (b) subset RGB images, (c) label images for water bodies, and (d) water and flood area detection results using HRNet model.

Table 7 . Confusion matrix performance of flood detection.

ModelTPFPFNTN
HRNet132992680108125627857524

Table 8 . Performance metrics of water and flood area detection results for Hyeongsan River.

ModelAccuracyPrecisionRecallIoUF1-score
HRNet0.990.940.990.930.97

4. 결론

본 연구에서는 PlanetScope 영상에 HRNet 모델을 적용하여 국내 수계 및 침수 지역을 탐지하고 성능을 정량적으로 평가하였다. 수체 탐지를 위한 최적 밴드 조합을 분석하고, 국내를 대상으로 초소형 위성자료를 통한 고해상도 침수 모니터링의 활용성을 평가하였다는 점에서 그 의미가 있다고 판단된다. 본 연구를 통한 결과는 다음과 같다.

1) HRNet 모델 기반 수체 탐지 시, Green + NIR + NDWI 조합에서 가장 높은 성능이 나타났다. 특히 NIR 밴드가 포함되어 있는 조합에서 훈련 성능이 크게 향상되었다.

2) CNN 기반 모델은 기존의 전통적인 수체 탐지 기법(Otsu, K-means)과 비교하여 높은 탐지 성능이 나타났다. 이는 수체/비수체 픽셀 비율이 불균형 하더라도 NDWI만을 단독으로 사용하는 전통적인 기법과 달리 다양한 밴드 조합을 활용하여 높은 정확도에서 수체탐지가 가능하다.

3) HRNet 모델은 병렬적 네트워크 구조를 통해 다양한 해상도의 특징을 동시에 훈련함으로써 좁고 복잡한 수계에서도 높은 정확도의 수체 탐지가 가능하였다.

4) HRNet 모델은 높은 정확도에서 침수 지역 탐지가 가능하였지만 강우로 인한 진흙 및 습윤한 토양에서 오탐지 픽셀이 다수 존재하였다.

초소형 위성 영상의 경우 높은 시공간해상도를 활용하여 대규모 저수지 및 댐뿐만 아니라 소규모 저수지와 얇은 강에서도 지속적인 수체 탐지가 가능하다. 본 연구를 바탕으로 더욱 높은 정확도에서 수체 탐지가 가능하다면 지역규모의 가용수량 파악을 통하여 효과적인 수자원 관리가 가능할 것으로 기대된다. 추후 국내에서 초소형 군집위성의 개발과 함께 고도화된 딥러닝 기반 수체 탐지 모델이 개발된다면 안정적인 수자원 관리뿐만 아니라 실시간 가뭄 및 홍수 모니터링을 통한 신속하고 효율적인 수재해 대응 체계가 구축될 것으로 예상된다.

사사

본 연구는 과학기술정보통신부의 “초소형위성 군집시스템의 활용 지원시스템 및 활용기술개발(과제번호: 2021M1A3A4A11032019)”의 일환으로 수행되었습니다. 본 연구는 교육부 및 한국연구재단의 4단계 두뇌한국21 사업(4단계 BK21 사업)과 국토교통부의 스마트시티 혁신인재육성사업으로 지원되었습니다.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

Fig 1.

Figure 1.Spatial distribution of the reference water body data used for training, validating, and testing the deep-learning models.
Korean Journal of Remote Sensing 2024; 40: 617-627https://doi.org/10.7780/kjrs.2024.40.5.1.16

Fig 2.

Figure 2.Training performance variation of HRNet model based on PlanetScope band combinations. (a) Variation of accuracy values. (b) Variation in loss values.
Korean Journal of Remote Sensing 2024; 40: 617-627https://doi.org/10.7780/kjrs.2024.40.5.1.16

Fig 3.

Figure 3.Example of water body detection results for Chungju Dam using PlanetScope image and object detection models. (a) RGB image, (b) label image, (c) Otsu, (d) K-means, (e) U-net, and (f) HRNet.
Korean Journal of Remote Sensing 2024; 40: 617-627https://doi.org/10.7780/kjrs.2024.40.5.1.16

Fig 4.

Figure 4.Example of water body detection results for Hyeongsan River using PlanetScope image and object detection models. (a) RGB image, (b) label image, (c) Otsu, (d) K-means, (e) U-net, and (f) HRNet.
Korean Journal of Remote Sensing 2024; 40: 617-627https://doi.org/10.7780/kjrs.2024.40.5.1.16

Fig 5.

Figure 5.Water and flood area detection results for Hyeongsan River using PlanetScope image and HRNet model. (a) full RGB image, (b) subset RGB images, (c) label images for water bodies, and (d) water and flood area detection results using HRNet model.
Korean Journal of Remote Sensing 2024; 40: 617-627https://doi.org/10.7780/kjrs.2024.40.5.1.16

Table 1 . Target water bodies’ specifications.

Water bodyFull water storage (1,000 m3)Water storage capacity (1,000 m3)Full surface area (ha)Full water level (EL.m)Lowest water leve (EL.m)
Train and validation setDaecheong Dam1,490,000790,000320,40076.5060.00
Daegok Dam36,20027,8005,750120.0091.00
Sayeon Dam30,30020,0006,70060.0045.00
Hoengseong Dam86,90073,40020,900180.00160.00
Soyanggang Dam2,900,0001,900,000270,300193.50150.00
Jangheung Dam191,000171,00019,30082.0055.00
Jangsung Dam103,88399,70712,28090.9566.50
Juam Dam457,000352,000101,000108.5085.00
Naju Dam107,810106,54410,47068.0342.96
Gyeongcheon Reservoir25,60425,3469,76584.2067.45
Idong Reservoir20,94920,9069,30043.0031.30
Test setChungju Dam2,750,0001,789,000664,800141.00110.00
Yongdam Dam815,000672,50093,000263.50228.50
Hyeongsan River--116,600--

Table 2 . PlanetScope bands information.

Bands and observation attributePS2.SDPSB.SD
Spectral bandBand 1: Coastal Blue-431–452 nm
Band 2: Blue464–517 nm465–515 nm
Band 3: Green I-513–549 nm
Band 4: Green547–585 nm547–583 nm
Band 5: Yellow-600–620 nm
Band 6: Red650–682 nm650–680 nm
Band 7: Red-Edge-697–713 nm
Band 8: NIR846–888 nm845–885 nm
Ground sample distance3.7–4.1 m3.7–4.2 m
Frame size24 km × 16 km32.5 km × 19.6 km
Revisit timeDaily

Table 3 . Confusion matrix.

Model prediction
WaterNon-water
LabelWaterTPFN
Non-waterFPTN

TP: True Positive, FN: False Negative, FP: False Positive, TN: True Negative..


Table 4 . Performance metrics for HRNet model training.

ModelR-G-BR-G-B-NIRNDWIG-NIR-NDWI
Accuracy0.820.850.870.91
Loss0.070.060.060.05

Table 5 . Confusion matrix performance of water body detection.

ModelTPFPFNTN
Otsu5002265263169114237822023361
K-means4999740213928714490322515765
U-net503714515745810749824497594
HRNet49919229043215272124564620

Table 6 . Performance metrics of water body detection results for test set.

ModelAccuracyPrecisionRecallIoUF1-score
Otsu0.900.650.970.640.78
K-means0.920.700.970.680.81
U-net0.990.970.970.950.97
HRNet0.990.980.970.960.98

Table 7 . Confusion matrix performance of flood detection.

ModelTPFPFNTN
HRNet132992680108125627857524

Table 8 . Performance metrics of water and flood area detection results for Hyeongsan River.

ModelAccuracyPrecisionRecallIoUF1-score
HRNet0.990.940.990.930.97

References

  1. Bijeesh, T. V., and Narasimhamurthy, K. N., 2020. Surface water detection and delineation using remote sensing images: A review of methods and algorithms. Sustainable Water Resources Management, 6(4), 68. https://doi.org/10.1007/s40899-020-00425-4
  2. Chen, L., Cai, X., Xing, J., Li, Z., Zhu, W., and Yuan, Z., et al, 2023. Towards transparent deep learning for surface water detection from SAR imagery. International Journal of Applied Earth Observation and Geoinformation, 118, 103287. https://doi.org/10.1016/j.jag.2023.103287
  3. Choi, S., Youn, Y., Kang, J., Park, G., Kim, G., and Lee, S., et al, 2022. An artificial intelligence approach to water-body detection of the agricultural reservoirs in South Korea using Sentinel-1 SAR images. Korean Journal of Remote Sensing, 38(5-3), 925-938. https://doi.org/10.7780/kjrs.2022.38.5.3.10
  4. Cordeiro, M. C., Martinez, J. M., and Peña-Luque, S., 2021. Automatic water detection from multidimensional hierarchical clustering for Sentinel-2 images and a comparison with Level 2A processors. Remote Sensing of Environment, 253, 112209. https://doi.org/10.1016/j.rse.2020.112209
  5. Delaney, C., Li, X., Holmberg, K., Wilson, B., Heathcote, A., and Nieber, J., 2022. Estimating lake water volume with regression and machine learning methods. Frontiers in Water, 4, 886964. https://doi.org/10.3389/frwa.2022.886964
  6. Du, Y., Zhang, Y., Ling, F., Wang, Q., Li, W., and Li, X., 2016. Water bodies' mapping from Sentinel-2 imagery with modified normalized difference water index at 10-m spatial resolution produced by sharpening the SWIR band. Remote Sensing, 8(4), 354. https://doi.org/10.3390/rs8040354
  7. Freitas, P., Vieira, G., Canário, J., Vincent, W. F., Pina, P., and Mora, C., 2024. A trained Mask R-CNN model over PlanetScope imagery for very-high resolution surface water mapping in boreal forest-tundra. Remote Sensing of Environment, 304, 114047. https://doi.org/10.1016/j.rse.2024.114047
  8. Guo, Z., Wu, L., Huang, Y., Guo, Z., Zhao, J., and Li, N., 2022. Water-body segmentation for SAR images: Past, current, and future. Remote Sensing, 14(7), 1752. https://doi.org/10.3390/rs14071752
  9. Jeong, J., Oh, S., Lee, S., Kim, J., and Choi, M. H., 2021. Sentinel-1 SAR image-based waterbody detection technique for estimating the water storage in agricultural reservoirs. Journal of Korea Water Resources Association, 54(7), 535-544. https://doi.org/10.3741/JKWRA.2021.54.7.535
  10. Jiang, W., Ni, Y., Pang, Z., Li, X., Ju, H., He, G., and Qin, X., 2021. An effective water body extraction method with new water index for Sentinel-2 imagery. Water, 13(12), 1647. https://doi.org/10.3390/w13121647
  11. Kang, J., Guan, H., Ma, L., Wang, L., Xu, Z., and Li, J., 2023. WaterFormer: A coupled transformer and CNN network for waterbody detection in optical remotely-sensed imagery. ISPRS Journal of Photogrammetry and Remote Sensing, 206, 222-241. https://doi.org/10.1016/j.isprsjprs.2023.11.006
  12. Kaplan, G., and Avdan, U., 2017. Object-based water body extraction model using Sentinel-2 satellite imagery. European Journal of Remote Sensing, 50(1), 137-143. https://doi.org/10.1080/22797254.2017.1297540
  13. Kavats, O., Khramov, D., and Sergieieva, K., 2022. Surface water mapping from SAR images using optimal threshold selection method and reference water mask. Water, 14(24), 4030. https://doi.org/10.3390/w14244030
  14. Kim, W., Jeong, J., and Choi, M., 2022. Evaluation of reservoir monitoring-based hydrological drought index using Sentinel-1 SAR waterbody detection technique. Korean Journal of Remote Sensing, 38(2), 153-166. https://doi.org/10.7780/kjrs.2022.38.2.2
  15. Kim, W., Lee, S., and Choi, M., 2024. A comparative study of remotely sensed reservoir monitoring across multiple land cover types. Science of The Total Environment, 948, 174678. https://doi.org/10.1016/j.scitotenv.2024.174678
  16. Krishna, K., and Murty, M. N., 1999. Genetic K-means algorithm. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 29(3), 433-439. https://doi.org/10.1109/3477.764879
  17. Lee, S., Jeong, J., Oh, S., Jeong, H., and Choi, M., 2022. Multi-resolution SAR image-based agricultural reservoir monitoring. Korean Journal of Remote Sensing, 38(5-1), 497-510. https://doi.org/10.7780/kjrs.2022.38.5.1.5
  18. Lee, S., Kim, W., Cho, S., Jeon, H., and Choi, M., 2023. Water resources monitoring technique using multi-source satellite image data fusion. Journal of Korea Water Resources Association, 56(8), 497-508. https://doi.org/10.3741/JKWRA.2023.56.8.497
  19. Li, J., Ma, R., Cao, Z., Xue, K., Xiong, J., Hu, M., and Feng, X., 2022a. Satellite detection of surface water extent: A review of methodology. Water, 14(7), 1148. https://doi.org/10.3390/w14071148
  20. Li, J., Meng, Y., Li, Y., Cui, Q., Yang, X., Tao, C., and Zhang, W., 2022b. Accurate water extraction using remote sensing imagery based on normalized difference water index and unsupervised deep learning. Journal of Hydrology, 612, 128202. https://doi.org/10.1016/j.jhydrol.2022.128202
  21. Li, Z., and Demir, I., 2023. U-net-based semantic classification for flood extent extraction using SAR imagery and GEE platform: A case study for 2019 central US flooding. Science of The Total Environment, 869, 161757. https://doi.org/10.1016/j.scitotenv.2023.161757
  22. Ling, F., Boyd, D., Ge, Y., Foody, G. M., Li, X., Wang, L., and Du, Y., 2019. Measuring river wetted width from remotely sensed imagery at the subpixel scale with a deep convolutional neural network. Water Resources Research, 55(7), 5631-5649. https://doi.org/10.1029/2018WR024136
  23. McFeeters, S. K., 1996. The use of the Normalized Difference Water Index (NDWI) in the delineation of open water features. International Journal of Remote Sensing, 17(7), 1425-1432. https://doi.org/10.1080/01431169608948714
  24. McGuirk, S. L., and Cairns, I. H., 2024. Relationships between soil moisture and Visible-NIR soil reflectance: A review presenting new analyses and data to fill the gaps. Geotechnics, 4(1), 78-108. https://doi.org/10.3390/geotechnics4010005
  25. Mondejar, J. P., and Tongco, A. F., 2019. Near infrared band of Landsat 8 as water index: A case study around Cordova and Lapu-Lapu City, Cebu, Philippines. Sustainable Environment Research, 29, 1-15. https://doi.org/10.1186/s42834-019-0016-5
  26. Otsu, N., 1975. A threshold selection method from gray-level histograms. Automatica, 11(285-296), 23-27.
  27. Peña, F. J., Hübinger, C., Payberah, A. H., and Jaramillo, F., 2024. DeepAqua: Semantic segmentation of wetland water surfaces with SAR imagery using deep neural networks without manually annotated data. International Journal of Applied Earth Observation and Geoinformation, 126, 103624. https://doi.org/10.1016/j.jag.2023.103624
  28. Qin, P., Cai, Y., and Wang, X., 2021. Small waterbody extraction with improved U-Net using Zhuhai-1 hyperspectral remote sensing images. IEEE Geoscience and Remote Sensing Letters, 19, 1-5. https://doi.org/10.1109/LGRS.2020.3047918
  29. Ronneberger, O., Fischer, P., and Brox, T., 2015. U-Net: Convolutional networks for biomedical image segmentation. In: Navab, N., Hornegger, J., Wells, W., Frangi, A., (eds.), Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Springer, pp. 234-241. https://doi.org/10.1007/978-3-319-24574-4_28
  30. Singh, S., and Kansal, M. L., 2022. Chamoli flash-flood mapping and evaluation with a supervised classifier and NDWI thresholding using Sentinel-2 optical data in Google Earth Engine. Earth Science Informatics, 15(2), 1073-1086. https://doi.org/10.1007/s12145-022-00786-8
  31. Valman, S. J., Boyd, D. S., Carbonneau, P. E., Johnson, M. F., and Dugdale, S. J., 2024. An AI approach to operationalise global daily PlanetScope satellite imagery for river water masking. Remote Sensing of Environment, 301, 113932. https://doi.org/10.1016/j.rse.2023.113932
  32. Wang, G., Chen, G., Sui, B., Quan, L. A., Ni, E. R., and Zhang, J., 2024. Surface water extraction from high-resolution remote sensing images based on an improved U-net network model. Earth Science Informatics, 17, 2555-2568. https://doi.org/10.1007/s12145-024-01306-6
  33. Wang, J., Sun, K., Cheng, T., Jiang, B., Deng, C., Zhao, Y., and Xiao, B., 2020. Deep high-resolution representation learning for visual recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43(10), 3349-3364. https://doi.org/10.1109/TPAMI.2020.2983686
  34. Wieland, M., Martinis, S., Kiefl, R., and Gstaiger, V., 2023. Semantic segmentation of water bodies in very high-resolution satellite and aerial images. Remote Sensing of Environment, 287, 113452. https://doi.org/10.1016/j.rse.2023.113452
  35. Xu, Y., Lin, J., Zhao, J., and Zhu, X., 2021. New method improves extraction accuracy of lake water bodies in Central Asia. Journal of Hydrology, 603, 127180. https://doi.org/10.1016/j.jhydrol.2021.127180
  36. Yang, L., Driscol, J., Sarigai, S., Wu, Q., Lippitt, C. D., and Morgan, M., 2022. Towards synoptic water monitoring systems: A review of AI methods for automating water body detection and water quality monitoring using remote sensing. Sensors, 22(6), 2416. https://doi.org/10.3390/s22062416
  37. Yang, X., Qin, Q., Grussenmeyer, P., and Koehl, M., 2018. Urban surface water body detection with suppressed built-up noise based on water indices from Sentinel-2 MSI imagery. Remote Sensing of Environment, 219, 259-270. https://doi.org/10.1016/j.rse.2018.09.016
  38. Yang, X., Zhao, S., Qin, X., Zhao, N., and Liang, L., 2017. Mapping of urban surface water bodies from Sentinel-2 MSI imagery at 10 m resolution via NDWI-based image sharpening. Remote Sensing, 9(6), 596. https://doi.org/10.3390/rs9060596
  39. Yu, Y., Huang, L., Lu, W., Guan, H., Ma, L., Jin, S., and Li, J., 2022. WaterHRNet: A multibranch hierarchical attentive network for water body extraction with remote sensing images. International Journal of Applied Earth Observation and Geoinformation, 115, 103103. https://doi.org/10.1016/j.jag.2022.103103
  40. Yuan, Q., Wu, L., Huang, Y., Guo, Z., and Li, N., 2023. Water-body detection from spaceborne SAR images with DBO-CNN. IEEE Geoscience and Remote Sensing Letters, 20, 4013405. https://doi.org/10.1109/LGRS.2023.3325939
KSRS
October 2024 Vol. 40, No.5, pp. 419-879

Share

  • line

Related Articles

Korean Journal of Remote Sensing