Korean J. Remote Sens. 2024; 40(6): 991-1004
Published online: December 31, 2024
https://doi.org/10.7780/kjrs.2024.40.6.1.10
© Korean Society of Remote Sensing
이도이1, 손상훈2, 배재구2, 박소련3, 이성혁3, 서정민4, 김예지5, 최민하6, 이양원7, 김진수7*
1부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석/박사통합과정생
2부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사수료생
3부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사과정생
4부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석사과정생
5항공우주연구원 위성활용부 연구원
6성균관대학교 건설환경공학부 교수
7부경대학교 지구환경시스템과학부 위성정보융합공학전공 교수
Correspondence to : Jinsoo Kim
E-mail: jinsookim@pknu.ac.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Wildfire damage detection has a pivotal role in forest management and recovery strategy planning. This study demonstrates that the use of a deep learning Swin (shifted windows) Transformer model, by integrating high-resolution PlanetScope and Sentinel-2 satellite imagery, can effectively enhance wildfire damage detection performance. A 5-fold cross-validation was conducted on five major wildfire areas in South Korea, with independent detection performance evaluated for each region to assess the model’s reliability and generalization. The comparison between traditional geometric augmentation methods and the AugMix method showed that AugMix resulted in a more consistent and improved performance, achieving an average F1-score of 76.48. Furthermore, the model incorporating Sentinel-2 data achieved an average F1-score of 81.06 across regions, confirming an improvement in detection accuracy and performance in identifying burned areas. This demonstrates that combining the complementary spatial and spectral information from both datasets allows for higher accuracy and precision in detecting wildfire damage. The high correlation coefficients between PlanetScope and Sentinel-2 data support the effective potential of multi-satellite fusion approaches. This study suggests that the use of multi-satellite imagery, through independent regional evaluation, can enhance the precision and reliability of wildfire damage detection.
Keywords Wildfire burned areas detection, Swin transformer, Multi-satellite fusion, PlanetScope, Sentinel-2
전 세계적으로 산불은 생태계뿐만 아니라 재산과 안전에도 심각한 위협을 가하고 있다(Vilà-Vilardell et al., 2020). 2022년 한국의 대규모 산불은 겨울철 건조한 날씨와 가뭄이 산불 위험을 크게 높일 수 있음을 보여주었으며(Chang et al., 2024), 산불 발생 후 넓은 지역의 피해 범위를 신속하고 정확하게 탐지하기 위해 위성영상의 활용이 매우 중요해졌다(Payra et al., 2023). 위성 광학영상은 산불 전후의 분광 특성을 반영하여 피해지를 탐지하는 데 유용하지만, 구름이나 기상 조건에 영향을 받는 단점이 있어 영상 획득 주기가 길어질 수 있다(Lee et al., 2017; Park et al., 2019). 예를 들어, 유럽우주국(European Space Agency, ESA)에서 운용하는 Sentinel-2는 5일의 시간 해상도로 영상을 제공하지만, 기상 상태가 좋지 않으면 영상 획득이 지연되어 산불 피해지 탐지에 어려움이 존재한다(Kim et al., 2023). 이와 같은 한계를 보완하고자, 다종위성을 활용하여 신뢰도 높은 탐지 결과를 얻는 연구가 주목받고 있다. Shendryk et al. (2018)은 PlanetScope와 Sentinel-2 영상을 융합하여 구름, 그림자, 토지피복을 더욱 정확하게 분류하는 연구를 수행했으며, Tayer et al. (2023)은 이 두 위성의 융합을 통해 신뢰도 높은 수체 탐지 워크플로우(workflow)를 제시하였다. 이러한 다종위성영상 기반의 융합 접근법은 산불 발생 이후 정밀하고 효율적인 피해지 탐지에 기여할 가능성이 높다. 다만 이러한 접근에서는 센서의 차이, 궤도 구성, 대기 효과 등에 따른 오류를 최소화하기 위한 고려가 필요하다(Chung et al., 2020). 서로 다른 위성에서 수집된 영상을 조합하는 다종위성영상 접근 방식은 이러한 조건을 고려함으로써 더욱 정밀하고 효율적인 산불 피해지 탐지를 가능하게 한다는 점에서 중요한 의미를 가진다(Park et al., 2023; Zhang et al., 2024).
최근에는 인공지능, 그중에서도 딥러닝 기법이 위성영상을 활용한 산불 피해지 탐지에 널리 적용되고 있다. 딥러닝은 머신러닝을 넘어 다양한 분야에서 성공적으로 적용되며 기존 탐지 기법보다 높은 정확도와 신뢰성을 제공하고 있다. 컨볼루션 신경망(ConvolutionalNeural Network, CNN)은 이미지 내 특징을 추출하고 패턴을 학습하는데 유리하여, 산불 피해지 탐지와 같은 이미지 분류 및 객체 검출 작업에서 많이 활용되어 왔다(Rashkovetsky et al., 2021; Ghali and Akhloufi, 2023). 그러나 CNN은 장거리 의존성을 모델링하는데 한계가 있어 넓은 지역의 위성 영상을 분석하는데 효율성이 떨어질 수 있다. 이에 따라 VisionTransformer와 같은 모델이 도입되었으며(Dosovitskiy, 2020), Swin (shifted windows) Transformer는 Local Self-Attention 메커니즘을 통해 더 넓은 범위의 공간 정보를 효율적으로 학습할 수 있는 장점을 지닌다(Liu et al., 2021). 이러한 특징덕분에 Swin Transformer는 기존의 CNN 기반 모델에 비해 고해상도 이미지에서 복잡한 패턴과 세부 공간 관계를 효과적으로 학습할 수 있어(Thisanke et al., 2023), 다종위성영상의 융합 및 산불피해 탐지 성능을 더욱 향상시킬 수 있는 가능성을 제시한다.
본 연구에서는 PlanetScope 위성영상을 기반으로 Swin Transformer 모델을 적용하여 산불 피해지 탐지 성능을 평가하고, Sentinel-2 데이터를 추가 활용했을 때의 성능을 비교 분석하고자 한다. 이를 통해 다종위성영상 융합이 탐지 성능을 얼마나 개선할 수 있는지 실험적으로 평가하여 산불 피해지 탐지의 신뢰성을 향상시키고자 한다.
본 연구는 2022년에서 2023년 사이에 발생한 5개의 국내 대형산불을 대상으로 분석을 수행하였다(Fig. 1). 산림청 산불통계연보에 따르면, 선정된 산불지역은 피해 규모가 큰 지역들로 도심지와 인접해 있어 산불 모니터링과 피해 복구 관리가 필수적인 곳들이다(Korea Forest Service, 2023; 2024). 이 중 대부분의 산불은 봄철 건조한 기후와 강풍이 겹치는 4월과 5월에 발생하였다. 또한, 연구 대상지의 산불 발생원인은 담뱃불 실화, 원인 미상, 쓰레기 소각 등 주로 인위적인 요인에 의한 것으로 파악되었다(Korea Forest Service, 2023; 2024). 인위적 요인으로 인해 산불은 언제, 어디서 발생할지 예측하기 어려워 모니터링과 빠른 대응이 더욱 중요하다. 이는 다양한 환경 조건과 지역적 특성을 반영하여 산불의 불규칙성과 지역적 차이를 효과적으로 탐지할 수 있는 모델 개발의 중요성을 강조한다. 연구지역의 산불에 대한 세부정보는 Table 1과 같다.
Table 1 Details of wildfire-affected study areas
Region | Event date | Damaged area (ha) |
---|---|---|
Yanggu-eup, Yanggu-gun, Gangwon-do | 2022.04.10. | 759 |
Bubuk-myeon, Miryang-si, Gyeongsangnam-do | 2022.05.31. | 660.82 |
Seobu-myeon, Hongseong-gun, Chungcheongnam-do | 2023.04.02. | 889.36 |
Boksu-myeon, Geumsan-gun, Chungcheongnam-do | 2023.04.02. | 1,337 |
Daedong-myeon, Hampyeong-gun, Jeollanam-do | 2023.04.03. | 681.72 |
본 연구에서는 PlanetScope와 Sentinel-2 위성영상 자료를 사용하였다. PlanetScope는 Planet Labs 에서 운용중인 군집위성 시스템으로, 130개 이상의 큐브샛 (CubeSat)으로 구성되어 구성되어 있어 매일 재방문하여 관측할 수 있는 특징을 갖고 있다(Planet Lab, 2023). 센서에 따라 Dove-Classic, Dove-R 및 Super Dove 위성군으로 나뉘며, 가시광선(visible, VIS), 근적외선(near infrared, NIR) 밴드 포함 최대 8개의 분광밴드 정보를 약 3 m의 공간해상도로 제공한다. 연구에 사용된 PlanetScope 위성영상은 대기보정을 포함하여 방사, 정사 및 센서 보정이 적용된 Level-3B (L3B) PlanetScope 영상을 사용하였다. Sentinel-2 위성은 유럽 우주국(ESA)에서 운영하는 고해상도 위성으로 광범위한 지역을 커버하며, Sentinel-2A와 2B가 함께 운용될 경우 최대 5일 간격으로 동일 지역을 재방문할 수 있다(Drusch et al., 2012). Sentinel-2는 VIS, NIR, 중적외선(short wave infrared, SWIR) 등을 포함한 13개의 분광 밴드를 제공하며, 10 m, 20 m, 60 m의 다양한 공간 해상도를 지원하여 토지피복 및 재해 모니터링에 유용하게 활용된다. 연구에 사용된 PlanetScope와 Sentinel-2 위성의 재원은 Table 2에 제시되어있다. PlanetScope만을 사용할 경우와 Sentinel-2 영상을 추가하여 융합했을 때의 딥러닝 모델 성능 비교를 위해, 산불 발생 시점과 근접한 날짜의 PlanetScope 영상과 그와 가장 가까운 시기의 Sentinel-2 영상을 수집하였다. 수집된 데이터는 Table 3에 정리되어 있으며, 각 위성영상의 촬영날짜와 Scene ID가 포함되어 있다.
Table 2 The specifications of the PlanetScope and Sentinel-2 satellites applied in the study
Source | PlanetScope | Sentinel-2 |
---|---|---|
Sensor Type | Super Dove (PSB.SD) | Multispectral Instrument (MSI) |
Pixel Resoultion (m) | 3 | 10, 20, and 60 |
Revisit Time | Daily | 5 days |
Orbit Height | 475 km | 786 km |
Band Type | 8 bands: Coastal Blue, Blue, Green, Yellow, Red, and NIR | 13 bands: Coastal Aerosol, Blue, Green, Red, NIR, and SWIR |
Applied Spectral Band Wavelengths (nm) | Green (B4): 547–583 Red (B6): 650–680 NIR (B8): 845–885 | Green (B3): 543–578 Red (B4): 650–680 NIR (B8): 785–900 |
Table 3 Satellite Scene ID collected by study area
Satellite | Region | Scene ID |
---|---|---|
PlanetScope | Yanggu | 20220415_020617_63_227b |
Miryang | 20220603_020423_84_2402 | |
Hongseong | 20230409_015817_15_2475 | |
Geumsan | 20230410_015709_50_2498 | |
Hampyeong | 20230410_012651_14_24b9 | |
Sentinel-2 | Yanggu | S2A_MSIL1C_20220417T021611_N0400_R003_T52SDH_20220417T040757 |
Miryang | S2A_MSIL1C_20220603T020701_N0400_R103_T52SDE_20220603T042511 | |
Hongseong | S2A_MSIL1C_20230422T021531_N0509_R003_T52SBF_20230422T040212 | |
Geumsan | S2A_MSIL1C_20230412T021531_N0509_R003_T52SCF_20230412T043905 | |
Hampyeong S2B_MSIL1C_20230427T021539_N0509_R003_T52SBD_20230427T040200 |
본 연구에서는 PlanetScope와 Sentinel-2 위성 영상을 활용하여 산불 피해 탐지 딥러닝 모델을 구축하고, 각 위성 영상에 대한 전처리 과정을 수행하였다(Fig 2). PlanetScope는 대기보정 등 영상보정이 완료된 상태인 L3B 자료로 제공되어 바로 사용이 가능하다. 반면, Sentinel-2 데이터는 PlanetScope와의 해상도 일치를 위해 쌍입방 보간법(bicubic interpolation) 방법을 적용하여 3 m로 리샘플링하였다. 그리고 top of atmosphere (TOA) 반사도 값을 갖는 Level-1C데이터를 Sen2Cor v2.11 대기보정 프로세스를 통해 bottomof atmosphere (BOA) 반사도 값을 Level-2A 영상으로 처리되었다(Louis et al., 2016).
이후 두 데이터에 다음과 같은 일련의 전처리 과정을 적용하였다. 첫째, region of interest (ROI) 폴리곤(polygon)을 사용하여 위성영상별 분석 대상 지역을 동일하게 추출하였다. 둘째, 2–98%로 히스토그램 스트레칭(histogram stretching)을 수행하여 영상의 대비를 향상시키고 이상치(outlier)를 제거하였다. 이는 이미지의 하위 2%와 상위 2% 픽셀 값을 제외하고 나머지 픽셀 값들만을 확장시켜 이미지의 시각적 품질을 개선하며, 모델이 중요한 특징을 더 잘 학습할 수 있도록 돕는다. 셋째, 정규화를 수행하여 이미지의 픽셀 값 범위를 1에서 255 사이로 통일시켰다. NoData 값은 0으로 설정되어 제외되며 나머지 픽셀 값들은 해당 범위로 정규화된다. 이 정규화는 모델의 안정적인 학습을 돕고, 각 픽셀 값이 동일한 범위에 존재하도록 하여 학습이 과도하게 한 범위에 집중되는 현상을 방지한다. 마지막으로 선행 연구에서 성능이 입증된 R-NIR-G 가색 영상을 사용하였다(Park et al., 2018; Lee et al., 2024). 이를 위해Green, Red, NIR 밴드를 사용하여 R-NIR-G 가색영상을 생성하였다.
딥러닝 모델을 기반으로 의미론적 분할(semantic segmentation)을 수행하기 위해 Transformer 계열 모델인 Swin Transformer를 사용하였다(Fig. 4). Swin Transformer는 계층적인 구조로 이미지의 특징을 학습하며, self attention을 통해 높은 정확도를 보이는 모델이다(Liu et al., 2021). 이 모델은 기존 Vision Transformer의 구조를 컴퓨터 비전 작업에 맞게 효율적으로 변형한 것으로 이미지 분류, 객체 탐지, 의미론적 분할 등 다양한 비전 작업에서 뛰어난 성능을 보이고 있다(Aleissaee et al., 2023). Swin Transformer는 모델의 크기와 복잡도에 따라 Tiny (Swin-T), Small (Swin-S), Base (Swin-B), Large (Swin-L)로 나뉜다. 각 모델 크기에 따라 임베딩 차원(embedding dimension)과 블록 구조가 달라지며, 그에 따라 모델의 파라미터(parameter) 수와 계산 복잡도에도 차이가 난다..
딥러닝 분석을 수행하기 위해서는 명확한 레이블 작성이 필수적이다. 본 연구에서는 반자동 레이블 작성을 위해 ImageJ (https://imagej.net/)의 Fiji 프로그램을 사용하였다. Fiji는 이미지 처리 및 분석에 특화된 오픈 소스 소프트웨어로 다양한 플러그인과 기능을 통해 사용자 친화적인 인터페이스를 제공한다(Arzt et al., 2022). 레이블 생성 과정에서 RGB (true color) 및 R-NIR-G (false color) 영상을 활용하여 명확한 레이블 작성을 수행하고자 했으며, 수동으로 미세조정하여 각 영역의 특성을 보다 세밀하게 반영할 수 있었다.
딥러닝 훈련 자료를 구축하기 위해 전처리가 완료된 영상과 레이블을 256 × 256 패치(patch) 크기로 분할하였다. 패치 크기를 256 × 256으로 설정한 것은 산불피해 탐지에 필요한 지역 특성 정보를 충분히 반영할 수 있으면서도 모델이 효율적으로 학습할 수 있도록 하기 위함이다. 또한, 패치 간의 정보 손실을 최소화하고 연속적인 공간적 특성을 반영하기 위해 10%씩 오버랩(overlap)하여 패치를 생성하였다. 이렇게 분할한 후 값이 존재하지 않는 패치를 제외하고 PlanetScope와 Sentinel-2 각각 753장의 유효한 패치 영상이 생성되었다. 이후, 5개의 산불 지역에 대해 5-fold 교차검증 방식을 적용하여 각 지역을 테스트 세트로 삼고 나머지 4개 지역을 훈련 및 검증용으로 활용하였다. 이 과정은 엄격한 기준에서 각 지역의 특성을 균형 있게 반영하고 특정 지역에 대한 과도한 의존을 방지하여 모델의 안정성과 신뢰성을 높이는 데 기여한다.
연구에 사용된 산불사례는 대형 산불에 해당하지만 전체 위성 영상의 크기에 비해 산불 피해지가 차지하는 비율이 작아 딥러닝 모델 학습 시 과적합(overfitting) 위험이 존재한다. 이를 완화하고 훈련 데이터를 확장하기 위해 데이터 증강기법을 사용하였다. 증강기법으로는 보편적으로 사용되는 기하학적 변형에 의한 증강방법과 Hendrycks et al. (2019)이 제안한AugMix의 두 가지 방법을 사용하여 비교함으로써 각 증강기법이 모델의 성능에 미치는 영향을 평가하고자 하였다(Fig. 5). 기하학적 변형에 의한 증강방법은 회전, 왜곡, 밝기·대비 조정, 노이즈 추가 등을 사용하여 원본 영상을 다양화한다. AugMix는 강인성(robustness) 향상을 목표로 원본 영상과 증강된 영상 간의 분포 차이가 크게 나지 않도록 혼합된 형태의 영상을 생성하며, 다양한 환경에서도 일관된 성능을 유지할 수 있다는 장점이 있다(Hendrycks et al., 2019). 이 과정에서 각 fold에 테스트 지역으로 할당된 패치는 증강에서 제외하고, 훈련에 사용될 패치들을 3배로 증강하여 딥러닝 훈련자료로 사용하였다.
연구에서는 사전 테스트에서 가장 우수한 성능을 보인 Swin-B Transformer 모델을 백본(backbone)으로 사용하고, UPerNet을 디코더 헤드로 적용하였다. Swin-B 모델의 임베딩 차원인 128로 설정하고, {2, 2, 18, 2} 구조를 적용하여 다양한 스케일에서 효율적인 특징 추출이 가능하도록 구성하였다(Fig. 5). 또한, 7 × 7 윈도우 크기를 사용하여 지역 및 전체적인 문맥 정보를 효과적으로 학습하도록 구성하였다. 산불과 비산불 영역의 클래스 불균형 문제를 해결하기 위해 Focal Loss를 손실 함수로 사용하였다. Focal Loss는 기존의 Binary Cross Entropy 손실 함수에 조정 인자를 추가하여 손실이 적은 쉬운 예시의 기여도를 줄이고 어려운 예시에 더 큰 가중치를 부여함으로써 모델이 복잡한 예시에도 집중할 수 있도록 한다(Jadon, 2020). 이때 조정 인자 γ값이 높을수록 어려운 예시에 대한 가중치가 증가하여 클래스 불균형 상황에서의 성능을 개선하는 데 효과적이다.
산불피해 탐지 성능을 최적화하기 위해 Swin Transformer 모델을 학습하는 과정에서AdamW옵티마이저를 사용하고, 학습률(learning rate)을 6 × 10–5으로, weight decay를 5 × 10–5으로 하이퍼파라미터를 설정하였다. 학습은 배치 크기 16으로 60,000번의 반복(iteration) 동안 진행되었으며, 적용된 하이퍼파라미터는 Table 4에 요약되어 있다.
Table 4 Hyperparameters used in the Swin Transformer model for detecting wildfire-burned areas
Model | Swin Transformer |
---|---|
Input patch size | 256 × 256 |
Window size | 7 |
Loss function | Focal Loss |
Iteration | 60,000 |
Optimizer | AdamW |
Batch size | 16 |
Learning rate | 6 × 10–5 |
weight decay | 5 × 10–5 |
Output | Probability map |
Swin Transformer 모델의 성능을 정량적으로 평가하기 위해 산불피해 탐지성능을 정확도(accuracy), 정밀도(precision), 재현율(recall), F1-score 및 intersection over union (IoU) 지표를 사용하여 종합적으로 분석하였다. 각 평가지표는 아래의 수식(1–5)에 따라 계산되었다. 정확도는 전체 예측 중 실제 값과 일치한 비율을 나타내고, 정밀도는 모델이 Positive로 예측한 것 중 실제로 Positive인 비율을 측정한다. 재현율은 실제 Positive 중 모델이 올바르게 예측한 비율을 나타내며, F1-score는 정밀도와 재현율의 균형을 평가하는 지표이다. IoU는 예측과 실제 영역 간의 겹침 비율을 측정한다. 이러한 지표들은 산불피해 탐지 모델의 예측 정확도를 다각도로 평가하는데 기여하며, 모델의 성능을 정밀하게 측정할 수 있다.
본 연구는 PlanetScope 이미지를 활용하여 기하학적 변형에 의한 증강기법과 AugMix 기법이 모델 성능에 미치는 영향을 비교 분석하였다. 5개의 지역(양구, 밀양, 홍성, 금산, 함평)을 대상으로 5-fold 교차 검증을 수행한 결과, AugMix를 적용한 모델이 기하학적 증강 기법에 비해 전반적으로 향상된 성능을 보였다(Table 5). AugMix 기법을 적용한 모델은 5개의 지역에서 평균 정밀도 78.51, 재현율 75.43, F1-score 76.48로 기존의 방법에 비해 산불 피해지역에 대한 IoU가 약 2.8 향상된 성능을 보였다. 이는 AugMix가 다양한 지역특성에 적응하며 모델의 예측 성능을 개선하는데 기여했음을 시사한다. Fig. 6의 정성적 비교에서도 AugMix가 산불 피해의 경계를 기존기법보다 일관되게 탐지하는 경향을 확인할 수 있다. 그러나 금산산불의 경우 상대적으로 가장 낮은 정확도를 보였다. 산불 피해지역과 반사도가 낮은 도심지에서 오탐지되거나 피해 범위가 과소 추정되는 경향이 나타났으며, 이는 기존 연구에서도 반사도가 낮은 지역이 탐지에서 주요한 어려움으로 언급된 바 있다(Knopp et al., 2020). AugMix를 적용한 모델은 산불 피해지역과 규모를 보다 명확히 탐지하는 경향을 보였으나 얕은 산림소실과 같은 경미한 피해는 탐지에 한계가 있었다. 이러한 결과는 산불 피해 발생 초기시점 영상에서 피해지역의 경계가 불명확했던 점과 데이터의 특성이 모델 학습에 충분히 반영되지 못한데에서 기인했을 가능성이 있다(Fig. A1). 향후 데이터 추가와 산림피해 특성을 반영한 데이터 처리 기법 등을 통해 성능개선이 필요하다.
Table 5 Regional model evaluation of existing augmentation methods and AugMix (Unit: %)
Augmentation Method | Region | Class | Accuracy | IoU | Precision | Recall | F1-score |
---|---|---|---|---|---|---|---|
Existing Augmentation | Yanggu | Non-damage | 96.72 | 96.58 | 98.66 | 97.87 | 98.26 |
Damage | 55.57 | 67.03 | 76.46 | 71.44 | |||
Miryang | Non-damage | 99.44 | 99.43 | 99.74 | 99.69 | 99.71 | |
Damage | 75.86 | 85.10 | 87.48 | 86.27 | |||
Hongseong | Non-damage | 97.16 | 97.07 | 98.25 | 98.78 | 98.51 | |
Damage | 53.40 | 73.66 | 66.00 | 69.62 | |||
Geumsan | Non-damage | 98.94 | 98.93 | 98.99 | 99.94 | 99.46 | |
Damage | 47.07 | 93.94 | 48.55 | 64.01 | |||
Hampyeong | Non-damage | 99.09 | 99.07 | 99.68 | 99.39 | 99.53 | |
Damage | 65.76 | 75.53 | 74.42 | 79.34 | |||
Average of 5 regions | Non-damage | 98.27 | 98.22 | 99.06 | 99.13 | 99.09 | |
Damage | 59.53 | 79.05 | 70.58 | 74.14 | |||
Average | 78.87 | 89.06 | 84.86 | 86.62 | |||
AugMix | Yanggu | Non-damage | 97.06 | 96.94 | 98.54 | 98.35 | 98.45 |
Damage | 57.53 | 71.81 | 74.31 | 73.04 | |||
Miryang | Non-damage | 99.45 | 99.44 | 99.81 | 99.63 | 99.72 | |
Damage | 76.87 | 83.56 | 90.57 | 86.93 | |||
Hongseong | Non-damage | 97.35 | 97.25 | 98.50 | 98.71 | 98.61 | |
Damage | 56.86 | 74.00 | 71.05 | 72.50 | |||
Geumsan | Non-damage | 99.03 | 99.02 | 99.22 | 99.80 | 99.51 | |
Damage | 54.66 | 85.54 | 60.22 | 70.68 | |||
Hampyeong | Non-damage | 99.13 | 99.11 | 99.60 | 99.51 | 99.55 | |
Damage | 65.66 | 77.62 | 80.99 | 79.27 | |||
Average of 5 regions | Non-damage | 98.40 | 98.35 | 99.13 | 99.20 | 99.17 | |
Damage | 62.32 | 78.51 | 75.43 | 76.48 | |||
Average | 80.33 | 88.82 | 87.31 | 87.83 |
본 연구의 두 번째 목표는 PlanetScope 위성영상만을 사용한 분석에서 Sentinel-2 데이터를 추가하여 다종위성영상 기반 모델의 성능을 비교하는 것이었다. 3.1절에서 높은 결과를 보였던 AugMix 기법을 사용하여 모델을 학습한 결과는 Table 6과 같다. 대부분의 지역에서 Sentinel-2 위성영상을 추가함으로써 PlanetScope만 사용한 경우보다 전반적인 성능이 향상되었음을 확인하였다. 홍성 산불은 F1-score가 81.20으로, PlanetScope만 사용한 모델(72.50)에 비해 8.7 개선되었으며, 함평 산불은 산불 피해지 IoU가 기존 65.66에서 76.03로 약 10.37 향상되었다. 이는 Sentinel-2 위성영상이 추가되었을 때, 모델이 보다 폭넓은 지역적 특성과 세부정보를 학습함으로써, 예측의 신뢰도와 정확성을 향상시킬 수 있음을 보여준다.
Table 6 Quantitative results of wildfire burned area detection by region using a model with PlanetScope and Sentinel-2 data (Unit: %)
Region | Accuracy | F1-score | Precision | Recall | Damage_IoU | Non-damage_IoU | mIoU |
---|---|---|---|---|---|---|---|
Yanggu | 97.71 | 80.03 | 75.15 | 85.59 | 66.71 | 97.60 | 82.16 |
Miryang | 99.18 | 83.77 | 82.57 | 85.01 | 72.08 | 99.16 | 85.62 |
Hongseong | 97.77 | 81.20 | 79.87 | 82.57 | 68.35 | 97.65 | 83.00 |
Geumsan | 99.14 | 73.92 | 89.93 | 62.75 | 58.63 | 99.13 | 78.88 |
Hampyeong | 99.27 | 86.38 | 83.70 | 89.24 | 76.03 | 99.26 | 87.65 |
Average of 5 regions | 98.61 | 81.06 | 82.24 | 81.03 | 68.36 | 98.56 | 83.46 |
반면, 밀양 산불은 Sentinel-2 위성영상을 추가했음에도 PlanetScope 만으로 학습한 모델의 성능보다 소폭 하락하였다. 이는 Sentinel-2 영상의 공간 해상도 차이와 센서 특성으로 인한 노이즈가 모델학습에 영향을 미친것으로 보인다. 특히, 밀양 지역에서는 PlanetScope와 Sentinel-2의 동일 날짜에 수집된 영상을 사용했기 때문에 두 위성간의 물리적 차이로 인해 모델 예측에서 불일치가 발생했을 가능성도 존재한다. 그럼에도 밀양 지역 산불 피해지의 IoU는 72.08로 높은 성능을 유지하였다. Fig. 7은 각 지역별 예측 결과를 시각화한 이미지로, Sentinel-2 데이터를 추가한 경우 과소탐지되었던 영역과 오탐지가 개선되고 피해탐지 결과의 신뢰성이 높아졌음을 보여준다.
본 연구는 한국의 5개 산불 피해지를 독립적인 테스트 fold로 설정하여 분석을 수행하였으며, 다양한 토지피복, 고도 차이, 그림자 등으로 인한 왜곡이 존재하는 환경에서도 높은 성능을 보였다(Cho et al., 2022). 입력 영상으로 R-NIR-G만을 활용했음에도 불구하고, 5개의 테스트 fold에 대해 평균mean IoU(mIoU) 83.46을 달성하였다. 이는 산불 피해지에서 높은 반사도 값을 갖는 특성이 있는 SWIR 밴드를 적용한 Hu et al. (2021)의 딥러닝 분석에서 제시한 mIoU 성능과 유사한 수준의 결과를 보였다. 그러나 이미지의 특정 부분에서 색상이나 질감이 유사한 영역이 화재가 발생하지 않은 지역으로 잘못 분류되는 문제가 존재하였으며, 이는 향후 연구에서 개선될 필요가 있다(Gudelj and Papić, 2024).
Fig. 8은 밀양산불 피해지를 대상으로 PlanetScope와 Sentinel-2 영상을 함께 사용한 모델의 추론 결과를 PlanetScope와 Sentinel-2 위성별로 각각 산출하여 비교한 결과이다. 동일한 날짜에 PlanetScope와 Sentinel-2 위성영상이 수집된 산불 피해지는 밀양 산불이 유일하여 두 데이터를 동일 조건 하에 비교할 수 있는 적합한 대상지로 선정되었다. 각 결과는 밀양 산불이 학습 및 추론에 사용되지 않은 상태에서 테스트되었으며, 두 위성에서 모두 산불피해 영역을 잘 탐지하는 것을 확인할 수 있었다. PlanetScope 영상은 고해상도 위성영상으로 더 세밀한 경계를 제공하였고, Sentinel-2 데이터는 다소 낮은 해상도에도 불구하고 피해 범위에 대한 전반적인 경향을 효과적으로 탐지하였다. 그러나 공간적 특성이 충분히 반영되지 못한 한계가 있었으며, 향후 초해상화(super-resolution) 기법 적용을 통해 탐지 정확도를 더욱 향상시킬수 있을 것이다.
두 위성영상의 상관관계 분석을 위해 피어슨 상관계수(R)와 root mean squared error (RMSE)를 사용하였다. 피어슨 상관계수는 두 변수 간의 선형 관계를 나타내며, 1에 가까울수록 양의 상관관계가 높음을, RMSE는 값이 작을수록 두 밴드 간 유사성이 높음을 의미한다. Fig. 9는 두 위성 간 밴드별 상관계수와 RMSE 분석결과를 보여준다. Red 밴드는 상관계수 0.980으로 높은 양의 상관관계를 보였고, RMSE는 3.497로 낮아 두 데이터 간 높은 일치성을 나타냈다. Green 밴드도 유사한 결과로 상관계수 0.962와 RMSE 3.566을 기록하였다. 그러나 NIR 밴드는 상관계수가 0.961로 높은 상관관계를 보였지만, RMSE가 6.623으로 상대적으로 큰 오차를 나타냈다. NIR 밴드의 높은 RMSE는 모델이 특정 영역의 탐지에서 더 낮은 성능을 보이는 원인 중 하나로 작용할 수 있다. 이는 두 영상의 공간 해상도, 관측환경 및 스펙트럼 범위 차이 등으로 해석할 수 있으며, 향후 히스토그램 매칭과 같은 추가적인 분석과 고찰이 필요하다(Kim et al., 2019).
본 연구에서는 딥러닝 기반의 고해상도 광학위성 영상을 활용하여 국내 산불 피해지를 탐지하였다. AugMix 증강방법은 기하학적 변형을 통한 증강기법보다 우수한 성능을 보였으며, 이러한 성능 향상은 PlanetScope와 Sentinel-2 데이터를 함께 사용하여 구축한 모델의 탐지 정확도 향상에 기여하였다. PlanetScope는 고해상도 군집위성으로 세밀한 산불 피해지 탐지에 강점을 보이지만 대규모 데이터 수집에는 한계가 있다. 반면, Sentinel-2는 상대적으로 낮은 공간 및 시간 해상도를 가지지만 데이터 가용성이 높아 넓은지역의 산불 피해 범위를 효과적으로 포착할 수 있다. 두 데이터셋간 높은 상관계수는 PlanetScope의 정밀도와 Sentinel-2의 포괄성을 융합함으로써 상호보완적인 분석이 가능함을 보여준다. 이러한 결과는 다양한 해상도와 관측해상도를 갖는 다종위성 영상을 융합하여 초기 산불 피해지 복구 계획뿐 아니라, 장기적인 환경 모니터링에도 기여할 수 있을것으로 기대된다.
본 연구는 과학기술정보통신부의 “초소형위성 군집시스템의 활용 지원시스템 및 활용기술개발(과제번호: 2021M1A3A4A11032019)”의 일환으로 수행되었으며, 이에 감사드립니다.
No potential conflict of interest relevant to this article was reported.
Korean J. Remote Sens. 2024; 40(6): 991-1004
Published online December 31, 2024 https://doi.org/10.7780/kjrs.2024.40.6.1.10
Copyright © Korean Society of Remote Sensing.
이도이1, 손상훈2, 배재구2, 박소련3, 이성혁3, 서정민4, 김예지5, 최민하6, 이양원7, 김진수7*
1부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석/박사통합과정생
2부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사수료생
3부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사과정생
4부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석사과정생
5항공우주연구원 위성활용부 연구원
6성균관대학교 건설환경공학부 교수
7부경대학교 지구환경시스템과학부 위성정보융합공학전공 교수
Doi Lee1, Sanghun Son2, Jaegu Bae2, Soryeon Park3, Seonghyuk Lee3, Jeongmin Seo4, Yeji Kim5, Minha Choi6, Yangwon Lee7, Jinsoo Kim7*
1Combined MS/PhD Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
2PhD Candidate, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
3PhD Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
4Master Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
5Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
6Professor, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
7Professor, Major of Geometics Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
Correspondence to:Jinsoo Kim
E-mail: jinsookim@pknu.ac.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Wildfire damage detection has a pivotal role in forest management and recovery strategy planning. This study demonstrates that the use of a deep learning Swin (shifted windows) Transformer model, by integrating high-resolution PlanetScope and Sentinel-2 satellite imagery, can effectively enhance wildfire damage detection performance. A 5-fold cross-validation was conducted on five major wildfire areas in South Korea, with independent detection performance evaluated for each region to assess the model’s reliability and generalization. The comparison between traditional geometric augmentation methods and the AugMix method showed that AugMix resulted in a more consistent and improved performance, achieving an average F1-score of 76.48. Furthermore, the model incorporating Sentinel-2 data achieved an average F1-score of 81.06 across regions, confirming an improvement in detection accuracy and performance in identifying burned areas. This demonstrates that combining the complementary spatial and spectral information from both datasets allows for higher accuracy and precision in detecting wildfire damage. The high correlation coefficients between PlanetScope and Sentinel-2 data support the effective potential of multi-satellite fusion approaches. This study suggests that the use of multi-satellite imagery, through independent regional evaluation, can enhance the precision and reliability of wildfire damage detection.
Keywords: Wildfire burned areas detection, Swin transformer, Multi-satellite fusion, PlanetScope, Sentinel-2
전 세계적으로 산불은 생태계뿐만 아니라 재산과 안전에도 심각한 위협을 가하고 있다(Vilà-Vilardell et al., 2020). 2022년 한국의 대규모 산불은 겨울철 건조한 날씨와 가뭄이 산불 위험을 크게 높일 수 있음을 보여주었으며(Chang et al., 2024), 산불 발생 후 넓은 지역의 피해 범위를 신속하고 정확하게 탐지하기 위해 위성영상의 활용이 매우 중요해졌다(Payra et al., 2023). 위성 광학영상은 산불 전후의 분광 특성을 반영하여 피해지를 탐지하는 데 유용하지만, 구름이나 기상 조건에 영향을 받는 단점이 있어 영상 획득 주기가 길어질 수 있다(Lee et al., 2017; Park et al., 2019). 예를 들어, 유럽우주국(European Space Agency, ESA)에서 운용하는 Sentinel-2는 5일의 시간 해상도로 영상을 제공하지만, 기상 상태가 좋지 않으면 영상 획득이 지연되어 산불 피해지 탐지에 어려움이 존재한다(Kim et al., 2023). 이와 같은 한계를 보완하고자, 다종위성을 활용하여 신뢰도 높은 탐지 결과를 얻는 연구가 주목받고 있다. Shendryk et al. (2018)은 PlanetScope와 Sentinel-2 영상을 융합하여 구름, 그림자, 토지피복을 더욱 정확하게 분류하는 연구를 수행했으며, Tayer et al. (2023)은 이 두 위성의 융합을 통해 신뢰도 높은 수체 탐지 워크플로우(workflow)를 제시하였다. 이러한 다종위성영상 기반의 융합 접근법은 산불 발생 이후 정밀하고 효율적인 피해지 탐지에 기여할 가능성이 높다. 다만 이러한 접근에서는 센서의 차이, 궤도 구성, 대기 효과 등에 따른 오류를 최소화하기 위한 고려가 필요하다(Chung et al., 2020). 서로 다른 위성에서 수집된 영상을 조합하는 다종위성영상 접근 방식은 이러한 조건을 고려함으로써 더욱 정밀하고 효율적인 산불 피해지 탐지를 가능하게 한다는 점에서 중요한 의미를 가진다(Park et al., 2023; Zhang et al., 2024).
최근에는 인공지능, 그중에서도 딥러닝 기법이 위성영상을 활용한 산불 피해지 탐지에 널리 적용되고 있다. 딥러닝은 머신러닝을 넘어 다양한 분야에서 성공적으로 적용되며 기존 탐지 기법보다 높은 정확도와 신뢰성을 제공하고 있다. 컨볼루션 신경망(ConvolutionalNeural Network, CNN)은 이미지 내 특징을 추출하고 패턴을 학습하는데 유리하여, 산불 피해지 탐지와 같은 이미지 분류 및 객체 검출 작업에서 많이 활용되어 왔다(Rashkovetsky et al., 2021; Ghali and Akhloufi, 2023). 그러나 CNN은 장거리 의존성을 모델링하는데 한계가 있어 넓은 지역의 위성 영상을 분석하는데 효율성이 떨어질 수 있다. 이에 따라 VisionTransformer와 같은 모델이 도입되었으며(Dosovitskiy, 2020), Swin (shifted windows) Transformer는 Local Self-Attention 메커니즘을 통해 더 넓은 범위의 공간 정보를 효율적으로 학습할 수 있는 장점을 지닌다(Liu et al., 2021). 이러한 특징덕분에 Swin Transformer는 기존의 CNN 기반 모델에 비해 고해상도 이미지에서 복잡한 패턴과 세부 공간 관계를 효과적으로 학습할 수 있어(Thisanke et al., 2023), 다종위성영상의 융합 및 산불피해 탐지 성능을 더욱 향상시킬 수 있는 가능성을 제시한다.
본 연구에서는 PlanetScope 위성영상을 기반으로 Swin Transformer 모델을 적용하여 산불 피해지 탐지 성능을 평가하고, Sentinel-2 데이터를 추가 활용했을 때의 성능을 비교 분석하고자 한다. 이를 통해 다종위성영상 융합이 탐지 성능을 얼마나 개선할 수 있는지 실험적으로 평가하여 산불 피해지 탐지의 신뢰성을 향상시키고자 한다.
본 연구는 2022년에서 2023년 사이에 발생한 5개의 국내 대형산불을 대상으로 분석을 수행하였다(Fig. 1). 산림청 산불통계연보에 따르면, 선정된 산불지역은 피해 규모가 큰 지역들로 도심지와 인접해 있어 산불 모니터링과 피해 복구 관리가 필수적인 곳들이다(Korea Forest Service, 2023; 2024). 이 중 대부분의 산불은 봄철 건조한 기후와 강풍이 겹치는 4월과 5월에 발생하였다. 또한, 연구 대상지의 산불 발생원인은 담뱃불 실화, 원인 미상, 쓰레기 소각 등 주로 인위적인 요인에 의한 것으로 파악되었다(Korea Forest Service, 2023; 2024). 인위적 요인으로 인해 산불은 언제, 어디서 발생할지 예측하기 어려워 모니터링과 빠른 대응이 더욱 중요하다. 이는 다양한 환경 조건과 지역적 특성을 반영하여 산불의 불규칙성과 지역적 차이를 효과적으로 탐지할 수 있는 모델 개발의 중요성을 강조한다. 연구지역의 산불에 대한 세부정보는 Table 1과 같다.
Table 1 . Details of wildfire-affected study areas.
Region | Event date | Damaged area (ha) |
---|---|---|
Yanggu-eup, Yanggu-gun, Gangwon-do | 2022.04.10. | 759 |
Bubuk-myeon, Miryang-si, Gyeongsangnam-do | 2022.05.31. | 660.82 |
Seobu-myeon, Hongseong-gun, Chungcheongnam-do | 2023.04.02. | 889.36 |
Boksu-myeon, Geumsan-gun, Chungcheongnam-do | 2023.04.02. | 1,337 |
Daedong-myeon, Hampyeong-gun, Jeollanam-do | 2023.04.03. | 681.72 |
본 연구에서는 PlanetScope와 Sentinel-2 위성영상 자료를 사용하였다. PlanetScope는 Planet Labs 에서 운용중인 군집위성 시스템으로, 130개 이상의 큐브샛 (CubeSat)으로 구성되어 구성되어 있어 매일 재방문하여 관측할 수 있는 특징을 갖고 있다(Planet Lab, 2023). 센서에 따라 Dove-Classic, Dove-R 및 Super Dove 위성군으로 나뉘며, 가시광선(visible, VIS), 근적외선(near infrared, NIR) 밴드 포함 최대 8개의 분광밴드 정보를 약 3 m의 공간해상도로 제공한다. 연구에 사용된 PlanetScope 위성영상은 대기보정을 포함하여 방사, 정사 및 센서 보정이 적용된 Level-3B (L3B) PlanetScope 영상을 사용하였다. Sentinel-2 위성은 유럽 우주국(ESA)에서 운영하는 고해상도 위성으로 광범위한 지역을 커버하며, Sentinel-2A와 2B가 함께 운용될 경우 최대 5일 간격으로 동일 지역을 재방문할 수 있다(Drusch et al., 2012). Sentinel-2는 VIS, NIR, 중적외선(short wave infrared, SWIR) 등을 포함한 13개의 분광 밴드를 제공하며, 10 m, 20 m, 60 m의 다양한 공간 해상도를 지원하여 토지피복 및 재해 모니터링에 유용하게 활용된다. 연구에 사용된 PlanetScope와 Sentinel-2 위성의 재원은 Table 2에 제시되어있다. PlanetScope만을 사용할 경우와 Sentinel-2 영상을 추가하여 융합했을 때의 딥러닝 모델 성능 비교를 위해, 산불 발생 시점과 근접한 날짜의 PlanetScope 영상과 그와 가장 가까운 시기의 Sentinel-2 영상을 수집하였다. 수집된 데이터는 Table 3에 정리되어 있으며, 각 위성영상의 촬영날짜와 Scene ID가 포함되어 있다.
Table 2 . The specifications of the PlanetScope and Sentinel-2 satellites applied in the study.
Source | PlanetScope | Sentinel-2 |
---|---|---|
Sensor Type | Super Dove (PSB.SD) | Multispectral Instrument (MSI) |
Pixel Resoultion (m) | 3 | 10, 20, and 60 |
Revisit Time | Daily | 5 days |
Orbit Height | 475 km | 786 km |
Band Type | 8 bands: Coastal Blue, Blue, Green, Yellow, Red, and NIR | 13 bands: Coastal Aerosol, Blue, Green, Red, NIR, and SWIR |
Applied Spectral Band Wavelengths (nm) | Green (B4): 547–583 Red (B6): 650–680 NIR (B8): 845–885 | Green (B3): 543–578 Red (B4): 650–680 NIR (B8): 785–900 |
Table 3 . Satellite Scene ID collected by study area.
Satellite | Region | Scene ID |
---|---|---|
PlanetScope | Yanggu | 20220415_020617_63_227b |
Miryang | 20220603_020423_84_2402 | |
Hongseong | 20230409_015817_15_2475 | |
Geumsan | 20230410_015709_50_2498 | |
Hampyeong | 20230410_012651_14_24b9 | |
Sentinel-2 | Yanggu | S2A_MSIL1C_20220417T021611_N0400_R003_T52SDH_20220417T040757 |
Miryang | S2A_MSIL1C_20220603T020701_N0400_R103_T52SDE_20220603T042511 | |
Hongseong | S2A_MSIL1C_20230422T021531_N0509_R003_T52SBF_20230422T040212 | |
Geumsan | S2A_MSIL1C_20230412T021531_N0509_R003_T52SCF_20230412T043905 | |
Hampyeong S2B_MSIL1C_20230427T021539_N0509_R003_T52SBD_20230427T040200 |
본 연구에서는 PlanetScope와 Sentinel-2 위성 영상을 활용하여 산불 피해 탐지 딥러닝 모델을 구축하고, 각 위성 영상에 대한 전처리 과정을 수행하였다(Fig 2). PlanetScope는 대기보정 등 영상보정이 완료된 상태인 L3B 자료로 제공되어 바로 사용이 가능하다. 반면, Sentinel-2 데이터는 PlanetScope와의 해상도 일치를 위해 쌍입방 보간법(bicubic interpolation) 방법을 적용하여 3 m로 리샘플링하였다. 그리고 top of atmosphere (TOA) 반사도 값을 갖는 Level-1C데이터를 Sen2Cor v2.11 대기보정 프로세스를 통해 bottomof atmosphere (BOA) 반사도 값을 Level-2A 영상으로 처리되었다(Louis et al., 2016).
이후 두 데이터에 다음과 같은 일련의 전처리 과정을 적용하였다. 첫째, region of interest (ROI) 폴리곤(polygon)을 사용하여 위성영상별 분석 대상 지역을 동일하게 추출하였다. 둘째, 2–98%로 히스토그램 스트레칭(histogram stretching)을 수행하여 영상의 대비를 향상시키고 이상치(outlier)를 제거하였다. 이는 이미지의 하위 2%와 상위 2% 픽셀 값을 제외하고 나머지 픽셀 값들만을 확장시켜 이미지의 시각적 품질을 개선하며, 모델이 중요한 특징을 더 잘 학습할 수 있도록 돕는다. 셋째, 정규화를 수행하여 이미지의 픽셀 값 범위를 1에서 255 사이로 통일시켰다. NoData 값은 0으로 설정되어 제외되며 나머지 픽셀 값들은 해당 범위로 정규화된다. 이 정규화는 모델의 안정적인 학습을 돕고, 각 픽셀 값이 동일한 범위에 존재하도록 하여 학습이 과도하게 한 범위에 집중되는 현상을 방지한다. 마지막으로 선행 연구에서 성능이 입증된 R-NIR-G 가색 영상을 사용하였다(Park et al., 2018; Lee et al., 2024). 이를 위해Green, Red, NIR 밴드를 사용하여 R-NIR-G 가색영상을 생성하였다.
딥러닝 모델을 기반으로 의미론적 분할(semantic segmentation)을 수행하기 위해 Transformer 계열 모델인 Swin Transformer를 사용하였다(Fig. 4). Swin Transformer는 계층적인 구조로 이미지의 특징을 학습하며, self attention을 통해 높은 정확도를 보이는 모델이다(Liu et al., 2021). 이 모델은 기존 Vision Transformer의 구조를 컴퓨터 비전 작업에 맞게 효율적으로 변형한 것으로 이미지 분류, 객체 탐지, 의미론적 분할 등 다양한 비전 작업에서 뛰어난 성능을 보이고 있다(Aleissaee et al., 2023). Swin Transformer는 모델의 크기와 복잡도에 따라 Tiny (Swin-T), Small (Swin-S), Base (Swin-B), Large (Swin-L)로 나뉜다. 각 모델 크기에 따라 임베딩 차원(embedding dimension)과 블록 구조가 달라지며, 그에 따라 모델의 파라미터(parameter) 수와 계산 복잡도에도 차이가 난다..
딥러닝 분석을 수행하기 위해서는 명확한 레이블 작성이 필수적이다. 본 연구에서는 반자동 레이블 작성을 위해 ImageJ (https://imagej.net/)의 Fiji 프로그램을 사용하였다. Fiji는 이미지 처리 및 분석에 특화된 오픈 소스 소프트웨어로 다양한 플러그인과 기능을 통해 사용자 친화적인 인터페이스를 제공한다(Arzt et al., 2022). 레이블 생성 과정에서 RGB (true color) 및 R-NIR-G (false color) 영상을 활용하여 명확한 레이블 작성을 수행하고자 했으며, 수동으로 미세조정하여 각 영역의 특성을 보다 세밀하게 반영할 수 있었다.
딥러닝 훈련 자료를 구축하기 위해 전처리가 완료된 영상과 레이블을 256 × 256 패치(patch) 크기로 분할하였다. 패치 크기를 256 × 256으로 설정한 것은 산불피해 탐지에 필요한 지역 특성 정보를 충분히 반영할 수 있으면서도 모델이 효율적으로 학습할 수 있도록 하기 위함이다. 또한, 패치 간의 정보 손실을 최소화하고 연속적인 공간적 특성을 반영하기 위해 10%씩 오버랩(overlap)하여 패치를 생성하였다. 이렇게 분할한 후 값이 존재하지 않는 패치를 제외하고 PlanetScope와 Sentinel-2 각각 753장의 유효한 패치 영상이 생성되었다. 이후, 5개의 산불 지역에 대해 5-fold 교차검증 방식을 적용하여 각 지역을 테스트 세트로 삼고 나머지 4개 지역을 훈련 및 검증용으로 활용하였다. 이 과정은 엄격한 기준에서 각 지역의 특성을 균형 있게 반영하고 특정 지역에 대한 과도한 의존을 방지하여 모델의 안정성과 신뢰성을 높이는 데 기여한다.
연구에 사용된 산불사례는 대형 산불에 해당하지만 전체 위성 영상의 크기에 비해 산불 피해지가 차지하는 비율이 작아 딥러닝 모델 학습 시 과적합(overfitting) 위험이 존재한다. 이를 완화하고 훈련 데이터를 확장하기 위해 데이터 증강기법을 사용하였다. 증강기법으로는 보편적으로 사용되는 기하학적 변형에 의한 증강방법과 Hendrycks et al. (2019)이 제안한AugMix의 두 가지 방법을 사용하여 비교함으로써 각 증강기법이 모델의 성능에 미치는 영향을 평가하고자 하였다(Fig. 5). 기하학적 변형에 의한 증강방법은 회전, 왜곡, 밝기·대비 조정, 노이즈 추가 등을 사용하여 원본 영상을 다양화한다. AugMix는 강인성(robustness) 향상을 목표로 원본 영상과 증강된 영상 간의 분포 차이가 크게 나지 않도록 혼합된 형태의 영상을 생성하며, 다양한 환경에서도 일관된 성능을 유지할 수 있다는 장점이 있다(Hendrycks et al., 2019). 이 과정에서 각 fold에 테스트 지역으로 할당된 패치는 증강에서 제외하고, 훈련에 사용될 패치들을 3배로 증강하여 딥러닝 훈련자료로 사용하였다.
연구에서는 사전 테스트에서 가장 우수한 성능을 보인 Swin-B Transformer 모델을 백본(backbone)으로 사용하고, UPerNet을 디코더 헤드로 적용하였다. Swin-B 모델의 임베딩 차원인 128로 설정하고, {2, 2, 18, 2} 구조를 적용하여 다양한 스케일에서 효율적인 특징 추출이 가능하도록 구성하였다(Fig. 5). 또한, 7 × 7 윈도우 크기를 사용하여 지역 및 전체적인 문맥 정보를 효과적으로 학습하도록 구성하였다. 산불과 비산불 영역의 클래스 불균형 문제를 해결하기 위해 Focal Loss를 손실 함수로 사용하였다. Focal Loss는 기존의 Binary Cross Entropy 손실 함수에 조정 인자를 추가하여 손실이 적은 쉬운 예시의 기여도를 줄이고 어려운 예시에 더 큰 가중치를 부여함으로써 모델이 복잡한 예시에도 집중할 수 있도록 한다(Jadon, 2020). 이때 조정 인자 γ값이 높을수록 어려운 예시에 대한 가중치가 증가하여 클래스 불균형 상황에서의 성능을 개선하는 데 효과적이다.
산불피해 탐지 성능을 최적화하기 위해 Swin Transformer 모델을 학습하는 과정에서AdamW옵티마이저를 사용하고, 학습률(learning rate)을 6 × 10–5으로, weight decay를 5 × 10–5으로 하이퍼파라미터를 설정하였다. 학습은 배치 크기 16으로 60,000번의 반복(iteration) 동안 진행되었으며, 적용된 하이퍼파라미터는 Table 4에 요약되어 있다.
Table 4 . Hyperparameters used in the Swin Transformer model for detecting wildfire-burned areas.
Model | Swin Transformer |
---|---|
Input patch size | 256 × 256 |
Window size | 7 |
Loss function | Focal Loss |
Iteration | 60,000 |
Optimizer | AdamW |
Batch size | 16 |
Learning rate | 6 × 10–5 |
weight decay | 5 × 10–5 |
Output | Probability map |
Swin Transformer 모델의 성능을 정량적으로 평가하기 위해 산불피해 탐지성능을 정확도(accuracy), 정밀도(precision), 재현율(recall), F1-score 및 intersection over union (IoU) 지표를 사용하여 종합적으로 분석하였다. 각 평가지표는 아래의 수식(1–5)에 따라 계산되었다. 정확도는 전체 예측 중 실제 값과 일치한 비율을 나타내고, 정밀도는 모델이 Positive로 예측한 것 중 실제로 Positive인 비율을 측정한다. 재현율은 실제 Positive 중 모델이 올바르게 예측한 비율을 나타내며, F1-score는 정밀도와 재현율의 균형을 평가하는 지표이다. IoU는 예측과 실제 영역 간의 겹침 비율을 측정한다. 이러한 지표들은 산불피해 탐지 모델의 예측 정확도를 다각도로 평가하는데 기여하며, 모델의 성능을 정밀하게 측정할 수 있다.
본 연구는 PlanetScope 이미지를 활용하여 기하학적 변형에 의한 증강기법과 AugMix 기법이 모델 성능에 미치는 영향을 비교 분석하였다. 5개의 지역(양구, 밀양, 홍성, 금산, 함평)을 대상으로 5-fold 교차 검증을 수행한 결과, AugMix를 적용한 모델이 기하학적 증강 기법에 비해 전반적으로 향상된 성능을 보였다(Table 5). AugMix 기법을 적용한 모델은 5개의 지역에서 평균 정밀도 78.51, 재현율 75.43, F1-score 76.48로 기존의 방법에 비해 산불 피해지역에 대한 IoU가 약 2.8 향상된 성능을 보였다. 이는 AugMix가 다양한 지역특성에 적응하며 모델의 예측 성능을 개선하는데 기여했음을 시사한다. Fig. 6의 정성적 비교에서도 AugMix가 산불 피해의 경계를 기존기법보다 일관되게 탐지하는 경향을 확인할 수 있다. 그러나 금산산불의 경우 상대적으로 가장 낮은 정확도를 보였다. 산불 피해지역과 반사도가 낮은 도심지에서 오탐지되거나 피해 범위가 과소 추정되는 경향이 나타났으며, 이는 기존 연구에서도 반사도가 낮은 지역이 탐지에서 주요한 어려움으로 언급된 바 있다(Knopp et al., 2020). AugMix를 적용한 모델은 산불 피해지역과 규모를 보다 명확히 탐지하는 경향을 보였으나 얕은 산림소실과 같은 경미한 피해는 탐지에 한계가 있었다. 이러한 결과는 산불 피해 발생 초기시점 영상에서 피해지역의 경계가 불명확했던 점과 데이터의 특성이 모델 학습에 충분히 반영되지 못한데에서 기인했을 가능성이 있다(Fig. A1). 향후 데이터 추가와 산림피해 특성을 반영한 데이터 처리 기법 등을 통해 성능개선이 필요하다.
Table 5 . Regional model evaluation of existing augmentation methods and AugMix (Unit: %).
Augmentation Method | Region | Class | Accuracy | IoU | Precision | Recall | F1-score |
---|---|---|---|---|---|---|---|
Existing Augmentation | Yanggu | Non-damage | 96.72 | 96.58 | 98.66 | 97.87 | 98.26 |
Damage | 55.57 | 67.03 | 76.46 | 71.44 | |||
Miryang | Non-damage | 99.44 | 99.43 | 99.74 | 99.69 | 99.71 | |
Damage | 75.86 | 85.10 | 87.48 | 86.27 | |||
Hongseong | Non-damage | 97.16 | 97.07 | 98.25 | 98.78 | 98.51 | |
Damage | 53.40 | 73.66 | 66.00 | 69.62 | |||
Geumsan | Non-damage | 98.94 | 98.93 | 98.99 | 99.94 | 99.46 | |
Damage | 47.07 | 93.94 | 48.55 | 64.01 | |||
Hampyeong | Non-damage | 99.09 | 99.07 | 99.68 | 99.39 | 99.53 | |
Damage | 65.76 | 75.53 | 74.42 | 79.34 | |||
Average of 5 regions | Non-damage | 98.27 | 98.22 | 99.06 | 99.13 | 99.09 | |
Damage | 59.53 | 79.05 | 70.58 | 74.14 | |||
Average | 78.87 | 89.06 | 84.86 | 86.62 | |||
AugMix | Yanggu | Non-damage | 97.06 | 96.94 | 98.54 | 98.35 | 98.45 |
Damage | 57.53 | 71.81 | 74.31 | 73.04 | |||
Miryang | Non-damage | 99.45 | 99.44 | 99.81 | 99.63 | 99.72 | |
Damage | 76.87 | 83.56 | 90.57 | 86.93 | |||
Hongseong | Non-damage | 97.35 | 97.25 | 98.50 | 98.71 | 98.61 | |
Damage | 56.86 | 74.00 | 71.05 | 72.50 | |||
Geumsan | Non-damage | 99.03 | 99.02 | 99.22 | 99.80 | 99.51 | |
Damage | 54.66 | 85.54 | 60.22 | 70.68 | |||
Hampyeong | Non-damage | 99.13 | 99.11 | 99.60 | 99.51 | 99.55 | |
Damage | 65.66 | 77.62 | 80.99 | 79.27 | |||
Average of 5 regions | Non-damage | 98.40 | 98.35 | 99.13 | 99.20 | 99.17 | |
Damage | 62.32 | 78.51 | 75.43 | 76.48 | |||
Average | 80.33 | 88.82 | 87.31 | 87.83 |
본 연구의 두 번째 목표는 PlanetScope 위성영상만을 사용한 분석에서 Sentinel-2 데이터를 추가하여 다종위성영상 기반 모델의 성능을 비교하는 것이었다. 3.1절에서 높은 결과를 보였던 AugMix 기법을 사용하여 모델을 학습한 결과는 Table 6과 같다. 대부분의 지역에서 Sentinel-2 위성영상을 추가함으로써 PlanetScope만 사용한 경우보다 전반적인 성능이 향상되었음을 확인하였다. 홍성 산불은 F1-score가 81.20으로, PlanetScope만 사용한 모델(72.50)에 비해 8.7 개선되었으며, 함평 산불은 산불 피해지 IoU가 기존 65.66에서 76.03로 약 10.37 향상되었다. 이는 Sentinel-2 위성영상이 추가되었을 때, 모델이 보다 폭넓은 지역적 특성과 세부정보를 학습함으로써, 예측의 신뢰도와 정확성을 향상시킬 수 있음을 보여준다.
Table 6 . Quantitative results of wildfire burned area detection by region using a model with PlanetScope and Sentinel-2 data (Unit: %).
Region | Accuracy | F1-score | Precision | Recall | Damage_IoU | Non-damage_IoU | mIoU |
---|---|---|---|---|---|---|---|
Yanggu | 97.71 | 80.03 | 75.15 | 85.59 | 66.71 | 97.60 | 82.16 |
Miryang | 99.18 | 83.77 | 82.57 | 85.01 | 72.08 | 99.16 | 85.62 |
Hongseong | 97.77 | 81.20 | 79.87 | 82.57 | 68.35 | 97.65 | 83.00 |
Geumsan | 99.14 | 73.92 | 89.93 | 62.75 | 58.63 | 99.13 | 78.88 |
Hampyeong | 99.27 | 86.38 | 83.70 | 89.24 | 76.03 | 99.26 | 87.65 |
Average of 5 regions | 98.61 | 81.06 | 82.24 | 81.03 | 68.36 | 98.56 | 83.46 |
반면, 밀양 산불은 Sentinel-2 위성영상을 추가했음에도 PlanetScope 만으로 학습한 모델의 성능보다 소폭 하락하였다. 이는 Sentinel-2 영상의 공간 해상도 차이와 센서 특성으로 인한 노이즈가 모델학습에 영향을 미친것으로 보인다. 특히, 밀양 지역에서는 PlanetScope와 Sentinel-2의 동일 날짜에 수집된 영상을 사용했기 때문에 두 위성간의 물리적 차이로 인해 모델 예측에서 불일치가 발생했을 가능성도 존재한다. 그럼에도 밀양 지역 산불 피해지의 IoU는 72.08로 높은 성능을 유지하였다. Fig. 7은 각 지역별 예측 결과를 시각화한 이미지로, Sentinel-2 데이터를 추가한 경우 과소탐지되었던 영역과 오탐지가 개선되고 피해탐지 결과의 신뢰성이 높아졌음을 보여준다.
본 연구는 한국의 5개 산불 피해지를 독립적인 테스트 fold로 설정하여 분석을 수행하였으며, 다양한 토지피복, 고도 차이, 그림자 등으로 인한 왜곡이 존재하는 환경에서도 높은 성능을 보였다(Cho et al., 2022). 입력 영상으로 R-NIR-G만을 활용했음에도 불구하고, 5개의 테스트 fold에 대해 평균mean IoU(mIoU) 83.46을 달성하였다. 이는 산불 피해지에서 높은 반사도 값을 갖는 특성이 있는 SWIR 밴드를 적용한 Hu et al. (2021)의 딥러닝 분석에서 제시한 mIoU 성능과 유사한 수준의 결과를 보였다. 그러나 이미지의 특정 부분에서 색상이나 질감이 유사한 영역이 화재가 발생하지 않은 지역으로 잘못 분류되는 문제가 존재하였으며, 이는 향후 연구에서 개선될 필요가 있다(Gudelj and Papić, 2024).
Fig. 8은 밀양산불 피해지를 대상으로 PlanetScope와 Sentinel-2 영상을 함께 사용한 모델의 추론 결과를 PlanetScope와 Sentinel-2 위성별로 각각 산출하여 비교한 결과이다. 동일한 날짜에 PlanetScope와 Sentinel-2 위성영상이 수집된 산불 피해지는 밀양 산불이 유일하여 두 데이터를 동일 조건 하에 비교할 수 있는 적합한 대상지로 선정되었다. 각 결과는 밀양 산불이 학습 및 추론에 사용되지 않은 상태에서 테스트되었으며, 두 위성에서 모두 산불피해 영역을 잘 탐지하는 것을 확인할 수 있었다. PlanetScope 영상은 고해상도 위성영상으로 더 세밀한 경계를 제공하였고, Sentinel-2 데이터는 다소 낮은 해상도에도 불구하고 피해 범위에 대한 전반적인 경향을 효과적으로 탐지하였다. 그러나 공간적 특성이 충분히 반영되지 못한 한계가 있었으며, 향후 초해상화(super-resolution) 기법 적용을 통해 탐지 정확도를 더욱 향상시킬수 있을 것이다.
두 위성영상의 상관관계 분석을 위해 피어슨 상관계수(R)와 root mean squared error (RMSE)를 사용하였다. 피어슨 상관계수는 두 변수 간의 선형 관계를 나타내며, 1에 가까울수록 양의 상관관계가 높음을, RMSE는 값이 작을수록 두 밴드 간 유사성이 높음을 의미한다. Fig. 9는 두 위성 간 밴드별 상관계수와 RMSE 분석결과를 보여준다. Red 밴드는 상관계수 0.980으로 높은 양의 상관관계를 보였고, RMSE는 3.497로 낮아 두 데이터 간 높은 일치성을 나타냈다. Green 밴드도 유사한 결과로 상관계수 0.962와 RMSE 3.566을 기록하였다. 그러나 NIR 밴드는 상관계수가 0.961로 높은 상관관계를 보였지만, RMSE가 6.623으로 상대적으로 큰 오차를 나타냈다. NIR 밴드의 높은 RMSE는 모델이 특정 영역의 탐지에서 더 낮은 성능을 보이는 원인 중 하나로 작용할 수 있다. 이는 두 영상의 공간 해상도, 관측환경 및 스펙트럼 범위 차이 등으로 해석할 수 있으며, 향후 히스토그램 매칭과 같은 추가적인 분석과 고찰이 필요하다(Kim et al., 2019).
본 연구에서는 딥러닝 기반의 고해상도 광학위성 영상을 활용하여 국내 산불 피해지를 탐지하였다. AugMix 증강방법은 기하학적 변형을 통한 증강기법보다 우수한 성능을 보였으며, 이러한 성능 향상은 PlanetScope와 Sentinel-2 데이터를 함께 사용하여 구축한 모델의 탐지 정확도 향상에 기여하였다. PlanetScope는 고해상도 군집위성으로 세밀한 산불 피해지 탐지에 강점을 보이지만 대규모 데이터 수집에는 한계가 있다. 반면, Sentinel-2는 상대적으로 낮은 공간 및 시간 해상도를 가지지만 데이터 가용성이 높아 넓은지역의 산불 피해 범위를 효과적으로 포착할 수 있다. 두 데이터셋간 높은 상관계수는 PlanetScope의 정밀도와 Sentinel-2의 포괄성을 융합함으로써 상호보완적인 분석이 가능함을 보여준다. 이러한 결과는 다양한 해상도와 관측해상도를 갖는 다종위성 영상을 융합하여 초기 산불 피해지 복구 계획뿐 아니라, 장기적인 환경 모니터링에도 기여할 수 있을것으로 기대된다.
본 연구는 과학기술정보통신부의 “초소형위성 군집시스템의 활용 지원시스템 및 활용기술개발(과제번호: 2021M1A3A4A11032019)”의 일환으로 수행되었으며, 이에 감사드립니다.
No potential conflict of interest relevant to this article was reported.
Table 1 . Details of wildfire-affected study areas.
Region | Event date | Damaged area (ha) |
---|---|---|
Yanggu-eup, Yanggu-gun, Gangwon-do | 2022.04.10. | 759 |
Bubuk-myeon, Miryang-si, Gyeongsangnam-do | 2022.05.31. | 660.82 |
Seobu-myeon, Hongseong-gun, Chungcheongnam-do | 2023.04.02. | 889.36 |
Boksu-myeon, Geumsan-gun, Chungcheongnam-do | 2023.04.02. | 1,337 |
Daedong-myeon, Hampyeong-gun, Jeollanam-do | 2023.04.03. | 681.72 |
Table 2 . The specifications of the PlanetScope and Sentinel-2 satellites applied in the study.
Source | PlanetScope | Sentinel-2 |
---|---|---|
Sensor Type | Super Dove (PSB.SD) | Multispectral Instrument (MSI) |
Pixel Resoultion (m) | 3 | 10, 20, and 60 |
Revisit Time | Daily | 5 days |
Orbit Height | 475 km | 786 km |
Band Type | 8 bands: Coastal Blue, Blue, Green, Yellow, Red, and NIR | 13 bands: Coastal Aerosol, Blue, Green, Red, NIR, and SWIR |
Applied Spectral Band Wavelengths (nm) | Green (B4): 547–583 Red (B6): 650–680 NIR (B8): 845–885 | Green (B3): 543–578 Red (B4): 650–680 NIR (B8): 785–900 |
Table 3 . Satellite Scene ID collected by study area.
Satellite | Region | Scene ID |
---|---|---|
PlanetScope | Yanggu | 20220415_020617_63_227b |
Miryang | 20220603_020423_84_2402 | |
Hongseong | 20230409_015817_15_2475 | |
Geumsan | 20230410_015709_50_2498 | |
Hampyeong | 20230410_012651_14_24b9 | |
Sentinel-2 | Yanggu | S2A_MSIL1C_20220417T021611_N0400_R003_T52SDH_20220417T040757 |
Miryang | S2A_MSIL1C_20220603T020701_N0400_R103_T52SDE_20220603T042511 | |
Hongseong | S2A_MSIL1C_20230422T021531_N0509_R003_T52SBF_20230422T040212 | |
Geumsan | S2A_MSIL1C_20230412T021531_N0509_R003_T52SCF_20230412T043905 | |
Hampyeong S2B_MSIL1C_20230427T021539_N0509_R003_T52SBD_20230427T040200 |
Table 4 . Hyperparameters used in the Swin Transformer model for detecting wildfire-burned areas.
Model | Swin Transformer |
---|---|
Input patch size | 256 × 256 |
Window size | 7 |
Loss function | Focal Loss |
Iteration | 60,000 |
Optimizer | AdamW |
Batch size | 16 |
Learning rate | 6 × 10–5 |
weight decay | 5 × 10–5 |
Output | Probability map |
Table 5 . Regional model evaluation of existing augmentation methods and AugMix (Unit: %).
Augmentation Method | Region | Class | Accuracy | IoU | Precision | Recall | F1-score |
---|---|---|---|---|---|---|---|
Existing Augmentation | Yanggu | Non-damage | 96.72 | 96.58 | 98.66 | 97.87 | 98.26 |
Damage | 55.57 | 67.03 | 76.46 | 71.44 | |||
Miryang | Non-damage | 99.44 | 99.43 | 99.74 | 99.69 | 99.71 | |
Damage | 75.86 | 85.10 | 87.48 | 86.27 | |||
Hongseong | Non-damage | 97.16 | 97.07 | 98.25 | 98.78 | 98.51 | |
Damage | 53.40 | 73.66 | 66.00 | 69.62 | |||
Geumsan | Non-damage | 98.94 | 98.93 | 98.99 | 99.94 | 99.46 | |
Damage | 47.07 | 93.94 | 48.55 | 64.01 | |||
Hampyeong | Non-damage | 99.09 | 99.07 | 99.68 | 99.39 | 99.53 | |
Damage | 65.76 | 75.53 | 74.42 | 79.34 | |||
Average of 5 regions | Non-damage | 98.27 | 98.22 | 99.06 | 99.13 | 99.09 | |
Damage | 59.53 | 79.05 | 70.58 | 74.14 | |||
Average | 78.87 | 89.06 | 84.86 | 86.62 | |||
AugMix | Yanggu | Non-damage | 97.06 | 96.94 | 98.54 | 98.35 | 98.45 |
Damage | 57.53 | 71.81 | 74.31 | 73.04 | |||
Miryang | Non-damage | 99.45 | 99.44 | 99.81 | 99.63 | 99.72 | |
Damage | 76.87 | 83.56 | 90.57 | 86.93 | |||
Hongseong | Non-damage | 97.35 | 97.25 | 98.50 | 98.71 | 98.61 | |
Damage | 56.86 | 74.00 | 71.05 | 72.50 | |||
Geumsan | Non-damage | 99.03 | 99.02 | 99.22 | 99.80 | 99.51 | |
Damage | 54.66 | 85.54 | 60.22 | 70.68 | |||
Hampyeong | Non-damage | 99.13 | 99.11 | 99.60 | 99.51 | 99.55 | |
Damage | 65.66 | 77.62 | 80.99 | 79.27 | |||
Average of 5 regions | Non-damage | 98.40 | 98.35 | 99.13 | 99.20 | 99.17 | |
Damage | 62.32 | 78.51 | 75.43 | 76.48 | |||
Average | 80.33 | 88.82 | 87.31 | 87.83 |
Table 6 . Quantitative results of wildfire burned area detection by region using a model with PlanetScope and Sentinel-2 data (Unit: %).
Region | Accuracy | F1-score | Precision | Recall | Damage_IoU | Non-damage_IoU | mIoU |
---|---|---|---|---|---|---|---|
Yanggu | 97.71 | 80.03 | 75.15 | 85.59 | 66.71 | 97.60 | 82.16 |
Miryang | 99.18 | 83.77 | 82.57 | 85.01 | 72.08 | 99.16 | 85.62 |
Hongseong | 97.77 | 81.20 | 79.87 | 82.57 | 68.35 | 97.65 | 83.00 |
Geumsan | 99.14 | 73.92 | 89.93 | 62.75 | 58.63 | 99.13 | 78.88 |
Hampyeong | 99.27 | 86.38 | 83.70 | 89.24 | 76.03 | 99.26 | 87.65 |
Average of 5 regions | 98.61 | 81.06 | 82.24 | 81.03 | 68.36 | 98.56 | 83.46 |
Joongbin Lim 1) ·Kyoung-Min Kim 2)†·Myung-Kil Kim 3
Korean J. Remote Sens. 2019; 35(6): 1037-1052Soyeon Choi, Youngmin Seo, Hyo Ju Park, Heangha Yu, Yangwon Lee
Korean J. Remote Sens. 2024; 40(6): 1177-1193Youngmin Seo, Nam Gyun Kim, Chan Ho Yeom, Mi Na Jang, Sun Jeoung Lee, Yangwon Lee
Korean J. Remote Sens. 2024; 40(6): 1051-1065