Research Article

Split Viewer

Korean J. Remote Sens. 2024; 40(6): 991-1004

Published online: December 31, 2024

https://doi.org/10.7780/kjrs.2024.40.6.1.10

© Korean Society of Remote Sensing

PlanetScope와 Sentinel-2 위성영상을 활용한 Swin Transformer 기반 산불피해 탐지 성능 개선: 다종 데이터 융합의 효과 분석

이도이1, 손상훈2, 배재구2, 박소련3, 이성혁3, 서정민4, 김예지5, 최민하6, 이양원7, 김진수7*

1부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석/박사통합과정생
2부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사수료생
3부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사과정생
4부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석사과정생
5항공우주연구원 위성활용부 연구원
6성균관대학교 건설환경공학부 교수
7부경대학교 지구환경시스템과학부 위성정보융합공학전공 교수

Received: November 14, 2024; Revised: December 5, 2024; Accepted: December 5, 2024

Enhancing Wildfire Damage Detection Performance with Swin Transformer Using PlanetScope and Sentinel-2 Satellite Imagery: Analysis of Multi-Source Data Fusion

Doi Lee1, Sanghun Son2, Jaegu Bae2, Soryeon Park3, Seonghyuk Lee3, Jeongmin Seo4, Yeji Kim5, Minha Choi6, Yangwon Lee7, Jinsoo Kim7*

1Combined MS/PhD Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
2PhD Candidate, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
3PhD Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
4Master Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
5Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
6Professor, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
7Professor, Major of Geometics Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea

Correspondence to : Jinsoo Kim
E-mail: jinsookim@pknu.ac.kr

Received: November 14, 2024; Revised: December 5, 2024; Accepted: December 5, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Wildfire damage detection has a pivotal role in forest management and recovery strategy planning. This study demonstrates that the use of a deep learning Swin (shifted windows) Transformer model, by integrating high-resolution PlanetScope and Sentinel-2 satellite imagery, can effectively enhance wildfire damage detection performance. A 5-fold cross-validation was conducted on five major wildfire areas in South Korea, with independent detection performance evaluated for each region to assess the model’s reliability and generalization. The comparison between traditional geometric augmentation methods and the AugMix method showed that AugMix resulted in a more consistent and improved performance, achieving an average F1-score of 76.48. Furthermore, the model incorporating Sentinel-2 data achieved an average F1-score of 81.06 across regions, confirming an improvement in detection accuracy and performance in identifying burned areas. This demonstrates that combining the complementary spatial and spectral information from both datasets allows for higher accuracy and precision in detecting wildfire damage. The high correlation coefficients between PlanetScope and Sentinel-2 data support the effective potential of multi-satellite fusion approaches. This study suggests that the use of multi-satellite imagery, through independent regional evaluation, can enhance the precision and reliability of wildfire damage detection.

Keywords Wildfire burned areas detection, Swin transformer, Multi-satellite fusion, PlanetScope, Sentinel-2

전 세계적으로 산불은 생태계뿐만 아니라 재산과 안전에도 심각한 위협을 가하고 있다(Vilà-Vilardell et al., 2020). 2022년 한국의 대규모 산불은 겨울철 건조한 날씨와 가뭄이 산불 위험을 크게 높일 수 있음을 보여주었으며(Chang et al., 2024), 산불 발생 후 넓은 지역의 피해 범위를 신속하고 정확하게 탐지하기 위해 위성영상의 활용이 매우 중요해졌다(Payra et al., 2023). 위성 광학영상은 산불 전후의 분광 특성을 반영하여 피해지를 탐지하는 데 유용하지만, 구름이나 기상 조건에 영향을 받는 단점이 있어 영상 획득 주기가 길어질 수 있다(Lee et al., 2017; Park et al., 2019). 예를 들어, 유럽우주국(European Space Agency, ESA)에서 운용하는 Sentinel-2는 5일의 시간 해상도로 영상을 제공하지만, 기상 상태가 좋지 않으면 영상 획득이 지연되어 산불 피해지 탐지에 어려움이 존재한다(Kim et al., 2023). 이와 같은 한계를 보완하고자, 다종위성을 활용하여 신뢰도 높은 탐지 결과를 얻는 연구가 주목받고 있다. Shendryk et al. (2018)은 PlanetScope와 Sentinel-2 영상을 융합하여 구름, 그림자, 토지피복을 더욱 정확하게 분류하는 연구를 수행했으며, Tayer et al. (2023)은 이 두 위성의 융합을 통해 신뢰도 높은 수체 탐지 워크플로우(workflow)를 제시하였다. 이러한 다종위성영상 기반의 융합 접근법은 산불 발생 이후 정밀하고 효율적인 피해지 탐지에 기여할 가능성이 높다. 다만 이러한 접근에서는 센서의 차이, 궤도 구성, 대기 효과 등에 따른 오류를 최소화하기 위한 고려가 필요하다(Chung et al., 2020). 서로 다른 위성에서 수집된 영상을 조합하는 다종위성영상 접근 방식은 이러한 조건을 고려함으로써 더욱 정밀하고 효율적인 산불 피해지 탐지를 가능하게 한다는 점에서 중요한 의미를 가진다(Park et al., 2023; Zhang et al., 2024).

최근에는 인공지능, 그중에서도 딥러닝 기법이 위성영상을 활용한 산불 피해지 탐지에 널리 적용되고 있다. 딥러닝은 머신러닝을 넘어 다양한 분야에서 성공적으로 적용되며 기존 탐지 기법보다 높은 정확도와 신뢰성을 제공하고 있다. 컨볼루션 신경망(ConvolutionalNeural Network, CNN)은 이미지 내 특징을 추출하고 패턴을 학습하는데 유리하여, 산불 피해지 탐지와 같은 이미지 분류 및 객체 검출 작업에서 많이 활용되어 왔다(Rashkovetsky et al., 2021; Ghali and Akhloufi, 2023). 그러나 CNN은 장거리 의존성을 모델링하는데 한계가 있어 넓은 지역의 위성 영상을 분석하는데 효율성이 떨어질 수 있다. 이에 따라 VisionTransformer와 같은 모델이 도입되었으며(Dosovitskiy, 2020), Swin (shifted windows) Transformer는 Local Self-Attention 메커니즘을 통해 더 넓은 범위의 공간 정보를 효율적으로 학습할 수 있는 장점을 지닌다(Liu et al., 2021). 이러한 특징덕분에 Swin Transformer는 기존의 CNN 기반 모델에 비해 고해상도 이미지에서 복잡한 패턴과 세부 공간 관계를 효과적으로 학습할 수 있어(Thisanke et al., 2023), 다종위성영상의 융합 및 산불피해 탐지 성능을 더욱 향상시킬 수 있는 가능성을 제시한다.

본 연구에서는 PlanetScope 위성영상을 기반으로 Swin Transformer 모델을 적용하여 산불 피해지 탐지 성능을 평가하고, Sentinel-2 데이터를 추가 활용했을 때의 성능을 비교 분석하고자 한다. 이를 통해 다종위성영상 융합이 탐지 성능을 얼마나 개선할 수 있는지 실험적으로 평가하여 산불 피해지 탐지의 신뢰성을 향상시키고자 한다.

2.1. 연구 지역 및 데이터

2.1.1. 연구 지역

본 연구는 2022년에서 2023년 사이에 발생한 5개의 국내 대형산불을 대상으로 분석을 수행하였다(Fig. 1). 산림청 산불통계연보에 따르면, 선정된 산불지역은 피해 규모가 큰 지역들로 도심지와 인접해 있어 산불 모니터링과 피해 복구 관리가 필수적인 곳들이다(Korea Forest Service, 2023; 2024). 이 중 대부분의 산불은 봄철 건조한 기후와 강풍이 겹치는 4월과 5월에 발생하였다. 또한, 연구 대상지의 산불 발생원인은 담뱃불 실화, 원인 미상, 쓰레기 소각 등 주로 인위적인 요인에 의한 것으로 파악되었다(Korea Forest Service, 2023; 2024). 인위적 요인으로 인해 산불은 언제, 어디서 발생할지 예측하기 어려워 모니터링과 빠른 대응이 더욱 중요하다. 이는 다양한 환경 조건과 지역적 특성을 반영하여 산불의 불규칙성과 지역적 차이를 효과적으로 탐지할 수 있는 모델 개발의 중요성을 강조한다. 연구지역의 산불에 대한 세부정보는 Table 1과 같다.

Fig. 1. Location of the study region and R-NIR-G false color image of collected PlanetScope satellite images. (a) Yanggu, (b) Miryang, (c) Hongseong, (d) Geumsan, and (e) Hampyeong.

Table 1 Details of wildfire-affected study areas

RegionEvent dateDamaged area (ha)
Yanggu-eup, Yanggu-gun, Gangwon-do2022.04.10.759
Bubuk-myeon, Miryang-si, Gyeongsangnam-do2022.05.31.660.82
Seobu-myeon, Hongseong-gun, Chungcheongnam-do2023.04.02.889.36
Boksu-myeon, Geumsan-gun, Chungcheongnam-do2023.04.02.1,337
Daedong-myeon, Hampyeong-gun, Jeollanam-do2023.04.03.681.72


2.1.2. 연구데이터

본 연구에서는 PlanetScope와 Sentinel-2 위성영상 자료를 사용하였다. PlanetScope는 Planet Labs 에서 운용중인 군집위성 시스템으로, 130개 이상의 큐브샛 (CubeSat)으로 구성되어 구성되어 있어 매일 재방문하여 관측할 수 있는 특징을 갖고 있다(Planet Lab, 2023). 센서에 따라 Dove-Classic, Dove-R 및 Super Dove 위성군으로 나뉘며, 가시광선(visible, VIS), 근적외선(near infrared, NIR) 밴드 포함 최대 8개의 분광밴드 정보를 약 3 m의 공간해상도로 제공한다. 연구에 사용된 PlanetScope 위성영상은 대기보정을 포함하여 방사, 정사 및 센서 보정이 적용된 Level-3B (L3B) PlanetScope 영상을 사용하였다. Sentinel-2 위성은 유럽 우주국(ESA)에서 운영하는 고해상도 위성으로 광범위한 지역을 커버하며, Sentinel-2A와 2B가 함께 운용될 경우 최대 5일 간격으로 동일 지역을 재방문할 수 있다(Drusch et al., 2012). Sentinel-2는 VIS, NIR, 중적외선(short wave infrared, SWIR) 등을 포함한 13개의 분광 밴드를 제공하며, 10 m, 20 m, 60 m의 다양한 공간 해상도를 지원하여 토지피복 및 재해 모니터링에 유용하게 활용된다. 연구에 사용된 PlanetScope와 Sentinel-2 위성의 재원은 Table 2에 제시되어있다. PlanetScope만을 사용할 경우와 Sentinel-2 영상을 추가하여 융합했을 때의 딥러닝 모델 성능 비교를 위해, 산불 발생 시점과 근접한 날짜의 PlanetScope 영상과 그와 가장 가까운 시기의 Sentinel-2 영상을 수집하였다. 수집된 데이터는 Table 3에 정리되어 있으며, 각 위성영상의 촬영날짜와 Scene ID가 포함되어 있다.

Table 2 The specifications of the PlanetScope and Sentinel-2 satellites applied in the study

SourcePlanetScopeSentinel-2
Sensor TypeSuper Dove (PSB.SD)Multispectral Instrument (MSI)
Pixel Resoultion (m)310, 20, and 60
Revisit TimeDaily5 days
Orbit Height475 km786 km
Band Type8 bands: Coastal Blue, Blue, Green, Yellow, Red, and NIR13 bands: Coastal Aerosol, Blue, Green, Red, NIR, and SWIR
Applied Spectral Band Wavelengths (nm)Green (B4): 547–583
Red (B6): 650–680
NIR (B8): 845–885
Green (B3): 543–578
Red (B4): 650–680
NIR (B8): 785–900


Table 3 Satellite Scene ID collected by study area

SatelliteRegionScene ID
PlanetScopeYanggu20220415_020617_63_227b
Miryang20220603_020423_84_2402
Hongseong20230409_015817_15_2475
Geumsan20230410_015709_50_2498
Hampyeong20230410_012651_14_24b9
Sentinel-2YangguS2A_MSIL1C_20220417T021611_N0400_R003_T52SDH_20220417T040757
MiryangS2A_MSIL1C_20220603T020701_N0400_R103_T52SDE_20220603T042511
HongseongS2A_MSIL1C_20230422T021531_N0509_R003_T52SBF_20230422T040212
GeumsanS2A_MSIL1C_20230412T021531_N0509_R003_T52SCF_20230412T043905
Hampyeong S2B_MSIL1C_20230427T021539_N0509_R003_T52SBD_20230427T040200


2.1.3. 위성영상 전처리

본 연구에서는 PlanetScope와 Sentinel-2 위성 영상을 활용하여 산불 피해 탐지 딥러닝 모델을 구축하고, 각 위성 영상에 대한 전처리 과정을 수행하였다(Fig 2). PlanetScope는 대기보정 등 영상보정이 완료된 상태인 L3B 자료로 제공되어 바로 사용이 가능하다. 반면, Sentinel-2 데이터는 PlanetScope와의 해상도 일치를 위해 쌍입방 보간법(bicubic interpolation) 방법을 적용하여 3 m로 리샘플링하였다. 그리고 top of atmosphere (TOA) 반사도 값을 갖는 Level-1C데이터를 Sen2Cor v2.11 대기보정 프로세스를 통해 bottomof atmosphere (BOA) 반사도 값을 Level-2A 영상으로 처리되었다(Louis et al., 2016).

Fig. 2. Satellite image pre-processing process.

이후 두 데이터에 다음과 같은 일련의 전처리 과정을 적용하였다. 첫째, region of interest (ROI) 폴리곤(polygon)을 사용하여 위성영상별 분석 대상 지역을 동일하게 추출하였다. 둘째, 2–98%로 히스토그램 스트레칭(histogram stretching)을 수행하여 영상의 대비를 향상시키고 이상치(outlier)를 제거하였다. 이는 이미지의 하위 2%와 상위 2% 픽셀 값을 제외하고 나머지 픽셀 값들만을 확장시켜 이미지의 시각적 품질을 개선하며, 모델이 중요한 특징을 더 잘 학습할 수 있도록 돕는다. 셋째, 정규화를 수행하여 이미지의 픽셀 값 범위를 1에서 255 사이로 통일시켰다. NoData 값은 0으로 설정되어 제외되며 나머지 픽셀 값들은 해당 범위로 정규화된다. 이 정규화는 모델의 안정적인 학습을 돕고, 각 픽셀 값이 동일한 범위에 존재하도록 하여 학습이 과도하게 한 범위에 집중되는 현상을 방지한다. 마지막으로 선행 연구에서 성능이 입증된 R-NIR-G 가색 영상을 사용하였다(Park et al., 2018; Lee et al., 2024). 이를 위해Green, Red, NIR 밴드를 사용하여 R-NIR-G 가색영상을 생성하였다.

2.2. 딥러닝 모델 구축 및 평가방법

2.2.1. Swin Transformer

딥러닝 모델을 기반으로 의미론적 분할(semantic segmentation)을 수행하기 위해 Transformer 계열 모델인 Swin Transformer를 사용하였다(Fig. 4). Swin Transformer는 계층적인 구조로 이미지의 특징을 학습하며, self attention을 통해 높은 정확도를 보이는 모델이다(Liu et al., 2021). 이 모델은 기존 Vision Transformer의 구조를 컴퓨터 비전 작업에 맞게 효율적으로 변형한 것으로 이미지 분류, 객체 탐지, 의미론적 분할 등 다양한 비전 작업에서 뛰어난 성능을 보이고 있다(Aleissaee et al., 2023). Swin Transformer는 모델의 크기와 복잡도에 따라 Tiny (Swin-T), Small (Swin-S), Base (Swin-B), Large (Swin-L)로 나뉜다. 각 모델 크기에 따라 임베딩 차원(embedding dimension)과 블록 구조가 달라지며, 그에 따라 모델의 파라미터(parameter) 수와 계산 복잡도에도 차이가 난다..

Fig. 4. Swin Transformer architecture applied in the study.

2.2.2. 레이블 작성

딥러닝 분석을 수행하기 위해서는 명확한 레이블 작성이 필수적이다. 본 연구에서는 반자동 레이블 작성을 위해 ImageJ (https://imagej.net/)의 Fiji 프로그램을 사용하였다. Fiji는 이미지 처리 및 분석에 특화된 오픈 소스 소프트웨어로 다양한 플러그인과 기능을 통해 사용자 친화적인 인터페이스를 제공한다(Arzt et al., 2022). 레이블 생성 과정에서 RGB (true color) 및 R-NIR-G (false color) 영상을 활용하여 명확한 레이블 작성을 수행하고자 했으며, 수동으로 미세조정하여 각 영역의 특성을 보다 세밀하게 반영할 수 있었다.

2.2.3. 딥러닝 훈련자료 구축

딥러닝 훈련 자료를 구축하기 위해 전처리가 완료된 영상과 레이블을 256 × 256 패치(patch) 크기로 분할하였다. 패치 크기를 256 × 256으로 설정한 것은 산불피해 탐지에 필요한 지역 특성 정보를 충분히 반영할 수 있으면서도 모델이 효율적으로 학습할 수 있도록 하기 위함이다. 또한, 패치 간의 정보 손실을 최소화하고 연속적인 공간적 특성을 반영하기 위해 10%씩 오버랩(overlap)하여 패치를 생성하였다. 이렇게 분할한 후 값이 존재하지 않는 패치를 제외하고 PlanetScope와 Sentinel-2 각각 753장의 유효한 패치 영상이 생성되었다. 이후, 5개의 산불 지역에 대해 5-fold 교차검증 방식을 적용하여 각 지역을 테스트 세트로 삼고 나머지 4개 지역을 훈련 및 검증용으로 활용하였다. 이 과정은 엄격한 기준에서 각 지역의 특성을 균형 있게 반영하고 특정 지역에 대한 과도한 의존을 방지하여 모델의 안정성과 신뢰성을 높이는 데 기여한다.

연구에 사용된 산불사례는 대형 산불에 해당하지만 전체 위성 영상의 크기에 비해 산불 피해지가 차지하는 비율이 작아 딥러닝 모델 학습 시 과적합(overfitting) 위험이 존재한다. 이를 완화하고 훈련 데이터를 확장하기 위해 데이터 증강기법을 사용하였다. 증강기법으로는 보편적으로 사용되는 기하학적 변형에 의한 증강방법과 Hendrycks et al. (2019)이 제안한AugMix의 두 가지 방법을 사용하여 비교함으로써 각 증강기법이 모델의 성능에 미치는 영향을 평가하고자 하였다(Fig. 5). 기하학적 변형에 의한 증강방법은 회전, 왜곡, 밝기·대비 조정, 노이즈 추가 등을 사용하여 원본 영상을 다양화한다. AugMix는 강인성(robustness) 향상을 목표로 원본 영상과 증강된 영상 간의 분포 차이가 크게 나지 않도록 혼합된 형태의 영상을 생성하며, 다양한 환경에서도 일관된 성능을 유지할 수 있다는 장점이 있다(Hendrycks et al., 2019). 이 과정에서 각 fold에 테스트 지역으로 할당된 패치는 증강에서 제외하고, 훈련에 사용될 패치들을 3배로 증강하여 딥러닝 훈련자료로 사용하였다.

Fig. 5. Comparison of existing augmentation methods with AugMix. (a) Original patch image, (b) patch images with geometric augmentation methods applied, and (c) patch images with expanded data using AugMix method.

2.2.4. 딥러닝 환경설정

연구에서는 사전 테스트에서 가장 우수한 성능을 보인 Swin-B Transformer 모델을 백본(backbone)으로 사용하고, UPerNet을 디코더 헤드로 적용하였다. Swin-B 모델의 임베딩 차원인 128로 설정하고, {2, 2, 18, 2} 구조를 적용하여 다양한 스케일에서 효율적인 특징 추출이 가능하도록 구성하였다(Fig. 5). 또한, 7 × 7 윈도우 크기를 사용하여 지역 및 전체적인 문맥 정보를 효과적으로 학습하도록 구성하였다. 산불과 비산불 영역의 클래스 불균형 문제를 해결하기 위해 Focal Loss를 손실 함수로 사용하였다. Focal Loss는 기존의 Binary Cross Entropy 손실 함수에 조정 인자를 추가하여 손실이 적은 쉬운 예시의 기여도를 줄이고 어려운 예시에 더 큰 가중치를 부여함으로써 모델이 복잡한 예시에도 집중할 수 있도록 한다(Jadon, 2020). 이때 조정 인자 γ값이 높을수록 어려운 예시에 대한 가중치가 증가하여 클래스 불균형 상황에서의 성능을 개선하는 데 효과적이다.

산불피해 탐지 성능을 최적화하기 위해 Swin Transformer 모델을 학습하는 과정에서AdamW옵티마이저를 사용하고, 학습률(learning rate)을 6 × 10–5으로, weight decay를 5 × 10–5으로 하이퍼파라미터를 설정하였다. 학습은 배치 크기 16으로 60,000번의 반복(iteration) 동안 진행되었으며, 적용된 하이퍼파라미터는 Table 4에 요약되어 있다.

Table 4 Hyperparameters used in the Swin Transformer model for detecting wildfire-burned areas

ModelSwin Transformer
Input patch size256 × 256
Window size7
Loss functionFocal Loss
Iteration60,000
OptimizerAdamW
Batch size16
Learning rate6 × 10–5
weight decay5 × 10–5
OutputProbability map


2.2.5. 모델 평가

Swin Transformer 모델의 성능을 정량적으로 평가하기 위해 산불피해 탐지성능을 정확도(accuracy), 정밀도(precision), 재현율(recall), F1-score 및 intersection over union (IoU) 지표를 사용하여 종합적으로 분석하였다. 각 평가지표는 아래의 수식(1–5)에 따라 계산되었다. 정확도는 전체 예측 중 실제 값과 일치한 비율을 나타내고, 정밀도는 모델이 Positive로 예측한 것 중 실제로 Positive인 비율을 측정한다. 재현율은 실제 Positive 중 모델이 올바르게 예측한 비율을 나타내며, F1-score는 정밀도와 재현율의 균형을 평가하는 지표이다. IoU는 예측과 실제 영역 간의 겹침 비율을 측정한다. 이러한 지표들은 산불피해 탐지 모델의 예측 정확도를 다각도로 평가하는데 기여하며, 모델의 성능을 정밀하게 측정할 수 있다.

3.1. 증강기법이 성능에 미치는 영향평가

본 연구는 PlanetScope 이미지를 활용하여 기하학적 변형에 의한 증강기법과 AugMix 기법이 모델 성능에 미치는 영향을 비교 분석하였다. 5개의 지역(양구, 밀양, 홍성, 금산, 함평)을 대상으로 5-fold 교차 검증을 수행한 결과, AugMix를 적용한 모델이 기하학적 증강 기법에 비해 전반적으로 향상된 성능을 보였다(Table 5). AugMix 기법을 적용한 모델은 5개의 지역에서 평균 정밀도 78.51, 재현율 75.43, F1-score 76.48로 기존의 방법에 비해 산불 피해지역에 대한 IoU가 약 2.8 향상된 성능을 보였다. 이는 AugMix가 다양한 지역특성에 적응하며 모델의 예측 성능을 개선하는데 기여했음을 시사한다. Fig. 6의 정성적 비교에서도 AugMix가 산불 피해의 경계를 기존기법보다 일관되게 탐지하는 경향을 확인할 수 있다. 그러나 금산산불의 경우 상대적으로 가장 낮은 정확도를 보였다. 산불 피해지역과 반사도가 낮은 도심지에서 오탐지되거나 피해 범위가 과소 추정되는 경향이 나타났으며, 이는 기존 연구에서도 반사도가 낮은 지역이 탐지에서 주요한 어려움으로 언급된 바 있다(Knopp et al., 2020). AugMix를 적용한 모델은 산불 피해지역과 규모를 보다 명확히 탐지하는 경향을 보였으나 얕은 산림소실과 같은 경미한 피해는 탐지에 한계가 있었다. 이러한 결과는 산불 피해 발생 초기시점 영상에서 피해지역의 경계가 불명확했던 점과 데이터의 특성이 모델 학습에 충분히 반영되지 못한데에서 기인했을 가능성이 있다(Fig. A1). 향후 데이터 추가와 산림피해 특성을 반영한 데이터 처리 기법 등을 통해 성능개선이 필요하다.

Fig. 6. Example comparison of existing augmentation methods and AugMix. (a) RGB Images, (b) R-NIR-G images, (c) label, (d) existing augmentation prediction, and (e) AugMix prediction.

Fig. 10. Comparison of augmentation methods for wildfire in Geumsan. (a–b) false detection cases regarding the scale of wildfire damage and (c) false detection cases in water bodies.

Table 5 Regional model evaluation of existing augmentation methods and AugMix (Unit: %)

Augmentation MethodRegionClassAccuracyIoUPrecisionRecallF1-score
Existing AugmentationYangguNon-damage96.7296.5898.6697.8798.26
Damage55.5767.0376.4671.44
MiryangNon-damage99.4499.4399.7499.6999.71
Damage75.8685.1087.4886.27
HongseongNon-damage97.1697.0798.2598.7898.51
Damage53.4073.6666.0069.62
GeumsanNon-damage98.9498.9398.9999.9499.46
Damage47.0793.9448.5564.01
HampyeongNon-damage99.0999.0799.6899.3999.53
Damage65.7675.5374.4279.34
Average of 5 regionsNon-damage98.2798.2299.0699.1399.09
Damage59.5379.0570.5874.14
Average78.8789.0684.8686.62
AugMixYangguNon-damage97.0696.9498.5498.3598.45
Damage57.5371.8174.3173.04
MiryangNon-damage99.4599.4499.8199.6399.72
Damage76.8783.5690.5786.93
HongseongNon-damage97.3597.2598.5098.7198.61
Damage56.8674.0071.0572.50
GeumsanNon-damage99.0399.0299.2299.8099.51
Damage54.6685.5460.2270.68
HampyeongNon-damage99.1399.1199.6099.5199.55
Damage65.6677.6280.9979.27
Average of 5 regionsNon-damage98.4098.3599.1399.2099.17
Damage62.3278.5175.4376.48
Average80.3388.8287.3187.83


3.2. Sentinel-2 영상 추가 활용을 통한 PlanetScope 기반 모델 성능 평가

본 연구의 두 번째 목표는 PlanetScope 위성영상만을 사용한 분석에서 Sentinel-2 데이터를 추가하여 다종위성영상 기반 모델의 성능을 비교하는 것이었다. 3.1절에서 높은 결과를 보였던 AugMix 기법을 사용하여 모델을 학습한 결과는 Table 6과 같다. 대부분의 지역에서 Sentinel-2 위성영상을 추가함으로써 PlanetScope만 사용한 경우보다 전반적인 성능이 향상되었음을 확인하였다. 홍성 산불은 F1-score가 81.20으로, PlanetScope만 사용한 모델(72.50)에 비해 8.7 개선되었으며, 함평 산불은 산불 피해지 IoU가 기존 65.66에서 76.03로 약 10.37 향상되었다. 이는 Sentinel-2 위성영상이 추가되었을 때, 모델이 보다 폭넓은 지역적 특성과 세부정보를 학습함으로써, 예측의 신뢰도와 정확성을 향상시킬 수 있음을 보여준다.

Table 6 Quantitative results of wildfire burned area detection by region using a model with PlanetScope and Sentinel-2 data (Unit: %)

RegionAccuracyF1-scorePrecisionRecallDamage_IoUNon-damage_IoUmIoU
Yanggu97.7180.0375.1585.5966.7197.6082.16
Miryang99.1883.7782.5785.0172.0899.1685.62
Hongseong97.7781.2079.8782.5768.3597.6583.00
Geumsan99.1473.9289.9362.7558.6399.1378.88
Hampyeong99.2786.3883.7089.2476.0399.2687.65
Average of 5 regions98.6181.0682.2481.0368.3698.5683.46


반면, 밀양 산불은 Sentinel-2 위성영상을 추가했음에도 PlanetScope 만으로 학습한 모델의 성능보다 소폭 하락하였다. 이는 Sentinel-2 영상의 공간 해상도 차이와 센서 특성으로 인한 노이즈가 모델학습에 영향을 미친것으로 보인다. 특히, 밀양 지역에서는 PlanetScope와 Sentinel-2의 동일 날짜에 수집된 영상을 사용했기 때문에 두 위성간의 물리적 차이로 인해 모델 예측에서 불일치가 발생했을 가능성도 존재한다. 그럼에도 밀양 지역 산불 피해지의 IoU는 72.08로 높은 성능을 유지하였다. Fig. 7은 각 지역별 예측 결과를 시각화한 이미지로, Sentinel-2 데이터를 추가한 경우 과소탐지되었던 영역과 오탐지가 개선되고 피해탐지 결과의 신뢰성이 높아졌음을 보여준다.

Fig. 7. Qualitative results of wildfire burned area detection by region. (a) R-NIR-G false-color image, (b) label, (c) prediction results using only PlanetScope, (d) probability map using only PlanetScope, (e) prediction results using PlanetScope and Sentinel-2, and (f) probability map using PlanetScope and Sentinel-2.

본 연구는 한국의 5개 산불 피해지를 독립적인 테스트 fold로 설정하여 분석을 수행하였으며, 다양한 토지피복, 고도 차이, 그림자 등으로 인한 왜곡이 존재하는 환경에서도 높은 성능을 보였다(Cho et al., 2022). 입력 영상으로 R-NIR-G만을 활용했음에도 불구하고, 5개의 테스트 fold에 대해 평균mean IoU(mIoU) 83.46을 달성하였다. 이는 산불 피해지에서 높은 반사도 값을 갖는 특성이 있는 SWIR 밴드를 적용한 Hu et al. (2021)의 딥러닝 분석에서 제시한 mIoU 성능과 유사한 수준의 결과를 보였다. 그러나 이미지의 특정 부분에서 색상이나 질감이 유사한 영역이 화재가 발생하지 않은 지역으로 잘못 분류되는 문제가 존재하였으며, 이는 향후 연구에서 개선될 필요가 있다(Gudelj and Papić, 2024).

3.3. 산불 피해지 탐지 적용성 평가: 밀양산불 피해지 탐지결과 비교

Fig. 8은 밀양산불 피해지를 대상으로 PlanetScope와 Sentinel-2 영상을 함께 사용한 모델의 추론 결과를 PlanetScope와 Sentinel-2 위성별로 각각 산출하여 비교한 결과이다. 동일한 날짜에 PlanetScope와 Sentinel-2 위성영상이 수집된 산불 피해지는 밀양 산불이 유일하여 두 데이터를 동일 조건 하에 비교할 수 있는 적합한 대상지로 선정되었다. 각 결과는 밀양 산불이 학습 및 추론에 사용되지 않은 상태에서 테스트되었으며, 두 위성에서 모두 산불피해 영역을 잘 탐지하는 것을 확인할 수 있었다. PlanetScope 영상은 고해상도 위성영상으로 더 세밀한 경계를 제공하였고, Sentinel-2 데이터는 다소 낮은 해상도에도 불구하고 피해 범위에 대한 전반적인 경향을 효과적으로 탐지하였다. 그러나 공간적 특성이 충분히 반영되지 못한 한계가 있었으며, 향후 초해상화(super-resolution) 기법 적용을 통해 탐지 정확도를 더욱 향상시킬수 있을 것이다.

Fig. 8. Miryang wildfire inference results. (a) PlanetScope R-NIR-G false-color image, (b) Sentinel-2 R-NIR-G false-color image, (c) label, (d) PlanetScope prediction map, (e) Sentinel-2 prediction map, (f-g) PlanetScope probability map, and (h-i) Sentinel-2 probability map.

두 위성영상의 상관관계 분석을 위해 피어슨 상관계수(R)와 root mean squared error (RMSE)를 사용하였다. 피어슨 상관계수는 두 변수 간의 선형 관계를 나타내며, 1에 가까울수록 양의 상관관계가 높음을, RMSE는 값이 작을수록 두 밴드 간 유사성이 높음을 의미한다. Fig. 9는 두 위성 간 밴드별 상관계수와 RMSE 분석결과를 보여준다. Red 밴드는 상관계수 0.980으로 높은 양의 상관관계를 보였고, RMSE는 3.497로 낮아 두 데이터 간 높은 일치성을 나타냈다. Green 밴드도 유사한 결과로 상관계수 0.962와 RMSE 3.566을 기록하였다. 그러나 NIR 밴드는 상관계수가 0.961로 높은 상관관계를 보였지만, RMSE가 6.623으로 상대적으로 큰 오차를 나타냈다. NIR 밴드의 높은 RMSE는 모델이 특정 영역의 탐지에서 더 낮은 성능을 보이는 원인 중 하나로 작용할 수 있다. 이는 두 영상의 공간 해상도, 관측환경 및 스펙트럼 범위 차이 등으로 해석할 수 있으며, 향후 히스토그램 매칭과 같은 추가적인 분석과 고찰이 필요하다(Kim et al., 2019).

Fig. 9. Correlation analysis of PlanetScope and Sentinel-2 bands. (a) Red band, (b) NIR band, and (c) Green band.

본 연구에서는 딥러닝 기반의 고해상도 광학위성 영상을 활용하여 국내 산불 피해지를 탐지하였다. AugMix 증강방법은 기하학적 변형을 통한 증강기법보다 우수한 성능을 보였으며, 이러한 성능 향상은 PlanetScope와 Sentinel-2 데이터를 함께 사용하여 구축한 모델의 탐지 정확도 향상에 기여하였다. PlanetScope는 고해상도 군집위성으로 세밀한 산불 피해지 탐지에 강점을 보이지만 대규모 데이터 수집에는 한계가 있다. 반면, Sentinel-2는 상대적으로 낮은 공간 및 시간 해상도를 가지지만 데이터 가용성이 높아 넓은지역의 산불 피해 범위를 효과적으로 포착할 수 있다. 두 데이터셋간 높은 상관계수는 PlanetScope의 정밀도와 Sentinel-2의 포괄성을 융합함으로써 상호보완적인 분석이 가능함을 보여준다. 이러한 결과는 다양한 해상도와 관측해상도를 갖는 다종위성 영상을 융합하여 초기 산불 피해지 복구 계획뿐 아니라, 장기적인 환경 모니터링에도 기여할 수 있을것으로 기대된다.

Fig. 3. Flow chart in the study.

본 연구는 과학기술정보통신부의 “초소형위성 군집시스템의 활용 지원시스템 및 활용기술개발(과제번호: 2021M1A3A4A11032019)”의 일환으로 수행되었으며, 이에 감사드립니다.

No potential conflict of interest relevant to this article was reported.

  1. Aleissaee, A. A., Kumar, A., Anwer, R. M., Khan, S., Cholakkal, H., Xia, G. S., and Khan, F. S., 2023. Transformers in remote sensing: A survey. Remote Sensing, 15(7), 1860. https://doi.org/10.3390/rs15071860
  2. Arzt, M., Deschamps, J., Schmied, C., Pietzsch, T., Schmidt, D., and Tomancak, P., et al, 2022. LABKIT: Labeling and segmentation toolkit for big image data. Frontiers in Computer Science, 4, 777728. https://doi.org/10.3389/fcomp.2022.777728
  3. Chang, D. Y., Jeong, S., Park, C. E., Park, H., Shin, J., and Bae, Y., et al, 2024. Unprecedented wildfires in Korea: Historical evidence of increasing wildfire activity due to climate change. Agricultural and Forest Meteorology, 348, 109920. https://doi.org/10.1016/j.agrformet.2024.109920
  4. Cho, A. Y., Park, S. E., Kim, D. J., Kim, J., Li, C., and Song, J., 2022. Burned area mapping using unitemporal Planetscope imagery with a deep learning based approach. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 16, 242-253. https://doi.org/10.1109/JSTARS.2022.3225070
  5. Chung, M., Han, Y., and Kim, Y., 2020. A framework for unsupervised wildfire damage assessment using VHR satellite images with PlanetScope data. Remote Sensing, 12(22), 3835. https://doi.org/10.3390/rs12223835
  6. Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., and Unterthiner, T., et al, 2020. An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://doi.org/10.48550/arXiv.2010.11929
  7. Drusch, M., Del Bello, U., Carlier, S., Colin, O., Fernandez, V., and Gascon, F., et al, 2012. Sentinel-2: ESA's optical high-resolution mission for GMES operational services. Remote Sensing of Environment, 120, 25-36. https://doi.org/10.1016/j.rse.2011.11.026
  8. Ghali, R., and Akhloufi, M. A., 2023. Deep learning approaches for wildland fires using satellite remote sensing data: Detection, mapping, and prediction. Fire, 6(5), 192. https://doi.org/10.3390/fire6050192
  9. Gudelj, A. Š., and Papić, V., 2024. Comparative analysis of wildfire segmentation using Copernicus Sentinel and Nimbo Earth Platforms multispectral images. In Proceedings of the 2024 International Conference on Software, Telecommunications and Computer Networks (SoftCOM), Split, Croatia, Sept. 26-28, pp. 1-6. https://doi.org/10.23919/SoftCOM62040.2024.10721850
  10. Hendrycks, D., Mu, N., Cubuk, E. D., Zoph, B., Gilmer, J., and Lakshminarayanan, B., 2019. Augmix: A simple data processing method to improve robustness and uncertainty, arXiv preprint arXiv:1912.02781. https://doi.org/10.48550/arXiv.1912.02781
  11. Hu, X., Ban, Y., and Nascetti, A., 2021. Uni-temporal multispectral imagery for burned area mapping with deep learning. Remote Sensing, 13(8), 1509. https://doi.org/10.3390/rs13081509
  12. Jadon, S., 2020. A survey of loss functions for semantic segmentation. In Proceedings of the 2020 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB), Vina del Mar, Chile, Oct. 27-29, pp. 1-7. https://doi.org/10.1109/CIBCB48159.2020.9277638
  13. Kim, M., Jung, M., and Kim, Y., 2019. Histogram matching of Sentinel-2 spectral information to enhance Planetscope imagery for effective wildfire damage assessment. Korean Journal of Remote Sensing, 35(4), 517-534. https://doi.org/10.7780/kjrs.2019.35.4.3
  14. Kim, S., Suk, J., Lee, D., and Lee, J., 2023. National disaster management, investigation, and analysis using RS/GIS data fusion. Korean Journal of Remote Sensing, 39(5-2), 743-754. https://doi.org/10.7780/kjrs.2023.39.5.2.1
  15. Knopp, L., Wieland, M., Rättich, M., and Martinis, S., 2020. A deep learning approach for burned area segmentation with Sentinel-2 data. Remote Sensing, 12(15), 2422. https://doi.org/10.3390/rs12152422
  16. Korea Forest Service, 2023. Forest Fire Statistics Yearbook 2022, Korea Forest Service. http://www.kffmsa.kr/admin/admin_board_01/data/2022%EB%85%84_%EC%82%B0%EB%B6%88%ED%86%B5%EA%B3%84%EC%97%B0%EB%B3%B4.pdf
  17. Korea Forest Service, 2024. Forest Fire Statistics Yearbook 2023, Korea Forest Service. http://www.kffmsa.kr/admin/admin_board_01/data/2023%EB%85%84_%EC%82%B0%EB%B6%88%ED%86%B5%EA%B3%84%EC%97%B0%EB%B3%B4.pdf
  18. Lee, D., Son, S., Bae, J., Park, S., Seo, J., and Seo, D., et al, 2024. Single-temporal Sentinel-2 for analyzing burned area detection methods: A study of 14 cases in Republic of Korea considering land cover. Remote Sensing, 16(5), 884. https://doi.org/10.3390/rs16050884
  19. Lee, S., Kim, K., Kim, Y., Kim, J., and Lee, Y., 2017. Development of FBI (Fire Burn Index) for Sentinel-2 images and an experiment for detection of burned areas in Korea. Journal of the Association of Korean Photo-Geographers, 27(4), 187-202. https://doi.org/10.35149/jakpg.2017.27.4.012
  20. Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., and Zhang, Z., et al, 2021. Swin transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision (ICCV), Montreal, QC, Canada, Oct. 10-17, pp. 10012-10022. https://doi.org/10.1109/ICCV48922.2021.00986
  21. Louis, J., Debaecker, V., Pflug, B., Main-Knorn, M., Bieniarz, J., and Mueller-Wilm, U., et al, 2016. Sentinel-2 Sen2Cor: L2A processor for users. In Proceedings of the 2016 Living Planet Symposium, Prague, Czech Republic, May 9-13, pp. 1-8.
  22. Park, J., Lee, D., Lee, J., Cheon, E., and Jeong, H., 2023. Study on disaster response strategies using multi-sensors satellite imagery. Korean Journal of Remote Sensing, 39(5-2), 755-770. https://doi.org/10.7780/kjrs.2023.39.5.2.2
  23. Park, S. W., Kim, H. W., Lee, S. J., Yun, Y. S., Kim, E. S., Lim, J. H., and Lee, Y. W., 2018. Detection of forest disaster areas using highresolution satellite images with fully convolutional network. Journal of the Association of Korean Photo-Geographers, 28(4), 87-101. https://doi.org/10.35149/jakpg.2018.28.4.006
  24. Park, S. W., Lee, S. J., Chung, C. Y., Chung, S. R., Shin, I., and Jung, W. C., et al, 2019. Satellite-based forest withering index for detection of fire burn area: Its development and application to 2019 Kangwon wildfires. Korean Journal of Remote Sensing, 35(2), 343-346. https://doi.org/10.7780/kjrs.2019.35.2.13
  25. Payra, S., Sharma, A., and Verma, S., 2023. Application of remote sensing to study forest fires. In: Singh, A. K., Tiwari, S., (eds.), Atmospheric remote sensing: Principles and applications, Elsevier, pp. 239-260. https://doi.org/10.1016/B978-0-323-99262-6.00015-8
  26. Planet Labs, 2023. Planet imagery product specifications. Available online: https://assets.planet.com/docs/Planet_Combined_Imagery_Product_Specs_letter_screen.pdf (accessed on Nov. 11, 2024)
  27. Rashkovetsky, D., Mauracher, F., Langer, M., and Schmitt, M., 2021. Wildfire detection from multisensor satellite imagery using deep semantic segmentation. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 7001-7016. https://doi.org/10.1109/JSTARS.2021.3093625
  28. Shendryk, I., Rist, Y., Lucas, R., Thorburn, P., and Ticehurst, C., 2018. Deep learning - A new approach for multi-label scene classification in planetscope and sentinel-2 imagery. In Proceedings of the IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia, Spain, July 22-27, pp. 1116-1119. https://doi.org/10.1109/IGARSS.2018.8517499
  29. Tayer, T. C., Douglas, M. M., Cordeiro, M. C., Tayer, A. D., Callow, J. N., Beesley, L., and McFarlane, D., 2023. Improving the accuracy of the water detect algorithm using Sentinel-2, Planetscope and sharpened imagery: A case study in an intermittent river. GIScience & Remote Sensing, 60(1), 2168676. https://doi.org/10.1080/15481603.2023.2168676
  30. Thisanke, H., Deshan, C., Chamith, K., Seneviratne, S., Vidanaarachchi, R., and Herath, D., 2023. Semantic segmentation using vision transformers: A survey. Engineering Applications of Artificial Intelligence, 126, 106669. https://doi.org/10.1016/j.engappai.2023.106669
  31. Vilà-Vilardell, L., Keeton, W. S., Thom, D., Gyeltshen, C., Tshering, K., and Gratzer, G., 2020. Climate change effects on wildfire hazards in the wildland-urban-interface-Blue pine forests of Bhutan. Forest Ecology and Management, 461, 117927. https://doi.org/10.1016/j.foreco.2020.117927
  32. Zhang, P., Hu, X., Ban, Y., Nascetti, A., and Gong, M., 2024. Assessing Sentinel-2, Sentinel-1, and ALOS-2 PALSAR-2 data for largescale wildfire-burned area mapping: Insights from the 2017-2019 Canada wildfires. Remote Sensing, 16(3), 556. https://doi.org/10.3390/rs16030556

Research Article

Korean J. Remote Sens. 2024; 40(6): 991-1004

Published online December 31, 2024 https://doi.org/10.7780/kjrs.2024.40.6.1.10

Copyright © Korean Society of Remote Sensing.

PlanetScope와 Sentinel-2 위성영상을 활용한 Swin Transformer 기반 산불피해 탐지 성능 개선: 다종 데이터 융합의 효과 분석

이도이1, 손상훈2, 배재구2, 박소련3, 이성혁3, 서정민4, 김예지5, 최민하6, 이양원7, 김진수7*

1부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석/박사통합과정생
2부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사수료생
3부경대학교 지구환경시스템과학부 공간정보시스템공학전공 박사과정생
4부경대학교 지구환경시스템과학부 공간정보시스템공학전공 석사과정생
5항공우주연구원 위성활용부 연구원
6성균관대학교 건설환경공학부 교수
7부경대학교 지구환경시스템과학부 위성정보융합공학전공 교수

Received: November 14, 2024; Revised: December 5, 2024; Accepted: December 5, 2024

Enhancing Wildfire Damage Detection Performance with Swin Transformer Using PlanetScope and Sentinel-2 Satellite Imagery: Analysis of Multi-Source Data Fusion

Doi Lee1, Sanghun Son2, Jaegu Bae2, Soryeon Park3, Seonghyuk Lee3, Jeongmin Seo4, Yeji Kim5, Minha Choi6, Yangwon Lee7, Jinsoo Kim7*

1Combined MS/PhD Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
2PhD Candidate, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
3PhD Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
4Master Student, Department of Spatial Information Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea
5Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea
6Professor, School of Civil, Architectural Engineering & Landscape Architecture, Sungkyunkwan University, Suwon, Republic of Korea
7Professor, Major of Geometics Engineering, Division of Earth and Environmental System Science, Pukyong National University, Busan, Republic of Korea

Correspondence to:Jinsoo Kim
E-mail: jinsookim@pknu.ac.kr

Received: November 14, 2024; Revised: December 5, 2024; Accepted: December 5, 2024

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

Wildfire damage detection has a pivotal role in forest management and recovery strategy planning. This study demonstrates that the use of a deep learning Swin (shifted windows) Transformer model, by integrating high-resolution PlanetScope and Sentinel-2 satellite imagery, can effectively enhance wildfire damage detection performance. A 5-fold cross-validation was conducted on five major wildfire areas in South Korea, with independent detection performance evaluated for each region to assess the model’s reliability and generalization. The comparison between traditional geometric augmentation methods and the AugMix method showed that AugMix resulted in a more consistent and improved performance, achieving an average F1-score of 76.48. Furthermore, the model incorporating Sentinel-2 data achieved an average F1-score of 81.06 across regions, confirming an improvement in detection accuracy and performance in identifying burned areas. This demonstrates that combining the complementary spatial and spectral information from both datasets allows for higher accuracy and precision in detecting wildfire damage. The high correlation coefficients between PlanetScope and Sentinel-2 data support the effective potential of multi-satellite fusion approaches. This study suggests that the use of multi-satellite imagery, through independent regional evaluation, can enhance the precision and reliability of wildfire damage detection.

Keywords: Wildfire burned areas detection, Swin transformer, Multi-satellite fusion, PlanetScope, Sentinel-2

1. 서론

전 세계적으로 산불은 생태계뿐만 아니라 재산과 안전에도 심각한 위협을 가하고 있다(Vilà-Vilardell et al., 2020). 2022년 한국의 대규모 산불은 겨울철 건조한 날씨와 가뭄이 산불 위험을 크게 높일 수 있음을 보여주었으며(Chang et al., 2024), 산불 발생 후 넓은 지역의 피해 범위를 신속하고 정확하게 탐지하기 위해 위성영상의 활용이 매우 중요해졌다(Payra et al., 2023). 위성 광학영상은 산불 전후의 분광 특성을 반영하여 피해지를 탐지하는 데 유용하지만, 구름이나 기상 조건에 영향을 받는 단점이 있어 영상 획득 주기가 길어질 수 있다(Lee et al., 2017; Park et al., 2019). 예를 들어, 유럽우주국(European Space Agency, ESA)에서 운용하는 Sentinel-2는 5일의 시간 해상도로 영상을 제공하지만, 기상 상태가 좋지 않으면 영상 획득이 지연되어 산불 피해지 탐지에 어려움이 존재한다(Kim et al., 2023). 이와 같은 한계를 보완하고자, 다종위성을 활용하여 신뢰도 높은 탐지 결과를 얻는 연구가 주목받고 있다. Shendryk et al. (2018)은 PlanetScope와 Sentinel-2 영상을 융합하여 구름, 그림자, 토지피복을 더욱 정확하게 분류하는 연구를 수행했으며, Tayer et al. (2023)은 이 두 위성의 융합을 통해 신뢰도 높은 수체 탐지 워크플로우(workflow)를 제시하였다. 이러한 다종위성영상 기반의 융합 접근법은 산불 발생 이후 정밀하고 효율적인 피해지 탐지에 기여할 가능성이 높다. 다만 이러한 접근에서는 센서의 차이, 궤도 구성, 대기 효과 등에 따른 오류를 최소화하기 위한 고려가 필요하다(Chung et al., 2020). 서로 다른 위성에서 수집된 영상을 조합하는 다종위성영상 접근 방식은 이러한 조건을 고려함으로써 더욱 정밀하고 효율적인 산불 피해지 탐지를 가능하게 한다는 점에서 중요한 의미를 가진다(Park et al., 2023; Zhang et al., 2024).

최근에는 인공지능, 그중에서도 딥러닝 기법이 위성영상을 활용한 산불 피해지 탐지에 널리 적용되고 있다. 딥러닝은 머신러닝을 넘어 다양한 분야에서 성공적으로 적용되며 기존 탐지 기법보다 높은 정확도와 신뢰성을 제공하고 있다. 컨볼루션 신경망(ConvolutionalNeural Network, CNN)은 이미지 내 특징을 추출하고 패턴을 학습하는데 유리하여, 산불 피해지 탐지와 같은 이미지 분류 및 객체 검출 작업에서 많이 활용되어 왔다(Rashkovetsky et al., 2021; Ghali and Akhloufi, 2023). 그러나 CNN은 장거리 의존성을 모델링하는데 한계가 있어 넓은 지역의 위성 영상을 분석하는데 효율성이 떨어질 수 있다. 이에 따라 VisionTransformer와 같은 모델이 도입되었으며(Dosovitskiy, 2020), Swin (shifted windows) Transformer는 Local Self-Attention 메커니즘을 통해 더 넓은 범위의 공간 정보를 효율적으로 학습할 수 있는 장점을 지닌다(Liu et al., 2021). 이러한 특징덕분에 Swin Transformer는 기존의 CNN 기반 모델에 비해 고해상도 이미지에서 복잡한 패턴과 세부 공간 관계를 효과적으로 학습할 수 있어(Thisanke et al., 2023), 다종위성영상의 융합 및 산불피해 탐지 성능을 더욱 향상시킬 수 있는 가능성을 제시한다.

본 연구에서는 PlanetScope 위성영상을 기반으로 Swin Transformer 모델을 적용하여 산불 피해지 탐지 성능을 평가하고, Sentinel-2 데이터를 추가 활용했을 때의 성능을 비교 분석하고자 한다. 이를 통해 다종위성영상 융합이 탐지 성능을 얼마나 개선할 수 있는지 실험적으로 평가하여 산불 피해지 탐지의 신뢰성을 향상시키고자 한다.

2. 연구 방법

2.1. 연구 지역 및 데이터

2.1.1. 연구 지역

본 연구는 2022년에서 2023년 사이에 발생한 5개의 국내 대형산불을 대상으로 분석을 수행하였다(Fig. 1). 산림청 산불통계연보에 따르면, 선정된 산불지역은 피해 규모가 큰 지역들로 도심지와 인접해 있어 산불 모니터링과 피해 복구 관리가 필수적인 곳들이다(Korea Forest Service, 2023; 2024). 이 중 대부분의 산불은 봄철 건조한 기후와 강풍이 겹치는 4월과 5월에 발생하였다. 또한, 연구 대상지의 산불 발생원인은 담뱃불 실화, 원인 미상, 쓰레기 소각 등 주로 인위적인 요인에 의한 것으로 파악되었다(Korea Forest Service, 2023; 2024). 인위적 요인으로 인해 산불은 언제, 어디서 발생할지 예측하기 어려워 모니터링과 빠른 대응이 더욱 중요하다. 이는 다양한 환경 조건과 지역적 특성을 반영하여 산불의 불규칙성과 지역적 차이를 효과적으로 탐지할 수 있는 모델 개발의 중요성을 강조한다. 연구지역의 산불에 대한 세부정보는 Table 1과 같다.

Figure 1. Location of the study region and R-NIR-G false color image of collected PlanetScope satellite images. (a) Yanggu, (b) Miryang, (c) Hongseong, (d) Geumsan, and (e) Hampyeong.

Table 1 . Details of wildfire-affected study areas.

RegionEvent dateDamaged area (ha)
Yanggu-eup, Yanggu-gun, Gangwon-do2022.04.10.759
Bubuk-myeon, Miryang-si, Gyeongsangnam-do2022.05.31.660.82
Seobu-myeon, Hongseong-gun, Chungcheongnam-do2023.04.02.889.36
Boksu-myeon, Geumsan-gun, Chungcheongnam-do2023.04.02.1,337
Daedong-myeon, Hampyeong-gun, Jeollanam-do2023.04.03.681.72


2.1.2. 연구데이터

본 연구에서는 PlanetScope와 Sentinel-2 위성영상 자료를 사용하였다. PlanetScope는 Planet Labs 에서 운용중인 군집위성 시스템으로, 130개 이상의 큐브샛 (CubeSat)으로 구성되어 구성되어 있어 매일 재방문하여 관측할 수 있는 특징을 갖고 있다(Planet Lab, 2023). 센서에 따라 Dove-Classic, Dove-R 및 Super Dove 위성군으로 나뉘며, 가시광선(visible, VIS), 근적외선(near infrared, NIR) 밴드 포함 최대 8개의 분광밴드 정보를 약 3 m의 공간해상도로 제공한다. 연구에 사용된 PlanetScope 위성영상은 대기보정을 포함하여 방사, 정사 및 센서 보정이 적용된 Level-3B (L3B) PlanetScope 영상을 사용하였다. Sentinel-2 위성은 유럽 우주국(ESA)에서 운영하는 고해상도 위성으로 광범위한 지역을 커버하며, Sentinel-2A와 2B가 함께 운용될 경우 최대 5일 간격으로 동일 지역을 재방문할 수 있다(Drusch et al., 2012). Sentinel-2는 VIS, NIR, 중적외선(short wave infrared, SWIR) 등을 포함한 13개의 분광 밴드를 제공하며, 10 m, 20 m, 60 m의 다양한 공간 해상도를 지원하여 토지피복 및 재해 모니터링에 유용하게 활용된다. 연구에 사용된 PlanetScope와 Sentinel-2 위성의 재원은 Table 2에 제시되어있다. PlanetScope만을 사용할 경우와 Sentinel-2 영상을 추가하여 융합했을 때의 딥러닝 모델 성능 비교를 위해, 산불 발생 시점과 근접한 날짜의 PlanetScope 영상과 그와 가장 가까운 시기의 Sentinel-2 영상을 수집하였다. 수집된 데이터는 Table 3에 정리되어 있으며, 각 위성영상의 촬영날짜와 Scene ID가 포함되어 있다.

Table 2 . The specifications of the PlanetScope and Sentinel-2 satellites applied in the study.

SourcePlanetScopeSentinel-2
Sensor TypeSuper Dove (PSB.SD)Multispectral Instrument (MSI)
Pixel Resoultion (m)310, 20, and 60
Revisit TimeDaily5 days
Orbit Height475 km786 km
Band Type8 bands: Coastal Blue, Blue, Green, Yellow, Red, and NIR13 bands: Coastal Aerosol, Blue, Green, Red, NIR, and SWIR
Applied Spectral Band Wavelengths (nm)Green (B4): 547–583
Red (B6): 650–680
NIR (B8): 845–885
Green (B3): 543–578
Red (B4): 650–680
NIR (B8): 785–900


Table 3 . Satellite Scene ID collected by study area.

SatelliteRegionScene ID
PlanetScopeYanggu20220415_020617_63_227b
Miryang20220603_020423_84_2402
Hongseong20230409_015817_15_2475
Geumsan20230410_015709_50_2498
Hampyeong20230410_012651_14_24b9
Sentinel-2YangguS2A_MSIL1C_20220417T021611_N0400_R003_T52SDH_20220417T040757
MiryangS2A_MSIL1C_20220603T020701_N0400_R103_T52SDE_20220603T042511
HongseongS2A_MSIL1C_20230422T021531_N0509_R003_T52SBF_20230422T040212
GeumsanS2A_MSIL1C_20230412T021531_N0509_R003_T52SCF_20230412T043905
Hampyeong S2B_MSIL1C_20230427T021539_N0509_R003_T52SBD_20230427T040200


2.1.3. 위성영상 전처리

본 연구에서는 PlanetScope와 Sentinel-2 위성 영상을 활용하여 산불 피해 탐지 딥러닝 모델을 구축하고, 각 위성 영상에 대한 전처리 과정을 수행하였다(Fig 2). PlanetScope는 대기보정 등 영상보정이 완료된 상태인 L3B 자료로 제공되어 바로 사용이 가능하다. 반면, Sentinel-2 데이터는 PlanetScope와의 해상도 일치를 위해 쌍입방 보간법(bicubic interpolation) 방법을 적용하여 3 m로 리샘플링하였다. 그리고 top of atmosphere (TOA) 반사도 값을 갖는 Level-1C데이터를 Sen2Cor v2.11 대기보정 프로세스를 통해 bottomof atmosphere (BOA) 반사도 값을 Level-2A 영상으로 처리되었다(Louis et al., 2016).

Figure 2. Satellite image pre-processing process.

이후 두 데이터에 다음과 같은 일련의 전처리 과정을 적용하였다. 첫째, region of interest (ROI) 폴리곤(polygon)을 사용하여 위성영상별 분석 대상 지역을 동일하게 추출하였다. 둘째, 2–98%로 히스토그램 스트레칭(histogram stretching)을 수행하여 영상의 대비를 향상시키고 이상치(outlier)를 제거하였다. 이는 이미지의 하위 2%와 상위 2% 픽셀 값을 제외하고 나머지 픽셀 값들만을 확장시켜 이미지의 시각적 품질을 개선하며, 모델이 중요한 특징을 더 잘 학습할 수 있도록 돕는다. 셋째, 정규화를 수행하여 이미지의 픽셀 값 범위를 1에서 255 사이로 통일시켰다. NoData 값은 0으로 설정되어 제외되며 나머지 픽셀 값들은 해당 범위로 정규화된다. 이 정규화는 모델의 안정적인 학습을 돕고, 각 픽셀 값이 동일한 범위에 존재하도록 하여 학습이 과도하게 한 범위에 집중되는 현상을 방지한다. 마지막으로 선행 연구에서 성능이 입증된 R-NIR-G 가색 영상을 사용하였다(Park et al., 2018; Lee et al., 2024). 이를 위해Green, Red, NIR 밴드를 사용하여 R-NIR-G 가색영상을 생성하였다.

2.2. 딥러닝 모델 구축 및 평가방법

2.2.1. Swin Transformer

딥러닝 모델을 기반으로 의미론적 분할(semantic segmentation)을 수행하기 위해 Transformer 계열 모델인 Swin Transformer를 사용하였다(Fig. 4). Swin Transformer는 계층적인 구조로 이미지의 특징을 학습하며, self attention을 통해 높은 정확도를 보이는 모델이다(Liu et al., 2021). 이 모델은 기존 Vision Transformer의 구조를 컴퓨터 비전 작업에 맞게 효율적으로 변형한 것으로 이미지 분류, 객체 탐지, 의미론적 분할 등 다양한 비전 작업에서 뛰어난 성능을 보이고 있다(Aleissaee et al., 2023). Swin Transformer는 모델의 크기와 복잡도에 따라 Tiny (Swin-T), Small (Swin-S), Base (Swin-B), Large (Swin-L)로 나뉜다. 각 모델 크기에 따라 임베딩 차원(embedding dimension)과 블록 구조가 달라지며, 그에 따라 모델의 파라미터(parameter) 수와 계산 복잡도에도 차이가 난다..

Figure 4. Swin Transformer architecture applied in the study.

2.2.2. 레이블 작성

딥러닝 분석을 수행하기 위해서는 명확한 레이블 작성이 필수적이다. 본 연구에서는 반자동 레이블 작성을 위해 ImageJ (https://imagej.net/)의 Fiji 프로그램을 사용하였다. Fiji는 이미지 처리 및 분석에 특화된 오픈 소스 소프트웨어로 다양한 플러그인과 기능을 통해 사용자 친화적인 인터페이스를 제공한다(Arzt et al., 2022). 레이블 생성 과정에서 RGB (true color) 및 R-NIR-G (false color) 영상을 활용하여 명확한 레이블 작성을 수행하고자 했으며, 수동으로 미세조정하여 각 영역의 특성을 보다 세밀하게 반영할 수 있었다.

2.2.3. 딥러닝 훈련자료 구축

딥러닝 훈련 자료를 구축하기 위해 전처리가 완료된 영상과 레이블을 256 × 256 패치(patch) 크기로 분할하였다. 패치 크기를 256 × 256으로 설정한 것은 산불피해 탐지에 필요한 지역 특성 정보를 충분히 반영할 수 있으면서도 모델이 효율적으로 학습할 수 있도록 하기 위함이다. 또한, 패치 간의 정보 손실을 최소화하고 연속적인 공간적 특성을 반영하기 위해 10%씩 오버랩(overlap)하여 패치를 생성하였다. 이렇게 분할한 후 값이 존재하지 않는 패치를 제외하고 PlanetScope와 Sentinel-2 각각 753장의 유효한 패치 영상이 생성되었다. 이후, 5개의 산불 지역에 대해 5-fold 교차검증 방식을 적용하여 각 지역을 테스트 세트로 삼고 나머지 4개 지역을 훈련 및 검증용으로 활용하였다. 이 과정은 엄격한 기준에서 각 지역의 특성을 균형 있게 반영하고 특정 지역에 대한 과도한 의존을 방지하여 모델의 안정성과 신뢰성을 높이는 데 기여한다.

연구에 사용된 산불사례는 대형 산불에 해당하지만 전체 위성 영상의 크기에 비해 산불 피해지가 차지하는 비율이 작아 딥러닝 모델 학습 시 과적합(overfitting) 위험이 존재한다. 이를 완화하고 훈련 데이터를 확장하기 위해 데이터 증강기법을 사용하였다. 증강기법으로는 보편적으로 사용되는 기하학적 변형에 의한 증강방법과 Hendrycks et al. (2019)이 제안한AugMix의 두 가지 방법을 사용하여 비교함으로써 각 증강기법이 모델의 성능에 미치는 영향을 평가하고자 하였다(Fig. 5). 기하학적 변형에 의한 증강방법은 회전, 왜곡, 밝기·대비 조정, 노이즈 추가 등을 사용하여 원본 영상을 다양화한다. AugMix는 강인성(robustness) 향상을 목표로 원본 영상과 증강된 영상 간의 분포 차이가 크게 나지 않도록 혼합된 형태의 영상을 생성하며, 다양한 환경에서도 일관된 성능을 유지할 수 있다는 장점이 있다(Hendrycks et al., 2019). 이 과정에서 각 fold에 테스트 지역으로 할당된 패치는 증강에서 제외하고, 훈련에 사용될 패치들을 3배로 증강하여 딥러닝 훈련자료로 사용하였다.

Figure 5. Comparison of existing augmentation methods with AugMix. (a) Original patch image, (b) patch images with geometric augmentation methods applied, and (c) patch images with expanded data using AugMix method.

2.2.4. 딥러닝 환경설정

연구에서는 사전 테스트에서 가장 우수한 성능을 보인 Swin-B Transformer 모델을 백본(backbone)으로 사용하고, UPerNet을 디코더 헤드로 적용하였다. Swin-B 모델의 임베딩 차원인 128로 설정하고, {2, 2, 18, 2} 구조를 적용하여 다양한 스케일에서 효율적인 특징 추출이 가능하도록 구성하였다(Fig. 5). 또한, 7 × 7 윈도우 크기를 사용하여 지역 및 전체적인 문맥 정보를 효과적으로 학습하도록 구성하였다. 산불과 비산불 영역의 클래스 불균형 문제를 해결하기 위해 Focal Loss를 손실 함수로 사용하였다. Focal Loss는 기존의 Binary Cross Entropy 손실 함수에 조정 인자를 추가하여 손실이 적은 쉬운 예시의 기여도를 줄이고 어려운 예시에 더 큰 가중치를 부여함으로써 모델이 복잡한 예시에도 집중할 수 있도록 한다(Jadon, 2020). 이때 조정 인자 γ값이 높을수록 어려운 예시에 대한 가중치가 증가하여 클래스 불균형 상황에서의 성능을 개선하는 데 효과적이다.

산불피해 탐지 성능을 최적화하기 위해 Swin Transformer 모델을 학습하는 과정에서AdamW옵티마이저를 사용하고, 학습률(learning rate)을 6 × 10–5으로, weight decay를 5 × 10–5으로 하이퍼파라미터를 설정하였다. 학습은 배치 크기 16으로 60,000번의 반복(iteration) 동안 진행되었으며, 적용된 하이퍼파라미터는 Table 4에 요약되어 있다.

Table 4 . Hyperparameters used in the Swin Transformer model for detecting wildfire-burned areas.

ModelSwin Transformer
Input patch size256 × 256
Window size7
Loss functionFocal Loss
Iteration60,000
OptimizerAdamW
Batch size16
Learning rate6 × 10–5
weight decay5 × 10–5
OutputProbability map


2.2.5. 모델 평가

Swin Transformer 모델의 성능을 정량적으로 평가하기 위해 산불피해 탐지성능을 정확도(accuracy), 정밀도(precision), 재현율(recall), F1-score 및 intersection over union (IoU) 지표를 사용하여 종합적으로 분석하였다. 각 평가지표는 아래의 수식(1–5)에 따라 계산되었다. 정확도는 전체 예측 중 실제 값과 일치한 비율을 나타내고, 정밀도는 모델이 Positive로 예측한 것 중 실제로 Positive인 비율을 측정한다. 재현율은 실제 Positive 중 모델이 올바르게 예측한 비율을 나타내며, F1-score는 정밀도와 재현율의 균형을 평가하는 지표이다. IoU는 예측과 실제 영역 간의 겹침 비율을 측정한다. 이러한 지표들은 산불피해 탐지 모델의 예측 정확도를 다각도로 평가하는데 기여하며, 모델의 성능을 정밀하게 측정할 수 있다.

3. 연구 결과 및 토의

3.1. 증강기법이 성능에 미치는 영향평가

본 연구는 PlanetScope 이미지를 활용하여 기하학적 변형에 의한 증강기법과 AugMix 기법이 모델 성능에 미치는 영향을 비교 분석하였다. 5개의 지역(양구, 밀양, 홍성, 금산, 함평)을 대상으로 5-fold 교차 검증을 수행한 결과, AugMix를 적용한 모델이 기하학적 증강 기법에 비해 전반적으로 향상된 성능을 보였다(Table 5). AugMix 기법을 적용한 모델은 5개의 지역에서 평균 정밀도 78.51, 재현율 75.43, F1-score 76.48로 기존의 방법에 비해 산불 피해지역에 대한 IoU가 약 2.8 향상된 성능을 보였다. 이는 AugMix가 다양한 지역특성에 적응하며 모델의 예측 성능을 개선하는데 기여했음을 시사한다. Fig. 6의 정성적 비교에서도 AugMix가 산불 피해의 경계를 기존기법보다 일관되게 탐지하는 경향을 확인할 수 있다. 그러나 금산산불의 경우 상대적으로 가장 낮은 정확도를 보였다. 산불 피해지역과 반사도가 낮은 도심지에서 오탐지되거나 피해 범위가 과소 추정되는 경향이 나타났으며, 이는 기존 연구에서도 반사도가 낮은 지역이 탐지에서 주요한 어려움으로 언급된 바 있다(Knopp et al., 2020). AugMix를 적용한 모델은 산불 피해지역과 규모를 보다 명확히 탐지하는 경향을 보였으나 얕은 산림소실과 같은 경미한 피해는 탐지에 한계가 있었다. 이러한 결과는 산불 피해 발생 초기시점 영상에서 피해지역의 경계가 불명확했던 점과 데이터의 특성이 모델 학습에 충분히 반영되지 못한데에서 기인했을 가능성이 있다(Fig. A1). 향후 데이터 추가와 산림피해 특성을 반영한 데이터 처리 기법 등을 통해 성능개선이 필요하다.

Figure 6. Example comparison of existing augmentation methods and AugMix. (a) RGB Images, (b) R-NIR-G images, (c) label, (d) existing augmentation prediction, and (e) AugMix prediction.

Figure 10. Comparison of augmentation methods for wildfire in Geumsan. (a–b) false detection cases regarding the scale of wildfire damage and (c) false detection cases in water bodies.

Table 5 . Regional model evaluation of existing augmentation methods and AugMix (Unit: %).

Augmentation MethodRegionClassAccuracyIoUPrecisionRecallF1-score
Existing AugmentationYangguNon-damage96.7296.5898.6697.8798.26
Damage55.5767.0376.4671.44
MiryangNon-damage99.4499.4399.7499.6999.71
Damage75.8685.1087.4886.27
HongseongNon-damage97.1697.0798.2598.7898.51
Damage53.4073.6666.0069.62
GeumsanNon-damage98.9498.9398.9999.9499.46
Damage47.0793.9448.5564.01
HampyeongNon-damage99.0999.0799.6899.3999.53
Damage65.7675.5374.4279.34
Average of 5 regionsNon-damage98.2798.2299.0699.1399.09
Damage59.5379.0570.5874.14
Average78.8789.0684.8686.62
AugMixYangguNon-damage97.0696.9498.5498.3598.45
Damage57.5371.8174.3173.04
MiryangNon-damage99.4599.4499.8199.6399.72
Damage76.8783.5690.5786.93
HongseongNon-damage97.3597.2598.5098.7198.61
Damage56.8674.0071.0572.50
GeumsanNon-damage99.0399.0299.2299.8099.51
Damage54.6685.5460.2270.68
HampyeongNon-damage99.1399.1199.6099.5199.55
Damage65.6677.6280.9979.27
Average of 5 regionsNon-damage98.4098.3599.1399.2099.17
Damage62.3278.5175.4376.48
Average80.3388.8287.3187.83


3.2. Sentinel-2 영상 추가 활용을 통한 PlanetScope 기반 모델 성능 평가

본 연구의 두 번째 목표는 PlanetScope 위성영상만을 사용한 분석에서 Sentinel-2 데이터를 추가하여 다종위성영상 기반 모델의 성능을 비교하는 것이었다. 3.1절에서 높은 결과를 보였던 AugMix 기법을 사용하여 모델을 학습한 결과는 Table 6과 같다. 대부분의 지역에서 Sentinel-2 위성영상을 추가함으로써 PlanetScope만 사용한 경우보다 전반적인 성능이 향상되었음을 확인하였다. 홍성 산불은 F1-score가 81.20으로, PlanetScope만 사용한 모델(72.50)에 비해 8.7 개선되었으며, 함평 산불은 산불 피해지 IoU가 기존 65.66에서 76.03로 약 10.37 향상되었다. 이는 Sentinel-2 위성영상이 추가되었을 때, 모델이 보다 폭넓은 지역적 특성과 세부정보를 학습함으로써, 예측의 신뢰도와 정확성을 향상시킬 수 있음을 보여준다.

Table 6 . Quantitative results of wildfire burned area detection by region using a model with PlanetScope and Sentinel-2 data (Unit: %).

RegionAccuracyF1-scorePrecisionRecallDamage_IoUNon-damage_IoUmIoU
Yanggu97.7180.0375.1585.5966.7197.6082.16
Miryang99.1883.7782.5785.0172.0899.1685.62
Hongseong97.7781.2079.8782.5768.3597.6583.00
Geumsan99.1473.9289.9362.7558.6399.1378.88
Hampyeong99.2786.3883.7089.2476.0399.2687.65
Average of 5 regions98.6181.0682.2481.0368.3698.5683.46


반면, 밀양 산불은 Sentinel-2 위성영상을 추가했음에도 PlanetScope 만으로 학습한 모델의 성능보다 소폭 하락하였다. 이는 Sentinel-2 영상의 공간 해상도 차이와 센서 특성으로 인한 노이즈가 모델학습에 영향을 미친것으로 보인다. 특히, 밀양 지역에서는 PlanetScope와 Sentinel-2의 동일 날짜에 수집된 영상을 사용했기 때문에 두 위성간의 물리적 차이로 인해 모델 예측에서 불일치가 발생했을 가능성도 존재한다. 그럼에도 밀양 지역 산불 피해지의 IoU는 72.08로 높은 성능을 유지하였다. Fig. 7은 각 지역별 예측 결과를 시각화한 이미지로, Sentinel-2 데이터를 추가한 경우 과소탐지되었던 영역과 오탐지가 개선되고 피해탐지 결과의 신뢰성이 높아졌음을 보여준다.

Figure 7. Qualitative results of wildfire burned area detection by region. (a) R-NIR-G false-color image, (b) label, (c) prediction results using only PlanetScope, (d) probability map using only PlanetScope, (e) prediction results using PlanetScope and Sentinel-2, and (f) probability map using PlanetScope and Sentinel-2.

본 연구는 한국의 5개 산불 피해지를 독립적인 테스트 fold로 설정하여 분석을 수행하였으며, 다양한 토지피복, 고도 차이, 그림자 등으로 인한 왜곡이 존재하는 환경에서도 높은 성능을 보였다(Cho et al., 2022). 입력 영상으로 R-NIR-G만을 활용했음에도 불구하고, 5개의 테스트 fold에 대해 평균mean IoU(mIoU) 83.46을 달성하였다. 이는 산불 피해지에서 높은 반사도 값을 갖는 특성이 있는 SWIR 밴드를 적용한 Hu et al. (2021)의 딥러닝 분석에서 제시한 mIoU 성능과 유사한 수준의 결과를 보였다. 그러나 이미지의 특정 부분에서 색상이나 질감이 유사한 영역이 화재가 발생하지 않은 지역으로 잘못 분류되는 문제가 존재하였으며, 이는 향후 연구에서 개선될 필요가 있다(Gudelj and Papić, 2024).

3.3. 산불 피해지 탐지 적용성 평가: 밀양산불 피해지 탐지결과 비교

Fig. 8은 밀양산불 피해지를 대상으로 PlanetScope와 Sentinel-2 영상을 함께 사용한 모델의 추론 결과를 PlanetScope와 Sentinel-2 위성별로 각각 산출하여 비교한 결과이다. 동일한 날짜에 PlanetScope와 Sentinel-2 위성영상이 수집된 산불 피해지는 밀양 산불이 유일하여 두 데이터를 동일 조건 하에 비교할 수 있는 적합한 대상지로 선정되었다. 각 결과는 밀양 산불이 학습 및 추론에 사용되지 않은 상태에서 테스트되었으며, 두 위성에서 모두 산불피해 영역을 잘 탐지하는 것을 확인할 수 있었다. PlanetScope 영상은 고해상도 위성영상으로 더 세밀한 경계를 제공하였고, Sentinel-2 데이터는 다소 낮은 해상도에도 불구하고 피해 범위에 대한 전반적인 경향을 효과적으로 탐지하였다. 그러나 공간적 특성이 충분히 반영되지 못한 한계가 있었으며, 향후 초해상화(super-resolution) 기법 적용을 통해 탐지 정확도를 더욱 향상시킬수 있을 것이다.

Figure 8. Miryang wildfire inference results. (a) PlanetScope R-NIR-G false-color image, (b) Sentinel-2 R-NIR-G false-color image, (c) label, (d) PlanetScope prediction map, (e) Sentinel-2 prediction map, (f-g) PlanetScope probability map, and (h-i) Sentinel-2 probability map.

두 위성영상의 상관관계 분석을 위해 피어슨 상관계수(R)와 root mean squared error (RMSE)를 사용하였다. 피어슨 상관계수는 두 변수 간의 선형 관계를 나타내며, 1에 가까울수록 양의 상관관계가 높음을, RMSE는 값이 작을수록 두 밴드 간 유사성이 높음을 의미한다. Fig. 9는 두 위성 간 밴드별 상관계수와 RMSE 분석결과를 보여준다. Red 밴드는 상관계수 0.980으로 높은 양의 상관관계를 보였고, RMSE는 3.497로 낮아 두 데이터 간 높은 일치성을 나타냈다. Green 밴드도 유사한 결과로 상관계수 0.962와 RMSE 3.566을 기록하였다. 그러나 NIR 밴드는 상관계수가 0.961로 높은 상관관계를 보였지만, RMSE가 6.623으로 상대적으로 큰 오차를 나타냈다. NIR 밴드의 높은 RMSE는 모델이 특정 영역의 탐지에서 더 낮은 성능을 보이는 원인 중 하나로 작용할 수 있다. 이는 두 영상의 공간 해상도, 관측환경 및 스펙트럼 범위 차이 등으로 해석할 수 있으며, 향후 히스토그램 매칭과 같은 추가적인 분석과 고찰이 필요하다(Kim et al., 2019).

Figure 9. Correlation analysis of PlanetScope and Sentinel-2 bands. (a) Red band, (b) NIR band, and (c) Green band.

4. 결론

본 연구에서는 딥러닝 기반의 고해상도 광학위성 영상을 활용하여 국내 산불 피해지를 탐지하였다. AugMix 증강방법은 기하학적 변형을 통한 증강기법보다 우수한 성능을 보였으며, 이러한 성능 향상은 PlanetScope와 Sentinel-2 데이터를 함께 사용하여 구축한 모델의 탐지 정확도 향상에 기여하였다. PlanetScope는 고해상도 군집위성으로 세밀한 산불 피해지 탐지에 강점을 보이지만 대규모 데이터 수집에는 한계가 있다. 반면, Sentinel-2는 상대적으로 낮은 공간 및 시간 해상도를 가지지만 데이터 가용성이 높아 넓은지역의 산불 피해 범위를 효과적으로 포착할 수 있다. 두 데이터셋간 높은 상관계수는 PlanetScope의 정밀도와 Sentinel-2의 포괄성을 융합함으로써 상호보완적인 분석이 가능함을 보여준다. 이러한 결과는 다양한 해상도와 관측해상도를 갖는 다종위성 영상을 융합하여 초기 산불 피해지 복구 계획뿐 아니라, 장기적인 환경 모니터링에도 기여할 수 있을것으로 기대된다.

Figure 3. Flow chart in the study.

사사

본 연구는 과학기술정보통신부의 “초소형위성 군집시스템의 활용 지원시스템 및 활용기술개발(과제번호: 2021M1A3A4A11032019)”의 일환으로 수행되었으며, 이에 감사드립니다.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

Fig 1.

Figure 1.Location of the study region and R-NIR-G false color image of collected PlanetScope satellite images. (a) Yanggu, (b) Miryang, (c) Hongseong, (d) Geumsan, and (e) Hampyeong.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 2.

Figure 2.Satellite image pre-processing process.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 3.

Figure 3.Flow chart in the study.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 4.

Figure 4.Swin Transformer architecture applied in the study.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 5.

Figure 5.Comparison of existing augmentation methods with AugMix. (a) Original patch image, (b) patch images with geometric augmentation methods applied, and (c) patch images with expanded data using AugMix method.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 6.

Figure 6.Example comparison of existing augmentation methods and AugMix. (a) RGB Images, (b) R-NIR-G images, (c) label, (d) existing augmentation prediction, and (e) AugMix prediction.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 7.

Figure 7.Qualitative results of wildfire burned area detection by region. (a) R-NIR-G false-color image, (b) label, (c) prediction results using only PlanetScope, (d) probability map using only PlanetScope, (e) prediction results using PlanetScope and Sentinel-2, and (f) probability map using PlanetScope and Sentinel-2.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 8.

Figure 8.Miryang wildfire inference results. (a) PlanetScope R-NIR-G false-color image, (b) Sentinel-2 R-NIR-G false-color image, (c) label, (d) PlanetScope prediction map, (e) Sentinel-2 prediction map, (f-g) PlanetScope probability map, and (h-i) Sentinel-2 probability map.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 9.

Figure 9.Correlation analysis of PlanetScope and Sentinel-2 bands. (a) Red band, (b) NIR band, and (c) Green band.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Fig 10.

Figure 10.Comparison of augmentation methods for wildfire in Geumsan. (a–b) false detection cases regarding the scale of wildfire damage and (c) false detection cases in water bodies.
Korean Journal of Remote Sensing 2024; 40: 991-1004https://doi.org/10.7780/kjrs.2024.40.6.1.10

Table 1 . Details of wildfire-affected study areas.

RegionEvent dateDamaged area (ha)
Yanggu-eup, Yanggu-gun, Gangwon-do2022.04.10.759
Bubuk-myeon, Miryang-si, Gyeongsangnam-do2022.05.31.660.82
Seobu-myeon, Hongseong-gun, Chungcheongnam-do2023.04.02.889.36
Boksu-myeon, Geumsan-gun, Chungcheongnam-do2023.04.02.1,337
Daedong-myeon, Hampyeong-gun, Jeollanam-do2023.04.03.681.72

Table 2 . The specifications of the PlanetScope and Sentinel-2 satellites applied in the study.

SourcePlanetScopeSentinel-2
Sensor TypeSuper Dove (PSB.SD)Multispectral Instrument (MSI)
Pixel Resoultion (m)310, 20, and 60
Revisit TimeDaily5 days
Orbit Height475 km786 km
Band Type8 bands: Coastal Blue, Blue, Green, Yellow, Red, and NIR13 bands: Coastal Aerosol, Blue, Green, Red, NIR, and SWIR
Applied Spectral Band Wavelengths (nm)Green (B4): 547–583
Red (B6): 650–680
NIR (B8): 845–885
Green (B3): 543–578
Red (B4): 650–680
NIR (B8): 785–900

Table 3 . Satellite Scene ID collected by study area.

SatelliteRegionScene ID
PlanetScopeYanggu20220415_020617_63_227b
Miryang20220603_020423_84_2402
Hongseong20230409_015817_15_2475
Geumsan20230410_015709_50_2498
Hampyeong20230410_012651_14_24b9
Sentinel-2YangguS2A_MSIL1C_20220417T021611_N0400_R003_T52SDH_20220417T040757
MiryangS2A_MSIL1C_20220603T020701_N0400_R103_T52SDE_20220603T042511
HongseongS2A_MSIL1C_20230422T021531_N0509_R003_T52SBF_20230422T040212
GeumsanS2A_MSIL1C_20230412T021531_N0509_R003_T52SCF_20230412T043905
Hampyeong S2B_MSIL1C_20230427T021539_N0509_R003_T52SBD_20230427T040200

Table 4 . Hyperparameters used in the Swin Transformer model for detecting wildfire-burned areas.

ModelSwin Transformer
Input patch size256 × 256
Window size7
Loss functionFocal Loss
Iteration60,000
OptimizerAdamW
Batch size16
Learning rate6 × 10–5
weight decay5 × 10–5
OutputProbability map

Table 5 . Regional model evaluation of existing augmentation methods and AugMix (Unit: %).

Augmentation MethodRegionClassAccuracyIoUPrecisionRecallF1-score
Existing AugmentationYangguNon-damage96.7296.5898.6697.8798.26
Damage55.5767.0376.4671.44
MiryangNon-damage99.4499.4399.7499.6999.71
Damage75.8685.1087.4886.27
HongseongNon-damage97.1697.0798.2598.7898.51
Damage53.4073.6666.0069.62
GeumsanNon-damage98.9498.9398.9999.9499.46
Damage47.0793.9448.5564.01
HampyeongNon-damage99.0999.0799.6899.3999.53
Damage65.7675.5374.4279.34
Average of 5 regionsNon-damage98.2798.2299.0699.1399.09
Damage59.5379.0570.5874.14
Average78.8789.0684.8686.62
AugMixYangguNon-damage97.0696.9498.5498.3598.45
Damage57.5371.8174.3173.04
MiryangNon-damage99.4599.4499.8199.6399.72
Damage76.8783.5690.5786.93
HongseongNon-damage97.3597.2598.5098.7198.61
Damage56.8674.0071.0572.50
GeumsanNon-damage99.0399.0299.2299.8099.51
Damage54.6685.5460.2270.68
HampyeongNon-damage99.1399.1199.6099.5199.55
Damage65.6677.6280.9979.27
Average of 5 regionsNon-damage98.4098.3599.1399.2099.17
Damage62.3278.5175.4376.48
Average80.3388.8287.3187.83

Table 6 . Quantitative results of wildfire burned area detection by region using a model with PlanetScope and Sentinel-2 data (Unit: %).

RegionAccuracyF1-scorePrecisionRecallDamage_IoUNon-damage_IoUmIoU
Yanggu97.7180.0375.1585.5966.7197.6082.16
Miryang99.1883.7782.5785.0172.0899.1685.62
Hongseong97.7781.2079.8782.5768.3597.6583.00
Geumsan99.1473.9289.9362.7558.6399.1378.88
Hampyeong99.2786.3883.7089.2476.0399.2687.65
Average of 5 regions98.6181.0682.2481.0368.3698.5683.46

References

  1. Aleissaee, A. A., Kumar, A., Anwer, R. M., Khan, S., Cholakkal, H., Xia, G. S., and Khan, F. S., 2023. Transformers in remote sensing: A survey. Remote Sensing, 15(7), 1860. https://doi.org/10.3390/rs15071860
  2. Arzt, M., Deschamps, J., Schmied, C., Pietzsch, T., Schmidt, D., and Tomancak, P., et al, 2022. LABKIT: Labeling and segmentation toolkit for big image data. Frontiers in Computer Science, 4, 777728. https://doi.org/10.3389/fcomp.2022.777728
  3. Chang, D. Y., Jeong, S., Park, C. E., Park, H., Shin, J., and Bae, Y., et al, 2024. Unprecedented wildfires in Korea: Historical evidence of increasing wildfire activity due to climate change. Agricultural and Forest Meteorology, 348, 109920. https://doi.org/10.1016/j.agrformet.2024.109920
  4. Cho, A. Y., Park, S. E., Kim, D. J., Kim, J., Li, C., and Song, J., 2022. Burned area mapping using unitemporal Planetscope imagery with a deep learning based approach. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 16, 242-253. https://doi.org/10.1109/JSTARS.2022.3225070
  5. Chung, M., Han, Y., and Kim, Y., 2020. A framework for unsupervised wildfire damage assessment using VHR satellite images with PlanetScope data. Remote Sensing, 12(22), 3835. https://doi.org/10.3390/rs12223835
  6. Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., and Unterthiner, T., et al, 2020. An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://doi.org/10.48550/arXiv.2010.11929
  7. Drusch, M., Del Bello, U., Carlier, S., Colin, O., Fernandez, V., and Gascon, F., et al, 2012. Sentinel-2: ESA's optical high-resolution mission for GMES operational services. Remote Sensing of Environment, 120, 25-36. https://doi.org/10.1016/j.rse.2011.11.026
  8. Ghali, R., and Akhloufi, M. A., 2023. Deep learning approaches for wildland fires using satellite remote sensing data: Detection, mapping, and prediction. Fire, 6(5), 192. https://doi.org/10.3390/fire6050192
  9. Gudelj, A. Š., and Papić, V., 2024. Comparative analysis of wildfire segmentation using Copernicus Sentinel and Nimbo Earth Platforms multispectral images. In Proceedings of the 2024 International Conference on Software, Telecommunications and Computer Networks (SoftCOM), Split, Croatia, Sept. 26-28, pp. 1-6. https://doi.org/10.23919/SoftCOM62040.2024.10721850
  10. Hendrycks, D., Mu, N., Cubuk, E. D., Zoph, B., Gilmer, J., and Lakshminarayanan, B., 2019. Augmix: A simple data processing method to improve robustness and uncertainty, arXiv preprint arXiv:1912.02781. https://doi.org/10.48550/arXiv.1912.02781
  11. Hu, X., Ban, Y., and Nascetti, A., 2021. Uni-temporal multispectral imagery for burned area mapping with deep learning. Remote Sensing, 13(8), 1509. https://doi.org/10.3390/rs13081509
  12. Jadon, S., 2020. A survey of loss functions for semantic segmentation. In Proceedings of the 2020 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB), Vina del Mar, Chile, Oct. 27-29, pp. 1-7. https://doi.org/10.1109/CIBCB48159.2020.9277638
  13. Kim, M., Jung, M., and Kim, Y., 2019. Histogram matching of Sentinel-2 spectral information to enhance Planetscope imagery for effective wildfire damage assessment. Korean Journal of Remote Sensing, 35(4), 517-534. https://doi.org/10.7780/kjrs.2019.35.4.3
  14. Kim, S., Suk, J., Lee, D., and Lee, J., 2023. National disaster management, investigation, and analysis using RS/GIS data fusion. Korean Journal of Remote Sensing, 39(5-2), 743-754. https://doi.org/10.7780/kjrs.2023.39.5.2.1
  15. Knopp, L., Wieland, M., Rättich, M., and Martinis, S., 2020. A deep learning approach for burned area segmentation with Sentinel-2 data. Remote Sensing, 12(15), 2422. https://doi.org/10.3390/rs12152422
  16. Korea Forest Service, 2023. Forest Fire Statistics Yearbook 2022, Korea Forest Service. http://www.kffmsa.kr/admin/admin_board_01/data/2022%EB%85%84_%EC%82%B0%EB%B6%88%ED%86%B5%EA%B3%84%EC%97%B0%EB%B3%B4.pdf
  17. Korea Forest Service, 2024. Forest Fire Statistics Yearbook 2023, Korea Forest Service. http://www.kffmsa.kr/admin/admin_board_01/data/2023%EB%85%84_%EC%82%B0%EB%B6%88%ED%86%B5%EA%B3%84%EC%97%B0%EB%B3%B4.pdf
  18. Lee, D., Son, S., Bae, J., Park, S., Seo, J., and Seo, D., et al, 2024. Single-temporal Sentinel-2 for analyzing burned area detection methods: A study of 14 cases in Republic of Korea considering land cover. Remote Sensing, 16(5), 884. https://doi.org/10.3390/rs16050884
  19. Lee, S., Kim, K., Kim, Y., Kim, J., and Lee, Y., 2017. Development of FBI (Fire Burn Index) for Sentinel-2 images and an experiment for detection of burned areas in Korea. Journal of the Association of Korean Photo-Geographers, 27(4), 187-202. https://doi.org/10.35149/jakpg.2017.27.4.012
  20. Liu, Z., Lin, Y., Cao, Y., Hu, H., Wei, Y., and Zhang, Z., et al, 2021. Swin transformer: Hierarchical vision transformer using shifted windows. In Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision (ICCV), Montreal, QC, Canada, Oct. 10-17, pp. 10012-10022. https://doi.org/10.1109/ICCV48922.2021.00986
  21. Louis, J., Debaecker, V., Pflug, B., Main-Knorn, M., Bieniarz, J., and Mueller-Wilm, U., et al, 2016. Sentinel-2 Sen2Cor: L2A processor for users. In Proceedings of the 2016 Living Planet Symposium, Prague, Czech Republic, May 9-13, pp. 1-8.
  22. Park, J., Lee, D., Lee, J., Cheon, E., and Jeong, H., 2023. Study on disaster response strategies using multi-sensors satellite imagery. Korean Journal of Remote Sensing, 39(5-2), 755-770. https://doi.org/10.7780/kjrs.2023.39.5.2.2
  23. Park, S. W., Kim, H. W., Lee, S. J., Yun, Y. S., Kim, E. S., Lim, J. H., and Lee, Y. W., 2018. Detection of forest disaster areas using highresolution satellite images with fully convolutional network. Journal of the Association of Korean Photo-Geographers, 28(4), 87-101. https://doi.org/10.35149/jakpg.2018.28.4.006
  24. Park, S. W., Lee, S. J., Chung, C. Y., Chung, S. R., Shin, I., and Jung, W. C., et al, 2019. Satellite-based forest withering index for detection of fire burn area: Its development and application to 2019 Kangwon wildfires. Korean Journal of Remote Sensing, 35(2), 343-346. https://doi.org/10.7780/kjrs.2019.35.2.13
  25. Payra, S., Sharma, A., and Verma, S., 2023. Application of remote sensing to study forest fires. In: Singh, A. K., Tiwari, S., (eds.), Atmospheric remote sensing: Principles and applications, Elsevier, pp. 239-260. https://doi.org/10.1016/B978-0-323-99262-6.00015-8
  26. Planet Labs, 2023. Planet imagery product specifications. Available online: https://assets.planet.com/docs/Planet_Combined_Imagery_Product_Specs_letter_screen.pdf (accessed on Nov. 11, 2024)
  27. Rashkovetsky, D., Mauracher, F., Langer, M., and Schmitt, M., 2021. Wildfire detection from multisensor satellite imagery using deep semantic segmentation. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 14, 7001-7016. https://doi.org/10.1109/JSTARS.2021.3093625
  28. Shendryk, I., Rist, Y., Lucas, R., Thorburn, P., and Ticehurst, C., 2018. Deep learning - A new approach for multi-label scene classification in planetscope and sentinel-2 imagery. In Proceedings of the IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, Valencia, Spain, July 22-27, pp. 1116-1119. https://doi.org/10.1109/IGARSS.2018.8517499
  29. Tayer, T. C., Douglas, M. M., Cordeiro, M. C., Tayer, A. D., Callow, J. N., Beesley, L., and McFarlane, D., 2023. Improving the accuracy of the water detect algorithm using Sentinel-2, Planetscope and sharpened imagery: A case study in an intermittent river. GIScience & Remote Sensing, 60(1), 2168676. https://doi.org/10.1080/15481603.2023.2168676
  30. Thisanke, H., Deshan, C., Chamith, K., Seneviratne, S., Vidanaarachchi, R., and Herath, D., 2023. Semantic segmentation using vision transformers: A survey. Engineering Applications of Artificial Intelligence, 126, 106669. https://doi.org/10.1016/j.engappai.2023.106669
  31. Vilà-Vilardell, L., Keeton, W. S., Thom, D., Gyeltshen, C., Tshering, K., and Gratzer, G., 2020. Climate change effects on wildfire hazards in the wildland-urban-interface-Blue pine forests of Bhutan. Forest Ecology and Management, 461, 117927. https://doi.org/10.1016/j.foreco.2020.117927
  32. Zhang, P., Hu, X., Ban, Y., Nascetti, A., and Gong, M., 2024. Assessing Sentinel-2, Sentinel-1, and ALOS-2 PALSAR-2 data for largescale wildfire-burned area mapping: Insights from the 2017-2019 Canada wildfires. Remote Sensing, 16(3), 556. https://doi.org/10.3390/rs16030556
KSRS
December 2024 Vol. 40, No.6, pp. 1005-989

Metrics

Share

  • line

Related Articles

Korean Journal of Remote Sensing