Research Article

Split Viewer

Korean J. Remote Sens. 2025; 41(1): 111-119

Published online: February 28, 2025

https://doi.org/10.7780/kjrs.2025.41.1.10

© Korean Society of Remote Sensing

저해상도 아마존 산림 벌채 데이터셋과 의사 라벨링 기법을 통한 고해상도 라벨 생성 방법

이돈구1 , 최연주2*

1한국기술교육대학교 기계공학부 조교수
2한국항공우주연구원 위성활용부 선임연구원

Received: February 4, 2025; Revised: February 19, 2025; Accepted: February 21, 2025

Generating High-Resolution Labels Using a Low-Resolution Amazon Deforestation Dataset and Pseudo-Labeling Techniques

Dongoo Lee1 , Yeonju Choi2*

1Assistant Professor, Department of Mechanical Engineering, Korea University of Technology and Education, Cheonan, Republic of Korea
2Senior Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea

Correspondence to : Yeonju Choi
E-mail: choiyj@kari.re.kr

Received: February 4, 2025; Revised: February 19, 2025; Accepted: February 21, 2025

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

The Amazon plays a crucial role in mitigating global warming and preserving biodiversity, which are vital for the Earth's environment. However, deforestation has been ongoing for an extended period. Particularly, the vast scale of the region poses challenges in accurately identifying deforested areas, highlighting the growing importance of leveraging satellite information to prevent further damage and develop effective restoration plans. This study proposes a deep learning-based method to automatically generate high-resolution deforestation labels using low-resolution satellite imagery and existing deforestation label data. The proposed method initially performs primary training using low-resolution images and labeled data. Through this process, pseudo-label data are generated and used for iterative learning, ultimately improving the accuracy of deforestation area labeling on high-resolution satellite images. The output of this research can contribute to generating highly accurate high-resolution labeling data, even for satellite images without prior deforestation labels. This data can be utilized for detailed analysis of deforested areas and the development of precise restoration strategies.

Keywords Amazon deforestation, Pseudo-labeling, High-resolution label, Semantic segmentation

아마존은 지구 온난화 완화와 생물다양성 보호 등 지구 환경 유지에 중요한 역할을 담당하지만, 오랜기간 동안 산림 훼손이 지속적으로 진행되고 있다. 특히, 광범위한 영역으로 인해 훼손 지역을 효과적으로 파악하는 데 한계가 있으며, 추가적인 훼손 방지 및 복원 계획 수립을 위해 위성 정보를 활용하는 중요성이 더욱 부각되고 있다. 본 연구에서는 저해상도 위성 영상과 산림 훼손 라벨링(labeling) 데이터를 활용하여 고해상도 영상에서 산림 훼손 지역 라벨링을 자동 생성하는 딥러닝 기반 방법론을 제안하였다. 제안된 방법은 초기 단계에서 저해상도 영상과 라벨링 데이터를 기반으로 학습을 진행하며, 이후 의사 라벨(Pseudo label)을 생성하고, 이를 통해 고해상도 위성 영상에서 산림 훼손 지역 라벨링의 정확도를 향상시킴을 확인하였다. 본 연구의 결과는 산림 벌채 지역에 대한 라벨링 정보가 없는 위성 영상에도 높은 정확도를 갖춘 고해상도 라벨링 데이터를 생성하여, 정밀한 산림 훼손 지역 분석 및 복원 계획 수립에 기여할 수 있을 것으로 기대된다.

주요어 아마존 산림 벌채, 의사 라벨링, 고해상도 라벨, 영상 분할

아마존 지역은 지구 환경 유지의 중요한 역할을 담당하는 열대우림이 상당히 넓은 면적으로 분포하고 있으며, 이는 지구 온난화 방지와 생물 다양성 보호에 핵심적인 역할을 한다. 그러나 지난 수십 년간 광범위한 지역에서 산림 훼손이 지속되고 있으며, 그 면적이 너무 넓어 이를 정확히 분석하고 대응 방안을 마련하는 데 어려움을 겪고 있다. 이러한 문제를 해결하기 위해, 위성 영상 기반의 산림 벌채 지역 분석은 넓은 지역의 변화를 효과적으로 모니터링하고, 훼손 지역을 정확하게 파악할 수 있는 방법으로 주목받고 있다(Banskota et al., 2014; Dalagnol et al., 2023; Lee and Choi, 2023). 위성 데이터를 이용한 장기간의 시계열 분석은 이러한 광범위한 산림 변화를 파악하는 데 유용하며, 딥러닝 기법의 분석은 빠르고 정확한 분석 결과를 도출하는데 효과적인 방법으로 널리 사용되고 있다(Sun et al., 2023).

위성영상 데이터는 용량이 크고 촬영 영역이 광범위하여 분석 및 처리가 쉽지 않으며, 분할과 같은 딥러닝 학습용 라벨링(labeling) 데이터를 제작하는 과정에서 막대한 시간과 비용이 소요된다. 이를 해결하기 위해, 딥러닝을 활용하여 라벨링 작업을 자동화하려는 다양한 접근법이 제안되고 있다. Jing et al. (2019)은 딥러닝 기반 약지도(semi-supervised) 학습을 통해 단순 이미지 라벨만으로 고정밀의 분할 마스크를 생성하는 기법을 제안하였으며, 이는 대규모 이미지 데이터셋에서 라벨링의 복잡성을 크게 줄일 수 있음을 입증하였다. 또한, Li et al. (2022)은 저해상도 데이터를 활용하여 고해상도 라벨링을 생성하는 Low-to-High 네트워크를 개발하였으며, 이를 통해 대규모 고해상도 토지 피복 지도를 효과적으로 생성할 수 있음을 보였다. 이러한 접근 방법들은 라벨링 데이터를 최소화하면서도 정확한 산림 훼손 분석을 하기 위한 방법으로 활용될 수 있으며, 본 논문에서는 이러한 개념을 활용하여 의사 라벨링(Pseudo-labeling) 기법(Lee, 2013; Sohn et al., 2020)을 활용한 고해상도 라벨 데이터 생성에 대한 연구 결과를 제시한다.

의사 라벨링 기법은 라벨이 없는 데이터를 활용해 의사 라벨을 생성하고 이를 통해 모델을 학습시키는 기법으로, 대규모 비-라벨링 데이터에서 유용하게 사용된다. Desai and Ghose (2022)는 위성 영상에 대해서 영상 분할 정확도를 향상시키기 위하여GenerativeAdversarial Network (GAN)을 함께 적용하여 의사 라벨을 생성하는 방안을 제안하였으며, Mirpulatov et al. (2023)은 Sentinel-2 위성 데이터를 활용하여 Pseudo-labeling을 통해 노이즈가 포함된 라벨을 정제하는 기법을 제시하였다. Chen et al. (2024)은 Coarse-to-Fine 기법을 도입하여 고해상도 위성 영상에서 Mix Transformer를 기반으로 한 네트워크를 활용하여 Pseudo-label을 생성하고, 다중 프로토타입 학습을 통해 카테고리 분류 성능을 개선 하였다.

본 연구에서는 고해상도 위성 영상(KOMPSAT-3 영상)과 이에 대응하는 저해상도 라벨 데이터(Sentinel-2 위성 영상 기반)를 활용하여 산림 훼손 지역에 대한 고해상도 이진 분류 라벨 데이터를 생성하는 딥러닝 방법론을 제안한다. 이 방법은 초기 단계에서 주어진 저해상도 라벨 데이터를 활용해 학습을 진행하고, 이후 만들어진 의사 라벨을 이용하여 점진적으로 라벨링의 정확도를 향상시킨다. 제안 모델은 향후 낮은 비용으로 제작 가능한 저해상도 라벨링 데이터를 기반으로 고해상도 라벨링 데이터를 생성하여 해당 지역에 대한 정확한 분석을 하는데 활용할 수 있을 것이다. 본 연구가 위성 영상 분야에서 기존의 의사 라벨링 기법을 적용한 다른 연구들과 다른 점은, 고해상도 위성 영상과 저해상도 라벨 데이터를 활용하여 고해상도 라벨을 생성하는 기법을 제안하였으며, 제안 기법은 반복 학습을 통해 라벨 데이터의 성능을 점진적으로 향상시킨다는 차이점이 있다.

이 논문의 나머지 부분은 다음과 같이 구성된다. 2장에서는 제안 방법론을 적용한 아마존 지역에 대한 설명과 활용한 데이터셋의 구성에 대해서 설명한다. 3장에서는 제안하는 방법론을 자세히 설명하고, 4장에서는 연구 결과에 대해서 설명한다. 마지막 5장에서는 연구의 결론과 향후 연구 방향에 대한 내용을 설명한다.

2.1. 연구 지역

본 연구의 관심 지역은 브라질 아마존 지역의 일부 부분으로, 2023년 및 2024년에 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 학회에서 개최된 MultiEarth Workshop에서 산림 벌채 경진대회를 위해 제공된 데이터셋(Cha et al., 2022; 2023)을 활용하였다. 해당 지역은 위경도(4.39°S, 55.20°W), (4.39°S, 54.48°W), (3.33°S, 54.48°W) 그리고 (3.33°S, 55.20°W) 지점을 경계로 가지는 지역이며 최근 상당한 면적의 산림훼손이 진행되고 있는 지역이다. Fig. 1은 연구 지역의 1996년 12월 시점의 영상과 2019년 12월 시점의 영상으로, 23년동안 상당히 넓은 지역의 산림이 훼손된 것을 확인할 수 있다.

Fig. 1. Satellite images of the study area in the Amazon, Brazil. Acquired in (a) December 1996 and (b) December 2019.

2.2. 데이터셋

본 연구에서 사용된 데이터셋은 0.7 m의 공간 해상도를 가지는 고해상도 위성 영상인 KOMPSAT-3과 앞서 언급한MultiEarth Workshop에서 공개된 10 m 해상도의 Sentinel-2 기반으로 생성된 저해상도 이진 분할 라벨링 데이터로 구성되었다. 본 연구의 목적은 새로운 고해상도(KOMPSAT-3) 영상에 대한 라벨링 데이터를 생성하는 것이므로, 학습 데이터셋은 딥러닝 네트워크 학습을 위한 초기 정답으로 활용되는 저해상도 라벨이 존재하는 Set A와 정답이 존재하지 않는 고해상도 영상만 포함된 Set B 그리고 최종 생성된 라벨에 대한 검증을 위한 정답 데이터셋인 Set C로 구성되어 있다. 각 데이터셋의 구성 및 해상도, 이미지 크기 등의 자세한 정보는 Table 1에 정리되어 있다.

Table 1 Dataset composition and specifications used in this study

DatasetSpatial Resolution and SizeNumber of ImagesNote
Set ASatellite: O 0.7 m, (3,632 x 3,632 x 3)
Labeling: O 10 m, (256 x 256 x 1)
147
(Train set :118, Validation set: 29)
A pair of high-resolution satellite images and corresponding low-resolution labeling images
Set BSatellite: O 0.7 m, (3,632 x 3,632 x 3)
Labeling: X
151
(Train set: 121, Validation set: 30)
Only high resolution satellite images
Set CSatellite: X
Labeling: O 0.7 m, (3,632 x 3,632 x 1)
298
(Test: 289)
High resolution labeling images produced to verify model performance


Fig. 2는 위에서 설명한 3가지 데이터셋 Set A, B, C에 대한 예시 데이터들을 보여주고 있다. Fig. 2는 KOMPSAT-3 영상 및 저해상도/고해상도 라벨 데이터이며, Sentinel-2 저해상도 영상은 이에 대응되는 저해상도 라벨 데이터를 생성하는데 사용된 참고 영상이다. 그림에서 볼 수 있듯이, Set A는 저해상도 Sentinel-2 영상을 기반으로 만들어진 저해상도 라벨 데이터와 이에 대응하는 고해상도 KOMPSAT-3 영상이 포함되어 있으며, Set B에는 정답이 없는 고해상도KOMPSAT-3 영상만 포함되어 있다. Set A에 예시로 보여지고 있는 저해상도 위성영상인 Sentinel-2 영상은 저해상도 라벨 데이터를 만드는 과정에서 사용되었을 뿐 본 연구에서 제시하는 학습 및 추론 과정에서는 사용되지 않았다. 본 연구의 목표는 주어진 Set A와 Set B 데이터를 활용하여 딥러닝 네트워크를 학습시키고, 이 네트워크를 통해 빨간색으로 표현된 고해상도 라벨 데이터를 생성하는 것이다.

Fig. 2. Example images from the dataset. The high-resolution target image is highlighted in red.

3.1. 의사 라벨링 기반 반복 학습 방법

일부 고해상도 위성 영상에 대해서만 매칭되는 저해상도 라벨 데이터가 주어진 환경에서, 고해상도 라벨 데이터를 생성하기 위해서 본 연구에서는 Fig. 3과 같은 의사 라벨링 기법을 적용한 반복 학습 방법을 제안한다.

Fig. 3. Overall procedure of a pseudo-labeling-based image segmentation method for high-resolution label generation. HR: High resolution, LR: Low resolution, R: Round.

제안 방법론은 총 3번의 반복 학습 과정(Round)을 통해 학습이 이루어지며, 첫 번째 학습 Round에서는 고해상도 위성 영상과 저해상도라벨 데이터가 포함된 Set A를 이용해 산림 벌채 지역에 대한 이진분할을 수행하는 딥러닝 네트워크 모델 Model (R1)이 학습된다. 학습이 완료된 Model (R1)은 고해상도 영상이 포함되어 있는 Set B의 영상들을 추론하여, Set B에 대한 고해상도 라벨 데이터를 생성하게 된다. 이렇게 생성된 고해상도 라벨 데이터와 기존에 존재하던 고해상도 위성영상 데이터를 합쳐 Set B′ (Set B-prime)이라는 데이터셋으로 표현하였다.

앞서 생성된 Set B′은 두 번째 학습 Round에서 학습 데이터로 사용되며, 기존에 Set B에 포함되어 있던 고해상도 위성 영상과 Round 1에서 추론을 통해 생성된 고해상도 라벨 데이터로 구성된다. 여기서 학습된 딥러닝 모델 Model (R2)는 Set A에 포함되어 있는 고해상도 위성 영상에 대한 고해상도 라벨 데이터를 추론하기 위하여 다시 사용되며, Set A에서 기존의 저해상도 라벨 데이터가 새롭게 추론된 고해상도 라벨 데이터로 대체되어 Set A′ (Set A-prime)이라는 데이터셋이 생성된다.

마지막 세 번째 학습 Round에서는 두 번째 학습 Round에서 만들어진 Set A′을 학습 데이터로 사용하여 세 번째 모델Model (R3)를 학습한다. 최종적으로 학습된 Model (R3)를 이용하여 Set A와 Set B에 포함되어 있는 고해상도 위성영상에 대한 이진 분할 추론 결과를 획득하고, 결과의 정확도를 검증하기 위해서 Set C에 포함되어 있던 정답 라벨과 비교하여 모델의 정확도를 측정한다. 여기서 세 번째 학습 Round까지만 진행하고 더 이상의 학습 Round를 진행하지 않는 이유는 다음과 같다. 모델이 스스로 생성한 의사 라벨링을 통해서 계속적으로 학습을 수행하는 경우, 학습 초기의 의사 라벨링의 불완전성으로 인하여 오히려 반복 학습 과정에서 부정확한 정보까지도 학습하게 된다. 이로 인해 훈련 데이터에만 특화된 패턴을 학습하고, 새로운 데이터에 대한 일반화된 능력이 저하될 수 있다. 또한, 반복 학습시 의사 라벨에 포함된 작은 오류들이 학습이 진행되면서 누적되어 점차 큰 왜곡으로 진행될 가능성이 있다(Khoreva et al., 2017; Jing et al., 2019). 따라서 반복학습에 의해 모델이 훈련 데이터에 과도하게 특화되어 과적합(overfitting) 현상이 발생하는 것을 방지하기 위하여 학습 횟수를 제한하였다.

3.2. 모델 아키텍쳐

본 연구에서 제안한 의사 라벨링 기법을 활용한 영상 분할 방법에서는 2021 NeurIPS에서 발표된 SegFormer 모델(Xie et al., 2021)을 활용하였다. SegFormer는 아래 그림과 같이 트랜스포머 기반의 인코더(encoder)와 다층 퍼셉트론(perceptron)을 적용한 디코더(decoder)로 구성되어 있는 네트워크로, 멀티 스케일(multi-scale) 특징을 추출할 수 있으며 Overlapping PatchMerging 로직(logic)을 통해 로컬 및 글로벌 컨텍스트(context)를 동시에 학습하는 특징을 가지고 있다. 또한, Efficient Self-Attention 메커니즘이 적용되어 Attention 연산이 빠르게 수행되는 특징이 있다. 이러한 특징을 활용하고자 SegFormer를 사용하여 딥러닝 학습을 수행하였으며, 빠르고 효율적인 학습을 위해서 Backbone 네트워크로는 경량 네트워크인 MiT-B0를 사용하였다. 학습을 진행한 환경은AMDEPYC 7402P 24-Core CPU, 512GB DDR4 RAM, NVIDIA RTX A6000 48GB 워크스테이션 환경에서 진행하였으며, Ubuntu 20.04 LTS, CUDA 11.8, PyTorch 2.1.2, MMCV 1.7.2 버전을 사용하였다.

본 연구에서는 학습 과정에서 기존에 널리 사용되는Cross-Entropy Loss에 클래스간 비율 값을 사용한 Class-Ratio Loss를 추가로 적용하여 손실 함수를 구성하였다. Class-Ratio Loss는 아래 식(2)와 같이 계산되며, 이러한 접근 방법은 딥러닝의 학습 정확도를 향상시키기 위해 적용된 연구 결과(Zhang et al., 2019)가 있으며, 일부 데이터셋에서 Cross-Entropy Loss만 사용하는 것에 비해 학습 정확도를 향상시킬 수 있는 것으로 알려져 있다. 해당 Loss는 이미지에서 분류된 클래스의 비율 값을 거시적으로 사용하기 때문에, 제안 방법론에서 여러 Round를 거치는 반복 학습 수행 시 발생할 수 있는Noise Propagation을 일부 완화할 수 있다고 판단된다.

Table 2 Model and parameter specifications used in this study

PropertyValue
MethodSegFormer (Xie et al., 2021)
BackboneMiT-B0
Crop size512 x 512
OptimizerAdamW
Learning rate0.00006
Batch size4
Iterations140,000
Loss functionsCross-Entropy Loss + Class-Ratio Loss (Weight 10)


pc=pfor background1pfor deforestation

식(1)의 pc는 벌채 지역에 대한 추정 확률로 p∈[0,1] 범위에 속하며, c는 클래스의 수로, 본 연구에서는 c=2 (벌채(target = deforestation)=1, 배경(background)=0)이다.

Lcls=p(yc|x)k cp(y k|x)

사용된 Class-Ratio Loss (Lcls)는 반복 학습 과정에서 발생하는 과적합을 방지하기 위해 설계되었다. 패치(patch)화된 원본 라벨링 이미지에서 분할 대상인 두 클래스의 비율을 각각 계산한 뒤, 동일한 방식으로 추론 결과에서도 클래스 비율을 계산한다. 이 두 비율 간의 차이를 기반으로 계산된 값은 손실 함수에서 패널티(penalty) 역할을 수행하며, 모델이 클래스 비율의 불균형 문제를 효과적으로 처리할 수 있도록 돕는다. 또한, SegFormer에서 사용되는 Overlapping Patch Embedding은 기존 Non-Overlapping Patch 방식의 한계를 극복하여 지역(local) 정보를 더욱 효과적으로 보존한다. Overlapping 방식을 통해 패치 간의 경계 정보를 유지할 수 있어, 로컬 정보 손실을 최소화하면서 더 풍부한 세부 정보를 학습하게 된다. 이 접근법은 지역 및 전역(global) 정보를 동시에 학습할 수 있도록 설계되어, 산림 벌채와 같은 세밀한 경계를 가지는 이진 데이터 학습에서 특히 효과적으로 작동하였다. 이는 산림 벌채 지역의 경계가 불규칙적이고 세부적인 패턴으로 나타나는 경우가 많아, 지역적 정보 보존이 전체 분할 성능에 중요한 영향을 미치기 때문이다. Overlapping Patch Embedding을 통해 이와 같은 세부 패턴과 더불어 전체적인 맥락 정보까지 통합적으로 학습함으로써 모델의 정확도가 향상된 것을 확인할 수 있었다. 한편, SegFormer의 Transformer 기반 구조는 Self-Attention 메커니즘을 사용하여 장거리 의존성(long-range dependencies)을 효과적으로 학습할 수 있는 특징을 가지고 있으며, 전역 정보와 지역 정보를 통합적으로 학습하여 복잡한 경계를 정확히 분할할 수 있도록 한다. 또한, SegFormer의 계층적인 표현(hierarchical representation)을 통해 다양한 해상도의 정보를 병합할 수 있으며. 이는 고해상도 위성 영상과 같이 세밀한 패턴이 중요한 경우에서 높은 성능을 보이는 주요 요인 중 하나이다. 이러한 구조적 장점 덕분에 SegFormer가 본 연구에서 제안하는 의사 라벨링 기법 기반 이진 분할 연구에 효과적으로 동작함을 확인할 수 있었다.

제안된 네트워크 구성 및 학습법을 통하여 총 3번의 반복 학습을 수행하였고, 최종적으로 Round 3에서 학습된 Model (R3)를 이용하여 주어진 데이터셋 Set A와 Set B 영상에 대한 추론을 수행하였다. 최종 모델의 성능을 판단하기 위해서, 전문가가 작성한 정답 데이터셋인 Set C의 결과와 비교하였고, 추론 결과의 정확도를 4가지 Metric을 통해 비교 분석하여 Table 3에 정리하였다. Default Model은 공개된 SegFormerMiT-B0 모델을 그대로 사용하였으며, ProposedModel의 경우 3.2장에서 제안한 새로운 Loss를 추가한 모델을 사용하였다. 전반적으로 해당 방법론 적용시 추론 결과의 정확도가 Table 3에서 보는 바와 같이 F1-score 기준으로 0.83~0.85 정도로 나타난 것을 확인하였고, 제안한 Class-Ratio Loss를 추가하는 경우 대부분의 경우에서 4가지Metric 모두 약 1%의 성능 향상을 확인하였다. 이는 본 제안 모델이 벌채 지역을 정확하게 식별하는 동시에 누락을 최소화하는 과 정으로 학습하였음을 의미한다.

Table 3 Final evaluation metrics for the proposed approach

MetricDatasetDefault modelProposed model
AccuracySet A0.89410.9001
Set B0.90180.9074
PrecisionSet A0.85600.8557
Set B0.84450.8482
RecallSet A0.85370.8650
Set B0.86130.8730
F1-scoreSet A0.83810.8454
Set B0.83940.8500


해당 Class-Ratio Loss의 계산은 앞서 식(2)에서 설명한 것과 같이 간단한 연산으로 계산되기 때문에 실제 학습 과정에서 유의미한 학습 속도 저하를 일으키지 않았으며, 기본 모델 대비 Set A의 Precision Metric에서만 0.03%의 적은 성능 저하가 관찰되었을 뿐, 다른 모든 케이스에서 소폭의 성능 향상을 확인하였다. 산림 벌채 지역은 전체 영상내에서 상대적으로 작은 부분을 차지하게 되는데, 여기서 클래스간 불균형이 발생할 수 있다. Table 3에서 보는 바와 같이 대부분의 평가 지표에서 Class-Ratio Loss를 통해 모델의 성능이 향상되었고, 이는 클래스 불균형 문제를 조금 더 완화시킴으로써 모델의 안정성에 기여했음을 의미한다.

Fig. 4는 Round에 따른 모델의 예측 정확도 경향성을 확인하기 위한 그래프이다. Round 1과 2에서 학습된 모델을 통해 추론한 결과는 다음 Round에 사용되는 의사 라벨이며, Round 3에서 추론된 결과가 최종 라벨 데이터이다. 그래프를 보면 알 수 있듯이, 제안 방법론을 통해 생성된 의사 라벨의 정확도가 점진적으로 향상된 것을 알 수 있다. 이는 3장의 연구 방법에서 언급한 바와 같이, 제안 방법론에서 Round를 더 진행하는 경우 모델의 과적합이 발생하여 정확도가 오히려 감소하는 현상과 유사하며, Round 4를 넘어 지속적인 학습을 진행하는 경우 Khoreva et al. (2017)의 연구 결과와 마찬가지로 본 연구에서도 모델의 최종 정확도가 감소하는 경향성이 발생하는 것을 확인하였다.

Fig. 4. Accuracy results of the model over five training rounds.

Fig. 5는 학습 Round 1–3 과정 중에 손실함수와 정확도의 변화를 자세히 보여주고 있다. Fig. 5(a)에서 Cross-Entropy Loss는 학습이 진행됨에 따라 지속적으로 감소하는 추세를 보이며, 이는 일반적으로 모델이 클래스 분류 및 분할을 잘 수행하고 있음을 의미한다. 이와 달리 Class-Ratio Loss는 Fig. 5(b)에서 볼 수 있듯이 유사한 감소 패턴은 보이나 변동 폭이 더 크다는 것을 알 수 있다. 이는 학습 과정에서 발생하는 클래스의 균형을 맞추는 과정에서 발생하는 변동으로 이해할 수 있다. 마지막으로 Fig. 5(c)에서는 학습 Round가 진행됨에 따라 꾸준히 정확도가 향상하고 있으며, 안정적인 학습이 이루어지고 있음을 의미한다. 이와 같이 저해상도 영상만으로도 반복 학습을 통해서 해상도의 차이만큼 세부적인 정보를 더 포함하는 고해상도 영상의 정보를 복원해 갈 수 있도록 모델 및 손실 함수 변형을 통한 학습 전략을 구성하고 이에 대한 성능을 확인할 수 있었다.

Fig. 5. Loss and accuracy curves for the proposed model: (a) cross-entropy loss by round, (b) class-ratio loss by round, and (c) accuracy by round.

Fig. 6은 제안 방법론을 적용한 결과 예시를 보여준다. (a)는 고해상도 KOMPSAT-3 영상, (b)는 검증을 위해 제작된 고해상도 라벨링 이미지이며, (c)는 본 연구에서 제안한 ProposedModel을 사용하여 반복 학습을 수행한 결과이다. 학습 Round를 진행할수록 모델의 F1-score가 증가는 것을 확인할 수 있었고, 전반적으로 우수한 F1-score를 보여주고 있는 것을 확인하였다.

Fig. 6. Example results of the proposed method. (a) Raw RGB image of the data. (b) Ground truth of the data (orange). (c) Overlay of prediction results (blue) from the proposed model on the ground truth.

Fig. 6은 제안 방법론을 적용한 결과 예시를 보여준다. (a)는 고해상도 KOMPSAT-3 영상이며, (b)는 검증을 위해 제작된 고해상도 라벨링 이미지(오렌지색)이다. (c)는 SegFormer의 DefaultModel을 사용하여 3번의 학습 Round를 거쳐 학습을 진행한 결과(파란색)이며, (d)는 본 연구에서 제안한 ProposedModel을 사용하여 반복 학습을 수행한 결과(파란색)이다. 정답과 예측결과를 오버레이 하여 분석한 결과, 기본 SegFormer 결과에서는 일부 과대 예측(over-prediction)이 발생하였음을 알 수 있다. 두 결과 모두 Round를 진행할수록 모델의 F1-score가 증가는 것을 확인할 수 있었으며, ProposedModel을 적용한 경우가 기본 SegFormer 모델의 경우보다 우수한 F1-score를 보여주고 있는 것을 확인하였다. 하지만, 일부 복잡한 지형 벌채 패턴 지역에서는 여전히 개선의 여지가 있음이 확인되었다.

본 연구는 저해상도 위성 영상과 벌채 라벨링 데이터를 활용하여 고해상도 영상에서의 산림 벌채 지역에 대한 라벨링을 자동으로 생성하는 딥러닝 기반의 방법론을 제안하였다. 특히 의사 라벨링 기법을 활용하여 모델의 반복 학습을 통해 고해상도 위성 영상에서 벌채 지역에 대한 라벨링 정확도를 점진적으로 향상시켰음이 확인되었다. 또한 기본 SegFormer 모델에 클래스간 불균형 문제를 완화시키고, 정확도를 향상시키기 위하여 새로 손실함수를 도입하였고 그 효과를 확인하였다. 본 연구는 낮은 비용으로 제작가능한 저해상도 라벨링 데이터 기반으로 해상도 차이가 15배가량 나는 고해상도 영상의 복잡성을 재현하고, 이를 통해 광범위한 지역에 대한 정확한 분석 가능성을 확인하였다.

향후 연구에서는 더 다양한 지형 조건에서의 모델 성능을 평가하고, 저해상도 영상과 고해상도의 영상 특징 분석을 통하여 제안된 의사 라벨링 기반의 반복 학습 방법이 고해상도 위성 영상의 산림 벌채 지역을 효과적으로 라벨링 할 수 있다는 것을 확인하고자 한다. 특히, 오탐지 및 미탐지 지역에 대한 학습 과정에서 패널티를 제안하는 방법을 통해 기존 저해상도 데이터셋의 효율성을 높이고자 한다.

본 연구에서는 많은 시간과 비용이 소모되는 고해상도 라벨링 데이터 구축을 위해서 사용할 수 있는 의사 라벨링 기반 영상 분할 기법을 제안하였고, 아마존 지역의 산림 벌채 데이터에 적용하여 그 적용 가능성을 검증하였다. Sentinel-2 위성의 10 m해상도를 가지는 저해상도 영상과 같은 수준의 저해상도 라벨링 데이터가 존재하는 경우에 동일 지역의 KOMPSAT-3 위성의 0.7 m 해상도를 가지는 고해상도 영상이 존재하는 경우, 제안한 영상 분할 기법을 적용한다면 라벨링 데이터가 없는 새로운 장소의 KOMPSAT-3 위성 영상에 대한 고해상도 라벨링 데이터를 생성할 수 있다. 새로운 지역에 대해서 생성된 고해상도 라벨링 데이터의 정확도를 검증하기 위해서 실제 사람이 작업한 정답 데이터와 비교하여 정확도를 측정하였으며, 제안 방법론을 적용하여 생성한 고해상도 라벨링 데이터의 정확도가 높은 수준임이 검증되었다.

본 연구에서는 제안 방법론을 아마존 지역의 산림 벌채 이진 분할 데이터에 적용하여 그 결과를 보여주었으나, 이와 유사한 특성을 가지는 저해상도, 고해상도 복합 데이터셋에도 확장하여 활용될 수 있을 것이다. 향후 연구에서 제안 방법론의 중간 추론 단계에서 이전 단계의 모델 정보를 일부 활용하고, 학습 파라미터를 개선한다면 학습속도를 개선하고 모델의 정확도를 더 높일 수 있을 것이다.

이 논문은 2024년도 한국기술교육대학교 교수 교육연구진흥과제 지원 및 한국항공우주연구원 위성정보활용 사업에 의하여 연구되었음.

  1. Banskota, A., Kayastha, N., Falkowski, M. J., Wulder, M. A., Froese, R. E., and White, J. C., 2014. Forest monitoring using Landsat time series data: A review. Canadian Journal of Remote Sensing, 40(5), 362-384. https://doi.org/10.1080/07038992.2014.987376
  2. Cha, M., Angelides, G., Hamilton, M., Soszynski, A., Swenson, B., and Maidel, N., et al, 2023. MultiEarth 2023 - Multimodal learning for earth and environment workshop and challenge. arXiv preprint arXiv:2306.04738. https://doi.org/10.48550/arXiv.2306.04738
  3. Cha, M., Huang, K. W., Schmidt, M., Angelides, G., Hamilton, M., and Goldberg, S., et al, 2022. MultiEarth 2022 - Multimodal learning for earth and environment workshop and challenge. arXiv preprint arXiv:2204.07649. https://doi.org/10.48550/arXiv.2204.07649
  4. Chen, H., Yang, W., Liu, L., and Xia, G. S., 2024. Coarse-to-fine semantic segmentation of satellite images. ISPRS Journal of Photogrammetry and Remote Sensing, 217, 1-17. https://doi.org/10.1016/j.isprsjprs.2024.07.028
  5. Dalagnol, R., Wagner, F. H., Galvão, L. S., Braga, D., Osborn, F., and da Conceição Bispo, P., et al, 2023. Mapping tropical forest degradation with deep learning and Planet NICFI data. Remote Sensing of Environment, 298, 113798. https://doi.org/10.1016/j.rse.2023.113798
  6. Desai, S., and Ghose, D., 2022. Active learning for improved semisupervised semantic segmentation in satellite images. arXiv preprint arXiv:2110.07782. https://doi.org/10.48550/arXiv.2110.07782
  7. Fearnside, P. M., Righi, C. A., de Alencastro Graça, P. M. L., Keizer, E. W., Cerri, C. C., Nogueira, E. M., and Barbosa, R. I., 2009. Biomass and greenhouse-gas emissions from land-use change in Brazil's Amazonian "arc of deforestation": The states of Mato Grosso and Rondônia. Forest Ecology and Management, 258(9), 1968-1978. https://doi.org/10.1016/j.foreco.2009.07.042
  8. Jing, L., Chen, Y., and Tian, Y., 2019. Coarse-to-fine semantic segmentation from image-level labels. IEEE Transactions on Image Processing, 29, 225-236. https://doi.org/10.1109/TIP.2019.2926748
  9. Khoreva, A., Benenson, R., Hosang, J., Hein, M., and Schiele, B., 2017. Simple does it: Weakly supervised instance and semantic segmentation. arXiv preprint arXiv:1603.07485. https://doi.org/10.48550/arXiv.1603.07485
  10. Lee, D., and Choi, Y., 2023. A learning strategy for amazon deforestation estimations using multi-modal satellite imagery. Remote Sensing, 15(21), 5167. https://doi.org/10.3390/rs15215167
  11. Lee, D. H., 2013. Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks. In Proceedings of the Workshop on Challenges in Representation Learning (WREPL), Atlanta, GA, USA, June 16-21, pp. 896-901.
  12. Li, Z., Zhang, H., Lu, F., Xue, R., Yang, G., and Zhang, L., 2022. Breaking the resolution barrier: A low-to-high network for large-scale high-resolution land-cover mapping using low-resolution labels. ISPRS Journal of Photogrammetry and Remote Sensing, 192, 244-267. https://doi.org/10.1016/j.isprsjprs.2022.08.008
  13. Mirpulatov, I., Illarionova, S., Shadrin, D., and Burnaev, E., 2023. Pseudo-labeling approach for land cover classification through remote sensing observations with noisy labels. IEEE Access, 11, 82570-82583. https://doi.org/10.1109/ACCESS.2023.3300967
  14. Sohn, K., Berthelot, D., Carlini, N., Zhang, Z., Zhang, H., Raffel, C. A., and Li, C. L., 2020. Fixmatch: Simplifying semi-supervised learning with consistency and confidence. arXiv preprint arXiv:2001.07685. https://doi.org/10.48550/arXiv.2001.07685
  15. Sun, R., Zhao, F., Huang, C., Huang, H., Lu, Z., and Zhao, P., et al, 2023. Integration of deep learning algorithms with a Bayesian method for improved characterization of tropical deforestation frontiers using Sentinel-1 SAR imagery. Remote Sensing of Environment, 298, 113821. https://doi.org/10.1016/j.rse.2023.113821
  16. Xie, E., Wang, W., Yu, Z., Anandkumar, A., Alvarez, J. M., and Luo, P., 2021. SegFormer: Simple and efficient design for semantic segmentation with transformers. arXiv preprint arXiv:2015.15203. https://doi.org/10.48550/arXiv.2105.15203
  17. Zhang, K., Wang, X., Guo, Y., Zhao, Z., and Ma, Z., 2019. Competing ratio loss for multi-class image classification. In Proceedings of the 2019 IEEE Visual Communications and Image Processing (VCIP), Sydney, Australia, Dec. 1-4, pp. 1-4. https://doi.org/10.1109/VCIP47243.2019.8965861

Research Article

Korean J. Remote Sens. 2025; 41(1): 111-119

Published online February 28, 2025 https://doi.org/10.7780/kjrs.2025.41.1.10

Copyright © Korean Society of Remote Sensing.

저해상도 아마존 산림 벌채 데이터셋과 의사 라벨링 기법을 통한 고해상도 라벨 생성 방법

Dongoo Lee1 , Yeonju Choi2*

1한국기술교육대학교 기계공학부 조교수
2한국항공우주연구원 위성활용부 선임연구원

Received: February 4, 2025; Revised: February 19, 2025; Accepted: February 21, 2025

Generating High-Resolution Labels Using a Low-Resolution Amazon Deforestation Dataset and Pseudo-Labeling Techniques

Dongoo Lee1 , Yeonju Choi2*

1Assistant Professor, Department of Mechanical Engineering, Korea University of Technology and Education, Cheonan, Republic of Korea
2Senior Researcher, Satellite Application Division, Korea Aerospace Research Institute, Daejeon, Republic of Korea

Correspondence to:Yeonju Choi
E-mail: choiyj@kari.re.kr

Received: February 4, 2025; Revised: February 19, 2025; Accepted: February 21, 2025

This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Abstract

The Amazon plays a crucial role in mitigating global warming and preserving biodiversity, which are vital for the Earth's environment. However, deforestation has been ongoing for an extended period. Particularly, the vast scale of the region poses challenges in accurately identifying deforested areas, highlighting the growing importance of leveraging satellite information to prevent further damage and develop effective restoration plans. This study proposes a deep learning-based method to automatically generate high-resolution deforestation labels using low-resolution satellite imagery and existing deforestation label data. The proposed method initially performs primary training using low-resolution images and labeled data. Through this process, pseudo-label data are generated and used for iterative learning, ultimately improving the accuracy of deforestation area labeling on high-resolution satellite images. The output of this research can contribute to generating highly accurate high-resolution labeling data, even for satellite images without prior deforestation labels. This data can be utilized for detailed analysis of deforested areas and the development of precise restoration strategies.

Keywords: Amazon deforestation, Pseudo-labeling, High-resolution label, Semantic segmentation

요약

아마존은 지구 온난화 완화와 생물다양성 보호 등 지구 환경 유지에 중요한 역할을 담당하지만, 오랜기간 동안 산림 훼손이 지속적으로 진행되고 있다. 특히, 광범위한 영역으로 인해 훼손 지역을 효과적으로 파악하는 데 한계가 있으며, 추가적인 훼손 방지 및 복원 계획 수립을 위해 위성 정보를 활용하는 중요성이 더욱 부각되고 있다. 본 연구에서는 저해상도 위성 영상과 산림 훼손 라벨링(labeling) 데이터를 활용하여 고해상도 영상에서 산림 훼손 지역 라벨링을 자동 생성하는 딥러닝 기반 방법론을 제안하였다. 제안된 방법은 초기 단계에서 저해상도 영상과 라벨링 데이터를 기반으로 학습을 진행하며, 이후 의사 라벨(Pseudo label)을 생성하고, 이를 통해 고해상도 위성 영상에서 산림 훼손 지역 라벨링의 정확도를 향상시킴을 확인하였다. 본 연구의 결과는 산림 벌채 지역에 대한 라벨링 정보가 없는 위성 영상에도 높은 정확도를 갖춘 고해상도 라벨링 데이터를 생성하여, 정밀한 산림 훼손 지역 분석 및 복원 계획 수립에 기여할 수 있을 것으로 기대된다.

주요어: 아마존 산림 벌채, 의사 라벨링, 고해상도 라벨, 영상 분할

1. 서론

아마존 지역은 지구 환경 유지의 중요한 역할을 담당하는 열대우림이 상당히 넓은 면적으로 분포하고 있으며, 이는 지구 온난화 방지와 생물 다양성 보호에 핵심적인 역할을 한다. 그러나 지난 수십 년간 광범위한 지역에서 산림 훼손이 지속되고 있으며, 그 면적이 너무 넓어 이를 정확히 분석하고 대응 방안을 마련하는 데 어려움을 겪고 있다. 이러한 문제를 해결하기 위해, 위성 영상 기반의 산림 벌채 지역 분석은 넓은 지역의 변화를 효과적으로 모니터링하고, 훼손 지역을 정확하게 파악할 수 있는 방법으로 주목받고 있다(Banskota et al., 2014; Dalagnol et al., 2023; Lee and Choi, 2023). 위성 데이터를 이용한 장기간의 시계열 분석은 이러한 광범위한 산림 변화를 파악하는 데 유용하며, 딥러닝 기법의 분석은 빠르고 정확한 분석 결과를 도출하는데 효과적인 방법으로 널리 사용되고 있다(Sun et al., 2023).

위성영상 데이터는 용량이 크고 촬영 영역이 광범위하여 분석 및 처리가 쉽지 않으며, 분할과 같은 딥러닝 학습용 라벨링(labeling) 데이터를 제작하는 과정에서 막대한 시간과 비용이 소요된다. 이를 해결하기 위해, 딥러닝을 활용하여 라벨링 작업을 자동화하려는 다양한 접근법이 제안되고 있다. Jing et al. (2019)은 딥러닝 기반 약지도(semi-supervised) 학습을 통해 단순 이미지 라벨만으로 고정밀의 분할 마스크를 생성하는 기법을 제안하였으며, 이는 대규모 이미지 데이터셋에서 라벨링의 복잡성을 크게 줄일 수 있음을 입증하였다. 또한, Li et al. (2022)은 저해상도 데이터를 활용하여 고해상도 라벨링을 생성하는 Low-to-High 네트워크를 개발하였으며, 이를 통해 대규모 고해상도 토지 피복 지도를 효과적으로 생성할 수 있음을 보였다. 이러한 접근 방법들은 라벨링 데이터를 최소화하면서도 정확한 산림 훼손 분석을 하기 위한 방법으로 활용될 수 있으며, 본 논문에서는 이러한 개념을 활용하여 의사 라벨링(Pseudo-labeling) 기법(Lee, 2013; Sohn et al., 2020)을 활용한 고해상도 라벨 데이터 생성에 대한 연구 결과를 제시한다.

의사 라벨링 기법은 라벨이 없는 데이터를 활용해 의사 라벨을 생성하고 이를 통해 모델을 학습시키는 기법으로, 대규모 비-라벨링 데이터에서 유용하게 사용된다. Desai and Ghose (2022)는 위성 영상에 대해서 영상 분할 정확도를 향상시키기 위하여GenerativeAdversarial Network (GAN)을 함께 적용하여 의사 라벨을 생성하는 방안을 제안하였으며, Mirpulatov et al. (2023)은 Sentinel-2 위성 데이터를 활용하여 Pseudo-labeling을 통해 노이즈가 포함된 라벨을 정제하는 기법을 제시하였다. Chen et al. (2024)은 Coarse-to-Fine 기법을 도입하여 고해상도 위성 영상에서 Mix Transformer를 기반으로 한 네트워크를 활용하여 Pseudo-label을 생성하고, 다중 프로토타입 학습을 통해 카테고리 분류 성능을 개선 하였다.

본 연구에서는 고해상도 위성 영상(KOMPSAT-3 영상)과 이에 대응하는 저해상도 라벨 데이터(Sentinel-2 위성 영상 기반)를 활용하여 산림 훼손 지역에 대한 고해상도 이진 분류 라벨 데이터를 생성하는 딥러닝 방법론을 제안한다. 이 방법은 초기 단계에서 주어진 저해상도 라벨 데이터를 활용해 학습을 진행하고, 이후 만들어진 의사 라벨을 이용하여 점진적으로 라벨링의 정확도를 향상시킨다. 제안 모델은 향후 낮은 비용으로 제작 가능한 저해상도 라벨링 데이터를 기반으로 고해상도 라벨링 데이터를 생성하여 해당 지역에 대한 정확한 분석을 하는데 활용할 수 있을 것이다. 본 연구가 위성 영상 분야에서 기존의 의사 라벨링 기법을 적용한 다른 연구들과 다른 점은, 고해상도 위성 영상과 저해상도 라벨 데이터를 활용하여 고해상도 라벨을 생성하는 기법을 제안하였으며, 제안 기법은 반복 학습을 통해 라벨 데이터의 성능을 점진적으로 향상시킨다는 차이점이 있다.

이 논문의 나머지 부분은 다음과 같이 구성된다. 2장에서는 제안 방법론을 적용한 아마존 지역에 대한 설명과 활용한 데이터셋의 구성에 대해서 설명한다. 3장에서는 제안하는 방법론을 자세히 설명하고, 4장에서는 연구 결과에 대해서 설명한다. 마지막 5장에서는 연구의 결론과 향후 연구 방향에 대한 내용을 설명한다.

2. 연구 지역 및 자료

2.1. 연구 지역

본 연구의 관심 지역은 브라질 아마존 지역의 일부 부분으로, 2023년 및 2024년에 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 학회에서 개최된 MultiEarth Workshop에서 산림 벌채 경진대회를 위해 제공된 데이터셋(Cha et al., 2022; 2023)을 활용하였다. 해당 지역은 위경도(4.39°S, 55.20°W), (4.39°S, 54.48°W), (3.33°S, 54.48°W) 그리고 (3.33°S, 55.20°W) 지점을 경계로 가지는 지역이며 최근 상당한 면적의 산림훼손이 진행되고 있는 지역이다. Fig. 1은 연구 지역의 1996년 12월 시점의 영상과 2019년 12월 시점의 영상으로, 23년동안 상당히 넓은 지역의 산림이 훼손된 것을 확인할 수 있다.

Figure 1. Satellite images of the study area in the Amazon, Brazil. Acquired in (a) December 1996 and (b) December 2019.

2.2. 데이터셋

본 연구에서 사용된 데이터셋은 0.7 m의 공간 해상도를 가지는 고해상도 위성 영상인 KOMPSAT-3과 앞서 언급한MultiEarth Workshop에서 공개된 10 m 해상도의 Sentinel-2 기반으로 생성된 저해상도 이진 분할 라벨링 데이터로 구성되었다. 본 연구의 목적은 새로운 고해상도(KOMPSAT-3) 영상에 대한 라벨링 데이터를 생성하는 것이므로, 학습 데이터셋은 딥러닝 네트워크 학습을 위한 초기 정답으로 활용되는 저해상도 라벨이 존재하는 Set A와 정답이 존재하지 않는 고해상도 영상만 포함된 Set B 그리고 최종 생성된 라벨에 대한 검증을 위한 정답 데이터셋인 Set C로 구성되어 있다. 각 데이터셋의 구성 및 해상도, 이미지 크기 등의 자세한 정보는 Table 1에 정리되어 있다.

Table 1 . Dataset composition and specifications used in this study.

DatasetSpatial Resolution and SizeNumber of ImagesNote
Set ASatellite: O 0.7 m, (3,632 x 3,632 x 3)
Labeling: O 10 m, (256 x 256 x 1)
147
(Train set :118, Validation set: 29)
A pair of high-resolution satellite images and corresponding low-resolution labeling images
Set BSatellite: O 0.7 m, (3,632 x 3,632 x 3)
Labeling: X
151
(Train set: 121, Validation set: 30)
Only high resolution satellite images
Set CSatellite: X
Labeling: O 0.7 m, (3,632 x 3,632 x 1)
298
(Test: 289)
High resolution labeling images produced to verify model performance


Fig. 2는 위에서 설명한 3가지 데이터셋 Set A, B, C에 대한 예시 데이터들을 보여주고 있다. Fig. 2는 KOMPSAT-3 영상 및 저해상도/고해상도 라벨 데이터이며, Sentinel-2 저해상도 영상은 이에 대응되는 저해상도 라벨 데이터를 생성하는데 사용된 참고 영상이다. 그림에서 볼 수 있듯이, Set A는 저해상도 Sentinel-2 영상을 기반으로 만들어진 저해상도 라벨 데이터와 이에 대응하는 고해상도 KOMPSAT-3 영상이 포함되어 있으며, Set B에는 정답이 없는 고해상도KOMPSAT-3 영상만 포함되어 있다. Set A에 예시로 보여지고 있는 저해상도 위성영상인 Sentinel-2 영상은 저해상도 라벨 데이터를 만드는 과정에서 사용되었을 뿐 본 연구에서 제시하는 학습 및 추론 과정에서는 사용되지 않았다. 본 연구의 목표는 주어진 Set A와 Set B 데이터를 활용하여 딥러닝 네트워크를 학습시키고, 이 네트워크를 통해 빨간색으로 표현된 고해상도 라벨 데이터를 생성하는 것이다.

Figure 2. Example images from the dataset. The high-resolution target image is highlighted in red.

3. 연구 방법

3.1. 의사 라벨링 기반 반복 학습 방법

일부 고해상도 위성 영상에 대해서만 매칭되는 저해상도 라벨 데이터가 주어진 환경에서, 고해상도 라벨 데이터를 생성하기 위해서 본 연구에서는 Fig. 3과 같은 의사 라벨링 기법을 적용한 반복 학습 방법을 제안한다.

Figure 3. Overall procedure of a pseudo-labeling-based image segmentation method for high-resolution label generation. HR: High resolution, LR: Low resolution, R: Round.

제안 방법론은 총 3번의 반복 학습 과정(Round)을 통해 학습이 이루어지며, 첫 번째 학습 Round에서는 고해상도 위성 영상과 저해상도라벨 데이터가 포함된 Set A를 이용해 산림 벌채 지역에 대한 이진분할을 수행하는 딥러닝 네트워크 모델 Model (R1)이 학습된다. 학습이 완료된 Model (R1)은 고해상도 영상이 포함되어 있는 Set B의 영상들을 추론하여, Set B에 대한 고해상도 라벨 데이터를 생성하게 된다. 이렇게 생성된 고해상도 라벨 데이터와 기존에 존재하던 고해상도 위성영상 데이터를 합쳐 Set B′ (Set B-prime)이라는 데이터셋으로 표현하였다.

앞서 생성된 Set B′은 두 번째 학습 Round에서 학습 데이터로 사용되며, 기존에 Set B에 포함되어 있던 고해상도 위성 영상과 Round 1에서 추론을 통해 생성된 고해상도 라벨 데이터로 구성된다. 여기서 학습된 딥러닝 모델 Model (R2)는 Set A에 포함되어 있는 고해상도 위성 영상에 대한 고해상도 라벨 데이터를 추론하기 위하여 다시 사용되며, Set A에서 기존의 저해상도 라벨 데이터가 새롭게 추론된 고해상도 라벨 데이터로 대체되어 Set A′ (Set A-prime)이라는 데이터셋이 생성된다.

마지막 세 번째 학습 Round에서는 두 번째 학습 Round에서 만들어진 Set A′을 학습 데이터로 사용하여 세 번째 모델Model (R3)를 학습한다. 최종적으로 학습된 Model (R3)를 이용하여 Set A와 Set B에 포함되어 있는 고해상도 위성영상에 대한 이진 분할 추론 결과를 획득하고, 결과의 정확도를 검증하기 위해서 Set C에 포함되어 있던 정답 라벨과 비교하여 모델의 정확도를 측정한다. 여기서 세 번째 학습 Round까지만 진행하고 더 이상의 학습 Round를 진행하지 않는 이유는 다음과 같다. 모델이 스스로 생성한 의사 라벨링을 통해서 계속적으로 학습을 수행하는 경우, 학습 초기의 의사 라벨링의 불완전성으로 인하여 오히려 반복 학습 과정에서 부정확한 정보까지도 학습하게 된다. 이로 인해 훈련 데이터에만 특화된 패턴을 학습하고, 새로운 데이터에 대한 일반화된 능력이 저하될 수 있다. 또한, 반복 학습시 의사 라벨에 포함된 작은 오류들이 학습이 진행되면서 누적되어 점차 큰 왜곡으로 진행될 가능성이 있다(Khoreva et al., 2017; Jing et al., 2019). 따라서 반복학습에 의해 모델이 훈련 데이터에 과도하게 특화되어 과적합(overfitting) 현상이 발생하는 것을 방지하기 위하여 학습 횟수를 제한하였다.

3.2. 모델 아키텍쳐

본 연구에서 제안한 의사 라벨링 기법을 활용한 영상 분할 방법에서는 2021 NeurIPS에서 발표된 SegFormer 모델(Xie et al., 2021)을 활용하였다. SegFormer는 아래 그림과 같이 트랜스포머 기반의 인코더(encoder)와 다층 퍼셉트론(perceptron)을 적용한 디코더(decoder)로 구성되어 있는 네트워크로, 멀티 스케일(multi-scale) 특징을 추출할 수 있으며 Overlapping PatchMerging 로직(logic)을 통해 로컬 및 글로벌 컨텍스트(context)를 동시에 학습하는 특징을 가지고 있다. 또한, Efficient Self-Attention 메커니즘이 적용되어 Attention 연산이 빠르게 수행되는 특징이 있다. 이러한 특징을 활용하고자 SegFormer를 사용하여 딥러닝 학습을 수행하였으며, 빠르고 효율적인 학습을 위해서 Backbone 네트워크로는 경량 네트워크인 MiT-B0를 사용하였다. 학습을 진행한 환경은AMDEPYC 7402P 24-Core CPU, 512GB DDR4 RAM, NVIDIA RTX A6000 48GB 워크스테이션 환경에서 진행하였으며, Ubuntu 20.04 LTS, CUDA 11.8, PyTorch 2.1.2, MMCV 1.7.2 버전을 사용하였다.

본 연구에서는 학습 과정에서 기존에 널리 사용되는Cross-Entropy Loss에 클래스간 비율 값을 사용한 Class-Ratio Loss를 추가로 적용하여 손실 함수를 구성하였다. Class-Ratio Loss는 아래 식(2)와 같이 계산되며, 이러한 접근 방법은 딥러닝의 학습 정확도를 향상시키기 위해 적용된 연구 결과(Zhang et al., 2019)가 있으며, 일부 데이터셋에서 Cross-Entropy Loss만 사용하는 것에 비해 학습 정확도를 향상시킬 수 있는 것으로 알려져 있다. 해당 Loss는 이미지에서 분류된 클래스의 비율 값을 거시적으로 사용하기 때문에, 제안 방법론에서 여러 Round를 거치는 반복 학습 수행 시 발생할 수 있는Noise Propagation을 일부 완화할 수 있다고 판단된다.

Table 2 . Model and parameter specifications used in this study.

PropertyValue
MethodSegFormer (Xie et al., 2021)
BackboneMiT-B0
Crop size512 x 512
OptimizerAdamW
Learning rate0.00006
Batch size4
Iterations140,000
Loss functionsCross-Entropy Loss + Class-Ratio Loss (Weight 10)


pc=pfor background1pfor deforestation

식(1)의 pc는 벌채 지역에 대한 추정 확률로 p∈[0,1] 범위에 속하며, c는 클래스의 수로, 본 연구에서는 c=2 (벌채(target = deforestation)=1, 배경(background)=0)이다.

Lcls=p(yc|x)k cp(y k|x)

사용된 Class-Ratio Loss (Lcls)는 반복 학습 과정에서 발생하는 과적합을 방지하기 위해 설계되었다. 패치(patch)화된 원본 라벨링 이미지에서 분할 대상인 두 클래스의 비율을 각각 계산한 뒤, 동일한 방식으로 추론 결과에서도 클래스 비율을 계산한다. 이 두 비율 간의 차이를 기반으로 계산된 값은 손실 함수에서 패널티(penalty) 역할을 수행하며, 모델이 클래스 비율의 불균형 문제를 효과적으로 처리할 수 있도록 돕는다. 또한, SegFormer에서 사용되는 Overlapping Patch Embedding은 기존 Non-Overlapping Patch 방식의 한계를 극복하여 지역(local) 정보를 더욱 효과적으로 보존한다. Overlapping 방식을 통해 패치 간의 경계 정보를 유지할 수 있어, 로컬 정보 손실을 최소화하면서 더 풍부한 세부 정보를 학습하게 된다. 이 접근법은 지역 및 전역(global) 정보를 동시에 학습할 수 있도록 설계되어, 산림 벌채와 같은 세밀한 경계를 가지는 이진 데이터 학습에서 특히 효과적으로 작동하였다. 이는 산림 벌채 지역의 경계가 불규칙적이고 세부적인 패턴으로 나타나는 경우가 많아, 지역적 정보 보존이 전체 분할 성능에 중요한 영향을 미치기 때문이다. Overlapping Patch Embedding을 통해 이와 같은 세부 패턴과 더불어 전체적인 맥락 정보까지 통합적으로 학습함으로써 모델의 정확도가 향상된 것을 확인할 수 있었다. 한편, SegFormer의 Transformer 기반 구조는 Self-Attention 메커니즘을 사용하여 장거리 의존성(long-range dependencies)을 효과적으로 학습할 수 있는 특징을 가지고 있으며, 전역 정보와 지역 정보를 통합적으로 학습하여 복잡한 경계를 정확히 분할할 수 있도록 한다. 또한, SegFormer의 계층적인 표현(hierarchical representation)을 통해 다양한 해상도의 정보를 병합할 수 있으며. 이는 고해상도 위성 영상과 같이 세밀한 패턴이 중요한 경우에서 높은 성능을 보이는 주요 요인 중 하나이다. 이러한 구조적 장점 덕분에 SegFormer가 본 연구에서 제안하는 의사 라벨링 기법 기반 이진 분할 연구에 효과적으로 동작함을 확인할 수 있었다.

4. 연구 결과 및 토의

제안된 네트워크 구성 및 학습법을 통하여 총 3번의 반복 학습을 수행하였고, 최종적으로 Round 3에서 학습된 Model (R3)를 이용하여 주어진 데이터셋 Set A와 Set B 영상에 대한 추론을 수행하였다. 최종 모델의 성능을 판단하기 위해서, 전문가가 작성한 정답 데이터셋인 Set C의 결과와 비교하였고, 추론 결과의 정확도를 4가지 Metric을 통해 비교 분석하여 Table 3에 정리하였다. Default Model은 공개된 SegFormerMiT-B0 모델을 그대로 사용하였으며, ProposedModel의 경우 3.2장에서 제안한 새로운 Loss를 추가한 모델을 사용하였다. 전반적으로 해당 방법론 적용시 추론 결과의 정확도가 Table 3에서 보는 바와 같이 F1-score 기준으로 0.83~0.85 정도로 나타난 것을 확인하였고, 제안한 Class-Ratio Loss를 추가하는 경우 대부분의 경우에서 4가지Metric 모두 약 1%의 성능 향상을 확인하였다. 이는 본 제안 모델이 벌채 지역을 정확하게 식별하는 동시에 누락을 최소화하는 과 정으로 학습하였음을 의미한다.

Table 3 . Final evaluation metrics for the proposed approach.

MetricDatasetDefault modelProposed model
AccuracySet A0.89410.9001
Set B0.90180.9074
PrecisionSet A0.85600.8557
Set B0.84450.8482
RecallSet A0.85370.8650
Set B0.86130.8730
F1-scoreSet A0.83810.8454
Set B0.83940.8500


해당 Class-Ratio Loss의 계산은 앞서 식(2)에서 설명한 것과 같이 간단한 연산으로 계산되기 때문에 실제 학습 과정에서 유의미한 학습 속도 저하를 일으키지 않았으며, 기본 모델 대비 Set A의 Precision Metric에서만 0.03%의 적은 성능 저하가 관찰되었을 뿐, 다른 모든 케이스에서 소폭의 성능 향상을 확인하였다. 산림 벌채 지역은 전체 영상내에서 상대적으로 작은 부분을 차지하게 되는데, 여기서 클래스간 불균형이 발생할 수 있다. Table 3에서 보는 바와 같이 대부분의 평가 지표에서 Class-Ratio Loss를 통해 모델의 성능이 향상되었고, 이는 클래스 불균형 문제를 조금 더 완화시킴으로써 모델의 안정성에 기여했음을 의미한다.

Fig. 4는 Round에 따른 모델의 예측 정확도 경향성을 확인하기 위한 그래프이다. Round 1과 2에서 학습된 모델을 통해 추론한 결과는 다음 Round에 사용되는 의사 라벨이며, Round 3에서 추론된 결과가 최종 라벨 데이터이다. 그래프를 보면 알 수 있듯이, 제안 방법론을 통해 생성된 의사 라벨의 정확도가 점진적으로 향상된 것을 알 수 있다. 이는 3장의 연구 방법에서 언급한 바와 같이, 제안 방법론에서 Round를 더 진행하는 경우 모델의 과적합이 발생하여 정확도가 오히려 감소하는 현상과 유사하며, Round 4를 넘어 지속적인 학습을 진행하는 경우 Khoreva et al. (2017)의 연구 결과와 마찬가지로 본 연구에서도 모델의 최종 정확도가 감소하는 경향성이 발생하는 것을 확인하였다.

Figure 4. Accuracy results of the model over five training rounds.

Fig. 5는 학습 Round 1–3 과정 중에 손실함수와 정확도의 변화를 자세히 보여주고 있다. Fig. 5(a)에서 Cross-Entropy Loss는 학습이 진행됨에 따라 지속적으로 감소하는 추세를 보이며, 이는 일반적으로 모델이 클래스 분류 및 분할을 잘 수행하고 있음을 의미한다. 이와 달리 Class-Ratio Loss는 Fig. 5(b)에서 볼 수 있듯이 유사한 감소 패턴은 보이나 변동 폭이 더 크다는 것을 알 수 있다. 이는 학습 과정에서 발생하는 클래스의 균형을 맞추는 과정에서 발생하는 변동으로 이해할 수 있다. 마지막으로 Fig. 5(c)에서는 학습 Round가 진행됨에 따라 꾸준히 정확도가 향상하고 있으며, 안정적인 학습이 이루어지고 있음을 의미한다. 이와 같이 저해상도 영상만으로도 반복 학습을 통해서 해상도의 차이만큼 세부적인 정보를 더 포함하는 고해상도 영상의 정보를 복원해 갈 수 있도록 모델 및 손실 함수 변형을 통한 학습 전략을 구성하고 이에 대한 성능을 확인할 수 있었다.

Figure 5. Loss and accuracy curves for the proposed model: (a) cross-entropy loss by round, (b) class-ratio loss by round, and (c) accuracy by round.

Fig. 6은 제안 방법론을 적용한 결과 예시를 보여준다. (a)는 고해상도 KOMPSAT-3 영상, (b)는 검증을 위해 제작된 고해상도 라벨링 이미지이며, (c)는 본 연구에서 제안한 ProposedModel을 사용하여 반복 학습을 수행한 결과이다. 학습 Round를 진행할수록 모델의 F1-score가 증가는 것을 확인할 수 있었고, 전반적으로 우수한 F1-score를 보여주고 있는 것을 확인하였다.

Figure 6. Example results of the proposed method. (a) Raw RGB image of the data. (b) Ground truth of the data (orange). (c) Overlay of prediction results (blue) from the proposed model on the ground truth.

Fig. 6은 제안 방법론을 적용한 결과 예시를 보여준다. (a)는 고해상도 KOMPSAT-3 영상이며, (b)는 검증을 위해 제작된 고해상도 라벨링 이미지(오렌지색)이다. (c)는 SegFormer의 DefaultModel을 사용하여 3번의 학습 Round를 거쳐 학습을 진행한 결과(파란색)이며, (d)는 본 연구에서 제안한 ProposedModel을 사용하여 반복 학습을 수행한 결과(파란색)이다. 정답과 예측결과를 오버레이 하여 분석한 결과, 기본 SegFormer 결과에서는 일부 과대 예측(over-prediction)이 발생하였음을 알 수 있다. 두 결과 모두 Round를 진행할수록 모델의 F1-score가 증가는 것을 확인할 수 있었으며, ProposedModel을 적용한 경우가 기본 SegFormer 모델의 경우보다 우수한 F1-score를 보여주고 있는 것을 확인하였다. 하지만, 일부 복잡한 지형 벌채 패턴 지역에서는 여전히 개선의 여지가 있음이 확인되었다.

본 연구는 저해상도 위성 영상과 벌채 라벨링 데이터를 활용하여 고해상도 영상에서의 산림 벌채 지역에 대한 라벨링을 자동으로 생성하는 딥러닝 기반의 방법론을 제안하였다. 특히 의사 라벨링 기법을 활용하여 모델의 반복 학습을 통해 고해상도 위성 영상에서 벌채 지역에 대한 라벨링 정확도를 점진적으로 향상시켰음이 확인되었다. 또한 기본 SegFormer 모델에 클래스간 불균형 문제를 완화시키고, 정확도를 향상시키기 위하여 새로 손실함수를 도입하였고 그 효과를 확인하였다. 본 연구는 낮은 비용으로 제작가능한 저해상도 라벨링 데이터 기반으로 해상도 차이가 15배가량 나는 고해상도 영상의 복잡성을 재현하고, 이를 통해 광범위한 지역에 대한 정확한 분석 가능성을 확인하였다.

향후 연구에서는 더 다양한 지형 조건에서의 모델 성능을 평가하고, 저해상도 영상과 고해상도의 영상 특징 분석을 통하여 제안된 의사 라벨링 기반의 반복 학습 방법이 고해상도 위성 영상의 산림 벌채 지역을 효과적으로 라벨링 할 수 있다는 것을 확인하고자 한다. 특히, 오탐지 및 미탐지 지역에 대한 학습 과정에서 패널티를 제안하는 방법을 통해 기존 저해상도 데이터셋의 효율성을 높이고자 한다.

5. 결론

본 연구에서는 많은 시간과 비용이 소모되는 고해상도 라벨링 데이터 구축을 위해서 사용할 수 있는 의사 라벨링 기반 영상 분할 기법을 제안하였고, 아마존 지역의 산림 벌채 데이터에 적용하여 그 적용 가능성을 검증하였다. Sentinel-2 위성의 10 m해상도를 가지는 저해상도 영상과 같은 수준의 저해상도 라벨링 데이터가 존재하는 경우에 동일 지역의 KOMPSAT-3 위성의 0.7 m 해상도를 가지는 고해상도 영상이 존재하는 경우, 제안한 영상 분할 기법을 적용한다면 라벨링 데이터가 없는 새로운 장소의 KOMPSAT-3 위성 영상에 대한 고해상도 라벨링 데이터를 생성할 수 있다. 새로운 지역에 대해서 생성된 고해상도 라벨링 데이터의 정확도를 검증하기 위해서 실제 사람이 작업한 정답 데이터와 비교하여 정확도를 측정하였으며, 제안 방법론을 적용하여 생성한 고해상도 라벨링 데이터의 정확도가 높은 수준임이 검증되었다.

본 연구에서는 제안 방법론을 아마존 지역의 산림 벌채 이진 분할 데이터에 적용하여 그 결과를 보여주었으나, 이와 유사한 특성을 가지는 저해상도, 고해상도 복합 데이터셋에도 확장하여 활용될 수 있을 것이다. 향후 연구에서 제안 방법론의 중간 추론 단계에서 이전 단계의 모델 정보를 일부 활용하고, 학습 파라미터를 개선한다면 학습속도를 개선하고 모델의 정확도를 더 높일 수 있을 것이다.

사사

이 논문은 2024년도 한국기술교육대학교 교수 교육연구진흥과제 지원 및 한국항공우주연구원 위성정보활용 사업에 의하여 연구되었음.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

Fig 1.

Figure 1.Satellite images of the study area in the Amazon, Brazil. Acquired in (a) December 1996 and (b) December 2019.
Korean Journal of Remote Sensing 2025; 41: 111-119https://doi.org/10.7780/kjrs.2025.41.1.10

Fig 2.

Figure 2.Example images from the dataset. The high-resolution target image is highlighted in red.
Korean Journal of Remote Sensing 2025; 41: 111-119https://doi.org/10.7780/kjrs.2025.41.1.10

Fig 3.

Figure 3.Overall procedure of a pseudo-labeling-based image segmentation method for high-resolution label generation. HR: High resolution, LR: Low resolution, R: Round.
Korean Journal of Remote Sensing 2025; 41: 111-119https://doi.org/10.7780/kjrs.2025.41.1.10

Fig 4.

Figure 4.Accuracy results of the model over five training rounds.
Korean Journal of Remote Sensing 2025; 41: 111-119https://doi.org/10.7780/kjrs.2025.41.1.10

Fig 5.

Figure 5.Loss and accuracy curves for the proposed model: (a) cross-entropy loss by round, (b) class-ratio loss by round, and (c) accuracy by round.
Korean Journal of Remote Sensing 2025; 41: 111-119https://doi.org/10.7780/kjrs.2025.41.1.10

Fig 6.

Figure 6.Example results of the proposed method. (a) Raw RGB image of the data. (b) Ground truth of the data (orange). (c) Overlay of prediction results (blue) from the proposed model on the ground truth.
Korean Journal of Remote Sensing 2025; 41: 111-119https://doi.org/10.7780/kjrs.2025.41.1.10

Table 1 . Dataset composition and specifications used in this study.

DatasetSpatial Resolution and SizeNumber of ImagesNote
Set ASatellite: O 0.7 m, (3,632 x 3,632 x 3)
Labeling: O 10 m, (256 x 256 x 1)
147
(Train set :118, Validation set: 29)
A pair of high-resolution satellite images and corresponding low-resolution labeling images
Set BSatellite: O 0.7 m, (3,632 x 3,632 x 3)
Labeling: X
151
(Train set: 121, Validation set: 30)
Only high resolution satellite images
Set CSatellite: X
Labeling: O 0.7 m, (3,632 x 3,632 x 1)
298
(Test: 289)
High resolution labeling images produced to verify model performance

Table 2 . Model and parameter specifications used in this study.

PropertyValue
MethodSegFormer (Xie et al., 2021)
BackboneMiT-B0
Crop size512 x 512
OptimizerAdamW
Learning rate0.00006
Batch size4
Iterations140,000
Loss functionsCross-Entropy Loss + Class-Ratio Loss (Weight 10)

Table 3 . Final evaluation metrics for the proposed approach.

MetricDatasetDefault modelProposed model
AccuracySet A0.89410.9001
Set B0.90180.9074
PrecisionSet A0.85600.8557
Set B0.84450.8482
RecallSet A0.85370.8650
Set B0.86130.8730
F1-scoreSet A0.83810.8454
Set B0.83940.8500

References

  1. Banskota, A., Kayastha, N., Falkowski, M. J., Wulder, M. A., Froese, R. E., and White, J. C., 2014. Forest monitoring using Landsat time series data: A review. Canadian Journal of Remote Sensing, 40(5), 362-384. https://doi.org/10.1080/07038992.2014.987376
  2. Cha, M., Angelides, G., Hamilton, M., Soszynski, A., Swenson, B., and Maidel, N., et al, 2023. MultiEarth 2023 - Multimodal learning for earth and environment workshop and challenge. arXiv preprint arXiv:2306.04738. https://doi.org/10.48550/arXiv.2306.04738
  3. Cha, M., Huang, K. W., Schmidt, M., Angelides, G., Hamilton, M., and Goldberg, S., et al, 2022. MultiEarth 2022 - Multimodal learning for earth and environment workshop and challenge. arXiv preprint arXiv:2204.07649. https://doi.org/10.48550/arXiv.2204.07649
  4. Chen, H., Yang, W., Liu, L., and Xia, G. S., 2024. Coarse-to-fine semantic segmentation of satellite images. ISPRS Journal of Photogrammetry and Remote Sensing, 217, 1-17. https://doi.org/10.1016/j.isprsjprs.2024.07.028
  5. Dalagnol, R., Wagner, F. H., Galvão, L. S., Braga, D., Osborn, F., and da Conceição Bispo, P., et al, 2023. Mapping tropical forest degradation with deep learning and Planet NICFI data. Remote Sensing of Environment, 298, 113798. https://doi.org/10.1016/j.rse.2023.113798
  6. Desai, S., and Ghose, D., 2022. Active learning for improved semisupervised semantic segmentation in satellite images. arXiv preprint arXiv:2110.07782. https://doi.org/10.48550/arXiv.2110.07782
  7. Fearnside, P. M., Righi, C. A., de Alencastro Graça, P. M. L., Keizer, E. W., Cerri, C. C., Nogueira, E. M., and Barbosa, R. I., 2009. Biomass and greenhouse-gas emissions from land-use change in Brazil's Amazonian "arc of deforestation": The states of Mato Grosso and Rondônia. Forest Ecology and Management, 258(9), 1968-1978. https://doi.org/10.1016/j.foreco.2009.07.042
  8. Jing, L., Chen, Y., and Tian, Y., 2019. Coarse-to-fine semantic segmentation from image-level labels. IEEE Transactions on Image Processing, 29, 225-236. https://doi.org/10.1109/TIP.2019.2926748
  9. Khoreva, A., Benenson, R., Hosang, J., Hein, M., and Schiele, B., 2017. Simple does it: Weakly supervised instance and semantic segmentation. arXiv preprint arXiv:1603.07485. https://doi.org/10.48550/arXiv.1603.07485
  10. Lee, D., and Choi, Y., 2023. A learning strategy for amazon deforestation estimations using multi-modal satellite imagery. Remote Sensing, 15(21), 5167. https://doi.org/10.3390/rs15215167
  11. Lee, D. H., 2013. Pseudo-label: The simple and efficient semi-supervised learning method for deep neural networks. In Proceedings of the Workshop on Challenges in Representation Learning (WREPL), Atlanta, GA, USA, June 16-21, pp. 896-901.
  12. Li, Z., Zhang, H., Lu, F., Xue, R., Yang, G., and Zhang, L., 2022. Breaking the resolution barrier: A low-to-high network for large-scale high-resolution land-cover mapping using low-resolution labels. ISPRS Journal of Photogrammetry and Remote Sensing, 192, 244-267. https://doi.org/10.1016/j.isprsjprs.2022.08.008
  13. Mirpulatov, I., Illarionova, S., Shadrin, D., and Burnaev, E., 2023. Pseudo-labeling approach for land cover classification through remote sensing observations with noisy labels. IEEE Access, 11, 82570-82583. https://doi.org/10.1109/ACCESS.2023.3300967
  14. Sohn, K., Berthelot, D., Carlini, N., Zhang, Z., Zhang, H., Raffel, C. A., and Li, C. L., 2020. Fixmatch: Simplifying semi-supervised learning with consistency and confidence. arXiv preprint arXiv:2001.07685. https://doi.org/10.48550/arXiv.2001.07685
  15. Sun, R., Zhao, F., Huang, C., Huang, H., Lu, Z., and Zhao, P., et al, 2023. Integration of deep learning algorithms with a Bayesian method for improved characterization of tropical deforestation frontiers using Sentinel-1 SAR imagery. Remote Sensing of Environment, 298, 113821. https://doi.org/10.1016/j.rse.2023.113821
  16. Xie, E., Wang, W., Yu, Z., Anandkumar, A., Alvarez, J. M., and Luo, P., 2021. SegFormer: Simple and efficient design for semantic segmentation with transformers. arXiv preprint arXiv:2015.15203. https://doi.org/10.48550/arXiv.2105.15203
  17. Zhang, K., Wang, X., Guo, Y., Zhao, Z., and Ma, Z., 2019. Competing ratio loss for multi-class image classification. In Proceedings of the 2019 IEEE Visual Communications and Image Processing (VCIP), Sydney, Australia, Dec. 1-4, pp. 1-4. https://doi.org/10.1109/VCIP47243.2019.8965861
KSRS
February 2025 Vol. 41, No.1, pp. 1-86

Metrics

Share

  • line

Related Articles

Korean Journal of Remote Sensing