Most Downloaded

  • ArticleJune 30, 2023

    11 5

    Oil Spill Monitoring in Norilsk, Russia Using Google Earth Engine and Sentinel-2 Data

    Minju Kim1) · Chang-Uk Hyun 2)*

    Korean Journal of Remote Sensing 2023; 39(3): 311-323

    https://doi.org/10.7780/kjrs.2023.39.3.5

    Abstract
    Oilspill accidents can cause various environmental issues,so it isimportant to quickly assess the extent and changes in the area and location of the spilled oil. In the case of oil spill detection using satellite imagery, it is possible to detect a wide range of oilspill areas by utilizing the information collected from various sensors equipped on the satellite. Previous studies have analyzed the reflectance of oil at specific wavelengths and have developed an oil spill index using bands within the specific wavelength ranges. When analyzing multiple images before and after an oilspill for monitoring purposes, a significant amount of time and computing resources are consumed due to the large volume of data. By utilizing Google Earth Engine, which allows for the analysis of large volumes of satellite imagery through a web browser, it is possible to efficiently detect oil spills. In this study, we evaluated the applicability of four types of oilspill indicesin the area of variousland cover using Sentinel-2 MultiSpectral Instrument data and the cloud-based Google Earth Engine platform. We assessed the separability of oil spill areas by comparing the index valuesfor different land covers. The results of thisstudy demonstrated the efficient utilization of Google Earth Engine in oil spill detection research and indicated that the use of oil spill index B ((B3+B4)/B2) and oilspill index C (R: B3/B2, G: (B3+B4)/B2, B: (B6+B7)/B5) can contribute to effective oil spill monitoring in other regions with complex land covers.
  • ArticleApril 30, 2023

    11 5

    A Performance Comparison of Land-Based Floating Debris Detection Based on Deep Learning and Its Field Applications

    Suho Bak 1) · Seon Woong Jang 2)* · Heung-Min Kim 3) · Tak-Young Kim 4) · Geon Hui Ye 5)

    Korean Journal of Remote Sensing 2023; 39(2): 193-205

    https://doi.org/10.7780/kjrs.2023.39.2.6

    Abstract
    A large amount of floating debris from land-based sources during heavy rainfall has negative social, economic, and environmental impacts, but there is a lack of monitoring systems for floating debris accumulation areas and amounts. With the recent development of artificial intelligence technology, there is a need to quickly and efficiently study large areas of water systems using drone imagery and deep learning-based object detection models. In this study, we acquired various images as well as drone images and trained with You Only Look Once (YOLO)v5s and the recently developed YOLO7 and YOLOv8s to compare the performance of each model to propose an efficient detection technique for land-based floating debris. The qualitative performance evaluation of each model showed that all three models are good at detecting floating debris under normal circumstances, but the YOLOv8s model missed or duplicated objects when the image was overexposed or the water surface was highly reflective of sunlight. The quantitative performance evaluation showed that YOLOv7 had the best performance with a mean Average Precision (intersection over union, IoU 0.5) of 0.940, which was better than YOLOv5s (0.922) and YOLOv8s (0.922). As a result of generating distortion in the color and high-frequency components to compare the performance of models according to data quality, the performance degradation of the YOLOv8s model was the most obvious, and the YOLOv7 model showed the lowest performance degradation. This study confirms that the YOLOv7 model is more robust than the YOLOv5s and YOLOv8s models in detecting land-based floating debris. The deep learning-based floating debris detection technique proposed in this study can identify the spatial distribution of floating debris by category, which can contribute to the planning of future cleanup work.
  • ArticleApril 30, 2023

    16 5

    Detection of Plastic Greenhouses by Using Deep Learning Model for Aerial Orthoimages

    Byunghyun Yoon 1) · Seonkyeong Seong 2) · Jaewan Choi 3)*

    Korean Journal of Remote Sensing 2023; 39(2): 183-192

    https://doi.org/10.7780/kjrs.2023.39.2.5

    Abstract
    The remotely sensed data, such as satellite imagery and aerial photos, can be used to extract and detect some objects in the image through image interpretation and processing techniques. Significantly, the possibility for utilizing digital map updating and land monitoring has been increased through automatic object detection since spatial resolution of remotely sensed data has improved and technologies about deep learning have been developed. In this paper, we tried to extract plastic greenhouses into aerial orthophotos by using fully convolutional densely connected convolutional network (FC-DenseNet), one of the representative deep learning models for semantic segmentation. Then, a quantitative analysis of extraction results had performed. Using the farm map of the Ministry of Agriculture, Food and Rural Affairs in Korea, training data was generated by labeling plastic greenhouses into Damyang and Miryang areas. And then, FC-DenseNet was trained through a training dataset. To apply the deep learning model in the remotely sensed imagery, instance norm, which can maintain the spectral characteristics of bands, was used as normalization. In addition, optimal weights for each band were determined by adding attention modules in the deep learning model. In the experiments, it was found that a deep learning model can extract plastic greenhouses. These results can be applied to digital map updating of Farm-map and landcover maps.
  • ArticleFebruary 28, 2023

    9 5
    Abstract
    Unmanned aerial vehicles (UAVs) can capture high-resolution imagery from a variety of viewing angles and altitudes; they are generally limited to collecting images of small scenes from larger regions. To improve the utility of UAV-appropriated datasets for use with deep learning applications, multiple datasets created from various regions under different conditions are needed. To demonstrate a powerful new method for integrating heterogeneous UAV datasets, this paper applies a combined segmentation network (CSN) to share UAVid and semantic drone dataset encoding blocks to learn their general features, whereas its decoding blocks are trained separately on each dataset. Experimental results show that our CSN improves the accuracy of specific classes (e.g., cars), which currently comprise a low ratio in both datasets. From this result, it is expected that the range of UAV dataset utilization will increase.
  • ArticleFebruary 28, 2023

    12 5

    A Ship-Wake Joint Detection Using Sentinel-2 Imagery

    Woojin Jeon 1) · Donghyun Jin 2) · Noh-hun Seong 2) · Daeseong Jung 3) · Suyoung Sim 4) · Jongho Woo 4) · Yugyeong Byeon 1) · Nayeon Kim 1) · Kyung-Soo Han 5)†

    Korean Journal of Remote Sensing 2023; 39(1): 77-86

    https://doi.org/10.7780/kjrs.2023.39.1.5

    Abstract
    Ship detection is widely used in areas such as maritime security, maritime traffic, fisheries management, illegal fishing, and border control, and ship detection is important for rapid response and damage minimization as ship accident rates increase due to recent increases in international maritime traffic. Currently, according to a number of global and national regulations, ships must be equipped with automatic identification system (AIS), which provide information such as the location and speed of the ship periodically at regular intervals. However, most small vessels (less than 300 tons) are not obligated to install the transponder and may not be transmitted intentionally or accidentally. There is even a case of misuse of the ship’s location information. Therefore, in this study, ship detection was performed using high-resolution optical satellite images that can periodically remotely detect a wide range and detect small ships. However, optical images can cause false-alarm due to noise on the surface of the sea, such as waves, or factors indicating ship-like brightness, such as clouds and wakes. So, it is important to remove these factors to improve the accuracy of ship detection. In this study, false alarm was reduced, and the accuracy of ship detection was improved by removing wake. As a ship detection method, ship detection was performed using machine learning-based random forest (RF), and convolutional neural network (CNN) techniques that have been widely used in object detection fields recently, and ship detection results by the model were compared and analyzed. In addition, in this study, the results of RF and CNN were combined to improve the phenomenon of ship disconnection and the phenomenon of small detection. The ship detection results of this study are significant in that they improved the limitations of each model while maintaining accuracy. In addition, if satellite images with improved spatial resolution are utilized in the future, it is expected that ship and wake simultaneous detection with higher accuracy will be performed.
  • December 31, 2022

    15 5

    Landslide Susceptibility Mapping Using Deep Neural Network and Convolutional Neural Network

    공성현 1)·백원경 2)·정형섭 3),4)†

    Korean Journal of Remote Sensing 2022; 38(6): 1723-1735

    https://doi.org/10.7780/kjrs.2022.38.6.2.12

    Abstract
    산사태는 가장 널리 퍼진 자연재해 중 하나로 인명 및 재산피해 뿐만 아니라 범 국가적 차원의 피해를 유발할 수 있기 때문에 효과적인 예측 및 예방이 필수적이다. 높은 정확도를 갖는 산사태 취약성도를 제작하려 는 연구는 꾸준히 진행되고 있으며 다양한 모델이 산사태 취약성 분석에 적용되어 왔다. 빈도비 모델, logistic regression 모델, ensembles 모델, 인공신경망 등의 모델과 같이 픽셀기반 머신러닝 모델들이 주로 적용되어 왔 고 최근 연구에서는 커널기반의 합성곱신경망 기법이 효과적이라는 사실과 함께 입력자료의 공간적 특성이 산사태 취약성 매핑의 정확도에 중요한 영향을 미친다는 사실이 알려졌다. 이러한 이유로 본 연구에서는 픽셀 기반 deep neural network (DNN) 모델과 패치기반 convolutional neural network (CNN) 모델을 이용하여 산사태 취약성을 분석하는 것을 목적으로 한다. 연구지역은 산사태 발생 빈도가 높고 피해가 큰 인제, 강릉, 평창을 포 함한 강원도 지역으로 설정하였고, 산사태 관련인자로는 경사도, 곡률, 하천강도지수, 지형습윤지수, 지형위치 지수, 임상경급, 임상영급, 암상, 토지이용, 유효토심, 토양모재, 선구조 밀도, 단층 밀도, 정규식생지수, 정규수 분지수의 15개 데이터를 이용하였다. 데이터 전처리 과정을 통해 산사태관련인자를 공간데이터베이스로 구축 하였으며 DNN, CNN 모델을 이용하여 산사태 취약성도를 작성하였다. 정량적인 지표를 통해 모델과 산사태 취약성도에 대한 검증을 진행하였으며 검증결과 패치기반의 CNN 모델에서 픽셀기반의 DNN 모델에 비해 3.4% 향상된 성능을 보였다. 본 연구의 결과는 산사태를 예측하는데 사용될 수 있고 토지 이용 정책 및 산사태 관리에 관한 정책 수립에 있어 기초자료 역할을 할 수 있을 것으로 기대된다.
  • December 31, 2022

    24 5

    Flood Mapping Using Modified U-NET from TerraSAR-X Images

    유진우1),2)·윤영웅1),2)·이어루1),2)·백원경3)·정형섭 4),5)†

    Korean Journal of Remote Sensing 2022; 38(6): 1709-1722

    https://doi.org/10.7780/kjrs.2022.38.6.2.11

    Abstract
    지구온난화로 인해 발생한 기온 상승은 엘니뇨, 라니냐 현상을 초래하였고, 해수의 온도를 비정상적으 로 변화시켰다. 해수 온도의 비정상적인 변화는 특정 지역에 강우가 집중되는 현상을 발생시켜 이상 홍수를 빈 번하게 일으킨다. 홍수로 인한 인명 및 재산 피해를 복구하고 방지하기 위해서는 침수피해 지역을 신속하게 파 악하는 것이 중요한데 이는 합성개구레이더(synthetic aperture radar, SAR)를 통해 가능하다. 본 연구에서는 멀 티 커널(kernel) 기반의 수정된 U-NET과 TerraSAR-X 영상을 활용하여 다양한 특성 맵 추출을 통해 반전 잡음(speckle noise)의 효과를 저감하고, 홍수 전, 후의 두 장의 영상을 입력자료로 활용해 홍수 발생 지역을 직접적으 로 도출해내는 모델을 제작하고자 한다. 이를 위해 두 장의 SAR 영상을 전처리하여 모델의 입력자료를 제작하 였고, 이를 수정된 U-NET 구조에 적용하여 홍수 탐지 딥러닝 모델을 학습시켰다. 해당 방법을 통해 평균 F1 score 값이 0.966으로 높은 수준으로 홍수 발생 지역을 탐지할 수 있었다. 이 결과는 수해 지역에 대한 신속한 복 구 및 수해 예방책 도출에 기여할 것으로 기대된다.
  • December 31, 2022

    10 5

    Detection of Urban Trees Using YOLOv5 from Aerial Images

    박채원1)·정형섭 2),3)†

    Korean Journal of Remote Sensing 2022; 38(6): 1633-1641

    https://doi.org/10.7780/kjrs.2022.38.6.2.5

    Abstract
    도시의 인구 집중과 무분별한 개발은 대기오염, 열섬현상과 같은 다양한 환경 문제들을 유발하며, 자연 재해로 인한 피해 상황을 악화시키는 등 인재의 원인이 되고 있다. 도심 수목은 이러한 도시 문제들의 해결방 안으로 제시되어왔으며, 실제로 환경 개선 기능을 제공하는 등 중요한 역할들을 수행한다. 이에 따라 수목이 도시 환경에 미치는 영향을 파악하기 위해 도심 수목에서 개별목에 대한 정량적인 측정 및 분석이 요구된다. 그 러나 도심 수목의 복잡성 및 다양성은 단일 수목 탐지 정확도를 낮추는 문제점이 존재한다. 따라서 본 연구는 수목 개체에 대해 효과적인 탐지가 가능한 고해상도 항공영상 및 object detection에서 뛰어난 성능을 발휘한 You Only Look Once Version 5 (YOLOv5) 모델을 사용하여 도심 수목을 효과적으로 탐지하는 연구를 진행하였다. 수목 AI 학습 데이터셋의 구축을 위한 라벨링 가이드라인을 생성하고 이를 기준으로 동작구 수목에 대해 box annotation을 수행하였다. 구축된 데이터셋으로부터 다양한 scale의 YOLOv5 모델들을 테스트하고 최적의 모 델을 채택하여 효율적인 도심 수목 탐지를 수행한 결과, mean Average Precision (mAP) 0.663의 유의미한 결과를 도출하였다.
  • December 31, 2022

    7 5

    A Study on the Retrieval of River Turbidity Based on KOMPSAT-3/3A Images

    김다희 1)·원유준1)·한상명1)·한향선 2)†

    Korean Journal of Remote Sensing 2022; 38(6): 1285-1300

    https://doi.org/10.7780/kjrs.2022.38.6.1.23

    Abstract
    탁도는 부유물질에 의한 빛의 산란 또는 흡수로 인한 수체의 흐림을 나타내는 수치로 수질 관리 분야에 서 중요 지표로 활용되고 있다. 탁도는 소규모의 하천에서 변동성이 심할 수 있으며, 이는 국가하천의 수질에 직접적으로 영향을 준다. 따라서 고해상도의 탁도 공간정보 산출은 매우 중요하다. 이 연구에서는 Korea Multi- Purpose Satellite-3 및 -3A (KOMPSAT-3/3A) 영상으로부터 한강 수계 하천의 고해상도 탁도 매핑을 위한 eXtreme Gradient Boosting (XGBoost) 알고리즘 기반의 탁도 산출 모델을 개발하였다. 이를 위해 총 24장의 KOMPSAT-3/3A 영상과 150장의 Landsat-8 영상으로부터 계산된 대기 상단(Top Of Atmosphere, TOA) 반사율 을 활용하였으며, Landsat-8 TOA 반사율은 KOMPSAT-3/3A의 관측 파장 대역에 적합하도록 교차검보정을 수 행하였다. 국가수질자동관측망에서 측정된 탁도를 탁도 산출 모델의 참조자료로 사용하였고, 입력 변수로는 탁도가 실측된 위치에서의 TOA 분광반사율과 탁도 분석에 널리 이용되어 온 분광지수인 정규식생지수, 정규 수분지수, 정규탁도지수, 그리고 Moderate Resolution Imaging Spectroradiometer (MODIS)의 대기 산출물(에어 로졸 광학 두께, 수증기량, 오존)을 사용하였다. 또한 고탁도와 저탁도에 대한 KOMPSAT-3/3A TOA 분광반 사율을 분석하여 탁도를 설명할 수 있는 새로운 정규탁도지수(new normalized difference turbidity index, nNDTI) 를 제안하였고, 이를 탁도 산출 모델에 입력 변수로 추가하였다. XGBoost 기반 탁도 산출 모델은 현장관측 탁 도와 비교하여 2.70 NTU의 평균 제곱근 오차(root mean square error, RMSE) 및 14.70%의 정규화된 RMSE (normalized RMSE)를 가지는 탁도를 예측하여 우수한 성능을 보였으며, 이 연구에서 새롭게 제안한 nNDTI가 탁도 산출에 있어 가장 중요한 변수로 사용되었다. 개발된 탁도 산출 모델을 KOMPSAT-3/3A 영상에 적용하 여 하천 탁도를 고해상도로 매핑하였으며, 탁도의 시공간적 변동에 대한 분석이 가능하였다. 이 연구를 통하여 고해상도의 정확한 탁도 공간정보 산출에 KOMPSAT-3/3A 영상이 매우 유용함을 확인할 수 있었다.
  • December 31, 2022

    11 5

    Deep Learning-based Forest Fire Classification Evaluation for Application of CAS500-4

    차성은 1)·원명수 2)·장근창 3)·김경민 4)·김원국 5)·백승일 6)·임중빈 3)†

    Korean Journal of Remote Sensing 2022; 38(6): 1273-1283

    https://doi.org/10.7780/kjrs.2022.38.6.1.22

    Abstract
    최근 기후변화로 인해 중대형 산불이 빈번하게 발생하여 매년 인명 및 재산피해로 이어지고 있다. 원격 탐사를 활용한 산불 피해지 모니터링 기법은 신속한 정보와 대규모 피해지의 객관적인 결과를 취득할 수 있다. 본 연구에서는 산불 피해지를 분류하기 위해 Sentinel-2의 분광대역, 정규식생지수(normalized difference vegetation index, NDVI), 정규수역지수(normalized difference water index, NDWI)를 활용하여 2022년 3월 발생 한 강릉·동해 산불 피해지를 대상으로 U-net 기반 convolutional neural networks (CNNs) 딥러닝 모형을 모의하 였다. 산불 피해지 분류 결과 강릉·동해 산불 피해지의 경우 97.3% (f1=0.486, IoU= 0.946)로 분류 정확도가 높았 으나, 과적합(overfitting)의 가능성을 배제하기 어려워 울진·삼척 지역으로 동일한 모형을 적용하였다. 그 결과, 국립산림과학원에서 보고한 산불 피해 면적과의 중첩도가 74.4%로 확인되어 모형의 불확도를 고려하더라도 높은 수준의 정확도를 확인하였다. 본 연구는 농림위성과 유사한 분광대역을 선택적으로 사용하였으며, Sentinel-2 영상을 활용한 산불 피해지 분류가 정량적으로 가능함을 시사한다.
KSRS
August 2024 Vol. 40, No. 4, pp. 319-418

Most Keyword ?

What is Most Keyword?

  • It is the most frequently used keyword in articles in this journal for the past two years.

Most View

Editorial Office

Korean Journal of Remote Sensing