Korean J. Remote Sens. 2025; 41(1): 185-197
Published online: February 28, 2025
https://doi.org/10.7780/kjrs.2025.41.1.15
© Korean Society of Remote Sensing
극동대학교 AI컴퓨터공학과 교수
Correspondence to : Chul-Soo Ye
E-mail: csye@kdu.ac.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
The technology for classifying objects using remote sensing images has gained increasing attention recently with the advent of high-resolution satellite imagery and advancements in deep learning techniques. One of the representative methods for classifying objects is object-based image classification, which involves segmenting the image and using the attributes of the segmented regions to generate classification results at the object level. In urban areas, the presence of various buildings with different colors and shapes, along with numerous shadows, makes it difficult to distinguish objects like water bodies and vegetation from buildings. This paper proposes an object-based image classification method that incorporates the normalized difference water index (NDWI), which is effective for detecting water body characteristics, along with RGB band imagery. The experimental results using images from Compact Advanced Satellite 500-1 demonstrate that the proposed method yields improved results with an overall accuracy of 93.7% and a kappa coefficient of 90.6%, outperforming methods that utilize only the RGB bands, RGB bands combined with NIR bands, and RGB bands combined with the normalized difference vegetation index (NDVI).
Keywords Object-based image analysis, Deep learning, Normalized difference water index, Image classification, Image segmentation
원격탐사 영상을 이용하여 객체를 분류하는 기술은 고해상도 위성영상의 등장과 딥러닝 기술의 발전과 함께 최근에 더욱 주목을 받게 되었다. 객체를 분류하는 대표적인 방법인 객체 기반의 영상 분류 기술은 영상을 분할하고 분할된 영역의 속성을 이용하여 객체 단위의 분류 결과를 생성한다. 도시 지역의 경우에는 다양한 색상과 형태의 건물들과 그림자가 다수 존재하기 때문에 건물 이외의 수계, 식생 객체 등과의 구별이 어렵다. 본 논문에서는 수계 특성 검출에 용이한 정규수계지수(normalized difference water index, NDWI)를 RGB 밴드 영상과 함께 이용하는 객체 기반의 영상 분류 기술을 제안한다. 차세대중형위성1호 영상을 이용한 실험 결과에서 제안한 방법은 RGB 밴드만 이용한 방법, RGB 밴드와 NIR 밴드를 이용한 방법, RGB 밴드와 정규식생지수(normalized difference vegetation index, NDVI)를 이용한 방법 대비 높은 정확도인 전체 정확도 93.7%, 카파 계수(kappa coefficient) 90.6%의 향상된 결과를 얻었다.
주요어 객체 기반 영상 분석, 딥러닝, 정규수계지수, 영상 분류, 영상 분할
원격탐사 분야에서 지표 속성을 분류하는 다양한 영상 분류 방법 가운데 최근에는 딥러닝 기반의 분류 방법이 널리 활용되고 있다. 대표적으로 UNet 모델(Ronneberger et al., 2015)을 비롯하여 ResUNet 모델(Zhang et al., 2018), DeepResUNet 모델(Yi et al., 2019) 등의 다양한 의미론적 영상 분할(semantic image segmentation) 기법들이 활용되고 있다. 특히 UNet 기반 딥러닝 모델의 레이어 구조를 개선시킨 모델(Ye et al., 2022)이나 전이학습을 추가적으로 적용한 모델(Ye et al., 2023)은 고해상도 원격탐사 영상을 이용한 건물 객체 추출에서 UNet 기반의 기존 딥러닝 모델들보다 우수한 성능을 보여주었다. 한편 딥러닝 모델의 성능은 학습에 사용되는 데이터셋의 영향을 크게 받는다. 딥러닝 모델의 학습에 사용한 학습 데이터셋과 학습된 딥러닝 모델을 적용하여 예측하는데 사용되는 테스트 데이터셋 간의 특성 차이가 클수록 예측 성능이 저하될 가능성이 커진다. 따라서 일반적으로 학습 데이터셋의 규모는 충분히 크게 구축하여야 하지만, 원격탐사 영상에서 객체 추출을 위한 학습 데이터셋을 광범위한 지역에 대해 제작하는 것은 비용과 시간 측면에서 현실적으로 어려운 일이다.
반면 객체 기반 영상 분석 방법(object based image analysis; Blaschke, 2010; Blaschke et al., 2014)을 이용한 분류는 학습 데이터셋을 구축할 필요가 없으며, 단일 영상만을 가지고 영상 분류를 수행할 수 있는 장점이 있다. 이 분류 방법은 영상 화소들을 유사한 밝기 값을 가지는 영역으로 분할하고 분할 영역의 속성을 이용하여 영역 단위의 분류를 수행한다. 객체 기반 영상 분석을 딥러닝과 통합 활용하여 영상 분류의 정확도를 향상시키는 방법도 제안되었다(Cui et al., 2018; Azeez et al., 2022). Azeez et al. (2022)은 객체 기반 영상 분석을 convolutional neural network (CNN)와 통합하는 네 종류의 방법을 제시하였으며,이 가운데 객체 기반 영상 분석의 결과를 CNN의 입력으로 직접 사용하는 방법과 CNN의 특징 영상과 융합하는 방법은 객체 기반 영상 분석의 분류 성능이 시스템의 최종 분류 성능에 직접적인 영향을 미 친다. 나머지 두 종류의 방법에서는 객체 기반 영상 분석의 영상 분할 결과를 이용하여 CNN의 특징 영상을 필터링하거나 CNN의 분류 결과를 정제한다. 이와 같이 객체 기반 영상 분석을 딥러닝과 통합 활용하기 위해서는 객체 생성을 위한 영상 분할 기술과 분할된 영역을 분류하는 객체 기반 영상 분류 기술의 성능이 중요하다. 특히 다양한 건물이 포함된 도시 지역의 경우, 객체 기반 영상 분류 기술의 분류 정확도는 아직 높은 수준의 분류 정확도를 보여주고 있지 못하기 때문에 여전히 분류 정확도 개선에 대한 필요성이 있다.
산림 지역이나 농경지 등과 같이 비도심 지역에 대한 기존의 객체 기반 분류에 대한 기존 연구 가운데 Na and Lee (2014)는 RapidEye 영상에 객체 기반의 분류 기법을 적용하여 객체 클래스 유형이 적은 경우에는 95%, 보다 복잡한 경우에는 88%의 분류 정확도를 보고하였다. 산림이 대부분인 지역에 대해 Lee et al. (2018)은 아리랑3A 위성영상과 eCognition 소프트웨어를 이용하여 객체 기반 분류를 수행하여 영상에서 추출 가능한 파라미터 이외에 Digital Elevation Model (DEM)과 Digital Building Model (BDM)을 이용하여 91.0%–92.3%의 분류 정확도를 얻었다. Shin et al. (2015)은 Unmanned Aerial Vehicle (UAV) 영상의 토지 피복도 제작에 객체 기반의 분류 소프트웨어인 ENVI Feature Extraction을 이용하여 5 m의 공간해상도로 변환된 RapidEye 영상과 UAV 영상에 대해 각각 90%, 91%의 분류 정확도를 얻었으나 공간해상도가 5 m인 분류 결과 영상에서 개별 건물 단위 분석에는 한계를 보였다.
한편 도시 지역 고해상도 위성영상에 대한 객체 분류 연구로는 영상의 RGB 컬러 모델을 hue saturation value (HSV) 컬러 모델로 변환한 후에 색상(hue) 성분에 따라 객체 기반 분류를 수행하는 방법이 제안되었다(Ye, 2021). 최근에는 객체 기반 영상 분석을 위한 샘플 추출을 히스토그램(histogram) 역투영을 이용하여 분류 정확도를 향상시키는 방법(Ye, 2023a)과 정규식생지수를 도심지역 객체 분류에 활용한 연구(Ye, 2023b)가 제안되었다. 이러한 기존의 연구에서는 주로 건물 객체와 식생 객체 중심의 분류를 수행하였으나 수계 객체에 대한 분석 결과는 제시되지 않았다. 특히 고해상도 위성영상에서 수계의 컬러 정보는 일부 건물 객체, 도로 객체 등과 유사한 밝기값을 보이는 경우가 많으며 이에 따라 수계가 포함된 도시 지역의 경우 분류 성능이 저하될 가능성이 높다.
본 논문에서는 수계가 포함된 도시 지역 고해상도 위성영상에서 정규수계지수(normalized difference water Index, NDWI)를 객체 기반 영상 분석에 활용하여 건물, 도로의 객체뿐만 아니라 수계 객체의 분류 성능을 함께 향상시키는 방법을 제안한다. 본 논문의 2장에서는 정규수계지수를 이용한 객체 기반 영상 분류 기법을, 3장에서는 고해상도 위성영상을 이용하여 제안한 방법의 분류 성능을 분석하고 4장에서는 본 논문의 결론을 제시한다.
도시 지역의 고해상도 위성영상에는 건물, 도로, 식생 등 다양한 밝기 값을 가지는 객체들이 존재한다. 특히 건물 객체의 경우 다양한 색상의 건물 지붕들이 존재하여 이와 유사한 색상을 가지는 객체와의 구분이 어려운 경우가 발생할 가능성이 높다. Fig. 1은 차세대중형위성 1호(Compact Advanced Satellite 500-1, CAS 500-1) 위성영상에서 건물, 식생, 수계, 도로, 나지의 영역별 RGB 히스토그램과 정규수계지수 히스토그램을 보여준다. Fig. 1의 RGB 히스토그램에서 건물 지붕 A 영역은 나무들로 이루어진 식생 영역 B와 수계 영역 C와 비교시, 녹색 및 청색 밴드에서 뚜렷한 차이를 보인다. 그러나 수계 영역 C는 식생 영역 B의 채널별 히스토그램 분포와 겹치며 이는 RGB 영상만을 이용한 분류에서는 식생 영역의 일부가 수계로 잘못 분류될 가능성이 있음을 보여준다. 반면 NDWI 히스토그램 분포 상에서는 수계 영역 C는 식생 영역 B의 분포 범위를 벗어나며 이는 NDWI를 분류의 입력으로 이용할 때 RGB 영상만으로 분류가 어려운 수계와 식생의 구분 가능성을 향상시킬 수 있음을 의미한다. 한편 나지 영역은 RGB 히스토그램 상에서는 도로 영역과의 구분이 쉽지 않으나 NDWI 히스토그램 상에서는 도로 영역보다 다소 높은 값을 보여 NDWI가 나지 영역과 도로 영역의 구분에 도움이 되리라 판단된다.
고해상도 위성영상의 밴드 특성을 고려하여 본 연구에서는 식(1)을 이용하여 정규수계지수를 계산한다(Mcfeeters, 1996).
여기서 G는 녹색 밴드, NIR는 근적외선(near-infra red, NIR) 밴드의 밝기값을 의미한다. 식생 영역 B와 수계 영역 C은 녹색 밴드에서 유사한 밝기값을 분포를 보이지만, Fig. 2에서 볼 수 있듯이 근적외선 밴드에서 식생 영역은 수계 영역보다 상대적으로 높은 밝기값 분포를 보인다. 따라서 식(1)로 계산되는 정규수계지수 영상에서 식생 영역은 Fig. 1과 같이 수계 영역보다 히스토그램이 보다 낮은 범위에 분포한다. 정규수계지수 영상에서 식생 영역과 수계 영역이 구분되는 이러한 성질은 영상 분류 시 사용되는 입력 영상으로 RGB 밴드 영상 이외에 정규수계지수 영상을 추가하면 분류 성능을 향상시킬 수 있음을 의미한다. NIR 히스토그램 상에서는 도로 영역 D와 나지 영역 E의 분포가 거의 유사하기 때문에 NIR 밴드보다는 NDWI가 도로와 나지의 구분에 보다 적합함을 알 수 있다.
본 연구에서는 식생과 수계 구분에 용이한 정규수계지수 영상을 이용한 객체 기반 영상 분류 방법을 제안한다(Fig. 3). 녹색 밴드 영상과 NIR 밴드 영상을 이용하여 정규수계지수 영상을 생성한 후에 RGB 밴드 영상과 함께 입력 영상으로 사용한다. 영상 분류 방법은 다양한 색상의 객체가 존재하는 도시 지역 영상 분류에 우수한 성능을 보이는 객체 서브클래스 분류 방법(Ye, 2023b)을 적용한다. 이 분류 방법은 영상에 존재하는 객체를 정의하는 단계에서 하나의 객체가 여러 종류의 색상을 가지는 경우에는 색상에 따라 여러 개의 서브클래스를 정의한다. 예를 들면, 다양한 색상의 지붕을 가지는 건물 객체의 경우 건물 클래스 Class (B)를 정의하고 건물 서브클래스를 색상에 따라 Class (B, sub(1)), Class (B, sub(2))와 같이 정의한다. 객체별로 이와 같이 서브클래스를 정의한 후에 각 화소별로 분류를 수행한다. 각 화소별 분류는 최소 거리(minimumdistance) 기반의 분류를 수행한다. 이 분류 방법은 각 화소의 밴드 밝기값 벡터와 각 서브클래스의 평균 벡터와의 거리를 계산하고 가장 가까운 거리의 서브클래스를 화소에 할당한다. 분류를 수행하면 각 화소마다 서브클래스가 할당이 되며 이후 서브클래스들을 원래 클래스로 변환하는 과정을 수행한다. 이 변환 과정을 수행하면 Class (B, sub(1)), Class (B, sub(2)) 등과 같이 건물 서브클래스가 할당된 화소들은 모두 하나의 건물 클래스 Class (B)로 통합된다. Fig. 4(a)는 서브클래스 분류를 수행한 후에 서브클래스를 하나의 클래스로 변환한 분류 결과를 보여준다.
화소별 분류를 수행한 결과는 워터쉐드(watershed) 영상 분할 알고리즘을 이용한 영상 분할 결과와 함께 최종 분류 단계의 입력으로 사용된다. 워터쉐드 영상 분할 알고리즘은 영상의 밝기값 변화량을 나타내는 그레디언트(gradient)가 주변 화소들보다 작은 화소를 최소 그레디언트 화소(minimumgradient pixel)로 정의하고, 이 화소의 그레디언트와 비교해서 그레디언트 차이가 작은 이웃 화소들을 최소 그레디언트 화소와 그룹핑하여 하나의 영역으로 결정하는 영상 분할 방법이다. 최종 분류 단계에서는 분할 영역 내부 화소들에 할당된 클래스 가운데 가장 많은 빈도수를 가지는 클래스를 해당 영역의 최종 클래스로 결정한다. 이 과정을 통해 영역 내부에서 일부 잘못 할당된 클래스를 가지는 화소의 클래스는 가장 많은 빈도수를 가지는 클래스로 대체된다. Fig. 4(b)는 워터쉐드 영상 분할 결과와 화소 분류 결과를 결합한 예를 보여준다. 클래스가 할당되지 않은 영역 경계선 화소의 클래스를 결정하기 위하여 경계선 화소를 중심으로 5 × 5 크기의 영역 안에서 가장 많은 빈도수를 가지는 클래스를 경계선 화소의 최종 클래스로 결정한다.
본 연구에서는 부산광역시 강서구에 위치한 녹산국가산업단지의 일부 지역을 촬영한 차세대중형위성1호의 전정색 영상과 RGB 영상에 대해 정밀 정사보정을 수행한 후에 융합한 0.5 미터 공간해상도의 영상을 사용하였다(Fig. 5a). 본 연구에서는 고해상도의 단일 영상에서 반사되는 복사량이 큰 객체 분류 목적으로 분광정보를 사용하기 때문에 분광정보에 포함된 대기 영향이 분류에 미치는 영향은 미미하다고 판단하여 별도의 대기보정은 수행하지 않았다. 실험 대상 지역에는 다양한 형태와 색상을 가지는 건물들이 다수 존재하고 도로, 강, 나무, 나지가 존재한다. 영상 가운데에서 수직 방향으로 흐르는 강의 색상은 일부 건물들의 색상과 유사하고 도로변 주변 나무들의 색상과 유사함을 볼 수 있다. Fig. 5(b)는 녹색 밴드 영상과 NIR 밴드 영상으로 생성한 NDWI 영상이며, 도로변 주위 나무의 색상이 어두운 밝기값을 보이고, 강의 경우 상대적으로 밝은 밝기값을 보인다. Fig. 6은 NDWI 영상에서 수계와 식생의 히스토그램 차이를 보여주며 수계와 식생의 평균값은 각각 117.1과 86.9로 상당한 차이가 있음을 알 수 있다.
영상 분류를 위해 건물(building), 도로(road), 식생(vegetation), 수계(water), 나지(bare ground)로 구성되는 총 5개의 클래스를 정의하였다(Table 1). 건물 클래스의 경우 Fig 5(a)에서 볼 수 있듯이 다양한 색상이 존재하며, 색상에 따라 7개의 서브클래스를 정의하였다. 도로와 나지 클래스는 각각 4개, 2개의 서브클래스로 정의하였고 식생과 수계 클래스는 각각 하나의 서브클래스로 정의하였다. 전체 서브클래스는 총 15개로 정의하였으며 정의된 각 서브클래스 별로 분할된 영상에서 대표적인 색상을 가지는 영역을 샘플로 추출하였다. 예를 들면, Fig. 7의 각 서브클래스를 대표하는 분할 영역에서 볼 수 있듯이, 도로 서브클래스는 Road1의 경우 강 좌측의 도로 영역을, Road2의 경우 Road1보다 조금 더 밝은 강 우측의 도로 영역을, Road3은 Road1과 Road2 영역보다 조금 더 밝은 도로 영역을, Road4는 Road1과 Road2 영역보다 어두운 도로 영역으로 각각 선정하였다. 각 클래스별로 보다 많은 서브클래스를 정의하면 보다 상세한 서브클래스를 정의할 수 있으나 이 경우 사용자의 주관적인 판단에 따라 구분해야할 색상의 종류가 증가하기 때문에 본 실험에서는 색상별 구분이 용이한 건물의 경우에는 7가지 색상의 서브클래스 결정하였고 그외 다른 클래스의 경우 4개 이하의 서브클래스를 정의하였다.
Table 1 Number of class types and subclasses defined in the experimental image for object-based classification
Image | Class type | No. of subclasses |
---|---|---|
CAS 500-1 image | Building | 7 |
Road | 4 | |
Vegetation | 1 | |
Water | 1 | |
Bare ground | 2 | |
Total | 15 |
본 실험에서는 분류에 사용하는 입력 영상 조합으로 RGB 밴드만 사용한 경우, RGB 밴드를 공통적으로 사용하고 NIR 밴드, NDVI, NDWI를 각각 추가로 사용한 총 4가지 경우에 대해 실험하였다. Fig. 8은 Table 1에 정의한 각 서브클래스의 샘플을 추출한 후에 객체 기반의 영상 분류를 수행하고 경계선 화소의 클래스를 보간하기 이전의 결과이다. RGB 밴드 영상과NIR 밴드를 이용한 분류 결과는 Fig. 8(b)의 좌측 상단 부근의 도로가 수계로 잘못 분류된 것을 포함하여 건물 주변의 다수의 영역이 수계로 잘못 분류되었다. RGB 밴드 영상만 사용한 Fig. 8(a)와 RGB 밴드와 NDVI를 사용한 Fig. 8(c)에서도 비수계 영역을 수계로 잘못 분류한 영역이 다수 존재한다. 반면 본 연구에서 제안하는 방법인 RGB 밴드와 NDWI를 이용한 분류는 Fig. 8(d)에서와 같이 건물 그림자에 해당하는 일부 영역이 수계로 잘못 분류된 경우를 제외하고 전반적으로 다른 분류 방법들보다 양호한 분류 결과를 보여준다.
Fig. 9는 영역 내부 분류 결과에 추가하여 영역 경계선 화소들의 클래스를 할당한 최종 분류 결과이다. 영역 경계선 화소의 클래스는 경계선 화소를 중심으로 5 × 5 크기의 영역 내부 화소들의 클래스 가운데 가장 많은 빈도를 나타내는 클래스를 할당하였다. Fig. 8의 경계선 화소의 클래스를 보간하기 전의 결과와 유사한 분류 결과를 보여준다. Fig. 10은 Fig. 9의 좌측 상단의 영역을 확대한 영상이다. RGB 밴드와 NIR 밴드를 이용한 분류 결과인 Fig. 10(b)에서는 건물 주변으로 다수의 영역들이 수계로 잘못 분류된 것을 볼 수 있다. 또한 우측 강을 중심으로 도로변 주위의 화소들이 수직 방향으로 길게 수계로 잘못 분류되었다. RGB 밴드만을 이용한 결과(Fig. 10a)에서도 다수 영역이 수계로 잘못 분류된 결과를 보이며, RGB 밴드와 NDVI를 이용한 분류 결과(Fig. 10c)에서는 수계로 잘못 분류된 화소들이 다소 감소한 것을 볼 수 있다. RGB 밴드와 NDWI 영상을 이용한 분류 결과인 Fig. 10(d)에서는 강 이외의 영역에서 일부 건물 그림자가 수계로 검출된 경우를 제외하고는 수계로 잘못 분류된 화소들이 크게 감소한 것을 볼 수 있다.
Fig. 9의 분류 결과에 대한 정량적인 성능 평가를 위해서 무작위 추출법(random sampling)으로 300개의 지점을 추출한 후에 해당 지점의 클래스를 결정하고 각 분류 결과 영상과의 비교를 통해 혼동 행렬(confusionmatrix)를 계산하여 분류 정확도를 평가하였다. Table 2부터 Table 5는 RGB 밴드만 사용한 경우, RGB 밴드를 공통적으로 사용하고 NIR 밴드, NDVI, NDWI를 각각 추가로 사용한 방법의 분류 정확도를 보여준다. Table 2에서 RGB 밴드만을 이용한 방법은 전체 정확도(overall accuracy)는 83.7%, 카파 계수(kappa coefficient)는 76.2%의 정확도로 4가지 방법중 가장 낮은 정확도를 보였다. Table 3에서 RGB 밴드와 NIR 밴드를 이용한 방법은 전체 정확도 87.7%, 카파 계수 81.9%의 정확도를 보였으며, Table 4에서 RGB 밴드와 NDVI를 이용한 방법은 전체 정확도 86.7%, 카파 계수 80.7%의 정확도 RGB 밴드와 NIR 밴드를 이용한 방법과 비슷한 정확도를 보였다. 반면 RGB 밴드와 NDWI를 이용한 방법은 Table 5와 같이 전체 정확도 93.7%, 카파 계수 90.6%의 정확도를 보였다. 이는 RGB 밴드만을 이용한 방법 대비 전체 정확도는 10%p, 카파 계수는 14.4%p 높은 결과이다. RGB 밴드와 NIR 밴드, NDVI를 각각 이용한 방법 대비 전체 정확도는 6.0%p, 7.0%p 높은 결과이고 카파 계수는 8.7%p, 9.9%p 높은 결과이다.
Table 2 Accuracy assessment of the classification method using RGB bands
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 15 | 9 | 38 | 36.8 |
Bare ground | 0 | 12 | 5 | 7 | 0 | 24 | 50.0 |
Building | 0 | 0 | 110 | 2 | 0 | 112 | 98.2 |
Road | 0 | 0 | 9 | 96 | 2 | 107 | 89.7 |
Vegetation | 0 | 0 | 0 | 0 | 19 | 19 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 88.7 | 80.0 | 63.3 | ||
O.A. (%) | 83.7 | ||||||
K.C. (%) | 76.2 |
U.A.: user’s accuracy, P.A.: producer’s accuracy, O.A.: overall accuracy, K.C.: kappa coefficient.
Table 3 Accuracy assessment of the classification method using RGB bands and NIR band
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 10 | 3 | 27 | 51.9 |
Bare ground | 0 | 10 | 6 | 8 | 1 | 25 | 40.0 |
Building | 0 | 2 | 112 | 1 | 0 | 115 | 97.4 |
Road | 0 | 0 | 6 | 101 | 0 | 107 | 94.4 |
Vegetation | 0 | 0 | 0 | 0 | 26 | 26 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 83.3 | 90.3 | 84.2 | 86.7 | ||
O.A. (%) | 87.7 | ||||||
K.C. (%) | 81.9 |
Table 4 Accuracy assessment of the proposed classification method using RGB bands and NDVI image
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 13 | 0 | 27 | 51.9 |
Bare ground | 0 | 12 | 5 | 11 | 1 | 29 | 41.4 |
Building | 0 | 0 | 112 | 2 | 1 | 115 | 97.4 |
Road | 0 | 0 | 7 | 94 | 0 | 101 | 93.0 |
Vegetation | 0 | 0 | 0 | 0 | 28 | 28 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 90.3 | 78.3 | 93.3 | ||
O.A. (%) | 86.7 | ||||||
K.C. (%) | 80.7 |
Table 5 Accuracy assessment of the proposed classification method using RGB bands and NDWI image
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 0 | 0 | 14 | 100.0 |
Bare ground | 0 | 12 | 6 | 6 | 1 | 25 | 48.0 |
Building | 0 | 0 | 113 | 1 | 0 | 114 | 99.1 |
Road | 0 | 0 | 5 | 113 | 0 | 118 | 95.7 |
Vegetation | 0 | 0 | 0 | 0 | 29 | 29 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 91.1 | 94.2 | 96.7 | ||
O.A. (%) | 93.7 | ||||||
K.C. (%) | 90.6 |
RGB 밴드만을 이용한 방법은 수계의 사용자 정확도(user accuracy, U.A.)가 36.8%로 네 가지 방법 가운데 가장 낮은 정확도를 보였다. 이는 Table 2에서 볼 수 있듯이 도로와 식생 화소들이 수계로 잘못 분류된데 기인한다. RGB 밴드와 NIR밴드 또는 NDVI를 이용한 방법도 사용자 정확도가 52% 이하로 낮은 정확도를 보였으나, RGB 밴드와 NDWI를 이용한 방법은 사용자 정확도가 100%인 결과를 보였다. 이러한 결과는 NDWI를 분류에 사용함으로써 수계의 생산자 정확도를 크게 향상시키고 전체 정확도도 향상시킬 수 있음을 의미한다.
RGB 밴드와NIR밴드 또는NDVI를 이용한 방법은 각 클래스의 사용자 정확도는 서로 비슷한 정확도를 보였다. 생산자 정확도의 경우 나지와 식생은 RGB 밴드와 NDVI를 이용한 방법이, 도로는 RGB 밴드와 NIR 밴드를 이용한 방법이 상대적으로 높은 정확도를 보였다. RGB 밴드와 NDVI를 이용한 방법은 식생의 생산자 정확도가 93.3%이며, 이는 RGB 밴드만 이용한 방법의 63.3%, RGB 밴드와 NIR 밴드를 이용한 방법의 86.7% 대비 정확도가 크게 향상된 결과이다. 그러나 RGB 밴드와 NDVI를 이용한 방법은 도로의 생산자 정확도는 78.3%로, 이는 RGB 밴드만을 이용한 방법의 80.0% 보다 낮은 정확도이며 RGB 밴드와 NIR 밴드를 이용한 방법의 84.2% 보다도 낮은 정확도이다. 따라서 RGB 밴드에 NDVI를 이용한 방법은 식생의 생산자 정확도를 향상시키는데는 긍정적으로 작용하지만 도로의 생산자 정확도는 오히려 감소시키는 한계가 있음을 알 수 있다. RGB 밴드와 NDWI를 이용한 방법은 나지의 사용자 정확도가 RGB 밴드만을 이용한 방법보다 다소 낮은 점을 제외하고는 모든 클래스의 사용자 정확도, 생산자 정확도가 나머지 다른 방법들의 정확도보다 높은 결과를 보여준다. 다른 세가지 방법의 경우 도로를 수계로 잘못 분류하는 경향이 높아서 도로의 생산자 정확도가 85%이하의 결과를 보였으나, RGB 밴드와 NDWI를 이용한 방법은 도로의 일부 화소가 나지로 잘못 분류하는 경우가 있지만 도로의 생산자 정확도가 94.2%의 높은 정확도를 보인다. 특히 수계의 경우 생산자 정확도와 사용자 정확도가 모두 100.0%의 결과를 보였다. 이는 NDWI 밴드 영상을 입력 영상으로 사용하는 것을 통해 수계 분류의 정확도를 크게 향상시킬 수 있음을 보여준다.
나지의 경우 네가지 방법 모두 50% 이하의 낮은 정확도를 보였다. 이는 나지 객체의 2개 서브클래스의 샘플 영역 밝기값이 도로와 일부 건물의 밝기값과 유사하기 때문인 것으로 판단된다. 테스트 영상에서 나지로 정의한 지역은 운동장이나 토지 특성을 보이는 일반적인 나지 지역의 특성과는 달리 시설 주변에 위치한 공터를 포함하며 일부 밝기값이 도로와 유사한 특성을 보인다.
RGB 밴드와 NDWI를 이용한 방법의 수계 분류 정확도는 앞서 기술한 바와 같이 매우 우수하지만 분류가 잘못된 영역이 일부 존재한다. Fig. 8과 Fig. 9의 분류 결과 영상에서 수계로 잘못 분류된 영역은 두 개의 건물 영역과 일부 그림자 영역에서 발생하였다. Fig. 11(a)는 수계로 올바르게 분류된 예를, Fig. 11(b)와 Fig. 11(c)는 건물과 그림자가 수계로 잘못 분류된 예를 보여준다.
Fig. 11의 각 영상은 왼쪽부터 원영상, 분류 결과 영상, 수계로 분류된 영역의 RGB 히스토그램, NIR 히스토그램이다. Fig. 11(b)에서 수계로 잘못 분류된 건물 영역은 Fig. 11(a)의 수계 영역과 육안으로 비교할 때 색상 차이가 거의 없고 히스토그램도 거의 차이가 없다. NIR 히스토그램에서 수계의 밝기값 평균은 99.9, 건물 영역과 그림자 영역은 각각 99.3, 100.5의 평균값을 보여 분광적으로 매우 유사함을 알 수 있다. 또한 그림자가 수계로 분류된 Fig. 11(c)에서 그림자 영역의 히스토그램 분포 영역은 Fig. 11(a)의 수계 영역의 히스토그램 범위를 포함하는 것을 볼 수 있다. 이와 함께 수계로 분류된 강, 건물, 그림자 영역은NIR 영상에서 밝기값이 모두 유사함을 볼 수 있다. 이와 같이 RGB 밴드와 NIR 밝기값이 모두 수계와 매우 유사한 영역은 수계로 분류될 가능성이 높다. 이런 문제를 해결하기 위해서는 그림자의 경우 대체로 건물 경계를 따라 좁고 긴 형태의 영역으로 나타나는 점을 고려하여 영역의 면적이 크지 않고 형태가 좁고 긴 형태를 가지는 영역은 수계로 판정하지 않도록 한다면 수계 분류 정확도를 보다 향상시킬 수 있으리라 판단된다.
객체 기반의 영상 분석 방법은 고해상도 원격 탐사 영상을 이용한 객체 분석에 효과적인 방법이며 최근 기술적으로 빠르게 발전하는 딥러닝 기술과도 함께 통합 활용될 수 있는 기술이다. 그러나 건물 등과 같이 다양한 색상을 가지는 객체들이 존재하는 도시 지역의 고해상도 원격 탐사 영상에서 객체를 정확하게 분류하기는 기술적인 어려움이 존재한다. 본 연구에서는 수계가 포함된 고해상도 원격탐사 영상에서 정규수계지수를 이용하여 객체 기반 영상 분류의 분류 정확도를 향상시키는 방법을 제안하였다. 제안하는 객체 기반 영상 분류 방법은 RGB 밴드와 NDWI 영상을 입력으로 사용하고 영상 분할 알고리즘을 이용하여 생성된 영역 정보와 영상 분류 결과를 융합한다. 차세대중형위성1호 영상을 이용한 실험결과에서 RGB 밴드와 NDWI를 이용한 분류 방법은 전체 정확도 93.7%, 카파 계수 90.6%의 정확도를 보였다. 이는 RGB 밴드만을 이용 방법, RGB 밴드와 NIR 밴드를 이용한 방법, RGB 밴드와 NDVI를 이용한 방법들 보다 전체 정확도는 10%p, 6.0%p, 7.0%p 높은 결과이며 카파 계수는 14.4%p, 8.7%p, 9.9%p 높은 결과이다. 또한 RGB 밴드와 NDWI를 이용한 분류 방법은 나지의 사용자 정확도가 RGB 밴드만을 이용한 방법보다 다소 낮은 점을 제외하고는 모든 클래스의 사용자 정확도, 생산자 정확도가 나머지 다른 방법들의 정확도보다 높은 결과를 보여준다.
특히 수계의 경우 제안한 방법은 생산자 정확도와 사용자 정확도가 모두 100.0%의 결과를 보였다. 이는NDWI 밴드 영상을 입력 영상으로 사용하여 수계 분류의 정확도를 크게 향상시키고 전체 정확도도 함께 향상시킬 수 있음을 보여준다. 제안한 방법은 수계 밝기값 특성과 매우 유사한 일부 건물과 그림자 영역은 수계로 잘못 분류된 결과를 보이기도 했다. 그림자 영역의 면적은 작고 형태는 좁고 긴 특성을 형태학적으로 분석하면 분류 정확도를 보다 향상시킬 수 있으리라 판단된다. 다만, 제안한 방법은 정규수계지수를 이용하여 수계 분류의 정확도를 크게 향상시킬수 있으나 수계가 없는 지역의 영상에 대해서는 NDWI를 이용한 분류 정확도 향상에 제한이 있으리라 판단된다.
제안한 방법은 고해상도 원격탐사 영상에서 분할된 영역 단위로 객체 분류 결과를 생성한다. 이러한 영역 단위 분류 결과는 딥러닝 시스템의 입력으로 사용하거나 딥러닝 시스템의 특징 영상과 융합하는 방식으로 사용하여 영상 분류의 정확도를 향상시키는데 활용할 수 있다. 또한 딥러닝 시스템에서 사용되는 학습 데이터의 라벨링을 구축하는 과정에도 활용될 수 있다. 전체 정확도가 93.7%인 제안한 방법의 분류 결과는 딥러닝 학습 데이터셋 구축시 라벨링 생성 과정에서 초기 기초 자료로 활용하거나, 수작업으로 구축되는 보다 정확한 라벨링 데이터와 함께 학습 데이터로 활용될 수 있다. 이 경우 영상 분류를 통해 얻어진 라벨링 데이터는 일종의 잡음 데이터셋(noisy dataset)으로 사용하여, 잡음이 포함되지 않은 정확한 라벨링 데이터셋(clean dataset)과 함께 딥러닝 시스템의 성능을 향상시키는데 활용될 수 있으리라 판단된다.
이 연구는 2024년도 극동대학교 교내연구비 지원에 의해 수행된 것임(과제번호: FEU2024S06).
No potential conflict of interest relevant to this article was reported.
Korean J. Remote Sens. 2025; 41(1): 185-197
Published online February 28, 2025 https://doi.org/10.7780/kjrs.2025.41.1.15
Copyright © Korean Society of Remote Sensing.
극동대학교 AI컴퓨터공학과 교수
Professor, Department of AI Computer Engineering, Far East University, Eumseong, Republic of Korea
Correspondence to:Chul-Soo Ye
E-mail: csye@kdu.ac.kr
This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (https://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
The technology for classifying objects using remote sensing images has gained increasing attention recently with the advent of high-resolution satellite imagery and advancements in deep learning techniques. One of the representative methods for classifying objects is object-based image classification, which involves segmenting the image and using the attributes of the segmented regions to generate classification results at the object level. In urban areas, the presence of various buildings with different colors and shapes, along with numerous shadows, makes it difficult to distinguish objects like water bodies and vegetation from buildings. This paper proposes an object-based image classification method that incorporates the normalized difference water index (NDWI), which is effective for detecting water body characteristics, along with RGB band imagery. The experimental results using images from Compact Advanced Satellite 500-1 demonstrate that the proposed method yields improved results with an overall accuracy of 93.7% and a kappa coefficient of 90.6%, outperforming methods that utilize only the RGB bands, RGB bands combined with NIR bands, and RGB bands combined with the normalized difference vegetation index (NDVI).
Keywords: Object-based image analysis, Deep learning, Normalized difference water index, Image classification, Image segmentation
원격탐사 영상을 이용하여 객체를 분류하는 기술은 고해상도 위성영상의 등장과 딥러닝 기술의 발전과 함께 최근에 더욱 주목을 받게 되었다. 객체를 분류하는 대표적인 방법인 객체 기반의 영상 분류 기술은 영상을 분할하고 분할된 영역의 속성을 이용하여 객체 단위의 분류 결과를 생성한다. 도시 지역의 경우에는 다양한 색상과 형태의 건물들과 그림자가 다수 존재하기 때문에 건물 이외의 수계, 식생 객체 등과의 구별이 어렵다. 본 논문에서는 수계 특성 검출에 용이한 정규수계지수(normalized difference water index, NDWI)를 RGB 밴드 영상과 함께 이용하는 객체 기반의 영상 분류 기술을 제안한다. 차세대중형위성1호 영상을 이용한 실험 결과에서 제안한 방법은 RGB 밴드만 이용한 방법, RGB 밴드와 NIR 밴드를 이용한 방법, RGB 밴드와 정규식생지수(normalized difference vegetation index, NDVI)를 이용한 방법 대비 높은 정확도인 전체 정확도 93.7%, 카파 계수(kappa coefficient) 90.6%의 향상된 결과를 얻었다.
주요어: 객체 기반 영상 분석, 딥러닝, 정규수계지수, 영상 분류, 영상 분할
원격탐사 분야에서 지표 속성을 분류하는 다양한 영상 분류 방법 가운데 최근에는 딥러닝 기반의 분류 방법이 널리 활용되고 있다. 대표적으로 UNet 모델(Ronneberger et al., 2015)을 비롯하여 ResUNet 모델(Zhang et al., 2018), DeepResUNet 모델(Yi et al., 2019) 등의 다양한 의미론적 영상 분할(semantic image segmentation) 기법들이 활용되고 있다. 특히 UNet 기반 딥러닝 모델의 레이어 구조를 개선시킨 모델(Ye et al., 2022)이나 전이학습을 추가적으로 적용한 모델(Ye et al., 2023)은 고해상도 원격탐사 영상을 이용한 건물 객체 추출에서 UNet 기반의 기존 딥러닝 모델들보다 우수한 성능을 보여주었다. 한편 딥러닝 모델의 성능은 학습에 사용되는 데이터셋의 영향을 크게 받는다. 딥러닝 모델의 학습에 사용한 학습 데이터셋과 학습된 딥러닝 모델을 적용하여 예측하는데 사용되는 테스트 데이터셋 간의 특성 차이가 클수록 예측 성능이 저하될 가능성이 커진다. 따라서 일반적으로 학습 데이터셋의 규모는 충분히 크게 구축하여야 하지만, 원격탐사 영상에서 객체 추출을 위한 학습 데이터셋을 광범위한 지역에 대해 제작하는 것은 비용과 시간 측면에서 현실적으로 어려운 일이다.
반면 객체 기반 영상 분석 방법(object based image analysis; Blaschke, 2010; Blaschke et al., 2014)을 이용한 분류는 학습 데이터셋을 구축할 필요가 없으며, 단일 영상만을 가지고 영상 분류를 수행할 수 있는 장점이 있다. 이 분류 방법은 영상 화소들을 유사한 밝기 값을 가지는 영역으로 분할하고 분할 영역의 속성을 이용하여 영역 단위의 분류를 수행한다. 객체 기반 영상 분석을 딥러닝과 통합 활용하여 영상 분류의 정확도를 향상시키는 방법도 제안되었다(Cui et al., 2018; Azeez et al., 2022). Azeez et al. (2022)은 객체 기반 영상 분석을 convolutional neural network (CNN)와 통합하는 네 종류의 방법을 제시하였으며,이 가운데 객체 기반 영상 분석의 결과를 CNN의 입력으로 직접 사용하는 방법과 CNN의 특징 영상과 융합하는 방법은 객체 기반 영상 분석의 분류 성능이 시스템의 최종 분류 성능에 직접적인 영향을 미 친다. 나머지 두 종류의 방법에서는 객체 기반 영상 분석의 영상 분할 결과를 이용하여 CNN의 특징 영상을 필터링하거나 CNN의 분류 결과를 정제한다. 이와 같이 객체 기반 영상 분석을 딥러닝과 통합 활용하기 위해서는 객체 생성을 위한 영상 분할 기술과 분할된 영역을 분류하는 객체 기반 영상 분류 기술의 성능이 중요하다. 특히 다양한 건물이 포함된 도시 지역의 경우, 객체 기반 영상 분류 기술의 분류 정확도는 아직 높은 수준의 분류 정확도를 보여주고 있지 못하기 때문에 여전히 분류 정확도 개선에 대한 필요성이 있다.
산림 지역이나 농경지 등과 같이 비도심 지역에 대한 기존의 객체 기반 분류에 대한 기존 연구 가운데 Na and Lee (2014)는 RapidEye 영상에 객체 기반의 분류 기법을 적용하여 객체 클래스 유형이 적은 경우에는 95%, 보다 복잡한 경우에는 88%의 분류 정확도를 보고하였다. 산림이 대부분인 지역에 대해 Lee et al. (2018)은 아리랑3A 위성영상과 eCognition 소프트웨어를 이용하여 객체 기반 분류를 수행하여 영상에서 추출 가능한 파라미터 이외에 Digital Elevation Model (DEM)과 Digital Building Model (BDM)을 이용하여 91.0%–92.3%의 분류 정확도를 얻었다. Shin et al. (2015)은 Unmanned Aerial Vehicle (UAV) 영상의 토지 피복도 제작에 객체 기반의 분류 소프트웨어인 ENVI Feature Extraction을 이용하여 5 m의 공간해상도로 변환된 RapidEye 영상과 UAV 영상에 대해 각각 90%, 91%의 분류 정확도를 얻었으나 공간해상도가 5 m인 분류 결과 영상에서 개별 건물 단위 분석에는 한계를 보였다.
한편 도시 지역 고해상도 위성영상에 대한 객체 분류 연구로는 영상의 RGB 컬러 모델을 hue saturation value (HSV) 컬러 모델로 변환한 후에 색상(hue) 성분에 따라 객체 기반 분류를 수행하는 방법이 제안되었다(Ye, 2021). 최근에는 객체 기반 영상 분석을 위한 샘플 추출을 히스토그램(histogram) 역투영을 이용하여 분류 정확도를 향상시키는 방법(Ye, 2023a)과 정규식생지수를 도심지역 객체 분류에 활용한 연구(Ye, 2023b)가 제안되었다. 이러한 기존의 연구에서는 주로 건물 객체와 식생 객체 중심의 분류를 수행하였으나 수계 객체에 대한 분석 결과는 제시되지 않았다. 특히 고해상도 위성영상에서 수계의 컬러 정보는 일부 건물 객체, 도로 객체 등과 유사한 밝기값을 보이는 경우가 많으며 이에 따라 수계가 포함된 도시 지역의 경우 분류 성능이 저하될 가능성이 높다.
본 논문에서는 수계가 포함된 도시 지역 고해상도 위성영상에서 정규수계지수(normalized difference water Index, NDWI)를 객체 기반 영상 분석에 활용하여 건물, 도로의 객체뿐만 아니라 수계 객체의 분류 성능을 함께 향상시키는 방법을 제안한다. 본 논문의 2장에서는 정규수계지수를 이용한 객체 기반 영상 분류 기법을, 3장에서는 고해상도 위성영상을 이용하여 제안한 방법의 분류 성능을 분석하고 4장에서는 본 논문의 결론을 제시한다.
도시 지역의 고해상도 위성영상에는 건물, 도로, 식생 등 다양한 밝기 값을 가지는 객체들이 존재한다. 특히 건물 객체의 경우 다양한 색상의 건물 지붕들이 존재하여 이와 유사한 색상을 가지는 객체와의 구분이 어려운 경우가 발생할 가능성이 높다. Fig. 1은 차세대중형위성 1호(Compact Advanced Satellite 500-1, CAS 500-1) 위성영상에서 건물, 식생, 수계, 도로, 나지의 영역별 RGB 히스토그램과 정규수계지수 히스토그램을 보여준다. Fig. 1의 RGB 히스토그램에서 건물 지붕 A 영역은 나무들로 이루어진 식생 영역 B와 수계 영역 C와 비교시, 녹색 및 청색 밴드에서 뚜렷한 차이를 보인다. 그러나 수계 영역 C는 식생 영역 B의 채널별 히스토그램 분포와 겹치며 이는 RGB 영상만을 이용한 분류에서는 식생 영역의 일부가 수계로 잘못 분류될 가능성이 있음을 보여준다. 반면 NDWI 히스토그램 분포 상에서는 수계 영역 C는 식생 영역 B의 분포 범위를 벗어나며 이는 NDWI를 분류의 입력으로 이용할 때 RGB 영상만으로 분류가 어려운 수계와 식생의 구분 가능성을 향상시킬 수 있음을 의미한다. 한편 나지 영역은 RGB 히스토그램 상에서는 도로 영역과의 구분이 쉽지 않으나 NDWI 히스토그램 상에서는 도로 영역보다 다소 높은 값을 보여 NDWI가 나지 영역과 도로 영역의 구분에 도움이 되리라 판단된다.
고해상도 위성영상의 밴드 특성을 고려하여 본 연구에서는 식(1)을 이용하여 정규수계지수를 계산한다(Mcfeeters, 1996).
여기서 G는 녹색 밴드, NIR는 근적외선(near-infra red, NIR) 밴드의 밝기값을 의미한다. 식생 영역 B와 수계 영역 C은 녹색 밴드에서 유사한 밝기값을 분포를 보이지만, Fig. 2에서 볼 수 있듯이 근적외선 밴드에서 식생 영역은 수계 영역보다 상대적으로 높은 밝기값 분포를 보인다. 따라서 식(1)로 계산되는 정규수계지수 영상에서 식생 영역은 Fig. 1과 같이 수계 영역보다 히스토그램이 보다 낮은 범위에 분포한다. 정규수계지수 영상에서 식생 영역과 수계 영역이 구분되는 이러한 성질은 영상 분류 시 사용되는 입력 영상으로 RGB 밴드 영상 이외에 정규수계지수 영상을 추가하면 분류 성능을 향상시킬 수 있음을 의미한다. NIR 히스토그램 상에서는 도로 영역 D와 나지 영역 E의 분포가 거의 유사하기 때문에 NIR 밴드보다는 NDWI가 도로와 나지의 구분에 보다 적합함을 알 수 있다.
본 연구에서는 식생과 수계 구분에 용이한 정규수계지수 영상을 이용한 객체 기반 영상 분류 방법을 제안한다(Fig. 3). 녹색 밴드 영상과 NIR 밴드 영상을 이용하여 정규수계지수 영상을 생성한 후에 RGB 밴드 영상과 함께 입력 영상으로 사용한다. 영상 분류 방법은 다양한 색상의 객체가 존재하는 도시 지역 영상 분류에 우수한 성능을 보이는 객체 서브클래스 분류 방법(Ye, 2023b)을 적용한다. 이 분류 방법은 영상에 존재하는 객체를 정의하는 단계에서 하나의 객체가 여러 종류의 색상을 가지는 경우에는 색상에 따라 여러 개의 서브클래스를 정의한다. 예를 들면, 다양한 색상의 지붕을 가지는 건물 객체의 경우 건물 클래스 Class (B)를 정의하고 건물 서브클래스를 색상에 따라 Class (B, sub(1)), Class (B, sub(2))와 같이 정의한다. 객체별로 이와 같이 서브클래스를 정의한 후에 각 화소별로 분류를 수행한다. 각 화소별 분류는 최소 거리(minimumdistance) 기반의 분류를 수행한다. 이 분류 방법은 각 화소의 밴드 밝기값 벡터와 각 서브클래스의 평균 벡터와의 거리를 계산하고 가장 가까운 거리의 서브클래스를 화소에 할당한다. 분류를 수행하면 각 화소마다 서브클래스가 할당이 되며 이후 서브클래스들을 원래 클래스로 변환하는 과정을 수행한다. 이 변환 과정을 수행하면 Class (B, sub(1)), Class (B, sub(2)) 등과 같이 건물 서브클래스가 할당된 화소들은 모두 하나의 건물 클래스 Class (B)로 통합된다. Fig. 4(a)는 서브클래스 분류를 수행한 후에 서브클래스를 하나의 클래스로 변환한 분류 결과를 보여준다.
화소별 분류를 수행한 결과는 워터쉐드(watershed) 영상 분할 알고리즘을 이용한 영상 분할 결과와 함께 최종 분류 단계의 입력으로 사용된다. 워터쉐드 영상 분할 알고리즘은 영상의 밝기값 변화량을 나타내는 그레디언트(gradient)가 주변 화소들보다 작은 화소를 최소 그레디언트 화소(minimumgradient pixel)로 정의하고, 이 화소의 그레디언트와 비교해서 그레디언트 차이가 작은 이웃 화소들을 최소 그레디언트 화소와 그룹핑하여 하나의 영역으로 결정하는 영상 분할 방법이다. 최종 분류 단계에서는 분할 영역 내부 화소들에 할당된 클래스 가운데 가장 많은 빈도수를 가지는 클래스를 해당 영역의 최종 클래스로 결정한다. 이 과정을 통해 영역 내부에서 일부 잘못 할당된 클래스를 가지는 화소의 클래스는 가장 많은 빈도수를 가지는 클래스로 대체된다. Fig. 4(b)는 워터쉐드 영상 분할 결과와 화소 분류 결과를 결합한 예를 보여준다. 클래스가 할당되지 않은 영역 경계선 화소의 클래스를 결정하기 위하여 경계선 화소를 중심으로 5 × 5 크기의 영역 안에서 가장 많은 빈도수를 가지는 클래스를 경계선 화소의 최종 클래스로 결정한다.
본 연구에서는 부산광역시 강서구에 위치한 녹산국가산업단지의 일부 지역을 촬영한 차세대중형위성1호의 전정색 영상과 RGB 영상에 대해 정밀 정사보정을 수행한 후에 융합한 0.5 미터 공간해상도의 영상을 사용하였다(Fig. 5a). 본 연구에서는 고해상도의 단일 영상에서 반사되는 복사량이 큰 객체 분류 목적으로 분광정보를 사용하기 때문에 분광정보에 포함된 대기 영향이 분류에 미치는 영향은 미미하다고 판단하여 별도의 대기보정은 수행하지 않았다. 실험 대상 지역에는 다양한 형태와 색상을 가지는 건물들이 다수 존재하고 도로, 강, 나무, 나지가 존재한다. 영상 가운데에서 수직 방향으로 흐르는 강의 색상은 일부 건물들의 색상과 유사하고 도로변 주변 나무들의 색상과 유사함을 볼 수 있다. Fig. 5(b)는 녹색 밴드 영상과 NIR 밴드 영상으로 생성한 NDWI 영상이며, 도로변 주위 나무의 색상이 어두운 밝기값을 보이고, 강의 경우 상대적으로 밝은 밝기값을 보인다. Fig. 6은 NDWI 영상에서 수계와 식생의 히스토그램 차이를 보여주며 수계와 식생의 평균값은 각각 117.1과 86.9로 상당한 차이가 있음을 알 수 있다.
영상 분류를 위해 건물(building), 도로(road), 식생(vegetation), 수계(water), 나지(bare ground)로 구성되는 총 5개의 클래스를 정의하였다(Table 1). 건물 클래스의 경우 Fig 5(a)에서 볼 수 있듯이 다양한 색상이 존재하며, 색상에 따라 7개의 서브클래스를 정의하였다. 도로와 나지 클래스는 각각 4개, 2개의 서브클래스로 정의하였고 식생과 수계 클래스는 각각 하나의 서브클래스로 정의하였다. 전체 서브클래스는 총 15개로 정의하였으며 정의된 각 서브클래스 별로 분할된 영상에서 대표적인 색상을 가지는 영역을 샘플로 추출하였다. 예를 들면, Fig. 7의 각 서브클래스를 대표하는 분할 영역에서 볼 수 있듯이, 도로 서브클래스는 Road1의 경우 강 좌측의 도로 영역을, Road2의 경우 Road1보다 조금 더 밝은 강 우측의 도로 영역을, Road3은 Road1과 Road2 영역보다 조금 더 밝은 도로 영역을, Road4는 Road1과 Road2 영역보다 어두운 도로 영역으로 각각 선정하였다. 각 클래스별로 보다 많은 서브클래스를 정의하면 보다 상세한 서브클래스를 정의할 수 있으나 이 경우 사용자의 주관적인 판단에 따라 구분해야할 색상의 종류가 증가하기 때문에 본 실험에서는 색상별 구분이 용이한 건물의 경우에는 7가지 색상의 서브클래스 결정하였고 그외 다른 클래스의 경우 4개 이하의 서브클래스를 정의하였다.
Table 1 . Number of class types and subclasses defined in the experimental image for object-based classification.
Image | Class type | No. of subclasses |
---|---|---|
CAS 500-1 image | Building | 7 |
Road | 4 | |
Vegetation | 1 | |
Water | 1 | |
Bare ground | 2 | |
Total | 15 |
본 실험에서는 분류에 사용하는 입력 영상 조합으로 RGB 밴드만 사용한 경우, RGB 밴드를 공통적으로 사용하고 NIR 밴드, NDVI, NDWI를 각각 추가로 사용한 총 4가지 경우에 대해 실험하였다. Fig. 8은 Table 1에 정의한 각 서브클래스의 샘플을 추출한 후에 객체 기반의 영상 분류를 수행하고 경계선 화소의 클래스를 보간하기 이전의 결과이다. RGB 밴드 영상과NIR 밴드를 이용한 분류 결과는 Fig. 8(b)의 좌측 상단 부근의 도로가 수계로 잘못 분류된 것을 포함하여 건물 주변의 다수의 영역이 수계로 잘못 분류되었다. RGB 밴드 영상만 사용한 Fig. 8(a)와 RGB 밴드와 NDVI를 사용한 Fig. 8(c)에서도 비수계 영역을 수계로 잘못 분류한 영역이 다수 존재한다. 반면 본 연구에서 제안하는 방법인 RGB 밴드와 NDWI를 이용한 분류는 Fig. 8(d)에서와 같이 건물 그림자에 해당하는 일부 영역이 수계로 잘못 분류된 경우를 제외하고 전반적으로 다른 분류 방법들보다 양호한 분류 결과를 보여준다.
Fig. 9는 영역 내부 분류 결과에 추가하여 영역 경계선 화소들의 클래스를 할당한 최종 분류 결과이다. 영역 경계선 화소의 클래스는 경계선 화소를 중심으로 5 × 5 크기의 영역 내부 화소들의 클래스 가운데 가장 많은 빈도를 나타내는 클래스를 할당하였다. Fig. 8의 경계선 화소의 클래스를 보간하기 전의 결과와 유사한 분류 결과를 보여준다. Fig. 10은 Fig. 9의 좌측 상단의 영역을 확대한 영상이다. RGB 밴드와 NIR 밴드를 이용한 분류 결과인 Fig. 10(b)에서는 건물 주변으로 다수의 영역들이 수계로 잘못 분류된 것을 볼 수 있다. 또한 우측 강을 중심으로 도로변 주위의 화소들이 수직 방향으로 길게 수계로 잘못 분류되었다. RGB 밴드만을 이용한 결과(Fig. 10a)에서도 다수 영역이 수계로 잘못 분류된 결과를 보이며, RGB 밴드와 NDVI를 이용한 분류 결과(Fig. 10c)에서는 수계로 잘못 분류된 화소들이 다소 감소한 것을 볼 수 있다. RGB 밴드와 NDWI 영상을 이용한 분류 결과인 Fig. 10(d)에서는 강 이외의 영역에서 일부 건물 그림자가 수계로 검출된 경우를 제외하고는 수계로 잘못 분류된 화소들이 크게 감소한 것을 볼 수 있다.
Fig. 9의 분류 결과에 대한 정량적인 성능 평가를 위해서 무작위 추출법(random sampling)으로 300개의 지점을 추출한 후에 해당 지점의 클래스를 결정하고 각 분류 결과 영상과의 비교를 통해 혼동 행렬(confusionmatrix)를 계산하여 분류 정확도를 평가하였다. Table 2부터 Table 5는 RGB 밴드만 사용한 경우, RGB 밴드를 공통적으로 사용하고 NIR 밴드, NDVI, NDWI를 각각 추가로 사용한 방법의 분류 정확도를 보여준다. Table 2에서 RGB 밴드만을 이용한 방법은 전체 정확도(overall accuracy)는 83.7%, 카파 계수(kappa coefficient)는 76.2%의 정확도로 4가지 방법중 가장 낮은 정확도를 보였다. Table 3에서 RGB 밴드와 NIR 밴드를 이용한 방법은 전체 정확도 87.7%, 카파 계수 81.9%의 정확도를 보였으며, Table 4에서 RGB 밴드와 NDVI를 이용한 방법은 전체 정확도 86.7%, 카파 계수 80.7%의 정확도 RGB 밴드와 NIR 밴드를 이용한 방법과 비슷한 정확도를 보였다. 반면 RGB 밴드와 NDWI를 이용한 방법은 Table 5와 같이 전체 정확도 93.7%, 카파 계수 90.6%의 정확도를 보였다. 이는 RGB 밴드만을 이용한 방법 대비 전체 정확도는 10%p, 카파 계수는 14.4%p 높은 결과이다. RGB 밴드와 NIR 밴드, NDVI를 각각 이용한 방법 대비 전체 정확도는 6.0%p, 7.0%p 높은 결과이고 카파 계수는 8.7%p, 9.9%p 높은 결과이다.
Table 2 . Accuracy assessment of the classification method using RGB bands.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 15 | 9 | 38 | 36.8 |
Bare ground | 0 | 12 | 5 | 7 | 0 | 24 | 50.0 |
Building | 0 | 0 | 110 | 2 | 0 | 112 | 98.2 |
Road | 0 | 0 | 9 | 96 | 2 | 107 | 89.7 |
Vegetation | 0 | 0 | 0 | 0 | 19 | 19 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 88.7 | 80.0 | 63.3 | ||
O.A. (%) | 83.7 | ||||||
K.C. (%) | 76.2 |
U.A.: user’s accuracy, P.A.: producer’s accuracy, O.A.: overall accuracy, K.C.: kappa coefficient..
Table 3 . Accuracy assessment of the classification method using RGB bands and NIR band.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 10 | 3 | 27 | 51.9 |
Bare ground | 0 | 10 | 6 | 8 | 1 | 25 | 40.0 |
Building | 0 | 2 | 112 | 1 | 0 | 115 | 97.4 |
Road | 0 | 0 | 6 | 101 | 0 | 107 | 94.4 |
Vegetation | 0 | 0 | 0 | 0 | 26 | 26 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 83.3 | 90.3 | 84.2 | 86.7 | ||
O.A. (%) | 87.7 | ||||||
K.C. (%) | 81.9 |
Table 4 . Accuracy assessment of the proposed classification method using RGB bands and NDVI image.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 13 | 0 | 27 | 51.9 |
Bare ground | 0 | 12 | 5 | 11 | 1 | 29 | 41.4 |
Building | 0 | 0 | 112 | 2 | 1 | 115 | 97.4 |
Road | 0 | 0 | 7 | 94 | 0 | 101 | 93.0 |
Vegetation | 0 | 0 | 0 | 0 | 28 | 28 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 90.3 | 78.3 | 93.3 | ||
O.A. (%) | 86.7 | ||||||
K.C. (%) | 80.7 |
Table 5 . Accuracy assessment of the proposed classification method using RGB bands and NDWI image.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 0 | 0 | 14 | 100.0 |
Bare ground | 0 | 12 | 6 | 6 | 1 | 25 | 48.0 |
Building | 0 | 0 | 113 | 1 | 0 | 114 | 99.1 |
Road | 0 | 0 | 5 | 113 | 0 | 118 | 95.7 |
Vegetation | 0 | 0 | 0 | 0 | 29 | 29 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 91.1 | 94.2 | 96.7 | ||
O.A. (%) | 93.7 | ||||||
K.C. (%) | 90.6 |
RGB 밴드만을 이용한 방법은 수계의 사용자 정확도(user accuracy, U.A.)가 36.8%로 네 가지 방법 가운데 가장 낮은 정확도를 보였다. 이는 Table 2에서 볼 수 있듯이 도로와 식생 화소들이 수계로 잘못 분류된데 기인한다. RGB 밴드와 NIR밴드 또는 NDVI를 이용한 방법도 사용자 정확도가 52% 이하로 낮은 정확도를 보였으나, RGB 밴드와 NDWI를 이용한 방법은 사용자 정확도가 100%인 결과를 보였다. 이러한 결과는 NDWI를 분류에 사용함으로써 수계의 생산자 정확도를 크게 향상시키고 전체 정확도도 향상시킬 수 있음을 의미한다.
RGB 밴드와NIR밴드 또는NDVI를 이용한 방법은 각 클래스의 사용자 정확도는 서로 비슷한 정확도를 보였다. 생산자 정확도의 경우 나지와 식생은 RGB 밴드와 NDVI를 이용한 방법이, 도로는 RGB 밴드와 NIR 밴드를 이용한 방법이 상대적으로 높은 정확도를 보였다. RGB 밴드와 NDVI를 이용한 방법은 식생의 생산자 정확도가 93.3%이며, 이는 RGB 밴드만 이용한 방법의 63.3%, RGB 밴드와 NIR 밴드를 이용한 방법의 86.7% 대비 정확도가 크게 향상된 결과이다. 그러나 RGB 밴드와 NDVI를 이용한 방법은 도로의 생산자 정확도는 78.3%로, 이는 RGB 밴드만을 이용한 방법의 80.0% 보다 낮은 정확도이며 RGB 밴드와 NIR 밴드를 이용한 방법의 84.2% 보다도 낮은 정확도이다. 따라서 RGB 밴드에 NDVI를 이용한 방법은 식생의 생산자 정확도를 향상시키는데는 긍정적으로 작용하지만 도로의 생산자 정확도는 오히려 감소시키는 한계가 있음을 알 수 있다. RGB 밴드와 NDWI를 이용한 방법은 나지의 사용자 정확도가 RGB 밴드만을 이용한 방법보다 다소 낮은 점을 제외하고는 모든 클래스의 사용자 정확도, 생산자 정확도가 나머지 다른 방법들의 정확도보다 높은 결과를 보여준다. 다른 세가지 방법의 경우 도로를 수계로 잘못 분류하는 경향이 높아서 도로의 생산자 정확도가 85%이하의 결과를 보였으나, RGB 밴드와 NDWI를 이용한 방법은 도로의 일부 화소가 나지로 잘못 분류하는 경우가 있지만 도로의 생산자 정확도가 94.2%의 높은 정확도를 보인다. 특히 수계의 경우 생산자 정확도와 사용자 정확도가 모두 100.0%의 결과를 보였다. 이는 NDWI 밴드 영상을 입력 영상으로 사용하는 것을 통해 수계 분류의 정확도를 크게 향상시킬 수 있음을 보여준다.
나지의 경우 네가지 방법 모두 50% 이하의 낮은 정확도를 보였다. 이는 나지 객체의 2개 서브클래스의 샘플 영역 밝기값이 도로와 일부 건물의 밝기값과 유사하기 때문인 것으로 판단된다. 테스트 영상에서 나지로 정의한 지역은 운동장이나 토지 특성을 보이는 일반적인 나지 지역의 특성과는 달리 시설 주변에 위치한 공터를 포함하며 일부 밝기값이 도로와 유사한 특성을 보인다.
RGB 밴드와 NDWI를 이용한 방법의 수계 분류 정확도는 앞서 기술한 바와 같이 매우 우수하지만 분류가 잘못된 영역이 일부 존재한다. Fig. 8과 Fig. 9의 분류 결과 영상에서 수계로 잘못 분류된 영역은 두 개의 건물 영역과 일부 그림자 영역에서 발생하였다. Fig. 11(a)는 수계로 올바르게 분류된 예를, Fig. 11(b)와 Fig. 11(c)는 건물과 그림자가 수계로 잘못 분류된 예를 보여준다.
Fig. 11의 각 영상은 왼쪽부터 원영상, 분류 결과 영상, 수계로 분류된 영역의 RGB 히스토그램, NIR 히스토그램이다. Fig. 11(b)에서 수계로 잘못 분류된 건물 영역은 Fig. 11(a)의 수계 영역과 육안으로 비교할 때 색상 차이가 거의 없고 히스토그램도 거의 차이가 없다. NIR 히스토그램에서 수계의 밝기값 평균은 99.9, 건물 영역과 그림자 영역은 각각 99.3, 100.5의 평균값을 보여 분광적으로 매우 유사함을 알 수 있다. 또한 그림자가 수계로 분류된 Fig. 11(c)에서 그림자 영역의 히스토그램 분포 영역은 Fig. 11(a)의 수계 영역의 히스토그램 범위를 포함하는 것을 볼 수 있다. 이와 함께 수계로 분류된 강, 건물, 그림자 영역은NIR 영상에서 밝기값이 모두 유사함을 볼 수 있다. 이와 같이 RGB 밴드와 NIR 밝기값이 모두 수계와 매우 유사한 영역은 수계로 분류될 가능성이 높다. 이런 문제를 해결하기 위해서는 그림자의 경우 대체로 건물 경계를 따라 좁고 긴 형태의 영역으로 나타나는 점을 고려하여 영역의 면적이 크지 않고 형태가 좁고 긴 형태를 가지는 영역은 수계로 판정하지 않도록 한다면 수계 분류 정확도를 보다 향상시킬 수 있으리라 판단된다.
객체 기반의 영상 분석 방법은 고해상도 원격 탐사 영상을 이용한 객체 분석에 효과적인 방법이며 최근 기술적으로 빠르게 발전하는 딥러닝 기술과도 함께 통합 활용될 수 있는 기술이다. 그러나 건물 등과 같이 다양한 색상을 가지는 객체들이 존재하는 도시 지역의 고해상도 원격 탐사 영상에서 객체를 정확하게 분류하기는 기술적인 어려움이 존재한다. 본 연구에서는 수계가 포함된 고해상도 원격탐사 영상에서 정규수계지수를 이용하여 객체 기반 영상 분류의 분류 정확도를 향상시키는 방법을 제안하였다. 제안하는 객체 기반 영상 분류 방법은 RGB 밴드와 NDWI 영상을 입력으로 사용하고 영상 분할 알고리즘을 이용하여 생성된 영역 정보와 영상 분류 결과를 융합한다. 차세대중형위성1호 영상을 이용한 실험결과에서 RGB 밴드와 NDWI를 이용한 분류 방법은 전체 정확도 93.7%, 카파 계수 90.6%의 정확도를 보였다. 이는 RGB 밴드만을 이용 방법, RGB 밴드와 NIR 밴드를 이용한 방법, RGB 밴드와 NDVI를 이용한 방법들 보다 전체 정확도는 10%p, 6.0%p, 7.0%p 높은 결과이며 카파 계수는 14.4%p, 8.7%p, 9.9%p 높은 결과이다. 또한 RGB 밴드와 NDWI를 이용한 분류 방법은 나지의 사용자 정확도가 RGB 밴드만을 이용한 방법보다 다소 낮은 점을 제외하고는 모든 클래스의 사용자 정확도, 생산자 정확도가 나머지 다른 방법들의 정확도보다 높은 결과를 보여준다.
특히 수계의 경우 제안한 방법은 생산자 정확도와 사용자 정확도가 모두 100.0%의 결과를 보였다. 이는NDWI 밴드 영상을 입력 영상으로 사용하여 수계 분류의 정확도를 크게 향상시키고 전체 정확도도 함께 향상시킬 수 있음을 보여준다. 제안한 방법은 수계 밝기값 특성과 매우 유사한 일부 건물과 그림자 영역은 수계로 잘못 분류된 결과를 보이기도 했다. 그림자 영역의 면적은 작고 형태는 좁고 긴 특성을 형태학적으로 분석하면 분류 정확도를 보다 향상시킬 수 있으리라 판단된다. 다만, 제안한 방법은 정규수계지수를 이용하여 수계 분류의 정확도를 크게 향상시킬수 있으나 수계가 없는 지역의 영상에 대해서는 NDWI를 이용한 분류 정확도 향상에 제한이 있으리라 판단된다.
제안한 방법은 고해상도 원격탐사 영상에서 분할된 영역 단위로 객체 분류 결과를 생성한다. 이러한 영역 단위 분류 결과는 딥러닝 시스템의 입력으로 사용하거나 딥러닝 시스템의 특징 영상과 융합하는 방식으로 사용하여 영상 분류의 정확도를 향상시키는데 활용할 수 있다. 또한 딥러닝 시스템에서 사용되는 학습 데이터의 라벨링을 구축하는 과정에도 활용될 수 있다. 전체 정확도가 93.7%인 제안한 방법의 분류 결과는 딥러닝 학습 데이터셋 구축시 라벨링 생성 과정에서 초기 기초 자료로 활용하거나, 수작업으로 구축되는 보다 정확한 라벨링 데이터와 함께 학습 데이터로 활용될 수 있다. 이 경우 영상 분류를 통해 얻어진 라벨링 데이터는 일종의 잡음 데이터셋(noisy dataset)으로 사용하여, 잡음이 포함되지 않은 정확한 라벨링 데이터셋(clean dataset)과 함께 딥러닝 시스템의 성능을 향상시키는데 활용될 수 있으리라 판단된다.
이 연구는 2024년도 극동대학교 교내연구비 지원에 의해 수행된 것임(과제번호: FEU2024S06).
No potential conflict of interest relevant to this article was reported.
Table 1 . Number of class types and subclasses defined in the experimental image for object-based classification.
Image | Class type | No. of subclasses |
---|---|---|
CAS 500-1 image | Building | 7 |
Road | 4 | |
Vegetation | 1 | |
Water | 1 | |
Bare ground | 2 | |
Total | 15 |
Table 2 . Accuracy assessment of the classification method using RGB bands.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 15 | 9 | 38 | 36.8 |
Bare ground | 0 | 12 | 5 | 7 | 0 | 24 | 50.0 |
Building | 0 | 0 | 110 | 2 | 0 | 112 | 98.2 |
Road | 0 | 0 | 9 | 96 | 2 | 107 | 89.7 |
Vegetation | 0 | 0 | 0 | 0 | 19 | 19 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 88.7 | 80.0 | 63.3 | ||
O.A. (%) | 83.7 | ||||||
K.C. (%) | 76.2 |
U.A.: user’s accuracy, P.A.: producer’s accuracy, O.A.: overall accuracy, K.C.: kappa coefficient..
Table 3 . Accuracy assessment of the classification method using RGB bands and NIR band.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 10 | 3 | 27 | 51.9 |
Bare ground | 0 | 10 | 6 | 8 | 1 | 25 | 40.0 |
Building | 0 | 2 | 112 | 1 | 0 | 115 | 97.4 |
Road | 0 | 0 | 6 | 101 | 0 | 107 | 94.4 |
Vegetation | 0 | 0 | 0 | 0 | 26 | 26 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 83.3 | 90.3 | 84.2 | 86.7 | ||
O.A. (%) | 87.7 | ||||||
K.C. (%) | 81.9 |
Table 4 . Accuracy assessment of the proposed classification method using RGB bands and NDVI image.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 13 | 0 | 27 | 51.9 |
Bare ground | 0 | 12 | 5 | 11 | 1 | 29 | 41.4 |
Building | 0 | 0 | 112 | 2 | 1 | 115 | 97.4 |
Road | 0 | 0 | 7 | 94 | 0 | 101 | 93.0 |
Vegetation | 0 | 0 | 0 | 0 | 28 | 28 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 90.3 | 78.3 | 93.3 | ||
O.A. (%) | 86.7 | ||||||
K.C. (%) | 80.7 |
Table 5 . Accuracy assessment of the proposed classification method using RGB bands and NDWI image.
Water | Bare ground | Building | Road | Vegetation | Row sum | U.A. (%) | |
---|---|---|---|---|---|---|---|
Water | 14 | 0 | 0 | 0 | 0 | 14 | 100.0 |
Bare ground | 0 | 12 | 6 | 6 | 1 | 25 | 48.0 |
Building | 0 | 0 | 113 | 1 | 0 | 114 | 99.1 |
Road | 0 | 0 | 5 | 113 | 0 | 118 | 95.7 |
Vegetation | 0 | 0 | 0 | 0 | 29 | 29 | 100.0 |
Column sum | 14 | 12 | 124 | 120 | 30 | 300 | |
P.A. (%) | 100.0 | 100.0 | 91.1 | 94.2 | 96.7 | ||
O.A. (%) | 93.7 | ||||||
K.C. (%) | 90.6 |
Kwang-Jae Lee, Kwan-Young Oh, Sun-Gu Lee
Korean J. Remote Sens. 2024; 40(6): 1391-1395Hagyu Jeong1)·Jongsoo Park1)·Dalgeun Lee2)·Junwoo Lee3)
Korean J. Remote Sens. 2022; 38(6): 1777-1788Gyeong-Su Jeong, Jong-Hwa Park
Korean J. Remote Sens. 2025; 41(1): 73-86