KR20210133611A - Demographic analysis system and operating method of the same - Google Patents

Demographic analysis system and operating method of the same Download PDF

Info

Publication number
KR20210133611A
KR20210133611A KR1020200052428A KR20200052428A KR20210133611A KR 20210133611 A KR20210133611 A KR 20210133611A KR 1020200052428 A KR1020200052428 A KR 1020200052428A KR 20200052428 A KR20200052428 A KR 20200052428A KR 20210133611 A KR20210133611 A KR 20210133611A
Authority
KR
South Korea
Prior art keywords
features
demographic
image
target
result
Prior art date
Application number
KR1020200052428A
Other languages
Korean (ko)
Inventor
차미영
한성원
안동현
차현지
Original Assignee
기초과학연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 기초과학연구원 filed Critical 기초과학연구원
Priority to KR1020200052428A priority Critical patent/KR20210133611A/en
Publication of KR20210133611A publication Critical patent/KR20210133611A/en

Links

Images

Classifications

    • G06K9/00624
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/46
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Economics (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a demographic analysis system and an operation method thereof. The demographic analysis system according to an embodiment of the present invention includes an image extractor and an image analyzer. The image extractor extracts, from a captured image, tiles in which the number of vertexes overlapping with a target region is greater than the number of vertexes non-overlapping with the target region, and generates target images. The image analyzer extracts features respectively corresponding to the target images based on a trained neural network model, and generates a demographic result of the target region based on the extracted features.

Description

인구 통계 분석 시스템 및 이의 동작 방법{DEMOGRAPHIC ANALYSIS SYSTEM AND OPERATING METHOD OF THE SAME}DEMOGRAPHIC ANALYSIS SYSTEM AND OPERATING METHOD OF THE SAME

본 발명은 인구 통계 분석 시스템 및 이의 동작 방법에 관한 것으로, 좀 더 구체적으로 위성 이미지 기반의 인구 통계 분석 시스템 및 이의 동작 방법에 관한 것이다.The present invention relates to a demographic analysis system and an operating method thereof, and more particularly, to a satellite image-based demographic analysis system and an operating method thereof.

원격 감지 기술을 통하여 획득된 위성 이미지는 해당 영역에 방문하지 않고도 인간의 활동 및 지형에 관한 유용한 정보를 제공할 수 있다. 위성 이미지는 광범위한 지리적인 정보를 제공하는 점에서, 다양한 통계에 활용될 수 있다. 나아가, 기술 발전에 따라, 위성 이미지의 해상도가 높아지고 있다. 이에 따라, 위성 이미지를 통하여, 특정 지역의 인구 통계, 나아가 특정 영역의 경제적 규모가 분석될 수 있다. 또한, 위성 이미지를 통하여, 시간의 흐름에 따른 특정 영역의 변화가 분석될 수도 있다. Satellite imagery acquired through remote sensing technology can provide useful information about human activity and topography without visiting the area. Since satellite imagery provides a wide range of geographic information, it can be utilized for various statistics. Furthermore, with the development of technology, the resolution of the satellite image is increasing. Accordingly, through the satellite image, demographics of a specific region, and furthermore, the economic size of the specific region can be analyzed. In addition, a change in a specific area over time may be analyzed through the satellite image.

기존에는 위성 이미지를 이용한 통계 분석이 수작업으로 수행되었다. 그러나, 데이터 처리 기술의 발달에 따라 전자 장치 또는 시스템으로 구현된 분석 모델을 통하여 위성 이미지를 분석하기 위한 요구가 제기되고 있다. 특히, 위성 이미지를 효율적으로 처리하고 분석하여, 처리 속도 및 분석 정확도를 개선하는 방안이 요구된다.Conventionally, statistical analysis using satellite images was performed manually. However, with the development of data processing technology, there is a demand for analyzing a satellite image through an analysis model implemented in an electronic device or system. In particular, there is a need for a method for efficiently processing and analyzing satellite images to improve processing speed and analysis accuracy.

본 발명은 다양한 지형들에 적용 가능하고, 분석 결과의 정확도를 개선할 수 있는 인구 통계 분석 시스템 및 이의 동작 방법을 제공할 수 있다.The present invention can provide a demographic analysis system and an operating method thereof that can be applied to various terrains and can improve the accuracy of analysis results.

본 발명의 실시 예에 따른 인구 통계 분석 시스템은 영상 추출기 및 영상 분석기를 포함한다. 영상 추출기는 촬영 이미지에서, 타겟 영역과 중첩하는 꼭지점의 개수가 타겟 영역과 비중첩하는 꼭지점의 개수보다 많은 타일들을 추출하여, 타겟 이미지들을 생성한다. 영상 분석기는 학습된 신경망 모델에 기초하여 타겟 이미지들에 각각 대응되는 특징들을 추출하고, 추출된 특징들에 기초하여 타겟 영역의 인구 통계 결과를 생성한다.A demographic analysis system according to an embodiment of the present invention includes an image extractor and an image analyzer. The image extractor generates target images by extracting tiles from the captured image in which the number of vertices overlapping the target region is greater than the number of vertices that do not overlap the target region. The image analyzer extracts features respectively corresponding to target images based on the learned neural network model, and generates demographic results of the target region based on the extracted features.

일례로, 영상 추출기는 타겟 영역과 중첩하는 꼭지점의 개수가 3개 이상인 타일들을 추출하여, 타겟 이미지들을 생성할 수 있다.For example, the image extractor may generate target images by extracting tiles having three or more vertices overlapping the target area.

일례로, 사각형 위성 이미지 타일을 사용하는 경우 영상 분석기는, 제1 컨볼루션 신경망을 통하여 레이블링된 이미지를 분석한 결과 및 레이블링된 이미지에 대응하는 인구 통계 결과의 실측값에 기초하여, 교차 엔트로피 오차를 계산하고, 제1 컨볼루션 신경망을 통하여 레이블링되지 않은 이미지를 분석한 결과 및 제2 컨볼루션 신경망을 통하여 레이블링되지 않은 이미지를 분석한 결과에 기초하여, 평균 제곱 오차를 계산하고, 교차 엔트로피 오차 및 평균 제곱 오차에 기초하여, 제1 컨볼루션 신경망을 조정함으로써, 상기 분석 모델을 학습할 수 있다. 일례로, 영상 분석기는 조정된 제1 컨볼루션 신경망에 기초하여 타겟 이미지들에 각각 대응되는 특징들을 추출할 수 있다.For example, when using a rectangular satellite image tile, the image analyzer calculates the cross entropy error based on the measured value of the result of analyzing the labeled image through the first convolutional neural network and the demographic result corresponding to the labeled image. Calculate, based on the result of analyzing the unlabeled image through the first convolutional neural network and the result of analyzing the unlabeled image through the second convolutional neural network, calculate the mean square error, cross-entropy error and average The analytic model may be trained by adjusting the first convolutional neural network based on the squared error. As an example, the image analyzer may extract features respectively corresponding to target images based on the adjusted first convolutional neural network.

일례로, 영상 분석기는, 추출된 특징들의 각각을 미리 설정된 클래스들 중 어느 하나로 분류하고, 미리 설정된 클래스들 중 타겟 클래스로 분류된 특징들을 제거할 수 있다. 일례로, 영상 분석기는, 추출된 특징들을 도시 클래스, 시골 클래스, 및 사람이 살지 않는 클래스로 분류하고, 타겟 클래스는 사람이 살지 않는 클래스일 수 있다.For example, the image analyzer may classify each of the extracted features into any one of preset classes, and remove features classified as a target class from among the preset classes. For example, the image analyzer may classify the extracted features into an urban class, a rural class, and a non-inhabited class, and the target class may be a non-inhabited class.

일례로, 영상 분석기는, 추출된 특징들의 분산에 기초하여 결정된 차원으로, 추출된 특징들의 차원을 축소할 수 있다. 일례로, 영상 분석기는, 추출된 특징들 각각의 분류된 클래스에 기초하여, 추출된 특징들의 적어도 일부를 제거하고 추출된 특징들의 차원을 축소하여, 차원 축소된 특징들을 생성하고, 차원 축소된 특징들의 평균, 분산, 개수, 및 상관 관계에 기초하여, 고정 길이를 갖는 통계 표현을 생성하고, 통계 표현에 기초하여 인구 통계 결과를 생성할 수 있다. 일례로, 인구 통계 결과는 타겟 영역에 대한 인구, 연령, 교육 수준, 가구 수, 및 경제 규모, 평균 소득, 사업자 수, 및 산업화도 중 적어도 하나를 포함할 수 있다.For example, the image analyzer may reduce the dimension of the extracted features to a dimension determined based on the variance of the extracted features. As an example, the image analyzer may generate dimensionally reduced features by removing at least a portion of the extracted features and reducing dimensions of the extracted features, based on the classified class of each of the extracted features, and generating the dimensionally reduced features. Based on the mean, variance, number, and correlation of , a statistical expression having a fixed length may be generated, and a demographic result may be generated based on the statistical expression. For example, the demographic result may include at least one of population, age, education level, number of households, and economic size, average income, number of business owners, and industrialization degree for the target area.

본 발명의 실시 예에 따른 인구 통계 분석 시스템은 영상 추출기, 학습기, 특징 추출기, 차원 축소기, 및 결과 생성기를 포함한다. 영상 추출기는 촬영 이미지에서, 타겟 영역과 적어도 일부 중첩하는 타겟 이미지들을 생성한다. 학습기는 레이블링된 이미지들 및 레이블링된 이미지들보다 많은 개수의 레이블링되지 않은 이미지들에 기초하여, 분석 모델을 학습한다. 특징 추출기는 학습된 분석 모델에 기초하여, 타겟 이미지들의 특징들을 추출하고, 추출된 특징들의 각각을 미리 설정된 클래스들 중 어느 하나로 분류하고, 미리 설정된 클래스들 중 타겟 클래스로 분류된 특징들을 제거하여, 프루닝된 특징들을 생성한다. 차원 축소기는 프루닝된 특징들의 차원을 축소하여 차원 축소된 특징들을 생성한다. 결과 생성기는 차원 축소된 특징들에 기초하여 타겟 영역의 인구 통계 결과를 생성한다.A demographic analysis system according to an embodiment of the present invention includes an image extractor, a learner, a feature extractor, a dimension reducer, and a result generator. The image extractor generates target images that at least partially overlap the target area from the captured image. The learner learns an analytic model based on the labeled images and the number of unlabeled images greater than the labeled images. The feature extractor extracts features of target images based on the learned analysis model, classifies each of the extracted features into any one of preset classes, and removes features classified as a target class from among preset classes, Generate pruned features. The dimension reducer reduces the dimensionality of the pruned features to generate dimensionally reduced features. The result generator generates a demographic result of the target region based on the dimensionally reduced features.

일례로, 영상 추출기는 타겟 영역과 중첩하는 꼭지점의 개수가 타겟 영역과 비중첩하는 꼭지점의 개수보다 많은 타일들을 추출하여, 타겟 이미지들을 생성할 수 있다.For example, the image extractor may generate target images by extracting tiles in which the number of vertices overlapping the target region is greater than the number of vertices that do not overlap the target region.

일례로, 학습기는, 레이블링된 이미지들을 분석하여 제1 결과를 생성하고, 레이블링되지 않은 이미지들을 분석하여 제2 결과를 생성하는 제1 신경망, 제1 결과 및 레이블링된 이미지들에 대응하는 인구 통계 결과의 실측값에 기초하여, 교차 엔트로피 오차를 계산하는 제1 오차 계산기, 제1 신경망의 지수 이동 평균에 의존하는 가중치에 기초하여, 레이블링되지 않은 이미지들을 분석하여 제3 결과를 생성하는 제2 신경망, 제2 결과 및 제3 결과의 차이에 기초하여, 평균 제곱 오차를 계산하는 제2 오차 계산기, 및 교차 엔트로피 오차 및 평균 제곱 오차를 가중합 연산하여, 총 손실을 계산하는 가중합 계산기를 포함할 수 있다. 일례로, 가중합 계산기는 교차 엔트로피 오차를 가중치가 부여된 평균 제곱 오차에 더하여 총 손실을 계산하고, 평균 제곱 오차에 부여되는 가중치는 설정된 학습 횟수 동안 증가할 수 있다. 일례로, 학습기는 총 손실이 기준 범위 이내일 때까지 제1 신경망의 가중치를 조정할 수 있다.In one example, the learner generates a first result by analyzing labeled images, a first neural network that analyzes unlabeled images to generate a second result, a first result and a demographic result corresponding to the labeled images A first error calculator that calculates a cross entropy error based on the measured value of , a second neural network that analyzes unlabeled images based on a weight dependent on the exponential moving average of the first neural network to generate a third result; a second error calculator for calculating a mean square error based on the difference between the second result and the third result, and a weighted sum calculator for calculating a total loss by performing a weighted sum operation on the cross entropy error and the mean square error have. As an example, the weighted sum calculator calculates the total loss by adding the cross entropy error to the weighted mean square error, and the weight given to the mean square error may increase for a set number of learning times. As an example, the learner may adjust the weight of the first neural network until the total loss is within the reference range.

일례로, 타겟 클래스는 사람이 살지 않는 클래스일 수 있다. 일례로, 차원 축소기는, 프루닝된 특징들로부터 최대 분산을 갖는 주성분들을 추출하고, 추출된 주성분들에 기초하여 프루닝된 특징들의 축소되는 차원을 결정하는 주성분 분석기를 포함할 수 있다. 일례로, 결과 생성기는, 차원 축소된 특징들의 평균, 분산, 개수, 및 상관 관계에 기초하여, 고정 길이를 갖는 통계 표현을 생성하는 통계 계산기, 및 통계 표현의 회귀 분석에 기초하여 인구 통계 결과를 생성하는 회귀 분석기를 포함할 수 있다.For example, the target class may be a non-human class. As an example, the dimensionality reducer may include a principal component analyzer that extracts principal components having a maximum variance from the pruned features and determines a reduced dimension of the pruned features based on the extracted principal components. In one example, the result generator is a statistical calculator that generates a statistical expression having a fixed length based on the mean, variance, number, and correlation of the dimensionally reduced features, and a demographic result based on a regression analysis of the statistical expression. It may include a regression analyzer that generates

본 발명의 실시 예에 따른 인구 통계 분석 시스템의 동작 방법은, 이미지를 수신하는 단계, 이미지에서 타겟 영역과 중첩하는 꼭지점의 개수가 타겟 영역과 비중첩하는 꼭지점의 개수보다 많은 타일들을 추출하여, 타겟 이미지들을 생성하는 단계, 컨볼루션 신경망을 통하여 타겟 이미지들 각각의 특징들을 도시 클래스, 시골 클래스, 및 사람이 살지 않는 클래스 중 하나로 분류하는 단계, 및 도시 클래스 및 시골 클래스로 분류된 특징들에 기초하여 인구 통계 결과를 생성하는 단계를 포함한다.The method of operating a demographic analysis system according to an embodiment of the present invention includes the steps of receiving an image, extracting tiles in which the number of vertices overlapping a target area in the image is greater than the number of vertices overlapping the target area, generating images, classifying features of each of the target images through a convolutional neural network into one of an urban class, a rural class, and a non-inhabited class, and based on the features classified into the urban class and the rural class generating demographic results.

일례로, 상기 방법은, 레이블링된 이미지들 및 레이블링되지 않은 이미지들을 수신하는 단계, 컨볼루션 신경망을 통하여 레이블링된 이미지들을 분석하여, 컨볼루션 신경망의 교차 엔트로피 오차를 계산하는 단계, 컨볼루션 신경망 및 제2 컨볼루션 신경망을 통하여 레이블링되지 않은 이미지들을 분석하여, 컨볼루션 신경망 및 제2 컨볼루션 신경망 사이의 평균 제곱 오차를 계산하는 단계, 및 교차 엔트로피 오차 및 평균 제곱 오차에 기초하여, 컨볼루션 신경망의 가중치를 조정하는 단계를 더 포함할 수 있다. In one example, the method includes receiving labeled images and unlabeled images, analyzing the labeled images through a convolutional neural network, and calculating a cross-entropy error of the convolutional neural network, the convolutional neural network and the first 2 analyzing unlabeled images through the convolutional neural network to calculate a mean squared error between the convolutional neural network and the second convolutional neural network, and based on the cross-entropy error and the mean squared error, the weight of the convolutional neural network It may further include the step of adjusting

일례로, 도시 클래스 및 시골 클래스로 분류된 특징들에 기초하여 인구 통계 결과를 생성하는 단계는, 도시 클래스 및 시골 클래스로 분류된 특징들의 차원을 축소하는 단계, 차원 축소된 특징들의 통계를 계산하여, 고정 길이를 갖는 통계 표현을 생성하는 단계, 및 통계 표현에 기초하여 타겟 영역의 인구 통계 결과를 계산하는 단계를 포함할 수 있다.As an example, generating the demographic result based on the features classified into the city class and the rural class may include reducing the dimensions of the features classified into the city class and the rural class, calculating statistics of the dimensionally reduced features, , generating a statistical representation having a fixed length, and calculating a demographic result of the target region based on the statistical representation.

본 발명의 실시 예에 따른 인구 통계 분석 시스템 및 이의 동작 방법은 타겟 영역에 대응되는 타일들을 추출하여, 타겟 영역의 분석 정확도 및 데이터 처리 속도를 개선할 수 있다. 또한, 본 발명의 실시 예에 따른 인구 통계 분석 시스템 및 이의 동작 방법은 인구 통계 결과 생성에 최적화된 분석 모델을 이용함으로써, 타겟 영역의 인구 통계 결과의 정확성 및 신뢰성을 개선할 수 있다. A demographic analysis system and an operating method thereof according to an embodiment of the present invention may extract tiles corresponding to a target area to improve analysis accuracy and data processing speed of the target area. In addition, the demographic analysis system and the operating method thereof according to an embodiment of the present invention can improve the accuracy and reliability of the demographic results of the target area by using an analysis model optimized for generating the demographic results.

도 1은 본 발명의 실시 예에 따른 인구 통계 분석 시스템의 블록도이다
도 2는 도 1의 영상 추출기의 동작을 설명하기 위한 도면이다.
도 3은 도 1의 영상 분석기의 예시적인 블록도이다.
도 4는 도 3의 학습기의 예시적인 도면이다.
도 5는 도 3의 특징 추출기의 예시적인 도면이다.
도 6은 도 3의 차원 축소기의 예시적인 도면이다.
도 7은 상술된 과정 하에 생성된 특징들을 3차원 벡터 공간에 표현한 예시적인 도면이다.
도 8은 도 3의 결과 생성기의 예시적인 도면이다.
도 9는 도 1의 인구 통계 분석 시스템의 예시적인 블록도이다.
도 10은 도 1 내지 도 9를 통하여 설명된 인구 통계 분석 시스템의 동작 방법의 예시적인 순서도이다.
1 is a block diagram of a demographic analysis system according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining an operation of the image extractor of FIG. 1 .
3 is an exemplary block diagram of the image analyzer of FIG. 1 .
FIG. 4 is an exemplary diagram of the learner of FIG. 3 .
5 is an exemplary diagram of the feature extractor of FIG. 3 .
6 is an exemplary diagram of the dimension reducer of FIG. 3 ;
7 is an exemplary diagram expressing features generated under the above-described process in a three-dimensional vector space.
FIG. 8 is an exemplary diagram of the result generator of FIG. 3 ;
9 is an exemplary block diagram of the demographic analysis system of FIG. 1 ;
10 is an exemplary flowchart of an operating method of the demographic analysis system described with reference to FIGS. 1 to 9 .

아래에서는, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재된다.Hereinafter, embodiments of the present invention will be described clearly and in detail to the extent that those skilled in the art can easily practice the present invention.

상세한 설명에서 사용되는 ~부 또는 유닛(unit), 모듈(module), 블록(block), ~기(~or, ~er) 등의 용어들을 참조하여 설명되는 구성 요소들 및 도면에 도시된 기능 블록들은 소프트웨어, 또는 하드웨어, 또는 그것들의 조합의 형태로 구현될 수 있다. 예시적으로, 소프트웨어는 기계 코드, 펌웨어, 임베디드 코드, 및 애플리케이션 소프트웨어일 수 있다. 예를 들어, 하드웨어는 전기 회로, 전자 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어들, 압력 센서, 관성 센서, 멤즈 (microelectromechanical system; MEMS), 수동 소자, 또는 그것들의 조합을 포함할 수 있다. Components described with reference to terms such as -part or unit, module, block, -or, -er, etc. used in the detailed description and functional blocks shown in the drawings These may be implemented in the form of software, hardware, or a combination thereof. Illustratively, the software may be machine code, firmware, embedded code, and application software. For example, the hardware may include an electrical circuit, an electronic circuit, a processor, a computer, an integrated circuit, integrated circuit cores, a pressure sensor, an inertial sensor, a microelectromechanical system (MEMS), a passive element, or a combination thereof. .

도 1은 본 발명의 실시 예에 따른 인구 통계 분석 시스템의 블록도이다. 도 1을 참조하면, 인구 통계 분석 시스템(100)은 영상 추출기(110) 및 영상 분석기(120)를 포함한다. 인구 통계 분석 시스템(100)은 촬영 이미지를 이용하여, 타겟 영역의 인구 통계 결과(PR)를 예측할 수 있다. 예를 들어, 촬영 이미지는 인공 위성, 항공기, 드론, 또는 고고도에서 지상을 촬영할 수 있는 다양한 기기에 의해 촬영된 이미지일 수 있다. 다만, 설명의 간략화를 위해, 이하 본 명세서에서 촬영 이미지는 인공 위성에 의해 촬영된 위성 이미지(SI)인 것으로 가정한다.1 is a block diagram of a demographic analysis system according to an embodiment of the present invention. Referring to FIG. 1 , the demographic analysis system 100 includes an image extractor 110 and an image analyzer 120 . The demographic analysis system 100 may predict a demographic result PR of the target region by using the captured image. For example, the captured image may be an image captured by an artificial satellite, an aircraft, a drone, or various devices capable of capturing the ground at a high altitude. However, for the sake of simplicity, it is assumed that the captured image in the present specification is a satellite image (SI) captured by an artificial satellite.

영상 추출기(110)는 위성 이미지(SI)에 기초하여 타겟 이미지들(TI)을 생성할 수 있다. 영상 추출기(110)는 위성 이미지(SI)를 외부로부터 수신하고, 위성 이미지(SI)로부터 인구 통계 분석을 위한 타겟 영역을 정의할 수 있다. 영상 추출기(110)는 타겟 영역에 대응되는 타겟 이미지들(TI)을 추출할 수 있다. 타겟 이미지들(TI) 각각은 기설정된 형상을 갖는 타일일 수 있다. 일례로, 타일은 컨볼루션 뉴럴 네트워크(convolutional neural network; CNN) 분석에 용이한 사각 형상을 가질 수 있으나, 이에 제한되지 않는다. The image extractor 110 may generate target images TI based on the satellite image SI. The image extractor 110 may receive the satellite image SI from the outside, and define a target area for demographic analysis from the satellite image SI. The image extractor 110 may extract target images TI corresponding to the target area. Each of the target images TI may be a tile having a predetermined shape. As an example, the tile may have a rectangular shape that is easy for convolutional neural network (CNN) analysis, but is not limited thereto.

영상 추출기(110)는 타겟 영역에 중첩하는 꼭지점(Vertex)들의 개수가 타겟 영역에 비중첩하는 꼭지점들의 개수보다 많은 타일들을 타겟 이미지들(TI)로 추출할 수 있다. 일례로, 타일이 꼭지점들의 개수가 4개인 사각 형상인 경우, 3개 이상의 꼭지점들의 개수가 타겟 영역에 중첩하는 타일들이 타겟 이미지들(TI)로 추출될 수 있다. 이에 따라, 인구 통계 분석에 불필요한 이미지들이 제거될 수 있고, 복잡한 지형에서도 효율적으로 인구 통계 분석을 위한 데이터가 추출될 수 있다. 이에 따라, 인구 통계 분석의 효율성 및 정확성이 개선될 수 있다.The image extractor 110 may extract more tiles as the target images TI in which the number of vertices overlapping the target area is greater than the number of vertices non-overlapping the target area. For example, when the tile has a rectangular shape having four vertices, tiles having three or more vertices overlapping the target area may be extracted as the target images TI. Accordingly, images unnecessary for demographic analysis may be removed, and data for demographic analysis may be efficiently extracted even in complex terrain. Accordingly, the efficiency and accuracy of demographic analysis can be improved.

영상 분석기(120)는 타겟 이미지들(TI)을 각각 분석하여, 타겟 영역의 인구 통계 결과(PR)를 생성할 수 있다. 영상 분석기(120)는 학습된 신경망 모델을 이용하여, 타겟 이미지들(TI)로부터 특징들을 추출할 수 있다. 영상 분석기(120)는 추출된 특징들에 기초하여, 타겟 이미지들(TI) 각각을 분류할 수 있다. 일례로, 타겟 이미지들(TI) 각각이 사람이 사는(inhabited) 영역인지, 사람이 살지 않는(uninhabited) 영역인지 구분될 수 있다. 일례로, 영상 분석기(120)는 사람이 살지 않는 영역에 대응되는 타겟 이미지들(TI)을 제거함으로써, 분석 효율을 증가시킬 수 있다. 또한, 사람이 사는(inhabited) 영역은 시골(rural) 영역에 가까운지 도시(urban) 영역에 가까운지 분석될 수 있다. 이러한 분석을 통하여, 타겟 영역의 인구 통계 결과(PR)가 계산될 수 있다. 영상 분석기(120)에 대한 구체적인 내용은 후술된다.The image analyzer 120 may analyze each of the target images TI to generate a demographic result PR of the target region. The image analyzer 120 may extract features from the target images TI by using the learned neural network model. The image analyzer 120 may classify each of the target images TI based on the extracted features. For example, each of the target images TI may be divided into an area in which a person lives or an area in which a person does not live. For example, the image analyzer 120 may increase the analysis efficiency by removing the target images TI corresponding to an area not inhabited by a person. In addition, it may be analyzed whether an inhabited area is close to a rural area or an urban area. Through this analysis, a demographic result (PR) of the target area can be calculated. Details of the image analyzer 120 will be described later.

도 2는 도 1의 영상 추출기의 동작을 설명하기 위한 도면이다. 도 2를 참조하면, 타겟 영역(TA)이 촬영된 위성 이미지(SI)가 도시된다. 위성 이미지(SI)는 인공 위성에 의하여 생성되며, 무선 통신을 통하여, 도 1의 인구 통계 분석 시스템(100)으로 제공될 수 있다.FIG. 2 is a diagram for explaining an operation of the image extractor of FIG. 1 . Referring to FIG. 2 , a satellite image SI in which the target area TA is captured is shown. The satellite image SI is generated by an artificial satellite and may be provided to the demographic analysis system 100 of FIG. 1 through wireless communication.

도 1의 영상 추출기(110)는 위성 이미지(SI)로부터 타겟 영역(TA)을 정의한다. 타겟 영역(TA)은 인구 통계 결과를 계산하기 위한 지리적 영역을 의미한다. 일례로, 타겟 영역(TA)은 행정 구역에 따라 결정될 수 있다. 영상 추출기(110)는 타겟 영역(TA)에 대응되는 타겟 이미지들(TI)을 추출할 수 있다. The image extractor 110 of FIG. 1 defines a target area TA from the satellite image SI. The target area TA refers to a geographic area for calculating demographic results. For example, the target area TA may be determined according to an administrative area. The image extractor 110 may extract target images TI corresponding to the target area TA.

일례로, 도 1의 영상 추출기(110)는 타겟 영역(TA) 내부에 존재하는 꼭지점들의 개수가 타겟 영역(TA)의 외부에 존재하는 꼭지점들의 개수보다 많은 타일들을 타겟 이미지들(TI)로 추출할 수 있다. 이에 따라, 도 2에서, 3개 이상의 꼭지점들의 개수가 타겟 영역(TA) 내부에 존재하는 타일들이 타겟 이미지들(TI)로 추출될 수 있다. 이에 따라, 분석 대상인 행정 구역과 무관한 불필요한 이미지들이 제거될 수 있다. 그리고, 경계가 복잡한 행정 구역에 대하여도, 효율적인 인구 통계 분석이 가능하다. As an example, the image extractor 110 of FIG. 1 extracts tiles in which the number of vertices existing inside the target area TA is greater than the number of vertices existing outside the target area TA as target images TI. can do. Accordingly, in FIG. 2 , tiles having three or more vertices in the target area TA may be extracted as target images TI. Accordingly, unnecessary images irrelevant to the administrative district to be analyzed may be removed. In addition, efficient demographic analysis is possible even for administrative districts with complex boundaries.

도 3은 도 1의 영상 분석기의 예시적인 블록도이다. 도 3을 참조하면, 영상 분석기(120)는 학습기(121), 특징 추출기(122), 차원 축소기(123), 및 결과 생성기(124)를 포함한다.3 is an exemplary block diagram of the image analyzer of FIG. 1 . Referring to FIG. 3 , the image analyzer 120 includes a learner 121 , a feature extractor 122 , a dimension reducer 123 , and a result generator 124 .

학습기(121)는 타겟 이미지들(TI)의 특징 추출을 위하여, CNN 기반의 분석 모델을 학습하도록 구현될 수 있다. 학습기(121)는 Mean Teacher 아키텍처에 의한 분석 모델을 사용할 수 있다. 학습기(121)는 분석 모델의 학습을 위하여, 레이블링된(labeled) 이미지(LI) 및 레이블링되지 않은(unlabeled) 이미지(ULI)를 수신할 수 있다. 레이블링된 이미지(LI)는 랜덤하게 선택된 위성 이미지들을 포함하고, 위성 이미지들은 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited) 세 개의 레이블들로 정의되는 세 개의 클래스들로 분류될 수 있다. 레이블링되지 않은 이미지(ULI)는 레이블링된 이미지(LI)보다 많은 개수의 위성 이미지들을 포함할 수 있다. The learner 121 may be implemented to learn a CNN-based analysis model for feature extraction of the target images TI. The learner 121 may use an analysis model by the Mean Teacher architecture. The learner 121 may receive a labeled image LI and an unlabeled image ULI for learning the analysis model. The labeled image LI contains randomly selected satellite images, and the satellite images are to be classified into three classes defined by three labels: urban, rural, and uninhabited. can The unlabeled image ULI may include a larger number of satellite images than the labeled image LI.

레이블링된 이미지(LI)는 제1 CNN (일례로, 스튜던트(student) 네트워크)에 의하여 분석될 수 있다. 학습기(121)는 제1 CNN의 분석 결과 및 정답(즉, 실측 데이터)(ground truth)에 기초하여, 교차 엔트로피 오차(Cross Entropy Error)를 계산할 수 있다. 레이블링되지 않은 이미지(ULI)는 제1 CNN 및 제2 CNN (일례로, 티처(teacher) 네트워크)에 의하여 분석될 수 있다. 제2 CNN의 가중치는 제1 CNN의 지수 평균 이동(Exponential Moving Average)을 따를 수 있다. 학습기(121)는 제1 CNN의 분석 결과와 제2 CNN의 분석 결과 사이의 차이에 기초하여, 평균 제곱 오차(Mean Squared Error)를 계산할 수 있다. 학습기(121)는 교차 엔트로피 오차와 가중치가 부여된 평균 제곱 오차를 합하여, 최종 손실을 계산할 수 있다. 학습기(121)는 계산된 최종 손실에 기초하여, 분석 모델을 미세 조정할 수 있다.The labeled image LI may be analyzed by a first CNN (eg, a student network). The learner 121 may calculate a cross entropy error based on an analysis result of the first CNN and a correct answer (ie, ground truth). The unlabeled image (ULI) may be analyzed by a first CNN and a second CNN (eg, a teacher network). The weight of the second CNN may follow the exponential moving average of the first CNN. The learner 121 may calculate a mean squared error based on a difference between the analysis result of the first CNN and the analysis result of the second CNN. The learner 121 may calculate the final loss by adding the cross entropy error and the weighted mean square error. The learner 121 may fine-tune the analysis model based on the calculated final loss.

특징 추출기(122)는 학습기(121)에 의하여 미세 조정된 분석 모델(MD)에 기초하여, 타겟 이미지들(TI)을 분석하고, 타겟 이미지들(TI)의 특징들을 추출할 수 있다. 여기에서, 미세 조정된 분석 모델(MD)은 제1 CNN일 수 있다. 특징 추출기(122)는 추출된 특징들 각각을 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited)과 같은 클래스들 중 하나로 분류할 수 있다. 특징 추출기(122)는 사람이 살지 않는 클래스로 분류된 특징들을 제거할 수 있다. 실질적으로, 사람이 사는 영역은 한정적이므로, 특징 추출기(122)의 특징들 제거(데이터 프루닝)에 따라, 정보의 품질이 향상되고 정보량이 감소할 수 있다. 이에 따라, 이후 단계들에서의 분석 효율 및 분석 속도가 개선될 수 있다.The feature extractor 122 may analyze the target images TI based on the analysis model MD fine-tuned by the learner 121 and extract features of the target images TI. Here, the fine-tuned analysis model MD may be the first CNN. The feature extractor 122 may classify each of the extracted features into one of classes such as urban, rural, and uninhabited. The feature extractor 122 may remove features classified as a non-human class. Practically, since the area in which a person lives is limited, the quality of information may be improved and the amount of information may be reduced according to the feature extraction (data pruning) of the feature extractor 122 . Accordingly, analysis efficiency and analysis speed in subsequent steps can be improved.

차원 축소기(123)는 특징 추출기(122)로부터 프루닝된 특징들(PF)의 차원을 축소할 수 있다. 차원 축소기(123)는 주성분 분석(Principal Component Analysis)을 통하여, 프루닝된 특징들(PF)의 차원을 축소할 수 있다. 차원 축소기(123)는 프루닝된 특징들(PF)로부터 최대 분산을 갖는 주성분들을 추출하고, 이러한 주성분들을 설명하는데 요구되는 차원을 결정할 수 있다. 차원 축소기(123)는 결정된 차원을 갖도록, 차원 축소된 특징들(RPF)을 생성할 수 있다.The dimension reducer 123 may reduce the dimension of the features PF pruned from the feature extractor 122 . The dimension reducer 123 may reduce the dimension of the pruned features PF through principal component analysis. The dimension reducer 123 may extract principal components having a maximum variance from the pruned features PF, and determine a dimension required to describe these principal components. The dimension reducer 123 may generate dimension-reduced features RPF to have the determined dimension.

결과 생성기(124)는 차원 축소된 특징들(RPF)에 기초하여, 타겟 영역의 인구 통계 결과(PR)을 생성할 수 있다. 결과 생성기(124)는 차원 축소된 특징들(RPF)의 평균, 표준 편차, 개수, 및 상관 관계(일례로, 피어슨 상관 계수)와 같은 통계들을 계산할 수 있다. 결과 생성기(124)는 계산된 통계들에 기초하여, 고정 길이를 갖는 통계 표현을 생성하고, 생성된 표현에 대한 회귀 분석을 통하여 인구 통계 결과(PR)를 생성할 수 있다. 일례로, 인구 통계 결과(PR)는 타겟 영역에 대한 인구, 연령, 교육 수준, 가구 수, 경제 규모 등 다양한 인구 통계적(demographic) 요인들을 포함할 수 있다. 나아가, 인구 통계 결과(PR)는 타겟 영역과 관련된 평균 소득, 사업자 수, 산업화도와 같은 경제 통계적 요인들을 더 포함할 수 있다.The result generator 124 may generate a demographic result PR of the target region based on the dimensionally reduced features RPF. Result generator 124 may calculate statistics such as mean, standard deviation, number, and correlation (eg, Pearson's correlation coefficient) of dimensionally reduced features (RPF). The result generator 124 may generate a statistical expression having a fixed length based on the calculated statistics, and generate a demographic result (PR) through regression analysis on the generated expression. For example, the demographic result PR may include various demographic factors such as population, age, education level, number of households, and economic size for the target area. Furthermore, the demographic result PR may further include economic statistical factors such as average income, the number of business operators, and the degree of industrialization related to the target area.

도 4는 도 3의 학습기의 예시적인 도면이다. 학습기(121)는 Mean Teacher 아키텍처에 의한 분석 모델을 사용할 수 있다. 도 4를 참조하면, 학습기(121)는 제1 CNN(SN), 제2 CNN(TN), 교차 엔트로피 오차 계산기(CC) (이하, CEE 계산기), 평균 제곱 오차 계산기(MC) (이하, MSE 계산기), 및 가중합 계산기(WC)를 포함할 수 있다. FIG. 4 is an exemplary diagram of the learner of FIG. 3 . The learner 121 may use an analysis model by the Mean Teacher architecture. Referring to FIG. 4 , the learner 121 includes a first CNN (SN), a second CNN (TN), a cross entropy error calculator (CC) (hereinafter, a CEE calculator), and a mean square error calculator (MC) (hereinafter, MSE). calculator), and a weighted sum calculator (WC).

제1 CNN(SN)은 Mean Teacher 아키텍처에서 스튜던트 네트워크일 수 있다. 제1 CNN(SN)은 레이블링된 이미지(LI)를 분석할 수 있다. 레이블링된 이미지(LI)는 랜덤하게 선택된 위성 이미지들을 포함한다. 레이블링된 이미지(LI)는 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited) 세 개의 레이블들 중 하나가 부여될 수 있다. 제1 CNN(SN)은 레이블링된 이미지(LI)를 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited) 클래스들 중 하나로 분류할 수 있다.The first CNN (SN) may be a student network in the Mean Teacher architecture. The first CNN (SN) may analyze the labeled image (LI). The labeled image LI includes randomly selected satellite images. The labeled image LI may be assigned one of three labels: urban, rural, and uninhabited. The first CNN(SN) may classify the labeled image LI into one of urban, rural, and uninhabited classes.

CEE 계산기(CC)는 제1 CNN(SN)에 의하여 분석된 결과에 대한 교차 엔트로피 오차, 즉 제1 손실(LL)을 계산할 수 있다. 제1 손실(LL)은 수학식 1과 같이 계산될 수 있다. The CEE calculator CC may calculate a cross entropy error for the result analyzed by the first CNN SN, that is, the first loss LL. The first loss LL may be calculated as in Equation 1.

Figure pat00001
Figure pat00001

수학식 1을 참조하면, gi는 정답 클래스 확률 (즉, 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited) 클래스들)로 정의되고, f(d)i는 i 영역에 대한 레이블링된 이미지(LI)를 제1 CNN(SN)으로 분석한 결과로 정의된다. Referring to Equation 1, g i is defined as the correct answer class probability (ie, urban, rural, uninhabited classes), and f(d)i is the It is defined as a result of analyzing the labeled image (LI) with the first CNN (SN).

제2 CNN(TN)은 Mean Teacher 아키텍처에서 티처 네트워크일 수 있다. 제1 CNN(SN) 및 제2 CNN(TN)은 레이블링되지 않은 이미지(ULI)를 분석할 수 있다. 레이블링되지 않은 이미지(ULI)는 레이블링된 이미지(LI)보다 많은 개수의 위성 이미지들을 포함할 수 있다. 제2 CNN의 가중치는 제1 CNN의 지수 평균 이동(Exponential Moving Average, EMA)에 따라 결정될 수 있다. 제1 CNN(SN)의 분석 결과 및 제2 CNN(TN)의 분석 결과는 MSE 계산기(MC)로 제공될 수 있다.The second CNN (TN) may be a teacher network in the Mean Teacher architecture. The first CNN (SN) and the second CNN (TN) may analyze the unlabeled image (ULI). The unlabeled image ULI may include a larger number of satellite images than the labeled image LI. The weight of the second CNN may be determined according to the exponential moving average (EMA) of the first CNN. The analysis result of the first CNN (SN) and the analysis result of the second CNN (TN) may be provided to the MSE calculator (MC).

MSE 계산기(MC)는 제1 CNN의 분석 결과와 제2 CNN의 분석 결과에 기초하여, 평균 제곱 오차, 즉 제2 손실(LU)을 계산할 수 있다. 제2 손실(LU)은 수학식 2와 같이 계산될 수 있다. The MSE calculator MC may calculate a mean square error, that is, a second loss LU, based on the analysis result of the first CNN and the analysis result of the second CNN. The second loss LU may be calculated as in Equation (2).

Figure pat00002
Figure pat00002

수학식 2를 참조하면, f(d)는 레이블링되지 않은 이미지(ULI)를 제1 CNN(SN)으로 분석한 결과로 정의되고, t(d)는 레이블링되지 않은 이미지(ULI)를 제2 CNN(TN)으로 분석한 결과로 정의된다.Referring to Equation 2, f(d) is defined as a result of analyzing an unlabeled image (ULI) with a first CNN (SN), and t(d) is an unlabeled image (ULI) with a second CNN It is defined as the result of analysis with (TN).

가중합 계산기(WC)는 제1 손실(LL) 및 제2 손실(LU)에 기초하여, 총 손실(LT)를 계산할 수 있다. 가중합 계산기(WC)는 제1 손실(LL)과 가중치가 부여된 제2 손실(LU)을 더하여, 최종 손실(LT)을 계산할 수 있다. 일례로, 제2 손실(LU)에 부여되는 가중치는 처음 설정된 주기 (일례로, 40 에포치(epoch)) 동안 (일례로, 0에서 12.5까지) 증가할 수 있다. 제1 CNN(SN)은 총 손실(LT)에 기초하여, 미세 조정된다. 학습기(121)는 제1 손실(LL), 제2 손실(LU), 및 총 손실(LT)이 기준 범위 이내로 감소하도록, 제1 CNN(SN)을 반복적으로 미세 조정할 수 있다. 여기에서, 기준 범위는 제1 CNN(SN)의 클래스 분류의 정확도가 인구 통계 결과의 특정 정확도를 담보할 수 있을 정도의 허용 범위일 수 있다. 미세 조정된 제1 CNN(SN)은 도 3의 특징 추출기(122)에서 타겟 이미지들(TI)을 분석하는데 사용된다.The weighted sum calculator WC may calculate a total loss LT based on the first loss LL and the second loss LU. The weighted sum calculator WC may calculate the final loss LT by adding the first loss LL and the weighted second loss LU. As an example, the weight given to the second loss (LU) may increase (eg, from 0 to 12.5) during an initially set period (eg, 40 epochs). The first CNN (SN) is fine-tuned based on the total loss (LT). The learner 121 may iteratively fine-tune the first CNN SN so that the first loss LL, the second loss LU, and the total loss LT decrease within a reference range. Here, the reference range may be an acceptable range such that the accuracy of class classification of the first CNN (SN) can guarantee a specific accuracy of the demographic result. The fine-tuned first CNN (SN) is used to analyze the target images (TI) in the feature extractor 122 of FIG. 3 .

도 5는 도 3의 특징 추출기의 예시적인 도면이다. 특징 추출기(122)는 Mean Teacher 아키텍처에 의하여 학습된 분석 모델을 사용할 수 있다. 도 5를 참조하면, 특징 추출기(122)는 학습기(121)에 의하여 미세 조정된 CNN(SN)에 기초하여, 타겟 이미지들(TI)을 분석할 수 있다.5 is an exemplary diagram of the feature extractor of FIG. 3 . The feature extractor 122 may use an analysis model learned by the Mean Teacher architecture. Referring to FIG. 5 , the feature extractor 122 may analyze target images TI based on the CNN (SN) fine-tuned by the learner 121 .

CNN(SN)은 도 4에서 학습된 제1 CNN(SN)에 대응된다. CNN(SN)은 타겟 이미지들(TI)의 특징들을 추출할 수 있다. CNN(SN)는 추출된 특징들 각각을 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited)과 같은 클래스들 중 하나로 분류할 수 있다. 특징 추출기(122)는 사람이 살지 않는 클래스로 분류된 특징들을 제거하여 프루닝된 특징들(PF)을 출력할 수 있다. 프루닝된 특징들(PF)은 도시 또는 시골에 대응되는 n개의 특징들(v1, v2, …, vn)로 이루어질 수 있다. 일례로, n은 프루닝된 타겟 이미지들의 개수일 수 있고, n개의 특징들(v1, v2, …, vn) 각각은 s 차원으로 표현될 수 있다. 일례로, s는 이미지의 픽셀들의 개수일 수 있다.The CNN (SN) corresponds to the first CNN (SN) learned in FIG. 4 . The CNN (SN) may extract features of the target images (TI). CNN(SN) may classify each of the extracted features into one of classes such as urban, rural, and uninhabited. The feature extractor 122 may output pruned features PF by removing features classified as non-human classes. The pruned features PF may include n features v1, v2, ..., vn corresponding to cities or countryside. As an example, n may be the number of pruned target images, and each of the n features (v1, v2, ..., vn) may be expressed in an s dimension. As an example, s may be the number of pixels in the image.

도 6은 도 3의 차원 축소기의 예시적인 도면이다. 차원 축소기(123)는 프루닝된 특징들(PF)의 차원을 축소할 수 있다. 도 6을 참조하면, 차원 축소기(123)는 주성분 분석기(PCA)를 포함할 수 있다.6 is an exemplary diagram of the dimension reducer of FIG. 3 ; The dimension reducer 123 may reduce the dimension of the pruned features PF. Referring to FIG. 6 , the dimension reducer 123 may include a principal component analyzer (PCA).

주성분 분석기(PCA)는 주성분 분석(Principal Component Analysis)을 통하여, 프루닝된 특징들(PF)의 차원을 축소할 수 있다. 주성분 분석기(PCA)는 프루닝된 특징들(PF)로부터 최대 분산을 갖는 주성분들을 추출하고, 이러한 주성분들을 설명하는데 요구되는 차원 k를 결정할 수 있다. 여기에서, k는 s보다 작고, 일례로 1에서 10까지의 값 중 하나일 수 있다. 주성분 분석기(PCA)는 프루닝된 특징들(PF)의 선형 직교 변환을 통하여, 차원 축소된 특징들(RPF)을 생성할 수 있다. 차원 축소된 특징들(RPF)은 n개의 특징들(v1', v2', …, vn')로 이루어질 수 있다. n개의 특징들(v1', v2', …, vn') 각각은 k 차원으로 표현될 수 있다.The principal component analyzer PCA may reduce the dimension of the pruned features PF through principal component analysis. A principal component analyzer (PCA) may extract the principal components with maximum variance from the pruned features (PF) and determine the dimension k required to describe these principal components. Here, k is smaller than s, and may be, for example, one of values from 1 to 10. The principal component analyzer (PCA) may generate dimensionally reduced features (RPF) through linear orthogonal transformation of the pruned features (PF). The dimensionally reduced features RPF may include n features v1', v2', ..., vn'. Each of the n features v1', v2', ..., vn' may be expressed in k dimensions.

도 7은 상술된 과정 하에 생성된 특징들을 3차원 벡터 공간에 표현한 예시적인 도면이다. 도 7을 참조하면, 3차원 벡터 공간에 특징들이 분포되어 있다. 일례로 분포된 특징들은 상술된 차원 축소된 특징들(RPF)일 수 있다. 특징들 각각은 상술된 타겟 이미지들(TI) 각각에 대응된다.7 is an exemplary diagram expressing features generated under the above-described process in a three-dimensional vector space. Referring to FIG. 7 , features are distributed in a 3D vector space. As an example, the distributed features may be the dimensionally reduced features (RPF) described above. Each of the features corresponds to each of the above-described target images TI.

도 7을 참조하면, 도시로 분류되는 특징들의 분포와 시골로 분류되는 특징들의 분포는 서로 다르게 나타날 수 있다. 일례로, 도시에 대응되는 특징들은 y축을 따라 높은 분산을 갖고, z축에서 높은 평균을 가질 수 있다. 일례로, 시골에 대응되는 특징들은 도시에 대응되는 특징들에 비하여 낮은 분산을 가질 수 있다. 시골에 대응되는 특징들은 도시에 대응되는 특징들에 비하여 z축에서 낮은 평균을 가질 수 있다. Referring to FIG. 7 , a distribution of features classified as a city and a distribution of features classified as a countryside may appear different from each other. For example, features corresponding to cities may have high variance along the y-axis and high mean along the z-axis. For example, features corresponding to rural areas may have a lower variance than features corresponding to cities. The features corresponding to the countryside may have a lower mean in the z-axis than the features corresponding to the city.

특징들 각각에 대응되는 타겟 이미지들(TI1~TI6)이 예시적으로 도시된다. 제1 타겟 이미지(TI1) 및 제2 타겟 이미지(TI2)는 시골 클래스로 분류될 수 있다. 시골에 대응되는 화살표로 진행할수록, 시골로 분류되는 경향이 강한 특징이 존재할 수 있다. 즉, 제1 타겟 이미지(TI1)에서 제2 타겟 이미지(TI2)로 진행할수록, 시골화되는 정도가 강하고, 추후 계산될 인구 등이 낮게 계산될 수 있다. 제3 내지 제6 타겟 이미지들(TI3, TI4, TI5, TI6)은 도시 클래스로 분류될 수 있다. 도시에 대응되는 화살표로 진행할수록, 도시로 분류되는 경향이 강한 특징이 존재할 수 있다. 즉, 제3 타겟 이미지(TI3)에서 제6 타겟 이미지(TI6)로 진행할수록, 도시화되는 정도가 강하고, 추후 계산될 인구 등이 높게 계산될 수 있다.Target images TI1 to TI6 corresponding to each of the features are illustrated by way of example. The first target image TI1 and the second target image TI2 may be classified into a rural class. As the arrow corresponding to the countryside progresses, there may be a strong tendency to be classified as a rural area. That is, as the first target image TI1 progresses to the second target image TI2 , the degree of ruralization is strong and the population to be calculated later may be calculated to be low. The third to sixth target images TI3 , TI4 , TI5 , and TI6 may be classified into city classes. As the arrow corresponding to a city progresses, a characteristic with a strong tendency to be classified as a city may exist. That is, as the third target image TI3 progresses to the sixth target image TI6, the degree of urbanization is strong, and the population to be calculated later may be calculated to be high.

도 8은 도 3의 결과 생성기의 예시적인 도면이다. 결과 생성기(124)는 앞의 과정들을 통하여 생성된 차원 축소된 특징들(RPF)에 기초하여, 타겟 영역의 인구 통계 결과(PR)을 생성할 수 있다. 도 8를 참조하면, 결과 생성기(124)는 통계 계산기(124_1) 및 회귀 분석기(124_2)를 포함할 수 있다.FIG. 8 is an exemplary diagram of the result generator of FIG. 3 ; The result generator 124 may generate the demographic result PR of the target region based on the dimensionally reduced features RPF generated through the above processes. Referring to FIG. 8 , the result generator 124 may include a statistical calculator 124_1 and a regression analyzer 124_2 .

통계 계산기(124_1)는 막대한 개수의 영역들로부터 고정 길이를 갖는 데이터인 통계 표현(Ri)을 생성하기 위하여, 차원 축소된 특징들(RPF)에 대한 통계 요인들을 계산할 수 있다. 일례로, 통계 계산기(124_1)는 차원 축소된 특징들(RPF)의 평균, 차원 축소된 특징들(RPF)의 표준 편차, 차원 축소된 특징들(RPF)의 개수, 및 차원 축소된 특징들(RPF) 사이의 상관 관계(일례로, 피어슨 상관 계수)를 계산할 수 있다. 통계 계산기(124_1)는 계산된 통계들을 연결하여, 고정 길이를 갖는 통계 표현(Ri)을 생성할 수 있다. 일례로, 통계 계산기(124_1)는 Concat 함수를 이용하여 계산된 통계들을 연결함으로써, 통계 표현(Ri)을 생성할 수 있다.The statistical calculator 124_1 may calculate statistical factors for the dimensionally reduced features RPF in order to generate a statistical representation Ri, which is data having a fixed length from a huge number of regions. As an example, the statistical calculator 124_1 calculates the average of the dimensionally reduced features (RPF), the standard deviation of the dimensionally reduced features (RPF), the number of the dimensionally reduced features (RPF), and the dimensionally reduced features ( RPF) can be calculated (eg, Pearson's correlation coefficient). The statistical calculator 124_1 may generate a statistical representation Ri having a fixed length by concatenating the calculated statistics. For example, the statistical calculator 124_1 may generate the statistical expression Ri by concatenating the calculated statistics using the Concat function.

회귀 분석기(124_2)는 통계 표현(Ri)에 대한 회귀 분석을 통하여, 타겟 영역의 인구 통계 결과(PR)를 생성할 수 있다. 인구 통계 결과(PR)는 타겟 영역에 대한 인구, 연령, 교육 수준, 가구 수, 경제 규모 등 다양한 인구 통계적(demographic) 요인들을 포함할 수 있다. 일례로, 도시화된 영역들이 많은 경우, 인구, 교육 수준, 가구 수, 경제 규모 등이 높게 나타날 수 있다. 일례로, 시골화된 영역들이 많은 경우, 인구, 교육 수준, 가구 수, 경제 규모 등이 낮게 나타날 수 있다.The regression analyzer 124_2 may generate a demographic result PR of the target region through regression analysis on the statistical expression Ri. The demographic result (PR) may include various demographic factors such as population, age, education level, number of households, and economic size for a target area. For example, when there are many urbanized areas, the population, education level, number of households, economic size, etc. may appear high. For example, if there are many rural areas, the population, education level, number of households, economic size, etc. may appear low.

도 9는 도 1의 인구 통계 분석 시스템의 예시적인 블록도이다. 도 9를 참조하면, 인구 통계 분석 시스템(1000)은 네트워크 인터페이스(1100), 프로세서(1200), 워킹 메모리(1300), 스토리지(1400), 및 버스(1500)를 포함할 수 있다. 9 is an exemplary block diagram of the demographic analysis system of FIG. 1 ; Referring to FIG. 9 , the demographic analysis system 1000 may include a network interface 1100 , a processor 1200 , a working memory 1300 , a storage 1400 , and a bus 1500 .

네트워크 인터페이스(1100)는 외부 전자 장치들과 통신하도록 구성된다. 네트워크 인터페이스(1100)는 인공 위성으로부터 생성된 위성 이미지를 수신하고, 수신된 위성 이미지를 버스(1500)를 통하여 프로세서(1200), 워킹 메모리(1300) 또는 스토리지(1400)에 제공할 수 있다. 네트워크 인터페이스(1100)는 위성 이미지를 분석하여 생성된 인구 통계 결과를 외부 장치로 송신할 수 있다.The network interface 1100 is configured to communicate with external electronic devices. The network interface 1100 may receive a satellite image generated from an artificial satellite, and provide the received satellite image to the processor 1200 , the working memory 1300 , or the storage 1400 through the bus 1500 . The network interface 1100 may transmit a demographic result generated by analyzing a satellite image to an external device.

프로세서(1200)는 인구 통계 분석 시스템(1000)의 중앙 처리 장치로의 기능을 수행할 수 있다. 프로세서(1200)는 인구 통계 분석 시스템(1000)의 데이터 관리, 학습, 및 예측을 위하여 요구되는 제어 동작 및 연산 동작을 수행할 수 있다. 예를 들어, 프로세서(1200)의 제어에 따라, 네트워크 인터페이스(1100)는 위성 이미지를 수신할 수 있다. 프로세서(1200)의 제어에 따라, 분석 모델을 학습할 수 있고, 학습된 분석 모델을 이용하여 인구 통계 결과를 계산할 수 있다. 프로세서(1200)는 워킹 메모리(1300)의 연산 공간을 활용하여 동작할 수 있고, 스토리지(1400)로부터 운영체제를 구동하기 위한 파일들 및 어플리케이션의 실행 파일들을 읽을 수 있다. 프로세서(1200)는 운영 체제 및 다양한 어플리케이션들을 실행할 수 있다.The processor 1200 may function as a central processing unit of the demographic analysis system 1000 . The processor 1200 may perform control operations and calculation operations required for data management, learning, and prediction of the demographic analysis system 1000 . For example, under the control of the processor 1200 , the network interface 1100 may receive a satellite image. Under the control of the processor 1200 , an analysis model may be learned, and a demographic result may be calculated using the learned analysis model. The processor 1200 may operate by utilizing the operation space of the working memory 1300 , and may read files for driving an operating system and executable files of applications from the storage 1400 . The processor 1200 may execute an operating system and various applications.

워킹 메모리(1300)는 프로세서(1200)에 의하여 처리되거나 처리될 예정인 데이터 및 프로세스 코드들을 저장할 수 있다. 예를 들어, 워킹 메모리(1300)는 위성 이미지들, 타겟 이미지를 추출하기 위한 정보들, 분석 모델을 학습하기 위한 정보들, 인구 통계 결과를 계산하기 위한 정보들, 및 분석 모델을 구축하기 위한 정보들을 저장할 수 있다. 워킹 메모리(1300)는 인구 통계 분석 시스템(1000)의 주기억 장치로 이용될 수 있다. 워킹 메모리(1300)는 DRAM (Dynamic RAM), SRAM (Static RAM), PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.The working memory 1300 may store data and process codes to be processed or to be processed by the processor 1200 . For example, the working memory 1300 may include satellite images, information for extracting a target image, information for learning an analysis model, information for calculating demographic results, and information for building an analysis model. can be saved The working memory 1300 may be used as a main memory device of the demographic analysis system 1000 . The working memory 1300 may include a dynamic RAM (DRAM), a static RAM (SRAM), a phase-change RAM (PRAM), a magnetic RAM (MRAM), a ferroelectric RAM (FeRAM), and a resistive RAM (RRAM).

영상 추출부(1310) 및 영상 분석부(1320)는 워킹 메모리(1300)에 로딩되어 실행될 수 있다. 영상 추출부(1310) 및 영상 분석부(1320)는 각각 도 1의 영상 추출기(110) 및 영상 분석기(120)에 대응된다. 영상 추출부(1310) 및 영상 분석부(1320)는 워킹 메모리(1300)의 연산 공간의 일부일 수 있다. 이 경우, 영상 추출부(1310) 및 영상 분석부(1320)는 펌웨어 또는 소프트웨어로 구현될 수 있다. 예를 들어, 펌웨어는 스토리지(1400)에 저장되고, 펌웨어를 실행 시에 워킹 메모리(1300)에 로딩될 수 있다. 프로세서(1200)는 메모리(1300)에 로딩된 펌웨어를 실행할 수 있다.The image extractor 1310 and the image analyzer 1320 may be loaded into the working memory 1300 and executed. The image extractor 1310 and the image analyzer 1320 correspond to the image extractor 110 and the image analyzer 120 of FIG. 1 , respectively. The image extractor 1310 and the image analyzer 1320 may be part of an operation space of the working memory 1300 . In this case, the image extractor 1310 and the image analyzer 1320 may be implemented as firmware or software. For example, the firmware may be stored in the storage 1400 and loaded into the working memory 1300 when the firmware is executed. The processor 1200 may execute firmware loaded into the memory 1300 .

영상 추출부(1310)는 위성 이미지에서 타겟 영역에 중첩하는 꼭지점(Vertex)들의 개수가 타겟 영역에 비중첩하는 꼭지점들의 개수보다 많은 타일들을 타겟 이미지들로 추출할 수 있다. 영상 추출부(1310)는 프로세서(1200)의 제어 하에 스토리지(1400)에 저장된 위성 이미지를 로딩하고, 타겟 이미지들을 추출할 수 있다.The image extractor 1310 may extract, as target images, more tiles from the satellite image in which the number of vertices overlapping the target area is greater than the number of vertices that do not overlap the target area. The image extractor 1310 may load a satellite image stored in the storage 1400 under the control of the processor 1200 and extract target images.

영상 분석부(1320)는 타겟 이미지들을 분석하여, 타겟 영역의 인구 통계 결과를 생성할 수 있다. 타겟 이미지의 분석, 클래스 분류, 및 데이터 프루닝을 위한 분석 모델을 학습하는 학습부(1321), 학습된 분석 모델에 기초하여 타겟 이미지들을 분석하는 특징 추출부(1322), 추출된 특징들의 차원을 축소하는 차원 축소부(1323), 및 차원 축소된 특징들에 기초하여 타겟 영역의 인구 통계 결과를 생성하는 결과 생성부(1324)가 영상 분석부(1320)에 구현될 수 있다. 학습부(1321), 특징 추출부(1322), 차원 축소부(1323), 및 결과 생성부(1324)는 각각 도 3의 학습기(121), 특징 추출기(122), 차원 축소기(123), 및 결과 생성기(124)에 대응된다.The image analyzer 1320 may analyze the target images to generate demographic results of the target area. A learning unit 1321 that learns an analysis model for analysis of a target image, class classification, and data pruning, a feature extraction unit 1322 that analyzes target images based on the learned analysis model, and the dimension of the extracted features The image analyzer 1320 may include a reduced dimension reduction unit 1323 and a result generator 1324 that generates demographic results of the target region based on the reduced dimensions. The learning unit 1321 , the feature extracting unit 1322 , the dimension reducing unit 1323 , and the result generating unit 1324 are the learner 121 , the feature extractor 122 , the dimension reducer 123 of FIG. 3 , respectively. and result generator 124 .

스토리지(1400)는 운영 체제 또는 어플리케이션들에 의해 장기적인 저장을 목적으로 생성되는 데이터, 운영 체제를 구동하기 위한 파일, 또는 어플리케이션들의 실행 파일 등을 저장할 수 있다. 예를 들어, 스토리지(1400)는 영상 추출부(1310) 및 영상 분석부(1320)의 실행을 위한 파일들을 저장할 수 있다. 스토리지(1400)는 인구 통계 분석 시스템(1000)의 보조 기억 장치로 이용될 수 있다. 스토리지(1400)는 플래시 메모리, PRAM (Phase-change RAM), MRAM (Magnetic RAM), FeRAM (Ferroelectric RAM), RRAM (Resistive RAM) 등을 포함할 수 있다.The storage 1400 may store data generated for long-term storage by the operating system or applications, a file for driving the operating system, or executable files of applications. For example, the storage 1400 may store files for execution of the image extractor 1310 and the image analyzer 1320 . The storage 1400 may be used as an auxiliary storage device of the demographic analysis system 1000 . The storage 1400 may include a flash memory, a phase-change RAM (PRAM), a magnetic RAM (MRAM), a ferroelectric RAM (FeRAM), a resistive RAM (RRAM), and the like.

버스(1500)는 인구 통계 분석 시스템(1000)의 구성 요소들 사이에서 통신 경로를 제공할 수 있다. 네트워크 인터페이스(1100), 프로세서(1200), 워킹 메모리(1300), 및 스토리지(1400)는 버스(1500)를 통해 서로 데이터를 교환할 수 있다. 버스(1500)는 인구 통계 분석 시스템(1000)에서 이용되는 다양한 유형의 통신 포맷을 지원하도록 구성될 수 있다.Bus 1500 may provide a communication path between the components of demographic analysis system 1000 . The network interface 1100 , the processor 1200 , the working memory 1300 , and the storage 1400 may exchange data with each other through the bus 1500 . Bus 1500 may be configured to support various types of communication formats used in demographic analysis system 1000 .

도 10은 도 1 내지 도 9를 통하여 설명된 인구 통계 분석 시스템의 동작 방법의 예시적인 순서도이다. 도 10의 단계들은 도 1 내지 도 9에서 설명된 인구 통계 분석 시스템(100, 1000)에서 수행될 수 있다. 설명의 편의상, 도 1 및 도 3의 도면 부호를 참조하여, 도 10이 설명된다.10 is an exemplary flowchart of an operating method of the demographic analysis system described with reference to FIGS. 1 to 9 . The steps of FIG. 10 may be performed in the demographic analysis systems 100 and 1000 described with reference to FIGS. 1 to 9 . For convenience of description, FIG. 10 is described with reference to the reference numerals of FIGS. 1 and 3 .

S110 단계에서, 인구 통계 분석 시스템(100)은 분석 모델을 학습한다. 분석 모델은 타겟 이미지들(TI)의 특징을 추출하기 위하여 사용되며, Mean Teacher 아키텍처에 의한 분석 모델이 사용될 수 있다. 영상 분석기(120)의 학습기(121)는 레이블링된 이미지(LI) 및 레이블링되지 않은 이미지(ULI)를 분석하여, 교차 엔트로피 오차 및 평균 제곱 오차를 계산하고, 이러한 오차들을 줄이도록, 분석 모델을 미세 조정할 수 있다.In step S110, the demographic analysis system 100 learns the analysis model. The analysis model is used to extract features of the target images TI, and an analysis model by the Mean Teacher architecture may be used. The learner 121 of the image analyzer 120 analyzes the labeled image (LI) and the unlabeled image (ULI), calculates a cross entropy error and a mean square error, and refines the analysis model to reduce these errors. Can be adjusted.

S120 단계에서, 인구 통계 분석 시스템(100)은 타겟 영역의 인구 통계 결과를 계산하기 위하여, 위성 이미지(SI)를 수신할 수 있다. 영상 추출기(110)는 위성 이미지(SI)에서, 타겟 영역에 중첩하는 타겟 이미지들(TI)을 추출할 수 있다. 일례로, 영상 추출기(110)는 타겟 영역에 중첩하는 꼭지점(Vertex)들의 개수가 타겟 영역에 비중첩하는 꼭지점들의 개수보다 많은 타일들을 타겟 이미지들(TI)로 추출할 수 있다.In step S120 , the demographic analysis system 100 may receive a satellite image SI in order to calculate a demographic result of the target area. The image extractor 110 may extract target images TI overlapping the target area from the satellite image SI. For example, the image extractor 110 may extract more tiles as the target images TI in which the number of vertices overlapping the target region is greater than the number of vertices that do not overlap the target region.

S130 단계에서, 인구 통계 분석 시스템(100)은 S110 단계에서 학습된 분석 모델에 기초하여, 타겟 이미지들(TI)의 특징들을 추출할 수 있다. 특징 추출기(122)는 학습기(121)에 의하여 미세 조정된 분석 모델(MD)에 기초하여, 타겟 이미지들(TI)을 분석하고, 타겟 이미지들(TI)의 특징들을 추출할 수 있다. 특징 추출기(122)는 추출된 특징들 각각을 도시(urban), 시골(rural), 사람이 살지 않는(uninhabited)과 같은 클래스들 중 하나로 분류할 수 있다. 특징 추출기(122)는 사람이 살지 않는 클래스로 분류된 특징들을 제거함으로써, 프루닝된 특징들(PF)을 생성할 수 있다.In operation S130 , the demographic analysis system 100 may extract features of the target images TI based on the analysis model learned in operation S110 . The feature extractor 122 may analyze the target images TI based on the analysis model MD fine-tuned by the learner 121 and extract features of the target images TI. The feature extractor 122 may classify each of the extracted features into one of classes such as urban, rural, and uninhabited. The feature extractor 122 may generate pruned features PF by removing features classified as non-human classes.

S140 단계에서, 인구 통계 분석 시스템(100)은 추출된 특징들의 차원을 축소할 수 있다. 차원 축소기(123)는 주성분 분석(Principal Component Analysis)을 통하여, 프루닝된 특징들(PF)의 차원을 축소할 수 있다.In step S140 , the demographic analysis system 100 may reduce the dimension of the extracted features. The dimension reducer 123 may reduce the dimension of the pruned features PF through principal component analysis.

S150 단계에서, 인구 통계 분석 시스템(100)은 차원 축소된 특징들(RPF)에 기초하여 타겟 영역의 인구 통계 결과(PR)를 생성할 수 있다. 결과 생성기(124)는 차원 축소된 특징들(RPF)의 통계적 요인들을 계산하여, 고정 길이를 갖는 통계 표현을 생성할 수 있다. 결과 생성기(124)는 통계 표현에 대한 회귀 분석을 통하여 인구 통계 결과(PR)를 생성할 수 있다. 일례로, 인구 통계 결과(PR)는 타겟 영역에 대한 인구, 연령, 교육 수준, 가구 수, 경제 규모 등 다양한 인구 통계적(demographic) 요인들을 포함할 수 있다.In operation S150 , the demographic analysis system 100 may generate a demographic result PR of the target region based on the dimension-reduced features RPF. The result generator 124 may calculate the statistical factors of the dimensionally reduced features (RPF) to generate a statistical representation having a fixed length. The result generator 124 may generate a demographic result (PR) through regression analysis on the statistical expression. For example, the demographic result PR may include various demographic factors such as population, age, education level, number of households, and economic size for the target area.

위에서 설명한 내용은 본 발명을 실시하기 위한 구체적인 예들이다. 본 발명에는 위에서 설명한 실시 예들뿐만 아니라, 단순하게 설계 변경하거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명에는 상술한 실시 예들을 이용하여 앞으로 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다.The contents described above are specific examples for carrying out the present invention. The present invention will include not only the above-described embodiments, but also simple design changes or easily changeable embodiments. In addition, the present invention will also include techniques that can be easily modified and implemented in the future using the above-described embodiments.

100, 1000: 인구 통계 분석 시스템 110: 영상 추출기
120: 영상 분석기 121: 학습기
122: 특징 추출기 123: 차원 축소기
124: 결과 계산기
100, 1000: demographic analysis system 110: image extractor
120: image analyzer 121: learner
122: feature extractor 123: dimension reducer
124: result calculator

Claims (20)

촬영 이미지에서, 타겟 영역과 중첩하는 꼭지점의 개수가 상기 타겟 영역과 비중첩하는 꼭지점의 개수보다 많은 타일들을 추출하여, 타겟 이미지들을 생성하는 영상 추출기; 및
학습된 분석 모델에 기초하여 상기 타겟 이미지들에 각각 대응되는 특징들을 추출하고, 상기 추출된 특징들에 기초하여 상기 타겟 영역의 인구 통계 결과를 생성하는 영상 분석기를 포함하는 인구 통계 분석 시스템.
an image extractor for generating target images by extracting tiles from the captured image, wherein the number of vertices overlapping the target region is greater than the number of vertices that do not overlap the target region; and
A demographic analysis system comprising an image analyzer for extracting features corresponding to the target images, respectively, based on a learned analysis model, and generating demographic results of the target region based on the extracted features.
제1 항에 있어서,
상기 영상 추출기는,
상기 타겟 영역과 중첩하는 상기 꼭지점의 개수가 3개 이상인 타일들을 추출하여, 상기 타겟 이미지들을 생성하는 인구 통계 분석 시스템.
According to claim 1,
The image extractor,
A demographic analysis system for generating the target images by extracting tiles having three or more vertices overlapping the target area.
제1 항에 있어서,
상기 영상 분석기는,
제1 컨볼루션 신경망을 통하여 레이블링된 이미지를 분석한 결과 및 상기 레이블링된 이미지에 대응하는 인구 통계 결과의 실측값에 기초하여, 교차 엔트로피 오차를 계산하고,
상기 제1 컨볼루션 신경망을 통하여 레이블링되지 않은 이미지를 분석한 결과 및 제2 컨볼루션 신경망을 통하여 상기 레이블링되지 않은 이미지를 분석한 결과에 기초하여, 평균 제곱 오차를 계산하고,
상기 교차 엔트로피 오차 및 상기 평균 제곱 오차에 기초하여, 상기 제1 컨볼루션 신경망을 조정함으로써, 상기 분석 모델을 학습하는 인구 통계 분석 시스템.
According to claim 1,
The image analyzer,
Calculate a cross-entropy error based on a result of analyzing a labeled image through a first convolutional neural network and an actual value of a demographic result corresponding to the labeled image,
Calculate the mean square error based on the result of analyzing the unlabeled image through the first convolutional neural network and the result of analyzing the unlabeled image through the second convolutional neural network,
A demographic analysis system for learning the analysis model by adjusting the first convolutional neural network based on the cross-entropy error and the mean square error.
제3 항에 있어서,
상기 영상 분석기는,
상기 조정된 제1 컨볼루션 신경망에 기초하여 상기 타겟 이미지들에 각각 대응되는 특징들을 추출하는 인구 통계 분석 시스템.
4. The method of claim 3,
The image analyzer,
A demographic analysis system for extracting features respectively corresponding to the target images based on the adjusted first convolutional neural network.
제1 항에 있어서,
상기 영상 분석기는,
상기 추출된 특징들의 각각을 미리 설정된 클래스들 중 어느 하나로 분류하고, 상기 미리 설정된 클래스들 중 타겟 클래스로 분류된 특징들을 제거하는 인구 통계 분석 시스템.
According to claim 1,
The image analyzer,
A demographic analysis system for classifying each of the extracted features into any one of preset classes, and removing features classified as a target class from among the preset classes.
제5 항에 있어서,
상기 영상 분석기는,
상기 추출된 특징들을 도시 클래스, 시골 클래스, 및 사람이 살지 않는 클래스로 분류하고, 상기 타겟 클래스는 상기 사람이 살지 않는 클래스인 인구 통계 분석 시스템.
6. The method of claim 5,
The image analyzer,
A demographic analysis system for classifying the extracted features into an urban class, a rural class, and a non-inhabited class, wherein the target class is the non-inhabited class.
제1 항에 있어서,
상기 영상 분석기는,
상기 추출된 특징들의 분산에 기초하여 결정된 차원으로, 상기 추출된 특징들의 차원을 축소하는 인구 통계 분석 시스템.
According to claim 1,
The image analyzer,
A demographic analysis system for reducing a dimension of the extracted features to a dimension determined based on the variance of the extracted features.
제1 항에 있어서,
상기 영상 분석기는,
상기 추출된 특징들의 각각의 분류된 클래스에 기초하여, 상기 추출된 특징들의 적어도 일부를 제거하고 상기 추출된 특징들의 차원을 축소하여, 차원 축소된 특징들을 생성하고,
상기 차원 축소된 특징들의 평균, 분산, 개수, 및 상관 관계에 기초하여, 고정 길이를 갖는 통계 표현을 생성하고,
상기 통계 표현에 기초하여 상기 인구 통계 결과를 생성하는 인구 통계 분석 시스템.
According to claim 1,
The image analyzer,
based on each classified class of the extracted features, removing at least some of the extracted features and reducing the dimensions of the extracted features to generate dimensionally reduced features,
generate a statistical representation having a fixed length based on the mean, variance, number, and correlation of the dimension-reduced features;
a demographic analysis system that generates the demographic result based on the statistical representation.
제1 항에 있어서,
상기 인구 통계 결과는 상기 타겟 영역에 대한 인구, 연령, 교육 수준, 가구 수, 경제 규모, 평균 소득, 사업자 수, 및 산업화도 중 적어도 하나를 포함하는 인구 통계 분석 시스템.
According to claim 1,
The demographic result is a demographic analysis system including at least one of population, age, education level, number of households, economic size, average income, number of businesses, and degree of industrialization for the target area.
촬영 이미지에서, 타겟 영역과 적어도 일부 중첩하는 타겟 이미지들을 생성하는 영상 추출기;
레이블링된 이미지들 및 상기 레이블링된 이미지들보다 많은 개수의 레이블링되지 않은 이미지들에 기초하여, 분석 모델을 학습하는 학습기;
상기 학습된 분석 모델에 기초하여, 상기 타겟 이미지들의 특징들을 추출하고, 상기 추출된 특징들의 각각을 미리 설정된 클래스들 중 어느 하나로 분류하고, 상기 미리 설정된 클래스들 중 타겟 클래스로 분류된 특징들을 제거하여, 프루닝된 특징들을 생성하는 특징 추출기;
상기 프루닝된 특징들의 차원을 축소하여 차원 축소된 특징들을 생성하는 차원 축소기; 및
상기 차원 축소된 특징들에 기초하여 상기 타겟 영역의 인구 통계 결과를 생성하는 결과 생성기를 포함하는 인구 통계 분석 시스템.
an image extractor for generating target images that at least partially overlap a target area in the captured image;
a learner for learning an analysis model based on the labeled images and a greater number of unlabeled images than the labeled images;
Based on the learned analysis model, extracting features of the target images, classifying each of the extracted features into any one of preset classes, and removing features classified as a target class from among the preset classes , a feature extractor that generates pruned features;
a dimension reducer for reducing the dimensions of the pruned features to generate dimensionally reduced features; and
and a result generator for generating demographic results of the target region based on the reduced-dimensional features.
제10 항에 있어서,
상기 영상 추출기는,
타겟 영역과 중첩하는 꼭지점의 개수가 상기 타겟 영역과 비중첩하는 꼭지점의 개수보다 많은 타일들을 추출하여, 상기 타겟 이미지들을 생성하는 인구 통계 분석 시스템.
11. The method of claim 10,
The image extractor,
A demographic analysis system for generating the target images by extracting tiles in which the number of vertices overlapping the target region is greater than the number of vertices that do not overlap the target region.
제10 항에 있어서,
상기 학습기는,
상기 레이블링된 이미지들을 분석하여 제1 결과를 생성하고, 상기 레이블링되지 않은 이미지들을 분석하여 제2 결과를 생성하는 제1 신경망;
상기 제1 결과 및 상기 레이블링된 이미지들에 대응하는 인구 통계 결과의 실측값에 기초하여, 교차 엔트로피 오차를 계산하는 제1 오차 계산기;
상기 제1 신경망의 지수 이동 평균에 의존하는 가중치에 기초하여, 상기 레이블링되지 않은 이미지들을 분석하여 제3 결과를 생성하는 제2 신경망;
상기 제2 결과 및 상기 제3 결과의 차이에 기초하여, 평균 제곱 오차를 계산하는 제2 오차 계산기; 및
상기 교차 엔트로피 오차 및 상기 평균 제곱 오차를 가중합 연산하여, 총 손실을 계산하는 가중합 계산기를 포함하는 인구 통계 분석 시스템.
11. The method of claim 10,
The learner is
a first neural network that analyzes the labeled images to generate a first result, and analyzes the unlabeled images to generate a second result;
a first error calculator for calculating a cross entropy error based on the first result and actual values of demographic results corresponding to the labeled images;
a second neural network that analyzes the unlabeled images based on a weight dependent on the exponential moving average of the first neural network and generates a third result;
a second error calculator for calculating a mean square error based on a difference between the second result and the third result; and
and a weighted sum calculator for calculating a total loss by performing a weighted sum operation on the cross entropy error and the mean square error.
제12 항에 있어서,
상기 가중합 계산기는,
교차 엔트로피 오차를 가중치가 부여된 상기 평균 제곱 오차에 더하여 상기 총 손실을 계산하고,
상기 평균 제곱 오차에 부여되는 가중치는 설정된 학습 횟수 동안 증가하는 인구 통계 분석 시스템.
13. The method of claim 12,
The weighted sum calculator is
calculating the total loss by adding the cross entropy error to the weighted mean squared error;
The weight given to the mean squared error is increased for a set number of learning demographic analysis system.
제12 항에 있어서,
상기 학습기는,
상기 총 손실이 기준 범위 이내일 때까지 상기 제1 신경망의 가중치를 조정하는 인구 통계 분석 시스템.
13. The method of claim 12,
The learner is
A demographic analysis system for adjusting the weights of the first neural network until the total loss is within a reference range.
제10 항에 있어서,
상기 타겟 클래스는 사람이 살지 않는 클래스인 인구 통계 분석 시스템.
11. The method of claim 10,
The target class is a non-human class demographic analysis system.
제10 항에 있어서,
상기 차원 축소기는,
상기 프루닝된 특징들로부터 최대 분산을 갖는 주성분들을 추출하고, 상기 추출된 주성분들에 기초하여 상기 프루닝된 특징들의 축소되는 차원을 결정하는 주성분 분석기를 포함하는 인구 통계 분석 시스템.
11. The method of claim 10,
The dimension reducer,
and a principal component analyzer for extracting principal components having a maximum variance from the pruned features and determining a reduced dimension of the pruned features based on the extracted principal components.
제10 항에 있어서,
상기 결과 생성기는,
상기 차원 축소된 특징들의 평균, 분산, 개수, 및 상관 관계에 기초하여, 고정 길이를 갖는 통계 표현을 생성하는 통계 계산기; 및
상기 통계 표현의 회귀 분석에 기초하여 상기 인구 통계 결과를 생성하는 회귀 분석기를 포함하는 인구 통계 분석 시스템.
11. The method of claim 10,
The result generator is
a statistical calculator for generating a statistical representation having a fixed length based on the mean, variance, number, and correlation of the dimension-reduced features; and
and a regression analyzer for generating the demographic result based on a regression analysis of the statistical expression.
인구 통계 분석 시스템의 동작 방법에 있어서,
촬영 이미지를 수신하는 단계;
상기 촬영 이미지에서 타겟 영역과 중첩하는 꼭지점의 개수가 상기 타겟 영역과 비중첩하는 꼭지점의 개수보다 많은 타일들을 추출하여, 타겟 이미지들을 생성하는 단계;
컨볼루션 신경망을 통하여 상기 타겟 이미지들 각각의 특징들을 도시 클래스, 시골 클래스, 및 사람이 살지 않는 클래스 중 하나로 분류하는 단계; 및
상기 도시 클래스 및 상기 시골 클래스로 분류된 특징들에 기초하여 인구 통계 결과를 생성하는 단계를 포함하는 방법.
A method of operating a demographic analysis system, comprising:
receiving a photographed image;
generating target images by extracting tiles from the captured image in which the number of vertices overlapping the target region is greater than the number of vertices that do not overlap the target region;
classifying the features of each of the target images into one of an urban class, a rural class, and a non-inhabited class through a convolutional neural network; and
and generating demographic results based on the features classified into the city class and the rural class.
제18 항에 있어서,
레이블링된 이미지들 및 레이블링되지 않은 이미지들을 수신하는 단계;
상기 컨볼루션 신경망을 통하여 상기 레이블링된 이미지들을 분석하여, 상기 컨볼루션 신경망의 교차 엔트로피 오차를 계산하는 단계;
상기 컨볼루션 신경망 및 제2 컨볼루션 신경망을 통하여 상기 레이블링되지 않은 이미지들을 분석하여, 상기 컨볼루션 신경망 및 상기 제2 컨볼루션 신경망 사이의 평균 제곱 오차를 계산하는 단계; 및
상기 교차 엔트로피 오차 및 상기 평균 제곱 오차에 기초하여, 상기 컨볼루션 신경망의 가중치를 조정하는 단계를 더 포함하는 방법.
19. The method of claim 18,
receiving labeled images and unlabeled images;
calculating a cross-entropy error of the convolutional neural network by analyzing the labeled images through the convolutional neural network;
analyzing the unlabeled images through the convolutional neural network and the second convolutional neural network, and calculating a mean square error between the convolutional neural network and the second convolutional neural network; and
The method further comprising adjusting a weight of the convolutional neural network based on the cross entropy error and the mean square error.
제18 항에 있어서,
상기 도시 클래스 및 상기 시골 클래스로 분류된 특징들에 기초하여 인구 통계 결과를 생성하는 단계는,
상기 도시 클래스 및 상기 시골 클래스로 분류된 상기 특징들의 차원을 축소하는 단계;
상기 차원 축소된 특징들의 통계를 계산하여, 고정 길이를 갖는 통계 표현을 생성하는 단계; 및
상기 통계 표현에 기초하여 상기 타겟 영역의 상기 인구 통계 결과를 계산하는 단계를 포함하는 방법.

19. The method of claim 18,
The step of generating a demographic result based on the characteristics classified into the city class and the rural class comprises:
reducing the dimension of the features classified into the city class and the rural class;
calculating statistics of the dimension-reduced features to generate a statistical representation having a fixed length; and
calculating the demographic result of the target area based on the statistical representation.

KR1020200052428A 2020-04-29 2020-04-29 Demographic analysis system and operating method of the same KR20210133611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200052428A KR20210133611A (en) 2020-04-29 2020-04-29 Demographic analysis system and operating method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200052428A KR20210133611A (en) 2020-04-29 2020-04-29 Demographic analysis system and operating method of the same

Publications (1)

Publication Number Publication Date
KR20210133611A true KR20210133611A (en) 2021-11-08

Family

ID=78485892

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200052428A KR20210133611A (en) 2020-04-29 2020-04-29 Demographic analysis system and operating method of the same

Country Status (1)

Country Link
KR (1) KR20210133611A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117151344A (en) * 2023-10-26 2023-12-01 乘木科技(珠海)有限公司 Digital twin city population management method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117151344A (en) * 2023-10-26 2023-12-01 乘木科技(珠海)有限公司 Digital twin city population management method
CN117151344B (en) * 2023-10-26 2024-02-02 乘木科技(珠海)有限公司 Digital twin city population management method

Similar Documents

Publication Publication Date Title
CN110472531B (en) Video processing method, device, electronic equipment and storage medium
KR101880907B1 (en) Method for detecting abnormal session
CN110929622B (en) Video classification method, model training method, device, equipment and storage medium
CN111523414A (en) Face recognition method and device, computer equipment and storage medium
CN111310770B (en) Target detection method and device
CN112016467B (en) Traffic sign recognition model training method, recognition method, system, device and medium
CN111738280A (en) Image identification method, device, equipment and readable storage medium
CN112419202B (en) Automatic wild animal image recognition system based on big data and deep learning
CN113255915A (en) Knowledge distillation method, device, equipment and medium based on structured instance graph
CN114332578A (en) Image anomaly detection model training method, image anomaly detection method and device
CN111709471B (en) Object detection model training method and object detection method and device
CN112232371A (en) American license plate recognition method based on YOLOv3 and text recognition
JP2024513596A (en) Image processing method and apparatus and computer readable storage medium
CN115457492A (en) Target detection method and device, computer equipment and storage medium
Lowphansirikul et al. 3D Semantic segmentation of large-scale point-clouds in urban areas using deep learning
CN115497002A (en) Multi-scale feature fusion laser radar remote sensing classification method
KR20210133611A (en) Demographic analysis system and operating method of the same
CN113704276A (en) Map updating method and device, electronic equipment and computer readable storage medium
CN113705293A (en) Image scene recognition method, device, equipment and readable storage medium
CN114998570B (en) Method and device for determining object detection frame, storage medium and electronic device
CN114445716B (en) Key point detection method, key point detection device, computer device, medium, and program product
JP2020038572A (en) Image learning program, image learning method, image recognition program, image recognition method, creation program for learning data set, creation method for learning data set, learning data set, and image recognition device
CN113191364A (en) Vehicle appearance component identification method, device, electronic device and medium
CN112183669A (en) Image classification method and device, equipment and storage medium
CN110942179A (en) Automatic driving route planning method and device and vehicle

Legal Events

Date Code Title Description
E902 Notification of reason for refusal