KR102556544B1 - Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio - Google Patents

Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio Download PDF

Info

Publication number
KR102556544B1
KR102556544B1 KR1020220127042A KR20220127042A KR102556544B1 KR 102556544 B1 KR102556544 B1 KR 102556544B1 KR 1020220127042 A KR1020220127042 A KR 1020220127042A KR 20220127042 A KR20220127042 A KR 20220127042A KR 102556544 B1 KR102556544 B1 KR 102556544B1
Authority
KR
South Korea
Prior art keywords
image
artificial intelligence
intelligence model
histogram analysis
histogram
Prior art date
Application number
KR1020220127042A
Other languages
Korean (ko)
Inventor
김대중
Original Assignee
주식회사 넥스인테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥스인테크놀로지 filed Critical 주식회사 넥스인테크놀로지
Priority to KR1020220127042A priority Critical patent/KR102556544B1/en
Priority to KR1020230090712A priority patent/KR20240047905A/en
Application granted granted Critical
Publication of KR102556544B1 publication Critical patent/KR102556544B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7625Hierarchical techniques, i.e. dividing or merging patterns to obtain a tree-like representation; Dendograms

Abstract

이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법, 장치 및 컴퓨터프로그램이 제공된다. 본 발명의 다양한 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법은 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 이미지에 대한 히스토그램 분석을 수행하는 단계, 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 단계 및 상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 단계를 포함한다.An object recognition method, device, and computer program using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis are provided. In accordance with various embodiments of the present invention, the recognition rate of an artificial intelligence model through image histogram analysis is improved and an object recognition method using an artificial intelligence model with an improved recognition rate is performed by a computing device, which includes performing histogram analysis on an image. Step, based on a result of performing histogram analysis on the image, extracting one or more image layers from the image, and recognizing an object included in the image by analyzing the extracted one or more image layers. .

Description

이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법, 장치 및 컴퓨터프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM FOR IMPROVING RECOGNITION RATIO OF ARTIFICIAL INTELLIGENCE MODEL THROUGH IMAGE HISTOGRAM ANALYSIS AND RECOGNIZING OBJECT USING ARTIFICIAL INTELLIGENCE MODEL WITH IMPROVED RECOGNITION RATIO}Recognition rate improvement of artificial intelligence model through image histogram analysis and object recognition method, device and computer program using artificial intelligence model with improved recognition rate USING ARTIFICIAL INTELLIGENCE MODEL WITH IMPROVED RECOGNITION RATIO}

본 발명의 다양한 실시예는 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법, 장치 및 컴퓨터프로그램에 관한 것이다.Various embodiments of the present invention relate to an object recognition method, apparatus, and computer program using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis.

최근, 인공지능 및 빅데이터를 이용한 기술을 카메라가 장착된 장치에 접목시켜서 카메라로부터 촬영된 이미지 내의 객체를 탐지하거나 인식하는 연구가 진행되고 있다. 예를 들어, 인공지능 기반의 객체 인식기는 자율 주행 자동차, 감시카메라, 드론 등의 카메라를 구비한 장치들에 적용될 수 있다.Recently, research on detecting or recognizing an object in an image captured by a camera by applying technology using artificial intelligence and big data to a device equipped with a camera is being conducted. For example, the artificial intelligence-based object recognizer can be applied to devices equipped with cameras, such as self-driving cars, surveillance cameras, and drones.

이러한 인공지능 기반 객체 인식기가 카메라에 의해 촬영된 이미지 내의 객체를 미리 결정된 수준 이상의 인식율로 인식하였을 때, 이러한 카메라 및 객체 인식기를 구비한 장치들이 인식된 객체를 기초로 자율주행 등과 같은 서비스를 제공하는 것이 가능하다.When this AI-based object recognizer recognizes an object in an image captured by a camera at a recognition rate higher than a predetermined level, devices equipped with such a camera and object recognizer provide services such as autonomous driving based on the recognized object. it is possible

기존 비즈니스 환경을 떠나, 이제는 생활 현장에서 사람이 인식하듯, 로봇이나 자율주행 자동차, 드론 등이 이미지를 식별하고 문자를 읽어 내야 하는 필요성이 대두되고 있다. Apart from the existing business environment, the need for robots, self-driving cars, drones, etc. to identify images and read texts is emerging as people recognize in daily life.

특히, 인식 및 처리 대상이 되는 이미지가 점차 고도화(예컨대, 고해상도화, 고용량화)됨에 따라 고해상도, 고용량의 이미지를 빠르고 정확하게 처리할 수 있는 최적의 알고리즘의 설계 및 개발이 요구되고 있다.In particular, as images to be recognized and processed are gradually upgraded (eg, high resolution, high capacity), there is a demand for designing and developing an optimal algorithm capable of quickly and accurately processing high-resolution and high-capacity images.

본 발명이 해결하고자 하는 과제는 이미지를 분석하여 이미지에 포함된 객체를 인식하되, 이미지에 대한 히스토그램 분석 결과를 기반으로 이미지로부터 복수의 이미지 레이아웃을 추출하고, 추출된 복수의 이미지 레이아웃을 이용하여 객체를 인식함으로써, 고해상도 및 고용량의 이미지로부터 객체를 보다 빠르고 정확하게 인식할 수 있는 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법, 장치 및 컴퓨터프로그램을 제공하는 것이다.The problem to be solved by the present invention is to analyze the image to recognize the object included in the image, extract a plurality of image layouts from the image based on the histogram analysis result of the image, and use the extracted plurality of image layouts to recognize the object To provide an object recognition method, device, and computer program using an artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis that can more quickly and accurately recognize objects from high-resolution and high-capacity images by recognizing will be.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법은 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 이미지에 대한 히스토그램 분석을 수행하는 단계, 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 단계 및 상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 단계를 포함할 수 있다.An object recognition method using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to an embodiment of the present invention for solving the above problems is a method performed by a computing device, wherein the image Performing a histogram analysis on , extracting one or more image layers from the image based on a result of performing the histogram analysis on the image, and analyzing the extracted one or more image layers to object included in the image. It may include the step of recognizing.

다양한 실시예에서, 상기 하나 이상의 이미지 레이어를 추출하는 단계는, 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 중 픽셀 수가 가장 많은 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택하는 단계 및 상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함할 수 있다.In various embodiments, the extracting of one or more image layers may include a histogram graph generated based on a result of performing histogram analysis on the image, wherein the histogram graph includes a graph of the number of pixels according to a plurality of pixel values. and sequentially selecting N pixel values from among the plurality of pixel values, starting with the largest number of pixels, and extracting a plurality of image layers from the image based on the selected N pixel values. can do.

다양한 실시예에서, 상기 하나 이상의 이미지 레이어를 추출하는 단계는, 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 각각에 대한 상기 복수의 색상의 픽셀 수 합을 산출하고, 상기 복수의 픽셀 값 중 상기 산출된 픽셀 수 합이 가장 큰 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택하는 단계 및 상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함할 수 있다.In various embodiments, the step of extracting one or more image layers may include a histogram graph generated based on a result of performing histogram analysis on the image - the histogram graph is based on a plurality of pixel values corresponding to a plurality of colors, respectively. Including a graph of the number of pixels - Calculate the sum of the number of pixels of the plurality of colors for each of the plurality of pixel values using , sequentially from the pixel value of which the calculated sum of the number of pixels is the largest among the plurality of pixel values. and extracting a plurality of image layers from the image based on the selected N pixel values.

다양한 실시예에서, 상기 이미지에 대한 히스토그램 분석을 수행하는 단계는, 상기 이미지에 대한 히스토그램 분석의 수행하여 제1 히스토그램 그래프 - 상기 제1 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 생성하는 단계 및 상기 이미지를 그레이스케일 변환하여 그레이스케일 이미지를 생성하고, 상기 생성된 그레이스케일 이미지에 대한 히스토그램 분석을 수행하여 제2 히스토그램 그래프 - 상기 제2 히스토그램 그래프는 하나의 색상에 대응하는 복수의 그레이스케일 값에 따른 픽셀 수 그래프를 포함함 - 를 생성하는 단계를 포함하며, 상기 하나 이상의 이미지 레이어를 추출하는 단계는, 상기 생성된 제2 히스토그램 그래프를 이용하여 상기 복수의 그레이스케일 값 중 픽셀 수가 가장 많은 그레이스케일 값부터 순차적으로 N개의 그레이스케일 값을 선택하는 단계 및 상기 생성된 제1 히스토그램 그래프를 이용하여 상기 복수의 픽셀 값 중 상기 선택된 N개의 그레이스케일 값에 대응하는 N개의 픽셀 값을 선택하고, 상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함할 수 있다.In various embodiments, the performing of the histogram analysis on the image may include performing the histogram analysis on the image to obtain a first histogram graph - the first histogram graph according to a plurality of pixel values corresponding to a plurality of colors, respectively. A second histogram graph comprising a pixel number graph - generating a gray scale image by converting the image to gray scale, and performing histogram analysis on the generated gray scale image - the second histogram graph is including a graph of the number of pixels according to a plurality of grayscale values corresponding to one color; and the step of extracting one or more image layers includes the step of extracting the one or more image layers using the generated second histogram graph. Selecting N grayscale values sequentially from the grayscale value having the largest number of pixels from among the plurality of grayscale values, and using the generated first histogram graph, the selected N grayscale values The method may include selecting corresponding N pixel values and extracting a plurality of image layers from the image based on the selected N pixel values.

다양한 실시예에서, 상기 하나 이상의 이미지 레이어를 추출하는 단계는, 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 각각에 대한 픽셀 수의 최대값 및 최소값의 차이를 산출하고, 상기 복수의 픽셀 값 중 상기 산출된 차이가 기 설정된 값 이상인 적어도 하나의 픽셀 값을 선택하는 단계 및 상기 선택된 적어도 하나의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함할 수 있다.In various embodiments, the step of extracting one or more image layers may include a histogram graph generated based on a result of performing histogram analysis on the image - the histogram graph is based on a plurality of pixel values corresponding to a plurality of colors, respectively. Including a graph of the number of pixels - Calculate the difference between the maximum value and the minimum value of the number of pixels for each of the plurality of pixel values by using, and at least one of the plurality of pixel values in which the calculated difference is equal to or greater than a preset value. The method may include selecting a pixel value and extracting a plurality of image layers from the image based on the selected at least one pixel value.

다양한 실시예에서, 상기 이미지에 포함된 객체를 인식하는 단계는, 상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어를 병합하여 하나의 통합 이미지 레이어를 생성하는 단계, 상기 생성된 통합 이미지 레이어를 분석하여 상기 객체에 관한 하나 이상의 특징 값을 추출하는 단계 및 상기 추출된 하나 이상의 특징 값을 이용하여 상기 객체를 인식하는 단계를 포함할 수 있다.In various embodiments, recognizing an object included in the image may include, when a plurality of image layers are extracted from the image, generating a single integrated image layer by merging the extracted plurality of image layers; The method may include extracting one or more feature values of the object by analyzing the generated integrated image layer, and recognizing the object using the extracted one or more feature values.

다양한 실시예에서, 상기 이미지에 포함된 객체를 인식하는 단계는, 상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어 각각을 분석하여 상기 객체에 관한 하나 이상의 특징 값을 각각 추출하고, 상기 각각 추출된 하나 이상의 특징 값을 이용하여 상기 객체를 개별적으로 추정하는 단계 및 상기 개별적으로 추정된 객체에 관한 정보를 이용하여 상기 객체를 인식하는 단계를 포함할 수 있다.In various embodiments, recognizing an object included in the image may include, when a plurality of image layers are extracted from the image, one or more characteristic values of the object by analyzing each of the plurality of extracted image layers. The method may include extracting, individually estimating the object using one or more extracted feature values, and recognizing the object using information about the individually estimated object.

다양한 실시예에서, 상기 이미지에 포함된 객체를 인식하는 단계는, 상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어 각각을 분석하여 상기 객체에 관한 복수의 특징 값을 추출하고, 상기 추출된 복수의 특징 값 중 둘 이상 중복 추출된 적어도 하나의 특징 값만은 이용하여 상기 객체를 인식하는 단계를 포함할 수 있다.In various embodiments, recognizing an object included in the image may include, when a plurality of image layers are extracted from the image, extracting a plurality of feature values of the object by analyzing each of the plurality of extracted image layers. and recognizing the object by using only at least one feature value extracted in duplicate from two or more of the plurality of extracted feature values.

다양한 실시예에서, 상기 이미지에 포함된 객체를 인식하는 단계는, 상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어 각각을 분석하여 하나 이상의 특징 값을 각각 추출하고, 상기 각각 추출된 하나 이상의 특징 값을 비교하여, 상기 추출된 복수의 이미지 레이어 간 유사도를 산출하는 단계 및 상기 산출된 유사도에 기초하여 상기 추출된 복수의 이미지 레이어 중 둘 이상의 이미지 레이어를 병합하고, 상기 병합된 둘 이상의 이미지 레이어를 분석하여 상기 객체를 인식하는 단계를 포함할 수 있다.In various embodiments, recognizing an object included in the image may include, when a plurality of image layers are extracted from the image, analyzing each of the extracted plurality of image layers to extract one or more feature values, respectively; Comparing one or more extracted feature values to calculate a similarity between the extracted plurality of image layers, merging two or more image layers among the extracted plurality of image layers based on the calculated similarity, and merging the extracted image layers. and recognizing the object by analyzing two or more image layers.

다양한 실시예에서, 상기 이미지에 대한 히스토그램 분석을 수행하는 단계는, 상기 이미지를 그레이스케일 변환하여 그레이스케일 이미지를 생성하고, 상기 생성된 그레이스케일 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 제2 히스토그램 그래프 - 상기 제2 히스토그램 그래프는 복수의 그레이스케일 값에 따른 픽셀 수 그래프를 포함함 - 에 기초하여 상기 이미지에 대한 보정을 수행하는 단계 및 상기 보정된 이미지에 대한 히스토그램 분석을 수행함에 따라 제1 히스토그램 그래프를 생성하는 단계를 포함하며, 상기 이미지에 대한 보정을 수행하는 단계는, 상기 제2 히스토그램 그래프의 그레이스케일 최소값이 기준 최소값 이상이거나 또는 상기 제2 히스토그램 그래프의 그레이스케일 최대값이 기준 최대값 이하인 경우, 상기 이미지에 대한 밝기 보정을 수행하는 단계 및 상기 제2 히스토그램 그래프의 그레이스케일 최대값과 최소값의 차이가 제1 기준 차이 값 이하이거나 또는 제2 기준 차이 값 이상인 경우, 상기 이미지에 대한 명암 보정을 수행하는 단계를 포함할 수 있다.In various embodiments, the performing of histogram analysis on the image may include generating a grayscale image by converting the image to grayscale, and performing a histogram analysis on the generated grayscale image to generate a second histogram. Performing correction on the image based on a graph - the second histogram graph including a graph of the number of pixels according to a plurality of grayscale values - and performing a histogram analysis on the corrected image to obtain a first histogram Generating a graph, and performing correction on the image, wherein a minimum gray scale value of the second histogram graph is greater than or equal to a reference minimum value or a maximum gray scale value of the second histogram graph is less than or equal to a reference maximum value. If the difference between the maximum value and the minimum value of the gray scale of the second histogram graph is equal to or less than a first reference difference value or greater than or equal to a second reference difference value, performing brightness correction on the image, contrast correction on the image It may include the step of performing.

다양한 실시예에서, 상기 이미지에 대한 히스토그램 분석을 수행하는 단계는, 상기 이미지에 포함된 객체 영역을 식별하는 단계 및 상기 이미지로부터 상기 식별된 객체 영역을 추출하고, 상기 추출된 객체 영역에 대한 히스토그램 분석을 수행하는 단계를 포함할 수 있다.In various embodiments, performing the histogram analysis on the image may include identifying an object region included in the image, extracting the identified object region from the image, and performing histogram analysis on the extracted object region. It may include the step of performing.

다양한 실시예에서, 상기 이미지에 대한 히스토그램 분석을 수행하는 단계는, 상기 이미지에 포함된 배경 영역을 식별하는 단계, 상기 식별된 배경 영역에 대응하는 마스크 레이어를 생성하고, 상기 생성된 마스크 레이어를 상기 이미지와 결합하는 단계 및 상기 생성된 마스크 레이어와 결합된 이미지에 대한 히스토그램 분석을 수행하는 단계를 포함할 수 있다.In various embodiments, performing the histogram analysis on the image may include identifying a background region included in the image, generating a mask layer corresponding to the identified background region, and using the created mask layer as the It may include combining images and performing histogram analysis on the image combined with the generated mask layer.

상술한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 장치는 프로세서, 네트워크 인터페이스, 메모리 및 상기 메모리에 로드(load) 되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램은, 이미지에 대한 히스토그램 분석을 수행하는 인스트럭션(instruction), 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 인스트럭션 및 상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 인스트럭션을 포함할 수 있다.In order to solve the above problems, an object recognition apparatus using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to another embodiment of the present invention is loaded into a processor, a network interface, a memory, and the memory. (load) and includes a computer program executed by the processor, wherein the computer program includes instructions for performing histogram analysis on an image, based on a result of performing histogram analysis on the image, the image It may include an instruction for extracting one or more image layers from and an instruction for recognizing an object included in the image by analyzing the extracted one or more image layers.

상술한 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터프로그램은 컴퓨팅 장치와 결합되어, 이미지에 대한 히스토그램 분석을 수행하는 단계, 상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 단계 및 상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 단계를 포함하는 이미지 히스토그램 분석을 이용한 객체 인식 방법을 실행시키기 위하여 컴퓨팅 장치로 판독 가능한 기록매체에 저장될 수 있다.A computer program according to another embodiment of the present invention for solving the above problems is combined with a computing device, performing a histogram analysis on an image, based on a result of performing the histogram analysis on the image, the image To execute an object recognition method using image histogram analysis, which includes extracting one or more image layers from and recognizing an object included in the image by analyzing the extracted one or more image layers, which can be read by a computing device. It can be stored on a recording medium.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 다양한 실시예에 따르면, 이미지를 분석하여 이미지에 포함된 객체를 인식하되, 이미지에 대한 히스토그램 분석 결과를 기반으로 이미지로부터 복수의 이미지 레이아웃을 추출하고, 추출된 복수의 이미지 레이아웃을 이용하여 객체를 인식함으로써, 고해상도 및 고용량의 이미지로부터 객체를 보다 빠르고 정확하게 인식할 수 있다는 이점이 있다.According to various embodiments of the present invention, an object included in the image is recognized by analyzing the image, a plurality of image layouts are extracted from the image based on a histogram analysis result of the image, and the plurality of image layouts are extracted. By recognizing the object, there is an advantage in that the object can be more quickly and accurately recognized from a high-resolution and high-capacity image.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 시스템을 도시한 도면이다.
도 2는 본 발명의 다른 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 장치의 하드웨어 구성도이다.
도 3은 본 발명의 또 다른 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법의 순서도이다.
도 4는 다양한 실시예에서, 이미지로부터 이미지 레이아웃을 추출, 선택 및 병합하는 과정을 예시적으로 도시한 도면이다.
도 5는 다양한 실시예에서, 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프를 예시적으로 도시한 도면이다.
도 6은 다양한 실시예에서, 이미지로부터 이미지 레이어를 추출하는 방법을 설명하기 위한 순서도이다.
도 7은 다양한 실시예에서, 그레이스케일 변환된 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프를 예시적으로 도시한 도면이다.
1 is a diagram illustrating an object recognition system using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to an embodiment of the present invention.
2 is a hardware configuration diagram of an object recognition apparatus using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to another embodiment of the present invention.
3 is a flow chart of an object recognition method using an artificial intelligence model with improved recognition rate and improved recognition rate of an artificial intelligence model through image histogram analysis according to another embodiment of the present invention.
4 is a diagram illustrating a process of extracting, selecting, and merging image layouts from images, according to various embodiments.
5 is a diagram illustrating an example of a histogram graph generated as a result of performing histogram analysis on an image, in various embodiments.
6 is a flowchart illustrating a method of extracting an image layer from an image, in various embodiments.
7 is a diagram exemplarily illustrating a histogram graph generated by performing histogram analysis on a grayscale converted image, in various embodiments.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, only these embodiments are intended to complete the disclosure of the present invention, and are common in the art to which the present invention belongs. It is provided to fully inform the person skilled in the art of the scope of the invention, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Terminology used herein is for describing the embodiments and is not intended to limit the present invention. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other elements other than the recited elements. Like reference numerals throughout the specification refer to like elements, and “and/or” includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first element mentioned below may also be the second element within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification means a hardware component such as software, FPGA or ASIC, and "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside in an addressable storage medium and may be configured to reproduce one or more processors. Thus, as an example, a “unit” or “module” may refer to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and "units" or "modules" may be combined into smaller numbers of components and "units" or "modules" or may be combined into additional components and "units" or "modules". can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe a component's correlation with other components. Spatially relative terms should be understood as including different orientations of elements in use or operation in addition to the orientations shown in the drawings. For example, if you flip a component that is shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. can Thus, the exemplary term “below” may include directions of both below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means any kind of hardware device including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to an embodiment. For example, a computer may be understood as including a smartphone, a tablet PC, a desktop computer, a laptop computer, and user clients and applications running on each device, but is not limited thereto.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Although each step described in this specification is described as being performed by a computer, the subject of each step is not limited thereto, and at least a part of each step may be performed in different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 시스템을 도시한 도면이다.1 is a diagram illustrating an object recognition system using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 시스템은 객체 인식 장치(100), 사용자 단말(200), 외부 서버(300) 및 네트워크(400)를 포함할 수 있다.Referring to FIG. 1 , an object recognition system using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to an embodiment of the present invention includes an object recognition device 100 and a user terminal 200 , an external server 300 and a network 400.

여기서, 도 1에 도시된 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 시스템은 일 실시예에 따른 것이고, 그 구성 요소가 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 부가, 변경 또는 삭제될 수 있다.Here, the recognition rate of the artificial intelligence model through image histogram analysis shown in FIG. 1 is improved and the object recognition system using the artificial intelligence model with improved recognition rate is according to an embodiment, and its components are in the embodiment shown in FIG. It is not limited and may be added, changed or deleted as needed.

일 실시예에서, 객체 인식 장치(100)(이하, "컴퓨팅 장치(100)")는 특정 이미지를 분석함에 따라 이미지에 포함된 객체를 인식할 수 있다.In one embodiment, the object recognizing device 100 (hereinafter referred to as "computing device 100") may recognize an object included in an image by analyzing a specific image.

여기서, 이미지에 포함된 객체를 인식한다는 것은 이미지에 객체가 포함되어 있는지 여부(객체의 유무), 이미지에 객체가 포함되어 있을 경우 객체의 속성(예컨대, 객체의 종류, 크기, 형태, 색상 등)을 식별하는 것을 의미할 수 있으나, 이에 한정되지 않는다.Here, recognizing an object included in an image means whether an object is included in the image (existence of an object), and if the object is included in the image, properties of the object (eg, type, size, shape, color, etc. of the object) It may mean to identify, but is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 고해상도, 고용량의 이미지로부터 보다 빠르고 정확하게 객체를 인식하기 위한 목적으로, 이미지로부터 하나 이상의 이미지 레이어를 추출할 수 있고, 추출된 하나 이상의 이미지 레이어를 분석함으로써, 이미지에 포함된 객체를 인식할 수 있다.In various embodiments, the computing device 100 may extract one or more image layers from an image for the purpose of more quickly and accurately recognizing an object from a high-resolution, high-capacity image, and by analyzing the extracted one or more image layers, Objects included in images can be recognized.

다양한 실시예에서, 컴퓨팅 장치(100)는 기 학습된 인공지능 모델을 이용하여 이미지(또는 이미지로부터 추출된 하나 이상의 이미지 레이어)를 분석함으로써, 이미지에 포함된 객체를 인식할 수 있다.In various embodiments, the computing device 100 may recognize an object included in an image by analyzing an image (or one or more image layers extracted from the image) using a pre-learned artificial intelligence model.

여기서, 기 학습된 인공지능 모델은 객체에 대한 정보(예컨대, 객체에 대한 속성 정보 등)가 레이블링(Labeling)된 이미지를 학습 데이터로 하여 기 학습된 모델로, 특정 이미지(또는 특정 이미지 레이어)를 입력 데이터로 하여 결과 데이터로서 특정 이미지에 포함된 객체의 인식 결과를 추출하는 모델일 수 있다.Here, the pre-learned artificial intelligence model is a pre-learned model using an image labeled with object information (eg, object attribute information, etc.) as training data, and a specific image (or specific image layer) It may be a model that extracts a recognition result of an object included in a specific image as result data using input data.

인공지능 모델(예: 신경망)은 하나 이상의 네트워크 함수로 구성되며, 하나 이상의 네트워크 함수는 일반적으로 ‘노드’라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 ‘노드’들은 ‘뉴런(neuron)’들로 지칭될 수도 있다. 하나 이상의 네트워크 함수는 적어도 하나 이상의 노드들을 포함하여 구성된다. 하나 이상의 네트워크 함수를 구성하는 노드(또는 뉴런)들은 하나 이상의 ‘링크’에 의해 상호 연결될 수 있다.An artificial intelligence model (e.g., a neural network) is composed of one or more network functions, which may consist of a set of interconnected computational units, which may generally be referred to as ‘nodes’. These 'nodes' may also be referred to as 'neurons'. One or more network functions include at least one or more nodes. Nodes (or neurons) that make up one or more network functions can be interconnected by one or more 'links'.

인공지능 모델 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. In an artificial intelligence model, one or more nodes connected through a link may form a relative relationship of an input node and an output node. The concept of an input node and an output node is relative, and any node in an output node relationship with one node may have an input node relationship with another node, and vice versa. As described above, the input node to output node relationship can be created around the link. More than one output node can be connected to one input node through a link, and vice versa.

하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 노드는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 인공지능 모델이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In a relationship between an input node and an output node connected through one link, the value of the output node may be determined based on data input to the input node. Here, a node interconnecting an input node and an output node may have a weight. The weight may be variable, and may be variable by a user or an algorithm in order to perform a function desired by the artificial intelligence model. For example, when one or more input nodes are interconnected by respective links to one output node, the output node is set to a link corresponding to values input to input nodes connected to the output node and respective input nodes. An output node value may be determined based on the weight.

전술한 바와 같이, 인공지능 모델은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 인공지능 모델 내에서 입력 노드 및 출력 노드 관계를 형성한다. 인공지능 모델 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 인공지능 모델의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 인공지능 모델이 존재하는 경우, 두 개의 인공지능 모델들은 서로 상이한 것으로 인식될 수 있다.As described above, in the AI model, one or more nodes are interconnected through one or more links to form an input node and output node relationship in the AI model. Characteristics of the artificial intelligence model may be determined according to the number of nodes and links in the artificial intelligence model, the relationship between the nodes and links, and the value of weight assigned to each link. For example, when there are two artificial intelligence models having the same number of nodes and links and different weight values between the links, the two artificial intelligence models may be recognized as different from each other.

인공지능 모델을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 인공지능 모델 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.Some of the nodes constituting the artificial intelligence model may constitute one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers. The distance from the first input node may be defined by the minimum number of links that must be passed through to reach the corresponding node from the first input node. However, the definition of such a layer is arbitrary for explanation, and the order of a layer in an artificial intelligence model may be defined in a different way from the above. For example, a layer of nodes may be defined by a distance from a final output node.

최초 입력 노드는 인공지능 모델 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 인공지능 모델 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 인공지능 모델 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 인공지능 모델을 구성하는 노드들을 의미할 수 있다. 본 발명의 일 실시예에 따른 인공지능 모델은 입력 레이어의 노드가 출력 레이어에 가까운 히든 레이어의 노드보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 인공지능 모델일 수 있다.An initial input node may refer to one or more nodes to which data is directly input without going through a link in relation to other nodes among nodes in the artificial intelligence model. Alternatively, in an artificial intelligence model network, in a relationship between nodes based on a link, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the artificial intelligence model. Also, the hidden node may refer to nodes constituting an artificial intelligence model other than the first input node and the last output node. An artificial intelligence model according to an embodiment of the present invention may have more nodes of an input layer than nodes of a hidden layer close to an output layer, and the number of nodes decreases as the number of nodes increases from the input layer to the hidden layer. can

인공지능 모델은 하나 이상의 히든 레이어를 포함할 수 있다. 히든 레이어의 히든 노드는 이전의 레이어의 출력과 주변 히든 노드의 출력을 입력으로 할 수 있다. 각 히든 레이어 별 히든 노드의 수는 동일할 수도 있고 상이할 수도 있다. 입력 레이어의 노드의 수는 입력 데이터의 데이터 필드의 수에 기초하여 결정될 수 있으며 히든 노드의 수와 동일할 수도 있고 상이할 수도 있다. 입력 레이어에 입력된 입력 데이터는 히든 레이어의 히든 노드에 의하여 연산될 수 있고 출력 레이어인 완전 연결 레이어(FCL: fully connected layer)에 의해 출력될 수 있다.AI models can include one or more hidden layers. A hidden node of a hidden layer may use outputs of previous layers and outputs of neighboring hidden nodes as inputs. The number of hidden nodes for each hidden layer may be the same or different. The number of nodes of the input layer may be determined based on the number of data fields of the input data and may be the same as or different from the number of hidden nodes. Input data input to the input layer may be operated by a hidden node of the hidden layer and may be output by a fully connected layer (FCL) that is an output layer.

다양한 실시예에서, 인공지능 모델은 딥러닝(Deep learning) 모델일 수 있다.In various embodiments, the artificial intelligence model may be a deep learning model.

딥러닝 모델(예: 딥 뉴럴 네트워크(DNN: deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 인공지능 모델을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다.A deep learning model (e.g., a deep neural network (DNN)) may refer to an artificial intelligence model including a plurality of hidden layers in addition to an input layer and an output layer. With a deep neural network, data It can identify latent structures, i.e., the latent structures of a photograph, text, video, audio, or music (e.g., what objects are in the photo; content and emotions, etc.).

딥 뉴럴 네트워크는 컨벌루셔널 뉴럴 네트워크(CNN: convolutional neural network), 리커런트 뉴럴 네트워크(RNN: recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM: restricted boltzmann machine), 심층 신뢰 네트워크(DBN: deep belief network), Q 네트워크, U 네트워크, 샴 네트워크 등을 포함할 수 있으나, 이에 한정되지 않는다.Deep neural networks include convolutional neural networks (CNN), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted Boltzmann machines (RBMs). boltzmann machine), deep belief network (DBN), Q network, U network, Siamese network, etc., but is not limited thereto.

다양한 실시예에서, 네트워크 함수는 오토 인코더를 포함할 수도 있다. 여기서, 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다.In various embodiments, the network function may include an autoencoder. Here, the auto encoder may be a type of artificial neural network for outputting output data similar to input data.

오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 차원 감소 레이어와 차원 복원 레이어의 노드는 대칭일 수도 있고 아닐 수도 있다. 또한, 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 남은 센서들의 수와 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.An auto-encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between input and output layers. The number of nodes of each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with the reduction from the bottleneck layer to the output layer (symmetrical to the input layer). Nodes of the dimensionality reduction layer and the dimensionality restoration layer may or may not be symmetrical. Also, an autoencoder can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to the number of remaining sensors after preprocessing of input data. In the auto-encoder structure, the number of hidden layer nodes included in the encoder may decrease as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so more than a certain number (e.g., more than half of the input layer, etc.) ) may be maintained.

뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 및 반교사학습(semi supervised learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 출력의 오류를 최소화하기 위한 것이다. 보다 구체적으로, 뉴럴 네트워크의 학습은 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다.The neural network may be trained using at least one of supervised learning, unsupervised learning, and semi-supervised learning. The learning of neural networks is to minimize errors in the output. More specifically, learning of the neural network repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and converts the error of the neural network to the output of the neural network in a direction to reduce the error. This is the process of updating the weight of each node of the neural network by performing backpropagation from the layer to the input layer.

먼저, 교사 학습의 경우 각각의 학습 데이터에 정답이 레이블링 되어있는 학습 데이터를 사용하며(즉, 레이블링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 레이블링 되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 레이블링 된 데이터 일 수 있다. 레이블링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 레이블을 비교함으로써 오류(error)가 계산될 수 있다.First, in the case of teacher learning, each learning data is labeled with the correct answer (ie, labeled learning data), and in the case of comparative teacher learning, the correct answer may not be labeled in each learning data. That is, for example, learning data in the case of teacher learning regarding data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing an output (category) of the neural network and a label of the training data.

다음으로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.Next, in the case of comparative history learning for data classification, an error may be calculated by comparing input learning data with a neural network output. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation. The amount of change in the connection weight of each updated node may be determined according to a learning rate. The neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate may be used in the early stage of neural network training to increase efficiency by allowing the neural network to quickly obtain a certain level of performance, and a low learning rate may be used in the late stage to increase accuracy.

뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 생략하는 드롭아웃(dropout) 등의 방법이 적용될 수 있다.In neural network learning, generally, training data can be a subset of real data (ie, data to be processed using the trained neural network), and therefore, errors for training data are reduced, but errors for real data are reduced. There may be incremental learning cycles. Overfitting is a phenomenon in which errors for actual data increase due to excessive learning on training data. For example, a phenomenon in which a neural network that has learned a cat by showing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing the error of machine learning algorithms. Various optimization methods can be used to prevent such overfitting. In order to prevent overfitting, methods such as increasing training data, regularization, and omitting some nodes of a network in the process of learning may be applied.

다양한 실시예에서, 컴퓨팅 장치(100)는 특정 이미지로부터 추출된 복수의 이미지 레이어 중 객체와 관련된 적어도 하나의 이미지 레이어를 병합하여 인공지능 모델을 학습시킴으로써, 인식률이 향상된 인공지능 모델을 구축할 수 있으며, 인식률이 향상된 인공지능 모델을 통해 이미지(또는 이미지로부터 추출된 이미지 레이어)를 분석함으로써, 보다 빠르고 정확하게 객체를 인식할 수 있다는 이점이 있다.In various embodiments, the computing device 100 may build an artificial intelligence model with an improved recognition rate by merging at least one image layer related to an object among a plurality of image layers extracted from a specific image and learning the artificial intelligence model. , By analyzing an image (or an image layer extracted from an image) through an artificial intelligence model with improved recognition rate, there is an advantage in that an object can be recognized more quickly and accurately.

다양한 실시예에서, 컴퓨팅 장치(100)는 네트워크(400)를 통해 사용자 단말(200)과 연결될 수 있으며, 사용자 단말(200)로 이미지를 분석함에 따라 추출된 객체 인식 결과를 제공할 수 있다.In various embodiments, the computing device 100 may be connected to the user terminal 200 through the network 400 and may provide an object recognition result extracted as the user terminal 200 analyzes an image.

여기서, 사용자 단말(200)은 내비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 태블릿 PC(Tablet PC)를 포함할 수 있으나, 이에 한정되지 않는다.Here, the user terminal 200 includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) Terminal, Smartphone, Smartpad, Tablet PC (Tablet PC), but is not limited thereto.

또한, 여기서, 네트워크(400)는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미할 수 있다. 예를 들어, 네트워크(400)는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함할 수 있다.Also, here, the network 400 may refer to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers. For example, the network 400 includes a local area network (LAN), a wide area network (WAN), a world wide web (WWW), a wired and wireless data communication network, a telephone network, a wired and wireless television communication network, and the like. can do.

또한, 여기서, 무선 데이터 통신망은 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등을 포함할 수 있으나, 이에 한정되지는 않는다.In addition, here, the wireless data communication networks are 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), 5GPP (5th Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi (Wi-Fi) Fi), Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth network, A near-field communication (NFC) network, a satellite broadcasting network, an analog broadcasting network, a digital multimedia broadcasting (DMB) network, etc. may be included, but is not limited thereto.

일 실시예에서, 외부 서버(300)는 네트워크(400)를 통해 컴퓨팅 장치(100)와 연결될 수 있으며, 컴퓨팅 장치(100)가 이미지 히스토그램 분석을 이용한 객체 인식 방법을 수행하기 위해 필요한 각종 정보 및 데이터를 저장 및 관리하거나, 컴퓨팅 장치(100)가 이미지 히스토그램 분석을 이용한 객체 인식 방법을 수행함에 따라 생성된 각종 정보 및 데이터를 제공받아 저장 및 관리할 수 있다. 예컨대, 외부 서버(300)는 컴퓨팅 장치(100)의 외부에 별도로 구비되는 저장 서버일 수 있으나, 이에 한정되지 않는다. 이하, 도 2를 참조하여, 이미지 히스토그램 분석을 이용한 객체 인식 방법을 수행하는 컴퓨팅 장치(100)의 하드웨어 구성에 대해 설명하도록 한다.In one embodiment, the external server 300 may be connected to the computing device 100 through the network 400, and various information and data necessary for the computing device 100 to perform an object recognition method using image histogram analysis. may be stored and managed, or various information and data generated as the computing device 100 performs an object recognition method using image histogram analysis may be received, stored, and managed. For example, the external server 300 may be a storage server provided separately outside the computing device 100, but is not limited thereto. Hereinafter, with reference to FIG. 2 , the hardware configuration of the computing device 100 that performs the object recognition method using image histogram analysis will be described.

도 2는 본 발명의 다른 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 장치의 하드웨어 구성도이다.2 is a hardware configuration diagram of an object recognition apparatus using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to another embodiment of the present invention.

도 2를 참조하면, 다양한 실시예에서, 컴퓨팅 장치(100)는 하나 이상의 프로세서(110), 프로세서(110)에 의하여 수행되는 컴퓨터 프로그램(151)을 로드(Load)하는 메모리(120), 버스(130), 통신 인터페이스(140) 및 컴퓨터 프로그램(151)을 저장하는 스토리지(150)를 포함할 수 있다. 여기서, 도 2에는 본 발명의 실시예와 관련 있는 구성요소들만 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 2 , in various embodiments, a computing device 100 includes one or more processors 110, a memory 120 for loading a computer program 151 executed by the processor 110, and a bus ( 130), a communication interface 140, and a storage 150 for storing the computer program 151. Here, in FIG. 2, only components related to the embodiment of the present invention are shown. Therefore, those skilled in the art to which the present invention pertains can know that other general-purpose components may be further included in addition to the components shown in FIG. 2 .

프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다.The processor 110 controls the overall operation of each component of the computing device 100 . The processor 110 includes a Central Processing Unit (CPU), a Micro Processor Unit (MPU), a Micro Controller Unit (MCU), a Graphic Processing Unit (GPU), or any type of processor well known in the art of the present invention. It can be.

또한, 프로세서(110)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있으며, 컴퓨팅 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.Also, the processor 110 may perform an operation for at least one application or program for executing a method according to embodiments of the present invention, and the computing device 100 may include one or more processors.

다양한 실시예에서, 프로세서(110)는 프로세서(110) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(110)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.In various embodiments, the processor 110 may temporarily and/or permanently store signals (or data) processed in the processor 110 (RAM: Random Access Memory, not shown) and ROM (ROM: Read -Only Memory, not shown) may be further included. In addition, the processor 110 may be implemented in the form of a system on chip (SoC) including at least one of a graphics processing unit, RAM, and ROM.

메모리(120)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(120)는 본 발명의 다양한 실시예에 따른 방법/동작을 실행하기 위하여 스토리지(150)로부터 컴퓨터 프로그램(151)을 로드할 수 있다. 메모리(120)에 컴퓨터 프로그램(151)이 로드되면, 프로세서(110)는 컴퓨터 프로그램(151)을 구성하는 하나 이상의 인스트럭션들을 실행함으로써 상기 방법/동작을 수행할 수 있다. 메모리(120)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.Memory 120 stores various data, commands and/or information. Memory 120 may load computer program 151 from storage 150 to execute methods/operations according to various embodiments of the present invention. When the computer program 151 is loaded into the memory 120, the processor 110 may perform the method/operation by executing one or more instructions constituting the computer program 151. The memory 120 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.

버스(130)는 컴퓨팅 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(130)는 주소 버스(address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 130 provides a communication function between components of the computing device 100 . The bus 130 may be implemented in various types of buses such as an address bus, a data bus, and a control bus.

통신 인터페이스(140)는 컴퓨팅 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(140)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(140)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 몇몇 실시예에서, 통신 인터페이스(140)는 생략될 수도 있다.The communication interface 140 supports wired and wireless Internet communication of the computing device 100 . Also, the communication interface 140 may support various communication methods other than internet communication. To this end, the communication interface 140 may include a communication module well known in the art. In some embodiments, communication interface 140 may be omitted.

스토리지(150)는 컴퓨터 프로그램(151)을 비 임시적으로 저장할 수 있다. 컴퓨팅 장치(100)를 통해 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 프로세스를 수행하는 경우, 스토리지(150)는 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법 프로세스를 제공하기 위하여 필요한 각종 정보를 저장할 수 있다.The storage 150 may non-temporarily store the computer program 151 . When the recognition rate of the artificial intelligence model is improved through image histogram analysis through the computing device 100 and the object recognition process using the artificial intelligence model with the improved recognition rate is performed, the storage 150 stores the recognition rate of the artificial intelligence model through image histogram analysis. It is possible to store various types of information necessary to provide an object recognition method process using an artificial intelligence model with an improved recognition rate.

스토리지(150)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 150 may be a non-volatile memory such as read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, or the like, a hard disk, a removable disk, or a device well known in the art. It may be configured to include any known type of computer-readable recording medium.

컴퓨터 프로그램(151)은 메모리(120)에 로드될 때 프로세서(110)로 하여금 본 발명의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(110)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 발명의 다양한 실시예에 따른 상기 방법/동작을 수행할 수 있다.Computer program 151 may include one or more instructions that when loaded into memory 120 cause processor 110 to perform methods/operations in accordance with various embodiments of the invention. That is, the processor 110 may perform the method/operation according to various embodiments of the present disclosure by executing the one or more instructions.

일 실시예에서, 컴퓨터 프로그램(151)은 이미지에 대한 히스토그램 분석을 수행하는 단계, 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 이미지로부터 하나 이상의 이미지 레이어를 추출하는 단계 및 추출된 하나 이상의 이미지 레이어를 분석하여 이미지에 포함된 객체를 인식하는 단계를 포함하는 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법을 수행하도록 하는 하나 이상의 인스트럭션을 포함할 수 있다.In one embodiment, the computer program 151 may include performing histogram analysis on the image, extracting one or more image layers from the image based on a result of performing the histogram analysis on the image, and extracting one or more image layers. It may include one or more instructions for performing an object recognition method using an artificial intelligence model with improved recognition rate and improved recognition rate of an artificial intelligence model through image histogram analysis, which includes the step of recognizing an object included in an image by analyzing .

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 이하, 도 3 내지 7을 참조하여, 컴퓨팅 장치(100)에 의해 수행되는 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법에 대해 설명하도록 한다. Components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), can be implemented in a programming or scripting language such as assembler (assembler). Functional aspects may be implemented in an algorithm running on one or more processors. Hereinafter, with reference to FIGS. 3 to 7 , an improvement in the recognition rate of the artificial intelligence model through image histogram analysis performed by the computing device 100 and an object recognition method using the artificial intelligence model having an improved recognition rate will be described.

도 3은 본 발명의 또 다른 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법의 순서도이며, 도 4는 다양한 실시예에서, 이미지로부터 이미지 레이아웃을 추출, 선택 및 병합하는 과정을 예시적으로 도시한 도면이다.3 is a flow chart of an object recognition method using an artificial intelligence model with an improved recognition rate and an improved recognition rate of an artificial intelligence model through image histogram analysis according to another embodiment of the present invention, and FIG. 4 is an image from an image in various embodiments. It is a diagram showing the process of extracting, selecting, and merging layouts by way of example.

도 3 및 도 4를 참조하면, S110 단계에서, 컴퓨팅 장치(100)는 이미지(예컨대, 객체를 인식하고자 하는 대상 이미지)에 대한 히스토그램 분석을 수행할 수 있다.Referring to FIGS. 3 and 4 , in step S110 , the computing device 100 may perform histogram analysis on an image (eg, a target image to be recognized as an object).

여기서, 이미지에 대한 히스토그램 분석은 이미지를 분석하여 이미지에 포함된 픽셀들의 숫자를 픽셀 값에 따라 카운팅함으로써 이미지에 대한 픽셀 값 분포를 그래프 형태로 표현하는 것 즉, 이미지를 분석함에 따라 이미지를 복수의 픽셀 값 각각에 대한 픽셀 수를 산출하고, 이를 이용하여 복수의 픽셀 값에 따른 픽셀 수 그래프를 생성하는 것을 의미할 수 있으나, 이에 한정되지 않는다.Here, the histogram analysis of the image is to analyze the image and count the number of pixels included in the image according to the pixel value to express the pixel value distribution for the image in the form of a graph. It may mean calculating the number of pixels for each pixel value and generating a graph of the number of pixels according to a plurality of pixel values using the calculated number, but is not limited thereto.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 대한 히스토그램 분석을 수행함에 따라 히스토그램 분석의 수행 결과로서, 히스토그램 그래프(예컨대, 도 5)를 생성할 수 있다.In various embodiments, the computing device 100 may generate a histogram graph (eg, FIG. 5 ) as a result of performing the histogram analysis as the histogram analysis is performed on the image.

여기서, 이미지에 대한 히스토그램 분석을 수행하는 방법에 대해서는 다양한 기술(예컨대, Open CV를 이용한 이미지 히스토그램 분석 등)이 공지되어 있고, 이러한 공지 기술들을 선택적으로 이용할 수 있는 바, 본 명세서에서는 이미지에 대한 히스토그램 분석을 수행하는 구체적인 방법에 대해서는 한정하지 않는다.Here, various techniques (eg, image histogram analysis using Open CV, etc.) are known for a method of performing histogram analysis on an image, and these known techniques can be selectively used. The specific method of performing the analysis is not limited.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 포함된 객체 영역을 식별할 수 있고, 이미지로부터 객체 영역을 추출할 수 있으며, 추출된 객체 영역만을 이용하여 히스토그램 분석을 수행할 수 있다. 예컨대, 컴퓨팅 장치(100)는 이미지 분석 모델을 이용하여 이미지를 분석함으로써 이미지에 포함된 객체 영역을 식별하거나 사용자로부터 이미지 상의 적어도 일부 영역을 객체 영역으로서 선택받을 수 있으며, 이미지로부터 객체 영역 만을 추출하여 히스토그램 분석을 수행할 수 있다.In various embodiments, the computing device 100 may identify an object region included in an image, extract the object region from the image, and perform histogram analysis using only the extracted object region. For example, the computing device 100 may identify an object region included in the image by analyzing the image using an image analysis model, or may receive at least a partial region of the image selected by the user as the object region, and extract only the object region from the image. Histogram analysis can be performed.

다양한 실시예에서, 컴퓨팅 장치(100)는 하나의 이미지에 복수의 객체가 포함된 경우, 복수의 객체에 각각에 대응하는 복수의 객체 영역을 식별하여 이미지로부터 복수의 객체 영역 각각을 추출할 수 있고, 각각 추출된 복수의 객체 영역에 대하여 히스토그램 분석을 개별적으로 수행할 수 있다.In various embodiments, when a plurality of objects are included in one image, the computing device 100 may identify a plurality of object regions respectively corresponding to the plurality of objects and extract each of the plurality of object regions from the image. , histogram analysis may be individually performed on each of the extracted object regions.

이때, 컴퓨팅 장치(100)는 복수의 객체 각각의 중요도에 기초하여, 복수의 객체 중 중요도가 기 설정된 중요도 이상인 객체들에 대응하는 객체 영역만을 추출하여 히스토그램 분석을 수행할 수 있다. 예컨대, 컴퓨팅 장치(100)는 하나의 이미지에 제1 내지 제3 객체가 포함되어 있고, 제1 내지 제3 객체 각각의 중요도가 제1 내지 제3 등급인 경우, 중요도가 제1 등급 및 제2 등급인 제1 객체 및 제2 객체 각각에 대응하는 객체 영역만을 추출하여 히스토그램 분석을 수행할 수 있고, 중요도가 제3 등급인 제3 객체에 대응하는 객체 영역은 배경 영역으로 설정하여 히스토그램 분석 대상에서 제외시킬 수 있다.In this case, the computing device 100 may perform histogram analysis by extracting only object regions corresponding to objects whose importance is greater than or equal to a preset importance among the plurality of objects, based on the importance of each of the plurality of objects. For example, when first to third objects are included in one image, and the importance of each of the first to third objects is first to third, the computing device 100 determines that the first to third objects are of first to third importance. Histogram analysis can be performed by extracting only object regions corresponding to each of the first and second objects of the first grade, and the object region corresponding to the third object of the third grade of importance is set as a background region to determine the histogram analysis target. can be excluded.

여기서, 복수의 객체 각각에 대한 중요도는 복수의 객체 각각에 대응하는 영역의 크기에 기초하여 결정될 수 있으나, 이에 한정되지 않고, 사용자로부터 직접 복수의 객체 각각에 대한 중요도를 설정(또는 입력)받을 수 있다.Here, the importance of each of the plurality of objects may be determined based on the size of the region corresponding to each of the plurality of objects, but is not limited thereto, and the importance of each of the plurality of objects may be set (or input) directly from the user. there is.

다양한 실시예에서, 컴퓨팅 장치(100)는 하나의 이미지에 복수의 객체가 포함된 경우, 복수의 객체를 모두 포함하는 하나의 객체 영역을 추출할 수 있고, 추출된 하나의 객체 영역에 대하여 히스토그램 분석을 개별적으로 수행할 수 있다.In various embodiments, when a plurality of objects are included in one image, the computing device 100 may extract one object region including all of the plurality of objects, and perform histogram analysis on the extracted one object region. can be done individually.

이때, 컴퓨팅 장치(100)는 복수의 객체 각각의 중요도에 기초하여, 복수의 객체 중 중요도가 기 설정된 중요도 이상인 객체들 만을 포함하는 하나의 객체 영역을 추출하여 히스토그램 분석을 수행할 수 있다.In this case, the computing device 100 may perform histogram analysis by extracting one object region including only objects whose importance is greater than or equal to a preset importance among the plurality of objects, based on the importance of each of the plurality of objects.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 포함된 배경 영역을 식별할 수 있고, 이미지로부터 배경 영역을 제거할 수 있으며, 배경 영역이 제거된 이미지에 대한 히스토그램 분석을 수행할 수 있다. 예컨대, 컴퓨팅 장치(100)는 이미지 분석 모델을 이용하여 이미지를 분석함으로써 이미지에 포함된 배경 영역을 식별하거나 사용자로부터 이미지 상의 적어도 일부 영역을 배경 영역으로서 선택받을 수 있고, 배경 영역에 대응하는 마스크 레이어를 생성하여 이미지와 결합시킬 수 있으며, 마스크 레이어와 결합된 이미지에 대한 히스토그램 분석을 수행할 수 있다.In various embodiments, the computing device 100 may identify a background region included in the image, remove the background region from the image, and perform histogram analysis on the image from which the background region has been removed. For example, the computing device 100 may identify a background area included in the image by analyzing the image using an image analysis model, or may select at least a partial area on the image as a background area from a user, and may use a mask layer corresponding to the background area. can be created and combined with the image, and histogram analysis can be performed on the image combined with the mask layer.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지를 그레이스케일 변환함에 따라 생성된 그레이스케일 이미지를 히스토그램 분석할 수 있고, 이를 통해 생성된 제2 히스토그램 그래프에 기초하여 이미지에 대한 보정을 수행할 수 있으며, 보정된 이미지에 대한 히스토그램 분석을 수행할 수 있다.In various embodiments, the computing device 100 may histogram-analyze the grayscale image generated by converting the image to grayscale, and perform correction on the image based on the second histogram graph generated through this, , it is possible to perform histogram analysis on the corrected image.

통상적으로, 그레이스케일 이미지에 대한 히스토그램 분석을 수행한 결과, 그레이스케일 값이 전반적으로 높게 분포되어 있을 경우 해당 이미지의 밝기가 밝고, 그레이스케일 값이 전반적으로 낮게 분포되어 있을 경우 해당 이미지의 밝기가 어둡다.Typically, as a result of performing histogram analysis on a grayscale image, when the grayscale values are generally distributed high, the brightness of the image is bright, and when the grayscale values are generally low, the brightness of the image is dark. .

즉, 컴퓨팅 장치(100)는 그레이스케일 값의 크기가 이미지의 밝기와 비례한다는 점을 고려하여, 제2 히스토그램 그래프의 그레이스케일 최소값이 기준 최소값 이상이거나 또는 제2 히스토그램 그래프의 그레이스케일 최대값이 기준 최대값 이하인 경우 즉, 이미지의 밝기가 너무 밝거나 너무 어두움에 따라 객체 인식에 악영향을 끼치는 것으로 판단되는 경우, 이미지에 대한 밝기 보정을 수행할 수 있다.That is, the computing device 100 considers that the size of the gray scale value is proportional to the brightness of the image, so that the minimum gray scale value of the second histogram graph is equal to or greater than the reference minimum value or the maximum gray scale value of the second histogram graph is the reference value. If it is less than the maximum value, that is, if it is determined that object recognition is adversely affected by the brightness of the image being too bright or too dark, brightness correction may be performed on the image.

또한, 통상적으로, 그레이스케일 이미지에 대한 히스토그램 분석을 수행한 결과, 그레이스케일 값이 전반적으로 고루 분포되어 있을 경우 해당 이미지의 명암비가 높고 선명하며, 그레이스케일 값이 전반적으로 좁게 분포되어 있을 경우 해당 이미지의 명암비가 낮고 흐릿해 보일 수 있다.In addition, typically, as a result of performing histogram analysis on grayscale images, if the grayscale values are generally evenly distributed, the contrast ratio of the corresponding image is high and clear, and if the grayscale values are generally narrowly distributed, the corresponding image The contrast ratio of the image may be low and may appear blurry.

즉, 컴퓨팅 장치(100)는 그레이스케일 값의 분포 범위와 명암비와 비례한다는 점을 고려하여, 제2 히스토그램 그래프의 그레이스케일 최대값과 최소값의 차이가 제1 기준 차이 값 이하이거나 또는 제2 기준 차이 값 이상인 경우 즉, 이미지의 명암이 너무 높거나 너무 낮음에 따라 객체 인식에 악영향을 끼치는 것으로 판단되는 경우, 이미지에 대한 명암 보정을 수행할 수 있다.That is, considering that the computing device 100 is proportional to the distribution range of gray scale values and the contrast ratio, the difference between the maximum gray scale value and the minimum value of the second histogram graph is equal to or less than the first reference difference value or the second reference difference value. If it is greater than the value, that is, if it is determined that object recognition is adversely affected by the contrast of the image being too high or too low, contrast correction may be performed on the image.

여기서, 이미지에 대한 밝기 보정과 명암 보정을 수행하는 것은 객체를 보다 정확하게 인식하기 위함인 바, 컴퓨팅 장치(100)는 그레이스케일 이미지로부터 객체 영역만을 추출하거나 배경 영역을 제거한 이후에 히스토그램 분석을 수행할 수 있고, 그레이스케일 이미지에서 객체 영역만을 추출하거나 배경 영역을 제거한 이후에 히스토그램 분석을 수행한 결과에 기초하여 원본 이미지에 대한 밝기 보정, 명암 보정을 수행할 수 있다.Here, performing brightness correction and contrast correction on the image is to more accurately recognize the object, and the computing device 100 extracts only the object area from the grayscale image or removes the background area and then performs histogram analysis. After extracting only the object area from the grayscale image or removing the background area, brightness correction and contrast correction may be performed on the original image based on a result of performing histogram analysis.

S120 단계에서, 컴퓨팅 장치(100)는 S110 단계를 통해 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프를 이용하여, 이미지로부터 하나 이상의 이미지 레이어를 추출할 수 있다. 이하, 도 6을 참조하여 보다 구체적으로 설명하도록 한다.In step S120, the computing device 100 may extract one or more image layers from the image by using the histogram graph generated by performing the histogram analysis on the image in step S110. Hereinafter, it will be described in more detail with reference to FIG. 6 .

도 6은 다양한 실시예에서, 이미지로부터 이미지 레이어를 추출하는 방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating a method of extracting an image layer from an image, in various embodiments.

도 6을 참조하면, S210 단계에서, 컴퓨팅 장치(100)는 기 설정된 기준에 따라 이미지 레이어 추출을 위한 픽셀 값을 선택할 수 있다.Referring to FIG. 6 , in step S210, the computing device 100 may select a pixel value for image layer extraction according to a preset criterion.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프인 복수의 픽셀 값에 따른 픽셀 수 그래프를 이용하여, 복수의 픽셀 값 중 픽셀 수가 가장 많은 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 uses a graph of the number of pixels according to a plurality of pixel values, which is a histogram graph generated by performing histogram analysis on an image, from a pixel value having the largest number of pixels among a plurality of pixel values. It is possible to sequentially select N pixel values.

이때, 컴퓨팅 장치(100)는 도 4에 도시된 바와 같이, 히스토그램 그래프가 적색(R) 히스토그램 그래프, 녹색(G) 히스토그램 그래프 및 청색(B) 히스토그램 그래프를 포함하는 경우, 각각의 색상에 대응하는 히스토그램 그래프에 대하여, 복수의 픽셀 값 중 픽셀 수가 가장 많은 픽셀 값부터 순차적으로 하나 이상의 픽셀 값을 개별적으로 선택할 수 있다.At this time, the computing device 100, as shown in FIG. 4, when the histogram graph includes a red (R) histogram graph, a green (G) histogram graph, and a blue (B) histogram graph, corresponding to each color. For the histogram graph, one or more pixel values may be individually selected sequentially from a pixel value having the largest number of pixels among a plurality of pixel values.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프인 복수의 픽셀 값에 따른 픽셀 수 그래프를 이용하여, 복수의 픽셀 값 각각에 대한 픽셀 수 합을 산출할 수 있고, 복수의 픽셀 값 중 픽셀 수 합이 가장 큰 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택할 수 있다. 예컨대, 컴퓨팅 장치(100)는 도 4에 도시된 바와 같이, 히스토그램 그래프가 적색(R) 히스토그램 그래프, 녹색(G) 히스토그램 그래프 및 청색(B) 히스토그램 그래프를 포함하는 경우, 복수의 픽셀 값 각각에 대한 적색, 녹색 및 청색의 픽셀 수를 합하여 픽셀 값별 픽셀 수 합을 산출할 수 있고, 산출된 픽셀 수 합이 가장 큰 픽셀 값부터 순차적으로 하나 이상의 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 calculates the sum of pixel numbers for each of a plurality of pixel values by using a graph of the number of pixels according to a plurality of pixel values, which is a histogram graph generated by performing histogram analysis on an image. Among the plurality of pixel values, N pixel values may be sequentially selected from a pixel value having the largest sum of pixel numbers. For example, as shown in FIG. 4 , the computing device 100, when the histogram graph includes a red (R) histogram graph, a green (G) histogram graph, and a blue (B) histogram graph, each of a plurality of pixel values The sum of the number of pixels for each pixel value may be calculated by summing the numbers of red, green, and blue pixels for each pixel, and one or more pixel values may be sequentially selected from a pixel value having the largest sum of the calculated number of pixels.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지를 그레이스케일 변환함에 따라 생성된 그레이스케일 이미지를 히스토그램 분석함에 따라 생성된 히스토그램 그래프를 이용하여 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 may select a pixel value using a histogram graph generated by performing histogram analysis on a grayscale image generated by converting the image into a gray scale.

보다 구체적으로, 먼저, 컴퓨팅 장치(100)는 이미지에 대한 히스토그램 분석의 수행하여 제1 히스토그램 그래프(예: 도 5)를 생성할 수 있다.More specifically, first, the computing device 100 may generate a first histogram graph (eg, FIG. 5 ) by performing histogram analysis on the image.

이후, 컴퓨팅 장치(100)는 이미지를 그레이스케일 변환함에 따라 그레이스케일 이미지를 생성하고, 그레이스케일 이미지에 대한 히스토그램 분석을 수행하여 제2 히스토그램 그래프(예컨대, 하나의 색상(검정색)에 대응하는 복수의 그레이스케일 값에 따른 픽셀 수 그래프)(예: 도 7)를 생성할 수 있다. 여기서, 그레이스케일 이미지에 대한 히스토그램 분석 방법은 상기의 이미지에 대한 히스토그램 분석 방법과 동일할 수 있으나, 이에 한정되지 않는다. Thereafter, the computing device 100 generates a grayscale image by converting the image into a grayscale, and performs a histogram analysis on the grayscale image to perform a second histogram graph (eg, a plurality of graphs corresponding to one color (black)). A graph of the number of pixels according to gray scale values) (eg, FIG. 7 ) may be generated. Here, the histogram analysis method for the grayscale image may be the same as the histogram analysis method for the above image, but is not limited thereto.

이후, 컴퓨팅 장치(100)는 제2 히스토그램 그래프를 이용하여 복수의 그레이스케일 값 중 픽셀 수가 가장 많은 그레이스케일 값부터 순차적으로 N개의 그레이스케일 값을 선택할 수 있고, 제1 히스토그램 그래프를 이용하여 복수의 픽셀 값 중 N개의 그레이스케일 값에 대응하는 N개의 픽셀 값을 선택할 수 있다.Thereafter, the computing device 100 may sequentially select N grayscale values starting from the grayscale value having the greatest number of pixels among the plurality of grayscale values using the second histogram graph, and using the first histogram graph to select N grayscale values. Among the pixel values, N pixel values corresponding to N gray scale values may be selected.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프인 복수의 픽셀 값에 따른 픽셀 수 그래프를 이용하여, 복수의 픽셀 값 각각에 대한 픽셀 수의 최대값 및 최소값의 차이(예컨대, 특정 픽셀 값에 대하여, 픽셀 수가 가장 많은 제1 색상의 픽셀 수와 픽셀 수가 가장 적은 제2 색상의 픽셀 수의 차이 값)를 산출하고, 복수의 픽셀 값 중 픽셀 수의 최대값 및 최소값의 차이가 기 설정된 값 이상인 적어도 하나의 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 uses a graph of the number of pixels according to a plurality of pixel values, which is a histogram graph generated by performing histogram analysis on an image, to obtain a maximum value of the number of pixels for each of a plurality of pixel values. and a minimum value difference (for example, a difference value between the number of pixels of a first color having the largest number of pixels and the number of pixels of a second color having the smallest number of pixels for a specific pixel value), and calculating the number of pixels among a plurality of pixel values. At least one pixel value having a difference between a maximum value and a minimum value equal to or greater than a predetermined value may be selected.

다양한 실시예에서, 컴퓨팅 장치(100)는 하나의 이미지에 복수의 객체가 포함됨에 따라 복수의 객체 영역 각각에 대한 히스토그램 분석을 개별적으로 수행한 경우, 복수의 객체 영역 각각에 대한 히스토그램 분석을 개별적으로 수행함에 따라 생성된 복수의 히스토그램 그래프를 이용하여 복수의 객체 각각에 대한 픽셀 값을 개별적으로 선택할 수 있다.In various embodiments, when a histogram analysis for each of the plurality of object regions is individually performed as a plurality of objects are included in one image, the computing device 100 individually performs histogram analysis for each of the plurality of object regions. A pixel value for each of a plurality of objects may be individually selected using a plurality of histogram graphs generated as the process is performed.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프인 복수의 픽셀 값에 따른 픽셀 수 그래프를 이용하여, 히스토그램 그래프의 변곡점에 대응하는 하나 이상의 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 calculates one or more pixel values corresponding to an inflection point of the histogram graph by using a graph of the number of pixels according to a plurality of pixel values, which is a histogram graph generated by performing histogram analysis on an image. You can choose.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 포함된 객체 영역을 식별할 수 있고, 식별된 객체 영역을 분석하여 객체의 색상을 추출할 수 있으며, 히스토그램 그래프에 포함된 복수의 그래프(예컨대, 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프) 중 추출된 객체의 색상에 대응되는 그래프만을 이용하여 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 may identify an object region included in an image, extract a color of an object by analyzing the identified object region, and a plurality of graphs included in a histogram graph (eg, A pixel value may be selected using only a graph corresponding to the color of an extracted object among graphs of the number of pixels according to a plurality of pixel values corresponding to a plurality of colors.

다양한 실시예에서, 컴퓨팅 장치(100)는 이미지에 포함된 객체 영역을 식별할 수 있고, 식별된 객체 영역에 기초하여 이미지로부터 객체 영역 및 배경 영역을 각각 추출함으로써 객체 이미지 및 배경 이미지를 생성할 수 있으며, 객체 이미지 및 배경 이미지 각각에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프를 이용하여 객체에 대응하는 하나 이상의 제1 픽셀 값과 배경에 대응하는 하나 이상의 제2 픽셀 값을 선택할 수 있다.In various embodiments, the computing device 100 may identify an object region included in the image, and generate the object image and the background image by extracting the object region and the background region from the image, respectively, based on the identified object region. In addition, one or more first pixel values corresponding to the object and one or more second pixel values corresponding to the background may be selected using the histogram graph generated by performing histogram analysis on each of the object image and the background image.

이때, 컴퓨팅 장치(100)는 추출된 객체의 색상이 둘 이상인 경우, 둘 이상의 색상 각각에 대응되는 그래프를 이용하여 픽셀 값을 선택할 수 있으나, 이에 한정되지 않고, 둘 이상의 색상 중 가장 많은 픽셀 수를 가진 하나의 색상만에 대응되는 그래프를 이용하여 픽셀 값을 선택할 수 있다.At this time, if the color of the extracted object is two or more, the computing device 100 may select a pixel value using a graph corresponding to each of the two or more colors, but is not limited thereto, and selects the largest number of pixels among the two or more colors. A pixel value can be selected using a graph corresponding to only one color.

S220 단계에서, 컴퓨팅 장치(100)는 S210 단계에서 선택된 픽셀 값을 기준으로 이미지로부터 이미지 레이어를 추출할 수 있다.In step S220, the computing device 100 may extract an image layer from the image based on the pixel value selected in step S210.

다양한 실시예에서, 컴퓨팅 장치(100)는 히스토그램 그래프를 이용하여 복수의 픽셀 값 중 N개의 픽셀 값이 선택된 경우, N개의 픽셀 값을 이용하여 복수의 이미지 레이어를 추출할 수 있다.In various embodiments, when N pixel values are selected from among a plurality of pixel values using the histogram graph, the computing device 100 may extract a plurality of image layers using the N pixel values.

일례로, 컴퓨팅 장치(100)는 히스토그램 그래프를 이용하여 선택된 픽셀 값이 적색(R) 230, 녹색(G) 100 및 청색(B) 70인 경우, 색 픽셀 값이 230인 모든 픽셀들(예컨대, 적색 픽셀 값 230, 녹색 픽셀 값 0 내지 255, 청색 픽셀 값 0 내지 255인 픽셀들)을 포함하는 이미지 레이어, 녹색 픽셀 값이 100인 모든 픽셀들(예컨대, 적색 픽셀 값 0 내지 255, 녹색 픽셀 값 100, 청색 픽셀 값 0 내지 255인 픽셀들)을 포함하는 이미지 레이어 및 청색 픽셀 값이 70인 모든 픽셀들(예컨대, 적색 픽셀 값 0 내지 255, 녹색 픽셀 값 0 내지 255 및 청색 픽셀 값 70인 픽셀 들)을 포함하는 이미지 레이어를 추출할 수 있다.For example, when the pixel values selected using the histogram graph are red (R) 230, green (G) 100, and blue (B) 70, all pixels having a color pixel value of 230 (eg, An image layer containing red pixel value 230, green pixel value 0 to 255, blue pixel value 0 to 255), all pixels with green pixel value 100 (e.g. red pixel value 0 to 255, green pixel value) An image layer containing 100, pixels with a blue pixel value of 0 to 255, and all pixels with a blue pixel value of 70 (e.g., pixels with a red pixel value of 0 to 255, a green pixel value of 0 to 255, and a blue pixel value of 70). s) can be extracted.

다른 예로, 컴퓨팅 장치(100)는 히스토그램 그래프를 이용하여 선택된 픽셀 값이 적색(R) 230, 녹색(G) 100 및 청색(B) 70인 경우, 적색 픽셀 값 230, 녹색 픽셀 값 100 및 청색 픽셀 값 70인 픽셀들을 포함하는 하나의 이미지 레이어를 추출할 수 있다.As another example, when the pixel values selected using the histogram graph are 230 red (R), 100 green (G), and 70 blue (B), the computing device 100 obtains a red pixel value of 230, a green pixel value of 100, and a blue pixel. One image layer containing pixels with a value of 70 can be extracted.

다시, 도 3을 참조하면, S130 단계에서, 컴퓨팅 장치(100)는 S120 단계를 거쳐 추출된 이미지 레이어를 이용하여 이미지에 포함된 객체를 인식할 수 있다.Again, referring to FIG. 3 , in step S130 , the computing device 100 may recognize an object included in the image using the image layer extracted through step S120 .

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 이미지 레이어를 통합하여 객체를 인식할 수 있다. 예컨대, 컴퓨팅 장치(100)는 하나의 이미지로부터 복수의 이미지 레이어가 추출된 경우, 복수의 이미지 레이어를 병합하여 하나의 통합 이미지 레이어를 생성하고, 통합 이미지 레이어를 분석하여 객체에 관한 하나 이상의 특징 값을 추출할 수 있으며, 추출된 하나 이상의 특징 값을 이용하여 객체를 인식할 수 있다.In various embodiments, the computing device 100 may recognize an object by integrating a plurality of image layers. For example, when a plurality of image layers are extracted from one image, the computing device 100 generates one integrated image layer by merging the plurality of image layers, and analyzes the integrated image layer to generate one or more characteristic values of an object. can be extracted, and an object can be recognized using one or more extracted feature values.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 이미지 레이어를 개별적으로 이용하여 객체를 인식할 수 있다. 예컨대, 컴퓨팅 장치(100)는 하나의 이미지로부터 복수의 이미지 레이어가 추출된 경우, 복수의 이미지 레이어 각각을 분석함에 따라 하나 이상의 특징 값을 각각 추출할 수 있고, 각각 추출된 하나 이상의 특징 값을 이용하여 객체를 개별적으로 추정할 수 있으며, 개별적으로 추정된 객체에 관한 정보를 이용하여 최종적으로 객체를 인식할 수 있다.In various embodiments, the computing device 100 may recognize an object by individually using a plurality of image layers. For example, when a plurality of image layers are extracted from one image, the computing device 100 may extract one or more feature values by analyzing each of the plurality of image layers, and use the one or more feature values respectively extracted. Thus, the object can be individually estimated, and the object can be finally recognized using information about the individually estimated object.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 이미지 레이어로부터 중복 추출된 특징 값만을 이용하여 객체를 인식할 수 있다. 예컨대, 컴퓨팅 장치(100)는 하나의 이미지로부터 복수의 이미지 레이어가 추출된 경우, 복수의 이미지 레이어 각각을 분석하여 객체에 관한 복수의 특징 값을 추출할 수 있고, 추출된 복수의 특징 값 중 둘 이상 중복 추출된 적어도 하나의 특징 값만을 이용하여 객체를 인식할 수 있다.In various embodiments, the computing device 100 may recognize an object using only feature values redundantly extracted from a plurality of image layers. For example, when a plurality of image layers are extracted from one image, the computing device 100 may extract a plurality of feature values of an object by analyzing each of the plurality of image layers, and may extract two of the plurality of extracted feature values. An object may be recognized using only at least one feature value extracted over and over again.

다양한 실시예에서, 컴퓨팅 장치(100)는 복수의 이미지 레이어 중 적어도 일부의 이미지 레이어만을 이용하여 객체를 인식할 수 있다. In various embodiments, the computing device 100 may recognize an object using only at least some image layers among a plurality of image layers.

보다 구체적으로, 먼저, 컴퓨팅 장치(100)는 하나의 이미지로부터 복수의 이미지 레이어가 추출된 경우, 복수의 이미지 레이어 각각을 분석함에 따라 하나 이상의 특징 값을 각각 추출할 수 있고, 각각 추출된 하나 이상의 특징 값을 비교함에 따라 복수의 이미지 레이어 간 유사도를 산출할 수 있다.More specifically, first, when a plurality of image layers are extracted from one image, the computing device 100 may extract one or more feature values by analyzing each of the plurality of image layers, and may extract one or more feature values respectively. A similarity between a plurality of image layers may be calculated by comparing feature values.

여기서, 각각 추출된 하나 이상의 특징 값을 비교함에 따라 복수의 이미지 레이어 간 유사도를 산출하는 방법은 둘 이상의 특징 값에 대한 자카드 유사도(Jaccard Similarity), 코사인 유사도(Cosine Similarity), 유클리디안 유사도(Euclidean Similarity) 중 적어도 하나의 유사도를 산출하고, 산출된 유사도를 둘 이상의 특징 값 각각이 추출된 이미지 레이어 간의 유사도로 정의하는 방법이 적용될 수 있으나, 이에 한정되지 않는다.Here, the method of calculating the similarity between a plurality of image layers by comparing one or more extracted feature values is Jaccard Similarity, Cosine Similarity, and Euclidean Similarity for two or more feature values. A method of calculating at least one similarity among similarity and defining the calculated similarity as a similarity between image layers from which two or more feature values are respectively extracted may be applied, but is not limited thereto.

이후, 컴퓨팅 장치(100)는 복수의 이미지 레이어 간의 유사도에 기초하여, 유사도가 제1 기준 값 이상인 둘 이상의 이미지 레이어를 선택할 수 있고, 선택한 둘 이상의 이미지 레이어를 병합할 수 있으며, 병합된 둘 이상의 이미지 레이어를 분석하여 추출된 특징 값을 기반으로 객체를 인식할 수 있다. 그러나, 이에 한정되지 않고, 컴퓨팅 장치(100)는 복수의 이미지 레이어 간의 유사도에 기초하여, 유사도가 제2 기준 값 미만인 적어도 하나의 이미지 레이어를 제외한 나머지 이미지 레이어들을 병합하여 객체를 인식할 수 있다.Thereafter, the computing device 100 may select two or more image layers having similarities greater than or equal to a first reference value based on the similarities between the plurality of image layers, merge the selected two or more image layers, and merge the two or more images. An object can be recognized based on the feature value extracted by analyzing the layer. However, the computing device 100 is not limited thereto, and the computing device 100 may recognize an object by merging image layers other than at least one image layer having a similarity less than a second reference value based on a similarity between a plurality of image layers.

다양한 실시예에서, 컴퓨팅 장치(100)는 객체 이미지 및 배경 이미지 각각에 대한 히스토그램 분석을 수행함에 따라 생성된 히스토그램 그래프를 이용하여 객체에 대응하는 하나 이상의 제1 픽셀 값과 배경에 대응하는 하나 이상의 제2 픽셀 값을 선택된 경우, 하나 이상의 제1 픽셀 값을 기반으로 추출된 복수의 제1 이미지 레이어로부터 복수의 제1 특징 값을 추출할 수 있고, 하나 이상의 제2 픽셀 값을 기반으로 추출된 복수의 제2 이미지 레이어로부터 복수의 제2 특징 값을 추출할 수 있으며, 복수의 제1 특징 값 중 복수의 제2 특징 값과 중복되지 않은 적어도 하나의 제1 특징 값 만을 이용하여 객체를 인식할 수 있다.In various embodiments, the computing device 100 uses a histogram graph generated by performing histogram analysis on each of the object image and the background image, and uses one or more first pixel values corresponding to the object and one or more first pixel values corresponding to the background. When 2 pixel values are selected, a plurality of first feature values may be extracted from a plurality of first image layers extracted based on one or more first pixel values, and a plurality of first feature values extracted based on one or more second pixel values. A plurality of second feature values may be extracted from the second image layer, and the object may be recognized using only at least one first feature value that does not overlap with the plurality of second feature values among the plurality of first feature values. .

상술된 바와 같이, 본 발명의 다양한 실시예에 따른 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법은 고해상도 이미지로부터 복수의 이미지 레이어를 추출하고, 추출된 복수의 이미지 레이어 중 객체와 관련된 적어도 하나의 이미지 레이어 만을 선택적으로 병합하며, 인공지능 모델을 기반으로, 병합된 이미지 레이어를 분석하여 객체를 인식함으로써, 인공지능 모델을 통한 객체 인식률을 향상시킬 수 있다는 이점이 있다.As described above, the object recognition method using the artificial intelligence model with improved recognition rate and improved recognition rate of the artificial intelligence model through image histogram analysis according to various embodiments of the present invention extracts a plurality of image layers from a high-resolution image, and extracts the extracted It is possible to improve the object recognition rate through the artificial intelligence model by selectively merging at least one image layer related to the object among the plurality of image layers and recognizing the object by analyzing the merged image layer based on the artificial intelligence model. There is an advantage.

전술한 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법은 도면에 도시된 순서도를 참조하여 설명하였다. 간단한 설명을 위해 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법은 일련의 블록들로 도시하여 설명하였으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 본 명세서에 도시되고 시술된 것과 상이한 순서로 수행되거나 또는 동시에 수행될 수 있다. 또한, 본 명세서 및 도면에 기재되지 않은 새로운 블록이 추가되거나, 일부 블록이 삭제 또는 변경된 상태로 수행될 수 있다.The recognition rate improvement of the artificial intelligence model through the above-described image histogram analysis and the object recognition method using the artificial intelligence model with improved recognition rate have been described with reference to the flow chart shown in the drawings. For a brief description, the recognition rate improvement of the artificial intelligence model through image histogram analysis and the object recognition method using the artificial intelligence model with improved recognition rate have been illustrated and described as a series of blocks, but the present invention is not limited to the order of the blocks, Some blocks may be performed in a different order or concurrently than those shown and performed herein. In addition, new blocks not described in the present specification and drawings may be added, or some blocks may be deleted or changed.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features of the present invention. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 객체 인식 장치(컴퓨팅 장치)
200 : 사용자 단말
300 : 외부 서버
400 : 네트워크
100: object recognition device (computing device)
200: user terminal
300: external server
400: Network

Claims (14)

컴퓨팅 장치에 의해 수행되는 방법에 있어서,
이미지에 대한 히스토그램 분석을 수행하는 단계;
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 단계; 및
상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 단계를 포함하며,
상기 하나 이상의 이미지 레이어를 추출하는 단계는,
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 각각에 대한 상기 복수의 색상의 픽셀 수 합을 산출하고, 상기 복수의 픽셀 값 중 상기 산출된 픽셀 수 합이 가장 큰 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택하는 단계; 및
상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
In a method performed by a computing device,
performing histogram analysis on the image;
extracting one or more image layers from the image based on a result of performing histogram analysis on the image; and
Recognizing an object included in the image by analyzing the extracted one or more image layers,
The step of extracting the one or more image layers,
Using a histogram graph generated based on a result of performing histogram analysis on the image, wherein the histogram graph includes a graph of the number of pixels according to a plurality of pixel values corresponding to a plurality of colors, the plurality of pixel values calculating the sum of the number of pixels of the plurality of colors for each color, and sequentially selecting N pixel values from among the plurality of pixel values, starting with a pixel value having the largest sum of the calculated number of pixels; and
Extracting a plurality of image layers from the image based on the selected N pixel values,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 하나 이상의 이미지 레이어를 추출하는 단계는,
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 중 픽셀 수가 가장 많은 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택하는 단계; 및
상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
The step of extracting the one or more image layers,
A pixel value having the largest number of pixels among the plurality of pixel values using a histogram graph generated based on a result of performing histogram analysis on the image, wherein the histogram graph includes a graph of the number of pixels according to a plurality of pixel values. sequentially selecting N pixel values from; and
Extracting a plurality of image layers from the image based on the selected N pixel values,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
삭제delete 제1항에 있어서,
상기 이미지에 대한 히스토그램 분석을 수행하는 단계는,
상기 이미지에 대한 히스토그램 분석의 수행하여 제1 히스토그램 그래프 - 상기 제1 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 생성하는 단계; 및
상기 이미지를 그레이스케일 변환하여 그레이스케일 이미지를 생성하고, 상기 생성된 그레이스케일 이미지에 대한 히스토그램 분석을 수행하여 제2 히스토그램 그래프 - 상기 제2 히스토그램 그래프는 하나의 색상에 대응하는 복수의 그레이스케일 값에 따른 픽셀 수 그래프를 포함함 - 를 생성하는 단계를 포함하며,
상기 하나 이상의 이미지 레이어를 추출하는 단계는,
상기 생성된 제2 히스토그램 그래프를 이용하여 상기 복수의 그레이스케일 값 중 픽셀 수가 가장 많은 그레이스케일 값부터 순차적으로 N개의 그레이스케일 값을 선택하는 단계; 및
상기 생성된 제1 히스토그램 그래프를 이용하여 상기 복수의 픽셀 값 중 상기 선택된 N개의 그레이스케일 값에 대응하는 N개의 픽셀 값을 선택하고, 상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Performing histogram analysis on the image,
generating a first histogram graph by performing histogram analysis on the image, wherein the first histogram graph includes a graph of the number of pixels according to a plurality of pixel values corresponding to a plurality of colors; and
A grayscale image is generated by converting the image to grayscale, and a histogram analysis is performed on the generated grayscale image to obtain a second histogram graph - the second histogram graph is based on a plurality of grayscale values corresponding to one color. including a graph of the number of pixels according to;
The step of extracting the one or more image layers,
sequentially selecting N grayscale values from the grayscale values having the largest number of pixels among the plurality of grayscale values using the generated second histogram graph; and
N pixel values corresponding to the selected N grayscale values are selected from among the plurality of pixel values using the generated first histogram graph, and a plurality of image layers are selected from the image based on the selected N pixel values. Including the step of extracting,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 하나 이상의 이미지 레이어를 추출하는 단계는,
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 각각에 대한 픽셀 수의 최대값 및 최소값의 차이를 산출하고, 상기 복수의 픽셀 값 중 상기 산출된 차이가 기 설정된 값 이상인 적어도 하나의 픽셀 값을 선택하는 단계; 및
상기 선택된 적어도 하나의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
The step of extracting the one or more image layers,
Using a histogram graph generated based on a result of performing histogram analysis on the image, wherein the histogram graph includes a graph of the number of pixels according to a plurality of pixel values corresponding to a plurality of colors, the plurality of pixel values calculating a difference between a maximum value and a minimum value of the number of pixels for each pixel value, and selecting at least one pixel value having the calculated difference greater than or equal to a predetermined value among the plurality of pixel values; and
Extracting a plurality of image layers from the image based on the selected at least one pixel value,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 포함된 객체를 인식하는 단계는,
상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어를 병합하여 하나의 통합 이미지 레이어를 생성하는 단계;
상기 생성된 통합 이미지 레이어를 분석하여 상기 객체에 관한 하나 이상의 특징 값을 추출하는 단계; 및
상기 추출된 하나 이상의 특징 값을 이용하여 상기 객체를 인식하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Recognizing an object included in the image,
When a plurality of image layers are extracted from the image, generating a single integrated image layer by merging the extracted plurality of image layers;
extracting one or more feature values of the object by analyzing the generated integrated image layer; and
Recognizing the object using the extracted one or more feature values,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 포함된 객체를 인식하는 단계는,
상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어 각각을 분석하여 상기 객체에 관한 하나 이상의 특징 값을 각각 추출하고, 상기 각각 추출된 하나 이상의 특징 값을 이용하여 상기 객체를 개별적으로 추정하는 단계; 및
상기 개별적으로 추정된 객체에 관한 정보를 이용하여 상기 객체를 인식하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Recognizing an object included in the image,
When a plurality of image layers are extracted from the image, one or more feature values of the object are extracted by analyzing each of the extracted image layers, and the object is obtained using the one or more feature values respectively extracted. estimating individually; and
Recognizing the object using information about the individually estimated object,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 포함된 객체를 인식하는 단계는,
상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어 각각을 분석하여 상기 객체에 관한 복수의 특징 값을 추출하고, 상기 추출된 복수의 특징 값 중 둘 이상 중복 추출된 적어도 하나의 특징 값만은 이용하여 상기 객체를 인식하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Recognizing an object included in the image,
When a plurality of image layers are extracted from the image, a plurality of feature values of the object are extracted by analyzing each of the extracted image layers, and at least one of two or more of the extracted feature values is repeatedly extracted. Recognizing the object using only the feature value of
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 포함된 객체를 인식하는 단계는,
상기 이미지로부터 복수의 이미지 레이어가 추출된 경우, 상기 추출된 복수의 이미지 레이어 각각을 분석하여 하나 이상의 특징 값을 각각 추출하고, 상기 각각 추출된 하나 이상의 특징 값을 비교하여, 상기 추출된 복수의 이미지 레이어 간 유사도를 산출하는 단계; 및
상기 산출된 유사도에 기초하여 상기 추출된 복수의 이미지 레이어 중 둘 이상의 이미지 레이어를 병합하고, 상기 병합된 둘 이상의 이미지 레이어를 분석하여 상기 객체를 인식하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Recognizing an object included in the image,
When a plurality of image layers are extracted from the image, each of the extracted image layers is analyzed to extract one or more feature values, and the extracted one or more feature values are compared to obtain a plurality of extracted images. Calculating a degree of similarity between layers; and
Merging two or more image layers among the plurality of extracted image layers based on the calculated similarity, and recognizing the object by analyzing the merged two or more image layers,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 대한 히스토그램 분석을 수행하는 단계는,
상기 이미지를 그레이스케일 변환하여 그레이스케일 이미지를 생성하고, 상기 생성된 그레이스케일 이미지에 대한 히스토그램 분석을 수행함에 따라 생성된 제2 히스토그램 그래프 - 상기 제2 히스토그램 그래프는 복수의 그레이스케일 값에 따른 픽셀 수 그래프를 포함함 - 에 기초하여 상기 이미지에 대한 보정을 수행하는 단계; 및
상기 보정된 이미지에 대한 히스토그램 분석을 수행함에 따라 제1 히스토그램 그래프를 생성하는 단계를 포함하며,
상기 이미지에 대한 보정을 수행하는 단계는,
상기 제2 히스토그램 그래프의 그레이스케일 최소값이 기준 최소값 이상이거나 또는 상기 제2 히스토그램 그래프의 그레이스케일 최대값이 기준 최대값 이하인 경우, 상기 이미지에 대한 밝기 보정을 수행하는 단계; 및
상기 제2 히스토그램 그래프의 그레이스케일 최대값과 최소값의 차이가 제1 기준 차이 값 이하이거나 또는 제2 기준 차이 값 이상인 경우, 상기 이미지에 대한 명암 보정을 수행하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Performing histogram analysis on the image,
A second histogram graph generated by converting the image to gray scale to generate a gray scale image and performing histogram analysis on the generated gray scale image - the second histogram graph is the number of pixels according to a plurality of gray scale values performing a correction on the image based on - including a graph; and
Generating a first histogram graph by performing histogram analysis on the corrected image,
The step of correcting the image is,
performing brightness correction on the image when the minimum gray scale value of the second histogram graph is greater than or equal to the reference minimum value or the maximum gray scale value of the second histogram graph is less than or equal to the reference maximum value; and
Performing contrast correction on the image when the difference between the maximum and minimum grayscale values of the second histogram graph is less than or equal to a first reference difference value or greater than or equal to a second reference difference value,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 대한 히스토그램 분석을 수행하는 단계는,
상기 이미지에 포함된 객체 영역을 식별하는 단계; 및
상기 이미지로부터 상기 식별된 객체 영역을 추출하고, 상기 추출된 객체 영역에 대한 히스토그램 분석을 수행하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Performing histogram analysis on the image,
identifying an object region included in the image; and
Extracting the identified object region from the image and performing histogram analysis on the extracted object region.
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
제1항에 있어서,
상기 이미지에 대한 히스토그램 분석을 수행하는 단계는,
상기 이미지에 포함된 배경 영역을 식별하는 단계;
상기 식별된 배경 영역에 대응하는 마스크 레이어를 생성하고, 상기 생성된 마스크 레이어를 상기 이미지와 결합하는 단계; 및
상기 생성된 마스크 레이어와 결합된 이미지에 대한 히스토그램 분석을 수행하는 단계를 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법.
According to claim 1,
Performing histogram analysis on the image,
identifying a background region included in the image;
creating a mask layer corresponding to the identified background region and combining the created mask layer with the image; and
Including performing histogram analysis on the image combined with the generated mask layer,
Object recognition method using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
프로세서;
네트워크 인터페이스;
메모리; 및
상기 메모리에 로드(load) 되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되,
상기 컴퓨터 프로그램은,
이미지에 대한 히스토그램 분석을 수행하는 인스트럭션(instruction);
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 인스트럭션; 및
상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 인스트럭션을 포함하며,
상기 하나 이상의 이미지 레이어를 추출하는 인스트럭션은,
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 각각에 대한 상기 복수의 색상의 픽셀 수 합을 산출하고, 상기 복수의 픽셀 값 중 상기 산출된 픽셀 수 합이 가장 큰 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택하는 인스트럭션; 및
상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 인스트럭션을 포함하는,
이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 장치.
processor;
network interface;
Memory; and
A computer program loaded into the memory and executed by the processor,
The computer program,
instructions for performing histogram analysis on the image;
instructions for extracting one or more image layers from the image based on a result of performing histogram analysis on the image; and
An instruction for recognizing an object included in the image by analyzing the extracted one or more image layers,
The instructions for extracting the one or more image layers,
Using a histogram graph generated based on a result of performing histogram analysis on the image, wherein the histogram graph includes a graph of the number of pixels according to a plurality of pixel values corresponding to a plurality of colors, the plurality of pixel values an instruction for calculating a sum of the number of pixels of the plurality of colors for each color, and sequentially selecting N pixel values from among the plurality of pixel values, starting from a pixel value in which the calculated sum of the number of pixels is the largest; and
Including instructions for extracting a plurality of image layers from the image based on the selected N pixel values,
Object recognition device using artificial intelligence model with improved recognition rate and improved recognition rate of artificial intelligence model through image histogram analysis.
컴퓨팅 장치와 결합되어,
이미지에 대한 히스토그램 분석을 수행하는 단계;
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여, 상기 이미지로부터 하나 이상의 이미지 레이어를 추출하는 단계; 및
상기 추출된 하나 이상의 이미지 레이어를 분석하여 상기 이미지에 포함된 객체를 인식하는 단계를 포함하며,
상기 하나 이상의 이미지 레이어를 추출하는 단계는,
상기 이미지에 대한 히스토그램 분석의 수행 결과에 기초하여 생성된 히스토그램 그래프 - 상기 히스토그램 그래프는 복수의 색상 각각에 대응하는 복수의 픽셀 값에 따른 픽셀 수 그래프를 포함함 - 를 이용하여, 상기 복수의 픽셀 값 각각에 대한 상기 복수의 색상의 픽셀 수 합을 산출하고, 상기 복수의 픽셀 값 중 상기 산출된 픽셀 수 합이 가장 큰 픽셀 값부터 순차적으로 N개의 픽셀 값을 선택하는 단계; 및
상기 선택된 N개의 픽셀 값을 기준으로 상기 이미지로부터 복수의 이미지 레이어를 추출하는 단계를 포함하는 이미지 히스토그램 분석을 통한 인공지능 모델의 인식률 향상 및 인식률이 향상된 인공지능 모델을 이용한 객체 인식 방법을 실행시키기 위하여 컴퓨팅 장치로 판독 가능한 기록매체에 저장된, 컴퓨터프로그램.
Combined with a computing device,
performing histogram analysis on the image;
extracting one or more image layers from the image based on a result of performing histogram analysis on the image; and
Recognizing an object included in the image by analyzing the extracted one or more image layers,
The step of extracting the one or more image layers,
Using a histogram graph generated based on a result of performing histogram analysis on the image, wherein the histogram graph includes a graph of the number of pixels according to a plurality of pixel values corresponding to a plurality of colors, the plurality of pixel values calculating the sum of the number of pixels of the plurality of colors for each color, and sequentially selecting N pixel values from among the plurality of pixel values, starting with a pixel value having the largest sum of the calculated number of pixels; and
In order to improve the recognition rate of the artificial intelligence model through image histogram analysis, including the step of extracting a plurality of image layers from the image based on the selected N pixel values, and to execute an object recognition method using the artificial intelligence model with improved recognition rate. A computer program stored on a recording medium readable by a computing device.
KR1020220127042A 2022-10-05 2022-10-05 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio KR102556544B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220127042A KR102556544B1 (en) 2022-10-05 2022-10-05 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio
KR1020230090712A KR20240047905A (en) 2022-10-05 2023-07-12 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220127042A KR102556544B1 (en) 2022-10-05 2022-10-05 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230090712A Division KR20240047905A (en) 2022-10-05 2023-07-12 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio

Publications (1)

Publication Number Publication Date
KR102556544B1 true KR102556544B1 (en) 2023-07-18

Family

ID=87423372

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220127042A KR102556544B1 (en) 2022-10-05 2022-10-05 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio
KR1020230090712A KR20240047905A (en) 2022-10-05 2023-07-12 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230090712A KR20240047905A (en) 2022-10-05 2023-07-12 Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio

Country Status (1)

Country Link
KR (2) KR102556544B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101906796B1 (en) * 2017-07-03 2018-10-11 한국씨텍(주) Device and method for image analyzing based on deep learning
KR20190027172A (en) * 2017-09-06 2019-03-14 단국대학교 산학협력단 360-degree Image Generation System and Method for Synchronizing Time and Position of Object
KR20220111074A (en) * 2021-02-01 2022-08-09 한국로봇융합연구원 Loaded object recognition device and object recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101906796B1 (en) * 2017-07-03 2018-10-11 한국씨텍(주) Device and method for image analyzing based on deep learning
KR20190027172A (en) * 2017-09-06 2019-03-14 단국대학교 산학협력단 360-degree Image Generation System and Method for Synchronizing Time and Position of Object
KR20220111074A (en) * 2021-02-01 2022-08-09 한국로봇융합연구원 Loaded object recognition device and object recognition method

Also Published As

Publication number Publication date
KR20240047905A (en) 2024-04-12

Similar Documents

Publication Publication Date Title
US20190095301A1 (en) Method for detecting abnormal session
AU2019451948B2 (en) Real-time video ultra resolution
US20220012533A1 (en) Object Recognition Method and Apparatus
CN110717851A (en) Image processing method and device, neural network training method and storage medium
CN111696110B (en) Scene segmentation method and system
US20210073644A1 (en) Compression of machine learning models
KR102367409B1 (en) Method, server and computer program for predicting it service failure using pre-learned failure prediction model
CN113283368B (en) Model training method, face attribute analysis method, device and medium
CN113095470A (en) Neural network training method, image processing method and device, and storage medium
CN115018039A (en) Neural network distillation method, target detection method and device
JP2020038574A (en) Image learning program, image learning method, image recognition program, image recognition method, and image recognition device
CN115410030A (en) Target detection method, target detection device, computer equipment and storage medium
EP3992861A1 (en) System and method for parameter compression of capsule networks using deep features
EP4074037A1 (en) Deep palette prediction
CN114299304A (en) Image processing method and related equipment
KR102556544B1 (en) Method, apparatus and computer program for improving recognition ratio of artificial intelligence model through image histogram analysis and recognizing object using artificial intelligence model with improved recognition ratio
WO2020187029A1 (en) Image processing method and device, neural network training method, and storage medium
US20230073175A1 (en) Method and system for processing image based on weighted multiple kernels
WO2023115814A1 (en) Fpga hardware architecture, data processing method therefor and storage medium
KR102581969B1 (en) Method, computing device and computer program for interpolating lidar point cloud to improve object recognition
KR102513365B1 (en) Method, apparatus and computer program for recognizing traffic signal information for automatic driving of vehicle
KR102597652B1 (en) 3d point cloud clustering and deep learning convergence enhanced object detection recogniton method, computing device and computer program
KR102507906B1 (en) Automatic driving vehicle localization method, apparatus and computer program using low-volume normal distribution transform map
KR102608777B1 (en) Method, apparatus and computer program for providing automated calibration service for user's profile image
US20220159278A1 (en) Skip convolutions for efficient video processing

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant