KR102470139B1 - Device and method of searching objects based on quad tree - Google Patents

Device and method of searching objects based on quad tree Download PDF

Info

Publication number
KR102470139B1
KR102470139B1 KR1020200039617A KR20200039617A KR102470139B1 KR 102470139 B1 KR102470139 B1 KR 102470139B1 KR 1020200039617 A KR1020200039617 A KR 1020200039617A KR 20200039617 A KR20200039617 A KR 20200039617A KR 102470139 B1 KR102470139 B1 KR 102470139B1
Authority
KR
South Korea
Prior art keywords
image
cell
cells
division
sub
Prior art date
Application number
KR1020200039617A
Other languages
Korean (ko)
Other versions
KR20210122462A (en
Inventor
김종완
오덕신
전형준
Original Assignee
삼육대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼육대학교산학협력단 filed Critical 삼육대학교산학협력단
Priority to KR1020200039617A priority Critical patent/KR102470139B1/en
Publication of KR20210122462A publication Critical patent/KR20210122462A/en
Application granted granted Critical
Publication of KR102470139B1 publication Critical patent/KR102470139B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details

Abstract

본 발명의 실시예에 따르면, 영상을 입력받아 영상 내 객체를 탐지하는 객체 탐지 방법에 있어서, 상기 객체를 탐지하기 위한 분석 대상인 상기 영상을 입력받는 단계; 상기 영상을 4개의 셀로 분할하고, 상기 셀 중에서 상기 객체가 존재하는 상기 셀을 4개의 하위 셀로 한번 이상 분할하여 상기 영상 내 상기 객체의 분포를 분석하는 단계; 상기 영상 또는 상기 객체의 분포에 대한 상기 영상의 분석 결과를 저장하는 단계; 및 상기 객체의 분포에 대한 상기 분석 결과를 출력하는 단계를 포함하는 객체 탐지 방법이 제공된다.According to an embodiment of the present invention, an object detection method for detecting an object in an image by receiving an image includes receiving the image as an analysis target for detecting the object; analyzing a distribution of the object in the image by dividing the image into four cells and dividing the cell in which the object exists among the cells into four lower cells more than once; storing an analysis result of the image for the distribution of the image or the object; and outputting the analysis result for the distribution of the object.

Description

쿼드 트리 기반의 객체 탐지 방법 및 장치{DEVICE AND METHOD OF SEARCHING OBJECTS BASED ON QUAD TREE}Quad tree-based object detection method and apparatus {DEVICE AND METHOD OF SEARCHING OBJECTS BASED ON QUAD TREE}

본 발명은 객체를 탐지하는 방법 및 장치에 관한 것으로, 보다 상세하게는, 쿼드 트리 기법에 기초하여 영상 내에서 객체가 존재하는지, 존재한다면 어디에 존재하는지 등을 탐색하여 결과를 도출하는 하는 장치 및 방법에 관한 것이다.The present invention relates to a method and apparatus for detecting an object, and more particularly, to a apparatus and method for deriving a result by searching whether an object exists in an image and, if so, where it exists, etc. based on a quad tree technique. It is about.

인공지능 기술이 발전하면서 공간에서 객체를 탐지하는 기술의 연구가 활발하게 진행되고 있다. 객체 탐지(Object Detection)는 비디오 시퀀스(Video Sequence)에서 찾고자 하는 객체를 식별하고 이러한 객체의 픽셀을 클러스터하는 기술이다. 컴퓨터 비전(Computer Vision)의 근본적이고 도전적인 문제 중 하나인 객체 탐지는 수십 년 동안 활발하게 진행된 연구 분야이다.As artificial intelligence technology develops, research on technology for detecting objects in space is being actively conducted. Object detection is a technique of identifying objects to be found in a video sequence and clustering pixels of these objects. Object detection, one of the fundamental and challenging problems of computer vision, has been an active research field for decades.

한국공개특허 제2002-0064888호(2002.08.10) 객체 지향형 비디오 시스템은 비디오 패킷 스트림, 텍스트 패킷 스트림, 오디오 패킷 스트림, 뮤직 패킷 스트림 및/또는 그래픽 패킷 스트림으로서 각각 적어도 하나의 비디오, 텍스트, 오디오, 뮤직 및/또는 그래픽 요소를 포함하는 데이터를 인코딩하는 단계, 상기 패킷 스트림을 자신의 제어 정보를 포함하는 하나의 독립한(self-contained) 객체로 결합하는 단계, 복수의 상기 객체를 데이터 스트림에 놓는 단계 및 일련의 패킷에 초기 패킷으로서 포맷 정의를 포함하는 단일 독립 화면(scene)의 하나 이상의 상기 데이터 스트림을 그룹화하는 단계를 포함하는 객체 지향형 상호작용식 멀티미디어 파일을 생성하는 방법이 제공된다. 상기 방법을 실행하기 위한 인코더가 상기 파일을 파싱 및 디코딩하기 위한 플레이어 또는 디코더와 함께 제공되는데, 상기 파일은 이동 전화 또는 PDA와 같은 휴대용 컴퓨터 장치로 무선으로 스트리밍된다. 객체 제어는 객체에 대한 렌더링 및 상호작용식 제어를 제공하여서 사용자가 인터리브된 비디오 객체의 형태 및 콘텐츠를 딕테이팅하고 수신된 객체를 제어하는 것과 같은 동적 매체 조합의 제어를 가능하게 해준다.Korean Patent Publication No. 2002-0064888 (August 10, 2002) An object-oriented video system includes at least one video, text, audio, video packet stream, text packet stream, audio packet stream, music packet stream and/or graphic packet stream. encoding data including music and/or graphic elements, combining the packet streams into one self-contained object containing its control information, putting a plurality of the objects into a data stream and grouping one or more of the data streams in a single independent scene including a format definition as an initial packet into a series of packets. An encoder for implementing the method is provided along with a player or decoder for parsing and decoding the file, which is wirelessly streamed to a portable computing device such as a mobile phone or PDA. Object control provides rendering and interactive control over objects, allowing users to control dynamic media combinations, such as controlling received objects and dictating the shape and content of interleaved video objects.

또한 한국공개특허 제2010-0051775호(2010.05.18) 실시간 영상 분석을 이용한 다중 객체 추적과 차량정보인식 및 데이터 관리 시스템과 처리 방법는 고 해상도 카메라를 이용 다중 객체추적, 객체구분, 차량정보 인식 그리고 그 데이터를 관리하는 방법을 제공한다. 현재 차량번호 인식이나 객체 분석 관련 제품들이 제한적으로 사용되고 있으나, 이보다 상용화되고 통합된 기능이 절실히 요구되는 실정이다. 본 시스템은 고화질 고해상도 카메라를 이용하여 일반도로에서 통행하는 차량과 보행자에 대한 보다 고급화된 정보를 제공하는데 그 목적이 있으며, 또한 동시에 여러 객체(최대 20개)를 관리하며, 동시에 여러 차량(최대 4개)의 정보를 얻을 수 있다. 객체 추적과 차량정보 인식은 실시간(15프레임/초)으로 처리되며 각 객체정보는 일련의 이미지 데이터와 시간, 객체 구분, 차량인식 정보(차량인 경우)로 이루어진다. 감시영역이 8*15M(해상도 1600*1200픽셀 기준)로 일반 도로에 설치 운용할 수 있게 설계되었다.In addition, Korea Patent Publication No. 2010-0051775 (May 18, 2010) multi-object tracking using real-time image analysis, vehicle information recognition, and data management system and processing method are multi-object tracking using a high-resolution camera, object classification, vehicle information recognition, and Provides a way to manage data. Currently, products related to license plate recognition or object analysis are used on a limited basis, but more commercialized and integrated functions are urgently required. The purpose of this system is to provide more advanced information on vehicles and pedestrians passing on general roads by using high-definition high-resolution cameras. of) information can be obtained. Object tracking and vehicle information recognition are processed in real time (15 frames/sec), and each object information consists of a series of image data, time, object classification, and vehicle recognition information (in case of a vehicle). The surveillance area is 8*15M (based on resolution of 1600*1200 pixels) and is designed to be installed and operated on general roads.

한국공개특허 제2002-0064888호(2002.08.10)Korean Patent Publication No. 2002-0064888 (2002.08.10) 한국공개특허 제2010-0051775호(2010.05.18)Korean Patent Publication No. 2010-0051775 (2010.05.18)

본 발명의 실시예에서는 다양한 방법으로 탐지한 객체의 분포를 대략적으로 빠르게 저장하는 방법을 제안하고자 한다. 또한 이를 위해 공간 내에서의 쿼드 트리 기반의 객체 탐색 기법을 제안하고자 한다. 본 발명의 실시예에 따라, 실시간으로 장애물의 위치 식별이 가능해야 하는 로봇 시야나 화재 발생 영역 파악 등에서 쿼드 트리 기반의 객체 탐색 기능을 활용하고자 한다.An embodiment of the present invention intends to propose a method of approximately quickly storing the distribution of objects detected by various methods. Also, for this purpose, we propose a quad-tree based object search technique in the space. According to an embodiment of the present invention, a quad tree-based object search function is intended to be used in the field of view of a robot or the identification of a fire area in which an obstacle location must be identified in real time.

실시예들 중에서, 영상을 입력받아 영상 내 객체를 탐지하는 객체 탐지 장치는 상기 객체를 탐지하기 위한 분석 대상인 상기 영상을 입력받는 영상 입력부; 상기 영상을 4개의 셀로 분할하고, 상기 셀 중에서 상기 객체가 존재하는 상기 셀을 4개의 하위 셀로 한번 이상 분할하여 상기 영상 내 상기 객체의 분포를 분석하는 객체 탐지부; 상기 영상 또는 상기 객체의 분포에 대한 상기 영상의 분석 결과를 저장하는 메모리; 및 상기 객체의 분포에 대한 상기 분석 결과를 출력하는 결과 출력부를 포함한다. Among embodiments, an object detection apparatus for detecting an object in an image by receiving an image includes an image input unit for receiving the image, which is an analysis target for detecting the object; an object detection unit dividing the image into four cells and dividing the cell in which the object exists among the cells into four sub-cells one or more times to analyze the distribution of the object in the image; a memory for storing an analysis result of the image or distribution of the object; and a result output unit outputting a result of the analysis of the distribution of the object.

그리고 상기 객체 탐지부가 상기 영상을 2회 이상 분할하는 경우, 상기 영상의 1차 분할 시 4개의 상기 셀이 생성되고, 이 경우 상기 1차 분할의 분할 깊이는 1이며, 상기 1차 분할에 의해 생성된 상기 셀의 레벨은 1이고, 상기 영상이 n차 분할 시 각각의 분할된 상기 셀은 n회에 걸쳐 4개의 상기 하위 셀로 분할되며, 상기 n차 분할의 상기 분할 깊이는 n이고, 상기 n차 분할에 의해 생성된 상기 하위 셀의 상기 레벨은 n이다. And, when the object detection unit divides the image two or more times, four cells are generated during the first division of the image, and in this case, the division depth of the first division is 1, and the division depth of the first division is 1. The level of the divided cell is 1, and when the image is divided n times, each divided cell is divided into 4 sub-cells n times, the division depth of the n-th division is n, and the n-th division The level of the lower cell created by division is n.

또한, 각각의 상기 셀 및 상기 하위 셀들은 상기 셀 및 상기 하위 셀들이 분할된 상기 분할 깊이 및 상기 셀 및 상기 하위 셀들의 상기 영상 내 위치에 상응하는 위치값을 가진다. In addition, each of the cell and the sub-cells has a position value corresponding to the division depth in which the cell and the sub-cells are divided and positions of the cell and the sub-cells in the image.

그리고 상기 영상에 대한 분할이 완료되면 상기 객체 탐지부는 각각의 상기 셀 및 상기 하위셀들에 상기 객체가 존재하는지를 나타내는 데이터를 생성한다. When the segmentation of the image is completed, the object detection unit generates data indicating whether the object exists in each of the cells and sub-cells.

또한 상기 셀 및 상기 하위셀의 구조에 상응하는 쿼드 트리를 생성하여 상기 셀 및 상기 하위셀 별 상기 데이터를 상기 쿼드 트리와 함께 저장한다. In addition, a quad tree corresponding to the structure of the cell and the sub-cell is generated, and the data for each cell and each sub-cell is stored together with the quad tree.

또한 상기 객체 탐지부는 상기 영상 내 객체의 면적에 대한 정보를 요청받은 경우, 상기 객체가 존재하는 상기 셀 및 상기 하위셀의 상기 위치값을 통해 상기 객체의 위치를 도출한다. In addition, when the object detection unit receives a request for information on the area of the object in the image, the location of the object is derived through the location values of the cell and the sub-cell where the object exists.

또한 본 발명의 다른 실시예에서 영상을 입력받아 영상 내 객체를 탐지하는 객체 탐지 방법은, 상기 객체를 탐지하기 위한 분석 대상인 상기 영상을 입력받는 단계; 상기 영상을 4개의 셀로 분할하고, 상기 셀 중에서 상기 객체가 존재하는 상기 셀을 4개의 하위 셀로 한번 이상 분할하여 상기 영상 내 상기 객체의 분포를 분석하는 단계; 상기 영상 또는 상기 객체의 분포에 대한 상기 영상의 분석 결과를 저장하는 단계; 및 상기 객체의 분포에 대한 상기 분석 결과를 출력하는 단계를 포함한다.In another embodiment of the present invention, an object detection method for receiving an image and detecting an object in the image includes receiving the image, which is an analysis target for detecting the object, as input; analyzing a distribution of the object in the image by dividing the image into four cells and dividing the cell in which the object exists among the cells into four lower cells more than once; storing an analysis result of the image for the distribution of the image or the object; and outputting the analysis result for the distribution of the object.

개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다. The disclosed technology may have the following effects. However, it does not mean that a specific embodiment must include all of the following effects or only the following effects, so it should not be understood that the scope of rights of the disclosed technology is limited thereby.

본 발명의 실시예에서는 다양한 방법으로 탐지한 객체의 분포를 대략적으로 빠르게 저장하는 방법을 제공할 수 있다. 또한 이를 위해 공간 내에서의 쿼드 트리 기반의 객체 탐색 기법을 제시할 수 있다. 본 발명의 실시예에 따른 객체 탐지 기법을 적용하면, 실시간으로 장애물의 위치 식별이 가능해야 하는 로봇 시야나 화재 발생 영역 파악 등에서 쿼드 트리 기반의 객체 탐색 기능을 향상시킬 수 있다. An embodiment of the present invention may provide a method of approximately quickly storing the distribution of objects detected by various methods. Also, for this purpose, a quad tree-based object search technique within the space can be presented. If the object detection technique according to the embodiment of the present invention is applied, it is possible to improve the quad tree-based object search function in the field of view of the robot, which should be able to identify the position of an obstacle in real time, or in the detection of a fire area.

또한 본 발명의 실시예를 통해, 특정 공간에서 객체의 대략적인 위치를 빠르게 탐색할 수 있으며, 이를 위해 쿼드 트리 데이터 구조를 활용하여 객체를 탐색하고 저장하는 기법을 사용할 수 있다. 또한 본 발명의 실시예에 따르면 영상 내 공간에서 전체 픽셀의 공간을 모두 탐색하지 않아도 대략적인 객체의 분포와 면적을 구할 수 있다.In addition, through an embodiment of the present invention, it is possible to quickly search for an approximate location of an object in a specific space, and for this purpose, a technique of searching for and storing an object using a quad tree data structure can be used. In addition, according to an embodiment of the present invention, an approximate distribution and area of an object may be obtained without searching all pixel spaces in an image space.

도 1은 본 발명의 일 실시예에 따른 객체 탐지 장치를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 탐지 장치 내 프로세서를 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 객체 탐지 방법을 도시한 플로우 차트이다.
도 4는 본 발명의 일 실시예에 따른 영상의 셀 배열 및 2차원 변환 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 트리 변환을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 탐색 대상 공간을 좌표 평면 상에 도시한 도면이다.
도 7은 본 발명의 실시예에 따른 쿼드 트리 기반의 객체 탐색 기법을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따라 탐색 대상 공간을 뎁쓰 1의 트리 구조에 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 포화 트리를 나타낸다.
도 10은 본 발명의 실시예에 따른 객체 탐색 방법의 테스트 화면을 도시한 도면이다.
도 11은 본 발명의 실시예에 따른 트리 레벨별 탐색에 걸리는 평균 시간 등을 나타낸 그래프이다.
도 12는 본 발명의 다른 실시예에 따른 트리 레벨별 탐색에 걸리는 평균 시간 등을 나타낸 그래프이다.
도 13은 본 발명의 실시예에 따른 객체 탐색 기법을 위한 실험 이미지이다.
도 14는 본 발명의 실시예에 따라 객체를 탐지하는 경우 각 이미지 별 탐색에 걸리는 평균 시간 등을 나타낸 그래프이다.
1 is a diagram illustrating an object detection apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a processor in an object detection device according to an embodiment of the present invention.
3 is a flow chart illustrating an object detection method according to an embodiment of the present invention.
4 is a diagram illustrating a process of cell arrangement and 2D conversion of an image according to an embodiment of the present invention.
5 is a diagram for explaining tree transformation according to an embodiment of the present invention.
6 is a diagram illustrating a search target space on a coordinate plane according to an embodiment of the present invention.
7 is a diagram illustrating a quad-tree based object search technique according to an embodiment of the present invention.
8 is a diagram illustrating a search target space in a tree structure of depth 1 according to an embodiment of the present invention.
9 shows a saturation tree according to an embodiment of the present invention.
10 is a diagram showing a test screen of an object search method according to an embodiment of the present invention.
11 is a graph showing the average time taken for searching for each tree level according to an embodiment of the present invention.
12 is a graph showing the average time taken for searching for each tree level according to another embodiment of the present invention.
13 is an experimental image for an object search technique according to an embodiment of the present invention.
14 is a graph showing an average search time for each image when an object is detected according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니된다. 즉, 실시예는 다양한 변경이 가능하고 여러가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the embodiments may be variously modified and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.Meanwhile, the meaning of terms described in this application should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are used to distinguish one component from another, and the scope of rights should not be limited by these terms. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected to the other element, but other elements may exist in the middle. On the other hand, when an element is referred to as being "directly connected" to another element, it should be understood that no intervening elements exist. Meanwhile, other expressions describing the relationship between components, such as “between” and “immediately between” or “adjacent to” and “directly adjacent to” should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions in the singular number should be understood to include plural expressions unless the context clearly dictates otherwise, and terms such as “comprise” or “having” refer to an embodied feature, number, step, operation, component, part, or these. It should be understood that it is intended to indicate that a combination exists, and does not preclude the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.

각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, the identification code (eg, a, b, c, etc.) is used for convenience of explanation, and the identification code does not describe the order of each step, and each step clearly follows a specific order in context. Unless otherwise specified, it may occur in a different order than specified. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be implemented as computer readable code on a computer readable recording medium, and the computer readable recording medium includes all types of recording devices storing data that can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium may be distributed to computer systems connected through a network, so that computer-readable codes may be stored and executed in a distributed manner.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as consistent with meanings in the context of the related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present application.

도 1은 본 발명의 일 실시예에 따른 객체 탐지 장치(100)를 도시한 도면이다. 1 is a diagram illustrating an object detection apparatus 100 according to an embodiment of the present invention.

객체 탐지 장치(100)는 다른 기기와 네트워크를 통해 연결될 수 있는 컴퓨팅 장치에 해당하며, 영상을 입력받아 분석하고 영상 내 객체를 탐지하는 기능을 수행할 수 있다. 객체 탐지 장치(100)는 특히 영상을 촬영하거나 생성하는 기기와 네트워크 연결을 유지할 수 있다. The object detection device 100 corresponds to a computing device that can be connected to other devices through a network, and can perform a function of receiving and analyzing an image and detecting an object in the image. In particular, the object detection device 100 may maintain a network connection with a device that captures or generates an image.

본 발명의 실시예에서 객체 탐지 장치(100)는 다양한 방법으로 탐지한 객체의 분포를 대략적으로 빠르게 저장하는 기법, 특히 공간에서의 쿼드 트리 기반 객체 탐색 기법을 제안한다. 제안하는 기법을 통해 객체 탐지 장치(100)는 영상을 4개의 셀로 나누어가며 객체의 분포를 탐색하여 영상 내 객체의 대략적인 분포 파악 및 객체가 분포한 부분의 면적 계산에 사용하는 쿼드 트리 결과물을 도출할 수 있다. 자세한 내용은 후술하도록 한다. In an embodiment of the present invention, the object detection apparatus 100 proposes a technique for roughly and quickly storing the distribution of objects detected by various methods, in particular, a quad tree-based object search technique in space. Through the proposed technique, the object detection device 100 divides the image into 4 cells and searches the distribution of objects to derive a quad tree result used to determine the approximate distribution of objects in the image and calculate the area where the objects are distributed. can do. Details will be given later.

본 발명의 실시예에 따르면 객체 탐지 장치(100)는 영상 입력부(110), 객체 탐지부(120), 메모리(130) 및 결과 출력부(140)를 포함할 수 있다. According to an embodiment of the present invention, the object detection device 100 may include an image input unit 110, an object detection unit 120, a memory 130, and a result output unit 140.

물론 객체 탐지 장치(100)가 상술한 구성부를 모두 동시에 포함하여야 하는 것은 아니며, 실시예에 따라 위 구성부 중 일부의 구성부를 선택적으로 포함할 수도 있으며, 위의 구성부 이외의 다른 구성부를 더 포함할 수도 있다. Of course, the object detection device 100 does not have to include all of the above-described components at the same time, and may selectively include some of the above components according to embodiments, and further include other components other than the above components. You may.

영상 입력부(110)는 분석 및 객체 탐지의 대상이 되는 공간에 대한 영상을 입력받는다. 영상 입력부(110)는 카메라와 같이 영상을 직접 생성하는 영상 생성 모듈을 포함하거나, 다른 기기에서 생성된 영상을 네트워크를 통해 전송받을 수 있는 통신 모듈을 포함할 수 있다. 영상 입력부(110)는 무선 통신 네트워크를 통해 영상을 입력받을 수도 있고, 폐쇄회로를 통해 영상을 입력받을 수도 있다. The image input unit 110 receives an image of a space to be analyzed and object detected. The image input unit 110 may include an image generating module that directly generates an image, such as a camera, or a communication module capable of receiving an image generated by another device through a network. The image input unit 110 may receive an image through a wireless communication network or may receive an image through a closed circuit.

영상 입력부(110)가 통신 모듈을 포함하는 경우, 해당 통신 모듈은 네트워크를 통해 다른 기기와 연결되기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network) 통신을 위한 어댑터를 포함할 수 있다.When the video input unit 110 includes a communication module, the communication module includes an environment for connecting to other devices through a network, and may include, for example, an adapter for LAN (Local Area Network) communication. .

객체 탐지부(120)는 본 발명의 실시예에 따른 영상 분석 및 객체 탐지 프로시저를 실행할 수 있고, 이러한 과정에서 읽혀지거나 작성되는 메모리(130)를 관리할 수 있으며, 메모리(`130)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄링 할 수 있다. The object detection unit 120 may execute image analysis and object detection procedures according to an embodiment of the present invention, manage the memory 130 read or written in this process, and Synchronization time between volatile memory and non-volatile memory can be scheduled.

객체 탐지부(120)는 영상 내 객체 탐지 장치(110)의 동작 전반을 제어할 수 있고, 영상 입력부(110), 메모리(130) 및 결과 출력부(140)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 객체 탐지부(120)는 객체 탐지 장치(110)의 CPU(Central Processing Unit)로 구현될 수 있다. The object detection unit 120 may control the overall operation of the object detection device 110 in the image, and is electrically connected to the image input unit 110, the memory 130, and the result output unit 140 so as to flow data between them. can control. The object detection unit 120 may be implemented as a central processing unit (CPU) of the object detection device 110 .

본 발명의 실시예에서 객체 탐지부(120)는 쿼드 트리를 이용한 영상 분석 및 객체 탐지 기술을 구현한다. 쿼드 트리(Quadtree)는 계층적 데이터 구조의 일종으로서, 이미지의 크기에 의존하지 않고 이미지의 블록 수에 의존하는 계층적인 특성으로 인해 실행 시간이 절약되는 특징을 가진다. In an embodiment of the present invention, the object detection unit 120 implements image analysis and object detection technology using a quad tree. A quadtree is a type of hierarchical data structure, and has a characteristic of saving execution time due to hierarchical characteristics that depend on the number of blocks of an image rather than the size of an image.

여기서 계층적 데이터 구조(Hierarchical Data Structure)는 컴퓨터 그래픽 기술, 이미지 처리, 전산 기하학, 지리 정보 시스템, 로봇 공학 분야에서 점점 더 중요한 표현 기술이 되고 있다. 본 발명의 실시예에서는, 쿼드 트리 중에서 가장 많이 연구된 '영역 쿼드 트리(Region Quadtree)' 기술을 이용한다Here, hierarchical data structure is becoming an increasingly important representation technology in the fields of computer graphics technology, image processing, computational geometry, geographic information systems, and robotics. In the embodiment of the present invention, 'Region Quadtree' technology, which has been studied the most among quad trees, is used.

객체 탐지부(120)의 보다 구체적인 동작 내용에 대해서는 이후 도 3을 참조하여 상세하게 설명하도록 한다. More specific operation of the object detection unit 120 will be described in detail with reference to FIG. 3 hereinafter.

메모리(130)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어, 영상 입력부(110)를 통해 입력된 영상을 저장할 수 있으며, 객체 탐지를 위해 영상이 분석된 결과물을 저장할 수 있다. 이 밖에도 메모리(130)는 객체 탐지 장치(110)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다. 이처럼, 메모리(130)는 휘발성 및 비휘발성 메모리로 구현될 수 있고, 만일 비휘발성 메모리로 구현되면 하이퍼링크를 통해 연결되도록 구현될 수 있다.The memory 130 is implemented as a non-volatile memory such as a solid state disk (SSD) or a hard disk drive (HDD) to store an image input through the image input unit 110, and the image is analyzed for object detection. Results can be saved. In addition, the memory 130 may include an auxiliary memory device used to store all data necessary for the object detection device 110, and may include a main memory device implemented as a volatile memory such as RAM (Random Access Memory). have. As such, the memory 130 may be implemented as volatile and non-volatile memory, and if implemented as a non-volatile memory, it may be implemented to be connected through a hyperlink.

결과 출력부(140)는 객체 탐지부(120)를 통해 분석된 영상 또는 객체 탐지의 결과를 출력할 수 있다. 탐지된 객체의 위치와 면적 등에 대하여 영상을 분석한 데이터가 결과 출력부(140)를 통해 출력될 수 있다. 결과 출력부(140)는 사용자의 입력 신호에 상응하여 객체가 탐지된 부분의 영상 또는 탐지 대상의 객체가 촬영된 영상, 영상 내에서 객체가 탐지된 영역의 면적 등에 대한 정보 등을 사용자의 요청에 상응하여 출력할 수 있다. The result output unit 140 may output an image analyzed through the object detection unit 120 or a result of object detection. Data obtained by analyzing the image for the location and area of the detected object may be output through the result output unit 140 . The result output unit 140 responds to the user's request by providing an image of the part where the object is detected, an image in which the object of the detection target is photographed, and information about the area of the area where the object is detected in the image corresponding to the user's input signal. Correspondingly, it can be output.

도 2는 본 발명의 일 실시예에 따른 객체 탐지 장치 내 객체 탐지부(130)를 도시한 도면이다. 2 is a diagram illustrating an object detection unit 130 in an object detection device according to an embodiment of the present invention.

본 발명의 실시예에 따른 객체 탐지 장치(100)의 객체 탐지부(130)는 영상 분석부(210), 영상 변환부(220), 쿼드 트리 처리부(230), 면적 산출부(240) 및 제어부(250)를 포함할 수 있다. The object detection unit 130 of the object detection device 100 according to an embodiment of the present invention includes an image analysis unit 210, an image conversion unit 220, a quad tree processing unit 230, an area calculation unit 240, and a control unit. (250).

객체 탐지부(130) 역시, 상술한 구성부를 모두 동시에 포함하여야 하는 것은 아니며, 실시예에 따라 위 구성부 중 일부의 구성부를 선택적으로 포함할 수도 있으며, 위의 구성부 이외의 다른 구성부를 더 포함할 수도 있다.The object detection unit 130 also does not have to include all of the above-described components at the same time, and may selectively include some of the above components according to embodiments, and further include other components other than the above components. You may.

앞서 언급한 영역 쿼드 트리 기술에 따르면, 영상 분석부(210)는 한 공간을 4개의 동일한 크기의 사분면, 즉 4개의 셀로 공간 분할을 진행한다. 그리고 영상 변환부(220)는 각 셀 내에 객체가 존재하는지 여부에 따라 각 셀의 객체 탐지 여부를 데이터화한다. 그리고 쿼드 트리 처리부(230)는 각 셀의 데이터를 트리로 만들어서 저장한다. 면적 산출부(240)는 객체가 존재하는 것으로 판별된 셀의 크기와 개수를 이용하여 영상 내 객체의 면적을 산출할 수 있다. 제어부(250)는 객체 탐지와 관련하여 수신된 사용자 신호에 상응하여 영상 분할의 횟수나 셀의 깊이, 레벨 등을 제어할 수 있다. According to the aforementioned regional quad tree technology, the image analyzer 210 divides a space into four equally sized quadrants, that is, four cells. The image conversion unit 220 converts whether or not an object is detected in each cell into data according to whether an object exists in each cell. And the quad tree processing unit 230 makes and stores the data of each cell as a tree. The area calculation unit 240 may calculate the area of the object in the image using the size and number of cells determined to have the object. The controller 250 may control the number of times of image segmentation or the depth and level of cells in accordance with the received user signal in relation to object detection.

영상 분석부(210)는 분석 대상 영상이 입력되면, 해당 영상을 4개의 셀로 분할하고, 객체가 존재하는 것으로 판단된 셀의 경우 다시 4개의 셀로 분할한다. 첫번째 분할에 따라 발생된 셀의 깊이는 1이 되며, 첫번째 분할에 의해 생성된 셀을 한번 더 분할하면 두번째 분할에 의해 발생된 셀의 깊이는 2가 된다. 분할이 거듭될수록 더 작은 셀들이 생겨나며 해당 셀들의 깊이는 증가하게 된다. When an image to be analyzed is input, the image analyzer 210 divides the corresponding image into 4 cells, and divides the image into 4 cells again if it is determined that an object exists. The depth of the cell generated by the first division becomes 1, and if the cell generated by the first division is divided once more, the depth of the cell generated by the second division becomes 2. As the division is repeated, smaller cells are created and the depth of the corresponding cells increases.

영상의 분할이 거듭됨에 따라, 영상에 상응하는 트리의 내부 노드는 각각의 셀을 또다시 공간 분할하는 경우 각 셀은 4개의 자식 노드를 가지게 된다. 그리고 분할된 셀이 다시 분할되는 경우, 자식 노드 역시 자식 노드를 가질 수 있다. As the division of the image is repeated, when each cell of the internal node of the tree corresponding to the image is space-divided again, each cell has four child nodes. Also, when the divided cells are divided again, child nodes may also have child nodes.

영상 변환부(220)는 객체의 존재 여부에 따라 영상을 데이터화한다. 특히 영상 내 각 셀에 객체가 존재하는지 여부에 따라 해당 셀들의 데이터값을 0 또는 1로 산출한다. 예컨대 해당 셀 내에 객체가 있으면 해당 셀의 데이터값은 1, 객체가 없으면 해당 셀의 데이터값은 0이 된다. 따라서 분석 대상 영상은 각 셀마다 0 또는 1의 값이 기입된 2차원 데이터 시트의 형태로 전환될 수 있다. The image conversion unit 220 converts images into data according to whether an object exists or not. In particular, data values of corresponding cells are calculated as 0 or 1 according to whether an object exists in each cell in the image. For example, if there is an object in the corresponding cell, the data value of the corresponding cell becomes 1, and if there is no object, the data value of the corresponding cell becomes 0. Accordingly, the image to be analyzed may be converted into a form of a two-dimensional data sheet in which a value of 0 or 1 is written in each cell.

쿼드 트리 처리부(230)는 2차원 데이터가 집합 또는 나열된 형태로 변환된 영상을, 트리화하여 저장할 수 있다. 본 발명의 실시예에서 영상은 4개의 셀로 분할되고, 분할의 대상이 되는 모든 셀은 각각 4개의 하위 셀로 분할되므로, 트리의 각 노드도 4개의 자식 노드를 가지게 된다. 따라서 본 발명의 실시예에 따라 생성되는 트리는 쿼드 트리가 된다. The quad tree processing unit 230 may store an image converted into a set or array of 2D data as a tree. In the embodiment of the present invention, since an image is divided into 4 cells, and all cells subject to division are divided into 4 sub-cells, each node in the tree also has 4 child nodes. Therefore, a tree generated according to an embodiment of the present invention becomes a quad tree.

각 셀의 위치를 특정하기 위해 각 셀마다 셀의 위치값이 지정된다. 깊이 1은 영상을 한 번 분할한 것을 의미하며, 깊이 1의 분할을 통해서는 레벨 1의 셀이 4개 생성된다. 깊이 1의 분할을 통해서는 각 셀들은 1, 2, 3, 4의 셀 위치값을 가지게 된다. In order to specify the location of each cell, a cell location value is designated for each cell. Depth 1 means that the image is segmented once, and through depth 1 segmentation, four cells of level 1 are created. Through division of depth 1, each cell has cell position values of 1, 2, 3, and 4.

그리고 깊이 2은 영상을 한 번 더 분할하여 영상을 총 2번 분할한 것을 의미하며, 레벨 1의 4개의 셀을 각각 4개의 하위 셀로 한번 더 분할한 것을 의미한다. 깊이 2의 분할을 통해서는 레벨 2의 셀이 각 셀별로 4개씩, 총 16개 생성된다. 깊이 2의 분할을 통해서 생성된 레벨 2의 셀들은 5에서 20까지의 셀 위치값을 가지게 된다. Also, depth 2 means that the image is divided once more and the image is divided a total of two times, and means that each of the four cells of level 1 is divided into four sub-cells once more. Through division of depth 2, a total of 16 cells, 4 cells of level 2 are created for each cell. Cells of level 2 generated through division of depth 2 have cell position values from 5 to 20.

특히 위치값 1인 레벨 1의 셀이 깊이 2로 분할되어 생성된 레벨 2의 셀들은 각각 5, 6, 7, 8의 셀 위치값을 가지게 된다. 그리고 위치값 2인 셀이 깊이 2로 분할되어 생성된 레벨 2 셀들은 각각 9, 10, 11, 12의 셀 위치값을 가지게 된다. 그리고 위치값 3인 레벨 1의 셀이 깊이 2로 재분할되어 생성된 레벨 2 셀들은 13, 14, 15, 16, 그리고 위치값 4인 레벨 1의 셀이 깊이 2로 재분할되어 생성된 레벨 2 셀들은 17, 18, 19, 20의 셀 위치값을 가지게 된다.In particular, cells of level 2 generated by dividing a cell of level 1 having a position value of 1 into a depth of 2 have cell position values of 5, 6, 7, and 8, respectively. Level 2 cells generated by dividing a cell having a position value of 2 into a depth of 2 have cell position values of 9, 10, 11, and 12, respectively. Level 2 cells generated by re-division of level 1 cells with position value 3 to depth 2 are 13, 14, 15, 16, and level 2 cells generated by re-division of level 1 cells with position value 4 to depth 2. It has cell position values of 17, 18, 19, and 20.

그리고 깊이 3의 재분할을 통해서 생성된 자식셀들은 21에서 84까지의 셀 위치값을 가지게 된다. 하위 레벨 셀의 위치값은 그 상위 레벨 셀의 위치값이 작은 순서에 따라 차례대로 지정된다. In addition, child cells generated through re-division of depth 3 have cell position values from 21 to 84. The position values of the lower level cells are sequentially designated according to the descending order of the position values of the upper level cells.

분할 깊이 그리고 각 셀의 레벨은, 쿼드 트리 변환 시 트리 레벨에 그대로 적용된다. 따라서 깊이 1의 분할을 통해 발생된 레벨 1의 셀들은 트리 레벨 1의 각 노드로 변환되며, 깊이 2의 분할을 통해 발생된 레벨 2의 셀들은 트리 레벨 2의 각 노드로 변환된다. The division depth and level of each cell are applied as they are to the tree level during quad tree conversion. Accordingly, cells of level 1 generated by splitting depth 1 are converted to each node of tree level 1, and cells of level 2 generated by splitting depth 2 are converted to each node of tree level 2.

위치값은 분할을 거듭할수록 증가하게 되며, 깊이 1의 분할부터 누적하여 넘버링된다. 예컨대, 깊이 1의 분할에서 영상 내 두번째, 깊이 2의 재분할에서 셀 내 네번째, 깊이 3의 재분할에서 해당 셀 내 세번째 위치에 있던 셀(2-4-3)의 셀 위치값은, 레벨 1의 셀 수+레벨 2의 셀 수+레벨 3의 셀 수를 합하여, 4+16+(16+12+3)=51이 된다. 해당 셀의 위치값은 10진수로 나타낼 경우 51, 4진수로 나타낼 경우 243이 된다. The position value increases as the division is repeated, and is numbered cumulatively from the division of depth 1. For example, the cell position value of the cell (2-4-3) in the second position in the image in the depth 1 segmentation, the fourth in the cell in the depth 2 re-segmentation, and the third position in the cell in the depth 3 re-segmentation is the cell position value of the level 1 cell. The sum of the number + the number of level 2 cells + the number of level 3 cells is 4 + 16 + (16 + 12 + 3) = 51. The position value of the corresponding cell is 51 when expressed in decimal and 243 when expressed in quaternary.

상위 레벨 셀(부모셀)의 위치값이 작은 순서로, 재분할된 하위 레벨 셀(자식 셀)들의 위치값이 지정된다. 그리고 셀들의 위치값은 왼쪽 상단에서 오른쪽 하단의 순서로 넘버링된다. 이후의 깊이 4, 5, ? ,n의 분할을 통해 생성되는 자식 셀들도 동일한 방법에 의해 넘버링된다. The position values of the re-divided lower level cells (child cells) are designated in descending order of the position values of the higher level cells (parent cells). And the position values of the cells are numbered in order from upper left to lower right. Depths after 4, 5, ? , n are also numbered by the same method.

면적 산출부(240)는 객체가 존재하는 것으로 판명된, 즉 데이터값이 1인 셀들의 크기와 개수를 곱하여 객체의 면적을 산출할 수 있다. 그런데 객체가 항상 삼각형이나 원처럼 면적을 계산하기 쉬운 형태를 가지지는 않기 때문에 객체의 형태가 복잡할수록 면적을 구하는 것이 쉽지 않다. 본 발명의 실시예에서 제안하는 기법을 통해 분할된 셀 단위로 영상 내 객체를 탐색한다면 객체가 존재하는 셀의 깊이와 개수의 곱으로 면적을 구하면 되므로 객체의 면적 계산이 용이하다. The area calculation unit 240 may calculate the area of the object by multiplying the size and number of cells in which the object is determined to exist, that is, the data value is 1. However, since an object does not always have a shape that is easy to calculate an area for, such as a triangle or a circle, it is not easy to obtain the area as the shape of the object becomes more complex. If an object is searched for in an image in units of divided cells through the technique proposed in the embodiment of the present invention, it is easy to calculate the area of an object because the area is obtained by multiplying the depth and the number of cells in which the object exists.

깊이 1의 셀들은 영상 전체 대비 1/4의 면적, 깊이 2의 셀들은 영상 전체의 1/16의 면적, 깊이 3의 셀들은 영상 전체 대비 1/64의 면적을 가지므로, 각 깊이 별 객체가 존재하는 셀들의 개수를 구하여 면적을 곱하면 영상 내에서 차지하는 객체의 면적을 구할 수 있다. Cells of depth 1 have an area of 1/4 of the entire image, cells of depth 2 have an area of 1/16 of the entire image, and cells of depth 3 have an area of 1/64 of the entire image. By multiplying the number of existing cells by the area, the area of the object in the image can be obtained.

제어부(250)는 깊이 설정에 따른 재분할 횟수를 제어할 수 있다. 또한 제어부(250)는 사용자 신호 또는 미리 설정된 바에 따라 결과 출력부(140)를 통해 출력될 결과물의 종류를 결정할 수 있다. 예컨대, 제어부(250)는 객체의 유무에 대한 정보, 객체의 영상 내 위치에 대한 정보, 영상 내 객체의 면적에 대한 정보, 공간 내에 객체가 존재하는 일시와 기간에 대한 정보 등 결과 출력부(140)를 통해 출력할 결과 데이터를 결정할 수 있다. The controller 250 may control the number of re-divisions according to the depth setting. In addition, the control unit 250 may determine the type of result to be output through the result output unit 140 according to a user signal or a preset bar. For example, the control unit 250 outputs a result such as information about the presence or absence of an object, information about the location of an object in an image, information about an area of an object in an image, information about the date and time of an object existing in a space, etc. ) to determine the result data to be output.

한편 본 발명의 실시예에서, 단말 노드는 해당하는 사분면에 객체가 존재하는지 존재하지 않는지를 저장한다. 또한 단말 노드는 해당하는 사분면의 전체에 객체가 존재하는지 여부에 따라 존재한다면 블랙(BLACK)이라 칭하고 존재하지 않는다면 화이트(WHITE)라 칭할 수 있다. 또한 모든 내부 노드는 그레이(GRAY)라 칭할 수 있다. Meanwhile, in an embodiment of the present invention, the terminal node stores whether an object exists in a corresponding quadrant or not. In addition, the terminal node may be referred to as BLACK if it exists, and may be referred to as WHITE if it does not exist, depending on whether objects exist in the entire corresponding quadrant. Also, all internal nodes may be referred to as GRAY.

도 3은 본 발명의 실시예에 따른 객체 탐지 방법을 도시한 플로우 차트이다. 3 is a flow chart illustrating an object detection method according to an embodiment of the present invention.

앞서 설명한 바와 같이, 본 발명의 실시예에서는 다양한 방법으로 탐지한 객체의 분포를 대략적으로 빠르게 저장하는 기법을 제안한다. 앞서 설명한 바와 같이, 영상을 4개의 동일한 크기의 셀로 나누어가며 객체의 분포를 탐색하고 객체의 분포를 쿼드 트리 자료구조로 나타내는 쿼드 트리 기반 객체 탐색 기법을 제안한다. As described above, an embodiment of the present invention proposes a technique for roughly quickly storing the distribution of objects detected by various methods. As described above, we propose a quad tree-based object search technique that divides the image into four cells of the same size to search the distribution of objects and represents the distribution of objects as a quad tree data structure.

이러한 기법에 따르면 탐지 대상 영상을 크기의 4개의 셀로 나누어 각각의 셀에 객체가 있는지 없는지 판단하고, 만약 특정 셀에 객체가 존재한다면 해당 셀을 같은 크기의 4개의 셀로 다시 나누어서 객체의 분포를 탐색한다. According to this technique, the detection target image is divided into 4 cells of the same size to determine whether there is an object in each cell, and if an object exists in a specific cell, the cell is divided into 4 cells of the same size to search for the distribution of the object. .

이 과정을 사용자가 탐색하고자 하는 쿼드 트리 깊이까지 진행하고 객체의 분포, 즉 특정 공간에 객체가 존재하는지 아닌지를 쿼드 트리로 저장한다. 사용자는 저장된 결과물인 쿼드 트리를 통해 대략적인 객체의 분포를 파악하는 데 이용할 수 있다.This process proceeds to the depth of the quad tree that the user wants to search, and the distribution of objects, that is, whether or not an object exists in a specific space is stored as a quad tree. The user can use it to figure out the approximate distribution of objects through the stored result, the quad tree.

이하에서, 이러한 기법에 따른 객체 탐지 방법을 도 3을 참조하여 설명하도록 한다. Hereinafter, an object detection method according to this technique will be described with reference to FIG. 3 .

객체 탐지 장치(100)는 객체 탐지를 위한 분석 대상인 영상을 입력받는다(S310). 분석 대상 영상은 외부의 타 기기로부터 입력받을 수도 있고, 객체 탐지 장치(100)의 촬영 모듈에 의해 직접 촬영 및 생성된 영상일 수도 있다. The object detection apparatus 100 receives an image that is an analysis target for object detection (S310). The image to be analyzed may be input from another external device or may be an image directly captured and generated by a photographing module of the object detection device 100 .

객체 탐지 장치(100)는 분석 대상인 영상을 쿼드 분할한다(S320). 영상이 한번 분할될 때마다 4개의 셀이 발생된다. 영상의 1차 분할 시 4개의 셀이 생성되고, 2차 분할 시 각 셀은 다시 4개의 하위 셀로 분할된다. 1차 분할은 깊이 1의 분할을 의미하며, 이를 통해 발생되는 셀을 레벨 1의 셀이 된다. 2차 분할은 깊이 2의 분할을 의미하며, 이를 통해 발생되는 셀을 레벨 2의 셀이 된다. The object detection apparatus 100 quad-divides an image to be analyzed (S320). Each time an image is segmented, 4 cells are generated. During the first division of the image, 4 cells are generated, and during the second division, each cell is further divided into 4 sub-cells. Primary division means division of depth 1, and cells generated through this become cells of level 1. Secondary division means division of depth 2, and cells generated through this become cells of level 2.

사용자가 요청한 깊이 또는 미리 설정된 깊이까지의 분할이 진행되면, 각 셀 내 객체가 존재하는지 여부에 따라 각 셀별 데이터가 산출된다(S330). When division is performed up to a user-requested depth or a preset depth, data for each cell is calculated according to whether an object exists in each cell (S330).

객체 탐지 장치(100)는 데이터값에 따라 각 셀에 객체가 존재하는지 판단하고, 그 결과에 따라 객체가 존재하는 셀의 재분할 여부를 결정한다(S340). 객체 탐지 장치(100)는 각 셀들 중에서 객체가 존재하며 재분할 대상을 지정된 셀을 재분할하여 각 셀별로 4개씩의 하위 셀을 더 생성한다(S350). The object detection apparatus 100 determines whether an object exists in each cell according to the data value, and determines whether to re-divide the cell in which the object exists according to the result (S340). The object detection apparatus 100 further creates four sub-cells for each cell by re-dividing a cell in which an object exists among cells and a target for re-division is designated (S350).

셀 분할 및 재분할 그리고 데이터 산출이 완료되면, 객체 탐지 장치(100)는 각 깊이별 레벨별 셀들을 이용하여 쿼드 트리를 생성한다(S360). When cell division and re-division and data calculation are completed, the object detection apparatus 100 generates a quad tree using cells for each depth and level (S360).

이후, 영상 내 객체의 면적에 대한 정보를 요청받은 경우, 객체 탐지 장치(100)는 객체가 존재하는 셀들의 면적과 개수를 이용하여 면적을 산출할 수 있으며, 객체가 존재하는 셀들의 위치값을 통해 객체의 위치도 도출해낼 수 있다(S370). Then, when information on the area of the object in the image is requested, the object detection apparatus 100 may calculate the area using the area and number of cells in which the object exists, and calculates the location value of the cells in which the object exists. Through this, the location of the object can also be derived (S370).

객체 탐지 장치(100)는 객체의 존부, 객체의 면적 및/또는 위치에 대한 정보를 포함하는 객체 탐지 결과를 출력할 수 있다(S380). The object detection apparatus 100 may output an object detection result including information about the existence of an object, the area and/or location of the object (S380).

도 4는 본 발명의 일 실시예에 따른 영상의 셀 배열 및 2차원 변환 과정을 나타낸 도면이다. 그리고 도 5는 본 발명의 일 실시예에 따른 트리 변환을 설명하기 위한 도면이다. 4 is a diagram illustrating a process of cell arrangement and 2D conversion of an image according to an embodiment of the present invention. 5 is a diagram for explaining tree transformation according to an embodiment of the present invention.

도 4의 (a)는 하나의 분석 대상 영상을 분할하여 복수의 셀로 배열한 것을 나타낸다. 그리고 도 4의 (b)는 도 4의 (a)에서 분할된 셀들 각각에 대하여, 각 셀마다 객체의 유무를 데이터화하여 표시한 데이터 시트를 나타낸다. 즉 도 4의 (b)를 참조하면, 영상이 분할과 각 셀별 객체 유무에 상응하는 데이터화를 거쳐 데이터 시트로 변환된 모습을 볼 수 있다. Figure 4 (a) shows that one analysis target image is divided and arranged into a plurality of cells. And FIG. 4(b) shows a data sheet displaying the presence or absence of an object in each cell with respect to each of the divided cells in FIG. 4(a). That is, referring to (b) of FIG. 4 , it can be seen that the image has been converted into a data sheet through segmentation and data conversion corresponding to the presence or absence of objects in each cell.

도 4의 (b)에 도시된 데이터 시트에 따르면, 해당 셀 내 객체가 존재한다면 해당 셀의 데이터값은 1이고 해당 셀에 객체가 존재하지 않는다면 해당 셀의 데이터값은 0으로 표시된다.According to the data sheet shown in (b) of FIG. 4, if an object exists in a corresponding cell, the data value of the corresponding cell is 1, and if no object exists in the corresponding cell, the data value of the corresponding cell is displayed as 0.

그리고 도 4의 (c)는 셀별로 객체의 유무에 따라 재분할을 거듭하여, 다양한 레벨의 셀들 각각의 위치값을 도시한다. And FIG. 4(c) shows the position value of each cell of various levels by repeating re-segmentation according to the presence or absence of an object for each cell.

그리고 도 5는 다양한 깊이로 분할되어 다양한 레벨을 가지는 셀들을 그 깊이와 레벨과 구조에 따라 생성한 쿼드 트리를 도시한다. 각 셀들의 레벨은 쿼드 트리의 트리 레벨에 각각 대응된다. 쿼드 트리는 각 셀들의 위치값과 함께, 각 셀별 데이터값을 동시에 저장하고 표시할 수 있다. 이 경우, 쿼드 트리의 각 노드는 각각의 셀들(하위셀 포함)의 위치값과 함께 병기될 수 있다. 5 shows a quad tree in which cells having various levels divided into various depths are generated according to the depth, level, and structure. The level of each cell corresponds to the tree level of the quad tree. The quad tree can simultaneously store and display data values for each cell along with location values for each cell. In this case, each node of the quad tree may be written together with the location value of each cell (including sub-cells).

그리고 각 셀들에 객체가 존재하는지 여부는 각 셀에 대응되는 쿼터 트리의 노드의 색으로 표시될 수 있다. 예컨대 트리의 노드는 검정색 또는 흰색으로 표시될 수 있는데, 노드의 색깔에 따라 해당 셀 내 객체의 유무에 대한 정보가 표시된다. 검정색 노드은 해당 노드에 상응하는 셀에 객체가 존재함을 의미하며, 흰색 노드는 해당 셀에 객체가 존재하지 않음을 의미할 수 있다.In addition, whether or not an object exists in each cell may be indicated by the color of a node of the quarter tree corresponding to each cell. For example, a node of a tree may be displayed in black or white, and information on the presence or absence of an object in a corresponding cell is displayed according to the color of the node. A black node may mean that an object exists in a cell corresponding to the corresponding node, and a white node may mean that an object does not exist in a corresponding cell.

이는 데이터 시트의 쿼드 트리로의 변환 과정에서도 동일하게 적용된다. 특정 셀에 객체가 존재한다면 해당 셀에 상응하는 노드는 까만색으로 표시될 수 있으며, 다른 특정 셀에 객체가 존재하지 않는다면 해당 셀에 대응되는 노드는 흰색으로 표시될 수 있다. The same applies to the process of converting the data sheet to a quad tree. If an object exists in a specific cell, a node corresponding to the corresponding cell may be displayed in black, and if an object does not exist in another specific cell, a node corresponding to the corresponding cell may be displayed in white.

도 5를 참조하면, 위치값 1인 셀 내에는 객체가 존재하며, 추가 분할이 필요하므로 위치값 1인 셀에 상응하는 노드는 회색으로 표시된다. 그리고 위치값 5 및 6인 셀에는 객체가 존재하지 않으며, 위치값 8인 셀에는 객체가 존재한다. 그리고 위치값 7인 셀은 재분할된다. 위치값 7인 셀의 하위 셀인 위치값 29, 30, 31인 셀들에는 객체가 존재하지 않으며, 위치값 32인 하위셀에는 객체가 존재한다. 위치값 2, 3, 4, 13, 14, 15, 16, 65, 66, 67, 68인 셀들 역시, 각각의 노드의 색상에 따라 해당 셀 내 객체의 유무를 짐작할 수 있다. Referring to FIG. 5 , since an object exists in a cell with a position value of 1 and additional division is required, a node corresponding to a cell with a position value of 1 is displayed in gray. In addition, no object exists in cells with position values 5 and 6, and objects exist in cells with position value 8. And the cell with position value 7 is re-divided. Objects do not exist in cells with position values of 29, 30, and 31, which are lower cells of the cell with position value 7, and objects exist in lower cells with position value 32. Cells with position values 2, 3, 4, 13, 14, 15, 16, 65, 66, 67, and 68 can also guess whether or not there is an object in the cell according to the color of each node.

도 4의 (c)를 참조하여, 본 발명의 실시예에 따른 쿼드 트리 기반 객체 탐색 기법에 따르면 영상으로 촬영된 공간은 같은 크기의 4개의 공간으로 나뉜다. 그리고 각각의 공간에 객체가 있는지 없는지를 판별한다. Referring to (c) of FIG. 4 , according to the quad tree-based object search technique according to an embodiment of the present invention, a space photographed as an image is divided into four spaces of the same size. Then, it is determined whether there is an object in each space or not.

만약 특정 공간, 즉 특정 셀 내 일부 영역에 객체가 존재한다면 객체 탐지 장치(100)는 해당 공간을 다시 같은 크기의 4개의 공간으로 나누어서 탐색한다. 이 과정을 사용자가 탐색하고자 하는 쿼드 트리 깊이, 즉 분할 깊이까지 반복하여 진행하고 객체의 분포―특정 공간에 객체가 존재하는지 아닌지를 쿼드 트리로 저장한다. If an object exists in a specific space, that is, a partial area within a specific cell, the object detection apparatus 100 divides the corresponding space into four spaces of the same size and searches for it. This process is repeated until the quad tree depth that the user wants to search, that is, the division depth, and the distribution of objects—whether an object exists in a specific space or not is stored as a quad tree.

본 발명의 실시예에 따르면, 객체 탐지 장치(100)는 래스터 이미지를 공간으로 입력받을 수 있다. 그리고 실제 사용 환경에 따라 특정 RGBA 값을 가지는 픽셀을 True나 False로 변환하여 2차원 배열로 저장하도록 설정하면 래스터 이미지의 원하는 부분을 객체로 저장할 수 있다. According to an embodiment of the present invention, the object detection apparatus 100 may receive a raster image as a spatial input. Also, depending on the actual use environment, if pixels with specific RGBA values are converted to True or False and stored as a 2D array, the desired part of the raster image can be saved as an object.

실험에서는 래스터 이미지의 투명도가 0인, 즉 투명한 픽셀을 거짓(False)으로, 투명도가 1에서 255인, 즉 불투명한 픽셀을 참(True)으로 변환하여 불리언(Boolean) 방식의 자료형의 2차원 배열로 저장한다. 2차원 배열에서 거짓(False)은 해당 인덱스의 픽셀에 객체가 존재하지 않는 것을 의미하고, 참(True)은 해당 인덱스의 픽셀에 객체가 존재하는 것을 의미할 수 있다. In the experiment, the transparency of the raster image is 0, that is, the transparent pixels are converted to False, and the transparency is from 1 to 255, that is, the opaque pixels are converted to True. Save as In a two-dimensional array, False means that an object does not exist at a pixel with a corresponding index, and True may mean that an object exists at a pixel with a corresponding index.

아래의 <표 1>은 공간에서의 쿼드 트리 기반 객체 탐색 기법을 재귀 호출을 이용하여 구현한 알고리즘을 나타낸다. 그리고 <표 2>는 <표 1>의 알고리즘에 사용된 변수들에 대한 설명을 나타낸다. <Table 1> below shows an algorithm implemented using a recursive call to a quad tree-based object search technique in space. And <Table 2> shows the description of the variables used in the algorithm of <Table 1>.

아래의 <표 1>에 따르면, quadtree_search() 함수는 탐색하고자하는 x 좌표의 범위, 탐색하고자하는 y 좌표의 범위, 상위 레벨에서 객체를 발견한 좌표, 상위 레벨, 탐색하고자 하는 공간이 1차원 배열로 관리되는 쿼드 트리의 어떤 인덱스에 해당이 되는지를 인수로 입력받는다. According to <Table 1> below, the quadtree_search() function calculates the range of x coordinates to be searched, the range of y coordinates to be searched, the coordinates where the object was found at the upper level, the upper level, and the space to be searched are a one-dimensional array It receives as an argument which index of the quad tree managed by .

픽셀 탐색은 <표 1>의 10행의 for문을 통해 위에서 아래로, 왼쪽에서 오른쪽으로 수행된다. 만약 탐색하는 공간에서 객체가 발견된다면(<표 1>의 11행) 해당 인덱스의 쿼드 트리 1차원 배열 값을 참(True)으로 설정한다(<표 1>의 12행). Pixel search is performed from top to bottom and from left to right through the for statement in row 10 of <Table 1>. If an object is found in the space to be searched (row 11 of <Table 1>), the 1D array value of the quad tree at the corresponding index is set to True (row 12 of <Table 1>).

또한 현재 탐색중인 트리 레벨이 사용자가 설정한 트리 레벨에 도달하지 않았다면(<표 1>의 13행), <표 1>의 15~18행에 의해 quadtree_search() 함수가 재귀 호출된다. 이는 분할 깊이가 증가하여 트리의 레벨 또는 하위 셀들의 레벨이 상승함에 따라, 논리적인 관점에서 객체를 찾은 공간을 같은 크기의 4개의 공간으로 나눈 뒤 각각 공간을 탐색하는 것을 의미한다. Also, if the tree level currently being searched has not reached the tree level set by the user (line 13 of <Table 1>), the quadtree_search() function is recursively called according to lines 15 to 18 of <Table 1>. This means that, from a logical point of view, as the division depth increases and the level of the tree or lower cells increases, the space in which the object is found is divided into four spaces of the same size, and each space is searched.

<표 1><Table 1>

Figure 112021141271610-pat00018
Figure 112021141271610-pat00018

<표 2><Table 2>

Figure 112020033954077-pat00002
Figure 112020033954077-pat00002

도 6은 본 발명의 실시예에 따른 탐색 대상 공간을 좌표 평면 상에 도시한 도면이다. 그리고 도 7은 본 발명의 실시예에 따른 쿼드 트리 기반의 객체 탐색 기법을 나타낸 도면이며, 도 8은 본 발명의 실시예에 따라 탐색 대상 공간을 깊이 1의 트리 구조에 나타낸 도면이다. 6 is a diagram illustrating a search target space on a coordinate plane according to an embodiment of the present invention. 7 is a diagram illustrating a quad-tree based object search technique according to an embodiment of the present invention, and FIG. 8 is a diagram showing a search target space in a tree structure with a depth of 1 according to an embodiment of the present invention.

하지만 상위 레벨에서 탐색한 좌표를 하위 레벨에서 한 번 더 탐색을 한다면, 탐색을 중복적으로 수행하기 때문에 탐색 시간이 늘어나 비효율적이다. 이러한 중복 탐색 문제를 방지하기 위해서 상위 레벨에서 탐색 중이던 좌표―(current_x, current_y)와 현재 레벨에서 탐색을 수행할 좌표―(temp_x, temp_y)를 구분하고(<표 1>의 1행), <표 1>의 2~9행을 통해 탐색을 수행할 좌표를 재설정할 수 있다. However, if the coordinates searched at the upper level are searched once again at the lower level, the search time is increased, which is inefficient because the search is performed redundantly. To prevent this redundant search problem, the coordinates that were being searched at the upper level (current_x, current_y) and the coordinates to be searched at the current level (temp_x, temp_y) were distinguished (row 1 of <Table 1>), and Through lines 2 to 9 of 1>, coordinates to be searched can be reset.

첫 번째, 만약 도 6에서 영상 내 전체 공간을 탐색하는 도중 ① 공간, 혹은 ① 공간에서는 객체를 발견하지 못하고 ② 혹은 ④ 공간에서 객체를 발견한다면 <표 1>의 15~18행에 의해 함수가 재귀 호출된다. 여기서 <표 1>의 15행으로 인해 호출된 ①, <표 1>의 17행으로 인해 호출된 ③ 공간에 해당하는 quadtree_search() 함수는 current_x 좌표가 max_x를 넘었기 때문에(<표 1>의 2행) 탐색을 수행하지 않고 쿼드 트리 배열에 거짓(False)으로 데이터값을 저장(<표 1>의 3행)하고 리턴(Return)을(<표 1>의 4행) 하게 된다.First, if an object is not found in space ① or space ① while searching the entire space in the image in FIG. 6 and an object is found in space ② or ④, the function recurses according to rows 15 to 18 of <Table 1>. is called Here, ① called by line 15 of <Table 1>, ③ called by line 17 of <Table 1>, the quadtree_search() function corresponding to the space, because the current_x coordinate exceeded max_x (2 in <Table 1>) row) The data value is stored as False in the quad tree array without searching (row 3 of <Table 1>) and returned (row 4 of <Table 1>).

두 번째, 도 6에서 영상 내 전체 공간을 탐색하는 도중 ① 혹은 ③ 공간에서 객체를 발견한다면 <표 1>의 15~18행에 의해 함수가 재귀 호출된다. 여기서 ② 혹은 ④ 공간은 아직 탐색하지 않았으므로(<표 1>의 8행) 각 공간의 (min_x, min_y)부터 탐색을 시작하면(<표 1>의 9행) 된다.Second, if an object is found in ① or ③ space while searching the entire space in the image in FIG. 6, the function is recursively called according to rows 15 to 18 of <Table 1>. Here, ② or ④ space has not been searched yet (row 8 of <Table 1>), so start searching from (min_x, min_y) of each space (row 9 of <Table 1>).

세 번째, 도 6에서 영상 내 전체 공간을 탐색하는 도중 ① 혹은 ② 공간에서 객체를 발견한다면 <표 1>의 15~18행에 의해 함수가 재귀 호출된다. 여기서 ① 공간에서 객체가 발견되었다면 ③ 공간도, ② 공간에서 객체가 발견되었다면 ④ 공간도 current_x 좌표 왼쪽은 탐색이 완료된 상태이다. 그렇기 때문에 ③ 또는 ④ 공간의 min_y 좌표부터(<표 1>의 6행) 탐색을 시작하면 된다.Third, if an object is found in ① or ② space while searching the entire space in the image in FIG. 6, the function is recursively called according to rows 15 to 18 of <Table 1>. Here, if an object is found in ① space, ③ in space, ② if an object is found in space, ④ in space, the current_x coordinates left of the search are completed. Therefore, the search can be started from the min_y coordinates of ③ or ④ space (row 6 of <Table 1>).

네 번째, 도 6의 영상 내 전체 공간을 탐색하는 도중 ③ 또는 ④ 공간에서 객체를 발견한다면 <표 1>의 15~18행에 의해 함수가 재귀 호출된다. 여기서 ③ 공간에서 객체가 발견되었다면 ① 공간도, ④ 공간에서 객체가 발견되었다면 ② 공간도 current_x 좌표 까지는 탐색이 완료된 상태이다. 그렇기 때문에 temp_x 좌표를 오른쪽으로 한 픽셀 이동하고 ① 또는 ② 공간의 min_y 좌표부터(<표 1>의 7행) 탐색을 시작하면 된다.Fourth, if an object is found in ③ or ④ space while searching the entire space in the image of FIG. 6, the function is recursively called according to rows 15 to 18 of <Table 1>. Here, if an object is found in ③ space, ① space is also searched, and if an object is found in ④ space, search is completed up to current_x coordinates in ② space as well. Therefore, move the temp_x coordinate by one pixel to the right and start searching from the min_y coordinate of ① or ② space (row 7 of <Table 1>).

도 6 및 도 7은 공간을 트리 레벨이 1인 쿼드 트리로 탐색을 하는 예시를 보여준다. 도 7의 (c) 및 도 8에 도시된 1번 공간·노드는 네 번째 경우에 해당하며 2번과 4번 공간·노드는 두 번째 경우에 해당한다.6 and 7 show examples of searching a space in a quad tree having a tree level of 1. The first space node shown in FIG. 7(c) and FIG. 8 corresponds to the fourth case, and the second and fourth space nodes correspond to the second case.

그리고 도 9는 본 발명의 실시예에 따른 포화 트리를 예시한다. 도 9를 참조하면, quadtree_search() 함수를 실행하면 논리적으로 도 9와 같은 쿼드 트리 정보를 담고 있는 불리언(Boolean) 자료형의 1차원 배열이 반환된다. and Figure 9 illustrates a saturation tree according to an embodiment of the present invention. Referring to FIG. 9, when the quadtree_search() function is executed, a one-dimensional array of Boolean data type logically containing quad tree information as shown in FIG. 9 is returned.

1차원 배열은 트리를 포화 트리로 저장하며, 제안하는 기법에서는 회색(GRAY) 노드와 검정(BLACK) 노드를 따로 구분하지 않는다. The one-dimensional array stores the tree as a saturated tree, and the proposed method does not distinguish between GRAY and BLACK nodes.

그렇기 때문에 만약 1차원 배열에서 i 인덱스의 값이 참(True)이라면 i*4+n (n은 1 이상 4 이하의 자연수) 인덱스를 탐색하면 다음 단계의 공간, 즉 다음 레벨의 하위셀들을 탐색할 수 있다. 또한 1차원 배열의 크기가 i*4+n보다 작다면 i는 단말 노드임을 의미한다. Therefore, if the value of index i in a one-dimensional array is True, searching for index i*4+n (where n is a natural number between 1 and 4) will search the space of the next level, that is, subcells of the next level. can Also, if the size of the one-dimensional array is smaller than i*4+n, i means a terminal node.

그러므로 1차원 배열에서 단말 노드에 해당하는 인덱스의 값이 참(True)인 값의 공간 면적을 모두 더하면 탐색한 객체의 대략적인 면적을 계산할 수 있다. 아래의 <표 3>은 탐색한 객체의 면적을 계산하는 알고리즘의 일 예를 나타낸다.Therefore, the approximate area of the searched object can be calculated by adding all the spatial areas of the values of true indexes corresponding to the terminal nodes in the one-dimensional array. <Table 3> below shows an example of an algorithm for calculating the area of a searched object.

<표 3><Table 3>

Figure 112020033954077-pat00003
Figure 112020033954077-pat00003

도 10은 본 발명의 실시예에 따른 객체 탐색 방법의 테스트 화면을 도시한 도면이다. 10 is a diagram showing a test screen of an object search method according to an embodiment of the present invention.

본 발명의 실시예에 따른 실험에 있어, 유저 인터페이스(User Interface, UI) 환경에서 영상을 불러오기 위해서 자바를 사용해서 실험 프로그램을 만들었으며, 실험 환경은 Intel i7-5960X 3.00GHz, 16GB 메모리이다. In the experiment according to the embodiment of the present invention, an experiment program was created using Java to load an image in a user interface (UI) environment, and the experiment environment was an Intel i7-5960X 3.00 GHz, 16 GB memory.

도 10의 왼쪽 흰색 상자(1010)에 객체가 포함된 영상을 입력받고 중간의 변환 버튼(1030)을 누르면, 영상 분석 및 객체를 탐색하여 객체의 정보를 쿼드 트리로 저장하고 오른쪽 흰색 상자(1020)에 객체의 분포를 그리드로 그려서 결과를 출력한다. When an image containing an object is received in the left white box 1010 of FIG. 10 and the conversion button 1030 in the middle is pressed, the image is analyzed and the object is searched to save the object information as a quad tree, and the right white box 1020 The distribution of objects is drawn in a grid and the result is output.

참고로 본 실험은 512*512 크기의 공간에서 진행되었다. 탐색에 사용되는 쿼드 트리 레벨은 왼쪽 상단의 콤보박스(1001)의 값에 의해 결정되며, 레벨 1부터 레벨 7까지 설정할 수 있다. For reference, this experiment was conducted in a space of 512*512 size. The quad tree level used for search is determined by the value of the combo box 1001 at the top left, and can be set from level 1 to level 7.

영상 내 객체의 면적은 앞의 <표 3>에 개시된 알고리즘을 사용하여 계산한 뒤 오른쪽 상단에 출력할 수 있다. 각 픽셀을 탐색하는 데에는 0.001초의 딜레이가 발생한다고 가정하며, 예시적으로 슬립(sleep) 함수로 구현한 경우를 가정한다. 이는 실험 환경에서 딜레이를 발생시키지 않으면 각 레벨별 탐색에 걸리는 소요 시간이 0.004초 내외로 비슷한 결과가 나와 비교가 어렵기 때문이다.The area of the object in the image can be calculated using the algorithm disclosed in <Table 3> and then output to the upper right corner. It is assumed that a delay of 0.001 seconds occurs in searching each pixel, and it is exemplarily assumed that a sleep function is implemented. This is because, if no delay occurs in the experimental environment, the time required to search for each level is around 0.004 seconds, resulting in similar results, making it difficult to compare.

먼저 사용자는 왼쪽 상단의 5번째 아이콘(1006)을 눌러서 영상을 불러올 수 있다. 실험 환경에서는 RGBA의 투명도가 0인 투명한 픽셀을 거짓(False)으로, 투명도가 1에서 255인 불투명한 픽셀을 참(True)으로 변환한다. First, the user can bring up an image by pressing the fifth icon 1006 at the top left. In the experimental environment, transparent pixels with an RGBA transparency of 0 are converted to False, and opaque pixels with a transparency of 1 to 255 are converted to True.

그리고 데이터값이 참(True)인 픽셀, 즉 객체가 포함된 셀을 검정색으로 왼쪽 흰색 상자에 출력한다. 또한, 왼쪽 첫 번째부터 세 번째 아이콘(1004)을 통해서 왼쪽 흰색 상자에 객체를 그릴수 있으며, 네 번째 아이콘(1005)을 통해서 영상을 초기화할 수 있다.Then, pixels with true data values, that is, cells containing objects are displayed in black in the white box on the left. In addition, an object can be drawn in the white box on the left through the first to third icons 1004 on the left, and an image can be initialized through the fourth icon 1005.

도 11은 본 발명의 실시예에 따른 트리 레벨별 탐색에 걸리는 평균 시간과 탐색 횟수 등을 나타낸 그래프이다.11 is a graph showing the average time taken for searching for each tree level and the number of times of searching according to an embodiment of the present invention.

영상 내 객체 탐색에서 최선의 경우, 즉 객체 탐색에 최소의 시간이 걸리는 경우는, 분할한 영상 내 모든 공간의 왼쪽 상단 첫 번째 픽셀에 객체가 존재하는 경우이다. 도 11에 도시된 그래프에 따르면, 전체 픽셀 탐색과 각 레벨별로 탐색을 100번 반복했을 때 탐색에 걸리는 시간의 평균과 탐색하는 픽셀의 개수가 표시되어 있다.The best case for object search in an image, that is, the case in which object search takes the least amount of time, is when an object exists in the first pixel of the upper left corner of all spaces in the segmented image. According to the graph shown in FIG. 11 , when searching for all pixels and for each level is repeated 100 times, the average of the time taken for searching and the number of pixels to be searched are displayed.

반면, 영상 내 객체 탐색에서 최악의 경우, 즉 객체 탐색에 가장 긴 시간이 걸리는 경우는 공간에 객체가 존재하지 않거나 분할한 모든 공간의 오른쪽 하단 마지막 픽셀에 객체가 존재하는 것이다. 각 레벨별로 탐색에 걸리는 평균시간은 도 11의 전수 탐색과 유사한 결과로 나타났으며, 탐색하는 픽셀의 개수는 262144개로 모두 동일했다.On the other hand, in the worst case of object search in an image, that is, the case where object search takes the longest time, there is no object in the space or the object exists in the last pixel at the bottom right of all divided spaces. The average search time for each level was similar to that of the exhaustive search in FIG. 11, and the number of pixels to be searched was 262144, all the same.

도 12는 본 발명의 다른 실시예에 따른 트리 레벨별 탐색에 걸리는 평균 시간, 평균 탐색 횟수 등을 나타낸 그래프이다. 12 is a graph showing an average time taken for a search for each tree level and an average number of searches according to another embodiment of the present invention.

도 12는 트리 레벨별로 각 영상을 분석하여 객체를 탐색하는 데에 걸리는 평균 시간과 탐색 횟수의 평균을 나타낸다. 도 12를 참조하면, 트리 레벨이 높아질수록 정교하게 탐색하지만, 탐색 소요 시간과 탐색하는 픽셀의 개수가 증가하는 것을 알 수 있다. 그럼에도 불구하고, 레벨 7의 트리 탐색이 도 11의 전수 탐색에 비해 약 100초 빠르게 탐색을 완료할 수 있었음을 알 수 있다.12 shows the average time required to search for an object by analyzing each image for each tree level and the average of the number of searches. Referring to FIG. 12 , as the tree level increases, the search is performed more precisely, but it can be seen that the search time and the number of pixels to be searched increase. Nevertheless, it can be seen that the tree search of level 7 was able to complete the search about 100 seconds faster than the exhaustive search of FIG. 11 .

도 13은 본 발명의 실시예에 따른 객체 탐색 기법을 위한 실험 이미지이다. 그리고 도 14는 본 발명의 실시예에 따라 객체를 탐지하는 경우 각 이미지 별 탐색에 걸리는 평균 시간 등을 나타낸 그래프이다. 13 is an experimental image for an object search technique according to an embodiment of the present invention. 14 is a graph showing an average search time for each image when an object is detected according to an embodiment of the present invention.

도 13은 픽사베이(pixabay)에서 임의로 다운로드한 12개의 실험 대상 영상을 도시한다. 실험은 각각의 영상을 트리 레벨별로 탐색을 100번 반복하여 탐색에 걸리는 시간의 평균과 탐색하는 픽셀의 개수를 확인하는 것을 내용으로 한다.13 shows 12 test subject images randomly downloaded from pixabay. The content of the experiment is to repeat the search for each image 100 times for each tree level and check the average of the search time and the number of pixels to be searched.

그리고 도 14는 각 영상 별로 각 트리 레벨을 탐색하는데 걸리는 평균 시간과 탐색 횟수의 평균을 나타낸다. 3번, 11번 영상과 같이 객체가 넓거나 고르게 분포되어 있는 경우는 탐색에 걸리는 시간이 짧게 나타났으며, 1번, 2번, 6번 영상과 같이 객체가 존재하지 않는 공간이 많은 경우는 탐색 시간이 길게 나타났다. 14 shows the average time required to search each tree level for each image and the average number of searches. When the objects are wide or evenly distributed, such as in videos 3 and 11, the search time is short. time appeared long.

이는 본 발명의 실시예를 통해 제안하는 탐색 알고리즘이 왼쪽 상단부터 오른쪽 하단의 순서로 순차적으로 탐색하는 것과 연관이 있는 결과이다. 즉 순차 탐색 알고리즘에서 발생했던 단점 중 하나로서, 최악의 경우 즉 가장 많은 시간이 소요되는 경우는 시간 복잡도가 O(N)으로서, 탐지할 객체의 크기에 비해 영상 또는 셀의 크기가 크면 클수록 비효율적이라는 단점과 동일한 맥락에서 이해할 수 있다.This is a result related to the search algorithm proposed through the embodiment of the present invention sequentially searching from the upper left corner to the lower right corner. That is, one of the disadvantages of the sequential search algorithm is that the time complexity is O(N) in the worst case, i.e., the case where the most time is required, and the larger the size of the image or cell compared to the size of the object to be detected, the greater the inefficiency. It can be understood in the same context as the disadvantages.

실험을 통해서 최악의 경우, 즉 객체 탐색에 가장 많은 시간이 소요되는 경우는 전수 탐색과 유사한 시간 동안 전수 탐색과 동일한 픽셀 개수를 탐색하게 된다. 그러나 최선의 경우 즉 가장 적은 시간이 소요되는 경우는, 탐색하는 트리의 레벨을 l이라 가정했을 때 4^l개의 픽셀을 탐색하면 객체의 분포를 파악할 수 있었다. 또한 분할 깊이 또는 하위 셀의 레벨이 낮을수록 차이가 크게 나는 것을 볼 수 있었다. Through experiments, in the worst case, that is, in the case where the object search takes the most time, the same number of pixels as the total search is searched for a similar time. However, in the best case, that is, in the case where the least amount of time is required, assuming that the level of the tree to be searched is l, the object distribution can be identified by searching 4^l pixels. In addition, it can be seen that the difference increases as the division depth or sub-cell level decreases.

또한 도 13의 영상들을 사용한 실험을 통해, 본 발명의 실시예에 따른 탐색 시, 전수 탐색에 비해 빠르게 객체의 대략적인 분포를 탐색할 수 있었음을 알 수 있다. 따라서 전체 공간을 탐색하는 것에 비해 제안하는 기법이 객체의 대략적인 분포를 확인하기에 탐색 시간과 탐색 횟수 면에서 효율적임을 확인할 수 있다.In addition, through experiments using the images of FIG. 13 , it can be seen that, when searching according to the embodiment of the present invention, approximate distribution of objects can be searched more quickly than exhaustive searching. Therefore, compared to searching the entire space, it can be confirmed that the proposed method is more efficient in terms of search time and number of searches because it confirms the approximate distribution of objects.

이와 같이, 본 발명의 실시예에 따르면 사용자가 지정한 트리 레벨까지만 객체의 분포를 탐색하기 때문에 객체의 분포를 빠르게 파악하기에 적합하다. 또한 본 발명의 실시예에서 제안하는 객체 탐지 방법의 경우, 객체 탐지의 속도가 빠르므로 실시간으로 장애물의 위치를 식별하여 다음 이동 경로를 파악해야 하는 로봇 시야나 화재 발생 영역 파악 등에서도 사용될 수 있다.In this way, according to the embodiment of the present invention, since the distribution of objects is searched only up to the tree level designated by the user, it is suitable for quickly grasping the distribution of objects. In addition, in the case of the object detection method proposed in the embodiment of the present invention, since the speed of object detection is fast, it can be used in the field of view of a robot that needs to determine the next movement path by identifying the location of an obstacle in real time, or in identifying a fire area.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art will variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. You will understand that it can be done.

100: 객체 탐지 장치
110: 영상 입력부
120: 객체 탐지부
130: 메모리
140: 결과 출력부
100: object detection device
110: video input unit
120: object detection unit
130: memory
140: result output unit

Claims (16)

영상을 입력받아 영상 내 객체를 탐지하는 객체 탐지 장치에 있어서,
상기 객체를 탐지하기 위한 분석 대상인 상기 영상을 입력받는 영상 입력부;
상기 영상의 분할 횟수 또는 셀의 깊이를 제어할 수 있도록 사용자 신호를 수신하는 제어부;
상기 영상을 4개의 셀로 분할하고, 상기 영상 내 모든 셀을 탐색하여 상기 셀 중에서 각각의 셀의 영역 내에 상기 객체가 존재하는 상기 셀을 4개의 하위 셀로 한번 이상 분할하여 상기 영상 내 상기 객체의 분포를 분석하는 객체 탐지부;
상기 영상 또는 상기 객체의 분포에 대한 상기 영상의 분석 결과를 저장하는 메모리; 및
상기 객체의 분포에 대한 상기 분석 결과를 출력하는 결과 출력부를 포함하고,
상기 객체 탐지부는 상기 객체의 분포에 대한 상기 분석 결과를 요청한 사용자에 의해 지정된 상기 분할 깊이만큼 상기 영상의 분할을 반복하고,
상기 객체 탐지부가 상기 영상을 2회 이상 분할하는 경우, 상기 영상의 1차 분할 시 4개의 상기 셀이 생성되고, 이 경우 상기 1차 분할의 분할 깊이는 1이며, 상기 1차 분할에 의해 생성된 상기 셀의 레벨은 1이고, 상기 영상이 n차 분할 시 각각의 분할된 상기 셀은 n회에 걸쳐 4개의 상기 하위 셀로 분할되며, 상기 n차 분할의 상기 분할 깊이는 n이고, 상기 n차 분할에 의해 생성된 상기 하위 셀의 상기 레벨은 n이며,
각각의 상기 셀 및 상기 하위 셀들은 상기 셀 및 상기 하위 셀들이 분할된 상기 분할 깊이 및 상기 셀 및 상기 하위 셀들의 상기 영상 내 위치에 상응하는 위치값을 가지고, 상기 위치값은 분할을 반복할수록 증가하며 셀들의 위치값은 셀의 레벨의 위치값이 작은 순서대로 하위 셀들의 위치값이 지정되며,
상기 영상에 대한 분할이 완료되면 상기 객체 탐지부는 각각의 상기 셀 및 상기 하위셀들마다 데이터화를 거쳐 상기 객체가 존재하는지를 나타내는 2차원 데이터를 생성하고,
상기 셀 및 상기 하위셀의 구조에 상응하는 쿼드 트리를 생성하여 상기 셀 및 상기 하위셀 별 상기 데이터를 상기 쿼드 트리와 함께 저장하며,
상기 영상 내 객체의 면적에 대한 정보를 요청받은 경우, 상기 객체가 존재하는 상기 셀 및 상기 하위 셀의 개수와 크기를 이용하여 상기 객체의 면적을 산출하고, 상기 객체가 존재하는 상기 셀 및 상기 하위셀의 상기 위치값을 통해 상기 객체의 위치를 도출하는 것을 특징으로 하는 객체 탐지 장치.
In the object detection device for receiving an image and detecting an object in the image,
an image input unit that receives the image, which is an analysis target for detecting the object;
a control unit receiving a user signal to control the number of divisions of the image or the depth of a cell;
The image is divided into 4 cells, all cells in the image are searched, and the cell in which the object is present within the area of each cell among the cells is divided into 4 sub-cells more than once to determine the distribution of the object in the image. Object detection unit to analyze;
a memory for storing an analysis result of the image or distribution of the object; and
A result output unit outputting the analysis result for the distribution of the object;
The object detection unit repeats the segmentation of the image by the segmentation depth specified by the user who requested the analysis result for the distribution of the object;
When the object detection unit divides the image two or more times, four cells are generated during the first division of the image, in this case, the division depth of the first division is 1, and the division depth generated by the first division The level of the cell is 1, and when the image is divided n times, each divided cell is divided into four sub-cells n times, the division depth of the n-th division is n, and the n-th division The level of the lower cell generated by is n,
Each of the cells and the sub-cells has a position value corresponding to the division depth at which the cell and the sub-cells are divided and the positions of the cells and the sub-cells in the image, and the position value increases as division is repeated. The position values of the cells are assigned to the position values of the lower cells in the order of decreasing position values of the cell levels.
When the segmentation of the image is completed, the object detection unit generates two-dimensional data indicating whether the object exists through dataization for each cell and each sub-cell,
Creating a quad tree corresponding to the structure of the cell and the sub-cell and storing the data for each cell and the sub-cell together with the quad tree;
When information on the area of the object in the image is requested, the area of the object is calculated using the number and size of the cell and sub-cells in which the object exists, and the cell and sub-cells in which the object exists The object detection device, characterized in that for deriving the location of the object through the location value of the cell.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 영상을 입력받아 영상 내 객체를 탐지하는 객체 탐지 방법에 있어서,
상기 객체를 탐지하기 위한 분석 대상인 상기 영상을 입력받는 단계;
상기 영상의 분할 횟수 또는 셀의 깊이를 제어할 수 있도록 사용자 신호를 수신하는 단계;
상기 영상을 4개의 셀로 분할하고, 상기 영상 내 모든 셀을 탐색하여 상기 셀 중에서 각각의 셀의 영역 내에 상기 객체가 존재하는 상기 셀을 4개의 하위 셀로 한번 이상 분할하여 상기 영상 내 상기 객체의 분포를 분석하는 단계;
상기 영상 또는 상기 객체의 분포에 대한 상기 영상의 분석 결과를 저장하는 단계; 및
상기 객체의 분포에 대한 상기 분석 결과를 출력하는 단계를 포함하며,
상기 객체의 분포를 분석하는 단계는, 상기 객체의 분포에 대한 상기 분석 결과를 요청한 사용자에 의해 지정된 상기 분할 깊이만큼 상기 영상의 분할을 반복하고, 상기 영상을 2회 이상 분할하는 경우, 상기 영상의 1차 분할 시 4개의 상기 셀이 생성되고, 이 경우 상기 1차 분할의 분할 깊이는 1이며, 상기 1차 분할에 의해 생성된 상기 셀의 레벨은 1이고, 상기 영상이 n차 분할 시 각각의 분할된 상기 셀은 n회에 걸쳐 4개의 상기 하위 셀로 분할되며, 상기 n차 분할의 상기 분할 깊이는 n이고, 상기 n차 분할에 의해 생성된 상기 하위 셀의 상기 레벨은 n이며,
각각의 상기 셀 및 상기 하위 셀들은
상기 셀 및 상기 하위 셀들이 분할된 상기 분할 깊이 및 상기 셀 및 상기 하위 셀들의 상기 영상 내 위치에 상응하는 위치값을 가지고, 상기 위치값은 분할을 반복할수록 증가하며, 셀들의 위치값은 셀의 레벨의 위치값이 작은 순서대로 하위 셀들의 위치값이 지정되며,
상기 영상에 대한 분할이 완료되면 상기 객체의 분포를 분석하는 단계는 각각의 상기 셀 및 상기 하위셀들에 상기 객체가 존재하는지를 나타내는 데이터를 생성하고,
상기 셀 및 상기 하위셀의 구조에 상응하는 쿼드 트리를 생성하여 상기 셀 및 상기 하위셀 별 상기 데이터를 상기 쿼드 트리와 함께 저장하는 단계를 더 포함하며,
상기 영상 내 객체의 면적에 대한 정보를 요청받은 경우, 상기 객체가 존재하는 상기 셀 및 상기 하위 셀의 개수와 크기를 이용하여 상기 객체의 면적을 산출하고, 상기 객체가 존재하는 상기 셀 및 상기 하위셀의 상기 위치값을 통해 상기 객체의 위치를 도출하는 단계를 더 포함하는 객체 탐지 방법.
In the object detection method for detecting an object in an image by receiving an image,
receiving the image as an analysis target for detecting the object;
receiving a user signal to control the number of divisions of the image or the depth of a cell;
The image is divided into 4 cells, all cells in the image are searched, and the cell in which the object is present within the area of each cell among the cells is divided into 4 sub-cells more than once to determine the distribution of the object in the image. analyzing;
storing an analysis result of the image for the distribution of the image or the object; and
Outputting the analysis result for the distribution of the object,
Analyzing the distribution of the object may include repeating the segmentation of the image as much as the segmentation depth specified by the user who requested the analysis result of the object distribution, and when dividing the image two or more times, During the first division, four cells are generated, in this case, the division depth of the first division is 1, the level of the cells generated by the first division is 1, and the image is divided into nth division, each The divided cell is divided into four sub-cells n times, the division depth of the n-th division is n, and the level of the sub-cell generated by the n-th division is n,
Each of the cell and the sub-cells
The cell and the sub-cells have a position value corresponding to the division depth and the position of the cell and the sub-cell in the image, the position value increases as division is repeated, and the position value of the cells is The position values of the lower cells are specified in the order of the lower level position values,
When the segmentation of the image is completed, the step of analyzing the distribution of the object generates data indicating whether the object exists in each of the cells and sub-cells,
Generating a quad tree corresponding to the structure of the cell and the sub-cell and storing the data for each cell and each sub-cell together with the quad tree,
When information on the area of the object in the image is requested, the area of the object is calculated using the number and size of the cell and sub-cells in which the object exists, and the cell and sub-cells in which the object exists The object detection method further comprising deriving the location of the object through the location value of the cell.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200039617A 2020-04-01 2020-04-01 Device and method of searching objects based on quad tree KR102470139B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200039617A KR102470139B1 (en) 2020-04-01 2020-04-01 Device and method of searching objects based on quad tree

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200039617A KR102470139B1 (en) 2020-04-01 2020-04-01 Device and method of searching objects based on quad tree

Publications (2)

Publication Number Publication Date
KR20210122462A KR20210122462A (en) 2021-10-12
KR102470139B1 true KR102470139B1 (en) 2022-11-23

Family

ID=78078556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200039617A KR102470139B1 (en) 2020-04-01 2020-04-01 Device and method of searching objects based on quad tree

Country Status (1)

Country Link
KR (1) KR102470139B1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020064888A (en) 1999-10-22 2002-08-10 액티브스카이 인코포레이티드 An object oriented video system
KR100702808B1 (en) * 2005-04-28 2007-04-03 경북대학교 산학협력단 System and method for recognizing object using mobile phone
KR20100051775A (en) 2010-02-24 2010-05-18 (주)한국알파시스템 Real-time image analysis using the multi-object tracking and analyzing vehicle information and data management system and how to handle
KR101158728B1 (en) * 2010-03-31 2012-06-22 한국과학기술원 Real-time Foreground Detection Method
KR101233843B1 (en) * 2011-06-29 2013-02-15 포항공과대학교 산학협력단 Method and apparatus for object detection using volumetric feature vector and 3d haar-like filters
KR102005343B1 (en) * 2017-12-27 2019-10-01 서강대학교산학협력단 Partitioned space based spatial data object query processing apparatus and method, storage media storing the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Johnny Park 등, HIERARCHICAL DATA STRUCTURE FOR REAL-TIME BACKGROUND SUBTRACTION, ICIP2006.(2006.10.08.)*

Also Published As

Publication number Publication date
KR20210122462A (en) 2021-10-12

Similar Documents

Publication Publication Date Title
CN109918969B (en) Face detection method and device, computer device and computer readable storage medium
US10424341B2 (en) Dynamic video summarization
CN103098076B (en) Gesture recognition system for TV control
WO2020134528A1 (en) Target detection method and related product
CN109727264A (en) Image generating method, the training method of neural network, device and electronic equipment
CN108875482B (en) Object detection method and device and neural network training method and device
Lyu et al. Small object recognition algorithm of grain pests based on SSD feature fusion
CN110517270B (en) Indoor scene semantic segmentation method based on super-pixel depth network
CN103929644A (en) Video fingerprint database building method and device and video fingerprint recognition method and device
CN112861575A (en) Pedestrian structuring method, device, equipment and storage medium
CN110991310A (en) Portrait detection method, portrait detection device, electronic equipment and computer readable medium
CN114519881A (en) Face pose estimation method and device, electronic equipment and storage medium
CN110837786A (en) Density map generation method and device based on spatial channel, electronic terminal and medium
CN113989744A (en) Pedestrian target detection method and system based on oversized high-resolution image
CN109743566A (en) A kind of method and apparatus of the video format of VR for identification
Chan et al. On the hardware/software design and implementation of a high definition multiview video surveillance system
CN114004972A (en) Image semantic segmentation method, device, equipment and storage medium
KR102470139B1 (en) Device and method of searching objects based on quad tree
CN115205793B (en) Electric power machine room smoke detection method and device based on deep learning secondary confirmation
CN111915713A (en) Three-dimensional dynamic scene creating method, computer equipment and storage medium
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
Gupta et al. Reconnoitering the Essentials of Image and Video Processing: A Comprehensive Overview
CN114005140A (en) Personnel identification method, device, equipment, pedestrian monitoring system and storage medium
Ji et al. Design of human machine interactive system based on hand gesture recognition
CN114332754A (en) Cascade R-CNN pedestrian detection method based on multi-metric detector

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)