KR102543833B1 - Apparatus for object detection based on artificial intelligence learning and method thereof - Google Patents
Apparatus for object detection based on artificial intelligence learning and method thereof Download PDFInfo
- Publication number
- KR102543833B1 KR102543833B1 KR1020220031127A KR20220031127A KR102543833B1 KR 102543833 B1 KR102543833 B1 KR 102543833B1 KR 1020220031127 A KR1020220031127 A KR 1020220031127A KR 20220031127 A KR20220031127 A KR 20220031127A KR 102543833 B1 KR102543833 B1 KR 102543833B1
- Authority
- KR
- South Korea
- Prior art keywords
- trajectory
- frame
- image
- target object
- extracting
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title description 29
- 238000013473 artificial intelligence Methods 0.000 title description 3
- 238000004458 analytical method Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000004590 computer program Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012882 sequential analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시는 영상에 촬영된 객체의 속성의 추출 정확도(e.g., 객체의 인식도)를 향상시키기 위한 객체 검출 방법 및 그 장치에 관한 것이다.The present disclosure relates to an object detection method and apparatus for improving extraction accuracy (e.g., object recognition) of attributes of an object captured in an image.
객체 검출이란, 영상에 촬영된 객체에 대한 분류(classification) 및 지역화(localization)를 수행하는 작업을 의미한다. 여기서, 분류란, 영상에 촬영된 객체를 특정 카테고리(e.g., 사람, 개, 자동차 등)로 구분하는 작업을 의미할 수 있으며, 지역화란, 영상 내의 객체의 위치를 구획하는 작업을 의미할 수 있다.Object detection refers to an operation of performing classification and localization on an object photographed in an image. Here, classification may mean a task of classifying objects photographed in an image into a specific category (e.g., human, dog, car, etc.), and localization may mean a task of segmenting the location of an object in an image. .
최근 인공 지능 기술의 발전에 기초하여, 사람의 개입 없이도 영상에 촬영된 객체를 동적으로 검출하는 기술이 도입되고 있다. 그러나, 객체 검출의 대상이 되는 영상은 일정한 시구간을 가지므로, 영상에 포함된 복수의 프레임 중 어떠한 프레임을 선택하여 객체 검출을 수행해야 하는지에 관한 명확한 기준이 없었다. 예를 들어, 영상에 포함된 임의의 프레임을 선택하는 경우, 영상에 촬영된 객체가 흐리게 표현되어 객체의 속성 추출에 적합하지 않았다.Based on the recent development of artificial intelligence technology, a technology for dynamically detecting an object photographed in an image without human intervention has been introduced. However, since an image subject to object detection has a certain time period, there is no clear criterion as to which frame among a plurality of frames included in the image should be selected to perform object detection. For example, when an arbitrary frame included in an image is selected, an object photographed in the image is blurred and is not suitable for object attribute extraction.
따라서, 영상에 촬영된 객체의 속성의 추출 정확도를 향상시키기 위한 기술이 요구된다.Therefore, a technique for improving extraction accuracy of attributes of an object photographed in an image is required.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 기술적 과제는, 영상에 촬영된 객체의 속성의 추출 정확도를 향상시키기 위한 장치 및 그 장치에서 수행되는 방법을 제공하는 것이다.A technical problem to be solved through some embodiments of the present disclosure is to provide an apparatus for improving extraction accuracy of attributes of an object captured in an image and a method performed by the apparatus.
본 개시의 몇몇 실시예를 통해 해결하고자 하는 다른 기술적 과제는, 일정한 시구간을 갖는 영상에서 최적의 프레임을 추출하기 위한 장치 및 그 장치에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide an apparatus for extracting an optimal frame from an image having a certain time period and a method performed by the apparatus.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술 분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
상기 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예에 따른 객체 검출 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 제1 프레임에서 대상 객체를 식별하는 단계 - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - , 상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 단계 및 상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 단계를 포함할 수 있다.In order to solve the above technical problem, an object detection method according to some embodiments of the present disclosure is a method performed by a computing device, the step of identifying a target object in a first frame - the first frame, the target object Any frame included in an image in which an object is represented - Analyzing a first trajectory of the target object represented in the image and extracting an attribute of the target object based on the analysis of the first trajectory Extracting an optimal frame from the image may be included.
몇몇 실시예에서, 상기 최적 프레임에서 상기 대상 객체의 속성을 추출하는 단계를 더 포함할 수 있다.In some embodiments, the method may further include extracting attributes of the target object from the optimum frame.
몇몇 실시예에서, 상기 제1 궤적을 분석하는 단계는, 상기 영상에 표현된 상기 대상 객체의 특징 점의 이동에 기초하여, 상기 제1 궤적을 분석하는 단계를 포함할 수 있다. 여기서, 상기 최적 프레임을 상기 영상에서 추출하는 단계는, 상기 특징 점의 이동 속력이 최소인 프레임을 추출하는 단계를 포함할 수 있다.In some embodiments, analyzing the first trajectory may include analyzing the first trajectory based on a movement of a feature point of the target object represented in the image. Here, the extracting of the optimal frame from the image may include extracting a frame having a minimum moving speed of the feature point.
몇몇 실시예에서, 상기 대상 객체를 식별하는 단계는, 상기 제1 프레임에 표현된 보조 객체를 식별하는 단계를 포함하고, 상기 제1 궤적을 분석하는 단계는, 상기 영상에 표현된 상기 보조 객체의 제2 궤적을 분석하는 단계를 포함하고, 상기 최적 프레임을 추출하는 단계는, 상기 제1 궤적 및 상기 제2 궤적의 분석에 기초하여, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 대상 객체와 상기 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 상기 최적 프레임을 추출하는 단계를 포함할 수 있다. 여기서, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는, 제1 특징 점의 제1 이동 속력 및 제2 특징 점의 제2 이동 속력의 합이 최소인 프레임을 추출하는 단계를 포함하고, 상기 제1 특징 점은, 상기 대상 객체의 특징 점이고, 상기 제2 특징 점은, 상기 보조 객체의 특징 점일 수 있다. 또한, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는, 상기 제1 이동 속력 및 상기 제2 이동 속력 중 적어도 하나가 기준치 이상인 프레임을 상기 최적 프레임의 추출에서 제외하는 단계를 더 포함할 수 있다.In some embodiments, the identifying of the target object includes identifying an auxiliary object represented in the first frame, and the analyzing of the first trajectory includes the identification of the auxiliary object represented in the image. Analyzing a second trajectory, and extracting the optimal frame, based on the analysis of the first trajectory and the second trajectory, the image in which the first trajectory and the second trajectory are overlapped may include extracting the optimum frame for extracting the attributes of the target object and the auxiliary object in a single frame in a partial section of . Here, in the partial section of the image in which the first trajectory and the second trajectory are overlapped, the step of extracting the optimal frame may include a first moving speed of a first feature point and a second moving speed of a second feature point and extracting a frame having a minimum sum of , wherein the first feature point may be a feature point of the target object, and the second feature point may be a feature point of the auxiliary object. In addition, in the partial section of the image in which the first trajectory and the second trajectory are overlapped, the step of extracting the optimal frame includes a frame in which at least one of the first moving speed and the second moving speed is equal to or greater than a reference value. The method may further include excluding the optimum frame from extraction.
본 개시의 몇몇 실시예에 따른 객체 검출 장치는, 프로세서, 네트워크 인터페이스, 메모리 및 상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램은, 제1 프레임에서 대상 객체를 식별하는 인스트럭션(instruction) - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - , 상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 인스트럭션 및 상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 인스트럭션을 포함할 수 있다.An object detection apparatus according to some embodiments of the present disclosure includes a processor, a network interface, a memory, and a computer program loaded into the memory and executed by the processor, wherein the computer program, in a first frame An instruction for identifying a target object, wherein the first frame is an arbitrary frame included in an image in which the target object is represented, an instruction for analyzing a first trajectory of the target object represented in the image, and the An instruction for extracting an optimal frame for extracting the attribute of the target object from the image based on the analysis of the first trajectory may be included.
도 1은 본 개시의 몇몇 실시예에 따른 객체 검출 장치가 적용될 수 있는 예시적인 환경을 도시한다.
도 2는 본 개시의 몇몇 실시예에 따른 객체 검출 방법을 나타내는 예시적인 순서도이다.
도 3 내지 도 5는 도 2를 참조하여 설명된 객체의 식별 동작(S100) 및 객체의 궤적 분석 동작(S200)을 설명하기 위한 예시적인 도면으로서, 영상에 포함된 임의의 프레임을 나타내는 예시적인 도면이다.
도 6은 도 3 내지 도 5를 참조하여 설명된 궤적 분석 동작(S200)의 결과를 나타내는 예시적인 도면이다.
도 7은 본 개시의 다양한 실시예에 따른 장치 및/또는 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.1 illustrates an exemplary environment to which an object detection apparatus according to some embodiments of the present disclosure may be applied.
2 is an exemplary flowchart illustrating an object detection method according to some embodiments of the present disclosure.
3 to 5 are exemplary diagrams for explaining an object identification operation (S100) and an object trajectory analysis operation (S200) described with reference to FIG. 2, and are exemplary diagrams showing arbitrary frames included in an image. am.
FIG. 6 is an exemplary diagram showing a result of the trajectory analysis operation ( S200 ) described with reference to FIGS. 3 to 5 .
7 depicts an example computing device on which devices and/or systems in accordance with various embodiments of the present disclosure may be implemented.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Advantages and features of the present disclosure, and methods of achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the technical idea of the present disclosure is not limited to the following embodiments and may be implemented in various different forms, and only the following embodiments complete the technical idea of the present disclosure, and in the technical field to which the present disclosure belongs. It is provided to completely inform those skilled in the art of the scope of the present disclosure, and the technical spirit of the present disclosure is only defined by the scope of the claims.
각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible, even if they are displayed on different drawings. In addition, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description will be omitted.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined. Terminology used herein is for describing the embodiments and is not intended to limit the present disclosure. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성 요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used in describing the components of the present disclosure. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being “connected,” “coupled to,” or “connected” to another element, that element is or may be directly connected to the other element, but there is another element between the elements. It will be understood that elements may be “connected”, “coupled” or “connected”.
명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.
이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 개시의 몇몇 실시예에 따른 객체 검출 장치(100)가 적용될 수 있는 예시적인 환경을 도시한다. 도 1은 1개의 사용자 단말(200)과 1개의 카메라(300)가 네트워크를 통해 객체 검출 장치(100)와 연결된 일례를 도시하고 있으나, 이는 이해의 편의를 제공하기 위한 것일 뿐이고, 사용자 단말(200) 및 카메라(300)의 개수는 얼마든지 달라질 수 있다.1 illustrates an exemplary environment to which an
한편, 도 1은 본 개시의 목적을 달성하기 위한 바람직한 실시예를 도시하고 있을 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있다. 또한, 도 1에 도시된 예시적인 환경의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 복수의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의해야 한다. 예를 들어, 객체 검출 장치(100)와 사용자 단말(200)은 동일한 컴퓨팅 장치 내에 서로 다른 로직의 형태로 구현될 수 있다. 또한, 다른 예를 들어, 객체 검출 장치(100)와 카메라(300)는 동일한 컴퓨팅 장치 내에 서로 다른 로직(logic)의 형태로 구현될 수도 있다. Meanwhile, FIG. 1 only illustrates a preferred embodiment for achieving the object of the present disclosure, and some components may be added or deleted as necessary. In addition, it should be noted that components of the exemplary environment shown in FIG. 1 represent functionally differentiated functional elements, and a plurality of components may be implemented in a form integrated with each other in an actual physical environment. For example, the
이하, 도 1에 도시된 각 구성 요소에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, each component shown in FIG. 1 will be described in more detail.
우선, 객체 검출 장치(100)는 카메라(300)가 촬영한 영상을 수신할 수 있다. 여기서, 객체 검출 장치(100)는 카메라(300)로부터 수신된 영상에 기초하여 객체의 속성을 추출하기 위한 최적 프레임을 추출할 수 있다. 이때, 객체 검출 장치(100)는 추출된 최적 프레임에 표현된 객체의 속성을 추출할 수도 있다. First, the
또한, 객체 검출 장치(100)는 카메라(300)로부터 수신된 영상에 기초한 다양한 연산의 결과들을 사용자 단말(200)에 전송할 수 있다. 여기서, 사용자 단말(200)에 제공되는 결과들은 사용자 인터페이스 상에서 얼마든지 사용자에게 친화적인 형태로 변형될 수 있음을 유의해야 한다.Also, the
중복된 설명의 배제를 위하여, 객체 검출 장치(100)가 수행하는 다양한 동작들에 대해서는 추후 도 2 이하의 도면을 참조하여 보다 구체적으로 설명하기로 한다. In order to exclude redundant descriptions, various operations performed by the
전술한 객체 검출 장치(100)는, 하나 이상의 컴퓨팅 장치로 구현될 수 있다. 예를 들어, 객체 검출 장치(100)의 모든 기능은 단일 컴퓨팅 장치에서 구현될 수 있다. 다른 예로써, 객체 검출 장치(100)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 여기서, 전술한 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 다만, 객체 검출 장치(100)가 다수의 사용자 단말(200) 및 다수의 카메라(300)와 연동하여 다수의 객체를 검출해야 되는 환경이라면, 객체 검출 장치(100)는 고성능의 서버급 컴퓨팅 장치로 구현되는 것이 바람직할 수 있다. 이러한 컴퓨팅 장치의 일례에 대해서는 도 7을 참조하도록 한다.The
다음으로, 사용자 단말(200)은 객체 검출 장치(100)가 제공하는 결과들을 열람할 수 있다. 예를 들어, 사용자는 사용자 단말(200)을 통해 카메라(300)가 촬영한 영상의 최적 프레임을 열람할 수 있다. 또한, 다른 예를 들어, 사용자는 사용자 단말(200)을 통해 검출된 객체의 속성을 열람할 수도 있다. 여기서, 사용자 단말(200)은 객체 검출 장치(100)가 제공하는 결과들을 열람하기 위한 웹 브라우저(Web browser) 또는 전용 애플리케이션이 설치될 수 있다. 또한 여기서, 사용자 단말(200)은, 예를 들어, 데스크탑(desktop), 워크스테이션(workstation), 랩탑(laptop), 태블릿(tablet) 및 스마트폰(smart phone) 중 어느 하나가 될 수 있으나, 전술한 예시들에 한정되는 것은 아니고, 컴퓨팅 기능이 구비된 모든 종류의 장치가 사용자 단말(200)이 될 수 있다.Next, the
다음으로, 카메라(300)는 사용자의 관심 영역을 촬영하기 위한 모든 종류의 카메라 중 어느 하나가 될 수 있으며, 예를 들어, CCTV(Closed-Circuit Television)가 카메라(300)가 될 수 있다.Next, the
몇몇 실시예에서, 객체 검출 장치(100), 사용자 단말(200) 및 카메라(300)는, 네트워크를 통해 통신할 수 있다. 전술한 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.In some embodiments, the
지금까지 도 1을 참조하여 본 개시의 몇몇 실시예에 따른 객체 검출 장치(100)가 적용될 수 있는 예시적인 환경에 대하여 설명하였다. 이하에서는, 본 개시의 다양한 실시예에 따른 방법들에 대하여 상세하게 설명하기로 한다.An exemplary environment to which the
전술한 방법들의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 다시 말하면, 방법들의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 이러한 방법들에 포함되는 모든 단계는 하나의 물리적인 컴퓨팅 장치에 의하여 실행될 수도 있을 것이나, 방법의 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수도 있다. 이하에서는, 전술한 방법들의 각 단계가 도 1에 예시된 객체 검출 장치(100)에 의해 수행되는 것을 가정하여 설명을 이어가도록 한다. 다만, 설명의 편의상, 전술한 방법들에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다.Each step of the above methods may be performed by a computing device. In other words, each step of the methods may be implemented as one or more instructions executed by a processor of a computing device. All of the steps involved in these methods could be performed by one physical computing device, but first steps of the method are performed by a first computing device and second steps of the method are performed by a second computing device. It could be. Hereinafter, description will be continued on the assumption that each step of the above methods is performed by the
도 2는 본 개시의 몇몇 실시예에 따른 객체 검출 방법을 나타내는 예시적인 순서도이다. 이하에서는, 도 2를 참조하여 도 2에 도시된 동작들에 대해 보다 구체적으로 설명하기로 한다.2 is an exemplary flowchart illustrating an object detection method according to some embodiments of the present disclosure. Hereinafter, with reference to FIG. 2 , operations shown in FIG. 2 will be described in more detail.
단계 S100에서, 프레임에서 대상 객체가 식별될 수 있다. 여기서, 프레임은 영상에 포함된 임의의 프레임을 의미할 수 있다. 예를 들어, 영상의 N번째 (N은 자연수) 프레임에서 대상 객체가 식별될 수 있으며, 여기서, N은 객체 검출 장치가 적용된 환경에 따라 사용자가 적절하게 변경할 수 있다. 이외에도 다양한 방식에 따라 대상 객체가 식별될 초기의 프레임이 선택될 수 있다.In step S100, a target object may be identified in the frame. Here, the frame may mean any frame included in the image. For example, a target object may be identified in an N-th frame (N being a natural number) of an image, where N may be appropriately changed by a user according to an environment in which an object detection device is applied. In addition, an initial frame in which a target object is to be identified may be selected according to various methods.
다만, 대상 객체를 식별하기 위한 초기의 프레임이라면, 영상에 포함된 복수의 프레임들 중 대상 객체를 표현하고 있는 프레임을 의미하는 것이 바람직할 수 있다. 여기서, 영상에 포함된 복수의 프레임들 중 대상 객체를 표현하고 있는 프레임을 선택하기 위해서 공지된 다양한 영상 인식 기술이 본 개시에 적용될 수 있다. 예를 들어, 영상에 고정적으로 표현되는 특징 점(e.g., 카메라가 촬영하는 영역에 고정적으로 존재하는 물체들의 특징 점)들의 위치 변화율을 통해 이동하는 객체(i.e., 대상 객체)를 식별하는 기술이 본 개시에 적용될 수 있으나, 본 예시에 따라 본 개시의 범위가 한정되는 것은 아님을 유의해야 한다.However, if it is an initial frame for identifying a target object, it may be preferable to mean a frame representing the target object among a plurality of frames included in the image. Here, in order to select a frame representing a target object from among a plurality of frames included in an image, various known image recognition techniques may be applied to the present disclosure. For example, a technique for identifying a moving object (i.e., a target object) through a rate of change in the position of feature points (e.g., feature points of objects fixedly present in an area captured by a camera) that is fixedly expressed in an image is the present invention. Although it may be applied to the disclosure, it should be noted that the scope of the disclosure is not limited according to this example.
전술한 동작들에 따라 초기의 프레임이 선택되면, 초기의 프레임에 표현된 대상 객체가 식별될 수 있다. 보다 구체적으로, 대상 객체의 카테고리가 분류되거나 대상 객체가 프레임 내에 표현된 위치가 특정될 수 있다. 여기서, 프레임에 표현된 대상 객체를 식별하기 위해 공지된 다양한 영상 인식 기술이 본 개시에 적용될 수 있다. 특히, 객체의 카테고리 별 이미지로 사전에 학습되어 대상 객체의 카테고리를 분류하는 인공 지능 기반의 영상 인식 기술이 본 개시에 적용될 수 있다.If an initial frame is selected according to the above operations, a target object represented in the initial frame may be identified. More specifically, a category of the target object may be classified or a location where the target object is expressed in a frame may be specified. Here, various known image recognition techniques may be applied to the present disclosure to identify the target object represented in the frame. In particular, an artificial intelligence-based image recognition technology that classifies a category of a target object by pre-learning an image for each category of object may be applied to the present disclosure.
대상 객체의 식별 동작과 관련된 보다 구체적인 설명을 위해, 도 3을 참조하여 설명하기로 한다. 도 3은 영상에 포함된 제1 프레임(10a)을 나타내는 예시적인 도면이다. 도 3의 제1 프레임(10a)에는 제1 객체(20) 및 제2 객체(30)가 표현되어 있다. 여기서, 객체의 식별 동작에 따라, 제1 프레임(10a)에 표현된 각각의 객체(20, 30)의 경계에 대응되도록 관심 박스(23, 33)가 제1 프레임(10a)에 표현될 수 있다. 특히, 각각의 객체(20, 30)의 분류된 카테고리가 사람이라면, 각각의 객체(20, 30)의 얼굴을 나타내는 특수 관심 박스(21, 31)가 제1 프레임(10a)에 더 표현될 수도 있다.For a more detailed explanation related to the identification operation of the target object, it will be described with reference to FIG. 3 . 3 is an exemplary diagram illustrating a
또한, 도 4 및 도 5는 시계열적으로 도 3의 제1 프레임(10a)에 이어지는 프레임(10b, 10c)들을 나타내는 예시적인 도면이다. 구체적으로, 도 4는 도 3의 제1 프레임(10a)에 이어지는 제2 프레임(10b)을 도시하고 있으며, 도 5는 도 4의 제2 프레임(10b)에 이어지는 제3 프레임(10c)을 도시하고 있다. 도 4 및 도 5와 관련된 구체적인 설명은 도 3에 관한 설명을 참조하면 이해될 수 있으므로, 그 설명을 생략하기로 한다.4 and 5 are exemplary
단계 S100과 관련하여, 몇몇 실시예에서, 프레임에 둘 이상의 객체가 식별될 수 있다. 구체적으로, 프레임에서 대상 객체가 식별될 수 있으며, 프레임에서 보조 객체가 식별될 수도 있다. 여기서, 보조 객체란 대상 객체와 구별되는 객체를 의미할 수 있다.Referring to step S100, in some embodiments more than one object may be identified in the frame. Specifically, a target object may be identified in the frame, and an auxiliary object may be identified in the frame. Here, the auxiliary object may mean an object distinct from the target object.
앞서 설명된 동작들에 따라 영상에 포함된 임의의 프레임에서 대상 객체가 식별되면, 시계열적 분석을 통해 대상 객체가 추적될 수 있다. 다시 도 2를 참조하여 후술될 동작들에 대해서 설명하기로 한다.If a target object is identified in an arbitrary frame included in an image according to the above-described operations, the target object may be tracked through time-sequential analysis. Again referring to FIG. 2 , operations to be described later will be described.
단계 S200에서, 영상에 표현된 대상 객체의 궤적이 분석될 수 있다. 여기서, 대상 객체의 궤적은 시계열적으로 이어지는 영상에 포함된 프레임들 각각에서 대상 객체가 위치하는 영역을 추적한 가상의 선으로 이해될 수 있다. 이때, 영상에 표현된 대상 객체의 궤적을 분석하기 위해서 공지된 다양한 영상 인식 기술이 본 개시에 적용될 수 있다.In step S200, the trajectory of the target object represented in the image may be analyzed. Here, the trajectory of the target object may be understood as a virtual line tracing an area where the target object is located in each of the frames included in the time-sequential images. At this time, in order to analyze the trajectory of the target object expressed in the image, various known image recognition techniques may be applied to the present disclosure.
단계 S200과 관련하여, 몇몇 실시예에서, 대상 객체의 궤적을 분석하는 단계는, 영상에 표현된 대상 객체의 특징 점의 이동에 기초하여, 대상 객체의 궤적을 분석하는 단계를 포함할 수 있다. 여기서, 특징 점은, 대상 객체의 프레임 내 위치에 대응되는 점을 의미할 수 있으며, 도 3의 관심 박스(23, 33) 내에 위치한 점은 대상 객체의 위치에 대응되는 점으로 이해될 수 있으므로, 예를 들어, 특징 점은 도 3의 관심 박스(23, 33) 내에 위치한 점을 의미할 수 있다. 이때, 관심 박스(23, 33) 내부의 점을 선택하기 위한 다양한 방식이 본 개시에 적용될 수 있으며, 관심 박스(23, 33)의 중점이 특징 점으로 결정될 수 있으나, 본 예시에 본 개시의 범위가 한정되는 것은 아니다.In relation to step S200, in some embodiments, analyzing the trajectory of the target object may include analyzing the trajectory of the target object based on the movement of feature points of the target object represented in the image. Here, the feature point may mean a point corresponding to the location of the target object in the frame, and a point located within the
다른 예를 들어, 특징 점은 도 3의 특수 관심 박스(21, 31) 내에 위치한 점을 의미할 수도 있다. 이 경우, 특수 관심 박스(21, 31) 내에 위치한 점은 대상 객체의 위치에 대응되는 점으로 이해될 수 있을 뿐만 아니라, 사용자가 보다 관심있어 할 수 있는 영역(e.g., 사람의 얼굴 영역)에 위치한 점으로 이해될 수 있다. 본 예시에 따라, 특수 관심 박스(21, 31) 내에 위치한 점을 특징 점으로 이용하면 추후 설명될 동작들에 따른 대상 객체의 속성의 추출 정확도가 더욱 향상될 수 있다.For another example, the feature point may mean a point located within the
단계 S200과 관련하여, 다른 몇몇 실시예에서, 프레임에 표현된 둘 이상의 객체의 궤적이 각각 분석될 수 있다. 구체적으로, 대상 객체의 궤적이 분석될 수 있으며, 보조 객체의 궤적이 분석될 수도 있다.Regarding step S200, in some other embodiments, trajectories of two or more objects represented in a frame may be analyzed respectively. Specifically, the trajectory of the target object may be analyzed, and the trajectory of the auxiliary object may also be analyzed.
앞서 설명된 궤적 분석을 보다 구체적으로 설명하기 위해 도 6을 참조하여 설명하기로 한다. 도 6은 도 3 내지 도 5에 도시된 객체들(20, 30)의 궤적을 분석한 일례를 도시한다. 도 6의 분석 프레임(10d)은 영상에 포함된 프레임은 아니고, 영상에 포함된 프레임을 분석한 결과 프레임으로 이해될 수 있다.In order to explain the above-described trajectory analysis in more detail, it will be described with reference to FIG. 6 . FIG. 6 shows an example of analyzing the trajectories of the
도 6의 분석 프레임(10d)은 제1 객체에 대응되는 관심 박스(23a), 관심 박스(23a) 내에 위치한 특징 점(27) 및 제1 객체의 식별자(29)를 도시하고 있으며, 마찬가지로, 제2 객체에 대응되는 관심 박스(33a), 관심 박스(33a) 내에 위치한 특징 점(37) 및 제2 객체의 식별자(39)를 도시하고 있다. 특히, 분석 프레임(10d)은 제1 객체에 대응되는 제1 궤적(25) 및 제2 객체에 대응되는 제2 궤적(35)도 함께 도시하고 있다.The
앞서 설명된 동작들에 따라 영상에 표현된 대상 객체의 궤적이 분석될 수 있다. 다시 도 2를 참조하여 후술될 동작들에 대해서 설명하기로 한다.According to the above-described operations, the trajectory of the target object represented in the image may be analyzed. Again referring to FIG. 2 , operations to be described later will be described.
단계 S300에서, 궤적의 분석에 기초하여, 대상 객체의 속성을 추출하기 위한 최적 프레임이 영상에서 추출될 수 있다. 여기서, 최적 프레임이란, 영상에 포함된 복수의 프레임들 중 대상 객체의 속성을 추출하기 위한 가장 적합한 프레임을 의미할 수 있다. 이때, 대상 객체의 속성이란, 영상 분석을 통해 추출할 수 있는 특징(feature)을 의미하는 것으로써, 예를 들어, 대상 객체의 얼굴 이미지가 대상 객체의 속성에 포함될 수 있으나, 본 예시에 본 개시의 범위가 한정되는 것은 아니다.In step S300, based on the analysis of the trajectory, an optimal frame for extracting attributes of the target object may be extracted from the image. Here, the optimal frame may mean a frame most suitable for extracting the property of the target object among a plurality of frames included in the image. In this case, the property of the target object means a feature that can be extracted through image analysis. For example, the face image of the target object may be included in the property of the target object, but in this example, the present disclosure The scope of is not limited.
단계 S300과 관련하여, 몇몇 실시예에서, 최적 프레임을 영상에서 추출하는 단계는, 특징 점의 이동 속력이 최소인 프레임을 추출하는 단계를 포함할 수 있다. 즉, 특징 점의 이동 속력이 최소인 프레임은, 대상 객체가 흐리게 표현되지 않은 프레임일 가능성이 높으므로, 특징 점의 이동 속력이 최소인 프레임은 최적 프레임으로 적합한 프레임일 수 있다.In relation to step S300 , in some embodiments, extracting an optimal frame from an image may include extracting a frame having a minimum moving speed of a feature point. That is, since the frame with the minimum movement speed of the feature point is likely to be a frame in which the target object is not blurred, the frame with the minimum movement speed of the feature point may be a suitable frame as an optimal frame.
단계 S300과 관련하여, 다른 몇몇 실시예에서, 최적 프레임을 추출하는 단계는 대상 객체와 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 최적 프레임을 추출하는 단계를 포함할 수 있다. 구체적으로, 사용자의 관심 대상인 대상 객체와 보조 객체를 개별적으로 궤적 분석하여 개별적으로 최적 프레임을 2개 추출하는 것이 아니라, 각각의 속성을 추출하기에 적합한 1개의 최적 프레임이 추출될 수 있다. 이 경우, 관심 객체(e.g., 대상 객체, 보조 객체)에 대한 개별적 연산에 따른 컴퓨팅 리소스를 절약할 수 있으며, 관심 객체의 수가 다수인 환경에서 보다 효과적으로 컴퓨팅 리소스를 절약하면서도, 속성 추출에 적합한 최적 프레임을 추출할 수 있다.Regarding step S300, in some other embodiments, extracting the optimal frame may include extracting the optimal frame for extracting attributes of the target object and the auxiliary object in a single frame. Specifically, one optimal frame suitable for extracting each attribute may be extracted instead of individually trajectory analyzing the target object and the auxiliary object, which are the user's interest, and individually extract two optimal frames. In this case, it is possible to save computing resources according to individual operations on the object of interest (e.g., target object, auxiliary object), save computing resources more effectively in an environment with a large number of objects of interest, and optimize frames suitable for attribute extraction. can be extracted.
여기서, 대상 객체의 제1 궤적과 보조 객체의 제2 궤적이 중첩 표현된 영상의 일부 구간에서 최적 프레임을 추출하는 단계는, 제1 특징 점의 제1 이동 속력 및 제2 특징 점의 이동 속력의 합이 최소인 프레임을 추출하는 단계를 포함할 수 있다. 이때, 제1 특징 점은 대상 객체의 특징 점이고, 제2 특징 점은 보조 객체의 특징 점일 수 있다. 즉, 특징 점들의 이동 속력의 합이 최소인 프레임은, 대상 객체 및 보조 객체가 모두 흐리게 표현되지 않은 프레임일 가능성이 높으므로, 특징 점들의 이동 속력의 합이 최소인 프레임은 최적 프레임으로 적합한 프레임일 수 있다.Here, the step of extracting an optimal frame from a partial section of an image in which the first trajectory of the target object and the second trajectory of the auxiliary object are overlapped represents the first movement speed of the first feature point and the movement speed of the second feature point. A step of extracting a frame having a minimum sum may be included. In this case, the first feature point may be a feature point of the target object, and the second feature point may be a feature point of the auxiliary object. That is, since the frame in which the sum of the moving speeds of feature points is minimum is likely to be a frame in which both the target object and the auxiliary object are not blurred, the frame in which the sum of the moving speeds of feature points is minimal is suitable as an optimal frame. can be
또한 여기서, 대상 객체의 제1 궤적과 보조 객체의 제2 궤적이 중첩 표현된 영상의 일부 구간에서 최적 프레임을 추출하는 단계는, 제1 이동 속력(i.e., 대상 객체의 제1 특징 점의 이동 속력) 및 제2 이동 속력(i.e., 보조 객체의 제2 특징 점의 이동 속력) 중 적어도 하나가 기준치 이상인 프레임을 최적 프레임의 추출에서 제외하는 단계를 포함할 수 있다. 이 경우, 이동 속력의 합 연산에 따라 발생될 수 있는 노이즈(i.e., 특정 객체가 흐리게 표현되는 현상)가 제외될 수 있다.Also, here, the step of extracting an optimal frame from a partial section of an image in which the first trajectory of the target object and the second trajectory of the auxiliary object are overlapped is the first movement speed (i.e., the movement speed of the first feature point of the target object) ) and the second moving speed (i.e., the moving speed of the second feature point of the auxiliary object) may include excluding frames having a reference value or higher from extraction of the optimal frame. In this case, noise (i.e., a phenomenon in which a specific object is blurred) that may be generated according to the sum operation of the moving speed may be excluded.
단계 S300과 관련하여, 또 다른 몇몇 실시예에서, 최적 프레임을 추출하는 단계는 특징 점의 이동 방향에 따른 궤적의 기울기가 임계치 이상인 프레임을 최적 프레임의 추출에서 제외하는 단계를 포함할 수 있다. 즉, 특징 점의 이동 방향에 따른 궤적의 기울기가 임계치 이상인 프레임은, 대상 객체가 급변하게 이동 방향을 바꾸는 등 대상 객체가 흐리게 표현된 프레임일 가능성이 높으므로, 최적 프레임의 추출에서 제외될 수 있다.In relation to step S300, in some other embodiments, extracting an optimal frame may include excluding frames having a gradient of a trajectory along a moving direction of a feature point equal to or greater than a threshold value from extraction of the optimal frame. That is, a frame in which the gradient of the trajectory according to the moving direction of the feature point is greater than or equal to the threshold value is highly likely to be a frame in which the target object is blurred, such as when the target object rapidly changes the moving direction, and thus can be excluded from extraction of the optimal frame. .
앞서 설명된 동작들에 따라 영상에 포함된 최적 프레임이 추출될 수 있다. 다시 도 2를 참조하여 후술될 동작들에 대해서 설명하기로 한다.An optimal frame included in an image may be extracted according to the operations described above. Again referring to FIG. 2 , operations to be described later will be described.
단계 S400에서, 최적 프레임에서 대상 객체의 속성이 추출될 수 있다. 여기서, 최적 프레임은 대상 객체의 속성의 추출이 가장 용이한 영상의 프레임일 수 있으므로, 최적 프레임에서 대상 객체의 속성이 추출됨으로써, 객체의 속성의 추출 정확도가 향상될 수 있다.In step S400, attributes of the target object may be extracted from the optimum frame. Here, since the optimum frame may be a frame of an image in which the property of the target object is most easily extracted, the accuracy of object property extraction may be improved by extracting the property of the target object from the optimum frame.
지금까지 도 2 및 예시 도면들을 참조하여 본 개시의 몇몇 실시예에 따른 객체 검출 방법에 대하여 설명하였다. 전술한 방법들에 따르면, 객체의 속성을 추출하기에 가장 적합한 영상 내의 프레임(i.e., 최적 프레임)이 선택될 수 있다. 특히, 둘 이상의 객체의 속성을 추출 및 분석하는 경우라면, 컴퓨팅 리소스를 절약하면서도 추출 정확도가 향상된 방법에 따라 사용자는 효과적으로 객체의 속성을 추출할 수 있다.So far, an object detection method according to some embodiments of the present disclosure has been described with reference to FIG. 2 and exemplary drawings. According to the methods described above, a frame (i.e., optimal frame) in an image most suitable for extracting an attribute of an object may be selected. In particular, in the case of extracting and analyzing the attributes of two or more objects, the user can effectively extract the attributes of the objects according to a method with improved extraction accuracy while saving computing resources.
이하, 도 7을 참조하여 본 개시의 몇몇 실시예에 따른 객체 검출 장치를 구현할 수 있는 예시적인 컴퓨팅 장치(1500)를 보다 구체적으로 설명하기로 한다.Hereinafter, an
컴퓨팅 장치(1500)는 하나 이상의 프로세서(1510), 버스(1550), 통신 인터페이스(1570), 프로세서(1510)에 의하여 수행되는 컴퓨터 프로그램(1591)을 로드(load)하는 메모리(1530)와, 컴퓨터 프로그램(1591)을 저장하는 스토리지(1590)를 포함할 수 있다. 다만, 도 7에는 본 개시의 실시예와 관련 있는 구성 요소들 만이 도시되어 있다. 따라서, 본 개시가 속한 기술 분야의 통상의 기술자라면 도 7에 도시된 구성 요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.The
프로세서(1510)는 컴퓨팅 장치(1500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1510)는 본 개시의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1500)는 하나 이상의 프로세서를 구비할 수 있다.The
메모리(1530)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1530)는 본 개시의 실시예들에 따른 방법을 실행하기 위하여 스토리지(1590)로부터 하나 이상의 프로그램(1591)을 로드 할 수 있다. 메모리(1530)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.
버스(1550)는 컴퓨팅 장치(1500)의 구성 요소 간 통신 기능을 제공한다. 버스(1550)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The
통신 인터페이스(1570)는 컴퓨팅 장치(1500)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1570)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1570)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The
몇몇 실시예들에 따르면, 통신 인터페이스(1570)는 생략될 수도 있다.According to some embodiments,
스토리지(1590)는 전술한 하나 이상의 프로그램(1591)과 각종 데이터를 비임시적으로 저장할 수 있다. The
스토리지(1590)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The
컴퓨터 프로그램(1591)은 메모리(1530)에 로드 될 때 프로세서(1510)로 하여금 본 개시의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(1510)는 전술한 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예에 따른 방법/동작들을 수행할 수 있다.
지금까지 도 1 내지 도 7을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 명세서의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present disclosure and effects according to the embodiments have been described with reference to FIGS. 1 to 7 . Effects according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the specification.
지금까지 도 1 내지 도 7을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 전술한 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 컴퓨터로 읽을 수 있는 기록 매체에 기록된 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present disclosure described with reference to FIGS. 1 to 7 so far may be implemented as computer readable code on a computer readable medium. The aforementioned computer-readable recording medium is, for example, a removable recording medium (CD, DVD, Blu-ray disc, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can be A computer program recorded on a computer-readable recording medium may be transmitted to another computing device through a network such as the Internet, installed in the other computing device, and thereby used in the other computing device.
이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiments of the present disclosure have been described as being combined or operated as one, the technical idea of the present disclosure is not necessarily limited to these embodiments. That is, within the scope of the purpose of the present disclosure, all of the components may be selectively combined with one or more to operate.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although actions are shown in a particular order in the drawings, it should not be understood that the actions must be performed in the specific order shown or in a sequential order, or that all shown actions must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be understood as requiring such separation, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is
이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present disclosure have been described with reference to the accompanying drawings, those skilled in the art may implement the present disclosure in other specific forms without changing the technical spirit or essential features. can understand that there is Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present disclosure should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of rights of the technical ideas defined by the present disclosure.
Claims (8)
제1 프레임에서 대상 객체를 식별하는 단계 - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - ;
상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 단계; 및
상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 단계를 포함하되,
상기 대상 객체를 식별하는 단계는,
상기 제1 프레임에 표현된 보조 객체를 식별하는 단계 - 상기 보조 객체는, 상기 대상 객체와 구별되는 객체임 - 를 포함하고,
상기 제1 궤적을 분석하는 단계는,
상기 영상에 표현된 상기 대상 객체에 대응되는 제1 특징 점의 이동에 기초하여, 상기 제1 궤적을 분석하는 단계; 및
상기 영상에 표현된 상기 보조 객체의 제2 궤적을 분석하는 단계를 포함하고,
상기 제2 궤적을 분석하는 단계는,
상기 영상에 표현된 상기 보조 객체에 대응되는 제2 특징 점의 이동에 기초하여, 상기 제2 궤적을 분석하는 단계를 포함하고,
상기 최적 프레임을 추출하는 단계는,
상기 제1 궤적 및 상기 제2 궤적의 분석에 기초하여, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 대상 객체와 상기 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 상기 최적 프레임을 추출하는 단계를 포함하고,
상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는,
제1 특징 점의 제1 이동 속력 및 제2 특징 점의 제2 이동 속력의 합이 최소인 프레임을 추출하는 단계를 포함하는,
객체 검출 방법.An object detection method performed by a computing device,
identifying a target object in a first frame, wherein the first frame is an arbitrary frame included in an image in which the target object is expressed;
analyzing a first trajectory of the target object represented in the image; and
Based on the analysis of the first trajectory, extracting an optimal frame for extracting the attribute of the target object from the image,
The step of identifying the target object,
Identifying an auxiliary object represented in the first frame, wherein the auxiliary object is an object distinct from the target object;
Analyzing the first trajectory,
analyzing the first trajectory based on movement of a first feature point corresponding to the target object expressed in the image; and
Analyzing a second trajectory of the auxiliary object represented in the image,
Analyzing the second trajectory,
Analyzing the second trajectory based on movement of a second feature point corresponding to the auxiliary object represented in the image;
Extracting the optimal frame,
Based on the analysis of the first trajectory and the second trajectory, in a partial section of the image in which the first trajectory and the second trajectory are overlapped, the properties of the target object and the auxiliary object are extracted in a single frame Extracting the optimal frame for
The step of extracting the optimal frame from a partial section of the image in which the first trajectory and the second trajectory are overlapped,
Extracting a frame in which the sum of a first moving speed of a first feature point and a second moving speed of a second feature point is minimum,
object detection method.
상기 최적 프레임에서 상기 대상 객체의 속성을 추출하는 단계를 더 포함하는,
객체 검출 방법.According to claim 1,
Further comprising extracting attributes of the target object from the optimal frame,
object detection method.
상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는,
상기 제1 이동 속력 및 상기 제2 이동 속력 중 적어도 하나가 기준치 이상인 프레임을 상기 최적 프레임의 추출에서 제외하는 단계를 더 포함하는,
객체 검출 방법.According to claim 1,
The step of extracting the optimal frame from a partial section of the image in which the first trajectory and the second trajectory are overlapped,
Excluding a frame in which at least one of the first moving speed and the second moving speed is equal to or greater than a reference value from the extraction of the optimal frame,
object detection method.
네트워크 인터페이스;
메모리; 및
상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되,
상기 컴퓨터 프로그램은,
제1 프레임에서 대상 객체를 식별하는 인스트럭션 - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - ;
상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 인스트럭션; 및
상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 인스트럭션을 포함하되,
상기 대상 객체를 식별하는 인스트럭션은,
상기 제1 프레임에 표현된 보조 객체를 식별하는 인스트럭션 - 상기 보조 객체는, 상기 대상 객체와 구별되는 객체임 - 을 포함하고,
상기 제1 궤적을 분석하는 인스트럭션은,
상기 영상에 표현된 상기 대상 객체에 대응되는 제1 특징 점의 이동에 기초하여, 상기 제1 궤적을 분석하는 인스트럭션; 및
상기 영상에 표현된 상기 보조 객체의 제2 궤적을 분석하는 인스트럭션을 포함하고,
상기 제2 궤적을 분석하는 인스트럭션은,
상기 영상에 표현된 상기 보조 객체에 대응되는 제2 특징 점의 이동에 기초하여, 상기 제2 궤적을 분석하는 인스트럭션을 포함하고,
상기 최적 프레임을 추출하는 인스트럭션은,
상기 제1 궤적 및 상기 제2 궤적의 분석에 기초하여, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 대상 객체와 상기 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 상기 최적 프레임을 추출하는 인스트럭션을 포함하고,
상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 인스트럭션은,
제1 특징 점의 제1 이동 속력 및 제2 특징 점의 제2 이동 속력의 합이 최소인 프레임을 추출하는 인스트럭션을 포함하는,
객체 검출 장치.processor;
network interface;
Memory; and
A computer program loaded into the memory and executed by the processor,
The computer program,
an instruction for identifying a target object in a first frame, wherein the first frame is an arbitrary frame included in an image in which the target object is expressed;
an instruction for analyzing a first trajectory of the target object expressed in the image; and
Based on the analysis of the first trajectory, an instruction for extracting an optimal frame for extracting the attribute of the target object from the image,
The instruction for identifying the target object,
An instruction for identifying an auxiliary object represented in the first frame, wherein the auxiliary object is an object distinct from the target object;
The instruction for analyzing the first trajectory,
an instruction for analyzing the first trajectory based on movement of a first feature point corresponding to the target object expressed in the image; and
An instruction for analyzing a second trajectory of the auxiliary object expressed in the image;
The instruction for analyzing the second trajectory,
An instruction for analyzing the second trajectory based on movement of a second feature point corresponding to the auxiliary object represented in the image;
The instruction for extracting the optimal frame,
Based on the analysis of the first trajectory and the second trajectory, in a partial section of the image in which the first trajectory and the second trajectory are overlapped, the properties of the target object and the auxiliary object are extracted in a single frame Includes instructions for extracting the optimal frame for
In a partial section of the image in which the first trajectory and the second trajectory are overlapped, the instruction for extracting the optimal frame,
Including an instruction for extracting a frame in which the sum of the first moving speed of the first feature point and the second moving speed of the second feature point is minimum.
object detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220031127A KR102543833B1 (en) | 2022-03-14 | 2022-03-14 | Apparatus for object detection based on artificial intelligence learning and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220031127A KR102543833B1 (en) | 2022-03-14 | 2022-03-14 | Apparatus for object detection based on artificial intelligence learning and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102543833B1 true KR102543833B1 (en) | 2023-06-20 |
Family
ID=86994859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220031127A KR102543833B1 (en) | 2022-03-14 | 2022-03-14 | Apparatus for object detection based on artificial intelligence learning and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102543833B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150137698A (en) * | 2014-05-30 | 2015-12-09 | 고려대학교 산학협력단 | Method and apparatus for movement trajectory tracking of moving object on animal farm |
KR20200031232A (en) | 2018-09-14 | 2020-03-24 | 케이피항공산업(주) | An Incineration system having a combined heat and power generator |
KR20200060942A (en) * | 2018-11-23 | 2020-06-02 | 주식회사 리얼타임테크 | Method for face classifying based on trajectory in continuously photographed image |
-
2022
- 2022-03-14 KR KR1020220031127A patent/KR102543833B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150137698A (en) * | 2014-05-30 | 2015-12-09 | 고려대학교 산학협력단 | Method and apparatus for movement trajectory tracking of moving object on animal farm |
KR20200031232A (en) | 2018-09-14 | 2020-03-24 | 케이피항공산업(주) | An Incineration system having a combined heat and power generator |
KR20200060942A (en) * | 2018-11-23 | 2020-06-02 | 주식회사 리얼타임테크 | Method for face classifying based on trajectory in continuously photographed image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488791A (en) | On-device classification of fingertip movement patterns as gestures in real time | |
CN109727275B (en) | Object detection method, device, system and computer readable storage medium | |
CN109726661B (en) | Image processing method and apparatus, medium, and computing device | |
AU2019345266B2 (en) | Ventral-dorsal neural networks: object detection via selective attention | |
US11113507B2 (en) | System and method for fast object detection | |
US10296782B2 (en) | Processing device and method for face detection | |
KR102576157B1 (en) | Method and apparatus for high speed object detection using artificial neural network | |
US8705800B2 (en) | Profiling activity through video surveillance | |
Kompella et al. | A semi-supervised recurrent neural network for video salient object detection | |
CN108960247B (en) | Image significance detection method and device and electronic equipment | |
JP2019220014A (en) | Image analyzing apparatus, image analyzing method and program | |
CN113449538A (en) | Visual model training method, device, equipment and storage medium | |
Xiong et al. | Comparative analysis of detection algorithms for corner and blob features in image processing | |
Delibaşoğlu | Moving object detection method with motion regions tracking in background subtraction | |
US20230252654A1 (en) | Video analysis device, wide-area monitoring system, and method for selecting camera | |
KR102543833B1 (en) | Apparatus for object detection based on artificial intelligence learning and method thereof | |
Cai et al. | Single shot multibox detector for honeybee detection | |
CN115115857A (en) | Image matching method and device and computer equipment | |
KR20230162010A (en) | Real-time machine learning-based privacy filter to remove reflective features from images and videos | |
KR20160112256A (en) | Image analysis apparatus using cluster system and method using the same | |
Pandey et al. | Detect and track the motion of any moving object using opencv | |
EP3718080A1 (en) | Surface color segmentation | |
US20230196752A1 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
CN112839181B (en) | Method and equipment for generating high dynamic range image | |
Benito-Picazo et al. | Parallel processing applied to object detection with a jetson tx2 embedded system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |