KR102543833B1 - Apparatus for object detection based on artificial intelligence learning and method thereof - Google Patents

Apparatus for object detection based on artificial intelligence learning and method thereof Download PDF

Info

Publication number
KR102543833B1
KR102543833B1 KR1020220031127A KR20220031127A KR102543833B1 KR 102543833 B1 KR102543833 B1 KR 102543833B1 KR 1020220031127 A KR1020220031127 A KR 1020220031127A KR 20220031127 A KR20220031127 A KR 20220031127A KR 102543833 B1 KR102543833 B1 KR 102543833B1
Authority
KR
South Korea
Prior art keywords
trajectory
frame
image
target object
extracting
Prior art date
Application number
KR1020220031127A
Other languages
Korean (ko)
Inventor
권상기
Original Assignee
주식회사 바른이엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바른이엔씨 filed Critical 주식회사 바른이엔씨
Priority to KR1020220031127A priority Critical patent/KR102543833B1/en
Application granted granted Critical
Publication of KR102543833B1 publication Critical patent/KR102543833B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The present disclosure relates to an object detection method for improving the extraction accuracy of properties of an object captured in an image and an apparatus thereof. The object detection method according to some embodiments of the present disclosure is performed by a computing device may include the step of: identifying a target object in a first frame -the first frame is a random frame included in an image representing the target object-; analyzing the first trajectory of the target object represented in the image; and extracting an optimal frame for extracting properties of the target object from the image based on the analysis of the first trajectory.

Description

인공 지능 학습에 기초한 객체 검출 방법 및 그 장치{APPARATUS FOR OBJECT DETECTION BASED ON ARTIFICIAL INTELLIGENCE LEARNING AND METHOD THEREOF}Object detection method and apparatus based on artificial intelligence learning

본 개시는 영상에 촬영된 객체의 속성의 추출 정확도(e.g., 객체의 인식도)를 향상시키기 위한 객체 검출 방법 및 그 장치에 관한 것이다.The present disclosure relates to an object detection method and apparatus for improving extraction accuracy (e.g., object recognition) of attributes of an object captured in an image.

객체 검출이란, 영상에 촬영된 객체에 대한 분류(classification) 및 지역화(localization)를 수행하는 작업을 의미한다. 여기서, 분류란, 영상에 촬영된 객체를 특정 카테고리(e.g., 사람, 개, 자동차 등)로 구분하는 작업을 의미할 수 있으며, 지역화란, 영상 내의 객체의 위치를 구획하는 작업을 의미할 수 있다.Object detection refers to an operation of performing classification and localization on an object photographed in an image. Here, classification may mean a task of classifying objects photographed in an image into a specific category (e.g., human, dog, car, etc.), and localization may mean a task of segmenting the location of an object in an image. .

최근 인공 지능 기술의 발전에 기초하여, 사람의 개입 없이도 영상에 촬영된 객체를 동적으로 검출하는 기술이 도입되고 있다. 그러나, 객체 검출의 대상이 되는 영상은 일정한 시구간을 가지므로, 영상에 포함된 복수의 프레임 중 어떠한 프레임을 선택하여 객체 검출을 수행해야 하는지에 관한 명확한 기준이 없었다. 예를 들어, 영상에 포함된 임의의 프레임을 선택하는 경우, 영상에 촬영된 객체가 흐리게 표현되어 객체의 속성 추출에 적합하지 않았다.Based on the recent development of artificial intelligence technology, a technology for dynamically detecting an object photographed in an image without human intervention has been introduced. However, since an image subject to object detection has a certain time period, there is no clear criterion as to which frame among a plurality of frames included in the image should be selected to perform object detection. For example, when an arbitrary frame included in an image is selected, an object photographed in the image is blurred and is not suitable for object attribute extraction.

따라서, 영상에 촬영된 객체의 속성의 추출 정확도를 향상시키기 위한 기술이 요구된다.Therefore, a technique for improving extraction accuracy of attributes of an object photographed in an image is required.

한국공개특허 제10-2020-0031232호 (2021.09.28 공개)Korean Patent Publication No. 10-2020-0031232 (published on September 28, 2021)

본 개시의 몇몇 실시예를 통해 해결하고자 하는 기술적 과제는, 영상에 촬영된 객체의 속성의 추출 정확도를 향상시키기 위한 장치 및 그 장치에서 수행되는 방법을 제공하는 것이다.A technical problem to be solved through some embodiments of the present disclosure is to provide an apparatus for improving extraction accuracy of attributes of an object captured in an image and a method performed by the apparatus.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 다른 기술적 과제는, 일정한 시구간을 갖는 영상에서 최적의 프레임을 추출하기 위한 장치 및 그 장치에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide an apparatus for extracting an optimal frame from an image having a certain time period and a method performed by the apparatus.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술 분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예에 따른 객체 검출 방법은, 컴퓨팅 장치에 의해 수행되는 방법에 있어서, 제1 프레임에서 대상 객체를 식별하는 단계 - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - , 상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 단계 및 상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 단계를 포함할 수 있다.In order to solve the above technical problem, an object detection method according to some embodiments of the present disclosure is a method performed by a computing device, the step of identifying a target object in a first frame - the first frame, the target object Any frame included in an image in which an object is represented - Analyzing a first trajectory of the target object represented in the image and extracting an attribute of the target object based on the analysis of the first trajectory Extracting an optimal frame from the image may be included.

몇몇 실시예에서, 상기 최적 프레임에서 상기 대상 객체의 속성을 추출하는 단계를 더 포함할 수 있다.In some embodiments, the method may further include extracting attributes of the target object from the optimum frame.

몇몇 실시예에서, 상기 제1 궤적을 분석하는 단계는, 상기 영상에 표현된 상기 대상 객체의 특징 점의 이동에 기초하여, 상기 제1 궤적을 분석하는 단계를 포함할 수 있다. 여기서, 상기 최적 프레임을 상기 영상에서 추출하는 단계는, 상기 특징 점의 이동 속력이 최소인 프레임을 추출하는 단계를 포함할 수 있다.In some embodiments, analyzing the first trajectory may include analyzing the first trajectory based on a movement of a feature point of the target object represented in the image. Here, the extracting of the optimal frame from the image may include extracting a frame having a minimum moving speed of the feature point.

몇몇 실시예에서, 상기 대상 객체를 식별하는 단계는, 상기 제1 프레임에 표현된 보조 객체를 식별하는 단계를 포함하고, 상기 제1 궤적을 분석하는 단계는, 상기 영상에 표현된 상기 보조 객체의 제2 궤적을 분석하는 단계를 포함하고, 상기 최적 프레임을 추출하는 단계는, 상기 제1 궤적 및 상기 제2 궤적의 분석에 기초하여, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 대상 객체와 상기 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 상기 최적 프레임을 추출하는 단계를 포함할 수 있다. 여기서, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는, 제1 특징 점의 제1 이동 속력 및 제2 특징 점의 제2 이동 속력의 합이 최소인 프레임을 추출하는 단계를 포함하고, 상기 제1 특징 점은, 상기 대상 객체의 특징 점이고, 상기 제2 특징 점은, 상기 보조 객체의 특징 점일 수 있다. 또한, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는, 상기 제1 이동 속력 및 상기 제2 이동 속력 중 적어도 하나가 기준치 이상인 프레임을 상기 최적 프레임의 추출에서 제외하는 단계를 더 포함할 수 있다.In some embodiments, the identifying of the target object includes identifying an auxiliary object represented in the first frame, and the analyzing of the first trajectory includes the identification of the auxiliary object represented in the image. Analyzing a second trajectory, and extracting the optimal frame, based on the analysis of the first trajectory and the second trajectory, the image in which the first trajectory and the second trajectory are overlapped may include extracting the optimum frame for extracting the attributes of the target object and the auxiliary object in a single frame in a partial section of . Here, in the partial section of the image in which the first trajectory and the second trajectory are overlapped, the step of extracting the optimal frame may include a first moving speed of a first feature point and a second moving speed of a second feature point and extracting a frame having a minimum sum of , wherein the first feature point may be a feature point of the target object, and the second feature point may be a feature point of the auxiliary object. In addition, in the partial section of the image in which the first trajectory and the second trajectory are overlapped, the step of extracting the optimal frame includes a frame in which at least one of the first moving speed and the second moving speed is equal to or greater than a reference value. The method may further include excluding the optimum frame from extraction.

본 개시의 몇몇 실시예에 따른 객체 검출 장치는, 프로세서, 네트워크 인터페이스, 메모리 및 상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되, 상기 컴퓨터 프로그램은, 제1 프레임에서 대상 객체를 식별하는 인스트럭션(instruction) - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - , 상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 인스트럭션 및 상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 인스트럭션을 포함할 수 있다.An object detection apparatus according to some embodiments of the present disclosure includes a processor, a network interface, a memory, and a computer program loaded into the memory and executed by the processor, wherein the computer program, in a first frame An instruction for identifying a target object, wherein the first frame is an arbitrary frame included in an image in which the target object is represented, an instruction for analyzing a first trajectory of the target object represented in the image, and the An instruction for extracting an optimal frame for extracting the attribute of the target object from the image based on the analysis of the first trajectory may be included.

도 1은 본 개시의 몇몇 실시예에 따른 객체 검출 장치가 적용될 수 있는 예시적인 환경을 도시한다.
도 2는 본 개시의 몇몇 실시예에 따른 객체 검출 방법을 나타내는 예시적인 순서도이다.
도 3 내지 도 5는 도 2를 참조하여 설명된 객체의 식별 동작(S100) 및 객체의 궤적 분석 동작(S200)을 설명하기 위한 예시적인 도면으로서, 영상에 포함된 임의의 프레임을 나타내는 예시적인 도면이다.
도 6은 도 3 내지 도 5를 참조하여 설명된 궤적 분석 동작(S200)의 결과를 나타내는 예시적인 도면이다.
도 7은 본 개시의 다양한 실시예에 따른 장치 및/또는 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.
1 illustrates an exemplary environment to which an object detection apparatus according to some embodiments of the present disclosure may be applied.
2 is an exemplary flowchart illustrating an object detection method according to some embodiments of the present disclosure.
3 to 5 are exemplary diagrams for explaining an object identification operation (S100) and an object trajectory analysis operation (S200) described with reference to FIG. 2, and are exemplary diagrams showing arbitrary frames included in an image. am.
FIG. 6 is an exemplary diagram showing a result of the trajectory analysis operation ( S200 ) described with reference to FIGS. 3 to 5 .
7 depicts an example computing device on which devices and/or systems in accordance with various embodiments of the present disclosure may be implemented.

이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Advantages and features of the present disclosure, and methods of achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the technical idea of the present disclosure is not limited to the following embodiments and may be implemented in various different forms, and only the following embodiments complete the technical idea of the present disclosure, and in the technical field to which the present disclosure belongs. It is provided to completely inform those skilled in the art of the scope of the present disclosure, and the technical spirit of the present disclosure is only defined by the scope of the claims.

각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to components of each drawing, it should be noted that the same components have the same numerals as much as possible, even if they are displayed on different drawings. In addition, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description will be omitted.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless explicitly specifically defined. Terminology used herein is for describing the embodiments and is not intended to limit the present disclosure. In this specification, singular forms also include plural forms unless specifically stated otherwise in a phrase.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성 요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used in describing the components of the present disclosure. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being “connected,” “coupled to,” or “connected” to another element, that element is or may be directly connected to the other element, but there is another element between the elements. It will be understood that elements may be “connected”, “coupled” or “connected”.

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and/or "comprising" means that a stated component, step, operation, and/or element is the presence of one or more other components, steps, operations, and/or elements. or do not rule out additions.

이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 몇몇 실시예에 따른 객체 검출 장치(100)가 적용될 수 있는 예시적인 환경을 도시한다. 도 1은 1개의 사용자 단말(200)과 1개의 카메라(300)가 네트워크를 통해 객체 검출 장치(100)와 연결된 일례를 도시하고 있으나, 이는 이해의 편의를 제공하기 위한 것일 뿐이고, 사용자 단말(200) 및 카메라(300)의 개수는 얼마든지 달라질 수 있다.1 illustrates an exemplary environment to which an object detection apparatus 100 according to some embodiments of the present disclosure may be applied. 1 shows an example in which one user terminal 200 and one camera 300 are connected to the object detection device 100 through a network, but this is only for convenience of understanding, and the user terminal 200 ) and the number of cameras 300 may vary.

한편, 도 1은 본 개시의 목적을 달성하기 위한 바람직한 실시예를 도시하고 있을 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있다. 또한, 도 1에 도시된 예시적인 환경의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 복수의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의해야 한다. 예를 들어, 객체 검출 장치(100)와 사용자 단말(200)은 동일한 컴퓨팅 장치 내에 서로 다른 로직의 형태로 구현될 수 있다. 또한, 다른 예를 들어, 객체 검출 장치(100)와 카메라(300)는 동일한 컴퓨팅 장치 내에 서로 다른 로직(logic)의 형태로 구현될 수도 있다. Meanwhile, FIG. 1 only illustrates a preferred embodiment for achieving the object of the present disclosure, and some components may be added or deleted as necessary. In addition, it should be noted that components of the exemplary environment shown in FIG. 1 represent functionally differentiated functional elements, and a plurality of components may be implemented in a form integrated with each other in an actual physical environment. For example, the object detection device 100 and the user terminal 200 may be implemented in different logic types within the same computing device. Also, for another example, the object detection device 100 and the camera 300 may be implemented in the form of different logics in the same computing device.

이하, 도 1에 도시된 각 구성 요소에 대해 보다 구체적으로 설명하기로 한다.Hereinafter, each component shown in FIG. 1 will be described in more detail.

우선, 객체 검출 장치(100)는 카메라(300)가 촬영한 영상을 수신할 수 있다. 여기서, 객체 검출 장치(100)는 카메라(300)로부터 수신된 영상에 기초하여 객체의 속성을 추출하기 위한 최적 프레임을 추출할 수 있다. 이때, 객체 검출 장치(100)는 추출된 최적 프레임에 표현된 객체의 속성을 추출할 수도 있다. First, the object detection device 100 may receive an image captured by the camera 300 . Here, the object detection apparatus 100 may extract an optimal frame for extracting an attribute of an object based on an image received from the camera 300 . In this case, the object detection apparatus 100 may extract the attribute of the object represented in the extracted optimum frame.

또한, 객체 검출 장치(100)는 카메라(300)로부터 수신된 영상에 기초한 다양한 연산의 결과들을 사용자 단말(200)에 전송할 수 있다. 여기서, 사용자 단말(200)에 제공되는 결과들은 사용자 인터페이스 상에서 얼마든지 사용자에게 친화적인 형태로 변형될 수 있음을 유의해야 한다.Also, the object detection apparatus 100 may transmit results of various operations based on the image received from the camera 300 to the user terminal 200 . Here, it should be noted that the results provided to the user terminal 200 can be transformed into user-friendly forms on the user interface.

중복된 설명의 배제를 위하여, 객체 검출 장치(100)가 수행하는 다양한 동작들에 대해서는 추후 도 2 이하의 도면을 참조하여 보다 구체적으로 설명하기로 한다. In order to exclude redundant descriptions, various operations performed by the object detection apparatus 100 will be described in more detail later with reference to the drawings below in FIG. 2 .

전술한 객체 검출 장치(100)는, 하나 이상의 컴퓨팅 장치로 구현될 수 있다. 예를 들어, 객체 검출 장치(100)의 모든 기능은 단일 컴퓨팅 장치에서 구현될 수 있다. 다른 예로써, 객체 검출 장치(100)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 여기서, 전술한 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 다만, 객체 검출 장치(100)가 다수의 사용자 단말(200) 및 다수의 카메라(300)와 연동하여 다수의 객체를 검출해야 되는 환경이라면, 객체 검출 장치(100)는 고성능의 서버급 컴퓨팅 장치로 구현되는 것이 바람직할 수 있다. 이러한 컴퓨팅 장치의 일례에 대해서는 도 7을 참조하도록 한다.The object detection device 100 described above may be implemented with one or more computing devices. For example, all functions of the object detection device 100 may be implemented in a single computing device. As another example, the first function of the object detection device 100 may be implemented in a first computing device, and the second function may be implemented in a second computing device. Here, the aforementioned computing device may be a notebook, a desktop, or a laptop, but is not limited thereto and may include all types of devices equipped with a computing function. However, in an environment in which the object detection device 100 needs to detect multiple objects in conjunction with a plurality of user terminals 200 and a plurality of cameras 300, the object detection device 100 is implemented as a high-performance server-class computing device. It may be desirable to be Reference is made to FIG. 7 for an example of such a computing device.

다음으로, 사용자 단말(200)은 객체 검출 장치(100)가 제공하는 결과들을 열람할 수 있다. 예를 들어, 사용자는 사용자 단말(200)을 통해 카메라(300)가 촬영한 영상의 최적 프레임을 열람할 수 있다. 또한, 다른 예를 들어, 사용자는 사용자 단말(200)을 통해 검출된 객체의 속성을 열람할 수도 있다. 여기서, 사용자 단말(200)은 객체 검출 장치(100)가 제공하는 결과들을 열람하기 위한 웹 브라우저(Web browser) 또는 전용 애플리케이션이 설치될 수 있다. 또한 여기서, 사용자 단말(200)은, 예를 들어, 데스크탑(desktop), 워크스테이션(workstation), 랩탑(laptop), 태블릿(tablet) 및 스마트폰(smart phone) 중 어느 하나가 될 수 있으나, 전술한 예시들에 한정되는 것은 아니고, 컴퓨팅 기능이 구비된 모든 종류의 장치가 사용자 단말(200)이 될 수 있다.Next, the user terminal 200 may view results provided by the object detection device 100 . For example, the user can view the optimal frame of the image captured by the camera 300 through the user terminal 200 . Also, for another example, the user may view properties of objects detected through the user terminal 200 . Here, the user terminal 200 may be installed with a web browser or a dedicated application for browsing results provided by the object detection device 100 . Also, here, the user terminal 200 may be, for example, any one of a desktop, a workstation, a laptop, a tablet, and a smart phone. It is not limited to one example, and all types of devices equipped with computing functions may be the user terminal 200 .

다음으로, 카메라(300)는 사용자의 관심 영역을 촬영하기 위한 모든 종류의 카메라 중 어느 하나가 될 수 있으며, 예를 들어, CCTV(Closed-Circuit Television)가 카메라(300)가 될 수 있다.Next, the camera 300 may be any one of all types of cameras for capturing a user's region of interest, and for example, a Closed-Circuit Television (CCTV) may be the camera 300 .

몇몇 실시예에서, 객체 검출 장치(100), 사용자 단말(200) 및 카메라(300)는, 네트워크를 통해 통신할 수 있다. 전술한 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.In some embodiments, the object detection device 100 , the user terminal 200 and the camera 300 may communicate through a network. The aforementioned network is implemented as all kinds of wired/wireless networks such as a Local Area Network (LAN), a Wide Area Network (WAN), a mobile radio communication network, and Wibro (Wireless Broadband Internet). It can be.

지금까지 도 1을 참조하여 본 개시의 몇몇 실시예에 따른 객체 검출 장치(100)가 적용될 수 있는 예시적인 환경에 대하여 설명하였다. 이하에서는, 본 개시의 다양한 실시예에 따른 방법들에 대하여 상세하게 설명하기로 한다.An exemplary environment to which the object detection apparatus 100 according to some embodiments of the present disclosure may be applied has been described with reference to FIG. 1 so far. Hereinafter, methods according to various embodiments of the present disclosure will be described in detail.

전술한 방법들의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 다시 말하면, 방법들의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 이러한 방법들에 포함되는 모든 단계는 하나의 물리적인 컴퓨팅 장치에 의하여 실행될 수도 있을 것이나, 방법의 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수도 있다. 이하에서는, 전술한 방법들의 각 단계가 도 1에 예시된 객체 검출 장치(100)에 의해 수행되는 것을 가정하여 설명을 이어가도록 한다. 다만, 설명의 편의상, 전술한 방법들에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다.Each step of the above methods may be performed by a computing device. In other words, each step of the methods may be implemented as one or more instructions executed by a processor of a computing device. All of the steps involved in these methods could be performed by one physical computing device, but first steps of the method are performed by a first computing device and second steps of the method are performed by a second computing device. It could be. Hereinafter, description will be continued on the assumption that each step of the above methods is performed by the object detection apparatus 100 illustrated in FIG. 1 . However, for convenience of explanation, the description of the operating subject of each step included in the above-described methods may be omitted.

도 2는 본 개시의 몇몇 실시예에 따른 객체 검출 방법을 나타내는 예시적인 순서도이다. 이하에서는, 도 2를 참조하여 도 2에 도시된 동작들에 대해 보다 구체적으로 설명하기로 한다.2 is an exemplary flowchart illustrating an object detection method according to some embodiments of the present disclosure. Hereinafter, with reference to FIG. 2 , operations shown in FIG. 2 will be described in more detail.

단계 S100에서, 프레임에서 대상 객체가 식별될 수 있다. 여기서, 프레임은 영상에 포함된 임의의 프레임을 의미할 수 있다. 예를 들어, 영상의 N번째 (N은 자연수) 프레임에서 대상 객체가 식별될 수 있으며, 여기서, N은 객체 검출 장치가 적용된 환경에 따라 사용자가 적절하게 변경할 수 있다. 이외에도 다양한 방식에 따라 대상 객체가 식별될 초기의 프레임이 선택될 수 있다.In step S100, a target object may be identified in the frame. Here, the frame may mean any frame included in the image. For example, a target object may be identified in an N-th frame (N being a natural number) of an image, where N may be appropriately changed by a user according to an environment in which an object detection device is applied. In addition, an initial frame in which a target object is to be identified may be selected according to various methods.

다만, 대상 객체를 식별하기 위한 초기의 프레임이라면, 영상에 포함된 복수의 프레임들 중 대상 객체를 표현하고 있는 프레임을 의미하는 것이 바람직할 수 있다. 여기서, 영상에 포함된 복수의 프레임들 중 대상 객체를 표현하고 있는 프레임을 선택하기 위해서 공지된 다양한 영상 인식 기술이 본 개시에 적용될 수 있다. 예를 들어, 영상에 고정적으로 표현되는 특징 점(e.g., 카메라가 촬영하는 영역에 고정적으로 존재하는 물체들의 특징 점)들의 위치 변화율을 통해 이동하는 객체(i.e., 대상 객체)를 식별하는 기술이 본 개시에 적용될 수 있으나, 본 예시에 따라 본 개시의 범위가 한정되는 것은 아님을 유의해야 한다.However, if it is an initial frame for identifying a target object, it may be preferable to mean a frame representing the target object among a plurality of frames included in the image. Here, in order to select a frame representing a target object from among a plurality of frames included in an image, various known image recognition techniques may be applied to the present disclosure. For example, a technique for identifying a moving object (i.e., a target object) through a rate of change in the position of feature points (e.g., feature points of objects fixedly present in an area captured by a camera) that is fixedly expressed in an image is the present invention. Although it may be applied to the disclosure, it should be noted that the scope of the disclosure is not limited according to this example.

전술한 동작들에 따라 초기의 프레임이 선택되면, 초기의 프레임에 표현된 대상 객체가 식별될 수 있다. 보다 구체적으로, 대상 객체의 카테고리가 분류되거나 대상 객체가 프레임 내에 표현된 위치가 특정될 수 있다. 여기서, 프레임에 표현된 대상 객체를 식별하기 위해 공지된 다양한 영상 인식 기술이 본 개시에 적용될 수 있다. 특히, 객체의 카테고리 별 이미지로 사전에 학습되어 대상 객체의 카테고리를 분류하는 인공 지능 기반의 영상 인식 기술이 본 개시에 적용될 수 있다.If an initial frame is selected according to the above operations, a target object represented in the initial frame may be identified. More specifically, a category of the target object may be classified or a location where the target object is expressed in a frame may be specified. Here, various known image recognition techniques may be applied to the present disclosure to identify the target object represented in the frame. In particular, an artificial intelligence-based image recognition technology that classifies a category of a target object by pre-learning an image for each category of object may be applied to the present disclosure.

대상 객체의 식별 동작과 관련된 보다 구체적인 설명을 위해, 도 3을 참조하여 설명하기로 한다. 도 3은 영상에 포함된 제1 프레임(10a)을 나타내는 예시적인 도면이다. 도 3의 제1 프레임(10a)에는 제1 객체(20) 및 제2 객체(30)가 표현되어 있다. 여기서, 객체의 식별 동작에 따라, 제1 프레임(10a)에 표현된 각각의 객체(20, 30)의 경계에 대응되도록 관심 박스(23, 33)가 제1 프레임(10a)에 표현될 수 있다. 특히, 각각의 객체(20, 30)의 분류된 카테고리가 사람이라면, 각각의 객체(20, 30)의 얼굴을 나타내는 특수 관심 박스(21, 31)가 제1 프레임(10a)에 더 표현될 수도 있다.For a more detailed explanation related to the identification operation of the target object, it will be described with reference to FIG. 3 . 3 is an exemplary diagram illustrating a first frame 10a included in an image. A first object 20 and a second object 30 are represented in the first frame 10a of FIG. 3 . Here, according to the object identification operation, the interest boxes 23 and 33 may be displayed in the first frame 10a to correspond to the boundaries of the respective objects 20 and 30 represented in the first frame 10a. . In particular, if the classified category of each of the objects 20 and 30 is a person, the special interest boxes 21 and 31 representing the face of each of the objects 20 and 30 may be further displayed in the first frame 10a. there is.

또한, 도 4 및 도 5는 시계열적으로 도 3의 제1 프레임(10a)에 이어지는 프레임(10b, 10c)들을 나타내는 예시적인 도면이다. 구체적으로, 도 4는 도 3의 제1 프레임(10a)에 이어지는 제2 프레임(10b)을 도시하고 있으며, 도 5는 도 4의 제2 프레임(10b)에 이어지는 제3 프레임(10c)을 도시하고 있다. 도 4 및 도 5와 관련된 구체적인 설명은 도 3에 관한 설명을 참조하면 이해될 수 있으므로, 그 설명을 생략하기로 한다.4 and 5 are exemplary diagrams illustrating frames 10b and 10c sequentially following the first frame 10a of FIG. 3 . Specifically, FIG. 4 shows a second frame 10b following the first frame 10a of FIG. 3, and FIG. 5 shows a third frame 10c following the second frame 10b of FIG. are doing Since detailed descriptions related to FIGS. 4 and 5 can be understood by referring to the description of FIG. 3 , the description thereof will be omitted.

단계 S100과 관련하여, 몇몇 실시예에서, 프레임에 둘 이상의 객체가 식별될 수 있다. 구체적으로, 프레임에서 대상 객체가 식별될 수 있으며, 프레임에서 보조 객체가 식별될 수도 있다. 여기서, 보조 객체란 대상 객체와 구별되는 객체를 의미할 수 있다.Referring to step S100, in some embodiments more than one object may be identified in the frame. Specifically, a target object may be identified in the frame, and an auxiliary object may be identified in the frame. Here, the auxiliary object may mean an object distinct from the target object.

앞서 설명된 동작들에 따라 영상에 포함된 임의의 프레임에서 대상 객체가 식별되면, 시계열적 분석을 통해 대상 객체가 추적될 수 있다. 다시 도 2를 참조하여 후술될 동작들에 대해서 설명하기로 한다.If a target object is identified in an arbitrary frame included in an image according to the above-described operations, the target object may be tracked through time-sequential analysis. Again referring to FIG. 2 , operations to be described later will be described.

단계 S200에서, 영상에 표현된 대상 객체의 궤적이 분석될 수 있다. 여기서, 대상 객체의 궤적은 시계열적으로 이어지는 영상에 포함된 프레임들 각각에서 대상 객체가 위치하는 영역을 추적한 가상의 선으로 이해될 수 있다. 이때, 영상에 표현된 대상 객체의 궤적을 분석하기 위해서 공지된 다양한 영상 인식 기술이 본 개시에 적용될 수 있다.In step S200, the trajectory of the target object represented in the image may be analyzed. Here, the trajectory of the target object may be understood as a virtual line tracing an area where the target object is located in each of the frames included in the time-sequential images. At this time, in order to analyze the trajectory of the target object expressed in the image, various known image recognition techniques may be applied to the present disclosure.

단계 S200과 관련하여, 몇몇 실시예에서, 대상 객체의 궤적을 분석하는 단계는, 영상에 표현된 대상 객체의 특징 점의 이동에 기초하여, 대상 객체의 궤적을 분석하는 단계를 포함할 수 있다. 여기서, 특징 점은, 대상 객체의 프레임 내 위치에 대응되는 점을 의미할 수 있으며, 도 3의 관심 박스(23, 33) 내에 위치한 점은 대상 객체의 위치에 대응되는 점으로 이해될 수 있으므로, 예를 들어, 특징 점은 도 3의 관심 박스(23, 33) 내에 위치한 점을 의미할 수 있다. 이때, 관심 박스(23, 33) 내부의 점을 선택하기 위한 다양한 방식이 본 개시에 적용될 수 있으며, 관심 박스(23, 33)의 중점이 특징 점으로 결정될 수 있으나, 본 예시에 본 개시의 범위가 한정되는 것은 아니다.In relation to step S200, in some embodiments, analyzing the trajectory of the target object may include analyzing the trajectory of the target object based on the movement of feature points of the target object represented in the image. Here, the feature point may mean a point corresponding to the location of the target object in the frame, and a point located within the interest boxes 23 and 33 of FIG. 3 may be understood as a point corresponding to the location of the target object. For example, a feature point may refer to a point located within the interest boxes 23 and 33 of FIG. 3 . At this time, various methods for selecting points inside the boxes of interest 23 and 33 may be applied to the present disclosure, and the midpoint of the boxes of interest 23 and 33 may be determined as a feature point, but the scope of the present disclosure is limited to this example. is not limited.

다른 예를 들어, 특징 점은 도 3의 특수 관심 박스(21, 31) 내에 위치한 점을 의미할 수도 있다. 이 경우, 특수 관심 박스(21, 31) 내에 위치한 점은 대상 객체의 위치에 대응되는 점으로 이해될 수 있을 뿐만 아니라, 사용자가 보다 관심있어 할 수 있는 영역(e.g., 사람의 얼굴 영역)에 위치한 점으로 이해될 수 있다. 본 예시에 따라, 특수 관심 박스(21, 31) 내에 위치한 점을 특징 점으로 이용하면 추후 설명될 동작들에 따른 대상 객체의 속성의 추출 정확도가 더욱 향상될 수 있다.For another example, the feature point may mean a point located within the special interest boxes 21 and 31 of FIG. 3 . In this case, a point located within the special interest boxes 21 and 31 can be understood as a point corresponding to the location of the target object, and is located in an area that the user may be more interested in (e.g., a human face area). can be understood as points. According to this example, when points located in the special interest boxes 21 and 31 are used as feature points, accuracy of extracting attributes of the target object according to operations to be described later can be further improved.

단계 S200과 관련하여, 다른 몇몇 실시예에서, 프레임에 표현된 둘 이상의 객체의 궤적이 각각 분석될 수 있다. 구체적으로, 대상 객체의 궤적이 분석될 수 있으며, 보조 객체의 궤적이 분석될 수도 있다.Regarding step S200, in some other embodiments, trajectories of two or more objects represented in a frame may be analyzed respectively. Specifically, the trajectory of the target object may be analyzed, and the trajectory of the auxiliary object may also be analyzed.

앞서 설명된 궤적 분석을 보다 구체적으로 설명하기 위해 도 6을 참조하여 설명하기로 한다. 도 6은 도 3 내지 도 5에 도시된 객체들(20, 30)의 궤적을 분석한 일례를 도시한다. 도 6의 분석 프레임(10d)은 영상에 포함된 프레임은 아니고, 영상에 포함된 프레임을 분석한 결과 프레임으로 이해될 수 있다.In order to explain the above-described trajectory analysis in more detail, it will be described with reference to FIG. 6 . FIG. 6 shows an example of analyzing the trajectories of the objects 20 and 30 shown in FIGS. 3 to 5 . The analysis frame 10d of FIG. 6 is not a frame included in the image, but can be understood as a frame obtained by analyzing the frame included in the image.

도 6의 분석 프레임(10d)은 제1 객체에 대응되는 관심 박스(23a), 관심 박스(23a) 내에 위치한 특징 점(27) 및 제1 객체의 식별자(29)를 도시하고 있으며, 마찬가지로, 제2 객체에 대응되는 관심 박스(33a), 관심 박스(33a) 내에 위치한 특징 점(37) 및 제2 객체의 식별자(39)를 도시하고 있다. 특히, 분석 프레임(10d)은 제1 객체에 대응되는 제1 궤적(25) 및 제2 객체에 대응되는 제2 궤적(35)도 함께 도시하고 있다.The analysis frame 10d of FIG. 6 shows an interest box 23a corresponding to the first object, a feature point 27 located in the interest box 23a, and an identifier 29 of the first object. An interest box 33a corresponding to two objects, a feature point 37 located within the interest box 33a, and an identifier 39 of the second object are shown. In particular, the analysis frame 10d also shows the first trajectory 25 corresponding to the first object and the second trajectory 35 corresponding to the second object.

앞서 설명된 동작들에 따라 영상에 표현된 대상 객체의 궤적이 분석될 수 있다. 다시 도 2를 참조하여 후술될 동작들에 대해서 설명하기로 한다.According to the above-described operations, the trajectory of the target object represented in the image may be analyzed. Again referring to FIG. 2 , operations to be described later will be described.

단계 S300에서, 궤적의 분석에 기초하여, 대상 객체의 속성을 추출하기 위한 최적 프레임이 영상에서 추출될 수 있다. 여기서, 최적 프레임이란, 영상에 포함된 복수의 프레임들 중 대상 객체의 속성을 추출하기 위한 가장 적합한 프레임을 의미할 수 있다. 이때, 대상 객체의 속성이란, 영상 분석을 통해 추출할 수 있는 특징(feature)을 의미하는 것으로써, 예를 들어, 대상 객체의 얼굴 이미지가 대상 객체의 속성에 포함될 수 있으나, 본 예시에 본 개시의 범위가 한정되는 것은 아니다.In step S300, based on the analysis of the trajectory, an optimal frame for extracting attributes of the target object may be extracted from the image. Here, the optimal frame may mean a frame most suitable for extracting the property of the target object among a plurality of frames included in the image. In this case, the property of the target object means a feature that can be extracted through image analysis. For example, the face image of the target object may be included in the property of the target object, but in this example, the present disclosure The scope of is not limited.

단계 S300과 관련하여, 몇몇 실시예에서, 최적 프레임을 영상에서 추출하는 단계는, 특징 점의 이동 속력이 최소인 프레임을 추출하는 단계를 포함할 수 있다. 즉, 특징 점의 이동 속력이 최소인 프레임은, 대상 객체가 흐리게 표현되지 않은 프레임일 가능성이 높으므로, 특징 점의 이동 속력이 최소인 프레임은 최적 프레임으로 적합한 프레임일 수 있다.In relation to step S300 , in some embodiments, extracting an optimal frame from an image may include extracting a frame having a minimum moving speed of a feature point. That is, since the frame with the minimum movement speed of the feature point is likely to be a frame in which the target object is not blurred, the frame with the minimum movement speed of the feature point may be a suitable frame as an optimal frame.

단계 S300과 관련하여, 다른 몇몇 실시예에서, 최적 프레임을 추출하는 단계는 대상 객체와 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 최적 프레임을 추출하는 단계를 포함할 수 있다. 구체적으로, 사용자의 관심 대상인 대상 객체와 보조 객체를 개별적으로 궤적 분석하여 개별적으로 최적 프레임을 2개 추출하는 것이 아니라, 각각의 속성을 추출하기에 적합한 1개의 최적 프레임이 추출될 수 있다. 이 경우, 관심 객체(e.g., 대상 객체, 보조 객체)에 대한 개별적 연산에 따른 컴퓨팅 리소스를 절약할 수 있으며, 관심 객체의 수가 다수인 환경에서 보다 효과적으로 컴퓨팅 리소스를 절약하면서도, 속성 추출에 적합한 최적 프레임을 추출할 수 있다.Regarding step S300, in some other embodiments, extracting the optimal frame may include extracting the optimal frame for extracting attributes of the target object and the auxiliary object in a single frame. Specifically, one optimal frame suitable for extracting each attribute may be extracted instead of individually trajectory analyzing the target object and the auxiliary object, which are the user's interest, and individually extract two optimal frames. In this case, it is possible to save computing resources according to individual operations on the object of interest (e.g., target object, auxiliary object), save computing resources more effectively in an environment with a large number of objects of interest, and optimize frames suitable for attribute extraction. can be extracted.

여기서, 대상 객체의 제1 궤적과 보조 객체의 제2 궤적이 중첩 표현된 영상의 일부 구간에서 최적 프레임을 추출하는 단계는, 제1 특징 점의 제1 이동 속력 및 제2 특징 점의 이동 속력의 합이 최소인 프레임을 추출하는 단계를 포함할 수 있다. 이때, 제1 특징 점은 대상 객체의 특징 점이고, 제2 특징 점은 보조 객체의 특징 점일 수 있다. 즉, 특징 점들의 이동 속력의 합이 최소인 프레임은, 대상 객체 및 보조 객체가 모두 흐리게 표현되지 않은 프레임일 가능성이 높으므로, 특징 점들의 이동 속력의 합이 최소인 프레임은 최적 프레임으로 적합한 프레임일 수 있다.Here, the step of extracting an optimal frame from a partial section of an image in which the first trajectory of the target object and the second trajectory of the auxiliary object are overlapped represents the first movement speed of the first feature point and the movement speed of the second feature point. A step of extracting a frame having a minimum sum may be included. In this case, the first feature point may be a feature point of the target object, and the second feature point may be a feature point of the auxiliary object. That is, since the frame in which the sum of the moving speeds of feature points is minimum is likely to be a frame in which both the target object and the auxiliary object are not blurred, the frame in which the sum of the moving speeds of feature points is minimal is suitable as an optimal frame. can be

또한 여기서, 대상 객체의 제1 궤적과 보조 객체의 제2 궤적이 중첩 표현된 영상의 일부 구간에서 최적 프레임을 추출하는 단계는, 제1 이동 속력(i.e., 대상 객체의 제1 특징 점의 이동 속력) 및 제2 이동 속력(i.e., 보조 객체의 제2 특징 점의 이동 속력) 중 적어도 하나가 기준치 이상인 프레임을 최적 프레임의 추출에서 제외하는 단계를 포함할 수 있다. 이 경우, 이동 속력의 합 연산에 따라 발생될 수 있는 노이즈(i.e., 특정 객체가 흐리게 표현되는 현상)가 제외될 수 있다.Also, here, the step of extracting an optimal frame from a partial section of an image in which the first trajectory of the target object and the second trajectory of the auxiliary object are overlapped is the first movement speed (i.e., the movement speed of the first feature point of the target object) ) and the second moving speed (i.e., the moving speed of the second feature point of the auxiliary object) may include excluding frames having a reference value or higher from extraction of the optimal frame. In this case, noise (i.e., a phenomenon in which a specific object is blurred) that may be generated according to the sum operation of the moving speed may be excluded.

단계 S300과 관련하여, 또 다른 몇몇 실시예에서, 최적 프레임을 추출하는 단계는 특징 점의 이동 방향에 따른 궤적의 기울기가 임계치 이상인 프레임을 최적 프레임의 추출에서 제외하는 단계를 포함할 수 있다. 즉, 특징 점의 이동 방향에 따른 궤적의 기울기가 임계치 이상인 프레임은, 대상 객체가 급변하게 이동 방향을 바꾸는 등 대상 객체가 흐리게 표현된 프레임일 가능성이 높으므로, 최적 프레임의 추출에서 제외될 수 있다.In relation to step S300, in some other embodiments, extracting an optimal frame may include excluding frames having a gradient of a trajectory along a moving direction of a feature point equal to or greater than a threshold value from extraction of the optimal frame. That is, a frame in which the gradient of the trajectory according to the moving direction of the feature point is greater than or equal to the threshold value is highly likely to be a frame in which the target object is blurred, such as when the target object rapidly changes the moving direction, and thus can be excluded from extraction of the optimal frame. .

앞서 설명된 동작들에 따라 영상에 포함된 최적 프레임이 추출될 수 있다. 다시 도 2를 참조하여 후술될 동작들에 대해서 설명하기로 한다.An optimal frame included in an image may be extracted according to the operations described above. Again referring to FIG. 2 , operations to be described later will be described.

단계 S400에서, 최적 프레임에서 대상 객체의 속성이 추출될 수 있다. 여기서, 최적 프레임은 대상 객체의 속성의 추출이 가장 용이한 영상의 프레임일 수 있으므로, 최적 프레임에서 대상 객체의 속성이 추출됨으로써, 객체의 속성의 추출 정확도가 향상될 수 있다.In step S400, attributes of the target object may be extracted from the optimum frame. Here, since the optimum frame may be a frame of an image in which the property of the target object is most easily extracted, the accuracy of object property extraction may be improved by extracting the property of the target object from the optimum frame.

지금까지 도 2 및 예시 도면들을 참조하여 본 개시의 몇몇 실시예에 따른 객체 검출 방법에 대하여 설명하였다. 전술한 방법들에 따르면, 객체의 속성을 추출하기에 가장 적합한 영상 내의 프레임(i.e., 최적 프레임)이 선택될 수 있다. 특히, 둘 이상의 객체의 속성을 추출 및 분석하는 경우라면, 컴퓨팅 리소스를 절약하면서도 추출 정확도가 향상된 방법에 따라 사용자는 효과적으로 객체의 속성을 추출할 수 있다.So far, an object detection method according to some embodiments of the present disclosure has been described with reference to FIG. 2 and exemplary drawings. According to the methods described above, a frame (i.e., optimal frame) in an image most suitable for extracting an attribute of an object may be selected. In particular, in the case of extracting and analyzing the attributes of two or more objects, the user can effectively extract the attributes of the objects according to a method with improved extraction accuracy while saving computing resources.

이하, 도 7을 참조하여 본 개시의 몇몇 실시예에 따른 객체 검출 장치를 구현할 수 있는 예시적인 컴퓨팅 장치(1500)를 보다 구체적으로 설명하기로 한다.Hereinafter, an exemplary computing device 1500 capable of implementing an object detection device according to some embodiments of the present disclosure will be described in more detail with reference to FIG. 7 .

컴퓨팅 장치(1500)는 하나 이상의 프로세서(1510), 버스(1550), 통신 인터페이스(1570), 프로세서(1510)에 의하여 수행되는 컴퓨터 프로그램(1591)을 로드(load)하는 메모리(1530)와, 컴퓨터 프로그램(1591)을 저장하는 스토리지(1590)를 포함할 수 있다. 다만, 도 7에는 본 개시의 실시예와 관련 있는 구성 요소들 만이 도시되어 있다. 따라서, 본 개시가 속한 기술 분야의 통상의 기술자라면 도 7에 도시된 구성 요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.The computing device 1500 includes one or more processors 1510, a bus 1550, a communication interface 1570, a memory 1530 for loading a computer program 1591 executed by the processor 1510, and a computer A storage 1590 for storing the program 1591 may be included. However, only components related to the embodiment of the present disclosure are shown in FIG. 7 . Accordingly, those skilled in the art to which the present disclosure belongs may know that other general-purpose components may be further included in addition to the components shown in FIG. 7 .

프로세서(1510)는 컴퓨팅 장치(1500)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1510)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(1510)는 본 개시의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1500)는 하나 이상의 프로세서를 구비할 수 있다.The processor 1510 controls the overall operation of each component of the computing device 1500 . The processor 1510 includes a central processing unit (CPU), a micro processor unit (MPU), a micro controller unit (MCU), a graphics processing unit (GPU), or any type of processor well known in the art of the present disclosure. It can be. Also, the processor 1510 may perform an operation for at least one application or program for executing a method according to embodiments of the present disclosure. Computing device 1500 may include one or more processors.

메모리(1530)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1530)는 본 개시의 실시예들에 따른 방법을 실행하기 위하여 스토리지(1590)로부터 하나 이상의 프로그램(1591)을 로드 할 수 있다. 메모리(1530)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.Memory 1530 stores various data, commands and/or information. Memory 1530 may load one or more programs 1591 from storage 1590 to execute a method according to embodiments of the present disclosure. The memory 1530 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.

버스(1550)는 컴퓨팅 장치(1500)의 구성 요소 간 통신 기능을 제공한다. 버스(1550)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 1550 provides a communication function between components of the computing device 1500 . The bus 1550 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.

통신 인터페이스(1570)는 컴퓨팅 장치(1500)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1570)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1570)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The communication interface 1570 supports wired and wireless Internet communication of the computing device 1500 . Also, the communication interface 1570 may support various communication methods other than Internet communication. To this end, the communication interface 1570 may include a communication module well known in the art of the present disclosure.

몇몇 실시예들에 따르면, 통신 인터페이스(1570)는 생략될 수도 있다.According to some embodiments, communication interface 1570 may be omitted.

스토리지(1590)는 전술한 하나 이상의 프로그램(1591)과 각종 데이터를 비임시적으로 저장할 수 있다. The storage 1590 may non-temporarily store one or more programs 1591 and various data described above.

스토리지(1590)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 1590 may be non-volatile memory, such as read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, etc., a hard disk, a removable disk, or as is well known in the art. It may be configured to include any known type of computer-readable recording medium.

컴퓨터 프로그램(1591)은 메모리(1530)에 로드 될 때 프로세서(1510)로 하여금 본 개시의 다양한 실시예에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(1510)는 전술한 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예에 따른 방법/동작들을 수행할 수 있다.Computer program 1591 may include one or more instructions that when loaded into memory 1530 cause processor 1510 to perform methods/operations in accordance with various embodiments of the present disclosure. That is, the processor 1510 may perform methods/operations according to various embodiments of the present disclosure by executing one or more of the above-described instructions.

지금까지 도 1 내지 도 7을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 명세서의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present disclosure and effects according to the embodiments have been described with reference to FIGS. 1 to 7 . Effects according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the specification.

지금까지 도 1 내지 도 7을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 전술한 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 컴퓨터로 읽을 수 있는 기록 매체에 기록된 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present disclosure described with reference to FIGS. 1 to 7 so far may be implemented as computer readable code on a computer readable medium. The aforementioned computer-readable recording medium is, for example, a removable recording medium (CD, DVD, Blu-ray disc, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can be A computer program recorded on a computer-readable recording medium may be transmitted to another computing device through a network such as the Internet, installed in the other computing device, and thereby used in the other computing device.

이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiments of the present disclosure have been described as being combined or operated as one, the technical idea of the present disclosure is not necessarily limited to these embodiments. That is, within the scope of the purpose of the present disclosure, all of the components may be selectively combined with one or more to operate.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although actions are shown in a particular order in the drawings, it should not be understood that the actions must be performed in the specific order shown or in a sequential order, or that all shown actions must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be understood as requiring such separation, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is

이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present disclosure have been described with reference to the accompanying drawings, those skilled in the art may implement the present disclosure in other specific forms without changing the technical spirit or essential features. can understand that there is Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present disclosure should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of rights of the technical ideas defined by the present disclosure.

Claims (8)

컴퓨팅 장치에 의해 수행되는 객체 검출 방법에 있어서,
제1 프레임에서 대상 객체를 식별하는 단계 - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - ;
상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 단계; 및
상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 단계를 포함하되,
상기 대상 객체를 식별하는 단계는,
상기 제1 프레임에 표현된 보조 객체를 식별하는 단계 - 상기 보조 객체는, 상기 대상 객체와 구별되는 객체임 - 를 포함하고,
상기 제1 궤적을 분석하는 단계는,
상기 영상에 표현된 상기 대상 객체에 대응되는 제1 특징 점의 이동에 기초하여, 상기 제1 궤적을 분석하는 단계; 및
상기 영상에 표현된 상기 보조 객체의 제2 궤적을 분석하는 단계를 포함하고,
상기 제2 궤적을 분석하는 단계는,
상기 영상에 표현된 상기 보조 객체에 대응되는 제2 특징 점의 이동에 기초하여, 상기 제2 궤적을 분석하는 단계를 포함하고,
상기 최적 프레임을 추출하는 단계는,
상기 제1 궤적 및 상기 제2 궤적의 분석에 기초하여, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 대상 객체와 상기 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 상기 최적 프레임을 추출하는 단계를 포함하고,
상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는,
제1 특징 점의 제1 이동 속력 및 제2 특징 점의 제2 이동 속력의 합이 최소인 프레임을 추출하는 단계를 포함하는,
객체 검출 방법.
An object detection method performed by a computing device,
identifying a target object in a first frame, wherein the first frame is an arbitrary frame included in an image in which the target object is expressed;
analyzing a first trajectory of the target object represented in the image; and
Based on the analysis of the first trajectory, extracting an optimal frame for extracting the attribute of the target object from the image,
The step of identifying the target object,
Identifying an auxiliary object represented in the first frame, wherein the auxiliary object is an object distinct from the target object;
Analyzing the first trajectory,
analyzing the first trajectory based on movement of a first feature point corresponding to the target object expressed in the image; and
Analyzing a second trajectory of the auxiliary object represented in the image,
Analyzing the second trajectory,
Analyzing the second trajectory based on movement of a second feature point corresponding to the auxiliary object represented in the image;
Extracting the optimal frame,
Based on the analysis of the first trajectory and the second trajectory, in a partial section of the image in which the first trajectory and the second trajectory are overlapped, the properties of the target object and the auxiliary object are extracted in a single frame Extracting the optimal frame for
The step of extracting the optimal frame from a partial section of the image in which the first trajectory and the second trajectory are overlapped,
Extracting a frame in which the sum of a first moving speed of a first feature point and a second moving speed of a second feature point is minimum,
object detection method.
제1항에 있어서,
상기 최적 프레임에서 상기 대상 객체의 속성을 추출하는 단계를 더 포함하는,
객체 검출 방법.
According to claim 1,
Further comprising extracting attributes of the target object from the optimal frame,
object detection method.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 단계는,
상기 제1 이동 속력 및 상기 제2 이동 속력 중 적어도 하나가 기준치 이상인 프레임을 상기 최적 프레임의 추출에서 제외하는 단계를 더 포함하는,
객체 검출 방법.
According to claim 1,
The step of extracting the optimal frame from a partial section of the image in which the first trajectory and the second trajectory are overlapped,
Excluding a frame in which at least one of the first moving speed and the second moving speed is equal to or greater than a reference value from the extraction of the optimal frame,
object detection method.
프로세서;
네트워크 인터페이스;
메모리; 및
상기 메모리에 로드(load)되고, 상기 프로세서에 의해 실행되는 컴퓨터 프로그램을 포함하되,
상기 컴퓨터 프로그램은,
제1 프레임에서 대상 객체를 식별하는 인스트럭션 - 상기 제1 프레임은, 상기 대상 객체가 표현된 영상에 포함된 임의의 프레임임 - ;
상기 영상에 표현된 상기 대상 객체의 제1 궤적을 분석하는 인스트럭션; 및
상기 제1 궤적의 분석에 기초하여, 상기 대상 객체의 속성을 추출하기 위한 최적 프레임을 상기 영상에서 추출하는 인스트럭션을 포함하되,
상기 대상 객체를 식별하는 인스트럭션은,
상기 제1 프레임에 표현된 보조 객체를 식별하는 인스트럭션 - 상기 보조 객체는, 상기 대상 객체와 구별되는 객체임 - 을 포함하고,
상기 제1 궤적을 분석하는 인스트럭션은,
상기 영상에 표현된 상기 대상 객체에 대응되는 제1 특징 점의 이동에 기초하여, 상기 제1 궤적을 분석하는 인스트럭션; 및
상기 영상에 표현된 상기 보조 객체의 제2 궤적을 분석하는 인스트럭션을 포함하고,
상기 제2 궤적을 분석하는 인스트럭션은,
상기 영상에 표현된 상기 보조 객체에 대응되는 제2 특징 점의 이동에 기초하여, 상기 제2 궤적을 분석하는 인스트럭션을 포함하고,
상기 최적 프레임을 추출하는 인스트럭션은,
상기 제1 궤적 및 상기 제2 궤적의 분석에 기초하여, 상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 대상 객체와 상기 보조 객체의 속성을 단일한 프레임에서 추출하기 위한 상기 최적 프레임을 추출하는 인스트럭션을 포함하고,
상기 제1 궤적 및 상기 제2 궤적이 중첩 표현된 상기 영상의 일부 구간에서, 상기 최적 프레임을 추출하는 인스트럭션은,
제1 특징 점의 제1 이동 속력 및 제2 특징 점의 제2 이동 속력의 합이 최소인 프레임을 추출하는 인스트럭션을 포함하는,
객체 검출 장치.
processor;
network interface;
Memory; and
A computer program loaded into the memory and executed by the processor,
The computer program,
an instruction for identifying a target object in a first frame, wherein the first frame is an arbitrary frame included in an image in which the target object is expressed;
an instruction for analyzing a first trajectory of the target object expressed in the image; and
Based on the analysis of the first trajectory, an instruction for extracting an optimal frame for extracting the attribute of the target object from the image,
The instruction for identifying the target object,
An instruction for identifying an auxiliary object represented in the first frame, wherein the auxiliary object is an object distinct from the target object;
The instruction for analyzing the first trajectory,
an instruction for analyzing the first trajectory based on movement of a first feature point corresponding to the target object expressed in the image; and
An instruction for analyzing a second trajectory of the auxiliary object expressed in the image;
The instruction for analyzing the second trajectory,
An instruction for analyzing the second trajectory based on movement of a second feature point corresponding to the auxiliary object represented in the image;
The instruction for extracting the optimal frame,
Based on the analysis of the first trajectory and the second trajectory, in a partial section of the image in which the first trajectory and the second trajectory are overlapped, the properties of the target object and the auxiliary object are extracted in a single frame Includes instructions for extracting the optimal frame for
In a partial section of the image in which the first trajectory and the second trajectory are overlapped, the instruction for extracting the optimal frame,
Including an instruction for extracting a frame in which the sum of the first moving speed of the first feature point and the second moving speed of the second feature point is minimum.
object detection device.
KR1020220031127A 2022-03-14 2022-03-14 Apparatus for object detection based on artificial intelligence learning and method thereof KR102543833B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220031127A KR102543833B1 (en) 2022-03-14 2022-03-14 Apparatus for object detection based on artificial intelligence learning and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220031127A KR102543833B1 (en) 2022-03-14 2022-03-14 Apparatus for object detection based on artificial intelligence learning and method thereof

Publications (1)

Publication Number Publication Date
KR102543833B1 true KR102543833B1 (en) 2023-06-20

Family

ID=86994859

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220031127A KR102543833B1 (en) 2022-03-14 2022-03-14 Apparatus for object detection based on artificial intelligence learning and method thereof

Country Status (1)

Country Link
KR (1) KR102543833B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150137698A (en) * 2014-05-30 2015-12-09 고려대학교 산학협력단 Method and apparatus for movement trajectory tracking of moving object on animal farm
KR20200031232A (en) 2018-09-14 2020-03-24 케이피항공산업(주) An Incineration system having a combined heat and power generator
KR20200060942A (en) * 2018-11-23 2020-06-02 주식회사 리얼타임테크 Method for face classifying based on trajectory in continuously photographed image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150137698A (en) * 2014-05-30 2015-12-09 고려대학교 산학협력단 Method and apparatus for movement trajectory tracking of moving object on animal farm
KR20200031232A (en) 2018-09-14 2020-03-24 케이피항공산업(주) An Incineration system having a combined heat and power generator
KR20200060942A (en) * 2018-11-23 2020-06-02 주식회사 리얼타임테크 Method for face classifying based on trajectory in continuously photographed image

Similar Documents

Publication Publication Date Title
CN111488791A (en) On-device classification of fingertip movement patterns as gestures in real time
CN109727275B (en) Object detection method, device, system and computer readable storage medium
CN109726661B (en) Image processing method and apparatus, medium, and computing device
AU2019345266B2 (en) Ventral-dorsal neural networks: object detection via selective attention
US11113507B2 (en) System and method for fast object detection
US10296782B2 (en) Processing device and method for face detection
KR102576157B1 (en) Method and apparatus for high speed object detection using artificial neural network
US8705800B2 (en) Profiling activity through video surveillance
Kompella et al. A semi-supervised recurrent neural network for video salient object detection
CN108960247B (en) Image significance detection method and device and electronic equipment
JP2019220014A (en) Image analyzing apparatus, image analyzing method and program
CN113449538A (en) Visual model training method, device, equipment and storage medium
Xiong et al. Comparative analysis of detection algorithms for corner and blob features in image processing
Delibaşoğlu Moving object detection method with motion regions tracking in background subtraction
US20230252654A1 (en) Video analysis device, wide-area monitoring system, and method for selecting camera
KR102543833B1 (en) Apparatus for object detection based on artificial intelligence learning and method thereof
Cai et al. Single shot multibox detector for honeybee detection
CN115115857A (en) Image matching method and device and computer equipment
KR20230162010A (en) Real-time machine learning-based privacy filter to remove reflective features from images and videos
KR20160112256A (en) Image analysis apparatus using cluster system and method using the same
Pandey et al. Detect and track the motion of any moving object using opencv
EP3718080A1 (en) Surface color segmentation
US20230196752A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN112839181B (en) Method and equipment for generating high dynamic range image
Benito-Picazo et al. Parallel processing applied to object detection with a jetson tx2 embedded system

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant