KR102629213B1 - Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery - Google Patents

Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery Download PDF

Info

Publication number
KR102629213B1
KR102629213B1 KR1020230050969A KR20230050969A KR102629213B1 KR 102629213 B1 KR102629213 B1 KR 102629213B1 KR 1020230050969 A KR1020230050969 A KR 1020230050969A KR 20230050969 A KR20230050969 A KR 20230050969A KR 102629213 B1 KR102629213 B1 KR 102629213B1
Authority
KR
South Korea
Prior art keywords
optical flow
moving object
frame
moving
frame interval
Prior art date
Application number
KR1020230050969A
Other languages
Korean (ko)
Inventor
성현승
고진우
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020230050969A priority Critical patent/KR102629213B1/en
Application granted granted Critical
Publication of KR102629213B1 publication Critical patent/KR102629213B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 따른 이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법은, 촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 단계; 및 상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 단계;를 포함한다.An obliquely captured video moving object detection method performed by a moving object detection device according to an embodiment includes determining an optical flow analysis frame interval for each frame area based on the captured geometric information for an inclined captured video for which photographed geometric information is provided. ; and detecting a moving object on an object basis based on the determined optical flow analysis frame interval.

Description

경사 촬영 동영상 이동물체 탐지 방법 및 장치{Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery}Oblique shooting video moving object detection method and apparatus {Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery}

본 발명은 경사 촬영된 동영상에 포착된 이동물체를 탐지하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and device for detecting a moving object captured in an obliquely captured video.

무인항공기 등과 같은 이동 플랫폼에서 지상의 이동물체를 탐지하기 위해서는 이동 중에 경사 촬영된 동영상을 획득하고, 경사 촬영된 동영상에 포착된 이동물체를 탐지하는 절차를 수행한다. 플랫폼 이동에 의한 배경 움직임을 보상하여 마치 정지된 카메라에서 촬영한 것처럼 인접 프레임들을 정합하고 이동물체에 의한 차이를 검출하는 것을 기본으로 한다. 인접 프레임 간 변화가 없는 배경 요소와 움직임으로 인해 변화가 도드라지는 전경 영역을 분리하고 전경 영역 부근에서 객체 단위로 물체를 검출하는 방식으로 이동물체 탐지가 이루어진다.In order to detect a moving object on the ground from a mobile platform such as an unmanned aerial vehicle, a procedure is performed to acquire obliquely captured video while moving and detect the moving object captured in the obliquely captured video. It is based on compensating for background movement caused by platform movement, matching adjacent frames as if taken from a stationary camera, and detecting differences due to moving objects. Moving object detection is accomplished by separating background elements that do not change between adjacent frames and foreground areas where changes are noticeable due to movement, and detecting objects on an object basis near the foreground area.

전경 영역 분리는 일반적으로 각 화소별로 배경과 전경 어디에 속하는지 확률 분포를 유지하여 판별하는 확률적 배경 모델링과 개별 화소의 이동벡터로 표현되는 광학흐름(“옵티컬 플로”, optical flow)을 분석하여 일정 크기 이상의 광학흐름(이동벡터)을 나타내는 화소들을 전경 요소로 거르는 광학흐름 분석 방식이 많이 쓰인다. 응용 목적에 따라 배경 모델링과 광학흐름 분석 방식 중 하나를 선택적으로 적용하거나 상보적으로 혼용하는 선행 연구들이 있다. 동일 크기의 두 영상 간 광학흐름은 한 영상의 임의의 (i, j) 영상좌표에 있는 화소에 대응하는 다른 영상의 어떤 영상좌표 (i', j')에 위치한 화소를 찾고 영상 화소 좌표의 변위, 즉, (u, v)=(i'-i, j'-j) 벡터로 표현되므로 그 자체로 두 영상 간 상응점들을 구하는 한 방법이 된다. 또한, 화소 단위 배경 모델링과 달리 광학흐름은 화소 변위의 크기를 알 수 있다. 따라서 계산 효율상 별도의 영상 정합 기법을 적용하지 않거나 이동량의 정량적 정보가 중요하게 여겨지는 응용에서는 광학흐름 분석 방식을 선호하게 된다.Foreground area separation is generally done through stochastic background modeling, which maintains a probability distribution to determine whether each pixel belongs to the background or foreground, and analyzes the optical flow (“optical flow”) expressed as the movement vector of each pixel to a certain level. An optical flow analysis method that filters out pixels that show optical flow (movement vector) larger than the size as foreground elements is widely used. Depending on the application purpose, there are previous studies that selectively apply one of the background modeling and optical flow analysis methods or use them in a complementary manner. Optical flow between two images of the same size searches for a pixel located at a certain image coordinate (i', j') in the other image that corresponds to a pixel at a random (i, j) image coordinate of one image, and determines the displacement of the image pixel coordinates. , In other words, (u, v)=(i'-i, j'-j) is expressed as a vector, so it is a method of finding corresponding points between two images. Additionally, unlike pixel-level background modeling, optical flow allows the size of pixel displacement to be known. Therefore, in applications where a separate image registration technique is not applied for computational efficiency or where quantitative information on movement amount is considered important, the optical flow analysis method is preferred.

이와 같은 방식은 모두 정합된 프레임 간 화소 단위의 차이를 분석하는데 실세계 움직임이 영상으로 투영될 때 그 변위가 화소 단위 미만이면 영상으로부터 그 변화를 감지하지 못한다. 정사(직하방) 촬영 영상인 경우 렌즈 왜곡을 감안할 때 전체 영상 프레임에서 화소 거리가 거의 균일하다고 볼 수 있으므로 움직임의 투영 정도가 화소 단위 이상이 되도록 비교 프레임 간격을 조절할 수 있다. 그러나 경사 촬영인 경우는 근경에서 화소 이동 변위가 크고 원격에서 작기 때문에 만약 원경 변화를 감지하기 위하여 프레임 간격을 너무 크게 하면 근경 물체가 화면에서 소실되거나 광학흐름 알고리듬의 탐색 영역을 벗어나 바르게 계산하지 못하는 문제가 발생할 수도 있다. 이뿐 아니라 정사와 경사 촬영 모두 속력차가 큰 물체가 혼재한다면 일률적인 프레임 간격으로는 모든 물체의 움직임을 탐지하기 어렵다.All of these methods analyze pixel-unit differences between registered frames, and when real-world motion is projected into an image, if the displacement is less than a pixel unit, the change cannot be detected from the image. In the case of orthogonal (direct downward) shooting video, considering lens distortion, the pixel distance can be considered to be almost uniform across the entire video frame, so the comparison frame interval can be adjusted so that the degree of projection of movement is greater than the pixel unit. However, in the case of oblique shooting, the pixel displacement is large in the near field and small in the remote field, so if the frame interval is too large to detect a change in the distant field, the near field object may disappear from the screen or fall outside the search area of the optical flow algorithm and cannot be calculated correctly. may occur. In addition, if objects with large speed differences are mixed in both ortho and oblique shooting, it is difficult to detect the movement of all objects with uniform frame intervals.

한편, 동영상 프레임별 촬영 기하 정보―카메라 위치, 자세, 제원 등―가 MISB(motion imagery standards board) 표준 동영상 메타데이터나 별도의 텔레메트리 정보 형태로 제공되기도 하는데 이로부터 프레임 카메라 센서모델을 형성하여 특정 기준 고도 상에서 영상 위치별 화소 거리를 계산할 수 있다. 이 정보를 활용하면 이동물체의 속력에 따라 동영상 프레임의 각 화소 위치에서 얼마만큼 변위를 나타내는지 가늠할 수 있다.Meanwhile, shooting geometric information for each video frame - camera position, posture, specifications, etc. - may be provided in the form of MISB (motion imagery standards board) standard video metadata or separate telemetry information, from which a frame camera sensor model is formed. The pixel distance for each image location can be calculated on a specific reference altitude. Using this information, it is possible to estimate the amount of displacement at each pixel location in a video frame depending on the speed of the moving object.

대한민국 등록특허공보 제10-2121974호, 등록일자 2020년 06월 05일.Republic of Korea Patent Publication No. 10-2121974, registration date: June 5, 2020.

권혁태, 박세형, 성현승, “고해상도 경사촬영 동영상 이동물체 탐지를 위한 지역적 배경 움직임 분석”, 2019 한국군사과학기술학회 종합학술대회, 2019. 6. Hyuk-Tae Kwon, Se-Hyung Park, and Hyun-Seung Seong, “Local background motion analysis for moving object detection in high-resolution oblique video footage,” 2019 Korean Society of Military Science and Technology General Conference, 2019. 6.

일 실시예에 따르면, 이동 플랫폼에서 경사 촬영된 동영상에서 프레임 영역별로 광학흐름 분석 프레임을 결정해 이동물체를 검출하는 경사 촬영 동영상 이동물체 탐지 방법 및 장치를 제공한다.According to one embodiment, a method and apparatus for detecting a moving object in an obliquely captured video are provided for detecting a moving object by determining an optical flow analysis frame for each frame area in a video obliquely captured on a moving platform.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those skilled in the art to which the present invention pertains from the following description.

제 1 관점에 따른 이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법은, 촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 단계; 및 상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 단계;를 포함한다.A method of detecting an obliquely captured video moving object performed by a moving object detection device according to a first aspect includes determining an optical flow analysis frame interval for each frame area based on the captured geometric information for an obliquely captured video for which photographed geometric information is given. ; and detecting a moving object on an object basis based on the determined optical flow analysis frame interval.

제 2 관점에 따른 이동물체 탐지 장치는, 촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 프레임 분석 간격 산출부; 및 상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 이동물체 탐지부를 포함한다.A moving object detection device according to a second aspect includes a frame analysis interval calculation unit that determines an optical flow analysis frame interval for each frame area based on the shooting geometry information for an oblique shooting video for which shooting geometry information is given; and a moving object detection unit that detects the moving object on an object basis based on the determined optical flow analysis frame interval.

제 3 관점에 따르면, 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서, 상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to a third aspect, a computer-readable recording medium storing a computer program, wherein the computer program, when executed by a processor, causes the processor to perform an oblique shooting video moving object detection method performed by a moving object detection device. Includes commands for:

제 4 관점에 따르면, 컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to a fourth aspect, there is a computer program stored in a computer-readable recording medium, wherein the computer program, when executed by a processor, causes the processor to perform an oblique shooting video moving object detection method performed by a moving object detection device. Includes commands for:

일 실시예에 따르면, 이동 플랫폼에서 경사 촬영된 동영상에서 프레임 영역별로 광학흐름 분석 프레임을 결정해 이동물체를 검출함으로써, 경사 촬영된 동영상 프레임의 불균질한 화소거리에 영향을 받지 않고 프레임 전역에서 물체의 이동 변위를 화소 단위 이상으로 확보하여 원경과 근경, 저속과 고속 이동물체를 모두 탐지할 수 있다.According to one embodiment, a moving object is detected by determining an optical flow analysis frame for each frame area in a video captured obliquely on a moving platform, so that objects are detected throughout the frame without being affected by the non-homogeneous pixel distance of the video frame captured obliquely. By securing the moving displacement of more than a pixel unit, it is possible to detect both distant and near scenes, and both low-speed and high-speed moving objects.

도 1은 프레임 카메라 촬영 기하에서 동일 크기의 물체가 경사 촬영 동영상에서 거리에 따라 투영되는 크기가 달라지는 현상을 나타낸 것이다.
도 2는 경사 촬영 동영상에서 근경과 원경에서 동일 속력의 이동물체가 영상에 다르게 투영되는 것을 설명하기 위하여 인접한 세 프레임을 나타낸 것이다.
도 3은 본 발명의 일 실시예에 따른 이동물체 탐지 장치의 구성도이다.
도 4는 본 발명의 일 실시 예에 따라 경사 촬영 동영상 프레임에서 분할 영역을 설정하는 것에 대한 예시이다.
도 5는 본 발명의 일 실시예에 따른 이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 이동 변위가 화소 단위 이상으로 나타나도록 광학흐름 분석 간격을 결정하는 과정을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 배경 움직임이 보상된 광학흐름을 계산하는 과정을 설명하기 위한 흐름도이다.
도 8은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 이동점을 판별하고 이동점들을 군집화하여 이동 객체를 검출하는 과정을 설명하기 위한 흐름도이다.
Figure 1 shows the phenomenon in which the projected size of an object of the same size varies depending on the distance in an obliquely captured video in a frame camera shooting geometry.
Figure 2 shows three adjacent frames to explain that moving objects with the same speed are projected differently on the image in the near and far views in an oblique shooting video.
Figure 3 is a configuration diagram of a moving object detection device according to an embodiment of the present invention.
Figure 4 is an example of setting a segmented area in an obliquely captured video frame according to an embodiment of the present invention.
Figure 5 is a flowchart illustrating a method of detecting a moving object in an obliquely captured video performed by a moving object detection device according to an embodiment of the present invention.
Figure 6 is a flowchart illustrating a process for determining an optical flow analysis interval so that movement displacement appears in units of pixels or more in a divided area of a video frame according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating a process for calculating optical flow in which background motion is compensated in a divided region of a video frame according to an embodiment of the present invention.
Figure 8 is a flowchart for explaining the process of detecting a moving object by determining moving points in a divided area of a video frame and clustering the moving points in accordance with an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear with reference to the embodiments described below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to be understood by those skilled in the art. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When it is said that a part ‘includes’ a certain element throughout the specification, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.

또한, 명세서에서 사용되는 ‘부’라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, ‘부’는 어떤 역할들을 수행한다. 그렇지만 ‘부’는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. ‘부’는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 ‘부’는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 ‘부’들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 ‘부’들로 결합되거나 추가적인 구성요소들과 ‘부’들로 더 분리될 수 있다.Additionally, the term ‘unit’ used in the specification refers to software or hardware components such as FPGA or ASIC, and the ‘unit’ performs certain roles. However, ‘wealth’ is not limited to software or hardware. The 'part' may be configured to reside on an addressable storage medium and may be configured to reproduce on one or more processors. Therefore, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within components and parts can be combined into a smaller number of components and parts or further separated into additional components and parts.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted.

도 1은 프레임 카메라 촬영 기하에서 동일 크기의 물체가 경사 촬영 동영상에서 거리에 따라 투영되는 크기가 달라지는 현상을 나타낸 것이다.Figure 1 shows the phenomenon in which the projected size of an object of the same size varies depending on the distance in an obliquely captured video in a frame camera shooting geometry.

프레임 센서 정보로부터 카메라 위치와 촬영 경사각, 렌즈 화각 또는 초점거리가 제공될 때 특정 고도상에서 영상 화소 위치별 화소거리(한 화소가 나타내는 지상거리) d를 도 1에서와 같이 삼각형 닮음비에 의해 쉽게 계산할 수 있다. 동영상 규격에서 프레임 속도(FPS) f를 얻을 수 있다. 물체의 이동 속력 v(m/s)로부터 이 물체의 이동이 화소 단위 이상으로 반영될 때 프레임 간격을 n이라고 하면 수학식 1의 부등식이 성립한다.When the camera position, shooting tilt angle, lens angle of view, or focal length are provided from frame sensor information, the pixel distance (ground distance indicated by one pixel) d for each image pixel location at a specific altitude can be easily calculated using the triangle similarity ratio as shown in Figure 1. there is. The frame rate (FPS) f can be obtained from the video standard. When the movement of the object is reflected in pixel units or more from the object's moving speed v (m/s), if the frame interval is n, the inequality in Equation 1 is established.

도 2는 경사 촬영 동영상에서 근경과 원경에서 동일 속력의 이동물체가 영상에 다르게 투영되는 것을 설명하기 위하여 인접한 세 프레임을 나타낸 것이다.Figure 2 shows three adjacent frames to explain that moving objects with the same speed are projected differently on the image in the near and far views in an oblique shooting video.

제 1면(110)은 제 1시점에서 카메라 초점이 지점 O1에 위치할 때 촬영된 영상 프레임 이미지 평면이다. 제 2면(120)은 제 2시점에서 카메라 초점이 O2에 위치할 때 촬영된 이미지 평면으로 동영상에서 제 1면 바로 다음 프레임이다. 제 3면(130)은 제 3시점에서 카메라 초점이 O3에 위치할 때 촬영된 이미지 평면으로 제 2면 바로 다음 프레임이다. 또한, P1은 근경 이동물체의 중점이 제 1시점에 위치한 지점이다. P2는 제 2시점에서 이 물체의 중점의 위치고, P3은 제 3 시점에서 이 물체의 중점의 위치를 나타낸다. 마찬가지로 Q1은 원경 이동물체의 중점이 제 1시점에 위치한 지점이고, Q2와 Q3은 각각 원경 이동물체의 중점이 제 2시점과 제 3시점에 위치한 지점이다.The first surface 110 is an image plane of an image frame captured when the camera focus is located at point O1 at the first viewpoint. The second side 120 is an image plane captured when the camera focus is located at O2 at the second viewpoint, and is the frame immediately following the first side in the video. The third side 130 is the image plane captured when the camera focus is located at O3 in the third viewpoint, and is the frame immediately following the second side. Additionally, P1 is the point where the midpoint of the near moving object is located at the first viewpoint. P2 represents the position of the midpoint of this object at the second viewpoint, and P3 represents the position of the midpoint of this object at the third viewpoint. Likewise, Q1 is the point where the midpoint of the distant moving object is located at the first viewpoint, and Q2 and Q3 are points where the midpoint of the distant moving object is located at the second and third viewpoints, respectively.

p1은 점 P1이 제 1면(110)에 투영된 영상점이고, p2는 점 P2가 제 2면(120)에 투영된 영상점, p3(131)은 점 P3이 제 3면(130)에 투영된 영상점이다. 마찬가지로 q1은 점 Q1이 제 1면(110)에 투영된 영상점이고, q2는 점 Q2가 제 2면(120)에 투영된 영상점, q3(132)은 점 Q3이 제 3면(130)에 투영된 영상점이다.p1 is the image point where point P1 is projected onto the first side 110, p2 is the image point where point P2 is projected onto the second side 120, and p3(131) is the image point where point P3 is projected onto the third side 130. This is the image point. Similarly, q1 is the image point where point Q1 is projected onto the first side 110, q2 is the image point where point Q2 is projected onto the second side 120, and q3(132) is the image point where point Q3 is projected onto the third side 130. It is a projected image point.

p'1(151)은 제 3면(130)에서 제 1시점의 P1을 촬영했다고 가정했을 때 점 P1이 투영되는 영상점이고, p'2(141)는 제 3면(130)에서 제 2시점의 P2를 촬영했다고 가정했을 때 점 P2가 투영되는 영상점이다. 마찬가지로 q'1(152)은 제 3면(130)에서 제 1시점의 Q1을 촬영했다고 가정했을 때 점 Q1이 투영되는 영상점이고, q'2(142)는 제 3면(130)에서 제 2시점의 Q2를 촬영했다고 가정했을 때 점 Q2가 투영되는 영상점이다.p'1 (151) is the image point where point P1 is projected, assuming that P1 at the first viewpoint is captured on the third side (130), and p'2 (141) is the second viewpoint on the third side (130). Assuming that P2 of is captured, point P2 is the projected image point. Likewise, q'1 (152) is the image point where point Q1 is projected, assuming that Q1 at the first viewpoint is captured on the third side (130), and q'2 (142) is the image point at which point Q1 is projected on the third side (130). Assuming that point Q2 is captured, point Q2 is the projected image point.

점 P1, P2, Q1, Q1을 각각 제 3면(131)에 p'1, p'2, q'1, q'2로 투영하는 과정은 카메라의 이동과 회전 효과를 제거하여 제 3시점의 카메라 평면에 투영된 것처럼 영상을 정합하는 과정을 나타낸다.The process of projecting points P1, P2, Q1, and Q1 as p'1, p'2, q'1, and q'2 on the third surface 131, respectively, removes the camera movement and rotation effects to create the third viewpoint. It represents the process of registering images as if they were projected onto the camera plane.

이동물체의 속도, 카메라의 위치와 자세 변화 관계에 따라 발생할 수 있는 현상 중 하나의 예를 들어 q'1(152)과 q'2(142), q'2(142)와 q3(132)의 영상좌표 거리차가 각각 1 미만이지만 부화소 단위로 거리차를 누적할 때 q'1(152)과 q3(132)의 거리차가 1 이상이 되어 실제 영상으로 투영될 때 화소 단위 양자화로 인해 q'1(152)과 q'2(142)는 제 3면(130)에서 동일한 화소에 위치하고, q’1(152)과 q3(132)은 제 3면(130)에서 이웃한 다른 화소에 위치할 수 있다. 이와 같은 상황에서 근경이 투영된 영상점 p’1(151), p’2(141)는 제 3면(130)에서 다른 화소에 위치하고, 영상점 p’2(141), p3(131)은 제 3면(130)에서 서로 다른 화소에 위치한다.An example of a phenomenon that can occur depending on the relationship between the speed of the moving object and the position and posture change of the camera is q'1 (152) and q'2 (142), q'2 (142) and q3 (132). Although the image coordinate distance differences are each less than 1, when the distance difference is accumulated in sub-pixel units, the distance difference between q'1 (152) and q3 (132) becomes more than 1 and when projected as an actual image, q'1 due to pixel-level quantization (152) and q'2 (142) may be located in the same pixel on the third side 130, and q'1 (152) and q3 (132) may be located in different neighboring pixels on the third side 130. there is. In this situation, the image points p'1 (151) and p'2 (141), onto which the near view is projected, are located in different pixels on the third side 130, and the image points p'2 (141) and p3 (131) are They are located in different pixels on the third side 130.

본 발명의 일 실시예에 따른 이동물체 탐지 장치 및 그 경사 촬영 동영상 이동물체 탐지 방법은 앞서 설명한 바와 같이 동영상 입력에서 현재 제 3면(130)이 입력되어 이동물체를 탐지하는 상황에서 일련의 절차를 수행할 수 있다.As described above, the moving object detection device and its oblique shooting video moving object detection method according to an embodiment of the present invention perform a series of procedures in a situation where the third side 130 is currently input in the video input and a moving object is detected. It can be done.

도 3은 본 발명의 일 실시예에 따른 이동물체 탐지 장치의 구성도이다.Figure 3 is a configuration diagram of a moving object detection device according to an embodiment of the present invention.

도 3을 참조하면, 일 실시예에 따른 이동물체 탐지 장치(300)는 프레임 분석 간격 산출부(320) 및 이동물체 탐지부(350)를 포함하고, 프레임 대기열 관리부(310), 광학흐름 계산부(330) 및 배경 움직임 보상부(340) 중 적어도 하나 이상을 더 포함할 수 있다. 이렇게 이동물체 탐지 장치(300)를 구성하는 요소들은 하나 또는 복수의 프로세서로 구성될 수 있다. 예를 들어, 하나 또는 복수의 프로세서는 CPU(central process unit), DSP(digital signal processor) 등과 같은 범용 프로세서, GPU(graphic process unit), VPU(vision process Unit) 등과 같은 그래픽 전용 프로세서 또는 NPU(neural process unit)와 같은 인공지능 전용 프로세서일 수 있다.Referring to FIG. 3, the moving object detection device 300 according to one embodiment includes a frame analysis interval calculation unit 320 and a moving object detection unit 350, a frame queue management unit 310, and an optical flow calculation unit. It may further include at least one of the 330 and the background motion compensation unit 340. The elements constituting the moving object detection device 300 may be comprised of one or more processors. For example, one or more processors may be a general-purpose processor such as a central process unit (CPU), a digital signal processor (DSP), a graphics-specific processor such as a graphic process unit (GPU), a vision process unit (VPU), or a neural processor (NPU). It may be a processor dedicated to artificial intelligence, such as a process unit).

이동물체 탐지 장치(300)의 프레임 분석 간격 산출부(320)는 촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정한다.The frame analysis interval calculation unit 320 of the moving object detection device 300 determines the optical flow analysis frame interval for each frame area based on the shooting geometry information for an oblique shooting video for which shooting geometry information is provided.

이동물체 탐지 장치(300)의 이동물체 탐지부(350)는 결정된 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출한다.The moving object detection unit 350 of the moving object detection device 300 detects the moving object on an object basis based on the determined optical flow analysis frame interval.

이동물체 탐지 장치(300)의 프레임 대기열 관리부(310)는 경사 촬영 동영상을 프레임 순서대로 프레임 대기열로 지정할 수 있고, 이 경우에 프레임 분석 간격 산출부(320)는 프레임 대기열의 최신 프레임에 대하여 복수의 분할 영역을 설정하며, 설정된 각 분할 영역의 중심점에서 촬영 기하 정보로부터 계산되는 화소별 지상거리를 참조하여 광학흐름 분석 프레임 간격을 산출한다. 여기서, 복수의 분할 영역은 각 분할 영역의 중심점들이 가로 방향 및 세로 방향에서 등간격으로 배치되고 인접한 분할 영역 간 일부 영역이 중첩될 수 있고, 복수의 분할 영역은 각 분할 영역의 중심점들에서 가까운 영상 경계 또는 이웃 중심점보다 가까운 위치를 경계선으로 하여 설정될 수 있다.The frame queue management unit 310 of the moving object detection device 300 may specify the oblique shooting video as a frame queue in frame order, and in this case, the frame analysis interval calculation unit 320 may generate a plurality of frames for the latest frame in the frame queue. The divided areas are set, and the optical flow analysis frame interval is calculated by referring to the ground distance for each pixel calculated from the shooting geometric information at the center point of each set divided area. Here, in the plurality of divided regions, the center points of each divided region are arranged at equal intervals in the horizontal and vertical directions, and some areas between adjacent divided regions may overlap, and the plurality of divided regions may be imaged close to the center points of each divided region. It can be set as a borderline at a location closer to the border or neighboring center point.

도 4는 본 발명의 일 실시 예에 따라 경사 촬영 동영상 프레임에서 분할 영역을 설정하는 것에 대한 예시이다. 영상의 화소 위치에 따라 달라지는 투영 거리의 효과를 제한하기 위하여 영상 프레임의 분할 영역(410)을 설정한다. 분할 영역 중심점들(420)은 가로, 세로 각 방향에서 등간격으로 배치되며, 영상의 가장자리에서 첫 중심점까지의 거리는 인접한 두 중심점까지 거리의 절반이 된다. 분할 영역의 너비는 중심에서 양쪽 인접 중심까지의 거리의 3분의 2에 해당하도록 설정하여 분할 영역 간 중첩을 허용하고 영상 가장자리에서는 영상 영역까지로 한다.Figure 4 is an example of setting a segmented area in an obliquely captured video frame according to an embodiment of the present invention. To limit the effect of the projection distance that varies depending on the pixel position of the image, a division area 410 of the image frame is set. The division area center points 420 are arranged at equal intervals in each direction horizontally and vertically, and the distance from the edge of the image to the first center point is half the distance to the two adjacent center points. The width of the segmented area is set to correspond to two-thirds of the distance from the center to the adjacent centers on both sides to allow overlap between segmented areas, and extends from the edge of the image to the image area.

또한, 광학흐름 분석 프레임 간격은 프레임 영역별로 서로 다르게 산출 및 결정될 수 있고, 이동물체의 변위가 화소 단위 이상으로 투영되도록 결정될 수 있다. 광학흐름 분석 프레임 간격을 산출할 때에, 동영상 규격으로부터 얻어지는 프레임 간 시간 간격과 이동물체의 속력 정보로부터 단위 프레임 간격 당 이동물체의 이동거리를 산출하고, 분할 영역의 중심점 화소의 지상거리와 단위 프레임 간격 당 이동물체의 이동거리를 이용하여 이동물체의 이동거리가 화소의 지상거리 이상이 되는 프레임 간격을 산출할 수 있다.Additionally, the optical flow analysis frame interval may be calculated and determined differently for each frame area, and may be determined so that the displacement of the moving object is projected in pixel units or more. When calculating the optical flow analysis frame interval, the moving distance of the moving object per unit frame interval is calculated from the time interval between frames obtained from the video standard and the speed information of the moving object, and the ground distance of the center point pixel of the divided area and the unit frame interval are calculated. Using the moving distance of each moving object, the frame interval at which the moving distance of the moving object is greater than or equal to the ground distance of the pixel can be calculated.

이동물체 탐지 장치(300)의 광학흐름 계산부(330)는 결정된 광학흐름 분석 프레임 간격별로 과거 프레임을 취득한 후 복수의 분할 영역 중 해당 분할 영역에서 광학흐름을 계산할 수 있다. 이동물체 탐지 장치(300)의 배경 움직임 보상부(340)는 계산된 광학흐름을 이용하여 분할 영역별 배경 움직임을 추정하고 보상할 수 있다. 이 경우, 이동물체 탐지부(350)는 분할 영역별 이동벡터 크기의 표준점수를 기준으로 이동점을 판별하여 이동물체를 객체 단위로 추출할 수 있다.The optical flow calculation unit 330 of the moving object detection device 300 may acquire past frames for each determined optical flow analysis frame interval and then calculate the optical flow in the corresponding divided area among the plurality of divided areas. The background motion compensation unit 340 of the moving object detection apparatus 300 can estimate and compensate the background motion for each segment using the calculated optical flow. In this case, the moving object detection unit 350 can extract the moving object on an object basis by determining the moving point based on the standard score of the size of the moving vector for each segmented area.

배경 움직임 보상부(340)는 분석 프레임 간격 별 광학흐름에서 조밀 등간격 격자점을 구성하고 격자점에 대응하는 광학흐름 벡터를 격자점 좌표에 더하여 영상 간 대응쌍 집합을 구성하며, 분석 프레임 간격 별로 구성된 영상 간 대응쌍 집합으로부터 현재 프레임 영상 좌표에서 이전 프레임 영상 좌표로 변환하는 변환 행렬을 추정하고, 분석 프레임 간격 별 광학흐름에서 각 화소별로 해당 영상좌표로부터 추정한 변환 행렬로 얻어진 영상좌표에 이르는 변위 벡터를 광학흐름에서 빼는 것으로 배경 움직임을 보상한 광학흐름을 획득할 수 있다.The background motion compensation unit 340 configures dense equally spaced grid points from the optical flow for each analysis frame interval and adds the optical flow vector corresponding to the grid point to the grid point coordinates to form a set of corresponding pairs between images, and configures a set of corresponding pairs between images for each analysis frame interval. From the set of corresponding pairs between the constructed images, a transformation matrix that converts the image coordinates of the current frame to the image coordinates of the previous frame is estimated, and the displacement from the optical flow for each analysis frame interval to the image coordinates obtained by the transformation matrix estimated from the corresponding image coordinates for each pixel is estimated. By subtracting the vector from the optical flow, the optical flow that compensates for the background motion can be obtained.

이동물체 탐지부(350)는 배경 움직임이 보상된 분할 영역별 광학흐름에서 분할 영역별 광학흐름 이동벡터 크기가 이동 조건을 만족하는 이동점들을 판별하고, 이동점들로부터 프레임 전체에서 이동 객체를 추출할 수 있다. 또한, 이동물체 탐지부(350)는 각 분할 영역 별 프레임 분석 간격에 해당하는 광학흐름에서 분할 영역에 속하는 화소들의 광학흐름 벡터의 크기에 대한 평균과 표준편차를 산출하고, 각 분할 영역에서 광학흐름 벡터의 크기가 단위 화소 길이 이상이고 광학흐름 벡터의 크기에서 평균을 빼고 표준편차로 나눈 표준점수가 일정 기준 이상인 화소들을 이동점으로 판별할 수 있다. 여기서, 이동점을 판별할 때에, 분할 영역의 광학흐름 크기가 단위 화소 이상이면서 광학흐름 크기의 표준점수가 일정 기준 이상이고 분할 영역 가장자리에서 일정 거리 떨어진 점들을 이동점으로 판단할 수 있다.The moving object detection unit 350 determines moving points whose size of the optical flow movement vector for each divided region satisfies the movement condition from the optical flow for each divided region in which the background motion is compensated, and extracts the moving object from the entire frame from the moving points. can do. In addition, the moving object detection unit 350 calculates the average and standard deviation of the size of the optical flow vectors of the pixels belonging to the divided area from the optical flow corresponding to the frame analysis interval for each divided area, and calculates the optical flow in each divided area. Pixels whose vector size is greater than the unit pixel length and whose standard score, which is the size of the optical flow vector minus the average and divided by the standard deviation, is greater than a certain standard, can be identified as moving points. Here, when determining the moving point, the optical flow size of the divided area is more than a unit pixel, the standard score of the optical flow size is more than a certain standard, and points that are a certain distance away from the edge of the divided area can be judged as moving points.

도 5는 본 발명의 일 실시예에 따른 이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법을 설명하기 위한 흐름도이고, 도 6은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 이동 변위가 화소 단위 이상으로 나타나도록 광학흐름 분석 간격을 결정하는 과정을 설명하기 위한 흐름도이며, 도 7은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 배경 움직임이 보상된 광학흐름을 계산하는 과정을 설명하기 위한 흐름도이고, 도 8은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 이동점을 판별하고 이동점들을 군집화하여 이동 객체를 검출하는 과정을 설명하기 위한 흐름도이다.FIG. 5 is a flowchart illustrating a method for detecting a moving object in an obliquely captured video performed by a moving object detection device according to an embodiment of the present invention, and FIG. 6 is a flowchart showing a moving object in a divided area of a video frame according to an embodiment of the present invention. It is a flowchart for explaining the process of determining the optical flow analysis interval so that the displacement appears in pixel units or more, and Figure 7 is a flowchart for calculating optical flow with background motion compensated for in a divided area of a video frame according to an embodiment of the present invention. This is a flowchart for explaining the process, and Figure 8 is a flowchart for explaining the process of detecting a moving object by determining moving points in a segmented area of a video frame and clustering the moving points in accordance with an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 일 실시예에 따른 이동물체 탐지 장치(300)가 수행하는 경사 촬영 동영상 이동물체 탐지 방법에 대해 자세히 살펴보기로 한다.Hereinafter, with reference to the attached drawings, we will take a closer look at the oblique shooting video moving object detection method performed by the moving object detection device 300 according to an embodiment of the present invention.

도 5를 참조하면, 이동물체 탐지 장치(300)의 프레임 대기열 관리부(310)는 경사 촬영 동영상을 프레임 순서대로 프레임 대기열로 지정할 수 있고(510), 프레임 분석 간격 산출부(320)는 프레임 대기열의 최신 프레임에 대하여 복수의 분할 영역을 설정하며(520), 설정된 각 분할 영역의 중심점에서 촬영 기하 정보로부터 계산되는 화소별 지상거리를 참조하여 광학흐름 분석 프레임 간격을 산출한다(530).Referring to FIG. 5, the frame queue management unit 310 of the moving object detection device 300 can designate the oblique shooting video to the frame queue in frame order (510), and the frame analysis interval calculation unit 320 can specify the frame queue as A plurality of division areas are set for the latest frame (520), and the optical flow analysis frame interval is calculated by referring to the ground distance for each pixel calculated from the shooting geometric information at the center point of each set division zone (530).

도 6을 참조하면, 단계 610에서, 도 1에 예시된 것과 같은 프레임 카메라 촬영 기하로부터 카메라의 위치와 촬영 자세(경사각), 초점거리, 영상면 크기 정보를 이용하여 임의의 영상점 화소에 대응하는 지상거리(d)를 피사면의 고도를 특정하여 계산할 수 있다.Referring to FIG. 6, in step 610, a pixel corresponding to an arbitrary image point is obtained using the camera's position, shooting posture (tilt angle), focal length, and image plane size information from the frame camera shooting geometry as illustrated in FIG. 1. Ground distance (d) can be calculated by specifying the altitude of the subject surface.

단계 620에서, 탐지하고자 하는 이동물체의 속력(v)과 동영상 규격의 초당 프레임 수(f)로부터 얻어지는 프레임 간 시간 간격(1/f) 정보를 이용하여 단위 프레임 간격 당 이동물체의 이동거리(v/f)를 산출할 수 있다.In step 620, the moving distance of the moving object per unit frame interval (v) is calculated using the speed (v) of the moving object to be detected and the inter-frame time interval (1/f) information obtained from the number of frames per second (f) of the video standard. /f) can be calculated.

단계 630에서, 탐지하고자 하는 이동물체의 이동 거리가 양자화된 화소 단위로 구분되는 데 필요한 프레임 간격(n)을 수학식 1에 의해 산출할 수 있다. 예를 들어 위에서 상정한 예시의 경우, 프레임 간격이 원경을 포함하는 영역에서는 1 간격이 산출되고, 근경 부근 영역에서는 2 간격이 산출될 수 있다.In step 630, the frame interval (n) required to divide the moving distance of the moving object to be detected into quantized pixel units can be calculated using Equation 1. For example, in the case of the example assumed above, an interval of 1 may be calculated in an area where the frame interval includes the distant view, and an interval of 2 may be calculated in an area near the near view.

다시 도 5를 참조하면, 이동물체 탐지 장치(300)의 광학흐름 계산부(330)는 결정된 광학흐름 분석 프레임 간격별로 과거 프레임을 취득한 후 복수의 분할 영역 중 해당 분할 영역에서 광학흐름을 계산할 수 있다(540). 그리고, 이동물체 탐지 장치(300)의 배경 움직임 보상부(340)는 계산된 광학흐름을 이용하여 분할 영역별 배경 움직임을 추정하고 보상할 수 있다(550).Referring again to FIG. 5, the optical flow calculation unit 330 of the moving object detection device 300 may acquire past frames for each determined optical flow analysis frame interval and then calculate the optical flow in the corresponding divided area among the plurality of divided areas. (540). Additionally, the background motion compensation unit 340 of the moving object detection device 300 can estimate and compensate the background motion for each segment using the calculated optical flow (550).

도 2를 참조하면, 동영상을 입력으로 할 때 제 3면(130)에 이전 시점의 물체 위치를 투영하는 것은 블가능하므로 두 위치의 영상면에 대한 변환관계를 추정하여 한 영상면의 점을 그 변환관계에 의해 다른 영상면으로 옮기는 방법을 흔히 사용하는데, 3차원에서 2차원으로 축소된 상태에서의 변환이므로 제약식을 적용하여 보통 호모그래피 또는 아핀 변환 관계를 적용한다. 동영상 프레임 간격이 매우 짧은 시간이기 때문에 이들 제약이 실제적으로 유효하다고 가정한다. 변환 관계의 추정은 영상 전역에서 두 영상 간 대응쌍을 찾고, 한쪽 영상점들을 추정한 변환관계에 의해 다른 영상점으로 이동했을 때 대응쌍 관계에서 알고 있는 영상점과 변환 영상점들의 거리차가 최소화되도록 하는 최적화 기법을 적용하고 RANSAC(random sample consensus) 기법 등으로 통계적으로 강건한 가설 모형을 선택한다.Referring to FIG. 2, when inputting a video, it is impossible to project the object position at the previous time onto the third surface 130, so the transformation relationship for the image planes of the two locations is estimated and a point on one image plane is drawn. A method of moving to another image plane based on a transformation relationship is commonly used. Since this is a transformation in a reduced state from 3D to 2D, a homography or affine transformation relationship is usually applied by applying constraints. We assume that these constraints are practically valid because the video frame interval is a very short time. Estimation of the transformation relationship finds corresponding pairs between two images throughout the image, and minimizes the distance difference between the image points known from the corresponding pair relationship and the transformed image points when one image point is moved to another image point by the estimated transformation relationship. Apply optimization techniques and select a statistically robust hypothesis model using RANSAC (random sample consensus) techniques.

도 7을 참조하면, 단계 710에서, 분할 영역별로 산출된 광학흐름 분석 프레임 간격을 모두 수집하고 각 분석 프레임 간격에 해당하는 이전 프레임들을 획득하여 현재 프레임과 각 이전 프레임 간 고밀도 광학흐름을 알려진 광학흐름 알고리듬(Farneback, 2003)을 이용하여 획득한다.Referring to FIG. 7, in step 710, all optical flow analysis frame intervals calculated for each segment are collected, previous frames corresponding to each analysis frame interval are acquired, and the high-density optical flow between the current frame and each previous frame is calculated as a known optical flow. It is obtained using an algorithm (Farneback, 2003).

단계 720에서, 각 분석 프레임 간격별 광학흐름으로부터 현재 프레임 영상의 균등 조밀 격자점들에 대응하는 이전 프레임의 영상점을 각 격자점 좌표에 광학흐름 변위를 더함으로써 대응쌍 집합을 구한다. 실시 예에서 조밀 격자점 간격은 32 화소로 할 수 있다.In step 720, a set of corresponding pairs is obtained by adding the optical flow displacement to the coordinates of each grid point of the image point of the previous frame corresponding to the equally dense grid points of the current frame image from the optical flow at each analysis frame interval. In an embodiment, the spacing between dense grid points may be 32 pixels.

단계 730에서, 이 대응쌍 집합으로부터 두 영상 간 변환관계를 추정하는데, 변환관계로부터 현재 프레임의 격자점을 이동했을 때의 변환점 좌표와 대응쌍 집합에서 얻어지는 대응점 좌표의 거리차가 1 화소거리 이하가 되는 변환을 RANSAC으로 추정한다. 이 변환을 아핀 변환으로 하면 2×3 행렬로 계산된다. 실시 예에서 분할 영역별로 분석 간격이 1 또는 2로 계산될 수 있으므로 이러한 변환 추정은 제 1면(110)과 제 3면(130), 제 2면(120)과 제 3면(130) 사이에서 각각 구한다.In step 730, the transformation relationship between the two images is estimated from this corresponding pair set, and the distance difference between the transformation point coordinates when the grid point of the current frame is moved from the transformation relationship and the corresponding point coordinates obtained from the corresponding pair set is less than 1 pixel distance. The conversion is estimated using RANSAC. If this transformation is an affine transformation, it is calculated as a 2×3 matrix. In an embodiment, the analysis interval may be calculated as 1 or 2 for each segment, so this conversion estimate is between the first side 110 and the third side 130, and the second side 120 and the third side 130. Find each.

단계 740에서, 각 분석 프레임 간격 별로 획득한 광학흐름과 추정된 변환 관계로부터 변환 관계에 의한 화소 이동을 배경 움직임으로 보고, 배경 움직임이 보상된 광학흐름을 획득한다. 배경 움직임은 카메라의 이동과 회전에 의한 것이고 이것은 영상 프레임 관 변환 관계에 투영된다. 각 분석 프레임 간격에 대하여 현재 프레임과 어느 한 분석 대상 간격의 이전 프레임 간 추정된 변환을 행렬 M으로 나타내면, 배경 움직임은 영상의 모든 점이 이 변환에 의해 이동하는 것으로 볼 수 있다. 변환 M에 의하여 영상좌표 (i,j)가 (i',j')로 변환될 때 다음과 같은 수학식 2의 변환식이 성립한다.In step 740, from the optical flow obtained for each analysis frame interval and the estimated transformation relationship, pixel movement due to the transformation relationship is regarded as background motion, and optical flow in which the background motion is compensated is obtained. Background movement is caused by camera movement and rotation, which is projected onto the video frame tube transformation relationship. For each analysis frame interval, if the estimated transformation between the current frame and the previous frame of one analysis target interval is represented by a matrix M, background motion can be viewed as all points in the image moving by this transformation. When image coordinates (i,j) are converted to (i',j') by transformation M, the following conversion equation of Equation 2 is established.

따라서 변환 M에 의한 변위는 (i'-i, j'-j)로 계산되고, 이 변위 벡터를 해당 화소의 광학흐름에서 뺀 차벡터를 배경 움직임이 보상된 광학흐름을 얻게 된다.Therefore, the displacement due to transformation M is calculated as (i'-i, j'-j), and the difference vector obtained by subtracting this displacement vector from the optical flow of the pixel is obtained as the optical flow in which the background motion is compensated.

다시 도 5를 참조하면, 이동물체 탐지부(350)는 배경 움직임이 보상된 분할 영역별 광학흐름에서 분할 영역별 광학흐름 이동벡터 크기가 이동 조건을 만족하는 이동점들을 판별하고, 이동점들로부터 프레임 전체에서 이동 객체를 추출할 수 있다. 또한, 이동물체 탐지부(350)는 각 분할 영역 별 프레임 분석 간격에 해당하는 광학흐름에서 분할 영역에 속하는 화소들의 광학흐름 벡터의 크기에 대한 평균과 표준편차를 산출하고, 각 분할 영역에서 광학흐름 벡터의 크기가 단위 화소 길이 이상이고 광학흐름 벡터의 크기에서 평균을 빼고 표준편차로 나눈 표준점수가 일정 기준 이상인 화소들을 이동점으로 판별할 수 있다. 여기서, 이동점을 판별할 때에, 분할 영역의 광학흐름 크기가 단위 화소 이상이면서 광학흐름 크기의 표준점수가 일정 기준 이상이고 분할 영역 가장자리에서 일정 거리 떨어진 점들을 이동점으로 판단할 수 있다(810).Referring again to FIG. 5, the moving object detection unit 350 determines moving points for which the size of the optical flow movement vector for each divided region satisfies the movement condition from the optical flow for each divided region for which the background motion has been compensated, and determines moving points from the moving points. Moving objects can be extracted from the entire frame. In addition, the moving object detection unit 350 calculates the average and standard deviation of the size of the optical flow vectors of the pixels belonging to the divided area from the optical flow corresponding to the frame analysis interval for each divided area, and calculates the optical flow in each divided area. Pixels whose vector size is greater than the unit pixel length and whose standard score, which is the size of the optical flow vector minus the average and divided by the standard deviation, is greater than a certain standard, can be identified as moving points. Here, when determining the moving point, the optical flow size of the divided area is more than a unit pixel, the standard score of the optical flow size is more than a certain standard, and points that are a certain distance away from the edge of the divided area can be judged as moving points (810) .

도 8은 본 발명의 일 실시예에 따라 동영상 프레임의 분할 영역에서 이동점을 판별하고 이동점들을 군집화하여 이동 객체를 검출하는 과정을 설명하기 위한 흐름도이다.Figure 8 is a flowchart for explaining the process of detecting a moving object by determining moving points in a divided area of a video frame and clustering the moving points in accordance with an embodiment of the present invention.

단계 810에서, 배경 모델링 결과에 오차가 포함된다는 가정하에 통계적으로 유의한 이동점을 판별하기 위하여 분할 영역 내 모든 점에 대한 광학흐름의 크기의 평균과 표준편차를 산출한다.In step 810, under the assumption that the background modeling result includes an error, the average and standard deviation of the magnitude of the optical flow for all points in the divided area are calculated to determine a statistically significant moving point.

단계 820에서, 분할 영역 내 이동점을 판별하는데 개별 화소의 광학흐름 크기에서 산출한 평균을 빼고 표준편차로 나눈 표준점수(Z-점수)가 일정 기준 이상이고 광학흐름 크기가 단위 화소 길이 1 이상인 점들을 이동점으로 판단한다. 정규분포를 가정했을 때 표준점수 2 이상은 전체의 약 2.275%이고, 표준점수 3 이상은 전체의 약 0.135%가 된다.In step 820, in determining the moving point within the divided area, the standard score (Z-score) obtained by subtracting the average calculated from the optical flow size of each individual pixel and dividing it by the standard deviation is greater than or equal to a certain standard and the optical flow size is greater than or equal to the unit pixel length of 1. They are judged as moving points. Assuming a normal distribution, a standard score of 2 or higher is approximately 2.275% of the total, and a standard score of 3 or higher is approximately 0.135% of the total.

단계 830에서, 분할 영역별로 이동점으로 판별한 점들을 전체 프레임에서 수집하여 이동점과 비이동점을 이진화한 영상을 구성하고, 이 영상으로부터 덩이(Blob) 분석을 수행하여 이동점들을 군집화하고 각각의 군집들을 이동 객체로 검출한다.In step 830, the points determined as moving points for each segment are collected from the entire frame to construct an image in which the moving points and non-moving points are binarized, and blob analysis is performed on this image to cluster the moving points, respectively. Clusters of are detected as moving objects.

지금까지 설명한 바와 같이, 일 실시예에 따르면, 이동 플랫폼에서 경사 촬영된 동영상에서 프레임 영역별로 광학흐름 분석 프레임을 결정해 이동물체를 검출함으로써, 경사 촬영된 동영상 프레임의 불균질한 화소거리에 영향을 받지 않고 프레임 전역에서 물체의 이동 변위를 화소 단위 이상으로 확보하여 원경과 근경, 저속과 고속 이동물체를 모두 탐지할 수 있다.As described so far, according to one embodiment, in a video captured obliquely on a moving platform, an optical flow analysis frame is determined for each frame area to detect a moving object, thereby reducing the impact on the non-homogeneous pixel distance of the obliquely captured video frame. It is possible to detect both distant and near scenes, and low-speed and high-speed moving objects by securing the moving displacement of objects throughout the frame in units of pixels or more.

한편, 전술한 실시예에 따른 경사 촬영 동영상 이동물체 탐지 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the method for detecting moving objects in an oblique shooting video according to the above-described embodiment may be implemented in a computer-readable recording medium that records a computer program programmed to perform these steps.

또한, 전술한 실시예에 따른 경사 촬영 동영상 이동물체 탐지 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된, 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.Additionally, each step included in the method for detecting a moving object in an oblique shooting video according to the above-described embodiment may be implemented in the form of a computer program stored in a computer-readable recording medium that is programmed to perform these steps.

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general-purpose computer, special-purpose computer, or other programmable data processing equipment, the instructions performed through the processor of the computer or other programmable data processing equipment perform the functions described in each step of the flowchart. It creates the means to carry out these tasks. These computer program instructions may also be stored on a computer-usable or computer-readable recording medium that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer program instructions are computer-usable or computer-readable. The instructions stored in the recording medium can also produce manufactured items containing instruction means that perform the functions described in each step of the flowchart. Computer program instructions can also be mounted on a computer or other programmable data processing equipment, so that a series of operational steps are performed on the computer or other programmable data processing equipment to create a process that is executed by the computer, thereby generating a process that is executed by the computer or other programmable data processing equipment. Instructions that perform processing equipment may also provide steps for executing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Additionally, each step may represent a module, segment, or portion of code containing one or more executable instructions for executing specified logical function(s). Additionally, it should be noted that in some alternative embodiments it is possible for the functions mentioned in the steps to occur out of order. For example, two steps shown in succession may in fact be performed substantially simultaneously, or the steps may sometimes be performed in reverse order depending on the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and those skilled in the art will be able to make various modifications and variations without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention shall be interpreted in accordance with the claims below, and all technical ideas within the scope equivalent thereto shall be construed as being included in the scope of rights of the present invention.

300: 이동물체 탐지 장치
310: 프레임 대기열 관리부
320: 프레임 분석 간격 산출부
330: 광학흐름 계산부
340: 배경 움직임 보상부
350: 이동물체 탐지부
300: Moving object detection device
310: Frame queue management unit
320: Frame analysis interval calculation unit
330: Optical flow calculation unit
340: Background motion compensation unit
350: Moving object detection unit

Claims (26)

이동물체 탐지 장치가 수행하는 경사 촬영 동영상 이동물체 탐지 방법으로서,
촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 단계; 및
상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 단계;를 포함하고,
상기 광학흐름 분석 프레임 간격을 결정하는 단계는,
상기 경사 촬영 동영상을 프레임 순서대로 프레임 대기열로 지정하는 단계; 및
상기 프레임 대기열의 최신 프레임에 대하여 복수의 분할 영역을 설정하는 단계; 및
상기 설정된 각 분할 영역의 중심점에서 상기 촬영 기하 정보로부터 계산되는 화소별 지상거리를 참조하여 상기 광학흐름 분석 프레임 간격을 산출하는 단계;를 포함하며,
상기 광학흐름 분석 프레임 간격이 상기 이동물체의 변위가 화소 단위 이상으로 투영되도록 결정되고,
상기 광학흐름 분석 프레임 간격을 산출하는 단계는,
동영상 규격으로부터 얻어지는 프레임 간 시간 간격과 상기 이동물체의 속력 정보로부터 단위 프레임 간격 당 이동물체의 이동거리를 산출하고, 상기 분할 영역의 중심점 화소의 지상거리와 단위 프레임 간격 당 상기 이동물체의 이동거리를 이용하여 상기 이동물체의 이동거리가 화소의 지상거리 이상이 되는 프레임 간격을 산출하는
경사 촬영 동영상 이동물체 탐지 방법.
A method of detecting an oblique video moving object performed by a moving object detection device, comprising:
For an oblique shooting video for which shooting geometry information is provided, determining an optical flow analysis frame interval for each frame area based on the shooting geometry information; and
Detecting a moving object on an object basis based on the determined optical flow analysis frame interval,
The step of determining the optical flow analysis frame interval is,
Designating the oblique shooting video to a frame queue in frame order; and
Setting a plurality of partition areas for the latest frame in the frame queue; and
Comprising: calculating the optical flow analysis frame interval with reference to the ground distance for each pixel calculated from the shooting geometry information at the center point of each set divided area,
The optical flow analysis frame interval is determined so that the displacement of the moving object is projected in pixel units or more,
The step of calculating the optical flow analysis frame interval is,
Calculate the moving distance of the moving object per unit frame interval from the time interval between frames obtained from the video standard and the speed information of the moving object, and calculate the ground distance of the center point pixel of the divided area and the moving distance of the moving object per unit frame interval. Calculate the frame interval at which the moving distance of the moving object is greater than or equal to the ground distance of the pixel.
Oblique shooting video moving object detection method.
삭제delete 제 1 항에 있어서,
상기 복수의 분할 영역은 각 분할 영역의 중심점들이 가로 방향 및 세로 방향에서 등간격으로 배치되고 인접한 분할 영역 간 일부 영역이 중첩되는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 1,
In the plurality of divided areas, the center points of each divided area are arranged at equal intervals in the horizontal and vertical directions, and some areas between adjacent divided areas overlap.
Oblique shooting video moving object detection method.
제 1 항에 있어서,
상기 복수의 분할 영역은 상기 각 분할 영역의 중심점들에서 가까운 영상 경계 또는 이웃 중심점보다 가까운 위치를 경계선으로 하여 설정되는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 1,
The plurality of divided areas are set with a boundary line at an image boundary closer to the center points of each divided area or a position closer than a neighboring center point.
Oblique shooting video moving object detection method.
제 1 항에 있어서,
상기 광학흐름 분석 프레임 간격이 상기 프레임 영역별로 서로 다르게 산출되는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 1,
The optical flow analysis frame interval is calculated differently for each frame area.
Oblique shooting video moving object detection method.
삭제delete 삭제delete 제 1 항에 있어서,
상기 이동물체를 검출하는 단계는,
상기 결정한 광학흐름 분석 프레임 간격별로 과거 프레임을 취득한 후 복수의 분할 영역 중 해당 분할 영역에서 광학흐름을 계산하는 단계;
상기 계산된 광학흐름을 이용하여 분할 영역별 배경 움직임을 추정하고 보상하는 단계; 및
분할 영역별 이동벡터 크기의 표준점수를 기준으로 이동점을 판별하여 상기 이동물체를 상기 객체 단위로 추출하는 단계;를 포함하는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 1,
The step of detecting the moving object is,
acquiring past frames at each determined optical flow analysis frame interval and then calculating optical flow in the corresponding divided area among the plurality of divided areas;
estimating and compensating background motion for each segment using the calculated optical flow; and
A step of extracting the moving object in units of the object by determining the movement point based on the standard score of the movement vector size for each divided area.
Oblique shooting video moving object detection method.
제 8 항에 있어서,
상기 보상하는 단계는, 분석 프레임 간격 별 광학흐름에서 조밀 등간격 격자점을 구성하고 격자점에 대응하는 광학흐름 벡터를 격자점 좌표에 더하여 영상 간 대응쌍 집합을 구성하며, 분석 프레임 간격 별로 구성된 영상 간 대응쌍 집합으로부터 현재 프레임 영상 좌표에서 이전 프레임 영상 좌표로 변환하는 변환 행렬을 추정하고, 분석 프레임 간격 별 광학흐름에서 각 화소별로 해당 영상좌표로부터 추정한 변환 행렬로 얻어진 영상좌표에 이르는 변위 벡터를 광학흐름에서 빼는 것으로 상기 배경 움직임을 보상한 광학흐름을 획득하는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 8,
In the above compensation step, dense equally spaced grid points are constructed from the optical flow for each analysis frame interval, and the optical flow vectors corresponding to the grid points are added to the grid point coordinates to form a set of corresponding pairs between images, and the images composed for each analysis frame interval are formed. From the set of corresponding pairs, a transformation matrix that converts the current frame image coordinates to the previous frame image coordinates is estimated, and a displacement vector leading to the image coordinates obtained by the transformation matrix estimated from the corresponding image coordinates for each pixel in the optical flow for each analysis frame interval is estimated. Obtaining an optical flow that compensates for the background motion by subtracting it from the optical flow
Oblique shooting video moving object detection method.
제 8 항에 있어서,
상기 객체 단위로 추출하는 단계는, 상기 배경 움직임이 보상된 분할 영역별 광학흐름에서 분할 영역별 광학흐름 이동벡터 크기가 이동 조건을 만족하는 이동점들을 판별하고, 상기 이동점들로부터 프레임 전체에서 상기 이동물체를 추출하는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 8,
The step of extracting on an object basis includes determining moving points whose size of the optical flow movement vector for each divided region satisfies the movement condition from the optical flow for each divided region for which the background motion has been compensated, and determining moving points from the moving points in the entire frame. extracting moving objects
Oblique shooting video moving object detection method.
제 10 항에 있어서,
상기 객체 단위로 추출하는 단계는, 각 분할 영역 별 프레임 분석 간격에 해당하는 광학흐름에서 분할 영역에 속하는 화소들의 광학흐름 벡터의 크기에 대한 평균과 표준편차를 산출하고, 각 분할 영역에서 광학흐름 벡터의 크기가 단위 화소 길이 이상이고 광학흐름 벡터의 크기에서 평균을 빼고 표준편차로 나눈 표준점수가 일정 기준 이상인 화소들을 상기 이동점으로 판별하는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 10,
In the object-by-object extraction step, the average and standard deviation of the size of the optical flow vectors of the pixels belonging to the divided region are calculated from the optical flow corresponding to the frame analysis interval for each divided region, and the optical flow vector in each divided region is calculated. pixels whose size is equal to or greater than the unit pixel length and whose standard score, which is calculated by subtracting the average from the size of the optical flow vector and dividing it by the standard deviation, is greater than a certain standard, are identified as moving points.
Oblique shooting video moving object detection method.
제 11 항에 있어서,
상기 이동점을 판별할 때에, 상기 분할 영역의 광학흐름 크기가 단위 화소 이상이면서 광학흐름 크기의 표준점수가 일정 기준 이상이고 분할 영역 가장자리에서 일정 거리 떨어진 점들을 이동점으로 판단하는
경사 촬영 동영상 이동물체 탐지 방법.
According to claim 11,
When determining the moving point, the optical flow size of the divided area is more than a unit pixel, the standard score of the optical flow size is more than a certain standard, and points that are a certain distance away from the edge of the divided area are judged as moving points.
Oblique shooting video moving object detection method.
촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 프레임 분석 간격 산출부;
상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 이동물체 탐지부; 및
상기 경사 촬영 동영상을 프레임 순서대로 프레임 대기열로 지정하는 프레임 대기열 관리부;를 포함하고,
상기 프레임 분석 간격 산출부는, 상기 프레임 대기열의 최신 프레임에 대하여 복수의 분할 영역을 설정하며, 설정된 각 분할 영역의 중심점에서 촬영 기하 정보로부터 계산되는 화소별 지상거리를 참조하여 상기 광학흐름 분석 프레임 간격을 산출하며,
상기 광학흐름 분석 프레임 간격이 상기 이동물체의 변위가 화소 단위 이상으로 투영되도록 결정되고,
상기 광학흐름 분석 프레임 간격을 산출할 때에, 동영상 규격으로부터 얻어지는 프레임 간 시간 간격과 상기 이동물체의 속력 정보로부터 단위 프레임 간격 당 이동물체의 이동거리를 산출하고, 상기 분할 영역의 중심점 화소의 지상거리와 단위 프레임 간격 당 상기 이동물체의 이동거리를 이용하여 상기 이동물체의 이동거리가 화소의 지상거리 이상이 되는 프레임 간격을 산출하는
이동물체 탐지 장치.
A frame analysis interval calculation unit that determines an optical flow analysis frame interval for each frame area based on the shooting geometry information for an oblique shooting video for which shooting geometry information is provided;
a moving object detection unit that detects a moving object on an object basis based on the determined optical flow analysis frame interval; and
It includes a frame queue management unit that specifies the oblique shooting video into a frame queue in frame order,
The frame analysis interval calculation unit sets a plurality of division areas for the latest frame in the frame queue, and determines the optical flow analysis frame interval by referring to the ground distance for each pixel calculated from the shooting geometry information at the center point of each division zone. Calculate,
The optical flow analysis frame interval is determined so that the displacement of the moving object is projected in pixel units or more,
When calculating the optical flow analysis frame interval, the moving distance of the moving object per unit frame interval is calculated from the time interval between frames obtained from the video standard and the speed information of the moving object, and the ground distance of the center point pixel of the divided area is calculated Calculate a frame interval at which the moving distance of the moving object is greater than or equal to the ground distance of the pixel using the moving distance of the moving object per unit frame interval.
Moving object detection device.
삭제delete 제 13 항에 있어서,
상기 복수의 분할 영역은 각 분할 영역의 중심점들이 가로 방향 및 세로 방향에서 등간격으로 배치되고 인접한 분할 영역 간 일부 영역이 중첩되는
이동물체 탐지 장치.
According to claim 13,
In the plurality of divided areas, the center points of each divided area are arranged at equal intervals in the horizontal and vertical directions, and some areas between adjacent divided areas overlap.
Moving object detection device.
제 13 항에 있어서,
상기 복수의 분할 영역은 상기 각 분할 영역의 중심점들에서 가까운 영상 경계 또는 이웃 중심점보다 가까운 위치를 경계선으로 하여 설정되는
이동물체 탐지 장치.
According to claim 13,
The plurality of divided areas are set with a boundary line at an image boundary closer to the center points of each divided area or a position closer than a neighboring center point.
Moving object detection device.
제 13 항에 있어서,
상기 광학흐름 분석 프레임 간격이 상기 프레임 영역별로 서로 다르게 산출되는
이동물체 탐지 장치.
According to claim 13,
The optical flow analysis frame interval is calculated differently for each frame area.
Moving object detection device.
삭제delete 삭제delete 제 13 항에 있어서,
상기 결정한 광학흐름 분석 프레임 간격별로 과거 프레임을 취득한 후 복수의 분할 영역 중 해당 분할 영역에서 광학흐름을 계산하는 광학흐름 계산부; 및
상기 계산된 광학흐름을 이용하여 분할 영역별 배경 움직임을 추정하고 보상하는 배경 움직임 보상부;를 더 포함하고,
상기 이동물체 탐지부는, 분할 영역별 이동벡터 크기의 표준점수를 기준으로 이동점을 판별하여 상기 이동물체를 상기 객체 단위로 추출하는
이동물체 탐지 장치.
According to claim 13,
an optical flow calculation unit that acquires past frames for each determined optical flow analysis frame interval and then calculates the optical flow in a corresponding divided region among a plurality of divided regions; and
It further includes a background motion compensation unit that estimates and compensates for background motion for each segment using the calculated optical flow,
The moving object detection unit determines the moving point based on the standard score of the movement vector size for each divided area and extracts the moving object in units of the object.
Moving object detection device.
제 20 항에 있어서,
상기 배경 움직임 보상부는, 분석 프레임 간격 별 광학흐름에서 조밀 등간격 격자점을 구성하고 격자점에 대응하는 광학흐름 벡터를 격자점 좌표에 더하여 영상 간 대응쌍 집합을 구성하며, 분석 프레임 간격 별로 구성된 영상 간 대응쌍 집합으로부터 현재 프레임 영상 좌표에서 이전 프레임 영상 좌표로 변환하는 변환 행렬을 추정하고, 분석 프레임 간격 별 광학흐름에서 각 화소별로 해당 영상좌표로부터 추정한 변환 행렬로 얻어진 영상좌표에 이르는 변위 벡터를 광학흐름에서 빼는 것으로 상기 배경 움직임을 보상한 광학흐름을 획득하는
이동물체 탐지 장치.
According to claim 20,
The background motion compensation unit configures dense equally spaced grid points from the optical flow for each analysis frame interval, adds optical flow vectors corresponding to the grid points to the grid point coordinates, and configures a set of corresponding pairs between images, and images composed for each analysis frame interval. From the set of corresponding pairs, a transformation matrix that converts the current frame image coordinates to the previous frame image coordinates is estimated, and a displacement vector leading to the image coordinates obtained by the transformation matrix estimated from the corresponding image coordinates for each pixel in the optical flow for each analysis frame interval is estimated. Obtaining an optical flow that compensates for the background motion by subtracting it from the optical flow
Moving object detection device.
제 20 항에 있어서,
상기 이동물체 탐지부는, 상기 배경 움직임이 보상된 분할 영역별 광학흐름에서 분할 영역별 광학흐름 이동벡터 크기가 이동 조건을 만족하는 이동점들을 판별하고, 상기 이동점들로부터 프레임 전체에서 상기 이동물체를 추출하는
이동물체 탐지 장치.
According to claim 20,
The moving object detection unit determines moving points whose size of the optical flow movement vector for each divided region satisfies the movement condition in the optical flow for each divided region for which the background motion has been compensated, and detects the moving object throughout the frame from the moving points. extracting
Moving object detection device.
제 22 항에 있어서,
상기 이동물체 탐지부는, 각 분할 영역 별 프레임 분석 간격에 해당하는 광학흐름에서 분할 영역에 속하는 화소들의 광학흐름 벡터의 크기에 대한 평균과 표준편차를 산출하고, 각 분할 영역에서 광학흐름 벡터의 크기가 단위 화소 길이 이상이고 광학흐름 벡터의 크기에서 평균을 빼고 표준편차로 나눈 표준점수가 일정 기준 이상인 화소들을 상기 이동점으로 판별하는
이동물체 탐지 장치.
According to claim 22,
The moving object detection unit calculates the average and standard deviation of the size of the optical flow vector of the pixels belonging to the divided area from the optical flow corresponding to the frame analysis interval for each divided area, and the size of the optical flow vector in each divided area is calculated. Pixels that are longer than a unit pixel length and whose standard score is divided by subtracting the average from the size of the optical flow vector and dividing it by the standard deviation are more than a certain standard are identified as moving points.
Moving object detection device.
제 23 항에 있어서,
상기 이동점을 판별할 때에, 상기 분할 영역의 광학흐름 크기가 단위 화소 이상이면서 광학흐름 크기의 표준점수가 일정 기준 이상이고 분할 영역 가장자리에서 일정 거리 떨어진 점들을 이동점으로 판단하는
이동물체 탐지 장치.
According to claim 23,
When determining the moving point, the optical flow size of the divided area is more than a unit pixel, the standard score of the optical flow size is more than a certain standard, and points that are a certain distance away from the edge of the divided area are judged as moving points.
Moving object detection device.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 단계; 및 상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 단계;를 포함하고,
상기 광학흐름 분석 프레임 간격을 결정하는 단계는, 상기 경사 촬영 동영상을 프레임 순서대로 프레임 대기열로 지정하는 단계; 상기 프레임 대기열의 최신 프레임에 대하여 복수의 분할 영역을 설정하는 단계; 상기 설정된 각 분할 영역의 중심점에서 상기 촬영 기하 정보로부터 계산되는 화소별 지상거리를 참조하여 상기 광학흐름 분석 프레임 간격을 산출하는 단계;를 포함하며,
상기 광학흐름 분석 프레임 간격이 상기 이동물체의 변위가 화소 단위 이상으로 투영되도록 결정되고,
상기 광학흐름 분석 프레임 간격을 산출하는 단계는,
동영상 규격으로부터 얻어지는 프레임 간 시간 간격과 상기 이동물체의 속력 정보로부터 단위 프레임 간격 당 이동물체의 이동거리를 산출하고, 상기 분할 영역의 중심점 화소의 지상거리와 단위 프레임 간격 당 상기 이동물체의 이동거리를 이용하여 상기 이동물체의 이동거리가 화소의 지상거리 이상이 되는 프레임 간격을 산출하는
경사 촬영 동영상 이동물체 탐지 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 판독 가능한 기록매체.
A computer-readable recording medium storing a computer program,
When the computer program is executed by a processor,
For an oblique shooting video for which shooting geometry information is provided, determining an optical flow analysis frame interval for each frame area based on the shooting geometry information; And detecting a moving object on an object basis based on the determined optical flow analysis frame interval,
Determining the optical flow analysis frame interval may include designating the obliquely captured video to a frame queue in frame order; Setting a plurality of partition areas for the latest frame in the frame queue; Comprising: calculating the optical flow analysis frame interval with reference to the ground distance for each pixel calculated from the shooting geometry information at the center point of each set divided area,
The optical flow analysis frame interval is determined so that the displacement of the moving object is projected in pixel units or more,
The step of calculating the optical flow analysis frame interval is,
Calculate the moving distance of the moving object per unit frame interval from the time interval between frames obtained from the video standard and the speed information of the moving object, and calculate the ground distance of the center point pixel of the divided area and the moving distance of the moving object per unit frame interval. Calculate the frame interval at which the moving distance of the moving object is greater than or equal to the ground distance of the pixel.
A computer-readable recording medium including instructions for causing the processor to perform an oblique shooting video moving object detection method.
컴퓨터 판독 가능 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
촬영 기하 정보가 주어지는 경사 촬영 동영상에 대하여 상기 촬영 기하 정보에 기초하여 프레임 영역별로 광학흐름 분석 프레임 간격을 결정하는 단계; 및 상기 결정한 광학흐름 분석 프레임 간격에 기초하여 객체 단위로 이동물체를 검출하는 단계;를 포함하고,
상기 광학흐름 분석 프레임 간격을 결정하는 단계는, 상기 경사 촬영 동영상을 프레임 순서대로 프레임 대기열로 지정하는 단계; 상기 프레임 대기열의 최신 프레임에 대하여 복수의 분할 영역을 설정하는 단계; 상기 설정된 각 분할 영역의 중심점에서 상기 촬영 기하 정보로부터 계산되는 화소별 지상거리를 참조하여 상기 광학흐름 분석 프레임 간격을 산출하는 단계;를 포함하며,
상기 광학흐름 분석 프레임 간격이 상기 이동물체의 변위가 화소 단위 이상으로 투영되도록 결정되고,
상기 광학흐름 분석 프레임 간격을 산출하는 단계는,
동영상 규격으로부터 얻어지는 프레임 간 시간 간격과 상기 이동물체의 속력 정보로부터 단위 프레임 간격 당 이동물체의 이동거리를 산출하고, 상기 분할 영역의 중심점 화소의 지상거리와 단위 프레임 간격 당 상기 이동물체의 이동거리를 이용하여 상기 이동물체의 이동거리가 화소의 지상거리 이상이 되는 프레임 간격을 산출하는
경사 촬영 동영상 이동물체 탐지 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는 컴퓨터 프로그램.
A computer program stored on a computer-readable recording medium,
When the computer program is executed by a processor,
For an oblique shooting video for which shooting geometry information is provided, determining an optical flow analysis frame interval for each frame area based on the shooting geometry information; And detecting a moving object on an object basis based on the determined optical flow analysis frame interval,
Determining the optical flow analysis frame interval may include designating the obliquely captured video to a frame queue in frame order; Setting a plurality of partition areas for the latest frame in the frame queue; Comprising: calculating the optical flow analysis frame interval with reference to the ground distance for each pixel calculated from the shooting geometry information at the center point of each set divided area,
The optical flow analysis frame interval is determined so that the displacement of the moving object is projected in pixel units or more,
The step of calculating the optical flow analysis frame interval is,
Calculate the moving distance of the moving object per unit frame interval from the time interval between frames obtained from the video standard and the speed information of the moving object, and calculate the ground distance of the center point pixel of the divided area and the moving distance of the moving object per unit frame interval. Calculate the frame interval at which the moving distance of the moving object is greater than or equal to the ground distance of the pixel.
A computer program including instructions for causing the processor to perform an oblique shooting video moving object detection method.
KR1020230050969A 2023-04-18 2023-04-18 Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery KR102629213B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230050969A KR102629213B1 (en) 2023-04-18 2023-04-18 Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230050969A KR102629213B1 (en) 2023-04-18 2023-04-18 Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery

Publications (1)

Publication Number Publication Date
KR102629213B1 true KR102629213B1 (en) 2024-01-24

Family

ID=89717855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230050969A KR102629213B1 (en) 2023-04-18 2023-04-18 Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery

Country Status (1)

Country Link
KR (1) KR102629213B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276308A (en) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd Video image processing apparatus, video image processing system, and navigation device
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
KR20150043145A (en) * 2013-10-14 2015-04-22 삼성전자주식회사 Method for measuring changes of distance between the camera and the object using object tracking , Computer readable storage medium of recording the method and a device measuring changes of distance
KR20170012666A (en) * 2015-07-22 2017-02-03 (주)인스페이스 Apparatus for detecting moving object and method for controlling the same
KR20180045745A (en) * 2016-10-26 2018-05-04 삼성에스디에스 주식회사 Apparatus and method for extracting objects in view point of moving vehicle
KR102121974B1 (en) 2019-12-05 2020-06-12 대한민국 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method
KR20220114820A (en) * 2021-02-09 2022-08-17 주식회사 라온버드 System and method for removing camera movement in video

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276308A (en) * 2007-04-25 2008-11-13 Sanyo Electric Co Ltd Video image processing apparatus, video image processing system, and navigation device
JP2010286985A (en) * 2009-06-10 2010-12-24 Fujitsu Ten Ltd Apparatus and method for detecting object
KR20150043145A (en) * 2013-10-14 2015-04-22 삼성전자주식회사 Method for measuring changes of distance between the camera and the object using object tracking , Computer readable storage medium of recording the method and a device measuring changes of distance
KR20170012666A (en) * 2015-07-22 2017-02-03 (주)인스페이스 Apparatus for detecting moving object and method for controlling the same
KR20180045745A (en) * 2016-10-26 2018-05-04 삼성에스디에스 주식회사 Apparatus and method for extracting objects in view point of moving vehicle
KR102121974B1 (en) 2019-12-05 2020-06-12 대한민국 Disaster damage investigation·analysis system using drone and disaster damage investigation·analysis method
KR20220114820A (en) * 2021-02-09 2022-08-17 주식회사 라온버드 System and method for removing camera movement in video

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
권혁태, 박세형, 성현승, "고해상도 경사촬영 동영상 이동물체 탐지를 위한 지역적 배경 움직임 분석", 2019 한국군사과학기술학회 종합학술대회, 2019. 6.

Similar Documents

Publication Publication Date Title
Liu et al. Multi-camera multi-object tracking
KR101071352B1 (en) Apparatus and method for tracking object based on PTZ camera using coordinate map
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
Santoro et al. Crowd analysis by using optical flow and density based clustering
Linger et al. Aerial image registration for tracking
Okuma et al. Automatic rectification of long image sequences
Xu et al. Dynamic obstacle detection based on panoramic vision in the moving state of agricultural machineries
JP2007188294A (en) Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program
Pan et al. Depth map completion by jointly exploiting blurry color images and sparse depth maps
JP2018055367A (en) Image processing device, image processing method, and program
Funde et al. Object detection and tracking approaches for video surveillance over camera network
Delibasoglu UAV images dataset for moving object detection from moving cameras
TWI509568B (en) Method of detecting multiple moving objects
Zhang et al. An optical flow based moving objects detection algorithm for the UAV
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Sincan et al. Moving object detection by a mounted moving camera
KR102629213B1 (en) Method and Apparatus for Detecting Moving Objects in Perspective Motion Imagery
Zhou et al. Video stabilization and completion using two cameras
Yu et al. Accurate motion detection in dynamic scenes based on ego-motion estimation and optical flow segmentation combined method
Patil Techniques and methods for detection and tracking of moving object in a video
KR101646580B1 (en) Device and method for detecting/tracking low-body part
AlGhamdi et al. Automatic motion tracking of a human in a surveillance video
Zhang et al. An IR and visible image sequence automatic registration method based on optical flow
CN113870307A (en) Target detection method and device based on interframe information
KR101980899B1 (en) Apparatus for detecting of inside wall frame in single image using orthogonal vanishing points and method thereof

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant