KR20080017521A - Method for multiple movement body tracing movement using of difference image - Google Patents

Method for multiple movement body tracing movement using of difference image Download PDF

Info

Publication number
KR20080017521A
KR20080017521A KR1020060078616A KR20060078616A KR20080017521A KR 20080017521 A KR20080017521 A KR 20080017521A KR 1020060078616 A KR1020060078616 A KR 1020060078616A KR 20060078616 A KR20060078616 A KR 20060078616A KR 20080017521 A KR20080017521 A KR 20080017521A
Authority
KR
South Korea
Prior art keywords
objects
block
difference image
mobile object
multiple mobile
Prior art date
Application number
KR1020060078616A
Other languages
Korean (ko)
Inventor
문철홍
Original Assignee
문철홍
(주)휴먼세미컴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 문철홍, (주)휴먼세미컴 filed Critical 문철홍
Priority to KR1020060078616A priority Critical patent/KR20080017521A/en
Publication of KR20080017521A publication Critical patent/KR20080017521A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

A method for tracing a multiple object using difference images is provided to trace multiple objects rapidly and exactly by confirming the existence of a multiple mobile object on the basis of difference images, separating the objects of the multiple mobile object using projection vectors, obtaining the direction of the multiple mobile object through the comparison between the objects obtained at the previous frame and the objects obtained at the present frame, setting a reference block for a big edge portion in the obtained direction, and carrying out block matching. In tracing a multiple mobile object, a control part obtains a difference image from the image signals inputted through a CCD camera. If two difference images are obtained, the control part separates the objects of the multiple mobile object respectively using projection vectors from the two difference images. Then the control part establishes a reference block for a sharply changed edge portion of each of the objects. By carrying out block matching between the established reference block and the data interval of the present difference image, the control part traces the multiple mobile object.

Description

차 영상을 이용한 다중 물체 추적 방법{METHOD FOR MULTIPLE MOVEMENT BODY TRACING MOVEMENT USING OF DIFFERENCE IMAGE}Multi-object tracking method using difference image {METHOD FOR MULTIPLE MOVEMENT BODY TRACING MOVEMENT USING OF DIFFERENCE IMAGE}

도 1은 본 발명에 따른 차 영상을 이용한 다중 물체 추적 방법의 흐름도이다. 1 is a flowchart of a multi-object tracking method using a difference image according to the present invention.

도 2 내지 9는 본 발명에 따른 차 영상을 이용한 다중 물체 추적 방법의 상세 설명도이다. 2 to 9 are detailed explanatory diagrams of a multi-object tracking method using a difference image according to the present invention.

본 발명은 차 영상을 이용한 다중 물체 추적 방법에 관한 것으로, 더욱 상세하게는 카메라를 통하여 순차적으로 입력된 영상에서 추출한 차 영상을 이용하여 다수의 이동 물체를 동시에 추적할 수 있는 차 영상을 이용한 다중 물체 추적 방법에 관한 것이다. The present invention relates to a multi-object tracking method using a car image, and more particularly, to a multi-object using a car image capable of simultaneously tracking a plurality of moving objects using a car image extracted from a sequentially input image through a camera. It is about a tracking method.

일반적으로 다중 물체 추적 방법은 항공기나 유도 무기와 같은 군사적인 목적뿐만 아니라 물체 인식, 로봇, 감시 시스템, 무인 차량 시스템과 같은 다양한 응용 분야에서 적용된다. In general, the multi-object tracking method is applied to various applications such as object recognition, robots, surveillance systems, unmanned vehicle systems, as well as military purposes such as aircraft and guided weapons.

다중 물체 추적은 이동하는 객체를 분리하는 것과 이동 물체를 추적하는 방법으로 크게 나뉘게 된다. Multi-object tracking is divided into two methods: separating moving objects and tracking moving objects.

첫째의 객체 분리는 투영 벡터를 통해 각각의 객체를 분리하는 방법으로 X축과 Y축에 대해서 투영 벡터를 실시하여 객체를 분리하였다. 두 번째의 이동물체 추적은 차 영상 기반의 방법, 블록 매칭을 이용하여 추적하였다. In the first object separation, each object is separated by a projection vector, and the objects are separated by performing projection vectors on the X and Y axes. The second moving object tracking was tracked using difference image based method, block matching.

그러나 차 영상은 정지영상에서 이동물체를 검출하여 추적하는 방법으로 간단한 물체 추적은 가능하지만 복잡한 물체에 대해서는 힘들다. 그리고 블록 정합은 정확한 물체 추적을 할 수 있지만 블록 전체에 대해 블록 정합을 실시하였을 때 연산량이 많기 때문에 시간이 너무 많이 걸린다는 단점이 있었다. However, the car image is a method of detecting and tracking a moving object from a still image, but simple object tracking is difficult for complex objects. In addition, block matching can perform accurate object tracking, but it takes too much time because of large amount of computation when block matching is performed for the entire block.

본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로, 그 목적은 차 영상을 기반으로 이동물체의 유무를 확인하고 투영 벡터를 이용하여 차 영상에 대해 이동물체의 각 객체를 구별하며 전 프레임(t-1)에서 구해진 객체들과 현 프레임(t)에서 구한 객체들 간의 비교를 통해 이동물체의 움직임 방향을 구하고 정확한 블록 정합을 실시하기 위해 에지를 구한 다음 이동하는 방향에서 에지가 큰 부분에 대해 기준 블록을 설정하여 블록 정합을 실시함으로써 신속·정확한 다중 물체 추적이 가능한 차 영상을 이용한 다중 물체 추적 방법을 제공하는 데 있다. The present invention has been made to solve the above-described problems, and its object is to identify the presence or absence of a moving object based on the difference image and to distinguish each object of the moving object with respect to the difference image using the projection vector, -1) to find the direction of movement of the moving object through comparison between the objects obtained in the current frame (t) and to obtain the correct block matching The present invention provides a multi-object tracking method using a difference image that enables fast and accurate multi-object tracking by setting blocks and performing block matching.

이하, 본 발명에 따른 차 영상을 이용한 다중 물체 추적 방법의 바람직한 실시 예를 상세히 설명한다.Hereinafter, a preferred embodiment of a multi-object tracking method using a difference image according to the present invention will be described in detail.

먼저, 도 1은 본 발명에 따른 다중 물체의 추적 방법의 흐름도로서, 개략적으로 설명하면 다음과 같다. First, FIG. 1 is a flowchart of a tracking method of multiple objects according to the present invention.

CCD 카메라로부터 입력된 NTSC 아날로그 신호를 그레버 보드를 이용하여 RGB데이터를 구하고 Y 신호의 프레임으로 변환한다.The NTSC analog signal input from the CCD camera is used to obtain RGB data using the grabber board, and is converted into a frame of the Y signal.

이때 차 영상을 구하기 위해 전(t-1) Y 프레임이 있는지를 확인하고 없을 시에는 다음 영상이 들어올 때까지 대기한다.At this time, to find the difference image, it checks whether there is a previous (t-1) Y frame, and if not, it waits until the next image comes in.

두 개의 영상이 획득되면 차 영상을 구한다.When two images are acquired, a difference image is obtained.

재차 차 영상을 획득하여, 투영 벡터를 이용하여 다중 이동 물체의 객체를 분리한다. The image is acquired again and the objects of the multiple moving objects are separated using the projection vector.

분리된 데이터를 이용하여 두 프레임의 각각 대응되는 객체를 구분하고 구분된 객체들의 영역 데이터를 비교하여 이동 방향을 검출한다.Using the separated data, the corresponding objects of the two frames are distinguished, and the moving direction is detected by comparing the area data of the separated objects.

정확한 블록 정합을 위해 각각의 객체의 에지 변화가 심한 부분에 대해 기준 블록을 설정한다. 설정된 기준 블록과 현 차 영상의 데이터 구간을 블록 정합하여 다중 물체를 추적한다.For accurate block matching, reference blocks are set for the areas where the edge change of each object is severe. Multiple objects are tracked by block matching the set reference block with the data section of the current image.

다음, 도 2 내지 4를 참조하여 상기의 차 영상 검출과정을 설명한다. Next, the difference image detection process will be described with reference to FIGS. 2 to 4.

CCD카메라로부터 촬영된 배경 데이터가 서로 비슷하다는 것을 이용하여 이동에 따른 차 영상을 구한다. The difference image according to the movement is obtained by using the similarity of the background data photographed from the CCD camera.

도 2와 같은 두 개의 원 영상을 도 3과 도 4와 같이 투영 벡터를 이용하여 가장 유사한 부분을 검출하여 이동 거리를 검사하고 차 영상을 구한다.The two original images as shown in FIG. 2 are detected using the projection vector as shown in FIGS. 3 and 4 to detect the most similar parts, and the moving distance is examined to obtain a difference image.

도 3은 원 영상을 각각 X축에 의해 투영한 것으로 상하 이동 거리를 검사하기 위한 것이다. 도 3의 (a)는 각각의 원 영상에 대해 투영한 그림이고 도 3의 (b)는 두 개의 투영 벡터를 비교하여 가장 유사한 부분에 대해 이동 거리를 검출하는 것이다. 3 is a projection of the original image by the X-axis, respectively, to examine the vertical movement distance. FIG. 3 (a) shows a projected image for each original image, and FIG. 3 (b) compares two projection vectors to detect moving distances for the most similar parts.

도 4는 Y축에 의해 투영한 것으로 카메라의 좌우 이동 거리를 검사한다. 도 4의 (a)는 각각의 원 영상에 대해 Y축 투영한 그림이고 도 4의 (b)는 두 개의 투영 벡터를 비교하여 가장 유사한 부분에 대해 이동 거리를 검출하는 것이다. 4 is a projection along the Y-axis to check the left and right movement distance of the camera. FIG. 4A illustrates a Y-axis projection of each original image, and FIG. 4B compares two projection vectors to detect moving distances for the most similar portions.

다음, 도 5를 참조하여 상기의 객체분리를 설명한다. Next, the object separation will be described with reference to FIG. 5.

객체 분리는 이동 물체가 다중으로 있을 때 각각의 객체의 이동 거리를 추출하기 위해 객체를 분리한다. Object separation separates objects to extract the moving distance of each object when there are multiple moving objects.

즉, 도 5에 도시한 바와 같이 2개의 원영상의 차 영상을 투영 벡터 사용하여 각각의 객체를 분리한다. 도 5의 (a)는 두 프레임의 원영상의 차 영상이다. 도 5의 (b)는 첫 번째로 X축 투영을 실시한 것으로 X축 방향으로 데이터가 있는 부분만을 영역으로 설정을 한다. 도 5의 (c)는 도 5의 (b)에서 나눈 영역에 대해 Y축 방향으로 투영하여 다시 분리를 실시한다. 도 5의 (b)에서 3개의 영역이 설정된 영역을 이용하여 각각 Y축 투영 벡터를 실시하여 4개의 물체로 분리한다. That is, as shown in Fig. 5, the respective images are separated using the projection vector of the difference images of the two original images. 5A is a difference image of an original image of two frames. In FIG. 5B, the first X-axis projection is performed, and only a portion having data in the X-axis direction is set as an area. (C) of FIG. 5 projects in the Y-axis direction with respect to the area | region divided by FIG. 5 (b), and performs separation again. In FIG. 5B, the Y-axis projection vector is implemented using the regions where the three regions are set, and separated into four objects.

도 5의 (d)는 도 5의 (c)에서 분리하여 설정된 영역 각각에 대해 X축 투영 벡터를 실시한 것으로 더욱 정확한 물체를 분리하기 위해 실시하였다. 도 5의 (e)는 세 번의 투영 벡터를 통해 각각의 객체를 분리한 모습이다.FIG. 5D illustrates an X-axis projection vector for each of the areas set separately from FIG. 5C, to more accurately separate objects. FIG. 5E shows that each object is separated through three projection vectors.

다음은 상기의 블록 정합에 관하여 설명한다. Next, the block matching described above will be described.

블록 정합 알고리즘은 움직임 벡터를 검출하는 부분에서 많이 사용하고 있다. 시간 차이에 의해 물체가 어떻게 이동하였는지를 검출하는 것으로 n 프레임과 (t-1) 프레임을 블록단위로 나누어 정합을 실시한다. 블록 정합 알고리즘으로 MSE와 MAE로 대칭되는 픽셀 차의 제곱 합과 절대 합으로 가장 작은 값을 가지는 값이 정합한 블록이다. Block matching algorithms are frequently used in the detection of motion vectors. By detecting how the object moves by the time difference, matching is performed by dividing n frames and (t-1) frames by block unit. The block matching algorithm is a block in which the sum of squares of the pixel differences symmetrical with MSE and MAE and the smallest value with absolute sum match.

본 발명에서는 MAE 블록 정합 알고리즘을 사용하였다. 첨부된 도 7은 블록 정합을 하는 방법을 도시한 것이다. In the present invention, the MAE block matching algorithm is used. FIG. 7 shows a method of performing block matching.

t 프레임에 있는 기준 블록은 (t-1) 프레임과 정합하여 가장 유사한 블록을 찾기 위한 블록이다. (t-1) 프레임의 정합 구간은 기준 블록과 같은 유사한 블록이 있는지 찾는 구간으로 (t-1) 프레임 전체에 대해 블록 정합을 실시할 경우 연산량이 많기 때문에 정합 구간을 설정하여 정합 구간 내에서만 기준 블록을 설정한다.The reference block in the t frame is a block for matching the (t-1) frame to find the most similar block. (t-1) Frame matching section is a section to find if there is a similar block like the reference block. (t-1) Since block matching is performed for the entire frame, a large amount of calculation is required. Set the block.

대상 블록은 정합 구간 내에서 기준 블록과 정합 할 블록이다. 기준 블록과 대상 블록을 정합하여 얻은 결과 중 가장 작은 값이 일치한 블록으로 설정하고 이동 거리는 기준 블록과 일치한 블록에서 기준 블록 좌표를 뺀 값으로 그림에서와 같이 일치한 블록의 처음 좌표 (n+Δk, m+Δl)와 기준 좌표 (i, j) 뺀 만큼 이동한 것이다. The target block is a block to be matched with the reference block in the matching section. The result obtained by matching the reference block and the target block is set to the block where the smallest value is matched, and the moving distance is obtained by subtracting the reference block coordinates from the block matching the reference block, as shown in the figure. Δk, m + Δl) and reference coordinates (i, j) minus

블록 정합 순서는 도 7에 도시한 바와 같이 정합 구간의 처음 좌표인 (n, m) 좌표 점을 시작으로 우측으로 한 픽셀씩 이동을 한다. 그리고 Δk가 k-B만큼 이동했을 때 (n+1, m)의 위치에서부터 다시 시작하여 정합 구간 전체에 대해서 블록 정 합을 실시한다. MAE 블록 정합 알고리즘 수식은 도 8과 같다.As shown in FIG. 7, the block matching sequence moves one pixel to the right from the (n, m) coordinate point, which is the first coordinate of the matching section. When Δk is moved by k-B, block matching is performed for the entire matching section, starting again from the position of (n + 1, m). The MAE block matching algorithm equation is shown in FIG. 8.

이하에서는 기준 블록 설정 과정에 대하여 설명한다. Hereinafter, a reference block setting process will be described.

블록 정합시 기준 블록은 정합 구간에서 찾아야 하는 유사한 블록의 기준이 되는 것으로 정확성을 높이기 위해 찾고자 하는 물체와 변화가 심한 부분에 대해 설정해야 한다. 기준 블록 설정은 두개의 차영상을 이용하여 각각의 객체에 대응 되는 블록을 이용하여 이동 물체의 이동 방향을 검출하고 각각의 이동 물체에 대해 기준 블록을 설정하기 전에 기준 좌표를 설정하고 기준 좌표에서 일정 블록 내에서 가장 에지가 큰 부분에 기준 블록을 설정한다.In block matching, the reference block is a standard of similar blocks to be found in the matching section. To increase accuracy, the reference block should be set for the object to be searched and the change part. The reference block setting uses two difference images to detect the moving direction of the moving object using the block corresponding to each object, and sets the reference coordinate before setting the reference block for each moving object. The reference block is set at the largest edge in the block.

도 6은 이동 물체의 움직이는 방향을 이용하여 현재 움직이고 있는 물체에 기준 블록을 설정하기 위한 기준 좌표를 설정하는 그림이다. 기준 좌표는 정합 구간 경계에 설정하여 기준 블록 설정에 보조적인 역할을 한다. (n-1 Frame) - (n-2 Frame)의 전 차 영상과 (n Frame) - (n-1 Frame)의 현 차 영상의 각각의 대응 객체 블록을 이용하여 도 6과 같이 4가지 경우에 대해 기준 좌표를 설정한다. FIG. 6 is a diagram for setting reference coordinates for setting a reference block to an object that is currently moving using a moving direction of the moving object. The reference coordinate is set at the boundary of the matching section to play a role in setting the reference block. In four cases as shown in FIG. 6, using the corresponding object blocks of (n-1 Frame)-(n-2 Frame) and the current image of (n Frame)-(n-1 Frame). Set the reference coordinate for.

도 9는 3개의 영상에 대해 도 6의 방법으로 기준 좌표를 설정하고 에지 변화가 심한 부분에 대해 기준 블록을 설정하는 방법을 보여주고 있다. (a)와 (b)의 차영상(d), (b)와 (c)의 차영상 (e)를 대응 블록을 비교하여 (f)와 같이 물체의 이동 방향을 추출하고 (g)와 같이 기준 좌표를 설정한다. 그리고 일정 범위 내에서 에지가 높은 부분에 대해 (h)와 같이 기준 블록을 설정한다. 그리고 정합 구간은 (h)의 차영상 데이터 영역을 정합 구간으로 설정한다.FIG. 9 illustrates a method of setting reference coordinates for three images and setting a reference block for a portion of which edge change is severe. Comparing the difference blocks (d) of (a) and (b) and (e) of (b) and (c) by comparing the corresponding blocks, the moving direction of the object is extracted as shown in (f), and as shown in (g). Set the reference coordinate. Then, the reference block is set as shown in (h) for the portion having the high edge within a certain range. The matching section sets the difference image data region of (h) as the matching section.

이로써, 기준블록과 정합 블록 간의 이동거리를 구함으로써 다중 물체를 추 적할 수 있게 된다. As a result, multiple objects can be tracked by obtaining a moving distance between the reference block and the matching block.

이상에서 상세히 설명한 바와 같이, 본 발명에 따르면 차 영상을 기반으로 이동물체의 유무를 확인하고 투영 벡터를 이용하여 차 영상에 대해 이동물체의 각 객체를 구별하며 전 프레임(t-1)에서 구해진 객체들과 현 프레임(t)에서 구한 객체들 간의 비교를 통해 이동물체의 움직임 방향을 구하고 정확한 블록 정합을 실시하기 위해 에지를 구한 다음 이동하는 방향에서 에지가 큰 부분에 대해 기준 블록을 설정하여 블록 정합을 실시함으로써 신속·정확한 다중 물체 추적이 가능하다는 효과가 있다. As described above in detail, according to the present invention, the presence or absence of a moving object is determined based on the difference image, the object obtained from the previous frame (t-1) by distinguishing each object of the moving object with respect to the difference image using the projection vector. To find the direction of movement of the moving object through the comparison between the objects obtained from the current frame (t) and the block matching by setting the reference block for the part with the large edge in the direction of movement. By doing this, there is an effect that fast and accurate multi-object tracking is possible.

Claims (1)

차영상을 이용한 다중 물체 추적 방법에 있어서, In the multi-object tracking method using the difference image, CCD카메라로부터 영상 신호를 입력받아 차 영상을 구하는 단계와, Obtaining a difference image by receiving an image signal from a CCD camera; 두 개의 차 영상으로부터 투영 벡터를 이용하여 다중 이동 물체의 객체를 분리하는 단계와, Separating the objects of the multi moving object using the projection vector from the two difference images, 분리된 각 객체들의 에지 변화가 심한 부분에 대하여 기준 블록을 설정하는 단계와, Setting a reference block for the edge change of each separated object; 설정된 기준 블록과 현 차 영상의 데이터 구간을 블록 정합하여 다중 물체를 추적하는 단계로 이루어진 것을 특징으로 하는 차영상을 이용한 다중 물체 추적 방법. A method of tracking a multi-object using a difference image, comprising: matching a set reference block with data sections of a current difference image to block multiple objects.
KR1020060078616A 2006-08-21 2006-08-21 Method for multiple movement body tracing movement using of difference image KR20080017521A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060078616A KR20080017521A (en) 2006-08-21 2006-08-21 Method for multiple movement body tracing movement using of difference image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060078616A KR20080017521A (en) 2006-08-21 2006-08-21 Method for multiple movement body tracing movement using of difference image

Publications (1)

Publication Number Publication Date
KR20080017521A true KR20080017521A (en) 2008-02-27

Family

ID=39384816

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060078616A KR20080017521A (en) 2006-08-21 2006-08-21 Method for multiple movement body tracing movement using of difference image

Country Status (1)

Country Link
KR (1) KR20080017521A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010005251A3 (en) * 2008-07-09 2010-04-22 광주과학기술원 Multiple object tracking method, device and storage medium
WO2013077562A1 (en) * 2011-11-24 2013-05-30 에스케이플래닛 주식회사 Apparatus and method for setting feature points, and apparatus and method for object tracking using same
KR101456340B1 (en) * 2012-12-27 2014-11-03 조선대학교산학협력단 Camera Movement Control Apparatus and Method using Motion Vector
CN107945233A (en) * 2017-12-04 2018-04-20 深圳市沃特沃德股份有限公司 Vision sweeping robot and its recharging method
CN110365902A (en) * 2019-07-23 2019-10-22 湖南省湘电试研技术有限公司 The video anti-fluttering method and system of intelligent safety helmet based on Harris Corner Detection

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010005251A3 (en) * 2008-07-09 2010-04-22 광주과학기술원 Multiple object tracking method, device and storage medium
KR100958379B1 (en) * 2008-07-09 2010-05-17 (주)지아트 Methods and Devices for tracking multiple 3D object, Storage medium storing the same
US8467576B2 (en) 2008-07-09 2013-06-18 Gwangju Institute Of Science And Technology Method and apparatus for tracking multiple objects and storage medium
WO2013077562A1 (en) * 2011-11-24 2013-05-30 에스케이플래닛 주식회사 Apparatus and method for setting feature points, and apparatus and method for object tracking using same
KR101456340B1 (en) * 2012-12-27 2014-11-03 조선대학교산학협력단 Camera Movement Control Apparatus and Method using Motion Vector
CN107945233A (en) * 2017-12-04 2018-04-20 深圳市沃特沃德股份有限公司 Vision sweeping robot and its recharging method
CN107945233B (en) * 2017-12-04 2020-11-24 深圳市无限动力发展有限公司 Visual floor sweeping robot and refilling method thereof
CN110365902A (en) * 2019-07-23 2019-10-22 湖南省湘电试研技术有限公司 The video anti-fluttering method and system of intelligent safety helmet based on Harris Corner Detection

Similar Documents

Publication Publication Date Title
Henschel et al. Multiple people tracking using body and joint detections
Kale et al. Moving object tracking using optical flow and motion vector estimation
Hu et al. Moving object detection and tracking from video captured by moving camera
US20060276964A1 (en) Behavior detector and behavior detection method for a vehicle
KR100651034B1 (en) System for detecting targets and method thereof
CN110084830B (en) Video moving object detection and tracking method
KR20080017521A (en) Method for multiple movement body tracing movement using of difference image
Araujo et al. Air-sslam: A visual stereo indoor slam for aerial quadrotors
CN109819206B (en) Object tracking method based on image, system thereof and computer readable storage medium
Cheng et al. An accurate localization scheme for mobile robots using optical flow in dynamic environments
Ramirez et al. A new algorithm for tracking objects in videos of cluttered scenes
JP2013196268A (en) Object detection apparatus and object detection method
Nguyen et al. Real-time target human tracking using camshift and LucasKanade optical flow algorithm
Ye et al. 3D Human behavior recognition based on binocular vision and face–hand feature
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
CN106934818B (en) Hand motion tracking method and system
JP5293429B2 (en) Moving object detection apparatus and moving object detection method
US11373451B2 (en) Device and method for recognizing gesture
Walha et al. Moving object detection system in aerial video surveillance
Sabeti et al. Visual Tracking Using Color Cameras and Time-of-Flight Range Imaging Sensors.
Karamiani et al. Optimal feature points for tracking multiple moving objects in active camera model
Guo et al. Global-Local MAV Detection Under Challenging Conditions Based on Appearance and Motion
Attamimi et al. Object Extraction Using Probabilistic Maps of Color, Depth, and Near-Infrared Information
del-Blanco et al. Object tracking from unstabilized platforms by particle filtering with embedded camera ego motion
Molchanov et al. A real-time system for detection and avoidance of dynamic obstacles for micro UAVs

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application