KR101212316B1 - Movement path extracting method of center points of frame using spatial transformation and motion estimation - Google Patents

Movement path extracting method of center points of frame using spatial transformation and motion estimation Download PDF

Info

Publication number
KR101212316B1
KR101212316B1 KR1020110084523A KR20110084523A KR101212316B1 KR 101212316 B1 KR101212316 B1 KR 101212316B1 KR 1020110084523 A KR1020110084523 A KR 1020110084523A KR 20110084523 A KR20110084523 A KR 20110084523A KR 101212316 B1 KR101212316 B1 KR 101212316B1
Authority
KR
South Korea
Prior art keywords
frame
center point
surf
point
current frame
Prior art date
Application number
KR1020110084523A
Other languages
Korean (ko)
Inventor
이귀상
Original Assignee
전남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단 filed Critical 전남대학교산학협력단
Priority to KR1020110084523A priority Critical patent/KR101212316B1/en
Application granted granted Critical
Publication of KR101212316B1 publication Critical patent/KR101212316B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A movement path extracting method for center points of a frame using spatial transformation and motion estimation is provided to specify the outline of the surroundings of an object instead of a segment by using a specified route, to search for some information for object and to show a curved text line. CONSTITUTION: A current frame and a previous frame are extracted by sampling an input frame(S10). A SURF(Speeded-Up Robust Feature) characteristic point and a descriptor for the current frame are extracted(S20). A space transformation parameter is estimated(S30). A new position of the center point of the current frame is calculated(S40). By using estimation of block motion of the new location surroundings of the center point, the new position of the center point is redefined(S50). [Reference numerals] (AA) Input image sequence; (BB) Result path of a final frame; (S10) Sampling of an input frame; (S20) Extracting a SURF(Speeded-Up Robust Feature) characteristic point and a descriptor; (S30) Estimating a space transformation parameter; (S40) Calculating the new location of the center point; (S50) Redefining the new position of the center point

Description

공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법 {Movement Path Extracting Method of Center Points of Frame Using Spatial Transformation and Motion Estimation}Movement Path Extracting Method of Center Points of Frame Using Spatial Transformation and Motion Estimation

본 발명은 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 관한 것으로, 보다 상세하게는 휴대폰에 내장된 카메라를 통하여 캡쳐된 이미지 시퀀스의 중앙점을 연결하는 경로를 추출하기 위하여 SURF(Speeded-Up Robust Feature)를 이전 프레임과 현재 프레임 사이의 공간 변환 파라미터를 추정하기 위해 사용하여 정확하고 안정적인 결과를 얻을 수 있는 공간 변환과 움직인 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 관한 것이다.The present invention relates to a method for extracting a moving path of a frame center point using spatial transform and motion estimation. More particularly, the present invention relates to a method of extracting a path connecting a center point of an image sequence captured by a camera embedded in a mobile phone. This paper relates to a method of extracting a moving path of a frame center point using spatial transform and motion estimation that can obtain accurate and stable results by using the speeded-up robust feature to estimate the spatial transform parameter between the previous frame and the current frame. .

최근 휴대폰은 일상 생활에서 폭넓게 사용된다. 예를 들면, 통화 기능에 더하여, 게임, 웹 검색, 이미지와 비디오 프로세싱, 위치 서비스 및 정보관리 등과 같은 여러 애플리케이션을 사용할 수 있는 것을 휴대폰의 이점으로 들 수 있다. 휴대폰은 크기가 작기 때문에, 키보드와 마우스를 사용하는 전통적인 인터렉티브 방법(interactive method)은 사용이 제한된다는 불편함이 있다.Recently, cell phones are widely used in everyday life. For example, in addition to telephony, the benefits of mobile phones include the ability to use a variety of applications such as games, web browsing, image and video processing, location services and information management. Because mobile phones are small in size, the traditional interactive method using a keyboard and mouse has the inconvenience of being limited in use.

따라서, 휴대폰을 위한 새로운 인터렉티브 방법이 개발되고 있으며, 일부는 접촉(contact), 압력(pressure), 틸트(tilt) 및 암시된 생체정보(implicit biometric information) 등과 같은 물리적 조작을 사용한다. 상기에서, 틸트 입력은 탐색 메뉴, 지도 및 3-D 장면이나 문서와 목록 중의 스크롤링(scrolling)을 위해 사용할 수 있다. 다른 인터렉티브 방법에 대한 접근은 휴대폰의 움직임에 기초하고 있다. 휴대폰 등의 기기 움직임을 추정하기 위해 잘 알려진 방법 중의 하나는 가속도센서와 같은 특별한 움직임 센서를 기반으로 한다. 그러나, 가속도 센서를 이용하는 방법은 외부 센서가 설치되어야 한다는 문제가 있다.Thus, new interactive methods for mobile phones are being developed, some using physical manipulations such as contact, pressure, tilt and implicit biometric information. In the above, the tilt input can be used for navigation menus, maps, and scrolling in 3-D scenes or documents and lists. Approaches to other interactive methods are based on mobile phone movement. One well-known method for estimating device movement, such as cell phones, is based on special motion sensors such as acceleration sensors. However, the method using the acceleration sensor has a problem that an external sensor must be installed.

한편 강력한 기능을 갖는 데스크탑 컴퓨터에서는 인터렉티브 방법으로 컴퓨터 비전을 사용하기도 한다. 컴퓨터 비전은 복합 인터렉티브(multimodal interaction), 제스처 인식(gesture recognition), 얼굴 추적(face tracking) 및 신체 추적(body tracking)을 포함한다.Powerful desktop computers, on the other hand, often use computer vision as an interactive method. Computer vision includes multimodal interaction, gesture recognition, face tracking, and body tracking.

최근 휴대폰을 위하여, 내장 카메라에 의해 캡쳐된 이미지 시퀀스(image sequences)를 분석하는 것에 의해 손의 움직임을 검출할 수 있는 티니모션(TinyMotion) 시스템이 개발되어 알려지고 있다. 티니모션 시스템에서, 사용자는 카메라를 사용하여 일련의 움직임의 고유성, 일련의 움직임의 실행에 의해 정의되는 휴대폰의 기능을 제어하는 것이 가능하다.Recently, for mobile phones, TinyMotion system has been developed and known that can detect the movement of the hand by analyzing the image sequence captured by the built-in camera. In TinyMotion systems, it is possible for a user to use a camera to control the functionality of a mobile phone defined by the uniqueness of a series of movements, the execution of a series of movements.

본 발명은 상기와 같은 점에 조감하여 이루어진 것으로서, 내장 카메라로부터 캡쳐된 이미지 시퀀스를 분석하는 것에 의해 휴대용 기기를 위한 새로운 인터렉티브 기술을 제공할 수 있는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법을 제공하는데, 그 목적이 있다.The present invention has been made in view of the above, and the moving path of the frame center point using spatial transform and motion estimation that can provide a new interactive technology for portable devices by analyzing image sequences captured from the built-in camera. To provide an extraction method, the purpose is.

본 발명의 실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법은 입력 프레임 중에서 복잡성을 줄이기 위하여 프레임을 샘플링하는 단계와, 현재 프레임에 대한 SURF(Speeded-Up Robust Feature) 특성점과 설명자(descriptor)를 추출하는 단계와, 이전 프레임과 현재 프레임의 특성점을 이용하여 공간 변환 파라미터를 추정하는 단계와, 현재 프레임의 중앙점의 새위치를 계산하는 단계와, 움직임 추정을 이용하여 위치를 재정의하는 단계를 포함하여 이루어진다.According to an embodiment of the present invention, a method for extracting a moving path of a frame center point using spatial transform and motion estimation includes sampling a frame to reduce complexity among input frames, and speed-up robust feature (SURF) characteristics of a current frame. Extracting points and descriptors, estimating spatial transformation parameters using feature points of previous and current frames, calculating new positions of center points of the current frame, and using motion estimation Redefining the location.

상기에서 프레임을 샘플링하면, 처리되기 위하여 필요로 하는 프레임의 수를 줄이는 것이 가능하며, 복잡성이 감소된다.Sampling the frames above makes it possible to reduce the number of frames needed to be processed, which reduces complexity.

상기 SURF 특성점(예를 들면, 중앙점)은 현재 프레임에 대해 추출하며, 이전 프레임에 대한 SURF 특성점은 재사용한다.The SURF feature point (eg, center point) is extracted for the current frame, and the SURF feature point for the previous frame is reused.

상기 공간 변환 파라미터는 현재 프레임과 이전 프레임을 지도로 만들기 위하여 일치하는 특성점을 사용하여 추정한다.The spatial transformation parameters are estimated using matching characteristic points to map the current frame and the previous frame.

상기 중앙점의 새위치에 대한 계산은 이전 프레임의 모든 중앙점의 위치를 상기 추정된 공간 변환 파라미터를 사용하여 이루어진다.The calculation of the new position of the center point is made using the estimated spatial transformation parameters of the positions of all the center points of the previous frame.

상기 위치를 재정의하는 단계는 상기 공간 변환 파라미터가 완벽하지 않고 객체 형상이 왜곡될 수 있기 때문에, 작은 검색 범위에서의 움직임 추정 프로세스가 현재 프레임에서 중앙점의 위치를 재정의하도록 이루어진다.The step of redefining the position is made so that the motion estimation process in a small search range redefines the position of the center point in the current frame since the spatial transformation parameters are not perfect and the object shape may be distorted.

상기와 같은 단계를 통하여 얻어지는 최종 프레임에 있어서, 경로는 프레임 이미지의 모든 중앙점이 함께 연결되는 곡선처럼 정의된다.In the final frame obtained through the above steps, the path is defined as a curve connecting all the center points of the frame image together.

본 발명의 실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 의하면, 카메라의 움직임에 의한 장면에서 일련의 중앙점들을 포함하는 경로를 특정하는 것이 가능하다.According to the moving path extraction method of the frame center point using spatial transformation and motion estimation according to an embodiment of the present invention, it is possible to specify a path including a series of center points in the scene caused by the camera movement.

따라서, 상기 경로를 이용하면 세그먼트(segment) 대신에 객체 주위의 윤곽을 특정하고 객체에 관한 몇몇 정보를 찾을 수 있으며, 이미지로부터 추출하기 위하여 곡선 텍스트 라인(curled text line)을 나타낼 수 있는 등과 같은 많은 실제 애플리케이션에 사용될 수 있다.Thus, the path can be used to specify a contour around an object instead of segments, find some information about the object, display a curved text line to extract from an image, and so on. Can be used for real applications.

도 1은 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법을 개략적으로 나타내는 플로우차트이다.
도 2는 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 프레임을 샘플링하는 간격을 설명하기 위한 블럭도이다.
도 3은 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 이전 프레임의 SURF 특성점을 나타내는 이미지이다.
도 4는 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 현재 프레임의 SURF 특성점을 나타내는 도 3에 대응하는 이미지이다.
도 5는 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 특성점에서 정방형 그리드의 방향을 정렬하는 것에 의한 SURF 설명자의 계산을 나타내는 이미지이다.
도 6은 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 현재 프레임과 이전 프레임 사이의 특성점의 매칭 쌍을 나타내는 이미지이다.
도 7은 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 현재 프레임 안에 이전 프레임으로부터 중앙점을 매핑할 때의 이전 프레임을 나타내는 이미지이다.
도 8은 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 현재 프레임 안에 이전 프레임으로부터 중앙점을 매핑할 때의 도 7에 대응하는 현재 프레임을 나타내는 이미지이다.
도 9는 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, SURF 라이브러리를 공유 라이브러리로 사용한 안드로이드 애플리케이션의 플로우차트이다.
1 is a flowchart schematically illustrating a method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an interval for sampling a frame in a method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.
FIG. 3 is an image illustrating SURF characteristic points of a previous frame in the method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.
FIG. 4 is an image corresponding to FIG. 3 illustrating SURF characteristic points of a current frame in the method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.
FIG. 5 is an image illustrating a calculation of a SURF descriptor by aligning a direction of a square grid at characteristic points in a method of extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.
FIG. 6 is an image illustrating a matching pair of characteristic points between a current frame and a previous frame in the method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.
FIG. 7 is an image illustrating a previous frame when mapping a center point from a previous frame in a current frame in the method for extracting a moving center point of a frame center using spatial transform and motion estimation according to an embodiment of the present invention.
8 is a diagram illustrating a method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention. The image to represent.
9 is a flowchart of an Android application using the SURF library as a shared library in the method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention.

다음으로 본 발명에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법의 바람직한 실시예를 도면을 참조하여 상세하게 설명한다.Next, a preferred embodiment of a moving path extraction method of a frame center point using spatial transform and motion estimation according to the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들에 한정되지 않는다. 그리고 도면에서는 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분을 생략하였으며, 명세서 전체를 통하여 동일한 부분에 대해서는 동일한 도면 부호를 사용한다.As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and the same reference numerals are used for the same parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.Throughout the specification, when an element is referred to as "including " an element, it means that it can include other elements, not excluding other elements, unless specifically stated otherwise.

먼저 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법은 도 1에 나타낸 바와 같이, 프레임 샘플링 단계(S10)와, SURF(Speeded-Up Robust Feature) 특성점(feature points)과 설명자(descriptors) 추출 단계(S20)와, 공간 변환 추정 단계(S30)와, 새위치 계산 단계(S40)와, 위치 재정의 단계(S50)를 포함하여 이루어진다.First, as shown in FIG. 1, a method for extracting a moving path of a frame center point using spatial transform and motion estimation according to an embodiment of the present invention includes a frame sampling step S10 and a speed-up robust feature (SURF) characteristic point. (feature points) and descriptors extraction step S20, a spatial transform estimation step S30, a new position calculation step S40, and a position redefinition step S50.

상기 프레임 샘플링 단계(S10)는 입력 이미지 시퀀스(input image sequences)에서 처리에 필요한 프레임(frame)의 수를 줄이기 위하여 일부 프레임을 샘플링(sampling)한다.The frame sampling step S10 samples some frames in order to reduce the number of frames required for processing in the input image sequences.

상기에서 프레임의 샘플링은 일정한 간격(D)으로 행하도록 구성하는 것이 가능하다.In the above, sampling of the frame can be configured to be performed at a constant interval (D).

예를 들면, 2개의 샘플링된 프레임 사이의 간격(D)을, 도 2에 나타낸 바와 같이 D를 5로 설정하는 것도 가능하다.For example, it is also possible to set D to 5, as shown in FIG. 2, for the interval D between two sampled frames.

상기 샘플링 과정은 모든 이미지 시퀀스를 처리할 때에 발생하는 복잡성을 줄이는데 도움을 준다.The sampling process helps to reduce the complexity incurred in processing all image sequences.

상기와 같이 샘플링된 프레임을 사용하는 경우에도, 이미지 시퀀스에서 모든 프레임 중앙점(frame center points)을 연결하는 경로를 근사시키는 것이 가능하다.Even when using the sampled frame as described above, it is possible to approximate a path connecting all frame center points in the image sequence.

그리고 상기 중앙점을 연결하는 경로를 유연한 경로로 생성하는 것이 필요한 경우에는, 최종 프레임에서 얻어진 샘플링된 프레임의 중앙점을 연결하는 베지어 곡선(Bezier curve)으로 나타낼 수 있다.When it is necessary to generate a path connecting the center point as a flexible path, it may be represented by a Bezier curve connecting the center point of the sampled frame obtained in the final frame.

또한 공간 변환 추정 단계(S30)에서의 공간 변환 파라미터는 성공적으로 샘플링된 2개의 프레임 사이의 간격이 충분히 큰 경우에 효과적으로 추정할 수 있다. In addition, the spatial transform parameter in the spatial transform estimation step S30 can be effectively estimated when the interval between two successfully sampled frames is sufficiently large.

상기에서 샘플링된 프레임의 해상도를 320*240으로 축소하는 것도 가능하며, 샘플링된 프레임을 그레이 스케일(gray scale) 이미지로 변환하는 것도 가능하다. It is also possible to reduce the resolution of the sampled frame to 320 * 240, and to convert the sampled frame to a gray scale image.

상기 SURF 특성점과 설명자 추출 단계(S20)에서 사용하는 SIFT(Scale Invariant Feature Transform) 및 SURF(Speeded-Up Robust Feature)는 강력한 이미지 검출자(detector)이고 설명자(descriptor)이다.The scale invariant feature transform (SIFT) and the speeded-up robust feature (SURF) used in the SURF feature point and descriptor extraction step (S20) are powerful image detectors and descriptors.

상기 SIFT 및 SURF는 스케일의 변화, 회전, 조명의 변화, 부분적인 어파인 불변성(affine invariance)으로 안정된다. 따라서, SIFT 및 SURF는 이전 프레임과 현재 프레임 사이의 공간 변환을 추정하도록 사용될 수 있는 특성점(feature points)의 검출에 적합하다.The SIFT and SURF are stabilized with variations in scale, rotation, changes in illumination, and partial invariance. Thus, SIFT and SURF are suitable for the detection of feature points that can be used to estimate the spatial transformation between the previous frame and the current frame.

상기 SIFT 및 SURF에 있어서, 같은 특성점은 이전 프레임과 현재 프레임 모두에서 검출될 수 있고, 이 특성점의 관심 영역의 크기를 결정하는 것이 가능하다. 상기 관심 영역의 크기는 검출된 특성점이 위치하는 크기에 관련되어 결정된다.In the SIFT and SURF, the same characteristic point can be detected in both the previous frame and the current frame, and it is possible to determine the size of the region of interest of this characteristic point. The size of the region of interest is determined in relation to the size at which the detected characteristic point is located.

상기 SIFT 검출자는 3개의 주요 단계로 이루어진다. 1) 첫 번째 단계에서, 특성점이 검출된다. 이 이미지는 다른 크기에서 가우시안 필터(Gaussian filter)로 겹쳐진다. 많은 크기에서 발생된 가우시안 차이(DoG;Difference of Gaussian)의 최대/최소는 특성점과 같이 얻어진다. 2) 크기-공간의 극단 검출은 너무 많은 특성점을 만들고 대부분 불안정하기 때문에, 정확한 위치, 스케일, 주요 곡률의 비율을 위한 근접 데이터를 세부적으로 결정한다. 이 과정에서, 낮은 콘트라스트를 갖거나 저조하게 가장자리에 위치한 점이 제거된다. 3) 마지막으로, 각 특성점은 지역 이미지 기울기 방향에 기초하여 하나 또는 더 많은 방위로 할당된다. 특성점 설명자는 이 방위와 관계하여 나타낼 수 있으므로, 회전 불변성이 이루어진다. The SIFT detector consists of three main steps. 1) In the first step, characteristic points are detected. This image is superimposed with a Gaussian filter at different sizes. The maximum / minimum of the Difference of Gaussian (DoG) generated at many sizes is obtained with the characteristic point. 2) The extreme detection of the size-space creates too many characteristic points and is mostly unstable, thus detailing the proximity data for the exact position, scale, and ratio of major curvature. In this process, points with low contrast or poorly located edges are removed. 3) Finally, each feature point is assigned one or more orientations based on the local image tilt direction. Since the characteristic point descriptor can be expressed in relation to this orientation, rotational invariance is achieved.

상기와 같은 SIFT에 기초하여, SURF 검출자는 효율성을 높이기 위하여 많은 근사와 함께 제안된다. 상기 SURF 검출자는 낮은 복잡성과 높은 정확도 때문에 헤시안 행렬(Hessian matrix)을 기반으로 이루어진다.Based on such SIFT, SURF detector is proposed with many approximations to increase efficiency. The SURF detector is based on a Hessian matrix because of its low complexity and high accuracy.

상기에서 헤시안 행렬은 가우시안 차이(DoG) 스케일(scale) 대신에 사용된다.The Hessian matrix is used instead of the Gaussian difference (DoG) scale.

그리고, SURF 검출자는 박스 필터가 계산의 복잡성을 줄이기 위하여 가우시안의 두번째 파생물을 근사치로 사용한다. 여기에서, 어떤 크기의 박스 필터는 완전한 이미지의 평균을 활용하는 것에 의해 일정 시간 동안 계산된다. 완전한 이미지에서, 각 위치는 원점과 이 위치에 의해 형성된 사각 영역안의 입력 이미지의 모든 픽셀의 합을 나타낸다. 어느 수직한 사각 영역의 강도 값의 합은 3개의 부가로 산출할 수 있다. 헤시안 피라미드는 원래 이미지 위에 다른 크기의 박스필터를 적용하는 것에 의해 만들어진다. 이 특성점은 지역 최대 3*3*3 을 넘어 인근을 찾는 것에 의해 위치된다. 헤시안 행렬의 결정의 최대는 이 스케일과 이미지 공간에서 보간된다.The SURF detector then approximates the second derivative of the Gaussian for the box filter to reduce the computational complexity. Here, a box filter of any size is calculated for a period of time by utilizing the average of the complete image. In a complete image, each position represents the sum of the origin and all pixels of the input image within the rectangular region formed by this position. The sum of the intensity values of any vertical rectangular region can be calculated with three additions. Hessian pyramids are created by applying different sized box filters onto the original image. This characteristic point is located by finding neighborhoods beyond the maximum 3 * 3 * 3 area. The maximum decision of the Hessian matrix is interpolated in this scale and image space.

상기 SURF는 더 낮은 계산적인 복잡성과 함께 SIFT와 비교하여 좋은 결과를 발생시킬 수 있다.The SURF can produce good results compared to SIFT with lower computational complexity.

상기 프레임 샘플링 단계(S10)에서 샘플링된 이미지 시퀀스에 있어서, 현재 프레임은 Fn으로 나타내고, 이전(참조) 프레임은 Fn -1로 나타낸다.In the image sequence sampled in the frame sampling step S10, the current frame is represented by F n , and the previous (reference) frame is represented by F n −1 .

상기 SURF 특성점은 위치되고, SURF 설명자는 현재 프레임(Fn)에 대하여 계산한다.The SURF characteristic point is located and the SURF descriptor calculates for the current frame F n .

상기에서 이전 프레임(Fn -1)의 특성점은 이미 추출되었기 때문에 재사용된다.In the above, the characteristic point of the previous frame F n -1 is reused since it has already been extracted.

도 3에는 이전 프레임(Fn -1)에 대해 SURF 특성점을 검출한 상태를 나타내고, 도 4에는 현재 프레임(Fn)에 대해 SURF 특성점을 검출한 상태를 나타낸다. 즉 도 3 및 도 4는 휴대폰에 내장된 카메라를 통하여 입력된 이미지 시퀀스의 SURF 특성점(또는 중앙점)을 검출한 상태를 나타내며, 휴대폰을 객체(물체)의 윤곽을 따라 이동시킴에 따라 얻어지는 각 프레임에 있어서의 SURF 특성점(또는 중앙점)을 검출한 상태를 나타낸다.3 shows a state in which the SURF characteristic point is detected for the previous frame F n -1 , and FIG. 4 shows a state in which the SURF characteristic point is detected for the current frame F n . 3 and 4 illustrate a state in which the SURF characteristic point (or center point) of the image sequence input through the camera embedded in the mobile phone is detected, and is obtained by moving the mobile phone along the outline of an object (object). The state which detected SURF characteristic point (or center point) in a frame is shown.

여기에서, 현재 프레임(Fn)의 SURF 특성점(Φn)과 이전 프레임(Fn -1)의 SURF 특성점(Φn-1)의 2개의 세트는 다음의 수학식 1 및 수학식 2와 같이 정의된다.Here, two sets of the SURF characteristic point Φ n of the current frame F n and the SURF characteristic point Φ n-1 of the previous frame F n -1 are represented by Equations 1 and 2 below. Is defined as:

Figure 112011065786413-pat00001
Figure 112011065786413-pat00001

Figure 112011065786413-pat00002
Figure 112011065786413-pat00002

상기 수학식 1 및 수학식 2에서, m1 및 m2는 현재 프레임과 이전 프레임에서 검출된 특성점의 수를 나타내고, [(xi,yi),sii] 및 [(x'j,y'j),s'j,α'j]은 각각 특성점(∀i∈(1,...,m1) 및 ∀j∈(1,...,m2))의 위치(x,y), 스케일(s), 방향(α)을 나타낸다.In Equations 1 and 2, m1 and m2 represent the number of characteristic points detected in the current frame and the previous frame, and [(x i , y i ), s i , α i ] and [(x ' j). , y ' j ), s' j , α' j ] are the positions (x,) of the characteristic points (∀i∈ (1, ..., m1) and ∀j∈ (1, ..., m2)), respectively. y), scale (s) and direction (alpha) are shown.

상기 특성점에 대한 SURF 설명자의 2개의 세트(Ω)는 다음의 수학식 3 및 수학식 4와 같이 정의된다.Two sets (Ω) of SURF descriptors for the characteristic points are defined as in Equations 3 and 4 below.

Figure 112011065786413-pat00003
Figure 112011065786413-pat00003

Figure 112011065786413-pat00004
Figure 112011065786413-pat00004

상기 수학식 3 및 수학식 4에서, ωi 및 ωj(i∈(1,...,m1) 및 j∈(1,...,m2))는 각각 특성점([(xi,yi),sii] 및 [(x'j,y'j),s'j,α'j])에 관련된 설명자이다.In Equations 3 and 4, ω i and ω j (i∈ (1, ..., m1) and j∈ (1, ..., m2)) are characteristic points ([(x i , y i ), s i , α i ] and [(x ' j , y' j ), s ' j , α' j ]).

상기 SURF 설명자는 특성점의 주위를 사용하여 계산된다.The SURF descriptor is calculated using the perimeter of the characteristic point.

먼저, 각 특성점의 지배적인 방향은 검출된 특성점 주위의 원형 영역을 구축하는 것에 의해 추정된다.First, the dominant direction of each characteristic point is estimated by building a circular region around the detected characteristic point.

도 5에 나타낸 바와 같이, 사각 영역은 지배적인 방향을 따라 정렬되고 중심지워진다.As shown in Figure 5, the rectangular area is aligned and centered along the dominant direction.

상기에서 영역의 크기는 20s이고, s는 공간 크기를 나타낸다.In this case, the size of the region is 20s, and s represents a space size.

상기 영역은 4*4 부영역으로 분할된다. 하르 웨이블렛(Haar wavelet)은 수평방향과 수직방향으로 계산된다. 웨이블렛 응답은 특성 벡터의 제1세트로부터 각 부영역에 대해 요약된다. 이 응답의 절대값의 합은 또한 이 벡터에 더해진다.The area is divided into 4 * 4 subareas. Haar wavelets are calculated in the horizontal and vertical directions. The wavelet response is summarized for each subregion from the first set of feature vectors. The sum of the absolute values of this response is also added to this vector.

따라서, 4개의 요소는 부영역에 대해 표시된다. 따라서, 각 특성점에 대한 설명자는 SIFT에서 128 차원 벡터와 비교하여 SURF에서는 4*4*4*=64 차원 벡터로 얻어진다.Thus, four elements are displayed for the subregions. Thus, descriptors for each characteristic point are obtained as 4 * 4 * 4 * = 64 dimensional vectors in SURF compared to 128 dimensional vectors in SIFT.

상기 SURF 설명자가 지배적인 방향에 관하여 계산되므로, 회전 불변성은 이루어진다. 상기 SURF 설명자는 조명 변화에 불변성을 향상시키기 위하여 표준화된다.Since the SURF descriptor is calculated with respect to the dominant direction, rotational invariance is achieved. The SURF descriptors are standardized to improve invariability in illumination changes.

상기 공간 변환 추정 단계(S30)에서는 SURF 특성점을 추출한 다음, 현재 프레임과 이전 프레임에서 특성점이 대응하는 쌍({ωi↔ωj},i∈(1,...,m1) 및 j∈(1,...,m2)) 을 찾는 매칭과정으로 진행한다.In the spatial transform estimation step (S30), after extracting SURF feature points, pairs ({ω i ↔ω j }, i∈ (1, ..., m1) and j∈ corresponding to feature points in the current frame and the previous frame are extracted. Proceed to the matching process to find (1, ..., m2)).

상기 2개의 특성점 사이의 유사성은 SIFT 및 SURF 설명자 사이의 코사인 유사를 계산하는 것에 의해 조사된다.The similarity between the two characteristic points is examined by calculating the cosine similarity between the SIFT and SURF descriptors.

그리고 매칭과정의 속도를 높이기 위하여, 상기 세트(Ωn)에서의 각 설명자(ωi)에 대해 이전 세트(Ωn-1)에서 2개의 가장 유사한 설명자(ω'j와 ω'k, 여기에서 ωi는 ω'k보다 ω'j에 더 유사함)를 찾도록 2-근접 이웃(2-NN) 조사 전략을 이용한다.And matching in order to speed up the process, the set (Ω n) for each descriptor (ω i) 2 of the most likely descriptor (ω 'j and ω' in the previous set (Ω n-1) for k, in here ω i uses a 2-proximity neighbor (2-NN) search strategy to find ω ' j more similar to ω' j than ω ' k .

상기 2개의 특성점(ωi과 ω'j)은 다음 수학식 5의 조건을 만족하는 대응점의 쌍이 된다.The two characteristic points ω i and ω ' j are pairs of corresponding points that satisfy the condition of Equation 5 below.

Figure 112011065786413-pat00005
Figure 112011065786413-pat00005

상기 수학식 5에서, DR은 0.6으로 설정한다.In Equation 5, DR is set to 0.6.

상기에서 특성점의 매치는 가장 근접한 제2근접 이웃으로부터 벡터 각의 비율이 DR보다 적을 경우에만 받아들여진다.In the above, a match of characteristic points is accepted only if the ratio of the vector angles from the closest second nearest neighbor is less than DR.

도 6에는 현재 프레임과 이전 프레임 사이의 특성점의 매칭 쌍을 나타낸다.6 shows a matching pair of characteristic points between the current frame and the previous frame.

그리고, 전역 움직임 파라미터(global motion parameter)는 매칭 쌍을 사용하여 계산할 수 있는 공간 변환 행렬을 사용하여 추정할 수 있고, 변형, 회전, 크기 조정을 포함하는 비반사 유사 변환 모델(non-reflective similarity model)을 사용한다.In addition, the global motion parameter can be estimated using a spatial transformation matrix that can be calculated using a matching pair, and a non-reflective similarity model including deformation, rotation, and scaling. ).

상기 비반사 유사 변환 모델은 현재 프레임 안에 이전 프레임의 모든 특성점을 지도화할 수 있는 행렬로 나타낼 수 있다. 어파인 변환 모델(affine transformation model)과 비교하면, 비반사 유사 변환 모델에서 형상과 각은 보존된다.The non-reflective pseudo-transformation model may be represented by a matrix capable of mapping all characteristic points of the previous frame in the current frame. Compared to the affine transformation model, the shape and angle are preserved in the non-reflective pseudo transformation model.

상기 비반사 유사 변환 모델을 나타내기 위하여 단지 2개의 파라미터를 필요로 하므로, 적어도 2개의 매칭 쌍이 요구되고, 이 파라미터는 쉽게 다음의 수학식 6을 사용하여 추정할 수 있다.Since only two parameters are needed to represent the non-reflective pseudo-transformation model, at least two matching pairs are required, which can be easily estimated using Equation 6 below.

Figure 112011065786413-pat00006
Figure 112011065786413-pat00006

상기 수학식 6에서, sc 및 ss는 각각 sc=scale*cos(angle) 및 ss=scale*sin(angle)로 정의한다.In Equation 6, sc and ss are defined as sc = scale * cos (angle) and ss = scale * sin (angle), respectively.

그리고 상기 매칭 쌍을 사용하여 4개의 미지수(sc, ss, tx, ty)를 풀 수 있다. 상기 수학식 6은 아래의 수학식 7 및 수학식 8과 같이 다시 쓸 수 있다.Four unknowns (sc, ss, tx, ty) can be solved using the matching pair. Equation 6 may be rewritten as in Equation 7 and Equation 8 below.

Figure 112011065786413-pat00007
Figure 112011065786413-pat00007

Figure 112011065786413-pat00008
Figure 112011065786413-pat00008

그리고 최소한 2개의 매치와 함께, 우리는 4개의 미지수를 풀기 위해 하나의 선형 시스템에 대한 x와 y의 방정식(수학식 7 및 수학식 8)을 조합하여 다음의 수학식 9와 같이 나타낼 수 있다.And with at least two matches, we can combine the equations of x and y (Equations 7 and 8) for one linear system to solve for four unknowns as

Figure 112011065786413-pat00009
Figure 112011065786413-pat00009

상기 수학식 9의 행렬 방정식은 X=X'*r로 다시 쓸 수 있다. 여기에서, r은 r=[sc ss tx ty]로 정의된다. 따라서, r=X/X'로 나타내어진다.The matrix equation of Equation 9 can be rewritten as X = X '* r. Here, r is defined as r = [sc ss tx ty]. Therefore, r = X / X '.

상기 새위치 계산 단계(S40)에서는 이전 단계로부터 현재 프레임 안의 이전(참조) 프레임의 픽셀을 매핑할 수 있는 변환 행렬로부터 현재 프레임에서 새로운 위치로 재계산한다.In the new position calculation step S40, a new position is recalculated from the transformation matrix capable of mapping pixels of the previous (reference) frame in the current frame from the previous stage to the new position in the current frame.

예를 들면, 샘플링된 이전 프레임의 모든 중앙점의 위치는 상기 수학식 9의 변환 행렬을 사용하는 것에 의해 현재 프레임에서 재계산된다.For example, the positions of all center points of the previous sampled frame are recalculated in the current frame by using the transformation matrix of Equation 9 above.

도 7에는 이전 프레임의 중앙점을 계산한 예를 나타내고, 도 8에는 현재 프레임의 중앙점을 재계산한 예를 나타낸다.7 shows an example of calculating the center point of the previous frame, and FIG. 8 shows an example of recalculating the center point of the current frame.

그리고 이전 프레임의 중앙점은 변환 행렬로 대응되는 현재 프레임의 새로운 위치에 카메라의 움직임 때문에 재위치된다.The center point of the previous frame is repositioned due to the movement of the camera at the new position of the current frame corresponding to the transformation matrix.

모든 이전 중앙점(도 8에서 적색 점으로 나타냄)에 대한 위치를 재계산한 다음, 현재 프레임의 중앙점(도 8에서 녹색 점으로 나타냄)은 경로 안에 추가된다.After recalculating the positions for all previous center points (indicated by red dots in FIG. 8), the center point of the current frame (indicated by green dots in FIG. 8) is added into the path.

상기 위치 재정의 단계(S50)에서는 카메라의 움직임의 길을 나타내는 경로 연결과 같은 위치의 재정의를 행한다.In the position redefining step (S50), the position redefinition such as a path connection indicating the path of the camera movement is redefined.

상기 변환 파라미터가 완벽하지 않고 형상이 왜곡될 수 있으므로, 현재 프레임에서 중앙점의 새로운 위치는 이전 프레임의 대응되는 위치와 같지 않을 수 있다.Since the conversion parameter is not perfect and the shape may be distorted, the new position of the center point in the current frame may not be the same as the corresponding position of the previous frame.

따라서, 위치의 재정의가 필요하며, 각 중앙점(현재 프레임에서 새로운 중앙점을 제외함)에 대해, 블록 기반 움직인 추정 과정은 매우 작은 검색 영역(3보다 작은)에서 이루어진다.Thus, a redefinition of the position is needed, and for each center point (excluding the new center point in the current frame), the block-based motion estimation process is done in a very small search area (less than 3).

그리고 이전 프레임의 위치로부터 찾은 블록과 거의 유사한 현재 프레임에 위치한 주위의 블록을 찾을 수 있으며, 최종 프레임에서 모든 중앙점을 연결하는 경로는 찾기 위해 필요한 경로이다.Then, the surrounding block located in the current frame which is almost similar to the block found from the position of the previous frame can be found, and the path connecting all the center points in the final frame is a necessary path to find.

다음으로 안드로이드 휴대폰에서 SURF를 구현하는 과정을 설명한다.Next, the process of implementing SURF in an Android phone is explained.

본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법에 있어서, 대부분의 계산 시간은 SURF 특성점을 위치시키고 설명자를 계산하기 위하여 소모된다.In the moving path extraction method of the frame center point using spatial transform and motion estimation according to an embodiment of the present invention, most calculation time is consumed to locate the SURF characteristic point and calculate the descriptor.

안드로이드 SDK를 사용하는 안드로이드 휴대폰의 주요 프로그래밍 언어는 자바(JAVA)이다. 자바 애플리케이션은 자바 컴파일러에 의해 자바 바이트코드(bytecode)로 컴파일된다. 자바 바이트코드는 달빅 가상 머신(Dalvik Virtual Machine)에 의해 운용될 수 있도록 .dex 파일로 컴파일된다. 상기 .dex 파일인 달빅 바이트코드에 대한 실행시간은 느리므로, 달빅 가상 머신의 실행 시간을 줄이는 것이 필요하다.The main programming language for Android phones using the Android SDK is Java (JAVA). Java applications are compiled into Java bytecode by the Java compiler. Java bytecode is compiled into a .dex file that can be run by the Dalvik Virtual Machine. Since the execution time of the Dalvik bytecode, which is the .dex file, is slow, it is necessary to reduce the execution time of the Dalvik virtual machine.

상기 SURF는 실행 시간을 줄일 목적으로 구현되고, 안드로이드 NDK를 사용하는 원래 C/C++ 라이브러리로 구축된다. 안드로이드 NDK는 처리 속도를 향상시키기 위하여 개발되고, 사용할 수 있는 C 소스코드를 재사용하고, 직접 하드웨어에 접근한다.The SURF is implemented to reduce execution time and is built with the original C / C ++ library using the Android NDK. The Android NDK was developed to improve processing speed, reuse available C source code, and directly access hardware.

상기 SURF 라이브러리는 동적으로 로드되고, JNI(JAVA Native Interface)를 사용하는 자바와 통신된다. 안드로이드 NDK는 OpenCV와 같은 다른 라이브러리와 함께 사용할 수 있다. 그리고, SURF는 OpenCV에서 구현할 수 있다. 안드로이드의 공유 라이브러리와 함께 애플리케이션 운용의 시스템 플로우차트를 도 9에 나타낸다.The SURF library is dynamically loaded and communicated with Java using the JAVA Native Interface (JNI). The Android NDK can be used with other libraries such as OpenCV. And, SURF can be implemented in OpenCV. 9 shows a system flowchart of application operation with Android's shared library.

상기와 같은 방법을 사용하여, SURF를 위한 계산 시간은 대부분 자바로 구현한 경우보다 작다.Using this method, the computation time for SURF is much smaller than in Java.

다음으로 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법의 성능을 평가한 결과를 설명한다.Next, a result of evaluating the performance of the moving path extraction method of the frame center point using spatial transform and motion estimation according to an embodiment of the present invention will be described.

평가를 위해, 휴대폰 내장 카메라에 의해 캡쳐된 몇가지 시험 이미지 시퀀스를 사용한다. 이 이미지 시퀀스는 640*480의 해상도로 초당 15프레임으로 캡쳐된다. 이 해상도는 320*240으로 다운스케일된다. 149프레임(15s 길이에 관해)을 갖는 하나의 시험 이미지 시퀀스를 나타낸다. 본 발명의 일실시예에 따른 알고리즘은 1GHZ의 프로세서와 512MB RAM을 구비한 안드로이드 휴대폰에서 구현되고, 테스트된다. 상기 움직임 추정 단계에서, 검색 범위는 2로 설정하고, 블록 크기는 32로 설정한다.For evaluation, several test image sequences captured by the mobile phone built-in camera are used. This image sequence is captured at 15 frames per second with a resolution of 640 * 480. This resolution is downscaled to 320 * 240. One test image sequence with 149 frames (relative to 15s length) is shown. The algorithm according to an embodiment of the present invention is implemented and tested in an Android mobile phone with a 1GHZ processor and 512MB RAM. In the motion estimation step, the search range is set to 2 and the block size is set to 32.

다음의 표 1에는 몇몇 선택된 프레임에서 경로 결과를 나타낸다. 표 1에 있어서, 제2컬럼 및 제3 컬럼의 결과는 각각 위치 재정의에 기반한 움직임 추정을 했는지의 여부에 따라 얻어진 것이다. 표 1에서 제1컬럼은 원래 이미지 시퀀스에서 선택된 프레임의 프레임 인덱스(ID)를 나타낸다. 2개의 성공적인 샘플링된 프레임 사이의 간격은 10(즉 15개의 샘플링 프레임)으로 설정된다. 경로 결과에 있어서, 경로에 추가된 적색 점은 이전 프레임의 중앙점을 나타내고, 녹색 점은 현재 프레임의 중앙점을 나타낸다.Table 1 below shows the path results for several selected frames. In Table 1, the results of the second column and the third column are obtained according to whether motion estimation based on location redefinition is performed. In Table 1, the first column represents a frame index (ID) of a frame selected from an original image sequence. The interval between two successful sampled frames is set to 10 (ie 15 sampling frames). In the path result, the red point added to the path represents the center point of the previous frame and the green point represents the center point of the current frame.

총 처리 시간은 움직임 추정 유무와 함께 경로를 찾기 위해 각각 3.34와 3.47초이다. 상기 위치 재정의에 기반한 움직임 추정은 총 처리 시간에 비교하여 작은 계산 시간을 요구하지만, 결과를 상당히 향상시킨다.The total processing time is 3.34 and 3.47 seconds, respectively, to find the path with motion estimation. Motion estimation based on the location redefinition requires less computation time compared to the total processing time, but significantly improves the results.

IDID 위치 재정의 없음No location override 위치 재정의 있음Has location override


11



11

Figure 112011065786413-pat00010
Figure 112011065786413-pat00010
Figure 112011065786413-pat00011
Figure 112011065786413-pat00011



31



31
Figure 112011065786413-pat00012
Figure 112011065786413-pat00012
Figure 112011065786413-pat00013
Figure 112011065786413-pat00013



41



41
Figure 112011065786413-pat00014
Figure 112011065786413-pat00014
Figure 112011065786413-pat00015
Figure 112011065786413-pat00015



71



71
Figure 112011065786413-pat00016
Figure 112011065786413-pat00016
Figure 112011065786413-pat00017
Figure 112011065786413-pat00017



111



111
Figure 112011065786413-pat00018
Figure 112011065786413-pat00018
Figure 112011065786413-pat00019
Figure 112011065786413-pat00019



131



131
Figure 112011065786413-pat00020
Figure 112011065786413-pat00020
Figure 112011065786413-pat00021
Figure 112011065786413-pat00021



141
최종



141
final
Figure 112011065786413-pat00022
Figure 112011065786413-pat00022
Figure 112011065786413-pat00023
Figure 112011065786413-pat00023

상기와 같은 실험 결과는 본 발명의 일실시예에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법이 공간 변환과 움직임 추정에 기반한 SURF를 조합하는 것에 의하여 정확하게 프레임 중앙점을 연결하는 경로를 추정할 수 있음을 보여준다. 중앙점의 대응 위치는 이미지 시퀀스에서 프레임을 따라 동일하게 유지된다.The above experimental results indicate that the method of extracting the moving path of the frame center point using the spatial transform and the motion estimation according to an embodiment of the present invention connects the frame center points accurately by combining the SURF based on the spatial transform and the motion estimation. Show that the path can be estimated. The corresponding position of the center point remains the same along the frame in the image sequence.

다음의 표 2에는 2개의 샘플링된 프레임 사이의 간격의 다른 값과 함께 얻어진 경로 결과가 나타낸다. 그 결과는 D의 높은 값과 함께 얻어질 수 있는 경로 결과를 안정적이고 정확하게 보여준다. 따라서, 우리는 D의 값을 증가시키는 것에 의해 처리 시간을 줄일 수 있다. 고정된 D의 값을 사용하는 대신에, 캡쳐된 실시간 이미지 시퀀스에서 현재 프레임의 프레임 처리를 완료한 후와 같이 이용될 수 있는 적응값을 선택할 수 있다. 그리고 이 시스템은 항상 실시간 일정하게 안정적이다. 유연한 경로를 발생시키기 원하는 경우에 있어서, 결과 경로는 결과 경로의 얻어진 점들을 포함하는 베지어 곡선에 의해 나타낼 수 있다.Table 2 below shows the path results obtained along with the different values of the spacing between the two sampled frames. The result shows a stable and accurate path result that can be obtained with a high value of D. Therefore, we can reduce the processing time by increasing the value of D. Instead of using a fixed value of D, it is possible to select an adaptive value that can be used, such as after completing the frame processing of the current frame in the captured real-time image sequence. And this system is always stable in real time. In the case where one wants to generate a flexible path, the resulting path can be represented by a Bezier curve containing the obtained points of the result path.

DD 결과 경로Result path 처리 시간(s)Processing time (s)


10



10

Figure 112011065786413-pat00024
Figure 112011065786413-pat00024


3.47
(SURF에 대해 2.94)


3.47
(2.94 for SURF)



15



15
Figure 112011065786413-pat00025
Figure 112011065786413-pat00025


2.29
(SURF에 대해 1.86)


2.29
(1.86 for SURF)



20



20
Figure 112011065786413-pat00026
Figure 112011065786413-pat00026


1.91
(SURF에 대해 1.47)


1.91
(1.47 for SURF)

상기에서는 본 발명에 따른 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법의 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고, 특허청구범위와 명세서 및 첨부한 도면의 범위 안에서 여러가지로 변형하여 실시하는 것이 가능하고, 이 또한 본 발명의 범위에 속한다.In the above, a preferred embodiment of a method for extracting a moving path of a frame center point using spatial transformation and motion estimation according to the present invention has been described. However, the present invention is not limited thereto, and the scope of the claims, the specification, and the accompanying drawings. Various modifications can be made therein and this also falls within the scope of the present invention.

S10 - 프레임 샘플링 단계, S20 - SURF 특성점과 설명자 추출 단계
S30 - 공간 변환 추정 단계, S40 - 새위치 계산 단계
S50 - 위치 재정의 단계
S10-frame sampling step, S20-SURF characteristic point and descriptor extraction step
S30-space transform estimation step, S40-new position calculation step
S50-Position Override Step

Claims (11)

입력 프레임을 샘플링하여 현재 프레임과 이전 프레임을 추출하는 단계와,
현재 프레임에 대한 SURF 특성점과 설명자를 추출하는 단계와,
이전 프레임과 현재 프레임의 특성점을 이용하여 공간 변환 파라미터를 추정하는 단계와,
상기 공간 변환 파라미터에 관계된 변환 행렬을 기초로 이전 프레임의 중앙점 위치를 현재 프레임으로 변환하여, 현재 프레임에서의 상기 중앙점의 새로운 위치를 계산하는 단계와,
상기 중앙점의 새로운 위치 주변의 블록 움직임을 추정하여 상기 중앙점의 새로운 위치를 재정의하는 단계를 포함하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
Sampling the input frame to extract the current frame and the previous frame,
Extracting the SURF feature point and descriptor for the current frame,
Estimating a spatial transform parameter using the characteristic points of the previous frame and the current frame,
Calculating a new position of the center point in the current frame by converting the position of the center point of the previous frame to the current frame based on the transformation matrix related to the spatial transform parameter;
Estimating a block motion around a new position of the center point and redefining the new position of the center point.
청구항 1에 있어서,
상기 현재 프레임과 이전 프레임을 추출하는 단계에서는 입력 프레임의 샘플링을 일정한 간격(D)으로 행하도록 구성하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method according to claim 1,
And extracting the current frame and the previous frame. The method of extracting a moving center point of a frame center point using spatial transformation and motion estimation configured to perform sampling of an input frame at a predetermined interval (D).
청구항 1에 있어서,
상기 현재 프레임과 이전 프레임을 추출하는 단계에서는 샘플링된 프레임의 해상도를 축소하거나 그레이 스케일(gray scale) 이미지로 변환하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method according to claim 1,
And extracting the current frame and the previous frame. The method of extracting a center point of a frame using spatial transformation and motion estimation for reducing the resolution of the sampled frame or converting the sample to a gray scale image.
청구항 1에 있어서,
상기 SURF 특성점과 설명자를 추출하는 단계에서는 헤시안 행렬(Hessian matrix)을 기반으로 이루어지는 SURF 검출자를 이용하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method according to claim 1,
And extracting the SURF characteristic point and the descriptor from the frame center point using spatial transform and motion estimation using a SURF detector based on a Hessian matrix.
청구항 4에 있어서,
상기 SURF 특성점과 설명자를 추출하는 단계에서는 이전 프레임의 특성점은 재사용하고, 현재 프레임의 특성점에 대하여만 SURF 설명자가 계산하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method of claim 4,
Extracting the SURF feature point and the descriptor, and reusing the feature point of the previous frame, and extracting the center point of the frame using spatial transform and motion estimation calculated by the SURF descriptor only for the feature point of the current frame.
청구항 5에 있어서,
상기 SURF 설명자는 특성점의 주위를 사용하여 계산하고, 각 특성점의 지배적인 방향을 검출된 특성점 주위의 원형 영역을 구축하는 것에 의해 추정하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method according to claim 5,
The SURF descriptor is calculated using the periphery of the characteristic point, and the moving path of the frame center point using the spatial transformation and the motion estimation that estimates the dominant direction of each characteristic point by constructing the circular region around the detected characteristic point. Extraction method.
청구항 5에 있어서,
상기 공간 변환 파라미터를 추정하는 단계에서는 상기 SURF 특성점과 설명자를 추출하는 단계에서 추출한 SURF 특성점을 현재 프레임과 이전 프레임에서 대응하는 쌍을 찾는 매칭과정으로 진행하고,
매칭과정의 속도를 높이기 위하여, 이전 프레임의 특성점에 관계된 설명자 중 가장 유사한 설명자를 기초로, 현재 프레임의 특성점에 관계된 설명자에 대응하는 쌍을 찾는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method according to claim 5,
In the estimating of the spatial transform parameter, the SURF characteristic point extracted in the extracting of the SURF characteristic point and the descriptor is performed in a matching process of finding a corresponding pair in the current frame and the previous frame.
In order to speed up the matching process, the frame center point is moved by using spatial transform and motion estimation to find a pair corresponding to the descriptor related to the characteristic point of the current frame based on the descriptor most similar to the characteristic point of the previous frame. Path extraction method.
삭제delete 청구항 7에 있어서,
상기 공간 변환 파라미터를 추정하는 단계에서는 매칭 쌍을 사용하여 계산할 수 있는 공간 변환 행렬을 사용하여 추정할 수 있는 전역 움직임 파라미터를 사용하고,
변형, 회전, 크기 조정을 포함하는 비반사 유사 변환 모델(non-reflective similarity model)을 사용하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method of claim 7,
In the estimating of the spatial transform parameter, a global motion parameter that can be estimated using a spatial transform matrix that can be calculated using a matching pair,
Moving path extraction method of frame center point using spatial transformation and motion estimation using non-reflective similarity model including deformation, rotation, and scaling.
청구항 9에 있어서,
상기 중앙점의 새로운 위치를 계산하는 단계에서는 상기 공간 변환 파라미터를 추정하는 단계로부터 현재 프레임 안의 이전 프레임의 픽셀을 매핑할 수 있는 변환 행렬로부터 현재 프레임에서 새로운 위치로 재계산하는 공간 변환과 움직임 추정을 이용한 프레임 중앙점의 이동 경로 추출방법.
The method according to claim 9,
In calculating the new position of the center point, the spatial transformation and motion estimation are recalculated from the transformation matrix capable of mapping the pixels of the previous frame in the current frame to the new position in the current frame. Moving path extraction method of frame center point using
삭제delete
KR1020110084523A 2011-08-24 2011-08-24 Movement path extracting method of center points of frame using spatial transformation and motion estimation KR101212316B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110084523A KR101212316B1 (en) 2011-08-24 2011-08-24 Movement path extracting method of center points of frame using spatial transformation and motion estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110084523A KR101212316B1 (en) 2011-08-24 2011-08-24 Movement path extracting method of center points of frame using spatial transformation and motion estimation

Publications (1)

Publication Number Publication Date
KR101212316B1 true KR101212316B1 (en) 2012-12-13

Family

ID=47907667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110084523A KR101212316B1 (en) 2011-08-24 2011-08-24 Movement path extracting method of center points of frame using spatial transformation and motion estimation

Country Status (1)

Country Link
KR (1) KR101212316B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10147213B2 (en) 2014-12-11 2018-12-04 Postech Academy-Industry Foundation Apparatus for generating motion effects and computer readable medium for the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100454A (en) 2007-09-26 2009-05-07 Victor Co Of Japan Ltd Moving object tracking control device
JP2010098695A (en) 2008-10-20 2010-04-30 Sony Computer Entertainment Inc Device, method and program for controlling picked-up image storage, and storage medium with program for controlling picked-up image storage stored therein

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100454A (en) 2007-09-26 2009-05-07 Victor Co Of Japan Ltd Moving object tracking control device
JP2010098695A (en) 2008-10-20 2010-04-30 Sony Computer Entertainment Inc Device, method and program for controlling picked-up image storage, and storage medium with program for controlling picked-up image storage stored therein

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10147213B2 (en) 2014-12-11 2018-12-04 Postech Academy-Industry Foundation Apparatus for generating motion effects and computer readable medium for the same

Similar Documents

Publication Publication Date Title
CN109961009B (en) Pedestrian detection method, system, device and storage medium based on deep learning
KR101722803B1 (en) Method, computer program, and device for hybrid tracking of real-time representations of objects in image sequence
US8467596B2 (en) Method and apparatus for object pose estimation
US20150205997A1 (en) Method, apparatus and computer program product for human-face features extraction
JPH10214346A (en) Hand gesture recognizing system and its method
EP3090382B1 (en) Real-time 3d gesture recognition and tracking system for mobile devices
CN107516322B (en) Image object size and rotation estimation calculation method based on log polar space
KR20150120408A (en) Camera aided motion direction and speed estimation
JPH10214346A6 (en) Hand gesture recognition system and method
WO2011161579A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
KR20120044484A (en) Apparatus and method for tracking object in image processing system
CN111914756A (en) Video data processing method and device
KR20170036747A (en) Method for tracking keypoints in a scene
KR100562632B1 (en) A video based handwriting recognition system and method
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
JP2018120283A (en) Information processing device, information processing method and program
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
CN113793370A (en) Three-dimensional point cloud registration method and device, electronic equipment and readable medium
JP6244886B2 (en) Image processing apparatus, image processing method, and image processing program
US20160066150A1 (en) Dynamic Configuration of a Positioning System
US9135715B1 (en) Local feature cameras for structure from motion (SFM) problems with generalized cameras
Lee et al. Fast hand and finger detection algorithm for interaction on smart display
JP5051671B2 (en) Information processing apparatus, information processing method, and program
KR101212316B1 (en) Movement path extracting method of center points of frame using spatial transformation and motion estimation
CN113642493B (en) Gesture recognition method, device, equipment and medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151029

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee