KR101544022B1 - Method and apparatus for pose tracking - Google Patents

Method and apparatus for pose tracking Download PDF

Info

Publication number
KR101544022B1
KR101544022B1 KR1020130108583A KR20130108583A KR101544022B1 KR 101544022 B1 KR101544022 B1 KR 101544022B1 KR 1020130108583 A KR1020130108583 A KR 1020130108583A KR 20130108583 A KR20130108583 A KR 20130108583A KR 101544022 B1 KR101544022 B1 KR 101544022B1
Authority
KR
South Korea
Prior art keywords
matching
frame
reference frame
processing unit
current
Prior art date
Application number
KR1020130108583A
Other languages
Korean (ko)
Other versions
KR20150029408A (en
Inventor
박순용
최성인
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020130108583A priority Critical patent/KR101544022B1/en
Publication of KR20150029408A publication Critical patent/KR20150029408A/en
Application granted granted Critical
Publication of KR101544022B1 publication Critical patent/KR101544022B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

본 발명은 대상의 현재 프레임을 획득하는 영상 획득부, 이전 프레임의 정제 정합 결과에 기초하여 현재 프레임과 기준 프레임을 개략 정합하고, 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 제1처리부 및 정제 정합 결과에 기초하여 대상의 현재 자세를 추적하는 제2처리부를 포함하는 자세 추적 장치에 관한 것이다..A first processor for roughly matching a current frame with a reference frame based on a result of the refinement matching of a previous frame and performing a refinement matching between a current frame to which rough matching is applied and a reference frame; And a second processing unit for tracking the current posture of the object based on the result of the tablet matching.

Description

자세 추적 방법 및 자세 추적 장치{METHOD AND APPARATUS FOR POSE TRACKING }METHOD AND APPARATUS FOR POSE TRACKING [0002]

본 발명은 자세 추적 방법 및 자세 추적 장치에 관한 것으로, 보다 상세하게는 3차원 영상 정합을 이용한 자세 추적 방법 및 자세 추적 장치에 관한 것이다.The present invention relates to an attitude tracking method and an attitude tracking apparatus, and more particularly, to an attitude tracking method and an attitude tracking apparatus using three-dimensional image matching.

종래의 자세 추적 기술은 주로 CCD 카메라로 획득한 2차원 영상 정보를 해석하여 자세 인식에 사용하는 기법들이 주를 이루었지만 최근에는 마이크로소프트사의 키넥트(Kinect)와 같은 저가형 RGB-D 센서가 널리 보급됨에 따라 자세 추적에 있어 3차원 정보를 활용하고자 하는 시도가 점차 많아지고 있는 추세이다. 종래의 3차원 영상 기반 자세 추적 방법은 기계학습을 기반으로 하는 방법으로써 오프라인에서 대상이 취할 수 있는 모든 자세에 대한 영상 또는 3차원 거리데이터를 획득하여 학습한 후 데이터베이스화하는 과정이 필요하기 때문에 실용적인 측면이 떨어지는 단점이 있다.Conventional posture tracking techniques mainly focus on techniques for analyzing two-dimensional image information acquired by a CCD camera to use for attitude recognition. Recently, low-cost RGB-D sensors such as Microsoft's Kinect have been widely used As a result, there is an increasing tendency to use 3D information in posture tracking. The conventional three-dimensional image-based attitude tracking method is a method based on machine learning. Since it is necessary to acquire the image or three-dimensional distance data of all attitudes that the object can take offline, There is a drawback that the side falls.

본 발명의 목적은 영상 정합 기술을 이용하여 실시간으로 대상의 자세를 추적하는 방법 및 이를 이용한 자세 추적 장치를 제공하는 것이다.An object of the present invention is to provide a method of tracking an attitude of an object in real time using an image matching technique and an attitude tracking device using the same.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the above-mentioned technical problems, and other technical problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명의 실시예에 따른 자세 추적 장치는 대상의 현재 프레임을 획득하는 영상 획득부, 이전 프레임의 정제 정합 결과에 기초하여 상기 현재 프레임과 기준 프레임을 개략 정합하고, 상기 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 제1처리부 및 상기 정제 정합 결과에 기초하여 상기 대상의 현재 자세를 추적하는 제2처리부를 포함할 수 있다.According to an embodiment of the present invention, there is provided an orientation tracking apparatus including an image acquiring unit acquiring a current frame of an object, an outline matching unit that roughly matches the current frame with a reference frame based on a refinement matching result of a previous frame, A first processing unit for refining-matching the reference frame and a second processing unit for tracking the current posture of the object based on the refinement matching result.

실시예에서, 상기 개략 정합은 상기 이전 프레임을 상기 기준 프레임으로 정합하는 변환 행렬을 상기 현재 프레임에 적용하여 수행될 수 있다.In an embodiment, the coarse matching may be performed by applying a transformation matrix to the current frame to match the previous frame to the reference frame.

실시예에서, 상기 정제 정합은 변형 IPP 알고리즘을 이용하여 수행될 수 있다.In an embodiment, the tablet matching may be performed using a modified IPP algorithm.

실시예에서, 상기 영상 획득부는 3차원 거리 영상을 획득할 수 있다.In an embodiment, the image acquiring unit may acquire a three-dimensional distance image.

실시예에서, 상기 기준 프레임은 임의의 시점에 대상을 촬영한 영상으로부터 획득될 수 있다.In an embodiment, the reference frame may be obtained from an image of an object taken at an arbitrary point in time.

실시예에서, 상기 제1처리부는 상기 정제 정합 결과에 기초하여 상기 기준 프레임을 업데이트할 수 있다.In an embodiment, the first processing unit may update the reference frame based on the refinement matching result.

실시예에서, 상기 제2처리부는 상기 영상 획득부가 획득한 현재 프레임의 잡음과 배경을 제거할 수 있다.In an embodiment, the second processing unit may remove the noise and background of the current frame acquired by the image acquisition unit.

본 발명의 실시예에 따른 운전자 얼굴 자세 추적 장치는 운전자 얼굴의 3차원 거리 영상을 획득하는 영상 획득부, 이전 프레임의 정제 정합 결과에 기초하여 상기 3차원 거리 영상의 현재 프레임과 기준 프레임을 개략 정합하고, 상기 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 제1처리부, 상기 정제 정합 결과에 기초하여 상기 운전자 얼굴의 현재 자세를 추적하는 제2처리부, 상기 운전자의 현재 얼굴 자세에 기초하여 상기 운전자의 전방 주시 태만을 경고하는 경고음 발생부를 포함할 수 있다.The driver's face posture tracking apparatus according to an embodiment of the present invention includes an image acquiring unit that acquires a three-dimensional distance image of a driver's face, an outline matching unit that approximates a current frame and a reference frame of the three- A second processing unit for tracking the current posture of the driver's face on the basis of the result of the refinement matching, and a second processing unit for, based on the current face posture of the driver, And a warning sound generating unit for warning the driver of the forward watching neglect.

실시예에서, 상기 개략 정합은 상기 이전 프레임을 상기 기준 프레임으로 정합하는 변환 행렬을 상기 현재 프레임에 적용하여 수행될 수 있다.In an embodiment, the coarse matching may be performed by applying a transformation matrix to the current frame to match the previous frame to the reference frame.

실시예에서, 상기 정제 정합은 변형 IPP 알고리즘을 이용하여 수행될 수 있다.In an embodiment, the tablet matching may be performed using a modified IPP algorithm.

실시예에서, 상기 기준 프레임은 상기 운전자가 정면을 바라보는 프레임일 수 있다.In an embodiment, the reference frame may be a frame in which the driver views the front.

실시예에서, 상기 제1처리부는 상기 정제 정합 결과에 기초하여 상기 기준 프레임을 업데이트할 수 있다.In an embodiment, the first processing unit may update the reference frame based on the refinement matching result.

실시예에서, 상기 제2처리부는 상기 영상 획득부가 획득한 현재 프레임의 잡음과 배경을 제거할 수 있다.In an embodiment, the second processing unit may remove the noise and background of the current frame acquired by the image acquisition unit.

실시예에서, 상기 경고음 발생부는 상기 제2처리부가 추적한 상기 운전자의 현재 얼굴 자세가 일방향으로 소정의 각도 이상 틀어진 경우, 상기 운전자에게 경고음을 발생할 수 있다.In an embodiment, the warning sound generating unit may generate a warning sound to the driver when the current face posture of the driver tracked by the second processing unit is deviated by more than a predetermined angle in one direction.

실시예에서, 상기 경고음 발생부는 상기 추적한 운전자의 얼굴 자세가 일방향으로 소정의 각도 이상 틀어진 경우라도, 상기 일방향으로 차량의 방향지시등이 켜져있거나 상기 차량의 기어가 후진 기어, 중립 기어, 주차 기어 중 어느 하나의 기어인 경우에는 상기 운전자에에 경고음을 발생하지 않을 수 있다.In the embodiment, even if the tracked driver's face posture is shifted by a predetermined angle or more in one direction, the warning sound generating unit may detect that the direction indicator of the vehicle is turned on in one direction or that the gear of the vehicle is in the reverse gear, neutral gear, In the case of any one gear, it is possible not to generate a warning sound to the driver.

본 발명의 실시예에 따른 대상의 자세 추적 방법은 대상의 현재 프레임을 획득하는 단계, 이전 프레임의 정제 정합 결과에 기초하여 상기 현재 프레임과 기준 프레임을 개략 정합하는 단계, 상기 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 단계 및 상기 정제 정합 결과에 기초하여 상기 대상의 현재 자세를 추적하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method for tracking an object, comprising the steps of acquiring a current frame of a target object, roughly matching the current frame and a reference frame based on a result of the refinement matching of a previous frame, And refraining-matching the reference frame and tracking the current posture of the object based on the refinement matching result.

실시예에서, 상기 대상의 자세 추적 방법은 대상의 현재 프레임을 획득하는 단계에 앞서 임의의 시점에 대상을 촬영한 영상으로부터 획득한 임의의 프레임을 상기 대상의 기준 프레임으로 등록하는 단계를 더 포함할 수 있다.In an embodiment, the method further includes a step of registering, as a reference frame of the target, an arbitrary frame obtained from an image of an object photographed at an arbitrary point in time prior to acquiring a current frame of the object .

실시예에서, 상기 대상의 자세 추적 방법은 상기 대상의 현재 자세를 추적하는 단계 후에 상기 정제 정합 결과를 상기 기준 프레임에 업데이트 하는 단계를 더 포함할 수 있다.In an embodiment, the object posture tracking method may further include updating the refinement result to the reference frame after the step of tracking the current posture of the object.

상기 대상의 자세 추적 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터에서 실행될 수 있는 프로그램으로 제작될 수 있다.The object attitude tracking method may be implemented as a program that can be executed in a computer on a computer-readable recording medium.

본 발명의 일측면에 따르면 영상 정합 기술을 이용하여 실시간으로 대상의 자세를 추적하는 방법 및 이를 이용한 자세 추적 장치를 제공할 수 있다.According to an aspect of the present invention, a method of tracking an object's attitude in real time using a video matching technique and an attitude tracking device using the method can be provided.

본 발명의 일측면에 따르면, 운전자 얼굴의 자세를 실시간으로 추적하여 운전자의 전방 주시 태만을 방지할 수 있다.According to an aspect of the present invention, it is possible to prevent the driver from looking ahead, by tracking the posture of the driver's face in real time.

도 1은 본 발명의 실시 예에 따른 자세 추적 방법을 설명하기 위한 도면이다.
도 2는 현재 프레임을 획득하는 단계를 보다 상세히 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 변형 IPP 알고리즘을 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 정제 정합 결과에 기초하여 기준 프레임을 업데이트하는 단계를 보다 상세히 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 자세 추적 장치를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 운전자 얼굴 자세 추적 장치를 설명하기 위한 도면이다.
FIG. 1 is a view for explaining a posture tracking method according to an embodiment of the present invention.
2 is a diagram for explaining the step of acquiring a current frame in more detail.
3 is a diagram for explaining a modified IPP algorithm according to an embodiment of the present invention.
4 is a diagram for explaining a step of updating a reference frame on the basis of a result of refinement matching according to an embodiment of the present invention.
5 is a view for explaining an attitude tracking apparatus according to an embodiment of the present invention.
6 is a view for explaining a driver's face posture tracking apparatus according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components.

본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The term 'and / or' as used herein refers to each of the listed configurations or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.
It should be noted that the terms such as '~', '~ period', '~ block', 'module', etc. used in the entire specification may mean a unit for processing at least one function or operation. For example, a hardware component, such as a software, FPGA, or ASIC. However, '~ part', '~ period', '~ block', '~ module' are not meant to be limited to software or hardware. Modules may be configured to be addressable storage media and may be configured to play one or more processors. ≪ RTI ID = 0.0 > Thus, by way of example, the terms 'to', 'to', 'to block', 'to module' may refer to components such as software components, object oriented software components, class components and task components Microcode, circuitry, data, databases, data structures, tables, arrays, and the like, as well as components, Variables. The functions provided in the components and in the sections ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ' , '~', '~', '~', '~', And '~' modules with additional components.

본 발명은 대상의 자세 판단 기준이 되는 기준 프레임과 대상의 현재 프레임을 정합하여 대상의 현재 자세를 추적하는 방법 및 대상의 현재 자세를 추적하는 장치에 관한 것이다. 종래 기술에서 대상의 현재 자세를 판단하기 위해 대상의 여러 자세 정보가 포함된 데이터베이스가 이용된 것과 달리, 본 발명에서는 임의의 한 프레임이 대상의 현재 자세를 판단하는 기준 프레임으로 사용된다. 예를 들어, 본 발명에서는 운전자의 전방 주시 여부를 확인하기 위해 운전자가 전방을 바라보고 있는 1장의 프레임이 기준 프레임으로 사용될 수 있다.The present invention relates to a method of tracking a current position of a target by matching a reference frame serving as a position determination criterion of a target with a current frame of the target and an apparatus for tracking the current position of the target. Unlike the prior art in which a database containing various attitude information of an object is used to determine the current attitude of an object, in the present invention, any one frame is used as a reference frame for determining the current attitude of the object. For example, in the present invention, one frame viewed from the driver's front may be used as a reference frame to confirm whether or not the driver is looking forward.

본 발명은 대상을 실시간으로 촬영하는 경우, 현재 프레임의 대상의 자세는 이전 프레임의 대상의 자세와 차이가 크지 않다는 점을 이용하여, 이전 프레임을 기준 프레임으로 정합한 결과를 현재 프레임과 기준 프레임 간의 개략 정합에 이용한다. 즉, 개략 정합은 이전 프레임을 기준 프레임으로 정합하는 변환 행렬을 현재 프레임에 적용함으로써 수행된다. 그리고 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합한다. 현재 프레임의 정제 정합 결과에 의해 기준 프레임이 업데이트된다. 또한 현재 프레임의 정제 정합 결과는 다음 프레임의 개략 정합에 이용된다. 이하에서는 첨부된 도면을 참조하여 본 발명을 보다 상세히 설명할 것이다.
In the present invention, when the object is photographed in real time, the posture of the object of the current frame is different from the posture of the object of the previous frame, It is used for rough matching. That is, coarse matching is performed by applying a transform matrix to the current frame to match the previous frame with the reference frame. Then, the current frame to which the coarse matching is applied and the reference frame are refinement-matched. The reference frame is updated by the refinement matching result of the current frame. Also, the refinement result of the current frame is used for coarse matching of the next frame. Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings.

자세 추적 방법Position tracking method

도 1은 본 발명의 실시 예에 따른 자세 추적 방법을 설명하기 위한 도면이다.FIG. 1 is a view for explaining a posture tracking method according to an embodiment of the present invention.

본 발명의 실시 예에 따른 자세 추적 방법은 대상의 영상으로부터 현재 프레임을 획득하는 단계(S10), 이전 프레임의 정제 정합 결과에 기초하여 현재 프레임과 기준 프레임을 개략 정합하는 단계(S20), 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 단계(S30), 정제 정합 결과에 기초하여 대상의 현재 자세를 추적하는 단계(S40) 및 정제 정합 결과에 기초하여 기준 프레임을 업데이트하는 단계(S50)를 포함한다.A method of tracing an attitude according to an embodiment of the present invention includes the steps of acquiring a current frame from a target image (S10), roughly matching a current frame and a reference frame based on a result of refinement matching of a previous frame (S20) (S40) of tracking the current posture of the object based on the result of the refinement matching, and a step (S50) of updating the reference frame based on the refinement matching result .

대상의 영상으로부터 현재 프레임을 획득하는 단계(S10)에서 현재 프레임은 카메라로 대상을 실시간으로 촬영한 영상으로부터 획득할 수 있다. 카메라는 3차원 거리 영상을 촬영하는 카메라일 수 있다. 현재 프레임은 기억 장치에 저장된 영상으로부터 획득할 수 있다. 대상의 영상으로부터 현재 프레임을 획득하는 단계(S10)에 대해서는 도 2를 참조하여 보다 상세히 설명할 것이다.In step S10 of acquiring the current frame from the image of the object, the current frame can be obtained from the image captured by the camera in real time. The camera may be a camera for photographing a three-dimensional distance image. The current frame can be obtained from the image stored in the storage device. Step S10 of acquiring the current frame from the image of the object will be described in more detail with reference to Fig.

이전 프레임의 정제 정합 결과에 기초하여 현재 프레임과 기준 프레임을 개략 정합하는 단계(S20)에서 개략 정합은 이전 프레임을 기준 프레임으로 정합하는 변환 행렬을 현재 프레임에 적용하여 수행될 수 있다. 개략 정합은 제1처리부에 의해 수행될 수 있다. 제1처리부는 영상 처리 장치(GPU)일 수 있다.In step (S20) of roughly matching the current frame and the reference frame based on the result of the refinement of the previous frame, the coarse matching may be performed by applying a transform matrix to the current frame to match the previous frame with the reference frame. The coarse matching can be performed by the first processing unit. The first processing unit may be an image processing unit (GPU).

개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 단계(S30)에서 정제 정합은 변형 IPP 알고리즘을 이용하여 수행될 수 있다. 정제 정합은 제1처리부에 의해 수행될 수 있다. 변형 IPP 알고리즘에 대해서는 도 3을 참조하여 구체적으로 설명할 것이다. The refinement matching can be performed using the modified IPP algorithm in the refinement matching step S30 of the current frame to which the coarse matching is applied and the reference frame. The tablet matching can be performed by the first processing unit. The modified IPP algorithm will be described in detail with reference to FIG.

정제 정합 결과에 기초하여 대상의 현재 자세를 추적하는 단계(S40)에서 현재 프레임을 기준 프레임으로 정합하는 변환 행렬에 기초하여 대상의 현재 자세를 추적할 수 있다. 대상의 현재 자세 추적은 제2처리부에 의해 수행될 수 있다. 제2처리부는 중앙 처리 장치(CPU)일 수 있다.The current posture of the object can be tracked based on the transformation matrix that matches the current frame with the reference frame in step S40 of tracking the current posture of the object based on the refinement matching result. The current posture tracking of the object can be performed by the second processing unit. The second processing unit may be a central processing unit (CPU).

정제 정합 결과에 기초하여 기준 프레임을 업데이트하는 단계(S50)에서 기준 프레임은 정제 정합이 적용된 현재 프레임을 이용하여 업데이트 된다. 기준 프레임이 정제 정합이 수행될 때마다 정제 정합 결과를 누적하면서 업데이트되면, 업데이트된 기준 프레임은 처음 기준 프레임에는 포함되지 않았던 대상의 영역을 포함하게 된다. 그 결과, 이후의 정제 정합에서 현재 프레임과 기준 프레임의 겹치는 영역이 많아지게 되어 정합의 성공률이 향상될 수 있다. 기준 프레임의 업데이트는 제1처리부에 의해 수행될 수 있다. 정제 정합 결과에 기초하여 기준 프레임을 업데이트하는 방법에 대해서는 도 4를 참조하여 보다 상세히 설명할 것이다.In step S50 of updating the reference frame based on the refinement matching result, the reference frame is updated using the current frame to which the refinement matching is applied. When the reference frame is updated while accumulating the refinement matching result every time the refinement matching is performed, the updated reference frame includes the region of the object which was not included in the first reference frame. As a result, in the subsequent refinement matching, the overlapping area between the current frame and the reference frame is increased, and the matching success rate can be improved. The update of the reference frame may be performed by the first processing unit. A method of updating the reference frame based on the refinement matching result will be described in detail with reference to FIG.

도면에 도시되지는 않았으나 정제 정합 결과에 기초하여 대상의 현재 자세를 추적하는 단계(S40) 후에는 추적 결과에 기초하여 다양한 후처리가 수행될 수 있다. 실시예에서, 대상은 차량을 운전하는 운전자의 얼굴일 수 있고, 운전자가 탑승하여 전방을 응시하는 장면을 기준 프레임으로 하여 운전자의 현재 얼굴 자세를 추적하여 운전자의 전방 주시 태만을 방지할 수 있다. 실시예에서, 상기 방법은 환자의 재활 치료에 활용될 수 있다. 환자의 임의의 자세를 기준 프레임으로 하여 환자의 자세를 추적하여 환자의 관절 등의 가동 범위를 확인할 수 있다.
Although not shown in the figure, after step S40 of tracking the current posture of the object based on the result of the refinement matching, various post-processing can be performed based on the tracking result. In the embodiment, the object may be the face of the driver who drives the vehicle, and the driver's current face posture may be tracked by using the scene in which the driver strolls forward and gazes forward, as a reference frame, thereby preventing the driver from overlooking the forward direction. In an embodiment, the method may be utilized for rehabilitation of the patient. The operation range of the patient's joints can be confirmed by tracking the patient's posture using the arbitrary posture of the patient as a reference frame.

도 2는 현재 프레임을 획득하는 단계(S10)를 보다 상세히 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining step (S10) of acquiring a current frame in more detail.

현재 프레임을 획득하는 단계(S10)는 대상의 영상으로부터 원본 프레임을 획득하는 단계(S12), 획득한 원본 프레임을 전처리하는 단계(S14), 전처리된 원본 프레임을 현재 프레임으로 등록하는 단계(S16)를 포함한다. 원본 프레임이란 대상의 영상에서 직접 획득하여 아무런 영상 처리가 되지 않은 프레임을 의미한다.The step of acquiring a current frame S10 includes a step S12 of acquiring an original frame from an image of the object, a step S14 of preprocessing the acquired original frame, a step S16 of registering the preprocessed original frame as a current frame, . A source frame is a frame that is acquired directly from the target image and has not been subjected to any image processing.

도 1의 S10 단계에 대해 설명한 바와 같이, 대상의 영상은 카메라가 실시간으로 촬영한 대상의 영상일 수 있다. 대상의 영상은 카메라가 직접 촬영한 영상 외에 기록 매체로부터 읽기, 외부 기기로부터 수신 등의 방법을 통해 획득될 수 있다. 대상의 영상으로부터 원본 프레임이 획득될 수 있다.As described with respect to step S10 in Fig. 1, the image of the object may be the image of the object photographed by the camera in real time. The image of the subject can be obtained through a method such as reading from the recording medium, receiving from an external device, etc. in addition to the image directly shot by the camera. The original frame can be obtained from the image of the object.

원본 프레임을 전처리하는 단계(S14)는 제2처리부에 의해 수행될 수 있다. 원본 프레임의 전처리에는 잡음과 배경을 제거하는 과정을 포함한다. 원본 프레임으로부터 배경을 제거함으로써 배경이 아닌 대상에 의해 영상 정합이 수행될 수 있으며, 정합의 정확도가 향상될 수 있다.Step S14 of preprocessing the original frame may be performed by the second processing unit. Preprocessing of the original frame involves removing noise and background. The image matching can be performed by the object other than the background by removing the background from the original frame, and the accuracy of matching can be improved.

제2처리부가 전처리된 원본 프레임을 제1처리부에 전송하면 제1처리부는 전처리된 원본 프레임을 현재 프레임으로 획득(S16)하여 기준 프레임과 정합할 수 있도록 한다.
When the second processing unit transmits the preprocessed original frame to the first processing unit, the first processing unit acquires the preprocessed original frame as a current frame (S16) so as to match with the reference frame.

본 발명에서 기준 프레임은 현재 프레임에서 대상의 자세 추적의 기준이 되는 프레임이다. 기준 프레임은 도 2에서 설명한 현재 프레임의 획득 단계와 유사한 방법을 통해서 임의의 시점에 대상을 촬영한 영상으로부터 획득될 수 있다. 대상의 영상으로부터 대상의 기준 자세를 포함하는 프레임 하나가 선택되고, 선택된 프레임으로부터 도 2에서 설명한 것과 같은 방법으로 잡음과 배경을 제거함으로써 기준 프레임이 획득된다. 본 발명에서는 대상을 촬영한 영상으로부터 선택된 하나의 프레임을 기준 프레임으로 활용함으로써, 대상의 자세에 대한 데이터베이스를 구축함이 없이 영상 정합을 통해 대상의 현재 자세를 추적할 수 있다.
In the present invention, the reference frame is a frame that serves as a reference for attitude tracking of the object in the current frame. The reference frame can be obtained from an image of an object taken at an arbitrary point in time by a method similar to the acquisition of the current frame described in Fig. From the image of the object, one frame containing the reference posture of the object is selected and the reference frame is obtained by removing noise and background from the selected frame in the same manner as described in Fig. In the present invention, one frame selected from an image of an object is used as a reference frame, and the current posture of the object can be tracked through image matching without establishing a database of the posture of the object.

이하에서는 본 발명의 실시예에 따른 개략 정합과 정제 정합을 설명한다.
Hereinafter, approximate matching and refinement matching according to an embodiment of the present invention will be described.

개략 outline 정합coordination

본 발명의 실시예에 따른 개략 정합은 이전 프레임을 기준 프레임으로 정합하는 변환 행렬을 현재 프레임에 적용하여 수행될 수 있다. 개략 정합은 아래의 수학식 1에 의해 수행된다.
The coarse matching according to the embodiment of the present invention can be performed by applying a transformation matrix to the current frame to match the previous frame with the reference frame. The coarse matching is performed by the following equation (1).

Figure 112013082780115-pat00001
Figure 112013082780115-pat00001

수학식 1에서

Figure 112013082780115-pat00002
는 k번째 프레임,
Figure 112013082780115-pat00003
는 개략 정합이 적용된 k번째 프레임, 변환 행렬
Figure 112013082780115-pat00004
은 이전 프레임
Figure 112013082780115-pat00005
을 기준 프레임(
Figure 112013082780115-pat00006
)로 정합하는 상대 변환을 의미한다. 즉, k번째 프레임(
Figure 112013082780115-pat00007
)을 현재 프레임이라고 하면, 현재 프레임(
Figure 112013082780115-pat00008
)에 대해 이전 프레임을 기준 프레임으로 정합하는 변환 행렬을 적용함으로써 개략 정합이 수행된다. 그 결과 개략 정합이 적용된 현재 프레임(
Figure 112013082780115-pat00009
)을 얻을 수 있다. 이전 프레임을 기준 프레임으로 정합하는 변환 행렬
Figure 112013082780115-pat00010
은 이전 프레임의 정제 정합 결과로부터 구해질 수 있다.In Equation (1)
Figure 112013082780115-pat00002
Th frame,
Figure 112013082780115-pat00003
K < / RTI > frame to which coarse matching is applied,
Figure 112013082780115-pat00004
The previous frame
Figure 112013082780115-pat00005
To a reference frame (
Figure 112013082780115-pat00006
). ≪ / RTI > That is, the kth frame (
Figure 112013082780115-pat00007
) Is the current frame, the current frame
Figure 112013082780115-pat00008
), A coarse matching is performed by applying a transformation matrix that matches the previous frame with the reference frame. As a result, the current frame to which the coarse matching is applied
Figure 112013082780115-pat00009
) Can be obtained. A transformation matrix that matches the previous frame with the reference frame
Figure 112013082780115-pat00010
Can be obtained from the refinement matching result of the previous frame.

본 발명의 실시예에 따르면, 정제 정합은 변형 IPP 알고리즘에 의해 수행될 수 있다. 정제 정합을 설명하기에 앞서 변형 IPP 알고리즘을 도 3을 참조하여 보다 구체적으로 설명한다.
According to an embodiment of the present invention, the tablet matching can be performed by a modified IPP algorithm. Prior to describing the refinement matching, the modified IPP algorithm will be described in more detail with reference to FIG.

변형 transform IPPIPP 알고리즘 algorithm

도 3은 본 발명의 실시예에 따른 변형 IPP 알고리즘을 설명하기 위한 도면이다.3 is a diagram for explaining a modified IPP algorithm according to an embodiment of the present invention.

두 영상을 정합하기 위해서는 두 영상 간의 매칭점을 찾아야 한다. 기존의 IPP 알고리즘은 반복적으로 알고리즘을 수행하여 수렴되는 3차원 점을 정합을 위한 매칭점으로 선택한다. 이에 반해, 본 발명의 실시예에 따른 변형 IPP 알고리즘은 기존의 IPP의 장점을 그대로 이용하면서, 단 한 번의 추정 과정을 통해 매칭점을 결정하여 매칭점 추정에 소요되는 시간을 좀 더 단축시킬 수 있다. 변형 IPP 알고리즘의 목적은 S곡면과 D곡면을 정합하기 위해, 점 P의 매칭점인 점 Q`를 찾는 것이다. 변형 IPP 알고리즘을 도 3을 참조하여 간략히 설명한다.To match two images, a matching point between two images must be found. The existing IPP algorithm repeatedly executes the algorithm and selects the convergent 3D point as a matching point for matching. On the other hand, the modified IPP algorithm according to the embodiment of the present invention can shorten the time required for matching point estimation by determining a matching point through only one estimation process while using the advantages of the existing IPP as it is . The purpose of the modified IPP algorithm is to find the point Q ', which is the matching point of the point P, to match the S and D surfaces. The modified IPP algorithm is briefly described with reference to Fig.

먼저, S곡면 상의 3차원 점 P를 D곡면의 2차원 영상으로 투영하여 2차원 이미지 좌표(PD)를 구한다. 그리고 2차원 이미지 좌표(PD)에 대응하는 D곡면상의 3차원 투영점(Q)을 D곡면의 거리 영상(ID)과 2차원 이미지 좌표(PD)를 이용하여 추정한다. 추정한 3차원 투영점(Q`)의 탄젠트 평면을 구성한 뒤, 점 P와 탄젠트 평면이 수직으로 만나는 점을 매칭점으로 선택한다.First, a two-dimensional image coordinate (P D ) is obtained by projecting a three-dimensional point P on the S curved surface to a two-dimensional image of the D curved surface. And D on the three-dimensional curved surface projection point (Q) corresponding to the two-dimensional image coordinates (P D) is estimated using the distance image (I D) and the two-dimensional image coordinates (P D) of the D-form surface. After constructing the tangent plane of the estimated three-dimensional projection point Q ', a point at which the point P and the tangent plane meet vertically is selected as the matching point.

만약 S곡면과 D곡면에서 각각 k개의 매칭점 {P}와 {Q`}가 결정되었다면, 두 점집합 사이의 정합 오차(e)를 최소화하는 3차원 변환 행렬(T)을 수학식 2와 특이값분해(Singular Value Decomposition, SVD)를 이용하여 구할 수 있다.If the k matching points {P} and {Q}} are determined on the S curved surface and the D curved surface, a three-dimensional transformation matrix T minimizing the matching error (e) Can be obtained using Singular Value Decomposition (SVD).

Figure 112013082780115-pat00011
Figure 112013082780115-pat00011

정제 refine 정합coordination

개략 정합이 적용된 현재 프레임(

Figure 112013082780115-pat00012
)은 이어서 기준 프레임과 정제 정합된다. 기준 프레임(
Figure 112013082780115-pat00013
)과 개략 정합이 적용된 현재 프레임(
Figure 112013082780115-pat00014
)이 주어지면, 변형 IPP 알고리즘을 이용하여 다음의 수학식 3을 만족하는 변환 행렬(
Figure 112013082780115-pat00015
)를 계산할 수 있다.Current frame to which coarse matching is applied (
Figure 112013082780115-pat00012
) Is then refined to the reference frame. Reference frame (
Figure 112013082780115-pat00013
) And the current frame to which the coarse matching is applied
Figure 112013082780115-pat00014
) Is given, a transform matrix (i, j) that satisfies the following equation (3) using the modified IPP algorithm
Figure 112013082780115-pat00015
) Can be calculated.

Figure 112013082780115-pat00016
Figure 112013082780115-pat00016

수학식 3에서

Figure 112013082780115-pat00017
Figure 112013082780115-pat00018
는 각각 개략 정합이 적용된 현재 프레임(
Figure 112013082780115-pat00019
)과 기준 프레임(
Figure 112013082780115-pat00020
) 사이에 변형 IPP 알고리즘으로 매칭되는 3차원 점들을 말하며,
Figure 112013082780115-pat00021
Figure 112013082780115-pat00022
에 대응하는 법선 벡터를 의미한다.In Equation 3,
Figure 112013082780115-pat00017
Wow
Figure 112013082780115-pat00018
Is a current frame ("
Figure 112013082780115-pat00019
) And a reference frame
Figure 112013082780115-pat00020
) Is a three-dimensional point matched by a modified IPP algorithm,
Figure 112013082780115-pat00021
The
Figure 112013082780115-pat00022
Quot; normal vector ".

현재 자세는 기준 프레임을 기준으로 얼마만큼의 변환이 있었는지를 의미하는 것이므로, 현재 자세(

Figure 112013082780115-pat00023
)는 아래 수학식 4에 의해 구해진다.Since the current posture means how much conversion has occurred based on the reference frame, the current posture
Figure 112013082780115-pat00023
) Is obtained by the following equation (4).

Figure 112013082780115-pat00024
Figure 112013082780115-pat00024

추적된 현재 자세(

Figure 112013082780115-pat00025
)를 이용하여, 상술한 바와 같은 운전자 얼굴 자세 추적 등의 후처리를 할 수 있다.
Tracked current posture (
Figure 112013082780115-pat00025
), It is possible to perform post-processing such as the above-described driver's face posture tracking and the like.

도 4는 본 발명의 실시예에 따른 정제 정합 결과에 기초하여 기준 프레임을 업데이트하는 단계를 보다 상세히 설명하기 위한 도면이다.4 is a diagram for explaining a step of updating a reference frame on the basis of a result of refinement matching according to an embodiment of the present invention.

기준 프레임과 현재 프레임 사이에 매칭점이 많을수록 정합의 성공률은 향상된다. 따라서, 본 발명의 실시예에서는 개략 정합이 적용된 현재 프레임과 기준 프레임 간의 정제 정합 결과에 기초하여 기준 프레임이 업데이트된다.The more matching points between the reference frame and the current frame, the better the match success rate. Therefore, in the embodiment of the present invention, the reference frame is updated based on the result of the refinement matching between the current frame to which the coarse matching is applied and the reference frame.

도 4를 참조하면, 1단계는 기준 프레임과 프레임 1이 정합된 결과를 보여주고 있다. 기준 프레임과 프레임 1이 정합된 1단계 정합 결과를 참조하면, 기준 프레임에서 포함되지 않았던 부분(U1)이 1단계 정합 결과에 나타난다. 본 발명의 실시예에 따르면, 1단계 정합 결과가 2단계 정합의 기준 프레임으로 사용될 수 있도록 1단계 정합 결과가 기준 프레임으로 업데이트된다.Referring to FIG. 4, in step 1, the reference frame and the frame 1 are matched. Referring to the one-step matching result in which the reference frame and the frame 1 are matched, a portion U1 that was not included in the reference frame appears in the one-step matching result. According to the embodiment of the present invention, the one-step matching result is updated to the reference frame so that the one-step matching result can be used as the two-step matching reference frame.

같은 방법으로 2단계는 업데이트된 기준 프레임과 프레임 2가 정합된 결과를 보여주고 있다. 2단계 정합 결과를 참조하면, 기준 프레임에서 포함되지 않았던 부분(U2)이 2단계 정합 결과에 나타난다. 각 단계의 정합 결과가 기준 프레임으로 업데이트 되면, 처음 기준 프레임에 포함되어 있지 않았던 영역이 기준 프레임에 포함되게 된다. 따라서, 현재 프레임과 기준 프레임이 겹치는 영역이 많아지도록 할 수 있고 이로 인해 정합의 성공률이 향상된다.
In the same manner, step 2 shows the result of matching the updated reference frame and frame 2. Referring to the two-step matching result, the portion U2 that was not included in the reference frame appears in the two-step matching result. When the matching result of each step is updated to the reference frame, an area not included in the first reference frame is included in the reference frame. Accordingly, the number of regions where the current frame and the reference frame overlap each other can be increased, thereby improving the matching success rate.

자세 추적 장치Attitude tracking device

도 5는 본 발명의 실시예에 따른 자세 추적 장치(100)를 설명하기 위한 도면이다. 5 is a view for explaining an attitude tracking apparatus 100 according to an embodiment of the present invention.

본 발명의 실시예에서 자세 추적 장치(100)는 영상 획득부(110), 제1처리부(130) 및 제2처리부(150)를 포함할 수 있다.In the embodiment of the present invention, the posture tracking apparatus 100 may include an image acquisition unit 110, a first processing unit 130, and a second processing unit 150.

본 발명의 실시예에서 영상 획득부(110)는 카메라일 수 있다. 카메라는 3차원 거리 영상을 획득할 수 있다. 실시예로써, 영상 획득부(110)는 마이크로소프트 사의 키넥트(kinect)일 수 있다. 본 발명의 실시예에 따른 영상 획득부(110)는 카메라처럼 대상을 직접 촬영하여 영상을 획득하는 장치 외에도 기록 매체에 기록된 영상을 읽어 들이는 장치일 수 있고, 외부 장치로부터 영상을 수신하는 장치일 수 있다. In an embodiment of the present invention, the image acquisition unit 110 may be a camera. The camera can acquire a three-dimensional distance image. As an example, the image acquisition unit 110 may be a kinect of Microsoft Corporation. The image obtaining unit 110 according to the embodiment of the present invention may be a device for directly reading an image recorded on a recording medium, Lt; / RTI >

본 발명의 실시예에 따르면, 제2처리부(150)는 영상 획득부(110)가 획득한 영상을 전처리할 수 있다. 전처리에는 영상에서 잡음을 제거하는 것과 배경을 제거하는 것이 포함된다. 제2처리부(150)는 잡음과 배경이 제거된 영상을 제1처리부(130)에 전달할 수 있다.According to the embodiment of the present invention, the second processing unit 150 can pre-process an image acquired by the image acquiring unit 110. [ The preprocessing involves removing noise from the image and removing the background. The second processing unit 150 may transmit the image from which noise and background are removed to the first processing unit 130. [

본 발명의 실시예에 따르면, 제2처리부(150)는 제1처리부(130)의 처리 결과를 전송받아 대상의 현재 자세를 추적할 수 있다. 제1처리부(130)의 처리 결과에는 기준 프레임과 현재 프레임의 정합 결과가 포함된다. 제2처리부(150)는 추적한 대상의 현재 자세를 이용하여 다양한 후처리를 할 수 있다. 실시예에서, 대상은 운전자의 얼굴일 수 있고, 운전자의 얼굴 자세를 추적하여 운전자의 전방 주시 태만 여부를 확인할 수 있다.According to the embodiment of the present invention, the second processing unit 150 can receive the processing result of the first processing unit 130 and track the current posture of the object. The processing result of the first processing unit 130 includes the matching result of the reference frame and the current frame. The second processing unit 150 can perform various post-processing using the current posture of the tracked object. In the embodiment, the object may be the face of the driver, and the driver's face posture may be tracked to confirm whether or not the driver is looking forward.

본 발명의 실시예에 따르면, 제1처리부(130)는 제2처리부(150)에 의해 전처리된 영상을 처리할 수 있다. 영상의 처리에는 기준 프레임과 영상의 현재 프레임의 개략 정합과 정제 정합이 포함된다.According to the embodiment of the present invention, the first processing unit 130 can process the image preprocessed by the second processing unit 150. The processing of the image includes the coarse matching and the refinement matching of the reference frame and the current frame of the image.

본 발명의 실시예에 따르면, 제1처리부(130)는 이전 프레임의 정제 정합 결과에 기초하여 현재 프레임과 기준 프레임을 개략 정합 할 수 있다. 개략 정합은 이전 프레임을 기준 프레임으로 정합하는 변환 행렬을 현재 프레임에 적용하여 수행될 수 있다.According to the embodiment of the present invention, the first processing unit 130 can roughly match the current frame and the reference frame based on the result of the refinement matching of the previous frame. Coarse matching may be performed by applying a transformation matrix to the current frame to match the previous frame to the reference frame.

본 발명의 실시예에 따르면, 제1처리부(130)는 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합 할 수 있다. 정제 정합은 변형 IPP 알고리즘을 이용하여 수행될 수 있다.According to an embodiment of the present invention, the first processing unit 130 may refine-match the current frame to which the coarse matching is applied and the reference frame. Tablet matching may be performed using a modified IPP algorithm.

본 발명의 실시예에 따르면, 제1처리부(130)는 기준 프레임을 획득할 수 있다. 기준 프레임은 임의의 시점에 대상을 촬영한 영상으로부터 획득될 수 있다. 제1처리부(130)는 영상에서 선택된 임의의 하나의 프레임을 기준 프레임으로 설정할 수 있다.According to the embodiment of the present invention, the first processing unit 130 can acquire a reference frame. The reference frame can be obtained from an image of an object taken at an arbitrary point in time. The first processing unit 130 may set any one frame selected from the image as a reference frame.

본 발명의 실시예에 따르면, 제1처리부(130)는 정제 정합이 적용된 현재 프레임을 이용하여 기준 프레임을 업데이트 할 수 있다. 업데이트 된 기준 프레임은 다음 프레임을 정합할 때 기준 프레임으로 사용된다.According to the embodiment of the present invention, the first processing unit 130 may update the reference frame using the current frame to which the refinement matching is applied. The updated reference frame is used as a reference frame when matching the next frame.

본 발명의 실시예에 따르면, 제1처리부(130)는 정제 정합 결과를 제2처리부(150)로 전달하여 제2처리부(150)로 하여금 대상의 현재 자세를 추적하게 한다.According to the embodiment of the present invention, the first processing unit 130 transmits the result of the tablet matching to the second processing unit 150, and allows the second processing unit 150 to track the current posture of the object.

본 발명의 실시예에 따르면, 제1처리부(130)는 영상 처리 장치(GPU)일 수 있다.According to an embodiment of the present invention, the first processing unit 130 may be an image processing unit (GPU).

도 5를 참조하면, 제1처리부(130)와 제2처리부(150)는 별개의 장치인 것으로 보여지고 있지만, 제1처리부(130)와 제2처리부(150)는 하나의 처리 장치에 의해 구현될 수 있다.
5, the first processing unit 130 and the second processing unit 150 are shown as separate devices. However, the first processing unit 130 and the second processing unit 150 may be implemented by a single processing unit .

운전자 얼굴 자세 추적 장치Driver's face posture tracking device

도 6은 본 발명의 실시예에 따른 운전자 얼굴 자세 추적 장치(200)를 설명하기 위한 도면이다.FIG. 6 is a view for explaining a driver's face posture tracking apparatus 200 according to an embodiment of the present invention.

본 발명의 실시예에서 운전자 얼굴 자세 추적 장치(200)는 영상 획득부(210), 제1처리부(230) 및 제2처리부(250)를 포함할 수 있다.The driver's face posture tracking apparatus 200 may include an image obtaining unit 210, a first processing unit 230, and a second processing unit 250. In the present embodiment,

본 발명의 실시예에서 영상 획득부(210)는 카메라일 수 있다. 카메라는 3차원 거리 영상을 획득할 수 있다. 실시예로써, 영상 획득부(210)는 마이크로소프트 사의 키넥트(kinect)일 수 있다. 본 발명의 실시예에 따른 영상 획득부(210)는 카메라처럼 대상을 직접 촬영하여 영상을 획득하는 장치 외에도 기록 매체에 기록된 영상을 읽어 들이는 장치일 수 있고, 외부 장치로부터 영상을 수신하는 장치일 수 있다. 영상 획득부(210)는 운전자의 얼굴을 정면에서 촬영할 수 있는 위치에 배치될 수 있다.In the embodiment of the present invention, the image obtaining unit 210 may be a camera. The camera can acquire a three-dimensional distance image. As an embodiment, the image acquisition unit 210 may be a kinect of Microsoft Corporation. The image acquisition unit 210 according to an embodiment of the present invention may be a device that directly reads an image recorded on a recording medium in addition to an apparatus that acquires an image by directly shooting an object, Lt; / RTI > The image acquisition unit 210 may be disposed at a position where the face of the driver can be photographed from the front.

본 발명의 실시예에 따르면, 제2처리부(250)는 영상 획득부(210)가 획득한 영상을 전처리할 수 있다. 전처리에는 영상에서 잡음을 제거하는 것과 운전자의 얼굴을 제외한 배경을 제거하는 것이 포함된다. 제2처리부(150)는 잡음과 운전자의 얼굴을 제외한 배경이 제거된 영상을 제1처리부(230)에 전달할 수 있다.According to an embodiment of the present invention, the second processing unit 250 can pre-process an image acquired by the image acquisition unit 210. [ The preprocessing involves removing noise from the image and removing the background except for the driver's face. The second processing unit 150 can transmit the image to which the background except for the noise and the driver's face is removed to the first processing unit 230. [

본 발명의 실시예에 따르면, 제2처리부(250)는 제1처리부(230)의 처리 결과를 전송받아 운전자 얼굴의 현재 자세를 추적할 수 있다. 제1처리부(230)의 처리 결과에는 기준 프레임과 현재 프레임의 정합 결과가 포함된다.According to the embodiment of the present invention, the second processing unit 250 can receive the processing result of the first processing unit 230 and track the current posture of the driver's face. The processing result of the first processing unit 230 includes the matching result of the reference frame and the current frame.

본 발명의 실시예에 따르면, 제1처리부(230)는 제2처리부(250)에 의해 전처리된 영상을 처리할 수 있다. 영상의 처리에는 기준 프레임과 영상의 현재 프레임의 개략 정합과 정제 정합이 포함된다.According to an embodiment of the present invention, the first processing unit 230 may process the image that has been pre-processed by the second processing unit 250. The processing of the image includes the coarse matching and the refinement matching of the reference frame and the current frame of the image.

본 발명의 실시예에 따르면, 제1처리부(230)는 이전 프레임의 정제 정합 결과에 기초하여 현재 프레임과 기준 프레임을 개략 정합 할 수 있다. 개략 정합은 이전 프레임을 기준 프레임으로 정합하는 변환 행렬을 현재 프레임에 적용하여 수행될 수 있다.According to the embodiment of the present invention, the first processing unit 230 can roughly match the current frame and the reference frame based on the refinement matching result of the previous frame. Coarse matching may be performed by applying a transformation matrix to the current frame to match the previous frame to the reference frame.

본 발명의 실시예에 따르면, 제1처리부(230)는 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합 할 수 있다. 정제 정합은 변형 IPP 알고리즘을 이용하여 수행될 수 있다.According to the embodiment of the present invention, the first processing unit 230 may refine-match the reference frame with the current frame to which the coarse matching is applied. Tablet matching may be performed using a modified IPP algorithm.

본 발명의 실시예에 따르면, 제1처리부(230)는 기준 프레임을 획득할 수 있다. 기준 프레임은 임의의 시점에 대상을 촬영한 영상으로부터 획득될 수 있다. 제1처리부(130)는 영상에서 선택된 임의의 하나의 프레임을 기준 프레임으로 설정할 수 있다. 실시예에서, 기준 프레임은 운전자가 정면을 주시하고 있는 프레임일 수 있다.According to an embodiment of the present invention, the first processing unit 230 may acquire a reference frame. The reference frame can be obtained from an image of an object taken at an arbitrary point in time. The first processing unit 130 may set any one frame selected from the image as a reference frame. In an embodiment, the reference frame may be a frame in which the driver is looking at the front.

본 발명의 실시예에 따르면, 제1처리부(230)는 정제 정합이 적용된 현재 프레임을 이용하여 기준 프레임을 업데이트 할 수 있다. 업데이트 된 기준 프레임은 다음 프레임을 정합할 때 기준 프레임으로 사용된다.According to the embodiment of the present invention, the first processing unit 230 may update the reference frame using the current frame to which the refinement matching is applied. The updated reference frame is used as a reference frame when matching the next frame.

본 발명의 실시예에 따르면, 제1처리부(230)는 정제 정합 결과를 제2처리부(250)로 전달하여 제2처리부(250)로 하여금 운전자 얼굴의 현재 자세를 추적하게 한다.According to the embodiment of the present invention, the first processing unit 230 transmits the result of the tablet matching to the second processing unit 250, and allows the second processing unit 250 to track the current posture of the driver's face.

본 발명의 실시예에 따르면, 제1처리부(230)는 영상 처리 장치(GPU)일 수 있다.According to an embodiment of the present invention, the first processing unit 230 may be an image processing unit (GPU).

도 6을 참조하면, 제1처리부(230)와 제2처리부(250)는 별개의 장치인 것으로 보여지고 있지만, 제1처리부(230)와 제2처리부(250)는 하나의 처리 장치에 의해 구현될 수 있다.6, the first processing unit 230 and the second processing unit 250 are shown as separate devices. However, the first processing unit 230 and the second processing unit 250 may be implemented by a single processing unit .

본 발명의 실시예에 따르면, 경고음 발생부(270)는 제2처리부(250)가 추적한 운전자 얼굴의 현재 자세가 일방향으로 소정의 각도 이상 틀어진 경우, 운전자에게 전방 주시 태만을 알리는 경고음을 발생할 수 있다. 소정의 각도는 45도 일 수 있고 소정의 각도는 필요에 따라 변경될 수 있다.According to the embodiment of the present invention, when the current posture of the driver's face tracked by the second processing unit 250 is shifted by more than a predetermined angle in one direction, the warning sound generating unit 270 may generate a warning sound informing the driver of the forward- have. The predetermined angle may be 45 degrees and the predetermined angle may be changed as needed.

본 발명의 실시예에 따르면, 경고음 발생부(270)는 운전자의 현재 얼굴 자세가 일방향으로 소정의 각도 이상 틀어진 경우라도 다른 조건들을 고려하여 경고음을 발생하지 않을 수 있다. 경고음 발생부(270)는 차량의 제어 장치와 연결되어, 차량의 속도, 기어, 방향 지시등의 상태 등을 수신할 수 있다. 경고음 발생부(270)는 운전자의 얼굴이 왼쪽을 향해 틀어져 있는 경우라 하더라도, 차량의 왼쪽 방향 지시등이 켜져 있는 경우에는 운전자가 왼쪽 사이드 미러를 보는 것으로 판단하여 경고음을 발생하지 않을 수 있다. 오른쪽 역시 같은 방식으로 적용이 될 수 있다. 실시예로써, 경고음 발생부(270)는 운전자의 얼굴 자세가 일방향으로 틀어진 경우라 하더라도, 차량의 기어가 후진 기어인 경우, 후진을 위해 후방을 보고 있는 것으로 판단하여 경고음을 발생하지 않을 수 있고, 중립 기어이거나 주차 기어인 경우에는 차량이 정차된 것으로 판단하여 경고음을 발생하지 않을 수 있다. 상술한 경고음을 발생하지 않는 경우는 예시적인 것이며, 경고음 발생부(270)는 다른 외부 환경들을 고려하여 동작할 수 있다.
According to the embodiment of the present invention, the warning sound generating unit 270 may not generate a warning sound in consideration of other conditions even when the driver's current face posture is deviated by more than a predetermined angle in one direction. The warning sound generating unit 270 may be connected to the control unit of the vehicle, and may receive the speed, the gear, the state of the turn signal lamp, and the like. Even when the face of the driver is turned to the left, the warning sound generating unit 270 may determine that the driver sees the left side mirror when the left turn indicator lamp of the vehicle is turned on, and may not generate a warning sound. The right side can be applied in the same way. In an embodiment, the warning sound generating unit 270 may not generate a warning sound when it is determined that the vehicle's rear face is looking for a backward gear when the gear of the vehicle is a reverse gear, even if the driver's face posture is changed in one direction, In the case of a neutral gear or a parking gear, it is determined that the vehicle is stopped and no warning sound is generated. The case in which the above-mentioned warning sound is not generated is an exemplary one, and the warning sound generating section 270 can operate in consideration of other external environments.

전술한 본 발명의 실시예에 따른 자세 추적 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있다.
The posture tracking method according to the embodiment of the present invention described above may be implemented as a program to be executed in a computer and stored in a computer-readable recording medium. The computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.

이상의 실시예들은 본 발명의 이해를 돕기 위하여 제시된 것으로, 본 발명의 범위를 제한하지 않으며, 이로부터 다양한 변형 가능한 실시예들도 본 발명의 범위에 속할 수 있음을 이해하여야 한다. 예를 들어, 본 발명의 실시예에 도시된 각 구성 요소는 분산되어 실시될 수도 있으며, 반대로 여러 개로 분산된 구성 요소들은 결합되어 실시될 수 있다. 따라서, 본 발명의 기술적 보호범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이며, 본 발명의 기술적 보호범위는 특허청구범위의 문언적 기재 그 자체로 한정되는 것이 아니라 실질적으로는 기술적 가치가 균등한 범주의 발명에 대하여까지 미치는 것임을 이해하여야 한다.
It is to be understood that the above-described embodiments are provided to facilitate understanding of the present invention, and do not limit the scope of the present invention, and it is to be understood that various modifications may be made within the scope of the present invention. For example, each component shown in the embodiment of the present invention may be distributed and implemented, and conversely, a plurality of distributed components may be combined. Therefore, the technical protection scope of the present invention should be determined by the technical idea of the claims, and the technical protection scope of the present invention is not limited to the literary description of the claims, The invention of a category.

100: 자세 추적 장치
110: 영상 획득부
130: 제1처리부
150: 제2처리부
200: 얼굴 자세 추적 장치
210: 영상 획득부
230: 제1처리부
250: 제2처리부
270: 경고음 발생부
100: Attitude tracking device
110:
130:
150:
200: Facial posture tracking device
210:
230: first processing section
250: second processing section
270:

Claims (19)

대상의 현재 프레임을 획득하는 영상 획득부;
이전 프레임의 정제 정합 결과에 기초하여 상기 현재 프레임과 기준 프레임을 개략 정합하고, 상기 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 제1처리부; 및
상기 제1처리부에서의 정제 정합 결과에 기초하여 상기 대상의 현재 자세를 추적하는 제2처리부;
를 포함하는 자세 추적 장치.
An image acquiring unit acquiring a current frame of an object;
A first processor for roughly matching the current frame and the reference frame based on the result of the refinement of the previous frame, and refinement-matching the current frame and the reference frame to which the rough matching is applied; And
A second processing unit for tracking the current posture of the object based on the result of the tablet matching in the first processing unit;
And a posture tracking device.
제1항에 있어서,
상기 개략 정합은 상기 이전 프레임을 상기 기준 프레임으로 정합하는 변환 행렬을 상기 현재 프레임에 적용하여 수행되는 자세 추적 장치.
The method according to claim 1,
Wherein the coarse matching is performed by applying a transformation matrix to the current frame to match the previous frame with the reference frame.
제1항에 있어서,
상기 정제 정합은 변형 IPP 알고리즘을 이용하여 수행되는 자세 추적 장치.
The method according to claim 1,
Wherein the tablet matching is performed using a modified IPP algorithm.
제1항에 있어서,
상기 영상 획득부는 3차원 거리 영상을 획득할 수 있는 자세 추적 장치.
The method according to claim 1,
Wherein the image acquiring unit is capable of acquiring a three-dimensional distance image.
제1항에 있어서,
상기 기준 프레임은 임의의 시점에 대상을 촬영한 영상으로부터 획득되는 자세 추적 장치.
The method according to claim 1,
Wherein the reference frame is obtained from an image of an object at an arbitrary point in time.
제1항에 있어서,
상기 제1처리부는 상기 제1처리부에서의 정제 정합 결과에 기초하여 상기 기준 프레임을 업데이트하는 자세 추적 장치.
The method according to claim 1,
Wherein the first processing unit updates the reference frame based on a result of the refinement matching in the first processing unit.
제1항에 있어서,
상기 제2처리부는 상기 영상 획득부가 획득한 현재 프레임의 잡음과 배경을 제거하는 자세 추적 장치.
The method according to claim 1,
And the second processing unit removes noise and background of a current frame acquired by the image acquisition unit.
운전자 얼굴의 3차원 거리 영상을 획득하는 영상 획득부;
이전 프레임의 정제 정합 결과에 기초하여 상기 3차원 거리 영상의 현재 프레임과 기준 프레임을 개략 정합하고, 상기 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 제1처리부;
상기 제1처리부에서의 정제 정합 결과에 기초하여 상기 운전자 얼굴의 현재 자세를 추적하는 제2처리부;
상기 운전자의 현재 얼굴 자세에 기초하여 상기 운전자의 전방 주시 태만을 경고하는 경고음 발생부;
를 포함하는 운전자 얼굴 자세 추적 장치.
An image obtaining unit for obtaining a three-dimensional distance image of a driver's face;
A first processor for roughly matching the current frame and the reference frame of the 3D distance image based on the result of the refinement of the previous frame and performing refinement matching of the current frame and the reference frame to which the rough matching is applied;
A second processing unit for tracking the current posture of the driver's face based on the result of the tablet matching in the first processing unit;
A warning sound generating unit for warning the driver of a forward sighting error based on the current face posture of the driver;
The driver's face posture tracking device.
제8항에 있어서,
상기 개략 정합은 상기 이전 프레임을 상기 기준 프레임으로 정합하는 변환 행렬을 상기 현재 프레임에 적용하여 수행되는 운전자 얼굴 자세 추적 장치.
9. The method of claim 8,
Wherein the coarse matching is performed by applying a transformation matrix to the current frame to match the previous frame with the reference frame.
제8항에 있어서,
상기 정제 정합은 변형 IPP 알고리즘을 이용하여 수행되는 운전자 얼굴 자세 추적 장치.
9. The method of claim 8,
Wherein the tablet matching is performed using a modified IPP algorithm.
제8항에 있어서,
상기 기준 프레임은 상기 운전자가 정면을 바라보는 프레임인 운전자 얼굴 자세 추적 장치.
9. The method of claim 8,
Wherein the reference frame is a frame in which the driver looks in front of the driver.
제8항에 있어서,
상기 제1처리부는 상기 제1처리부에서의 정제 정합 결과에 기초하여 상기 기준 프레임을 업데이트하는 자세 추적 장치.
9. The method of claim 8,
Wherein the first processing unit updates the reference frame based on a result of the refinement matching in the first processing unit.
제8항에 있어서,
상기 제2처리부는 상기 영상 획득부가 획득한 현재 프레임의 잡음과 배경을 제거하는 자세 추적 장치.
9. The method of claim 8,
And the second processing unit removes noise and background of a current frame acquired by the image acquisition unit.
제8항에 있어서,
상기 경고음 발생부는 상기 제2처리부가 추적한 상기 운전자의 현재 얼굴 자세가 일방향으로 소정의 각도 이상 틀어진 경우, 상기 운전자에게 경고음을 발생하는 운전자 얼굴 자세 추적 장치.
9. The method of claim 8,
Wherein the warning sound generating unit generates a warning sound to the driver when the current face posture of the driver tracked by the second processing unit is deviated by more than a predetermined angle in one direction.
제14항에 있어서,
상기 경고음 발생부는 상기 추적한 운전자의 얼굴 자세가 일방향으로 소정의 각도 이상 틀어진 경우라도, 상기 일방향으로 차량의 방향지시등이 켜져있거나 상기 차량의 기어가 후진 기어, 중립 기어, 주차 기어 중 어느 하나의 기어인 경우에는 상기 운전자에게 경고음을 발생하지 않는 운전자 얼굴 자세 추적 장치.
15. The method of claim 14,
Even if the tracked driver's face posture is shifted by a predetermined angle or more in one direction, the warning sound generating unit may be configured such that the direction indicator of the vehicle is turned on in one direction, or that the gear of the vehicle is in any one of gears of reverse gear, neutral gear, The driver does not generate a warning sound.
대상의 현재 프레임을 획득하는 단계;
이전 프레임의 정제 정합 결과에 기초하여 상기 현재 프레임과 기준 프레임을 개략 정합하는 단계;
상기 개략 정합이 적용된 현재 프레임과 기준 프레임을 정제 정합하는 단계; 및
상기 개략 정합이 적용된 현재 프레임과 기준 프레임의 정제 정합 결과에 기초하여 상기 대상의 현재 자세를 추적하는 단계;
를 포함하는 대상의 자세 추적 방법.
Obtaining a current frame of the object;
Matching the current frame and the reference frame outline based on the result of the refinement of the previous frame;
Refinement-matching the current frame to which the coarse matching is applied and the reference frame; And
Tracking the current posture of the object based on the refinement matching result of the current frame and the reference frame to which the rough matching is applied;
Wherein the method comprises the steps of:
제16항에 있어서,
상기 대상의 현재 프레임을 획득하는 단계에 앞서
임의의 시점에 대상을 촬영한 영상으로부터 획득한 임의의 프레임을 상기 대상의 기준 프레임으로 등록하는 단계;
를 더 포함하는 대상의 자세 추적 방법.
17. The method of claim 16,
Prior to obtaining the current frame of the object
Registering an arbitrary frame obtained from an image of an object at an arbitrary time point as a reference frame of the object;
Wherein the object tracking method further comprises:
제16항에 있어서,
상기 대상의 현재 자세를 추적하는 단계 후에
상기 개략 정합이 적용된 현재 프레임과 기준 프레임의 정제 정합 결과를 상기 기준 프레임에 업데이트 하는 단계;
를 더 포함하는 대상의 자세 추적 방법.
17. The method of claim 16,
After the step of tracking the current posture of the object
Updating the ref- erence match result of the current frame and the reference frame to which the raster matching is applied to the reference frame;
Wherein the object tracking method further comprises:
제16항 내지 제18항 중 어느 한 항의 방법을 수행하기 위한 프로그램을 기록한 컴퓨터가 읽을 수 있는 기록 매체.18. A computer-readable recording medium on which a program for performing the method of any one of claims 16 to 18 is recorded.
KR1020130108583A 2013-09-10 2013-09-10 Method and apparatus for pose tracking KR101544022B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130108583A KR101544022B1 (en) 2013-09-10 2013-09-10 Method and apparatus for pose tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130108583A KR101544022B1 (en) 2013-09-10 2013-09-10 Method and apparatus for pose tracking

Publications (2)

Publication Number Publication Date
KR20150029408A KR20150029408A (en) 2015-03-18
KR101544022B1 true KR101544022B1 (en) 2015-08-13

Family

ID=53023909

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130108583A KR101544022B1 (en) 2013-09-10 2013-09-10 Method and apparatus for pose tracking

Country Status (1)

Country Link
KR (1) KR101544022B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5432260B2 (en) 2008-07-25 2014-03-05 クアルコム,インコーポレイテッド Improved detection of wave engagement gestures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5432260B2 (en) 2008-07-25 2014-03-05 クアルコム,インコーポレイテッド Improved detection of wave engagement gestures

Also Published As

Publication number Publication date
KR20150029408A (en) 2015-03-18

Similar Documents

Publication Publication Date Title
Mori et al. A survey of diminished reality: Techniques for visually concealing, eliminating, and seeing through real objects
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
CN109478335B (en) Driving assistance method, driving assistance system, and vehicle
US8711486B2 (en) System for highlighting targets on head up displays with near focus plane
JP2008186246A (en) Moving object recognizing device
WO2018222122A1 (en) Methods for perspective correction, computer program products and systems
KR100769461B1 (en) Stereo vision system
JP5299101B2 (en) Peripheral display device
CN105809664B (en) Method and device for generating three-dimensional image
KR100574227B1 (en) Apparatus and method for separating object motion from camera motion
JP5445069B2 (en) 3D position measuring apparatus and 3D position measuring method
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
CN114356072A (en) System and method for detecting spatial orientation of wearable device
Grimson Why stereo vision is not always about 3D reconstruction
CN111089579B (en) Heterogeneous binocular SLAM method and device and electronic equipment
KR101544022B1 (en) Method and apparatus for pose tracking
KR102082277B1 (en) Method for generating panoramic image and apparatus thereof
US20220114748A1 (en) System and Method for Capturing a Spatial Orientation of a Wearable Device
KR101071061B1 (en) Apparatus and method for driving assistance using feature of vehicle, and microprocessor and recording medium used thereto
CN113011212B (en) Image recognition method and device and vehicle
CN113536909A (en) Pre-aiming distance calculation method, system and equipment based on eye movement data
Ahmed et al. Distance alert system using Stereo vision and feature extraction
KR102269088B1 (en) Apparatus and method for tracking pupil
KR102430273B1 (en) Wide viewing angle stereo camera- based first person vision system and image processing method using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180724

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190725

Year of fee payment: 5