KR20180001778A - Method and apparatus for object extraction - Google Patents

Method and apparatus for object extraction Download PDF

Info

Publication number
KR20180001778A
KR20180001778A KR1020160080614A KR20160080614A KR20180001778A KR 20180001778 A KR20180001778 A KR 20180001778A KR 1020160080614 A KR1020160080614 A KR 1020160080614A KR 20160080614 A KR20160080614 A KR 20160080614A KR 20180001778 A KR20180001778 A KR 20180001778A
Authority
KR
South Korea
Prior art keywords
pointer
pointing position
image
extracted
mode
Prior art date
Application number
KR1020160080614A
Other languages
Korean (ko)
Other versions
KR101828340B1 (en
Inventor
정승원
김규목
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020160080614A priority Critical patent/KR101828340B1/en
Publication of KR20180001778A publication Critical patent/KR20180001778A/en
Application granted granted Critical
Publication of KR101828340B1 publication Critical patent/KR101828340B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Abstract

Disclosed are an object extraction method and an apparatus thereof. The object extraction method comprises the steps of: acquiring an image from a camera mounted on a wearable device; extracting a pointer from the image by using pointer feature information; and extracting at least one object from the image by using the extracted pointer. Therefore, an object can be extracted by recognizing a pointing position of a user in a wearable device.

Description

객체 추출 방법 및 그 장치{Method and apparatus for object extraction}TECHNICAL FIELD The present invention relates to a method and apparatus for object extraction,

본 발명은 웨어러블 디바이스에서 사용자의 포인팅 위치를 인식하여 객체를 추출하는 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for extracting an object by recognizing a pointing position of a user in a wearable device.

최근 증강 현실(augmented reality) 및 가상 현실(virtual reality) 기술이 활발하게 개발되고 있고 이와 관련된 안경형 스마트 기기, 시계형 스마트 기기 등 다양한 웨어러블 기기들이 등장했다. 증강 현실 기술은 현실 세계에 가상의 객체를 증강 하는 것으로 해당 시스템의 응용을 사용하기 위한 안경형 웨어러블 기기가 각광 받고 있고 이와 관련된 연구개발이 활발하게 진행 중이다. Recently augmented reality and virtual reality technology have been actively developed and various wearable devices such as a goggle type smart device and a clock type smart device have appeared. Augmented reality technology is augmenting virtual objects in the real world. Eyeglass wearable devices for using applications of the system are attracting attention, and research and development related thereto are actively underway.

영상에서 사용자가 원하는 객체를 분할하는 기술(object segmentation)이 활발히 개발 되고 있다. 스마트폰이나 태블릿 기기 환경에서는 사용자의 손가락 터치 입력을 통하여 입력 받은 정보를 이용하여 객체와 배경을 분리하는 기술이 일반적으로 적용되고 있다. Object segmentation is actively being developed to divide an object desired by a user in an image. In a smartphone or a tablet device environment, a technique of separating an object and a background using information input through the finger touch input of a user is generally applied.

한편 동작 인식 (gesture recognition) 기술이 활발하게 연구되고 있다. 사용자의 손동작 또는 몸동작을 알고리즘으로 인식하여 별도의 입력 장치를 필요로 하지 않는 인터페이스(natural user interface)가 다양한 응용 기술에 활용되고 있다. On the other hand, gesture recognition technology is actively studied. An interface (natural user interface) that does not require a separate input device by recognizing a user's hand gesture or body motion as an algorithm is utilized in various application technologies.

본 발명은 웨어러블 디바이스에서 사용자의 포인팅 위치를 인식하여 객체를 추출하는 객체 추출 방법 및 장치를 제공하기 위한 것이다.The object of the present invention is to provide an object extraction method and apparatus for extracting an object by recognizing a pointing position of a user in a wearable device.

본 발명의 일 측면에 따르면, 웨어러블 디바이스에서 사용자의 포인팅 위치를 인식하여 객체를 추출하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method of recognizing a pointing position of a user and extracting an object in a wearable device.

본 발명의 일 실시예에 따르면, (a) 웨어러블 디바이스에 장착된 카메라로부터 영상을 획득하는 단계; (b) 포인터 특징 정보를 이용하여 상기 영상에서 포인터를 추출하는 단계; 및 (c) 상기 추출된 포인터를 이용하여 상기 영상에서 적어도 하나의 객체를 추출하는 단계를 포함하는 객체 추출 방법이 제공될 수 있다.According to an embodiment of the present invention, there is provided a method for a wearable device, comprising: (a) acquiring an image from a camera mounted on a wearable device; (b) extracting a pointer from the image using pointer feature information; And (c) extracting at least one object from the image using the extracted pointer.

상기 (c) 단계는, 상기 추출된 포인터의 특성 정보를 더 고려하되, 상기 특성 정보는 상기 포인터의 패턴, 지시 방향, 모션 벡터 중 적어도 하나이다.In the step (c), the characteristic information of the extracted pointer is further considered, and the characteristic information is at least one of a pattern of the pointer, a pointing direction, and a motion vector.

상기 (c) 단계는, 상기 특성 정보에 기반하여 상기 객체를 전경 객체 또는 배경 객체로 구분하여 추출할 수 있다.In the step (c), the object may be divided into a foreground object or a background object based on the characteristic information.

상기 (b) 단계 이후에, 상기 추출된 포인터를 이용하여 포인팅 위치를 계산하는 단계를 더 포함할 수 있다.The method may further include, after the step (b), calculating a pointing position using the extracted pointer.

상기 (c) 단계는, 상기 포인팅 위치에 포함되는 후보 객체의 화소값을 기반으로 수퍼 픽셀 분할(superpixel segmenataion)을 이용하여 상기 객체를 추출할 수 있다.The step (c) may extract the object using a super pixel division based on a pixel value of a candidate object included in the pointing position.

상기 (a) 단계 이전에, 모드를 설정받는 단계-상기 모드는 투명 모드 및 반투명 모드 중 어느 하나임-를 포함하되, 상기 모드가 투명 모드인 경우, 상기 포인팅 위치를 사용자 시점에 기반하여 이동시킬 수 있다.The method of claim 1, further comprising: setting a mode prior to the step (a), wherein the mode is one of a transparent mode and a translucent mode, and when the mode is a transparent mode, have.

상기 (c) 단계는, 이전 영상의 포인팅 위치와 현재 영상의 포인팅 위치가 임계치 범위 이내인 경우, 상기 포인팅 위치에 포함되는 후보 객체의 추출할 확률을 증가시키되, 상기 확률이 기준치 이상인 후보 객체를 상기 객체로 추출할 수 있다.Wherein the step (c) includes: increasing a probability of extracting a candidate object included in the pointing position when the pointing position of the previous image and the pointing position of the current image are within a threshold range, You can extract it as an object.

상기 (c) 단계는, 이전 영상의 포인팅 위치와 현재 영상의 포인팅 위치에 포함되는 객체의 색상이 임계치 이내인 경우, 상기 포인팅 위치에 포함되는 후보 객체를 상기 객체로 추출할 수 있다.In the step (c), when the color of the object included in the pointing position of the previous image and the pointing position of the current image is within the threshold value, the candidate object included in the pointing position may be extracted as the object.

상기 (b) 단계에서 포인터 특징 정보는 색상 및 패턴 중 적어도 하나이다.In the step (b), the pointer feature information is at least one of a color and a pattern.

상기 (c) 단계 이후에, 상기 추출된 객체를 증강 현실에 반영하여 출력하는 단계를 더 포함할 수 있다.And outputting the extracted object to the augmented reality after the step (c).

본 발명의 다른 측면에 따르면, 웨어러블 디바이스를 착용한 사용자가 응시하는 실 세계의 장면에서 추출하고자 하는 객체를 추출하는 장치가 제공된다.According to another aspect of the present invention, there is provided an apparatus for extracting an object to be extracted from a scene of a real world to be looked at by a wearer wearing a wearable device.

본 발명의 일 실시예에 따르면, 웨어러블 디바이스에 장착된 카메라로부터 사용자가 응시하는 실세계 영상을 촬영하는 카메라; 및 포인터 특징 정보를 이용하여 상기 영상에서 포인터를 추출하고, 상기 추출된 포인터를 이용하여 상기 영상에서 적어도 하나의 객체를 추출하는 프로세서를 포함하는 객체 추출 장치가 제공될 수 있다.According to an embodiment of the present invention, there is provided a wearable device including: a camera for photographing a real-world image taken by a user from a camera mounted on a wearable device; And a processor for extracting a pointer from the image using the pointer feature information and extracting at least one object from the image using the extracted pointer.

상기 추출된 객체를 증강 현실에 반영하여 출력하는 디스플레이부를 더 포함할 수 있다.And a display unit for reflecting the extracted object to the augmented reality and outputting the reflected augmented reality.

상기 프로세서는, 상기 포인터의 패턴, 지시 방향 및 모션 벡터 중 적어도 하나인 상기 포인터의 특성 정보를 더 고려하여 상기 객체를 추출할 수 있다.The processor may extract the object by further considering characteristic information of the pointer which is at least one of the pattern of the pointer, the pointing direction, and the motion vector.

상기 프로세서는, 상기 추출된 포인터가 가리키는 포인팅 위치를 계산하되, 상기 포인팅 위치에 포함된 후보 객체의 픽셀 정보를 기반으로 수퍼 픽셀 분할을 통해 상기 객체를 추출할 수 있다.The processor may calculate the pointing position indicated by the extracted pointer, and extract the object through superpixel division based on the pixel information of the candidate object included in the pointing position.

상기 프로세서는, 이전 영상의 포인팅 위치와 상기 포인팅 위치가 임계치 이내인 경우, 상기 후보 객체를 추출할 확률을 증가시키되, 상기 확률이 기준치 이상인 경우 상기 후보 객체를 객체로 추출할 수 있다.The processor may increase the probability of extracting the candidate object when the pointing position and the pointing position of the previous image are within a threshold, and may extract the candidate object as an object when the probability is equal to or greater than a reference value.

모드를 설정받는 입력부를 더 포함하되, 상기 모드는 투명 모드 또는 반투명 모드이다.Further comprising an input unit configured to set a mode, wherein the mode is a transparent mode or a translucent mode.

상기 프로세서는, 모드가 상기 투명 모드로 설정시, 상기 포인팅 위치를 사용자의 시점에 기반하여 이동시킬 수 있다.When the mode is set to the transparent mode, the processor may move the pointing position based on a user's point of view.

본 발명의 일 실시예에 따른 객체 추출 방법 및 장치를 제공함으로써, 웨어러블 디바이스에서 사용자의 포인팅 위치를 인식하여 객체를 추출할 수 있다.The object extraction method and apparatus according to an embodiment of the present invention can recognize the pointing position of the user in the wearable device and extract the object.

또한, 본 발명은 사용자가 원하는 객체를 포인터(예를 들어, 손)으로 가리키는 동작만으로 쉽게 추출할 수 있고, 추출한 객체를 다양한 증강 현실에 응용하여 활용할 수 있다.In addition, the present invention can easily extract only an object desired by the user by pointing it with a pointer (e.g., a hand) and apply the extracted object to various augmented reality applications.

도 1은 본 발명의 일 실시예에 따른 객체 추출 방법을 나타낸 순서도.
도 2는 본 발명의 일 실시예에 따른 포인터를 포함하는 영상을 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 영상에서 포인터를 이진 영상으로 표시한 도면.
도 4는 본 발명의 일 실시예에 따른 영상에서 포인터를 찾은 결과를 예시한 도면.
도 5는 본 발명의 일 실시예에 따른 전경 후보 객체와 배경 후보 객체를 예시한 도면.
도 6은 본 발명의 일 실시예에 따른 수퍼 픽셀 분할 결과를 나타낸 도면.
도 7은 본 발명의 일 실시예에 따른 전경 후보 객체 및 배경 후보 객체와 겹치는 수퍼 픽셀을 전경 객체 또는 배경 객체로 할당할 결과를 예시한 도면.
도 8은 본 발명의 일 실시예에 따른 객체 분할 결과를 나타낸 도면.
도 9는 본 발명의 일 실시예에 따른 추출된 객체를 증강 현실에 반영한 결과를 나타낸 도면.
도 10은 본 발명의 일 실시예에 따른 객체 추출 장치의 구성을 개략적으로 도시한 도면.
1 is a flowchart illustrating an object extraction method according to an embodiment of the present invention;
2 illustrates an image including a pointer according to an embodiment of the present invention;
FIG. 3 is a diagram illustrating a pointer in a binary image according to an exemplary embodiment of the present invention. FIG.
4 is a diagram illustrating a result of finding a pointer in an image according to an embodiment of the present invention.
FIG. 5 illustrates a foreground candidate object and a background candidate object according to an embodiment of the present invention. FIG.
6 is a diagram illustrating a result of super-pixel division according to an embodiment of the present invention.
FIG. 7 illustrates a result of assigning a foreground object or a background object to a super-pixel that overlaps a foreground candidate object and a background candidate object according to an embodiment of the present invention. FIG.
8 is a diagram illustrating an object division result according to an exemplary embodiment of the present invention.
9 is a diagram illustrating a result of reflecting an extracted object in an augmented reality according to an embodiment of the present invention.
10 is a view schematically showing a configuration of an object extraction apparatus according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 명세서 전체에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, throughout the specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하나 이상의 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있음을 의미한다.Also, throughout the specification, when an element is referred to as "including" an element, it is understood that the element may include other elements as well, without departing from the other elements unless specifically stated otherwise. Also, the terms "a "," module ", and the like in the description mean a unit for processing at least one function or operation, which means that it can be implemented by one or more hardware or software or a combination of hardware and software .

본 발명은 웨어러블 디바이스에서 사용자의 포인팅하는 위치(포인팅 위치)를 인식하여 객체를 추출하는 것에 관한 것이다. 따라서, 이하에서 설명되는 객체 추출 장치는 웨어러블 디바이스에 포함되는 것으로 이해되어야 할 것이다.The present invention relates to extracting an object by recognizing a pointing position (pointing position) of a user in a wearable device. Therefore, it should be understood that the object extracting apparatus described below is included in the wearable device.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 객체 추출 방법을 나타낸 순서도이고, 도 2는 본 발명의 일 실시예에 따른 포인터를 포함하는 영상을 도시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 영상에서 포인터를 이진 영상으로 표시한 도면이고, 도 4는 본 발명의 일 실시예에 따른 영상에서 포인터를 찾은 결과를 예시한 도면이며, 도 5는 본 발명의 일 실시예에 따른 전경 후보 객체와 배경 후보 객체를 예시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 수퍼 픽셀 분할 결과를 나타낸 도면이며, 도 7은 본 발명의 일 실시예에 따른 전경 후보 객체 및 배경 후보 객체와 겹치는 수퍼 픽셀을 전경 객체 또는 배경 객체로 할당할 결과를 예시한 도면이고, 도 8은 본 발명의 일 실시예에 따른 객체 분할 결과를 나타낸 도면이고, 도 9는 본 발명의 일 실시예에 따른 추출된 객체를 증강 현실에 반영한 결과를 나타낸 도면이다.FIG. 1 is a flowchart illustrating an object extraction method according to an embodiment of the present invention. FIG. 2 is a diagram illustrating an image including a pointer according to an embodiment of the present invention. FIG. FIG. 4 is a diagram illustrating a result of finding a pointer in an image according to an embodiment of the present invention. FIG. 5 is a diagram illustrating a result of searching for a foreground candidate according to an embodiment of the present invention FIG. 6 is a diagram illustrating a super-pixel division result according to an exemplary embodiment of the present invention. FIG. 7 is a diagram illustrating an example of a foreground candidate object and a background candidate object according to an exemplary embodiment of the present invention. FIG. 8 is a diagram illustrating a result of object division according to an embodiment of the present invention, and FIG. 9 is a diagram illustrating a result of assigning overlapping super pixels to a foreground object or a background object according to an embodiment of the present invention. Fig. 8 is a diagram showing a result obtained by reflecting the extracted object to the augmented reality.

단계 110에서 객체 추출 장치(100)는 모드를 설정받는다.In step 110, the object extraction apparatus 100 is set to a mode.

여기서, 모드는 제1 모드(예를 들어, 투명 모드) 및 제2 모드(예를 들어, 반 투명 모드) 중 어느 하나일 수 있다.Here, the mode may be any one of a first mode (e.g., a transparent mode) and a second mode (e.g., a semi-transparent mode).

제1 모드(투명 모드)는 사용자가 웨어러블 디바이스(예를 들어, 안경)를 착용한 상태에서 사용자가 포인터로 특정 객체를 가리키는 경우, 안경을 통해 촬영된 포인터를 포함한 실 세계에 대한 영상에서 포인터를 추출하는 방식이다.In the first mode (transparent mode), when the user wears a wearable device (e.g., glasses) and the user points to a specific object with a pointer, the pointer is moved from the image of the real world including the pointer photographed through the glasses .

이에 비해, 제2 모드(반 투명 모드)는 웨어러블 디바이스에 구비된 카메라를 통해 장면을 촬영한 후 촬영한 영상을 웨어러블 디바이스의 디스플레이에 증강한 후 사용자가 증강된 영상에서 포인터로 원하는 위치를 가리키는 방식을 의미한다.In contrast, in the second mode (semi-transparent mode), after shooting a scene through a camera provided in a wearable device, the captured image is augmented on the display of the wearable device, and then the user indicates a desired position .

제1 모드(투명 모드)는 사용자가 포인터로 실 세계에 존재하는 특정 객체를 가리키는 동작을 포함하여 웨어러블 디바이스에 구비된 카메라가 영상을 촬영하므로 사용자의 시야를 방해하지 않으며, 특정 객체를 추출할 수 있는 이점이 있다.In the first mode (transparent mode), a camera provided in the wearable device includes an operation of pointing a specific object existing in the real world as a pointer, so that the wearable device does not interfere with the view of the user, There is an advantage.

그러나, 제1 모드(투명 모드)는 수많은 정보가 포함된 실 세계를 촬영한 영상에서 포인터를 추출해야 하므로 포인터 추출의 정확도가 떨어지는 단점이 있다.However, the first mode (transparent mode) has a disadvantage in that the accuracy of pointer extraction is lowered because a pointer must be extracted from an image captured in a real world including a large amount of information.

반면, 제2 모드(반 투명 모드)는 객체 추출의 정확도가 높은 장점이 있는 반면 증강된 영상을 디스플레이한 후 포인터로 객체를 가리키는 방식으로 사용자의 시야를 방해하는 단점이 있다.On the other hand, the second mode (semi-transparent mode) has an advantage of high accuracy of object extraction, but disadvantageously hinders the view of the user by displaying the enhanced image and then pointing to the object with the pointer.

따라서, 사용자는 웨어러블 디바이스에 구비된 카메라를 통해 획득된 영상에서 객체를 추출하기 전에, 객체 추출을 위한 모드를 사전에 설정받을 수 있다.Accordingly, the user can preset the mode for object extraction before extracting the object from the image obtained through the camera provided in the wearable device.

물론, 사용자가 제1 모드(투명 모드)로 객체 추출을 위한 모드를 선택하였을 지라도 영상 분석을 통해 제1 모드로 객체 추출이 용이치 않은 경우, 자동으로 제2 모드로 동작될 수도 있음은 당연하다.Of course, even if the user selects the mode for object extraction in the first mode (transparent mode), it is natural that the object can be automatically operated in the second mode when object extraction is not available through the image analysis .

이하에서는 별도의 설명이 없더라도 영상은 사용자가 착용한 웨어러블 디바이스에 장착된 카메라를 통해 실 세계를 촬영한 영상인 것으로 이해되어야 할 것이다.In the following description, the image should be understood to be a photograph of a real world through a camera mounted on a wearable device worn by the user, without any further description.

제1 모드, 제2 모드의 기본적인 동작은 동일하다. 다만, 제2 모드의 경우, 카메라의 영상을 증강하여 디스플레이시킨 후 사용자가 증강된 영상을 보면서 객체를 포인팅하는 것으로, 제2 모드에서는 자신이 가리키는 포인터의 위치를 확인하면서 객체를 가리킬 수 있다.The basic operations of the first mode and the second mode are the same. However, in the second mode, the user can point the object while viewing the enhanced image after displaying the enhanced image of the camera. In the second mode, the user can point to the object while checking the position of the pointer indicated by the enhanced mode.

따라서, 제1 모드에 비해 제2 모드가 보다 정확하게 객체를 추출할 수 있다.Therefore, the second mode can extract the object more accurately than the first mode.

단계 115에서 객체 추출 장치(100)는 웨어러블 디바이스에 구비된 카메라로부터 실세계 영상을 획득한다.In step 115, the object extraction apparatus 100 acquires a real-world image from a camera provided in the wearable device.

단계 120에서 객체 추출 장치(100)는 획득된 영상에서 포인터를 추출한다.In operation 120, the object extraction apparatus 100 extracts a pointer from the acquired image.

본 발명의 일 실시예에서는 포인터가 손인 것을 가정하여 이를 중심으로 설명하기로 한다. 다만, 포인터는 손 이외에도 다양한 객체일 수 있음은 자명하다.In the embodiment of the present invention, it is assumed that the pointer is a hand and will be described below. However, it is obvious that pointers can be various objects other than hands.

객체 추출 장치(100)는 포인터를 인식하고 추출하기 위해, 영상에서 포인터가 놓일 영역(이하, 초기 설정 영역이라 칭하기로 함)을 설정하고, 해당 영역에 포인터를 위치시킨 후 초기 설정 영역에서 포인터의 특징 정보(예를 들어, 색상 또는 패턴)을 획득할 수 있다.In order to recognize and extract a pointer, the object extracting apparatus 100 sets an area (hereinafter, referred to as an initial setting area) where a pointer is to be placed in the image, places a pointer in the area, Feature information (e.g., color or pattern) can be obtained.

이후, 객체 추출 장치(100)는 포인터의 특징 정보를 이용하여 이후 웨어러블 디바이스에 구비된 카메라를 통해 획득된 영상에서 포인터를 인식하여 추출할 수 있다.Thereafter, the object extracting apparatus 100 can recognize and extract the pointer from the image obtained through the camera provided in the wearable device, using the feature information of the pointer.

보다 상세히 설명하면, 객체 추출 장치(100)는 포인터의 특징 정보와 카메라를 통해 획득된 영상의 각 화소값들의 유사도 비교를 통해 포인터에 해당하는 화소들을 구분하여 포인터 영역을 추출할 수 있다.In more detail, the object extracting apparatus 100 may extract a pointer region by dividing pixels corresponding to the pointer by comparing the similarity between pixel values of the image obtained through the camera and the feature information of the pointer.

도 2에는 사용자가 포인터로 손을 이용한 경우, 손을 포함하여 획득된 영상이 예시되어 있다. 도 2와 같은 영상에서 포인터의 특징 정보를 기반으로 손에 해당하는 화소들을 구분하여 손을 추출한 일 예가 도 3에 도시되어 있다.FIG. 2 illustrates an image including a hand when a user uses a hand as a pointer. FIG. 3 shows an example of extracting a hand by distinguishing pixels corresponding to the hand based on the feature information of the pointer in the image shown in FIG.

도 3은 손 영역에 포함될 확률이 50% 이상인 화소들을 손 영역에 해당하는 화소로 검출한 것이다. 즉, 도 2와 같이 손을 포함하는 영상의 각 화소값과 포인터의 특징 정보를 비교하여 유사도가 50% 이상인 화소들을 손 영역(즉, 포인터 영역)으로 추출한 것이다. FIG. 3 shows pixels having a probability of 50% or more included in the hand region as pixels corresponding to the hand region. That is, as shown in FIG. 2, each pixel value of an image including a hand is compared with feature information of a pointer, and pixels having a similarity of 50% or more are extracted as a hand region (i.e., a pointer region).

본 명세서에서는 이해와 설명의 편의를 도모하기 위해 유사도가 50% 이상인 것을 가정하여 설명하고 있으나, 영상의 각 화소값들과 포인터의 특징 정보간의 유사도를 비교하여 포인터 영역으로 추출하기 위한 기준값은 실험적으로 결정될 수 있음은 당연하다.In this specification, it is assumed that the degree of similarity is more than 50% in order to facilitate understanding and explanation. However, the reference value for extracting the similarity between the pixel values of the image and the feature information of the pointer and extracting it into the pointer region is experimentally It can be determined.

또한, 영상의 각 화소값들과 포인터의 특징 정보를 비교함에 있어, 포인터의 특징 정보는 평균값이 이용될 수 있음은 당연하다.In comparing the pixel values of the image with the feature information of the pointer, it is a matter of course that the average value of the feature information of the pointer can be used.

다른 예를 들어, 포인터의 특징 정보가 패턴인 경우, 포인터의 특징 정보를 기반으로 영상을 패턴 매칭하여 유사도가 도출될 수도 있다. 패턴 매칭하는 방법 등은 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.For example, if the feature information of the pointer is a pattern, the degree of similarity may be derived by pattern-matching the image based on the feature information of the pointer. Pattern matching, and the like are obvious to those skilled in the art, so a detailed description thereof will be omitted.

이외에도 영상에서 손 영역을 인식하여 추출하는 방법은 공지된 다양한 알고리즘이 적용될 수 있음은 당연하다.In addition, it is a matter of course that various known algorithms can be applied to the method of recognizing and extracting the hand region from the image.

단계 125에서 객체 추출 장치(100)는 추출된 포인터의 포인팅 위치를 계산한다.In step 125, the object extracting apparatus 100 calculates the pointing position of the extracted pointer.

예를 들어, 객체 추출 장치(100)는 추출된 포인터의 최외곽 좌표를 포인팅 위치로 계산할 수 있다. 이때, 추출된 포인터의 최외곽 좌표는 추출된 포인터가 포함되는 X축 또는 Y축 좌표의 가장 끝점일 수도 있다.For example, the object extraction apparatus 100 may calculate the outermost coordinates of the extracted pointer as a pointing position. At this time, the outermost coordinate of the extracted pointer may be the end point of the X-axis or Y-axis coordinate including the extracted pointer.

포인팅 위치 계산의 편의성을 위해, 객체 추출 장치(100)는 추출된 포인터의 윤곽선을 추출하고, 추출된 윤곽선을 이용하여 포인팅 위치를 계산할 수 있다.For convenience of calculating the pointing position, the object extracting apparatus 100 can extract the contour of the extracted pointer and calculate the pointing position using the extracted contour line.

도 4에는 사용자가 포인터로 손을 이용한 경우, 사용자가 가리키는 손가락을 찾은 결과를 예시한 도면이다. 도 4를 참조하면, 사용자가 가리키는 손가락이 Y축 방향의 끝점이 포인팅 위치로 계산될 수 있다.4 is a diagram illustrating a result of finding a finger pointed by the user when the user uses the finger as a pointer. Referring to FIG. 4, the end point of the finger pointed by the user in the Y-axis direction may be calculated as a pointing position.

단계 130에서 객체 추출 장치(100)는 모드가 제1 모드(투명 모드)인지 여부를 판단한다.In operation 130, the object extraction apparatus 100 determines whether the mode is the first mode (transparent mode).

만일 모드가 제1 모드인 경우, 단계 135에서 객체 추출 장치(100)는 포인팅 위치를 사용자의 시점에 기반하여 이동시킨다.If the mode is the first mode, in step 135, the object extraction apparatus 100 moves the pointing position based on the user's point of view.

이미 전술한 바와 같이, 투명 모드는 사용자가 포인터를 현실 세계의 특정 타겟을 향하도록 가리키는 동작을 포함하는 실 세계 영상에서 포인팅 위치가 계산되므로, 카메라 시점과 사용자의 시점 사이에 오차가 발생할 수 있다.As described above, since the pointing position is calculated in the real world image including the operation in which the user points the pointer to a specific target in the real world, the transparent mode may cause an error between the camera viewpoint and the user's viewpoint.

따라서, 객체 추출 장치(100)는 모드가 투명 모드인 경우 계산된 포인팅 위치를 사용자의 시점을 반영하여 이동시킬 수 있다. 물론, 객체 추출 장치(100)는 계산된 포인팅 위치를 출력한 후 사용자로부터 보정 위치를 입력받아 보정 위치로 포인팅 위치를 이동시킬 수도 있다.Accordingly, the object extracting apparatus 100 can move the calculated pointing position when the mode is the transparent mode, reflecting the user's point of view. Of course, the object extracting apparatus 100 may output the calculated pointing position and then receive the correction position from the user and move the pointing position to the correction position.

그러나 만일 모드가 제2 모드인 경우, 단계 140으로 진행한다.However, if the mode is the second mode,

모드가 반투명 모드인 경우, 사용자가 디스플레이된 실 세계 영상에 포인터를 위치시키는 것으로 카메라 시점과 사용자 시점간의 오차가 발생되지 않는다. 따라서, 반투명 모드인 경우에는 포인팅 위치를 이동시키는 과정이 생략될 수 있다.When the mode is a translucent mode, an error is not generated between the camera viewpoint and the user viewpoint by locating the pointer on the displayed real world image. Therefore, in the case of the semi-transparent mode, the process of moving the pointing position may be omitted.

단계 140에서 객체 추출 장치(100)는 계산된 포인팅 위치를 이용하여 객체를 추출한다.In operation 140, the object extraction apparatus 100 extracts an object using the calculated pointing position.

즉, 객체 추출 장치(100)는 포인팅 위치에 포함되는 후보 객체를 객체로 추출할 수 있다. 여기서, 후보 객체는 포인터와는 상이한 객체를 나타낸다. 즉, 후보 객체는 포인터와는 특징 정보(예를 들어, 색상, 패턴 등)가 상이할 수 있음은 당연하다.That is, the object extraction apparatus 100 can extract a candidate object included in the pointing position as an object. Here, the candidate object represents an object different from the pointer. That is, it is natural that the candidate object may be different from the pointer in the feature information (e.g., color, pattern, etc.).

객체를 추출함에 있어, 객체 추출 장치(100)는 포인팅 위치에 포함되는 후보 객체의 속성(예를 들어, 색상)을 기반으로 수퍼 픽셀 분할(superpixel segmentation)을 통해 객체를 추출할 수도 있다.In extracting an object, the object extraction apparatus 100 may extract an object through superpixel segmentation based on the attribute (e.g., color) of the candidate object included in the pointing position.

도 6에는 수퍼 픽셀 분할이 적용된 일 예가 예시되어 있다.An example in which super-pixel division is applied is illustrated in Fig.

도 7에는 전경 후보 객체 및 배경 후보 객체와 겹치는 수퍼 픽셀을 전경 객체 또는 배경 객체로 할당할 결과가 예시되어 있다.FIG. 7 illustrates the result of assigning a superpixel overlapping a foreground candidate object and a background candidate object to a foreground object or a background object.

즉, 수퍼 픽셀 분할을 적용한 후 전경 후보 객체 또는 배경 후보 객체와 겹치는 수퍼 픽셀을 전경 객체 또는 배경 객체로 각각 할당하여 전경 객체 또는 배경 객체를 추출할 수 있다.That is, after applying super-pixel division, a foreground object or a background object can be extracted by assigning a foreground object or a background object to a super-pixel which overlaps with a foreground candidate object or a background candidate object.

이외에도 그래프 컷(Graph Cut) 등의 공지된 그래프 기반 알고리즘을 더 적용하여 정밀하게 객체를 분할할 수도 있다. 그래프 컷 알고리즘의 경우, 전경 후보 또는 배경 후보로 할당한 화소는 영상 분할시 그대로 전경 또는 배경으로 분할된다. 이러한 그래프 컷 알고리즘은 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.In addition, a known graph-based algorithm such as Graph Cut may be further applied to divide the object precisely. In the case of the graph cut algorithm, a pixel assigned as a foreground candidate or a background candidate is divided into a foreground or background as it is when an image is divided. Since the graph cut algorithm is obvious to those skilled in the art, a detailed description thereof will be omitted.

또한, 객체 추출 장치(100)는 포인터의 특성에 따라 포인팅 위치의 후보 객체를 각기 상이한 객체로 구분할 수 있다.In addition, the object extracting apparatus 100 may classify the candidate objects at the pointing positions into different objects according to the characteristics of the pointer.

예를 들어, 객체 추출 장치(100)는 포인터의 특성에 따라 포인팅된 후보 객체를 전경 객체 또는 배경 객체로 추출할 수 있다. 여기서, 포인터의 특성은 포인터의 지시 방향, 포인터의 모양, 포인터의 동작에 따른 모션 벡터 등일 수 있다.For example, the object extraction apparatus 100 may extract a candidate object pointed to according to the characteristics of the pointer as a foreground object or a background object. Here, the characteristics of the pointer may be the pointer direction, the shape of the pointer, the motion vector according to the motion of the pointer, and the like.

본 발명의 일 실시예에서는 포인터의 특성이 모양인 것을 가정하여 이를 중심으로 설명하기로 한다.In the embodiment of the present invention, it is assumed that the characteristic of the pointer is a shape, and the description thereof will be mainly described.

예를 들어, 포인터가 손인 경우, 검지 손가락으로 포인팅 후보 객체를 가리키는 경우, 포인팅 후보 객체는 전경 객체로 구분하여 추출될 수 있다. 반면, 손바닥을 편 상태로 포인팅 후보 객체를 가리킨 경우(즉, 포인터 특성이 손바닥을 편 모양이면), 객체 추출 장치(100)는 포인팅 후보 객체를 배경 객체로 구분하여 추출할 수 있다.For example, in the case where the pointer is a hand and the index finger indicates a pointing candidate object, the pointing candidate object can be extracted by dividing it into foreground objects. On the other hand, the object extraction apparatus 100 can extract the pointing candidate object as a background object when the pointing candidate object is pointed with the palm side (i.e., when the pointer characteristic is the shape of a palm).

다른 예를 들어, 객체 추출 장치(100)는 연속된 영상(즉, 프레임)에서 포인팅 위치가 임계치 범위 이내에서 동일 위치인 경우, 해당 포인팅 위치에 포함되는 영역은 전경 객체의 영역일 확률이 높은 것으로 판단하여 전경 객체로 추출할 수 있다.For example, if the object extraction apparatus 100 has the same position within a threshold range in a continuous image (i.e., a frame), the probability that the region included in the pointing position is a region of the foreground object is high And extract it as a foreground object.

또한, 객체 추출 장치(100)는 연속된 영상(즉, 프레임)에서 포인팅 위치가 임계치 범위 이내에서 동일 색상의 영역에 위치되는 경우, 해당 포인팅 위치에 포함되는 영역을 전경 객체로 판단하여 전경 객체로 추출할 수도 있다.In addition, when the pointing position is located in the same color area within the threshold range in the continuous image (i.e., frame), the object extracting apparatus 100 determines the area included in the pointing position as the foreground object, It may be extracted.

반면, 객체 추출 장치(100)는 연속된 영상(즉, 연속된 프레임)에서 포인팅 위치가 급변하거나 포인팅 위치에 포함되는 영역의 속성(예를 들어, 색상)이 급변하는 경우, 손떨림이나 포인터의 포인팅 위치 추정에 오류가 발생한 것으로 판단하여 전경 객체일 확률이 낮은 것으로 판단할 수 있다.On the other hand, when the attribute (e.g., color) of an area in which a pointing position is suddenly changed or a pointing position is rapidly changed in a continuous image (i.e., a continuous frame) It is determined that an error has occurred in the position estimation and it can be determined that the probability of the foreground object is low.

이와 같이, 객체 추출 장치(100)는 포인터의 포인팅 위치를 포함하는 영역이 전경 영역에 포함될 확률을 판단하여 전경 객체를 추출할 수 있다. In this way, the object extracting apparatus 100 can extract the foreground object by determining the probability that the area including the pointing position of the pointer is included in the foreground area.

즉, 객체 추출 장치(100)는 이전 영상의 포인터의 포인팅 위치와 현재 영상의 포인터의 포인팅 위치가 임계치 이내에서 동일한 경우, 해당 포인팅 위치에 포함되는 후보 객체를 추출할 확률을 증가시킨 후 확률이 기준치 이상인 경우, 후보 객체를 전경 객체 또는 배경 객체로서 추출할 수 있다.That is, when the pointing position of the pointer of the previous image and the pointing position of the pointer of the current image are equal to each other within a threshold value, the object extracting apparatus 100 increases the probability of extracting a candidate object included in the pointing position, The candidate object can be extracted as a foreground object or a background object.

다른 예를 들어, 객체 추출 장치(100)는 이전 영상의 포인팅 위치와 현재 영상의 포인팅 위치의 후보 객체의 속성(예를 들어, 색상 등)이 임계치 이내인 경우, 해당 후보 객체의 추출 확률을 증가시킨 후 확률이 기준치 이상인 경우 후보 객체를 전경 객체 또는 배경 객체로서 추출하도록 할 수도 있다.For example, the object extracting apparatus 100 may increase the extraction probability of the candidate object when the attribute of the candidate object of the current image pointing position and the attribute of the candidate object (e.g., color, etc.) is within the threshold value The candidate object may be extracted as a foreground object or a background object when the probability is higher than a reference value.

이와 같이, 수퍼 픽셀 분할 또는 그래프 컷 등에 기반한 객체 분할 결과를 그대로 반영하지 않고, 본 발명의 일 실시예에 따른 객체 추출 장치(100)는 후보 객체에 대한 확률을 더 반영함으로써 오류에 강인하게 객체를 추출할 수 있는 이점이 있다.In this way, the object extracting apparatus 100 according to an embodiment of the present invention reflects the probability of the candidate object without reflecting the result of dividing the object based on super-pixel division, graph cut, etc., There is an advantage that it can be extracted.

이는 배경 객체에 대해서도 동일하게 적용되므로 중복되는 설명은 생략하기로 한다.This is applied to the background object in the same manner, so that a duplicate description will be omitted.

도 5에는 포인터의 특성을 반영하여 포인팅 후보 객체를 전경 객체와 배경 객체를 추출한 일 예가 도시되어 있다. 도 5의 붉은색 부분은 포인팅 위치를 이용하여 전경 객체로 추출된 영역을 나타내고, 파란색 부분은 배경 객체를 나타낸다.FIG. 5 shows an example of extracting a foreground object and a background object from a pointing candidate object by reflecting characteristics of a pointer. The red portion of FIG. 5 represents the area extracted by the foreground object using the pointing position, and the blue portion represents the background object.

도 5는 전경 객체와 배경 객체를 스트로크(stroke) 형태로 표시한 일 예를 도시한 것이다. 도 5는 이해와 설명의 편의를 도모하기 위해 스트로크 형태로 전경 객체와 배경 객체를 표시하고 있으나, 스트로크 형태 이외에도 전경 객체 및 배경 객체를 바운딩 박스(bounding box) 형태로 추출할 수도 있음은 당연하다.FIG. 5 illustrates an example of displaying a foreground object and a background object in a stroke form. FIG. 5 shows a foreground object and a background object in the form of a stroke in order to facilitate understanding and explanation. However, it is natural that a foreground object and a background object may be extracted as a bounding box in addition to the stroke form.

이와 같이, 본 발명의 일 실시예에 따른 객체 추출 장치(100)는 전경 객체와 배경 객체를 객체의 형태에 완벽하게 일치하도록 추출하지는 않을 수 있다. 즉, 본 발명의 일 실시예에 따른 객체 추출 장치(100)는 추출된 객체(즉, 전경 객체 및 배경 객체 중 적어도 하나)를 이용하여 증강 현실에 응용하기 위한 목적이므로 완벽하게 일치하지 않고 개략적으로 각 객체가 구분될 수 있도록 객체 영역을 추출할 수 있다. 이를 통해, 각 객체(전경 객체 및 배경 객체) 형태를 완벽하게 구분하기 위한 복잡한 연산을 줄임으로써 연산량을 최소화할 수 있는 이점이 있다. As described above, the object extracting apparatus 100 according to an embodiment of the present invention may not extract foreground objects and background objects so as to perfectly match object shapes. That is, the object extraction apparatus 100 according to an embodiment of the present invention is intended for application to an augmented reality using an extracted object (i.e., at least one of a foreground object and a background object) The object region can be extracted so that each object can be distinguished. By doing so, it is possible to minimize complexity by minimizing the computation complexity to completely separate the shapes of objects (foreground and background objects).

단계 145에서 객체 추출 장치(100)는 후보정 여부를 선택받는다.In step 145, the object extraction apparatus 100 selects whether to perform post-processing.

추출된 객체는 다양한 원인에 의하여 부정확하게 추출될 수 있다. 예를 들어, 사용자의 포인터의 포인팅 위치가 부정확하게 결정될 수도 있으며, 포인터의 포인팅 위치가 정확하게 검출되더라도 사용자의 손 떨림에 의해 후보 객체의 위치가 사용자가 의도한 위치를 벗어날 수도 있다.Extracted objects can be incorrectly extracted by various causes. For example, the pointing position of the pointer of the user may be determined incorrectly, and even if the pointing position of the pointer is accurately detected, the position of the candidate object may deviate from the position intended by the user due to hand tremor.

또한, 투명 모드의 경우 카메라 시점과 사용자 시점간의 오차를 반영하여 포인팅 위치를 이동시키는 과정에서도 오차가 있을 수 있으며, 객체를 추출하는 과정에서도 오류가 발생될 수 있다.In the case of the transparent mode, there may be an error in moving the pointing position reflecting the error between the camera viewpoint and the user viewpoint, and an error may also occur in the process of extracting the object.

따라서, 객체 추출 장치(100)는 추출된 객체를 디스플레이한 후 후보정할 것인지 여부를 입력받을 수 있다.Accordingly, the object extraction apparatus 100 can display whether the object is to be displayed after displaying the extracted object.

사용자가 후보정을 선택한 경우, 단계 150에서 객체 추출 장치(100)는 후보정 정보를 입력받는다. 여기서, 후보정 정보는 보정 객체 영역일 수 있다. 즉, 사용자는 디스플레이된 객체 추출 결과를 확인하여 보정할 객체 영역을 지정할 수 있다. If the user selects the post-completion, the object extraction apparatus 100 receives the post-completion information at step 150. Here, the posterior information may be a correction object region. That is, the user can specify the object region to be corrected by checking the displayed object extraction result.

이와 같은 후보정 정보는 수퍼 픽셀 영역의 단위로 입력 받음으로써 후보정에 소요되는 시간이 최소화되도록 할 수 있다. 물론, 이러한 후보정 과정은 복수회 수행될 수 있음은 자명하다. Such post-processing information is input in units of the super-pixel area, so that the time required for the post-processing can be minimized. Obviously, such a post-processing process can be performed a plurality of times.

단계 155에서 객체 추출 장치(100)는 후보정 정보를 반영하여 객체 추출 결과를 후보정하여 최종적으로 객체를 추출한다. 도 8은 객체 추출 결과가 예시되어 있다. In step 155, the object extraction apparatus 100 reflects the post-processing information, rearranges the object extraction result, and finally extracts the object. Fig. 8 illustrates the result of object extraction.

단계 160에서 객체 추출 장치(100)는 추출된 객체를 증강 현실에 반영하여 디스플레이한다.In step 160, the object extraction apparatus 100 reflects the extracted object to the augmented reality and displays the augmented reality.

도 9는 추출된 객체를 증강 현실에 반영한 결과가 예시되어 있다. 도 9에 도시된 바와 같이, 추출된 객체를 증강 현실에 반영하여 사용자가 좀더 유용하게 증강 현실을 체험하도록 할 수 있다.FIG. 9 illustrates the result of reflecting the extracted object to the augmented reality. As shown in FIG. 9, the extracted object is reflected in the augmented reality, so that the user can experience the augmented reality more usefully.

도 10은 본 발명의 일 실시예에 따른 객체 추출 장치의 구성을 개략적으로 도시한 도면이다.FIG. 10 is a diagram schematically showing a configuration of an object extraction apparatus according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일 실시예에 따른 객체 추출 장치(100)는 카메라(1010), 디스플레이부(1015), 프로세서(1020), 입력부(1025), 후보정부(1030) 및 메모리(1035)를 포함하여 구성된다.10, an object extraction apparatus 100 according to an exemplary embodiment of the present invention includes a camera 1010, a display unit 1015, a processor 1020, an input unit 1025, a candidate unit 1030, 1035).

카메라(1010)는 웨어러블 디바이스에 장착되며, 사용자가 응시하는 실 세계 장면을 촬영하기 위한 수단이다. 물론, 카메라(1010)는 실 세계를 촬영한 영상에 증강 현실을 반영하여 출력된 화면을 촬영할 수도 있다.The camera 1010 is mounted on a wearable device and is a means for photographing a real world scene to be watched by a user. Of course, the camera 1010 may also take an image of the real world and output the image that reflects the augmented reality.

본 발명의 일 실시예에서는 객체 추출 장치(100)가 카메라(1010)를 구비하는 것을 가정하여 이를 중심으로 설명하고 있으나, 객체 추출 장치(100)는 웨어러블 디바이스와 연결되어 웨어러블 디바이스에 장착된 카메라로부터 촬영된 영상을 획득할 수도 있다. 이 경우, 객체 추출 장치(100)는 카메라를 구비하지 않을 수 있다.The object extracting apparatus 100 may be connected to a wearable device and may be connected to a camera mounted on the wearable device. In this case, the object extracting apparatus 100 may include a camera 1010, The captured image may be acquired. In this case, the object extracting apparatus 100 may not include a camera.

디스플레이부(1015)는 촬영된 영상 등을 시각적으로 출력하기 위한 수단이다. 예를 들어, 웨어러블 디바이스가 안경인 경우, 디스플레이부(1015)는 안경 렌즈일 수 있다. The display unit 1015 is means for visually outputting photographed images and the like. For example, when the wearable device is a pair of glasses, the display portion 1015 may be a spectacle lens.

프로세서(1020)는 본 발명의 일 실시예에 따른 객체 추출 장치(100)의 내부 구성 요소들(예를 들어, 카메라(1010), 디스플레이부(1015), 후보정부(1030), 메모리(1035) 등)을 제어하기 위한 수단이다.Processor 1020 may include internal components (e.g., camera 1010, display portion 1015, candidate portion 1030, memory 1035) of object extraction apparatus 100 according to an embodiment of the present invention. Etc.).

또한, 프로세서(1020)는 포인터 특징 정보를 이용하여 상기 영상에서 포인터를 추출하고, 상기 추출된 포인터를 이용하여 상기 영상에서 적어도 하나의 객체를 추출할 수도 있다. 이는 도 1에서 설명한 바와 동일하므로, 이에 대한 중복되는 설명은 생략하기로 한다.In addition, the processor 1020 may extract a pointer from the image using the pointer feature information, and extract at least one object from the image using the extracted pointer. Since this is the same as that described in FIG. 1, a duplicate description thereof will be omitted.

입력부(1025)는 사용자로부터 객체 추출 장치(100)를 제어하기 위한 다양한 제어 명령을 입력받기 위한 수단이다. 예를 들어, 입력부(1025)는 모드를 선택받거나 후보정 정보를 입력받을 수 있다. 입력부(1025)는 터치 패드로 구현될 수도 있다.The input unit 1025 is a means for receiving various control commands for controlling the object extraction apparatus 100 from a user. For example, the input unit 1025 may select the mode or input the finishing information. The input unit 1025 may be implemented as a touch pad.

후보정부(1030)는 사용자로부터 입력된 후보정 정보를 반영하여 추출된 객체를 후보정하기 위한 수단이다. 이는 도 1에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.The candidate section 1030 is a means for rearranging the extracted object by reflecting the post-registration information inputted from the user. This is the same as that described with reference to FIG. 1, so duplicate descriptions will be omitted.

메모리(1035)는 본 발명의 일 실시예에 따른 웨어러블 디바이스를 착용한 사용자가 응시하는 실 세계의 장면에서 추출하고자 하는 객체를 추출하는 방법을 수행하기 위해 필요한 다양한 알고리즘, 이 과정에서 파생된 다양한 데이터를 저장하기 위한 수단이다.The memory 1035 stores various algorithms necessary for performing a method of extracting an object to be extracted from a scene of a real world to be looked at by a wearer wearing a wearable device according to an embodiment of the present invention, . ≪ / RTI >

상술한 본 발명에 따른 객체 추출 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The object extraction method according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims And changes may be made without departing from the spirit and scope of the invention.

100: 객체 추출 장치
1010: 카메라
1015: 디스플레이부
1020: 프로세서
1025: 입력부
1030: 후보정부
1035: 메모리
100: object extraction device
1010: Camera
1015:
1020: Processor
1025:
1030: Candidate Government
1035: Memory

Claims (18)

(a) 웨어러블 디바이스에 장착된 카메라로부터 영상을 획득하는 단계;
(b) 포인터 특징 정보를 이용하여 상기 영상에서 포인터를 추출하는 단계; 및
(c) 상기 추출된 포인터를 이용하여 상기 영상에서 적어도 하나의 객체를 추출하는 단계를 포함하는 객체 추출 방법.
(a) acquiring an image from a camera mounted on a wearable device;
(b) extracting a pointer from the image using pointer feature information; And
(c) extracting at least one object from the image using the extracted pointer.
제1 항에 있어서,
상기 (c) 단계는,
상기 추출된 포인터의 특성 정보를 더 고려하되,
상기 특성 정보는 상기 포인터의 패턴, 지시 방향, 모션 벡터 중 적어도 하나인 것을 특징으로 하는 객체 추출 방법.
The method according to claim 1,
The step (c)
Considering further the property information of the extracted pointer,
Wherein the characteristic information is at least one of a pattern, an instruction direction, and a motion vector of the pointer.
제2 항에 있어서, 상기 (c) 단계는,
상기 특성 정보에 기반하여 상기 객체를 전경 객체 또는 배경 객체로 구분하여 추출하는 것을 특징으로 하는 객체 추출 방법.
3. The method of claim 2, wherein step (c)
And extracting the object as a foreground object or a background object based on the characteristic information.
제1 항에 있어서, 상기 (b) 단계 이후에,
상기 추출된 포인터를 이용하여 포인팅 위치를 계산하는 단계를 더 포함하는 객체 추출 방법.
The method according to claim 1, wherein, after the step (b)
And calculating a pointing position using the extracted pointer.
제4 항에 있어서,
상기 (c) 단계는,
상기 포인팅 위치에 포함되는 후보 객체의 화소값을 기반으로 수퍼 픽셀 분할(superpixel segmenataion)을 이용하여 상기 객체를 추출하는 것을 특징으로 하는 객체 추출 방법.
5. The method of claim 4,
The step (c)
And extracting the object using a super pixel division based on a pixel value of a candidate object included in the pointing position.
제4 항에 있어서,
상기 (a) 단계 이전에, 모드를 설정받는 단계-상기 모드는 투명 모드 및 반투명 모드 중 어느 하나임-를 포함하되,
상기 모드가 투명 모드인 경우, 상기 포인팅 위치를 사용자 시점에 기반하여 이동시키는 단계를 더 포함하는 객체 추출 방법.
5. The method of claim 4,
Receiving a mode before the step (a), the mode being one of a transparent mode and a translucent mode,
And moving the pointing position based on the user's point of view when the mode is in the transparent mode.
제1 항에 있어서, 상기 (c) 단계는,
이전 영상의 포인팅 위치와 현재 영상의 포인팅 위치가 임계치 범위 이내인 경우, 상기 포인팅 위치에 포함되는 후보 객체의 추출할 확률을 증가시키되, 상기 확률이 기준치 이상인 후보 객체를 상기 객체로 추출하는 것을 특징으로 하는 객체 추출 방법.
The method of claim 1, wherein the step (c)
When the pointing position of the previous image and the pointing position of the current image are within the threshold range, the probability of extracting the candidate object included in the pointing position is increased, and the candidate object having the probability higher than the reference value is extracted as the object. Object extraction method.
제1 항에 있어서, 상기 (c) 단계는,
이전 영상의 포인팅 위치와 현재 영상의 포인팅 위치에 포함되는 객체의 색상이 임계치 이내인 경우, 상기 포인팅 위치에 포함되는 후보 객체를 상기 객체로 추출하는 것을 특징으로 하는 객체 추출 방법.
The method of claim 1, wherein the step (c)
Wherein the candidate object included in the pointing position is extracted as the object when the color of the object included in the pointing position of the previous image and the pointing position of the current image is within the threshold value.
제1 항에 있어서,
상기 (b) 단계에서 포인터 특징 정보는 색상 및 패턴 중 적어도 하나인 것을 특징으로 하는 객체 추출 방법.
The method according to claim 1,
Wherein the pointer feature information is at least one of a color and a pattern in the step (b).
제1 항에 있어서, 상기 (c) 단계 이후에,
상기 추출된 객체를 증강 현실에 반영하여 출력하는 단계를 더 포함하는 객체 추출 방법.
The method of claim 1, wherein, after step (c)
And outputting the extracted object to the augmented reality.
제1 항 내지 제10항 중 어느 하나의 항에 따른 방법을 수행하기 위한 프로그램 코드를 기록한 컴퓨터로 판독 가능한 기록매체 제품.
Readable recording medium having recorded thereon a program code for performing the method according to any one of claims 1 to 10.
웨어러블 디바이스에 장착되며, 사용자가 응시하는 실세계 영상을 촬영하는 카메라; 및
포인터 특징 정보를 이용하여 상기 영상에서 포인터를 추출하고, 상기 추출된 포인터를 이용하여 상기 영상에서 적어도 하나의 객체를 추출하는 프로세서를 포함하는 객체 추출 장치.
A camera mounted on the wearable device and configured to photograph a real-world image taken by a user; And
And a processor for extracting a pointer from the image using the pointer feature information and extracting at least one object from the image using the extracted pointer.
제12 항에 있어서,
상기 추출된 객체를 증강 현실에 반영하여 출력하는 디스플레이부를 더 포함하는 객체 추출 장치.
13. The method of claim 12,
And a display unit for reflecting the extracted object to the augmented reality and outputting the reflected object.
제12 항에 있어서,
상기 프로세서는, 상기 포인터의 패턴, 지시 방향 및 모션 벡터 중 적어도 하나인 상기 포인터의 특성 정보를 더 고려하여 상기 객체를 추출하는 것을 특징으로 하는 객체 추출 장치.
13. The method of claim 12,
Wherein the processor extracts the object by further considering characteristic information of the pointer which is at least one of a pattern of the pointer, an instruction direction, and a motion vector.
제12 항에 있어서,
상기 프로세서는,
상기 추출된 포인터가 가리키는 포인팅 위치를 계산하되, 상기 포인팅 위치에 포함된 후보 객체의 픽셀 정보를 기반으로 수퍼 픽셀 분할을 통해 상기 객체를 추출하는 것을 특징으로 하는 객체 추출 장치.
13. The method of claim 12,
The processor comprising:
Wherein the calculating unit calculates the pointing position indicated by the extracted pointer and extracts the object through superpixel division based on pixel information of the candidate object included in the pointing position.
제15 항에 있어서,
상기 프로세서는,
이전 영상의 포인팅 위치와 상기 포인팅 위치가 임계치 이내인 경우, 상기 후보 객체를 추출할 확률을 증가시키되, 상기 확률이 기준치 이상인 경우 상기 후보 객체를 객체로 추출하는 것을 특징으로 하는 객체 추출 장치.
16. The method of claim 15,
The processor comprising:
Wherein if the pointing position and the pointing position of the previous image are within a threshold value, the probability of extracting the candidate object is increased, and if the probability is equal to or greater than the reference value, the candidate object is extracted as an object.
제15 항에 있어서,
모드를 설정받는 입력부를 더 포함하되,
상기 모드는 투명 모드 또는 반투명 모드인 것을 특징으로 하는 객체 추출 장치.
16. The method of claim 15,
Further comprising an input unit for setting a mode,
Wherein the mode is a transparent mode or a semi-transparent mode.
제17 항에 있어서,
상기 프로세서는, 모드가 상기 투명 모드로 설정시, 상기 포인팅 위치를 사용자의 시점에 기반하여 이동시키는 것을 특징으로 하는 객체 추출 장치.
18. The method of claim 17,
Wherein when the mode is set to the transparent mode, the processor moves the pointing position based on a user's viewpoint.
KR1020160080614A 2016-06-28 2016-06-28 Method and apparatus for object extraction KR101828340B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160080614A KR101828340B1 (en) 2016-06-28 2016-06-28 Method and apparatus for object extraction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160080614A KR101828340B1 (en) 2016-06-28 2016-06-28 Method and apparatus for object extraction

Publications (2)

Publication Number Publication Date
KR20180001778A true KR20180001778A (en) 2018-01-05
KR101828340B1 KR101828340B1 (en) 2018-02-12

Family

ID=61001793

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160080614A KR101828340B1 (en) 2016-06-28 2016-06-28 Method and apparatus for object extraction

Country Status (1)

Country Link
KR (1) KR101828340B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102565849B1 (en) 2018-05-14 2023-08-11 한국전자통신연구원 A method and Apparatus for segmentation small objects of moving pictures in real-time

Also Published As

Publication number Publication date
KR101828340B1 (en) 2018-02-12

Similar Documents

Publication Publication Date Title
US11756223B2 (en) Depth-aware photo editing
CN108369653B (en) Eye pose recognition using eye features
US10282913B2 (en) Markerless augmented reality (AR) system
US9501716B2 (en) Labeling component parts of objects and detecting component properties in imaging data
US10535160B2 (en) Markerless augmented reality (AR) system
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
US10082879B2 (en) Head mounted display device and control method
JP6329635B2 (en) Eye tracking
US20200125843A1 (en) Detailed eye shape model for robust biometric applications
US11048977B1 (en) Method and device for pixel-level object segmentation
CN110503711B (en) Method and device for rendering virtual object in augmented reality
US10705720B2 (en) Data entry system with drawing recognition
US11972634B2 (en) Image processing method and apparatus
CN114690900A (en) Input identification method, equipment and storage medium in virtual scene
KR102509823B1 (en) Method and apparatus for estimating plane based on grids
US20200380723A1 (en) Online learning for 3d pose estimation
US11106949B2 (en) Action classification based on manipulated object movement
CN113658035A (en) Face transformation method, device, equipment, storage medium and product
KR101828340B1 (en) Method and apparatus for object extraction
US11410398B2 (en) Augmenting live images of a scene for occlusion
CN116309850B (en) Virtual touch identification method, device and storage medium
US11327562B2 (en) Method and apparatus for tracking eye based on eye reconstruction
CN113947635A (en) Image positioning method and device, electronic equipment and storage medium
WO2019023076A1 (en) Markerless augmented reality (ar) system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant