KR20190048241A - Wearable device and image processing method thereof - Google Patents

Wearable device and image processing method thereof Download PDF

Info

Publication number
KR20190048241A
KR20190048241A KR1020170143026A KR20170143026A KR20190048241A KR 20190048241 A KR20190048241 A KR 20190048241A KR 1020170143026 A KR1020170143026 A KR 1020170143026A KR 20170143026 A KR20170143026 A KR 20170143026A KR 20190048241 A KR20190048241 A KR 20190048241A
Authority
KR
South Korea
Prior art keywords
image
user
augmented
blur
map
Prior art date
Application number
KR1020170143026A
Other languages
Korean (ko)
Other versions
KR102048411B1 (en
Inventor
정승원
김동욱
김세송
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020170143026A priority Critical patent/KR102048411B1/en
Publication of KR20190048241A publication Critical patent/KR20190048241A/en
Application granted granted Critical
Publication of KR102048411B1 publication Critical patent/KR102048411B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Abstract

A transmitting wearable device and an image processing method thereof are disclosed. The image processing method of the wearable device comprises the steps of: (a) photographing a real world that a user views through a front camera; (b) photographing eyes of the user through a rear camera to generate an eye image and checking gaze information for the user by using the eye image; (c) performing focus blur on the remaining region except a partial region according to the gaze information from the photographed image to generate an augmented reality image; and (d) overlapping the photographed image and the augmented reality image to output the overlapped image.

Description

웨어러블 장치 및 이의 영상 처리 방법{Wearable device and image processing method thereof}[0001] Wearable device and image processing method thereof [0002]

본 발명은 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a wearable eyeglass device capable of being transparent and an image processing method thereof.

'구글 글라스 (Google Glass)','엡손 모버리오 (Epson Moverio)','마이크로소프트 홀로렌즈 (Microsoft Hololens)'등의 투과형 웨어러블 장치들이 활발하게 개발되고 있다. 이러한 투과형 안경형 웨어러블 장치를 통하여 사용자는 실세계 (real-world)와 디스플레이 장치에 재현된 영상을 동시에 볼 수 있다. 디스플레이 장치에 영상 또는 정보를 정합하는 증강 현실 (augmented reality) 기술에 대한 연구가 최근 활발하게 수행되고 있다. Transmissible wearable devices such as 'Google Glass', 'Epson Moverio', and 'Microsoft Hololens' are being actively developed. Through the transmission type eyeglass wearable device, the user can simultaneously view images reproduced in a real-world and a display device. Studies on augmented reality technology for matching images or information to a display device have recently been actively conducted.

투과형 안경 장치 착용자가 디스플레이 장치에 재현된 영상을 볼 경우에는 필연적으로 안경 너머의 실세계가 섞여 (blending) 보이게 된다. When a user wearing a transmission type eyeglass device views a reproduced image on a display device, the real world beyond the glasses necessarily blends.

본 발명은 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공하기 위한 것이다.The present invention provides a wearable eyeglass device and a method of processing the same.

또한, 본 발명은 웨어러블 장치에서 촬영한 영상을 사용자의 시점에 맞게 중첩하여 사용자가 바라보는 실세계 장면이 다른 방식으로 인지되도록 할 수 있는 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공하기 위한 것이다.In addition, the present invention provides a wearable eyeglass device and its image processing method capable of superimposing an image photographed by a wearable device on a wearer's device so that a real-world scene viewed by a user is perceived in a different manner.

또한, 본 발명은 사용자가 원하는 위치 또는 사용자의 시점과 일치하는 영역은 포커스를 맞추고 나머지 영역은 깊이에 따라 블러를 가하여 사용자가 원하는 영역만 집중해서 보고 원치 않는 영역은 잘 보이지 않게 할 수 있는 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공하기 위한 것이다. In addition, the present invention can be applied to a portable information terminal, which can focus on only a desired area or a user's point of view, and blur the remaining area according to a depth, A wearable device of the eyeglass type, and an image processing method thereof.

본 발명의 일 측면에 따르면, 투과 가능한 안경형 웨어러블 장치의 영상 처리 방법이 제공된다.According to an aspect of the present invention, there is provided an image processing method of a wearable wearable device that is transparent.

본 발명의 일 실시예에 따르면, 웨어러블 장치의 영상 처리 방법에 있어서, (a) 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계; (b) 상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 단계; (c) 상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및 (d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법이 제공될 수 있다. According to an embodiment of the present invention, there is provided a method of processing an image of a wearable device, comprising the steps of: (a) photographing a real world viewed by a user through a camera; (b) generating a depth map for the photographed image; (c) generating an augmented image by focus blurring an area other than a partial area corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And (d) superimposing the augmented image on the photographed image and outputting the augmented image.

상기 (b) 단계는 깊이 센서를 통해 생성되거나, 복수의 촬영된 영상으로부터 스테레오 매칭(stereo matching)을 통해 깊이 추정을 통해 생성될 수 있다. The step (b) may be generated through a depth sensor or may be generated by depth estimation through stereo matching from a plurality of photographed images.

상기 (c) 단계는, 상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성하는 단계; 상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및 상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함할 수 있다. The step (c) includes the steps of: generating an augmented image by converting the photographed image according to a user's viewpoint; Generating a target blur map for the enhancement image using the depth map, the target blur map including a blur value for each pixel; And adjusting the focus by applying the target blur map to a region other than a partial region corresponding to the user's viewpoint or the user's selected position among the augmented images.

상기 각 픽셀별 블러값은 하기 수학식을 이용하여 계산되되,The blur value for each pixel is calculated using the following equation,

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
는 실세계 객체의 블러값을 나타내며,
Figure pat00003
는 객체의 깊이 값을 나타내고,
Figure pat00004
는 각 픽셀별 블러값을 결정하기 위한 함수를 나타낸다. here,
Figure pat00002
Represents a blur value of a real-world object,
Figure pat00003
Represents the depth value of the object,
Figure pat00004
Represents a function for determining a blur value for each pixel.

본 발명의 다른 실시예에 따르면, 웨어러블 장치의 영상 처리 방법에 있어서, (a) 전면 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계; (b) 후면 카메라를 통해 사용자의 눈을 촬영하여 눈 영상을 생성하고, 상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 단계; (c) 상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및 (d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법이 제공될 수 있다. According to another embodiment of the present invention, there is provided a method of processing an image of a wearable device, comprising the steps of: (a) photographing a real world viewed by a user through a front camera; (b) capturing an eye of the user through a rear camera to generate a snow image, and confirming the user's gaze information using the snow image; (c) generating an augmented image by focus blurring a remaining region of the photographed image except a partial region corresponding to the visual information; And (d) superimposing the augmented image on the photographed image and outputting the augmented image.

상기 (c) 단계는, 상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하는 단계; 상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및 상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함할 수 있다.The step (c) includes the steps of: converting the photographed image according to the visual information to generate an augmented image; Generating a target blur map for the photographed image by applying different blur values according to distances based on the gaze information, the target blur map including a blur value for each pixel box; And adjusting the focus by applying the target blur map to a region other than a partial region corresponding to the gaze information among the enhancement images.

본 발명의 다른 측면에 따르면, 투과 가능한 안경형 웨어러블 장치가 제공된다.According to another aspect of the present invention, there is provided a transmissive spectacles-type wearable apparatus.

본 발명의 일 실시예에 따르면, 웨어러블 장치에 있어서, 사용자가 바라보는 실 세계를 촬영하는 카메라; 상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 맵 생성부; 상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치가 제공될 수 있다. According to an embodiment of the present invention, there is provided a wearable apparatus comprising: a camera for photographing a real world viewed by a user; A map generator for generating a depth map of the photographed image; An augmented image generating unit for generating an augmented image by focus blurring the remaining region excluding a partial region corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.

상기 증강 영상 생성부는, 상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성한 후, 상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하되, 상기 목적 블러 맵은 각 픽셀별 블러값을 포함하되, 각 픽셀의 깊이 값에 따라 상이한 블러값을 포함할 수 있다. The augmented image generation unit generates a target blur map for the augmented image using the depth map after converting the photographed image according to a user's viewpoint to generate an augmented image, Wherein the object blur map includes a blur value for each pixel, wherein the blur value for each pixel is determined by applying a depth value of each pixel May include different blur values depending on the < / RTI >

본 발명의 다른 실시예에 따르면, 웨어러블 장치에 있어서, 사용자가 바라보는 실 세계를 촬영하는 전면 카메라; 사용자의 눈을 촬영하여 눈 영상을 생성하는 후면 카메라; 상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 시선 획득부; 상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치가 제공될 수 있다. According to another embodiment of the present invention, there is provided a wearable apparatus comprising: a front camera which photographs a real world viewed by a user; A rear camera for photographing the user's eyes and generating an eye image; A line-of-sight obtaining unit for obtaining line-of-sight information of the user using the eye image; An augmented image generation unit for generating an augmented image by focus blurring an area other than a part of the photographed image according to the sight line information; And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.

상기 증강 영상 생성부는, 상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하며, 상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정할 수 있다. Wherein the augmented image generating unit generates the augmented image by converting the photographed image according to the sight information and applying a blur value corresponding to the distance on the basis of the sight information, target blur map, and adjusts the focus by applying the target blur map to a remaining area of the augmented image except a part of the area according to the sight line information.

본 발명의 일 실시예에 따른 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공함으로써, 웨어러블 장치에서 촬영한 영상을 사용자의 시점에 맞게 중첩하여 사용자가 바라보는 실세계 장면이 다른 방식으로 인지되도록 할 수 있다.The wearable device and the image processing method of the present invention can be used to superimpose the images photographed by the wearable device according to the viewpoint of the user so that the real world scene viewed by the user can be perceived in a different manner have.

즉, 본 발명은 사용자가 원하는 위치 또는 사용자의 시점과 일치하는 영역은 포커스를 맞추고 나머지 영역은 깊이에 따라 블러를 가하여 사용자가 원하는 영역만 집중해서 보고 원치 않는 영역은 잘 보이지 않게 할 수 있다. That is, according to the present invention, a user can focus on an area coinciding with a desired position or a user's view, and blur according to a depth of the remaining area, thereby concentrating only the area desired by the user, and making the undesired area invisible.

도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 사시도.
도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도.
도 3은 본 발명의 일 실시예에 따른 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩한 일 예를 도시한 도면.
도 4 및 도 5는 본 발명의 일 실시예에 따른 객체의 거리와 포커스 블러(focus blur) 사이의 상관 관계를 설명하기 위해 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 실제 중첩된 영상으로부터 재초점 효과를 느낄 수 있도록 재초점 파라미터를 결정하기 위해 설계된 실험의 일 예를 도시한 도면.
도 7은 본 발명의 다른 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도.
도 8은 본 발명의 다른 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면.
1 is a perspective view of a wearable device according to an embodiment of the present invention;
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic view showing an internal configuration of a wearable device according to an embodiment of the present invention; FIG.
2 is a flowchart illustrating an image processing method of a wearable device according to an embodiment of the present invention.
3 is a view illustrating an example of superimposing a video image of a real-world scene on a display of a wearable device according to an embodiment of the present invention.
FIGS. 4 and 5 are diagrams for explaining a correlation between a distance of an object and a focus blur according to an embodiment of the present invention; FIG.
6 illustrates an example of an experiment designed to determine refocusing parameters so that a refocusing effect can be felt from an actual superimposed image according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating an image processing method of a wearable device according to another embodiment of the present invention. FIG.
8 is a view schematically showing an internal configuration of a wearable device according to another embodiment of the present invention.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. In this specification, the terms " comprising ", or " comprising " and the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps. Also, the terms " part, " " module, " and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

본 발명은 투과 가능한 안경형 웨어러블 장치를 통해 실세계 장면에 대해 촬영된 영상과 깊이맵을 이용하여 사용자 시점에 맞는 재초점 영상(이하 증강 영상이라 칭하기로 함)을 생성한 후 이를 투과 가능한 안경형 웨어러블 장치의 디스플레이에 중첩하여 출력하도록 할 수 있다. 이를 통해, 본 발명은 사용자가 원하는 특정 영역만 집중해서 보고 나머지 영역은 잘 보이지 않도록 할 수 있다. The present invention relates to a method and apparatus for generating a refocused image (hereinafter, referred to as an augmented image) suitable for a user's viewpoint using an image captured in a real-world scene and a depth map through a transparent eyeglass wearable device, It can be superimposed on the display and output. Accordingly, the present invention can concentrate only the specific area desired by the user and make the remaining areas invisible.

본 발명의 일 실시예에 따른 웨어러블 장치는 투과 가능한 안경형 장치로, 사용자가 얼굴에 착용이 가능한 장치이다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 투과 가능한 안경형 장치로 한정하여 설명하나, 이외에도 사용자에게 실세계 영상과 증강 영상을 중첩하여 제공할 수 있는 장치인 경우 모두 동일하게 적용될 수 있음은 당연하다. 또한, 본 명세서에서는 웨어러블 장치로 한정하여 설명하나, 비단 웨어러블 장치뿐만 아니라 휴대 가능한 전자 장치인 경우에도 동일하게 적용될 수 있다. A wearable device according to an embodiment of the present invention is a transmissible eyeglass-type device, and is a device that a user can wear on his face. In order to facilitate understanding and explanation, the present invention is limited to a transmissible spectacular apparatus. However, it is natural that the present invention is equally applicable to a device capable of providing a user with a real-world image and an augmented image superimposed on each other. Although the present invention is limited to wearable devices, the present invention can be equally applied to not only wearable devices but also portable electronic devices.

본 발명의 일 실시예에 따른 웨어러블 장치는 웨어러블 장치의 프레임에 소형 카메라(이미지 센서)가 장착되어 실세계 영상을 촬영할 수 있다. 촬영된 영상은 내부 프로세서를 통해 처리된 후 웨어러블 장치의 통해 실세계 영상과 증강 영상을 중첩하여 웨어러블 장치의 디스플레이부를 통해 출력할 수 있다. A wearable device according to an embodiment of the present invention can mount a small camera (image sensor) on a frame of a wearable device to take a real-world image. The photographed image is processed through an internal processor, and then the real world image and the augmented image are superimposed over the wearable device and output through the display unit of the wearable device.

또한, 본 발명의 일 실시예에 따른 웨어러블 장치는 프레임의 전면 또는/및 후면에 각각 카메라를 구비할 수 있다. 이를 통해, 웨어러블 장치는 프레임 전면에 구비된 카메라를 통해 사용자가 바라보는 방향의 실세계를 촬영할 수 있다. 이와 동시에 웨어러블 장치는 프레임 후면에 구비된 카메라를 통해 사용자의 눈을 촬영한 후 사용자의 시선을 추적하여 시선 정보를 획득할 수도 있다. 또한, 웨어러블 장치의 프레임 일부에는 전원 공급을 위한 배터리가 내장될 수 있다. 이하 도 1을 참조하여 웨어러블 장치의 내부 구성에 대해 보다 상세히 설명하기로 한다.In addition, the wearable apparatus according to an embodiment of the present invention may include a camera on the front face and / or the rear face of the frame, respectively. Accordingly, the wearable apparatus can photograph the real world in the direction in which the wearer is looking through the camera provided on the front face of the frame. At the same time, the wearable apparatus can photograph the eyes of the user through the camera provided on the rear side of the frame, and then track the user's gaze to acquire gaze information. In addition, a battery for power supply may be incorporated in a part of the frame of the wearable device. Hereinafter, the internal structure of the wearable device will be described in more detail with reference to FIG.

도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면이다. FIG. 1 is a view schematically showing an internal configuration of a wearable device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 웨어러블 장치(100)는 카메라(210), 디스플레이부(215), 맵 생성부(220), 증강 영상 생성부(225), 메모리(230) 및 프로세서(235)를 포함하여 구성된다.1, a wearable device 100 according to an exemplary embodiment of the present invention includes a camera 210, a display unit 215, a map generating unit 220, an augmented image generating unit 225, a memory 230, And a processor 235.

카메라(210)는 영상을 촬영하기 위한 수단이다.The camera 210 is a means for capturing an image.

예를 들어, 카메라(210)는 웨어러블 장치(100)를 착용한 사용자가 바라보는 방향의 영상을 촬영할 수 있다.For example, the camera 210 can capture an image in a direction in which the user wearing the wearable device 100 is looking.

도 1에는 카메라(210)가 하나인 것을 가정하여 이를 중심으로 설명하고 있다. 그러나, 본 발명의 일 실시예에 따른 웨어러블 장치(100)는 복수의 카메라를 구비할 수도 있다. 이와 같이 카메라가 복수인 경우, 전면 카메라(210)는 웨어러블 장치(100)의 프레임 전면에 위치하여 사용자가 바라보는 방향의 영상을 촬영할 수 있다. 후면 카메라(210)는 전면 카메라(210)와 배면하여 웨어러블 장치(100)의 프레임 후면에 위치하며, 사용자의 눈 영상을 촬영하여 사용자의 시선을 추적하는데 이용될 수 있다. In FIG. 1, it is assumed that there is only one camera 210, which is mainly described. However, the wearable device 100 according to an embodiment of the present invention may include a plurality of cameras. When there are a plurality of cameras as described above, the front camera 210 is located at the front of the frame of the wearable device 100, and can photograph an image in a direction in which the user views the camera. The rear camera 210 is located behind the front camera 210 and is located behind the frame of the wearable device 100. The rear camera 210 can be used to photograph a user's eyes and track a user's gaze.

디스플레이부(215)는 프로세서(235)의 제어를 통해 카메라(210)를 통해 촬영된 영상(실세계 영상)과 증강된 영상을 중첩하여 디스플레이하기 위한 수단이다. The display unit 215 is a means for superimposing and displaying the image (real world image) photographed through the camera 210 through the control of the processor 235 and the augmented image.

맵 생성부(220)는 촬영된 영상에 대한 깊이 맵(depth map)을 생성하기 위한 수단이다. The map generating unit 220 is a means for generating a depth map for the photographed image.

웨어러블 장치(100)가 깊이 센서를 구비하는 경우, 맵 생성부(220)는 깊이 센서를 통해 획득된 깊이값을 이용하여 깊이 맵을 생성할 수 있다. 그러나 만일 웨어러블 장치(100)가 깊이 센서를 구비하지 않는 경우, 복수의 영상을 이용하여 깊이 맵을 생성할 수도 있다. When the wearable device 100 includes a depth sensor, the map generation unit 220 may generate a depth map using the depth value obtained through the depth sensor. However, if the wearable device 100 does not have a depth sensor, a depth map may be generated using a plurality of images.

증강 영상 생성부(225)는 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하기 위한 수단이다. The augmented image generating unit 225 is means for generating an augmented image by focus blurring a remaining region except for a partial region corresponding to a user's viewpoint or a user's selected position using the photographed image and the depth map.

예를 들어, 증강 영상 생성부(225)는 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성한 후, 깊이 맵을 이용하여 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하여 최종적으로 증강 영상을 생성할 수 있다. 이에 대해서는 도 2의 설명에 의해 보다 명확하게 이해될 것이다. For example, the augmented image generation unit 225 generates a target blur map for the augmented image using the depth map after converting the photographed image according to the user's viewpoint, The object blur map may be applied to an area other than a partial area corresponding to the viewpoint of the user or the user's selection position in the augmented image to finally adjust the focus to generate an augmented image. This will be more clearly understood from the description of FIG.

메모리(230)는 본 발명의 일 실시예에 따른 웨어러블 장치에서 촬영된 영상과 증강된 영상을 중첩하여 디스플레이하기 위해 필요한 다양한 알고리즘/명령어, 이과정에서 파생되는 다양한 데이터 등을 저장하기 위한 수단이다.The memory 230 is a means for storing various algorithms / commands necessary for superimposing and displaying an image photographed and augmented image in the wearable device according to an embodiment of the present invention, various data derived from the process, and the like.

프로세서(235)는 본 발명의 일 실시예에 따른 웨어러블 장치(100)의 내부 구성 요소들(예를 들어, 카메라(210), 디스플레이부(215), 메모리(230) 등)을 제어하기 위한 수단이다.The processor 235 may include means for controlling internal components (e.g., camera 210, display portion 215, memory 230, etc.) of the wearable device 100 in accordance with an embodiment of the present invention to be.

또한, 프로세서(235)는 메모리(230)에 저장된 복수의 명령어들을 수행함으로써, 촬영된 영상의 일부에 초점을 맞추고 나머지 영역은 흐리게 블러(blur) 처리하여 실세계 영상과 증강 영상을 중첩하여 제공하도록 제어할 수 있다. 이에 대해서는 도 2를 참조하여 하기에서 보다 상세히 후술하기로 한다. In addition, the processor 235 performs a plurality of commands stored in the memory 230 so as to focus on a part of the photographed image and blur the remaining area, thereby providing a real-world image and an augmented image in a superimposed manner can do. This will be described in more detail below with reference to FIG.

도 2는 본 발명의 일 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도이며, 도 3은 본 발명의 일 실시예에 따른 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩한 일 예를 도시한 도면이고, 도 4 및 도 5는 본 발명의 일 실시예에 따른 객체의 거리와 포커스 블러(focus blur) 사이의 상관 관계를 설명하기 위해 도시한 도면이며, 도 6은 본 발명의 일 실시예에 따른 실제 중첩된 영상으로부터 재초점 효과를 느낄 수 있도록 재초점 파라미터를 결정하기 위해 설계된 실험의 일 예를 도시한 도면이다. FIG. 2 is a flowchart illustrating an image processing method of a wearable device according to an embodiment of the present invention. FIG. 3 is an example of superimposing a video image of a real-world scene according to an embodiment of the present invention on a display of a wearable device. 4 and 5 are diagrams for explaining a correlation between a distance of an object and a focus blur according to an embodiment of the present invention. FIG. 5 is a diagram illustrating an example of an experiment designed to determine refocusing parameters so that a refocusing effect can be felt from an actual superimposed image according to an example.

단계 310에서 웨어러블 장치(100)는 웨어러블 장치(100)에 구비된 카메라를 통해 웨어러블 장치(100)를 착용한 착용자가 바라보는 장면을 촬영한다.In step 310, the wearable device 100 photographs a scene viewed by a wearer wearing the wearable device 100 through a camera provided in the wearable device 100. [

단계 315에서 웨어러블 장치(100)는 촬영된 영상에 대한 깊이맵을 생성한다.In step 315, the wearable device 100 generates a depth map for the photographed image.

이때, 웨어러블 장치(100)에 깊이 센서가 구비되는 경우, 깊이 센서를 통해 촬영된 영상에 대한 깊이 맵(depth map)을 생성할 수 있다.At this time, when the wearable apparatus 100 is provided with a depth sensor, a depth map for an image photographed through the depth sensor can be generated.

그러나 만일 웨어러블 장치(100)에 깊이 센서가 구비되지 않은 경우, 웨어러블 장치(100)는 동일한 장면에 대한 복수의 영상을 이용하여 깊이 맵을 생성할 수도 있다. 예를 들어, 웨어러블 장치(100)는 여러 장의 영상으로부터 깊이를 추정하는 stereo matching이나 depth from motion 등의 알고리즘을 사용하여 깊이 맵을 생성할 수 있다. 복수의 영상을 이용하여 깊이를 추정하여 깊이 맵을 생성하는 방법 자체는 이미 공지된 사항이므로 이에 대해서는 추가적인 설명은 생략하기로 한다. However, if the wearable device 100 is not provided with a depth sensor, the wearable device 100 may generate a depth map using a plurality of images for the same scene. For example, the wearable device 100 can generate a depth map using an algorithm such as stereo matching or depth from motion, which estimates depth from a plurality of images. Since the method of estimating the depth by using a plurality of images and generating the depth map is a known matter, a further explanation will be omitted.

단계 320에서 웨어러블 장치(100)는 카메라에서 촬영된 영상을 사용자의 시점에 맞게 변환한다. 이와 같이, 사용자의 시점에 맞게 변환된 영상을 이하에서는 이해와 설명의 편의를 도모하기 위해 증강 영상이라 칭하기로 한다. In step 320, the wearable device 100 converts the image photographed by the camera to fit the viewpoint of the user. In this way, the image converted according to the user's viewpoint will be referred to as an augmented image in order to facilitate understanding and explanation.

일반적으로 사용자가 착용한 웨어러블 장치(100)를 통해 장면을 촬영하더라도 사용자의 시점과 카메라 렌즈의 시점이 상이하기 때문에 시점 차이를 보정할 필요가 있다. In general, even if a scene is photographed through the wearable device 100 worn by a user, it is necessary to correct the viewpoint difference because the viewpoint of the user is different from the viewpoint of the camera lens.

도 3에는 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩한 일 예가 도시되어 있다. 이와 같이 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩시 증강 영상의 위치 및 색상/밝기 보정이 정확하고 해상도(spatial resolution)가 충분히 높은 경우 실세계 장면과 증강 영상이 하나로 정합될 수 있다. 3 shows an example of superimposing an image of a real world scene on a display of a wearable device. When the image of the real-world scene is superimposed on the display of the wearable device, the real-world scene and the augmented image can be matched when the position of the augmented image and color / brightness correction are accurate and the spatial resolution is sufficiently high.

본 발명의 일 실시예에 따르면, 웨어러블 장치(100)에서 촬영된 실세계 영상을 사용자 시점에 중첩하는 과정에 있어 영상 재초점 기법을 적용한 영상을 중첩하여 사용자로 하여금 실세계가 재초점 된 것으로 인지하도록 할 수 있다.According to an embodiment of the present invention, in the process of superimposing the real-world image photographed by the wearable device 100 at the user's viewpoint, the image using the image refocusing technique is superimposed to allow the user to recognize that the real world is refocused .

도 4 및 도 5를 참조하여 객체의 거리와 포커스 블러(focus blur) 사이의 상관 관계에 대해 설명하기로 한다. 카메라 초점 거리에 대해 간단히 설명하기로 한다.The correlation between the distance of the object and the focus blur will be described with reference to FIGS. 4 and 5. FIG. The camera focal length will be briefly described.

피사체(객체, point)가 렌즈(반지름 r)로부터

Figure pat00005
거리에 위치해 있는 경우, 렌즈를 거처 초점 거리(
Figure pat00006
)만큼 떨어진 이미지 평면(image plane)에 맺히게 된다. 이때, 도 4에서 보여지는 바와 같이 피사체의 거리가
Figure pat00007
보다 멀리 떨어지거나 도 5에서 보여지는 바와 같이 피사체의 거리가
Figure pat00008
보다 가까운 경우 객체는 이미지 평면상에 하나의 점으로 맺히지 않고 C를 반지름으로 갖는 착란원(circle of confusion)안에 맺히게 된다. 그로 인해 defocus blur가 발생된다. 이러한 블러의 정도는 객체와 제1 거리(
Figure pat00009
)가 클수록 커지는 특성이 갖는다. When the subject (object, point) moves from the lens (radius r)
Figure pat00005
If it is located at a distance,
Figure pat00006
) In the image plane (image plane). At this time, as shown in FIG. 4,
Figure pat00007
As shown in FIG. 5, the distance of the object
Figure pat00008
The object is not formed as a single point on the image plane but is formed in a circle of confusion with C as a radius. This causes defocus blur. The degree of blur is defined as the distance between the object and the first distance
Figure pat00009
) Is larger.

렌즈의 기본 원리에 따라 초점 길이 F(focal length F)는 수학식 1과 같이 나타낼 수 있다. 또한, 초점 길이 F에 기초하여 착란원의 반지름(C)는 수학식 2와 같이 계산될 수 있다. According to the basic principle of the lens, the focal length F can be expressed by Equation (1). Further, the radius (C) of the confusion circle based on the focal length F can be calculated as shown in Equation (2).

Figure pat00010
Figure pat00010

여기서, u는 객체와 렌즈간의 거리를 나타내며, v는 렌즈와 이미지 평면까지의 거리를 나타내며, F는 렌즈의 초점 거리를 나타낸다. Where u denotes the distance between the object and the lens, v denotes the distance between the lens and the image plane, and F denotes the focal length of the lens.

Figure pat00011
Figure pat00011

여기서,

Figure pat00012
는 렌즈와 이미지 평면까지의 거리를 나타내며, u는 렌즈와 객체까지의 거리를 나타낸다. 이러한 포커스 블러(focus blur)는 경우에 따라 도 6에서 보여지는 바와 같이 의도적으로 적용되어 미적 효과를 주거나 일부 영역에 집중을 위한 목적으로 활용이 가능하다.here,
Figure pat00012
Represents the distance from the lens to the image plane, and u represents the distance from the lens to the object. Such a focus blur may be intentionally applied as shown in FIG. 6 depending on the case, so that the focus blur may be used for aesthetic effect or for focusing on a certain area.

본 발명의 일 실시예에서는 이러한 포커스 블러를 이용하여 사용자의 시선(시점)이 위치하는 영역 또는 사용자가 지정한 특정 영역에 집중하도록 하기 위해 이용될 수 있다. In an embodiment of the present invention, such a focus blur may be used to focus on a region where the user's gaze (viewpoint) is located or a specific region designated by the user.

따라서, 본 발명의 일 실시예에 따른 웨어러블 장치(100)는 촬영된 영상을 사용자의 시점에 맞춰 변환하여 증강 영상을 생성할 수 있다. Accordingly, the wearable device 100 according to an embodiment of the present invention can generate augmented image by converting the photographed image according to the user's viewpoint.

이를 위해, 본 발명의 일 실시예에서는 카메라에서 촬영된 영상을 사용자의 시점에 맞게 변환할 필요가 있다. 사용자의 시점은 카메라를 이용하여 사용자의 눈 영상을 촬영한 후 시선을 추적하는 방법 등을 이용하여 인식할 수 있다. 사용자의 시점에 맞게 촬영된 영상을 보정하는 경우, 사전 생성된 보정 행렬(calibration matrix)을 사용할 수 있다. To this end, in an embodiment of the present invention, it is necessary to convert the image photographed by the camera to fit the viewpoint of the user. The user's viewpoint can be recognized by using a camera to capture a user's eye image and then tracking the gaze. When the image photographed according to the user's viewpoint is corrected, a pre-generated calibration matrix can be used.

다른 예를 들어, 웨어러블 장치(100)는 생성된 깊이 맵을 이용하여 사용자의 시점에 맞게 촬영된 영상을 변환할 수도 있다.In another example, the wearable device 100 may convert an image photographed according to a user's viewpoint using the generated depth map.

단계 325에서 웨어러블 장치(100)는 증강 영상에 대해 목적 블러맵(target blur map)을 생성한다. In step 325, the wearable device 100 generates a target blur map for the augmented image.

여기서, 목적 블러 맵은 각 화소에 대한 블러 파라미터(

Figure pat00013
)를 포함한다. 이때, 목적 블러 맵은 사용자의 시점에 상응하여 자동으로 생성되거나 사용자의 입력을 통해 생성될 수 있다. Here, the target blur map is a blur parameter (
Figure pat00013
). At this time, the object blur map may be generated automatically according to the user's viewpoint or may be generated through the user's input.

예를 들어, 사용자가 바라보는 시선을 인식하여 해당 위치는 블러(blur)시키지 않고(

Figure pat00014
=0), 나머지 영역은 깊이 값에 따라 블러 처리할 수 있다. For example, if the user recognizes the line of sight he or she is looking at and does not blur the position,
Figure pat00014
= 0), and the remaining area can be blurred according to the depth value.

도 6을 참조하여 실제 중첩된 영상으로부터 재초점 효과를 느낄 수 있도록 재초점 파라미터를 결정하기 위해 설계된 실험의 일 예에 대해 설명하기로 한다. Referring to FIG. 6, an example of an experiment designed to determine a refocusing parameter so that a refocusing effect can be sensed from an actually superimposed image will be described.

도 6을 참조하여 실세계의 깨끗한 객체와 실세계의 블러된 객체에 대해 깨끗한 객체 부분에는 재초점 적용한 영상을 중첩하고, 실세계 블러된 객체에 대해서는 아무런 영상도 증강하지 않을 수 있다. Referring to FIG. 6, it is possible to superimpose a refocused image on a clean object part of a real object's real object and a blurred object of a real world, and not to enhance an image on a real-world blurred object.

그리고, 실세계의 깨끗한 객체에 증강 영상을 중첩하였을 경우, 실제 블러된 객체를 바라보는 경우(도 6의 좌/우)가 동일하게 인식이 되게 하는 재초점 파라미터를 찾을 수 있다. When the augmented image is superimposed on a clean object in the real world, it is possible to find a refocusing parameter that allows the same object to be recognized when looking at an actual blurred object (left / right in Fig. 6).

이를 수학식으로 나타내면, 수학식 3과 같다. This can be expressed by the following equation (3).

Figure pat00015
Figure pat00015

여기서,

Figure pat00016
는 실세계 객체의 블러값을 나타내며,
Figure pat00017
는 객체의 깊이 값을 나타내고,
Figure pat00018
는 각 픽셀별 블러값을 결정하기 위한 함수를 나타낸다. here,
Figure pat00016
Represents a blur value of a real-world object,
Figure pat00017
Represents the depth value of the object,
Figure pat00018
Represents a function for determining a blur value for each pixel.

일반적으로 블러는 가우시안 블러(Gaussian blur)의 표준 변랑(standard deviation(

Figure pat00019
))으로 표현될 수 있다. 다양한 깊이와 실세계 블러(
Figure pat00020
)에 대하여 획득된 증강 영상 블러(
Figure pat00021
) 값을 이용하여 함수를 생성할 수 있다. 또한, 매칭 함수 생성시 데이터 피팅(data fitting)을 이용하거나 기계 학습(machine learning) 기법이 이용될 수도 있다. In general, the blur is the standard deviation of the Gaussian blur
Figure pat00019
)). ≪ / RTI > Various depth and real-world blur (
Figure pat00020
) Obtained for the augmented image blur (
Figure pat00021
) Value can be used to create a function. In addition, data fitting or machine learning techniques may be used in generating the matching function.

상술한 목적 블러 맵은 자동으로 생성되거나 사용자의 입력을 통해 생성될 수 있다. The above-described object blur map may be generated automatically or may be generated through the user's input.

단계 330에서 웨어러블 장치(100)는 목적 블러 맵을 이용하여 증강 영상 중 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역은 목적 블러 맵을 적용하여 초점을 재조정한다. In step 330, the wearable device 100 uses the target blur map to re-adjust the focus by applying the target blur map to the rest of the regions other than the partial region corresponding to the user's viewpoint or the user's selected position in the augmented image.

예를 들어, 웨어러블 장치(100)는 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역은 블러 처리하지 않고(

Figure pat00022
) 나머지 영역은 깊이 값에 따라 블러값을 다르게 적용하여 블러 처리할 수 있다.For example, the wearable device 100 does not blur some areas according to the viewpoint of the user or the user's selected position
Figure pat00022
) The remaining area can be blurred by applying a different blur value according to the depth value.

이를 통해, 본 발명의 일 실시예에 따르면 촬영된 영상 중 사용자의 시점에 일치하는 영역만 강조되고 나머지 영역은 블러시킬도록 할 수 있다.Thus, according to an embodiment of the present invention, only the region of the photographed image that matches the viewpoint of the user can be emphasized and the remaining region can be blurred.

다른 예를 들어, 웨어러블 장치(100)는 촬영된 영상에서 사용자의 시점과 무관하게 광고 등의 목적으로 중요한 영역만 초점이 맞도록 처리하고 나머지 영역은 블러 처리할 수도 있다.In another example, the wearable device 100 may process only a region that is important for the purpose of advertisement or the like in the photographed image, regardless of the viewpoint of the user, and blur the remaining region.

단계 335에서 웨어러블 장치(100)는 초점이 재조정된 증강 영상을 중첩하여 디스플레이 할 수 있다.In step 335, the wearable device 100 can display the superimposed and displayed enhanced images.

도 7은 본 발명의 다른 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도이다.7 is a flowchart illustrating an image processing method of a wearable device according to another embodiment of the present invention.

단계 810에서 웨어러블 장치(800)는 전면 카메라를 통해 사용자가 바라보는 실세계 장면에 대한 영상을 촬영한다.In step 810, the wearable device 800 shoots an image of a real-world scene viewed by the user through the front camera.

단계 815에서 웨어러블 장치(800)는 후면 카메라를 통해 사용자의 눈을 촬영하여 눈 영상을 생성한다. In step 815, the wearable device 800 photographs the eyes of the user through the rear camera and generates eye images.

단계 820에서 웨어러블 장치(800)는 눈 영상을 분석하여 홍채를 인식함으로써 사용자의 시선을 확인한다.In step 820, the wearable device 800 analyzes the eye image and recognizes the eyes of the user by recognizing the iris.

사람의 홍채 인식을 통해 시선을 추적/인식하는 방법 자체는 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.The method of tracking / recognizing the eyes through the iris recognition of a person is obvious to those skilled in the art, so a separate explanation will be omitted.

단계 825에서 웨어러블 장치(800)는 촬영된 영상 중 사용자의 시선에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러하여 증강 영상을 생성한다. In step 825, the wearable device 800 generates an augmented image by focus blurring an area other than a partial area corresponding to the user's gaze among the photographed images.

예를 들어, 웨어러블 장치(800)는 촬영된 영상을 확인된 시선에 맞도록 변환하여 증강 영상을 생성할 수 있다. 이어, 웨어러블 장치(800)는 시선을 기초로 거리에 따라 블러값을 상이하게 적용함으로써 촬영된 영상에 대한 목적 블러 맵을 생성할 할 수 있다. For example, the wearable device 800 can generate augmented image by converting the photographed image to fit the recognized line of sight. Then, the wearable device 800 can generate the target blur map for the photographed image by applying the blur value differently according to the distance based on the line of sight.

즉, 웨어러블 장치(800)는 촬영된 영상에 대해 확인된 시선(시점) 위치를 기초로 거리가 멀어질수록 블러값이 커지도록 적용함으로써 촬영된 영상에 대한 목적 블러 맵을 생성할 수도 있다. That is, the wearable device 800 may generate the target blur map for the photographed image by applying the blur value so that the blur value increases as the distance increases, based on the position of the sight line (point of view) determined for the photographed image.

이와 같이, 웨어러블 장치(800)는 목적 블러 맵을 생성한 후 증강 영상 중 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 목적 블러 맵을 적용하여 초점을 조정할 수 있다. As described above, the wearable device 800 can adjust the focus by applying the target blur map to the remaining area excluding the partial area according to the sight line information in the augmented image after generating the target blur map.

단계 830에서 웨어러블 장치(800)는 초점이 재조정된 증강 영상을 중첩하여 디스플레이 할 수 있다.In step 830, the wearable device 800 can superimpose and display the re-adjusted augmented image.

도 8은 본 발명의 다른 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면이다. 8 is a view schematically showing an internal configuration of a wearable device according to another embodiment of the present invention.

도 8을 참조하면, 본 발명의 다른 실시예에 따른 웨어러블 장치(800)는 전면 카메라(910), 후면 카메라(915), 시선 획득부(920), 디스플레이부(925), 증강 영상 생성부(930), 메모리(935) 및 프로세서(940)를 포함하여 구성된다. 8, a wearable device 800 according to another embodiment of the present invention includes a front camera 910, a rear camera 915, a line acquiring unit 920, a display unit 925, 930, a memory 935, and a processor 940.

전면 카메라(910)는 웨어러블 장치(800)의 프레임 전면에 위치하며, 사용자가 바라보는 실세계의 장면을 촬영할 수 있다.The front camera 910 is located in front of the frame of the wearable device 800 and can photograph a scene of a real world that the user sees.

또한, 후면 카메라(915)는 웨어러블 장치(800)의 프레임 후면에 위치하며, 사용자의 눈을 촬영하여 눈 영상을 생성하기 위한 수단이다. The rear camera 915 is located behind the frame of the wearable device 800 and is a means for photographing the eyes of the user and generating eye images.

시선 획득부(920)는 후면 카메라(915)를 통해 생성된 눈 영상을 이용하여 사용자의 홍채를 인식함으로써 시선 정보를 획득하기 위한 수단이다.The line-of-sight acquiring unit 920 is means for acquiring line-of-sight information by recognizing the iris of the user using the eye image generated through the rear-view camera 915.

디스플레이부(925)는 프로세서(940)의 제어를 통해 카메라(?)를 통해 촬영된 영상(실세계 영상)과 증강된 영상을 중첩하여 디스플레이하기 위한 수단이다. The display unit 925 is a means for superimposing and displaying the image (real world image) photographed through the camera (?) Through the control of the processor 940 and the augmented image.

증강 영상 생성부(930)는 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하기 위한 수단이다.The augmented-image generating unit 930 is a means for generating an augmented image by focus-blurring a remaining region of the photographed image except a partial region corresponding to the sighted information.

예를 들어, 증강 영상 생성부(930)는 촬영된 영상을 시선 정보에 따라 변환하여 증강 영상을 생성하며, 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성할 수 있다. 이어, 증강 영상 생성부(930)는 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정할 수 있다. For example, the augmented image generation unit 930 generates an augmented image by converting the photographed image according to sight line information, and applies a blur value corresponding to the distance on the basis of the sight line information, A target blur map can be generated. Then, the augmented image generating unit 930 may adjust the focus by applying the target blur map to a remaining region of the augmented image except the partial region corresponding to the sight information.

메모리(935)는 본 발명의 일 실시예에 따른 웨어러블 장치에서 촬영된 영상과 증강된 영상을 중첩하여 디스플레이하기 위해 필요한 다양한 알고리즘/명령어, 이과정에서 파생되는 다양한 데이터 등을 저장하기 위한 수단이다.The memory 935 is a means for storing various algorithms / commands necessary for superimposing and displaying the images photographed in the wearable device and the enhanced images according to an embodiment of the present invention, various data derived from the process, and the like.

프로세서(940)는 본 발명의 일 실시예에 따른 웨어러블 장치(800)의 내부 구성 요소들(예를 들어, 전면 카메라(910), 후면 카메라(915), 시선 획득부(920), 디스플레이부(925), 증강 영상 생성부(930), 메모리(935) 등)을 제어하기 위한 수단이다.The processor 940 may include internal components of the wearable device 800 (e.g., front camera 910, back camera 915, line of sight acquisition 920, display portion 920, 925), the augmented image generating unit 930, the memory 935, and the like).

도 9는 본 발명의 일 실시예에 따른 투과 가능한 안경형 웨어러블 장치를 통해 실세계 장면에 대해 촬영된 영상에 초점이 재조정된 증강 영상을 중첩하여 디스플레이한 일 예를 도시한 도면이다. 도 9에서 보여지는 바와 같이, 사용자의 시점 또는 사용자가 원하는 특정 영역에 초점을 재조정함으로써 사용자의 시점 또는 사용자가 원하는 특정 영역을 강조하여 디스플레이 할 수 있다. 본 명세서에서는 사용자의 시점 또는 사용자가 원하는 특정 영역의 초점만 재조정하여 중첩하여 출력하는 것으로 한정하여 설명하였으나 해당 영역에 대해 색상을 달리하는 등 시각적 효과를 달리하여 출력하는 경우 모두 동일하게 적용될 수 있다. FIG. 9 is a view showing an example of superimposing and displaying a re-adjusted augmented image on an image photographed with respect to a real-world scene through a wearable spectacle type wearable device according to an embodiment of the present invention. As shown in FIG. 9, by re-adjusting the focus to a user's viewpoint or a specific area desired by the user, the viewpoint of the user or a specific area desired by the user can be highlighted and displayed. In the present specification, only the user's viewpoint or the focus of a specific area desired by the user is readjusted and superimposed and output. However, the present invention can be similarly applied to a case where visual effects such as a different color are applied to the corresponding area.

본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The apparatus and method according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for the present invention or may be known and available to those of ordinary skill in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (12)

웨어러블 장치의 영상 처리 방법에 있어서,
(a) 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계;
(b) 상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 단계;
(c) 상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및
(d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
An image processing method of a wearable apparatus,
(a) photographing a real world viewed by a user through a camera;
(b) generating a depth map for the photographed image;
(c) generating an augmented image by focus blurring an area other than a partial area corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And
(d) superimposing the augmented image on the photographed image and outputting it.
제1 항에 있어서,
상기 (b) 단계는 깊이 센서를 통해 생성되는 것을 특징으로 하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 1,
Wherein the step (b) is performed through a depth sensor.
제1 항에 있어서,
상기 (b) 단계는, 복수의 촬영된 영상으로부터 스테레오 매칭(stereo matching)을 통해 깊이 추정을 통해 생성되는 것을 특징으로 하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 1,
Wherein the step (b) is performed through depth estimation through stereo matching from a plurality of photographed images.
제1 항에 있어서,
상기 (c) 단계는,
상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성하는 단계;
상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및
상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 1,
The step (c)
Generating an augmented image by converting the photographed image according to a user's viewpoint;
Generating a target blur map for the enhancement image using the depth map, the target blur map including a blur value for each pixel; And
And adjusting the focus by applying the target blur map to a region other than a partial region corresponding to the user's viewpoint or the user's selected position among the augmented images.
제4 항에 있어서,
상기 각 픽셀별 블러값은 하기 수학식을 이용하여 계산되는 것을 특징으로 하는 웨어러블 장치의 영상 처리 방법.
Figure pat00023

여기서,
Figure pat00024
는 실세계 객체의 블러값을 나타내며,
Figure pat00025
는 객체의 깊이 값을 나타내고,
Figure pat00026
는 각 픽셀별 블러값을 결정하기 위한 함수를 나타냄.
5. The method of claim 4,
Wherein the blur value for each pixel is calculated using the following equation.
Figure pat00023

here,
Figure pat00024
Represents a blur value of a real-world object,
Figure pat00025
Represents the depth value of the object,
Figure pat00026
Represents a function for determining a blur value for each pixel.
웨어러블 장치의 영상 처리 방법에 있어서,
(a) 전면 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계;
(b) 후면 카메라를 통해 사용자의 눈을 촬영하여 눈 영상을 생성하고, 상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 단계;
(c) 상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및
(d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
An image processing method of a wearable apparatus,
(a) photographing a real world viewed by a user through a front camera;
(b) capturing an eye of the user through a rear camera to generate a snow image, and confirming the user's gaze information using the snow image;
(c) generating an augmented image by focus blurring a remaining region of the photographed image except a partial region corresponding to the visual information; And
(d) superimposing the augmented image on the photographed image and outputting it.
제6 항에 있어서,
상기 (c) 단계는,
상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하는 단계;
상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및
상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 6,
The step (c)
Converting the photographed image according to the visual information to generate an augmented image;
Generating a target blur map for the photographed image by applying different blur values according to distances based on the gaze information, the target blur map including a blur value for each pixel box; And
And adjusting the focus by applying the target blur map to a remaining area of the augmented image except for a part of the area according to the sight line information.
제1 항 내지 제7 항 중 어느 하나의 항에 따른 방법을 수행하기 위한 프로그램 코드를 기록한 컴퓨터로 판독 가능한 기록 매체 제품.
8. A computer-readable recording medium having recorded thereon a program code for performing the method according to any one of claims 1 to 7.
웨어러블 장치에 있어서,
사용자가 바라보는 실 세계를 촬영하는 카메라;
상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 맵 생성부;
상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및
상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치.
In a wearable device,
A camera for photographing a real world viewed by a user;
A map generator for generating a depth map of the photographed image;
An augmented image generating unit for generating an augmented image by focus blurring the remaining region excluding a partial region corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And
And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.
제9 항에 있어서,
상기 증강 영상 생성부는,
상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성한 후, 상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하되,
상기 목적 블러 맵은 각 픽셀별 블러값을 포함하되, 각 픽셀의 깊이 값에 따라 상이한 블러값을 포함하는 것을 특징으로 하는 웨어러블 장치.
10. The method of claim 9,
Wherein the augmented image generating unit comprises:
Generating a target blur map for the augmented image by using the depth map after generating the augmented image by converting the photographed image according to the user's viewpoint and generating a target blur map for the augmented image using the depth map, The focus is adjusted by applying the target blur map to a region other than a partial region according to a user's selection position,
Wherein the object blur map includes a blur value for each pixel and a different blur value depending on a depth value of each pixel.
웨어러블 장치에 있어서,
사용자가 바라보는 실 세계를 촬영하는 전면 카메라;
사용자의 눈을 촬영하여 눈 영상을 생성하는 후면 카메라;
상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 시선 획득부;
상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및
상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치.
In a wearable device,
A front camera that captures the real world the user is looking at;
A rear camera for photographing the user's eyes and generating an eye image;
A line-of-sight obtaining unit for obtaining line-of-sight information of the user using the eye image;
An augmented image generation unit for generating an augmented image by focus blurring an area other than a part of the photographed image according to the sight line information; And
And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.
제11 항에 있어서, 상기 증강 영상 생성부는,
상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하며, 상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 것을 특징으로 하는 웨어러블 장치.
The apparatus of claim 11, wherein the augmented-
And generates a target blur map for the photographed image by applying a blur value corresponding to the distance on the basis of the gaze information, by converting the photographed image according to the gaze information to generate an augmented image, And adjusts the focus by applying the target blur map to a remaining area of the augmented image except for a part of the area corresponding to the sight line information.
KR1020170143026A 2017-10-31 2017-10-31 Wearable device and image processing method thereof KR102048411B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170143026A KR102048411B1 (en) 2017-10-31 2017-10-31 Wearable device and image processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170143026A KR102048411B1 (en) 2017-10-31 2017-10-31 Wearable device and image processing method thereof

Publications (2)

Publication Number Publication Date
KR20190048241A true KR20190048241A (en) 2019-05-09
KR102048411B1 KR102048411B1 (en) 2020-01-09

Family

ID=66546311

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170143026A KR102048411B1 (en) 2017-10-31 2017-10-31 Wearable device and image processing method thereof

Country Status (1)

Country Link
KR (1) KR102048411B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022035166A1 (en) * 2020-08-11 2022-02-17 삼성전자 주식회사 Electronic devices comprising camera module and method for controlling photographing direction thereof
WO2022092762A1 (en) * 2020-10-30 2022-05-05 삼성전자 주식회사 Stereo matching method and image processing device performing same
KR102572632B1 (en) * 2022-08-26 2023-08-29 강남대학교 산학협력단 Method and apparatus for providing augmented reality service using user face recognition
WO2023177089A1 (en) * 2022-03-16 2023-09-21 삼성전자 주식회사 Augmented reality device and operating method thereof
KR102595000B1 (en) * 2022-08-16 2023-10-26 강남대학교 산학협력단 Method and apparatus for providing augmented reality service using face recognition
US11927756B2 (en) 2021-04-01 2024-03-12 Samsung Electronics Co., Ltd. Method for providing augmented reality image and head mounted display device supporting the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022035166A1 (en) * 2020-08-11 2022-02-17 삼성전자 주식회사 Electronic devices comprising camera module and method for controlling photographing direction thereof
WO2022092762A1 (en) * 2020-10-30 2022-05-05 삼성전자 주식회사 Stereo matching method and image processing device performing same
US11927756B2 (en) 2021-04-01 2024-03-12 Samsung Electronics Co., Ltd. Method for providing augmented reality image and head mounted display device supporting the same
WO2023177089A1 (en) * 2022-03-16 2023-09-21 삼성전자 주식회사 Augmented reality device and operating method thereof
KR102595000B1 (en) * 2022-08-16 2023-10-26 강남대학교 산학협력단 Method and apparatus for providing augmented reality service using face recognition
KR102572632B1 (en) * 2022-08-26 2023-08-29 강남대학교 산학협력단 Method and apparatus for providing augmented reality service using user face recognition

Also Published As

Publication number Publication date
KR102048411B1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
KR102048411B1 (en) Wearable device and image processing method thereof
JP7076447B2 (en) Light field capture and rendering for head-mounted displays
US10382699B2 (en) Imaging system and method of producing images for display apparatus
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
WO2017173735A1 (en) Video see-through-based smart eyeglasses system and see-through method thereof
US11134238B2 (en) Goggle type display device, eye gaze detection method, and eye gaze detection system
KR20180101496A (en) Head-mounted display for virtual and mixed reality with inside-out location, user body and environment tracking
KR20170139521A (en) Image processing apparatus and image processing system
TW201907204A (en) Method and system for aligning between an external scene and a virtual image
US11962746B2 (en) Wide-angle stereoscopic vision with cameras having different parameters
JP6349660B2 (en) Image display device, image display method, and image display program
US20150304625A1 (en) Image processing device, method, and recording medium
JPWO2016021034A1 (en) 3D gaze point location algorithm
CN112055827A (en) Optical mixed reality system with digitally corrected aberrations
US9426446B2 (en) System and method for providing 3-dimensional images
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
JP2016105555A (en) Head-mounted display device, imaging control method, and program
US11627303B2 (en) System and method for corrected video-see-through for head mounted displays
CN109255838B (en) Method and device for avoiding double image watching of augmented reality display device
KR101817436B1 (en) Apparatus and method for displaying contents using electrooculogram sensors
US11503202B1 (en) Optical focus adjustment
WO2017081915A1 (en) Image processing device, image processing method and program
KR20150040194A (en) Apparatus and method for displaying hologram using pupil track based on hybrid camera
WO2020044809A1 (en) Information processing device, information processing method and program
US20230379594A1 (en) Image blending

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant