KR20190048241A - Wearable device and image processing method thereof - Google Patents
Wearable device and image processing method thereof Download PDFInfo
- Publication number
- KR20190048241A KR20190048241A KR1020170143026A KR20170143026A KR20190048241A KR 20190048241 A KR20190048241 A KR 20190048241A KR 1020170143026 A KR1020170143026 A KR 1020170143026A KR 20170143026 A KR20170143026 A KR 20170143026A KR 20190048241 A KR20190048241 A KR 20190048241A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- augmented
- blur
- map
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 230000003190 augmentative effect Effects 0.000 claims abstract description 77
- 238000000034 method Methods 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
Abstract
Description
본 발명은 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a wearable eyeglass device capable of being transparent and an image processing method thereof.
'구글 글라스 (Google Glass)','엡손 모버리오 (Epson Moverio)','마이크로소프트 홀로렌즈 (Microsoft Hololens)'등의 투과형 웨어러블 장치들이 활발하게 개발되고 있다. 이러한 투과형 안경형 웨어러블 장치를 통하여 사용자는 실세계 (real-world)와 디스플레이 장치에 재현된 영상을 동시에 볼 수 있다. 디스플레이 장치에 영상 또는 정보를 정합하는 증강 현실 (augmented reality) 기술에 대한 연구가 최근 활발하게 수행되고 있다. Transmissible wearable devices such as 'Google Glass', 'Epson Moverio', and 'Microsoft Hololens' are being actively developed. Through the transmission type eyeglass wearable device, the user can simultaneously view images reproduced in a real-world and a display device. Studies on augmented reality technology for matching images or information to a display device have recently been actively conducted.
투과형 안경 장치 착용자가 디스플레이 장치에 재현된 영상을 볼 경우에는 필연적으로 안경 너머의 실세계가 섞여 (blending) 보이게 된다. When a user wearing a transmission type eyeglass device views a reproduced image on a display device, the real world beyond the glasses necessarily blends.
본 발명은 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공하기 위한 것이다.The present invention provides a wearable eyeglass device and a method of processing the same.
또한, 본 발명은 웨어러블 장치에서 촬영한 영상을 사용자의 시점에 맞게 중첩하여 사용자가 바라보는 실세계 장면이 다른 방식으로 인지되도록 할 수 있는 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공하기 위한 것이다.In addition, the present invention provides a wearable eyeglass device and its image processing method capable of superimposing an image photographed by a wearable device on a wearer's device so that a real-world scene viewed by a user is perceived in a different manner.
또한, 본 발명은 사용자가 원하는 위치 또는 사용자의 시점과 일치하는 영역은 포커스를 맞추고 나머지 영역은 깊이에 따라 블러를 가하여 사용자가 원하는 영역만 집중해서 보고 원치 않는 영역은 잘 보이지 않게 할 수 있는 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공하기 위한 것이다. In addition, the present invention can be applied to a portable information terminal, which can focus on only a desired area or a user's point of view, and blur the remaining area according to a depth, A wearable device of the eyeglass type, and an image processing method thereof.
본 발명의 일 측면에 따르면, 투과 가능한 안경형 웨어러블 장치의 영상 처리 방법이 제공된다.According to an aspect of the present invention, there is provided an image processing method of a wearable wearable device that is transparent.
본 발명의 일 실시예에 따르면, 웨어러블 장치의 영상 처리 방법에 있어서, (a) 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계; (b) 상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 단계; (c) 상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및 (d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법이 제공될 수 있다. According to an embodiment of the present invention, there is provided a method of processing an image of a wearable device, comprising the steps of: (a) photographing a real world viewed by a user through a camera; (b) generating a depth map for the photographed image; (c) generating an augmented image by focus blurring an area other than a partial area corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And (d) superimposing the augmented image on the photographed image and outputting the augmented image.
상기 (b) 단계는 깊이 센서를 통해 생성되거나, 복수의 촬영된 영상으로부터 스테레오 매칭(stereo matching)을 통해 깊이 추정을 통해 생성될 수 있다. The step (b) may be generated through a depth sensor or may be generated by depth estimation through stereo matching from a plurality of photographed images.
상기 (c) 단계는, 상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성하는 단계; 상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및 상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함할 수 있다. The step (c) includes the steps of: generating an augmented image by converting the photographed image according to a user's viewpoint; Generating a target blur map for the enhancement image using the depth map, the target blur map including a blur value for each pixel; And adjusting the focus by applying the target blur map to a region other than a partial region corresponding to the user's viewpoint or the user's selected position among the augmented images.
상기 각 픽셀별 블러값은 하기 수학식을 이용하여 계산되되,The blur value for each pixel is calculated using the following equation,
여기서, 는 실세계 객체의 블러값을 나타내며, 는 객체의 깊이 값을 나타내고, 는 각 픽셀별 블러값을 결정하기 위한 함수를 나타낸다. here, Represents a blur value of a real-world object, Represents the depth value of the object, Represents a function for determining a blur value for each pixel.
본 발명의 다른 실시예에 따르면, 웨어러블 장치의 영상 처리 방법에 있어서, (a) 전면 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계; (b) 후면 카메라를 통해 사용자의 눈을 촬영하여 눈 영상을 생성하고, 상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 단계; (c) 상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및 (d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법이 제공될 수 있다. According to another embodiment of the present invention, there is provided a method of processing an image of a wearable device, comprising the steps of: (a) photographing a real world viewed by a user through a front camera; (b) capturing an eye of the user through a rear camera to generate a snow image, and confirming the user's gaze information using the snow image; (c) generating an augmented image by focus blurring a remaining region of the photographed image except a partial region corresponding to the visual information; And (d) superimposing the augmented image on the photographed image and outputting the augmented image.
상기 (c) 단계는, 상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하는 단계; 상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및 상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함할 수 있다.The step (c) includes the steps of: converting the photographed image according to the visual information to generate an augmented image; Generating a target blur map for the photographed image by applying different blur values according to distances based on the gaze information, the target blur map including a blur value for each pixel box; And adjusting the focus by applying the target blur map to a region other than a partial region corresponding to the gaze information among the enhancement images.
본 발명의 다른 측면에 따르면, 투과 가능한 안경형 웨어러블 장치가 제공된다.According to another aspect of the present invention, there is provided a transmissive spectacles-type wearable apparatus.
본 발명의 일 실시예에 따르면, 웨어러블 장치에 있어서, 사용자가 바라보는 실 세계를 촬영하는 카메라; 상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 맵 생성부; 상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치가 제공될 수 있다. According to an embodiment of the present invention, there is provided a wearable apparatus comprising: a camera for photographing a real world viewed by a user; A map generator for generating a depth map of the photographed image; An augmented image generating unit for generating an augmented image by focus blurring the remaining region excluding a partial region corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.
상기 증강 영상 생성부는, 상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성한 후, 상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하되, 상기 목적 블러 맵은 각 픽셀별 블러값을 포함하되, 각 픽셀의 깊이 값에 따라 상이한 블러값을 포함할 수 있다. The augmented image generation unit generates a target blur map for the augmented image using the depth map after converting the photographed image according to a user's viewpoint to generate an augmented image, Wherein the object blur map includes a blur value for each pixel, wherein the blur value for each pixel is determined by applying a depth value of each pixel May include different blur values depending on the < / RTI >
본 발명의 다른 실시예에 따르면, 웨어러블 장치에 있어서, 사용자가 바라보는 실 세계를 촬영하는 전면 카메라; 사용자의 눈을 촬영하여 눈 영상을 생성하는 후면 카메라; 상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 시선 획득부; 상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치가 제공될 수 있다. According to another embodiment of the present invention, there is provided a wearable apparatus comprising: a front camera which photographs a real world viewed by a user; A rear camera for photographing the user's eyes and generating an eye image; A line-of-sight obtaining unit for obtaining line-of-sight information of the user using the eye image; An augmented image generation unit for generating an augmented image by focus blurring an area other than a part of the photographed image according to the sight line information; And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.
상기 증강 영상 생성부는, 상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하며, 상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정할 수 있다. Wherein the augmented image generating unit generates the augmented image by converting the photographed image according to the sight information and applying a blur value corresponding to the distance on the basis of the sight information, target blur map, and adjusts the focus by applying the target blur map to a remaining area of the augmented image except a part of the area according to the sight line information.
본 발명의 일 실시예에 따른 투과 가능한 안경형 웨어러블 장치 및 이의 영상 처리 방법을 제공함으로써, 웨어러블 장치에서 촬영한 영상을 사용자의 시점에 맞게 중첩하여 사용자가 바라보는 실세계 장면이 다른 방식으로 인지되도록 할 수 있다.The wearable device and the image processing method of the present invention can be used to superimpose the images photographed by the wearable device according to the viewpoint of the user so that the real world scene viewed by the user can be perceived in a different manner have.
즉, 본 발명은 사용자가 원하는 위치 또는 사용자의 시점과 일치하는 영역은 포커스를 맞추고 나머지 영역은 깊이에 따라 블러를 가하여 사용자가 원하는 영역만 집중해서 보고 원치 않는 영역은 잘 보이지 않게 할 수 있다. That is, according to the present invention, a user can focus on an area coinciding with a desired position or a user's view, and blur according to a depth of the remaining area, thereby concentrating only the area desired by the user, and making the undesired area invisible.
도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 사시도.
도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면.
도 2는 본 발명의 일 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도.
도 3은 본 발명의 일 실시예에 따른 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩한 일 예를 도시한 도면.
도 4 및 도 5는 본 발명의 일 실시예에 따른 객체의 거리와 포커스 블러(focus blur) 사이의 상관 관계를 설명하기 위해 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 실제 중첩된 영상으로부터 재초점 효과를 느낄 수 있도록 재초점 파라미터를 결정하기 위해 설계된 실험의 일 예를 도시한 도면.
도 7은 본 발명의 다른 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도.
도 8은 본 발명의 다른 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면.1 is a perspective view of a wearable device according to an embodiment of the present invention;
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic view showing an internal configuration of a wearable device according to an embodiment of the present invention; FIG.
2 is a flowchart illustrating an image processing method of a wearable device according to an embodiment of the present invention.
3 is a view illustrating an example of superimposing a video image of a real-world scene on a display of a wearable device according to an embodiment of the present invention.
FIGS. 4 and 5 are diagrams for explaining a correlation between a distance of an object and a focus blur according to an embodiment of the present invention; FIG.
6 illustrates an example of an experiment designed to determine refocusing parameters so that a refocusing effect can be felt from an actual superimposed image according to an embodiment of the present invention.
FIG. 7 is a flowchart illustrating an image processing method of a wearable device according to another embodiment of the present invention. FIG.
8 is a view schematically showing an internal configuration of a wearable device according to another embodiment of the present invention.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.As used herein, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise. In this specification, the terms " comprising ", or " comprising " and the like should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps. Also, the terms " part, " " module, " and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .
본 발명은 투과 가능한 안경형 웨어러블 장치를 통해 실세계 장면에 대해 촬영된 영상과 깊이맵을 이용하여 사용자 시점에 맞는 재초점 영상(이하 증강 영상이라 칭하기로 함)을 생성한 후 이를 투과 가능한 안경형 웨어러블 장치의 디스플레이에 중첩하여 출력하도록 할 수 있다. 이를 통해, 본 발명은 사용자가 원하는 특정 영역만 집중해서 보고 나머지 영역은 잘 보이지 않도록 할 수 있다. The present invention relates to a method and apparatus for generating a refocused image (hereinafter, referred to as an augmented image) suitable for a user's viewpoint using an image captured in a real-world scene and a depth map through a transparent eyeglass wearable device, It can be superimposed on the display and output. Accordingly, the present invention can concentrate only the specific area desired by the user and make the remaining areas invisible.
본 발명의 일 실시예에 따른 웨어러블 장치는 투과 가능한 안경형 장치로, 사용자가 얼굴에 착용이 가능한 장치이다. 본 명세서에서는 이해와 설명의 편의를 도모하기 위해 투과 가능한 안경형 장치로 한정하여 설명하나, 이외에도 사용자에게 실세계 영상과 증강 영상을 중첩하여 제공할 수 있는 장치인 경우 모두 동일하게 적용될 수 있음은 당연하다. 또한, 본 명세서에서는 웨어러블 장치로 한정하여 설명하나, 비단 웨어러블 장치뿐만 아니라 휴대 가능한 전자 장치인 경우에도 동일하게 적용될 수 있다. A wearable device according to an embodiment of the present invention is a transmissible eyeglass-type device, and is a device that a user can wear on his face. In order to facilitate understanding and explanation, the present invention is limited to a transmissible spectacular apparatus. However, it is natural that the present invention is equally applicable to a device capable of providing a user with a real-world image and an augmented image superimposed on each other. Although the present invention is limited to wearable devices, the present invention can be equally applied to not only wearable devices but also portable electronic devices.
본 발명의 일 실시예에 따른 웨어러블 장치는 웨어러블 장치의 프레임에 소형 카메라(이미지 센서)가 장착되어 실세계 영상을 촬영할 수 있다. 촬영된 영상은 내부 프로세서를 통해 처리된 후 웨어러블 장치의 통해 실세계 영상과 증강 영상을 중첩하여 웨어러블 장치의 디스플레이부를 통해 출력할 수 있다. A wearable device according to an embodiment of the present invention can mount a small camera (image sensor) on a frame of a wearable device to take a real-world image. The photographed image is processed through an internal processor, and then the real world image and the augmented image are superimposed over the wearable device and output through the display unit of the wearable device.
또한, 본 발명의 일 실시예에 따른 웨어러블 장치는 프레임의 전면 또는/및 후면에 각각 카메라를 구비할 수 있다. 이를 통해, 웨어러블 장치는 프레임 전면에 구비된 카메라를 통해 사용자가 바라보는 방향의 실세계를 촬영할 수 있다. 이와 동시에 웨어러블 장치는 프레임 후면에 구비된 카메라를 통해 사용자의 눈을 촬영한 후 사용자의 시선을 추적하여 시선 정보를 획득할 수도 있다. 또한, 웨어러블 장치의 프레임 일부에는 전원 공급을 위한 배터리가 내장될 수 있다. 이하 도 1을 참조하여 웨어러블 장치의 내부 구성에 대해 보다 상세히 설명하기로 한다.In addition, the wearable apparatus according to an embodiment of the present invention may include a camera on the front face and / or the rear face of the frame, respectively. Accordingly, the wearable apparatus can photograph the real world in the direction in which the wearer is looking through the camera provided on the front face of the frame. At the same time, the wearable apparatus can photograph the eyes of the user through the camera provided on the rear side of the frame, and then track the user's gaze to acquire gaze information. In addition, a battery for power supply may be incorporated in a part of the frame of the wearable device. Hereinafter, the internal structure of the wearable device will be described in more detail with reference to FIG.
도 1은 본 발명의 일 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면이다. FIG. 1 is a view schematically showing an internal configuration of a wearable device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 웨어러블 장치(100)는 카메라(210), 디스플레이부(215), 맵 생성부(220), 증강 영상 생성부(225), 메모리(230) 및 프로세서(235)를 포함하여 구성된다.1, a wearable device 100 according to an exemplary embodiment of the present invention includes a
카메라(210)는 영상을 촬영하기 위한 수단이다.The
예를 들어, 카메라(210)는 웨어러블 장치(100)를 착용한 사용자가 바라보는 방향의 영상을 촬영할 수 있다.For example, the
도 1에는 카메라(210)가 하나인 것을 가정하여 이를 중심으로 설명하고 있다. 그러나, 본 발명의 일 실시예에 따른 웨어러블 장치(100)는 복수의 카메라를 구비할 수도 있다. 이와 같이 카메라가 복수인 경우, 전면 카메라(210)는 웨어러블 장치(100)의 프레임 전면에 위치하여 사용자가 바라보는 방향의 영상을 촬영할 수 있다. 후면 카메라(210)는 전면 카메라(210)와 배면하여 웨어러블 장치(100)의 프레임 후면에 위치하며, 사용자의 눈 영상을 촬영하여 사용자의 시선을 추적하는데 이용될 수 있다. In FIG. 1, it is assumed that there is only one
디스플레이부(215)는 프로세서(235)의 제어를 통해 카메라(210)를 통해 촬영된 영상(실세계 영상)과 증강된 영상을 중첩하여 디스플레이하기 위한 수단이다. The
맵 생성부(220)는 촬영된 영상에 대한 깊이 맵(depth map)을 생성하기 위한 수단이다. The
웨어러블 장치(100)가 깊이 센서를 구비하는 경우, 맵 생성부(220)는 깊이 센서를 통해 획득된 깊이값을 이용하여 깊이 맵을 생성할 수 있다. 그러나 만일 웨어러블 장치(100)가 깊이 센서를 구비하지 않는 경우, 복수의 영상을 이용하여 깊이 맵을 생성할 수도 있다. When the wearable device 100 includes a depth sensor, the
증강 영상 생성부(225)는 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하기 위한 수단이다. The augmented
예를 들어, 증강 영상 생성부(225)는 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성한 후, 깊이 맵을 이용하여 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하여 최종적으로 증강 영상을 생성할 수 있다. 이에 대해서는 도 2의 설명에 의해 보다 명확하게 이해될 것이다. For example, the augmented
메모리(230)는 본 발명의 일 실시예에 따른 웨어러블 장치에서 촬영된 영상과 증강된 영상을 중첩하여 디스플레이하기 위해 필요한 다양한 알고리즘/명령어, 이과정에서 파생되는 다양한 데이터 등을 저장하기 위한 수단이다.The
프로세서(235)는 본 발명의 일 실시예에 따른 웨어러블 장치(100)의 내부 구성 요소들(예를 들어, 카메라(210), 디스플레이부(215), 메모리(230) 등)을 제어하기 위한 수단이다.The
또한, 프로세서(235)는 메모리(230)에 저장된 복수의 명령어들을 수행함으로써, 촬영된 영상의 일부에 초점을 맞추고 나머지 영역은 흐리게 블러(blur) 처리하여 실세계 영상과 증강 영상을 중첩하여 제공하도록 제어할 수 있다. 이에 대해서는 도 2를 참조하여 하기에서 보다 상세히 후술하기로 한다. In addition, the
도 2는 본 발명의 일 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도이며, 도 3은 본 발명의 일 실시예에 따른 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩한 일 예를 도시한 도면이고, 도 4 및 도 5는 본 발명의 일 실시예에 따른 객체의 거리와 포커스 블러(focus blur) 사이의 상관 관계를 설명하기 위해 도시한 도면이며, 도 6은 본 발명의 일 실시예에 따른 실제 중첩된 영상으로부터 재초점 효과를 느낄 수 있도록 재초점 파라미터를 결정하기 위해 설계된 실험의 일 예를 도시한 도면이다. FIG. 2 is a flowchart illustrating an image processing method of a wearable device according to an embodiment of the present invention. FIG. 3 is an example of superimposing a video image of a real-world scene according to an embodiment of the present invention on a display of a wearable device. 4 and 5 are diagrams for explaining a correlation between a distance of an object and a focus blur according to an embodiment of the present invention. FIG. 5 is a diagram illustrating an example of an experiment designed to determine refocusing parameters so that a refocusing effect can be felt from an actual superimposed image according to an example.
단계 310에서 웨어러블 장치(100)는 웨어러블 장치(100)에 구비된 카메라를 통해 웨어러블 장치(100)를 착용한 착용자가 바라보는 장면을 촬영한다.In
단계 315에서 웨어러블 장치(100)는 촬영된 영상에 대한 깊이맵을 생성한다.In
이때, 웨어러블 장치(100)에 깊이 센서가 구비되는 경우, 깊이 센서를 통해 촬영된 영상에 대한 깊이 맵(depth map)을 생성할 수 있다.At this time, when the wearable apparatus 100 is provided with a depth sensor, a depth map for an image photographed through the depth sensor can be generated.
그러나 만일 웨어러블 장치(100)에 깊이 센서가 구비되지 않은 경우, 웨어러블 장치(100)는 동일한 장면에 대한 복수의 영상을 이용하여 깊이 맵을 생성할 수도 있다. 예를 들어, 웨어러블 장치(100)는 여러 장의 영상으로부터 깊이를 추정하는 stereo matching이나 depth from motion 등의 알고리즘을 사용하여 깊이 맵을 생성할 수 있다. 복수의 영상을 이용하여 깊이를 추정하여 깊이 맵을 생성하는 방법 자체는 이미 공지된 사항이므로 이에 대해서는 추가적인 설명은 생략하기로 한다. However, if the wearable device 100 is not provided with a depth sensor, the wearable device 100 may generate a depth map using a plurality of images for the same scene. For example, the wearable device 100 can generate a depth map using an algorithm such as stereo matching or depth from motion, which estimates depth from a plurality of images. Since the method of estimating the depth by using a plurality of images and generating the depth map is a known matter, a further explanation will be omitted.
단계 320에서 웨어러블 장치(100)는 카메라에서 촬영된 영상을 사용자의 시점에 맞게 변환한다. 이와 같이, 사용자의 시점에 맞게 변환된 영상을 이하에서는 이해와 설명의 편의를 도모하기 위해 증강 영상이라 칭하기로 한다. In
일반적으로 사용자가 착용한 웨어러블 장치(100)를 통해 장면을 촬영하더라도 사용자의 시점과 카메라 렌즈의 시점이 상이하기 때문에 시점 차이를 보정할 필요가 있다. In general, even if a scene is photographed through the wearable device 100 worn by a user, it is necessary to correct the viewpoint difference because the viewpoint of the user is different from the viewpoint of the camera lens.
도 3에는 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩한 일 예가 도시되어 있다. 이와 같이 실세계 장면을 촬영한 영상을 웨어러블 장치의 디스플레이에 중첩시 증강 영상의 위치 및 색상/밝기 보정이 정확하고 해상도(spatial resolution)가 충분히 높은 경우 실세계 장면과 증강 영상이 하나로 정합될 수 있다. 3 shows an example of superimposing an image of a real world scene on a display of a wearable device. When the image of the real-world scene is superimposed on the display of the wearable device, the real-world scene and the augmented image can be matched when the position of the augmented image and color / brightness correction are accurate and the spatial resolution is sufficiently high.
본 발명의 일 실시예에 따르면, 웨어러블 장치(100)에서 촬영된 실세계 영상을 사용자 시점에 중첩하는 과정에 있어 영상 재초점 기법을 적용한 영상을 중첩하여 사용자로 하여금 실세계가 재초점 된 것으로 인지하도록 할 수 있다.According to an embodiment of the present invention, in the process of superimposing the real-world image photographed by the wearable device 100 at the user's viewpoint, the image using the image refocusing technique is superimposed to allow the user to recognize that the real world is refocused .
도 4 및 도 5를 참조하여 객체의 거리와 포커스 블러(focus blur) 사이의 상관 관계에 대해 설명하기로 한다. 카메라 초점 거리에 대해 간단히 설명하기로 한다.The correlation between the distance of the object and the focus blur will be described with reference to FIGS. 4 and 5. FIG. The camera focal length will be briefly described.
피사체(객체, point)가 렌즈(반지름 r)로부터 거리에 위치해 있는 경우, 렌즈를 거처 초점 거리()만큼 떨어진 이미지 평면(image plane)에 맺히게 된다. 이때, 도 4에서 보여지는 바와 같이 피사체의 거리가 보다 멀리 떨어지거나 도 5에서 보여지는 바와 같이 피사체의 거리가 보다 가까운 경우 객체는 이미지 평면상에 하나의 점으로 맺히지 않고 C를 반지름으로 갖는 착란원(circle of confusion)안에 맺히게 된다. 그로 인해 defocus blur가 발생된다. 이러한 블러의 정도는 객체와 제1 거리()가 클수록 커지는 특성이 갖는다. When the subject (object, point) moves from the lens (radius r) If it is located at a distance, ) In the image plane (image plane). At this time, as shown in FIG. 4, As shown in FIG. 5, the distance of the object The object is not formed as a single point on the image plane but is formed in a circle of confusion with C as a radius. This causes defocus blur. The degree of blur is defined as the distance between the object and the first distance ) Is larger.
렌즈의 기본 원리에 따라 초점 길이 F(focal length F)는 수학식 1과 같이 나타낼 수 있다. 또한, 초점 길이 F에 기초하여 착란원의 반지름(C)는 수학식 2와 같이 계산될 수 있다. According to the basic principle of the lens, the focal length F can be expressed by Equation (1). Further, the radius (C) of the confusion circle based on the focal length F can be calculated as shown in Equation (2).
여기서, u는 객체와 렌즈간의 거리를 나타내며, v는 렌즈와 이미지 평면까지의 거리를 나타내며, F는 렌즈의 초점 거리를 나타낸다. Where u denotes the distance between the object and the lens, v denotes the distance between the lens and the image plane, and F denotes the focal length of the lens.
여기서, 는 렌즈와 이미지 평면까지의 거리를 나타내며, u는 렌즈와 객체까지의 거리를 나타낸다. 이러한 포커스 블러(focus blur)는 경우에 따라 도 6에서 보여지는 바와 같이 의도적으로 적용되어 미적 효과를 주거나 일부 영역에 집중을 위한 목적으로 활용이 가능하다.here, Represents the distance from the lens to the image plane, and u represents the distance from the lens to the object. Such a focus blur may be intentionally applied as shown in FIG. 6 depending on the case, so that the focus blur may be used for aesthetic effect or for focusing on a certain area.
본 발명의 일 실시예에서는 이러한 포커스 블러를 이용하여 사용자의 시선(시점)이 위치하는 영역 또는 사용자가 지정한 특정 영역에 집중하도록 하기 위해 이용될 수 있다. In an embodiment of the present invention, such a focus blur may be used to focus on a region where the user's gaze (viewpoint) is located or a specific region designated by the user.
따라서, 본 발명의 일 실시예에 따른 웨어러블 장치(100)는 촬영된 영상을 사용자의 시점에 맞춰 변환하여 증강 영상을 생성할 수 있다. Accordingly, the wearable device 100 according to an embodiment of the present invention can generate augmented image by converting the photographed image according to the user's viewpoint.
이를 위해, 본 발명의 일 실시예에서는 카메라에서 촬영된 영상을 사용자의 시점에 맞게 변환할 필요가 있다. 사용자의 시점은 카메라를 이용하여 사용자의 눈 영상을 촬영한 후 시선을 추적하는 방법 등을 이용하여 인식할 수 있다. 사용자의 시점에 맞게 촬영된 영상을 보정하는 경우, 사전 생성된 보정 행렬(calibration matrix)을 사용할 수 있다. To this end, in an embodiment of the present invention, it is necessary to convert the image photographed by the camera to fit the viewpoint of the user. The user's viewpoint can be recognized by using a camera to capture a user's eye image and then tracking the gaze. When the image photographed according to the user's viewpoint is corrected, a pre-generated calibration matrix can be used.
다른 예를 들어, 웨어러블 장치(100)는 생성된 깊이 맵을 이용하여 사용자의 시점에 맞게 촬영된 영상을 변환할 수도 있다.In another example, the wearable device 100 may convert an image photographed according to a user's viewpoint using the generated depth map.
단계 325에서 웨어러블 장치(100)는 증강 영상에 대해 목적 블러맵(target blur map)을 생성한다. In
여기서, 목적 블러 맵은 각 화소에 대한 블러 파라미터()를 포함한다. 이때, 목적 블러 맵은 사용자의 시점에 상응하여 자동으로 생성되거나 사용자의 입력을 통해 생성될 수 있다. Here, the target blur map is a blur parameter ( ). At this time, the object blur map may be generated automatically according to the user's viewpoint or may be generated through the user's input.
예를 들어, 사용자가 바라보는 시선을 인식하여 해당 위치는 블러(blur)시키지 않고(=0), 나머지 영역은 깊이 값에 따라 블러 처리할 수 있다. For example, if the user recognizes the line of sight he or she is looking at and does not blur the position, = 0), and the remaining area can be blurred according to the depth value.
도 6을 참조하여 실제 중첩된 영상으로부터 재초점 효과를 느낄 수 있도록 재초점 파라미터를 결정하기 위해 설계된 실험의 일 예에 대해 설명하기로 한다. Referring to FIG. 6, an example of an experiment designed to determine a refocusing parameter so that a refocusing effect can be sensed from an actually superimposed image will be described.
도 6을 참조하여 실세계의 깨끗한 객체와 실세계의 블러된 객체에 대해 깨끗한 객체 부분에는 재초점 적용한 영상을 중첩하고, 실세계 블러된 객체에 대해서는 아무런 영상도 증강하지 않을 수 있다. Referring to FIG. 6, it is possible to superimpose a refocused image on a clean object part of a real object's real object and a blurred object of a real world, and not to enhance an image on a real-world blurred object.
그리고, 실세계의 깨끗한 객체에 증강 영상을 중첩하였을 경우, 실제 블러된 객체를 바라보는 경우(도 6의 좌/우)가 동일하게 인식이 되게 하는 재초점 파라미터를 찾을 수 있다. When the augmented image is superimposed on a clean object in the real world, it is possible to find a refocusing parameter that allows the same object to be recognized when looking at an actual blurred object (left / right in Fig. 6).
이를 수학식으로 나타내면, 수학식 3과 같다. This can be expressed by the following equation (3).
여기서, 는 실세계 객체의 블러값을 나타내며, 는 객체의 깊이 값을 나타내고, 는 각 픽셀별 블러값을 결정하기 위한 함수를 나타낸다. here, Represents a blur value of a real-world object, Represents the depth value of the object, Represents a function for determining a blur value for each pixel.
일반적으로 블러는 가우시안 블러(Gaussian blur)의 표준 변랑(standard deviation())으로 표현될 수 있다. 다양한 깊이와 실세계 블러()에 대하여 획득된 증강 영상 블러() 값을 이용하여 함수를 생성할 수 있다. 또한, 매칭 함수 생성시 데이터 피팅(data fitting)을 이용하거나 기계 학습(machine learning) 기법이 이용될 수도 있다. In general, the blur is the standard deviation of the Gaussian blur )). ≪ / RTI > Various depth and real-world blur ( ) Obtained for the augmented image blur ( ) Value can be used to create a function. In addition, data fitting or machine learning techniques may be used in generating the matching function.
상술한 목적 블러 맵은 자동으로 생성되거나 사용자의 입력을 통해 생성될 수 있다. The above-described object blur map may be generated automatically or may be generated through the user's input.
단계 330에서 웨어러블 장치(100)는 목적 블러 맵을 이용하여 증강 영상 중 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역은 목적 블러 맵을 적용하여 초점을 재조정한다. In
예를 들어, 웨어러블 장치(100)는 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역은 블러 처리하지 않고() 나머지 영역은 깊이 값에 따라 블러값을 다르게 적용하여 블러 처리할 수 있다.For example, the wearable device 100 does not blur some areas according to the viewpoint of the user or the user's selected position ) The remaining area can be blurred by applying a different blur value according to the depth value.
이를 통해, 본 발명의 일 실시예에 따르면 촬영된 영상 중 사용자의 시점에 일치하는 영역만 강조되고 나머지 영역은 블러시킬도록 할 수 있다.Thus, according to an embodiment of the present invention, only the region of the photographed image that matches the viewpoint of the user can be emphasized and the remaining region can be blurred.
다른 예를 들어, 웨어러블 장치(100)는 촬영된 영상에서 사용자의 시점과 무관하게 광고 등의 목적으로 중요한 영역만 초점이 맞도록 처리하고 나머지 영역은 블러 처리할 수도 있다.In another example, the wearable device 100 may process only a region that is important for the purpose of advertisement or the like in the photographed image, regardless of the viewpoint of the user, and blur the remaining region.
단계 335에서 웨어러블 장치(100)는 초점이 재조정된 증강 영상을 중첩하여 디스플레이 할 수 있다.In
도 7은 본 발명의 다른 실시예에 따른 웨어러블 장치의 영상 처리 방법을 나타낸 순서도이다.7 is a flowchart illustrating an image processing method of a wearable device according to another embodiment of the present invention.
단계 810에서 웨어러블 장치(800)는 전면 카메라를 통해 사용자가 바라보는 실세계 장면에 대한 영상을 촬영한다.In
단계 815에서 웨어러블 장치(800)는 후면 카메라를 통해 사용자의 눈을 촬영하여 눈 영상을 생성한다. In
단계 820에서 웨어러블 장치(800)는 눈 영상을 분석하여 홍채를 인식함으로써 사용자의 시선을 확인한다.In
사람의 홍채 인식을 통해 시선을 추적/인식하는 방법 자체는 당업자에게는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.The method of tracking / recognizing the eyes through the iris recognition of a person is obvious to those skilled in the art, so a separate explanation will be omitted.
단계 825에서 웨어러블 장치(800)는 촬영된 영상 중 사용자의 시선에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러하여 증강 영상을 생성한다. In
예를 들어, 웨어러블 장치(800)는 촬영된 영상을 확인된 시선에 맞도록 변환하여 증강 영상을 생성할 수 있다. 이어, 웨어러블 장치(800)는 시선을 기초로 거리에 따라 블러값을 상이하게 적용함으로써 촬영된 영상에 대한 목적 블러 맵을 생성할 할 수 있다. For example, the wearable device 800 can generate augmented image by converting the photographed image to fit the recognized line of sight. Then, the wearable device 800 can generate the target blur map for the photographed image by applying the blur value differently according to the distance based on the line of sight.
즉, 웨어러블 장치(800)는 촬영된 영상에 대해 확인된 시선(시점) 위치를 기초로 거리가 멀어질수록 블러값이 커지도록 적용함으로써 촬영된 영상에 대한 목적 블러 맵을 생성할 수도 있다. That is, the wearable device 800 may generate the target blur map for the photographed image by applying the blur value so that the blur value increases as the distance increases, based on the position of the sight line (point of view) determined for the photographed image.
이와 같이, 웨어러블 장치(800)는 목적 블러 맵을 생성한 후 증강 영상 중 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 목적 블러 맵을 적용하여 초점을 조정할 수 있다. As described above, the wearable device 800 can adjust the focus by applying the target blur map to the remaining area excluding the partial area according to the sight line information in the augmented image after generating the target blur map.
단계 830에서 웨어러블 장치(800)는 초점이 재조정된 증강 영상을 중첩하여 디스플레이 할 수 있다.In
도 8은 본 발명의 다른 실시예에 따른 웨어러블 장치의 내부 구성을 개략적으로 도시한 도면이다. 8 is a view schematically showing an internal configuration of a wearable device according to another embodiment of the present invention.
도 8을 참조하면, 본 발명의 다른 실시예에 따른 웨어러블 장치(800)는 전면 카메라(910), 후면 카메라(915), 시선 획득부(920), 디스플레이부(925), 증강 영상 생성부(930), 메모리(935) 및 프로세서(940)를 포함하여 구성된다. 8, a wearable device 800 according to another embodiment of the present invention includes a
전면 카메라(910)는 웨어러블 장치(800)의 프레임 전면에 위치하며, 사용자가 바라보는 실세계의 장면을 촬영할 수 있다.The
또한, 후면 카메라(915)는 웨어러블 장치(800)의 프레임 후면에 위치하며, 사용자의 눈을 촬영하여 눈 영상을 생성하기 위한 수단이다. The
시선 획득부(920)는 후면 카메라(915)를 통해 생성된 눈 영상을 이용하여 사용자의 홍채를 인식함으로써 시선 정보를 획득하기 위한 수단이다.The line-of-
디스플레이부(925)는 프로세서(940)의 제어를 통해 카메라(?)를 통해 촬영된 영상(실세계 영상)과 증강된 영상을 중첩하여 디스플레이하기 위한 수단이다. The
증강 영상 생성부(930)는 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하기 위한 수단이다.The augmented-
예를 들어, 증강 영상 생성부(930)는 촬영된 영상을 시선 정보에 따라 변환하여 증강 영상을 생성하며, 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성할 수 있다. 이어, 증강 영상 생성부(930)는 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정할 수 있다. For example, the augmented
메모리(935)는 본 발명의 일 실시예에 따른 웨어러블 장치에서 촬영된 영상과 증강된 영상을 중첩하여 디스플레이하기 위해 필요한 다양한 알고리즘/명령어, 이과정에서 파생되는 다양한 데이터 등을 저장하기 위한 수단이다.The
프로세서(940)는 본 발명의 일 실시예에 따른 웨어러블 장치(800)의 내부 구성 요소들(예를 들어, 전면 카메라(910), 후면 카메라(915), 시선 획득부(920), 디스플레이부(925), 증강 영상 생성부(930), 메모리(935) 등)을 제어하기 위한 수단이다.The
도 9는 본 발명의 일 실시예에 따른 투과 가능한 안경형 웨어러블 장치를 통해 실세계 장면에 대해 촬영된 영상에 초점이 재조정된 증강 영상을 중첩하여 디스플레이한 일 예를 도시한 도면이다. 도 9에서 보여지는 바와 같이, 사용자의 시점 또는 사용자가 원하는 특정 영역에 초점을 재조정함으로써 사용자의 시점 또는 사용자가 원하는 특정 영역을 강조하여 디스플레이 할 수 있다. 본 명세서에서는 사용자의 시점 또는 사용자가 원하는 특정 영역의 초점만 재조정하여 중첩하여 출력하는 것으로 한정하여 설명하였으나 해당 영역에 대해 색상을 달리하는 등 시각적 효과를 달리하여 출력하는 경우 모두 동일하게 적용될 수 있다. FIG. 9 is a view showing an example of superimposing and displaying a re-adjusted augmented image on an image photographed with respect to a real-world scene through a wearable spectacle type wearable device according to an embodiment of the present invention. As shown in FIG. 9, by re-adjusting the focus to a user's viewpoint or a specific area desired by the user, the viewpoint of the user or a specific area desired by the user can be highlighted and displayed. In the present specification, only the user's viewpoint or the focus of a specific area desired by the user is readjusted and superimposed and output. However, the present invention can be similarly applied to a case where visual effects such as a different color are applied to the corresponding area.
본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The apparatus and method according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for the present invention or may be known and available to those of ordinary skill in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The embodiments of the present invention have been described above. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
Claims (12)
(a) 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계;
(b) 상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 단계;
(c) 상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및
(d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
An image processing method of a wearable apparatus,
(a) photographing a real world viewed by a user through a camera;
(b) generating a depth map for the photographed image;
(c) generating an augmented image by focus blurring an area other than a partial area corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And
(d) superimposing the augmented image on the photographed image and outputting it.
상기 (b) 단계는 깊이 센서를 통해 생성되는 것을 특징으로 하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 1,
Wherein the step (b) is performed through a depth sensor.
상기 (b) 단계는, 복수의 촬영된 영상으로부터 스테레오 매칭(stereo matching)을 통해 깊이 추정을 통해 생성되는 것을 특징으로 하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 1,
Wherein the step (b) is performed through depth estimation through stereo matching from a plurality of photographed images.
상기 (c) 단계는,
상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성하는 단계;
상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및
상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 1,
The step (c)
Generating an augmented image by converting the photographed image according to a user's viewpoint;
Generating a target blur map for the enhancement image using the depth map, the target blur map including a blur value for each pixel; And
And adjusting the focus by applying the target blur map to a region other than a partial region corresponding to the user's viewpoint or the user's selected position among the augmented images.
상기 각 픽셀별 블러값은 하기 수학식을 이용하여 계산되는 것을 특징으로 하는 웨어러블 장치의 영상 처리 방법.
여기서, 는 실세계 객체의 블러값을 나타내며, 는 객체의 깊이 값을 나타내고, 는 각 픽셀별 블러값을 결정하기 위한 함수를 나타냄.
5. The method of claim 4,
Wherein the blur value for each pixel is calculated using the following equation.
here, Represents a blur value of a real-world object, Represents the depth value of the object, Represents a function for determining a blur value for each pixel.
(a) 전면 카메라를 통해 사용자가 바라보는 실 세계를 촬영하는 단계;
(b) 후면 카메라를 통해 사용자의 눈을 촬영하여 눈 영상을 생성하고, 상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 단계;
(c) 상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 단계; 및
(d) 상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
An image processing method of a wearable apparatus,
(a) photographing a real world viewed by a user through a front camera;
(b) capturing an eye of the user through a rear camera to generate a snow image, and confirming the user's gaze information using the snow image;
(c) generating an augmented image by focus blurring a remaining region of the photographed image except a partial region corresponding to the visual information; And
(d) superimposing the augmented image on the photographed image and outputting it.
상기 (c) 단계는,
상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하는 단계;
상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하는 단계-상기 목적 블러 맵은 각 픽셀 별 블러(blur)값을 포함함; 및
상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 단계를 포함하는 웨어러블 장치의 영상 처리 방법.
The method according to claim 6,
The step (c)
Converting the photographed image according to the visual information to generate an augmented image;
Generating a target blur map for the photographed image by applying different blur values according to distances based on the gaze information, the target blur map including a blur value for each pixel box; And
And adjusting the focus by applying the target blur map to a remaining area of the augmented image except for a part of the area according to the sight line information.
8. A computer-readable recording medium having recorded thereon a program code for performing the method according to any one of claims 1 to 7.
사용자가 바라보는 실 세계를 촬영하는 카메라;
상기 촬영된 영상에 대한 깊이 맵(depth map)을 생성하는 맵 생성부;
상기 촬영된 영상 및 깊이 맵을 이용하여 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및
상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치.
In a wearable device,
A camera for photographing a real world viewed by a user;
A map generator for generating a depth map of the photographed image;
An augmented image generating unit for generating an augmented image by focus blurring the remaining region excluding a partial region corresponding to a user's viewpoint or a user's selected position using the photographed image and depth map; And
And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.
상기 증강 영상 생성부는,
상기 촬영된 영상을 사용자 시점에 맞춰 변환하여 증강 영상을 생성한 후, 상기 깊이 맵을 이용하여 상기 증강 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 사용자의 시점 또는 사용자의 선택 위치에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하되,
상기 목적 블러 맵은 각 픽셀별 블러값을 포함하되, 각 픽셀의 깊이 값에 따라 상이한 블러값을 포함하는 것을 특징으로 하는 웨어러블 장치.
10. The method of claim 9,
Wherein the augmented image generating unit comprises:
Generating a target blur map for the augmented image by using the depth map after generating the augmented image by converting the photographed image according to the user's viewpoint and generating a target blur map for the augmented image using the depth map, The focus is adjusted by applying the target blur map to a region other than a partial region according to a user's selection position,
Wherein the object blur map includes a blur value for each pixel and a different blur value depending on a depth value of each pixel.
사용자가 바라보는 실 세계를 촬영하는 전면 카메라;
사용자의 눈을 촬영하여 눈 영상을 생성하는 후면 카메라;
상기 눈 영상을 이용하여 상기 사용자의 시선 정보를 확인하는 시선 획득부;
상기 촬영된 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역을 포커스 블러(focus blur)하여 증강 영상을 생성하는 증강 영상 생성부; 및
상기 촬영된 영상에 상기 증강 영상을 중첩하여 출력하는 디스플레이부를 포함하는 웨어러블 장치.
In a wearable device,
A front camera that captures the real world the user is looking at;
A rear camera for photographing the user's eyes and generating an eye image;
A line-of-sight obtaining unit for obtaining line-of-sight information of the user using the eye image;
An augmented image generation unit for generating an augmented image by focus blurring an area other than a part of the photographed image according to the sight line information; And
And a display unit for superimposing the augmented image on the photographed image and outputting the superimposed image.
상기 촬영된 영상을 상기 시선 정보에 따라 변환하여 증강 영상을 생성하며, 상기 시선 정보를 기초로 거리에 따른 블러값을 상이하게 적용함으로써 상기 촬영된 영상에 대한 목적 블러 맵(target blur map)을 생성하고, 상기 증강 영상 중 상기 시선 정보에 따른 일부 영역을 제외한 나머지 영역에 상기 목적 블러 맵을 적용하여 초점을 조정하는 것을 특징으로 하는 웨어러블 장치.
The apparatus of claim 11, wherein the augmented-
And generates a target blur map for the photographed image by applying a blur value corresponding to the distance on the basis of the gaze information, by converting the photographed image according to the gaze information to generate an augmented image, And adjusts the focus by applying the target blur map to a remaining area of the augmented image except for a part of the area corresponding to the sight line information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170143026A KR102048411B1 (en) | 2017-10-31 | 2017-10-31 | Wearable device and image processing method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170143026A KR102048411B1 (en) | 2017-10-31 | 2017-10-31 | Wearable device and image processing method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190048241A true KR20190048241A (en) | 2019-05-09 |
KR102048411B1 KR102048411B1 (en) | 2020-01-09 |
Family
ID=66546311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170143026A KR102048411B1 (en) | 2017-10-31 | 2017-10-31 | Wearable device and image processing method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102048411B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022035166A1 (en) * | 2020-08-11 | 2022-02-17 | 삼성전자 주식회사 | Electronic devices comprising camera module and method for controlling photographing direction thereof |
WO2022092762A1 (en) * | 2020-10-30 | 2022-05-05 | 삼성전자 주식회사 | Stereo matching method and image processing device performing same |
KR102572632B1 (en) * | 2022-08-26 | 2023-08-29 | 강남대학교 산학협력단 | Method and apparatus for providing augmented reality service using user face recognition |
WO2023177089A1 (en) * | 2022-03-16 | 2023-09-21 | 삼성전자 주식회사 | Augmented reality device and operating method thereof |
KR102595000B1 (en) * | 2022-08-16 | 2023-10-26 | 강남대학교 산학협력단 | Method and apparatus for providing augmented reality service using face recognition |
US11927756B2 (en) | 2021-04-01 | 2024-03-12 | Samsung Electronics Co., Ltd. | Method for providing augmented reality image and head mounted display device supporting the same |
-
2017
- 2017-10-31 KR KR1020170143026A patent/KR102048411B1/en active IP Right Grant
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022035166A1 (en) * | 2020-08-11 | 2022-02-17 | 삼성전자 주식회사 | Electronic devices comprising camera module and method for controlling photographing direction thereof |
WO2022092762A1 (en) * | 2020-10-30 | 2022-05-05 | 삼성전자 주식회사 | Stereo matching method and image processing device performing same |
US11927756B2 (en) | 2021-04-01 | 2024-03-12 | Samsung Electronics Co., Ltd. | Method for providing augmented reality image and head mounted display device supporting the same |
WO2023177089A1 (en) * | 2022-03-16 | 2023-09-21 | 삼성전자 주식회사 | Augmented reality device and operating method thereof |
KR102595000B1 (en) * | 2022-08-16 | 2023-10-26 | 강남대학교 산학협력단 | Method and apparatus for providing augmented reality service using face recognition |
KR102572632B1 (en) * | 2022-08-26 | 2023-08-29 | 강남대학교 산학협력단 | Method and apparatus for providing augmented reality service using user face recognition |
Also Published As
Publication number | Publication date |
---|---|
KR102048411B1 (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102048411B1 (en) | Wearable device and image processing method thereof | |
JP7076447B2 (en) | Light field capture and rendering for head-mounted displays | |
US10382699B2 (en) | Imaging system and method of producing images for display apparatus | |
US10241329B2 (en) | Varifocal aberration compensation for near-eye displays | |
WO2017173735A1 (en) | Video see-through-based smart eyeglasses system and see-through method thereof | |
US11134238B2 (en) | Goggle type display device, eye gaze detection method, and eye gaze detection system | |
KR20180101496A (en) | Head-mounted display for virtual and mixed reality with inside-out location, user body and environment tracking | |
KR20170139521A (en) | Image processing apparatus and image processing system | |
TW201907204A (en) | Method and system for aligning between an external scene and a virtual image | |
US11962746B2 (en) | Wide-angle stereoscopic vision with cameras having different parameters | |
JP6349660B2 (en) | Image display device, image display method, and image display program | |
US20150304625A1 (en) | Image processing device, method, and recording medium | |
JPWO2016021034A1 (en) | 3D gaze point location algorithm | |
CN112055827A (en) | Optical mixed reality system with digitally corrected aberrations | |
US9426446B2 (en) | System and method for providing 3-dimensional images | |
TWI589150B (en) | Three-dimensional auto-focusing method and the system thereof | |
JP2016105555A (en) | Head-mounted display device, imaging control method, and program | |
US11627303B2 (en) | System and method for corrected video-see-through for head mounted displays | |
CN109255838B (en) | Method and device for avoiding double image watching of augmented reality display device | |
KR101817436B1 (en) | Apparatus and method for displaying contents using electrooculogram sensors | |
US11503202B1 (en) | Optical focus adjustment | |
WO2017081915A1 (en) | Image processing device, image processing method and program | |
KR20150040194A (en) | Apparatus and method for displaying hologram using pupil track based on hybrid camera | |
WO2020044809A1 (en) | Information processing device, information processing method and program | |
US20230379594A1 (en) | Image blending |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |