WO2015199470A1 - 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 - Google Patents

머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 Download PDF

Info

Publication number
WO2015199470A1
WO2015199470A1 PCT/KR2015/006508 KR2015006508W WO2015199470A1 WO 2015199470 A1 WO2015199470 A1 WO 2015199470A1 KR 2015006508 W KR2015006508 W KR 2015006508W WO 2015199470 A1 WO2015199470 A1 WO 2015199470A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
camera
user
virtual
depth camera
Prior art date
Application number
PCT/KR2015/006508
Other languages
English (en)
French (fr)
Inventor
우운택
하태진
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to US15/321,984 priority Critical patent/US20170140552A1/en
Priority claimed from KR1020150090346A external-priority patent/KR101687017B1/ko
Publication of WO2015199470A1 publication Critical patent/WO2015199470A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Definitions

  • the present invention relates to a technology that allows a user to manipulate a virtual 3D object with a bare hand in a wearable AR environment, particularly without a separate hand or camera tracking device installed in a space (environment). Localization and wearable AR environment using the distance input data of the RGB-D camera to determine the 3D position of the near / far camera pair mounted on the spectacle display and the 3D position of the user's hand in space. Is a technology that can be applied to various 3D interaction scenarios using hands as a user interface.
  • the present invention relates to a technique that can improve the visual distance of the user when the hand interaction in the augmented reality environment based on the hand position estimation.
  • HWDs head-worn displays
  • RGB-Depth RGB-depth cameras
  • hand-based interaction is considered to be the most intuitive, natural, and easy to use user input method.
  • Trackers installed in the environment provide the exact location of the head and hands.
  • the hand object is recognized from the depth map image of the RGB-D camera and the position is estimated to track the three-dimensional position of the bare hand based on the camera coordinate system.
  • the hand position in the three-dimensional space uses a SLAM (simultaneous localization and mapping) based camera position tracking method.
  • the arbitrary scale unit of the SLAM-based space is matched in mm scale units using the depth map information. In this way, augmented virtual objects in the SLAM-based three-dimensional space can be manipulated by hand.
  • DOF degrees of freedom
  • the WearTrack system proposed a head and hand tracker for wearable computers, portable VR, but had to be equipped with an electromagnetic tracker.
  • Tinmith and FingARtips used a marker attached to a glove to recognize a user's hand in 3D space.
  • wearing a glove is inconvenient, and the performance of hand recognition varies according to the size and direction of the marker.
  • HandyAR tracks the finger of a bare hand to enable three-dimensional manipulation of virtual objects. However, it only recognizes a predefined finger shape and initially requires a scale mapping between the hand and the virtual world.
  • Depth cameras are also used to track the skeleton of the hand in real time (eg the Gestigon leap motion SoftKinetic 3Gear system).
  • this method is generally suitable for desktop-based computing environments, which are based on fixed cameras in the environment.
  • Wearable AR generally uses a first-person view based on (HWD: Head-Worn Display), which often covers the user's hand, etc., because the augmented virtual object renders the displayed image. do. In this case, the user has difficulty in manipulating virtual objects effectively.
  • HWD Head-Worn Display
  • Virtual Reality knows the exact location of the head, hands and virtual objects relative to the world coordinate system in the modeled environment. This makes it easy to render shadows and obscured models for depth perception.
  • the hand can make the 3D point cloud transparent through voxel rendering.
  • the virtual object is obscured by hands, it may be difficult to verify the existence and location of the virtual object.
  • the present invention has been proposed to solve the above-mentioned conventional problems, and the present invention provides a system and method for a user to manipulate a virtual 3D object with a bare hand in a wearable AR environment. There is a technical purpose to provide.
  • the present invention also proposes a method of rendering a user's hand as a semi-transparent voxel to show a target object behind the hand, a transparent voxel rendering for natural occlusion of an environment, and a gray voxel rendering for a shadow effect.
  • the hand position estimation apparatus using the head wearable color depth camera according to the present invention is equipped with a color-depth camera that is worn on the user's head, and photographs the front, and provides the user with a spatially matched augmented reality image. From the wearable display, a depth map image obtained from a color-depth camera, a hand object separator for separating hand objects and a hand position in real space are calculated to match the virtual hand model to the user's hand position to obtain a hand position. It characterized in that it comprises a hand position acquisition unit.
  • a hand position estimation method using a head-worn color depth camera comprises the steps of (a) taking an image of the front of the user through a color-depth camera, and (b) using a hand-object separator in a color-depth camera. Separating the hand object from the acquired depth map image, (c) acquiring a hand position by matching a virtual hand model to a user hand position by calculating a hand position in real space using a hand position obtaining unit, ( and d) providing a matched image through the wearable display, and (e) selecting and manipulating the virtual 3D object according to the motion of the user's hand using the object manipulation unit.
  • the bare-hand interaction system utilizing the head-worn color depth camera extracts the 3D feature of the hand from the camera coordinate system from the image captured by the color-depth camera, and the virtual hand based on the local reference coordinate system in AR space.
  • a hand position estimating device unit for matching and providing a model to a hand position of a user and a distance recognizing feedback unit connected to the hand position estimating device unit and providing interactive feedback by recognizing a visual distance of the user.
  • the present invention utilizes the distance input data of an RGB-D camera without using a separate hand or camera tracking device installed in a space, so that the 3D position of the near / far camera pair mounted on the wearable display in the space and This has the effect of determining the three-dimensional position of the hand.
  • the present invention renders the user's hand as a semi-transparent voxel to show the target object behind the hand, transparent voxel rendering for natural occlusion of the environment, gray voxel rendering for the shadow effect using the hand in an augmented reality environment It is effective in recognizing visual distance for improving distance cognition when interacting.
  • FIG. 1 is a block diagram showing the overall configuration of a hand position estimation device utilizing the head-wearing color depth camera in the present invention.
  • Figure 2 is a conceptual diagram illustrating the technical features of the hand position estimation apparatus utilizing the head-worn color depth camera in the present invention.
  • FIG. 3 is a flow chart showing the overall flow of a hand position estimation method utilizing a head worn color depth camera.
  • Figure 4 is an embodiment of the present invention, showing the configuration of the depth camera.
  • FIG. 5 is a diagram showing the concept of hand object recognition in a head mounted near field RGB-D camera according to the present invention.
  • FIG. 6 is a diagram showing a relationship between an image, a camera and a world coordinate system in the present invention.
  • FIG. 7 is a view showing a distance concept of a virtual camera in the present invention.
  • FIG. 8 is a view showing a 3D operation using a virtual hand in the present invention.
  • FIG. 9 is a view showing various embodiments to which the present invention is applied.
  • FIG. 10 is a diagram illustrating a screen to which a visual distance perception improvement method of a user is applied in a bare hand interaction system using a head wearable color depth camera according to the present invention.
  • FIG. 10 is a diagram illustrating a screen to which a visual distance perception improvement method of a user is applied in a bare hand interaction system using a head wearable color depth camera according to the present invention.
  • FIG. 11 is a diagram illustrating a detailed configuration of a distance recognition feedback unit in a bare-hand interaction system using a head worn color depth camera according to the present invention.
  • FIG. 12 is a diagram illustrating a visual feedback related screen for improving depth perception in a bare-hand interaction system using a head worn color depth camera according to the present invention.
  • FIG. 13 is a view illustrating a screen related to semi-transparent gray shadows and guidelines in a bare hand interaction system using a head worn color depth camera according to the present invention.
  • Figure 14 is an illustration of a translucent hand rendering related to the environmental occlusion effect in a bare hand interaction system utilizing a head worn color depth camera according to the present invention.
  • the hand position estimation apparatus using the head-worn color depth camera is equipped with a color-depth camera worn on the user's head and photographs the front, and is space-matched augmentation.
  • the wearable display 10 providing a user with a real image
  • the hand object separator 20 for separating a hand object from a depth map image obtained by a color-depth camera, and a virtual hand by calculating a hand position in a real space
  • a hand position acquiring unit 30 for acquiring the hand position by matching the model to the user's hand position
  • an object manipulation unit 40 for selecting and manipulating the virtual 3D object according to the motion of the user's hand.
  • the 2 is a main feature of the hand position estimation apparatus according to the present invention to track the position of the hand without any additional sensor device in addition to the user wearable camera, so that the virtual 3D object can be selected and manipulated by the bare hand in the wearable AR environment.
  • the user is wearing the wearable display 10 equipped with a near-distance color depth camera (RGB-Depth camera).
  • RGB-Depth camera near-distance color depth camera
  • the virtual hand renders based on the reference coordinate system in AR space.
  • the virtual 3D object can be selected and manipulated by hand.
  • FIG. 3 is a flowchart illustrating a hand position estimation method using a hand position estimation apparatus using a head wearable color depth camera according to the present invention.
  • the hand objects are separated based on the camera coordinate system.
  • the virtual hand model is then matched to the user's hand position based on local reference coordinates in AR space. Recognize a fist-and-spread gesture to trigger events such as selecting and releasing virtual objects.
  • the wearable display 10 is coupled with a near depth camera 11 and a long distance depth camera 12, and the near depth camera 11 detects a hand.
  • Long range cameras are used to locate camera pairs from the environment and to correct scale information between the physical and virtual worlds. If a camera capable of measuring depth at various distances is developed, the two camera systems used in the present invention may be unified into one.
  • the near-depth camera 11 is used for hand tracking, and the far-depth camera 12 is used to obtain the position of the pair of cameras from the environment and to correct the scale parameter in the real and virtual space.
  • the hand object separator 20 separates a hand object from a depth map image obtained by the color-depth camera, removes noise of the separated hand object image, and outlines the maximum size.
  • a contour acquisition unit for obtaining a contour and a distance transform unit are performed to define a pixel coordinate of a pixel having the highest intensity as a center position of a palm.
  • the hand object separation unit 20 separates the hand object from the depth map image acquired by the color-depth cameras 11 and 12, as illustrated in FIG. After performing image erosion or the like to reduce), a contour of the maximum size is obtained.
  • the distance transform is performed to define the pixel coordinate of the pixel having the highest intensity as the center position of the palm.
  • the hand position obtaining unit 30 back-projects the pixel coordinates of the hand from the image coordinate system to the camera coordinate system.
  • the three-dimensional position P c [X c , Y c , Z c ] of the hand is calculated based on the camera coordinate system.
  • a back projection of the pixel coordinates of the hand from the image coordinate system to the camera coordinate system is performed (Equation 1 and Equation 2).
  • K is known in advance through camera calibration.
  • the pixel coordinates of the hand in the image coordinate system can be known from the hand object recognition previously performed.
  • the depth information Z c may be known as a pixel value of the depth map image.
  • P c may be inversely multiplied by the camera pose matrix obtained by the SLAM-based camera tracking method, thereby moving the hand coordinates to the local reference coordinate system of the environment.
  • the scale of the coordinates depends on the scale of the SLAM, which is different from the scale (in mm) of the hand coordinates obtained based on the depth camera.
  • the scale ratio ⁇ is calculated to match the scale of the two spaces.
  • the ratio of the distance of the SLAM-based virtual camera to the depth camera (in mm) with respect to the local coordinate system (T Origin ) is calculated by Equation 4 below.
  • the hand position P w can be calculated in the environment (real space), and as shown in FIGS. 8 and 9, the virtual objects matched to the environment can be manipulated by hand.
  • the user's hand may be extended to various positions P v by various virtual hand mapping methods as shown in Equation (5).
  • the bare hand interaction system using the hand position estimation apparatus using the head wearable color depth camera is as follows.
  • the bare-hand interaction system using the head-worn color depth camera extracts the 3D feature of the hand from the camera coordinate system from the image captured by the color-depth camera and generates a virtual hand model based on the local reference coordinate system in AR space. And a hand position estimating device unit matching and providing a hand position of a user, and a distance recognition feedback unit connected to the hand position estimating device unit to recognize a visual distance of the user and provide interactive feedback.
  • the near-field camera 11 of the color-depth cameras 11 and 12 mounted on the wearable display 10 acquires 3D point groups of the hand, and obscures it.
  • the far-depth camera 12 is used to obtain groups of 3D points in the environment, producing shadows or occlusion effects.
  • visual feedback is important for accurate depth perception in a monocular display, e.g., if no visual feedback is provided as shown on the left side of FIG. Difficulty in depth recognition because virtual objects appear to be on hand.
  • the 3D point cloud obtained from the hand depth map can be rendered transparently to cover the virtual object behind the hand.
  • the virtual objects are hidden and it is difficult to identify the location.
  • the present invention improves the visual expression of the hand and adds visual feedback to the environment in order to improve depth recognition through the distance-aware feedback unit 60.
  • the distance-aware feedback unit 60 covers a virtual object behind a wall or a physical object through a transparent voxel rendering unit 61 and a translucent voxel rendering unit 61 displaying a target object behind a user's hand.
  • the transparent voxel renderer 62 and the gray voxel renderer 63 provide a shadow effect through gray voxel rendering.
  • the translucent voxel rendering unit 61 visualizes the hand semitransparently so that the area of the object covered by the hand may be slightly darkened. This lets you know if the virtual object is behind or in front of your hand, and you can see where the object is covered by your hand.
  • FIG. 12 is a view illustrating a visual feedback related screen for improving depth cognition in a method for improving visual distance perception of a user when interacting with a bare hand in a head wearable display-based augmented reality environment according to an embodiment of the present invention.
  • the transparent voxel renderer 62 uses a three-dimensional point group obtained by a far-depth camera in order to generate an environment occlusion effect.
  • voxel rendering transparent to the environment virtual objects can be hidden behind walls or physics.
  • the shadow effect of the environment of the gray voxel rendering unit 63 is generated by a method of changing the color of the transparent voxel, which is the shape of the manipulation object five faces (front, up, down, left, On the right) to generate in real time.
  • virtual guide lines are rendered based on the position of the manipulation object for precise manipulation.
  • the guide lines also connect the five sides of the wearable AR space in the horizontal and vertical directions.
  • FIG. 13 is a view illustrating a screen related to semi-transparent gray shadows and guide lines in a method for improving visual distance perception of a user when interacting with a bare hand in a head wearable display-based augmented reality environment according to an embodiment of the present invention.
  • the hand when the user selects a virtual object, the hand is translucently visualized to change the color of the area of the object covered by the hand.
  • FIG. 14 is an exemplary view illustrating a translucent hand rendering related to an occlusion effect in a method of improving visual distance perception of a user when interacting with a bare hand in a head wearable display-based augmented reality environment according to an embodiment of the present disclosure.
  • the present invention proposes visual feedback for improving distance cognition when a user manipulates a virtual 3D object with bare hands in an augmented reality environment wearing a head worn display.

Abstract

본 발명은 사용자가 착용형 증강 현실 (wearable AR) 환경에서 맨 손 (Bare Hand)으로 가상 3D 객체를 조작할 수 기술에 관한 것으로, 특히 공간(환경)에 설치된 별도의 손, 카메라 추적 장치 없이도, RGB-D 카메라의 거리 입력 데이터를 이용하여, 공간에서 착용형 디스플레이착용형 디스플레이리 카메라 쌍의 3차원 위치와 사용자의 손의 3차원 위치를 알아내고 이를 기반으로 사용자의 맨 손 상호작용이 가능하도록 하는 기술이다.

Description

머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
본 발명은 사용자가 착용형 증강 현실 (wearable AR) 환경에서 맨 손 (Bare Hand)으로 가상 3D 객체를 조작할 수 기술에 관한 것으로, 특히 공간(환경)에 설치된 별도의 손, 카메라 추적 장치 없이도, RGB-D 카메라의 거리 입력 데이터를 이용하여, 공간에서 안경형 디스플레이에 장착된 근/원거리 카메라 쌍의 3차원 위치와 사용자의 손의 3차원 위치를 알아낼 수 있는 기술(Localization).이며 착용형 AR 환경에서 손을 사용자 인터페이스로 사용하는 다양한 3D 상호 작용 시나리오에 적용할 수 있는 기술이다.
또한 본 발명은 이러한 손 위치 추정을 기반으로 증강현실 환경에서 맨 손 상호작용 시 사용자의 시각적 거리 인지를 향상시킬 수 있는 기술에 관한 것이다.
최근 소형화, 경량화된, 착용형 머리 장착 디스플레이(HWD: Head-Worn Display)와 RGB-깊이(RGB-Depth) 카메라가 개발됨에 따라 착용형 증강 현실(Wearable AR) 의 발전이 가속화되고 있다. 이동형 (Mobile) 사용자는 현장에서 관심 객체, 환경, 작업 등에 대한 유용한 디지털 정보를 즉각적으로 안경을 통해 볼 수 있으며 조작할 수 있다. 착용형 AR의 상호 작용을 위한 다양한 사용자 인터페이스가 있지만, 손에 근거한 상호 작용은 가장 직관적이며 자연스러운, 그리고 쉽게 사용할 수 있는 사용자 입력 방법으로 간주된다.
일반적으로 가상 현실연구에서 가상 객체와 상호 작용을 하기 위해서는, 사용자의 머리와 손 위치를 인식하기 위한 별도의 추적(Tracking) 인프라를 사용하였다. 환경(천장, 테이블, 또는 벽 등)에 설치된 추적기(Tracker)를 통해 머리와 손의 정확한 위치를 알 수 있다.
그러나 이러한 환경에 설치된 추적 장치가 없는 착용형 AR 환경은 새로운 기술적 과제를 제기한다. 우선 공간으로부터 사용자의 머리와 손의 위치를 아는 것이 어렵기 때문에, 3차원 상호 작용이 매우 어렵다. 일부 연구는 3차원 공간 상에서 손의 위치를 알아내지 않고, 2차원 영상 입력을 기반으로 한 상호 작용을 지원한다. 또는 손 자세를 감지하기 위해 손이나 손가락에 트래킹 마커 또는 센서를 부착, 또는 손목에 있는 작은 카메라를 장착하여 손의 자세를 인식하기도 한다. 또 다른 시스템은 3차원 공간에서 손의 상대적인 위치를 알아내지만, 공간에 고정된 카메라를 기준으로 작동이 되기 때문에, 모바일 사용자를 지원할 수 없다.
이러한 문제를 해결하기 위해, RGB-D 카메라의 깊이 맵 이미지에서 손 객체를 인식하고 위치를 추정하여 카메라 좌표계를 기준으로 맨손의 3차원 위치를 추적한다. 그리고 3차원 공간 상에 손의 위치는 SLAM(동시 지역화 및 매핑) 기반의 카메라 위치 추적 방법을 이용한다. 이때 SLAM 기반 공간의 임의 스케일 단위를 깊이 맵 정보를 이용하여 mm 스케일 단위로 일치시킨다. 이러한 방법을 통해 SLAM 기반 3차원 공간에 증강된 가상객체를 손으로 조작할 수 있다.
사용자의 실제 손의 위치와 회전에 가상의 손의 위치 및 회전을 매핑하기 위해 다양한 6 자유도(DOF) 추적 장치들이 사용되었다. 예를 들면, Go-Go 손 기술은 사용자의 몸체로부터 손의 위치를 알기 위해 2 개의 전자 추적 시스템을 사용했다.
착용형 AR에서, 손을 이용한 상호 작용은 손의 위치 추정(Localization) 기술의 성능에 의해 방법이 결정된다. WearTrack 시스템은 착용형 컴퓨터, 휴대용 VR를 위한 머리와 손 트래커를 제안하였지만, 전자기 추적기가 손에 장착되어야 있어야 했다.
가상 터치 스크린 시스템, AR 메모 및 SixthSense는 2 차원 이미지 좌표계를 기준으로 손인식을 가능하게 하였다. 하지만, 3 차원 손의 위치 추정을 하지 않았기 때문에, 착용형 AR에서의 3D 상호 작용을 지원할 수 없었다.
종래 Tinmith과 FingARtips은 3D 공간에서 사용자의 손을 인식하기 위해 장갑에 부착하는 마커(Marker)를 사용하였다 하지만, 장갑을 착용하는 것은 불편하며, 마커의 크기와 방향에 따라 손 인식의 성능이 달라진다. HandyAR은 맨손의 손가락을 추적하여 가상 객체의 3 차원 조작을 가능하게 한다. 하지만, 미리 정의된 손가락 모양만 인식하며, 초기에 손과 가상 세계 사이의 스케일 매핑을 설정해야 한다.
최근 3 차원 핸드 상호 작용은 깊이 데이터에서 거리 정보를 이용하여, 손 영역을 분리/인식하는 연구들이 있다. 또한 깊이 카메라들을 이용하여 실시간으로 손의 골격를 추적하기도 한다(예 Gestigon leap motion SoftKinetic 3Gear 시스템). 그러나 이러한 방법은 일반적으로 환경에 고정된 카메라를 기반으로 한, 데스크톱 기반 컴퓨팅 환경에 적합하다.
AR의 경우, 기존 연구들에서, 기준 마커와 고정형 카메라를 이용하여 주위 배경을 학습한 후, 손 인식을 가능하게 한다. 그러나, 카메라가 이동하는 경우에는 환경 정보가 변경하게 되고, 배경 학습 기반의 손 분리 및 인식 방법이 실패할 수 있다.
한편, 가상 현실연구에서 손을 이용한 상호 작용은 사전에 주어진 가상 공간 모델을 이용하여 그림자와 가림 효과 (Occlusion effect)을 생성하였는데, 이는 조작하고자하는 대상 객체의 위치를 인지하는데 도움이 된다.
착용형 AR은 일반적으로 (HWD: Head-Worn Display)를 기반으로 한 1인칭 시점을 사용하고 있는데, 공간에 증강된 가상객체가 디스플레이되는 영상을 렌더링하기 때문에 사용자의 손 등을 가리는 경우가 자주 발생한다. 이러한 경우 사용자는 가상 객체를 효과적으로 조작하는데 어려움을 겪는다.
VR(Virtual Reality)에서는 모델링된 환경에서 월드 좌표계 기준 머리, 손 및 가상 물체의 정확한 위치를 알고 있다. 따라서 깊이 인식을 위한 가림 모델과 그림자를 렌더링하는 것이 쉽다.
그러나 AR에서는 가상 객체가 손 앞에 또는 뒤에 있는지 여부를 아는 것이 어렵다. 착용형 AR의 1인칭 시점에서는 이 문제가 더욱 중요하고 복잡하다. 공간에 증강된 가상 물체가 수시로 사용자의 손을 가리기 때문에, 조작할 때 필요한 깊이 인식을 할 수 없다.
가상 객체를 가리기 위해서, 손을 3D 점군 (Point cloud)을 복셀 (Voxel) 렌더링을 통해 투명하게 만들 수 있다. 하지만, 가상 객체가 손에 의해 가려지기 때문에, 가상 객체의 존재 및 위치를 확인하는 것이 어려울 수 있다.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 제안된 것으로, 본 발명은 사용자가 착용형 증강 현실 (wearable AR) 환경에서 맨 손 (Bare Hand)으로 가상 3D 객체를 조작할 수 시스템 및 방법을 제공하는데 기술적 목적이 있다.
또한, 본 발명은 손 뒤의 대상 객체를 보여주기 위해 사용자의 손을 반 투명한 복셀로 렌더링하는 방법, 환경의 자연스러운 가림을 위한 투명한 복셀 렌더링, 그리고 그림자 효과를 위한 회색의 복셀 렌더링을 제안하고자 한다.
본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치는 사용자는 사용자의 머리에 착용되어, 전방을 영상 촬영하는 컬러-깊이 카메라를 장착하고, 공간 정합된 증강현실 영상을 사용자에 제공하는 착용형 디스플레이, 컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터, 손 객체를 분리하는 손 객체 분리부 및 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하여 손 위치를 획득하는 손 위치 획득부를 포함하는 것을 특징으로 한다.
또한 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 방법은(a) 컬러-깊이 카메라를 통해 사용자 전방을 영상 촬영하는 단계, (b) 손 객체 분리부를 이용하여 컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터, 손 객체를 분리하는 단계, (c) 손 위치 획득부를 이용하여 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하여 손 위치를 획득하는 단계, (d) 착용형 디스플레이를 통해 정합된 영상을 제공하는 단계 및 (e) 객체 조작부를 이용하여, 사용자의 손의 동작에 따라 가상 3D 객체를 선택하고 조작하는 단계를 포함하는 것을 특징으로 한다.
또한, 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템은 컬러-깊이 카메라를 통해 촬영된 영상에서 카메라 좌표계를 기준으로 손의 3D 특징을 추출하고 AR 공간의 로컬 참조 좌표계를 기준으로 가상 손 모델을 사용자의 손 위치에 정합하여 제공하는 손 위치 추정 장치부 및 상기 손 위치 추정 장치부와 연결되어, 사용자의 시각적 거리를 인지하여 상호작용 피드백을 제공하는 거리 인지 피드백부를 포함하는 것을 특징으로 한다.
본 발명은 공간(환경)에 설치된 별도의 손, 카메라 추적 장치 없이도, RGB-D 카메라의 거리 입력 데이터를 이용함으로써, 공간에서 착용형 디스플레이에 장착된 근/원거리 카메라 쌍의 3차원 위치와 사용자의 손의 3차원 위치를 알아낼 수 있는 효과가 있다.
본 발명은 손 뒤의 대상 객체를 보여주기 위해 사용자의 손을 반 투명한 복셀로 렌더링하고, 환경의 자연스러운 가림을 위한 투명한 복셀 렌더링, 그림자 효과를 위한 회색의 복셀 렌더링을 통해 증강현실 환경에서 손을 이용한 상호작용 시 거리 인지 향상을 위한 시각적 거리를 인지하는데 효과가 있다.
도 1은 본 발명에 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치의 전체 구성을 나타내는 구성도.
도 2는 본 발명에 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치의 기술적 특징을 설명하는 개념도.
도 3은 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 방법의 전체 흐름을 나타내는 흐름도.
도 4는 본 발명에 있어서, 깊이 카메라의 구성을 나타내는 일실시예 도면.
도 5는 본 발명에 있어서, 머리 장착 근거리 RGB-D 카메라에서의 손 객체 인식 개념을 나타내는 도면.
도 6은 본 발명에 있어서, 이미지, 카메라 및 월드 좌표계 간의 관계를 나타내는 도면.
도 7은 본 발명에 있어서, 가상 카메라의 거리 개념을 나타내는 도면.
도 8은 본 발명에 있어서, 가상손을 이용한 3D 조작 모습을 나타내는 도면.
도 9는 본 발명을 응용한 다양한 실시예를 나타내는 도면.
도 10은 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템에 있어서, 사용자의 시각적 거리 인지 향상 방법이 적용된 화면 예시도.
도 11은 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템에 있어서, 거리 인지 피드백부의 상세 구성을 나타내는 도면.
도 12는 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템에 있어서, 깊이 인지 향상을 위한 시각적 피드백 관련 화면 예시도.
도 13은 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템에 있어서, 반 투명 회색 그림자 및 가이드 라인 관련 화면 예시도.
도 14는 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템에 있어서, 환경 가림 효과 관련 반투명한 손 렌더링에 관한 예시도.
이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치는 도 1에 도시된 바와 같이, 사용자의 머리에 착용되어, 전방을 영상 촬영하는 컬러-깊이 카메라를 장착하고, 공간 정합된 증강현실 영상을 사용자에 제공하는 착용형 디스플레이(10), 컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터, 손 객체를 분리하는 손 객체 분리부(20), 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하여 손 위치를 획득하는 손 위치 획득부(30) 및 사용자의 손의 동작에 따라 가상 3D 객체를 선택하고 조작하는 객체 조작부(40)를 포함한다.
도 2는 사용자 착용형 카메라 이외에 별도의 추가적인 센서 장치 없이, 손 위치를 추적하여, 착용형 AR 환경에서 맨손으로 가상 3D 개체를 선택하고 조작할 수 있도록 하는 본 발명에 따른 손 위치 추정 장치의 주요 특징을 나타내는 도면으로, (a) 사용자는 근/원거리의 컬러-깊이 카메라 (RGB-Depth camera) 가 장착된 착용형 디스플레이(10)를 착용하고 있다. (b) 카메라 좌표계를 기준으로 손의 3D 특징을 추출한다. (C) 가상 손이 AR 공간의 기준 좌표계를 기준으로 렌더링한다. (d) 손으로 가상 3D 객체를 선택하고 조작할 수 있다.
도 3은 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치를 이용한 손 위치 추정 방법의 흐름을 나타내는 것으로 착용형 디스플레이(10)에 장착된 RGB-D 카메라(11, 12)의 쌍이 색상 및 깊이 맵 이미지를 획득한 후, 카메라 좌표계를 기준으로 손 객체를 분리한다. 그리고 AR 공간의 로컬 참조 좌표계 (Local reference coordinates) 를 기준으로 가상 손 모델을 사용자의 손 위치에 정합한다. 주먹을 쥐거나 펴는 제스처를 인식하여 가상 객체를 선택하고 해제하는 등의 이벤트를 발생시킨다.
도 4에 도시된 일실시예와 같이, 상기 착용형 디스플레이(10)에는 근거리 깊이 카메라(11) 및 장거리 깊이 카메라(12)가 결합되어 있으며, 상기 근거리 깊이 카메라(11)는 손을 감지하고, 장거리 카메라는 환경으로부터 카메라 쌍의 위치를 알아내고, 물리적인 세계와 가상세계 사이의 스케일 정보를 보정하는데 사용된다. 다양한 거리로 깊이 측정이 가능한 카메라가 개발된다면, 본 발명에서 사용하는 2개의 카메라 시스템은 1개로 단일화될 수 있다.
상기 근거리 깊이 카메라(11)는 손 트래킹에 사용되며, 상기 원거리 깊이카메라(12)는 환경으로부터 카메라 쌍의 위치를 획득하고, 현실과-가상 공간내의 스케일 파라미터를 보정하기 위해서 사용된다.
상기 손 객체 분리부(20)는 도 5에 도시된 바와 같이, 상기 컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터 손 객체를 분리하며, 분리된 손 객체 영상의 노이즈를 제거하고, 최대 크기의 윤곽 (Contour)을 획득하는 윤곽 획득부 및 거리 변환 (Distance transform)를 수행하여, 가장 높은 강도를 가지는 화소의 픽셀 좌표를 손바닥의 중심 위치로 정의하는 거리 변환부를 포함한다.
즉, 상기 손 객체 분리부(20)는 도 6에 도시된 개념도와 같이, 상기 컬러-깊이 카메라(11, 12)에서 획득한 깊이맵 영상으로부터, 손 객체를 분리할 때, 영상의 노이즈 (Jitter)를 감소시키기 위한 이미지 침식 등을 작업을 수행한 후, 최대 크기의 윤곽 (Contour)을 얻는다. 그리고 거리 변환 (Distance transform)를 수행 하여, 가장 높은 강도를 가지는 화소의 픽셀 좌표를 손바닥의 중심 위치로 정의한다.
그 다음, 상기 손 위치 획득부(30)으로 사용자 손의 위치를 획득하며, 본 발명에 따른 손 위치 획득부(30)는 이미지 좌표계로부터 카메라 좌표계로 손의 픽셀 좌표를 역투영(Back projection)하여 카메라 좌표계를 기준으로 손의 3차원 위치를 계산하고, SLAM 기반의 카메라 추적 방법으로 손 위치를 추적하는 손 좌표 획득부 및 로컬 좌표계에 대한, SLAM(Scanning Laser Acoustic Microscope) 기반의 가상 카메라의 거리와 깊이 카메라의 거리의 비율을 계산하여 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하는 손 정합부를 포함한다.
이를 보다 자세히 설명하면 도 6에 도시된 바와 같이, 카메라 좌표계를 기준으로 손의 3차원 위치 Pc=[Xc, Yc, Zc]를 계산한다. 이를 위해서 이미지 좌표계로부터 카메라 좌표계로 손의 픽셀 좌표를 역투영 (Back projection) 한다 ( 수학식 1 및 수학식 2 ). 여기서, K는 카메라 보정 (Camera calibration)를 통해 사전에 알고 있다. 그리고 이미지 좌표계에서의 손의 픽셀 좌표는 앞서 수행했던 손 객체 인식으로부터 알 수 있다. 깊이 정보인 Zc는 깊이 맵 이미지의 픽셀 값으로 알 수 있다.
수학식 1
Figure PCTKR2015006508-appb-M000001
수학식 2
Figure PCTKR2015006508-appb-M000002
그 다음 수학식 3 과 같이, Pc을 SLAM 기반의 카메라 추적 방법으로 얻은 카메라 자세 행렬을 역으로 곱하여, 환경의 로컬 참조 좌표계로 손의 좌표를 이동시킬 수 있다. 그러나 그 좌표의 스케일은 SLAM의 스케일에 의존하고 있어, 깊이 카메라를 기준으로 획득한 손 좌표의 스케일(mm 단위)과는 다르다.
수학식 3
Figure PCTKR2015006508-appb-M000003
따라서 두 공간의 스케일을 일치시키기 위해서 스케일 비율 λ를 계산한다. 도 7에 도시된 바와 같이 로컬 좌표계 (TOrigin)에 대한, SLAM 기반의 가상 카메라의 거리와 깊이 카메라의 거리 (mm 단위)의 비율을 다음 수학식 4로 계산한다.
수학식 4
Figure PCTKR2015006508-appb-M000004
그 결과 환경(현실 공간)에서 손 위치 Pw를 계산할 수 있고, 도 8 및 도 9에 도시된 바와 같이, 환경에 정합된 가상 객체들을 손으로 조작할 수 있다. 그리고 사용자의 손은 수학식 5와 같이 다양한 가상 손 맵핑 방법에 의해 다양한 위치 Pv로 확장될 수 있다.
수학식 5
Figure PCTKR2015006508-appb-M000005
이러한 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치를 이용한 맨 손 상호작용 시스템을 설명하면 다음과 같다.
머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템은 컬러-깊이 카메라를 통해 촬영된 영상에서 카메라 좌표계를 기준으로 손의 3D 특징을 추출하고 AR 공간의 로컬 참조 좌표계를 기준으로 가상 손 모델을 사용자의 손 위치에 정합하여 제공하는 손 위치 추정 장치부 및 상기 손 위치 추정 장치부와 연결되어, 사용자의 시각적 거리를 인지하여 상호작용 피드백을 제공하는 거리 인지 피드백부를 포함한다.
상기 손 위치 추정 장치부의 구성은 상기에서 설명하였으므로 추가적인 설명은 생략하도록 한다.
다만 본 발명에 따른 맨 손 상호 작용 시스템에 있어서, 상기 착용형 디스플레이(10)에 장착된 컬러-깊이 카메라(11, 12) 중 상기 근거리 카메라(11)는 손의 3D 점 군들을 획득하여, 가림효과나 반투명 렌더링을 하는데 사용되며, 상기 원거리 깊이 카메라(12)는 환경의 3D 점 군들을 획득하여, 그림자나 가림 효과를 생성하는데 사용된다.
본 발명에 따른 맨 손 상호 작용 시스템에 있어서, 시각적 피드백은 단일 시점 (monocular) 디스플레이에서 정확한 깊이 인식을 하는데 중요하다, 예를 들어, 도 10의 왼쪽처럼 아무런 시각 피드백을 제공하지 않으면, 손 뒤에 있는 가상 객체가 손 위에 있는 것처럼 보이기 때문에 깊이 인식에 어려움이 있다. 이러한 문제를 해결하기 위해서 손 깊이 맵으로부터 획득한 3D 점군들을 투명하게 렌더링하여 손 뒤에 있는 가상 객체를 가릴 수 있다. 하지만, 도 10의 오른쪽처럼 가상 객체들이 가려져서 위치를 확인하기 어렵다.
따라서, 본 발명은 상기 거리 인지 피드백부(60)를 통해 깊이 인식을 향상하기 위해서 손의 시각적 표현을 개선하고, 환경에 대한 시각적 피드백을 추가하였다.
상기 거리 인지 피드백부(60)는 도 11에 도시된 바와 같이, 사용자의 손 뒤의 대상 객체를 표시하는 반투명 복셀 렌더링부(61), 투명한 복셀 렌더링을 통해, 벽 또는 물리 객체 뒤에 가상 물체를 가리는 투명 복셀 렌더링부(62) 및 회색의 복셀 렌더링을 통해 그림자 효과를 제공하는 회색 복셀 렌더링부(63)를 포함한다.
즉, 손 시각화와 관련하여, 가상 객체가 손의 위치 근처에 있다면, 깊이 테스트에 따라 손 가림 효과가 자연스럽게 이뤄지도록 하였다.
그러나 가상 객체가 원거리에 있는 경우, 사용자가 가상객체를 선택하였을 때, 상기 반투명 복셀 렌더링부(61)을 통해 손을 반투명하게 시각화하여 손에 의해 가려지는 객체의 영역이 약간 어둡게 보일 수 있도록 하였다. 이렇게 하면 가상 객체가 손 뒤에 있는지 앞에 있는지 알 수 있으며, 손에 의해 가려지는 객체의 위치도 확인할 수 있다.
도 12는 본 발명의 일 실시 예에 따른 머리 착용형 디스플레이 기반 증강현실 환경에서 맨 손 상호작용 시 사용자의 시각적 거리 인지 향상 방법에 있어서, 깊이 인지 향상을 위한 시각적 피드백 관련 화면 예시도이다.
도 12에 도시된 바와 같이, 상기 투명 복셀 렌더링부(62)는 환경의 가림효과를 생성하기 위해 원거리 깊이 카메라에서 얻은 3 차원 점 군을 이용한다. 환경에 투명한 복셀 렌더링을 통해, 벽 또는 물리 객체 뒤에 가상 물체를 자연스럽게 가릴 수 있다.
본 발명에 있어서, 상기 회색 복셀 렌더링부(63)의 환경의 그림자 효과는 앞선 투명 복셀의 색상을 변경하는 방법으로 생성하며, 이것은 조작 객체의 형태를 5 개의 면 (정면, 위, 아래, 왼쪽, 오른쪽) 에 투영하여 실시간으로 생성한다.
또한 정밀한 조작을 위해 가상의 가이드라인 선들이 조작 객체의 위치를 기준으로 렌더링한다. 가이드 라인들 역시 착용형 AR 공간의 5개의 면에 수평 방향과 수직 방향으로 연결한다.
도 13은 본 발명의 일 실시 예에 따른 머리 착용형 디스플레이 기반 증강현실 환경에서 맨 손 상호작용 시 사용자의 시각적 거리 인지 향상 방법에 있어서, 반 투명 회색 그림자 및 가이드 라인 관련 화면 예시도이다.
본 발명은 사용자가 가상 객체를 선택하였을 때, 손을 반투명하게 시각화하여 손에 의해 가려지는 객체의 영역의 색상을 변화시킨다.
이로 인해, 가상 객체가 손 뒤에 있는지 앞에 있는지 알 수 있으며, 손에 의해 가려지는 객체의 위치도 확인할 수 있다.
도 14은 본 발명의 일 실시 예에 따른 머리 착용형 디스플레이 기반 증강현실 환경에서 맨 손 상호작용 시 사용자의 시각적 거리 인지 향상 방법에 있어서, 환경 가림 효과 관련 반투명한 손 렌더링에 관한 예시도이다.
이처럼 본 발명은 사용자가 머리 착용형 디스플레이를 착용한 증강 현실 환경에서 맨손으로 가상 3D 객체를 조작할 때, 거리 인지 향상을 위한 시각적 피드백을 제안한다. 손 뒤의 대상 객체를 자연스럽게 보여주기 위해 사용자의 손을 반 투명한 복셀로 렌더링하는 방법, 환경의 자연스러운 가림효과를 위한 투명한 복셀 렌더링, 그리고 그림자 효과를 위한 회색의 복셀 렌더링을 제안한다.
상기와 같이 본 발명에 따른 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템에 관한 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.

Claims (13)

  1. 사용자의 머리에 착용되어, 전방을 영상 촬영하는 컬러-깊이 카메라를 장착하고, 공간 정합된 증강현실 영상을 사용자에 제공하는 착용형 디스플레이;
    컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터, 손 객체를 분리하는 손 객체 분리부 및
    현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하여 손 위치를 획득하는 손 위치 획득부를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치.
  2. 제1항에 있어서,
    상기 컬러-깊이 카메라는
    손을 감지하고, 장거리 카메라는 환경으로부터 카메라 쌍의 위치를 알아내고, 물리적인 세계와 가상세계 사이의 스케일 정보를 보정하는 근거리 깊이 카메라 및
    환경으로부터 카메라 쌍의 위치를 획득하고, 현실과-가상 공간 내의 스케일 파라메터를 보정하는 장거리 깊이 카메라를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치.
  3. 제1항에 있어서,
    상기 손 객체 분리부는
    영상의 노이즈를 제거하고, 최대 크기의 윤곽 (Contour)을 획득하는 윤곽 획득부 및
    거리 변환 (Distance transform)를 수행하여, 가장 높은 강도를 가지는 화소의 픽셀 좌표를 손바닥의 중심 위치로 정의하는 거리 변환부를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치.
  4. 제1항에 있어서,
    상기 손 위치 획득부는
    이미지 좌표계로부터 카메라 좌표계로 손의 픽셀 좌표를 역투영(Back projection)하여 카메라 좌표계를 기준으로 손의 3차원 위치를 계산하고, SLAM 기반의 카메라 추적 방법으로 손 위치를 추적하는 손 좌표 획득부 및
    로컬 좌표계에 대한, SLAM(Scanning Laser Acoustic Microscope) 기반의 가상 카메라의 거리와 깊이 카메라의 거리의 비율을 계산하여 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하는 손 정합부를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치.
  5. 제1항에 있어서,
    상기 손 위치 획득부와 연결되어, 사용자의 손의 동작에 따라 가상 3D 객체를 선택하고 조작하는 객체 조작부를 더 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치.
  6. (a) 컬러-깊이 카메라를 통해 사용자 전방을 영상 촬영하는 단계;
    (b) 손 객체 분리부를 이용하여 컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터, 손 객체를 분리하는 단계;
    (c) 손 위치 획득부를 이용하여 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하여 손 위치를 획득하는 단계;
    (d) 착용형 디스플레이를 통해 정합된 영상을 제공하는 단계 및
    (e) 객체 조작부를 이용하여, 사용자의 손의 동작에 따라 가상 3D 객체를 선택하고 조작하는 단계를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 방법.
  7. 제1항에 있어서,
    상기 (a) 단계의 컬러-깊이 카메라는
    손을 감지하고, 장거리 카메라는 환경으로부터 카메라 쌍의 위치를 알아내고, 물리적인 세계와 가상세계 사이의 스케일 정보를 보정하는 근거리 깊이 카메라 및
    환경으로부터 카메라 쌍의 위치를 획득하고, 현실과-가상 공간 내의 스케일 파라메터를 보정하는 장거리 깊이 카메라를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 방법.
  8. 제1항에 있어서,
    상기 (b) 단계는
    (b-1) 윤곽 획득부를 이용하여 분리된 손 객체 영상의 노이즈를 제거하고, 최대 크기의 윤곽 (Contour)을 획득하는 단계 및
    (b-2) 거리 변환부를 이용하여 거리 변환 를 수행하여, 가장 높은 강도를 가지는 화소의 픽셀 좌표를 손바닥의 중심 위치로 정의하는 단계를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 방법.
  9. 제1항에 있어서,
    상기 (c) 단계는,
    (c-1) 손 좌표 획득부를 이용하여 이미지 좌표계로부터 카메라 좌표계로 손의 픽셀 좌표를 역투영(Back projection)하여 카메라 좌표계를 기준으로 손의 3차원 위치를 계산하고, SLAM(Scanning Laser Acoustic Microscope) 기반의 카메라 추적 방법으로 손 위치를 추적하는 단계 및
    (c-1) 손 정합부를 이용하여 로컬 좌표계에 대한, SLAM 기반의 가상 카메라의 거리와 깊이 카메라의 거리의 비율을 계산하여 현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하는 단계를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 방법.
  10. 컬러-깊이 카메라를 통해 촬영된 영상에서 카메라 좌표계를 기준으로 손의 3D 특징을 추출하고 AR 공간의 로컬 참조 좌표계를 기준으로 가상 손 모델을 사용자의 손 위치에 정합하여 제공하는 손 위치 추정 장치부 및
    상기 손 위치 추정 장치부와 연결되어, 사용자의 시각적 거리를 인지하여 상호작용 피드백을 제공하는 거리 인지 피드백부를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템.
  11. 제10항에 있어서,
    상기 손 위치 추정 장치부는
    사용자의 머리에 착용되어, 전방을 영상 촬영하는 컬러-깊이 카메라를 장착하고, 공간 정합된 증강현실 영상을 사용자에 제공하는 착용형 디스플레이;
    컬러-깊이 카메라에서 획득한 깊이맵 영상으로부터, 손 객체를 분리하는 손 객체 분리부 및
    현실 공간에서의 손 위치를 계산하여 가상 손 모델을 사용자 손 위치에 정합하여 손 위치를 획득하는 손 위치 획득부를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템.
  12. 제11항에 있어서,
    상기 거리 인지 피드백부는
    사용자의 손 뒤의 대상 객체를 표시하는 반투명 복셀 렌더링부;
    투명한 복셀 렌더링을 통해, 벽 또는 물리 객체 뒤에 가상 물체를 가리는 투명 복셀 렌더링부
    회색의 복셀 렌더링을 통해 그림자 효과를 제공하는 회색 복셀 렌더링부를 포함하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템.
  13. 제12항에 있어서,
    상기 회색 복셀 렌더링부는
    상기 투명 복셀 렌더링부에서 생성된 투명 복셀의 색상을 변경하여 그림자효과를 생성하며 조작 객체의 형태를 구성하는 다수 개의 면 중 적어도 어느 하나 이상의 면에 투영하는 것을 특징으로 하는 머리 착용형 컬러 깊이 카메라를 활용한 맨 손 상호작용 시스템.
PCT/KR2015/006508 2014-06-25 2015-06-25 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 WO2015199470A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/321,984 US20170140552A1 (en) 2014-06-25 2015-06-25 Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2014-0078154 2014-06-25
KR20140077827 2014-06-25
KR20140078154 2014-06-25
KR10-2014-0077827 2014-06-25
KR1020150090346A KR101687017B1 (ko) 2014-06-25 2015-06-25 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
KR10-2015-0090346 2015-06-25

Publications (1)

Publication Number Publication Date
WO2015199470A1 true WO2015199470A1 (ko) 2015-12-30

Family

ID=54938467

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/006508 WO2015199470A1 (ko) 2014-06-25 2015-06-25 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템

Country Status (1)

Country Link
WO (1) WO2015199470A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330976A (zh) * 2017-06-01 2017-11-07 北京大学第三医院 一种人体头部三维建模装置及使用方法
WO2018048054A1 (ko) * 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치
CN108399634A (zh) * 2018-01-16 2018-08-14 达闼科技(北京)有限公司 基于云端计算的rgb-d数据生成方法及装置
CN109643465A (zh) * 2016-06-20 2019-04-16 Cy游戏公司 用于创建混合现实环境的系统等
CN115514885A (zh) * 2022-08-26 2022-12-23 燕山大学 基于单双目融合的远程增强现实随动感知系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060065159A (ko) * 2004-12-10 2006-06-14 (주)제니텀 엔터테인먼트 컴퓨팅 3차원 마커 인지 방법 및 이를 이용한 증강현실 및복합현실 제공 방법 및 장치
KR20100090401A (ko) * 2009-02-06 2010-08-16 광주과학기술원 증강 현실 환경에서의 공간 상호 작용 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060065159A (ko) * 2004-12-10 2006-06-14 (주)제니텀 엔터테인먼트 컴퓨팅 3차원 마커 인지 방법 및 이를 이용한 증강현실 및복합현실 제공 방법 및 장치
KR20100090401A (ko) * 2009-02-06 2010-08-16 광주과학기술원 증강 현실 환경에서의 공간 상호 작용 방법 및 시스템

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HA, TEA JIN ET AL.: "Methodologies for Enhancing Immersiveness in AR -based Product Design", JOURNAL OF THE IEIE-CI, vol. 44, no. 2, March 2007 (2007-03-01), XP055249371, Retrieved from the Internet <URL:http://www.dbpia.co.kr/Joumal/PDFView?id=657472> *
JANG, YOUNG KYOON ET AL.: "RGB-D Image-Based Multiple Objects Localization and Recognition: User Participation type Depth Image Clustering and Color Image-based Multiple Objects Recognition for Multiple Objects Localization", PROCEEDINGS OF HCI KOREA, January 2013 (2013-01-01), Retrieved from the Internet <URL:http://www.dbpia.co.kr/Journal/PDFView?id=3103578> *
YUN, KYUNG DAHM ET AL.: "Introducing Depth Camera for Spatial Interaction in Augmented", PROCEEDINGS OF HCI KOREA, February 2009 (2009-02-01), Retrieved from the Internet <URL:http://www.dbpia.co.kr/Joumal/PDFView?id=2578723> *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109643465A (zh) * 2016-06-20 2019-04-16 Cy游戏公司 用于创建混合现实环境的系统等
WO2018048054A1 (ko) * 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치
US10664983B2 (en) 2016-09-12 2020-05-26 Deepixel Inc. Method for providing virtual reality interface by analyzing image acquired by single camera and apparatus for the same
CN107330976A (zh) * 2017-06-01 2017-11-07 北京大学第三医院 一种人体头部三维建模装置及使用方法
CN107330976B (zh) * 2017-06-01 2023-05-02 北京大学第三医院 一种人体头部三维建模装置及使用方法
CN108399634A (zh) * 2018-01-16 2018-08-14 达闼科技(北京)有限公司 基于云端计算的rgb-d数据生成方法及装置
CN108399634B (zh) * 2018-01-16 2020-10-16 达闼科技(北京)有限公司 基于云端计算的rgb-d数据生成方法及装置
CN115514885A (zh) * 2022-08-26 2022-12-23 燕山大学 基于单双目融合的远程增强现实随动感知系统及方法
CN115514885B (zh) * 2022-08-26 2024-03-01 燕山大学 基于单双目融合的远程增强现实随动感知系统及方法

Similar Documents

Publication Publication Date Title
KR101687017B1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
Ha et al. WeARHand: Head-worn, RGB-D camera-based, bare-hand user interface with visually enhanced depth perception
KR101865655B1 (ko) 증강현실 상호 작용 서비스 제공 장치 및 방법
WO2015199470A1 (ko) 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
TWI505709B (zh) 擴增實境場景中決定個體化深度資訊的系統和方法
JP5920352B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2016017932A1 (ko) 사용자의 시점을 고려하여 동작인식하는 인터페이스 제공방법 및 제공장치
Klein Visual tracking for augmented reality
WO2011108827A2 (ko) 증강현실의 포인팅 장치
WO2017010614A1 (ko) 증강 공간 내 부분 공간 획득 시스템 및 방법
WO2018004154A1 (ko) 혼합현실 디스플레이 장치
JP2002213947A (ja) ターゲット位置を測定するシステム及びその方法
WO2017065348A1 (ko) 헤드 마운트 디스플레이를 이용한 협업 방법
WO2013162236A1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
WO2013162235A1 (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
CN111949112A (zh) 对象交互方法及装置、系统、计算机可读介质和电子设备
WO2015199502A1 (ko) 증강현실 상호 작용 서비스 제공 장치 및 방법
WO2013025011A1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP2002259989A (ja) ポインティングジェスチャ検出方法及びその装置
Dorfmüller et al. Real-time hand and head tracking for virtual environments using infrared beacons
WO2012133962A1 (ko) 스테레오 카메라를 이용한 3차원 동작 인식장치 및 인식방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15812664

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15321984

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15812664

Country of ref document: EP

Kind code of ref document: A1