KR101546654B1 - Method and apparatus for providing augmented reality service in wearable computing environment - Google Patents

Method and apparatus for providing augmented reality service in wearable computing environment Download PDF

Info

Publication number
KR101546654B1
KR101546654B1 KR1020130074065A KR20130074065A KR101546654B1 KR 101546654 B1 KR101546654 B1 KR 101546654B1 KR 1020130074065 A KR1020130074065 A KR 1020130074065A KR 20130074065 A KR20130074065 A KR 20130074065A KR 101546654 B1 KR101546654 B1 KR 101546654B1
Authority
KR
South Korea
Prior art keywords
quot
rotation
menu
axis
coordinate system
Prior art date
Application number
KR1020130074065A
Other languages
Korean (ko)
Other versions
KR20140001167A (en
Inventor
우운택
하태진
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20140001167A publication Critical patent/KR20140001167A/en
Application granted granted Critical
Publication of KR101546654B1 publication Critical patent/KR101546654B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Algebra (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 카메라를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Reference Coordinates)를 생성하는 과정과, 생성된 상기 로컬 레퍼런스 좌표계와 실제 공간이 복제된 가상 공간인 미러 월드(mirror world)의 월드 좌표계를 통합하는 과정과, 상기 월드 좌표계로 통합된 3차원 좌표 공간에서 선택된 3D객체의 사용자 인터럽트 발생 타입별 회전 및 깊이 정보를 기설정된 오브젝트별 운동 범위(Range of Motion: RoM)기반 하에 인식하여 상기 선택된 3D객체를 제어하는 과정과, 증강현실 서비스 이용을 위한 실행 메뉴 탐색 시 상기 증강현실 서비스를 제공하는 단말 내 움직임 센서로부터 센싱된 신호를 기준으로 기설정된 레벨별 대응되는 메뉴 선택이 가능한 복수 개의 계층적 메뉴 인터페이스를 상기 3차원 좌표 공간에 표시하여 메뉴 조작을 제공하는 과정을 포함함을 특징으로 한다.The method includes generating local reference coordinates based on a three-dimensional image including depth information obtained through a camera, generating a local reference coordinate system based on the local reference coordinate system, dimensional world coordinate system of the 3D object in the world coordinate system and the rotation coordinate and the depth information of the user interrupt generation type of the 3D object selected in the 3D coordinate space integrated in the world coordinate system, And controlling the selected 3D object based on the sensed signal from the intra-terminal motion sensor providing the augmented reality service when searching for an execution menu for using the augmented reality service, A plurality of selectable hierarchical menu interfaces are displayed in the three-dimensional coordinate space It characterized in that it comprises the step of providing a new operation.

Description

웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING AUGMENTED REALITY SERVICE IN WEARABLE COMPUTING ENVIRONMENT}Technical Field [0001] The present invention relates to a method and apparatus for providing an augmented reality service in a wearable augmented reality environment,

본 발명은 HMD(Head Mounted Display)를 착용한 사용자가 현장에서 스마트 폰 기반의 3차원 모바일 입력 장치를 이용하여 디지로그 스페이스를 생성하고 가상 콘텐츠를 추가할 수 있도록 하기 위한 웨어러블 증강현실 환경에서 증강현실 서비스 제공에 관한 것이다.In a wearable augmented reality environment in which a user wearing an HMD (Head Mounted Display) creates a diglog space using a smart phone-based three-dimensional mobile input device and adds virtual content, Service provision.

최근 디지털 정보를 볼 수 있는 언제 어디서나 볼 수 있는 착용형 안경(도 2의 (a))이 경량화되면서 이를 활용하여 가상공간의 디지털 정보들 (예. 지역 정보, 사진, 트윗, 지도, 광고, 숙박, 식당, 위키피디아 등)을 현장에서 즉시적으로 사용자에게 제공하고자 하는 시도가 많은 주목을 받고 있다. 이는 기존의 정보 획득의 미디어로서 사용되고 있는 휴대용 인터넷 단말기 (예. 스마트 폰, 노트북)를 대체할 수 있는 뉴 미디어로의 역할을 할 수 있다. 즉, 현장의 사용자에게 관심 정보를 즉시적으로 제공할 수 있으며 기존의 페이스 북/트위터/유투브와 같은 라이프 로깅 서비스를 언제 어디서나 즉각적으로 수행할 수 있으며, 다양한 정보를 손쉽게 획득 할 수 있을 것이다. 이는 사회/문화/경제/산업적으로 다양한 파급효과를 가져올 것이다. 2. Description of the Related Art [0002] Wearable glasses (see Fig. 2 (a)), which can be viewed anytime and anywhere in recent digital information, are reduced in weight and utilized to provide digital information (e.g., local information, photographs, , Restaurants, wikipedia, etc.) on the spot are immediately attracting much attention. This can serve as a new media that can replace portable Internet terminals (eg, smart phones, notebooks) used as media for acquiring existing information. In other words, it is possible to instantly provide information of interest to users in the field, and it is possible to instantly perform life logging services such as existing Facebook / Twitter / YouTube, and to acquire various information easily. This will have various ripple effects in social / cultural / economic / industrial aspects.

(1) 증강현실 저작 인터페이스(1) augmented reality authoring interface

기존의 증강현실 저작방법은 일반적으로 프로그래밍 기반의 저 차원 저작 방법과 비 프로그래밍 기반의 고 차원 저작 방법으로 분류할 수 있다 [6]. 프로그래밍 기반 저작 방법 (ARToolKit, osgART, Goblin XNA 등)은 프로그래밍을 통해서 성능을 최적화할 수 있는 장점이 있지만, 컴퓨터 비전과 3D 그래픽스에 대한 전문적인 지식이 있는 기술 개발자들을 대상으로 하기 때문에 일반 사용자는 사용하기 어렵다는 단점이 있다. The existing augmented reality authoring method can be generally classified into low-level authoring based on programming and high-level authoring based on non-programming [6]. Programming-based authoring methods (such as ARToolKit, osgART, and Goblin XNA) have the advantage of being able to optimize performance through programming, but for technical developers who have expertise in computer vision and 3D graphics, It is difficult to do.

비 프로그래밍 기반의 저작 방법은 그래피컬 사용자 인터페이스 (GUI: Graphical User Interface) 기반의 비주얼 프로그래밍을 기반으로 상대적으로 비전문가도 사용할 수 있다는 장점이 있다 (ComposAR, CATOMIR, Metaio 등). 하지만 기존의 GUI기반의 2차원 인터페이스는 본 연구에서 다루는 3차원 공간 조작에 적용하기 어렵다. 한편, 감각형 사용자 인터페이스 (TUI: Tangible User Interface) 기반의 저작 방법은 GUI 방법 보다 좀 더 추상적이고 쉬운 저작을 가능하게 하며 3차원 조작이 가능하다 (iaTAR, ARtalet 등). 하지만, TUI 는 주로 근거리에 있는 3D 객체를 직접 조작하는 데 유용하다. 따라서 본 연구에서 지향하는 3차원 공간을 대상으로 하는 디지로그 스페이스의 인터페이스로는 부적절하다. The non-programming based authoring method is based on graphical user interface (GUI) -based visual programming, and can be used by relatively unprofessional (ComposAR, CATOMIR, Metaio, etc.). However, it is difficult to apply the existing GUI based 2D interface to 3D space manipulation discussed in this study. On the other hand, a tangible user interface (TUI) based authoring method enables a more abstract and easy authoring than a GUI method, and can be operated in three dimensions (iaTAR, ARtalet, etc.). However, TUI is mainly useful for manipulating 3D objects in close proximity. Therefore, it is inappropriate as an interface of Digilog space which is aimed at the three dimensional space which is aimed in this study.

(2) 증강현실 저작을 위한 (2) For augmented reality authoring 정합coordination 방법 Way

가장 단순한 정합 방법은 GPS/나침반 센서를 기반으로 미러월드를 정합하는 방법으로 대부분의 모바일 증강현실 응용에서 사용하는 방법이다(Layar, Wikitude AR, Junaio, Sekai 카메라). 실외 환경에서 작동이 가능하며, GPS/나침반 센서 정보의 오차로 인해 정합의 정밀도가 매우 낮다.The simplest matching method is to match the mirror world based on GPS / compass sensor and is used in most mobile augmented reality applications (Layar, Wikitude AR, Junaio, Sekai camera). It is possible to operate in outdoor environment, and accuracy of matching is very low due to error of GPS / compass sensor information.

좀 더 정밀한 정합을 위해서는 2D 객체를 사용하는 방법이 있다. 색상 대비가 분명한 정사각형의 마커를 이용하여 카메라 트래킹을 수행하고 가상 객체를 정합한다 (ARToolKit, ARToolKit Plus, 2D 바코드 마커). 또는 자연 이미지의 2D 객체를 대상으로 정합하는 방법도 있다 (BazAR, Qualcomm AR SDK). 또는 상용 소프트웨어 (Virtools, Max/Maya, Unity3D, RhinoAR, Autodesk 3DS Max, Flash)에 증강현실 플러그인을 적용하여, 소프트웨어로 제작한 3D 모델들을 2D 객체에 정합하기도 한다. 하지만, 이러한 방법은 정합의 대상이 2차원 평면에 국한 것으로 본 연구에서 다루는 3차원 공간을 대상으로 한 정합에 적합하지 않다.   For more precise matching, there is a way to use 2D objects. Perform camera tracking and match virtual objects (ARToolKit, ARToolKit Plus, 2D barcode markers) using square markers with clear color contrast. Alternatively, there is a method of matching a 2D object of a natural image to a target (BazAR, Qualcomm AR SDK). You can also apply augmented reality plug-ins to commercial software (Virtools, Max / Maya, Unity3D, RhinoAR, Autodesk 3DS Max, Flash) to match software 3D models to 2D objects. However, this method is not suitable for the matching of the three-dimensional space covered in this study because the object of matching is limited to the two-dimensional plane.

(3) (3) 웨어러블Wearable 증강현실 환경에서 모바일 입력 장치 기반 3D 객체 조작 방법 How to manipulate 3D object based on mobile input device in augmented reality environment

모바일 입력 장치를 활용하여 3D 객체를 조작하는 가장 단순한 방법은, 모바일 장치의 버튼 장치를 누르는 방법이다. 하지만 이러한 이산적인 (Discrete) 사용자 입력은 3D 공간에서 고차원의 동시조작 (3차원 이동, 3차원 회전)이 불가능 하며 시간이 많이 지연된다. 이의 연장선으로 조이스틱 또는 터치 기반의 입력을 사용하는 2 자유도의 입력방식 역시 높은 자유도의 조작을 수행하는 것은 불가능하다. 모바일 입력 장치의 내장 센서 (예, 기울기, 가속도계, 자이로, 나침반 센서 등)를 사용하면 3D 자유도의 조작이 가능하며, 자이로 마우스, 게임 컨트롤러, 메뉴 선택, 텍스트 입력, 스크롤 제스처, 3D 객체 회전을 위해서 사용되었다. 하지만, 이들 또한 3D 공간에서 자유로운 조작 (6 자유도의 이동/회전)이 불가능하다. 일반적으로는 6 자유도의 3D 객체 조작을 위해서는 외부에 설치된 트래킹 장치가 입력 장치의 위치/회전을 인식/추적해야한다 (3D 게임 컨트롤러, uWand, VR Wand 등) 그러나 이러한 입력 장치들은 외부 트래킹 장치를 필요로하기 때문에, 실외 환경과 일상적인 공간 등에 적용하는 것이 불가능하다. The simplest way to manipulate a 3D object using a mobile input device is to press the button device of the mobile device. However, such discrete user input is not possible to perform high dimensional simultaneous manipulation (three dimensional movement, three dimensional rotation) in 3D space and time delay. As an extension of this, it is also impossible to perform operations with a high degree of freedom in a two-degree-of-freedom input method using a joystick or touch-based input. Using the built-in sensors of the mobile input device (eg, tilt, accelerometer, gyro, compass sensor, etc.) allows manipulation of 3D degrees of freedom and allows for gyroscopes, game controllers, menu selection, text input, scroll gestures, Respectively. However, they also can not be manipulated freely (movement / rotation of 6 degrees of freedom) in 3D space. Generally, an external tracking device must recognize / track the position / rotation of the input device (3D game controller, uWand, VR Wand, etc.) in order to operate a 3D object with 6 degrees of freedom. However, these input devices require an external tracking device It is impossible to apply it to an outdoor environment and a usual space.

따라서 본 발명은 이와 같은 문제를 해결하기 위해 웨어러블 컴퓨팅 환경에서 디지로그 스페이스를 쉽게 정합하고 가상 콘텐츠를 삽입/조작할 수 있는 저작 방법을 제안하다. 즉, 제안하는 방법은 외부 트래킹 시스템이 없는 일반적인 실내외 환경에서, 사용자가 스마트 폰 기반의 3D 사용자 인터페이스를 이용하여 현실 공간에 미러월드를 정확하게 정합한 후, 3D 가상 객체를 불러오고 3차원적으로 조작할 수 있도록 하는 것을 목표로 한다. Therefore, in order to solve such a problem, the present invention proposes a method of authoring a diglit space easily matching and inserting / manipulating a virtual content in a wearable computing environment. In other words, in the general indoor and outdoor environment without an external tracking system, the proposed method accurately matches the mirror world to the real space using the 3D user interface based on the smartphone, and then, the 3D virtual object is retrieved, The goal is to be able to do.

구체적으로 RGB-D (Depth: 깊이. 거리 정보) 비디오 투과형 HMD (Video See-through Head Mounted Display)를 착용한 저작 사용자는 사전에 알려지지 않은 (모델링 되어 있지 않은 공간) 임의의 공간(현장)의 영상 특징 데이터를 실시간으로 획득하고, 깊이 영상 정보를 이용하여 가상공간을 정합하기 위한 국소 참조 좌표계 (Local Reference Coordinates)를 자동적으로 생성할 수 있도록 한다. 이를 통해 사용자는 자유로운 이동에도 끊임없이 디지로그 스페이스의 정보/콘텐츠를 획득 할 수 있다. 웨어러블 증강현실 환경에서 사용자가 스마트 폰 기반의 3차원 모바일 입력 장치를 이용하여 다양한 거리로 3D 가상 객체들을 불러오고 조작할 수 있도록 한다. 특히, 본 특허는 사용자의 손목 운동 반경을 고려하여, 모바일 입력 장치의 조작 이득 (Control Gain)을 변형하거나 개인화하여, 손목의 피로를 덜고 조작 성능을 향상시키고자 한다. 추가로 웨어러블 증강현실에 적합하도록, 모바일 장치를 이용하여 조작 메뉴를 직관적으로 탐색/선택할 수 있도록 한다. Specifically, a user who wears a video-see-through head mounted display (HMD) with a depth-of-view (RGB) depth of view (video) can view an arbitrary space The feature data can be acquired in real time, and the local reference coordinates (Local Reference Coordinates) for matching the virtual space can be automatically generated using the depth image information. This allows the user to constantly acquire Digilog space information / content even on free movement. In a wearable augmented reality environment, a user can call and manipulate 3D virtual objects at various distances using a smart phone-based 3D mobile input device. In particular, this patent is intended to modify or personalize the control gain of the mobile input device in consideration of the radius of the wrist motion of the user, thereby reducing the fatigue of the wrist and improving the manipulation performance. Further, the mobile device can be intuitively navigated / selected to suit the wearable augmented reality.

본 발명의 일 견지에 따르면, 카메라를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Reference Coordinates)를 생성하는 과정과, 생성된 상기 로컬 레퍼런스 좌표계와 실제 공간이 복제된 가상 공간인 미러 월드(mirror world)의 월드 좌표계를 통합하는 과정과, 상기 월드 좌표계로 통합된 3차원 좌표 공간에서 선택된 3D객체의 사용자 인터럽트 발생 타입별 회전 및 깊이 정보를 기설정된 오브젝트별 운동 범위(Range of Motion: RoM)기반 하에 인식하여 상기 선택된 3D객체를 제어하는 과정과, 증강현실 서비스 이용을 위한 실행 메뉴 탐색 시 상기 증강현실 서비스를 제공하는 단말 내 움직임 센서로부터 센싱된 신호를 기준으로 기설정된 레벨별 대응되는 메뉴 선택이 가능한 복수 개의 계층적 메뉴 인터페이스를 상기 3차원 좌표 공간에 표시하여 메뉴 조작을 제공하는 과정을 포함함을 특징으로 한다.According to an aspect of the present invention, there is provided a method of generating a local reference coordinate system, the method comprising: generating local reference coordinates based on a three-dimensional image including depth information obtained through a camera; A step of integrating a world coordinate system of a mirror world which is a virtual space and a rotation and depth information of a user interrupt occurrence type of a 3D object selected in a three-dimensional coordinate space integrated in the world coordinate system, The method comprising the steps of: controlling the selected 3D object based on a range of motion (RoM) based on a signal detected from a motion sensor in the terminal providing the augmented reality service when searching for an execution menu for using the augmented reality service; A plurality of hierarchical menu interfaces capable of selecting a corresponding menu for each level, And displaying the menu in a space to provide a menu operation.

본 발명의 다른 견지에 따르면, 카메라를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Reference Coordinates)좌표계와 미러월드(mirror world)의 월드 좌표계를 생성하는 좌표 생성부와, 상기 좌표 생성부로부터 생성된 로컬 레퍼런스 좌표계와 월드 좌표계를 통합하고, 통합된 3차원 좌표 공간에서 사용자 인터페이스부를 통해 선택된 3D 객체의 사용자 인터럽트 발생 타입별 회전 및 깊이 정보를 기설정된 오브젝트별 운동 범위(Range of Motion: RoM)기반 하에 인식하여 3D 객체를 제어하는 제어부와, 상기 제어부의 제어 하에 복수 개의 계층적 메뉴 인터페이스를 3차원 좌표 공간에 표시하여 메뉴 조작을 제공하는 메뉴 조작부를 포함함을 특징으로 한다.According to another aspect of the present invention, there is provided an image processing apparatus including a coordinate generating unit for generating a local reference coordinate system and a world coordinate system of a mirror world based on a three-dimensional image including depth information obtained through a camera, , Integrates the local reference coordinate system and the world coordinate system generated from the coordinate generating unit, and integrates the rotation and depth information of the user interrupt occurrence type of the 3D object selected through the user interface unit in the integrated three-dimensional coordinate space, And a menu operation unit for displaying a plurality of hierarchical menu interfaces in a three-dimensional coordinate space under the control of the control unit to provide a menu operation, characterized by comprising: do.

본 발명은 디지로그 스페이스에서 사용자는 현장에서 실제 관찰하고 있는 관심 대상 또는 상황에 대하여 부과적인 정보를 제공받을 수 있기 때문에 이해도가 높아질 수 있으며 일을 좀 더 효율적으로 수행할 수 있다. 또한 사용자는 현장에서, 시간과 공간을 뛰어넘는 흥미 있는 경험을 할 수 있는 효과가 있다.The present invention allows the user to obtain additional information on the object of interest or the situation actually observed in the field in the Digilog space, so that the understanding can be enhanced and the work can be performed more efficiently. It also has the effect of enabling users to have an interesting experience that goes beyond time and space in the field.

또한, 영화의 한 장면을 현장으로 불러와 체험해 보거나, 과거의 미러월드를 현실로 불러와 과거 여행을 할 수도 있을 뿐만 아니라, 원격 공간의 미러월드를 현장으로 가져와서 원격 체험을 할 수 있는 효과가 있다.In addition, it is possible to invite a scene of a movie to the scene and experience it, to invite the past mirror world to reality, to travel in the past, and to bring the mirror world of the remote space to the scene, .

도 1은 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법에 관한 전체 흐름도.
도 2 내지 5 및 도 7은 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공에 관한 화면 예시도.
도 6은 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치에 관한 상세 블록도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an overall flowchart of a method for providing an augmented reality service in a wearable augmented reality environment according to an embodiment of the present invention.
FIG. 2 to FIG. 5 and FIG. 7 are diagrams illustrating a screen for providing an augmented reality service in a wearable augmented reality environment according to an embodiment of the present invention;
6 is a detailed block diagram of an augmented reality service providing apparatus in a wearable augmented reality environment according to an embodiment of the present invention.

이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be appreciated that those skilled in the art will readily observe that certain changes in form and detail may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims. To those of ordinary skill in the art.

본 발명은 HMD(Head Mounted Display)를 착용한 사용자가 현장에서 스마트 폰 기반의 3차원 모바일 입력 장치를 이용하여 디지로그 스페이스를 생성하고 가상 콘텐츠를 추가할 수 있도록 하기 위한 웨어러블 증강현실 환경에서 증강현실 서비스 제공에 관한 것으로, 보다 상세하게는 RGB-D 비디오 투과형 HMD를 착용한 저작 사용자는 사전에 알려지지 않은 임의의 물리 공간의 영상 특징 데이터를 실시간으로 획득하고, 깊이 영상 정보를 이용하여 가상공간을 정밀하게 정합하기 위한 국소 참조 좌표계를 생성하여 사용자의 자유로운 이동에도 끊임없이 미러월드의 콘텐츠를 현실에서 체험할 수 있도록 하고, 스마트 폰 기반의 모바일 입력 장치를 이용하여 다양한 거리로 3D 가상 객체들을 불러오고, 선택하고, 그리고 조작 할 수 있도록 함으로써 비 프로그래밍 기반의 저작방법은 일반 사용자도 쉽게 사용할 수 있으며, 또한 외부 트래킹 장치가 설치되어 있지 않은 일상생활 공간에서 디지로그 스페이스를 만들 수 있는 기술을 제공하고자 한다.In a wearable augmented reality environment in which a user wearing an HMD (Head Mounted Display) creates a diglog space using a smart phone-based three-dimensional mobile input device and adds virtual content, More specifically, a author who wears an RGB-D video transmission type HMD acquires image feature data of an arbitrary physical space, which is not previously known, in real time, The 3D virtual objects are retrieved at various distances using a smartphone-based mobile input device, and the 3D virtual objects are retrieved at various distances using a smartphone-based mobile input device. And manipulating the non-programmable devices Authoring method can also easily use a regular user, and also to provide a technology that can create a digital log space in our daily living space is not installed an external tracking device.

특히 본 발명에서 고려하는 웨어러블 증강 현실 기반으로 한 디지로그 스페이스(DigiLog Space)는 물리적인 현실 공간과 그것의 복제된 가상공간인 미러월드 (Mirror World)가 정합된 공간으로, 증강 현실용 안경 (HMD: Head Mounted Display)을 착용한 사용자는 공간에 해당하는 미러월드의 다양한 정보들을 입체적으로 획득할 수 있다 [1]. 즉, 디지로그 스페이스에서 사용자는 현장에서 실제 관찰하고 있는 관심 대상 또는 상황에 대하여 부과적인 정보를 제공받을 수 있기 때문에 이해도가 높아질 수 있으며 일을 좀 더 효율적으로 수행할 수 있다. 또한 사용자는 현장에서, 시간과 공간을 뛰어넘는 흥미 있는 경험을 할 수 있다. 예를 들면 영화의 한 장면을 현장으로 불러와 체험해 보거나 (도 2. (b)), 과거의 미러월드를 현실로 불러와 과거 여행을 할 수도 있다. 또는 원격 공간의 미러월드를 현장으로 가져와서 원격 체험을 할 수 있다. 이와 같이 디지로그 스페이스는 다양한 응용 가능성을 가지고 있다.
In particular, the DigiLog Space based on the wearable augmented reality considered in the present invention is a space in which a physical reality space and a mirror world, which is a replicated virtual space thereof, are matched with each other, and augmented reality glasses (HMD : Head Mounted Display) can acquire various information of the mirror world corresponding to the space in three dimensions [1]. That is, in Digilog space, the user can get additional information about the subject or situation that he / she is actually observing in the field, so that understanding can be enhanced and work can be performed more efficiently. Users can also have an interesting experience in the field, beyond time and space. For example, you can experience a scene of a movie by bringing it to the scene (Figure 2. (b)), or you can travel past past the mirror world as a reality. Or you can take a remote experience with the mirror world of the remote space. Thus, Digilog space has various application possibilities.

이하, 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법에 대해 도 1 내지 도 5를 참조하여 자세히 살펴보기로 한다.Hereinafter, a method of providing an augmented reality service in a wearable augmented reality environment according to an embodiment of the present invention will be described in detail with reference to Figs. 1 to 5.

우선, 도 1은 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법에 관한 전체 흐름도이다.1 is an overall flowchart of a method for providing an augmented reality service in a wearable augmented reality environment according to an embodiment of the present invention.

도 1을 참조하면, 먼저 110 과정에서 카메라를 통해 깊이 정보를 포함하는 3차원 영상을 획득하고, 112 과정에서 상기 카메라를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Referenct Coordinates)를 생성한다.Referring to FIG. 1, a 3D image including depth information is acquired through a camera 110 in step 110. In step 112, a local reference coordinate system (Local) based on a 3D image including depth information acquired through the camera, Reference Coordinates).

이때, 상기 로컬 레퍼런스 좌표계를 생성하는 과정은, 좌표계의 3-DoF(Degree of Freedom) 회전을 설정하기 위한 사용자가 바라보는 평면에 대한 정보를 하기의 수학식 (1)을 이용하여 획득한다.At this time, the process of generating the local reference coordinate system acquires information about the plane viewed by the user for setting the 3-DoF (Degree of Freedom) rotation of the coordinate system using the following equation (1).

[수학식 1][Equation 1]

Figure 112013057494096-pat00001
Figure 112013057494096-pat00001

[수학식 2]&Quot; (2) "

Figure 112013057494096-pat00002
Figure 112013057494096-pat00002

Figure 112015031199328-pat00003

(여기서, Π: 평면, a, b, c, d: 평면을 구성하는 파라미터,
Figure 112015031199328-pat00095
,
Figure 112015031199328-pat00096
,
Figure 112015031199328-pat00097
: 3차원 공간상의 한 점의 좌표,
Figure 112015031199328-pat00098
,
Figure 112015031199328-pat00099
: 평면상의 임의의 서로 다른 두 점, N : 계산할 점들의 개수)
Figure 112015031199328-pat00003

(Where, Π: plane, a, b, c, d: parameters constituting the plane,
Figure 112015031199328-pat00095
,
Figure 112015031199328-pat00096
,
Figure 112015031199328-pat00097
: Coordinates of a point on a three-dimensional space,
Figure 112015031199328-pat00098
,
Figure 112015031199328-pat00099
: Two arbitrary points on the plane, N: number of points to be calculated)

획득된 사용자가 바라보는 평면에 대한 정보는 수학식 (1)과 같이, 3차원 영상 특징 좌표들에 대해서 평면의 방정식을 구성하는 변수 a, b, c, d를 구하기 위한 최적화 문제로 정의할 수 있다.The information about the plane viewed by the acquired user can be defined as an optimization problem for obtaining the variables a, b, c, and d constituting the plane equation for the three-dimensional image feature coordinates as shown in equation (1) have.

수학식 (1)의 해로부터 상기의 수학식 (2)를 통해 평면에 수직인 노멀 벡터를 계산하여 좌표축의 z축으로 설정하고, 상기 평면상의 임의의 서로 다른 두 점을 선택하여 좌표축의 x 축으로 설정한다.From the solution of the equation (1), the normal vector perpendicular to the plane is calculated through the above equation (2) and set as the z-axis of the coordinate axis, and two arbitrary two points on the plane are selected, .

상기 설정된 z축과 상기 x축의 외적을 통해 좌표축의 y축을 계산함으로써 실제 공간에 대한 레퍼런스 좌표계의 회전축을 도 7에 도시된 바와 같이 설정 가능하다.The rotation axis of the reference coordinate system for the actual space can be set as shown in FIG. 7 by calculating the y-axis of the coordinate axis through the set z-axis and the x-axis outer product.

이후, 기준 좌표계의 위치를 결정하고 임의의 방향으로 설정된 회전축을 보정하기 위해서 수직 평면과 수평 평면이 접하는 접선을 이용하여 하기의 수학식 3을 이용하여 하기의 수학식 4를 유도한다.Then, in order to determine the position of the reference coordinate system and correct the rotation axis set in an arbitrary direction, the following equation (4) is derived using the following equation (3) using a tangent line where the vertical plane and the horizontal plane are in contact with each other.

하기의 수학식 3처럼 접선

Figure 112013057494096-pat00004
은 한 점
Figure 112013057494096-pat00005
와, 방향 벡터
Figure 112013057494096-pat00006
로 표현될 수 있으며, 두 평면 모두에 대해서 수직임을 알 수 있다. 이러한 관계를 이용하여 수학식 6을 유도할 수 있고,
Figure 112013057494096-pat00007
는 두 평면에 모두 접하는 접점이기 때문에 하기의 수학식 5를 통해 두 평면 방정식의 합의 차이를 최소로 하는 점인
Figure 112013057494096-pat00008
을 구하여 접점으로 설정한다. As shown in the following Equation 3,
Figure 112013057494096-pat00004
A point
Figure 112013057494096-pat00005
And a direction vector
Figure 112013057494096-pat00006
, And it can be seen that it is perpendicular to both planes. Using this relationship we can derive Equation 6,
Figure 112013057494096-pat00007
Is a contact which is tangential to both planes, it is a point that minimizes the difference of the sum of the two plane equations through the following equation
Figure 112013057494096-pat00008
And sets it as a contact point.

이것을 좌표축의 기준 위치로 설정하고, 상기 설정된 좌표계의 수평축인 x축을 두 평면이 접하는 수평 벡터

Figure 112013057494096-pat00009
로 설정하고, 상기 x축과 z축을 외적하여 레퍼런스 좌표축의 회전축을 도 7의 (b)와 같은 형태로 보정할 수 있다.And sets the x-axis, which is a horizontal axis of the set coordinate system, as a horizontal vector
Figure 112013057494096-pat00009
, And the rotation axis of the reference coordinate axis can be corrected in the same manner as shown in FIG. 7 (b) by externally crossing the x-axis and the z-axis.

[수학식 3]&Quot; (3) "

Figure 112013057494096-pat00010
Figure 112013057494096-pat00010

[수학식 4]&Quot; (4) "

Figure 112013057494096-pat00011
Figure 112013057494096-pat00011

[수학식 5]&Quot; (5) "

Figure 112013057494096-pat00012
Figure 112013057494096-pat00012

Figure 112015031199328-pat00013

(여기서,
Figure 112015031199328-pat00100
,
Figure 112015031199328-pat00101
: 서로 다른 두 평면,
Figure 112015031199328-pat00102
: 사용자가 지정한 3차원 점, t: 직선의 파라미터,
Figure 112015031199328-pat00103
,
Figure 112015031199328-pat00104
: 서로 다른 두 평면의 법선벡터,
Figure 112015031199328-pat00105
: 임의의 3차원 점)
Figure 112015031199328-pat00013

(here,
Figure 112015031199328-pat00100
,
Figure 112015031199328-pat00101
: Two different planes,
Figure 112015031199328-pat00102
: A user-specified three-dimensional point, t: a parameter of a straight line,
Figure 112015031199328-pat00103
,
Figure 112015031199328-pat00104
: Normal vector of two different planes,
Figure 112015031199328-pat00105
: Arbitrary three-dimensional point)

마지막으로 RGB 영상으로부터 계산한 좌표계의 임의의 스케일과 현실 공간의 스케일을 통일하기 위해서, 다음 수식 6과 같이 복원된 서로 다른 두 개의 3차원 점 사이의 거리를 계산한다. 그리고 깊이 정보를 통해, 수식 7과 같이 두 점 각각에 대해서 거리를 계산한다. 최종적으로 수식 8과 같이 이 두 거리의 비율을 구한다. 이를 통해 현실공간의 단위 스케일 (예. mm, cm, m 등의 단위)을 반영하여 가상객체를 정확한 크기로 증강할 수 있다. Finally, to unify the scale of the real space with the arbitrary scale of the coordinate system calculated from the RGB image, the distance between two different three-dimensional points restored is calculated as shown in Equation 6 below. Then, through the depth information, the distance is calculated for each of the two points as shown in Equation 7. Finally, we calculate the ratio of these two distances as shown in Eq. (8). This allows the virtual object to be augmented to the correct size by reflecting the unit scale of the real space (eg units of mm, cm, m, etc.).

[수학식 6]&Quot; (6) "

Figure 112013057494096-pat00014
Figure 112013057494096-pat00014

[수학식 7]&Quot; (7) "

Figure 112013057494096-pat00015
Figure 112013057494096-pat00015

[수학식 8]&Quot; (8) "

Figure 112015031199328-pat00016

(여기서,
Figure 112015031199328-pat00106
,
Figure 112015031199328-pat00107
: 임의 스케일인 가상 공간에서, 임의의 두 점,
Figure 112015031199328-pat00108
,
Figure 112015031199328-pat00109
: 카메라 중심 위치를 기준으로 한, 점
Figure 112015031199328-pat00110
,
Figure 112015031199328-pat00111
에 대한 실측 거리, dimage:임의 스케일인 가상 공간에서, 두 점 사이의 거리)
Figure 112015031199328-pat00016

(here,
Figure 112015031199328-pat00106
,
Figure 112015031199328-pat00107
: In an arbitrary-scale virtual space, any two points,
Figure 112015031199328-pat00108
,
Figure 112015031199328-pat00109
: Point based on camera center position
Figure 112015031199328-pat00110
,
Figure 112015031199328-pat00111
The distance between two points in a virtual space of arbitrary scale)

계속해서, 114 과정에서는 생성된 상기 로컬 레퍼런스 좌표계와 실제 공간이 복제된 가상 공간인 미러 월드(mirror world)의 월드 좌표계를 통합한다.Next, in step 114, the local reference coordinate system generated and the world coordinate system of the mirror world, which is a virtual space in which the actual space is copied, are integrated.

즉, 사용자는 카메라를 이용하여 사전에 모델링되지 않은 현장 공간에 대해서 기하학적 구조의 영상 특징 정보들을 획득하고, 이를 기반으로 로컬 레퍼런스 좌표계를 생성한다. That is, the user acquires the image feature information of the geometric structure with respect to the site space that has not been previously modeled using the camera, and generates a local reference coordinate system based on the image feature information.

그리고 도 3의 (b)에 도시된 바와 같이, 기존의 2차원 사용자 인터페이스는 디지로그 스페이스에서 빈번하게 사용되는 3차원 조작을 원활하게 수행하기 어려움을 해결하기 위하여 상기 생성된 좌표계와 미러 월드의 월드 좌표계를 도 3(a)에 도시된 바와 같이 정합한다. As shown in FIG. 3 (b), in order to solve the difficulty of smoothly performing three-dimensional manipulation frequently used in Digilog space, the existing two-dimensional user interface The coordinate system is matched as shown in Fig. 3 (a).

이는 현실과 미러 월드 간의 스케일이 정확하게 통일되어야만 3차원 정보/콘텐츠들을 정확한 크기로 증강하기 위한 것으로, 상기 정합을 통해 사용자의 HMD 카메라의 자세와 미러 월드의 카메라의 자세가 일치하게 되고, 사용자가 바라보는 시점과 미러 월드에서 시점이 동일하게 된다.This is because the scales between the reality and the mirror world must be precisely unified so as to enhance the three-dimensional information / contents to an accurate size. Through the matching, the posture of the user's HMD camera and the posture of the camera of the mirror world coincide with each other, The point of view is the same as the point of view in the mirror world.

116 과정에서는 상기 월드 좌표계로 통합된 3차원 좌표 공간에 위치하는 3D 객체를 표시한다.In step 116, a 3D object located in the three-dimensional coordinate space integrated in the world coordinate system is displayed.

이때, 상기 3D 객체는, 하기의 수학식 9를 통해 단말의 입력부에서 감지되는 사용자 입력수단의 모션 벡터

Figure 112013057494096-pat00017
의 크기가 t보다 작거나 존재하지 않는 경우, 상기 단말에 구비된 자이로 센서 정보
Figure 112013057494096-pat00018
가 함수
Figure 112013057494096-pat00019
에 의하여 변환된 3D 객체의 회전 정보
Figure 112013057494096-pat00020
에,
Figure 112013057494096-pat00021
의 크기가 t보다 클 때 수행되는 3D 객체의 이동 모션 벡터를 곱한 값을 이용하여 움직임이 인식된다.Here, the 3D object may include a motion vector of the user input means detected by the input unit of the terminal through Equation (9)
Figure 112013057494096-pat00017
When the size of the gyro sensor information is smaller than t or does not exist,
Figure 112013057494096-pat00018
Function
Figure 112013057494096-pat00019
The rotation information of the 3D object converted by the
Figure 112013057494096-pat00020
on,
Figure 112013057494096-pat00021
The motion is recognized by multiplying the motion vector of the 3D object performed when the size of the 3D object is larger than t.

[수학식 9]&Quot; (9) "

Figure 112015031199328-pat00022

(여기서,
Figure 112015031199328-pat00112
: 사용자 조작의 회전 정보,
Figure 112015031199328-pat00113
: 객체 조작의 회전 정보,
Figure 112015031199328-pat00114
: 객체 조작의 이동 정보)
Figure 112015031199328-pat00022

(here,
Figure 112015031199328-pat00112
: Rotation information of user operation,
Figure 112015031199328-pat00113
: Rotation information of object manipulation,
Figure 112015031199328-pat00114
: Movement information of object manipulation)

118 과정에서는 상기 위치하는 3D 객체에 대한 선택 여부를 체크하여, 상기 3D 객체에 대한 선택이 발생된 경우 120 과정으로 이동하여 기설정된 오브젝트별 운동범위 기반 하에 회전 및 깊이 정보를 인식하고, 이를 기반으로 122 과정에서는 해당 3D 객체를 제어한다.If the selection of the 3D object is made, the controller 120 proceeds to step 120 and recognizes the rotation and depth information based on the motion range of each object previously set. In step 122, the 3D object is controlled.

여기서, 상기 기설정된 오브젝트별 운동 범위는 미리 수집된 사용자의 오브젝트별 회전 범위 정보를 기반으로 오브젝트별 최대 조작범위 내에서, 조작하고자 하는 각도범위를 획득하고, 단말의 회전 정보와 3D 객체의 회전 정보의 최적 RoM 매핑을 결정하기 위해 하기의 수학식 (18)을 통해 매핑 함수를 정의하여 인식된다.Here, the predetermined motion range for each object is obtained by obtaining the angle range to be operated within the maximum operation range for each object based on the information about the rotation range for each object of the user collected in advance, Lt; RTI ID = 0.0 > (18) < / RTI >

또한, 상기 사용자 인터럽트는 디지로그 스페이스가 표시되는 디스플레이 상에 손가락, 스타일러스 펜(stylus pen) 등과 같은 사용자 입력 수단이 접촉하는 행위 혹은 장치 전체에 가해지는 회전 등과 같은 움직임을 의미하는 것으로, 본 발명에서는 사용자 인터럽트 발생 타입 예컨대, 특정 운동 범위로 움직이는 불편한 사용자, 오른쪽 또는 왼손잡이 사용자, 연령(어린이, 노인)들에 따라 차별화되어 발생되는 사용자 인터럽트를 인간의 운동 범위(RoM: Range of Motion)를 고려하여 조작의 성능과 사용성을 향상시킨다.In addition, the user interrupt refers to a movement such as a contact with a user input means such as a finger, a stylus pen, or the like on the display on which Digilog space is displayed, or a rotation applied to the entire device. User interrupts are generated by differentiating according to the type of interrupt occurrence, for example, an inconvenient user moving in a specific motion range, a right or left-handed user, and an age (child, elderly) To improve performance and usability.

더욱 상세하게는, 모바일 장치의 회전 조작과 관련하여, 만약 장치의 회전 정보와 3D객체의 회전 정보를 1 : 1로 매핑할 경우, 사용자가 최대 RoM을 초과하여 조작한다면 육체적인 어려움이 생기며 조작의 성능이 떨어질 수 있다. More specifically, regarding the rotation operation of the mobile device, if the rotation information of the device and the rotation information of the 3D object are mapped to 1: 1, if the user manipulates the robot beyond the maximum RoM, physical difficulties arise, Performance may be degraded.

따라서 non-1:1 매핑이 더 나은 성능을 보여줄 수 있을 것이나, 3D 객체의 회전 조작과 장치의 회전이 같지 않으므로 직관적으로 이해하기 어려울 수도 있다. 따라서 높은 성능을 보이면서도 인지적 부담을 최소로 하는, 최적의 RoM 매핑을 결정하는 것이 중요하다.Therefore, non-1: 1 mapping may show better performance, but it may be intuitively difficult to understand because the rotation operation of the 3D object is not the same as the rotation of the device. Therefore, it is important to determine the optimal RoM mapping that minimizes the cognitive burden while showing high performance.

이때, 도 4를 참조하면, 도 4는 손목의 RoM을 보인다. Tilt 회전에 대해서, 척골과 요골 편차의 RoM은 15 와 30 사이로 알려져 있다. 그리고 손목의 내전 운동과 외전 운동에 관련된 Roll 회전은 65와 60 사이이다. 그리고 손목 굴곡 신장 관련 Yaw 회전은 60와 45 사이로 알려져 있다.Referring now to FIG. 4, FIG. 4 shows the RoM of the wrist. For tilt rotation, the RoM of the ulnar and radial deviation is known to be between 15 and 30. Roll rotation related to adduction and abduction of the wrist is between 65 and 60 degrees. Yaw rotation related to wrist flexion is known to be between 60 and 45 degrees.

이때, 가장 단순한 회전 매핑 함수는 하기의 수학식 10과 같다.At this time, the simplest rotation mapping function is expressed by Equation (10).

[수학식 10]&Quot; (10) "

Figure 112013057494096-pat00023
Figure 112013057494096-pat00023

[수학식 11]&Quot; (11) "

Figure 112015031199328-pat00024

(여기서,
Figure 112015031199328-pat00115
: 증강현실 디스플레이공간에서 가상객체의 회전 각도,
Figure 112015031199328-pat00116
: 회전 각도 맵핑 함수,
Figure 112015031199328-pat00117
: 사용자가 조작하는 회전 각도, a: 함수의 특성 변화를 위해 임의로 설정될 수 있는 상수,
Figure 112015031199328-pat00118
: 손목의 운동 반경 강도,
Figure 112015031199328-pat00119
: 장치의 초기 회전 각도,
Figure 112015031199328-pat00120
,
Figure 112015031199328-pat00121
: 사용자가 장치를 손에 쥐고 회전할 때의 최소 및 최대 각도 범위,
Figure 112015031199328-pat00122
: 손목의 운동 반경 각도를 고려한 회전 매핑 결과)
Figure 112015031199328-pat00024

(here,
Figure 112015031199328-pat00115
: Rotation angle of a virtual object in augmented reality display space,
Figure 112015031199328-pat00116
: Rotation angle mapping function,
Figure 112015031199328-pat00117
: A rotation angle operated by the user, a: a constant that can be arbitrarily set for changing the characteristic of the function,
Figure 112015031199328-pat00118
: The strength of the exercise radius of the wrist,
Figure 112015031199328-pat00119
: Initial rotation angle of the device,
Figure 112015031199328-pat00120
,
Figure 112015031199328-pat00121
: The minimum and maximum angular range when the user holds the device in rotation,
Figure 112015031199328-pat00122
: Rotation mapping result considering the angle of motion radius of the wrist)

수학식 10에서

Figure 112013057494096-pat00025
는 사용자 조작공간 (Control Space)에서 모바일 장치의 회전각도이며
Figure 112013057494096-pat00026
는 증강현실 디스플레이공간 (Display Space)에서 가상객체의 회전각도이다. 회전각도
Figure 112013057494096-pat00027
는 회전 축 Tilt, Roll, Yaw 각각에 따라 독립적으로 적용된다. 그리고 a는 함수의 특성 변화를 위해 임의로 설정될 수 있는 상수이다. 이와 비슷하게 RoM을 고려할 경우, 수식 11처럼 매핑 함수를 정의할 수 있다. In Equation (10)
Figure 112013057494096-pat00025
Is the rotation angle of the mobile device in the user control space (Control Space)
Figure 112013057494096-pat00026
Is the rotation angle of the virtual object in the augmented reality display space. Rotation angle
Figure 112013057494096-pat00027
Is independently applied to each of the rotation axes Tilt, Roll, and Yaw. And a is a constant that can be arbitrarily set to change the characteristics of the function. Similarly, when RoM is considered, a mapping function can be defined as in Equation 11.

여기서

Figure 112013057494096-pat00028
은 문헌으로 보고된 손목의 운동 반경 각도이다. 그리고 회전축의 초기 각도와 개별 사용자의 개인화된 RoM을 고려할 경우, 하기의 수학식 12와 같이 매핑함수를 정의할 수 있다. 이를 위해서, 사전에 수집한 사용자의 손목 회전범위 정보를 기반으로 하여 손목의 최대 조작범위(정방향
Figure 112013057494096-pat00029
/역방향
Figure 112013057494096-pat00030
) 내에서, 조작하고자 하는 각도범위 알아내고 이를 수식에 적용한다. 즉. 사용자의 최대 손목 조작 각도 대비 사용자의 현재 입력 각도 비율을 이용하여, 사용자가 손목에 무리가 가지 않는 최대 손목 회전 조작 범위 내에서 가상객체의 360도 회전 각도를 쉽게 조작할 수 있도록 한다. here
Figure 112013057494096-pat00028
Is the radius of motion of the wrist reported in the literature. When considering the initial angle of the rotation axis and the personalized RoM of the individual user, a mapping function can be defined as shown in Equation (12) below. For this purpose, based on the previously collected wrist rotation range information, the maximum operation range of the wrist (forward direction
Figure 112013057494096-pat00029
/ Reverse direction
Figure 112013057494096-pat00030
), Find the angle range you want to manipulate and apply it to the formula. In other words. The user can easily manipulate the 360 degree rotation angle of the virtual object within the maximum wrist rotation operation range in which the user does not feel uncomfortable on the wrist by using the ratio of the user's current input angle with respect to the maximum wrist operation angle of the user.

[수학식 12]&Quot; (12) "

Figure 112015031199328-pat00031

(여기서,
Figure 112015031199328-pat00123
: 사용자 개개인의 손목 운동 반경을 고려한 회전 매핑 결과)
Figure 112015031199328-pat00031

(here,
Figure 112015031199328-pat00123
: Rotation mapping result considering the radius of wrist motion of each user)

계속해서, 상기 124 과정에서 증강현실 서비스 이용에 대응하는 실행 메뉴 탐색 여부를 체크하여 126 과정에서 복수 개의 계층적 메뉴 인터페이스를 표시한다.Next, in step 124, it is checked whether or not the execution menu corresponding to the augmented reality service use is checked. In step 126, a plurality of hierarchical menu interfaces are displayed.

상기 126 과정에서 증강현실 서비스 이용을 위한 실행 메뉴 탐색 시 복수 개의 계층적 메뉴 인터페이스가 표시되면, 128 과정에서 증강현실 서비를 제공하는 단말 내 움직임 센서로부터 센싱된 신호를 기준으로 기설정된 레벨별 대응되는 메뉴 선택이 가능한 복수 개의 계층적 메뉴 인터페이스를 상기 3차원 좌표 공간에 표시하여 메뉴 조작을 제공한다.In operation 126, when a plurality of hierarchical menu interfaces are displayed in searching for an execution menu for using an augmented reality service, in operation 128, A plurality of hierarchical menu interfaces capable of menu selection are displayed in the three-dimensional coordinate space to provide menu operation.

상기 메뉴 조작은, 단말 입력 장치의 회전 정보를 사용하여 파이(pie) 형태의 메뉴를 탐색하고, ARWand 스크린의 특정 부분 영역을 선택하여 메뉴 선택이 수행되도록 하기의 수학식 13형태의 모션 센서 값으로부터 ARWand의 수평을 기반으로 2차원 회전 방향을 획득하고, 하기의 수학식 14를 통해 해당 메뉴 단계에서 선택된 메뉴를 인식하도록 하여 수행된다. The menu operation may include searching for a menu in the form of a pie using the rotation information of the terminal input device, selecting a specific partial area of the ARWand screen, The direction of the two-dimensional rotation is obtained based on the horizontal of the ARWand, and the selected menu is recognized through the following Equation (14).

이는, 기존의 메뉴 선택 인터페이스는 주로 GUI 기반 트리 형식의 메뉴를 통해 아이템을 탐색하며, 메뉴를 선택하기 위해서는 정밀한 포인팅 요구하고 있으나, 사용자가 빈번하게 움직이는 웨어러블 증강현실 환경에서는 사용하기 용이치 않으므로, 본 발명의 일 실시 예에 따르면 웨어러블 증강현실 환경을 위한 모바일 입력 장치 기반 메뉴 선택을 위해 사용자가 이동 중에도 자유롭게 저작을 할 수 있도록, 모바일 입력 장치의 내부 센서 정보만을 이용하여 메뉴를 탐색하고 선택할 수 있도록 한다.This is because the conventional menu selection interface mainly searches for items through GUI-based tree-type menus and requires precise pointing in order to select a menu. However, since it is not suitable for use in a wearable augmented reality environment in which a user frequently moves, According to an embodiment of the present invention, a menu can be searched and selected using only the internal sensor information of the mobile input device so that the user can freely write while moving on the mobile input device based menu for the wearable augmented reality environment .

더욱 상세하게는, 도 5에 도시된 바와 같이, 모바일 입력 장치의 회전 정보를 사용하여 파이 (Pie) 스타일의 메뉴를 탐색하며, 선택은 ARWand 스크린의 특정 부분 영역 (버튼)을 눌러서 작동되도록 한다. 이를 위해서, 수식 13과 같이 모션 센서 값으로부터 ARWand 의 수평(pitch)을 기반으로 2차원 회전 방향(roll)을 알아내고, 수식 14를 통해 해당 메뉴 단계에서 몇 번째 메뉴를 선택하였는지 알 수 있도록 한다. 여기서, H는 스텝 함수이며, 여기서 deg는 0에서 360˚ 의 값이다. 그리고

Figure 112015031199328-pat00032
는 메뉴 레벨 i에서의 메뉴 아이템의 개수이며 항상 0보다 크다. 그리고 최소한 한 개의 메뉴 항목이 항상 선택 되도록 한다.More specifically, as shown in FIG. 5, the rotation information of the mobile input device is used to search for a menu of a Pie style, and selection is made to be activated by pressing a specific partial area (button) of the ARWand screen. To do this, the 2D rotation direction (roll) is determined based on the pitch of the ARWand from the motion sensor value as shown in Equation 13, and the number of the menu in the menu step is selected through Equation (14). Where H is the step function, where deg is a value from 0 to 360 degrees. And
Figure 112015031199328-pat00032
Is the number of menu items at menu level i and is always greater than zero. And at least one menu item is always selected.

[수학식 13]&Quot; (13) "

Figure 112013057494096-pat00033
Figure 112013057494096-pat00033

[수학식 14]&Quot; (14) "

Figure 112015031199328-pat00034

(여기서, H: 계단 함수(step function), Ni: 메뉴 레벨 i에서의 메뉴 아이템 개수)
Figure 112015031199328-pat00034

(Where H: step function, Ni: number of menu items at menu level i)

이상에서는, 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법에 관해 살펴보았다.In the foregoing, a method for providing an augmented reality service in a wearable augmented reality environment according to an embodiment of the present invention has been described.

이하, 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치에 관해 도 6을 참조하여 살펴보기로 한다.Hereinafter, an augmented reality service providing apparatus in a wearable augmented reality environment according to an embodiment of the present invention will be described with reference to Fig.

도 6은 본 발명의 일 실시 예에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치에 관한 상세 블록도이다.6 is a detailed block diagram of an augmented reality service providing apparatus in a wearable augmented reality environment according to an embodiment of the present invention.

도 6을 참조하면, 본 발명이 적용된 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치는, 촬영부(610), 사용자 인터페이스부(612), 제어부(614), 좌표 생성부(616), 메뉴 조정부(618)을 포함한다.6, in the wearable augmented reality environment in which the present invention is applied, the augmented reality service providing apparatus includes an imaging unit 610, a user interface unit 612, a control unit 614, a coordinate generating unit 616, 618).

상기 좌표 생성부(616)은 촬영부(610)를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Reference Coordinates)좌표계와 미러월드(mirror world)의 월드 좌표계를 생성한다.The coordinate generating unit 616 generates a local reference coordinate system and a mirror world coordinate system based on the three-dimensional image including the depth information obtained through the photographing unit 610 .

그리고 상기 좌표 생성부(616)은 좌표계의 3-DoF(Degree of Freedom) 회전을 설정하기 위한 사용자가 바라보는 평면에 대한 정보를 하기의 수학식 15를 이용하여 획득하고, 수학식 16의 해로부터 하기의 수학식 15를 통해 평면에 수직인 노멀 벡터를 계산하여 좌표축의 z축으로 설정하고, 상기 평면상의 임의의 서로 다른 두 점을 선택하여 좌표축의 x 축으로 설정하고, 상기 설정된 z축과 상기 x축의 외적을 통해 좌표축의 y축을 계산하여 상기 로컬 레퍼런스 좌표계를 생성한다.The coordinate generating unit 616 acquires information on a plane viewed by the user for setting a 3-DoF (Degree of Freedom) rotation of the coordinate system using Equation (15) below, Calculating a normal vector perpendicular to a plane through the following equation (15) and setting it as a z-axis of a coordinate axis, selecting two arbitrary two different points on the plane as an x-axis of a coordinate axis, and the y-axis of the coordinate axis is calculated through the external of the x-axis to generate the local reference coordinate system.

[수학식 15]&Quot; (15) "

Figure 112013057494096-pat00035
Figure 112013057494096-pat00035

[수학식 16]&Quot; (16) "

Figure 112013057494096-pat00036
Figure 112013057494096-pat00036

그리고 상기 좌표 생성부(616)는, 기준 좌표계의 위치를 결정하고 임의의 방향으로 설정된 회전축을 보정하기 위해서 수직 평면과 수평 평면이 접하는 접선을 이용하여 하기의 수학식 17을 이용하여 하기의 수학식 18을 유도하고, 하기의 수학식 19를 통해 두 평면 방정식의 합의 차이를 최소로 하는 점인

Figure 112013057494096-pat00037
을 구하여 접점으로 설정하고, 상기 설정된 좌표계의 수평축인 x축을 두 평면이 접하는 수평 벡터 로 설정하고, 상기 x축과 z축을 외적하여 레퍼런스 좌표축의 회전축을 보정한다.In order to determine the position of the reference coordinate system and correct the rotation axis set in an arbitrary direction, the coordinate generating unit 616 uses the tangent line in which the vertical plane and the horizontal plane are in contact with each other, 18, and the difference between the sum of the two plane equations is minimized through the following equation
Figure 112013057494096-pat00037
Is set as a contact point, and the x-axis, which is the horizontal axis of the set coordinate system, is set as a horizontal vector tangential to the two planes, and the rotation axis of the reference coordinate axis is corrected externally of the x-axis and the z-axis.

[수학식 17]&Quot; (17) "

Figure 112013057494096-pat00038
Figure 112013057494096-pat00038

[수학식 18]&Quot; (18) "

Figure 112013057494096-pat00039
Figure 112013057494096-pat00039

[수학식 19]&Quot; (19) "

Figure 112013057494096-pat00040
Figure 112013057494096-pat00040

또한, 상기 좌표 생성부(616)는, RGB 영상으로부터 계산한 좌표계의 임의의 스케일과 실제 공간의 스케일을 통일하기 위해서, 하기의 수학식 20을 이용하여 복원된 서로 다른 두 개의 3차원 점 사이의 거리를 계산하고, 3차원 영상의 깊이 정보를 통해 하기의 수학식 21과 같이 두 점 각각에 대해서 거리를 계산하고, 수학식 22와 같이 두 거리의 비율을 계산한다.In order to unify the scale of the arbitrary scale of the coordinate system calculated from the RGB image with the scale of the actual space, the coordinate generating unit 616 may calculate the coordinates of the coordinates of two different three-dimensional points restored using the following equation (20) The distance is calculated for each of the two points through the depth information of the 3D image, and the ratio of the two distances is calculated as shown in equation (22).

[수학식 20]&Quot; (20) "

Figure 112013057494096-pat00041
Figure 112013057494096-pat00041

[수학식 21]&Quot; (21) "

Figure 112013057494096-pat00042
Figure 112013057494096-pat00042

[수학식 22]&Quot; (22) "

Figure 112013057494096-pat00043
Figure 112013057494096-pat00043

상기 제어부(614)는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치에 관한 전반적인 동작을 제어한다.The controller 614 controls the overall operation of the augmented reality service providing apparatus in the wearable augmented reality environment.

또한, 상기 좌표 생성부(616)로부터 생성된 로컬 레퍼런스 좌표계와 월드 좌표계를 통합하고, 통합된 3차원 좌표 공간에서 사용자 인터페이스부(612)를 통해 선택된 3D 객체의 사용자 인터럽트 발생 타입별 회전 및 깊이 정보를 기설정된 오브젝트별 운동 범위(Range of Motion: RoM)기반 하에 인식하여 3D 객체를 제어한다.In addition, it is possible to integrate the local reference coordinate system and the world coordinate system generated from the coordinate generating unit 616, and calculate the rotation and depth information of the 3D object selected by the user interface unit 612 in the integrated three- Based on a predetermined range of motion (RoM), and controls the 3D object.

그리고 상기 제어부(614) 미리 수집된 사용자의 오브젝트별 회전 범위 정보를 기반으로 오브젝트별 최대 조작범위 내에서, 조작하고자 하는 각도범위를 획득하고, 단말의 회전 정보와 3D 객체의 회전 정보의 최적 RoM 매핑을 결정하기 위해 하기의 수학식을 통해 매핑 함수를 정의하여 상기 기설정된 오브젝트별 운동 범위를 인식한다.The control unit 614 acquires an angle range to be operated within the maximum operation range of each object based on the user-specific rotation range information collected by the user in advance, and obtains an optimal RoM mapping of the rotation information of the terminal and the rotation information of the 3D object The motion range for each object is recognized by defining a mapping function through the following equation.

Figure 112013057494096-pat00044
Figure 112013057494096-pat00044

상기 메뉴 조작부(618)은 제어부의 제어 하에 복수 개의 계층적 메뉴 인터페이스를 3차원 좌표 공간에 표시하여 메뉴 조작을 제공한다.The menu operation unit 618 displays a plurality of hierarchical menu interfaces in a three-dimensional coordinate space under the control of the control unit to provide a menu operation.

또한, 상기 메뉴 조작부(618)는, 단말 입력 장치의 회전 정보를 사용하여 파이(pie) 형태의 메뉴를 제공하고, 사용자 인터페이스부를 통해 ARWand 스크린의 특정 부분 영역이 선택되면 상기 제어부를 통해 하기의 수학식 형태의 모션 센서 값으로부터 ARWand의 수평을 기반으로 2차원 회전 방향을 획득하고, 하기의 수학식을 통해 해당 메뉴 단계에서 선택된 메뉴를 인식하여 메뉴 조작을 수행한다.In addition, the menu operation unit 618 provides a menu in the form of a pie using the rotation information of the terminal input device, and when a specific partial area of the ARWand screen is selected through the user interface unit, Dimensional direction based on the horizontal of the ARWand from the motion sensor value of the formula, and performs a menu operation by recognizing the menu selected at the corresponding menu level by the following equation.

Figure 112013057494096-pat00045
Figure 112013057494096-pat00045

Figure 112013057494096-pat00046
Figure 112013057494096-pat00046

상기와 같이 본 발명에 따른 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치에 관한 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나 여러 가지 변형이 본 발명의 범위를 벗어나지 않고 실시될 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 청구범위와 청구범위의 균등한 것에 의하여 정하여져야 할 것이다.Although the exemplary embodiments of the present invention have been described for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. Without departing from the scope of the present invention. Accordingly, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by equivalents of the claims and the claims.

610: 촬영부 612: 사용자 인터페이스부
614: 제어부 616: 좌표 생성부
618: 메뉴 조작부
[참고문헌]

Figure 112013057494096-pat00047
610: photographing section 612: user interface section
614: Controller 616: Coordinate generator
618:
[references]
Figure 112013057494096-pat00047

Claims (15)

카메라를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Reference Coordinates)를 생성하는 과정과,
생성된 상기 로컬 레퍼런스 좌표계와 실제 공간이 복제된 가상 공간인 미러 월드(mirror world)의 월드 좌표계를 통합하는 과정과,
상기 월드 좌표계로 통합된 3차원 좌표 공간에서 선택된 3D객체의 사용자 인터럽트 발생 타입별 회전 및 깊이 정보를 기설정된 오브젝트별 운동 범위(Range of Motion: RoM)기반 하에 인식하여 상기 선택된 3D객체를 제어하는 과정과,
증강현실 서비스 이용을 위한 실행 메뉴 탐색 시 상기 증강현실 서비스를 제공하는 단말 내 움직임 센서로부터 센싱된 신호를 기준으로 기설정된 레벨별 대응되는 메뉴 선택이 가능한 복수 개의 계층적 메뉴 인터페이스를 상기 3차원 좌표 공간에 표시하여 메뉴 조작을 제공하는 과정을 포함하고,
상기 메뉴 조작을 제공하는 과정은,
단말 입력 장치의 회전 정보를 사용하여 파이(pie) 형태의 메뉴를 탐색하고, ARWand 스크린의 특정 부분 영역을 선택하여 메뉴 선택이 수행되도록 하기의 수학식 31형태의 모션 센서 값으로부터 ARWand의 수평(pitch)을 기반으로 2차원 회전 방향(roll)을 획득하고, 하기의 수학식 32를 통해 해당 메뉴 단계에서 선택된 메뉴를 인식하도록 하여 수행됨을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
[수학식 31]
Figure 112015031199328-pat00124

[수학식 32]
Figure 112015031199328-pat00125

(여기서, H: 계단 함수(step function), Ni: 메뉴 레벨 i에서의 메뉴 아이템 개수)
Generating local reference coordinates based on a three-dimensional image including depth information obtained through a camera;
Integrating the generated local reference coordinate system and a world coordinate system of a mirror world, which is a virtual space in which an actual space is copied,
A step of controlling the selected 3D object by recognizing the rotation and depth information for each user interrupt occurrence type of the 3D object selected in the three-dimensional coordinate space integrated in the world coordinate system on the basis of a predetermined range of motion (RoM) and,
A plurality of hierarchical menu interfaces capable of selecting a menu corresponding to a predetermined level based on a signal sensed by an intra-terminal motion sensor providing the augmented reality service when searching for an execution menu for using the augmented reality service, And providing a menu operation,
The process of providing the menu operation may include:
A search of a menu in the form of a pie using the rotation information of the terminal input device, a selection of a specific partial area of the ARWand screen, and a menu selection are performed. From the motion sensor value in the form of equation (31) And acquiring a two-dimensional rotation direction on the basis of the selected menu and recognizing a menu selected in the menu step through the following Equation (32).
&Quot; (31) "
Figure 112015031199328-pat00124

(32)
Figure 112015031199328-pat00125

(Where H: step function, Ni: number of menu items at menu level i)
제1항에 있어서, 상기 3차원 영상은,
사전에 모델링되지 않은 실제 공간에 대해서 3D 기하학적 구조에 대한 HMD(Head Mounted Display) 카메라의 자세 정보가 계산되어 획득된 영상임을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
The method of claim 1, wherein the three-
Wherein the attitude information of the HMD (Head Mounted Display) camera is obtained by calculating the attitude information of the 3D geometrical structure with respect to the actual space not previously modeled.
제1항에 있어서,
상기 로컬 레퍼런스 좌표계를 생성하는 과정은,
좌표계의 3-DoF(Degree of Freedom) 회전을 설정하기 위한 사용자가 바라보는 평면에 대한 정보를 하기의 수학식 23을 이용하여 획득하는 제1 단계,
수학식 23의 해로부터 하기의 수학식 24를 통해 평면에 수직인 노멀 벡터를 계산하여 좌표축의 z축으로 설정하는 제2 단계,
상기 평면상의 임의의 서로 다른 두 점을 선택하여 좌표축의 x 축으로 설정하는 제3 단계와,
상기 제2 단계에서 설정된 z축과 상기 x축의 외적을 통해 좌표축의 y축을 계산하는 제4 단계를 통해 수행됨을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
[수학식 23]
Figure 112015031199328-pat00048

[수학식 24]
Figure 112015031199328-pat00049

Figure 112015031199328-pat00050

(여기서, Π: 평면, a, b, c, d: 평면을 구성하는 파라미터,
Figure 112015031199328-pat00126
,
Figure 112015031199328-pat00127
,
Figure 112015031199328-pat00128
: 3차원 공간상의 한 점의 좌표,
Figure 112015031199328-pat00129
,
Figure 112015031199328-pat00130
: 평면상의 임의의 서로 다른 두 점, N : 계산할 점들의 개수)
The method according to claim 1,
Wherein the generating the local reference coordinate system comprises:
A first step of obtaining information on a plane viewed by a user for setting a 3-DoF (Degree of Freedom) rotation of a coordinate system using Equation (23) below,
A second step of calculating the normal vector perpendicular to the plane from the solution of the equation (23) through the following equation (24) and setting the vector as the z axis of the coordinate axis,
A third step of selecting any two different points on the plane and setting the selected two points as the x axis of the coordinate axis;
And a fourth step of calculating a y-axis of a coordinate axis through an outer product of the z-axis and the x-axis set in the second step.
&Quot; (23) "
Figure 112015031199328-pat00048

&Quot; (24) "
Figure 112015031199328-pat00049

Figure 112015031199328-pat00050

(Where, Π: plane, a, b, c, d: parameters constituting the plane,
Figure 112015031199328-pat00126
,
Figure 112015031199328-pat00127
,
Figure 112015031199328-pat00128
: Coordinates of a point on a three-dimensional space,
Figure 112015031199328-pat00129
,
Figure 112015031199328-pat00130
: Two arbitrary points on the plane, N: number of points to be calculated)
제3항에 있어서,
상기 제4 단계 이후, 기준 좌표계의 위치를 결정하고 임의의 방향으로 설정된 회전축을 보정하기 위해서 수직 평면과 수평 평면이 접하는 접선을 이용하여 하기의 수학식 25를 이용하여 하기의 수학식 26을 유도하는 제5단계,
하기의 수학식 27을 통해 두 평면 방정식의 합의 차이를 최소로 하는 점인
Figure 112015031199328-pat00051
을 구하여 접점으로 설정하는 제6 단계와,
상기 제3 단계에서 설정된 좌표계의 수평축인 x축을 두 평면이 접하는 수평 벡터
Figure 112015031199328-pat00052
로 설정하는 제7 단계와,
상기 x축과 z축을 외적하여 레퍼런스 좌표축의 회전축을 보정하는 제8 단계를 더 포함함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
[수학식 25]
Figure 112015031199328-pat00053

[수학식 26]
Figure 112015031199328-pat00054

[수학식 27]
Figure 112015031199328-pat00055

Figure 112015031199328-pat00056

(여기서,
Figure 112015031199328-pat00131
,
Figure 112015031199328-pat00132
: 서로 다른 두 평면,
Figure 112015031199328-pat00133
: 사용자가 지정한 3차원 점, t: 직선의 파라미터,
Figure 112015031199328-pat00134
,
Figure 112015031199328-pat00135
: 서로 다른 두 평면의 법선벡터,
Figure 112015031199328-pat00136
: 임의의 3차원 점)
The method of claim 3,
After the fourth step, in order to determine the position of the reference coordinate system and correct the rotation axis set in an arbitrary direction, the following equation (26) is derived using the tangent line in which the vertical plane and the horizontal plane are in contact with each other using the following equation Step 5,
A point that minimizes a difference between the sum of two plane equations through the following equation (27)
Figure 112015031199328-pat00051
And setting the contact point as a contact point;
The x-axis, which is the horizontal axis of the coordinate system set in the third step,
Figure 112015031199328-pat00052
A step (e)
Further comprising an eighth step of correcting a rotation axis of a reference coordinate axis externally of the x-axis and the z-axis in the wearable augmented reality environment.
&Quot; (25) "
Figure 112015031199328-pat00053

&Quot; (26) "
Figure 112015031199328-pat00054

&Quot; (27) "
Figure 112015031199328-pat00055

Figure 112015031199328-pat00056

(here,
Figure 112015031199328-pat00131
,
Figure 112015031199328-pat00132
: Two different planes,
Figure 112015031199328-pat00133
: A user-specified three-dimensional point, t: a parameter of a straight line,
Figure 112015031199328-pat00134
,
Figure 112015031199328-pat00135
: Normal vector of two different planes,
Figure 112015031199328-pat00136
: Arbitrary three-dimensional point)
제4항에 있어서,
상기 제8 단계 이후, RGB 영상으로부터 계산한 좌표계의 임의의 스케일과 실제 공간의 스케일을 통일하기 위해서, 하기의 수학식 28을 이용하여 복원된 서로 다른 두 개의 3차원 점 사이의 거리를 계산하는 제9 단계,
3차원 영상의 깊이 정보를 통해 하기의 수학식 29와 같이 두 점 각각에 대해서 거리를 계산하는 제10 단계와,
하기의 수학식 30과 같이 두 거리의 비율을 구하는 제11 단계를 포함함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
[수학식 28]
Figure 112015031199328-pat00057

[수학식 29]
Figure 112015031199328-pat00058

[수학식 30]
Figure 112015031199328-pat00059

(여기서,
Figure 112015031199328-pat00137
,
Figure 112015031199328-pat00138
: 임의 스케일인 가상 공간에서, 임의의 두 점,
Figure 112015031199328-pat00139
,
Figure 112015031199328-pat00140
: 카메라 중심 위치를 기준으로 한, 점
Figure 112015031199328-pat00141
,
Figure 112015031199328-pat00142
에 대한 실측 거리, dimage: 임의의 스케일인 가상 공간에서, 두 점 사이의 거리)
5. The method of claim 4,
After the eighth step, in order to unify the scale of the arbitrary scale of the coordinate system calculated from the RGB image and the scale of the actual space, a method of calculating distances between two different three-dimensional points restored using the following equation Step 9,
A tenth step of calculating a distance for each of two points through the depth information of the three-dimensional image as shown in the following equation (29)
And calculating a ratio of two distances according to Equation (30). ≪ EMI ID = 30.0 >
&Quot; (28) "
Figure 112015031199328-pat00057

&Quot; (29) "
Figure 112015031199328-pat00058

&Quot; (30) "
Figure 112015031199328-pat00059

(here,
Figure 112015031199328-pat00137
,
Figure 112015031199328-pat00138
: In an arbitrary-scale virtual space, any two points,
Figure 112015031199328-pat00139
,
Figure 112015031199328-pat00140
: Point based on camera center position
Figure 112015031199328-pat00141
,
Figure 112015031199328-pat00142
The distance between two points in a virtual space of arbitrary scale)
제1항에 있어서,
상기 3D 객체는,
하기의 수학식을 통해 단말의 입력부에서 감지되는 사용자 입력수단의 모션 벡터
Figure 112015031199328-pat00060
의 크기가 t보다 작거나 존재하지 않는 경우, 상기 단말에 구비된 자이로 센서 정보
Figure 112015031199328-pat00061
가 함수
Figure 112015031199328-pat00062
에 의하여 변환된 3D 객체의 회전 정보
Figure 112015031199328-pat00143
에,
Figure 112015031199328-pat00063
의 크기가 t보다 클 때 수행되는 3D 객체의 이동 모션 벡터를 곱한 값을 이용하여 움직임이 인식됨을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
Figure 112015031199328-pat00064

(여기서,
Figure 112015031199328-pat00144
: 사용자 조작의 회전 정보,
Figure 112015031199328-pat00145
: 객체 조작의 회전 정보,
Figure 112015031199328-pat00146
: 객체 조작의 이동 정보)
The method according to claim 1,
Wherein the 3D object comprises:
The motion vector of the user input means detected by the input unit of the terminal
Figure 112015031199328-pat00060
When the size of the gyro sensor information is smaller than t or does not exist,
Figure 112015031199328-pat00061
Function
Figure 112015031199328-pat00062
The rotation information of the 3D object converted by the
Figure 112015031199328-pat00143
on,
Figure 112015031199328-pat00063
Wherein the motion is recognized using a value obtained by multiplying a moving motion vector of a 3D object performed when the size of the 3D object is larger than t.
Figure 112015031199328-pat00064

(here,
Figure 112015031199328-pat00144
: Rotation information of user operation,
Figure 112015031199328-pat00145
: Rotation information of object manipulation,
Figure 112015031199328-pat00146
: Movement information of object manipulation)
제1항에 있어서, 상기 기설정된 오브젝트별 운동 범위는,
미리 수집된 사용자의 오브젝트별 회전 범위 정보를 기반으로 오브젝트별 최대 조작범위 내에서, 조작하고자 하는 각도범위를 획득하고, 단말의 회전 정보와 3D 객체의 회전 정보의 최적 RoM 매핑을 결정하기 위해 하기의 수학식을 통해 매핑 함수를 정의하여 인식됨을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법.
Figure 112015031199328-pat00065

Figure 112015031199328-pat00066

Figure 112015031199328-pat00067

(여기서,
Figure 112015031199328-pat00147
: 증강현실 디스플레이공간에서 가상객체의 회전 각도,
Figure 112015031199328-pat00148
: 회전 각도 맵핑 함수,
Figure 112015031199328-pat00149
: 사용자가 조작하는 회전 각도, a: 함수의 특성 변화를 위해 임의로 설정될 수 있는 상수,
Figure 112015031199328-pat00150
: 손목의 운동 반경 강도,
Figure 112015031199328-pat00151
: 장치의 초기 회전 각도,
Figure 112015031199328-pat00152
,
Figure 112015031199328-pat00153
: 사용자가 장치를 손에 쥐고 회전할 때의 최소 및 최대 각도 범위,
Figure 112015031199328-pat00154
: 손목의 운동 반경 각도를 고려한 회전 매핑 결과,
Figure 112015031199328-pat00155
: 사용자 개개인의 손목 운동 반경을 고려한 회전 매핑 결과)
2. The method according to claim 1,
In order to obtain the angle range to be operated within the maximum operation range of each object based on the information on the rotation range of each object collected by the user in advance and to determine the optimum RoM mapping of the rotation information of the terminal and the rotation information of the 3D object, Wherein the mapping function is defined by a mathematical expression.
Figure 112015031199328-pat00065

Figure 112015031199328-pat00066

Figure 112015031199328-pat00067

(here,
Figure 112015031199328-pat00147
: Rotation angle of a virtual object in augmented reality display space,
Figure 112015031199328-pat00148
: Rotation angle mapping function,
Figure 112015031199328-pat00149
: A rotation angle operated by the user, a: a constant that can be arbitrarily set for changing the characteristic of the function,
Figure 112015031199328-pat00150
: The strength of the exercise radius of the wrist,
Figure 112015031199328-pat00151
: Initial rotation angle of the device,
Figure 112015031199328-pat00152
,
Figure 112015031199328-pat00153
: The minimum and maximum angular range when the user holds the device in rotation,
Figure 112015031199328-pat00154
: Rotational mapping considering the angle of motion of the wrist,
Figure 112015031199328-pat00155
: Rotation mapping result considering the radius of wrist motion of each user)
삭제delete 카메라를 통해 획득된 깊이 정보를 포함하는 3차원 영상을 기반으로 로컬 레퍼런스 좌표계(Local Reference Coordinates)좌표계와 미러월드(mirror world)의 월드 좌표계를 생성하는 좌표 생성부와,
상기 좌표 생성부로부터 생성된 로컬 레퍼런스 좌표계와 월드 좌표계를 통합하고, 통합된 3차원 좌표 공간에서 사용자 인터페이스부를 통해 선택된 3D 객체의 사용자 인터럽트 발생 타입별 회전 및 깊이 정보를 기설정된 오브젝트별 운동 범위(Range of Motion: RoM)기반 하에 인식하여 3D 객체를 제어하는 제어부와,
상기 제어부의 제어 하에 복수 개의 계층적 메뉴 인터페이스를 3차원 좌표 공간에 표시하여 메뉴 조작을 제공하는 메뉴 조작부를 포함하고,
상기 메뉴 조작부는,
단말 입력 장치의 회전 정보를 사용하여 파이(pie) 형태의 메뉴를 제공하고, 사용자 인터페이스부를 통해 ARWand 스크린의 특정 부분 영역이 선택되면 상기 제어부를 통해 하기의 수학식 (41) 형태의 모션 센서 값으로부터 ARWand의 수평(pitch)을 기반으로 2차원 회전 방향(roll)을 획득하고, 하기의 수학식 (42)을 통해 해당 메뉴 단계에서 선택된 메뉴를 인식하여 메뉴 조작을 수행함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치.
[수학식 41]
Figure 112015031199328-pat00156

[수학식 42]
Figure 112015031199328-pat00157

(여기서, H: 계단 함수(step function), Ni: 메뉴 레벨 i에서의 메뉴 아이템 개수)
A coordinate generating unit for generating a local reference coordinate system and a world coordinate system of a mirror world based on a three-dimensional image including depth information obtained through a camera,
And integrates the local reference coordinate system and the world coordinate system generated from the coordinate generating unit and integrates the rotation and depth information for each user interrupt occurrence type of the 3D object selected through the user interface unit in the integrated three dimensional coordinate space into a motion range of Motion: RoM) and controlling the 3D object,
And a menu operation unit for displaying a plurality of hierarchical menu interfaces in a three-dimensional coordinate space under the control of the control unit to provide a menu operation,
The menu operation unit,
A pie-shaped menu is provided using the rotation information of the terminal input device, and when a specific partial area of the ARWand screen is selected through the user interface unit, the motion sensor value of the form (41) And a menu operation is performed by acquiring a two-dimensional rotation direction based on the pitch of the ARWand and recognizing a menu selected in the menu step through the following equation (42) Augmented reality service providing device.
(41)
Figure 112015031199328-pat00156

(42)
Figure 112015031199328-pat00157

(Where H: step function, Ni: number of menu items at menu level i)
제9항에 있어서, 상기 복수 개의 계층적 메뉴 인터페이스는,
증강현실 서비스 이용을 위한 실행 메뉴 탐색 시 상기 증강현실 서비스를 제공하는 단말 내 움직임 센서로부터 센싱된 신호를 기준으로 기설정된 레벨별 대응되는 메뉴 선택이 가능한 메뉴 인터페이스임을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치.
The method of claim 9, wherein the plurality of hierarchical menu interfaces comprise:
Wherein the interface is a menu interface capable of selecting a menu corresponding to a preset level based on a signal sensed by an intra-terminal motion sensor providing the augmented reality service when searching for an execution menu for using the augmented reality service. A real service providing device.
제9항에 있어서, 상기 좌표 생성부는,
좌표계의 3-DoF(Degree of Freedom) 회전을 설정하기 위한 사용자가 바라보는 평면에 대한 정보를 하기의 수학식 33을 이용하여 획득하고, 수학식 33의 해로부터 하기의 수학식 34를 통해 평면에 수직인 노멀 벡터를 계산하여 좌표축의 z축으로 설정하고, 상기 평면상의 임의의 서로 다른 두 점을 선택하여 좌표축의 x 축으로 설정하고, 상기 설정된 z축과 상기 x축의 외적을 통해 좌표축의 y축을 계산하여 상기 로컬 레퍼런스 좌표계를 생성함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치.
[수학식 33]
Figure 112015031199328-pat00070

[수학식 34]
Figure 112015031199328-pat00071

Figure 112015031199328-pat00072

(여기서, Π: 평면, a, b, c, d: 평면을 구성하는 파라미터,
Figure 112015031199328-pat00158
,
Figure 112015031199328-pat00159
,
Figure 112015031199328-pat00160
: 3차원 공간상의 한 점의 좌표,
Figure 112015031199328-pat00161
,
Figure 112015031199328-pat00162
: 평면상의 임의의 서로 다른 두 점, N : 계산할 점들의 개수)
10. The apparatus according to claim 9,
Information about the plane viewed by the user for setting the 3-DoF (Degree of Freedom) rotation of the coordinate system is obtained using the following equation (33), and from the solution of equation (33) Calculating a vertical normal vector as a z-axis of the coordinate axis, selecting two arbitrary two different points on the plane to set as the x-axis of the coordinate axis, and determining the y-axis of the coordinate axis through the set z- And generates the local reference coordinate system by calculating the local reference coordinate system in the wearable augmented reality environment.
&Quot; (33) "
Figure 112015031199328-pat00070

&Quot; (34) "
Figure 112015031199328-pat00071

Figure 112015031199328-pat00072

(Where, Π: plane, a, b, c, d: parameters constituting the plane,
Figure 112015031199328-pat00158
,
Figure 112015031199328-pat00159
,
Figure 112015031199328-pat00160
: Coordinates of a point on a three-dimensional space,
Figure 112015031199328-pat00161
,
Figure 112015031199328-pat00162
: Two arbitrary points on the plane, N: number of points to be calculated)
제11항에 있어서, 상기 좌표 생성부는,
기준 좌표계의 위치를 결정하고 임의의 방향으로 설정된 회전축을 보정하기 위해서 수직 평면과 수평 평면이 접하는 접선을 이용하여 하기의 수학식 35를 이용하여 하기의 수학식 36을 유도하고, 하기의 수학식 37을 통해 두 평면 방정식의 합의 차이를 최소로 하는 점인
Figure 112015031199328-pat00073
을 구하여 접점으로 설정하고, 상기 설정된 좌표계의 수평축인 x축을 두 평면이 접하는 수평 벡터
Figure 112015031199328-pat00074
로 설정하고, 상기 x축과 z축을 외적하여 레퍼런스 좌표축의 회전축을 보정함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치.
[수학식 35]
Figure 112015031199328-pat00075

[수학식 36]
Figure 112015031199328-pat00076

[수학식 37]
Figure 112015031199328-pat00077

Figure 112015031199328-pat00078

(여기서,
Figure 112015031199328-pat00163
,
Figure 112015031199328-pat00164
: 서로 다른 두 평면,
Figure 112015031199328-pat00165
: 사용자가 지정한 3차원 점, t: 직선의 파라미터,
Figure 112015031199328-pat00166
,
Figure 112015031199328-pat00167
: 서로 다른 두 평면의 법선벡터,
Figure 112015031199328-pat00168
: 임의의 3차원 점)
12. The apparatus according to claim 11,
In order to determine the position of the reference coordinate system and correct the rotation axis set in an arbitrary direction, the following equation (36) is derived using the following equation (35) using the tangent line where the vertical plane and the horizontal plane are in contact with each other, To minimize the sum of the two plane equations
Figure 112015031199328-pat00073
And sets the x-axis, which is the horizontal axis of the set coordinate system, as a horizontal vector
Figure 112015031199328-pat00074
And corrects the rotation axis of the reference coordinate axis by externally crossing the x-axis and the z-axis in the wearable augmented reality environment.
&Quot; (35) "
Figure 112015031199328-pat00075

&Quot; (36) "
Figure 112015031199328-pat00076

&Quot; (37) "
Figure 112015031199328-pat00077

Figure 112015031199328-pat00078

(here,
Figure 112015031199328-pat00163
,
Figure 112015031199328-pat00164
: Two different planes,
Figure 112015031199328-pat00165
: A user-specified three-dimensional point, t: a parameter of a straight line,
Figure 112015031199328-pat00166
,
Figure 112015031199328-pat00167
: Normal vector of two different planes,
Figure 112015031199328-pat00168
: Arbitrary three-dimensional point)
제11항에 있어서, 상기 좌표 생성부는,
RGB 영상으로부터 계산한 좌표계의 임의의 스케일과 실제 공간의 스케일을 통일하기 위해서, 하기의 수학식 38을 이용하여 복원된 서로 다른 두 개의 3차원 점 사이의 거리를 계산하고, 3차원 영상의 깊이 정보를 통해 하기의 수학식 39과 같이 두 점 각각에 대해서 거리를 계산하고, 수학식 40과 같이 두 거리의 비율을 계산함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치.
[수학식 38]
Figure 112015031199328-pat00079

[수학식 39]
Figure 112015031199328-pat00080

[수학식 40]
Figure 112015031199328-pat00081

(여기서,
Figure 112015031199328-pat00169
,
Figure 112015031199328-pat00170
: 임의 스케일인 가상 공간에서, 임의의 두 점,
Figure 112015031199328-pat00171
,
Figure 112015031199328-pat00172
: 카메라 중심 위치를 기준으로 한, 점
Figure 112015031199328-pat00173
,
Figure 112015031199328-pat00174
에 대한 실측 거리, dimage:임의 스케일인 가상 공간에서, 두 점 사이의 거리)
12. The apparatus according to claim 11,
In order to unify the scale of the arbitrary scale of the coordinate system calculated from the RGB image and the scale of the actual space, the distance between two different three-dimensional points restored by using the following expression (38) The distance is calculated for each of the two points as shown in Equation 39 below, and the ratio of the two distances is calculated as shown in Equation (40).
&Quot; (38) "
Figure 112015031199328-pat00079

[Equation 39]
Figure 112015031199328-pat00080

[Equation 40]
Figure 112015031199328-pat00081

(here,
Figure 112015031199328-pat00169
,
Figure 112015031199328-pat00170
: In an arbitrary-scale virtual space, any two points,
Figure 112015031199328-pat00171
,
Figure 112015031199328-pat00172
: Point based on camera center position
Figure 112015031199328-pat00173
,
Figure 112015031199328-pat00174
The distance between two points in a virtual space of arbitrary scale)
제9항에 있어서, 상기 제어부는,
미리 수집된 사용자의 오브젝트별 회전 범위 정보를 기반으로 오브젝트별 최대 조작범위 내에서, 조작하고자 하는 각도범위를 획득하고, 단말의 회전 정보와 3D 객체의 회전 정보의 최적 RoM 매핑을 결정하기 위해 하기의 수학식을 통해 매핑 함수를 정의하여 상기 기설정된 오브젝트별 운동 범위를 인식함을 특징으로 하는 웨어러블 증강현실 환경에서 증강현실 서비스 제공 장치.

Figure 112015031199328-pat00082

Figure 112015031199328-pat00083

Figure 112015031199328-pat00084

(여기서,
Figure 112015031199328-pat00175
: 증강현실 디스플레이공간에서 가상객체의 회전 각도,
Figure 112015031199328-pat00176
: 회전 각도 맵핑 함수,
Figure 112015031199328-pat00177
: 사용자가 조작하는 회전 각도, a: 함수의 특성 변화를 위해 임의로 설정될 수 있는 상수,
Figure 112015031199328-pat00178
: 손목의 운동 반경 강도,
Figure 112015031199328-pat00179
: 장치의 초기 회전 각도,
Figure 112015031199328-pat00180
,
Figure 112015031199328-pat00181
: 사용자가 장치를 손에 쥐고 회전할 때의 최소 및 최대 각도 범위,
Figure 112015031199328-pat00182
: 손목의 운동 반경 각도를 고려한 회전 매핑 결과,
Figure 112015031199328-pat00183
: 사용자 개개인의 손목 운동 반경을 고려한 회전 매핑 결과)
10. The apparatus according to claim 9,
In order to obtain the angle range to be operated within the maximum operation range of each object based on the information on the rotation range of each object collected by the user in advance and to determine the optimum RoM mapping of the rotation information of the terminal and the rotation information of the 3D object, Wherein the mapping function is defined by a mathematical expression to recognize the predetermined motion range for each object in the wearable augmented reality environment.

Figure 112015031199328-pat00082

Figure 112015031199328-pat00083

Figure 112015031199328-pat00084

(here,
Figure 112015031199328-pat00175
: Rotation angle of a virtual object in augmented reality display space,
Figure 112015031199328-pat00176
: Rotation angle mapping function,
Figure 112015031199328-pat00177
: A rotation angle operated by the user, a: a constant that can be arbitrarily set for changing the characteristic of the function,
Figure 112015031199328-pat00178
: The strength of the exercise radius of the wrist,
Figure 112015031199328-pat00179
: Initial rotation angle of the device,
Figure 112015031199328-pat00180
,
Figure 112015031199328-pat00181
: The minimum and maximum angular range when the user holds the device in rotation,
Figure 112015031199328-pat00182
: Rotational mapping considering the angle of motion of the wrist,
Figure 112015031199328-pat00183
: Rotation mapping result considering the radius of wrist motion of each user)
삭제delete
KR1020130074065A 2012-06-26 2013-06-26 Method and apparatus for providing augmented reality service in wearable computing environment KR101546654B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120068607 2012-06-26
KR1020120068607 2012-06-26

Publications (2)

Publication Number Publication Date
KR20140001167A KR20140001167A (en) 2014-01-06
KR101546654B1 true KR101546654B1 (en) 2015-08-25

Family

ID=50138782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130074065A KR101546654B1 (en) 2012-06-26 2013-06-26 Method and apparatus for providing augmented reality service in wearable computing environment

Country Status (1)

Country Link
KR (1) KR101546654B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188643A (en) * 2019-05-21 2019-08-30 北京市商汤科技开发有限公司 A kind of information display method and device, storage medium
KR20220021076A (en) 2020-08-12 2022-02-22 태나다 주식회사 Method and Apparatus for synthesizing 3-dimensional virtual object to video data
US11887257B2 (en) 2020-11-18 2024-01-30 Electronics And Telecommunications Research Institute Method and apparatus for virtual training based on tangible interaction

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101525886B1 (en) * 2014-02-19 2015-06-24 서호원 Method of servicing map based on augmented reality and apparatus for the same
KR101638550B1 (en) 2014-06-25 2016-07-12 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method
US10304248B2 (en) 2014-06-26 2019-05-28 Korea Advanced Institute Of Science And Technology Apparatus and method for providing augmented reality interaction service
WO2015199502A1 (en) * 2014-06-26 2015-12-30 한국과학기술원 Apparatus and method for providing augmented reality interaction service
KR102194787B1 (en) 2014-09-24 2020-12-24 삼성전자주식회사 Apparatus and method for user based sensor data acquiring
KR102243656B1 (en) * 2014-09-26 2021-04-23 엘지전자 주식회사 Mobile device, head mounted display and system
KR102358548B1 (en) 2014-10-15 2022-02-04 삼성전자주식회사 Method and appratus for processing screen using device
US10416835B2 (en) * 2015-06-22 2019-09-17 Samsung Electronics Co., Ltd. Three-dimensional user interface for head-mountable display
WO2017007166A1 (en) * 2015-07-08 2017-01-12 고려대학교 산학협력단 Projected image generation method and device, and method for mapping image pixels and depth values
KR101835434B1 (en) * 2015-07-08 2018-03-09 고려대학교 산학협력단 Method and Apparatus for generating a protection image, Method for mapping between image pixel and depth value
EP3118723A1 (en) 2015-07-13 2017-01-18 Thomson Licensing Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace)
US9818228B2 (en) 2015-08-07 2017-11-14 Microsoft Technology Licensing, Llc Mixed reality social interaction
US9922463B2 (en) 2015-08-07 2018-03-20 Microsoft Technology Licensing, Llc Virtually visualizing energy
KR102335060B1 (en) * 2015-11-09 2021-12-03 에스케이텔레콤 주식회사 Method for providing agumented reality
KR101822471B1 (en) * 2016-05-26 2018-01-29 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method
JP6980802B2 (en) 2017-03-06 2021-12-15 Line株式会社 Methods, equipment and computer programs to provide augmented reality
CA3057180C (en) * 2017-03-22 2022-06-28 Huawei Technologies Co., Ltd. Method and apparatus for sending virtual reality image
CN109101120B (en) 2017-06-21 2021-09-28 腾讯科技(深圳)有限公司 Method and device for displaying image
KR101988110B1 (en) 2017-07-03 2019-09-30 포항공과대학교 산학협력단 Virtual Reality Education System and Method based on Bio Sensors
CN109460149B (en) * 2018-10-31 2022-10-11 北京百度网讯科技有限公司 System management tool, display method, VR device, and computer-readable medium
US11164383B2 (en) * 2019-08-30 2021-11-02 Lg Electronics Inc. AR device and method for controlling the same
KR102510496B1 (en) * 2021-11-16 2023-03-16 주식회사 시온네트웍 Method of creating augmented reality object

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
감각형 객체를 이용한 이음매 없는 2D/3D 상호작용 시스템, HCI학회(2007)
계층적 삼차원 증강현실 메뉴를 위한 홀센서 기반 스핀 큐브 인터페이스, HCI학회(2010)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110188643A (en) * 2019-05-21 2019-08-30 北京市商汤科技开发有限公司 A kind of information display method and device, storage medium
KR20220021076A (en) 2020-08-12 2022-02-22 태나다 주식회사 Method and Apparatus for synthesizing 3-dimensional virtual object to video data
US11887257B2 (en) 2020-11-18 2024-01-30 Electronics And Telecommunications Research Institute Method and apparatus for virtual training based on tangible interaction

Also Published As

Publication number Publication date
KR20140001167A (en) 2014-01-06

Similar Documents

Publication Publication Date Title
KR101546654B1 (en) Method and apparatus for providing augmented reality service in wearable computing environment
US11461955B2 (en) Holographic palm raycasting for targeting virtual objects
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US20220084279A1 (en) Methods for manipulating objects in an environment
US20220326781A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
CN110603509B (en) Joint of direct and indirect interactions in a computer-mediated reality environment
Arth et al. The history of mobile augmented reality
CN115443445A (en) Hand gesture input for wearable systems
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
WO2017136125A2 (en) Object motion tracking with remote device
KR101833253B1 (en) Object manipulation method in augmented reality environment and Apparatus for augmented reality implementing the same
CN110603510B (en) Position and orientation tracking of virtual controllers in a virtual reality system
TW201346640A (en) Image processing device, and computer program product
US20200372716A1 (en) Information processing apparatus, information processing method, and program
Özacar et al. 3D selection techniques for mobile augmented reality head-mounted displays
US20240028129A1 (en) Systems for detecting in-air and surface gestures available for use in an artificial-reality environment using sensors at a wrist-wearable device, and methods of use thereof
KR101638550B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
Bai et al. Asymmetric Bimanual Interaction for Mobile Virtual Reality.
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
US20240019938A1 (en) Systems for detecting gestures performed within activation-threshold distances of artificial-reality objects to cause operations at physical electronic devices, and methods of use thereof
US20230367403A1 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
WO2022166448A1 (en) Devices, methods, systems, and media for selecting virtual objects for extended reality interaction
Arslan et al. E-Pad: Large display pointing in a continuous interaction space around a mobile device
Bai Mobile augmented reality: Free-hand gesture-based interaction
JP7513262B2 (en) Terminal device, virtual object operation method, and virtual object operation program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180725

Year of fee payment: 4