KR20190059726A - Method for processing interaction between object and user of virtual reality environment - Google Patents

Method for processing interaction between object and user of virtual reality environment Download PDF

Info

Publication number
KR20190059726A
KR20190059726A KR1020170157620A KR20170157620A KR20190059726A KR 20190059726 A KR20190059726 A KR 20190059726A KR 1020170157620 A KR1020170157620 A KR 1020170157620A KR 20170157620 A KR20170157620 A KR 20170157620A KR 20190059726 A KR20190059726 A KR 20190059726A
Authority
KR
South Korea
Prior art keywords
virtual
motion
hand
finger
user
Prior art date
Application number
KR1020170157620A
Other languages
Korean (ko)
Other versions
KR102021851B1 (en
Inventor
박진홍
곽승호
이원
지은별
Original Assignee
한길씨앤씨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한길씨앤씨 주식회사 filed Critical 한길씨앤씨 주식회사
Priority to KR1020170157620A priority Critical patent/KR102021851B1/en
Publication of KR20190059726A publication Critical patent/KR20190059726A/en
Application granted granted Critical
Publication of KR102021851B1 publication Critical patent/KR102021851B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

The present invention relates to a method for processing interaction between a user and an object in virtual reality environment. The method comprises the steps of: synchronizing; detecting surrounding environment; processing interaction; and controlling motion. Therefore, the method may be applied to one or more HMD devices, thereby improving the interworkability, scalability, and flexibility.

Description

가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법{METHOD FOR PROCESSING INTERACTION BETWEEN OBJECT AND USER OF VIRTUAL REALITY ENVIRONMENT} METHOD FOR PROCESSING INTERACTION BETWEEN OBJECT AND USER OF VIRTUAL REALITY ENVIRONMENT In a virtual reality environment,

본 발명은 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법에 관한 것으로, 보다 상세하게는 손 전체가 아닌 각 손가락 관절의 마디 단위로 스크립트 제어하고, 각 손가락 관절을 마디 단위로 독립 제어하여 핑거 모션을 실행함으로써 우수한 현실감과 정밀한 움직임 표현이 가능한 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법에 관한 것이다.More particularly, the present invention relates to a method and apparatus for controlling interaction between a user and an object in a virtual reality environment, and more particularly, The present invention relates to a method for processing an interaction between a user and an object in a virtual reality environment capable of realizing excellent realism and precise motion representation by executing motion.

최근 그래픽 효과가 뛰어난 다양한 게임이 출시되어 게이머들의 많은 관심을 받고 있다. 이러한 게임들은 현실과 유사한 그래픽 및 사운드 효과를 포함하는 우수한 컨텐츠로 높은 현실감을 느낄 수 있다는 평가를 받고 있다. 하지만, 키보드와 마우스만으로 게임을 컨트롤하는 현실적인 한계로 인해 게임 참여시 몰입감이 낮다는 단점이 있다. 이러한 게임의 몰입감을 개선하기 위하여 사용자가 실제 동작을 취하는 것으로 캐릭터를 조작하는 가상현실 게임이 출시되고 있다.Recently, a variety of games with outstanding graphics effects have been released, attracting a lot of attention from gamers. These games are evaluated to be highly realistic with excellent contents including realistic graphics and sound effects. However, there is a disadvantage in that it is less immersive when participating in the game due to the practical limitations of controlling the game with only a keyboard and a mouse. In order to improve the immersion feeling of such a game, a virtual reality game in which a user operates a character by taking an actual action is being released.

가상현실은 실제와 유사하지만 실제가 아닌 사이버 공간 환경을 의미한다. 현재 가상현실 기술은 HMD(HEAD MOUNT DISPLAY) 등 기존의 인터페이스 장치들을 활용하여 몰입형 가상현실을 제한적으로 구현하는 방향으로 개발되고 있다. 즉, 기존의 디스플레이(모니터, TV, HMD 등), 스피커, 키보드, 마우스 등의 일반적인 인터페이스 장치들을 활용하는 방향성을 추구하고 있다. 가상현실 구현에 필요한 요소는 3차원 공간성, 실시간 상호작용 및 몰입성이다. 각 요소의 구현을 위하여 컴퓨터 그래픽 기술, 네트워크 통신 기술, 그리고 HMD 등 오감을 자극하는 다수의 입출력 장치 개발 기술이 발전되고 있다.Virtual reality means a cyberspace environment that is similar to reality but is not real. Currently, virtual reality technology is being developed in order to restrictively implement immersive virtual reality using existing interface devices such as HMD (HEAD MOUNT DISPLAY). That is, it is pursuing a direction that utilizes general interface devices such as a conventional display (monitor, TV, HMD, etc.), a speaker, a keyboard, and a mouse. The elements necessary for realizing virtual reality are three-dimensional spatiality, real-time interaction, and immersion. For the implementation of each element, computer graphics technology, network communication technology, and HMD have been developed to develop a large number of input / output device stimulating the five senses.

특히, 가상현실을 위한 입력기기는 기존에 사용되던 물리 인터페이스인 키보드, 마우스와 달리, 사용자의 신체활동을 직접 인식할 수 있는 기기들이 사용된다. 모션 캡쳐는 3D 모션 기법의 하나인 모션 캡쳐 기술을 그대로 적용한 입력기기이다. 모션 캡쳐 입력 기기 중 모션 캡쳐 카메라는 본래 다양한 형태의 마커를 전신에 부착해야 정상적인 모션 인식이 가능했으나, 기술의 발전으로 인해 마커 없이 모션 인식이 가능한 기기들이 개발되기 시작되었다. 현재 모션 캡쳐 카메라는 키넥트, 옵티 트랙 등 다양한 모션 캡쳐 기기 상용화 되어 있다.Particularly, input devices for virtual reality are devices that can directly recognize the user's physical activity, unlike keyboards and mice, which are physical interfaces used in the past. Motion capture is an input device that applies motion capture technology, which is one of 3D motion techniques. The motion capture camera of the motion capture input device originally required various types of markers to be attached to the whole body so that normal motion recognition was possible. However, due to the development of technology, devices capable of motion recognition without markers have begun to be developed. Currently, motion capture cameras are commercially available in a variety of motion capture devices such as Kinect and OptiTrack.

하지만, 가상현실 환경에서의 게임은 대부분 아직까지 단순한 제스처 및 동작만을 이용하는 수준이며, 사용자의 신체를 머리, 손, 다리 등으로 실시간 감지하거나, 센서가 장착된 글러브 등을 착용한 상태로 사용자 손의 움직임을 인식하기도 한다. 이 경우에, 손가락의 움직임에 상관없이 손 단위로 실시간 감지하여 손의 움직임을 애니메이션으로 처리하거나 복합적인 움직임을 애니메이션 사이의 블렌딩 이펙트로 처리하여 가상현실 환경에 반영하기 때문에 손가락의 모양이나 손가락의 움직임에 대한 정밀하고 자연스러운 표현이 불가능하다는 문제점이 있다. However, most of the games in the virtual reality environment still use only simple gestures and actions, and the user's body is sensed in real time by the head, hands, and legs, or the user wears the gloves equipped with the sensors, It also recognizes movement. In this case, hand motion is animated by hand in units of hands regardless of finger movement, or compound movements are processed into blending effects between animations and reflected in the virtual reality environment, There is a problem that it is impossible to express precisely and smoothly.

또한, HMD 및 HMD와 연동되는 컨트롤러를 사용하여 가상현실 환경을 구현할 경우에, HMD를 통해 디스플레이되고 있는 가상현실의 영상에 사용자 모션이나 시선 처리에 대한 영상을 실시간 반영하여 출력하도록 영상 정보 처리 및 아이 디스플레이 작동을 위한 별도의 처리 과정이 필요하고, HMD와 컨트롤러 간의 호환성 등의 문제로 인해 HMD마다 지정된 컨트롤러만을 사용해야 하므로 가상현실을 다양하게 즐기고 싶은 사용자는 가상현실을 구현하기 위한 시나리오, 장비 등의 선택 폭이 좁아지는 문제점이 있다. In addition, when a virtual reality environment is implemented using a controller that is linked to the HMD and the HMD, the image processing and the image processing are performed so that the image of the user's motion or gaze processing is reflected in real time on the image of the virtual reality being displayed through the HMD, It is necessary to use only the controller that is assigned to each HMD due to the problem of compatibility between the HMD and the controller, so that a user who wishes to enjoy various virtual reality can select scenarios and devices for realizing virtual reality There is a problem that the width becomes narrow.

한국등록특허 제10-1779569호 " 가상현실 기기 연동 입력장치 "Korean Registered Patent No. 10-1779569 " Virtual Input Device Interlocking Input Device " 한국공개특허 제10-2017-0120299호 " 립모션을 이용한 실감형 콘텐츠 서비스 시스템 "Korean Patent Laid-Open No. 10-2017-0120299 " Realistic Content Service System Using Lip Motion "

본 발명은 핸드 컨트롤러의 트리거 버튼을 이용하여 가상현실 환경에서의 각 가상 객체에 맞는 손의 모션이 화면상에 구현되도록 손 전체가 아닌 각 손가락 관절의 마디 단위로 스크립트 제어하고, 각 손가락 관절을 마디 단위로 독립 제어하여 핑거 모션을 실행함으로써 우수한 현실감과 정밀한 옴직임 표현이 가능한 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법을 제공한다. The present invention uses a trigger button of a hand controller to perform a script control in units of each finger rather than a hand as a whole so that motion of a hand corresponding to each virtual object in a virtual reality environment is realized on the screen, The present invention provides a method for processing interaction between a user and an object in a virtual reality environment capable of providing excellent realism and precise representation of an ohm job by performing finger motion independently by controlling the unit.

실시예들 중에서, 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법은, HMD(Head Mounted Device)와 핸드 컨트롤러(Hand-Controller)를 이용하여 가상현실 환경에서 실시간 사용자 모션을 제어하는 가상현실 제어 알고리즘을 포함하는 영상 제어 단말을 통해 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법에 있어서, 사용자 모션 캡쳐를 통해 읽어낸 사용자의 손을 가상 현실 환경 상에서 가상 핸드를 통해 구현되도록 핸드 컨트롤러와 상기 가상 핸드 간에 동기화를 수행하는 동기화 수행 단계; 상기 가상현실 환경에서 복수의 가상 객체와 가상 핸드의 모션 타입을 표현하기 위한 메타데이터를 자동 처리하여 활성화시키는 주변환경 탐지 단계; 상기 메타데이터를 근거로 하여 각 가상 객체의 타입, 크기, 무게, 위치값을 포함한 가상 객체의 특성을 확인하고, 상기 가상 객체의 특성별로 상기 가상 핸드의 모션 타입을 처리하여 상기 가상 객체와 실시간 상호 작용하도록 하는 상호작용 처리 단계; 및 상기 가상 핸드와 상기 가상 객체의 접촉이 감지되면 상기 가상 핸드를 마디 단위로 세분화하여 핑거모션을 탐지한 후 상기 탐지된 핑거모션에 따라 마디 단위로 손가락을 제어하여 상기 가상 핸드의 모션을 실행하는 모션 제어 단계를 포함하는 것을 특징으로 한다.Among the embodiments, a method for processing an interaction between a user and an object in a virtual reality environment includes a virtual reality control (hereinafter, referred to as " virtual reality control ") that controls a real-time user motion in a virtual reality environment using an HMD (Head Mounted Device) and a hand controller A method for processing an interaction between a user and an object in a virtual reality environment through an image control terminal including an algorithm, the method comprising the steps of: A synchronization performing step of performing synchronization between virtual hands; A surrounding environment detecting step of automatically processing and activating metadata for expressing motion types of a plurality of virtual objects and virtual hands in the virtual reality environment; The method comprising the steps of: confirming a characteristic of a virtual object including a type, a size, a weight, and a position value of each virtual object based on the metadata, processing the motion type of the virtual hand according to characteristics of the virtual object, An interaction processing step for causing the computer to function; And detecting the finger motion by subdividing the virtual hand into units of a finger when the contact between the virtual hand and the virtual object is sensed and then controlling the finger in units of a finger according to the detected finger motion to execute the motion of the virtual hand And a motion control step.

이때, 상기 핸드 컨트롤러는 사용자 손과 가상 핸드가 연동되도록 하는 트리거 버튼을 포함하는 것을 특징으로 한다. In this case, the hand controller includes a trigger button for interlocking the user's hand with the virtual hand.

상기 상호작용 처리 단계는, 상기 메타데이터에 근거하여 상기 가상 객체의 타입을 확인하는 단계; 상기 가상 객체의 타입이 도구인 경우에 상기 가상 핸드를 기준으로 해당 도구의 기설정된 위치값을 확인하여 가상 핸드의 툴 모션(tool motion)이 진행되도록 하는 단계; 상기 가상 객체의 타입이 도구가 아닌 일반 물체인 경우에 해당 물체의 크기와 무게를 확인하고, 상기 물체의 크기와 무게가 기설정된 크기와 무게 이상인 경우에 스냅/그랩 모션(snap/grab motion)이 진행되도록 하는 단계; 및 상기 가상 객체의 타입이 도구가 아닌 일반 물체인 경우에 상기 물체의 크기와 무게가 기설정된 크기와 무게 이하인 경우에 픽 모션(pick motion)이 진행되도록 하는 단계를 포함하는 것을 특징으로 한다. Wherein the interaction processing step comprises: checking the type of the virtual object based on the metadata; If the type of the virtual object is a tool, confirming a predetermined position value of the virtual hand based on the virtual hand and proceeding with a tool motion of the virtual hand; If the type of the virtual object is a general object rather than a tool, the size and weight of the object are checked. If the size and the weight of the object are equal to or greater than a predetermined size and weight, a snap / grab motion ; And a pick motion is performed when the size and the weight of the object are equal to or less than a predetermined size and weight when the type of the virtual object is a general object rather than a tool.

상기 모션 제어 단계는, 상기 가상 객체와 상기 가상 핸드가 접촉되는 접촉시점이 감지되면, 상기 접촉 시점에서 각 가상 객체에 맞는 상기 가상 핸드의 핑거 모션을 손가락 관절의 마디 단위로 처리하는 모션 타입 실행 명령을 출력하는 핑거 모션 탐지 단계; 및 상기 모션 타입 실행 명령에 따라 상기 접촉 시점 이후에 해당 가상 객체와 가상 핸드가 상호 작용하도록 각 손가락 관절을 마디 단위로 움직이도록 핑거 모션을 실행하는 핑거 모션 제어 단계를 포함하는 것을 특징으로 한다. Wherein the motion control step includes a motion type execution command for processing a finger motion of the virtual hand corresponding to each virtual object at the contact point in units of a finger joint when a contact point of contact between the virtual object and the virtual hand is sensed, A finger motion detection step of outputting a finger motion; And a finger motion control step of performing finger motion so as to move each finger joint in units of a unit so that the virtual object and the virtual hand interact with each other after the point of contact according to the motion type execution command.

상기 핑거 모션 탐지 단계는, 상기 가상 핸드의 손가락 관절을 말단 관절, 보조 관절 및 주 관절의 마디 단위로 구분하고, 상기 가상 객체에 접촉하는 접촉 시점에 말단 관절, 보조 관절 및 주 관절의 탐지 순서로 핑거 모션을 탐지하는 것을 특징으로 한다. Wherein the finger motion detection step divides the finger joint of the virtual hand into units of a distal joint, an auxiliary joint, and a main joint, and detects a finger joint of the virtual joint in a sequence of detection of a distal joint, an auxiliary joint, And detecting the finger motion.

상기 핑거 모션 제어 단계는, 상기 가상 핸드의 손가락을 말단 관절, 보조 관절 및 주 관절의 마디 단위로 구분하고, 기본 핑거 모션 또는 상기 가상 객체에 맞는 모션 제어시 상기 주 관절, 보조 관절 및 말단 관절의 제어 순서로 스크립트 제어하는 것을 특징으로 한다.Wherein the finger motion control step divides the fingers of the virtual hand into unit segments of a distal joint, an auxiliary joint, and a main joint, and controls the motion of the main joint, the auxiliary joint, and the distal joint And script control is performed in a control sequence.

본 발명의 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법은, 손 전체가 아닌 각 손가락 관절의 마디 단위로 스크립트 제어하고, 각 손가락 관절을 마디 단위로 독립 제어하여 핑거 모션을 실행함으로써 우수한 현실감과 정밀한 옴직임 표현이 가능한 효과가 있다. A method for processing an interaction between a user and an object in a virtual reality environment of the present invention includes script control in units of units of each finger rather than whole hands and independent motion control of each finger joint in units of a finger to perform finger motion, And precise omnipotent representation can be effective.

또한, 본 발명은 별도의 장비 추가 없이 상용화된 HMD로 기술 구현이 가능하고, 이로 인해 영상 정보 처리 및 아이 디스플레이를 작동하기 위한 별도의 처리 과정이 필요 없어 효율적일 뿐만 아니라, 1개 이상의 HMD 디바이스에 적용될 수 있어 연동성, 확장성 및 유연성이 향상될 수 있는 효과가 있다.In addition, the present invention can be implemented with a commercially available HMD without any additional equipment, and therefore, it is not only efficient but also applicable to one or more HMD devices So that interworkability, expandability and flexibility can be improved.

도 1은 본 발명의 일 실시예에 따른 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 시스템을 설명하는 도면이다.
도 2는 본 발명의 일 실시예에 따른 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법을 설명하는 순서도이다.
도 3은 본 발명의 일 실시예에 따른 핸드 컨트롤러를 이용한 가상핸드의 모션 구현 상태를 설명하는 도면이다.
도 4는 도 2의 상호 작용 처리 알고리즘의 동작을 설명하는 순서도이다.
도 5는 도 4의 상호 작용 알고리즘의 동작에 따라 가상 객체와 가상핸드의 핑거 모션 구현 상태를 설명하는 도면이다.
도 6은 도 2의 모션 제어 알고리즘의 핑거 모션 탐지 과정을 설명하는 도면이다.
도 7은 도 2의 모션 제어 알고리즘의 핑거 모션 제어 과정을 설명하는 도면이다.
도 8은 도 6 및 도 7의 핑거 모션 탐지 과정과 핑거 모션 제어 과정이 유기적으로 연동되는 모션 제어 알고리즘의 동작을 설명하는 도면이다.
1 is a view for explaining a system for processing an interaction between a user and an object in a virtual reality environment according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a method for interacting between a user and an object in a virtual reality environment according to an exemplary embodiment of the present invention. Referring to FIG.
3 is a diagram illustrating a motion implementation state of a virtual hand using a hand controller according to an embodiment of the present invention.
4 is a flowchart illustrating the operation of the interaction processing algorithm of FIG.
5 is a view for explaining a finger motion implementation state of a virtual object and a virtual hand according to the operation of the interaction algorithm of FIG.
FIG. 6 is a view for explaining a finger motion detection process of the motion control algorithm of FIG. 2. FIG.
7 is a view for explaining a finger motion control process of the motion control algorithm of FIG.
FIG. 8 is a view for explaining the operation of the motion control algorithm in which the finger motion detection process and the finger motion control process of FIGS. 6 and 7 are interlocked with each other.

본 발명에 기재된 실시예 및 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 표현하는 것은 아니므로, 본 발명의 권리범위는 본문에 설명된 실시예 및 도면에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The scope of the present invention is not limited to the embodiments and drawings described in the present specification, and the scope of the present invention is not limited to these embodiments. Should not be construed as limited by That is, the embodiments are to be construed as being variously embodied and having various forms, so that the scope of the present invention should be understood to include equivalents capable of realizing technical ideas. Also, the purpose or effect of the present invention should not be construed as limiting the scope of the present invention, since it does not mean that a specific embodiment should include all or only such effect.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used predefined terms should be interpreted to be consistent with the meanings in the context of the relevant art and can not be construed as having ideal or overly formal meanings which are not expressly defined in the present invention.

도 1은 본 발명의 일 실시예에 따른 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 시스템을 설명하는 도면이다.1 is a view for explaining a system for processing an interaction between a user and an object in a virtual reality environment according to an embodiment of the present invention.

도 1을 참고하면, 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 시스템은, HMD(Head Mounted Device)(100), 핸드 컨트롤러(Hand-Controller)(200) 및 영상 제어 단말(300)을 포함한다. 1, a system for processing interaction between a user and an object in a virtual reality environment includes an HMD (Head Mounted Device) 100, a hand controller 200, and a video control terminal 300 do.

HMD(100)는 카메라(110), 디스플레이(120), 모션 감지부(130), 영상 처리부(140), 통신부(150) 및 제어부(160)를 포함하지만 이에 한정되지 않고, 전원장치, 메모리, LED 등의 구성요소들을 더 포함할 수 있다. The HMD 100 includes a camera 110, a display 120, a motion sensing unit 130, an image processing unit 140, a communication unit 150, and a control unit 160, LED, and the like.

카메라(110)는 전면에 부착되어 외부 환경 및 사용자 모션을 촬영하고, 모션 감지부(120)는 사용자의 움직임을 감지하며, 영상 처리부(130)는 카메라(110)를 통해 촬영되는 외부 환경에 대한 촬영 영상을 디스플레이(120) 상에 실시간으로 표시한다. 경우에 따라서, 모션 감지부(120)는 HMD(100)에 내장되거나 HMD(100)와 일정 거리 이상 이격된 위치에 배치되어 HMD(100)와 상호 통신을 통해 사용자의 움직임에 대한 모션 감지 데이터를 처리할 수 있다. The camera 110 is attached to the front face to photograph an external environment and user's motion. The motion sensing unit 120 senses the motion of the user. The image processing unit 130 acquires an image of the external environment And displays the photographed image on the display 120 in real time. The motion sensing unit 120 may be embedded in the HMD 100 or may be disposed at a position spaced apart from the HMD 100 by a predetermined distance to communicate motion detection data on the movement of the user through the mutual communication with the HMD 100 Can be processed.

통신부(150)는 핸드 컨트롤러(200)와 무선 통신하고, 제어부(160)는 통신부(150)를 통해 전송되는 사용자의 조작 명령에 따라 HMD(100)에 사용자의 움직임을 반영한 가상현실 영상이 표시되도록 한다. The communication unit 150 wirelessly communicates with the hand controller 200 and the controller 160 controls the HMD 100 to display a virtual reality image reflecting movement of the user in accordance with a user's operation command transmitted through the communication unit 150 do.

핸드 컨트롤러(200)는 통신부(210), 조작부(220) 및 제어부(230)를 포함하지만 이에 한정되지 않고, 전원 장치, 메모리, LED, 진동 모터 등의 구성요소들을 더 포함할 수 있다.The hand controller 200 may further include components such as a power supply, a memory, an LED, a vibration motor, and the like, including but not limited to a communication unit 210, an operation unit 220, and a control unit 230.

통신부(210)는 HMD(100)와 통신하면서 사용자의 조작 명령을 전송하고, 조작부(220)는 다수의 버튼이나 센서들을 이용하여 사용자 움직임에 대한 조작 명령을 입력하며, 제어부(230)는 통신부(210)와 조작부(220)의 동작을 제어하여 사용자의 조작 명령을 HMD(100)에 전달하면서 각 구성요소의 동작 상태를 확인하여 LED 등에 표시되도록 한다. 이때, 조작부(220)는 가상 객체에 부합되는 가상핸드의 모션이 가상현실 환경에 구현되도록 하는 트리거 버튼(221)을 포함할 수 있다. The communication unit 210 transmits a user's operation command while communicating with the HMD 100. The operation unit 220 inputs an operation command for user's movement using a plurality of buttons or sensors, 210 and the operation unit 220 to transmit an operation command of the user to the HMD 100 to confirm the operation status of each component and display the LED on the operation status of each component. At this time, the operation unit 220 may include a trigger button 221 for allowing the motion of the virtual hand corresponding to the virtual object to be implemented in the virtual reality environment.

영상 제어 단말(300)은 통신 모듈(310), 인터페이스 모듈(320), 제어 모듈(330) 및 저장 모듈(340)을 포함하는 단말로서, 데스트탑 PC, 노트북, 태블릿 PC, 랩탑 PC, 스마트 디바이스 등의 통신 및 영상 처리가 가능한 영상 기기 중 어느 하나가 될 수 있고, 외부 기기와 연동될 수 있다. The image control terminal 300 includes a communication module 310, an interface module 320, a control module 330 and a storage module 340. The terminal 300 includes a desktop PC, a notebook PC, a tablet PC, a laptop PC, , And can be interlocked with an external device.

통신 모듈(310)은 HMD(100) 및 핸드 컨트롤러(200) 뿐만 아니라 외부 기기와 블루투스, 와이파이 등의 근거리 무선 통신, 이동 통신을 포함한 다양한 방식으로 통신을 수행한다. The communication module 310 communicates with an external device as well as the HMD 100 and the hand controller 200 through various methods including short-range wireless communication such as Bluetooth, Wi-Fi, and mobile communication.

인터페이스 모듈(320)은 HMD(100), 핸드 컨트롤러(200) 및 외부 기기와의 인터페이스를 담당한다. The interface module 320 interfaces with the HMD 100, the hand controller 200, and an external device.

제어 모듈(330)은 HMD(100)의 촬영 영상을 통해 실제 공간의 실제 객체 이미지를 추출하고, 촬영된 실제 객체의 주변 환경에서 특정 위치마다 디스플레이될 가상 이미지를 결정하며, 핸드 컨트롤러(200)를 통해 가상 객체에 대한 사용자 모션이 결정되면 가상 객체와 결정된 사용자 모션을 포함하는 가상 이미지를 HMD(100)로 제공한다.  The control module 330 extracts an actual object image of the real space from the photographed image of the HMD 100, determines a virtual image to be displayed for each specific position in the surrounding environment of the photographed real object, When the user motion for the virtual object is determined, the virtual image including the virtual object and the determined user motion is provided to the HMD 100.

이때, 제어 모듈(330)은 핸드 컨트롤러(200)를 이용하여 가상 이미지 내의 가상 핸드와 실제 사용자 손이 동기화되도록 하는 동기화 알고리즘, 주변 환경에 대한 기본 정보를 처리하는 메타데이터 처리 알고리즘, 사용자 모션에 따라 가상 핸드와 가상 객체가 상호 작용하도록 하는 상호 작용 처리 알고리즘, 사용자의 핑거 모션을 탐지한 후 가상 핸드의 핑거 모션을 제어하는 모션 제어 알고리즘 등 가상현실 환경에 사용자 모션이 반영되도록 하는 가상현실 제어 알고리즘을 포함하고 있고, 각 알고리즘이 유기적으로 연동되어 사용자 모션을 처리하도록 제어한다. 이때, 가상현실 제어 알고리즘은 가상현실 서비스를 제공하는 서비스 제공사를 통해 어플리케이션 형태로 제공될 수 있고, 네트워크를 통해 주기적으로 업데이트될 수 있다.  In this case, the control module 330 may include a synchronization algorithm for synchronizing the virtual hand and the actual user's hand in the virtual image using the hand controller 200, a metadata processing algorithm for processing basic information about the surrounding environment, A virtual reality control algorithm that reflects a user's motion in a virtual reality environment such as an interaction processing algorithm for allowing a virtual hand to interact with a virtual object, a motion control algorithm for controlling a finger motion of a virtual hand after detecting a finger motion of the user And controls each algorithm to be interlinked to process the user's motion. At this time, the virtual reality control algorithm may be provided in the form of an application through a service provider providing the virtual reality service, and may be periodically updated through the network.

저장부(340)는 가상 현실 환경에 관련된 시나리오 영상들 및 가상현실 제어 알고리즘, 가상 현실 관련된 기기 정보들을 저장한다. The storage unit 340 stores scenario images related to a virtual reality environment, virtual reality control algorithms, and device information related to virtual reality.

도 2는 본 발명의 일 실시예에 따른 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법을 설명하는 순서도이고, 도 3은 본 발명의 일 실시예에 따른 핸드 컨트롤러를 이용한 가상핸드의 모션 구현 상태를 설명하는 도면이다.FIG. 2 is a flowchart illustrating a method of processing interaction between a user and an object in a virtual reality environment according to an exemplary embodiment of the present invention. FIG. 3 is a flowchart illustrating a method for implementing a motion of a virtual hand using a hand controller according to an embodiment of the present invention. Fig.

도 2 및 도 3을 참고하면, 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법은, HMD(100)에 의해 촬영된 실제 공간에 대한 촬영 영상이 수신되면, 촬영된 실제 공간 상에 디스플레이될 가상 객체를 결정하고, 가상 객체에 대한 타입 및 위치에 기초하여 기설정된 시나리오에 따라 가상 이미지를 출력한다.Referring to FIGS. 2 and 3, a method of processing interaction between a user and an object in a virtual reality environment is a method of displaying an image of a real space photographed by the HMD 100, Determines a virtual object, and outputs a virtual image according to a predetermined scenario based on the type and position of the virtual object.

이때, 가상현실 제어 알고리즘은 가상 객체의 종류, 가상 객체별 위치 정보, 가상 객체별 가상 핸드의 모션 타입 등에 관한 메타데이터를 HMD(100)에 제공한다. At this time, the virtual reality control algorithm provides the HMD 100 with metadata related to the type of the virtual object, the position information of each virtual object, the motion type of the virtual hand of each virtual object, and the like.

가상현실 제어 알고리즘은 가상 이미지 내에서 가상 핸드와 가상 객체가 상호 작용하도록 동기화 알고리즘을 수행하여 핸드 컨트롤러(200)의 트리거 버튼(221)을 이용해 핸드 컨트롤러(200)와 가상 핸드를 동기화시킨다.(S10)The virtual reality control algorithm synchronizes the virtual hand with the hand controller 200 using the trigger button 221 of the hand controller 200 by performing a synchronization algorithm so that the virtual hand interacts with the virtual object in the virtual image )

즉, 도 3에 도시된 바와 같이, 동기화 알고리즘은 가상현실 환경에서 가상 핸드(10)의 영상이 출력되면 사용자가 핸드 컨트롤러(200)의 트리거 버튼(221)을 클릭하고, 트리거 버튼(221)에 의해 트리거 신호가 전송되면 가상 핸드(300)와 동기화를 수행한다. 이러한 방식으로 핸드 컨트롤러(200)의 트리거 버튼(221)의 클릭만으로도 가상현실 환경 속의 도구나 물체 등의 잡기, 꺾기, 집기 등의 다양한 모션 타입을 구현할 수 있다. 3, when the virtual hand 10 images are output in the virtual reality environment, the user clicks the trigger button 221 of the hand controller 200 and the trigger button 221 is pressed And synchronizes with the virtual hand 300 when the trigger signal is transmitted. In this way, it is possible to implement various motion types such as gripping, folding, and picking of tools and objects in a virtual reality environment by simply clicking the trigger button 221 of the hand controller 200. [

가상현실 제어 알고리즘은 가상현실 환경에 가상 객체의 종류와 다양한 가상 핸드의 모션 타입을 표현하기 위한 메타데이터 처리 알고리즘을 수행하여 메타데이터를 자동 처리한다.(S20) 여기서 가상 객체는 가상현실 환경에서 사용자가 핸드 컨트롤러(200)를 통해 접촉시 가상 핸드의 모션 제어가 필요한 모든 객체들을 의미한다. The virtual reality control algorithm automatically processes the metadata by performing a metadata processing algorithm for expressing the types of the virtual objects and the motion types of the various virtual hands in the virtual reality environment (S20). Here, Refers to all objects that require motion control of the virtual hand upon contact through the hand controller 200.

가상현실 제어 알고리즘은 HMD(100)의 촬영 영상을 통해 주변 환경을 탐지하여 망치, 카메라, 연필 등의 공구도구/필기도구, 병, 컵, 핸드, 열쇠, 동전 등의 일반 물체를 포함한 가상 객체에 대한 객체 메타데이터를 자동 처리하고, 가상 객체별 모션 타입(tool, snap, grab, pick 등)을 포함하는 가상 핸드의 핸드 메타데이터를 자동 처리한다. 이때, 객체 메타데이터에는 가상 객체의 타입, 크기, 무게, 가상 핸드를 기준으로 정해진 위치값 등을 포함한다.The virtual reality control algorithm detects the surrounding environment through the captured image of the HMD 100 and generates a virtual object including a virtual object including general objects such as a hammer, a camera, a pencil and a tool / handwriting tool, a bottle, a cup, a hand, Automatically processes hand metadata of the virtual hand including the motion type of each virtual object (tool, snap, grab, pick, etc.). At this time, the object meta data includes the type, size, weight, and position value determined based on the virtual hand.

상호 작용 처리 알고리즘은 통해 메타 데이터에 근거로 하여 각 가상 객체의 타입, 크기, 무게, 위치값을 포함한 가상 객체의 특성을 확인하고, 가상 객체의 특성별로 가상 핸드의 모션 타입에 대한 상호 작용 처리를 수행한다.(S30) The interaction processing algorithm verifies the characteristics of the virtual object including the type, size, weight, and position value of each virtual object based on the metadata, and performs interaction processing on the motion type of the virtual hand according to the characteristics of the virtual object (S30)

모션 제어 알고리은 가상 핸드와 가상 객체에 대한 접촉을 감지하고, 가상 핸드를 손 전체가 아니라 손가락 관절, 즉 주 관절, 보조 관절 및 말단 관절의 마디 단위로 세분화하여 핑거 모션을 탐지한 후 탐지된 핑거 모션에 따라 각 마디 단위로 가상 핸드의 핑거 모션을 스크립트 제어한다.(S40) The motion control algorithm detects touches of the virtual hand and the virtual object and detects the finger motion by subdividing the virtual hand into nodal units of the finger joints, that is, the main joints, the auxiliary joints and the distal joints, The finger motion of the virtual hand is script-controlled in units of segments according to the motion (S40)

이때, 상호 작용 처리 알고리즘(S3)과 모션 제어 알고리즘(S4)은 설명의 편의상 구분한 것으로서, 상호 작용 처리 알고리즘과 모션 제어 알고리즘은 유기적으로 연동되어 동작한다. At this time, the interaction processing algorithm S3 and the motion control algorithm S4 are distinguished from each other for convenience of explanation, and the interaction processing algorithm and the motion control algorithm are operated in cooperation with each other.

즉, 모션 제어 알고리즘이 가상 핸드가 가상 객체에 대한 접촉시 핑거 모션을 탐지하면 상호 작용 처리 알고리즘은 가상 핸드가 접촉된 가상 객체의 타입, 크기, 무게, 위치값에 따라 가상 핸드의 모션 타입(tool, snap, grab, pick 등)을 결정한 후 모션 제어 알고리즘이 가상 핸드의 모션 타입에 따라 핑거 모션에 대한 실행 명령을 출력한다.That is, when the motion control algorithm detects the finger motion when the virtual hand touches the virtual object, the interaction processing algorithm determines the motion type of the virtual hand according to the type, size, weight, , snap, grab, pick, etc.), and the motion control algorithm outputs an execution command for the finger motion according to the motion type of the virtual hand.

도 4는 도 2의 상호 작용 처리 알고리즘의 동작을 설명하는 순서도이고, 도 5는 도 4의 상호 작용 알고리즘의 동작에 따라 가상 객체와 가상핸드의 핑거 모션 구현 상태를 설명하는 도면이다.FIG. 4 is a flowchart for explaining the operation of the interaction processing algorithm of FIG. 2, and FIG. 5 is a view for explaining a finger motion implementation state of a virtual object and a virtual hand according to the operation of the interaction algorithm of FIG.

도 4 및 도 5를 참고하면, 상호 작용 처리 알고리즘은 모션 제어 알고리즘을 통해 가상 핸드의 가상 객체 접촉이 탐지되면, 객체 메타데이터에 근거하여 가상 객체의 타입이 도구인지, 일반 물체인지를 확인한다.(S31)Referring to FIGS. 4 and 5, when the virtual object contact of the virtual hand is detected through the motion control algorithm, the interaction processing algorithm confirms whether the type of the virtual object is a tool or a general object based on the object metadata. (S31)

상호 작용 처리 알고리즘은 가상 객체의 타입이 필기도구 또는 공구 도구인 경우에 가상 핸드를 기준으로 해당 도구의 기설정된 위치값을 확인하여 가상 핸드의 툴 모션(tool motion)이 진행되도록 한다.(S2, S33, S34) The interaction processing algorithm confirms a predetermined position value of the virtual hand based on the virtual hand when the virtual object type is a writing tool or a tool tool so that the tool motion of the virtual hand proceeds (S2, S33, S34)

핸드 컨트롤러(200)는 진동 기능을 통해 사용자가 가상 객체에 접촉하면 사용자가 직접 진동을 느끼도록 하고, 가상 객체에 대한 사용자의 핑거 모션이 가상 핸드에 실시간 반영되도록 한다. 즉, 핸드 컨트롤러(200)는 사용자가 가상현실 환경에서 펜치를 잡는 순간에 진동 효과를 출력하고, 상호 작용 처리 알고리즘과 모션 제어 알고리즘은 펜치로 나사를 조이는 등의 가상 핸드의 핑거 모션을 실행한다.The hand controller 200 allows the user to directly feel the vibration when the user touches the virtual object through the vibration function, and allows the user's finger motion to be reflected in the virtual hand in real time to the virtual object. That is, the hand controller 200 outputs the vibration effect at the moment when the user holds the plich in the virtual reality environment, and executes the finger motion of the virtual hand such as tightening the screw with the pliers in the interaction processing algorithm and the motion control algorithm.

상호 작용 처리 알고리즘은 가상 객체의 타입이 도구가 아닌 일반 물체인 경우에 해당 물체의 크기와 무게를 확인하고, 물체의 크기와 무게가 기설정된 크기와 무게 이상인 경우, 즉 컵이나 스마트폰 등인 경우에 스냅/그랩 모션(snap/grab motion)이 진행되도록 한다.(S35, S36, S37)The interaction processing algorithm checks the size and weight of the object when the type of the virtual object is not a tool but a general object. If the size and weight of the object are equal to or larger than a predetermined size and weight, that is, And causes the snap / grab motion to proceed (S35, S36, S37).

그러나 상호 작용 처리 알고리즘은 물체의 크기와 무게가 기설정된 크기와 무게 이하인 경우, 즉 열쇠, 동전 등인 경우에 픽 모션(pick motion)이 진행되도록 한다.(S38, S39) However, the interaction processing algorithm causes the pick motion to proceed when the size and weight of the object are equal to or less than the predetermined size and weight, that is, when the object is a key, a coin, etc. (S38, S39)

이와 같이, 상호 작용 처리 알고리즘은 가상 객체에 대해 기설정된 위치값과 특성을 확인한 후 해당 가상 객체에 맞게 모션 제어 알고리즘을 통해 핑거 모션을 구현하도록 한다. In this way, the interaction processing algorithm confirms predetermined position values and characteristics for the virtual object, and implements the finger motion through the motion control algorithm according to the virtual object.

도 6은 도 2의 모션 제어 알고리즘의 핑거 모션 탐지 과정을 설명하는 도면이고, 도 7은 도 2의 모션 제어 알고리즘의 핑거 모션 제어 과정을 설명하는 도면이다.FIG. 6 is a view for explaining a finger motion detection process of the motion control algorithm of FIG. 2, and FIG. 7 is a view for explaining a finger motion control process of the motion control algorithm of FIG.

도 6에 도시된 바와 같이, 모션 제어 알고리즘은 가상 객체와 가상 핸드의 접촉하는 접촉시점이 감지되면, 접촉 시점에서 각 가상 객체에 접촉하는 말단 관절(1), 보조 관절(2) 및 주 관절(3)의 탐지 순서로로 핑거 모션을 탐지한다. 6, when the contact point of contact between the virtual object and the virtual hand is sensed, the motion control algorithm determines whether or not the distal joint 1, the auxiliary joint 2, and the main joint 3) in the detection order.

도 7에 도시된 바와 같이, 모션 제어 알고리즘은 접촉 시점 이후에 가상 객체에 대해 가상 핸드가 기본 핑거 모션을 실행하거나 툴 모션, 스냅/그랩 모션, 픽 모션을 실행할 경우에 자연스러운 핑거 모션을 구현하기 위해 주관절, 보조 관절 및 말단 관절의 제어 순서로 가상 핸드가 움직이도록 핑거 모션을 제어한다. As shown in Fig. 7, the motion control algorithm is used to implement a natural finger motion for a virtual object after the point of contact, or to implement a natural finger motion when executing a basic finger motion, tool motion, snap / grab motion, pick motion Control the finger motion so that the virtual hand moves in the order of control of the elbow, auxiliary joint and end joint.

도 8은 도 6 및 도 7의 핑거 모션 탐지 과정과 핑거 모션 제어 과정이 유기적으로 연동되는 모션 제어 알고리즘의 동작을 설명하는 도면이다.FIG. 8 is a view for explaining the operation of the motion control algorithm in which the finger motion detection process and the finger motion control process of FIGS. 6 and 7 are interlocked with each other.

도 8을 참고하면, 모션 제어 알고리즘은 펜치를 잡기 전의 기본 핑거 모션, 펜치 잡기 시도 상태에서의 핑거 모션, 펜치 잡기 상태에서의 핑거 모션, 펜치를 놓은 후의 핑거 모션, 다시 기본 핑거 모션으로 모션 제어를 수행한다.Referring to FIG. 8, the motion control algorithm includes a basic finger motion before gripping the pliers, a finger motion in the pincer gripping state, a finger motion in the gripping state of the pliers, a finger motion after releasing the pliers, .

이때, 물체 잡기 시도 상태에서의 핑거 모션, 펜치 잡기 상태에서의 핑거 모션, 펜치를 놓은 후의 핑거 모션의 사이에는 펜치와 가상 핸드의 접촉을 탐지하는 핑거 모션 탐지 과정을 수행한다. 즉, 핑거 모션 탐지 과정에서는 가상 객체와 가상 핸드가 접촉한 접촉 시점에 해당 가상 객체에 맞는 핑거 모션을 처리할 수 있도록 모션 타입 실행 명령을 출력한다. 핑거 제어 과정에서는 모션 타입 실행 명령에 따라 해당 객체에 맞는 핑거 모션을 손 전체가 아닌 손가락의 마디 단위로 스크립트 제어한다. At this time, a finger motion detection process for detecting the contact between the pliers and the virtual hand is performed between the finger motion in the object catch attempt state, the finger motion in the pincer catch state, and the finger motion after the pincer is released. That is, in the finger motion detection process, the motion type execution command is outputted so that the finger motion corresponding to the virtual object can be processed at the contact time of the virtual object and the virtual hand in contact with each other. In the finger control process, the finger motion corresponding to the object according to the motion type execution command is controlled by the unit of the finger instead of the hand.

따라서, 가상 핸드는 각 손가락의 마디인 주 관절, 보조 관절 및 말단 관절이 독립적으로 움직여 다양한 핑거 모션의 표현이 가능하고, 신속하고 정밀한 모션 제어를 수행할 수 있어 자연스러운 움직임을 표현할 수 있다. Therefore, the virtual hand can independently express the various finger motions by independently moving the main joints, the auxiliary joints, and the end joints, which are the nodes of each finger, and can perform quick and precise motion control, thereby expressing natural motion.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

100 : HMD 200 : 핸드 컨트롤러
300 : 영상 제어 단말 310 : 통신 모듈
320 : 인터페이스 모듈 330 : 제어 모듈
340 : 저장 모듈
100: HMD 200: Hand controller
300: video control terminal 310: communication module
320: interface module 330: control module
340: Storage module

Claims (6)

HMD(Head Mounted Device)와 핸드 컨트롤러(Hand-Controller)를 이용하여 가상현실 환경에서 실시간 사용자 모션을 제어하는 가상현실 제어 알고리즘을 포함하는 영상 제어 단말을 통해 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법에 있어서,
사용자 모션 캡쳐를 통해 읽어낸 사용자의 손을 가상 현실 환경 상에서 가상 핸드를 통해 구현되도록 핸드 컨트롤러와 상기 가상 핸드 간에 동기화를 수행하는 동기화 수행 단계;
상기 가상현실 환경에서 복수의 가상 객체와 가상 핸드의 모션 타입을 표현하기 위한 메타데이터를 자동 처리하여 활성화시키는 주변환경 탐지 단계;
상기 메타데이터를 근거로 하여 각 가상 객체의 타입, 크기, 무게, 위치값을 포함한 가상 객체의 특성을 확인하고, 상기 가상 객체의 특성별로 상기 가상 핸드의 모션 타입을 처리하여 상기 가상 객체와 실시간 상호 작용하도록 하는 상호작용 처리 단계; 및
상기 가상 핸드와 상기 가상 객체의 접촉이 감지되면 상기 가상 핸드를 마디 단위로 세분화하여 핑거모션을 탐지한 후 상기 탐지된 핑거모션에 따라 마디 단위로 손가락을 제어하여 상기 가상 핸드의 모션을 실행하는 모션 제어 단계를 포함하는 것을 특징으로 하는 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법.
Interaction between a user and an object in a virtual reality environment through a video control terminal including a virtual reality control algorithm that controls real-time user motion in a virtual reality environment using an HMD (Head Mounted Device) and a hand controller In the processing method,
Performing a synchronization between the hand controller and the virtual hand such that a user's hand read through a user's motion capture is realized through a virtual hand in a virtual reality environment;
A surrounding environment detecting step of automatically processing and activating metadata for expressing motion types of a plurality of virtual objects and virtual hands in the virtual reality environment;
The method comprising the steps of: confirming a characteristic of a virtual object including a type, a size, a weight, and a position value of each virtual object based on the metadata, processing the motion type of the virtual hand according to characteristics of the virtual object, An interaction processing step for causing the computer to function; And
Wherein when a contact between the virtual hand and the virtual object is sensed, the virtual hand is subdivided into sub-segments to detect finger motions, and a finger is controlled in units of segments according to the detected finger motions, And controlling the interaction between the user and the object in the virtual reality environment.
제1항에 있어서,
상기 핸드 컨트롤러는 사용자 손과 가상 핸드가 연동되도록 하는 트리거 버튼을 포함하는 것을 특징으로 하는 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법.
The method according to claim 1,
Wherein the hand controller includes a trigger button for allowing a user's hand and a virtual hand to be interlocked with each other.
제1항에 있어서,
상기 상호작용 처리 단계는,
상기 메타데이터에 근거하여 상기 가상 객체의 타입을 확인하는 단계;
상기 가상 객체의 타입이 도구인 경우에 상기 가상 핸드를 기준으로 해당 도구의 기설정된 위치값을 확인하여 가상 핸드의 툴 모션(tool motion)이 진행되도록 하는 단계;
상기 가상 객체의 타입이 도구가 아닌 일반 물체인 경우에 해당 물체의 크기와 무게를 확인하고, 상기 물체의 크기와 무게가 기설정된 크기와 무게 이상인 경우에 스냅/그랩 모션(snap/grab motion)이 진행되도록 하는 단계; 및
상기 가상 객체의 타입이 도구가 아닌 일반 물체인 경우에 상기 물체의 크기와 무게가 기설정된 크기와 무게 이하인 경우에 픽 모션(pick motion)이 진행되도록 하는 단계를 포함하는 것을 특징으로 하는 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법.
The method according to claim 1,
Wherein the interaction processing step comprises:
Confirming the type of the virtual object based on the metadata;
If the type of the virtual object is a tool, confirming a predetermined position value of the virtual hand based on the virtual hand and proceeding with a tool motion of the virtual hand;
If the type of the virtual object is a general object rather than a tool, the size and weight of the object are checked. If the size and the weight of the object are equal to or greater than a predetermined size and weight, a snap / grab motion ; And
When the size and the weight of the object are equal to or less than a predetermined size and weight when the type of the virtual object is a general object rather than a tool, A method for handling interaction between a user and an object in.
제1항에 있어서,
상기 모션 제어 단계는,
상기 가상 객체와 상기 가상 핸드가 접촉되는 접촉시점이 감지되면, 상기 접촉 시점에서 각 가상 객체에 맞는 상기 가상 핸드의 핑거 모션을 손가락 관절의 마디 단위로 처리하는 모션 타입 실행 명령을 출력하는 핑거 모션 탐지 단계; 및
상기 모션 타입 실행 명령에 따라 상기 접촉 시점 이후에 해당 가상 객체와 가상 핸드가 상호 작용하도록 각 손가락 관절을 마디 단위로 움직이도록 핑거 모션을 실행하는 핑거 모션 제어 단계를 포함하는 것을 특징으로 하는 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법.
The method according to claim 1,
Wherein the motion control step comprises:
A finger motion detection unit for outputting a motion type execution command for processing a finger motion of the virtual hand corresponding to each virtual object in units of a finger joint at the contact point when the contact point of contact between the virtual object and the virtual hand is sensed, step; And
And a finger motion control step of performing finger motion so as to move each finger joint by each node unit so that the virtual object and the virtual hand interact with each other after the point of contact according to the motion type execution command, A method for handling interaction between a user and an object in.
제4항에 있어서,
상기 핑거 모션 탐지 단계는,
상기 가상 핸드의 손가락 관절을 말단 관절, 보조 관절 및 주 관절의 마디 단위로 구분하고, 상기 가상 객체에 접촉하는 접촉 시점에 말단 관절, 보조 관절 및 주 관절의 탐지 순서로 핑거 모션을 탐지하는 것을 특징으로 하는 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법.
5. The method of claim 4,
Wherein the finger motion detection step comprises:
The finger joint of the virtual hand is divided into units of a distal joint, an auxiliary joint, and a main joint, and finger motion is detected in order of detection of a distal joint, an auxiliary joint, and a main joint at a contact time of contacting the virtual object A method for processing interaction between a user and an object in a virtual reality environment.
제4항에 있어서,
상기 핑거 모션 제어 단계는,
상기 가상 핸드의 손가락을 말단 관절, 보조 관절 및 주 관절의 마디 단위로 구분하고, 기본 핑거 모션 또는 상기 가상 객체에 맞는 모션 제어시 상기 주 관절, 보조 관절 및 말단 관절의 제어 순서로 스크립트 제어하는 것을 특징으로 하는 가상현실 환경에서의 사용자와 객체간 상호 작용 처리 방법.
5. The method of claim 4,
Wherein the finger motion control step comprises:
The finger of the virtual hand is divided into units of a distal joint, an auxiliary joint, and a main joint, and script control is performed in a control sequence of the main joint, the auxiliary joint, and the distal joint in motion control according to the basic finger motion or the virtual object A method for handling interaction between a user and an object in a virtual reality environment.
KR1020170157620A 2017-11-23 2017-11-23 Method for processing interaction between object and user of virtual reality environment KR102021851B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170157620A KR102021851B1 (en) 2017-11-23 2017-11-23 Method for processing interaction between object and user of virtual reality environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170157620A KR102021851B1 (en) 2017-11-23 2017-11-23 Method for processing interaction between object and user of virtual reality environment

Publications (2)

Publication Number Publication Date
KR20190059726A true KR20190059726A (en) 2019-05-31
KR102021851B1 KR102021851B1 (en) 2019-11-04

Family

ID=66657355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170157620A KR102021851B1 (en) 2017-11-23 2017-11-23 Method for processing interaction between object and user of virtual reality environment

Country Status (1)

Country Link
KR (1) KR102021851B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220068622A (en) * 2020-11-19 2022-05-26 김기홍 System for providing virtual experience contents to feel five senses
KR20230106328A (en) 2022-01-06 2023-07-13 한국전자통신연구원 Augmented reality or virtual reality device for tracking body joint and method using the same
WO2023149671A1 (en) * 2022-02-03 2023-08-10 삼성전자 주식회사 Augmented reality device switching input mode, and method therefor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11617953B2 (en) 2020-10-09 2023-04-04 Contact Control Interfaces, Llc. Virtual object interaction scripts

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100044983A (en) * 2008-10-23 2010-05-03 삼성전자주식회사 Apparatus and method for manipulating virtual object
KR20110011362A (en) * 2009-07-28 2011-02-08 삼성전자주식회사 System and method for extracting grasping pattern of virtual object
KR20110139223A (en) * 2009-03-20 2011-12-28 마이크로소프트 코포레이션 Chaining animations
KR101779569B1 (en) 2016-04-18 2017-09-19 김종만 Input Apparatus Interlocking Virtual Reality Device
KR20170120299A (en) 2016-04-21 2017-10-31 주식회사 엘시스 Realistic contents service system using leap motion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100044983A (en) * 2008-10-23 2010-05-03 삼성전자주식회사 Apparatus and method for manipulating virtual object
KR20110139223A (en) * 2009-03-20 2011-12-28 마이크로소프트 코포레이션 Chaining animations
KR20110011362A (en) * 2009-07-28 2011-02-08 삼성전자주식회사 System and method for extracting grasping pattern of virtual object
KR101779569B1 (en) 2016-04-18 2017-09-19 김종만 Input Apparatus Interlocking Virtual Reality Device
KR20170120299A (en) 2016-04-21 2017-10-31 주식회사 엘시스 Realistic contents service system using leap motion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220068622A (en) * 2020-11-19 2022-05-26 김기홍 System for providing virtual experience contents to feel five senses
KR20230106328A (en) 2022-01-06 2023-07-13 한국전자통신연구원 Augmented reality or virtual reality device for tracking body joint and method using the same
WO2023149671A1 (en) * 2022-02-03 2023-08-10 삼성전자 주식회사 Augmented reality device switching input mode, and method therefor

Also Published As

Publication number Publication date
KR102021851B1 (en) 2019-11-04

Similar Documents

Publication Publication Date Title
JP6982215B2 (en) Rendering virtual hand poses based on detected manual input
KR101817467B1 (en) System for interacting with objects in a virtual environment
US10317997B2 (en) Selection of optimally positioned sensors in a glove interface object
TW202105133A (en) Virtual user interface using a peripheral device in artificial reality environments
CN113853575A (en) Artificial reality system with sliding menu
JP2023515525A (en) Hand Gesture Input for Wearable Systems
Stuerzlinger et al. The value of constraints for 3D user interfaces
US20120113223A1 (en) User Interaction in Augmented Reality
US20120306734A1 (en) Gesture Recognition Techniques
CN113892074A (en) Arm gaze driven user interface element gating for artificial reality systems
US10921879B2 (en) Artificial reality systems with personal assistant element for gating user interface elements
KR102021851B1 (en) Method for processing interaction between object and user of virtual reality environment
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
US11294475B1 (en) Artificial reality multi-modal input switching model
US10990240B1 (en) Artificial reality system having movable application content items in containers
US20190050132A1 (en) Visual cue system
US11043192B2 (en) Corner-identifiying gesture-driven user interface element gating for artificial reality systems
US20170177077A1 (en) Three-dimension interactive system and method for virtual reality
CN113785262A (en) Artificial reality system with finger mapping self-touch input method
JP2015135572A (en) Information processing apparatus and control method of the same
KR101962464B1 (en) Gesture recognition apparatus for functional control
CN111736689A (en) Virtual reality device, data processing method, and computer-readable storage medium
WO2023095519A1 (en) Display control device, display control method, and program
CN117784926A (en) Control device, control method, and computer-readable storage medium
Klompmaker et al. Evaluation of whole-body navigation and selection techniques in immersive 3d environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant