KR101722947B1 - 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법 - Google Patents

4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법 Download PDF

Info

Publication number
KR101722947B1
KR101722947B1 KR1020160006506A KR20160006506A KR101722947B1 KR 101722947 B1 KR101722947 B1 KR 101722947B1 KR 1020160006506 A KR1020160006506 A KR 1020160006506A KR 20160006506 A KR20160006506 A KR 20160006506A KR 101722947 B1 KR101722947 B1 KR 101722947B1
Authority
KR
South Korea
Prior art keywords
virtual reality
user
dimensional effect
processing unit
tracking
Prior art date
Application number
KR1020160006506A
Other languages
English (en)
Inventor
하회진
최재광
Original Assignee
주식회사 레드로버
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 레드로버 filed Critical 주식회사 레드로버
Priority to KR1020160006506A priority Critical patent/KR101722947B1/ko
Application granted granted Critical
Publication of KR101722947B1 publication Critical patent/KR101722947B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J27/00Cooking-vessels
    • A47J27/002Construction of cooking-vessels; Methods or processes of manufacturing specially adapted for cooking-vessels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J27/00Cooking-vessels
    • A47J27/02Cooking-vessels with enlarged heating surfaces
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47JKITCHEN EQUIPMENT; COFFEE MILLS; SPICE MILLS; APPARATUS FOR MAKING BEVERAGES
    • A47J36/00Parts, details or accessories of cooking-vessels
    • A47J36/02Selection of specific materials, e.g. heavy bottoms with copper inlay or with insulating inlay
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61LMETHODS OR APPARATUS FOR STERILISING MATERIALS OR OBJECTS IN GENERAL; DISINFECTION, STERILISATION OR DEODORISATION OF AIR; CHEMICAL ASPECTS OF BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES; MATERIALS FOR BANDAGES, DRESSINGS, ABSORBENT PADS OR SURGICAL ARTICLES
    • A61L9/00Disinfection, sterilisation or deodorisation of air
    • A61L9/015Disinfection, sterilisation or deodorisation of air using gaseous or vaporous substances, e.g. ozone
    • A61L9/02Disinfection, sterilisation or deodorisation of air using gaseous or vaporous substances, e.g. ozone using substances evaporated in the air by heating or combustion
    • A61L9/03Apparatus therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D46/00Filters or filtering processes specially modified for separating dispersed particles from gases or vapours
    • B01D46/56Filters or filtering processes specially modified for separating dispersed particles from gases or vapours with multiple filtering elements, characterised by their mutual disposition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D77/00Packages formed by enclosing articles or materials in preformed containers, e.g. boxes, cartons, sacks or bags
    • B65D77/10Container closures formed after filling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D77/00Packages formed by enclosing articles or materials in preformed containers, e.g. boxes, cartons, sacks or bags
    • B65D77/22Details
    • B65D77/30Opening or contents-removing devices added or incorporated during filling or closing of containers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D81/00Containers, packaging elements, or packages, for contents presenting particular transport or storage problems, or adapted to be used for non-packaging purposes after removal of contents
    • B65D81/34Containers, packaging elements, or packages, for contents presenting particular transport or storage problems, or adapted to be used for non-packaging purposes after removal of contents for packaging foodstuffs or other articles intended to be cooked or heated within the package
    • B65D81/3407Containers, packaging elements, or packages, for contents presenting particular transport or storage problems, or adapted to be used for non-packaging purposes after removal of contents for packaging foodstuffs or other articles intended to be cooked or heated within the package specially adapted to be heated over a heat source, e.g. a hob, campfire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • H04N13/0055
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65DCONTAINERS FOR STORAGE OR TRANSPORT OF ARTICLES OR MATERIALS, e.g. BAGS, BARRELS, BOTTLES, BOXES, CANS, CARTONS, CRATES, DRUMS, JARS, TANKS, HOPPERS, FORWARDING CONTAINERS; ACCESSORIES, CLOSURES, OR FITTINGS THEREFOR; PACKAGING ELEMENTS; PACKAGES
    • B65D2205/00Venting means
    • B65D2205/02Venting holes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Food Science & Technology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법이 개시된다. 본 발명에 따른 가상현실 시스템은 가상 공간 상에서 발생하는 이벤트를 촉감을 통해 느낄 수 있는 4차원 효과를 사용자에게 제공할 수 있다. 나아가 사용자가 가상공간을 제어하기 위하여 실제 모션을 일으킴에 따라 사용자의 자세가 변경되는 경우에 그 사용자의 자세를 추적하여 원하는 위치에 4차원 효과를 제공할 수 있다.

Description

4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법{Virtual Reality System Capable of Realizing 4 Dimensional Effect and Method thereof}
본 발명은 3차원 가상현실을 구현함과 더불어, 사용자가 4차원 효과를 느낄 수 있도록 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법에 관한 것이다.
최근 가상현실(Virtual Reality) 시스템은 컴퓨터 등을 사용하여 가상 현실을 구현하는 시스템으로서 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황을 구현한다.
최근의 가상현실 시스템은 헤드장착 디스플레이(HMD: Head Mounted Display)처럼 3차원 가상 현실을 시각적으로 표시할 수 있는 디스플레이 수단과, 3차원 가상 현실을 위한 가상현실 콘텐츠를 재생하여 디스플레이 수단을 제어하는 컴퓨터 장치와, 가상현실 콘텐츠가 사용자의 움직임에 대응하여 진행하도록 하기 위해 카메라 또는 센서 등을 이용하여 사용자의 움직임을 추적하여 컴퓨터 장치에게 제공하는 트래킹 장치를 포함한다. 가상공간 내에서 사용자가 특정 모션을 취하면 트래킹 장치가 그 사용자 모션을 추적하고, 가상현실 콘텐츠는 사용자 모션에 따라 가상공간을 바꾼다.
한편, 최근에는 사용자에게 실질적 현장감을 주는 효과, 즉 체감형 효과를 주는 콘텐츠의 개발이 시작되고 있다. 이러한 효과를 4차원 요소 또는 4차원 효과라고 한다. 예를 들어, 영화 장면 중에 주인공이 물에 빠지면, 관람객에게 실제로 물이 뿌려져 그 느낌을 준다거나, 영화 장면에서 바람이 불 경우에 실제로 관람객을 향해 일정한 속도의 에어를 분사함으로써 관람객이 바람을 실제로 느끼도록 하는 것이 4차원 요소의 예가 된다.
사용자에게 가상적 체험을 제공하는 가상현실 시스템에 이러한 체감형 4차원 요소가 결합되는 것은 당연한 과정이라 할 수 있다.
본 발명의 목적은 3차원 가상현실을 구현함과 더불어, 사용자가 4차원 효과를 느낄 수 있도록 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법을 제공함에 있다.
이상의 목적을 달성하기 위해, 본 발명에 따른 가상현실 시스템은 스테이지 상의 사용자에게 3차원 가상공간을 제공함과 더불어 4차원 효과 이벤트를 생성하여 사용자가 4차원 효과를 느낄 수 있도록 한다.
이를 위해, 본 발명의 가상현실 시스템은 3차원 가상현실 공간을 시각적으로 표시하는 디스플레이 장치와, 사용자의 실제 모션을 추적하는 트래킹 센서장치를 이용하여 스테이지 위의 상기 사용자의 실제 공간상의 모션을 추적하는 트래킹처리부와, 가상현실 소프트웨어를 실행하여 상기 디스플레이 장치를 통해 상기 가상현실 공간을 표시하되 상기 트래킹처리부가 제공하는 사용자 모션에 연동하여 상기 디스플레이 장치를 통해 표시되는 상기 가상현실을 변경하는 가상현실처리부와, 상기 사용자를 향하여 물이나 공기와 같은 분사물을 분사하여 4차원 효과를 구현하는 4D 구현장치와, 상기 가상현실 소프트웨어의 실행에 따라 생성되는 4차원 효과 이벤트를 상기 가상현실처리부로부터 제공받고 상기 4차원 효과 이벤트에 대응하여 상기 4D 구현장치로 하여금 상기 4차원 효과를 구현하도록 제어하는 4D 제어부를 포함한다.
실시 예에 따라, 본 발명의 가상현실 시스템은 4차원 효과 이벤트가 발생한 경우에 사용자의 특정 지점(타깃 지점)을 추적하여 해당 지점에 분사물을 분사할 수 있다. 이를 위해, 상기 트래킹처리부는 상기 스테이지의 기준점을 기준으로 상기 사용자의 몸에서 선택된 타깃 지점의 3차원 좌표를 계산할 수 있으며, 4D 제어부는 분사각도계산부와 장치제어부를 포함한다.
분사각도계산부는 상기 트래킹처리부가 계산한 상기 타깃 지점의 좌표에 대응하여 상기 4D 구현장치의 물 또는 에어 분사각도를 계산하며, 장치제어부는 상기 4차원 효과 이벤트 시점에 상기 분사각도계산부가 계산한 상기 분사각도로 상기 타깃 지점을 향해 상기 분사물을 분사하도록 상기 4D 구현장치를 제어한다.
다른 실시 예에 따라, 상기 타깃 지점은 매 4차원 효과 이벤트마다 이벤트 정보에 포함되어 제공될 수도 있고, 임의의 지점으로 기설정된 지점일 수도 있다.
본 발명은 상기의 가상현실 시스템의 4차원 효과 처리방법에도 미친다.
사용자가 단순히 시각적으로만 가상공간을 느낄 수 있었던 종래의 가상현실 시스템과 달리, 본 발명에 따른 가상현실 시스템은 가상 공간 상에서 발생하는 이벤트를 촉감을 통해 체감할 수 있는 4차원 효과를 사용자에게 제공할 수 있다.
나아가, 사용자가 가상공간을 제어하기 위하여 실제 모션을 일으킴에 따라 사용자의 자세가 변경되는 경우에도, 본 발명의 가상현실 시스템은 사용자의 자세를 추적하여 4차원 효과를 제공할 사용자의 타깃 지점에 분사물을 분사할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 가상현실 시스템의 사용형태를 도시한 도면,
도 2는 본 발명의 가상현실 시스템의 블록도,
도 3은 본 발명의 가상현실 시스템의 4차원 효과 처리방법의 설명에 제공되는 흐름도, 그리고
도 4는 분사각도 계산방법의 설명에 제공되는 도면이다.
이하 도면을 참조하여 본 발명을 더욱 상세히 설명한다.
도 1 및 도 2를 참조하면, 본 발명의 가상현실 시스템(100)은 스테이지(S) 상의 사용자에게 3차원 가상공간을 제공함과 더불어 4차원 효과 이벤트를 생성하여 사용자가 4차원 효과를 체감할 수 있도록 한다.
본 발명의 시스템(100)은 디스플레이 장치(110)와, 트래킹 센서장치(130)와, 4D 구현장치(150)와, 컴퓨터 장치(170)를 포함한다. 디스플레이 장치(110), 트래킹 센서장치(130) 및 4D 구현장치(150)는 유무선 인터페이스를 통해 컴퓨터 장치(170)에 연결되며 컴퓨터 장치(170)에 의해 제어된다.
디스플레이 장치(110)는 스테이지(S) 상의 사용자에게 3차원 가상현실 공간을 시각적으로 표시하는 수단으로서, 공간 전체가 디스플레이 수단으로 구현될 수도 있으나, 도 1에 도시된 헤드 장착 디스플레이(HMD: Head Mounted Display)처럼 사용자가 장착한 상태에서 시야 범위 내를 가상공간으로 표시하는 수단이 일반적으로 사용될 수 있다. 디스플레이 장치(110)에 재생되는 가상 공간은 아래에서 설명하는 컴퓨터 장치(170)에 의해 실행되는 가상현실 소프트웨어에 의해 구현되는 것이다.
트래킹 센서장치(130)는 아래에서 설명하는 컴퓨터 장치(170)의 트래킹처리부(173)와 함께 스테이지(S)상의 사용자의 모션을 추적한다. 트래킹 센서장치(130)는 스테이지(S) 위의 실제 사용자의 실제 모션을 추적하고 계산하기 위한 기본 정보를 획득하기 위한 수단으로서, (1) 사용자 몸의 특정 위치에 부착된 마커(Marker)와 복수 개의 카메라가 해당할 수도 있고, 또는 (2) 3차원 카메라(Depth Camera)가 해당할 수도 있다. 그 밖에도 트래킹을 위해 알려진 다양한 수단이 트래킹 센서장치(130)로 사용될 수 있다. 도 1에는 3차원 카메라가 적용된 예를 도시하고 있다.
4D 구현장치(150)는 사용자가 4차원 효과를 느끼도록 스테이지(S) 상의 사용자를 향하여 물 또는 에어와 같은 분사물을 분사하는 장치로서, 스테이지(S)에 적어도 하나 이상 설치될 수 있다. 4D 구현장치(150)는 물 또는 에어와 같은 분사물을 분사하는 분사장치(151)와, 분사장치(151)의 분사방향을 바꾸기 위하여 분사장치(151)를 좌우로 회전하는 패닝(Panning) 및/또는 상하로 회전하는 틸팅(Tilting)동작을 위한 구동부(153)를 포함한다.
컴퓨터 장치(170)는 디스플레이 장치(110), 트래킹 센서장치(130) 및 4D 구현장치(150)와 연결되어 이들 장치를 제어함으로써, 본 발명의 가상현실 시스템(100)의 전반적인 동작을 수행한다. 이러한 동작을 위하여, 컴퓨터 장치(170)는 가상현실처리부(171), 트래킹처리부(173) 및 4D 제어부(175)를 포함한다.
컴퓨터 장치(170)는 가상현실처리부(171), 트래킹처리부(173) 및 4D 제어부(175) 이외에도 디스플레이 장치(110), 트래킹 센서장치(130) 및 4D 구현장치(150)와 유선 또는 무선으로 연결되기 위한 네트워크 인터페이스(미도시)와, 제어결과를 사용자 또는 관리자에게 표시하기 위한 별도의 디스플레이부(미도시)와, 키보드와 같은 입력부(미도시) 등을 포함할 수 있으나, 본 발명의 필수적인 구성이 아니므로 여기에서는 도시하지 않고 그 설명도 생략한다.
가상현실처리부(171), 트래킹처리부(173) 및 4D 제어부(175)는 본 발명을 위해 특별히 설치된 하드웨어 구성으로 해석될 수도 있으나, 일반적으로는 컴퓨터 장치(170)의 기본 기능을 수행하기 위해 설치된 하드웨어와 그 하드웨어에 기반하여 설치된 소프트웨어의 조합일 수도 있다. 다시 말해, 가상현실처리부(171), 트래킹처리부(173) 및 4D 제어부(175)는 컴퓨터 장치(170)가 기본적으로 보유하는 하드웨어인 프로세서 칩(Processor Chip)과, 그 칩에 기반하여 동작하는 운영체제(OS: Operating System) 소프트웨어와, 운영체제 소프트웨어 상에 설치되어 가상현실처리부(171), 트래킹처리부(173) 및 4D 제어부(175)의 기능을 각각 또는 함께 수행하는 소프트웨어로 구현되는 구성을 기능적으로 지시한 것일 수 있다.
한편, 가상현실처리부(171)는 디스플레이 장치(110)와 일체로 구현되고, 트래킹처리부(173)는 트래킹 센서장치(130)와 일체로 구현되고, 4D 제어부(175)도 4D 구현장치(150)와 일체로 구현됨으로써, 별도의 컴퓨터 장치(170)를 구비하지 않을 수도 있다.
가상현실처리부(171)는 디스플레이 장치(110)를 통해 가상현실 공간을 시각적으로 표시하며, 트래킹처리부(173)는 트래킹 센서장치(130)를 이용하여 사용자의 모션을 추적한다. 4D 제어부(175)는 가상현실처리부(171)가 제공하는 4차원 효과 이벤트 정보에 따라 4D 구현장치(150)를 제어하여 이벤트 정보에 따른 4차원 효과를 구현하도록 제어한다. 이를 위해, 4D 제어부(175)는 분사각도계산부(177)와 장치제어부(179)를 포함한다.
이하에서는 도 3을 참조하여, 컴퓨터 장치(170)의 세부 구성의 동작을 중심으로 하는 본 발명의 3차원 가상현실 시스템의 4차원 효과 처리방법을 설명한다.
가상현실 공간 실연(S301)
가상현실처리부(171)가 디스플레이 장치(110)를 통해 사용자에게 가상의 3차원 공간을 실연하며, 트래킹처리부(173)가 제공하는 정보를 기초로 3차원 가상공간을 바꾸고, 각종 이벤트를 생성한다.
이를 위해, 우선 가상현실처리부(171)는 기본적으로 가상현실 소프트웨어(또는 가상현실 콘텐츠)를 실행하여 디스플레이 장치(110)를 통해 가상현실 공간이 표시되도록 제어한다. 여기서, 가상현실 소프트웨어는 사용자로부터 입력되는 제어명령에 연동하여 가상현실 공간을 바꾸거나 각종 이벤트를 생성하여 가상현실 공간에 표시한다.
사용자 모션 추적(S303)
트래킹처리부(173)는 트래킹 센서장치(130)가 제공하는 정보를 이용하여 스테이지(S) 위의 사용자의 실제 공간상의 모션을 추적하여 가상현실처리부(171)와, 아래에서 설명하는 분사각도계산부(177)에게 제공한다. 트래킹처리부(173)가 추적하는 사용자 모션이 가상현실처리부(171)에 의해 가상현실 소프트웨어용 사용자 제어명령으로 처리됨으로써, 가상 현실의 공간이 사용자의 모션과 연관되어 바뀌게 된다.
모션 추적을 위해, 트래킹처리부(173)는 스테이지(S)의 임의의 기준점을 원점으로 스테이지(S) 상에서의 사용자 몸의 각 지점의 실제 좌표를 계산한다. 여기서, 기준점은 스테이지(S) 상의 어떤 지점이라도 설정할 수 있으며, 다만 아래에서 설명하는 분사각도 제어 등을 위하여 4D 구현장치(150)의 위치를 기준점으로 설정하는 것이 바람직하다.
트래킹 센서장치(130)가 복수 개의 카메라와 사용자 몸의 특정 지점에 부착한 마커(Marker)인 경우에, 트래킹처리부(173)는 동일한 마커에 대하여 복수 개의 카메라가 획득한 위치 사이의 상호관계를 분석하여 사용자 몸의 각 지점의 좌표를 계산할 수 있다. 또한, 트래킹 센서장치(130)가 3차원 카메라인 경우에는 두 개 카메라의 영상을 처리하여, 3차원 영상 프레임에서 각 픽셀의 깊이(Depth)를 계산하는 방법으로 사용자 몸의 각 지점의 3차원 공간좌표를 계산한다.
트래킹처리부(173)가 추적하는 사용자 모션은 가상현실처리부(171)에 제공되어 디스플레이 장치(110)에 표시되고 있는 가상 현실공간을 바꾸게 됨으로써, 사용자와 가상 공간이 상호 작용하게 된다.
4차원 효과 이벤트의 발생(S305)
S301 및 S303을 반복하면서 가상현실 공간을 디스플레이 장치(110)에 표시하는 중에 가상현실 소프트웨어가 생성하는 '4차원 효과 이벤트(이하, 이벤트)'가 발생하면, 가상현실처리부(171)는 그 이벤트 정보를 4D 제어부(175)에게 제공한다.
여기서, 4차원 효과 이벤트는 가상현실 콘텐츠의 진행에 따라 4D 구현장치(150)의 작동을 개시하는 이벤트로서, 4차원 효과 이벤트 정보에는 4D 구현장치(150)가 분사할 분사물의 종류, 분사시간, 분사횟수, 아래에서 설명할 타깃 지점에 대한 정보, 기타 분사 방법 등의 정보가 포함될 수 있다.
타깃 지점에 대한 분사각도 계산(S307)
4차원 효과 이벤트가 발생하면, 우선 4D 제어부(175)의 분사각도계산부(177)는 분사장치(151)의 분사물 분사각도를 계산하여 장치제어부(179)에게 제공한다.
여기서, 분사각도는 트래킹처리부(173)가 추적한 사용자 모션 중에서 '타깃 지점'의 좌표에 대응되며, 4D 구현장치(150)가 타깃 지점을 향하도록 4D 구현장치(150)를 회전시키기 위한 패닝 각도와 틸팅 각도이다.
'타깃 지점'이란 4차원 효과 이벤트에 따라 분사물을 분사할 사용자 몸의 특정 지점으로서, 얼굴이나 손과 같이 피부가 노출된 부분을 타깃 지점으로 정하는 것이 바람직하다. 다만, 타깃 지점은 이에 한정되지 않으며 사용자 몸의 어느 부분이라도 타깃 지점으로 설정할 수 있다. 타깃 지점은 매 이벤트마다 이벤트 정보에 포함되어 가상현실처리부(171)로부터 제공될 수도 있고, 모든 이벤트에 대하여 동일한 지점으로 설정할 수도 있다.
분사각도계산부(177)의 분사각도를 설정하는 방법은 분사장치(151)의 현재 자세와 타깃 지점의 3차원 좌표 간의 상호관계를 고려하여 계산할 수 있다.
예를 들어, 도 4를 참조하여 4D 구현장치(150)의 위치를 기준점(C)으로 설정한 경우를 예로 들어 설명한다. 우선, 4D 구현장치(150)의 분사장치(151)는 컴퓨터 장치(170)의 분사방향 제어를 위해 기준 자세(제1 벡터, 도 4의 A)를 설정할 수 있다. 이후에 타깃 지점의 3차원 좌표가 계산되면 기준점(C)으로부터 타깃 지점을 향하는 제2 벡터(B)를 계산할 수 있다. 분사 각도는 제1 벡터(A) 방향의 4D 구현장치(150)를 제2 벡터(B)로 바꾸기 위한 패닝 각도(θ1)와 틸팅 각도(θ2)가 된다.
이벤트가 종료되고 새로운 이벤트가 생성되면, 분사각도계산부(177)는 새로운 좌표를 향하는 제3 벡터를 계산한 다음, 제2 벡터(B) 방향을 기준으로 새로운 패닝 각도와 틸팅 각도를 계산한다.
분사장치의 회전 및 분사물 분사(S309)
장치제어부(179)는 4차원 효과 이벤트 시점에 분사각도계산부(177)가 계산한 분사각도와 분사물의 종류를 4D 구현장치(150)에게 제공하면, 4D 구현장치(150)의 구동부(153)는 분사장치(151)를 분사각도(θ1, θ2)에 따라 패닝 및/또는 틸팅하여 타깃 지점을 향해 위치 고정한다. 이후에 장치제어부(179)는 이벤트 정보에 따른 분사시간 및 분사형태에 따라 분사장치(151)가 타깃 지점을 향해 분사물을 분사하도록 제어한다.
이상의 방법으로 본 발명의 3차원 가상현실 시스템의 4차원 효과 처리방법이 수행된다. 이상의 방법에 의하면, 사용자가 가상공간 내에서 다양한 모션을 취함에 따라 타깃 지점의 3차원 좌표가 변경되는 경우에도 사용자가 가상 공간 내에서 발생하는 이벤트를 체감할 수 있는 4차원 효과를 구현할 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.

Claims (8)

  1. 3차원 가상현실 공간을 시각적으로 표시하는 디스플레이 장치;
    사용자의 실제 모션을 추적하는 트래킹 센서장치를 이용하여 스테이지 위의 상기 사용자의 실제 공간상의 모션을 추적하는 트래킹처리부;
    가상현실 소프트웨어를 실행하여 상기 디스플레이 장치를 통해 상기 가상현실 공간을 표시하되, 상기 트래킹처리부가 제공하는 사용자 모션에 연동하여 상기 디스플레이 장치를 통해 표시되는 상기 가상현실을 변경하는 가상현실처리부;
    상기 사용자를 향하여 분사물을 분사하여 4차원 효과를 구현하는 4D 구현장치; 및
    상기 가상현실 소프트웨어의 실행에 따라 생성되는 4차원 효과 이벤트를 상기 가상현실처리부로부터 제공받고, 상기 4차원 효과 이벤트에 대응하여 상기 4D 구현장치로 하여금 상기 4차원 효과를 구현하도록 제어하는 4D 제어부를 포함하고
    상기 트래킹처리부는 상기 스테이지의 기준점을 기준으로 상기 사용자의 몸에서 선택된 타깃 지점의 3차원 좌표를 계산하고,
    상기 4D 제어부는,
    상기 트래킹처리부가 계산한 상기 타깃 지점의 좌표에 대응하여 상기 4D 구현장치의 분사물 분사각도를 계산하는 분사각도계산부; 및
    상기 4차원 효과 이벤트 시점에 상기 분사각도계산부가 계산한 상기 분사각도로 상기 타깃 지점을 향해 상기 분사물을 분사하도록 상기 4D 구현장치를 제어하는 장치제어부를 포함하는 것을 특징으로 하는 가상현실 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 4D 구현장치는
    상기 분사물을 분사하는 분사장치; 및
    상기 분사장치를 상기 분사각도에 따라 패닝 및 틸팅시키는 구동부를 포함하는 것을 특징으로 하는 가상현실 시스템.
  4. 제1항에 있어서,
    상기 타깃 지점은 매 4차원 효과 이벤트마다 이벤트 정보에 포함되어 상기 가상현실처리부로부터 제공되는 것을 특징으로 하는 가상현실 시스템.
  5. 가상현실처리부가 디스플레이 장치를 통해 3차원 가상현실 공간을 시각적으로 사용자에게 표시하는 중에, 트래킹처리부가 사용자의 실제 모션을 추적하는 트래킹 센서장치를 이용하여 스테이지 위의 상기 사용자의 실제 공간상의 모션을 추적하고, 상기 가상현실처리부가 상기 추적한 사용자 모션에 연동하여 상기 디스플레이 장치를 통해 표시되는 상기 가상현실을 변경하는 단계;
    상기 가상현실처리부가 상기 가상현실 공간의 변경에 따른 4차원 효과 이벤트를 생성하는 단계; 및
    상기 4차원 효과 이벤트를 처리하는 4D 제어부의 제어에 따라, 4D 구현장치가 상기 사용자를 향하여 분사물을 분사하여 4차원 효과를 구현하는 단계를 포함하고,
    상기 4차원 효과를 구현하는 단계는,
    상기 트래킹처리부가 상기 스테이지의 기준점을 기준으로 상기 사용자의 몸에서 선택된 타깃 지점의 3차원 좌표를 계산하는 단계;
    분사각도계산부가 상기 트래킹처리부가 계산한 상기 타깃 지점의 좌표에 대응하여 상기 4D 구현장치의 분사물 분사각도를 계산하는 단계; 및
    장치제어부가 상기 4차원 효과 이벤트 시점에 상기 분사각도계산부가 계산한 상기 분사각도로 상기 타깃 지점을 향해 상기 분사물을 분사하도록 상기 4D 구현장치를 제어하는 단계를 포함하는 것을 특징으로 하는 가상현실 시스템의 4차원 효과 처리방법.
  6. 삭제
  7. 제5항에 있어서,
    상기 4D 구현장치를 제어하는 단계는
    상기 4D 구현장치의 구동부가 상기 4D 구현장치의 분사장치를 상기 분사각도에 따라 패닝 및 틸팅시키는 단계; 및
    상기 구동부에 의해 자세 고정된 상기 분사장치가 상기 분사물을 분사하는 단계를 포함하는 것을 특징으로 하는 가상현실 시스템의 4차원 효과 처리방법.
  8. 제5항에 있어서,
    상기 타깃 지점은 매 4차원 효과 이벤트마다 이벤트 정보에 포함되어 상기 가상현실처리부로부터 제공되는 것을 특징으로 하는 가상현실 시스템의 4차원 효과 처리방법.




KR1020160006506A 2016-01-19 2016-01-19 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법 KR101722947B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160006506A KR101722947B1 (ko) 2016-01-19 2016-01-19 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160006506A KR101722947B1 (ko) 2016-01-19 2016-01-19 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법

Publications (1)

Publication Number Publication Date
KR101722947B1 true KR101722947B1 (ko) 2017-04-04

Family

ID=58588376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160006506A KR101722947B1 (ko) 2016-01-19 2016-01-19 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법

Country Status (1)

Country Link
KR (1) KR101722947B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019112093A1 (ko) * 2017-12-08 2019-06-13 ㈜리얼감 포스 피드백 콘트롤 장치 및 방법
CN110603573A (zh) * 2017-04-11 2019-12-20 株式会社马斯科图 虚拟现实提供系统、三维显示数据提供装置、虚拟空间提供系统和程序
KR20200040465A (ko) 2018-10-10 2020-04-20 주식회사 지지킹덤 몰입형 가상 현실 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090122875A (ko) * 2008-05-26 2009-12-01 (주)다림시스템 실시간 가상 현실 스포츠 플랫폼 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090122875A (ko) * 2008-05-26 2009-12-01 (주)다림시스템 실시간 가상 현실 스포츠 플랫폼 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110603573A (zh) * 2017-04-11 2019-12-20 株式会社马斯科图 虚拟现实提供系统、三维显示数据提供装置、虚拟空间提供系统和程序
CN110603573B (zh) * 2017-04-11 2022-12-09 株式会社马斯科图 虚拟现实提供系统、三维显示数据提供装置、虚拟空间提供系统和程序
WO2019112093A1 (ko) * 2017-12-08 2019-06-13 ㈜리얼감 포스 피드백 콘트롤 장치 및 방법
KR20200040465A (ko) 2018-10-10 2020-04-20 주식회사 지지킹덤 몰입형 가상 현실 시스템
KR102148735B1 (ko) * 2018-10-10 2020-08-27 주식회사 지지킹덤 몰입형 가상 현실 시스템

Similar Documents

Publication Publication Date Title
US9927870B2 (en) Virtual reality system with control command gestures
CN110945405A (zh) 眼睛跟踪校准技术
CN106873767B (zh) 一种虚拟现实应用的运行控制方法和装置
WO2016150292A1 (zh) 一种融合真实环境的虚实结合的交互方法及系统
CN113853575A (zh) 具有滑动菜单的人工现实系统
Khundam First person movement control with palm normal and hand gesture interaction in virtual reality
WO2018118266A1 (en) Telepresence of multiple users in interactive virtual space
KR20160080064A (ko) 가상 환경의 가상 센서
CN110300994B (zh) 图像处理装置、图像处理方法以及图像系统
TW202101172A (zh) 用於人工實境系統的手臂視線驅動的使用者介面元件閘控
EP3234741A1 (en) Method, system and device for navigating in a virtual reality environment
JP2012525643A5 (ko)
JPWO2019123729A1 (ja) 画像処理装置、画像処理方法、およびプログラム
US20090058850A1 (en) System and method for intuitive interactive navigational control in virtual environments
KR20220018561A (ko) 사용자 인터페이스 요소들을 게이팅하기 위한 개인 어시스턴트 요소를 갖는 인공 현실 시스템들
KR101722947B1 (ko) 4차원 효과를 구현할 수 있는 가상현실 시스템 및 그 4차원 효과 처리방법
KR20150040580A (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
CN113424230B (zh) 生成动画序列的方法、系统以及非瞬时计算机可读存储介质
KR20220018562A (ko) 인공 현실 시스템을 위한 모서리-식별 제스처-구동 사용자 인터페이스 요소 게이팅
US20090079745A1 (en) System and method for intuitive interactive navigational control in virtual environments
US10345894B2 (en) System and method for image processing
JP2012104021A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
CN113658249A (zh) 虚拟现实场景的渲染方法、装置、设备和存储介质
CN113315963A (zh) 扩展现实显示方法、装置、系统和存储介质
Zhu et al. Keyboard before head tracking depresses user success in remote camera control

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant