KR20200067534A - 가상환경 보조장치 - Google Patents

가상환경 보조장치 Download PDF

Info

Publication number
KR20200067534A
KR20200067534A KR1020180154502A KR20180154502A KR20200067534A KR 20200067534 A KR20200067534 A KR 20200067534A KR 1020180154502 A KR1020180154502 A KR 1020180154502A KR 20180154502 A KR20180154502 A KR 20180154502A KR 20200067534 A KR20200067534 A KR 20200067534A
Authority
KR
South Korea
Prior art keywords
recognition unit
user
virtual environment
unit
sound
Prior art date
Application number
KR1020180154502A
Other languages
English (en)
Inventor
안길재
홍준표
김상훈
김경진
Original Assignee
주식회사 동우 이앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 동우 이앤씨 filed Critical 주식회사 동우 이앤씨
Priority to KR1020180154502A priority Critical patent/KR20200067534A/ko
Publication of KR20200067534A publication Critical patent/KR20200067534A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 가상환경 보조장치는, 사용자에게 가상환경을 제공할 때 사용되는 장치로서, 상기 사용자의 목 또는 머리에 둘러 착용되는 몸체부; 상기 가상환경에 반영하기 위한 상기 사용자의 위치를 인식하며, 상기 몸체부의 좌우 양측에 마련되는 스테레오 타입이고, 일 방향의 실제환경인 현실을 인식하는 위치 인식부; 및 상기 위치 인식부와 다른 방향의 실제환경을 인식하는 보조 인식부를 포함하는 것을 특징으로 한다.

Description

가상환경 보조장치{Virtual environments auxiliary device}
본 발명은 가상환경 보조장치에 관한 것이다.
최근 3차원 영상 처리 기술이 급속도로 발전하면서, 영화, 게임, 인테리어 등 다양한 분야에 가상현실(Virtual Reality; VR) 또는 증강현실(Augmented Reality; AR)을 이용한 서비스가 제공되고 있다. 증강 현실 이후에 등장한 혼합현실(Mixed Reality; MR)은 현실의 이미지와 3차원 모델링 데이터로 구현된 가상의 이미지를 합성하여 표시함으로써, 사용자에게 현실과 가상 이미지의 경계가 없는 이미지를 제공한다.
한편, 건축물의 설계 분야에서도 설계 데이터를 3차원 모델링 데이터화하여 보다 입체감 있게 건축물의 구조를 파악할 수 있도록 하는 기술이 개발되고 있다.
이러한 다시점 디스플레이의 특성상 시점 사이에 발생하는 크로스톡(crosstalk) 문제를 최소화하기 위해서는 사용자는 일정한 거리(약 1.5m ~ 2m)를 유지하고 시청해야 하는 제약이 존재하므로 이런 다시점 콘텐츠와 상호작용하기 위한 다양한 방법들이 제안되고 있다.
다시점 실감 콘텐츠에 대해 사용자와 상호작용을 할 수 있는 방법은 거치 방식의 제스처 센서인 kinect 센서를 이용하는 방법과 웨어러블 방식의 Myo Armband 근전도 센서를 이용 사용자의 근육의 움직임 정보를 인식하는 방법 등이 존재한다.
따라서, 현재에는 이러한 다시점 콘텐츠들의 정밀한 제어를 위해 이를 구현하는 다양한 장치들에 대한 다양한 연구 및 개발이 이루어지고 있는 실정이다.
본 발명은 종래기술을 개선하고자 창출된 것으로서, 본 발명의 목적은, 사용자의 위치 인식이나 촬영이 가능하도록 하며, 파노라마 이미지 구현이 가능한 가상환경 보조장치를 제공하기 위한 것이다.
본 발명의 일 실시예에 따른 가상환경 보조장치는, 사용자에게 가상환경을 제공할 때 사용되는 장치로서, 상기 사용자의 목 또는 머리에 둘러 착용되는 몸체부; 상기 가상환경에 반영하기 위한 상기 사용자의 위치를 인식하며, 상기 몸체부의 좌우 양측에 마련되는 스테레오 타입이고, 일 방향의 실제환경인 현실을 인식하는 위치 인식부; 및 상기 위치 인식부와 다른 방향의 실제환경을 인식하는 보조 인식부를 포함하는 것을 특징으로 한다.
구체적으로, 상기 몸체부는, 상기 사용자의 목을 두르며 전방이 개방되는 'U'자 목걸이 형태를 가지며, 상기 위치 인식부는, 카메라로 형성되어 전방의 실제환경을 인식하며, 상기 몸체부의 양 단부에 전방을 향하도록 마련되고, 상기 보조 인식부는, 카메라로 형성되어 후방의 실제환경을 인식하며, 상기 몸체부 상의 상기 양 단부 사이의 중앙을 기준으로 한 중앙부에 후방을 향하도록 마련되고, 상기 위치 인식부와 상기 보조 인식부에서 인식된 정보는, 서로 조합되어 파노라마 이미지로 이루어질 수 있다.
구체적으로, 상기 몸체부는, 상기 양 단부 중 적어도 하나에 상기 가상환경에 입력하기 위한 상기 사용자의 제스처를 인식하는 제스처 인식부가 형성되되, 상기 제스처 인식부는, 상기 몸체부의 양 단부에서 전방 아래를 향하도록 마련될 수 있다.
구체적으로, 상기 양 단부 중 적어도 하나에 형성되되, 상기 사용자에게 상기 가상환경을 육안으로 표시해주는 디스플레이부를 더 포함할 수 있다.
구체적으로, 상기 몸체부는, 상기 양 단부가 각각 상하로 기울어질 수 있도록 조절하는 한 쌍의 절환부를 더 포함하고, 상기 한 쌍의 절환부는, 상기 몸체부의 중앙부로부터 상기 양 단부 사이에 각각 형성되며, 상기 위치 인식부의 변경된 각도를 감지하는 각도센서를 포함할 수 있다.
구체적으로, 상기 보조 인식부는, 상기 각도센서로부터 수신된 각도 변화량에 연동하여 촬영 각도가 변경될 수 있다.
구체적으로, 상기 몸체부에서 연장 형성되어 상기 사용자의 귀에 연결되며 상기 사용자에게 사운드를 전달할 수 있도록 하는 한 쌍의 사운드부; 상기 몸체부의 상기 중앙부에 형성되어 상기 위치 인식부 및 상기 제스처 인식부로부터 인식되는 신호를 외부로 송수신하는 통신단자; 및 상기 몸체부 상의 양 단부에 형성되어 상기 사용자의 음성 신호를 수신하는 마이크부를 더 포함할 수 있다.
구체적으로, 상기 제스처 인식부는, 이미지 센서(image senser)와 엘이디 라이트(LED light)로 형성되고, 상기 디스플레이부는, 상기 가상환경을 외부에 비춰주는 프로젝터일 수 있다.
구체적으로, 상기 몸체부는, 상기 사용자의 머리에 착용되도록 'U'자의 헤드폰 형태를 가지며, 상기 'U'자 형태에 의해 형성되는 양 단부에 상기 사용자의 귀를 덮도록 형성되되 상기 사용자에게 사운드를 전달할 수 있도록 하는 한 쌍의 사운드부가 형성되고, 상기 위치 인식부는, 상기 사운드부의 전방에서 카메라로 형성되어 전방의 실제환경을 인식하고, 상기 보조 인식부는 상기 사운드부의 후방에서 카메라로 이루어져 후방의 실제환경을 인식하며, 상기 위치 인식부와 상기 보조 인식부에서 인식된 정보는, 서로 조합되어 파노라마 이미지로 이루어질 수 있다.
구체적으로, 상기 사운드부는, 상기 위치 인식부가 마련되는 링기어와, 상기 보조 인식부가 마련되며 상기 링기어의 내측에 마련되는 선기어와, 상기 링기어와 상기 선기어 사이에 맞물리는 유성기어와, 상기 위치 인식부의 변경된 각도 또는 상기 링기어의 최하단 지점에 대한 상기 위치 인식부의 높이 변화를 감지하는 각도센서와 상기 유성기어를 작동시키는 모터를 포함하고, 상기 선기어는, 상기 각도센서로부터 수신된 상기 위치 인식부의 각도 변화량 또는 높이 변화량에 연동하여 상기 보조 인식부의 각도 또는 높이를 변화시키도록 상기 유성기어를 따라 회전될 수 있다.
구체적으로, 상기 제스처 인식부는, 상기 한 쌍의 사운드부 중 적어도 하나의 전방에서 전방 아래를 향하도록 마련될 수 있다.
구체적으로, 상기 한 쌍의 사운드부에 상기 사용자의 머리에 착용되도록 'U'자 형태를 가지도록 형성되되, 상기 사용자에게 상기 가상환경을 육안으로 표시해주는 디스플레이부를 더 포함하고, 상기 디스플레이부는, 상기 사운드부를 회전 기준점으로 하여 상기 사용자의 머리 상단에서 상기 사용자의 눈으로 회전 가능하게 형성될 수 있다.
구체적으로, 상기 몸체부에 형성되어 상기 위치 인식부 및 상기 제스처 인식부로부터 인식되는 신호를 외부로 송수신하는 통신단자; 및 상기 몸체부의 양 단부에서 상기 사용자의 입까지 연장 형성되어 상기 사용자의 음성 신호를 수신하는 마이크부를 더 포함할 수 있다.
구체적으로, 상기 제스처 인식부는, 이미지 센서(image senser)와 엘이디 라이트(LED light)로 형성되고, 상기 디스플레이부는, 상기 가상환경을 상기 사용자의 눈에 직접 비춰주는 스크린일 수 있다.
본 발명에 따른 가상환경 보조장치는, 스테레오 타입의 위치 인식부를 사용자가 착용하도록 하여 카메라가 미리 마련되지 않은 공간에서도 사용자의 위치 인식이 가능하도록 하며, 파노라마 이미지 구현이 가능한 효과가 있다.
또한, 본 발명에 따른 가상환경 보조장치는, 제스처를 인식할 수 있는 제스처 인식부가 사용자의 머리 아래쪽을 향해 마련되도록 하여 손을 들어올리지 않아도 제스처 입력이 가능해 편의성을 높일 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 가상환경 보조장치를 사용자가 착용한 모습을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 가상환경 보조장치의 측면도이다.
도 3은 본 발명의 일 실시예에 따른 가상환경 보조장치의 평면도이다.
도 4는 본 발명의 일 실시예에 따른 가상환경 보조장치의 정면도이다.
도 5는 본 발명의 일 실시예에 따른 가상환경 보조장치를 사용자가 착용한 후 작동 범위를 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 가상환경 보조장치를 사용자가 착용한 모습을 나타내는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 가상환경 보조장치에서 디스플레이부의 작동을 나타낸 도면이다.
도 8은 본 발명의 다른 실시예에 따른 가상환경 보조장치에서 사운드부의 내부를 개략적으로 나타낸 도면이다.
도 9는 본 발명의 다른 실시예에 따른 가상환경 보조장치에서 사운드부의 내부 상태가 변경된 모습을 개략적으로 나타낸 도면이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.
이하 본 발명에서 기술되는 가상환경은, 가상현실, 증강현실, 이를 혼합한 혼합현실 모두를 포함하는 개념으로 기술된 것임을 주지바라며, 이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 가상환경 보조장치를 착용한 착용도, 도 2는 본 발명의 일 실시예에 따른 가상환경 보조장치의 측면도, 도 3은 본 발명의 일 실시예에 따른 가상환경 보조장치의 평면도, 도 4는 본 발명의 일 실시예에 따른 가상환경 보조장치의 정면도이고, 도 5는 본 발명의 일 실시예에 따른 가상환경 보조장치를 착용한 후 작동 범위를 도시한 도이다.
도 1 내지 도 5에 도시된 바와 같이 본 발명의 일 실시예에 따른 가상현실 보조장치(10)는, 사용자(U)에게 가상환경을 제공할 때 사용되는 장치로서, 몸체부(11), 위치 인식부(12), 보조 인식부(12A), 제스처 인식부(13), 디스플레이부(14), 절환부(15), 사운드부(16), 통신 단자(17) 및 마이크부(18)를 포함한다.
이하 도 1 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 가상현실 보조장치(10)에 대해서 상세히 설명하도록 한다.
몸체부(11)는, 사용자(U)의 목(N)에 둘러 착용되며, 사용자(U)의 목(N)을 두르며 전방이 개방되는 'U'자의 목걸이 형태를 가질 수 있다.
몸체부(11)는, 사용자(U)의 목(N)의 후방에 맞닿는 중앙부(111)와 중앙부(111)로부터 좌우로 전방으로 연장 형성되어 종단에 위치하는 양 단부(112)를 포함할 수 있다. 즉 중앙부(111)는, 양 단부(112) 사이의 중앙을 기준으로 한 위치에 형성될 수 있다.
이와 같이 본 발명에 따른 가상환경 보조장치(10)는, 가상환경 보조장치(10)를 목(N)에 걸 수 있는 목걸이 형태로 제작함으로써, 사용자(U)의 머리(H)에 가해지는 하중을 줄일 수 있는 효과가 있다.
위치 인식부(12)는, 가상환경에 반영하기 위한 사용자(U)의 위치를 인식(촬영일 수 있음)하며, 몸체부(11)의 좌우 양측에 마련되는 스테레오 타입으로 형성된다.
구체적으로 위치 인식부(12)는, 몸체부(11)의 양 단부(112)에 전방을 향하도록 마련되며 한 쌍 형성될 수 있다.
위치 인식부(12)는, 카메라(Camera)의 형태를 가질 수 있으며, 일례로 RGB카메라로 형성되되 스테레오 타입으로 형성되어 도 5에 도시된 C1의 범위를 인지함으로써, 사용자(U)의 전방의 환경을 폭넓게 인식하여 사용자(U)의 위치를 정확하게 인식할 수 있다.
위치 인식부(12)는, 좌측과 우측에서 얻어지는 사용자(U)의 외부 환경을 이미지의 형태로 얻어 이를 통신 단자(17)에 전달하고, 통신 단자(17)는 이를 분석하여 외부로 공급할 수 있다.
여기서 통신 단자(17)는, 이미지 분석부(Image Analysis; 도시하지 않음), 이미지 교정부(Image Correction; 도시하지 않음) 및 깊이맵 발생부(Depth Map Generation)를 포함할 수 있다.
이미지 분석부는, 좌측과 우측에서 얻어지는 사용자(U)의 외부 환경을 이미지의 형태로 얻어 이를 분석한다.
이미지 분석부는, 사용자(U)의 외부 환경 즉 C1의 범위에서 얻어지는 이미지를 토대로 회전(Roll), 기울기(Tilt), 높이(Height), 수렴(Convergence), 광축(Optical axis), 줌(Zoom), 초점(Focus), 아이리스(Iris), 깊이(Depth), 밝기(Luminance), 색차(Chrominance), 가무트 디퍼런스(Gamut differences) 등을 분석할 수 있다.
이후 분석된 내용을 이미지 교정부로 전달하고, 이미지 교정부에서 상기 분석용 내용을 토대로 기하학적으로 매칭하고 색을 매칭시킨다.
이후 매칭된 내용을 3차원으로 변환된 깊이맵 발생부에서 받아들여 밀도맵(dense map) 또는 반밀도차이 맵(Semi-dense disparity map)을 발생시켜 사용자(U)의 위치를 정확하게 파악할 수 있다.
이러한 상기 일련의 과정을 통해서 본 발명은 위치 인식부(12)를 스테레오 타입으로 형성하여 별도의 카메라가 공간 상에 미리 마련되지 않고도 사용자(U)의 위치 인식이 가능하도록 하는 효과가 있다.
이렇게 인식된 사용자(U)의 위치 정보는 통신 단자(17)에 의해 외부(일례로 대화면 디스플레이 또는 안경형 헤드 마운트 장치)로 송출되어 출력될 수 있다.
보조 인식부(12A)는, 위치 인식부(12)와 다른 방향의 실제환경을 인식하는 구성으로서, 위치 인식부(12)와 동일/유사하게 카메라로 형성되어 사용자(U) 주변의 실제환경을 인식할 수 있고, 위치 인식부(12)가 전방을 인식한 것과 달리, 사용자(U) 주변의 후방을 인식하는 것에 차이가 있다.
여기서, 보조 인식부(12A)는, 앞서 기술된 바와 같이 사용자(U)의 외부 환경을 이미지의 형태로 얻어 이를 통신 단자(17)에 전달할 수 있고, 분석된 내용의 이미지 매칭 등의 과정이 동일/유사하게 수행될 수 있으므로 중복되는 설명은 생략하도록 한다.
다만 보조 인식부(12A)는, 위치 인식부(12)와 달리 후방을 인식하도록 마련될 수 있게, 몸체부(11) 상의 중앙부(111)에 후방을 향하도록 마련될 수 있다. 그리고 위치 인식부(12)와 보조 인식부(12A)에서 인식된 정보(촬영 정보일 수 있음)는, 서로 조합되어 파노라마 이미지(일례로 360도 이미지/영상)로 이루어질 수 있으며, 이는 앞서 기술한 통신 단자(17)에서 분석된 후 조합될 수 있고, 파노라마 이미지의 생성 과정은 공지된 메카니즘에 갈음할 수 있다.
더불어 보조 인식부(12A)는, 절환부(15)의 각도센서(도시하지 않음)에서 감지/인식된 정보를 통해, 위치 인식부(12)에 대응하도록 일례로 위치 인식부(12)와 동일한 각도에서 촬영이 이루어지도록, 위치 인식부(12)의 상태 변화에 연동할 수 있다.
여기서 절환부(15)의 각도센서(도시하지 않음)에서 감지된 정보는, 위치 인식부(12)의 상태 변화(변경)일 수 있으며, 상태 변화는 위치 인식부(12)의 각도 변화 등일 수 있으나 이에 한정되는 것은 아니다.
또한, 보조 인식부(12A)이 상태 변화는, 보조 인식부(12A)에 연결된 모터(도시하지 않음)에 의해 구현될 수 있으며, 이는 일반적인 모터/기어구조의 작동 메카니즘에 따라 이루어질 수 있고, 이외의 다양한 공지된 기술이 접목될 수 있으므로, 상세한 설명은 생략하도록 한다.
게다가 도 1 및 도 2를 참조시 보조 인식부(12A)는, 몸체부(11)의 후방으로 돌출된 구조를 도시하였으나, 이는 이해 및 설명의 편의를 위한 일례에 불과하며, 렌즈 등의 손상을 방지하도록 몸체부(111)로부터 함몰된 구조로 이루어질 수도 있음은 물론, 공지된 다양한 구조를 통해 구현될 수 있다.
제스처 인식부(13)는, 가상환경에 입력하기 위해 사용자(U)의 제스처를 인식한다.
구체적으로 제스처 인식부(13)는, 몸체부(11)의 양 단부(112) 중 적어도 하나에 형성되되, 몸체부(11)의 양 단부(112)에서 전방 아래를 향하도록 마련될 수 있다.
제스처 인식부(13)는 몸체부(11)의 양 단부(112)에서 전방 아래를 향하도록 마련되어, 도 5에 도시된 C2의 범위를 인지함으로써, 사용자(U)의 제스처를 매우 효과적으로 인식할 수 있다.
즉, 기존에는 손을 내린 상태에서 인식이 불가능했던 것을 제스처 인식부(13)에서 몸체부(11)의 전방 아래를 향하도록 형성함으로써, 사용자(U)가 편하게 손을 내린 상태에서도 제스처를 인식할 수 있는 효과가 있다.
따라서, 장시간 가상환경을 이용하는 경우에도 사용자(U)의 손을 들어올려 관절에 무리가 갔던 종래와 달리, 본 발명은 피로감을 덜어줄 수 있으면서 매우 편리하고 쾌적하게 가상환경의 이용이 가능하다.
제스처 인식부(13)는, 이미지 센서(Image Sensor; 131) 및 엘이디 라이트(LED Light; 132)로 형성될 수 있다. 이때, 제스처 인식부(13)는 가시광선 영역 외의 영역 즉 자외선 또는 적외선의 영역에서도 인식이 가능하다.
제스처 인식부(13)는 사용자(U)로부터 대략 1.2m의 근거리 제스처를 인식할 수 있도록 하며, 하나의 경우 인식 범위가 대략 180도로 형성될 수 있다.
제스처 인식부(13)는 본 발명에서 몸체부(1)의 양 단부(112)에 각각 모두 구비될 수 있으며, 인식 범위를 대략 180도 이상으로 넓힐 수 있다.
제스처 인식부(13)는, 일정한 시간 동안의 사용자(U)의 손의 움직임을 3차원 깊이 정보를 생성할 수 있는 카메라를 구비하여 카메라로 촬영한 영상을 인식할 수 있으며, 일정한 시간의 촬영구간을 연속하여 촬영함으로써 사용자(U)의 손 움직임의 누락 없이 촬영할 수 있다.
제스처 인식부(13)는, 상기와 같이 촬영된 사용자(U)의 손 움직임 정보를 통신 단자(17)로 전달하고 통신 단자(17)는 외부로 전달하여 사용자(U)의 손을 다시 점 영상으로 구현한 가상 제스처 영상을 생성할 수 있다.
이렇게 인식된 사용자(U)의 제스처 정보는 통신 단자(17)에 의해 외부(일례로 대화면 디스플레이 또는 안경형 헤드 마운트 장치)로 송출되어 출력될 수 있다.
디스플레이부(14)는, 몸체부(11)의 양 단부(112) 중 적어도 하나에 형성되되, 사용자(U)에게 가상환경을 육안으로 표시해줄 수 있다.
여기서 디스플레이부(14)는, 가상환경을 외부에 비춰주는 프로젝터일 수 있다.
절환부(15)는, 몸체부(11)의 양 단부(112)가 각각 상하로 기울어질 수 있도록 각도를 조절하며, 몸체부(11) 상의 양 단부(112) 사이의 중앙을 기준으로 한 중앙부(111)로부터 양 단부(112) 사이에 각각 한 쌍 형성될 수 있다.
절환부(15)는, 몸체부(11)의 양 단부(112)가 각각 상하로 기울어질 수 있도록 조절하여, 양 단부(112)에 설치된 위치 인식부(12), 제스처 인식부(13) 및 디스플레이부(14)의 인식 범위 또는 투사 범위를 자유롭게 조절할 수 있는 효과가 있다.
일례로 도 2에 도시된 바와 같이 A1 방향으로 기울어지도록 조절되어 몸체부(11)의 양 단부(112)가 각각 하방으로 기울어지도록 조절할 수 있으며, A2 방향으로 기울어지도록 조절되어 몸체부(11)의 양 단부(112)가 각각 상방으로 기울어지도록 조절할 수 있다.
절환부(15)는 유압 방식, 탄성을 이용한 기계적 방식 또는 전자적 방식을 이용하여 기울어지도록 각도가 조절될 수 있다.
더불어 절환부(15)는, 보조 인식부(12A)가 위치 인식부(12)의 상태 변화에 대응하도록 상태를 변화할 수 있게, 각도센서(도시하지 않음)를 포함할 수 있다. 여기서 상태 변경은 앞서 언급된 바와 같이 각도 변화 등일 수 있고, 각도센서는 공지된 다양한 센서가 적용되어 구현될 수 있다.
사운드부(16)는, 몸체부(11)에서 연장 형성되어 사용자(U)의 귀에 연결되며 사용자(U)에게 사운드(소리)를 전달할 수 있도록 형성되며 한 쌍 형성될 수 있다.
사운드부(16)는 유선 이어폰의 형태를 가질 수 있으나 이에 한정되지 않고 몸체부(11)에 형성된 무선 통신을 통해 무선 이어폰의 형태를 가질 수 있다. 이때, 무선 통신 방식은 와이파이(Wi-Fi) 및 블루투스(BlueTooth) 방식일 수 있다.
사운드부(16)는, 통신 단자(17)와 유선 또는 무선으로 연결되어 외부로부터 사운드를 전달받아 사용자(U)의 귀로 전달할 수 있다.
통신 단자(17)는, 몸체부(11)의 중앙부(111)에 형성되어 위치 인식부(12) 및 제스처 인식부(13)로부터 인식되는 신호를 외부로 송수신할 수 있다.
통신 단자(17)는, 위치 인식부(12), 제스처 인식부(13)와 무선 또는 유선으로 연결되어 정보를 송수신할 수 있으며, 또한 외부(일례로 헤드 마운트 장치(Head Mount Display; HMD))와 유선 또는 무선으로 연결되어 정보를 송수신할 수 있다.
통신 단자(17)는 상기 기술한 이미지 분석부, 이미지 교정부 및 깊이맵 발생부 외에 피드백 정보 생성부를 더 포함할 수 있다.
피드백 정보 생성부는, 가상의 사용자(U) 손이 다시점 3D 콘텐츠를 터치 또는 클릭하면, 터치 또는 클릭에 대한 피드백 정보를 생성할 수 있다. 여기서 피드백 정보는 가상의 사용자(U) 손이 다시점 3D 콘텐츠를 터치 또는 클릭했을 때, 터치 도는 클릭으로 발생하는 일정한 제어 명령에 대한 정보를 의미할 수 있다.
예를 들어 가상의 사용자(U)의 손이 다시점 3D 콘텐츠로 구현된 특정 영상의 플레이 아이콘을 터치 또는 클릭했을 때, 특정 영상을 플레이 하는 제어 명령에 대한 정보를 피드백 신호라고 할 수 있다.
이러한 피드백 신호를 통해서 다시점 3D 콘텐츠를 제어할 수 있으며 제어된 다시점 3D 콘텐츠를 사용자(U)에게 제공할 수 있다.
마이크부(18)는, 몸체부(11) 상의 양 단부(112)에 형성되어 사용자(U)의 음성 신호를 수신할 수 있다.
마이크부(18)는 통신 단자(17)와 유선 또는 무선으로 연결되어 사용자(U)의 음성 신호를 통신 단자(17)로 송신할 수 있다.
또한, 본 발명의 실시예에서는, 전원부(B1)와 조작버튼(B2)을 더 포함할 수 있다.
전원부(B1)는 몸체부(11)의 일측에 형성되어 본 발명의 가상환경 보조장치(10)를 구동할 수 있는 동력을 저장하여 공급할 수 있다.
조작버튼(B2)은, 몸체부(11)의 일측에 형성되어 전원부(B1)로부터 공급되는 동력을 전달받도록 전원을 온-오프(On-Off)시킬 수 있으며, 또한, 가상환경 보조장치(10)의 다양한 구동장치들을 구동제어할 수 있다. 일레로 사운드부(16)의 소리 볼륨을 높이거나 낮추는 조작을 구현할 수도 있으며 이에 한정되지 않는다.
도 6은 본 발명의 다른 실시예에 따른 가상환경 보조장치를 착용한 착용도이고, 도 7은 본 발명의 다른 실시예에 따른 가상환경 보조장치에서 디스플레이부의 작동을 나타낸 작동도이며, 도 8은 본 발명의 다른 실시예에 따른 가상환경 보조장치에서 사운드부의 내부를 개략적으로 나타낸 도면이고, 도 9는 본 발명의 다른 실시예에 따른 가상환경 보조장치에서 사운드부의 내부 상태가 변경된 모습을 개략적으로 나타낸 도면이다.
도 6 내지 도 9에 도시된 바와 같이 본 발명의 다른 실시예에 따른 가상현실 보조장치(20)는, 사용자(U)에게 가상환경을 제공할 때 사용되는 장치로서, 몸체부(21), 위치 인식부(22), 보조 인식부(22A), 제스처 인식부(23), 사운드부(26) 및 디스플레이부(29)를 포함한다.
이하 도 6 및 도 7를 참조하여 본 발명의 일 실시예에 따른 가상현실 보조장치(20)에 대해서 상세히 설명하도록 한다.
몸체부(21)는, 사용자(U)의 머리(H)에 착용되도록 'U'자의 헤드폰 형태를 가질 수 있다.
몸체부(21)는, 사용자(U)의 머리(H)에 착용 시 정수리에 맞닿는 중앙부(211)와 중앙부(211)로부터 좌우로 하방으로 연장 형성되어 종단에 위치하는 양 단부(212)를 포함할 수 있다. 즉, 중앙부(211)는, 양 단부(212) 사이의 중앙을 기준으로 한 위치에 형성될 수 있다.
위치 인식부(22)는, 한 쌍의 사운드부(26)의 전방 각각에 전방을 향하도록 구비될 수 있다.
위치 인식부(22)는 상기 내용과 상충되지 않는 범위에서 도 1 내지 도 5에서 기재한 본 발명의 일 실시예에 따른 가상환경 보조장치(10)에서 기술한 위치 인식부(12)와 동일하므로, 그 외의 내용은 생략하도록 한다.
보조 인식부(22A)는, 사용자(U)의 후방을 인식하는 구성으로서, 본 실시예에 따른 기술과 상충되지 않는다면, 일 실시예에서 설명된 보조 인식부(12A)의 기술과 동일/유사할 수 있다.
다만 본 실시예의 보조 인식부(22A)는, 사운드부(26)에 마련되는 것이 바람직하며, 이는 위치 인식부(22)에서 인식된 이미지와의 조합/연동을 향상시키기 위함이므로, 위치 인식부(22)의 위치 등에 따라 다른 배치 관계를 이룰 수 있는 바와 같이 다양한 변형예가 가능하다.
일례로 본 실시예에서는 링기어(26A)에 위치 인식부(22)가 마련되고 선기어(26B)에 보조 인식부(22A)가 마련되는 것으로 설명하나, 이와 달리 사운드부(26)의 외관이나 링기어(26A)에 보조 인식부(22A)가 마련되고 선기어(26B)에 위치 인식부(22)가 마련될 수 있는 바와 같이 위치 인식부(22)와 보조 인식부(22A)의 위치가 서로 반대방향을 이루고 위치 인식부(22)의 변화에 대한 보조 인식부(22A)의 변화가 이루어지는 구조라면 다양한 구조가 적용가능하다.
더불어 보조 인식부(22A)에서 인식된 정보가, 위치 인식부(22)에서 인식된 정보와 서로 조합되어 파노라마 이지미로 이루어지는 것이 용이하도록, 위치 인식부(22)의 상태 변화에 연동하여 상태가 변화될 수 있으며, 여기서 상태 변화는 일 실시예에서 언급된 상태 변화와 동일/유사할 수 있어 위치 인식부(12)의 각도 변화일 수 있고, 사운드부(26)의 최하단 위치에 대한 위치 인식부(22)의 높이 변화 등일 수 있으나 이에 한정되는 것은 아니다.
그리고 보조 인식부(22A)의 상태 변화는 사운드부(26)에 의해 수행될 수 있으며 이는 후술하기로 한다.
제스처 인식부(23)는, 한 쌍의 사운드부(26) 중 적어도 하나의 전방에서 전방 아래를 향하도록 마련될 수 있다.
제스처 인식부(23)는, 이미지 센서(Image Sensor; 231) 및 엘이디 라이트(LED Light; 232)로 형성될 수 있다.
제스처 인식부(23)는, 상기 내용과 상충되지 않는 범위에서 도 1 내지 도 5에서 기재한 본 발명의 일 실시예에 따른 가상환경 보조장치(10)에서 기술한 제스처 인식부(23)와 동일하므로, 그 외의 내용은 생략하도록 한다.
본 발명에서는 제스처 인식부(23)를 사용자(U)의 머리 아래쪽을 향해 마련되도록 함으로써, 장시간 가상환경을 이용하는 경우에도 사용자(U)의 손을 들어올려 관절에 무리가 갔던 종래와 달리, 본 발명은 피로감을 덜어줄 수 있으면서 매우 편리하고 쾌적하게 가상환경의 이용이 가능하다.
사운드부(26)는, 몸체부(21)의 'U'자 형태에 의해 형성되는 양 단부(212)에 사용자(U)의 귀를 덮도록 각각 한 쌍 형성되되, 사용자(U)에게 사운드(소리)를 전달할 수 있도록 한다.
사운드부(26)는, 통신 단자와 유선 또는 무선으로 연결되어 외부로부터 사운드를 전달받아 사용자(U)의 귀로 전달할 수 있다.
사운드부(26)는, 보조 인식부(22A)의 상태 변화를 구현하기 위해, 각도센서(도시하지 않음), 링기어(26A), 선기어(26B), 유성기어(26C), 모터(도시하지 않음)를 포함할 수 있다.
각도센서는, 앞서 언급된 일실시예의 각도센서와 동일/유사한 기능을 수행할 수 있어, 위치 인식부(22)의 변경된 각도 또는 링기어(26A)의 최하단 지점에 대한 위치 인식부(22)의 높이 변화를 감지할 수 있다.
링기어(26A)는, 사운드부(26)의 외관 내측에 마련되어 외부로 노출되지 않고 커버된 구조로 이루어질 수 있고, 외측 또는 측면 등에 위치 인식부(22)가 마련될 수 있으며, 이 경우 위치 인식부(22)가 위치되거나 위치될 수 있는 범위 내의 사운드부(26)의 외관은 투명한 재질의 창이 마련될 수 있고, 유성기어(26C)와의 기어 맞물림을 위해 내주면에 기어구조가 마련될 수 있다.
게다가 본 실시예의 구성들은, 특정한 재질로 한정되는 것은 아니나, 링기어(26A)는 선기어(26B)에 마련될 수 있는 보조 인식부(22A)의 촬영을 위해 보조 인식부(22A)가 위치되거나 위치될 수 있는 범위 내의 영역이 적어도 투명하거나 반투명한 재질로 이루어지는 것이 바람직하다.
선기어(26B)는, 유성기어(26C)가 위치된 영역으로부터 이격된 위치에 보조 인식부(22A)가 마련될 수 있으며(복수의 유성기어(26C) 사이의 선기어(26B) 외주면 또는 측면 등일 수 있음), 링기어(26A)의 직경보다 작게 이루어져 링기어(26A)의 내측에 마련될 수 있고, 유성기어(26C)와의 기어 맞물림을 위해 외주면에 기어구조가 마련될 수 있다.
유성기어(26C)는, 링기어(26A)에 대한 선기어(26B)의 상대 위치를 변동하기 위한 구성으로서, 링기어(26A)와 선기어(26B) 사이에서 기어 맞물림이 이루어질 수 있다.
이러한 링기어(26A), 선기어(26B), 유성기어(26C)의 기어구조는 본 실시예의 구현을 위한 공지된 다양한 작동 메카니즘이 가능하다.
모터는, 사운드부(26)의 외관이나 기어구조 등에 고정된 상태로 마련될 수 있고, 모터축(도시하지 않음)이 유성기어(26C)에 연결되어 유성기어(26C)를 회전시킬 수 있어, 유성기어(26C)를 따라 회전되는 선기어(26B)의 조작으로 위치 인식부(22)의 각도 변화량 또는 높이 변화량에 연동하여 보조 인식부(22A)의 각도 또는 높이를 변화시킬 수 있다.
한편 모터가 생략되고, 링기어(26A)의 중심축이 선기어(26B)에 간섭되지 않으면서도 사운드부(26)의 외관에 연결되어, 사운드부(26)의 외관에서 링기어(26A)가 회전 가능하도록 이루어지고, 링기어(26A)의 둘레면에서 하부 중심부의 무게가 가중된 구조(일례로 링기어(26A)의 하부 중심부에 중심추(도시하지 않음)를 이룰 수 있음)를 가지고, 이때 사운드부(26)의 외관이 바닥면에 대해 상대 회전이 이루어지더라도(사용자(U)의 고개 흔들기, 끄덕임 등에 연동), 중심추 등를 통해 링기어(26A)는 중심추 영역이 바닥면에 항시 대향할 수 있어, 링기어(26A)는 바닥면에 대하여 상대회전이 이루어지지 않는 구조를 이룰 수도 있다. 이 경우 선기어(26B)와 유성기어(26C)가 생략되고, 링기어(26A)의 전후방 각각에 위치 인식부(22)와 보조 인식부(22A)가 항시 바닥면에 대하여 평행한 상태가 될 수 있다.
또는 링기어(26A)가 사운드부(26)의 외관과 함께 회전을 이루고, 유성기어(26C)는 링기어(26A)의 회전에 따라 아이들 회전되어 선기어(26B)가 링기어(26A)의 방향과 반대방향으로 회전될 수도 있다. 이 경우 도 9를 참조하는 바와 같이, 링기어(26A)에 연동되어 위치 인식부(22)가 하부 방향으로 위치/각도가 변경되면, 이에 대응하여 선기어(26B)가 회전된 상태가 되어 보조 인식부(22A)가 위치 인식부(22)에 연동하여 위치/각도가 변경될 수도 있는 바와 같이 다양한 변형예가 가능하다.
더불어 유성기어(26C) 구조 외에도 방향을 돌릴 수 있는 공지된 다양한 구조도 가능하다.
디스플레이부(29)는, 한 쌍의 사운드부(26)에 사용자(U)의 머리(H)에 착용되도록 'U'자 형태를 가지도록 형성되되, 사용자(U)에게 가상환경을 육안으로 표시해주며, 사운드부(26)를 회전 기준점으로 하여 사용자(U)의 머리(H) 상단에서 사용자(U)의 눈(I)으로 회전 가능하게 형성될 수 있다.
즉, 도 7을 살펴보면, (a)에서와 같이 디스플레이부(29)는, 몸체부(21)와 적어도 일부 겹쳐지도록 형성되고, (b)에서 (c)로 변환되는 것과 같이 회전에 의해서 몸체부(21)로부터 벗어나 사용자(U)의 눈(I)을 감싸게 변환될 수 있다.
이때, 디스플레이부(29)는, 가상환경을 사용자(U)의 눈에 직접 비춰주는 스크린일 수 있으며, 통신단자와 유선 또는 무선으로 연결되어 통신단자로부터 위치 인식부(22), 제스처 인식부(23), 마이크부로부터 정보를 전달받아 가상환경에 반영한 후 사용자(U)의 눈에 직접 비춰줄 수 있다.
이를 통해서 본 발명의 가상환경 보조장치(20)는, 헤드 마운트 장치(HMD)를 함께 구비할 수 있어 구축 비용을 절감하고 사용자(U)가 손쉽게 착용할 수 있어 사용자의 활용성이 증대되는 효과가 있다.
본 발명의 다른 실시예에 따른 가상현실 보조장치(20)는, 통신 단자(도시하지 않음), 마이크부(도시하지 않음) 및 전원부(도시하지 않음)와 조작버튼(도시하지 않음)을 더 포함할 수 있다.
통신 단자는, 몸체부(21)에 형성되어 위치 인식부(22) 및 제스처 인식부(23)로부터 인식되는 신호를 송수신할 수 있다.
통신 단자는, 상기 내용과 상충되지 않는 범위에서 도 1 내지 도 5에서 기재한 본 발명의 일 실시예에 따른 가상환경 보조장치(10)에서 기술한 통신 단자는(17)와 동일하므로, 그 외의 내용은 생략하도록 한다.
마이크부는, 몸체부(21)의 양 단부(212)에서 사용자(U)의 입까지 연장 형성되어 사용자(U)의 음성 신호를 수신할 수 있다.
마이크부는, 통신 단자와 유선 또는 무선으로 연결되어 사용자(U)의 음성 신호를 통신 단자로 송신할 수 있다.
전원부와 조작버튼은, 도 1 내지 도 5에서 기재한 본 발명의 일 실시예에 따른 가상환경 보조장치(10)에서 기술한 전원부(B1) 및 조작버튼(B2)과 동일하므로, 그 외의 내용은 생략하도록 한다.
이상 본 발명을 구체적인 실시예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당해 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.
본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
10,20: 가상환경 보조장치 11: 몸체부
111: 중앙부 112: 단부
12: 위치 인식부 12A: 보조 인식부
13: 제스처 인식부 131: 이미지 센서
132: 엘이디 라이트 14: 디스플레이부(프로젝터)
15: 절환부 16: 사운드부
17: 통신 단자 18: 마이크부
21: 몸체부 211: 중앙부
212: 단부 22: 위치 인식부
22A: 보조 인식부 23: 제스처 인식부
231: 이미지 센서 232: 엘이디 라이트
26: 사운드부 26A: 링기어
26B: 선기어 26C: 유성기어
29: 디스플레이부(스크린)
B1: 전원부 B2: 조작버튼
U: 사용자 H: 머리
N: 목 I: 눈

Claims (14)

  1. 사용자에게 가상환경을 제공할 때 사용되는 장치로서,
    상기 사용자의 목 또는 머리에 둘러 착용되는 몸체부;
    상기 가상환경에 반영하기 위한 상기 사용자의 위치를 인식하며, 상기 몸체부의 좌우 양측에 마련되는 스테레오 타입이고, 일 방향의 실제환경인 현실을 인식하는 위치 인식부; 및
    상기 위치 인식부와 다른 방향의 실제환경을 인식하는 보조 인식부를 포함하는 것을 특징으로 하는 가상환경 보조장치.
  2. 제 1 항에 있어서,
    상기 몸체부는, 상기 사용자의 목을 두르며 전방이 개방되는 'U'자 목걸이 형태를 가지며,
    상기 위치 인식부는, 카메라로 형성되어 전방의 실제환경을 인식하며, 상기 몸체부의 양 단부에 전방을 향하도록 마련되고,
    상기 보조 인식부는, 카메라로 형성되어 후방의 실제환경을 인식하며, 상기 몸체부 상의 상기 양 단부 사이의 중앙을 기준으로 한 중앙부에 후방을 향하도록 마련되고,
    상기 위치 인식부와 상기 보조 인식부에서 인식된 정보는, 서로 조합되어 파노라마 이미지로 이루어지는 것을 특징으로 하는 가상환경 보조장치.
  3. 제 2 항에 있어서, 상기 몸체부는,
    상기 양 단부 중 적어도 하나에 상기 가상환경에 입력하기 위한 상기 사용자의 제스처를 인식하는 제스처 인식부가 형성되되,
    상기 제스처 인식부는, 상기 몸체부의 양 단부에서 전방 아래를 향하도록 마련되는 것을 특징으로 하는 가상환경 보조장치.
  4. 제 3 항에 있어서,
    상기 양 단부 중 적어도 하나에 형성되되, 상기 사용자에게 상기 가상환경을 육안으로 표시해주는 디스플레이부를 더 포함하는 것을 특징으로 하는 가상환경 보조장치.
  5. 제 4 항에 있어서,
    상기 몸체부는,
    상기 양 단부가 각각 상하로 기울어질 수 있도록 조절하는 한 쌍의 절환부를 더 포함하고,
    상기 한 쌍의 절환부는,
    상기 몸체부의 중앙부로부터 상기 양 단부 사이에 각각 형성되며, 상기 위치 인식부의 변경된 각도를 감지하는 각도센서를 포함하는 것을 특징으로 하는 가상환경 보조장치.
  6. 제 5 항에 있어서,
    상기 보조 인식부는, 상기 각도센서로부터 수신된 각도 변화량에 연동하여 촬영 각도가 변경되는 것을 특징으로 하는 가상환경 보조장치.
  7. 제 6 항에 있어서,
    상기 몸체부에서 연장 형성되어 상기 사용자의 귀에 연결되며 상기 사용자에게 사운드를 전달할 수 있도록 하는 한 쌍의 사운드부;
    상기 몸체부의 상기 중앙부에 형성되어 상기 위치 인식부 및 상기 제스처 인식부로부터 인식되는 신호를 외부로 송수신하는 통신단자; 및
    상기 몸체부 상의 양 단부에 형성되어 상기 사용자의 음성 신호를 수신하는 마이크부를 더 포함하는 것을 특징으로 하는 가상환경 보조장치.
  8. 제 7 항에 있어서,
    상기 제스처 인식부는, 이미지 센서(image senser)와 엘이디 라이트(LED light)로 형성되고,
    상기 디스플레이부는, 상기 가상환경을 외부에 비춰주는 프로젝터인 것을 특징으로 하는 가상환경 보조장치.
  9. 제 1 항에 있어서,
    상기 몸체부는, 상기 사용자의 머리에 착용되도록 'U'자의 헤드폰 형태를 가지며, 상기 'U'자 형태에 의해 형성되는 양 단부에 상기 사용자의 귀를 덮도록 형성되되 상기 사용자에게 사운드를 전달할 수 있도록 하는 한 쌍의 사운드부가 형성되고,
    상기 위치 인식부는, 상기 사운드부의 전방에서 카메라로 형성되어 전방의 실제환경을 인식하고, 상기 보조 인식부는 상기 사운드부의 후방에서 카메라로 이루어져 후방의 실제환경을 인식하며,
    상기 위치 인식부와 상기 보조 인식부에서 인식된 정보는, 서로 조합되어 파노라마 이미지로 이루어지는 것을 특징으로 하는 가상환경 보조장치.
  10. 제 9 항에 있어서,
    상기 사운드부는,
    상기 위치 인식부가 마련되는 링기어와, 상기 보조 인식부가 마련되며 상기 링기어의 내측에 마련되는 선기어와, 상기 링기어와 상기 선기어 사이에 맞물리는 유성기어와, 상기 위치 인식부의 변경된 각도 또는 상기 링기어의 최하단 지점에 대한 상기 위치 인식부의 높이 변화를 감지하는 각도센서와 상기 유성기어를 작동시키는 모터를 포함하고,
    상기 선기어는, 상기 각도센서로부터 수신된 상기 위치 인식부의 각도 변화량 또는 높이 변화량에 연동하여 상기 보조 인식부의 각도 또는 높이를 변화시키도록 상기 유성기어를 따라 회전되는 것을 특징으로 하는 가상환경 보조장치.
  11. 제 9 항에 있어서,
    상기 제스처 인식부는, 상기 한 쌍의 사운드부 중 적어도 하나의 전방에서 전방 아래를 향하도록 마련되는 것을 특징으로 하는 가상환경 보조장치.
  12. 제 11 항에 있어서,
    상기 한 쌍의 사운드부에 상기 사용자의 머리에 착용되도록 'U'자 형태를 가지도록 형성되되, 상기 사용자에게 상기 가상환경을 육안으로 표시해주는 디스플레이부를 더 포함하고,
    상기 디스플레이부는,
    상기 사운드부를 회전 기준점으로 하여 상기 사용자의 머리 상단에서 상기 사용자의 눈으로 회전 가능하게 형성되는 것을 특징으로 하는 가상환경 보조장치.
  13. 제 12 항에 있어서,
    상기 몸체부에 형성되어 상기 위치 인식부 및 상기 제스처 인식부로부터 인식되는 신호를 외부로 송수신하는 통신단자; 및
    상기 몸체부의 양 단부에서 상기 사용자의 입까지 연장 형성되어 상기 사용자의 음성 신호를 수신하는 마이크부를 더 포함하는 것을 특징으로 하는 가상환경보조장치.
  14. 제 13 항에 있어서,
    상기 제스처 인식부는, 이미지 센서(image senser)와 엘이디 라이트(LED light)로 형성되고,
    상기 디스플레이부는, 상기 가상환경을 상기 사용자의 눈에 직접 비춰주는 스크린인 것을 특징으로 하는 가상환경 보조장치.
KR1020180154502A 2018-12-04 2018-12-04 가상환경 보조장치 KR20200067534A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180154502A KR20200067534A (ko) 2018-12-04 2018-12-04 가상환경 보조장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180154502A KR20200067534A (ko) 2018-12-04 2018-12-04 가상환경 보조장치

Publications (1)

Publication Number Publication Date
KR20200067534A true KR20200067534A (ko) 2020-06-12

Family

ID=71088551

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180154502A KR20200067534A (ko) 2018-12-04 2018-12-04 가상환경 보조장치

Country Status (1)

Country Link
KR (1) KR20200067534A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230163786A (ko) * 2022-05-24 2023-12-01 금오공과대학교 산학협력단 넥밴드형 안전 프로젝터, 넥밴드형 안전 프로젝터를 포함하는 안전관리 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230163786A (ko) * 2022-05-24 2023-12-01 금오공과대학교 산학협력단 넥밴드형 안전 프로젝터, 넥밴드형 안전 프로젝터를 포함하는 안전관리 시스템

Similar Documents

Publication Publication Date Title
US11054650B2 (en) Head-mounted display device, control method of head-mounted display device, and display system
US9645398B2 (en) Electronic correction based on eye tracking
EP3008698B1 (en) Head-mountable apparatus and systems
US11507201B2 (en) Virtual reality
US20160187970A1 (en) Head-mountable apparatus and system
US20140361987A1 (en) Eye controls
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9372346B2 (en) Directional light beams for angle detection
GB2548151A (en) Head-mountable display
US11045733B2 (en) Virtual reality
KR20200067534A (ko) 가상환경 보조장치
JP2016212320A (ja) 表示装置およびその制御方法、並びにコンピュータープログラム
GB2517008A (en) Head-mountable apparatus and systems
EP3673348B1 (en) Data processing device, method and non-transitory machine-readable medium for detecting motion of the data processing device
KR102039728B1 (ko) 가상환경 보조장치
CN206906983U (zh) 增强现实设备
CN220627014U (zh) 具有头戴式显示器的运算系统
WO2018115842A1 (en) Head mounted virtual reality display
JP6565202B2 (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2018107823A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2018115843A1 (en) Head mountable display system
GB2560003A (en) Virtual reality