KR101853295B1 - 가상현실 보조 깔창 및 가상현실 시스템 - Google Patents

가상현실 보조 깔창 및 가상현실 시스템 Download PDF

Info

Publication number
KR101853295B1
KR101853295B1 KR1020160152056A KR20160152056A KR101853295B1 KR 101853295 B1 KR101853295 B1 KR 101853295B1 KR 1020160152056 A KR1020160152056 A KR 1020160152056A KR 20160152056 A KR20160152056 A KR 20160152056A KR 101853295 B1 KR101853295 B1 KR 101853295B1
Authority
KR
South Korea
Prior art keywords
virtual reality
unit
information
pressure
control unit
Prior art date
Application number
KR1020160152056A
Other languages
English (en)
Inventor
최은지
이승연
이효진
Original Assignee
최은지
이승연
이효진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최은지, 이승연, 이효진 filed Critical 최은지
Priority to KR1020160152056A priority Critical patent/KR101853295B1/ko
Application granted granted Critical
Publication of KR101853295B1 publication Critical patent/KR101853295B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상현실 보조 깔창이 개시된다. 본 발명의 가상현실 보조 깔창은 지형을 포함하는 영상을 제공하는 가상현실 장치로부터 지형정보를 포함하는 데이터를 송수신하는 제1통신부; 진동 감각을 제공하는 진동부; 및 상기 가상현실 장치에서 수신되는 상기 지형정보에 상응하여 상기 진동부의 동작을 결정하는 제1제어부;를 포함한다.

Description

가상현실 보조 깔창 및 가상현실 시스템{shoe inserts assisting virtual reality and virtual reality system}
본 발명은 가상현실 보조 깔창 및 가상현실 시스템에 관한 것이다.
가상현실은 컴퓨터 등을 사용한 인공적인 기술로 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황 등을 의미한다.
가상현실의 개념은 이전부터 존재하여 왔으나 최근 360도 영상 기술의 발달과 헤드 마운트(head mount) 기기의 발달로 가상현실 장치(virtual reality device)의 상용화가 가속화되고 있다.
헤드 마운트(head mount) 가상현실 장치는 사용자의 대부분의 시야를 가상의 화면으로 메워 사용자가 가상현실을 체험할 수 있게 하는 장치이다.
이러한 헤드 마운트(head mount) 가상현실 장치와 보조 기구들을 결합하여 가상 롤러코스터 체험과 같은 가상현실이 제공될 수 있다.
한편, 어떤 관광지를 알아보고자 할 때, 인터넷 등의 수단을 이용하여 관광지와 관련된 사진, 문자로 구성된 정보를 제공받을 수 있으며, 동영상도 볼 수 있다. 헤드 마운트 가상현실 장치를 이용하면 관광지에 대한 시점이 이동 가능한 입체 영상을 제공받을 수도 있다.
그러나 관광지의 영상 외에도 관광지의 지형, 날씨 등의 생생한 정보까지 제공되지는 않고 있다.
본 발명이 해결하고자 하는 기술적 과제는 여러 가지 다양한 지형에 대한 감각을 제공할 수 있는 가상현실 보조 깔창 및 가상현실 시스템을 제공하는 것이다.
상기의 기술적 과제를 해결하기 위해 본 발명의 일실시예에 의한 가상현실 보조 깔창은 지형을 포함하는 영상을 제공하는 가상현실 장치로부터 지형정보를 포함하는 데이터를 송수신하는 제1통신부; 진동 감각을 제공하는 진동부; 및 상기 가상현실 장치에서 수신되는 상기 지형정보에 상응하여 상기 진동부의 동작을 결정하는 제1제어부;를 포함할 수 있다.
본 발명의 일실시예에서, 가상현실 보조 깔창은 압력을 감지하는 압력감지부;를 더 포함하고, 상기 제1제어부는 상기 압력감지부가 감지하는 압력에 상응하는 제어명령을 상기 가상현실 장치에 송신할 수 있다.
본 발명의 일실시예에서, 가상현실 보조 깔창은 압력감지부;를 더 포함하고, 상기 제1제어부는 상기 압력감지부가 압력을 감지하는 시점에 따라 상기 진동부를 동작여부를 결정할 수 있다.
본 발명의 일실시예에서, 가상현실 보조 깔창은 전원을 공급하는 전원공급부;를 더 포함하고, 상기 전원공급부는 와이어배터리를 포함할 수 있다.
또한, 상기의 기술적 과제를 해결하기 위해 본 발명의 일실시예에 의한 가상현실 시스템은 가상현실 장치; 및 상기 가상현실 장치 데이터를 송수신하는 가상현실 장치 보조 깔창;을 포함하되, 상기 가상현실 보조 깔창은 지형정보를 포함하는 정보를 수신하는 제1통신부; 진동 감각을 제공하는 진동부; 및 상기 지형정보에 상응하여 상기 진동부의 동작을 결정하는 제1제어부;를 포함하고, 상기 가상현실 장치는 상기 지형정보를 포함하는 데이터를 송신하는 제2통신부; 지형을 포함하는 영상을 제공하는 영상제공부; 및 상기 영상제공부가 제공하는 영상을 제어하는 제2제어부;를 포함할 수 있다.
본 발명의 일실시예에서, 상기 가상현실 장치는 사용자의 발의 움직임을 인식하는 모션인식부;를 더 포함하고, 상기 가상현실 보조 깔창은 위치정보를 생성하는 위치감지부;를 더 포함하고, 상기 제2제어부는 상기 모션인식부가 감지한 모션정보를 상기 제1통신부로 송신하고, 상기 제1제어부는 상기 모션정보 및 상기 위치정보를 활용하여 상기 지형정보 상의 사용자의 발의 위치를 결정하고, 상기 발의 위치에 상응하여 상기 진동부의 동작을 결정할 수 있다.
본 발명은 여러 가지 다양한 지형에 대한 감각을 제공할 수 있는 효과가 있다.
도 1은 본 발명의 일실시예에 의한 가상현실 시스템을 나타낸 블럭도이다.
도 2은 본 발명의 일실시예에 의한 가상현실 시스템을 개략적으로 나타낸 도면이다.
도 3은 본 발명의 일실시예에 의한 지형정보 및 이에 상응하는 진동부의 동작에 관한 정보를 나타낸 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일실시예에 의한 가상현실 시스템을 나타낸 블럭도이다.
도 2은 본 발명의 일실시예에 의한 가상현실 시스템을 개략적으로 나타낸 도면이다.
도 1 및 도 2를 참조하면, 본 발명의 일실시예에 의한 가상현실 시스템은 가상현실 보조 깔창(100) 및 가상현실 장치(200)를 포함한다.
가상현실 보조 깔창(100)은 제1통신부(110), 진동부(120), 제1제어부(130), 압력감지부(140), 위치감지부(150), 제1저장부(160) 및 전원공급부(170)를 포함한다.
제1통신부(110)는 몸체(115) 중 발바닥의 움푹 패인 부분에 대응되는 위치의 하부에 배치되어 몸체(115)에 결합된다.
제1통신부(110)는 제1제어부(130)와 전기적으로 연결된다.
제1통신부(110)는 가상현실 장치(200)와 통신하며, 수신한 데이터를 제1제어부(130)에 제공한다.
제1통신부(110)는 제어명령을 포함하는 정보를 가상현실 장치(200)로 송신하고, 가상현실 장치(200)로부터 지형정보를 포함하는 정보를 수신한다.
제1제어부(130)는 수신된 지형정보를 제1저장부(160)에 저장할 수 있다.
제1통신부(110)는 범용적으로 사용되는 무선 통신모듈을 포함할 수 있다.
몸체(115)는 다른 구성요소들을 지지하며, 신발과 사용자의 발 사이에 삽입될 수 있는 형상으로 제조된다.
진동부(120)는 몸체(115)에 결합되고, 제1제어부(130)와 전기적으로 연결된다.
진동부(120)는 몸체(115)의 여러 부분에 분산되어 배치된다. 이렇게 배치하면 발바닥의 여러 부분에 진동 감각을 전달할 수 있다.
제1제어부(130)는 제1통신부(110)와 마찬가지로 몸체(115) 중 발바닥 중 움푹 패인 부분에 대응되는 위치의 하부에서 몸체(115)에 결합된다.
제1제어부(130)는 제1통신부(110), 진동부(120), 압력감지부(140), 제1저장부(160) 및 전원공급부(170)와 전기적으로 연결되어 있다.
제1제어부(130)는 진동부(120)가 진동하는 파형 및 진동수를 조절한다. 구체적으로, 제1제어부(130)는 제1저장부(160)로부터 지형정보, 현재 사용자의 위치정보, 사용자의 위치에 대응하는 지형에 상응하는 파형 및 진동수를 읽어 들여 이를 진동부(120)를 통하여 구현한다.
제1제어부(130)는 제1통신부(110)가 수신한 지형정보를 제공받고 이에 상응하는 파형 및 진동수를 제1저장부(160)에서 검색한다. 제1제어부(130)는 지형정보에 상응하는 파형 및 진동수를 찾은 후 이를 이용하여 진동부(120)를 동작시킨다.
제1제어부(130)는 압력감지부(140)가 감지하는 압력정보를 제공받는다.
제1제어부(130)는 압력정보를 제1통신부(110)를 통하여 가상현실 장치(200)에 제공한다.
제1제어부(130)는 압력정보를 이용하여 제어명령을 생성할 수도 있다.
예를 들어, 제1제어부(130)는 발 앞꿈치 부분의 압력과 압력의 해제가 2초 이내에 두 번 감지되는 경우 이를 특정한 제어명령으로 변환할 수 있다. 이 경우 제어명령은 사용자가 가상현실 영상 속에서 제공되는 메뉴 중 어느 하나를 선택하는 것(컴퓨터에서 화면상의 버튼을 마우스로 클릭하는 것과 유사하다)일 수 있다.
제1제어부(130)는 압력정보에 더하여 위치감지부(150)가 제공하는 발의 위치정보를 이용하여 제어명령을 생성할 수도 있다.
예를 들어, 제1제어부(130)는 발 앞꿈치 부분의 압력이 유지되면서 발의 위치가 변화하는 경우 양자의 정보를 가상현실 영상의 시점을 이동시키는 제어명령 또는 영상에서 제공될 수 있는 컴퓨터의 마우스 커서와 유사한 커서를 움직이도록 하는 제어명령으로 변환시킬 수 있다.
압력감지부(140)는 몸체(115)에 관통결합하며 제1제어부(130)와 전기적으로 연결된다.
압력감지부(140)는 진동부(120)와 유사하게 몸체(115)의 여러 부분에 분산되어 진동부(120)와는 겹치지 않는 위치에 배치된다.
압력감지부(140)는 압전 소자를 포함하여 형성될 수 있다. 압전 소자는 압력을 전기신호로 변환하는 소자이다.
도 2에서 확대된 압력감지부(140) 중 하나를 확인할 수 있다. 압력감지부(140)는 외부압력(P)에 반응하여 전기신호(E)를 생성하여 제1제어부(130)에 전달한다.
위치감지부(150)는 몸체(115)에 결합되고, 제1제어부(130)와 전지적으로 연결된다.
위치감지부(150)는 제1통신부(110)와 마찬가지로 몸체(115) 중 발바닥의 움푹 패인 부분에 대응되는 위치의 하부에서 몸체(115)에 결합된다.
위치감지부(150)는 자이로 센서 및 가속도 센서를 포함한다.
위치감지부(150)는 자이로 센서 및 가속도 센서를 이용하여 방향변화 및 위치변화에 대한 정보를 생성하고 제1제어부(130)로 제공한다.
제1제어부(130)는 수신된 방향변화 및 위치변화에 대한 정보를 이용하여 또는 상호보완하여 양 발 각각의 위치정보와 방향정보를 생성할 수 있다. 제1제어부(130)는 생성된 위치정보와 방향정보를 가상현실 장치(200)에 송신하고, 진동부(120)를 제어하는 데 활용할 수 있다.
제1제어부(130)는 생성된 위치정보와 방향정보를 제1저장부(160)에 저장할 수 있다.
제1저장부(160)는 몸체(115)에 결합되고, 제1제어부(130)와 전기적으로 연결된다.
제1저장부(160)는 제1통신부(110)와 마찬가지로 몸체(115) 중 발바닥의 움푹 패인 부분에 대응되는 위치의 하부에 배치되어 몸체(115)에 결합된다.
제1저장부(160)는 지형정보에 상응하는 파형 및 진동수를 저장한다.
지형정보에 상응하는 파형 및 진동수는 특정한 지형과 가까운 감각을 전달할 수 있는 파형 및 진동수에 관한 다양한 실험을 거쳐 라이브러리(library) 형태로 저장될 수 있다.
예를 들어, 모래사장, 아스팔트, 풀숲, 물속 등의 지형이 있을 수 있다. 진동부(120)의 파형과 진동수를 적절하게 조절하면 모래사장의 모래가 퍼지는 느낌, 풀숲에서 풀이 발끝에 걸리는 느낌, 물속에서 발 아래 잔물결이 일어나는 느낌 등을 구현할 수 있다.
제1저장부(160)는 가상현실 장치(200)로부터 수신된 지형정보를 저장할 수 있다.
제1저장부(160)는 현재 사용자의 위치정보 및 방향정보를 저장할 수 있다.
전원공급부(170)는 몸체(115)에 결합되고, 제1제어부(130)와 전기적으로 연결된다.
전원공급부(170)는 몸체(115) 중 발바닥 뒷꿈치 부분에 대응하는 부분에 배치되어 결합된다.
전원공급부(170)는 발의 유연한 동작을 보조하기 위하여 와이어 배터리를 포함할 수 있다. 전원공급부(170)는 와이어 배터리로부터 공급되는 전력을 제1제어부(130)에 공급한다.
제1제어부(130)는 전원공급부(170)로부터 공급받은 전력을 이용하여 제1제어부(130)와 연결된 구성요소들을 제어할 수 있다.
가상현실 장치(200)는 제2통신부(210), 영상제공부(220), 제2제어부(230), 모션인식부(240) 및 제2저장부(250)를 포함한다.
제2통신부(210)는 영상제공부(220)에 내장되어 있다.
제2통신부(210)는 가상현실 보조 깔창(100)의 제1통신부(110)와 데이터를 송수신한다.
제2통신부(210)는 가상현실 보조 깔창(100)의 제1통신부(110)로부터 제어명령을 포함하는 정보를 수신할 수 있고, 제1통신부(110)에 지형정보를 포함하는 정보를 송신할 수도 있다.
제2통신부(210)는 제1통신부(110)로부터 발의 위치 및 방향에 관한 정보를 수신할 수 있고, 모션인식부(240)가 생성한 발의 움직임 정보를 이용하여 보완된 발의 위치정보를 제1통신부(110)에 송신할 수 있다.
제2통신부(210)는 한편, 기상정보를 제공하는 서버(미도시)와 통신할 수도 있다.
서버는 기상정보 중 가상현실 장치(200)가 요청하는 관광지에 관한 현재 또는 미래의 기상정보를 제공할 수 있다.
영상제공부(220)는 가상현실 장치(200)의 사용자(즉, 착용자)에게 가상현실 영상을 제공한다.
여기서, 가상현실 영상이란 양안시차와 어안렌즈에 투과될 경우에 생성될 입체적인 영상을 감안하여 생성된 영상을 의미한다.
영상제공부(220)는 디스플레이를 구성요소로서 포함하여 영상을 제공할 수 있으나, 반드시 이에 제한되는 것은 아니다. 예를 들어, 영상제공부(220)에는 스마트폰(smartphone)과 같은 휴대 단말이 결합될 수 있으며, 이 경우 영상제공부(220)는 스마트폰의 일구성요소인 디스플레이(display)를 가동하여 영상이 제공되도록 제어할 수도 있다.
영상제공부(220)가 제공하는 가상현실 영상 중에는 지형과 관련된 영상이 포함된다. 예를 들어, 지형과 관련된 영상은 모래사장, 아스팔트 등을 포함하는 영상이다.
영상제공부(220)는 제2통신부(210)가 수신한 현재 또는 미래의 기상정보에 상응하여 제공하는 영상을 변형할 수 있다. 영상의 변형은 제2제어부(230)에 의하여 달성될 수 있을 것이다.
제2제어부(230)는 영상제공부(220)에 내장되어 있으며, 모션감지부, 제2저장부(250)와 전기적으로 연결된다.
제2제어부(230)는 영상제공부(220)를 제어하여 가상현실 보조 깔창(100)이 제공하는 발의 위치정보에 상응하여 가상현실 영상의 시점을 이동시킬 수 있다.
제2제어부(230)는 모션인식부(240)로부터 수신되는 모션정보를 제2통신부(210)를 통하여 제1통신부(110)로 송신한다.
모션인식부(240)는 영상제공부(220)의 하단에 배치되어 영상제공부(220)와 결합된다.
모션인식부(240)는 모션인식 센서를 포함하며, 모션인식 센서는 사용자의 발을 향하여 배치된다.
모션인식부(240)는 사용자의 발의 움직임을 인식하여 이에 상응하는 모션정보를 생성하고, 제2제어부(230)에 제공한다.
제2제어부(230)는 모션인식부(240)로부터 제공받은 모션정보를 이용하여 발의 보폭을 결정할 수 있다.
모션인식부(240)는 가상현실 보조 깔창(100)으로부터 제공된 발의 위치정보를 보완하는 역할을 한다. 제2제어부(230)는 모션인식부(240)가 제공하는 모션정보를 이용하여 발의 보폭을 인식하여 발의 총 이동거리를 계산하고, 이를 가상현실 보조 깔창(100)이 제공하는 방향정보 및 위치정보와 비교하여 발의 위치를 결정할 수 있다.
제2제어부(230)는 제2통신부(210)가 수신한 현재 또는 미래의 기상정보에 상응하여 영상제공부(220)가 제공하는 영상정보 및 제1통신부(110)에 제공되는 지형정보를 변경할 수 있다. 예를 들어, 현재 기상정보가 비가 오는 날씨라면, 영상정보에 빗방울이 떨어지는 모양을 겹쳐 표시하는 방식으로 영상정보를 변경할 수 있다. 제2제어부(230)는 지형정보 중 모래사장을 비에 젖은 모래사장으로 변경될 수 있으며, 이 경우 제1제어부(130)는 변경된 지형정보를 수신하고 이에 상응하여 진동부(120)의 동작을 변경시킬 수 있다.
제2저장부(250)는 지형정보 및 이에 상응하는 진동부(120)의 동작 즉, 진동 파형 및 진동수를 저장할 수 있다.
제2저장부(250)의 역할은 제1저장부(160)가 수행할 수 있는 것이나, 제2저장부(250)도 이를 저장할 수 있다. 제2제어부(230)는 제2통신부(210), 제1통신부(110) 및 제1제어부(130)를 통한 경로를 활용하여 제2제어부(230)가 진동부(120)의 동작을 직접 제어할 수도 있다. 이 경우, 제2제어부(230)는 제2저장부(250)에 저장될 수 있는 진동부(120)의 파형 및 진동수에 관한 정보를 활용한다.
도 3은 본 발명의 일실시예에 의한 지형정보 및 이에 상응하는 진동부(120)의 동작에 관한 정보를 나타낸 도면이다.
지형에 관한 정보는 도 3에 도시된 바와 같이 격자 형태로 구분되어 설정될 수 있다. 예를 들어, 실제 현실에서 약 40cm x 40cm 로 단위 지형을 구분할 수 있다. 사용자의 위치는 지형정보 상에서의 특정한 위치(U)로 결정될 수 있다.
현실에서 사용자가 실제로 다른 위치로 이동한다면, 그 방향변화 및 위치변화가 제1제어부(130) 내지 제2제어부(230)로부터 계산되며, 지형정보 상에서 특정한 위치(U)로부터 다른 위치로 사용자의 위치가 결정될 수 있을 것이다.
결정된 지형정보 상에서의 사용자의 위치는 사용자에게 제공되는 진동부(120)의 파형 및 진동수를 결정한다.
도 3에는 다양한 진동부(120)의 파형 및 진동수가 예시되어 있다. 예를 들어, 사용자의 위치가 G1의 지형 상에 있다면, 파형 A와 분당 진동수 60의 진동이 제공될 수 있다. 사용자의 위치가 G2의 지형 상에 있다면, 파형 B와 분당진동수 30의 진동이 제공될 수 있을 것이다. 사용자의 위치가 G3의 지형 상에 있다면, 파형 C와 분당진동수 52가 제공될 수 있다. 물론, 이러한 예시에 본 발명이 제한되는 것은 아니다. 예를 들어, 동일한 지형에서도 다른 파형과 진동수가 제공될 수도 있다.
도 3에서 사용자가 특정 위치(U)에 있다면, 제1제어부(130)는 파형 B와 52의 분당진동수로 진동부(120)를 동작시킬 것이다.
한편, 제1제어부(130)는 진동부(120)의 동작 시점을 결정할 수 있다.
제1제어부(130)는 실제 사용자가 지면을 밟은 경우에만 진동부(120)를 동작시킬 수 있다. 구체적으로, 제1제어부(130)는 압력감지부(140)로부터 압력 정보가 제공되는 동안에는 지속적으로 해당 지형에 상응하여 진동부(120)를 동작시킬 수 있으나, 압력 정보가 제공되지 않는 상태인 경우에 즉, 발을 지면에서 뗀 상태에서는 진동부(120)의 동작을 정지시킬 수 있다. 그 후, 제1제어부(130)는 압력감지부(140)로부터 압력 정보가 다시 제공되는 시점에 대응하여 다시 해당 지형에 상응하여 진동부(120)를 동작시킬 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
100: 가상현실 보조 깔창
110: 제1통신부
120: 진동부
130: 제1제어부
140: 압력감지부
150: 위치감지부
160: 제1저장부
170: 전원공급부
200: 가상현실 장치
210: 제2통신부
220: 영상제공부
230: 제2제어부
240: 모션인식부
250: 제2저장부

Claims (10)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 가상현실 장치; 및
    상기 가상현실 장치 데이터를 송수신하는 가상현실 보조 깔창;을 포함하되,
    상기 가상현실 보조 깔창은
    지형정보를 포함하는 정보를 수신하는 제1통신부;
    진동 감각을 제공하는 진동부; 및
    상기 지형정보에 상응하여 상기 진동부의 동작을 결정하는 제1제어부;를 포함하고,
    상기 가상현실 장치는
    상기 지형정보를 포함하는 데이터를 송신하는 제2통신부;
    지형을 포함하는 영상을 제공하는 영상제공부;
    상기 영상제공부가 제공하는 영상을 제어하는 제2제어부; 및
    사용자의 발의 움직임을 인식하는 모션인식부;를 포함하며,
    상기 가상현실 보조 깔창은 위치정보를 생성하는 위치감지부;를 더 포함하고,
    상기 제2제어부는 상기 모션인식부가 감지한 모션정보를 상기 제1통신부로 송신하고,
    상기 제1제어부는 상기 모션정보 및 상기 위치정보를 활용하여 상기 지형정보 상의 사용자의 발의 위치를 결정하고, 상기 발의 위치에 상응하여 상기 진동부의 동작을 결정하는 것을 특징으로 하는 가상현실 시스템.
  6. 삭제
  7. 제5항에 있어서,
    압력을 감지하는 압력감지부;를 더 포함하고,
    상기 제1제어부는 상기 압력감지부가 감지하는 압력에 상응하는 제어명령을 상기 가상현실 장치에 송신하는 것
    을 특징으로 하는 가상현실 시스템.
  8. 제7항에 있어서,
    상기 제1제어부는 상기 압력감지부에 의해 발 앞꿈치 부분의 압력과 압력의 해제가 2초 이내에 두 번 감지되는 경우 사용자가 가상현실 영상 속에서 제공되는 메뉴 중 어느 하나를 선택하는 제어명령을 상기 가상현실 장치에 송신하는 것
    을 특징으로 하는 가상현실 시스템.
  9. 제7항에 있어서,
    상기 제1제어부는 상기 압력감지부에 의해 감지된 발 앞꿈치 부분의 압력이 유지되면서 상기 위치감지부에 의해 감지된 발의 위치가 변화하는 경우, 가상현실 영상의 시점을 이동시키는 제어명령 또는 영상에서 제공될 수 있는 컴퓨터의 마우스 커서와 유사한 커서를 움직이도록 하는 제어명령을 상기 가상현실 장치에 송신하는 것
    을 특징으로 하는 가상현실 시스템.
  10. 제5항에 있어서,
    압력을 감지하는 압력감지부;를 더 포함하고,
    상기 제1제어부는 상기 압력감지부가 압력을 감지하는 시점에 따라 상기 진동부를 동작여부를 결정하는 것
    을 특징으로 하는 가상현실 시스템.

KR1020160152056A 2016-11-15 2016-11-15 가상현실 보조 깔창 및 가상현실 시스템 KR101853295B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160152056A KR101853295B1 (ko) 2016-11-15 2016-11-15 가상현실 보조 깔창 및 가상현실 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160152056A KR101853295B1 (ko) 2016-11-15 2016-11-15 가상현실 보조 깔창 및 가상현실 시스템

Publications (1)

Publication Number Publication Date
KR101853295B1 true KR101853295B1 (ko) 2018-04-30

Family

ID=62081015

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160152056A KR101853295B1 (ko) 2016-11-15 2016-11-15 가상현실 보조 깔창 및 가상현실 시스템

Country Status (1)

Country Link
KR (1) KR101853295B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021133073A1 (ko) * 2019-12-23 2021-07-01 주식회사 후본 멀티모달 인터페이스 기반의 햅틱 장치
US11500468B1 (en) * 2021-08-22 2022-11-15 Zero Point Energy Inc. Extended reality synchronization kit including a removable smart insole and a headset

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020180695A1 (en) 2001-06-04 2002-12-05 Lawrence Richard Anthony Foot activated user interface

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020180695A1 (en) 2001-06-04 2002-12-05 Lawrence Richard Anthony Foot activated user interface

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021133073A1 (ko) * 2019-12-23 2021-07-01 주식회사 후본 멀티모달 인터페이스 기반의 햅틱 장치
US11500468B1 (en) * 2021-08-22 2022-11-15 Zero Point Energy Inc. Extended reality synchronization kit including a removable smart insole and a headset

Similar Documents

Publication Publication Date Title
US11748963B2 (en) Cross reality system with simplified programming of virtual content
US11836284B2 (en) Sensor fusion for electromagnetic tracking
US20140266571A1 (en) System and method for haptic based interaction
US20140266570A1 (en) System and method for haptic based interaction
EP4046139A1 (en) Cross reality system with localization service
US11372249B2 (en) Information processing device and information processing method
CN115461787A (zh) 具有快速定位的交叉现实系统
CN111068324B (zh) 虚拟对象控制方法、装置、设备及存储介质
CN111589167B (zh) 赛事观战方法、装置、终端、服务器及存储介质
KR102201649B1 (ko) 분산 융합 필터 기반 자세 인식 장치 및 방법
US10795446B2 (en) Portable electronic haptic vision device
CN110052027B (zh) 虚拟场景中的虚拟对象控制方法、装置、设备及存储介质
KR101860753B1 (ko) 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법
JP2016212858A (ja) 触覚誘導のためのシステム及び方法
US20140285517A1 (en) Display device and method to display action video
CN105898346A (zh) 控制方法、电子设备及控制系统
US9773391B1 (en) Object detection device
KR101853295B1 (ko) 가상현실 보조 깔창 및 가상현실 시스템
KR101909132B1 (ko) 영상 정보에 기초하여 음향을 처리하는 방법, 및 그에 따른 디바이스
JP2019061528A (ja) プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
JP2022509731A (ja) クロスリアリティシステム
WO2020114214A1 (zh) 导盲方法和装置,存储介质和电子设备
JP6714280B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP2015223334A (ja) 表示システム
JP2023111925A (ja) ヘッドマウント情報処理装置およびヘッドマウント情報処理装置の制御方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant