KR20240062067A - 촉감을 제공하는 성인 콘텐츠용 vr 장치 - Google Patents

촉감을 제공하는 성인 콘텐츠용 vr 장치 Download PDF

Info

Publication number
KR20240062067A
KR20240062067A KR1020230009807A KR20230009807A KR20240062067A KR 20240062067 A KR20240062067 A KR 20240062067A KR 1020230009807 A KR1020230009807 A KR 1020230009807A KR 20230009807 A KR20230009807 A KR 20230009807A KR 20240062067 A KR20240062067 A KR 20240062067A
Authority
KR
South Korea
Prior art keywords
column
user
touch module
unit
control unit
Prior art date
Application number
KR1020230009807A
Other languages
English (en)
Inventor
김태원
Original Assignee
김태원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220143468A external-priority patent/KR102496927B1/ko
Application filed by 김태원 filed Critical 김태원
Priority to KR1020230009807A priority Critical patent/KR20240062067A/ko
Priority claimed from KR1020230050451A external-priority patent/KR20240154189A/ko
Priority claimed from KR1020230051806A external-priority patent/KR20240118629A/ko
Priority to PCT/KR2023/017139 priority patent/WO2024096523A1/ko
Publication of KR20240062067A publication Critical patent/KR20240062067A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/36Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Technology Law (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Multimedia (AREA)
  • Bioethics (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 몇몇 실시예에 따른, VR(Virtual Reality) 장치가 개시된다. 상기 VR 장치는 HMD(Head Mounted Display) 방식의 디스플레이부; 실리콘 소재로 형성되고, 높낮이가 조절되는 복수의 컬럼형 소자를 포함하는 터치 모듈; 및 상기 복수의 컬럼형 소자를 통한 사용자로부터의 입력에 따른 적어도 하나의 이벤트가 상기 디스플레이부를 통해 디스플레이되고 있는 영상에 출력되도록 상기 디스플레이부 및 상기 터치 모듈의 동작을 제어하는 제어부를 포함할 수 있다.

Description

촉감을 제공하는 성인 콘텐츠용 VR 장치 {VIRTUAL REALITY DEVICE FOR ADULT CONTENT PROVIDING TACTILE SENSATION}
본 개시는 촉감을 제공하는 성인 콘텐츠용 VR 장치에 관한 것으로, 구체적으로 사용자가 손으로 조작할 수 있고 촉감을 느낄 수 있는 터치 모듈을 포함하는 성인 콘텐츠용 VR 장치에 관한 것이다.
가상 현실(Virtual Reality) 기술의 발전에 의해 VR 어트랙션 시장이 활성화됨에 따라, 다양한 게임이나 교육 훈련 시스템이 개발되고 있다. 종래의 VR 장치들은 HMD(Head Mounted Display) 방식의 디스플레이부와 디스플레이부를 통해 디스플레이되고 있는 게임 등을 조작하기 위한 패드 등이 제공되었다. 그러나, 종래의 VR 장치들은 사용자가 가상 현실을 체험하기에 충분한 경험을 제공하지 못하였다.
이를 해결하기 위해, 근래에는 패드 외에도 여러가지 추가 장치들이 개발되고 있다. 추가 장치의 일례로, 핸들형 장치, 사용자가 탑승할 수 있는 탑승형 장치, 사용자가 바닥을 밟을 수 있는 발판 장치 또는 사용자가 앉을 수 있는 의자형 장치 등이 존재할 수 있다.
추가 장치의 다른 일례로, 사용자가 착용 가능한 글러브 형태의 장치가 존재할 수 있다. 글러브 형태의 장치는 사용자의 손에 착용되어, 손의 움직임을 가상 현실에서 표현할 수 있다. 글러브 형태의 장치는 상술한 다른 장치들에 비해 보관에 요구되는 공간이 적어 상대적으로 쉽게 상용화가 가능할 것으로 예상된다. 그러나, 글러브형 장치는 손의 움직임이 가상 현실에서 표현될 뿐, 사용자의 촉각에 의한 경험을 충족시킬 수 없다는 단점이 존재한다. 따라서, 사용자의 촉각을 만족시킬 수 있는 VR 장치 기술이 개발되어야 할 필요성이 존재한다.
대한민국 공개특허 제10-2022-0049891호
본 개시는 전술한 배경기술에 대응하여 안출된 것으로, 사용자의 촉각에 의한 경험을 충족시킬 수 있는 VR 장치를 제공하고자 한다.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
전술한 바와 같은 과제를 해결하기 위한 본 개시의 일 실시예에 따라, VR(Virtual Reality) 장치가 개시된다. 상기 VR 장치는, HMD(Head Mounted Display) 방식의 디스플레이부; 실리콘 소재로 형성되고, 높낮이가 조절되는 복수의 컬럼형 소자를 포함하는 터치 모듈; 및 상기 복수의 컬럼형 소자를 통한 사용자로부터의 입력에 따른 적어도 하나의 이벤트가 상기 디스플레이부를 통해 디스플레이되고 있는 영상에 출력되도록 상기 디스플레이부 및 상기 터치 모듈의 동작을 제어하는 제어부; 를 포함할 수 있다.
또한, 상기 터치 모듈은, 상기 복수의 컬럼형 소자가 배치되는 베이스; 를 포함하고, 상기 베이스는, 상기 복수의 컬럼형 소자 각각의 하방에 구비되어, 상기 복수의 컬럼형 소자에 대한 사용자의 가압을 감응하는 터치 패널; 및 상기 제어부의 제어 하에 상기 복수의 컬럼형 소자 각각의 높낮이를 조절하는 구동부; 를 포함할 수 있다.
또한, 상기 터치 모듈은, 상기 복수의 컬럼형 소자 각각을 통해 상기 베이스에 가해지는 제 1 압력을 센싱하는 센싱부; 및 상기 제어부의 제어 하에, 상기 제 1 압력에 대응하여 상기 복수의 컬럼형 소자 각각에 발생되는 반발력을 조절하는 감쇄부; 를 더 포함할 수 있다.
또한, 상기 사용자의 손에 착용되어, 상기 사용자의 손의 위치 이동을 센싱하는 터치 모듈 컨트롤러부; 를 더 포함하고, 상기 제어부는, 상기 터치 모듈 컨트롤러부를 통해 센싱된 상기 사용자의 손의 위치에 기초하여, 상기 디스플레이부를 통해 디스플레이되고 있는 영상 내에서 상기 손의 움직임을 나타내는 제 1 오브젝트를 디스플레이하고, 상기 제 1 오브젝트가 상기 영상 내에서 제 2 오브젝트에 오버레이(overlay)되고, 상기 사용자로부터 상기 복수의 컬럼형 소자를 가압하는 움직임이 감지된 경우, 상기 영상 내에서 제 2 오브젝트의 반응과 관련된 적어도 하나의 제 1 이벤트를 출력할 수 있다.
또한, 상기 제어부는, 상기 제 1 오브젝트가 오버레이된 상기 제 2 오브젝트의 제 1 영역의 외형에 대응하여 상기 복수의 컬럼형 소자의 높낮이가 조절되도록 상기 구동부를 제어할 수 있다.
또한, 상기 제어부는, 상기 제 1 오브젝트가 오버레이된 상기 제 2 오브젝트의 제 1 영역의 외형에 대응하여 상기 복수의 컬럼형 소자의 반발력이 조절되도록 상기 감쇄부를 제어할 수 있다.
또한, 상기 감쇄부는 상기 복수의 컬럼형 소자 각각에 발생되는 반발력을 조절하는 에어셀 및 상기 에어셀의 공기를 주입 또는 배출하는 공기 주입부를 포함할 수 있다.
또한, 상기 베이스는 원통형 형상으로 형성되고, 상기 복수의 컬럼형 소자 각각은 상기 베이스의 내측면에서 중심을 향하도록 상기 베이스에 배치될 수 있다.
본 개시에서 얻을 수 있는 기술적 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 몇몇 실시예에 따른, 사용자의 촉각에 의한 경험을 충족시킬 수 있는 VR 장치를 제공할 수 있도록 한다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 양상들이 이제 도면들을 참조로 기재되며, 여기서 유사한 참조 번호들은 총괄적으로 유사한 구성요소들을 지칭하는데 이용된다. 이하의 실시예에서, 설명 목적을 위해, 다수의 특정 세부사항들이 하나 이상의 양상들의 총체적 이해를 제공하기 위해 제시된다. 그러나, 그러한 양상(들)이 이러한 특정 세부사항들 없이 실시될 수 있음은 명백할 것이다. 다른 예시들에서, 공지의 구조들 및 장치들이 하나 이상의 양상들의 기재를 용이하게 하기 위해 블록도 형태로 도시된다.
도 1은 본 개시의 몇몇 실시예에 따른 VR 장치의 일례를 설명하기 위한 블록 구성도이다.
도 2는 본 개시의 몇몇 실시예에 따른 터치 모듈의 일례를 설명하기 위한 블록 구성도이다.
도 3은 본 개시의 몇몇 실시예에 따른 영상 내에서 적어도 하나의 이벤트를 출력하는 방법의 일례에 대해 설명한다.
도 4는 본 개시의 몇몇 실시예에 따른 서브 터치 모듈을 포함하는 터치 모듈을 도식적으로 나타낸 것이다.
도 5는 본 개시의 몇몇 실시예에 따른 복수의 컬럼형 소자의 모습을 도식적으로 나타낸 것이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제 1, 제 2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에서, VR(Virtual Reality) 장치는 사용자가 쥐거나 또는 만질 수 있는 터치 모듈을 포함할 수 있다. 터치 모듈은 구, 반구 또는 직육면체 등의 형상으로 형성될 수 있다. 터치 모듈은 높낮이가 조절되는 복수의 컬럼형 소자를 포함할 수 있다. 여기서, 복수의 컬럼형 소자는 사용자의 손바닥 등에 의해 가압되는 부재일 수 있다. 터치 모듈은 복수의 컬럼형 소자를 통해 인가되는 압력을 센싱할 수 있다. 사용자는 복수의 컬럼형 소자를 쥐거나 또는 누름으로써 디스플레이부를 통해 디스플레이되고 있는 영상 내에서 특정 이벤트를 수행할 수 있다. 예를 들어, 사용자가 복수의 컬럼형 소자를 움켜쥐는 경우, 영상 내에서 사용자가 조작하는 캐릭터도 실제 사용자의 행동에 대응할 수 있다. 일 실시예에 따르면, 영상 내에는 사용자와 관련된 제 1 캐릭터 외 다른 제 2 캐릭터가 존재할 수 있다. 터치 모듈은 제 1 캐릭터가 허공을 쥐는 제 1 움직임과 제 1 캐릭터가 제 2 캐릭터의 신체를 쥐는 제 2 움직임에서의 터치 감도가 상이하도록 복수의 컬럼형 소자를 제어할 수 있다. 이에 따라, 사용자의 촉각에 의한 경험이 증진될 수 있다. 이하, 도 1 내지 도 3를 통해 본 개시에 따른 VR 장치에 대해 설명한다.
도 1은 본 개시의 몇몇 실시예에 따른 VR 장치의 일례를 설명하기 위한 블록 구성도이다. 도 2는 본 개시의 몇몇 실시예에 따른 터치 모듈의 일례를 설명하기 위한 블록 구성도이다.
도 1 및 도 2를 참조하면, VR 장치(100)는 제어부(110), 디스플레이부(120), 터치 모듈(130) 및 터치 모듈 컨트롤러부(140)를 포함할 수 있다. 다만, 상술한 구성 요소들은 VR 장치(100)를 구현하는데 있어서 필수적인 것은 아니어서, VR 장치(100)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
VR 장치(100)는 사용자에게 가상 현실(Virtual Reality)을 제공하는 장치일 수 있다. VR 장치(100)는 디지털 프로세서, 휴대용 디바이스 또는 디바이스 제어기 등과 같은 임의의 타입의 컴퓨터 시스템 또는 컴퓨터 디바이스를 포함할 수 있다.
제어부(110)는 통상적으로 VR 장치(100)의 전반적인 동작을 처리할 수 있다. 제어부(110)는 VR 장치(100)의 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부(미도시)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
제어부(110)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU: Central Processing Unit), 범용 그래픽 처리 장치(GPGPU: General Purpose Graphics Processing Unit), 텐서 처리 장치(TPU: Tensor Processing Unit) 등의 데이터 분석을 위한 프로세서를 포함할 수 있다.
본 개시에서, 제어부(110)는 디스플레이부(120)를 통해 사용자가 가상 현실을 경험할 수 있는 영상을 출력할 수 있다. 또한, 제어부(110)는 터치 모듈(130)을 통한 사용자로부터의 입력에 대응하는 이벤트를 출력할 수 있다.
디스플레이부(120)는 사용자의 머리에 착용되어, 사용자의 눈 앞에 직접 영상을 제공하는 HMD(Head Mounted Display) 장치일 수 있다. HMD 장치는 가상 현실(Virtual Reality, VR), 증강 현실(Augmented Reality, AR), 또는 혼합 현실(Mixed or Merged Reality, MR) 중 적어도 하나의 제공이 가능한 장치일 수 있다.
디스플레이부(120)는 제어부(110)에서 처리되는 정보를 표시(출력)할 수 있다.
본 개시의 몇몇 실시예에 따르면, 디스플레이부(120)는 사용자의 시선을 추척하는 시선 추적기(eye tracker)를 포함할 수 있다.
구체적으로, 시선 추적기는 사용자의 눈동자의 위치에 대응되는 디스플레이부(120) 상의 영역을 검출함으로써 디스플레이부(120)상의 특정 영역을 향하는 사용자의 시선 방향을 감지할 수 있다.
본 개시에서, 시선 추적기는 사용자의 안구가 촬영된 이미지에 기초하여, 사용자의 시선 방향을 감지할 수도 있다. 일례로, 디스플레이부(120)는 사용자의 안구를 촬영하기 위한 카메라부를 더 포함할 수 있다. 시선 추적기는 사용자의 안구가 촬영된 이미지를 이용하여 눈동자간 거리, 눈 사이의 거리, 디스플레이부(120)에 대한 각 눈의 3차원(3D) 위치, 비틀림과 회전의 크기, 및 양안의 시선 방향을 결정할 수 있다.
터치 모듈(130)은 사용자로부터의 터치 입력을 인식할 수 있다. 예를 들어, 터치 모듈(130)은 사용자로부터의 터치 모듈(130)을 가압하는 입력을 인식할 수 있다. 터치 모듈(130)은 구, 반구 또는 직육면체 등의 사용자가 쥘 수 있는 형상으로 형성될 수 있다. 사용자는 터치 모듈(130)을 손에 쥐어 자유롭게 이동시킬 수 있다.
본 개시의 몇몇 실시예에 따르면, 터치 모듈(130)은 적어도 일부가 고정된 형태일 수도 있다.
구체적으로, 터치 모듈(130)은 자바라 또는 코브라 형태의 거치대의 일단에 결합될 수 있다. 자바라 또는 코브라 형태의 거치대의 터치 모듈(130)이 결합된 일단의 타단은 벽, 바닥 또는 천장과 고정될 수 있다. 이에 따라, 터치 모듈(130)은 적어도 일부가 고정되데, 사전 셋팅된 범위 내에서 사용자에 의해 자유롭게 이동될 수 있다.
본 개시에서, 터치 모듈(130)은 복수개일 수 있다. 예를 들어, 터치 모듈(130)은 사용자가 양손에 각각 쥘 수 있도록 제 1 터치 모듈 및 제 2 터치 모듈을 포함할 수 있다.
터치 모듈(130)은 복수의 컬럼형 소자(131), 베이스(132), 센싱부(133) 및 감쇄부(134)를 포함할 수 있다.
복수의 컬럼형 소자(131)는 원기둥 또는 사각 기둥 형상으로 형성되어 터치 모듈(130)의 외형의 일부를 형성하는 부재일 수 있다. 복수의 컬럼형 소자(131)는 터치 모듈(130) 내에서 사용자로부터의 직접적인 터치가 이루어지는 부재일 수 있다. 복수의 컬럼형 소자(131)는 실리콘 소재로 형성되어 사람의 피부와 유사한 질감을 가질 수 있다.
베이스(132)는 복수의 컬럼형 소자(131)가 배치될 수 있다. 복수의 컬럼형 소자(131)의 사용자의 터치가 이루어지는 일단의 타단이 베이스(132)와 결합됨으로써, 베이스(132)에 배치될 수 있다.
일 실시예에 따라, 터치 모듈(130)은 반구 형상일 수 있다. 이 경우, 베이스(132)는 터치 모듈(130)의 바닥면을 형성할 수 있다. 다른 일 실시예에 따라, 터치 모듈(130)이 구 형상인 경우, 베이스(132)는 구 형상으로 형성되어 터치 모듈(130)의 중심에 위치할 수 있다. 복수의 컬럼형 소자(131)는 구 형상의 베이스(132)에 직교하는 형태로 베이스(132)에 배치될 수 있다.
터치 모듈(130)의 형상의 이해를 돕기 위해, 도 5가 참조될 수 있다.
도 5를 참조하면, 터치 모듈(130)은 바닥면을 형성하는 베이스(132) 및 베이스(132)의 상방에 배치되는 복수의 컬럼형 소자(131)를 포함할 수 있다.
다시 도 1 및 도 2를 참조하면, 베이스(132)는 터치 패널(1321) 및 구동부(1322)를 포함할 수 있다.
터치 패널(1321)은 복수의 컬럼형 소자 각각의 하방에 구비되어, 복수의 컬럼형 소자(131)에 대한 사용자의 가압을 감응할 수 있다. 터치 패널(1321)은 감압식 터치 센서로 이해될 수도 있다.
구동부(1322)는 제어부(110)의 제어 하에 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 일례로, 구동부(1322)는 복수의 컬럼형 소자(131) 각각의 하방에 구비되어, 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 다른 일례로, 구동부(1322)는 터치 패널(1321)의 하방에 구비되어, 터치 패널(1321) 및 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다.
구동부(1322)는 유압 실린더 또는 피스톤 등의 장치를 통해 구현될 수 있다. 또는 구동부(1322)는 기어와 모터를 이용하는 구조를 통해 구현될 수도 있다.
일 실시예에 따르면, 터치 모듈(130)은 구, 반구 또는 직육면체 등의 형상일 수 있다. 이와 같은 터치 모듈(130)의 형상은 복수의 컬럼형 소자(131) 및 구동부(1322)에 의해 결정될 수 있다.
예를 들어, 베이스(132)는 원판 형상으로 형성될 수 있다. 복수의 컬럼형 소자(131) 각각은 원판 형상의 베이스(132)의 상면에 배치될 수 있다. 구동부(1322)는 복수의 컬럼형 소자들 중 베이스(132)의 중심에 위치하는 제 1 컬럼형 소자가 가장 높게 위치하도록 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 구동부(1322)는 복수의 컬럼형 소자들 중 제 1 컬럼형 소자를 둘러싼 제 2 컬럼형 소자들이 제 1 컬럼형 소자에 비해 상대적으로 낮게 위치하도록 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 그리고, 구동부(1322)는 복수의 컬럼형 소자들 중 제 2 컬럼형 소자를 둘러싼 제 3 컬럼형 소자들이 제 2 컬럼형 소자에 비해 상대적으로 낮게 위치하도록 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 이와 같은 방식으로, 터치 모듈(130)의 외형은 반구 형상으로 형성될 수 있다.
다른 예를 들어, 베이스(132)는 원판 형상으로 형성될 수 있다. 복수의 컬럼형 소자(131) 각각은 원판 형상의 베이스(132)의 상면에 배치될 수 있다. 구동부(1322)는 복수의 컬럼형 소자들 중 베이스(132)의 중심에 위치하는 제 1 컬럼형 소자가 가장 낮게 위치하도록 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 구동부(1322)는 복수의 컬럼형 소자들 중 제 1 컬럼형 소자를 둘러싼 제 2 컬럼형 소자들이 제 1 컬럼형 소자에 비해 상대적으로 높게 위치하도록 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 그리고, 구동부(1322)는 복수의 컬럼형 소자들 중 제 2 컬럼형 소자를 둘러싼 제 3 컬럼형 소자들이 제 2 컬럼형 소자에 비해 상대적으로 높게 위치하도록 복수의 컬럼형 소자(131) 각각의 높낮이를 조절할 수 있다. 이와 같은 방식으로, 터치 모듈(130)의 외형은 오목한 형상으로 형성될 수 있다.
터치 모듈(130)은 상술한 방법을 통해 구, 반구 또는 직육면체와 같은 형상으로 형성될 수 있다.
일 실시예에 따르면, 베이스(132)는 원통형 형상으로 형성될 수도 있다. 복수의 컬럼형 소자(131)는 베이스(132)의 내측면에서 중심을 향하도록 베이스(132)에 배치될 수 있다. 이 경우, 복수의 컬럼형 소자(131)는 베이스(132)의 내측면에서 중심을 향하는 방향으로 높낮이가 조절될 수 있다.
센싱부(133)는 복수의 컬럼형 소자(131) 각각을 통해 베이스(132)에 가해지는 제 1 압력을 센싱할 수 있다. 센싱부(133)는 사용자로부터의 복수의 컬럼형 소자(131)를 가압함에 따라 발생되는 압력을 측정하는 압력 센서일 수 있다. 일 실시예에 따르면, 센싱부(133) 및 터치 패널(1321)은 하나의 장치로서 구현될 수도 있다. 예를 들어, 터치 패널(1321)은 사용자의 3D 터치의 인식이 가능한 패널일 수 있다. 이 경우, 터치 패널(1321)은 사용자에 의해 복수의 컬럼형 소자(131) 각각을 통해 베이스(132)에 가해지는 제 1 압력을 센싱할 수 있다.
감쇄부(134)는 제어부(110)의 제어 하에, 제 1 압력에 대응하여 복수의 컬럼형 소자(131) 각각에 발생되는 반발력을 조절할 수 있다.
구체적으로, 복수의 컬럼형 소자(131) 및 베이스(132)에는 사용자로부터의 복수의 컬럼형 소자(131)를 가압하는 움직임에 대응하여 반발력이 발생될 수 있다. 반발력이 큰 경우, 사용자는 단단한 물체를 만지고 있다고 인지할 수 있다. 반발력이 작은 경우, 사용자는 푹신한 물체를 만지고 있다고 인지할 수 있다. 감쇄부(134)는 이와 같은 사용자의 경험을 충족시키기 위해 제어부(110)의 제어 하에 복수의 컬럼형 소자(131) 각각에 발생되는 반발력을 조절할 수 있다.
본 개시에서, 감쇄부(134)는 에어셀 및 공기 주입부 등을 포함할 수 있다. 감쇄부(134)의 에어셀은 제어부(110)의 제어 하에 공기가 주입되거나 또는 공기가 배출될 수 있다. 에어셀은 공기가 주입되거나 또는 공기가 배출됨에 따라 반발력이 조절될 수 있다. 예를 들어, 에어셀에 허용 가능한 최대 용량만큼의 공기가 주입된 경우, 에어셀은 최대 반발력을 가질 수 있다. 에어 셀에 주입된 공기가 최대 용량 미만인 경우, 에어셀은 반발력은 줄어들 수 있다. 감쇄부(134)는 복수의 컬럼형 소자(131) 또는 터치 패널(1321)의 하방에 위치하여, 반발력이 조절될 수 있다. 감쇄부(134)는 상술한 에어셀 뿐만 아니라 스프링 또는 유압 실린더에 의해 구현될 수도 있다.
터치 모듈 컨트롤러부(140)는 사용자의 손에 착용되어, 사용자의 손의 위치 이동을 센싱할 수 있다. 터치 모듈 컨트롤러부(140)는 사용자가 착용 가능한 장갑 형태의 모듈일 수 있다. 또는 터치 모듈 컨트롤러부(140)는 디스플레이부(120)를 통해 디스플레이되고 있는 영상 내 캐릭터의 조작을 위한 스틱, 버튼 또는 트리거 등을 포함할 수 있다. 일 실시예에 따르면, 터치 모듈 컨트롤러부(140) 및 터치 모듈(130)은 하나의 장치를 통해 구현될 수도 있다.
한편, 본 개시의 몇몇 실시예에 따르면, 제어부(110)는 복수의 컬럼형 소자(131)를 통한 사용자로부터의 입력에 따른 적어도 하나의 이벤트가 디스플레이부(120)를 통해 디스플레이되고 있는 영상에 출력되도록 디스플레이부(120) 및 터치 모듈(130)의 동작을 제어할 수 있다.
예를 들어, 제어부(110)는 디스플레이부(120)를 통해 디스플레이되고 있는 영상에 포함된 사용자가 조작중인 제 1 캐릭터를 결정할 수 있다. 제어부(110)는 사용자의 현실 세계에서의 실제 손의 움직임과 제 1 캐릭터의 손의 움직임을 매칭할 수 있다. 제어부(110)는 터치 모듈(130)을 통해 복수의 컬럼형 소자(131)를 사용자가 움켜쥐는 동작을 수행했다고 결정된 경우, 영상 내의 제 1 캐릭터도 손을 움켜쥐는 동작을 수행하도록 결정할 수 있다. 일 실시예에 따르면, 영상 내에서 제 1 캐릭터는 디스플레이되지 않을 수도 있다. 영상 내에는 제 1 캐릭터의 손과 관련된 제 1 오브젝트만 디스플레이될 수도 있다.
이하에서는 제어부(110)가 디스플레이부(120)에 디스플레이되고 있는 영상 내에서 적어도 하나의 이벤트를 출력하는 방법의 일례에 대해 설명한다.
도 3은 본 개시의 몇몇 실시예에 따른 영상 내에서 적어도 하나의 이벤트를 출력하는 방법의 일례에 대해 설명한다.
도 3을 참조하면, VR 장치(100)의 제어부(110)는 터치 모듈 컨트롤러부(140)를 통해 센싱된 사용자의 손의 위치에 기초하여, 디스플레이부(120)를 통해 디스플레이되고 있는 영상 내에서 손의 움직임을 나타내는 제 1 오브젝트를 디스플레이할 수 있다(S110).
구체적으로, 제어부(110)는 터치 모듈 컨트롤러부(140)를 통해 현실 세계의 사용자의 손의 위치를 결정할 수 있다. 제어부(110)는 결정된 손의 위치에 기초하여 영상 내에서 제 1 캐릭터의 손과 관련된 제 1 오브젝트의 위치를 결정할 수 있다. 제어부(110)는 현실 세계의 사용자의 손의 위치가 이동되는 경우, 손의 위치에 대응하여 제 1 오브젝트가 이동되는 방식으로 제 1 오브젝트를 디스플레이할 수 있다.
제어부(110)는 제 1 오브젝트가 영상 내에서 제 2 오브젝트에 오버레이(overlay)되었다고 결정된 경우(S120, Yes), 터치 모듈(130)을 통해 사용자로부터 복수의 컬럼형 소자(131)를 가압하는 움직임이 감지되었는지 여부를 결정할 수 있다. 여기서, 오버레이된다는 의미는 제 2 오브젝트가 디스플레이되고 있는 화면에 제 1 오브젝트가 겹쳐서 디스플레이된다는 의미로 이해될 수 있다. 제 2 오브젝트는 영상 내에서 제 1 오브젝트를 제외한 다른 오브젝트일 수 있다. 예를 들어, 제 2 오브젝트는 사용자와 관련된 제 1 캐릭터 외 다른 제 2 캐릭터를 나타내는 오브젝트일 수 있다. 캐릭터는 사람 또는 동물 등일 수 있다. 또는 제 2 오브젝트는 영상 내에 포함된 가구 등을 나타내는 오브젝트일 수 있다.
제어부(110)는 제 1 오브젝트가 영상 내에서 제 2 오브젝트에 오버레이되었다고 결정되지 않은 경우(S120, No), 터치 모듈 컨트롤러부(140)를 통해 사용자의 손의 움직임을 모니터링할 수 있다.
터치 모듈(130)을 통해 사용자로부터 복수의 컬럼형 소자(131)를 가압하는 움직임이 감지된 경우(S130, Yes), 제어부(110)는 영상 내에서 제 2 오브젝트의 반응과 관련된 적어도 하나의 제 1 이벤트를 출력할 수 있다(S140).
적어도 하나의 제 1 이벤트는 제 2 오브젝트의 반응과 관련되는 이벤트일 수 있다. 일례로, 제 2 오브젝트가 제 2 캐릭터와 관련된 오브젝트인 경우, 적어도 하나의 제 1 이벤트는 제 2 캐릭터가 음성을 발화하는 이벤트일 수 있다. 예를 들어, 적어도 하나의 제 1 이벤트는 제 2 캐릭터가 “아, 음, 오”와 같은 음성어, “좋아, 싫어, 어서 해” 등과 같은 단어 또는 문장을 발화하는 이벤트일 수 있다. 다른 일례로, 제 2 오브젝트가 제 2 캐릭터와 관련된 오브젝트인 경우, 적어도 하나의 제 1 이벤트는 제 2 캐릭터가 사전 설정된 행동을 하는 이벤트일 수 있다. 예를 들어, 적어도 하나의 제 1 이벤트는 제 1 오브젝트가 제 2 오브젝트 상에 오버레이된 제 1 영역과 관련된 신체 부위를 움직이는 이벤트일 수 있다. 만약 제 1 영역과 관련된 신체 부위가 제 2 캐릭터의 팔인 경우, 적어도 하나의 제 1 이벤트는 제 2 캐릭터가 팔을 뿌리치는 이벤트일 수 있다. 만약 제 1 영역과 관련된 신체 부위가 제 2 캐릭터의 머리인 경우, 적어도 하나의 제 1 이벤트는 제 2 캐릭터가 머리를 흔드는 이벤트일 수 있다.
한편, 본 개시의 몇몇 실시예에 따르면, VR 장치(100)는 사용자에게 후각적인 경험을 제공하기 위한 가스 분사부를 더 포함할 수 있다. 가스 분사부는 제어부(110)의 제어 하에 향기가 가미된 가스를 분사할 수 있다.
예를 들어, 제어부(110)는 터치 모듈(130)을 통해 사용자로부터 복수의 컬럼형 소자(131)를 가압하는 움직임이 감지된 경우, 적어도 하나의 제 1 이벤트로서 가스가 분사되도록 가스 분사부를 제어할 수 있다.
한편, 본 개시의 몇몇 실시예에 따르면, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역의 외형을 결정할 수 있다. 제어부(110)는 제 1 영역의 외형에 대응하여 복수의 컬럼형 소자(131)의 높낮이가 조절되도록 구동부(1322)를 제어할 수 있다.
일례로, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역을 제 2 캐릭터의 머리라고 결정할 수 있다. 제어부(110)는 머리의 형상에 대응하여 복수의 컬럼형 소자(131)의 높낮이가 조절되도록 구동부(1322)를 제어할 수 있다.
다른 일례로, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역을 제 2 캐릭터의 팔이라고 결정할 수 있다. 제어부(110)는 팔의 형상에 대응하여 복수의 컬럼형 소자(131)의 높낮이가 조절되도록 구동부(1322)를 제어할 수 있다.
또 다른 일례로, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역을 제 2 캐릭터의 손이라고 결정할 수 있다. 제어부(110)는 손의 형상에 대응하여 복수의 컬럼형 소자(131)의 높낮이가 조절되도록 구동부(1322)를 제어할 수 있다. 이에 따라, 사용자는 터치 모듈(130)을 쥐는 경우, 영상 내에 디스플레이되고 있는 제 2 캐릭터를 실제로 만지는 듯한 느낌을 받을 수 있다.
예시적인 실시예에서, 제 2 오브젝트의 제 1 영역의 크기가 터치 모듈(130)보다 큰 경우 터치 모듈(130)은 제 1 영역의 모든 부분을 표현하지 못할 수 있다. 이 경우, 제어부(110)는 사용자의 손의 움직임을 모니터링하여 제 1 오브젝트의 제 1 영역 내 구체적인 위치에 따라 해당 부분에 대응하도록 복수의 컬럼형 소자(131)의 높낮이를 조절할 수 있다. 즉, 제 1 영역은 터치 모듈(130)의 크기를 고려하여 보다 세분화된 영역들로 나눠질 수 있다. 여기서, 제 1 영역의 크기란 현실과 가상현실간의 차이를 고려하여 미리 설정된 기준을 통해 환산된 크기를 의미한다.
본 개시의 몇몇 실시예에 따르면, 디스플레이부(120)는 사용자의 시선을 추척하는 시선 추적기를 포함할 수 있다. 제어부(110)는 시선 추적기를 통해 센싱된 사용자의 시선에 기초하여, 제 1 영역을 결정할 수도 있다.
한편, 본 개시의 몇몇 실시예에 따르면, 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역의 외형이 결정되고, 터치 모듈(130)을 통해 사용자로부터 복수의 컬럼형 소자(131)를 가압하는 움직임이 감지된 경우, 센싱부(133)는 복수의 컬럼형 소자(131) 각각을 통해 베이스(132)에 가해지는 제 1 압력을 센싱할 수 있다. 제어부(110)는 제 1 압력에 대응하여 복수의 컬럼형 소자(131) 각각에 발생되는 반발력이 조절되도록 감쇄부(134)를 제어할 수 있다.
일례로, 제어부(110)는 복수의 컬럼형 소자(131) 각각에 제 1 압력과 사전 매핑된 제 1 반발력이 발생되도록 감쇄부를 제어할 수 있다.
한편, 본 개시의 몇몇 실시예에 따르면, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역의 외형이 결정된 경우, 제 1 영역의 외형에 기초하여 복수의 컬럼형 소자(131) 각각에 발생되는 반발력을 결정할 수 있다.
일례로, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역을 제 2 캐릭터의 머리라고 결정할 수 있다. 제어부(110)는 머리의 질감에 대응하여 복수의 컬럼형 소자(131)에 사전 매핑된 반발력이 발생되도록, 감쇄부(134)를 제어할 수 있다.
다른 일례로, 제어부(110)는 제 1 오브젝트가 오버레이된 제 2 오브젝트의 제 1 영역을 제 2 캐릭터의 팔이라고 결정할 수 있다. 제어부(110)는 팔의 질감에 대응하여 복수의 컬럼형 소자(131)에 사전 매핑된 반발력이 발생되도록, 감쇄부(134)를 제어할 수 있다. 이에 따라, 사용자는 터치 모듈(130)을 쥐는 경우, 영상 내에 디스플레이되고 있는 제 2 캐릭터를 실제로 만지는 듯한 느낌을 받을 수 있다.
본 발명의 몇몇 실시예에서, 터치 모듈(130)은 복수의 서브 터치 모듈 및 이들을 연결하는 연결 부재를 포함할 수 있다. 연결 부재는 연장 또는 축소가 가능하기 때문에 서브 터치 모듈들을 서로 멀리 분산시키거나 가까이 밀집시킬 수 있다. 일례로, 도 4와 같이 2개의 서브 터치 모듈(1301, 1302)이 연결 부재(1303)로 연결될 수 있고, 좌우, 상하 또는 대각선 방향으로 연장되거나 축소될 수 있다.
사용자가 양손을 이용하여 터치 모듈(130)을 접촉하려 하는 경우, 제어부(110)는 사용자의 양손의 위치에 대응하여 서브 터치 모듈들의 위치를 조절할 수 있다. 이에 따라, 사용자가 양손을 동시에 사용하는 경우에도 그 위치에 상관없이 양손 모두에 촉감을 전달할 수 있다.
제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.

Claims (5)

  1. VR(Virtual Reality) 장치로서,
    HMD(Head Mounted Display) 방식의 디스플레이부;
    실리콘 소재로 형성되고, 높낮이가 조절되는 복수의 컬럼형 소자를 포함하는 터치 모듈; 및
    상기 복수의 컬럼형 소자를 통한 사용자로부터의 입력에 따른 적어도 하나의 이벤트가 상기 디스플레이부를 통해 디스플레이되고 있는 영상에 출력되도록 상기 디스플레이부 및 상기 터치 모듈의 동작을 제어하는 제어부;
    를 포함하는,
    VR 장치.
  2. 제 1 항에 있어서,
    상기 터치 모듈은,
    상기 복수의 컬럼형 소자가 배치되는 베이스;
    를 포함하고,
    상기 베이스는,
    상기 복수의 컬럼형 소자 각각의 하방에 구비되어, 상기 복수의 컬럼형 소자에 대한 사용자의 가압을 감응하는 터치 패널; 및
    상기 제어부의 제어 하에 상기 복수의 컬럼형 소자 각각의 높낮이를 조절하는 구동부;
    를 포함하는,
    VR 장치.
  3. 제 2 항에 있어서,
    상기 터치 모듈은,
    상기 복수의 컬럼형 소자 각각을 통해 상기 베이스에 가해지는 제 1 압력을 센싱하는 센싱부; 및
    상기 제어부의 제어 하에, 상기 제 1 압력에 대응하여 상기 복수의 컬럼형 소자 각각에 발생되는 반발력을 조절하는 감쇄부;
    를 더 포함하는,
    VR 장치.
  4. 제 3 항에 있어서,
    상기 사용자의 손에 착용되어, 상기 사용자의 손의 위치 이동을 센싱하는 터치 모듈 컨트롤러부;
    를 더 포함하고,
    상기 제어부는,
    상기 터치 모듈 컨트롤러부를 통해 센싱된 상기 사용자의 손의 위치에 기초하여, 상기 디스플레이부를 통해 디스플레이되고 있는 영상 내에서 상기 손의 움직임을 나타내는 제 1 오브젝트를 디스플레이하고,
    상기 제 1 오브젝트가 상기 영상 내에서 제 2 오브젝트에 오버레이(overlay)되고, 상기 사용자로부터 상기 복수의 컬럼형 소자를 가압하는 움직임이 감지된 경우, 상기 영상 내에서 제 2 오브젝트의 반응과 관련된 적어도 하나의 제 1 이벤트를 출력하는,
    VR 장치.
  5. 제 4 항에 있어서,
    상기 제어부는,
    상기 제 1 오브젝트가 오버레이된 상기 제 2 오브젝트의 제 1 영역의 외형에 대응하여 상기 복수의 컬럼형 소자의 높낮이가 조절되도록 상기 구동부를 제어하는,
    VR 장치.
KR1020230009807A 2022-11-01 2023-01-26 촉감을 제공하는 성인 콘텐츠용 vr 장치 KR20240062067A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230009807A KR20240062067A (ko) 2022-11-01 2023-01-26 촉감을 제공하는 성인 콘텐츠용 vr 장치
PCT/KR2023/017139 WO2024096523A1 (ko) 2022-11-01 2023-10-31 촉각 및 후각을 제공하는 성인 콘텐츠용 vr 장치 및 성인용 vr 콘텐츠를 제공하고 위변조를 방지하는 플랫폼 서비스를 제공하기 위한 방법

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020220143468A KR102496927B1 (ko) 2022-11-01 2022-11-01 촉감을 제공하는 성인 콘텐츠용 vr 장치
KR1020230009807A KR20240062067A (ko) 2022-11-01 2023-01-26 촉감을 제공하는 성인 콘텐츠용 vr 장치
KR20230010587 2023-01-27
KR1020230050451A KR20240154189A (ko) 2023-04-18 성인용 vr 콘텐츠의 제공 및 위변조를 방지하는 플랫폼 서비스를 제공하기 위한 방법
KR1020230051806A KR20240118629A (ko) 2023-01-27 2023-04-20 후각 및 촉각을 제공하는 성인 콘텐츠용 vr 장치
KR1020230098737A KR20240118637A (ko) 2023-01-27 2023-07-28 성인용 vr 콘텐츠의 제공 및 위변조를 방지하는 플랫폼 서비스를 제공하기 위한 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220143468A Division KR102496927B1 (ko) 2022-11-01 2022-11-01 촉감을 제공하는 성인 콘텐츠용 vr 장치

Publications (1)

Publication Number Publication Date
KR20240062067A true KR20240062067A (ko) 2024-05-08

Family

ID=90931688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230009807A KR20240062067A (ko) 2022-11-01 2023-01-26 촉감을 제공하는 성인 콘텐츠용 vr 장치

Country Status (2)

Country Link
KR (1) KR20240062067A (ko)
WO (1) WO2024096523A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049891A (ko) 2020-10-15 2022-04-22 (주)이머시브캐스트 바디 움직임 기반의 클라우드 vr 장치 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227255B1 (ko) * 2010-03-17 2013-01-28 에스케이플래닛 주식회사 마커 크기 기반 인터렉션 방법 및 이를 구현하기 위한 증강 현실 시스템
WO2013089490A1 (ko) * 2011-12-15 2013-06-20 한양대학교 산학협력단 디스플레이 장치와 연동하는 촉감 제공 장치 및 방법
KR102501527B1 (ko) * 2016-07-28 2023-02-22 삼성전자주식회사 터치키를 포함하는 전자 장치
KR101881252B1 (ko) * 2017-04-05 2018-08-17 성균관대학교산학협력단 양방향 촉각 인터페이스를 위한 햅틱 디스플레이 장치
KR20220010829A (ko) * 2020-07-20 2022-01-27 주식회사 딥센트 가상 또는 증강 현실 영상 컨텐츠에 기반한 지향성 향기 제공 장치의 동작 방법
KR102496927B1 (ko) * 2022-11-01 2023-02-07 김태원 촉감을 제공하는 성인 콘텐츠용 vr 장치
KR102526166B1 (ko) * 2023-01-27 2023-04-26 김태원 후각 및 촉각을 제공하는 성인 콘텐츠용 vr 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220049891A (ko) 2020-10-15 2022-04-22 (주)이머시브캐스트 바디 움직임 기반의 클라우드 vr 장치 및 방법

Also Published As

Publication number Publication date
WO2024096523A1 (ko) 2024-05-10

Similar Documents

Publication Publication Date Title
US20160363997A1 (en) Gloves that include haptic feedback for use with hmd systems
KR101338043B1 (ko) 실감 인터랙션을 이용한 인지재활 시스템 및 방법
US20150035658A1 (en) Skin stretch feedback devices, systems, and methods
Lécuyer et al. The effect of haptic, visual and auditory feedback on an insertion task on a 2-screen workbench
JP7341443B1 (ja) 触感を提供する成人向けコンテンツ用vr装置
JPWO2021059359A1 (ja) アニメーション制作システム
Chacón-Quesada et al. Augmented reality controlled smart wheelchair using dynamic signifiers for affordance representation
KR102009753B1 (ko) 가상현실에 기반하는 객체 처리장치 및 그 동작 방법
JP2000338858A (ja) 仮想空間体感装置
JP2021184272A (ja) 情報処理方法、プログラム及びコンピュータ
JP6964302B2 (ja) アニメーション制作方法
KR20240062067A (ko) 촉감을 제공하는 성인 콘텐츠용 vr 장치
WO2022253258A1 (zh) 避免动晕症发生的虚拟实境控制方法
JPWO2021059369A1 (ja) アニメーション制作システム
JP2022153476A (ja) アニメーション制作システム
JP6955725B2 (ja) アニメーション制作システム
Young et al. Ungrounded vari-dimensional tactile fingertip feedback for virtual object interaction
US12019476B2 (en) Wearable data processing apparatus, system and method
JP2001117715A (ja) 触覚力覚呈示装置及び情報入出力装置
JP7387198B2 (ja) プログラムおよび画像表示システム
WO2024070266A1 (ja) 指装着型コントローラー
US20240293732A1 (en) System, method and computer program for monitoring a weight distribution of a user
KR20230101498A (ko) 가상현실에 기반하여 감정을 출력하는 방법 및 그 전자장치
WO2021059356A1 (ja) アニメーション制作システム
JP2020067810A (ja) 仮想空間におけるキャラクタの制御方法