KR101914423B1 - 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 - Google Patents
위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 Download PDFInfo
- Publication number
- KR101914423B1 KR101914423B1 KR1020187000989A KR20187000989A KR101914423B1 KR 101914423 B1 KR101914423 B1 KR 101914423B1 KR 1020187000989 A KR1020187000989 A KR 1020187000989A KR 20187000989 A KR20187000989 A KR 20187000989A KR 101914423 B1 KR101914423 B1 KR 101914423B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- tactile stimulus
- interface device
- user interface
- content
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000000638 stimulation Effects 0.000 claims abstract description 35
- 230000000007 visual effect Effects 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000001953 sensory effect Effects 0.000 abstract description 25
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007340 echolocation Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B06—GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
- B06B—METHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
- B06B1/00—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
- B06B1/02—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
- B06B1/06—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- H01L41/09—
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10N—ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10N30/00—Piezoelectric or electrostrictive devices
- H10N30/20—Piezoelectric or electrostrictive devices with electrical input and mechanical output, e.g. functioning as actuators or vibrators
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1037—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/105—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/013—Force feedback applied to a game
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
다른 감각 콘텐츠와 연관된 촉각 자극이 다른 감각 콘텐츠를 한 명 이상의 사용자들에게 전달하기 위해 생성된다. 이는 콘텐츠에 의해 한 명 이상의 사용자들에게 제공되는 경험을 강화할 수 있다. 감각 콘텐츠는 비디오 콘텐츠, 비디오 게임 콘텐츠, 오디오 콘텐츠, 및/또는 다른 콘텐츠를 포함할 수 있다. 촉각 자극은 위치 정보에 기초하여 변할 수 있다. 이러한 위치 정보는 한 명 이상의 사용자들의 위치, 컨트롤러(예를 들어, 게임 컨트롤러)의 위치, 촉각 자극을 전달하는 액추에이터의 위치, 및/또는 다른 위치 정보를 포함할 수 있다.
Description
<관련 출원 데이터>
본 출원은, 그 전체가 본 명세서에 참조용으로 인용된, "위치에 기초한 촉각 자극을 제공하는 시스템 및 방법(System and Method for Providing Haptic Stimulus Based On Position)"이라는 제목으로, 2010년 3월 31일에 출원된, 미국 특허 출원 번호 제12/751,780호에 대한 우선권을 주장한다.
본 발명은 위치에 기초한 촉각 자극을 사용자들에게 제공하는 것에 관한 것이다.
비주얼 및/또는 오디오 콘텐츠와 함께 촉각 자극을 사용자들에게 제공하는 시스템들이 공지되어 있다. 촉각 자극은 콘텐츠와 연관된 사용자들의 경험의 하나 이상의 양상들을 강화할 수 있다고 일반적으로 생각되고 있다. 그러나, 종래의 시스템들은 사용자 또는 사용자의 신체 일부의 위치와 관련된 위치 정보에 기초하여 촉각 자극을 바꾸지 않는다. 대신, 사용자들의 위치, 촉각 피드백을 생성하는 액추에이터의 위치, 비주얼 및/또는 오디오 콘텐츠를 전달하는 사용자 인터페이스 디바이스의 위치, 및/또는 다른 위치들에 상관없이 촉각 피드백이 결정 및 생성된다.
본 발명의 한 양상은 한 명 이상의 사용자들에게 촉각 자극을 제공하도록 구성된 시스템에 관한 것이다.
일 실시예에서, 본 시스템은 사용자 인터페이스, 액추에이터, 및 하나 이상의 프로세서들을 포함한다. 사용자 인터페이스 디바이스는 감각 콘텐츠를 한 명 이상의 사용자들에게 전달하는 콘텐츠 전달부를 가진다. 액추에이터는 한 명 이상의 사용자들 중 적어도 한 명에게 전달되는 감각 콘텐츠와 연관된 촉각 자극을 생성하도록 구성된다. 하나 이상의 프로세서들은 컴퓨터 프로그램 모듈들을 실행하도록 구성된다. 컴퓨터 프로그램 모듈들은 자극 모듈, 및 액추에이터 모듈을 포함한다. 자극 모듈은 한 명 이상의 사용자들에게 전달되는 감각 콘텐츠와 연관된 한 명 이상의 사용자들에 대해 생성될 촉각 자극을 결정하도록 구성되며, 촉각 자극은 사용자 인터페이스 디바이스의 콘텐츠 전달부에 대한 위치의 함수에 따라 변한다. 액추에이터 제어 모듈은 자극 모듈에 의해 결정된 촉각 자극을 생성하도록 액추에이터를 제어하도록 구성된다.
본 발명의 다른 양상은 사용자에게 촉각 자극을 제공하는 방법에 관한 것이다. 일 실시예에서, 본 방법은 사용자 인터페이스 디바이스의 콘텐츠 전달부에서 사용자에게 콘텐츠를 전달하는 단계; 사용자에게 전달된 콘텐츠와 연관된 사용자에 대해 생성될 촉각 자극을 결정하는 단계 - 상기 촉각 자극은 사용자 인터페이스 디바이스의 콘텐츠 전달부에 대한 위치의 함수에 따라 변함 - ; 및 촉각 자극을 생성하는 단계를 포함한다.
본 발명의 또 다른 양상은 사용자에게 촉각 자극을 제공하도록 구성된 시스템에 관한 것이다. 일 실시예에서, 본 시스템은 사용자 인터페이스 디바이스, 액추에이터, 및 하나 이상의 프로세서들을 포함한다. 사용자 인터페이스 디바이스는, 감각 콘텐츠를 사용자에게 전달하는 콘텐츠 전달부를 가진다. 액추에이터는 사용자의 신체의 제1 부분에 생기도록 구성된 사용자에게 전달되는 감각 콘텐츠와 연관된 촉각 자극을 생성하도록 구성된다. 하나 이상의 프로세서들은 컴퓨터 프로그램 모듈들을 실행하도록 구성되며, 컴퓨터 프로그램 모듈들은 자극 모듈 및 액추에이터 제어 모듈을 포함한다. 자극 모듈은 사용자에게 전달되는 감각 콘텐츠와 연관된 사용자에 대해 생성될 촉각 자극을 결정하도록 구성되며, 촉각 자극은 사용자의 신체의 제2 부분에 대한 사용자의 신체의 제1 부분의 위치의 함수에 따라 변한다. 액추에이터 제어 모듈은 자극 모듈에 의해 결정된 촉각 자극을 생성하도록 액추에이터를 제어하도록 구성된다.
본 발명의 이들 및 여타 목적들, 특징들, 및 특성들뿐만 아니라, 관련 구성 요소들의 동작 방법들 및 기능들 및 파트들의 조합 및 제조 경비에 대해서는, 첨부 도면들을 참조해서 이하의 설명 및 첨부된 청구항들을 고려할 때 더욱 명백해질 것이며, 이하의 설명, 첨부된 청구항들, 및 첨부 도면들은 모두 본 명세서의 일부를 형성하며, 유사 참조 부호들은 각종 도면들에서 상응하는 파트들을 나타낸다. 그러나, 도면들은 오직 도시 및 설명을 목적으로 한 것이며 본 발명의 범위의 정의로서 의도된 것이 아님을 명확히 알아야 할 것이다. 본 명세서 및 청구항들에서 사용된, 단수 형태의 "a", "an", 및 "the"는 문맥이 명백히 달리 지시하지 않는 한 복수의 지시 대상물들을 포함한다.
본 발명은 한 명 이상의 사용자들에게 촉각 자극을 제공하도록 구성된 시스템을 제공한다.
도 1은, 본 발명의 하나 이상의 실시예들에 따른, 다른 감각 콘텐츠와 연관된 촉각 자극을 제공하도록 구성된 시스템을 도시한다.
도 2는, 본 발명의 하나 이상의 실시예들에 따른, 다른 감각 콘텐츠와 연관된 촉각 자극을 제공하는 방법을 도시한다.
도 2는, 본 발명의 하나 이상의 실시예들에 따른, 다른 감각 콘텐츠와 연관된 촉각 자극을 제공하는 방법을 도시한다.
도 1은 한 명 이상의 사용자들에게 전달되는 다른 감각 콘텐츠와 연관된 촉각 자극을 제공하도록 구성된 시스템(10)을 도시한다. 이는 콘텐츠에 의해 한 명 이상의 사용자들에게 제공되는 경험을 강화할 수 있다. 감각 콘텐츠는 비디오 콘텐츠, 비디오 게임 콘텐츠, 오디오 콘텐츠, 3차원 콘텐츠, 및/또는 다른 콘텐츠를 포함할 수 있다. 시스템(10)은 위치 정보에 기초하여 다른 감각 콘텐츠와 연관된 촉각 자극을 변하게 하도록 구성된다. 이러한 위치 정보는 한 명 이상의 사용자들의 위치, 컨트롤러(예를 들어, 게임 컨트롤러)의 위치, 촉각 자극을 전달하는 액추에이터의 위치, 및/또는 다른 위치 정보와 관련된 정보를 포함할 수 있다. 일 실시예에서, 시스템(10)은 콘텐츠 전달부(14)를 포함하는 사용자 인터페이스 디바이스(12), 하나 이상의 액추에이터들(16), 하나 이상의 센서들(18), 하나 이상의 컨트롤러들(20), 전자 스토리지(22), 하나 이상의 프로세서들(24), 및/또는 다른 컴포넌트들 중 하나 이상을 포함한다.
사용자 인터페이스 디바이스(12)는 한 명 이상의 사용자들에게 감각 콘텐츠를 제공하도록 구성된다. 감각 콘텐츠는 사용자 인터페이스 디바이스(12)의 콘텐츠 전달부(14)를 통해 한 명 이상의 사용자들에게 전달된다. 일 실시예에서, 사용자 인터페이스 디바이스(12)는 사용자들에게 콘텐츠가 전달되는 중에 고정 로케이션에 배치되고, 사용자들에 의해 이동되지 않고/않거나 가지고 다녀지지 않도록 구성된다. 이는, 사용자 인터페이스 디바이스가 이동 가능/휴대 가능한(예를 들어, 휴대형 게임 시스템, 스마트폰 등) 시스템들로 본 명세서에 기술된 하나 이상의 원리들이 확장될 수 있기에, 제한하는 것으로 의도된 것이 아니다. 일 실시예에서, 사용자 인터페이스 디바이스(12)는 전자 디스플레이를 포함한다. 본 실시예에서, 전자 디스플레이의 디스플레이 표면은 사용자 인터페이스 디바이스(12)의 콘텐츠 전달부(14)로서 작용한다. 일 실시예에서, 사용자 인터페이스 디바이스(12)는 오디오 스피커를 포함한다. 본 실시예에서, 사용자 인터페이스 디바이스(12)로부터 소리가 방출되는 영역은 콘텐츠 전달부(14)로서 작용한다. 일 실시예에서, 사용자 인터페이스 디바이스(12)는 전자 디스플레이 및 오디오 스피커를 포함한다.
사용자 인터페이스 디바이스(12)에 의해 사용자들에게 제공된 감각 콘텐츠는 영화, 텔레비전, 및/또는 다른 비디오 등의 비디오를 포함할 수 있다. 사용자 인터페이스 디바이스(12)에 의해 사용자들에게 제공된 감각 콘텐츠는 비디오게임, 가상 세계, 시뮬레이션, 및/또는 다른 컴퓨터 생성 그래픽과 연관된 그래픽(동적 및/또는 정지)을 포함할 수 있다. 사용자 인터페이스 디바이스(12)가 비디오, 컴퓨터 생성 그래픽, 및/또는 다른 비쥬얼 콘텐츠를 사용자들에게 전달하는 실시예들에서, 사용자 인터페이스 디바이스(12)는 비쥬얼 콘텐츠와 연관된 오디오 콘텐츠를 사용자들에게 또한 제공할 수 있다. 예를 들어, 영화 또는 텔레비전 쇼, 비디오게임, 또는 다른 타입들의 비쥬얼 콘텐츠는, 비쥬얼 콘텐츠와 동시에 사용자들에게 전달되는 사운드 트랙과 연관될 수 있다. 일 실시예에서, 사용자 인터페이스 디바이스(12)는 비쥬얼 콘텐츠를 동반하지 않고 사용자들에게 오디오 콘텐츠를 전달하도록 구성된다.
사용자 인터페이스 디바이스(12)가 전자 디스플레이인 일 실시예에서, 사용자 인터페이스 디바이스(12)는 콘텐츠 전달부(14)로서 작용하는 디스플레이 표면을 통해 사용자들에게 콘텐츠의 3차원 뷰들을 전달할 수 있다. 3차원 뷰들은 비디오 콘텐츠, 컴퓨터 생성 이미지들, 및/또는 다른 비쥬얼 콘텐츠의 3차원 뷰들을 포함할 수 있다. 한정적이지 않은 예를 들어, 본 실시예에서, 사용자 인터페이스 디바이스(12)는 액티브 3D 안경을 사용하는 시스템들, 렌즈 모양 디스플레이들, 및/또는 다른 타입들의 3차원 디스플레이들 중 하나 이상을 포함할 수 있다.
액추에이터들(16)은 사용자들에 대한 촉각 자극을 생성하도록 구성된다. 따라서, 액추에이터들(16) 중 적어도 일부는, 사용자 인터페이스 디바이스(12)가 감각 콘텐츠를 사용자들에게 전달하는 중에, 사용자들과 접촉하거나, 또는 사용자들과 접촉하는 물체들과 접촉한다. 한정적이지 않은 예를 들어, 액추에이터들(16) 중 하나 이상은 사용자들을 지지하는 바닥 표면에 또는 바닥 표면 위에 위치할 수 있으며,(예를 들어, 바닥에 설치됨, 바닥 위에 있는 매트에 의해 유지(carry)됨 등), 액추에이터들(16) 중 하나 이상은 사용자들이 착용한 브레이스(brace) 또는 다른 착용 가능 아이템에 의해 유지될 수 있고, 액추에이터들(16) 중 하나 이상은 사용자들에 의해 휴대되는 물체들에 의해 유지될 수 있으며(예를 들어, 컨트롤러(20)에 의해 유지됨), 액추에이터들(16) 중 하나 이상은 사용자들이 앉아 있거나 누워 있는 가구들에 의해 유지될 수 있고/있거나, 액추에이터들(16) 중 하나 이상은 사용자들과 접촉하는 다른 물체들에 의해 유지되거나 또는 그 물체들에 또는 그 위에 배치될 수 있다.
본 명세서에서 사용된 용어 "촉각 자극(haptic stimulus)"은 사용자들에게 인가된 촉각 피드백을 말한다. 예를 들어, 이 피드백은 액추에이터들(16) 및/또는 액추에이터들(16) 및 사용자가 모두 접촉하고 있는 물체들에 의해 사용자에게 물리적으로 인가된 진동들, 힘들, 및/또는 움직임들 중 하나 이상을 포함할 수 있다. 초음파 에너지 형태, 또는 다른 에너지 형태의 비접촉 촉각 피드백이 또한 촉각 자극으로서 구현될 수 있다. 액추에이터들(16)은 사용자들에게 인가될 피드백을 생성하도록 구성된 임의의 디바이스를 포함할 수 있다. 예를 들어, 액추에이터들(16)은 압전 액추에이터, 공압(pneumatic) 액추에이터, 편심 질량 액추에이터(eccentric mass actuator), EAP(electroactive polymer) 액추에이터, 정전 표면 액추에이터, 형상 기억 합금, 및/또는 다른 액추에이터들 중 하나 이상을 포함할 수 있다.
액추에이터들(16)이 단일 엔티티로서 도 1에 도시되어 있지만, 이는 오직 설명을 목적으로 한 것임을 알 것이다. 일 실시예에서, 액추에이터들(16)은 복수의 액추에이터들을 포함한다. 복수의 액추에이터들은 단일 물체 또는 디바이스에 포함되거나, 그에 의해 유지되고/유지되거나, 그와 접촉할 수 있다. 또는, 복수의 액추에이터들은 복수의 개별 물체들 또는 디바이스들에 포함되거나, 그들에 의해 유지되고/유지되거나, 그들과 접촉할 수 있다.
센서들(18)은 위치와 관련된 정보를 전달하는 출력 신호들을 생성하도록 구성된다. 일 실시예에서, 출력 신호들은 적어도 한 사용자, 액추에이터들(16)(예를 들어, 액추에이터들(16) 중 하나 이상이 이동 가능한 물체에 포함되거나 또는 그에 의해 유지되는 경우), 컨트롤러들(20), 및/또는 다른 물체들 중 하나 이상의 위치와 관련된 정보를 전달한다. 센서들(18)의 출력 신호들에 의해 정보가 전달되는 위치들은 절대 좌표 시스템의 위치들, 사용자 인터페이스 디바이스(12)에 대한 위치들(예를 들어, 콘텐츠 전달부(14)에 대한 위치들), 사용자 및/또는 사용자의 신체 일부들에 대한 액추에이터들(16) 및/또는 센서들(18) 중 하나 또는 둘 다의 위치들, 사용자들의 서로에 대한 위치들, 및/또는 다른 물체들에 대한 위치들 중 하나 이상을 포함할 수 있다.
위치와 관련된 정보를 전달하는 출력 신호들을 생성하는 각종 센서들 중 하나 이상의 임의의 센서들이 센서들(18)로서 시스템(10)에서 구현될 수 있다. 한정적이지 않은 예를 들어, 센서들(18)은 가속도계, 자이로스코프, 디지털 컴퍼스, 초음파 에코-로케이션 센서, 광 거리 또는 근접 센서, 이미징 센서(예를 들어, 비디오 또는 정지 이미지), RF 센서들, 및/또는 다른 센서들 중 하나 이상을 포함할 수 있다. 센서들(18)의 출력 신호들은 거리, 방향, 각도 등의 위치 정보, 및/또는 다른 위치 정보를 직접 전달할 수 있음을 알 것이다. 센서들(18)의 출력 신호들은 위치 정보를 간접적으로 전달할 수 있다. 예를 들어, 센서들(18)은 위치의 시간 도함수들(예를 들어, 가속도), 위치가 결정될 수 있는 이미지들, 및/또는 위치가 결정될 수 있는 다른 타입들의 정보와 관련된 정보를 전달할 수 있다. 출력 신호들은 "생으로(raw)" 센서들(18)로부터 출력될 수 있으며, 또는 센서들(18)은 일부 예비 처리를 제공하기 위한 기능들을 포함할 수 있다.
일 실시예에서, 센서들(18)은 시스템(10)의 다른 컴포넌트들(예를 들어, 액추에이터들(16), 센서들(18) 등)에 의해 유지되는 하나 이상의 센서들을 포함한다. 일 실시예에서, 센서들(18)은 사용 중에 이동되지 않는 하나 이상의 센서들을 포함한다. 일 실시예에서, 센서들(18)은 사용자들이 착용할 수 있는 개별 컴포넌트들로서 제공되는 하나 이상의 센서들을 포함한다.
컨트롤러들(20)은 시스템(10)에 대한 사용자 상호 작용 및 제어를 제공하도록 구성된다. 일 실시예에서, 컨트롤러들(20)은 비디오게임, 가상 세계, 및/또는 시뮬레이션에서 가상 캐릭터들 및/또는 객체들을 조작하기 위해 사용자들에 의해 구현된 하나 이상의 게임 컨트롤러들을 포함한다. 일 실시예에서, 컨트롤러들(20)은 시스템(10)의 하나 이상의 다른 컴포넌트들의 구성 및/또는 세팅에 대한 제어를 사용자들에게 제공하도록 구성된 하나 이상의 전자 컨트롤러들(예를 들어, 사용자 인터페이스 디바이스(12)에 대한 리모트 컨트롤)을 포함한다. 컨트롤러들(20)은 핸드헬드 컨트롤러들, 핸드헬드 컴포넌트들과 협력하는 카메라 컨트롤러들(예를 들어, 소니 플레이스테이션® 아이(Sony PlayStation® Eye) 및 플레이스테이션® 모션 컨트롤러(Sony PlayStation® Motion Controller)), 및/또는 핸드헬드가 아닌 컨트롤러들(예를 들어, 비행 시뮬레이션 컨트롤, 운전 시뮬레이션 컨트롤 등)을 포함할 수 있다.
일 실시예에서, 전자 스토리지(22)는 정보를 전자적으로 저장하는 전자 기억 매체를 포함한다. 전자 스토리지(22)의 전자 기억 매체는 시스템(10)과 통합되어(즉, 실질적으로 제거할 수 없게) 제공되는 시스템 스토리지 및/또는 예를 들어, 포트(예를 들어, USB 포트, 파이어와이어 포트 등) 또는 드라이브(예를 들어, 디스크 드라이브 등)를 통해 시스템(10)에 제거할 수 있게 연결 가능한 이동식(removable) 스토리지 중 하나 또는 둘 다를 포함할 수 있다. 전자 스토리지(22)는 광학적으로 판독 가능한 기억 매체(예를 들어, 광 디스크 등), 자기적으로 판독 가능한 기억 매체(예를 들어, 자기 테이프, 자기 하드 드라이브, 플로피 드라이브 등), 전하 기반 기억 매체(예를 들어, EEPROM, RAM 등), 솔리드-스테이트 기억 매체(예를 들어, 플래시 드라이브 등), 및/또는 다른 전자적으로 판독 가능한 기억 매체 중 하나 이상을 포함할 수 있다. 전자 스토리지(22)는 소프트웨어 알고리즘들, 프로세서(24)에 의해 결정된 정보, 사용자 인터페이스 디바이스(12)를 통해 사용자들에게 전달될 콘텐츠, 및/또는 시스템(10)이 제대로 작용할 수 있게 하는 다른 정보를 저장할 수 있다. 전자 스토리지(22)는 시스템(10) 내의 개별 컴포넌트일 수 있으며, 또는 전자 스토리지(22)는 시스템(10)의 하나 이상의 다른 컴포넌트들(예를 들어, 사용자 인터페이스 디바이스(12), 프로세서(24) 등)과 통합되어 제공될 수 있다.
프로세서(24)는 시스템(10)의 정보 처리 기능들을 제공하도록 구성된다. 따라서, 프로세서(24)는 디지털 프로세서, 아날로그 프로세서, 정보를 처리하도록 설계된 디지털 회로, 정보를 처리하도록 설계된 아날로그 회로, 상태 기계, 및/또는 정보를 전자적으로 처리하기 위한 다른 메커니즘들 중 하나 이상을 포함할 수 있다. 프로세서(24)가 단일 엔티티로서 도 1에 도시되어 있지만, 이는 오직 설명을 목적으로 한 것이다. 일부 구현들에서, 프로세서(24)는 복수의 처리 유닛들을 포함할 수 있다. 이 처리 유닛들이 동일한 디바이스 내에 물리적으로 위치할 수 있으며, 또는 프로세서(24)가 합동해서 동작하는 복수의 디바이스들의 처리 기능을 나타낼 수 있다. 예를 들어, 일 실시예에서, 아래에 프로세서(24)에 속하는 것으로 생각되는 기능은 컴퓨터, 비디오게임 콘솔, 광 디스크 플레이어, 및/또는 다른 홈 엔터테인먼트 장치에 제공된 제1 프로세서, 및 제1 프로세서에 위치 정보를 제공하기 위해 제1 프로세서와 통신하는 제2 프로세서 간에 분할된다.
도 1에 도시된 바와 같이, 프로세서(24)는 하나 이상의 컴퓨터 프로그램 모듈들을 실행하도록 구성될 수 있다. 하나 이상의 컴퓨터 프로그램 모듈들은 콘텐츠 제공 모듈(26), 위치 모듈(28), 자극 모듈(30), 액추에이터 제어 모듈(32), 및/또는 다른 모듈들 중 하나 이상을 포함할 수 있다. 프로세서(24)는 소프트웨어; 하드웨어; 펌웨어; 소프트웨어, 하드웨어, 및/또는 펌웨어의 일부 조합; 및 프로세서(24)에서 처리 기능들을 구성하기 위한 다른 메커니즘들에 의해 모듈들(26, 28, 30, 및/또는 32)을 실행하도록 구성될 수 있다.
모듈들(26, 28, 30, 32)이 단일 처리 유닛 내에 함께 위치한 것으로 도 1에 도시되어 있지만, 프로세서(24)가 다수의 처리 유닛들을 포함하는 구현들에서, 모듈들(26, 28, 30, 및/또는 32) 중 하나 이상은 다른 모듈들로부터 원격에 위치할 수 있음을 알아야만 한다. 모듈들(26, 28, 30, 및/또는 32) 중 임의의 모듈이 기술된 것보다 더 많은 또는 더 적은 기능을 제공할 수 있기에, 후술된 상이한 모듈들(26, 28, 30, 및/또는 32)에 의해 제공된 기능의 설명은 설명을 위한 것이며, 제한하도록 의도된 것이 아니다. 예를 들어, 모듈들(26, 28, 30, 및/또는 32) 중 하나 이상은 제거될 수 있으며, 그의 기능 중 일부 또는 전부가 모듈들(26, 28, 30, 및/또는 32) 중 다른 것들에 의해 제공될 수 있다. 다른 일례로서, 프로세서(24)는 아래에 모듈들(26, 28, 30, 및/또는 32) 중 하나에 속하는 것으로 생각되는 기능의 일부 또는 전부를 수행할 수 있는 하나 이상의 추가 모듈들을 실행하도록 구성될 수 있다.
콘텐츠 제공 모듈(26)은 사용자 인터페이스 디바이스(12)를 통해 사용자들로의 콘텐츠의 제공을 제어하도록 구성된다. 콘텐츠가 (예를 들어, 비디오 게임, 가상 세계, 시뮬레이션 등의) 컴퓨터 생성 이미지들을 포함하면, 콘텐츠 제공 모듈(26)은 사용자 인터페이스 디바이스(12)를 통해 사용자들에게 디스플레이될 이미지들 및/또는 뷰들을 생성하도록 구성된다. 콘텐츠가 비디오 및/또는 정지 이미지들을 포함하면, 콘텐츠 제공 모듈(26)은 비디오 및/또는 정지 이미지들에 액세스하고, 사용자 인터페이스 디바이스(12)를 통해 사용자들에게 디스플레이될 비디오 및/또는 정지 이미지들의 뷰들을 생성하도록 구성된다. 콘텐츠가 오디오 콘텐츠를 포함하면, 콘텐츠 제공 모듈(26)은 적합한 소리들을 출력하도록 사용자 인터페이스 디바이스(12)를 구동할 전자 신호들을 생성하도록 구성된다. 콘텐츠, 또는 콘텐츠가 유도되는 정보가 전자 스토리지(22)로부터 콘텐츠 제공 모듈(26)에 의해 획득될 수 있다.
위치 모듈(28)은 센서들(18)에 의해 생성된 출력 신호들로부터 위치 정보를 결정하도록 구성된다. 위치 정보는 사용자들의 위치들, 액추에이터들(16)의 위치들, 센서들(18)의 위치들, 컨트롤러들(20)의 위치들, 및/또는 다른 위치들 중 하나 이상의 위치들과 관련된 정보를 포함할 수 있다. 위치 모듈(28)에 의해 결정된 위치와 관련된 정보는, 절대 좌표 시스템에서의, 다른 물체들에 대한, 및/또는 다른 컨텍스트들에서의, 하나 이상의 물체들(예를 들어, 사용자들, 액추에이터들(16), 센서들(18), 컨트롤러들(20) 등)의 위치를 기술할 수 있다. 본 명세서에서 사용된, "위치 정보" 또는 "위치와 관련된 정보"는 제어 입력들과 상관된 제스처들 또는 이동들을 나타내는 것이 아니다. 대신, "위치 정보" 또는 "위치와 관련된 정보"는, 단지, 좌표 시스템에서의, 또는 일부 다른 물체에 대한, 한 물체의 위치를 기술하는 정보를 나타낸다. 이 정보는 좌표들, 거리들, 회전 방향들, 및/또는 각도 관계들을 포함할 수 있지만, 이들에 제한되지 않는다.
자극 모듈(30)은 사용자에 대해 생성될 촉각 자극을 결정하도록 구성된다. 촉각 자극의 결정은, 액추에이터들(16) 중 어떤 액추에이터(들)가 자극을 인가해야만 하는지를 결정하고/결정하거나, 촉각 자극의 하나 이상의 파라미터들을 결정하는 것을 포함한다. 이러한 하나 이상의 파라미터들은 힘의 크기, 지향성 및 방향, 자극의 로케이션, 진동의 주파수, 크기, 지속 기간, 및/또는 다른 파라미터들 중 하나 이상을 포함할 수 있다.
자극 모듈(30)에 의해 결정된 촉각 자극은 사용자 인터페이스 디바이스(12)에 의해 전달되는 감각 콘텐츠와 연관된다. 따라서, 자극은, (예를 들어, 전자 스토리지(22)에) 콘텐츠와 함께 전자적으로 저장된 정보에 의해, 적어도 어느 정도, 지시될 수 있다. 촉각 자극은 콘텐츠에 의해 제공되는 경험의 하나 이상의 양상들을 강화하기 위해 자극 모듈(30)에 의해 결정된다. 예를 들어, 촉각 자극은 콘텐츠의 실재성(realism), 콘텐츠의 유쾌성(enjoyability), 사용자들에 의한 콘텐츠의 인식, 및/또는 사용자 인터페이스 디바이스(12)를 통해 사용자들에게 전달되는 콘텐츠에 의해 제공되는 경험의 다른 양상들 중 하나 이상을 강화하도록 결정될 수 있다.
사용자 인터페이스 디바이스(12)를 통해 사용자들에게 전달되는 콘텐츠에 의해 제공되는 경험의 하나 이상의 양상들을 강화하기 위해, 자극 모듈(30)은 위치와 관련된 정보에 기초하여 촉각 자극을 결정하도록 구성된다. 이는 사용자 인터페이스 디바이스(12)에 대한 사용자 위치, 사용자의 다른 신체 일부에 대한 사용자의 한 신체 일부의 위치, 한 명 이상의 다른 사용자들에 대한 한 사용자의 위치, 및/또는 위치 정보에 기초하여 촉각 자극을 변하게 하는 단계를 포함한다. 위치에 기초하여 촉각 자극을 변하게 할 때, 자극 모듈(30)은 뚜렷한 단계들로, 또는 완만하게 자극을 변경할 수 있다. 예를 들어, 사용자 인터페이스 디바이스(12)가 콘텐츠 전달부(14)로서 작용하는 디스플레이 표면에 대한 이산의 미리 결정된 시야각들로 3차원 뷰들을 제공하도록 구성되면, 자극 모듈(30)은, 미리 결정된 시야각들 각각이 그의 3차원 뷰에 대응하는 촉각 자극을 수신하도록, 촉각 자극을 변하게 할 수 있다. 다른 일례로서, 한 사용자가 사용자 인터페이스 디바이스(12)에 대해 다른 사용자 뒤에 서 있으면, 더 멀리 있는 사용자에게 제공된 촉각 자극은 중간에 서 있는 사용자에 의한 "차폐(shielding)"를 반영할 수 있다.
위치 정보를 해명하기 위한 촉각 자극의 결정은, 위치 모듈(28)에 의한 위치 정보의 결정들, 및/또는 미리 저장되거나 구성된 액추에이터들(16)의 위치들과 관련된 위치 정보에 기초할 수 있다. 본 명세서에 기술된 위치 정보에 기초하여 촉각 자극을 변하게 하는 것에 대한 설명은 입력 또는 제어 제스처들에 기초하여 촉각 자극을 변하게 하는 것과 구별됨을 알 것이다. 자극 모듈(30)에 의한 위치에 기초한 촉각 자극의 결정은 사용자에 의해 실행되는 제스처 또는 물리적 동작에 좌우되지 않는다. 대신, 소정의 제어 또는 입력 제스처에 대응하는 자극 모듈(30)에 의해 결정된 촉각 자극은 제어 또는 입력 제스처의 실행중의 사용자의 위치(또는 사용자들 신체 일부들의 상대 위치들)에 기초하여 변할 것이다. 유사하게, (예를 들어, 사용자에게 전달되는 콘텐츠의 효과(effect) 또는 컴포넌트와 연관된) 제어 또는 입력 제스처에 대응하지 않는 촉각 자극은 유사한 위치 정보에 기초하여 변하도록 자극 모듈(30)에 의해 결정될 수 있다.
일 실시예에서, 자극 모듈(30)은 사용자에게 전달되는 콘텐츠 내의 효과의 지향성 및 방향과 일치하도록 그 사용자에 대해 생성될 촉각 자극을 결정한다. 예를 들어, 사용자 인터페이스 디바이스(12)가 콘텐츠 전달부(14)로서 작용하는 디스플레이 표면을 통해 3차원 이미지들을 생성하도록 구성되면, 촉각 자극은 사용자 인터페이스 디바이스(12)에 의해 전달되는 3차원 뷰들 내의 비쥬얼 엔티티의 지향성 및 방향을 전달하기 위해 시야각, 콘텐츠 전달부(14)로부터의 거리, 및/또는 시야각 및 거리 둘 다의 함수에 따라 변한다. 다른 위치-관련 파라미터들이 대신 사용되거나, 또는 시야각 및/또는 거리와 함께 사용되어, 촉각 자극을 변하게 할 수 있다.
본 일례의 특정 실례로서, 3차원 뷰 내의 공이 경로를 따라 콘텐츠 전달부(14)로부터 멀리 외부로 던져지면, 촉각 자극은 경로에 위치하거나 경로 가까이에 위치한 사용자들에 대해 그 공에 맞은 것처럼 보이도록 자극 모듈(30)에 의해 결정된다. 다른 한편, 경로 밖에 위치한 사용자들은 이 자극을 받지 않을 것이다. 일부 다른 발사체가 공을 대체할 수 있음을 알 것이다. 본 일례의 다른 특정 실례로서, 3차원 뷰 내에 폭발이 나타나면, 촉각 자극은 폭발의 실재성을 강화하는데 사용될 수 있다. 이는 폭발의 지향성 및 방향과 일치하도록 촉각 자극의 크기, 양, 및/또는 타입을 결정하는 단계를 포함할 것이다.
사용자 인터페이스 디바이스(12)에 의해 전달되는 3차원 뷰 내의 효과의 지향성 및/또는 방향과 일치하도록 촉각 자극을 생성하는 이 실례들은 제한하는 것으로 의도되지 않는다. 촉각 자극을 결정하기 위해 위치 정보를 사용하는 이 일례의 다른 실례들이 본 발명의 범위로부터 벗어나지 않은 채로 구현될 수 있다. 사용자 인터페이스 디바이스(12)에 의해 전달되는 콘텐츠 내의 이벤트들의 지향성 및/또는 방향을 반영하도록 촉각 자극을 변하게 하는 것에 대한 설명은 3차원 뷰들로, 또는 심지어 비쥬얼 효과들로 한정되지 않음을 알 것이다. 동일한 원리들이 2차원 뷰들 내의 효과들, 및/또는 오디오 효과들에 적용될 수 있다.
일 실시예에서, 액추에이터들(16)은 콘텐츠의 전달 중에 사용자 인터페이스 디바이스(12)에 대해 위치적으로 고정된 하나 이상의 액추에이터들을 포함한다. 예를 들어, 액추에이터들(16)은 가구, 바닥, 매트, 및/또는 콘텐츠의 전달 중에 고정된 다른 물체들에 의해 유지되거나 또는 그에 포함된 액추에이터들을 포함할 수 있다. 본 실시예에서, 자극 모듈(30)은 액추에이터들(16)의 고정된 위치들에 대한 촉각 자극을 결정할 수 있다. 이 고정된 위치들과 관련된 위치 정보는 자극 모듈(30)에 의해 사용되도록 미리 구성 및/또는 미리 저장된 하나 이상의 위치 정보를 포함할 수 있다.
일 실시예에서, 액추에이터들(16)은 사용자에 의해 착용, 휴대, 또는 달리 이동되는 물체들에 포함되거나 또는 그에 의해 유지되는 하나 이상의 액추에이터들을 포함한다. 본 실시예에서, 휴대형 액추에이터들에 의해 생성될 촉각 자극은 사용자 인터페이스 디바이스(12)에 대한 사용자들 및/또는 이동 가능 액추에이터들의 위치와 관련된 위치 모듈(28)로부터 자극 모듈(30)에 의해 수신된 위치 정보에 기초하여 자극 모듈(30)에 의해 결정된다. 예를 들어, 이동 가능 액추에이터들은 게임 컨트롤러들, 착용 가능 브레이스들, 베개, 박제된 동물, 장난감, 및/또는 다른 물체들에 포함될 수 있다.
일 실시예에서, 자극 모듈(30)은 사용자의 신체 일부들의 상대 위치들에 기초하여 촉각 자극을 결정하도록 구성된다. 예를 들어, 사용자가 컨트롤러들(20) 중 하나를 들고 있으면, 위치 모듈(28)은 사용자의 몸통에 대한 컨트롤러(20)의 위치를 결정할 수 있다. 컨트롤러(20)가 사용자에게 가까워질수록, 또는 사용자로부터 멀어질수록, 자극 모듈(30)에 의해 결정된 촉각 자극은 상대 위치의 변화에 기초하여 변할 수 있다. 이 변화는 (예를 들어, 조정 없이 사용자의 위치를 반영하도록 가정(20)하는 대신) 사용자 인터페이스 디바이스(12)에 대한 사용자의 위치를 결정할 때 사용자의 몸통과 컨트롤러(20) 간의 상대 위치를 단지 포함시킴으로써 달성될 수 있으며, 또는 구체적으로 사용자의 몸통으로의 및/또는 몸통으로부터 멀어지는 컨트롤러(20)의 움직임에 기초하여 변화가 달성될 수 있다.
일 실시예에서, 자극은 사용자 인터페이스 디바이스(12)에 대한 사용자(및/또는 컨트롤러(20))의 위치 및 사용자에 대한 컨트롤러의 위치 둘 다를 참작한다. 예를 들어, 사용자가 신체로부터 팔 길이만큼 신체로부터 멀리 컨트롤러(20)를 움직임에 응답해서 사용자에 대해 결정된 자극은 컨트롤러(20)를 신체에 남기지만 팔 길이만큼 앞으로 전진하는 경우와 상이할 수 있다. 유사하게, 팔의 중간을 뻗으면서 팔 길이와 그 절반만큼 앞으로 전진하는 것은 오직 팔들만 움직이거나 또는 오직 앞으로만 나가는 경우와 상이한 자극을 야기할 수 있다.
일 실시예에서, 촉각 자극은 사용자의 몸통에 대한 컨트롤러(20)의 회전 방향 또는 사용자의 몸통에 대한 컨트롤러(20)의 상대 위치들과 관련된 다른 정보에 기초하여 변하도록 결정된다.
액추에이터 제어 모듈(32)은 자극 모듈(30)에 의해 결정된 촉각 자극을 생성하도록 액추에이터들(16)을 제어하도록 구성된다. 이는 생성될 촉각 자극을 프로세서(24)로부터 액추에이터들(16)로 전달하는 단계를 포함한다. 생성될 촉각 자극은 프로세서(24)와 액추에이터들(16) 간의 유선 통신 링크들, 무선 통신 링크들, 및/또는 다른 통신 링크들을 통해 전달될 수 있다. 일 실시예에서, 액추에이터 제어 모듈(32)에 속하는 것으로 생각되는 기능의 적어도 일부분은 컨트롤러(20)에 의해 유지되는 프로세서, 및/또는 액추에이터들(16) 중 하나 이상의 액추에이터들을 유지하는 일부 다른 물체에 배치된다.
도 2는, 한 명 이상의 사용자들에게 전달되는 다른 감각 콘텐츠와 연관된 촉각 자극을 제공하는 방법(34)을 도시한다. 후술되는 방법(34)의 동작들은 예시적으로 의도된 것이다. 일부 실시예들에서, 방법(34)은 기술되지 않은 하나 이상의 추가 동작들로, 및/또는 기술된 동작들 중 하나 이상의 동작들 없이 달성될 수 있다. 또한, 방법(34)의 동작들이 도 2에 도시되고 후술된 순서는 한정적인 의도가 아니다.
일부 실시예들에서, 방법(34)은 하나 이상의 처리 디바이스들(예를 들어, 디지털 프로세서, 아날로그 프로세서, 정보를 처리하도록 설계된 디지털 회로, 정보를 처리하도록 설계된 아날로그 회로, 상태 기계, 및/또는 정보를 전자적으로 처리하기 위한 다른 메커니즘들)에서 구현될 수 있다. 하나 이상의 처리 디바이스들은 전자 기억 매체에 전자적으로 저장된 명령들에 응답해서 방법(34)의 동작들 중 일부 또는 전부를 실행하는 하나 이상의 디바이스들을 포함할 수 있다. 하나 이상의 처리 디바이스들은 방법(34)의 동작들 중 하나 이상의 동작들을 실행하도록 구체적으로 설계되도록 하드웨어, 펌웨어, 및/또는 소프트웨어를 통해 구성된 하나 이상의 디바이스들을 포함할 수 있다.
동작(36)에서, 감각 콘텐츠가 한 명 이상의 사용자들에게 전달된다. 감각 콘텐츠는 비쥬얼 콘텐츠, 오디오 콘텐츠, 및/또는 다른 감각 콘텐츠를 포함할 수 있다. 감각 콘텐츠는, 콘텐츠 전달부(14)(도 1에 도시되고 상술됨)와 동일하거나 유사한 콘텐츠 전달부를 가진, 사용자 인터페이스 디바이스(12)와 동일하거나 유사한 사용자 인터페이스 디바이스에 의해 한 명 이상의 사용자들에게 전달된다.
동작(38)에서, 위치 정보가 결정될 수 있다. 위치 정보는 사용자, 사용자의 하나 이상의 신체 일부들, 컨트롤러(예를 들어, 게임 컨트롤러), 액추에이터, 및/또는 다른 물체들 중 하나 이상의 위치(들)와 관련될 수 있다. 위치 정보는, 절대 좌표 시스템에서의, 사용자 인터페이스 디바이스, 콘텐츠 전달부, 사용자, 및/또는 다른 물체들에 대한, 위치를 나타낼 수 있다. 일 실시예에서, 동작(38)은 위치 모듈(28)(도 1에 도시되고 상술됨)과 동일하거나 유사한 위치 모듈에 의해 실행된다.
동작(40)에서, 한 명 이상의 사용자들에 대해 생성될 촉각 자극이 결정된다. 촉각 자극은 사용자에게 전달되는 콘텐츠와 연관된다. 촉각 자극은 위치 정보의 함수에 따라 변하도록 결정된다. 위치 정보는 사용자, 사용자의 하나 이상의 신체 일부들, 컨트롤러(예를 들어, 게임 컨트롤러), 액추에이터, 및/또는 다른 물체들 중 하나 이상의 위치를 기술할 수 있다. 위치 정보는, 절대 좌표 시스템에서의, 사용자 인터페이스 디바이스, 콘텐츠 전달부, 사용자, 및/또는 다른 물체들에 대한, 위치를 나타낼 수 있다. 위치 정보는, 동작(38)에서 결정된 위치 정보, 미리 구성 및/또는 미리 저장된 위치 정보, 및/또는 다른 위치 정보를 포함할 수 있다. 일 실시예에서, 동작(40)은 자극 모듈(30)(도 1에 도시되고 상술됨)과 동일하거나 유사한 자극 모듈에 의해 실행된다.
동작(42)에서, 촉각 자극이 사용자에 대해 생성된다. 일 실시예에서, 동작(42)은 액추에이터들(16)(도 1에 도시되고 상술됨)과 동일하거나 유사한 하나 이상의 액추에이터들에 의해 실행된다.
본 발명이 가장 실제적이고 양호한 실시예들로 현재 생각되는 바에 기초하여 설명을 목적으로 상세히 기술되었지만, 이러한 세부 사항은 오직 그 목적을 위한 것이며 본 발명이 기술된 실시예들로 한정되지 않으며, 그와 반대로 첨부된 청구항들의 원리 및 범위 내에 있는 변경들 및 동등한 구성들을 커버하도록 의도된 것임을 알 것이다. 예를 들어, 본 발명은, 가능한 대로, 임의의 실시예의 하나 이상의 특징들이 임의의 다른 실시예의 하나 이상의 특징들과 조합될 수 있음을 고려한다는 것을 이해해야 할 것이다.
10: 시스템
12: 사용자 인터페이스 디바이스
14: 콘텐츠 전달부
16: 액추에이터들
18: 센서
20: 컨트롤러들
22: 전자 스토리지
12: 사용자 인터페이스 디바이스
14: 콘텐츠 전달부
16: 액추에이터들
18: 센서
20: 컨트롤러들
22: 전자 스토리지
Claims (29)
- 촉각 자극을 제공하도록 구성된 시스템으로서,
하나 이상의 비쥬얼 또는 오디오 콘텐츠를 전달하도록 구성된 콘텐츠 전달부를 가진 사용자 인터페이스 디바이스;
상기 콘텐츠 전달부에 의해 전달되는 상기 하나 이상의 비쥬얼 또는 오디오 콘텐츠와 연관된 촉각 자극을 생성하도록 구성된 액추에이터; 및
컴퓨터 프로그램 모듈들을 실행하도록 구성된 하나 이상의 프로세서들을 포함하고,
상기 컴퓨터 프로그램 모듈들은,
상기 사용자 인터페이스 디바이스의 위치에 대해 상대적인 사용자의 위치를 표시하는 센서 신호에 기초하여 상기 하나 이상의 비쥬얼 또는 오디오 콘텐츠와 연관된 촉각 자극을 결정하도록 구성된 자극 모듈 - 상기 촉각 자극은 상기 사용자 인터페이스 디바이스의 위치에 대해 상대적인 사용자의 위치의 함수임 -; 및
상기 자극 모듈에 의해 결정된 상기 촉각 자극을 생성하도록 상기 액추에이터를 제어하도록 구성된 액추에이터 제어 모듈을 포함하는,
시스템. - 제1항에 있어서,
상기 사용자 인터페이스 디바이스는 전자 디스플레이를 포함하고,
상기 콘텐츠 전달부는 디스플레이 표면을 포함하고, 상기 비쥬얼 콘텐츠의 뷰들이 상기 콘텐츠 전달부의 상기 디스플레이 표면에 의해 상기 디스플레이 표면으로부터 전달되는,
시스템. - 제2항에 있어서,
상기 사용자 인터페이스 디바이스는, 상기 디스플레이 표면에 의해 전달된 상기 콘텐츠의 뷰들이 3차원 뷰들이도록 구성된,
시스템. - 제3항에 있어서,
상기 전자 디스플레이는, 상기 디스플레이 표면에 의해 전달되는 상기 3차원 뷰들이 이산의 미리 결정된 시야각들에서 볼 수 있도록 구성되고,
상기 자극 모듈은, 상기 디스플레이 표면이 보이는 시야각에 기초하여 상기 촉각 자극을 결정하고, 상기 이산의 미리 결정된 시야각들에 대한 각각의 촉각 자극들이 서로 상이하게 하도록 구성된,
시스템. - 제4항에 있어서,
상기 이산의 미리 결정된 시야각들에 대해 결정된 상기 각각의 촉각 자극의 차이들은 상기 촉각 자극에 수반하여 상기 이산의 미리 결정된 시야각들에서 전달되는 3차원 뷰들에 존재하는 비쥬얼 효과(visual effect)의 지향성 및 방향을 반영하는,
시스템. - 제1항에 있어서,
상기 사용자 인터페이스 디바이스의 상기 콘텐츠 전달부에 대해 상대적인 사용자의 위치를 더 표시하는 상기 센서 신호를 생성하도록 구성된 센서를 더 포함하고,
상기 컴퓨터 프로그램 모듈들은, 상기 센서에 의해 생성된 상기 센서 신호에 기초하여 상기 사용자 인터페이스 디바이스의 상기 콘텐츠 전달부에 대해 상대적인 상기 사용자의 위치를 결정하도록 구성된 위치 모듈을 더 포함하며,
상기 자극 모듈은, 상기 촉각 자극이 상기 콘텐츠 전달부에 대해 상대적인 상기 사용자의 위치에 기초하여 결정되도록 구성된,
시스템. - 제6항에 있어서,
상기 자극 모듈은 핸드헬드 컨트롤러의 위치에 추가로 기초하여 상기 촉각 자극을 결정하도록 구성되고,
상기 액추에이터는 상기 핸드헬드 컨트롤러에 포함되는,
시스템. - 제6항에 있어서,
상기 센서는, 상기 센서 신호가 상기 사용자를 포함하는 이미지를 전달하도록 구성되고,
상기 위치 모듈은, 상기 이미지의 분석에 기초하여 상기 콘텐츠 전달부에 대해 상대적인 상기 사용자의 위치와 관련된 정보를 결정하도록 구성된,
시스템. - 제6항에 있어서,
상기 사용자 인터페이스 디바이스는 전자 디스플레이를 포함하고,
상기 콘텐츠 전달부는 비쥬얼 콘텐츠의 뷰들을 전달하는 디스플레이 표면을 포함하며,
상기 위치 모듈은, 상기 콘텐츠 전달부에 대해 상대적인 상기 사용자의 위치와 관련된 정보가 상기 디스플레이 표면에 대해 상대적인 시야각을 포함하도록 구성되고,
상기 자극 모듈은, 상기 촉각 자극이 상기 디스플레이 표면에 대해 상대적인 시야각의 함수가 되도록 구성된,
시스템. - 제1항에 있어서,
상기 사용자 인터페이스 디바이스는 전자 디스플레이를 포함하고,
상기 콘텐츠 전달부는, 비쥬얼 콘텐츠의 뷰들을 전달하는 디스플레이 표면을 포함하며,
상기 자극 모듈은, 상기 촉각 자극이 상기 디스플레이 표면의 위치로부터의 거리와 무관하게 상기 디스플레이 표면에 대해 상대적인 시야각의 함수가 되도록 구성된,
시스템. - 사용자 인터페이스 디바이스 및 액추에이터와 통신하는 하나 이상의 프로세서에 의해 수행되는 촉각 자극을 제공하는 방법이며,
상기 사용자 인터페이스 디바이스의 콘텐츠 전달부 상의 하나 이상의 비쥬얼 또는 오디오 콘텐츠를 전달하도록 상기 사용자 인터페이스 디바이스를 제어하는 단계;
상기 촉각 자극이 상기 사용자 인터페이스 디바이스의 위치에 대해 상대적인 사용자 위치의 함수가 되도록, 상기 사용자 인터페이스 디바이스의 위치에 대해 상대적인 상기 사용자 위치를 표시하는 센서 신호에 기초하여 상기 하나 이상의 비쥬얼 또는 오디오 콘텐츠와 연관된 촉각 자극을 결정하는 단계; 및
상기 하나 이상의 프로세서에 의해 결정된 상기 촉각 자극을 생성하도록 상기 액추에이터를 제어하는 단계를 포함하는,
방법. - 제11항에 있어서, 상기 하나 이상의 프로세서는 상기 사용자 인터페이스 디바이스 및 상기 액추에이터와 통신하는 비디오게임 콘솔 또는 컴퓨터에 포함되는,
방법. - 사용자 인터페이스 디바이스, 액추에이터 및 핸드헬드 컨트롤러와 통신하는 하나 이상의 프로세서에 의해 수행되는 촉각 자극을 제공하는 방법이며,
상기 사용자 인터페이스 디바이스의 콘텐츠 전달부로부터 하나 이상의 비쥬얼 또는 오디오 콘텐츠를 전달하도록 상기 사용자 인터페이스 디바이스를 제어하는 단계;
사용자의 위치에 대해 상대적인 상기 핸드헬드 컨트롤러의 위치를 표시하는 센서 신호에 기초하여 상기 하나 이상의 비쥬얼 또는 오디오 콘텐츠와 연관된 촉각 자극을 결정하는 단계 - 상기 핸드헬드 컨트롤러는 사용자 입력을 수신하도록 구성되어, 상기 촉각 자극은 상기 사용자의 위치에 대해 상대적인 상기 핸드헬드 컨트롤러의 위치의 함수가 됨 - ; 및
상기 하나 이상의 프로세서에 의해 결정된 상기 촉각 자극을 생성하도록 상기 액추에이터를 제어하는 단계를 포함하는,
방법. - 제13항에 있어서,
상기 콘텐츠 전달부는 비쥬얼 콘텐츠를 전달하는 디스플레이 표면을 포함하고,
상기 콘텐츠 전달부로부터 상기 비쥬얼 콘텐츠를 전달하도록 상기 사용자 인터페이스 디바이스를 제어하는 단계는, 상기 디스플레이 표면에서 상기 비쥬얼 콘텐츠의 뷰들을 디스플레이하도록 상기 사용자 인터페이스 디바이스를 제어하는 단계를 포함하는,
방법. - 제14항에 있어서,
상기 디스플레이 표면에서 상기 비쥬얼 콘텐츠의 뷰들은 3차원 뷰들인,
방법. - 제15항에 있어서,
상기 3차원 뷰들은 이산의 미리 결정된 시야각들에서 볼 수 있고,
상기 촉각 자극을 결정하는 단계는 상기 이산의 미리 결정된 시야각들에 대해 상이한 각각의 촉각 자극들을 결정하는 단계를 포함하는,
방법. - 제16항에 있어서,
상기 이산의 미리 결정된 시야각들에 대해 상기 각각의 촉각 자극들의 차이들은, 상기 촉각 자극의 생성에 수반하여 상기 이산의 미리 결정된 시야각들에서 전달되는 3차원 뷰들에 존재하는 비쥬얼 효과의 지향성 및 방향을 반영하는,
방법. - 제13항에 있어서,
상기 콘텐츠 전달부는 비쥬얼 콘텐츠를 전달하는 디스플레이 표면을 포함하고,
상기 콘텐츠 전달부를 통해 전달되는 상기 비쥬얼 콘텐츠는 비디오 게임의 장면들을 포함하고,
상기 방법은, 상기 디스플레이 표면에 대해 상대적인 사용자 위치에 관련된 정보를 결정하는 단계를 더 포함하고,
생성될 비디오 게임에 연관된 촉각 자극을 결정하는 단계는, 상기 디스플레이 표면에 대해 상대적인 상기 사용자 위치에 추가로 기초하여 상기 촉각 자극을 결정하는 단계를 포함하는,
방법. - 제13항에 있어서,
상기 액추에이터는 상기 핸드헬드 컨트롤러에 포함되는,
방법. - 제18항에 있어서,
상기 디스플레이 표면에 대해 상대적인 상기 사용자의 위치와 관련된 정보를 결정하는 단계는, 상기 사용자 인터페이스 디바이스의 사용자를 포함하는 캡처된 이미지를 수신하는 단계와, 상기 디스플레이 표면에 대한 상기 사용자의 위치와 관련된 정보를 결정하기 위해 상기 캡처된 이미지를 분석하는 단계를 포함하는,
방법. - 제18항에 있어서,
상기 디스플레이 표면에 대해 상대적인 상기 사용자의 위치와 관련된 정보를 결정하는 단계는, 상기 디스플레이 표면에 대해 상대적인 상기 사용자의 시야각을 결정하는 단계를 포함하고,
상기 결정된 촉각 자극은 상기 디스플레이 표면에 대해 상대적인 상기 시야각의 함수가 되는,
방법. - 제13항에 있어서,
상기 콘텐츠 전달부는 디스플레이 표면을 포함하고,
상기 촉각 자극은, 상기 디스플레이 표면의 위치로부터의 거리와 무관하게 상기 디스플레이 표면에 대해 상대적인 시야각의 함수가 되는,
방법. - 사용자 인터페이스 디바이스와, 액추에이터를 갖고 사용자의 신체의 제1 부분의 위치에서 착용되도록 구성되는 착용 가능 디바이스와 통신하는 하나 이상의 프로세서에 의해 수행되는 촉각 자극을 제공하는 방법이며,
상기 사용자 인터페이스 디바이스의 콘텐츠 전달부 상의 하나 이상의 비쥬얼 또는 오디오 콘텐츠를 전달하도록 상기 사용자 인터페이스 디바이스를 제어하는 단계;
상기 사용자의 신체의 제2 부분의 위치에 대해 상대적인 상기 사용자의 신체의 상기 제1 부분의 위치를 결정하는 단계;
상기 촉각 자극이 상기 사용자 인터페이스 디바이스의 위치에 대해 상대적인 상기 착용 가능 디바이스 내의 상기 액추에이터의 위치의 함수가 되고, 상기 사용자의 신체의 제2 부분의 위치에 대해 상대적인 상기 사용자의 신체의 상기 제1 부분의 위치의 함수가 되도록, 상기 사용자 인터페이스 디바이스에 대해 상대적인 상기 착용 가능 디바이스 내의 상기 액추에이터의 위치에 기초하고 상기 사용자의 신체의 제2 부분의 위치에 대해 상대적인 상기 사용자의 신체의 상기 제1 부분의 위치에 기초하여 상기 하나 이상의 비쥬얼 또는 오디오 콘텐츠와 연관된 촉각 자극을 결정하는 단계; 및
상기 하나 이상의 프로세서에 의해 결정된 상기 촉각 자극을 생성하도록 상기 액추에이터를 제어하는 단계를 포함하는,
방법. - 삭제
- 제23항에 있어서,
상기 하나 이상의 프로세서는, 상기 사용자의 신체의 상기 제2 부분의 위치에 대해 상대적인 상기 사용자의 신체의 상기 제1 부분의 위치와 관련된 정보를 전달하는 센서 신호를 생성하도록 구성된 센서와 통신하고,
상기 사용자의 신체의 상기 제2 부분의 위치에 대해 상대적인 상기 사용자의 신체의 상기 제1 부분의 위치의 결정은, 상기 센서에 의해 생성된 상기 센서 신호에 기초하는,
방법. - 제23항에 있어서,
상기 사용자의 신체의 상기 제1 부분의 위치는 상기 사용자의 손의 위치인,
방법. - 제26항에 있어서,
상기 사용자의 신체의 상기 제2 부분의 위치는 상기 사용자의 몸통의 위치인,
방법.
- 전자 디스플레이를 갖는 휴대용 사용자 인터페이스 디바이스, 센서 및 액추에이터와 통신하는 하나 이상의 프로세서에 의해 수행되는 촉각 자극을 제공하는 방법이며,
상기 휴대용 사용자 인터페이스 디바이스의 상기 전자 디스플레이 상의 비쥬얼 콘텐츠를 전달하도록 상기 휴대용 사용자 인터페이스 디바이스를 제어하는 단계 - 상기 비쥬얼 콘텐츠는, 사용자가 이동하고 상기 센서가 이동하지 않는 동안에, 상기 전자 디스플레이 상으로 전달됨 -;
사용자 위치에 대해 상대적인 상기 센서의 위치를 결정하는 단계 - 상기 센서는 이동하지 않음 -;
상기 촉각 자극이 상기 사용자 위치에 대해 상대적인 상기 센서의 위치의 함수가 되도록, 상기 사용자 위치에 대해 상대적인 상기 센서의 위치에 기초하여 상기 비쥬얼 콘텐츠와 연관된 촉각 자극을 결정하는 단계; 및
상기 하나 이상의 프로세서에 의해 결정된 상기 촉각 자극을 생성하도록 상기 액추에이터를 제어하는 단계를 포함하는,
방법. - 제28항에 있어서,
상기 하나 이상의 프로세서는 상기 휴대용 사용자 인터페이스 디바이스, 상기 센서 및 상기 액추에이터와 통신하는 게임 콘솔의 일부이고,
상기 액추에이터는 핸드헬드 컨트롤러의 일부이고,
상기 센서는 근접 센서 또는 광 거리 센서인,
방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/751,780 | 2010-03-31 | ||
US12/751,780 US8540571B2 (en) | 2010-03-31 | 2010-03-31 | System and method for providing haptic stimulus based on position |
PCT/US2011/030661 WO2011123599A1 (en) | 2010-03-31 | 2011-03-31 | System and method for providing haptic stimulus based on position |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127028473A Division KR20130040853A (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187030936A Division KR20180119704A (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180008890A KR20180008890A (ko) | 2018-01-24 |
KR101914423B1 true KR101914423B1 (ko) | 2018-11-01 |
Family
ID=44533501
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127028473A KR20130040853A (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
KR1020187000989A KR101914423B1 (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
KR1020187030936A KR20180119704A (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127028473A KR20130040853A (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187030936A KR20180119704A (ko) | 2010-03-31 | 2011-03-31 | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 |
Country Status (6)
Country | Link |
---|---|
US (3) | US8540571B2 (ko) |
EP (2) | EP3392746A1 (ko) |
JP (3) | JP5893605B2 (ko) |
KR (3) | KR20130040853A (ko) |
CN (2) | CN102822772B (ko) |
WO (1) | WO2011123599A1 (ko) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013857B2 (en) * | 2011-12-21 | 2018-07-03 | Qualcomm Incorporated | Using haptic technologies to provide enhanced media experiences |
EP2629178B1 (en) | 2012-02-15 | 2018-01-10 | Immersion Corporation | High definition haptic effects generation using primitives |
WO2013136287A1 (en) * | 2012-03-15 | 2013-09-19 | Motorika Limited | Gyroscopic apparatuses and methods of using same |
US20130260886A1 (en) * | 2012-03-29 | 2013-10-03 | Adam Smith | Multi-sensory Learning Game System |
DE102012208355A1 (de) * | 2012-05-18 | 2013-11-21 | Robert Bosch Gmbh | Anordnung und Verfahren zum Erzeugen einer Tastsinnreizung eines Benutzers |
US8947387B2 (en) * | 2012-12-13 | 2015-02-03 | Immersion Corporation | System and method for identifying users and selecting a haptic response |
WO2014117125A1 (en) * | 2013-01-28 | 2014-07-31 | Bayer Materialscience Llc | Electroactive polymer actuators and feedback system therefor |
US9833697B2 (en) * | 2013-03-11 | 2017-12-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
JP2014180572A (ja) * | 2013-03-15 | 2014-09-29 | Immersion Corp | プログラマブル触覚周辺装置 |
US9092954B2 (en) * | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
US9274603B2 (en) | 2013-05-24 | 2016-03-01 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
CN104417430A (zh) * | 2013-08-29 | 2015-03-18 | 范钦 | 一种腰带式驾驶安全触觉系统 |
US9619029B2 (en) | 2013-11-14 | 2017-04-11 | Immersion Corporation | Haptic trigger control system |
US9164587B2 (en) | 2013-11-14 | 2015-10-20 | Immersion Corporation | Haptic spatialization system |
US9639158B2 (en) * | 2013-11-26 | 2017-05-02 | Immersion Corporation | Systems and methods for generating friction and vibrotactile effects |
US10437341B2 (en) | 2014-01-16 | 2019-10-08 | Immersion Corporation | Systems and methods for user generated content authoring |
US10067566B2 (en) * | 2014-03-19 | 2018-09-04 | Immersion Corporation | Systems and methods for a shared haptic experience |
US9958829B2 (en) * | 2014-05-07 | 2018-05-01 | International Business Machines Corporation | Sensory holograms |
US9715279B2 (en) * | 2014-06-09 | 2017-07-25 | Immersion Corporation | Haptic devices and methods for providing haptic effects via audio tracks |
US9588586B2 (en) * | 2014-06-09 | 2017-03-07 | Immersion Corporation | Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity |
US10185396B2 (en) | 2014-11-12 | 2019-01-22 | Immersion Corporation | Haptic trigger modification system |
US9174134B1 (en) | 2014-11-12 | 2015-11-03 | Immersion Corporation | Peripheral device with haptic diminishment prevention component |
US9846484B2 (en) * | 2014-12-04 | 2017-12-19 | Immersion Corporation | Systems and methods for controlling haptic signals |
US10195525B2 (en) * | 2014-12-17 | 2019-02-05 | Igt Canada Solutions Ulc | Contactless tactile feedback on gaming terminal with 3D display |
US10427034B2 (en) * | 2014-12-17 | 2019-10-01 | Igt Canada Solutions Ulc | Contactless tactile feedback on gaming terminal with 3D display |
US10403084B2 (en) * | 2014-12-17 | 2019-09-03 | Igt Canada Solutions Ulc | Contactless tactile feedback on gaming terminal with 3D display |
US9996156B2 (en) | 2014-12-23 | 2018-06-12 | Immersion Corporation | Feedback reduction for a user input element associated with a haptic output device |
US10613629B2 (en) | 2015-03-27 | 2020-04-07 | Chad Laurendeau | System and method for force feedback interface devices |
EP3099030A1 (en) * | 2015-05-26 | 2016-11-30 | Thomson Licensing | Method and device for encoding/decoding a packet comprising data representative of a haptic effect |
EP3118723A1 (en) | 2015-07-13 | 2017-01-18 | Thomson Licensing | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace) |
CN107924236B (zh) * | 2015-09-08 | 2021-09-21 | 索尼公司 | 信息处理装置、方法和存储介质 |
CN105677017B (zh) * | 2015-12-28 | 2019-04-26 | 联想(北京)有限公司 | 一种控制方法、键盘、电子设备及电子装置 |
FR3046575B1 (fr) * | 2016-01-07 | 2021-12-03 | Peugeot Citroen Automobiles Sa | Organe de commande |
US20170249013A1 (en) * | 2016-02-25 | 2017-08-31 | Cirque Corporation | Touchpad system with multiple tracking methods: mechanical force positional sensor integrated with capacitive location tracking |
KR102427212B1 (ko) * | 2016-07-07 | 2022-07-29 | 소니그룹주식회사 | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
JP6650890B2 (ja) * | 2017-01-06 | 2020-02-19 | 任天堂株式会社 | ゲームシステム、ゲームプログラム、情報処理装置およびゲーム制御方法 |
US20180232051A1 (en) * | 2017-02-16 | 2018-08-16 | Immersion Corporation | Automatic localized haptics generation system |
US10748437B2 (en) | 2017-08-14 | 2020-08-18 | Parker Appleton LYNCH | Learning aid apparatus and system |
CN109395307B (zh) * | 2017-08-17 | 2024-04-26 | 李硕 | 一种基于视觉激励的跳远垫 |
WO2019163260A1 (ja) * | 2018-02-20 | 2019-08-29 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2019244716A1 (ja) * | 2018-06-19 | 2019-12-26 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7424301B2 (ja) * | 2018-10-19 | 2024-01-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、プログラム |
CN109966735B (zh) * | 2019-03-02 | 2023-05-30 | 黄鑫 | 一种触觉仿真游戏手柄系统及触觉仿真方法 |
US11282281B2 (en) * | 2019-11-13 | 2022-03-22 | At&T Intellectual Property I, L.P. | Activation of extended reality actuators based on content analysis |
EP4300264A1 (en) * | 2022-07-01 | 2024-01-03 | Go Touch VR | Method and apparatus of signaling/parsing haptic data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001356875A (ja) | 2000-06-13 | 2001-12-26 | Toshiba Corp | ポインタ表示システム |
JP2003085590A (ja) * | 2001-09-13 | 2003-03-20 | Nippon Telegr & Teleph Corp <Ntt> | 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体 |
US20040054667A1 (en) | 2001-05-18 | 2004-03-18 | Tomokazu Kake | Display apparatus for accessing desired web site |
US20070252832A1 (en) * | 2004-05-24 | 2007-11-01 | 3D For All Számítástechnikai Fejleszto Kft | System And Method For Operating In Virtual 3D Space And System For Selecting An Operation Via A Visualizing System |
US20080094351A1 (en) * | 2006-10-23 | 2008-04-24 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3391071B2 (ja) * | 1993-12-27 | 2003-03-31 | 株式会社セガ | ゲーム機 |
AU3329595A (en) * | 1994-08-18 | 1996-03-14 | Interval Research Corporation | Content-based haptic input device for video |
AU1328597A (en) * | 1995-11-30 | 1997-06-19 | Virtual Technologies, Inc. | Tactile feedback man-machine interface device |
US6028593A (en) * | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US6084587A (en) * | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
EP0959444A4 (en) * | 1996-08-14 | 2005-12-07 | Nurakhmed Nurislamovic Latypov | METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS |
US6042555A (en) * | 1997-05-12 | 2000-03-28 | Virtual Technologies, Inc. | Force-feedback interface device for the hand |
US20020035995A1 (en) * | 1997-07-22 | 2002-03-28 | Jurgen G. Schmidt | Method and apparatus for inducing alternating tactile stimulations |
JPH11300049A (ja) * | 1998-04-20 | 1999-11-02 | Hitachi Ltd | シューティングゲーム装置 |
JP2000033184A (ja) * | 1998-05-14 | 2000-02-02 | Masanobu Kujirada | 全身動作入力型のゲ―ム及びイベント装置 |
US6184868B1 (en) * | 1998-09-17 | 2001-02-06 | Immersion Corp. | Haptic feedback control devices |
AU7725600A (en) * | 1999-09-28 | 2001-04-30 | Immersion Corporation | Controlling haptic sensations for vibrotactile feedback interface devices |
JP2001104641A (ja) * | 1999-10-13 | 2001-04-17 | Namco Ltd | ゲーム装置 |
JP2001104642A (ja) * | 1999-10-13 | 2001-04-17 | Namco Ltd | ゲーム装置 |
US6924787B2 (en) * | 2000-04-17 | 2005-08-02 | Immersion Corporation | Interface for controlling a graphical image |
JP2002123840A (ja) * | 2000-10-17 | 2002-04-26 | Nippon Telegr & Teleph Corp <Ntt> | 臨場感型仮想現実提供処理方法および装置 |
JP3466176B2 (ja) * | 2001-12-21 | 2003-11-10 | コナミ株式会社 | ゲーム方法、ゲームプログラム、ゲーム装置及びゲームシステム |
US9682319B2 (en) * | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US20040095311A1 (en) * | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
EP1533678A1 (en) * | 2003-11-24 | 2005-05-25 | Sony International (Europe) GmbH | Physical feedback channel for entertaining or gaming environments |
JP4484065B2 (ja) * | 2004-06-25 | 2010-06-16 | 三星モバイルディスプレイ株式會社 | 発光表示装置,発光表示装置の駆動装置及び発光表示装置の駆動方法 |
US7376903B2 (en) * | 2004-06-29 | 2008-05-20 | Ge Medical Systems Information Technologies | 3D display system and method |
RU2007106882A (ru) | 2004-07-23 | 2008-09-10 | Конинклейке Филипс Электроникс Н.В. (Nl) | Устройство и способ помощи в указании местоположения и/или выборе элементов |
JP2006324952A (ja) * | 2005-05-19 | 2006-11-30 | Hitachi Ltd | テレビジョン装置 |
JP3998151B2 (ja) * | 2005-06-27 | 2007-10-24 | 株式会社タイトー | ビデオ式ガンゲーム装置 |
US7280097B2 (en) * | 2005-10-11 | 2007-10-09 | Zeetoo, Inc. | Human interface input acceleration system |
NL1030440C2 (nl) * | 2005-11-16 | 2007-05-21 | Univ Twente | Bewegingsvolgsysteem. |
JP2007156561A (ja) * | 2005-11-30 | 2007-06-21 | Canon Inc | 複合現実感提示方法および複合現実感提示システム |
KR100812624B1 (ko) * | 2006-03-02 | 2008-03-13 | 강원대학교산학협력단 | 입체영상 기반 가상현실장치 |
WO2007119603A1 (ja) * | 2006-03-23 | 2007-10-25 | National University Corporation Nagoya University | 触覚ディスプレイ装置、多自由度アクチュエータ、及び、ハンドリング装置 |
JP5136742B2 (ja) * | 2006-10-13 | 2013-02-06 | 株式会社セガ | 電子遊戯装置、電子遊戯用制御方法およびゲームプログラム |
JP4146874B2 (ja) * | 2006-12-22 | 2008-09-10 | 株式会社コナミデジタルエンタテインメント | シューティング対戦用玩具 |
US8269834B2 (en) * | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
US20100203969A1 (en) * | 2007-08-03 | 2010-08-12 | Camelot Co., Ltd. | Game device, game program and game object operation method |
JP5307014B2 (ja) * | 2007-09-07 | 2013-10-02 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、ゲーム装置およびコンピュータプログラム |
JP4739302B2 (ja) * | 2007-09-14 | 2011-08-03 | 独立行政法人科学技術振興機構 | 貫通触感覚提示装置 |
US20090088659A1 (en) * | 2007-09-27 | 2009-04-02 | Immersion Corporation | Biological Sensing With Haptic Feedback |
US8098235B2 (en) * | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
US20090098519A1 (en) * | 2007-10-10 | 2009-04-16 | Jennifer Byerly | Device and method for employment of video games to provide physical and occupational therapy and measuring and monitoring motor movements and cognitive stimulation and rehabilitation |
JP5844044B2 (ja) * | 2007-11-21 | 2016-01-13 | クアルコム,インコーポレイテッド | デバイスアクセス制御 |
US20090135133A1 (en) * | 2007-11-26 | 2009-05-28 | Kunzler Patrik A | 3D Motion Control System and Method |
US8803797B2 (en) * | 2008-01-18 | 2014-08-12 | Microsoft Corporation | Input through sensing of user-applied forces |
US8226479B2 (en) * | 2008-04-07 | 2012-07-24 | Disney Enterprises, Inc. | Group decision haptic feedback systems and methods |
JP2009276996A (ja) * | 2008-05-14 | 2009-11-26 | Canon Inc | 情報処理装置、情報処理方法 |
JP2010009558A (ja) * | 2008-05-28 | 2010-01-14 | Oki Semiconductor Co Ltd | 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置 |
DE102008034200A1 (de) * | 2008-07-21 | 2010-01-28 | Astrium Gmbh | Verfahren und Vorrichtung zum Informieren eines Nutzers über die Lage einer Informationsquelle in Bezug auf die Nutzerposition |
KR101495172B1 (ko) * | 2008-07-29 | 2015-02-24 | 엘지전자 주식회사 | 이동단말기 및 그의 이미지 제어방법 |
US20100053151A1 (en) | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
JP4697279B2 (ja) * | 2008-09-12 | 2011-06-08 | ソニー株式会社 | 画像表示装置および検出方法 |
US9399167B2 (en) * | 2008-10-14 | 2016-07-26 | Microsoft Technology Licensing, Llc | Virtual space mapping of a variable activity region |
US20100128112A1 (en) * | 2008-11-26 | 2010-05-27 | Samsung Electronics Co., Ltd | Immersive display system for interacting with three-dimensional content |
US8953029B2 (en) * | 2009-05-08 | 2015-02-10 | Sony Computer Entertainment America Llc | Portable device interaction via motion sensitive controller |
JP5638797B2 (ja) * | 2009-12-25 | 2014-12-10 | 株式会社カプコン | ゲーム装置およびゲームプログラム |
-
2010
- 2010-03-31 US US12/751,780 patent/US8540571B2/en active Active
-
2011
- 2011-03-31 KR KR1020127028473A patent/KR20130040853A/ko not_active Application Discontinuation
- 2011-03-31 WO PCT/US2011/030661 patent/WO2011123599A1/en active Application Filing
- 2011-03-31 CN CN201180016371.3A patent/CN102822772B/zh active Active
- 2011-03-31 JP JP2013502828A patent/JP5893605B2/ja active Active
- 2011-03-31 EP EP18176378.0A patent/EP3392746A1/en not_active Withdrawn
- 2011-03-31 EP EP11718538.9A patent/EP2553547B1/en active Active
- 2011-03-31 CN CN201610031251.5A patent/CN105718053A/zh active Pending
- 2011-03-31 KR KR1020187000989A patent/KR101914423B1/ko active IP Right Grant
- 2011-03-31 KR KR1020187030936A patent/KR20180119704A/ko active IP Right Grant
-
2013
- 2013-09-23 US US13/998,001 patent/US9987555B2/en active Active
-
2016
- 2016-02-24 JP JP2016033055A patent/JP6368329B2/ja active Active
-
2018
- 2018-02-26 JP JP2018031766A patent/JP2018125007A/ja active Pending
- 2018-05-07 US US15/972,353 patent/US20180250590A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001356875A (ja) | 2000-06-13 | 2001-12-26 | Toshiba Corp | ポインタ表示システム |
US20040054667A1 (en) | 2001-05-18 | 2004-03-18 | Tomokazu Kake | Display apparatus for accessing desired web site |
JP2003085590A (ja) * | 2001-09-13 | 2003-03-20 | Nippon Telegr & Teleph Corp <Ntt> | 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体 |
US20070252832A1 (en) * | 2004-05-24 | 2007-11-01 | 3D For All Számítástechnikai Fejleszto Kft | System And Method For Operating In Virtual 3D Space And System For Selecting An Operation Via A Visualizing System |
US20080094351A1 (en) * | 2006-10-23 | 2008-04-24 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5893605B2 (ja) | 2016-03-23 |
JP2013524351A (ja) | 2013-06-17 |
EP3392746A1 (en) | 2018-10-24 |
KR20180119704A (ko) | 2018-11-02 |
KR20130040853A (ko) | 2013-04-24 |
KR20180008890A (ko) | 2018-01-24 |
US20110244963A1 (en) | 2011-10-06 |
EP2553547B1 (en) | 2018-06-13 |
US8540571B2 (en) | 2013-09-24 |
US20140043228A1 (en) | 2014-02-13 |
US9987555B2 (en) | 2018-06-05 |
CN102822772A (zh) | 2012-12-12 |
JP2018125007A (ja) | 2018-08-09 |
JP2016129048A (ja) | 2016-07-14 |
EP2553547A1 (en) | 2013-02-06 |
CN102822772B (zh) | 2016-02-17 |
JP6368329B2 (ja) | 2018-08-01 |
US20180250590A1 (en) | 2018-09-06 |
CN105718053A (zh) | 2016-06-29 |
WO2011123599A1 (en) | 2011-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101914423B1 (ko) | 위치에 기초한 촉각 자극을 제공하는 시스템 및 방법 | |
US8947387B2 (en) | System and method for identifying users and selecting a haptic response | |
US9779633B2 (en) | Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same | |
US8419545B2 (en) | Method and system for controlling movements of objects in a videogame | |
US9933851B2 (en) | Systems and methods for interacting with virtual objects using sensory feedback | |
EP2243525A2 (en) | Method and system for creating a shared game space for a networked game | |
TWI672168B (zh) | 用於處理用於頭戴顯示器(hmd)之內容的系統,用於與由電腦產生以便呈現於hmd上之虛擬實境場景介接的周邊裝置,及模擬與呈現於hmd中之虛擬場景中的虛擬物件接觸之感受的方法 | |
US9599821B2 (en) | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space | |
KR100812624B1 (ko) | 입체영상 기반 가상현실장치 | |
US9041739B2 (en) | Matching physical locations for shared virtual experience | |
KR20150141151A (ko) | 시각 및/또는 근접성에 기초하여 햅틱 강도를 변경하기 위한 프로그램가능한 햅틱 디바이스 및 방법 | |
EP3364272A1 (en) | Automatic localized haptics generation system | |
US20120135803A1 (en) | Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system | |
US20180357817A1 (en) | Information processing method, program, and computer | |
KR101618004B1 (ko) | 가상 현실 기반의 인터랙티브 컨텐츠 제공 장치 및 그 방법 | |
JP2018171320A (ja) | シミュレーションシステム及びプログラム | |
JP7064265B2 (ja) | 仮想体験を提供するためのプログラム、情報処理装置、及び情報処理方法 | |
WO2016057997A1 (en) | Support based 3d navigation | |
KR20230121953A (ko) | 입체영상 기반 가상현실장치 | |
JP2019017483A (ja) | 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |