KR20200075773A - 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들 - Google Patents

사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들 Download PDF

Info

Publication number
KR20200075773A
KR20200075773A KR1020190169064A KR20190169064A KR20200075773A KR 20200075773 A KR20200075773 A KR 20200075773A KR 1020190169064 A KR1020190169064 A KR 1020190169064A KR 20190169064 A KR20190169064 A KR 20190169064A KR 20200075773 A KR20200075773 A KR 20200075773A
Authority
KR
South Korea
Prior art keywords
user
haptic
motion
processor
haptic effect
Prior art date
Application number
KR1020190169064A
Other languages
English (en)
Inventor
후안 마누엘 크루스-에르난데스
로버트 더블유 호이벨
Original Assignee
임머숀 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임머숀 코퍼레이션 filed Critical 임머숀 코퍼레이션
Publication of KR20200075773A publication Critical patent/KR20200075773A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Abstract

본원에서 개시된 하나의 예시적인 시스템은 센서, 메모리, 및 이들 엘리먼트들의 각각과 통신하는 프로세서를 포함하는 시스템을 포함한다. 센서는 콘텐츠와 연관된 시점에 사용자의 모션 또는 환경에 관한 정보를 캡쳐하고, 캡쳐된 사용자 모션 또는 환경에 관한 신호를 프로세서로 송신할 수 있다. 프로세서는 검출된 사용자 모션 또는 환경과 연관된 햅틱 효과를 결정한다. 프로세서는 또한 콘텐츠의 출력 동안 특정의 시간에 출력될 햅틱 효과와 연관된 햅틱 신호를 송신할 수 있다. 예시적인 시스템은 또한 햅틱 신호 및 출력 햅틱 효과를 수신하도록 구성된 햅틱 출력 디바이스를 포함한다.

Description

사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들{SYSTEMS AND METHODS FOR PROVIDING HAPTIC EFFECTS BASED ON A USER'S MOTION OR ENVIRONMENT}
본 개시물은 일반적으로 사용자 인터페이스 디바이스들에 관한 것이다. 좀더 구체적으로, 그러나 비한정적으로, 본 개시물은 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 것에 관한 것이다.
디스플레이 디바이스들은 콘텐츠, 예컨대 비디오들 또는 시뮬레이트된 환경 (예컨대, 가상 또는 증강된 현실 환경) 을 제공하기 위해 사용될 수 있다. 다수의 현대의 사용자 인터페이스 디바이스들은 콘텐츠가 사용자에게 제공되거나 또는 사용자가 콘텐츠와 상호작용함에 따라 햅틱 피드백을 사용자에게 제공하기 위해 사용될 수 있다.
그러나, 다수의 사용자 인터페이스 디바이스들 또는 피드백 시스템들은, 사용자에 제공된 콘텐츠에 대응하는 햅틱 피드백 또는 시간에 따라 변하는 (예컨대, 사용자에게 제공되는 콘텐츠에 따라서 시간에 걸쳐 변하는) 햅틱 피드백을 제공하는 능력이 부족할 수도 있다. 더욱이, 햅틱 효과들을 개발하거나 또는 설계하는 것은 전문지식을 필요로 할 수도 있거나, 시간 소모적일 수도 있거나, 또는 햅틱 효과들을 사용자에게 제공되는 특정의 콘텐츠와 바람직하지 않거나 또는 부정확하게 연관시킬 수 있다.
본 개시물의 다양한 실시형태들은 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들을 제공한다.
일 실시형태에서, 시스템은 제 1 사용자의 모션을 캡쳐하도록 구성된 제 1 센서, 및 제 1 센서에 통신가능하게 커플링된 프로세서를 포함한다. 프로세서는 제 1 센서로부터, 콘텐츠에서 한번에 제 1 사용자의 모션을 표시하는 제 1 센서 신호를 수신하고; 제 1 사용자의 모션과 연관된 제 1 햅틱 효과를 결정하고; 그리고 콘텐츠가 출력되는 시간에 출력될 제 1 햅틱 효과와 연관된 제 1 햅틱 신호를 송신하도록 구성된다. 시스템은 제 1 햅틱 신호를 수신하고 제 1 햅틱 효과를 출력하도록 구성된 햅틱 출력 디바이스를 더 포함한다.
다른 실시형태에서, 시스템은 제 1 사용자의 신체 부분의 모션을 표시하는 정보를 캡쳐하도록 구성된 제 1 센서, 및 제 2 사용자의 신체 부분의 모션을 표시하는 정보를 캡쳐하도록 구성된 제 2 센서를 포함한다. 시스템은 제 1 센서 및 제 2 센서에 통신가능하게 커플링된 프로세서를 더 포함한다. 프로세서는 제 1 센서로부터, 제 1 사용자의 신체 부분의 모션을 표시하는 제 1 센서 신호를 수신하고; 제 1 사용자의 신체 부분의 모션과 연관된 제 1 햅틱 효과를 결정하고; 제 2 센서로부터, 제 2 사용자의 신체 부분의 모션을 표시하는 제 2 센서 신호를 수신하고; 제 2 사용자의 신체 부분의 모션에 기초하여 제 1 햅틱 효과의 특성을 결정하고; 그리고 제 1 햅틱 효과와 연관된 햅틱 신호를 송신하도록 구성된다. 시스템은 또한 햅틱 신호를 수신하고 제 1 햅틱 효과를 출력하도록 구성된 햅틱 출력 디바이스를 포함한다.
다른 실시형태들에서, 컴퓨터-구현 방법들은 이들 시스템들에 의해 수행되는 단계들을 포함한다.
이들 예시적인 실시형태들은 본 기술요지의 한계들을 한정하거나 또는 정의하는 것이 아니라, 이의 이해를 돕기 위한 예들을 제공하기 위해 언급된다. 예시적인 실시형태들이 상세한 설명에서 설명되며, 추가적인 설명이 본원에서 제공된다. 다양한 실시형태들에 의해 제공되는 이점들은 본 명세서를 검토함으로써 및/또는 청구된 기술요지의 하나 이상의 실시형태들을 실시함으로써 추가로 이해될 수도 있다.
전체 및 합법화하는 (enabling) 개시물이 본 명세서의 나머지에서 좀더 구체적으로 개시된다. 본 명세서는 다음 첨부된 도면들을 참조한다.
도 1 은 일 실시형태에 따른, 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템을 나타내는 블록도이다.
도 2 는 일 실시형태에 따른, 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 방법을 수행하는 단계들의 플로우 차트이다.
도 3 은 다른 실시형태에 따른, 사용자의 모션에 관한 정보를 캡쳐하고 사용자의 모션에 기초하여 햅틱 효과들을 제공하는 방법을 수행하는 단계들의 플로우 차트이다.
다음으로, 다양한 및 대안적인 예시적인 실시형태들 및 첨부 도면들을 자세하게 참조한다. 각각의 예는 설명을 위해 비한정적으로 제공된다. 당업자들은 수정들 및 변경들이 이루어질 수 있음을 알 수 있을 것이다. 예를 들어, 일 실시형태의 일부로서 예시 또는 설명된 특징들은 또다른 추가적인 실시형태를 생성하기 위해 다른 실시형태에서 사용될 수도 있다. 따라서, 본 개시물은 첨부된 청구범위의 범위 및 이들의 균등물들 내에 있는 수정들 및 변경들을 포함하도록 의도된다.
사용자의 모션 또는 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 예시적인 예들
본 개시물의 하나의 예시적인 실시형태는 착용형 디바이스와 같은 컴퓨팅 디바이스를 포함한다. 컴퓨팅 디바이스는 센서, 메모리, 및 이들 엘리먼트들의 각각과 통신하는 프로세서를 포함한다.
예시적인 실시형태에서, 센서는 컴퓨팅 디바이스의 사용자의 모션 (예컨대, 사용자의 신체 부분의 모션) 을 캡쳐할 수 있다. 예를 들어, 센서는 가속도계 및/또는 사용자의 신체 부분의 모션에 관한 정보를 검출, 모니터링, 또는 아니면 캡쳐할 수 있는 다른 센서일 수도 있다. 센서는 또한 사용자의 환경에 관한 정보를 캡쳐할 수 있다. 센서는 캡쳐된 정보를 표시하는 신호를 사용자 모션 및/또는 환경에 관한 데이터를 저장하기 위한 데이터베이스로 송신할 수 있다. 센서는 또한 캡쳐된 정보에 관한 신호를 프로세서로 송신할 수 있으며, 이는 검출된 사용자 모션 또는 사용자의 환경에 관한 정보에 적어도 부분적으로 기초하여 햅틱 효과를 결정한다. 일부 예들에서, 프로세서는 사용자의 모션 또는 사용자의 환경과 연관된 햅틱 효과에 관한 데이터를 저장을 위해 데이터베이스로 송신할 수 있다.
일 예로서, 센서는 예를 들어, 사용자가 손을 올리고, 달리고, 이후 중지하고, 하이 파이브를 표시하고, 점프하고, 사용자의 머리를 회전하는, 등을 행하는 경우를 포함하는, 사용자에 의한 다양한 모션들을 검출한다. 이 예에서, 센서는 각각의 검출된 사용자 모션을 표시하는 하나 이상의 센서 신호들을 메모리로 송신할 수 있으며, 이는 검출된 모션들에 관한 데이터를 데이터베이스에 저장할 수 있다. 센서는 또한 각각의 검출된 사용자 모션을 표시하는 다양한 센서 신호들을 프로세서로 송신할 수 있으며, 프로세서는 각각의 검출된 사용자 모션과 연관된 하나 이상의 햅틱 효과들을 결정할 수 있다. 예를 들어, 프로세서는 사용자의 점핑과 연관된 제 1 햅틱 효과, 및 사용자의 사용자 머리 회전과 연관된 제 2 햅틱 효과를 결정할 수 있다. 프로세서는 특정의 사용자 모션과 연관된 햅틱 효과를 표시하는 데이터를 메모리로 송신할 수 있으며, 이는 데이터를 데이터베이스에 저장할 수 있다.
예시적인 실시형태에서, 프로세서는 사용자의 모션 또는 환경과 연관된 햅틱 효과를 결정하는 것에 응답하여, 결정된 햅틱 효과와 연관된 햅틱 신호를 사용자 또는 다른 사용자와 연관된 햅틱 출력 디바이스로 (예컨대, 햅틱 출력 디바이스를 포함하는, 사용자 또는 다른 사용자에 의해 착용된 스마트시계로) 송신할 수 있다. 햅틱 출력 디바이스는 프로세서로부터 햅틱 신호를 수신하고 햅틱 신호에 기초하여 하나 이상의 햅틱 효과들을 출력하도록 구성된다. 예시적인 실시형태에서, 햅틱 효과들은 검출된 사용자 모션 또는 사용자의 환경에 대응할 수 있으며, 이는 제 1 사용자 또는 제 2 사용자로 하여금 사용자의 검출된 모션들에 대응하는 햅틱 효과들을 인지하게 할 수 있다.
예를 들어, 센서는 제 1 사용자의 다양한 모션들을 검출하고 신호들을 프로세서로 송신할 수 있으며, 이는 검출된 모션들과 연관된 다양한 햅틱 효과들을 결정할 수 있다. 이 예에서, 프로세서는 제 1 사용자의 검출된 모션과 연관된 햅틱 효과를 결정하는 것에 응답하여, 햅틱 효과들과 연관된 햅틱 신호들을 제 1 사용자 또는 제 2 사용자와 연관된 햅틱 출력 디바이스로 송신할 수 있다. 햅틱 출력 디바이스는 프로세서로부터 햅틱 신호를 수신하고 제 1 또는 제 2 사용자에게, 제 1 사용자의 검출된 모션과 연관된 하나 이상의 햅틱 효과들을 출력하도록 구성된다. 이와 같이, 햅틱 효과들은 사용자가 사용자의 검출된 모션에 대응하는 햅틱 효과들을 인지할 수 있도록 출력될 수 있거나, 또는 햅틱 효과들은 사용자가 다른 사용자의 모션에 대응하는 햅틱 효과들을 인지할 수 있도록 출력될 수 있다. 일부 실시형태들에서, 햅틱 출력 디바이스는 햅틱 출력 디바이스가 햅틱 효과를 실질적으로 실시간으로 출력할 수 있도록, (예컨대, 센서가 제 1 사용자의 모션을 검출함에 따라) 햅틱 신호를 실질적으로 실시간으로 수신하도록 구성된다. 다른 실시형태에서, 제 1 사용자의 모션들과 연관된 햅틱 효과들은 결정되어, 이후에 출력되도록 저장될 수 있다. 일부 실시형태들에서, 햅틱 출력 디바이스는 비디오 또는 가상 또는 증강 현실 시퀀스와 같은 일부 유형의 콘텐츠에서 특정의 시간과 연관된 제 1 사용자의 모션과 연관된 하나 이상의 햅틱 신호들을 수신하고, 제 2 사용자가 제 1 사용자의 모션을 포함하는 콘텐츠를 시청하거나 또는 아니면 경험함에 따라, 제 1 사용자의 모션과 연관된 하나 이상의 햅틱들 효과를 특정의 시간에서 제 2 사용자에게 출력하도록 구성된다.
일부 실시형태들에서, 햅틱 출력 디바이스는 검출된 사용자 모션의 로케이션에 대응하는 로케이션에서 햅틱 효과를 사용자에게 출력할 수 있다. 예를 들어, 센서는 제 1 사용자가 박수치고 있다고 검출하거나 또는 감지하고, 신호들을 프로세서로 송신할 수 있으며, 이는 제 1 사용자가 박수를 치는 것과 연관된 햅틱 효과를 결정할 수 있다. 이 예에서, 프로세서는 햅틱 효과들과 연관된 햅틱 신호들을 제 2 사용자와 연관된 햅틱 출력 디바이스로 송신할 수 있다. 햅틱 출력 디바이스는 프로세서로부터 햅틱 신호들을 수신하고 제 2 사용자에게, 대응하는 로케이션에서 제 1 사용자가 박수를 치는 것과 연관된 하나 이상의 햅틱 효과들을 출력할 (예컨대, 햅틱 효과들을 제 2 사용자의 손들로 출력할) 수 있다.
예시적인 실시형태에서, 센서는 특정의 시간 기간에 따른 사용자의 모션들 또는 사용자의 환경에 관한 정보를 검출하고 검출된 사용자 모션들 또는 환경 조건들을 표시하는 하나 이상의 신호들을 프로세서로 송신할 수 있으며, 프로세서는 시간 기간에 따른 다양한 사용자 모션들 또는 환경 조건들과 연관된 하나 이상의 햅틱 효과들을 결정할 수 있다. 일부 예들에서, 프로세서는 각각의 사용자 모션 또는 사용자의 환경의 조건이 검출되는 시간에 대응하는 시간 스탬프를 표시하는 신호들을 센서로부터 수신하고, 프로세서는 시간 기간에 따른 다양한 사용자 모션들 또는 환경 조건들의 타임라인 (예컨대, 순서) 을 결정한다. 이 예에서, 프로세서는 타임라인에서 각각의 검출된 사용자 모션 또는 환경 조건과 연관된 햅틱 효과를 결정하고, 각각의 햅틱 효과와 연관된 햅틱 신호를 햅틱 출력 디바이스로 송신할 수 있다. 이 예에서, 햅틱 출력 디바이스는 사용자가 타임라인에 기초하여 햅틱 효과들을 인지하도록, 햅틱 효과들을 하나 이상의 사용자들에게 출력할 수 있다. 예를 들어, 햅틱 출력 디바이스는 사용자가 타임라인에서의 다른 사용자의 모션들 또는 검출된 환경 조건들의 순서로 다른 사용자의 모션 또는 환경과 연관된 햅틱 효과를 인지하도록, 햅틱 효과들을 사용자에게 출력할 수 있다.
예시적인 예로서, 제 1 사용자는 산을 등반하고 있고, 제 1 사용자의 모션, 활동에 관한 정보, 또는 제 1 사용자의 환경에 관한 임의의 정보를 캡쳐하는 센서를 착용하고 있다. 센서는 제 1 사용자의 모션, 활동, 또는 환경에 관한 다양한 센서 신호들을 센서 신호들에 기초하여 하나 이상의 햅틱 효과들을 결정하는 프로세서로 송신할 수 있다. 이 예에서, 프로세서는 햅틱 신호들을 제 1 사용자로부터 원격인 제 2 사용자와 연관된 햅틱 출력 디바이스로 (예컨대, 햅틱 출력 디바이스를 포함하는, 제 2 사용자에 의해 착용된 스마트시계로) 송신할 수 있다. 이 예시적인 예에서, 제 2 사용자는 제 1 사용자가 산을 등반함에 따라 제 1 사용자를 포함하는 콘텐츠 (예컨대, 비디오) 를 시청하고 있을 (예컨대, 실시간으로 또는 임의의 다른 시간에 시청하고 있을) 수 있으며, 햅틱 출력 디바이스는 하나 이상의 햅틱 효과들을 출력할 수 있으며, 이는 제 1 사용자가 산을 등반함에 따라, 제 2 사용자로 하여금, 제 1 사용자의 모션, 활동, 또는 환경을 인지하거나 또는 경험하게 할 수 있다.
일부 실시형태들에서, 검출된 사용자 모션들에 대응하는 햅틱 효과들을 인지하는 사용자는 햅틱 효과들을 수정하기 위해 사용자 입력을 제공할 수 있다. 예를 들어, 사용자는 햅틱 효과의 특성 (예컨대, 크기, 지속기간, 로케이션, 유형, 빈도, 등) 을 수정하기 위해 사용자 입력을 제공할 수 있다. 일 예로서, 사용자는 검출된 사용자 모션과 연관된 햅틱 효과를, 예를 들어, 햅틱 효과를 출력하는 햅틱 출력 디바이스를 포함하는, 사용자에 의해 소지된 컴퓨팅 디바이스를 통해서, 인지할 수 있다. 예시적인 실시형태에서, 사용자는 사용자에 의한 모션 (예컨대, 제스쳐) 을 검출 또는 감지하는 센서를 포함하는 스마트시계를 착용하고 있을 수 있으며, 사용자의 모션이 햅틱 효과의 특성을 수정하기 위해 사용될 수 있다. 예를 들어, 사용자는 컴퓨팅 디바이스를 통해서 햅틱 효과를 인지하고 손 (예컨대, 사용자가 스마트시계를 착용하고 있는 손) 을 들어올릴 수 있으며, 스마트시계의 센서는 사용자의 모션을 검출할 수 있다. 이 예에서, 센서는 검출된 모션을 표시하는 신호를 프로세서로 송신할 수 있으며, 이는 검출된 모션에 기초하여, 예를 들어, 사용자가 손을 들어올리고 있다고 결정하는 것에 응답하여, 햅틱 효과의 크기를 증가시킴으로써, 햅틱 효과의 특성을 수정할 수 있다.
이와 같이, 본원에서 설명되는 시스템들 및 방법들은 사용자의 모션들을 캡쳐하고 캡쳐된 모션에 기초하여 햅틱 효과를 발생시키거나 또는 수정할 수 있다.
이들 예시적인 예들은 독자에게 본원에 개시된 일반적인 기술요지를 소개하기 위해 제공되며 개시된 컨셉들의 범위를 한정하도록 의도되지 않는다. 다음 섹션들은 다양한 추가적인 특징들 및 예들을 유사한 숫자들이 동일한 엘리먼트들을 표시하는 도면들을 참조하여 설명하고, 방향 설명들이 예시적인 예들을 설명하기 위해 사용되지만, 예시적인 예들과 유사하게, 본 개시물을 한정하는데 사용되지 않아야 한다.
사용자의 모션을 캡쳐하고 캡쳐된 모션에 기초하여 햅틱 효과들을 제공하는 시스템의 예시적인 예들
도 1 은 일 실시형태에 따른, 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템 (100) 을 나타내는 블록도이다. 도 1 에 도시된 실시형태에서, 시스템 (100) 은 버스 (106) 를 통해서 다른 하드웨어와 통신하는 프로세서 (102) 를 갖는 컴퓨팅 디바이스 (101) 를 포함한다. 컴퓨팅 디바이스 (101) 는 예를 들어, 개인용 컴퓨터, 모바일 디바이스 (예컨대, 스마트폰), 태블릿, 스마트시계, 착용형 디바이스, 등을 포함할 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (101) 는 도 1 에 도시된 컴포넌트들의 모두 또는 일부를 포함할 수도 있다.
랜덤 액세스 메모리 ("RAM"), 판독 전용 메모리 ("ROM"), 소거가능 및 프로그래밍가능 판독 전용 메모리 ("EEPROM"), 또는 기타 등등과 같은, 임의의 적합한 유형의 (및 비일시성) 컴퓨터-판독가능 매체를 포함할 수 있는, 메모리 (104) 는 컴퓨팅 디바이스 (101) 의 동작을 구성하는 프로그램 컴포넌트들을 구현한다. 나타낸 실시형태에서, 컴퓨팅 디바이스 (101) 는 하나 이상의 네트워크 인터페이스 디바이스들 (108), 입력/출력 (I/O) 인터페이스 컴포넌트들 (110), 및 스토리지 (112) 를 더 포함한다.
네트워크 인터페이스 디바이스 (108) 는 네트워크 접속을 용이하게 하는 임의의 컴포넌트들 중 하나 이상을 나타낼 수 있다. 예들은 이더넷, USB, IEEE 1394 와 같은 유선 인터페이스들, 및/또는 IEEE 802.11, 블루투스, 또는 셀룰러 전화기 네트워크들에 액세스하기 위한 라디오 인터페이스들 (예컨대, CDMA, GSM, UMTS, 또는 다른 모바일 통신 네트워크에 액세스하기 위한 트랜시버/안테나) 과 같은 무선 인터페이스들을 포함하지만, 이에 한정되지 않는다.
I/O 컴포넌트들 (110) 은 하나 이상의 디스플레이들 (114), 게임 제어기들, 키보드들, 마우스들, 조이스틱들, 카메라들, 버튼들, 스피커들, 마이크로폰들 및/또는 데이터를 입력 또는 출력하는데 사용되는 다른 하드웨어와 같은, 디바이스들에의 유선 또는 무선 접속들을 용이하게 하기 위해 사용될 수도 있다. 스토리지 (112) 는 비휘발성 스토리지, 예컨대 자기, 광학, 또는 컴퓨팅 디바이스 (101) 에 포함되거나 또는 프로세서 (102) 에 커플링된 다른 저장 매체들을 나타낸다.
일부 실시형태들에서, 컴퓨팅 디바이스 (101) 는 버스 (106) 에 통신가능하게 접속되고 사용자의 촉각 입력을 감지하도록 구성될 수 있는 터치 표면 (116) (예컨대, 터치패드 또는 터치 감지 표면) 을 포함한다. 이 예에서, 컴퓨팅 디바이스 (101) 는 감지 사용자의 촉각 입력을 감지하도록 구성되는 것으로 설명되는 터치 표면 (116) 을 포함하지만, 본 개시물은 이러한 구성들에 한정되지 않는다. 대신, 다른 예들에서, 컴퓨팅 디바이스 (101) 는 터치 표면 (116) 및/또는 촉각 입력을 감지하도록 구성되지 않을 수도 있는 임의의 표면을 포함할 수 있다.
시스템 (100) 은 센서 (118) 를 더 포함한다. 일부 실시형태들에서, 센서 (118) 는 예를 들어, 자이로스코프, 가속도계, 이미징 센서, 카메라, 자력계, 마이크로폰, 온도 센서, 힘 센서, 압력 센서, 심박수 센서, 심장박동 센서, 관성 측정 유닛, 뇌파도 (electroencephalogram), 및/또는 사용자의 모션 (예컨대, 제스쳐) 또는 사용자의 환경에 관한 정보를 검출, 모니터링, 또는 아니면 캡쳐할 수 있는 다른 센서를 포함할 수도 있다. 예를 들어, 센서 (118) 는 착용가능한 센서, 핸드헬드 센서, 또는 사용자 (119) 의 모션 (예컨대, 사용자의 신체 부분의 모션) 을 캡쳐하거나 또는 사용자 (119) 의 환경에 관한 정보를 캡쳐하기 위해 사용자 (119) 에게 커플링 (예컨대, 부착) 되거나 또는 아니면 사용자 (119) 와 연관될 수 있는 임의의 센서일 수 있다. 일부 실시형태들에서, 센서 (118) 는 사용자 (119) 의 모션 또는 사용자의 환경에 관한 정보를 표시하는 하나 이상의 센서 신호들을 컴퓨팅 디바이스 (101) 로 송신할 수 있다.
메모리 (104) 를 다시 참조하면, 모듈들 (113, 122, 및 124) 은 디바이스가 어떻게 일부 실시형태들에서, 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하도록 구성될 수 있는지를 나타내기 위해 도시된다. 일부 실시형태들에서, 모듈들 (113, 122, 및 124) 은 하나 이상의 동작들을 수행하도록 프로세서 (102) 를 구성할 수 있는 프로세서 실행가능한 명령들을 포함할 수 있다.
예를 들어, 검출 모듈 (113) 은 센서 (118) 로부터 센서 신호들을 수신하도록 프로세서 (102) 를 구성할 수 있다. 일 예로서, 검출 모듈 (113) 은 센서 (118) 가 사용자 (119) 의 모션을 검출 또는 감지하거나 또는 사용자 (119) 의 환경에 관한 정보를 캡쳐할 때 프로세서 (102) 로 하여금 센서 (118) 로부터 센서 신호를 수신하게 할 수도 있다. 일부 예들에서, 센서 (118) 로부터의 센서 신호는 사용자의 모션의 경로, 속도, 가속도, 힘, 등., 이동되는 사용자 (119) 의 신체 부분, 및/또는 사용자 (119) 의 모션의 임의의 다른 특성을 포함하지만 이에 한정되지 않는, 사용자의 모션에 관한 정보를 포함할 수 있다. 일부 예들에서, 센서 (118) 로부터의 센서 신호는 사용자의 환경의 온도, 습도, 위도, 등을 포함하지만 이에 한정되지 않는, 사용자 (119) 의 환경의 파라미터 (예컨대, 조건) 에 관한 정보를 포함할 수 있다. 일부 예들에서, 프로세서 (102) 는 센서 (118) 로부터 하나 이상의 센서 신호들을 수신하고 센서 신호들에 기초하여 사용자의 모션 또는 사용자의 환경에 관한 정보를 결정할 수 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (122) 은 데이터를 분석하여 발생시킬 햅틱 효과를 결정하는 프로그램 컴포넌트를 나타낸다. 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금, 하나 이상의 알고리즘들 또는 룩업 테이블들을 이용하여, 출력할 하나 이상의 햅틱 효과들을 선택하게 하는 코드를 포함할 수도 있다. 일부 실시형태들에서, 햅틱 효과 결정 모듈 (122) 은 햅틱 효과를 결정하기 위해 프로세서 (102) 에 의해 사용가능한 하나 이상의 알고리즘들 또는 룩업 테이블들을 포함한다.
특히, 일부 실시형태들에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금, 센서 (118) 로부터 수신된 센서 신호들에 적어도 부분적으로 기초하여 햅틱 효과를 결정하게 할 수도 있다. 예를 들어, 센서 (118) 는 센서 (118) 와 연관된 사용자 (119) (예컨대, 센서 (118) 를 소지하거나 또는 착용하고 있는 사용자 (119)) 의 신체 부분의 모션을 검출하고 센서 신호를 프로세서 (102) 로 송신할 수도 있다. 프로세서 (102) 는 센서 신호를 수신하고 사용자 (119) 의 모션 및/또는 모션의 특성을 결정할 수도 있다. 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금, 결정된 사용자 모션 및/또는 모션의 특성에 적어도 부분적으로 기초하여 햅틱 효과를 결정하게 할 수도 있다. 다른 예로서, 센서 (118) 는 사용자 (119) 의 환경에 관한 정보를 캡쳐하고 센서 신호를 센서 신호에 기초하여 사용자의 환경에 관한 정보를 결정하는 프로세서 (102) 로 송신할 수도 있다. 이 예에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 에 의해 실행될 때, 프로세서 (102) 로 하여금, 사용자의 환경에 관한 결정된 정보에 적어도 부분적으로 기초하여 햅틱 효과를 결정하게 하는 명령들을 포함할 수 있다.
예를 들어, 일 실시형태에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금, 다양한 사용자 모션들 또는 제스쳐들과 연관된 다양한 햅틱 효과들에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하게 할 수도 있다. 햅틱 효과 결정 모듈 (122) 은 또한 프로세서 (102) 로 하여금, 사용자의 모션 또는 제스쳐의 다양한 특성들과 연관된 다양한 햅틱 효과들에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하게 할 수도 있다. 이 실시형태에서, 프로세서 (102) 는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하고 사용자의 모션 또는 제스쳐 및/또는 모션의 특성과 연관된 하나 이상의 햅틱 효과들을 선택할 수 있다. 일 예로서, 프로세서 (102) 는 사용자 (119) 가 손을 이동하고, 달리고, 하이 파이브를 표시하고, 점프하는, 등을 결정할 수 있다. 이 결정에 기초하여, 프로세서 (102) 는 각각의 검출된 사용자 모션과 연관된 햅틱 효과를 선택할 수 있다. 일부 예들에서, 햅틱 효과는 사용자 (119) 또는 다른 사용자 (121) 로 하여금, 검출된 모션에 대응하는 햅틱 효과들을 인지하거나 또는 경험하게 할 수도 있다. 예를 들어, 사용자 (119) 가 상하로 점프하면, 햅틱 효과는 사용자 (119) 또는 다른 사용자 (121) 로 하여금, 사용자 (119) 가 상하로 점프하는 것을 인지하게 할 수 있는 진동 또는 일련의 진동들을 포함할 수 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금 사용자의 신체 부분의 시뮬레이트된 모션과 연관된 햅틱 효과를 결정하게 할 수도 있다. 예를 들어, 사용자 (119) 는 신체 부분을 이동시키지 않을 수도 있으며, 프로세서 (102) 는 사용자의 신체 부분의 시뮬레이트된 모션 또는 시뮬레이트된 모션의 특성을 표시하는 데이터를 수신하거나 또는 결정할 수도 있다. 예를 들어, 프로세서 (102) 는 사용자 (119) 가 상하로 점프하는 것과 연관된 시뮬레이트된 힘, 속도, 또는 가속도 파라미터들을 표시하는 데이터를 수신 (예컨대, 획득) 할 수 있다. 이 예에서, 파라미터들은 사람이 상하로 점프하는 것 또는 사람이 상하로 점프하는 것의 시뮬레이션으로부터 획득된 이력 데이터에 기초할 수 있다. 이 예에서, 프로세서 (102) 는 사용자의 신체 부분의 시뮬레이트된 모션과 연관된 하나 이상의 햅틱 효과들을 위에서 설명한 바와 실질적으로 동일한 방법으로 결정할 수 있다.
다른 예로서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금, 다양한 환경 조건들과 연관된 다양한 햅틱 효과들에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하게 할 수도 있다. 이 실시형태에서, 프로세서 (102) 는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하고 사용자 (119) 의 환경과 연관된 하나 이상의 햅틱 효과들을 선택할 수 있다. 일 예로서, 프로세서 (102) 는 사용자 (119) 가 심한 (예컨대, 강한) 바람을 가진 환경에 있다고 결정할 수 있다. 이 결정에 기초하여, 프로세서 (102) 는 사용자의 환경과 연관된 햅틱 효과를 선택할 수 있다. 일부 예들에서, 햅틱 효과는 사용자 (예컨대, 사용자 (119) 또는 사용자 (121)) 로 하여금, 검출된 환경 조건들에 대응하는 햅틱 효과들을 인지하거나 또는 경험하게 할 수도 있다. 예를 들어, 사용자 (119) 가 심한 바람들을 가진 환경에 있으면, 햅틱 효과는 사용자 (119) 또는 다른 사용자 (121) 로 하여금 심한 바람들을 인지하게 할 수 있는 강한 또는 긴 진동 또는 일련의 진동들을 포함할 수 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금 사용자 (119) 가 상호작용하고 있는 시뮬레이트된 환경과 연관된 햅틱 효과를 결정하게 할 수도 있다. 예를 들어, 사용자 (119) 는 시뮬레이트된 환경 (예컨대, 가상 또는 증강 현실 환경) 에 있거나 또는 이와 상호작용할 수도 있으며, 시뮬레이트된 환경의 조건들은 사용자의 물리적인 환경 (예컨대, 사용자 (119) 가 위치된 방) 의 조건들과 상이할 수도 있다. 이 예에서, 프로세서 (102) 는 시뮬레이트된 환경의 파라미터들 (예컨대, 특성들) 또는 조건들을 표시하는 데이터를 수신할 수 있으며, 프로세서 (102) 는 (예컨대, 시뮬레이트된 환경의 다양한 조건들과 연관된 다양한 햅틱 효과들을 포함하는 데이터베이스로부터 햅틱 효과를 선택함으로써) 위에서 설명한 바와 실질적으로 동일한 방법으로, 시뮬레이트된 환경의 파라미터들 또는 조건들과 연관된 하나 이상의 햅틱 효과들을 결정할 수 있다.
프로세서 (102) 는 또한 사용자의 모션 (예컨대, 제스쳐) 및/또는 모션의 특성을 결정하고 모션 및/또는 모션의 특성에 기초하여 햅틱 효과의 특성 (예컨대, 크기, 지속기간, 로케이션, 유형, 빈도, 등) 을 결정할 수도 있다. 예를 들어, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금, 사용자의 모션 및/또는 모션의 특성과 연관된 햅틱 효과의 특성에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하게 할 수도 있다. 이 실시형태에서, 프로세서 (102) 는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하고 사용자의 모션 또는 제스쳐 및/또는 모션의 특성과 연관된 하나 이상의 햅틱 효과들의 특성을 결정할 수 있다. 예를 들어, 사용자 (119) 가 빠른 페이스로 달리고 있으면, 햅틱 효과는 사용자 (119) 또는 다른 사용자 (121) 로 하여금 사용자 (119) 가 빠른 페이스로 달리고 있다는 것을 인지하게 할 수 있는 강한 진동 또는 일련의 강한 진동들을 포함할 수 있다.
추가적인 또는 대안적인 실시형태들에서, 프로세서 (102) 는 또한 사용자의 환경 또는 시뮬레이트된 환경에 관한 정보를 결정하고 사용자의 환경에 관한 정보에 기초하여 햅틱 효과의 특성을 결정할 수 있다. 예를 들어, 사용자 (119) 가 약한 강우를 가진 환경에 있으면, 햅틱 효과는 사용자 (119) 또는 다른 사용자 (121) 로 하여금 사용자 (119) 가 약한 강우를 가진 환경에 있음을 인지하게 할 수 있는 약한 진동 또는 일련의 약한 진동들을 포함할 수 있다. 특성을 결정할 때, 프로세서 (102) 는 햅틱 효과의 특성들을 수정하거나 또는 원래 햅틱 효과를 증강하기 위해 새로운 햅틱 효과를 발생시킬 수도 있다.
일부 실시형태들에서, 햅틱 효과 발생 모듈 (124) 은 프로세서 (102) 로 하여금, 햅틱 신호들을 발생시켜, 선택된 햅틱 효과를 발생시킬 햅틱 출력 디바이스 (예컨대, 사용자 디바이스 (120), 컴퓨팅 디바이스 (101), 또는 다른 햅틱 출력 디바이스의 햅틱 출력 디바이스 (126)) 로 송신하게 하는 프로그래밍을 나타낸다. 일부 실시형태들에서, 햅틱 효과 발생 모듈 (124) 은 햅틱 출력 디바이스로 하여금, 햅틱 효과 결정 모듈 (122) 에 의해 결정된 햅틱 효과를 발생시키게 한다. 예를 들어, 햅틱 효과 발생 모듈 (124) 은 선택된 햅틱 효과를 생성시킬 햅틱 출력 디바이스로 전송하기 위해 저장된 파형들 또는 지령들에 액세스할 수도 있다. 예를 들어, 햅틱 효과 발생 모듈 (124) 은 프로세서 (102) 로 하여금, 하나 이상의 햅틱 효과들과 연관된 하나 이상의 햅틱 신호들을 표시하는 데이터를 포함하는 룩업 테이블에 액세스하게 하고, 특정의 햅틱 효과를 발생시키기 위해 햅틱 출력 디바이스로 송신할 파형을 결정하게 할 수도 있다. 일부 실시형태들에서, 햅틱 효과 발생 모듈 (124) 은 햅틱 신호를 결정하는 알고리즘들을 포함할 수도 있다. 햅틱 효과 발생 모듈 (124) 은 햅틱 효과를 위한 목표 좌표들 (예컨대, 햅틱 효과를 출력할 로케이션에 대한 좌표들) 을 결정하는 알고리즘들을 포함할 수도 있다. 예를 들어, 햅틱 효과 발생 모듈 (124) 은 프로세서 (102) 로 하여금, 사용자 (119) 의 특정의 신체 부분의 모션을 표시하는 센서 신호를 이용하여 햅틱 효과에 대한 목표 좌표들 (예컨대, 다른 사용자 (121) 의 대응하는 신체 부분) 을 결정하게 할 수도 있다. 일부 실시형태들에서, 프로세서 (102) 는 햅틱 신호를 하나 이상의 햅틱 출력 디바이스들을 포함하는 햅틱 출력 디바이스로 송신할 수 있다. 이러한 실시형태들에서, 햅틱 효과 발생 모듈 (124) 은 프로세서 (102) 로 하여금 햅틱 신호들을 선택된 햅틱 효과를 발생시키기 위해 하나 이상의 햅틱 출력 디바이스들로 송신하게 할 수도 있다.
일부 실시형태들에서, 사용자 디바이스 (120), 컴퓨팅 디바이스 (101), 또는 임의의 다른 디바이스의 햅틱 출력 디바이스 (126) 는 프로세서 (102) 로부터 햅틱 신호를 수신하고 하나 이상의 햅틱 효과들을 출력할 수 있다. 예를 들어, 햅틱 출력 디바이스 (126) 는 사용자 (119) 의 모션들 또는 제스쳐들 또는 사용자 (119) 의 환경과 연관된 햅틱 효과를 출력할 수 있다.
사용자 디바이스 (120) 는 예를 들어, 모바일 디바이스 (예컨대, 스마트폰), e-리더기, 스마트시계, 머리-장착형 디스플레이, 유리들, 착용형 디바이스, 핸드헬드 디바이스 (예컨대, 태블릿, 비디오 게임 제어기), 또는 임의의 다른 유형의 사용자 인터페이스 디바이스일 수 있다.
사용자 디바이스 (120) 는 버스 (130) 를 통해서 다른 하드웨어와 통신하는 프로세서 (128) 를 포함할 수 있다. 사용자 디바이스 (120) 는 또한 메모리 (132), 네트워크 인터페이스 디바이스 (134), I/O 컴포넌트들 (136), 스토리지 (138), 디스플레이 (140), 및 터치 표면 (142) 을 포함할 수 있으며, 이들 각각은 메모리 (104), 네트워크 인터페이스 디바이스 (108), I/O 컴포넌트들 (110), 스토리지 (112), 디스플레이 (114), 및 터치 표면 (116) 각각과 실질적으로 동일한 방법으로 구성될 수 있지만, 반드시 그럴 필요는 없다.
일부 실시형태들에서, 사용자 디바이스 (120) 는 사용자 디바이스 (120) 의 터치 표면 (142) 과 디스플레이 (140) 를 결합하는 터치-이용가능 디스플레이를 포함한다. 터치 표면 (142) 은 디스플레이 (140) 상에 오버레이될 수도 있거나, 디스플레이 (140) 외부에 있을 수도 있거나, 또는 디스플레이 (140) 의 컴포넌트들 상의 하나 이상의 재료의 층일 수도 있다. 다른 실시형태들에서, 사용자 디바이스 (120) 는 터치-이용가능 디스플레이 상에 하나 이상의 가상 사용자 인터페이스 컴포넌트들 (예컨대, 버튼들) 을 포함하는 그래픽 사용자 인터페이스 ("GUI") 를 디스플레이할 수도 있으며, 터치 표면 (142) 은 가상 사용자 인터페이스 컴포넌트들과 상호작용가능하게 할 수 있다.
일부 실시형태들에서, 사용자 디바이스 (120) 는 하나 이상의 센서들 (146) 을 포함한다. 일부 실시형태들에서, 센서 (146) 는 센서 (118) 와 실질적으로 동일한 방법으로 구성될 수 있지만, 반드시 그럴 필요는 없다. 예를 들어, 센서 (146) 는 사용자 디바이스 (120) 의 사용자 (예컨대, 사용자 (121)) 의 모션 또는 제스쳐에 관한 정보를 검출하거나, 감지하거나, 또는 아니면 캡쳐할 수 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 프로세서 (128) 및/또는 프로세서 (102) 와 통신하며 햅틱 출력 디바이스 (126) 는 프로세서 (102) 또는 프로세서 (128) 로부터의 햅틱 신호에 응답하여 햅틱 효과를 출력하도록 구성된다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 예를 들어, 진동, 스퀴즈 (squeeze), 찌름, 인지된 마찰 계수의 변화, 시뮬레이트된 질감, 스트로킹 느낌, 전기-촉각 효과, 표면 변형 (예컨대, 사용자 디바이스 (120) 와 연관된 표면의 변형), 및/또는 고체, 액체, 또는 가스의 퍼프 (puff) 를 포함하는 햅틱 효과를 출력하도록 구성된다. 또, 일부 햅틱 효과들은 동일한 또는 상이한 유형들의 다수의 햅틱 출력 디바이스들 (126) 을 순차적으로 및/또는 함께 이용할 수도 있다. 단일 햅틱 출력 디바이스 (126) 가 도 1 에 도시되지만, 일부 실시형태들은 동일한 또는 상이한 유형의 다수의 햅틱 출력 디바이스들 (126) 을 이용하여 햅틱 효과들을 발생시킬 수도 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 프로세서 (128) 또는 프로세서 (102) 와 통신하며 사용자 디바이스 (120) 의 내부에 있다. 다른 실시형태들에서, 햅틱 출력 디바이스 (126) 는 사용자 디바이스 (120) 의 외부에 있으며, (예컨대, 이더넷, USB, IEEE 1394 와 같은 유선 인터페이스들 및/또는 IEEE 802.11, 블루투스, 또는 라디오 인터페이스들과 같은 무선 인터페이스들을 통해서) 사용자 디바이스 (120) 또는 컴퓨팅 디바이스 (101) 와 통신한다. 예를 들어, 햅틱 출력 디바이스 (126) 는 착용형 디바이스 (예컨대, 손목밴드, 팔찌, 모자, 헤드밴드, 등) 와 연관 (예컨대, 커플링) 되고, 프로세서 (128) 또는 프로세서 (102) 로부터 햅틱 신호들을 수신하도록 구성될 수도 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 진동을 포함하는 햅틱 효과를 출력하도록 구성된다. 햅틱 출력 디바이스 (126) 는 예를 들어, 압전 액추에이터, 전기 모터, 전기-자기 액추에이터, 보이스 코일, 형상 기억 합금, 전기-활성 중합체, 솔레노이드, 이심 회전 질량 모터 (ERM), 또는 선형 공진 액추에이터 (LRA) 중 하나 이상을 포함할 수도 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 사용자 디바이스 (120) 와 연관된 표면 (예컨대, 터치 표면 (142)) 의 인지된 마찰 계수를 조절하는 햅틱 효과를 출력하도록 구성된다. 일 실시형태에서, 햅틱 출력 디바이스 (126) 는 초음파 액추에이터를 포함한다. 초음파 액추에이터는 햅틱 출력 디바이스 (126) 와 연관된 표면의 인지된 마찰 계수를 증가시키거나 또는 감소시키는 초음파 주파수, 예를 들어, 20 kHz 에서 진동할 수도 있다. 일부 실시형태들에서, 초음파 액추에이터는 피에조-전기 재료를 포함할 수도 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 정전 인력을 이용하여, 예를 들어, 정전 액추에이터의 사용에 의해, 햅틱 효과를 출력한다. 햅틱 효과는 시뮬레이트된 질감, 시뮬레이트된 진동, 스트로킹 느낌, 또는 사용자 디바이스 (120) 와 연관된 표면 (예컨대, 터치 표면 (142)) 상에서의 마찰 계수의 인지된 변화를 포함할 수도 있다. 일부 실시형태들에서, 정전 액추에이터는 도전 층 및 절연층을 포함할 수도 있다. 도전 층은 임의의 반도체 또는 다른 전도성 재료, 예컨대 구리, 알루미늄, 금, 또는 은일 수도 있다. 절연층은 유리, 플라스틱, 중합체, 또는 임의의 다른 절연 재료일 수도 있다. 더욱이, 프로세서 (128) 또는 프로세서 (102) 는 전기 신호, 예를 들어, AC 신호를, 도전 층에 인가함으로써 정전 액추에이터를 동작시킬 수도 있다. 일부 실시형태들에서, 고전압 증폭기는 AC 신호를 발생시킬 수도 있다. 전기 신호는 도전 층과 터치 표면 (142) 근처 또는 이를 터치하는 오브젝트 (예컨대, 사용자의 손가락 또는 다른 신체 부분, 또는 스타일러스) 사이의 용량 결합을 발생시킬 수도 있다. 오브젝트와 도전 층 사이에 인력의 레벨들을 변경하면 사용자에 의해 인지된 햅틱 효과를 변경할 수 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 변형 햅틱 효과를 출력하도록 구성된 변형 디바이스를 포함한다. 변형 햅틱 효과는 사용자 디바이스 (120) 와 연관된 표면의 부분들을 상승시키거나 또는 하강시키는 것을 포함할 수도 있다. 예를 들어, 변형 햅틱 효과는 터치 표면 (142) 의 부분들을 상승시키는 것을 포함할 수도 있다. 일부 실시형태들에서, 변형 햅틱 효과는 사용자 디바이스 (120) 와 연관된 표면을 굽히거나, 접거나, 말거나, 비틀거나, 압착하거나, 구부리거나, 형태를 변경하거나, 또는 아니면 변형시키는 것을 포함할 수도 있다. 예를 들어, 변형 햅틱 효과는 사용자 디바이스 (120) 또는 사용자 디바이스 (120) 와 연관된 표면 (예컨대, 터치 표면 (142)) 상에 힘을 가하여, 굽히거나, 접거나, 말거나, 비틀거나, 압착하거나, 구부리거나, 형태를 변경하거나, 또는 아니면 변형시킬 수도 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 변형 햅틱 효과를 출력하도록 (예컨대, 사용자 디바이스 (120) 와 연관된 표면을 굽히거나 또는 변형하도록) 구성된 유체를 포함한다. 예를 들어, 유체는 스마트 겔을 포함할 수도 있다. 스마트 겔은 자극 또는 자극들 (예컨대, 전기장, 자기장, 온도, 자외선 광, 진탕, 또는 pH 변화) 에 응답하여 변하는 기계적 또는 구조적 특성들을 가진 유체를 포함한다. 예를 들어, 자극에 응답하여, 스마트 겔은 강성, 체적, 투명성, 및/또는 칼라가 변할 수도 있다. 일부 실시형태들에서, 강성은 변형에 대한 사용자 디바이스 (120) 와 연관된 표면 (예컨대, 터치 표면 (142)) 의 저항을 포함할 수도 있다. 일부 실시형태들에서, 하나 이상의 와이어들은 스마트 겔에 매립되거나 또는 커플링될 수도 있다. 전류가 와이어들을 통과함에 따라, 열이 방출되어, 스마트 겔을 확장 또는 수축시키고, 이는 사용자 디바이스 (120) 또는 사용자 디바이스 (120) 와 연관된 표면을 변형시킬 수도 있다.
다른 예로서, 유체는 유변학적 (예컨대, 자기-유변학적 또는 전기-유변학적) 유체를 포함할 수도 있다. 유변학적 (rheological) 유체는 유체 (예컨대, 오일 또는 물) 에 현탁된 금속 입자들 (예컨대, 철 입자들) 을 포함한다. 전기 또는 자기장에 응답하여, 유체 내 분자들의 순서는 재정렬되어, 유체의 전체 감쇠 및/또는 점도를 변화시킬 수도 있다. 이는 사용자 디바이스 (120) 또는 사용자 디바이스 (120) 와 연관된 표면을 변형되게 할 수도 있다.
일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 기계적 변형 디바이스를 포함한다. 예를 들어, 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 변형 컴포넌트를 회전시키는 아암에 커플링된 액추에이터를 포함할 수도 있다. 변형 컴포넌트는 예를 들어, 계란형, 스타버스트, 또는 주름진 형상을 포함할 수도 있다. 변형 컴포넌트는 일부 회전 각도들로 사용자 디바이스 (120) 와 연관된 표면을 이동시키지만, 이외는 이동시키지 않도록 구성될 수도 있다. 액추에이터는 피에조-전기 액추에이터, 회전/선형 액추에이터, 솔레노이드, 전기활성 중합체 액추에이터, 매크로 섬유 복합체 (MFC) 액추에이터, 형상 기억 합금 (SMA) 액추에이터, 및/또는 다른 액추에이터를 포함할 수도 있다. 액추에이터가 변형 컴포넌트를 회전시킴에 따라, 변형 컴포넌트는 표면을 이동시켜, 이를 변형시킬 수도 있다. 이러한 일 실시형태에서, 변형 컴포넌트는 표면이 편평한 위치에서 시작할 수도 있다. 프로세서 (128) 로부터 신호를 수신하는 것에 응답하여, 액추에이터는 변형 컴포넌트를 회전시킬 수도 있다. 변형 컴포넌트를 회전시키는 것은 표면의 하나 이상의 부분들을 상승시키거나 또는 하강시킬 수도 있다. 변형 컴포넌트는 일부 실시형태들에서, 프로세서 (128) 또는 프로세서 (102) 가 변형 컴포넌트를 그의 원래 위치로 다시 회전시키도록 액추에이터에 시그널링할 때까지, 이 회전된 상태에서 유지할 수도 있다.
또, 다른 기법들 또는 방법들이 사용자 디바이스 (120) 와 연관된 표면을 변형하기 위해 사용될 수 있다. 예를 들어, 햅틱 출력 디바이스 (126) 는 (예컨대, 섬유들, 나노튜브들, 전기활성 중합체들, 압전 엘리먼트들, 또는 형상 기억 합금들을 포함하지만 이에 한정되지 않는) 표면 재구성가능한 햅틱 기판으로부터의 접촉에 기초하여, 그의 표면을 변형하거나 또는 그의 질감을 변경하도록 구성된 가요성 표면 층을 포함할 수도 있다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 예를 들어, 변형 메커니즘 (예컨대, 와이어들에 커플링된 모터), 공기 또는 유체 포켓들, 재료들의 국부적 변형, 공진 기계적 엘리먼트들, 압전 재료들, 마이크로-전기기계 시스템들 ("MEMS") 엘리먼트들 또는 펌프들, 열 유체 포켓들, 가변 다공성 막들, 또는 층류 (laminar flow) 조절로, 변형된다.
메모리 (132) 를 다시 참조하면, 모듈들 (148, 150, 152, 및 154) 은 디바이스가 어떻게, 일부 실시형태들에서, 사용자의 모션을 캡쳐하고 캡쳐된 모션에 기초하여 햅틱 효과들을 제공하도록 구성될 수 있는지를 나타내기 위해 도시된다. 일부 실시형태들에서, 모듈들 (148, 150, 152, 및 154) 은 하나 이상의 동작들을 수행하도록 프로세서 (102) 를 구성할 수 있는 프로세서 실행가능한 명령들을 포함할 수도 있다.
일부 실시형태들에서, 콘텐츠 제공 모듈 (148) 은 콘텐츠 (예컨대, 텍스트들, 이미지들, 사운드들, 비디오들, 캐릭터들, 가상 오브젝트들, 가상 애니메이션들, 등) 를 사용자에게 (예컨대, 사용자 디바이스 (120) 의 사용자에게) 제공하도록 프로세서 (128) 에 의해 실행될 수 있는 명령들을 포함한다. 콘텐츠가 컴퓨터-발생된 이미지들을 포함하면, 콘텐츠 제공 모듈 (148) 은 프로세서 (128) 에 의해 실행될 때, 프로세서 (128) 로 하여금, 디스플레이 디바이스 (예컨대, 사용자 디바이스 (120) 의 디스플레이 (140) 또는 프로세서 (128) 에 통신가능하게 커플링된 다른 디스플레이) 상에의 디스플레이를 위해 이미지들을 발생하게 하는 명령들을 포함한다. 콘텐츠가 비디오 및/또는 정지 화상들을 포함하면, 콘텐츠 제공 모듈 (148) 은 프로세서 (128) 에 의해 실행될 때, 프로세서 (128) 로 하여금, 비디오 및/또는 정지 화상들에 액세스하게 하고 디스플레이 (140) 상에의 디스플레이를 위해 비디오 및/또는 정지 화상들의 뷰들을 발생하게 하는 명령들을 포함한다. 콘텐츠가 오디오 콘텐츠를 포함하면, 콘텐츠 제공 모듈 (148) 은 프로세서 (128) 에 의해 실행될 때, 프로세서 (128) 로 하여금, 디스플레이 (140) 의 부분일 수도 있는 스피커를 구동하여 대응하는 사운드들을 출력하는 전자 신호들을 발생하게 하는 명령들을 포함한다. 일부 실시형태들에서, 콘텐츠, 또는 그 콘텐츠가 도출된 정보는 도 1 에 예시된 바와 같이, 사용자 디바이스 (120) 의 부분일 수도 있거나, 또는 사용자 디바이스 (120) 로부터 분리되고 사용자 디바이스 (120) 에 통신가능하게 커플링될 수도 있는 스토리지 (138) 로부터 콘텐츠 제공 모듈 (148) 에 의해 획득될 수도 있다. 일 예로서, 콘텐츠 제공 모듈 (148) 은 디스플레이 (140) 상에의 디스플레이를 위해, 프로세서 (128) 로 하여금, 시뮬레이트된 환경 (예컨대, 가상 또는 증강된 현실 환경) 을 발생시키게 할 수 있다. 시뮬레이트된 환경은 사용자의 물리적인 존재 및/또는 환경을 시뮬레이션하고 사용자로 하여금 시뮬레이트된 환경에서 가상 오브젝트들과 상호작용하게 할 수 있다.
일부 실시형태들에서, 모션 모듈 (150) 은 프로세서 (128) 로 하여금, 센서 (146) 로부터 센서 신호들을 수신하게 할 수 있다. 일 예로서, 모션 모듈 (150) 은 센서 (146) 가 사용자 디바이스 (120) 의 사용자 (예컨대, 사용자 (121)) 의 모션을 검출 또는 감지할 때 프로세서 (128) 로 하여금, 센서 (146) 로부터 센서 신호를 수신하게 할 수도 있다. 일부 예들에서, 센서 (146) 로부터의 센서 신호는 사용자의 모션의 경로, 속도, 가속도, 또는 힘, 이동되는 사용자의 신체 부분, 및/또는 사용자의 모션의 임의의 다른 특성을 포함하지만 이에 한정되지 않는 사용자의 모션에 관한 정보를 포함할 수 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (152) 은 햅틱 효과 결정 모듈 (122) 과 실질적으로 동일한 방법으로 구성될 수 있으며, 반드시 그럴 필요는 없다. 예를 들어, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 데이터를 분석하여 발생시킬 햅틱 효과를 결정하게 하는 프로그램 컴포넌트를 나타낼 수 있다. 햅틱 효과 결정 모듈 (152) 은 프로세서 (102) 로 하여금 하나 이상의 알고리즘들 또는 룩업 테이블들을 이용하여, 출력할 하나 이상의 햅틱 효과들을 선택하게 하는 코드를 포함할 수도 있다. 일부 실시형태들에서, 햅틱 효과 결정 모듈 (152) 은 햅틱 효과를 결정하기 위해 프로세서 (128) 에 의해 사용가능한 하나 이상의 알고리즘들 또는 룩업 테이블들을 포함한다. 특히, 일부 실시형태들에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 센서 (146) 로부터 수신된 센서 신호들에 적어도 부분적으로 기초하여 햅틱 효과를 결정하게 할 수도 있다. 예를 들어, 센서 (146) 는 예를 들어, 사용자 (121) 와 같은, 사용자 디바이스 (120) 의 사용자의 신체 부분의 모션을 검출하고, 센서 신호를 프로세서 (128) 로 송신할 수도 있다. 프로세서 (128) 는 센서 신호를 수신하고 사용자 (121) 의 모션 및/또는 모션의 특성을 결정할 수도 있다. 햅틱 효과 결정 모듈 (122) 은 결정된 사용자 모션 및/또는 모션의 특성에 적어도 부분적으로 기초하여 햅틱 효과를 결정할 수도 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 에 의해 실행될 때, 프로세서 (128) 로 하여금, 햅틱 효과 결정 모듈 (122) 에 의해 결정된 햅틱 효과를 표시할 수 있는 신호를 햅틱 효과 결정 모듈 (122) 로부터 수신하게 하는 명령들을 포함할 수 있다. 예를 들어, 프로세서 (128) 는 위에서 설명한 바와 같이 센서 (118) 로부터의 센서 신호들에 기초하여 결정된 햅틱 효과 (예컨대, 사용자 (119) 의 모션에 기초하여 결정된 햅틱 효과) 를 표시하는 데이터를 컴퓨팅 디바이스 (101) 로부터 수신할 수 있다.
다른 실시형태에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 콘텐츠 제공 모듈 (148) 에 의해 제공되는 콘텐츠에 기초하여 햅틱 효과를 결정하게 하는 코드를 포함할 수도 있다. 예를 들어, 콘텐츠 제공 모듈 (148) 은 프로세서 (128) 로 하여금, 디스플레이 디바이스 (140) 를 통해서 출력될 시각적 콘텐츠를 제공하게 할 수도 있으며, 시각적 콘텐츠는 사용자 (119) 를 포함할 수 있다. 일 실시형태에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 시각적 콘텐츠와 연관된 햅틱 효과를 결정하게 할 수도 있다. 예를 들어, 하나의 이러한 실시형태에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 사용자 (119) 를 포함하고 디스플레이 디바이스 (140) 에 의해 제공 중인 비디오와 연관된 햅틱 트랙을 제공하기 위한 햅틱 효과를 결정하게 할 수도 있다. 햅틱 트랙은 제공중인 비디오에서 발생하는 이벤트들에 대응하는 햅틱 효과 (예컨대, 진동) 또는 일련의 햅틱 효과들을 포함할 수 있다. 예를 들어, 사용자 (119) 가 손을 올리고, 달리고 이후 중지하고, 하이 파이브를 표시하고, 점프하고, 사용자의 머리를 돌리는 등을 비디오가 포함하면, 햅틱 트랙은 사용자 (119) 에 의한 각각의 모션에 대응하는 하나 이상의 진동들을 포함할 수 있다. 다른 예로서, 비디오가 사용자 (119) 의 환경에서 일련의 폭발들을 포함하면, 햅틱 트랙은 각각의 폭발에 대응하는 일련의 진동들일 수 있다. 따라서, 일부 실시형태들에서, 사용자 (119) 또는 다른 사용자 (121) 가 비디오를 시청함에 따라, 사용자 (119 또는 121) 는 비디오와 연관된 햅틱 효과들을 인지할 수도 있다.
일부 실시형태들에서, 프로세서 (128) 는 사용자의 모션 (예컨대, 제스쳐) 을 결정하고, 모션 및/또는 모션의 특성에 기초하여 햅틱 효과의 특성 (예컨대, 크기, 지속기간, 로케이션, 유형, 빈도, 등) 을 결정하거나 또는 수정할 수도 있다. 예를 들어, 일 실시형태에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 사용자의 모션 및/또는 모션의 특성과 연관된 햅틱 효과의 특성에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하게 할 수도 있다. 이 실시형태에서, 프로세서 (128) 는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스하고, 사용자의 모션 또는 제스쳐 및/또는 모션의 특성과 연관된 하나 이상의 햅틱 효과들의 특성을 결정하거나 또는 수정할 수 있다. 예를 들어, 프로세서 (128) 는 검출된 사용자 (121) 의 모션에 기초하여 (예컨대, 센서 (146) 로부터의 센서 신호들에 기초하여) 햅틱 효과를 결정하고, 햅틱 출력 디바이스 (126) 를 통해서 햅틱 효과를 사용자 (121) 에게 출력할 수 있다. 이 예에서, 센서 (146) 는 또한 (예컨대, 사용자가 햅틱 효과를 인지함에 따라) 추가적인 사용자 (121) 의 모션을 검출하거나 또는 감지할 수 있으며, 감지된 모션은 예를 들어, 사용자 (121) 가 햅틱 효과를 인지함에 따라 사용자 (121) 가 손을 들어올리고 있다고 결정하는 것에 응답하여 햅틱 효과의 크기를 증가시킴으로써, 햅틱 효과의 특성을 결정하거나 또는 수정하기 위해 사용될 수 있다.
일부 예들에서, 사용자 (121) 에 의한 모션 또는 제스쳐는 다른 사용자의 모션 또는 다른 사용자의 환경에 관한 정보에 기초하여 발생되는 햅틱 효과의 특성들을 결정하거나 또는 수정하기 위해 사용될 수 있다. 예를 들어, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 센서 (118) 와 연관된 사용자 (119) 의 모션 또는 사용자 (119) 의 환경에 기초하여, 프로세서 (102) 에 의해 결정된 햅틱 효과를 표시하는 신호를 수신하게 할 수 있다. 이 예에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 햅틱 효과의 특성을 위에서 설명한 바와 실질적으로 동일한 방법으로 결정하거나 또는 수정하게 할 수 있다. 예를 들어, 센서 (118) 와 연관된 사용자 (119) 가 상하로 점프하고 있고 프로세서 (102) 는 사용자 (119) 가 상하로 점프하고 있다고 결정하는 것에 기초하여 일련의 강한 진동들을 포함하는 햅틱 효과를 결정한다. 이 예에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 결정된 햅틱 효과를 표시하는 신호를 프로세서 (102) 로부터 수신하게 하며, 햅틱 효과는 햅틱 출력 디바이스 (126) 를 통해서 (예컨대, 사용자 (119) 가 점프 중인 것과 실질적으로 실시간으로 또는 추후에) 사용자 (121) 에게 출력될 수 있다. 센서 (146) 는 사용자 (121) 의 모션을 검출 또는 감지할 수 있으며, 검출된 모션은 예를 들어, 사용자 (121) 가 햅틱 효과를 인지함에 따라 사용자 (121) 가 손을 내리고 있다고 결정하는 것에 응답하여 진동들의 크기를 감소시킴으로써, 햅틱 효과의 특성을 결정하거나 또는 수정하기 위해 사용될 수 있다. 이와 같이, 사용자의 모션들 또는 환경에 기초하여 결정된 햅틱 효과를 인지하는 사용자는 사용자 입력 (예컨대, 추가적인 사용자 모션들 또는 제스쳐들) 을 제공하여 햅틱 효과의 특성들을 수정할 수 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 이벤트에 기초하여 햅틱 효과를 결정하게 하는 코드를 포함한다. 이벤트는, 본원에서 사용할 때, 연관된 햅틱 효과를 잠재적으로 포함할 수 있는, 사용자 디바이스 (120) 의 동작 동안 발생하는, 임의의 상호작용, 액션, 충돌, 또는 다른 이벤트이다. 일부 실시형태들에서, 이벤트는 사용자 입력 (예컨대, 버튼 누름, 조이스틱을 조작하는 것, 터치 표면 (116) 또는 터치 표면 (142) 과 상호작용하는 것, 컴퓨팅 디바이스 (101) 또는 사용자 디바이스 (120) 를 틸팅하는 것 또는 배향하는 것), 시스템 상태 (예컨대, 배터리 부족, 메모리 부족, 또는 시스템 통지, 예컨대 시스템이 메시지, 도래하는 통화, 통지, 또는 업데이트를 수신하는 것에 기초하여 발생되는 통지), 데이터를 전송하는 것, 데이터를 수신하는 것, 프로그램 이벤트 (예컨대, 프로그램이 게임인 경우, 프로그램 이벤트는 폭발들, 총성들, 충돌들, 게임 캐릭터들 사이의 상호작용들, 사용자와 시뮬레이트된 환경 내 하나 이상의 엘리먼트들 간 상호작용들, 시뮬레이트된 환경 내 캐릭터의 이동, 등을 포함할 수도 있다), 또는 사용자 (119) 에 의한 액션 (예컨대, 사용자 (119) 의 모션) 을 포함할 수도 있다.
일부 실시형태들에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 에 의해 실행될 때, 프로세서 (128) 로 하여금, 프로세서 (102) 에 의해 결정된 햅틱 효과를 표시할 수 있는 신호를 프로세서 (102) 로부터 수신하게 하는 명령들을 포함할 수 있다. 예를 들어, 프로세서 (128) 는 위에서 설명한 바와 같은 센서 (118) 로부터의 센서 신호들에 기초하여 결정된 햅틱 효과를 표시하는 데이터를 프로세서 (102) 로부터 수신할 수 있다. 이 예에서, 햅틱 효과 발생 모듈 (154) 은 프로세서 (128) 로 하여금, 햅틱 신호들을 발생시키고 햅틱 출력 디바이스 (126) 로 송신하여 선택된 햅틱 효과를 발생시키게 할 수 있다.
일부 실시형태들에서, 햅틱 효과 발생 모듈 (154) 은 햅틱 효과 발생 모듈 (124) 과 실질적으로 동일한 방법으로 구성될 수 있으며, 반드시 그럴 필요는 없다. 예를 들어, 햅틱 효과 발생 모듈 (154) 은 프로세서 (128) 로 하여금, 햅틱 신호를 발생시키고 햅틱 출력 디바이스 (126) 로 송신하여 프로세서 (102) 또는 프로세서 (128) 에 의해 결정된 햅틱 효과를 발생시키게 할 수 있다. 일부 실시형태들에서, 햅틱 효과 발생 모듈 (154) 은 햅틱 효과에 대한 목표 좌표들 (예컨대, 햅틱 효과를 출력할 로케이션에 대한 좌표들) 을 결정하는 알고리즘들을 포함할 수도 있다. 예를 들어, 햅틱 효과 발생 모듈 (154) 은 프로세서 (128) 로 하여금, 사용자 (119) 또는 사용자 (121) 의 특정의 신체 부분의 모션을 표시하는 센서 신호를 이용하여 햅틱 효과에 대한 목표 좌표들을 결정하게 할 수도 있다. 예를 들어, 센서 (118) 가 사용자 (119) 의 손의 모션을 검출하면, 햅틱 효과 발생 모듈 (154) 은 햅틱 효과가 사용자 (121) 의 손으로 출력되도록 햅틱 효과에 대한 좌표들을 결정할 수도 있다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 하나 이상의 햅틱 출력 디바이스들을 포함할 수도 있다. 이러한 실시형태들에서, 햅틱 효과 발생 모듈 (154) 또는 햅틱 효과 발생 모듈 (124) 은 프로세서 (128) 또는 프로세서 (102) 로 하여금, 햅틱 신호들을 하나 이상의 햅틱 출력 디바이스들로 송신하여 선택된 햅틱 효과를 발생시키게 할 수도 있다.
일부 예들에서, 햅틱 효과 발생 모듈 (124) 또는 햅틱 효과 발생 모듈 (154) 은 콘텐츠가 출력 중이라고 결정하는 것에 응답하여, 프로세서 (128) 또는 프로세서 (102) 로 하여금, 햅틱 신호들을 햅틱 출력 디바이스 (126) 로 송신하게 할 수 있으며, 사용자 (121) 는 사용자 (119) 를 포함하는 콘텐츠를 보거나 또는 아니면 경험하고 있다. 예를 들어, 사용자 (119) 는 산을 등반하고 있고, 사용자 (119) 의 모션에 관한 정보 또는 사용자 (119) 의 환경에 관한 임의의 정보를 표시하는 하나 이상의 센서 신호들을 프로세서 (102) 또는 프로세서 (128) 로 송신하는 센서 (118) 를 착용하고 있다. 이 예에서, 사용자 (121) 는 사용자 (119) 가 (예컨대, 실시간으로 또는 임의의 다른 시간에) 산을 등반함에 따라, 사용자 (119) 를 포함하는 출력되는 콘텐츠 (예컨대, 비디오 스트림 또는 가상 현실 시퀀스) 를 보거나 또는 경험할 수 있다. 예를 들어, 콘텐츠 제공 모듈 (148) 은 프로세서 (128) 로 하여금, 사용자 (119) 가 산을 등반하는 이미지들을 발생시키고 그 이미지들을 디스플레이 (140) 를 통해서 출력하게 할 수 있다. 이 예를 계속하여, 햅틱 효과 발생 모듈 (124) 또는 햅틱 효과 발생 모듈 (154) 은 사용자 (121) 가 제 1 사용자 (119) 가 산을 등반하는 것을 시청하거나 또는 경험함에 따라, 프로세서 (128) 또는 프로세서 (102) 로 하여금, 햅틱 신호들을 햅틱 출력 디바이스 (126) 로 송신하게 할 수 있다. 햅틱 출력 디바이스 (126) 는 햅틱 신호를 수신하는 것에 응답하여 햅틱 효과 또는 햅틱 트랙을 사용자 (121) 에게 출력할 수 있으며, 이는 제 1 사용자가 산을 등반함에 따라, 제 2 사용자 (121) 로 하여금, 제 1 사용자의 모션, 활동, 또는 환경을 인지하거나 또는 경험하게 할 수 있다.
일부 예들에서, 햅틱 효과 발생 모듈 (124) 또는 햅틱 효과 발생 모듈 (154) 은 사용자 디바이스 (120) 의 사용자 (121) 에 의한 모션 또는 제스쳐가 센서 (118) 와 연관된 사용자 (119) 의 모션 또는 제스쳐에 대응한다고 결정하는 것에 응답하여, 프로세서 (128) 또는 프로세서 (102) 로 하여금, 햅틱 신호들을 햅틱 출력 디바이스 (126) 로 송신하게 할 수 있다. 예를 들어, 사용자 (119) 는 손을 들어올릴 수 있으며, 프로세서 (102) 는 사용자 (119) 가 손을 들어올리는 것과 연관된 햅틱 효과를 결정할 수 있다. 이 예에서, 햅틱 효과 결정 모듈 (152) 은 프로세서 (128) 로 하여금, 프로세서 (102) 에 의해 결정된 햅틱 효과를 표시하는 신호를 프로세서 (102) 로부터 수신하게 할 수 있다. 이 예에서, 프로세서 (128) 는 검출된 사용자 (121) 에 의한 모션 또는 제스쳐를 표시하는 센서 신호들을 센서 (146) 로부터 수신할 수 있다. 프로세서 (128) 는 사용자 (121) 의 모션들 또는 제스쳐들을 햅틱 효과가 사용자 (119) 가 손을 들어올리는 것에 기초하여 결정되었다는 것을 표시하는 데이터와 비교하여, 사용자 (121) 에 의한 모션 또는 제스쳐가 사용자 (121) 가 손을 들어올리는 것에 대응하는지 여부를 결정할 수 있다. 이 예에서, 프로세서 (128) 는 햅틱 효과를 발생시키기 위해 (예컨대, 사용자 (121) 가 손을 들어올렸다고 결정하는 것에 응답하여) 사용자 (121) 에 의한 모션 또는 제스쳐가 프로세서 (102) 에 의해 사용되는 검출된 제스쳐 또는 모션에 대응한다고 결정하는 것에 응답하여, 햅틱 신호들을 햅틱 출력 디바이스 (126) 로 송신할 수 있다.
도 1 의 예시적인 시스템 (100) 은 특정의 개수의 컴포넌트들을 갖는 것으로 도시되지만, 다른 실시형태들에서, 예시적인 시스템 (100) 은 임의 개수의 추가적인 또는 대안적인 컴포넌트들을 갖는다. 또, 도 1 은 컴퓨팅 디바이스 (101), 센서 (118), 및 사용자 디바이스 (120) 의 특정의 배열을 예시하지만, 다양한 추가적인 배열들이 가능하다. 일 예로서, 도 1 은 센서 (118) 및 컴퓨팅 디바이스 (101) 를 별개인 것으로 예시하지만, 일부 실시형태들에서, 컴퓨팅 디바이스 (101) 및 센서 (118) 는 단일 시스템의 부분이다. 예를 들어, 컴퓨팅 디바이스 (101) 는 센서 (118) 를 포함할 수도 있다. 다른 예로서, 도 1 은 컴퓨팅 디바이스 (101) 및 사용자 디바이스 (120) 및 이들의 개별 컴포넌트들을 별개인 것으로 예시하지만, 일부 실시형태들에서, 컴퓨팅 디바이스 (101) 및 사용자 디바이스 (120) 또는 이들의 개별 컴포넌트들은 단일 시스템의 부분 또는 임의 개수의 별개의 시스템들의 부분일 수 있다.
사용자의 모션을 캡쳐하고 캡쳐된 모션에 기초하여 햅틱 효과들을 제공하는 예시적인 방법들
도 2 는 일 실시형태에 따른, 사용자의 모션 또는 사용자의 환경에 관한 정보를 캡쳐하고 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 방법 (200) 을 수행하는 단계들의 플로우 차트이다. 일부 실시형태들에서, 도 2 에서의 단계들은 프로세서, 예를 들어, 범용 컴퓨터, 모바일 디바이스, 또는 서버 내 프로세서에 의해 실행가능한 프로그램 코드로 구현될 수도 있다. 일부 실시형태들에서, 이들 단계들은 프로세서들의 그룹에 의해 구현될 수도 있다. 일부 실시형태들에서, 도 2 에 도시된 하나 이상의 단계들이 생략되거나 또는 상이한 순서로 수행될 수도 있다. 이와 유사하게, 일부 실시형태들에서, 도 2 에 미도시된 추가적인 단계들이 또한 수행될 수도 있다. 예시적인 목적들을 위해, 방법 (200) 의 단계들이 도 1 에 나타낸 시스템과 관련하여 위에서 설명된 컴포넌트들을 참조하여 아래에서 설명되며, 그러나, 다른 구현예들이 가능하다.
방법 (200) 은 사용자 (119) 의 신체 부분의 모션 또는 사용자 (119) 의 환경에 관한 정보가 캡쳐될 때 단계 (202) 에서 시작한다. 예를 들어, 센서 (118) 는 착용가능한 센서, 핸드헬드 센서, 또는 사용자의 모션들 (예컨대, 사용자의 신체 부분의 모션) 에 관한 정보를 캡쳐하거나 또는 사용자의 환경에 관한 정보를 캡쳐하기 위해 사용자 (119) 에 커플링되거나 (예컨대, 부착되거나) 또는 아니면 사용자 (119) 와 연관될 수 있는 임의의 센서일 수 있다.
일부 예들에서, 센서 (118) 는 사용자의 모션의 경로, 속도, 가속도, 또는 힘, 이동되는 사용자 (119) 의 신체 부분, 및/또는 사용자의 모션의 임의의 다른 특성을 포함하지만 이에 한정되지 않는, 사용자의 모션에 관한 정보를 캡쳐할 수 있다. 일부 예들에서, 센서 (118) 는 예를 들어, 사용자의 환경의 온도, 습도, 위도, 등과 같은, 사용자의 환경의 파라미터에 관한 정보를 캡쳐할 수 있다.
방법 (200) 은 사용자의 신체 부분의 모션 또는 사용자의 환경에 관한 정보와 연관된 신호가 프로세서 (102) 로 송신될 때 단계 (204) 에서 속행한다. 일부 실시형태들에서, 센서 (118) 는 사용자 (119) 의 신체 부분의 모션 또는 사용자 (119) 의 환경에 관한 정보와 연관된 신호를 프로세서 (102) 로 송신한다. 신호는 사용자의 모션의 경로, 속도, 가속도, 또는 힘, 이동되는 사용자 (119) 의 신체 부분, 및/또는 사용자의 모션의 임의의 다른 특성을 표시할 수 있다. 신호는 추가적으로 또는 대안적으로, 온도, 습도, 위도, 또는 사용자 (119) 의 환경에 관한 다른 정보를 표시할 수 있다. 일부 예들에서, 프로세서 (102) 는 하나 이상의 센서 신호들을 센서 (118) 로부터 수신하고 센서 신호들에 기초하여 사용자의 모션 또는 사용자의 환경에 관한 정보를 결정할 수 있다. 모션은 콘텐츠와 연관되는 시간에서 캡쳐된다. 예를 들어, 모션은 비디오, 가상 현실, 또는 증강 현실 콘텐츠의 리코딩, 발생, 또는 플레이백 동안 캡쳐될 수도 있다. 콘텐츠에서 모션을 시간과 연관시킴으로써, 추후-발생되는 햅틱 효과는 또한 그 동일한 시간과 연관될 수 있다. 시간은 예를 들어, 콘텐츠에서 생성되거나 또는 콘텐츠에 존재하는 시간스탬프에, 또는 프레임과 같은 콘텐츠의 서브 컴포넌트에 대응할 수도 있다.
방법은 프로세서 (102) 가 사용자의 신체 부분의 모션 또는 사용자의 환경과 연관된 햅틱 효과를 결정할 때 단계 (206) 에서 속행한다. 일부 예들에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금 햅틱 효과를 결정하게 한다. 일부 실시형태들에서, 햅틱 효과는 하나 이상의 햅틱 효과들을 포함할 수 있다.
예를 들어, 프로세서 (102) 는 (예컨대, 단계 (204) 에서) 센서 (118) 로부터 수신된 신호에 적어도 부분적으로 기초하여 햅틱 효과 (예컨대, 하나 이상의 진동들) 를 결정할 수 있다. 일 예로서, 센서 신호는 예를 들어, 사용자 (119) 가 손을 올리고, 달리고, 하이 파이브를 표시하고, 상하로 점프하는, 등과 같은, 사용자 (119) 의 신체 부분의 모션을 표시할 수도 있다. 프로세서 (102) 는 센서 신호를 수신하고, 하나 이상의 센서 신호들과 연관된 하나 이상의 햅틱 효과들을 표시하는 데이터와 함께, 다양한 신호들 (예컨대, 다양한 신체 부분들의 다양한 모션들) 에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스할 수도 있다. 프로세서 (102) 는 룩업 테이블 또는 데이터베이스로부터 사용자의 신체 부분의 모션에 대응하는 햅틱 효과를 선택할 수 있다. 예를 들어, 사용자 (119) 가 상하로 점프하는 것에 응답하여, 프로세서 (102) 는 일련의 진동들을 포함하는 햅틱 효과를 선택할 수 있으며, 일련의 진동들이 사용자 (예컨대, 사용자 (121)) 에게 출력될 수 있다.
다른 예로서, 센서 (118) 로부터의 센서 신호는 예를 들어, 사용자 (119) 가 폭우를 가진 환경, 거친 지형을 가진 환경, 등에 있는 것과 같은, 사용자의 환경에 관한 정보를 표시한다. 프로세서 (102) 는 센서 신호를 수신하고, 다양한 환경 조건들과 연관된 다양한 햅틱 효과들에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스할 수도 있다. 프로세서 (102) 는 룩업 테이블 또는 데이터베이스로부터 사용자의 환경에 관한 정보에 대응하는 햅틱 효과를 선택할 수 있다. 예를 들어, 사용자 (119) 가 폭우를 가진 환경에 있다고 결정하는 것에 응답하여, 프로세서 (102) 는 사용자 (예컨대, 사용자 (121)) 에게 출력될 수 있는 강한 진동 또는 일련의 강한 진동들을 포함하는 햅틱 효과를 선택할 수 있다.
일부 예들에서, 센서 (118) 는 특정의 시간 기간에 따른 사용자 (119) 의 신체 부분들의 모션 또는 사용자 (119) 의 환경에 관한 정보를 캡쳐하고, 검출된 사용자 모션들 또는 환경에 관한 정보를 표시하는 하나 이상의 센서 신호들을 프로세서 (102) 로 송신할 수 있다. 프로세서 (102) 는 시간 기간에 따른 다양한 사용자 모션들과 연관되거나 또는 사용자의 환경에 관한 하나 이상의 햅틱 효과들을 결정할 수 있다. 이 예에서, 프로세서 (102) 는 각각의 사용자 모션이 캡쳐되거나 또는 사용자의 환경에 관한 정보가 캡쳐되는 시간에 대응하는 시간 스탬프를 표시하는 신호들을 센서 (118) 로부터 수신할 수 있으며, 프로세서 (102) 는 시간 기간에 따른 다양한 사용자 모션들 또는 환경 조건들의 순서를 표시하는 타임라인을 결정할 수 있다. 프로세서 (102) 는 타임라인에서 각각의 검출된 사용자 모션 또는 환경 조건과 연관된 햅틱 효과를 결정하고, (예컨대, 아래에서 설명되는 단계 (212) 에서) 각각의 햅틱 효과와 연관된 햅틱 신호를 햅틱 출력 디바이스 (126) 로 송신할 수 있다. 이 예에서, 햅틱 출력 디바이스 (126) 는 사용자가 타임라인에 기초하여 햅틱 효과들을 인지하도록 (예컨대, 타임라인에서 사용자 모션들 또는 환경 조건들의 순서에 기초하여 각각의 검출된 모션 또는 환경 조건과 연관된 햅틱 효과를 인지하도록), (예컨대, 단계 (214) 에서) 햅틱 효과들을 사용자에게 출력할 수 있다.
일부 실시형태들에서, 단계 (206) 에서, 프로세서 (102) 는 사용자의 신체 부분의 시뮬레이트된 모션과 연관된 햅틱 효과를 결정할 수 있다. 예를 들어, 사용자 (119) 는 신체 부분을 이동시키지 않을 수도 있으며, 프로세서 (102) 는 사용자의 신체 부분의 시뮬레이트된 모션 또는 사용자의 신체 부분의 시뮬레이트된 모션의 특성을 표시하는 데이터를 수신하거나 또는 결정할 수도 있다. 예를 들어, 프로세서 (102) 는 사용자 (119) 가 상하로 점프하는 것과 연관된 시뮬레이트된 힘, 속도, 또는 가속도 파라미터들 (예컨대, 다른 사람이 상하로 점프하는 것과 연관된 이전에 측정된 파라미터들에 기초한 시뮬레이트된 파라미터들) 을 표시하는 데이터를 수신할 (예컨대, 획득할) 수 있다. 이 예에서, 파라미터들은 사람이 상하로 점프하는 것 또는 사람이 상하로 점프하는 것의 시뮬레이션으로부터 획득된 이력 데이터에 기초할 수 있다. 이 예에서, 프로세서 (102) 는 사용자의 신체 부분의 시뮬레이트된 모션과 연관된 하나 이상의 햅틱 효과들을 위에서 설명한 바와 실질적으로 동일한 방법으로 결정할 수 있다. 예를 들어, 프로세서 (102) 는 사용자의 신체 부분의 시뮬레이트된 모션을 표시하는 데이터를 수신하고, 사용자의 신체 부분의 하나 이상의 시뮬레이트된 모션들과 연관된 하나 이상의 햅틱 효과들을 표시하는 데이터와 함께, 사용자의 신체 부분의 다양한 시뮬레이트된 모션들에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스할 수도 있다. 프로세서 (102) 는 룩업 테이블 또는 데이터베이스로부터 사용자의 신체 부분의 시뮬레이트된 모션에 대응하는 햅틱 효과를 선택할 수 있다. 예를 들어, 프로세서 (102) 는 사람이 빠르게 달리는 것과 연관된 시뮬레이트된 힘, 가속도, 또는 속도 파라미터들을 표시하는 데이터를 수신할 수 있으며, 프로세서 (102) 는 사용자 (예컨대, 사용자 (121)) 에게 출력될 수 있는 일련의 진동들을 포함하는 햅틱 효과를 선택할 수 있다.
다른 예에서, 단계 (206) 에서, 프로세서 (102) 는 사용자 (119) 가 상호작용하고 있는 시뮬레이트된 환경과 연관된 햅틱 효과를 결정할 수 있다. 예를 들어, 사용자 (119) 는 시뮬레이트된 환경 (예컨대, 가상 또는 증강 현실 환경) 과 상호작용할 수도 있으며, 시뮬레이트된 환경의 조건들은 사용자의 물리적인 환경 (예컨대, 사용자 (119) 가 위치되는 방) 의 조건들과는 상이할 수도 있다. 이 예에서, 프로세서 (102) 는 시뮬레이트된 환경의 파라미터들 (예컨대, 특성들) 또는 조건들을 표시하는 데이터를 수신할 수 있으며, 프로세서 (102) 는 시뮬레이트된 환경의 파라미터들 또는 조건들과 연관된 하나 이상의 햅틱 효과들을 결정할 수 있다. 예를 들어, 프로세서 (102) 는 사용자 (119) 가 상호작용하고 있는 증강 또는 가상 현실 환경의 환경 조건들을 표시하는 데이터를 수신할 수도 있다. 프로세서 (102) 는 하나 이상의 시뮬레이트된 환경 조건들과 연관된 하나 이상의 햅틱 효과들을 표시하는 데이터와 함께, 시뮬레이트된 환경 조건들에 대응하는 데이터를 포함하는 하나 이상의 룩업 테이블들 또는 데이터베이스들에 액세스할 수 있다. 프로세서 (102) 는 룩업 테이블 또는 데이터베이스로부터 증강 또는 가상 현실 환경의 환경 조건들에 대응하는 햅틱 효과를 선택할 수 있다. 예를 들어, 프로세서 (102) 는 사용자 (119) 가 시뮬레이트된 또는 가상 비를 포함하는 가상 현실 환경과 상호작용하고 있다고 표시하는 데이터를 수신할 수 있으며, 프로세서 (102) 는 사용자 (예컨대, 사용자 (121)) 에게 출력될 수 있는 일련의 진동들을 포함하는 햅틱 효과를 선택할 수 있다.
일부 실시형태들에서, 단계 (206) 에서, 프로세서 (102) 는 사용자 (119) 의 신체 부분의 모션에 기초하여 제 1 햅틱 효과를, 그리고 사용자 (119) 의 환경에 기초하여 제 2 햅틱 효과를 결정할 수 있다. 또한 다른 예에서, 프로세서 (102) 는 사용자의 신체 부분의 모션 및 사용자의 환경에 기초하여 단일 햅틱 효과를 결정할 수 있다.
일부 실시형태들에서, 단계 (206) 에서, 프로세서 (102) 는 결정된 햅틱 효과를 발생시키거나 또는 출력하기 위해, 액추에이트할 하나 이상의 햅틱 출력 디바이스들 (126) 을 결정할 수도 있다. 예를 들어, 센서 (118) 로부터 수신된 신호는 (예컨대, 단계 (202) 에서) 이동되는 사용자 (119) 의 신체 부분을 표시할 수도 있으며, 프로세서 (102) 는 각각의 햅틱 효과 및 각각의 햅틱 출력 디바이스 (126) 의 로케이션을 출력하기 위한 다양한 햅틱 출력 디바이스들 (126) 에 대응하는 데이터와 함께, 다양한 햅틱 효과들에 대응하는 데이터를 포함하는 룩업 테이블에 액세스할 수 있다. 프로세서 (102) 는 이동되는 사용자 (119) 의 신체 부분에 기초하여 햅틱 효과를 출력하기 위해 룩업 테이블 또는 데이터베이스로부터 햅틱 효과 또는 햅틱 출력 디바이스 (126) 를 선택할 수 있다. 예를 들어, 센서 (118) 는 사용자 (119) 가 박수치는 것을 검출 또는 감지하고 그 신호들을 프로세서 (102) 로 송신할 수 있으며, 이는 룩업 테이블에 액세스하고 사용자 (119) 가 박수치는 것과 연관된 햅틱 효과를 결정할 수 있다. 이 예에서, 프로세서 (102) 는 햅틱 효과를 사용자의 손들 (예컨대, 사용자 (119) 또는 사용자 (121) 의 손들) 로 출력하기 위해 룩업 테이블로부터 햅틱 출력 디바이스 (126) 를 선택할 수 있다.
방법은 프로세서 (102) 가 사용자 (119) 의 신체 부분의 모션 또는 사용자 (119) 의 환경에 적어도 부분적으로 기초하여 햅틱 효과의 특성 (예컨대, 크기, 지속기간, 로케이션, 유형, 빈도, 등) 을 결정할 때 단계 (208) 에서 속행한다. 일부 예들에서, 햅틱 효과 결정 모듈 (122) 은 프로세서 (102) 로 하여금 햅틱 효과의 특성을 결정하게 한다. 일 예로서, 프로세서 (102) 는 (예컨대, 단계 (204) 에서) 센서 (118) 로부터 수신된 센서 신호에 기초하여 사용자 (119) 가 느린 페이스로 달리고 있다고 결정할 수 있다. 이 결정에 기초하여, 프로세서 (102) 는 약한 또는 짧은 햅틱 효과 (예컨대, 진동) 를 결정할 수 있다. 다른 예로서, 프로세서 (102) 는 사용자 (119) 가 심한 강우를 가진 환경에 있다고 결정할 수 있으며, 프로세서 (102) 는 이 결정에 기초하여 강한 또는 긴 햅틱 효과를 결정할 수 있다.
일부 실시형태들에서, 단계 (208) 에서, 프로세서 (102) 는 위에서 설명한 바와 실질적으로 동일한 방법으로 사용자의 신체 부분의 시뮬레이트된 모션 또는 사용자의 시뮬레이트된 환경에 적어도 부분적으로 기초하여 햅틱 효과의 특성을 결정할 수 있다.
방법 (200) 은 프로세서 (102) 가 결정된 햅틱 효과를 표시하는 데이터를 저장할 때 단계 (210) 에서 속행한다. 일부 실시형태들에서, 프로세서 (102) 는 결정된 햅틱 효과를 표시하는 데이터를 햅틱 효과와 연관된 사용자의 모션 또는 환경에 관한 데이터와 함께, 스토리지 또는 데이터베이스 (예컨대, 스토리지 (112) 또는 스토리지 (138)) 에, 저장할 수 있다.
방법 (200) 은 프로세서 (102) 가 햅틱 효과와 연관된 햅틱 신호를 햅틱 출력 디바이스 (126) 로 송신할 때 단계 (212) 를 속행한다. 일부 실시형태들에서, 햅틱 효과 발생 모듈 (124) 은 프로세서 (102) 로 하여금, 햅틱 신호를 발생시켜, 햅틱 출력 디바이스 (126) 로 송신하게 한다.
방법 (200) 은 햅틱 출력 디바이스 (126) 가 햅틱 효과를 출력할 때 단계 (214) 를 속행한다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 햅틱 신호를 프로세서 (102) 로부터 수신하고, 햅틱 신호에 기초하여 햅틱 출력 효과를 사용자 디바이스 (120) 와 연관된 사용자에게 출력한다. 예를 들어, 햅틱 출력 디바이스 (126) 는 햅틱 효과를 사용자 디바이스 (120) 와 연관된 사용자 (121) (예컨대, 사용자 디바이스 (120) 를 소지하거나, 착용하거나, 이용하거나, 또는 아니면 이와 연관된 사용자) 에게 출력할 수 있다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 햅틱 출력 디바이스 (126) 가 햅틱 효과를 실질적으로 실시간으로 출력할 수 있도록, (예컨대, 센서 (118) 가 단계 (202) 에서 사용자 (119) 의 신체 부분의 모션 또는 사용자 (119) 의 환경에 관한 정보를 캡쳐함에 따라) 햅틱 신호를 실질적으로 실시간으로 수신할 수 있다. 다른 실시형태에서, 결정된 햅틱 효과들은 (예컨대, 단계 (210) 에서) 저장되고 이후 햅틱 출력 디바이스 (126) 를 통해서 출력될 수 있다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 햅틱 신호를 수신하고, 사용자 (121) 가 사용자 (119) 의 신체 부분의 모션 또는 사용자 (119) 의 환경을 인지하거나 또는 봄에 따라, 햅틱 효과를 사용자 (121) 에게 출력할 수 있다.
예시적인 예로서, 제 1 사용자 (119) 가 우림을 통과하여 달리고 있고, 제 1 사용자의 모션, 활동에 관한 정보, 또는 제 1 사용자 (119) 를 둘러싸는 환경에 관한 임의의 정보를 감지하거나 또는 검출하는 센서 (118) 를 착용하고 있다. 센서 (118) 는 제 1 사용자의 모션, 활동, 또는 환경에 관한 다양한 센서 신호들을 센서 (118) 로부터의 센서 신호들에 기초하여 하나 이상의 햅틱 효과들을 결정하는 프로세서 (102) 로 송신할 수 있다. 이 예에서, 프로세서 (102) 는 햅틱 신호들을 제 1 사용자 (119) 로부터 원격인, 제 2 사용자 (121) 와 연관된 햅틱 출력 디바이스 (126) 로 (예컨대, 햅틱 출력 디바이스 (126) 를 포함하는, 제 2 사용자 (121) 에 의해 착용되거나 또는 소지되는 사용자 디바이스 (120) 로) 송신할 수 있다. 이 예시적인 예에서, 제 2 사용자 (121) 는 제 1 사용자 (119) 가 우림을 통과하여 달림에 따라 디스플레이 디바이스 (140) 를 통해서 (예컨대, 실시간으로 또는 추후에) 제 1 사용자 (119) 를 포함하는 콘텐츠를 시청하고 있을 수 있으며, 햅틱 출력 디바이스 (126) 는 제 2 사용자 (121) 가 제 1 사용자의 모션 (119) 또는 제 1 사용자 (119) 의 환경을 봄에 따라 하나 이상의 햅틱 효과들을 출력할 수 있으며, 이는 제 1 사용자 (119) 가 우림을 통과하여 달림에 따라 제 2 사용자 (121) 로 하여금 제 1 사용자의 모션, 활동, 또는 주위 환경을 인지하거나 또는 경험하게 할 수 있다.
도 3 은 다른 실시형태에 따른, 사용자의 모션에 관한 정보를 캡쳐하고 사용자의 모션에 기초하여 햅틱 효과들을 제공하는 방법 (300) 을 수행하는 단계들의 플로우 차트이다. 일부 실시형태들에서, 도 3 에서의 단계들은 프로세서, 예를 들어, 범용 컴퓨터, 모바일 디바이스, 또는 서버에서의 프로세서에 의해 실행가능한 프로그램 코드로 구현될 수도 있다. 일부 실시형태들에서, 이들 단계들은 프로세서들의 그룹에 의해 구현될 수도 있다. 일부 실시형태들에서, 도 3 에 도시된 하나 이상의 단계들은 생략되거나 또는 상이한 순서로 수행될 수도 있다. 이와 유사하게, 일부 실시형태들에서, 도 3 에 미도시된 추가적인 단계들이 또한 수행될 수도 있다. 예시적인 목적들을 위해, 방법 (300) 의 단계들이 도 1 에 나타낸 시스템과 관련하여 위에서 설명된 컴포넌트들을 참조하여 아래에서 설명되며, 그러나, 다른 구현예들이 가능하다.
방법 (300) 은 햅틱 효과가 다른 사용자의 모션 또는 다른 사용자의 환경에 관한 정보에 기초하여 사용자 (121) 에게 출력될 때 단계 (302) 에서 시작한다. 예를 들어, 햅틱 출력 디바이스 (126) 는 햅틱 효과와 연관된 햅틱 신호를 (예컨대, 프로세서 (102) 로부터) 수신할 수 있다. 햅틱 효과는 하나 이상의 사용자들의 모션 또는 하나 이상의 사용자들의 환경에 기초하여 결정될 수 있다. 예를 들어, 햅틱 효과는 사용자 (119) 의 모션 또는 사용자 (119) 의 환경에 기초하여 결정될 수 있다. 일 예로서, 프로세서 (102) 는 (예컨대, 도 2 의 단계 (206) 에서) 사용자 (119) 의 신체 부분의 모션 또는 사용자 (119) 의 환경에 관한 정보를 표시하는 센서 신호들에 기초하여 햅틱 효과를 결정할 수 있다. 다른 예로서, 프로세서 (128) 는 사용자 (121) 의 신체 부분의 모션을 표시하는 센서 신호들에 기초하여 위에서 설명한 바와 실질적으로 동일한 방법으로 햅틱 효과를 결정할 수 있다. 햅틱 출력 디바이스 (126) 는 결정된 햅틱 효과와 연관된 햅틱 신호를 수신하고, 햅틱 신호를 수신하는 것에 응답하여 햅틱 효과를 사용자 (121) 에게 출력할 수 있다. 일부 예들에서, 햅틱 출력 디바이스 (126) 는 사용자 (121) 가 다른 사용자를 포함하는 콘텐츠를 보거나 또는 경험함에 따라, 결정된 햅틱 효과와 연관된 햅틱 신호를 수신할 수 있다. 예를 들어, 햅틱 출력 디바이스 (126) 는 사용자 (121) 가 사용자 (119) 의 모션을 시청함에 따라, 사용자 (119) 의 모션에 기초하여, 결정된 햅틱 효과 또는 햅틱 트랙과 연관된 햅틱 신호를 수신할 수 있다.
방법 (300) 은 사용자 (121) 의 신체 부분의 모션에 관한 정보가 캡쳐될 때 단계 (304) 에서 속행한다. 예를 들어, 사용자 디바이스 (120) 는 센서 (146) 를 포함하는 컴퓨팅 디바이스 (예컨대, 스마트시계) 일 수 있다. 센서 (146) 는 사용자 (121) 의 신체 부분의 모션에 관한 정보를 캡쳐할 수 있는 임의의 센서일 수 있다. 일부 예들에서, 센서 (146) 는 사용자의 모션의 경로, 속도, 가속도, 또는 힘, 이동되는 사용자 (121) 의 신체 부분, 및/또는 사용자의 모션의 임의의 다른 특성을 포함하지만 이에 한정되지 않는, 사용자의 모션에 관한 정보를 캡쳐할 수 있다.
방법 (300) 은 햅틱 효과의 특성 (예컨대, 크기, 지속기간, 로케이션, 유형, 빈도, 등) 이 사용자의 신체 부분의 모션 (예컨대, 단계 (304) 에서 캡쳐된 모션) 에 기초하여 수정될 때 단계 (306) 에서 속행한다. 예를 들어, 사용자 (121) 에 의한 모션 또는 제스쳐는 햅틱 효과의 특성들을 결정하거나 또는 수정하기 위해 사용될 수 있다. 일 예로서, 햅틱 출력 디바이스 (126) 는 사용자 (119) 가 상하로 점프하는 것에 기초하여 햅틱 신호를 프로세서 (102) 로부터 수신하고, 햅틱 출력 디바이스 (126) 는 햅틱 신호를 수신하는 것에 기초하여 일련의 강한 진동들을 사용자 (121) 에게 출력한다. 이 예에서, 센서 (146) 는 사용자 (121) 가 햅틱 효과를 인지함에 따라 사용자 (121) 의 모션을 검출하거나 또는 감지할 수 있으며, 검출된 모션은 햅틱 효과의 특성을 결정하거나 또는 수정하기 위해 사용될 수 있다. 예를 들어, 프로세서 (128) 는 센서 신호들을 센서 (146) 로부터 수신하고, 사용자 (121) 가 햅틱 효과를 인지함에 따라, 사용자 (121) 가 손을 내리고 있다고 결정하는 것에 응답하여, 진동들의 크기를 감소시킬 수 있다.
일부 실시형태들에서, 단계 (306) 에서, 사용자 (121) 는 임의의 사용자 입력을 제공하여, 햅틱 효과의 특성을 수정할 수 있다. 예를 들어, 사용자 (121) 는 (예컨대, 사용자 (121) 의 신체 부분의 모션 또는 다른 사용자 입력을 통해서) 사용자 입력을 제공하여, 햅틱 효과의 로케이션을 수정할 수 있다. 일 예로서, 햅틱 효과는 사용자 (119) 의 신체 부분의 캡쳐된 모션에 기초할 수 있으며, 햅틱 출력 디바이스 (126) 는 햅틱 효과가 사용자 (121) 의 대응하는 신체 부분로 출력될 것임을 표시하는 햅틱 신호를 수신할 수 있다. 이 예에서, 사용자 (121) 는 사용자 입력을 제공하여, 햅틱 효과의 로케이션을 수정할 수 있다. 예를 들어, 햅틱 효과는 사용자 (119) 가 박수치고 있다고 표시하는 센서 신호들에 기초하여 결정될 수 있으며, 햅틱 출력 디바이스 (126) 는 햅틱 효과가 사용자 (121) 의 대응하는 신체 부분에서 출력될 (예컨대, 사용자 (121) 의 손들로 출력될) 것임을 표시하는 햅틱 신호를 수신할 수 있다. 이 예에서, 사용자 (121) 는 예를 들어, 다리를 들어올림으로써, 햅틱 효과의 로케이션을 수정하기 위해 사용자 입력을 제공할 수 있으며, 프로세서 (128) 는 센서 신호들을 센서 (146) 로부터 수신하고, 햅틱 효과가 사용자 (121) 의 다리로 출력되도록, 햅틱 효과의 로케이션을 수정할 수 있다.
방법 (300) 은 프로세서 (128) 가 수정된 햅틱 효과와 연관된 햅틱 신호를 햅틱 출력 디바이스 (126) 로 송신할 때 단계 (308) 에서 속행한다. 일부 실시형태들에서, 햅틱 효과 발생 모듈 (154) 은 프로세서 (128) 로 하여금, 햅틱 신호를 발생시켜, 햅틱 출력 디바이스 (126) 로 송신하게 한다.
방법 (300) 은 햅틱 출력 디바이스 (126) 가 수정된 햅틱 효과를 출력할 때 단계 (310) 에서 속행한다. 일부 실시형태들에서, 햅틱 출력 디바이스 (126) 는 햅틱 신호를 프로세서 (128) 로부터 수신하고 수정된 햅틱 출력 효과를 사용자 (121) 에게 출력한다. 일 예로서, 프로세서 (128) 는 (예컨대, 단계 (306) 에서) 햅틱 효과의 특성을 수정하고 수정된 햅틱 효과와 연관된 햅틱 신호를 햅틱 출력 디바이스 (126) 로 송신할 수 있으며, 햅틱 출력 디바이스 (126) 는 수정된 햅틱 효과를 출력할 수 있다.
이와 같이, 본원에서 설명되는 시스템들 및 방법들은 사용자의 모션들에 관한 정보를 캡쳐하고 그 모션에 기초하여 햅틱 효과를 발생시키거나 또는 수정할 수 있다.
일반적인 고려사항들
위에서 설명한 방법들, 시스템들, 및 디바이스들은 예들이다. 다양한 구성들은 적합한 경우, 다양한 프로시저들 또는 컴포넌트들을 생략하거나, 대체하거나, 또는 추가할 수도 있다. 예를 들어, 대안적인 구성들에서, 본 방법들은 설명된 순서와는 상이한 순서로 수행될 수도 있거나, 및/또는 다양한 스테이지들이 추가되거나, 생략되거나, 및/또는 결합될 수도 있다. 또한, 특정의 구성들에 대해 설명한 특성들은 다양한 다른 구성들로 결합될 수도 있다. 이 구성들의 상이한 양태들 및 엘리먼트들은 유사한 방법으로 결합될 수도 있다. 또한, 기술은 진화하고, 따라서, 엘리먼트들 중 다수의 엘리먼트들은 예들이며, 본 개시물의 범위 또는 청구범위를 한정하지 않는다.
(구현예들을 포함하는) 예시적인 구성들의 완전한 이해를 제공하기 위해 상세한 설명에서 구체적인 세부내용들이 제공된다. 그러나, 구성들은 이들 구체적인 세부 사항들 없이도 실시될 수도 있다. 예를 들어, 널리 공지된 회로들, 프로세스들, 알고리즘들, 구조들, 및 기법들은 구성들을 흐리는 것을 피하기 위해서 불필요한 세부사항 없이 도시되었다. 본 설명은 단지 예시적인 구성들을 제공하며, 청구범위의 범위, 적용가능성, 또는 구성들을 한정하지 않는다. 대신, 구성들의 전술한 설명은 당업자들에게, 설명된 기법들을 구현하기 위한 합법적인 (enabling) 설명을 제공할 것이다. 엘리먼트들의 기능 및 배열에서, 본 개시물의 사상 또는 범위로부터 일탈함이 없이, 다양한 변경들이 이루어질 수도 있다.
또한, 구성들은 흐름도 또는 블록도로서 도시된 프로세스로서 설명될 수도 있다. 각각은 동작들을 순차적인 프로세스로서 설명할 수도 있지만, 동작들 중 많은 것들이 병렬로 또는 병행으로 수행될 수 있다. 게다가, 동작들의 순서는 재배열될 수도 있다. 프로세스는 도면에 포함되지 않은 추가적인 단계들을 가질 수도 있다. 더욱이, 방법들의 예들은 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 기술 언어들, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현되는 경우, 필요한 태스크들을 수행하는 펌웨어, 미들웨어, 또는 마이크로코드, 프로그램 코드 또는 코드 세그먼트들은 저장 매체와 같은 비일시성 컴퓨터-판독가능 매체에 저장될 수도 있다. 프로세서들은 설명된 태스크들을 수행할 수도 있다.
다양한 예시적인 구성들, 다양한 변경들, 대안적인 구성들을 설명하였지만, 균등물들이 본 개시물의 사상으로부터 일탈함이 없이 사용될 수도 있다. 예를 들어, 상기 엘리먼트들은 더 큰 시스템의 컴포넌트들일 수도 있으며, 다른 규칙들이 본 발명의 적용보다 우선하거나 또는 아니면 본 발명의 적용을 수정할 수도 있다. 또한, 상기 엘리먼트들이 고려되기 이전, 동안, 또는 이후에, 다수의 단계들이 수행될 수도 있다. 따라서, 상기 설명은 청구범위의 범위를 한정하지 않는다.
본원에서 "하도록 적응된" 또는 "하도록 구성된" 의 사용은 추가적인 태스크들 또는 단계들을 수행하도록 적응되거나 또는 구성된 디바이스들을 배제하지 않는 개방적이고 포괄적인 언어로서 의미된다. 추가적으로, "기초하여" 의 사용은 하나 이상의 인용된 조건들 또는 값들에 "기초하는" 프로세스, 단계, 계산, 또는 다른 액션이 실제로, 인용된 것들을 넘어서는 추가적인 조건들 또는 값들에 기초할 수도 있다는 점에서 개방적이고 포괄적인 것으로 의미된다. 본원에 포함되는 제목들, 리스트들, 및 넘버링은 단지 설명의 용이성을 위한 것이며 한정하는 것으로 의도되지 않는다.
본 기술요지의 양태들에 따른 실시형태들은 디지털 전자 회로부로, 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 선행하는 것들의 조합들로 구현될 수 있다. 일 실시형태에서, 컴퓨터는 프로세서 또는 프로세서들을 포함할 수도 있다. 프로세서는 프로세서에 커플링된 랜덤 액세스 메모리 (RAM) 와 같은, 컴퓨터-판독가능 매체를 포함하거나 또는 이에 액세스한다. 프로세서는 위에서 설명된 방법들을 수행하는 센서 샘플링 루틴, 선택 루틴들, 및 다른 루틴들을 포함하는 하나 이상의 컴퓨터 프로그램들을 실행하는 것과 같이, 메모리에 저장된 컴퓨터-실행가능한 프로그램 명령들을 실행한다.
이러한 프로세서들은 마이크로프로세서, 디지털 신호 프로세서 (DSP), 주문형 집적 회로 (ASIC), 필드 프로그래밍가능 게이트 어레이들 (FPGAs), 및 상태 머신들을 포함할 수도 있다. 이러한 프로세서들은 프로그래밍가능 전자 디바이스들 예컨대 PLC들, 프로그래밍가능 인터럽트 제어기들 (PICs), 프로그래밍가능 로직 디바이스들 (PLDs), 프로그래밍가능 판독 전용 메모리들 (PROMs), 전자적으로 프로그래밍가능 판독 전용 메모리들 (EPROMs 또는 EEPROMs), 또는 다른 유사한 디바이스들을 더 포함할 수도 있다.
이러한 프로세서들은 프로세서에 의해 실행될 때, 프로세서로 하여금, 프로세서에 의해 실행되거나 또는 지원되는 본원에서 설명하는 단계들을 수행하게 할 수 있는 명령들을 저장할 수도 있는, 매체들, 예를 들어, 유형의 컴퓨터-판독가능 매체들을 포함하거나, 또는 이와 통신할 수도 있다. 컴퓨터-판독가능 매체들의 실시형태들은 웹 서버 내 프로세서와 같은 프로세서에 컴퓨터-판독가능 명령들을 제공가능한, 모든 전자, 광학, 자기, 또는 다른 저장 디바이스들을 포함할 수도 있지만, 이에 한정되지 않는다. 매체들의 다른 예들은 플로피 디스크, CD-ROM, 자기 디스크, 메모리 칩, ROM, RAM, ASIC, 구성된 프로세서, 모든 광학 매체들, 모든 자기 테이프 또는 다른 자기 매체들, 또는 컴퓨터 프로세서가 판독될 수 있는 임의의 다른 매체를 포함하지만, 이에 한정되지 않는다. 또한, 다양한 다른 디바이스들은 라우터, 개인 또는 공중 네트워크, 또는 다른 송신 장치와 같은, 컴퓨터-판독가능 매체들을 포함할 수도 있다. 설명된 프로세서, 및 프로세싱은 하나 이상의 구조들에 있을 수도 있으며, 하나 이상의 구조들을 걸쳐서 분산될 수도 있다. 프로세서는 본원에서 설명되는 방법들 (또는, 방법들의 부분들) 중 하나 이상을 실행하는 코드를 포함할 수도 있다.
본 기술요지는 이의 특정의 실시형태들과 관련하여 자세하게 설명되었지만, 당업자들은, 전술한 내용을 이해하면, 이러한 실시형태들에 대한 변경들, 변형들, 및 균등물을 용이하게 생성할 수 있음을 명백히 알 수 있을 것이다. 따라서, 본 개시물은 한정이 아니라 예의 목적을 위해 제시되었으며 당업자에게 용이하게 자명한 바와 같이, 본 기술요지에 대한 이러한 수정들, 변형들 및/또는 추가들의 포함을 배제하지 않는 것으로 이해되어야 한다.

Claims (20)

  1. 제 1 사용자의 모션을 캡쳐하도록 구성된 제 1 센서;
    상기 제 1 센서에 통신가능하게 커플링된 프로세서; 및
    햅틱 출력 디바이스를 포함하고,
    상기 프로세서는,
    상기 제 1 센서로부터, 콘텐츠와 연관된 시간에서 상기 제 1 사용자의 상기 모션을 표시하는 제 1 센서 신호를 수신하고;
    상기 제 1 사용자의 상기 모션과 연관된 제 1 햅틱 효과를 결정하고; 그리고
    상기 콘텐츠의 출력 동안 상기 콘텐츠와 연관된 상기 시간에 출력될 상기 제 1 햅틱 효과와 연관된 제 1 햅틱 신호를 송신하도록 구성되며,
    상기 햅틱 출력 디바이스는,
    상기 제 1 햅틱 신호를 수신하고 상기 제 1 햅틱 효과를 출력하도록 구성되는, 시스템.
  2. 제 1 항에 있어서,
    제 2 사용자의 모션을 표시하는 정보를 캡쳐하도록 구성된 제 2 센서를 더 포함하며, 상기 프로세서는 상기 제 2 센서에 통신가능하게 커플링되고,
    상기 프로세서는,
    상기 제 2 센서로부터, 상기 제 2 사용자의 상기 모션을 표시하는 제 2 센서 신호를 수신하고; 그리고
    상기 제 2 사용자의 상기 모션에 기초하여 상기 제 1 햅틱 효과의 특성을 결정하도록 추가로 구성되는, 시스템.
  3. 제 1 항에 있어서,
    제 2 사용자의 모션을 표시하는 정보를 캡쳐하도록 구성된 제 2 센서를 더 포함하며, 상기 프로세서는 상기 제 2 센서에 통신가능하게 커플링되고,
    상기 프로세서는,
    상기 제 2 센서로부터, 상기 제 2 사용자의 상기 모션을 표시하는 제 2 센서 신호를 수신하고;
    상기 제 2 사용자의 상기 모션을 상기 제 1 사용자의 상기 모션과 비교하고; 그리고
    상기 제 2 사용자의 상기 모션이 상기 제 1 사용자의 상기 모션과 대응한다고 결정하는 것에 응답하여 상기 제 1 햅틱 효과와 연관된 상기 제 1 햅틱 신호를 송신하도록 추가로 구성되는, 시스템.
  4. 제 1 항에 있어서,
    상기 제 1 센서는 상기 제 1 사용자의 환경의 파라미터를 표시하는 정보를 캡쳐하도록 추가로 구성되며,
    상기 프로세서는,
    상기 제 1 센서로부터, 상기 제 1 사용자의 환경의 상기 파라미터를 표시하는 제 2 센서 신호를 수신하고;
    상기 제 1 사용자의 환경의 상기 파라미터와 연관된 제 2 햅틱 효과를 결정하고; 그리고
    상기 제 2 햅틱 효과와 연관된 제 2 햅틱 신호를 송신하도록 추가로 구성되며,
    상기 햅틱 출력 디바이스는 상기 제 2 햅틱 신호를 수신하고 상기 제 1 사용자의 환경의 상기 파라미터에 기초하여 상기 제 2 햅틱 효과를 출력하도록 구성되는, 시스템.
  5. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 1 사용자의 시뮬레이트된 모션을 표시하는 데이터를 수신하고; 그리고
    상기 제 1 사용자의 상기 시뮬레이트된 모션에 기초하여 상기 제 1 햅틱 효과를 결정하도록 추가로 구성되는, 시스템.
  6. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 1 사용자가 상호작용하고 있는 시뮬레이트된 환경의 파라미터를 표시하는 데이터를 수신하고; 그리고
    상기 시뮬레이트된 환경의 상기 파라미터에 기초하여 상기 제 1 햅틱 효과를 결정하도록 추가로 구성되는, 시스템.
  7. 제 1 항에 있어서,
    상기 콘텐츠는 비디오 콘텐츠, 가상 현실 콘텐츠, 또는 증강 현실 콘텐츠 중 하나를 포함하는, 시스템.
  8. 제 1 센서에 의해, 콘텐츠와 연관된 시간에서 제 1 사용자의 제 1 모션 및 상기 제 1 사용자의 제 2 모션을 표시하는 정보를 캡쳐하는 단계;
    프로세서에 의해, 상기 제 1 사용자의 상기 제 1 모션을 표시하는 제 1 신호를 수신하는 단계;
    상기 프로세서에 의해, 상기 제 1 신호에 기초하여 상기 제 1 사용자의 상기 제 1 모션과 연관된 제 1 햅틱 효과를 결정하는 단계;
    상기 프로세서에 의해, 상기 제 1 사용자의 상기 제 2 모션에 기초하여 상기 제 1 햅틱 효과의 특성을 결정하는 단계; 및
    상기 프로세서에 의해, 상기 콘텐츠의 출력 동안 상기 콘텐츠와 연관된 상기 시간에 출력될 상기 제 1 햅틱 효과와 연관된 햅틱 신호를 햅틱 출력 디바이스로 송신하는 단계를 포함하는, 방법.
  9. 제 8 항에 있어서,
    상기 햅틱 출력 디바이스에 의해, 상기 콘텐츠의 출력 동안 상기 콘텐츠와 연관된 상기 시간에서 상기 제 1 햅틱 효과를 출력하는 단계를 더 포함하는, 방법.
  10. 제 8 항에 있어서,
    상기 콘텐츠는 비디오 콘텐츠, 가상 현실 콘텐츠, 또는 증강 현실 콘텐츠 중 하나를 포함하는, 방법.
  11. 제 8 항에 있어서,
    제 2 센서에 의해, 제 2 사용자의 모션을 표시하는 정보를 캡쳐하는 단계;
    상기 프로세서에 의해, 상기 제 2 사용자의 상기 모션을 표시하는 제 2 센서 신호를 상기 제 2 센서로부터 수신하는 단계;
    상기 프로세서에 의해, 상기 제 2 사용자의 상기 모션을 상기 제 1 사용자의 상기 모션과 비교하는 단계; 및
    상기 프로세서에 의해, 상기 제 2 사용자의 상기 모션이 상기 제 1 사용자의 상기 모션과 대응한다고 결정하는 것에 응답하여, 상기 제 1 햅틱 효과와 연관된 상기 햅틱 신호를 송신하는 단계를 더 포함하는, 방법.
  12. 제 8 항에 있어서,
    상기 제 1 센서에 의해, 상기 제 1 사용자의 환경의 파라미터를 표시하는 정보를 캡쳐하는 단계;
    상기 프로세서에 의해, 상기 제 1 사용자의 환경의 상기 파라미터와 연관된 제 2 햅틱 효과를 결정하는 단계;
    상기 프로세서에 의해, 상기 제 2 햅틱 효과와 연관된 햅틱 신호를 송신하는 단계;
    상기 햅틱 출력 디바이스에 의해, 상기 제 2 햅틱 효과와 연관된 상기 햅틱 신호를 수신하는 단계; 및
    상기 햅틱 출력 디바이스에 의해, 상기 제 1 사용자의 환경의 상기 파라미터에 기초하여 상기 제 2 햅틱 효과를 출력하는 단계를 더 포함하는, 방법.
  13. 제 8 항에 있어서,
    상기 프로세서에 의해, 상기 제 1 사용자의 시뮬레이트된 모션을 표시하는 데이터를 수신하는 단계; 및
    상기 프로세서에 의해, 상기 제 1 사용자의 상기 시뮬레이트된 모션에 기초하여 상기 제 1 햅틱 효과를 결정하는 단계를 더 포함하는, 방법.
  14. 제 8 항에 있어서,
    상기 프로세서에 의해, 상기 제 1 사용자가 상호작용하고 있는 시뮬레이트된 환경의 파라미터를 표시하는 데이터를 수신하는 단계; 및
    상기 프로세서에 의해, 상기 시뮬레이트된 환경의 상기 파라미터에 기초하여 상기 제 1 햅틱 효과를 결정하는 단계를 더 포함하는, 방법.
  15. 제 1 사용자의 신체 부분의 모션을 표시하는 정보를 캡쳐하도록 구성된 제 1 센서;
    제 2 사용자의 신체 부분의 모션을 표시하는 정보를 캡쳐하도록 구성된 제 2 센서;
    상기 제 1 센서 및 상기 제 2 센서에 통신가능하게 커플링된 프로세서; 및
    햅틱 출력 디바이스를 포함하고,
    상기 프로세서는,
    상기 제 1 센서로부터, 상기 제 1 사용자의 신체 부분의 상기 모션을 표시하는 제 1 센서 신호를 수신하고;
    상기 제 1 사용자의 신체 부분의 상기 모션과 연관된 제 1 햅틱 효과를 결정하고;
    상기 제 2 센서로부터, 상기 제 2 사용자의 신체 부분의 상기 모션을 표시하는 제 2 센서 신호를 수신하고;
    상기 제 2 사용자의 신체 부분의 상기 모션에 기초하여 상기 제 1 햅틱 효과의 특성을 결정하고; 그리고
    상기 제 1 햅틱 효과와 연관된 햅틱 신호를 송신하도록 구성되며,
    상기 햅틱 출력 디바이스는 상기 햅틱 신호를 수신하고 상기 제 1 햅틱 효과를 출력하도록 구성되는, 시스템.
  16. 제 15 항에 있어서,
    상기 햅틱 출력 디바이스는 상기 제 2 사용자와 연관되며, 상기 제 1 사용자의 신체 부분의 상기 모션에 기초하여 상기 제 1 햅틱 효과를 상기 제 2 사용자에게 출력하도록 추가로 구성되는, 시스템.
  17. 제 15 항에 있어서,
    상기 프로세서는,
    상기 제 2 사용자의 신체 부분의 상기 모션을 상기 제 1 사용자의 신체 부분의 상기 모션과 비교하고; 그리고
    상기 제 2 사용자의 신체 부분의 상기 모션이 상기 제 1 사용자의 신체 부분의 상기 모션에 대응한다고 결정하는 것에 응답하여, 상기 제 1 햅틱 효과와 연관된 상기 햅틱 신호를 송신하도록 추가로 구성되는, 시스템.
  18. 제 15 항에 있어서,
    상기 제 1 센서는 상기 제 1 사용자의 환경의 파라미터를 표시하는 정보를 캡쳐하도록 추가로 구성되며,
    상기 프로세서는,
    상기 제 1 센서로부터, 상기 제 1 사용자의 환경의 상기 파라미터를 표시하는 제 3 센서 신호를 수신하고;
    상기 제 1 사용자의 환경의 상기 파라미터와 연관된 제 2 햅틱 효과를 결정하고; 그리고
    상기 제 2 햅틱 효과와 연관된 햅틱 신호를 송신하도록 추가로 구성되며,
    상기 햅틱 출력 디바이스는 상기 햅틱 신호를 수신하고 상기 제 1 사용자의 환경의 상기 파라미터에 기초하여 상기 제 2 햅틱 효과를 출력하도록 구성되는, 시스템.
  19. 제 18 항에 있어서,
    상기 프로세서는,
    상기 제 2 사용자의 신체 부분의 상기 모션에 기초하여 상기 제 2 햅틱 효과의 특성을 결정하도록 추가로 구성되는, 시스템.
  20. 제 18 항에 있어서,
    상기 프로세서는,
    상기 제 1 사용자가 상호작용하고 있는 상기 제 1 사용자의 신체 부분의 시뮬레이트된 모션 또는 시뮬레이트된 환경의 파라미터를 표시하는 데이터를 수신하고; 그리고
    상기 제 1 사용자의 신체 부분의 상기 시뮬레이트된 모션 또는 상기 시뮬레이트된 환경의 상기 파라미터에 기초하여 상기 제 1 햅틱 효과를 결정하도록 추가로 구성되는, 시스템.
KR1020190169064A 2018-12-18 2019-12-17 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들 KR20200075773A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/224,242 US20200192480A1 (en) 2018-12-18 2018-12-18 Systems and methods for providing haptic effects based on a user's motion or environment
US16/224,242 2018-12-18

Publications (1)

Publication Number Publication Date
KR20200075773A true KR20200075773A (ko) 2020-06-26

Family

ID=68965704

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190169064A KR20200075773A (ko) 2018-12-18 2019-12-17 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들

Country Status (3)

Country Link
US (1) US20200192480A1 (ko)
KR (1) KR20200075773A (ko)
CN (1) CN111338467A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11442549B1 (en) * 2019-02-07 2022-09-13 Apple Inc. Placement of 3D effects based on 2D paintings
US11282281B2 (en) * 2019-11-13 2022-03-22 At&T Intellectual Property I, L.P. Activation of extended reality actuators based on content analysis

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404367B1 (ko) * 2008-07-15 2014-06-20 임머숀 코퍼레이션 메시지 콘텐츠를 진동촉각 메시징을 위한 가상 물리적 속성들로 맵핑하기 위한 시스템 및 방법
US8009022B2 (en) * 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
KR101713358B1 (ko) * 2009-07-22 2017-03-07 임머숀 코퍼레이션 제어 제스처의 입력 동안에 가상 장비의 제어에 관한 복합 햅틱 자극을 제공하기 위한 시스템 및 방법
US9448713B2 (en) * 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
US8949745B2 (en) * 2011-10-21 2015-02-03 Konntech Inc. Device and method for selection of options by motion gestures
US20120223880A1 (en) * 2012-02-15 2012-09-06 Immersion Corporation Method and apparatus for producing a dynamic haptic effect
US8493354B1 (en) * 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8711118B2 (en) * 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US9274603B2 (en) * 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
WO2014209405A1 (en) * 2013-06-29 2014-12-31 Intel Corporation System and method for adaptive haptic effects
US20150084875A1 (en) * 2013-09-26 2015-03-26 Min Liu Enhanced haptic feedback for handheld mobile computing devices
KR101720655B1 (ko) * 2013-12-13 2017-04-11 한국전자통신연구원 사용자 동작 인식 기반의 햅틱 피드백 제공 장치 및 그 동작 방법
US20150177947A1 (en) * 2013-12-20 2015-06-25 Motorola Mobility Llc Enhanced User Interface Systems and Methods for Electronic Devices
US9501147B2 (en) * 2013-12-29 2016-11-22 Immersion Corporation Haptic device incorporating stretch characteristics
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US9635440B2 (en) * 2014-07-07 2017-04-25 Immersion Corporation Second screen haptics
US10146308B2 (en) * 2014-10-14 2018-12-04 Immersion Corporation Systems and methods for impedance coupling for haptic devices
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US9990078B2 (en) * 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US10380800B2 (en) * 2016-04-18 2019-08-13 Disney Enterprises, Inc. System and method for linking and interacting between augmented reality and virtual reality environments
US10709975B2 (en) * 2016-06-29 2020-07-14 Intel Corporation Systems and methods for manipulating a virtual object
US9983687B1 (en) * 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
WO2018152778A1 (en) * 2017-02-24 2018-08-30 Immersion Corporation Virtual affective touch
US11037369B2 (en) * 2017-05-01 2021-06-15 Zimmer Us, Inc. Virtual or augmented reality rehabilitation
US10572017B2 (en) * 2018-04-20 2020-02-25 Immersion Corporation Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments

Also Published As

Publication number Publication date
US20200192480A1 (en) 2020-06-18
CN111338467A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
US10564729B2 (en) Haptic feedback using a field of view
US10509474B2 (en) Systems and methods for shape input and output for a haptically-enabled deformable surface
US10606356B2 (en) Systems and methods for haptically-enabled curved devices
JP5898138B2 (ja) モバイルデバイス上での共有されたフィードバックのための双方向性モデル
JP2019050003A (ja) 触覚セルのアレイを用いた有形のユーザ・インターフェース・インタラクション及びジェスチャのシミュレーション
JP6325216B2 (ja) センサ入力を触覚的に表すためのシステム
KR20190122559A (ko) 증강 또는 가상 현실 환경들에 대한 동적 햅틱 재생을 제공하기 위한 시스템들 및 방법들
JP2019050558A (ja) 非オーディオデータを用いたヘッドホン上でのハプティックのレンダリング
KR20200075773A (ko) 사용자의 모션 또는 환경에 기초하여 햅틱 효과들을 제공하는 시스템들 및 방법들
US20190265794A1 (en) Haptic feedback for opportunistic displays