KR20130103664A - 햅틱 효과를 제공하는 시스템 및 방법 - Google Patents

햅틱 효과를 제공하는 시스템 및 방법 Download PDF

Info

Publication number
KR20130103664A
KR20130103664A KR1020127030612A KR20127030612A KR20130103664A KR 20130103664 A KR20130103664 A KR 20130103664A KR 1020127030612 A KR1020127030612 A KR 1020127030612A KR 20127030612 A KR20127030612 A KR 20127030612A KR 20130103664 A KR20130103664 A KR 20130103664A
Authority
KR
South Korea
Prior art keywords
haptic
widget
interface
haptic effect
user
Prior art date
Application number
KR1020127030612A
Other languages
English (en)
Other versions
KR101855535B1 (ko
Inventor
데이비드 엠. 번바움
대니 에이. 그랜트
크리스토프 람스테인
크리스토퍼 제이. 울리치
Original Assignee
임머숀 코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임머숀 코퍼레이션 filed Critical 임머숀 코퍼레이션
Publication of KR20130103664A publication Critical patent/KR20130103664A/ko
Application granted granted Critical
Publication of KR101855535B1 publication Critical patent/KR101855535B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services; Handling legal documents
    • G06Q50/184Intellectual property management

Abstract

햅틱 효과를 제공하는 시스템들 및 방법들이 개시되어 있다. 예를 들어, 하나의 개시된 시스템은 햅틱 위젯을 정의하는 프로그램 코드를 포함하는 프로그램 코드를 갖는 컴퓨터 판독 가능 매체를 포함한다. 상기 햅틱 위젯은 햅틱 효과를 정의하는 프로그램 코드; 상기 햅틱 위젯에 대한 인터페이스를 정의하는 프로그램 코드; 상기 인터페이스를 통해, 상기 햅틱 위젯의 적어도 하나의 파라미터의 구성을 수신하는 프로그램 코드; 상기 인터페이스를 통해, 상기 햅틱 효과에 대한 플레이 명령을 수신하는 프로그램 코드; 및 상기 인터페이스를 통해, 상기 햅틱 효과를 야기하도록 구성된 신호를 출력하는 프로그램 코드를 포함하고, 상기 신호는 적어도 하나의 파라미터에 기초하고 상기 플레이 명령에 응답하여 생성된다.

Description

햅틱 효과를 제공하는 시스템 및 방법{SYSTEMS AND METHODS FOR PROVIDING HAPTIC EFFECTS}
<관련 출원의 상호 참조>
이 출원은 2010년 4월 23일에 출원된, 발명의 명칭이 "Systems and Methods for Use of Haptic Effects in Promotional and Other Communications"인, 미국 특허 가출원 제61/327,450호의 우선권을 주장하며, 이 가출원은 이로써 그 전체가 참고로 포함된다.
<발명의 분야>
본 출원은 일반적으로 햅틱 효과를 제공하는 것에 관한 것이고 더 상세하게는 햅틱 위젯을 이용하여 또는 브랜드 또는 광고와 연관된 햅틱 효과를 제공하는 것에 관한 것이다.
다양한 장치들에서 사용자 경험을 향상시키기 위해 햅틱 가능한(haptically-enabled) 장치들이 사용될 수 있다. 그러나, 햅틱의 사용에서 개선의 여지가 남아 있다. 예를 들어, 햅틱의 전형적인 사용은 물체의 느낌을 가장하거나 가상 환경과의 사실적인 물리적 상호 작용을 가능하게 하기 위해 햅틱 피드백을 사용하는 것을 포함할 수 있다. 그러나, 햅틱은 햅틱 컨텍스트에서 물리적 물체의 정확한 표현과는 관련이 없는 이익을 제공할 수 있다.
본 발명의 실시예들은 햅틱 효과를 제공하는 시스템들 및 방법들을 제공한다. 예를 들어, 일 실시예에서, 컴퓨터 판독 가능 매체는 프로그램 코드를 포함하고, 이 프로그램 코드는 햅틱 위젯을 정의하는 프로그램 코드를 포함한다. 햅틱 위젯은 햅틱 효과를 정의하는 프로그램 코드; 햅틱 위젯에 대한 인터페이스를 정의하는 프로그램 코드; 인터페이스를 통해, 햅틱 위젯의 적어도 하나의 파라미터의 구성을 수신하기 위한 프로그램 코드; 인터페이스를 통해, 햅틱 효과에 대한 플레이 명령을 수신하기 위한 프로그램 코드; 및 인터페이스를 통해, 햅틱 효과를 야기하도록 구성된 신호 - 이 신호는 상기 적어도 하나의 파라미터에 기초하고 상기 플레이 명령에 응답하여 생성됨 - 를 출력하기 위한 프로그램 코드를 포함한다.
이 예시적인 실시예는 본 발명을 제한하거나 정의하기 위해서가 아니라, 그의 이해를 돕는 예를 제공하기 위해 언급된다. 예시적인 실시예들은 본 발명의 추가 설명을 제공하는 상세 설명에서 논의된다. 이 발명의 다양한 실시예들에 의해 제공되는 이점들은 이 명세서를 검토함으로써 더 이해될 수 있다.
본 발명의 이들 및 다른 특징들, 양태들, 및 이점들은 첨부 도면들을 참조하여 다음의 상세 설명을 읽을 때 더 잘 이해된다.
도 1a 내지 도 1d는 본 발명의 실시예들에 따른 햅틱 효과를 제공하는 시스템을 보여준다.
도 2a 내지 도 2d는 본 발명의 실시예들에 따른 햅틱 위젯을 보여준다.
도 3a 내지 도 3c 및 도 4는 본 발명의 실시예들에 따른 브랜드 특유 햅틱 효과를 제공하는 시스템들을 보여준다.
도 5는 본 발명의 일 실시예에 따른 인터스티셜 광고(interstitial advertisement)에 기초하여 햅틱 효과를 제공하는 시스템을 보여준다.
도 6 내지 도 9는 본 발명의 일 실시예에 따른 긍정적 및 부정적 햅틱 효과를 제공하는 시스템들을 보여준다.
도 10 및 도 11은 본 발명의 일 실시예에 따른 광고에서 햅틱 효과를 제공하는 시스템을 보여준다.
도 12는 본 발명의 일부 실시예들에 따른 사용 가능한 여러 가지 타입의 햅틱 효과들에 대한 도면을 보여준다.
도 13 및 도 14는 본 발명의 일 실시예에 따른 광고에서 긍정적 및 부정적 햅틱 효과를 제공하는 시스템들을 보여준다.
도 15 내지 도 17은 본 발명의 일부 실시예들에 따른 햅틱 효과를 제공하는 방법들을 보여준다.
지금부터 다양한 그리고 대안의 예시적인 실시예들 및 첨부 도면들에 대해 언급될 것이다. 각 예는 제한으로서가 아니라 설명으로 제공된다. 숙련된 당업자들은 수정들 및 변형들이 이루어질 수 있다는 것을 잘 알 것이다. 예를 들어, 일 실시예의 일부로서 예시되거나 설명된 특징들을 다른 실시예에서 사용하여 또 다른 실시예를 야기할 수 있다. 따라서, 이 개시 내용은 수정들 및 변형들을 포함하는 것을 의도한다.
햅틱 피드백을 제공하는 예시적 장치
본 발명의 하나의 예시적 실시예는 도 1a에 도시된 것과 같은 휴대용 컴퓨팅 장치(10)를 포함한다. 이 장치(10)는 하우징(12) 및 디스플레이에 통합된 터치 감응형 입력 장치(14)를 갖는다. 또한, 2개의 버튼(16, 18)이 하우징에 구비되어 있다. 장치(10) 내에는, 도시되지는 않았으나, 소프트웨어 코드를 실행하기 위한 프로세서 및 메모리가 있다. 또한, 장치 내에는 장치(10), 터치 감응형 입력 장치(14), 또는 버튼(16, 18)에 햅틱 효과를 출력하기 위한 복수의 액추에이터가 배치되어 있다.
도 1에 도시된 장치(10)는 다수의 상이한 상황에 햅틱 효과를 제공하도록 구성되어 있다. 예를 들어, 장치(10)의 전원이 켜질 때, 장치의 제조업자 또는 서비스 제공자에 대한 로고가 디스플레이된다. 또한, 하나 이상의 액추에이터들에 의해 브랜드 특유 햅틱 효과가 출력된다(또는 "플레이된다"). 예를 들어, ECI(Electronics Company Inc.)(이 예를 위한 가공의 회사)가 장치(10)를 제공하고 부팅 중에 ECI의 로고를 디스플레이하도록 장치(10)를 구성할 수 있다. 또한, ECI는 장치의 액추에이터들이 햅틱 브랜드 또는 브랜드 특유 햅틱 효과라고 하는 ECI의 브랜드와 연관된 햅틱 효과를 플레이하게 하기 위해 장치의 메모리 내에 프로그램 코드를 통합시킨다. 따라서, ECI의 브랜드 특유 햅틱 효과를 플레이하는 ECI 장치의 사용자가 브랜드 특유 햅틱 효과를 ECI와 연관시키게 될 수 있다.
또한, 일단 장치(10)가 부팅되면, 그것은 화면상에 디스플레이된 콘텐트 또는 사용자 입력에 기초하여 각종 햅틱 효과를 제공하도록 구성된다. 예를 들어, 터치 감응형 입력 장치(14)는 다수의 거의 동시의 접촉들을 검출하고 각 접촉에 대한 위치 정보를 제공할 수 있는 멀티-터치 터치 감응형 입력 장치이다. 따라서, 터치 감응형 입력 장치(14)와의 사용자의 상호 작용에 기초하여, 장치의 프로세서는 멀티-터치 입력들에 기초하여 햅틱 효과를 생성할 수 있다. 장치(14)는 또한 멀티-터치 입력들에 기초하여 제스처들을 결정하고 그러한 제스처들에 기초하여 햅틱 효과를 생성할 수 있다.
동작 중에, 장치(10)는 운영 체제 또는 웹 브라우저와 같은 프로그램들을 실행할 수 있다. 이들 프로그램들 각각은 그와 연관된 다양한 햅틱 기능들을 가질 수 있다. 여기에 개시된 다양한 실시예들에서, 햅틱 기능은 "위젯(widgets)"이라고 하는 명확한(well-defined) 인터페이스 요소들에 통합될 수 있다. 햅틱 위젯들은 다양한 운영 체제 기능들, 디스플레이 상에 제시된 아이콘들, 또는 실행을 위해 이용 가능한 다양한 프로그램들의 여러 가지 GUI 요소들과 연관될 수 있다. 위젯들은 햅틱 피드백 기능을 더 용이하게 제공하기 위해 운영 체제 또는 애플리케이션들의 다양한 양태들과 용이하게 연관되거나 분리될 수 있는 명확한 햅틱 기능을 제공할 수 있다.
사용자는 운영 체제 또는 다양한 애플리케이션들과 상호 작용하는 것 외에도, 그러한 애플리케이션들에 의해 제공된 콘텐트를 볼 수 있다. 예를 들어, 사용자는 장치(10)를 이용하여 월드 와이드 웹("웹") 상의 다양한 웹사이트들로 내비게이션하기 위한 웹 브라우저를 실행할 수 있다. 이들 웹사이트들 중 일부는 다양한 회사들에 대한 광고들 또는 브랜드들을 디스플레이한다. 장치(10)는 디스플레이 상에, 예를 들어 웹사이트 내에 디스플레이되어 있는 브랜드들에 대한 브랜드 특유 햅틱 효과를 출력하도록 구성되어 있다. 또한, 다양한 애플리케이션들 또는 웹사이트들 내에 포함된 광고들은 예를 들어 그 광고로 사용자의 관심을 끌기 위해 또는 사용자가 그 광고와 상호 작용하는 것을 격려하기 위해 장치(10)가 햅틱 효과를 출력하게 할 수 있다. 또한, 장치(10)는 광고 또는 브랜드와의 사용자의 상호 작용에 기초하여 상이한 햅틱 효과를 출력할 수 있다.
이 예시적 실시예에서, 사용자가 광고와 상호 작용할 경우, 장치(10)는 사용자가 그 광고와 계속해서 상호 작용하거나, 미래에 다시 동일 회사로부터의 광고들과 상호 작용하는 것을 격려하기 위해, 또는 그 광고와 상호 작용한 것에 대해 사용자에게 보상하도록 설계된 긍정적 햅틱 효과를 출력한다. 대안으로, 장치(10)는 사용자가 광고를 닫거나 감추기 위해 시도할 경우 사용자가 그러한 액션을 수행하는 것을 막기 위해, 또는 사용자가 그 액션을 완료한 경우, 사용자가 미래에 그러한 액션을 수행하는 것을 막기 위해 부정적 햅틱 효과를 출력한다.
또한 사용자는 디스플레이 상에, 예를 들어 웹 페이지 내에 제시된 브랜드 또는 로고와 상호 작용할 수 있다. 예를 들어, 사용자는 브랜드와 연관된 이미지를 터치하거나 그에 대해 제스처를 수행할 수 있고, 이로 인해 장치(10)는 그 제스처 또는 브랜드와 연관된 햅틱 효과를 출력한다. 또는 이미지를 터치하거나, 이미지에 대해 또는 그를 향해 제스처들을 수행하거나, 이미지와 다른 방법으로 상호 작용함으로써, 이미지는 이미지의 애니메이션을 실행하는 것 등에 의해 그의 모습을 변경하게 될 수 있다. 그러한 애니메이션 동안에, 장치(10)는 애니메이션된 이미지가 화면상에서 걸을 경우 발자국 또는 오렌지 껍질이 벗겨지는 것에 대응하는 진동과 같은, 애니메이션의 상이한 부분들에 대응하는 햅틱 효과를 출력한다. 또한, 사용자는 이미지를 "밀거나" "당기거나" "비틀기" 위해 이미지에 대해 멀티-터치 제스처들을 포함하여 제스처들을 수행함으로써 이미지와 상호 작용할 수 있고, 그 결과 디스플레이된 응답 및 햅틱 응답이 달라질 수 있다.
따라서, 장치(10)는 햅틱 위젯들 및 상호 작용 브랜드 및 광고 경험들을 제공함으로써 사용자에게 더 풍요로운 햅틱 경험을 제공한다.
이제 도 1b를 참조하면, 도 1b는 하나 이상의 햅틱 효과를 제공하는 예시적 시스템(100)을 보여준다. 특히, 이 예에서, 시스템(100)은 버스(106)를 통해 다른 하드웨어와 접속된 프로세서 또는 프로세서들(102)을 특별히 포함하는 컴퓨팅 장치(101)를 포함한다. 프로세서는 CPU 또는 다른 전문화된 프로세서들, 예를 들어 GPS 수신기, 디지털 신호 프로세서, 또는 아래에 더 충분히 설명되는 다른 것들을 포함할 수 있다. RAM, ROM, EEPROM 등과 같은 임의의 적합한 실체적인 컴퓨터 판독 가능 매체를 포함할 수 있는 메모리(104)가 컴퓨팅 장치의 동작을 구성하는 프로그램 컴포넌트들을 저장하도록 구성된다. 이 예에서, 컴퓨팅 장치(101)는 하나 이상의 네트워크 인터페이스 장치들(110), 입출력(I/O) 인터페이스 컴포넌트들(112), 및 추가의 저장 장치(114)를 더 포함한다.
도 1b에 도시된 시스템(100)의 상이한 실시예들은 상이한 방식들로 구성될 수 있다. 예를 들어, 일 실시예에서, 시스템(100)의 컴포넌트들은, 휴대폰, 핸드헬드 PDA, 태블릿 컴퓨터, 또는 랩톱 컴퓨터 내와 같이, 전적으로 단일 하우징 내에 배치될 수 있다. 다른 실시예에서, 시스템(100)의 컴포넌트들은, 분리된 디스플레이 또는 디스플레이들 및 입력 장치(들)를 갖는 데스크톱 컴퓨터에서와 같이, 복수의 하우징들 내에 배치될 수 있다.
네트워크 장치(들)(110)는 네트워크 연결을 가능하게 하는 임의의 컴포넌트들을 나타낼 수 있다. 그 예로는 이더넷, USB, IEEE 1394와 같은 유선 인터페이스, 및/또는 IEEE 802.11, 블루투스, 또는 셀룰러 전화 네트워크에 액세스하기 위한 무선 인터페이스(예를 들어, CDMA, GSM, UMTS, 또는 다른 모바일 통신 네트워크에 액세스하기 위한 트랜스시버/안테나)와 같은 무선 인터페이스가 있지만 이들에 제한되지 않는다.
I/O 컴포넌트들(112)은 하나 이상의 디스플레이, 키보드, 마우스, 스피커, 마이크, 및/또는 데이터를 입력하거나 데이터를 출력하는 데 이용되는 다른 하드웨어와 같은 장치들과의 연결을 가능하게 하기 위해 이용된다. 저장 장치(114)는 장치(101)에 포함된 자기, 광학, 또는 다른 저장 매체와 같은 비휘발성 저장 장치를 나타낸다.
시스템(100)은 이 예에서는 장치(101)에 통합되어 있는 터치 표면(116)을 더 포함한다. 터치 표면(116)은 사용자의 촉각 입력을 감지하도록 구성된 임의의 표면을 나타낸다. 하나 이상의 센서(108)가 물체가 터치 표면과 접촉할 때 터치 영역에서 터치를 검출하고 프로세서(102)에 의해 사용되는 적절한 데이터를 제공하도록 구성된다. 임의의 적합한 수, 타입, 또는 배열의 센서들이 사용될 수 있다. 예를 들어, 저항성 및/또는 용량성 센서들이 터치 표면(116)에 내포되어 터치의 위치 및 터치 압력과 같은 다른 정보를 결정하는 데 이용될 수 있다. 다른 예로서, 터치 위치를 결정하기 위해 광 센서들이 사용될 수 있다.
일 실시예에서, 센서는 시스템의 움직임들 및 배향 변화들을 검출하도록 구성된다. 일부 또는 모든 센서 또는 복수의 센서들이 장치의 내부 또는 외부에 위치할 수 있고 사용자에 의해 접촉될 수 있다. 센서는 3개의 병진축(translational axes)을 따른 운동 및 이 3개의 병진축에 관한 회전을 검출할 수 있는 자이로스코프 센서를 포함할 수 있다. 그러나, 다른 실시예들에서는, 하나 이상의 축을 따른 또는 그에 관한 병진 또는 회전 움직임을 검출하기 위한 하나 이상의 가속도계와 같은 다른 적합한 센서들이 이용될 수 있다. 다른 적합한 센서는 장치의 위치를 결정하기 위해 광 또는 무선 소스와 같은 외부 소스로부터 입력을 수신하는 수신기, 회전 속도 센서, 광 센서, 압력 센서, 감촉 센서, 카메라, 마이크, 또는 다른 타입의 센서를 포함할 수 있다. 센서(들)는 장치를 제어하고, 옵션들을 선택하고, 등등에 사용하기 위해 장치의 움직임 및/또는 장치의 다른 조작들을 결정하는 데 이용될 수 있다.
이 예에서, 액추에이터(118)는 프로세스(102)와 통신하고 터치 표면(116)에 연결되어 있다. 일부 실시예들에서, 액추에이터(118)는 햅틱 신호에 응답하여 터치 표면의 마찰 계수를 변화시키는 햅틱 효과를 출력하도록 구성된다. 추가로 또는 대안으로, 액추에이터(118)는 제어된 방식으로 터치 표면을 움직이는 햅틱 효과를 제공할 수 있다. 일부 햅틱 효과는 장치의 하우징에 연결된 액추에이터를 이용할 수 있고, 일부 햅틱 효과는 다수의 액추에이터들을 순차적으로 및/또는 일제히 이용할 수 있다. 예를 들어, 마찰 계수는 상이한 주파수들로 표면을 진동시킴으로써 변화될 수 있다. 감촉의 느낌을 가장하기 위해 여러 가지 변화의 조합들/시퀀스들이 이용될 수 있다. 예를 들어, 터치 인터페이스는 그의 미시적 및/또는 거시적 표면 특징들이 동적으로 구성되거나 변경될 수 있는 다형의(polymorphic) 표면을 포함할 수 있다. 장치 본체에 연결된 회전 모터, 선형 공진 액추에이터, 또는 다른 액추에이터(들)를 이용하여 제공되는 진동촉각 효과와 같은 다른 햅틱 효과가 표면과 완전히 관계없이 제공될 수 있다.
여기에는 단일 액추에이터(118)가 도시되어 있지만, 실시예들은 동일한 또는 상이한 타입의 다수의 액추에이터들을 사용할 수 있다. 예를 들어, 일부 실시예들에서는 터치 표면(116) 및/또는 장치의 다른 부분의 일부 또는 전부를 초음파 주파수로 수직으로 및/또는 수평으로 변위시키기 위해 압전 액추에이터가 사용된다. 일부 실시예들에서는, 편심 회전 질량 모터 및 선형 공진 액추에이터와 같은 다수의 액추에이터들이 상이한 감촉, 마찰 변화, 및 다른 햅틱 효과를 제공하기 위해 단독으로 또는 일제히 사용될 수 있다. 적합한 액추에이터들의 다른 예들은 전기 모터, 전자기 액추에이터, 음성 코일, 전기활성 고분자, 형상 기억 합금, 솔레노이드, 미세유체 액추에이터, 및/또는 정전기 또는 자기 변형 액추에이터를 포함하고, 이들은 단독으로 또는 동일한 또는 상이한 타입의 액추에이터들과 함께 사용될 수 있다.
출력을 제공하기 위해 액추에이터를 사용하는 것과 함께 몇몇 햅틱 효과가 논의되지만, 일부 햅틱 효과는 햅틱 입력들에 대한 장치에 의한 응답들을 변경함으로써 생성되고, 그 햅틱 효과는, 예를 들어, 터치 입력들, 제스처들, 또는 조작에 대한 장치의 응답의 변화를 포함한다.
메모리(104)로 관심을 돌려, 일부 실시예들에서 햅틱 효과를 제공하기 위해 장치가 어떻게 구성될 수 있는지를 예시하기 위해 모범적인 프로그램 컴포넌트들(124, 126, 128)이 도시되어 있다. 이 예에서, 검출 모듈(124)은 하나의 터치 또는 다수의 거의 동시의 터치들의 위치를 결정하거나 또는 햅틱 효과를 필요로 하는 이벤트 또는 조건을 결정하기 위해 센서(들)(108)를 통해 터치 표면(116)을 모니터하도록 프로세서(102)를 구성한다. 예를 들어, 모듈(124)은 터치의 존재 또는 부재를 추적하고, 터치가 존재할 경우, 시간에 걸쳐 터치 또는 터치들의 위치, 경로, 속도, 가속도, 압력 및/또는 다른 특성들을 추적하기 위해 센서(108)를 샘플링할 수 있다. 다른 예로서, 모듈(124)은 광고가 진행 중인 것을 결정하고 광고에서 발생중인 활동에 맞추어 및/또는 광고와의 사용자 상호 작용(또는 그의 결여)에 응답하여 햅틱 효과를 제공할 수 있다. 추가 예로서, 위치 센서가 장치 위치, 기울기 등의 변화를 검출하고 그러한 변화를 광고 또는 다른 콘텐트와 상호 작용하는 데 사용하기 위한 입력으로서 처리한다.
햅틱 효과 결정 모듈(126)은 터치 특성들 또는 동작 조건들 또는 이벤트들에 관한 데이터를 분석하여 생성할 햅틱 효과를 선택하는 프로그램 컴포넌트를 나타낸다. 예를 들어, 일부 실시예들에서, 멀티-터치 입력 또는 하나 이상의 터치의 시퀀스를 포함하는 입력 제스처를 인지하고 하나 이상의 햅틱 효과에 상관시킬 수 있다. 다른 예로서, 터치 표면(116)의 영역의 일부 또는 전부를 그래픽 사용자 인터페이스에 매핑시킬 수 있다. 특징의 대응 표현이 인터페이스에서 관찰될 때 그 특징이 "느껴지도록" 터치 표면(116)의 마찰을 변화시키거나, 진동, 및/또는 다른 효과(들)를 제공함으로써 그 특징의 존재를 가장하기 위해 터치의 위치에 기초하여 상이한 햅틱 효과가 선택될 수 있다. 그러나, 대응 요소가 인터페이스에서 디스플레이되어 있지 않더라도 터치 표면(116)을 통해 햅틱 효과가 제공될 수 있다(예를 들어, 인터페이스의 경계가 디스플레이되어 있지 않더라도, 그 경계를 가로지를 경우 햅틱 효과가 제공될 수 있다).
햅틱 효과 생성 모듈(128)은 선택된 햅틱 효과를 생성하거나 또는 햅틱 입력에 대한 장치 응답을 조정함으로써 햅틱 효과를 제공하기 위해 프로세서(102)가 햅틱 신호를 생성하여 액추에이터(들)(118)에 송신하게 하는 프로그래밍을 나타낸다. 예를 들어, 생성 모듈(128)은 액추에이터(118)에 송신할 저장된 파형들 및 명령들에 액세스할 수 있다. 다른 예로서, 햅틱 효과 생성 모듈(128)은 신호 처리 알고리즘들을 이용하여 액추에이터(들)(118)에 송신할 적절한 신호를 생성할 수 있다. 추가 예로서, 원하는 감촉을 제공하기 위해 표면(및/또는 다른 장치 컴포넌트들)의 적절한 변위를 생성하도록 하나 이상의 진동촉각 액추에이터들에 송신되는 적절한 파형 및 그 감촉에 대한 목표 좌표들과 함께 그 감촉을 나타낼 수 있다.
이 예에서는, 로컬 프로그램 컴포넌트들을 이용하여 햅틱 효과를 결정하고 생성한다. 그러나, 실시예들은 원격 리소스를 이용하는 것들을 포함한다. 예를 들어, 웹 페이지가 본 발명의 양태들에 따라 포함된 햅틱 효과들을 포함할 수 있다. 추가로 또는 대안으로, 하나의 장치에서 다른 컴퓨팅 장치와의 통신에 응답하여 햅틱 효과가 제공될 수 있다.
컴퓨팅 시스템의 특정 구성에 따라서, 터치 표면이 디스플레이를 오버레이(또는 다른 방법으로 그에 대응)하거나 그렇지 않을 수 있다. 도 1c에는, 시스템 컴포넌트(100C)의 외관이 도시되어 있다. 컴퓨팅 장치(101)는 터치 표면과 장치의 디스플레이를 결합하는 터치가 가능한(touch-enabled) 디스플레이(116)를 포함한다. 터치 표면은 실제 디스플레이 컴포넌트들 위의 하나 이상의 재료층 또는 디스플레이 외면에 대응할 수 있다. 도 1d는 터치가 가능한 컴퓨팅 시스템(100D)의 다른 예를 예시하고 있다. 이 예에서는, 컴퓨팅 장치(101)가 장치(101)에 접속된 컴퓨팅 시스템(120)에 포함된 디스플레이(122)에 제공된 그래픽 사용자 인터페이스에 매핑되는 터치 표면(116)을 특별히 포함한다. 예를 들어, 컴퓨팅 장치(101)는 마우스, 트랙패드, 및 기타 장치를 포함할 수 있고, 시스템(120)은 데스크톱 또는 랩톱 컴퓨터, 셋톱 박스(예를 들어, DVD 플레이어, DVR, 케이블 텔레비전 박스), 또는 다른 컴퓨팅 시스템을 포함할 수 있다. 다른 예로서, 터치 표면(116) 및 디스플레이(122)는 디스플레이(122)를 특별히 포함하는 랩톱 컴퓨터 내의 터치가 가능한 트랙패드와 같은 동일 장치에 포함될 수 있다.
일부 실시예들에서, 터치 표면에 의해 정의된 터치 영역 내의 터치의 위치가 반환되어 하나 이상의 픽셀 어드레스로 변환될 수 있다. 픽셀 어드레스(들)와 연관된 값 또는 값들에 액세스하여 햅틱 장치(가변 마찰 장치 또는 다른 장치들을 포함)의 액추에이터(들)를 구동하는 데 이용할 수 있다. 예를 들어, 각 픽셀 어드레스는 압전 또는 다른 액추에이터를 구동할 진폭 레벨에 상관된 강도 값과 연관될 수 있다. 더 복잡한 예로서, 각 픽셀 어드레스는 3개의 강도 값들(즉, RGB)과 연관될 수 있다. 이 3개의 강도 값들 각각은 일부 실시예들에서 상이한 액추에이터 강도와 연관될 수 있다. 다른 예로서, 일부 값들은 강도를 명시하고 다른 값들은 동작 지속 기간을 명시할 수 있다. 추가 예로서, 단일 감촉을 가장하도록 액추에이터들을 구동하는 데 사용되는 상이한 원하는 감촉들 또는 컴포넌트들에 상이한 픽셀 강도 값들이 상관될 수 있다. 또한 추가로, 다층 RGB 이미지 파일이 사용될 수 있고, 여기서 각 층은 특정 액추에이터에 대응한다.
터치 표면과 그래픽 사용자 인터페이스 간의 매핑은 절대적이거나 스케일링될 수 있다. 예를 들어, 일부 실시예들에서는, 터치 위치가 대응 픽셀 어드레스(또는 픽셀 어드레스들)에 직접 상관되고, 연관된 값들은 액추에이터(들)를 구동할 햅틱 효과를 선택하는 데 사용된다. 다른 실시예들에서는, 터치 위치 및 속도가 고려된다.
다른 예로서, 터치의 현재 또는 예상 위치를 컨트롤, 텍스트 내용, 경계, 광고 등과 같은 GUI 특징들의 위치를 식별하는 데이터와 비교할 수 있다. 그 후, 그 위치에서 GUI 특징이 식별되면, 그 특징에 하나 이상의 햅틱 효과를 연관시키는 데이터가 액세스될 수 있다. 예를 들어, 프로세서는 터치의 위치를 추적하고 그 터치가 그래픽 사용자 인터페이스 내의 특정 컨트롤(예를 들어, 버튼)에 매핑된 터치 영역 내의 위치에 있거나 그에 접근하고 있는 것을 결정할 수 있다. 그 후 프로세서는 인터페이스 요소들의 목록을 참고하여 그 버튼과 연관된 햅틱 효과(예를 들어, 감촉, 마찰 변화)를 결정하고, 그 햅틱 효과에 기초하여, 그 햅틱 효과를 생성하기 위한 추가의 액션들을 취할 수 있다.
햅틱 효과(들)를 생성하기 위해, 프로세서는 하나 이상의 햅틱 신호에 액세스하거나 이를 생성할 수 있다. 예를 들어, 프로세서는 메모리에 저장되어 있고 특정 햅틱 효과들과 연관된 구동 신호들에 액세스할 수 있다. 다른 예로서, 저장된 알고리즘에 액세스하고 효과와 연관된 파라미터들을 입력함으로써 신호가 생성될 수 있다. 예를 들어, 알고리즘은 진폭 및 주파수 파라미터들에 기초하여 구동 신호를 생성하는 데 사용되는 데이터를 출력할 수 있다. 다른 예로서, 햅틱 신호는 액추에이터에 송신되어 액추에이터에 의해 디코딩될 데이터를 포함할 수 있다. 예를 들어, 액추에이터는 자체가 진폭 및 주파수와 같은 파라미터들을 명시하는 명령들에 응답할 수 있다.
일부 실시예들에서는, 장치가 생성할 수 있는 잠재적인 효과들의 범위를 향상시키기 위해 선택된 햅틱 효과가 없을 때에도 은은한(ambient) 햅틱 효과를 생성하도록 액추에이터(들)에 베이스라인(baseline) 햅틱 신호가 송신될 수 있다. 따라서, 햅틱 신호를 송신하는 것은 적절히 강도를 감소시키기 위해 액추에이터에 "정지" 명령, "제로" 또는 최소의 신호를 송신하는 것을 포함할 수 있다.
예로서, 압전 액추에이터들과 같은 소정 액추에이터들의 사용은 터치 표면의 마찰 계수의 감소를 허용할 수 있지만 마찰 계수의 증가는 허용하지 않는다. 옵션들의 범위를 제공하기 위해, 터치 표면의 "통상의" 마찰 레벨이 터치 표면이 정지 상태일 때 가질 마찰 계수 미만이도록 베이스라인 신호가 제공될 수 있다. 따라서, 정지 상태보다는 베이스라인 값에 관한 햅틱 효과가 정의될 수 있다. 최대 마찰을 원한다면, 표면의 움직임을 멈추기 위해 압전 액추에이터에 "제로" 신호가 송신될 수 있다.
디스플레이와 통합되든 그렇지 않든 간에, 본 명세서의 예들에서의 2-D 직사각형 및 다른 터치 표면들에 대한 논의는 제한하는 것으로 여겨져서는 안 된다. 다른 실시예들은 표면 기반 햅틱 효과들을 제공하도록 더 구성되는 곡선의 또는 고르지 못한 터치가 가능한 표면들을 포함한다. 또한, 터치 표면 및 표면 기반 햅틱 효과들이 위에 언급되어 있지만, 본 발명의 양태들은 터치 표면과 관계없이 사용될 수 있고, 터치가 가능하지 않은 장치들에 대한 햅틱 효과들을 제공하는 데에도 응용을 찾을 수 있다. 터치가 가능한 장치가 사용되는지 여부에 관계없이, 실시예들은 표면 기반 햅틱 효과들을 포함하거나 그렇지 않을 수 있다.
다양한 햅틱 효과들을 제공하기 위한 하드웨어 아키텍처의 예들이 위에 제공되었다. 다음으로, 이 개시 내용은 햅틱 효과들의 사용에 대한 모범적인 실시예들로 관심을 돌린다. 아래의 표제들은 제한하는 것으로 여겨져서는 안 된다 - 아래에 논의된 다양한 실시예들은 독립적으로 또는 어떤 식으로든 적절하게 서로 조합하여 사용될 수 있다.
햅틱 위젯
이제 도 2a를 참조하면, 도 2a는 본 발명의 일 실시예에 따른 햅틱 위젯(200)을 보여준다. 위젯(200)은 이 실시예에 도시된 위젯(200)이 사용자에게 보이지 않으므로 대시 기호로 된 경계선을 갖는 것으로 도시되어 있지만; 그것은 위젯과 연관된 애플리케이션들 또는 인터페이스 요소들에 햅틱 기능을 제공하도록 구성되어 있다. 그러나, 일부 실시예들에서는, 햅틱 위젯이 보일 수 있는데, 예를 들어 햅틱 효과에 대한 옵션으로서 사용자에게 제공되는 경우 또는 단순히 햅틱 효과의 위치의 가시적 표시를 제공하기 위해서 또는 햅틱 효과에 대응하는 시청각 효과를 제공하기 위해서 그럴 수 있다.
위젯은 일반적으로 입력들을 수신하고 출력들을 제공하기 위한, 애플리케이션 프로그래밍 인터페이스(API)와 같은, 명확한 인터페이스를 갖는, 버튼 또는 스크롤 바와 같은, 특정 기능을 구현하는 인터페이스 요소로서 이해될 수 있다. 위젯은 그 자체로 자립적인 실행 코드 모듈일 수 있거나 더 큰 소프트웨어 애플리케이션 내에 직접 또는 라이브러리(예를 들어, 동적으로 링크된 라이브러리)의 일부로서 통합될 수 있다.
도 2a에 도시된 햅틱 위젯(200)은 특정 햅틱 효과 또는 햅틱 효과들을 제공하기 위해 소프트웨어에 의해 이용될 수 있는 기능을 포함한다. 예를 들어, 햅틱 위젯은 브랜드 특유 햅틱 위젯으로서 ECI와 같은 회사에 의해 작성되어 제공될 수 있다. 위젯(200)은 복수의 상이한 햅틱 효과들(202-208)뿐만 아니라 구성 기능들 및 파라미터들과 같은 다른 기능도 포함할 수 있다. 도 2a에 도시된 실시예는 4개의 햅틱 효과들(202-208)을 포함하는 햅틱 위젯(200)을 보여주고 있지만, 본 발명의 실시예에 따른 위젯의 특정 필요조건에 따라 임의의 수의 햅틱 효과가 포함될 수 있다. 도시된 실시예에서, 햅틱 위젯(200)은 브랜드 특유 햅틱 위젯이고 복수의 브랜드 특유 햅틱 효과들(202-208)을 포함한다. 각 햅틱 효과(202-208)는 위젯이 수신한 입력들에 기초하여 출력 또는 플레이될 수 있는 브랜드 특유 햅틱 효과이다. 예를 들어 일 실시예에서 그리고 다시 도 1a의 장치(10)를 참조하여, 브랜드 특유 햅틱 위젯(200)은 시동시에 플레이될 브랜드 특유 햅틱 효과(202) 및 셧다운 시에 플레이될 브랜드 특유 햅틱 효과(204)를 포함한다. 또한, 햅틱 위젯(200)은 장치(10)가 휴면(sleep) 또는 동면(hibernate) 모드에 들어갈 때 플레이되도록 구성된 브랜드 특유 햅틱 효과(206), 및 장치(10)가 휴면 또는 동면 모드에서 "깨어날" 때 플레이되도록 구성된 다른 브랜드 특유 햅틱 효과(208)를 포함한다. 이들 브랜드 특유 햅틱 효과들(202-208) 각각은 ECI 브랜드의 장치들과 연관되고 ECI와의 햅틱 연관성을 사용자에게 제공하는 공통의 햅틱 효과들을 상이한 장치들에 걸쳐 제공할 수 있다. 또한, 브랜드 특유 햅틱 효과들 중 일부는 장치의 상태(예를 들어, 시동)와 같은 다른 표시들을 제공할 수 있다.
전술한 바와 같이, 햅틱 위젯(200)은 명확한 인터페이스를 제공한다. 도 2d는 햅틱 위젯의 인터페이스(220)를 포함하여, 햅틱 위젯(200)의 더 상세한 뷰를 보여준다. 도 2d에 도시된 실시예에서, 햅틱 위젯(200)은 복수의 햅틱 효과들(202-208), 적어도 하나의 구성 파라미터(210), 이미지(212), 사운드(214), 및 인터페이스(220)를 포함한다. 도 2d에 도시된 실시예에서, 햅틱 위젯에 의해 제공되는 다양한 기능은 인터페이스(220)를 이용함으로써만 이용 가능하다. 인터페이스(220)는 위젯 내에 정의된 다양한 기능을 이용하기 위해 애플리케이션, 운영 체제, 또는 다른 실행 코드에 의해 이용되거나 호출될 수 있다. 일부 실시예들에서, 인터페이스는 API를 포함하는 하나 이상의 실행 가능 기능들을 포함할 수 있다. 일부 실시예들에서, 인터페이스(220)는 메시징 프로토콜 또는 다른 메커니즘들을 통해 전달된 메시지들을 수신하도록 구성될 수 있다.
예를 들어, 도 2d에 도시된 실시예에서, 인터페이스(220)는 구성 파라미터(210)를 변경하거나 검색하도록 구성된 신호들을 수신하고, 햅틱 효과들(202-208) 중 하나 이상을 플레이하기 위한 신호를 수신하고 햅틱 효과 또는 햅틱 효과들(202-208)의 플레이를 야기하도록 구성된 신호를 출력하고, 이미지(212)를 출력하기 위한 신호를 수신하고 이미지(212)가 디스플레이되는 것을 야기하도록 구성된 신호를 출력하고, 사운드(213)를 출력하기 위한 신호를 수신하고 사운드(214)가 플레이되는 것을 야기하도록 구성된 신호를 출력하도록 구성된다. 일부 실시예들에서, 인터페이스(220)는 활성화 또는 비활성화 명령들과 같은 다른 명령들을 수신하도록 구성될 수 있다. 일 실시예에서, 활성화 명령은 햅틱 위젯을 활성화시키거나 햅틱 효과들(202-208), 이미지(212), 또는 사운드(214) 중 하나 이상을 활성화시키도록 구성될 수 있다. 유사하게, 비활성화 명령은 햅틱 위젯을 비활성화시키거나 햅틱 효과들(202-208), 이미지(212), 또는 사운드(214) 중 하나 이상을 비활성화시키도록 구성될 수 있다.
도 2d에 도시된 실시예에서, 위젯(220)은 다양한 햅틱 효과들(202-208), 이미지(212), 사운드(214), 및 구성 파라미터(들)(210)에 관한 정보를 정의하거나 저장하는 객체 클래스들과 같은 복수의 다른 객체 클래스들을 포함하는 객체 클래스로서 정의된다. 일부 실시예들에서, 햅틱 위젯(220)은 하나 이상의 다른 객체들에 대한 참조들을 포함할 수 있고 또는 위젯의 기능을 제공하기 위해 필요에 따라 객체 클래스들에 대응하는 객체들을 인스턴스화할 수 있다. 그러나, 객체 지향 패러다임 외에 다른 프로그래밍 패러다임이 햅틱 위젯들을 정의하는 데 이용될 수 있다. 따라서, 본 발명의 일부 실시예들에 따른 햅틱 위젯들은 다른 프로그래밍 패러다임들에 따라 정의될 수 있다.
위젯의 기능을 이용하기 위해, 실행 가능 코드가 위젯의 인터페이스(220)와 상호 작용함으로써 위젯(200)을 호출할 수 있다. 예를 들어, 본 발명의 일 실시예에서, 스마트폰과 같은 핸드헬드 장치의 운영 체제는 햅틱 위젯들을 그 스마트폰의 사용자가 이용할 수 있는 애플리케이션들 또는 다른 위젯들과 연관시키도록 구성된다. 운영 체제가 사용자가 애플리케이션을 실행했다고 결정할 경우, 운영 체제는 그 애플리케이션과 연관된 햅틱 위젯(200)을 식별하고 그 햅틱 위젯의 인터페이스(220)를 호출하여 햅틱 위젯(200)이 햅틱 효과를 출력하기 위한 신호를 생성하게 한다. 운영 체제는 인터페이스(220)를 통해 햅틱 위젯(200)으로부터 그 신호를 수신하고 그 신호에 기초하여 액추에이터 신호를 생성하는데, 여기서 액추에이터 신호는 스마트폰 내의 액추에이터가 햅틱 효과를 출력하게 하도록 구성되어 있다. 일부 실시예들에서, 운영 체제는 전자 장치를 이용하여 그 신호에 기초하여 햅틱 효과를 생성할 수 있다.
예를 들어, 예시적 위젯 인터페이스는 구성 기능들, 활성화 또는 비활성화 기능들, 입력 기능들, 등록 기능들 및 그러한 인터페이스 기능 중 하나 이상에 대한 대응 출력들을 포함할 수 있다. 예를 들어, 일 실시예에서, 위젯은 활성화 및 비활성화 기능들을 포함할 수 있다. 그러한 실시예에서, 햅틱 위젯의 기능의 부분들 또는 전부가 활성화되거나 비활성화될 수 있다. 예를 들어, 도 2d에 도시된 햅틱 위젯(200)은 시험 버전으로서 스마트폰에 설치될 수 있고 따라서 햅틱 효과들 중 하나(202)는 사용할 수 있는(enabled) 데 반해, 나머지(204-208)는 사용할 수 없는(disabled) 부분적으로 사용할 수 없는 상태로 설치된다. 그러한 실시예에서, 스마트폰의 사용자는 위젯(200)의 제한된 기능만을 획득할 수 있다. 그러나, 그 사용자가 서비스에 가입하거나 위젯(200)을 활성화시키는 비용을 지불한다면, 활성화 명령이 위젯(200)에 송신될 수 있다. 활성화 명령을 수신하면, 위젯(200)은 햅틱 효과들(202-208)의 "사용할 수 있는" 상태와 같은 하나 이상의 구성 파라미터뿐만 아니라 위젯의 상태(예를 들어, "시험"에서 "활성"으로 변화)를 나타내는 파라미터도 변경할 수 있다. 성공적인 활성화 후에, 위젯(200)은 위젯이 활성화되었다는 또는 활성화가 일부만 성공했거나 성공하지 못했다는 것을 나타내는 신호를 출력할 수 있다.
후일에 사용자가 위젯(200)과 연관된 서비스를 종료하거나 단순히 위젯(200)을 비활성화시키기를 원할 경우에는, 위젯(200)을 사용할 수 없게 하기 위해 비활성화 명령이 위젯(200)에 송신될 수 있다. 그러한 명령을 수신하면, 위젯(200)은, 예를 들어 햅틱 효과들(202-208)의 "사용할 수 있는" 상태를 "사용할 수 없음"으로 설정하는 등, 하나 이상의 구성 파라미터들뿐만 아니라 위젯의 상태(예를 들어, "시험" 또는 "활성"에서 "사용할 수 없음"으로 변화)를 나타내는 파라미터도 변경할 수 있다. 성공적인 비활성화 후에, 위젯(200)은 위젯이 비활성화되었다는 또는 비활성화가 일부만 성공했거나 성공하지 못했다는 것을 나타내는 신호를 출력할 수 있다.
일부 실시예들에서, 햅틱 위젯들은 하나 이상의 인증 기능들 또는 파라미터들을 포함할 수 있다. 예를 들어, 햅틱 위젯들의 배포자는 위젯이 활성화되도록 허용하기 전에 위젯이 적절히 허가되었다는 것을 보장하기를 바랄 수 있다. 그러한 경우, 햅틱 위젯은 활성화 또는 비활성화 시에 인증 코드를 요구할 수 있다. 또한, 햅틱 위젯은 활성화 또는 비활성화가 적절히 인가되었음을 검증하기 위한 신호를 원격 장치에 송신하도록 구성될 수 있다.
유사하게, 햅틱 위젯(200)은 수신된 명령에 기초하여 진실성의 확인 또는 검증을 제공하도록 구성될 수 있다. 예를 들어, 일 실시예에서, 햅틱 위젯들의 작성자가 그의 위젯들 내에 그들의 진실성을 검증하거나 그들의 진실성이 검증될 수 있게 하는 구성 파라미터를 포함시킬 수 있다. 예를 들어, 일 실시예에서, 햅틱 위젯은 디지털 서명을 이용하여 배포될 수 있다. 그러한 실시예에서는, 사용자가 햅틱 위젯의 진실성을 검증하기 위해 웹사이트에 액세스할 수 있다. 웹사이트는 위젯(200)에 그의 디지털 서명 또는 다른 인증 정보를 요청하는 신호를 송신할 수 있다. 그러한 요청에 응답하여, 위젯(200)은 디지털 서명 또는 인증 정보를 제공하고, 그것은 그 후 그의 진실성을 검증하기 위해 웹사이트에 의해 처리된다. 검증이 되면, 웹사이트는 사용자에게 위젯의 진실성에 대한 표시를 제공할 수 있고, 또는, 위젯이 검증되지 않으면, 진실성의 결여에 대한 표시를 제공할 수 있다.
활성화 또는 비활성화 기능들에 더하여, 햅틱 위젯의 인터페이스(220)는 위젯(200)의 동작 파라미터들과 같은 파라미터들을 변경하는 기능을 제공할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 햅틱 위젯(200)은 햅틱 위젯을 구성하는 복수의 구성 기능들을 포함한다. 적합한 기능들은 위젯 내에서 이용 가능한 햅틱 효과들 중 하나 이상에 대한 최대 또는 최소 크기 또는 강도를 설정하는 하나 이상의 "볼륨" 컨트롤, 시간 기반 설정들(예를 들어, 야간에는 햅틱 효과들을 끄고, 주간에는 켜는 것, 또는 타이머를 설정하여 그 후에는 햅틱 위젯을 비활성화하는 것), 또는 전력 설정들(예를 들어, 배터리 레벨이 20% 미만이면 햅틱 효과들을 비활성화하는 것)을 포함한다.
전술한 바와 같이, 일부 실시예들에서, 햅틱 위젯들은 구성 파라미터들 또는 다른 외부 파라미터들에 기초하여 상이한 햅틱 효과들을 출력할 수 있다. 예를 들어, 일 실시예에서, 휴대폰 또는 스마트폰에서 이용 가능한 게임 애플리케이션이 운영 체제에 의해 제공되는 햅틱 위젯과 연관될 수 있다. 위젯은 하루 중의 시간에 기초하여 상이한 햅틱 효과들을 출력하도록 구성될 수 있다. 예를 들어, 사용자가 평일 오전 9시와 오후 5시 사이에 게임 애플리케이션을 실행하려고 할 경우, 햅틱 위젯은 제지하는 것으로서 (불쾌감과 같은) 부정적 쾌락 반응을 이끌어낼 햅틱 효과를 게임 애플리케이션으로부터의 입력 없이 자동으로 선택하여 플레이할 수 있다. 대안으로, 사용자가 야간에 또는 주말에 게임을 실행하려고 할 경우, 햅틱 위젯은 격려하는 것으로서 (즐거움과 같은) 긍정적 쾌락 반응을 이끌어낼 햅틱 효과를 게임 애플리케이션으로부터의 입력 없이 자동으로 선택하여 플레이할 수 있다. 다른 실시예에서, 운영 체제는 게임이 활성화될 때 긍정적 햅틱 효과를 플레이할지 부정적 햅틱 효과를 플레이할지를 판정하고 선택된 햅틱 효과를 출력하도록 위젯에 명령할 수 있다.
전술한 바와 같이, 본 발명의 일부 실시예들은 특정 브랜드 또는 회사와 연관된 햅틱 위젯들을 포함할 수 있다. 그러한 햅틱 위젯들은 다른 기능과 결합되어 각종 환경에서 햅틱 느낌을 제공할 수 있다. 예를 들어, 일 실시예에서, 장치(10)는 복수의 프로세서들을 포함하고, 그 중 적어도 하나는 여러 정보 중에서 특히 장치의 위치를 결정하기 위해 글로벌 포지셔닝 시스템(GPS) 신호들을 수신하고 처리하도록 구성된다. 결정된 위치에 기초하여, 장치(10)는 셀룰러 제공자의 가게와 같은 특정 브랜드 또는 회사와 연관된 가계의 근접을 결정할 수 있다. 그 후 장치(10)는 그 셀룰러 제공자와 연관된 햅틱 위젯을 식별하고 브랜드 특유 햅틱 효과가 플레이되게 하는 적어도 하나의 신호를 그 햅틱 위젯에 송신한다. 또한, 일부 실시예들에서, 장치는 햅틱 위젯이 햅틱 효과의 플레이와 거의 동시에 브랜드와 연관된 이미지 또는 사운드도 디스플레이하게 하는 신호를 송신할 수 있다. 또한, 일부 실시예들에서, 장치(10)는 예를 들어 브랜드 특유 햅틱 효과 또는 이미지 또는 사운드와 거의 동시에, 인근의 가게가 셀룰러 제공자에 의해 제공된 제품들 또는 서비스들을 제공한다는 것을 나타내는 메시지를 사용자에게 추가로 디스플레이할 수 있다. 그러한 실시예에서, 사용자는 그 사용자의 위치뿐만 아니라 인근 가게의 위치의 표시에 기초하여 특정 브랜드 또는 회사와 연관된 광고들을 적시에 제공받을 수 있다.
햅틱 위젯들(200)은 진동과 같은 햅틱 효과의 타입들을 구현하거나, 특정 기능과 연관될 햅틱 효과들의 그룹을 정의하도록 정의될 수 있다. 예를 들어, 일 실시예에서, ECI와 같은 회사가 하나 이상의 브랜드 특유 햅틱 위젯 - 각각이 하나 이상의 브랜드 특유 햅틱 효과를 포함함 - 을 작성하고, 그러한 위젯들을 ECI가 제공하는 장치들에 제공할 수 있다. 또한, 브랜드 특유 위젯들은 다른 회사들에 의해 제공되어 ECI의 장치들에 통합될 수 있다. 예를 들어, ECI가 제조한 하나 이상의 셀룰러 장치들에 대해, 셀룰러 통신사는 그 통신사의 네트워크에서 사용 가능한 ECI 셀룰러 장치들에 통합될 하나 이상의 햅틱 위젯을 제공할 수 있다. 예를 들어, ECI가 그 셀룰러 통신사의 네트워크에 접속할 때, 장치는 그 무선 통신사의 브랜드 특유 햅틱 위젯을 호출하여 브랜드 특유 햅틱 효과를 플레이하여 사용자에게 그 무선 통신사의 브랜드를 강화하는 데 도움이 될 수 있다. 유사하게, 다른 회사들로부터의 햅틱 위젯들도 제공될 수 있다. 그러한 위젯들은 ECI의 장치들에 설치된 애플리케이션들에 의해 또는 다른 애플리케이션들에서 디스플레이된 콘텐트 내의 광고들에 의해 활성화될 수 있다. 예를 들어, 웹페이지 내의 회사의 광고가 그 회사에 의해 제공된 장치 상의 햅틱 위젯을 식별하여 호출할 수 있고, 이는 장치의 사용자에게 브랜드 식별을 제공하고 사용자가 그 광고를 검색하여 보게 할 수 있다.
이제 도 2b 및 도 2c를 참조하면, 햅틱 위젯들이 애플리케이션, 운영 체제 기능, 버튼 등과 같은 다른 인터페이스 요소들과 연관될 수 있다. 도 2b는 복수의 햅틱 위젯들(252-258) 및 사용자 인터페이스 슬라이더(250)를 포함하는 시스템을 보여준다. 슬라이더(250)에 햅틱 효과들을 제공하기 위해, 도 2c에 도시된 바와 같이 햅틱 위젯(252)이 슬라이더(250)와 연관될 수 있다. 도 2c에 도시된 실시예에서, 햅틱 슬라이더(250)는 햅틱 위젯(252)과 연관되어 있다. 슬라이더(250)는 장치에서 이용 가능한 위젯들을 식별하고 사용할 적합한 위젯을 선택하도록 구성되었다. 예를 들어, 슬라이더는 특정 쾌락 반응을 이끌어내는 햅틱 위젯과 함께 사용 가능하도록 구성되었을 수 있고 따라서 이용 가능한 햅틱 위젯들을 식별하고 더 상세히 설명될 쾌락 햅틱 효과들을 제공하는 위젯(252)으로부터 이용 가능한 기능을 이용하도록 구성될 수 있다. 다른 실시예에서, 슬라이더(250)는 그 슬라이더에 의해 사용 가능한 햅틱 위젯과 함께 배포될 수 있다. 또 다른 실시예에서, 슬라이더(250)는 특정 타입의 기능들을 제공하거나 폭넓게 이용 가능한 햅틱 위젯들과 연관되도록 구성될 수 있다. 햅틱 위젯(252)과 연관된 후에, 슬라이더(250)는 슬라이더(250)의 조작들에 기초하여 햅틱 위젯(252) 내의 햅틱 효과들을 활성화시키도록 구성된다.
일부 실시예들에서, 본 발명에 따른 햅틱 위젯들은 특정 "쾌락 값"을 갖는 햅틱 효과들을 제공하도록 구성될 수 있다. 여기에서 사용될 때, "쾌락 값"은 결과의 발표 순간에 의사 결정자가 느끼는 기쁨 또는 슬픔의 정도를 나타낸다. 햅틱 효과들은 설계자들이 사용자들이 다음 중 하나 이상을 수행하는 것을 격려하거나 요구하는 데 사용될 수 있다: 사용자들이 보통은 건너뛰거나 무시할 수 있는 인터페이스의 부분들과 시각적 접촉을 하는 것; 사용자들이 무의식적인 액션을 취하게 될 상황에 의식적인 액션을 요구하는 것; 인터페이스의 한 측면에서 다른 측면으로 사용자의 관심을 바꾸는 것; 및/또는 활성화 제스처를 통하여 중도에 위젯을 활성화하는 그의 결정을 취소할 시간을 사용자에게 주는 것. 도 12는 쾌락 햅틱 효과들의 타입들에 대한 기본적 도면(1200)을 보여준다.
도 12에 예시된 바와 같이, 이것은 제스처의 처음에 제스처의 완료를 격려하는 "긍정적" 피드백을 나타내고, 제스처의 끝에 제스처의 만족스러운 확인 및/또는 제스처의 반복에 대한 격려를 촉진하는 "긍정적" 피드백을 나타내고, 제스처의 처음에 제스처에 대한 사용자의 관심을 방해하는(아마 사용자가 시각적 아이템으로 관심을 바꾸게 하거나 및/또는 아마 사용자가 제스처를 중단하게 하는) "부정적" 피드백을 나타내고, 제스처의 끝에 사용자가 부정적 느낌을 제스처와 연관시키게 하고, 아마 다음에 그 기회가 생길 때 사용자가 그 제스처를 사용하는 것을 저지하는 "부정적" 피드백을 나타냄으로써 달성될 수 있다.
도 13 및 도 14는 예를 제공한다. 여기서, 인터페이스(1300)는 광고(1302)를 특별히 포함한다. 광고는 2개의 인터페이스 요소들, 즉 제안을 수락하기 위해 왼쪽에서 오른쪽으로 드래그되는 슬라이더(1304) 및 제안을 무시하기 위해 오른쪽에서 왼쪽으로 드래그되는 슬라이더(1306)를 포함한다. 도 13에 도시된 바와 같이, 긍정적 느낌/경험을 1308에 도시된 것과 같은 확인 슬라이더(1304)의 사용과 연관시키기 위해 햅틱 격려 및/또는 확인이 이용될 수 있다. 예를 들어, 왼쪽에서 오른쪽으로 움직일 때 마찰 계수가 낮아질 수 있고, 체크 부호에 도달할 때 호의적인 효과(예를 들어, 부드러운 진동)가 플레이될 수 있다. 한편, 도 14의 1310에서 도시된 것과 같은 슬라이더(1306)의 사용이 저지/방해될 수 있다. 예를 들어, 슬라이더(1306)가 오른쪽에서 왼쪽으로 움직일 때 방해(예를 들어, 클릭, 팝, 가장된 거친 감촉, 또는 불안하게 하거나 마음을 산란하게 하도록 설계된 햅틱 효과)가 제공될 수 있고 및/또는 "X"에 도달할 때(제스처가 어쨌든 완료될 경우) 비호의적인 효과가 플레이될 수 있다.
햅틱 효과들을 제공하기 위해, 도 13a 및 도 14a에 도시된 바와 같이 이들 슬라이더들(1304, 1306) 각각이 햅틱 위젯(1320)과 연관된다. 도 13a 및 도 14a에 도시된 실시예들에서, 각 슬라이더(1304, 1306)는 동일 햅틱 위젯(1320)과 연관되는데, 이 햅틱 위젯은 드래그 제스처들과 연관된 쾌락 햅틱 효과들을 제공하도록 구성되어 있기 때문이다. 따라서, 각 슬라이더(1304, 1306)는 단순히 햅틱 위젯으로부터 적절한 햅틱 효과를 활성화시킴으로써 원하는 햅틱 효과들을 제공할 수 있다. 예를 들어, 슬라이더(1304)는 슬라이더 버튼이 움직이는 동안에는 긍정적 쾌락의, "액션 격려" 햅틱 효과를 활성화시켜 출력되도록 할 수 있고, 그 후 슬라이더 버튼이 그 경로의 끝에 도달할 때는 긍정적 쾌락의 "액션 확인" 햅틱 효과가 이어질 수 있다. 유사하게, 슬라이더(1306)는 슬라이더 버튼이 움직이기 시작하거나 움직이는 동안에는 부정적 쾌락의 "액션 방해" 햅틱 효과를 활성화시키고, 슬라이더가 그 경로의 끝에 도달할 때는 사용자가 액션의 완료로 만족스럽게 느끼거나, 그 액션을 반복하여 완료하거나, 미래에 그 기회가 생길 경우 그 액션을 다시 완료하는 것을 저지하기 위해 부정적 쾌락의 "액션 저지"를 출력한다.
이 실시예에서는, 슬라이더들(1304, 1306) 각각이 동일 햅틱 위젯과 연관되지만, 도 13b 및 도 14b에 도시된 실시예들에서는, 각 슬라이더(1304, 1306)가 상이한 위젯(1322, 1323)과 연관된다. 예를 들어, 하나의 위젯(1322)은 긍정적 쾌락 햅틱 효과들을 제공하는 반면, 다른 위젯(1324)은 부정적 쾌락 햅틱 효과들을 제공한다. 햅틱 효과들의 또 다른 조합들이 다른 조직 체계에 기초하여 공통 햅틱 위젯 내에 그룹화될 수 있다. 추가로, 각 슬라이더(1304, 1306)를 복수의 햅틱 위젯들과 연관시켜 각각의 슬라이더(1304, 1306)에 각종 상이한 햅틱 효과들을 제공할 수 있다.
긍정적 및 부정적 햅틱 느낌들을 제공하기 위해 상이한 쾌락 햅틱 효과들이 생성될 수 있다. 예를 들어, 일 실시예에서, 긍정적 쾌락 효과는 감소된 마찰 계수를 제공할 수 있고, 이는 사용자가 더 수월하게 제스처를 완료할 수 있게 한다. 다른 실시예에서, 긍정적 쾌락 효과는 사용자에게 진정시키거나 긴장이 풀리게 하는 느낌을 제공하는 저강도의 저주파수 진동을 포함할 수 있다. 본 발명의 일부 실시예들은 다수의 햅틱 효과들을 결합하여 긍정적 쾌락 효과를 생성할 수 있다. 예를 들어, 일 실시예에서, 긍정적 쾌락 효과는 감소된 마찰 계수와 저강도의 저주파수 진동을 결합한 것을 포함한다.
전술한 바와 같이, 부정적 쾌락 효과들은 사용자의 액션을 저지하거나 방해하는 불쾌한 햅틱 느낌을 제공하기 위해 생성된다. 예를 들어, 일 실시예에서, 부정적 쾌락 효과는 사용자의 제스처를 저지하기 위해 증가된 마찰 계수를 제공하거나 거칠거나 불쾌한 감촉을 제공할 수 있다. 다른 실시예에서, 일련의 단기간의 고강도 "스타카토" 효과들이 출력되어 사용자에 의해 불쾌한 것으로 감지될 수 있다. 긍정적 쾌락 햅틱 효과와 마찬가지로, 본 발명의 일부 실시예들은 다수의 햅틱 효과들을 결합하여 부정적 쾌락 효과를 생성할 수 있다. 예를 들어, 일 실시예에서, 부정적 쾌락 효과는 사용자의 액션을 저지하거나 방해하기 위해 증가된 마찰 계수와 일련의 단기간의 고강도 "스타카토" 효과들을 결합한 것을 포함한다.
일부 실시예들에서, 햅틱 효과들은 액션을 완료하기 위한 사용자에 의한 노력 또는 집중 수준을 증가시키는 유사력(pseudo-force) 피드백을 제공함으로써 사용자 액션을 단념시키기 위해 사용될 수 있다. 예를 들어, 일 실시예에서, 햅틱 효과는 터치 감응형 입력 장치의 마찰 계수를 증가시켜, 사용자 액션에 대한 실제 저항을 제공할 수 있다. 일부 실시예들에서, 햅틱 효과는 혼란시키는 또는 반직관적인 촉각 느낌을 제공하도록 구성될 수 있다. 예를 들어, 일 실시예에서, 햅틱 효과는 사용자의 움직임 방향과는 다른 방향으로 화면상 객체의 움직임을 나타내도록 구성될 수 있다. 그러한 실시예에서, 사용자가 광고를 화면에서 오른쪽으로 슬라이딩하여 그것을 움직이려고 할 경우, "오른쪽" 방향보다는 "위쪽" 방향으로 움직임을 에뮬레이트하는 진동이 출력될 수 있거나, 햅틱 효과가 충돌을 에뮬레이트할 수 있으며(이미지가 충돌에 따라 움직임을 멈추는 것 같이 보일 수 있다), 따라서 잠재적으로 사용자가 손가락을 들어올리고 다시 이미지를 터치하여 그와 다시 관계를 맺을 필요가 있을 수 있다.
이제 도 15를 참조하면, 도 15는 본 발명의 일 실시예에 따른 햅틱 효과를 제공하는 방법(1500)을 보여준다. 본 발명의 일부 실시예들에 대한 다음의 설명은 도 1a에 도시된 장치를 참고로 하겠지만, 도 1b 및 도 1c에 도시된 것들과 같은 다른 장치들도 본 발명의 이들 및 다른 실시예들과 함께 사용하기에 적합하다.
도 15에 도시된 실시예에서, 방법(1500)은 블록 1502에서 햅틱 위젯을 식별하는 단계부터 시작된다. 전술한 바와 같이, 햅틱 위젯은 식별 정보를 저장하고 제공할 수 있다. 일부 실시예들에서, 햅틱 위젯은 명칭, 브랜드, 회사명, ID 번호, 디지털 서명, 또는 다른 식별 정보를 저장할 수 있다. 햅틱 위젯을 식별하기 위해, 햅틱 위젯에 그의 식별 정보를 요청하는 신호가 송신될 수 있다. 일 실시예에서, 햅틱 위젯은 식별 정보를 요청하는 신호를 수신할 수 있다. 응답으로, 햅틱 위젯은 그 햅틱 위젯의 ID와 연관된 하나 이상의 정보를 제공한다. 식별 정보를 수신한 후에, 장치(10)는 햅틱 위젯의 ID 또는 위젯의 식별 특성들을 결정할 수 있다. 대안으로, 햅틱 위젯은, 소스가 알려져 있지 않거나 입증되지 않은 것일 수 있거나, 제공할 식별 정보를 가지고 있지 않을 수 있으므로, 그 신호에 응답하지 않을 수 있다.
일부 실시예들에서, 햅틱 위젯은 애플리케이션, 운영 체제, 이미지, 또는 다른 객체 또는 프로그램 코드 및 햅틱 위젯 사이의 연관성을 결정함으로써 식별될 수 있다. 예를 들어, 일 실시예에서, 장치(10)는 햅틱 위젯들과 애플리케이션들 또는 다른 객체들 사이의 연관성들을 기술하는 데이터베이스를 유지한다. 그러한 실시예에서, 장치(10)는 데이터베이스에 저장된 정보에 기초하여 햅틱 위젯을 제공할 수 있거나 햅틱 위젯에 대한 참조를 제공할 수 있다. 추가 실시예에서, 애플리케이션 또는 다른 프로그램 코드는, 예를 들어, 특정 햅틱 위젯에 메시지를 송신함으로써 또는 햅틱 위젯의 인터페이스 기능을 호출함으로써, 호출될 햅틱 위젯을 식별할 수 있다. 햅틱 위젯이 식별된 후에, 방법(1500)은 구성이 필요하다면 블록 1504로 진행하고, 그렇지 않다면 방법은 블록 1504를 건너뛰고 블록 1506으로 진행할 수 있다.
블록 1504에서는, 햅틱 위젯이 구성된다. 본 발명의 일 실시예에서, 햅틱 위젯은 햅틱 위젯을 활성화시킴으로써 또는 그것을 등록함으로써 구성될 수 있다. 예를 들어, 햅틱 위젯은 비휘발성 컴퓨터 판독 가능 매체에 햅틱 위젯을 저장하고, 위젯을 활성화시키거나 인증하고, 햅틱 기능 또는 브랜드 각인(branding) 정보와 같은 위젯의 인터페이스에 관한 정보 및 위치와 같은 위젯에 관한 정보를 운영 체제에 제공하는 설치 루틴을 실행함으로써 운영 체제에 등록될 수 있다. 일 실시예에서, 햅틱 위젯은 위젯의 "볼륨", 또는 햅틱 위젯 내의 햅틱 효과들의 상대 크기와 같은 위젯의 파라미터를 변경함으로써 구성될 수 있다. 일부 실시예들에서는, 위젯을 사용하기 전에 매번 위젯을 구성하거나, 하나 이상의 명령과 함께 위젯에 파라미터들을 송신하는 것이 필요할 수 있지만, 일부 실시예들에서는, 도 15에 도시된 방법(1500)의 구성 단계 1504가 방법(1500)이 수행될 때마다 실행될 필요가 없고 대신 선택적으로 수행될 수 있다는 것에 유의한다. 위젯을 구성한 후에, 방법(1500)은 위젯이 애플리케이션, 아이콘, 또는 장치(10)의 다른 소프트웨어 또는 하드웨어 컴포넌트와 연관되어야 한다면 블록 1506으로 진행한다. 연관 단계가 필요하지 않다면, 방법은 블록 1508로 진행한다. 예를 들어, 사용자는, 예를 들어, 브랜드 또는 로고의 이미지를 터치함으로써 위젯과 간접적으로 상호 작용하기보다는 단순히 위젯 자체와 상호 작용할 수 있다.
블록 1506에서는, 햅틱 위젯이 장치의 소프트웨어 또는 하드웨어 컴포넌트와 연관된다. 예를 들어, 일 실시예에서, 사용자는 소프트웨어 애플리케이션과 햅틱 위젯을 그들의 스마트폰에 설치할 수 있다. 설치 절차 동안에, 운영 체제는 애플리케이션이 실행될 때, 운영 체제가 햅틱 위젯에 신호를 송신하도록 애플리케이션을 위젯과 연관시킬 수 있다. 일 실시예에서, 웹페이지는 브랜드 또는 광고의 이미지를 포함할 수 있다. 웹페이지가 파싱되고 디스플레이될 때, 웹페이지 내의 프로그램 코드가 장치(10)에 설치되어 있는 햅틱 위젯에 관한 정보를 요청한다. 그 프로그램 코드가 하나 이상의 위젯이 사용 가능하다고 판정하면, 프로그램 코드는 웹페이지가 보이는 동안 사용될 위젯들에 관한 정보를 저장하고 그 위젯들을 이미지 또는 광고와 연관시킨다. 일 실시예에서, 프로그램 코드는 연관 단계가, 쿠키에서와 같이, 사용자가 처음 웹페이지로 내비게이션할 때만 수행되도록 정보를 저장한다. 그러나, 다른 실시예에서, 웹 페이지는 사용자가 웹페이지로 내비게이션할 때마다 햅틱 위젯들을 다시 연관시킬 수 있다. 추가 실시예에서, 사용자는 햅틱 위젯을 장치(10)의 소프트웨어 또는 하드웨어 컴포넌트와 수동으로 연관시킬 수 있다. 예를 들어, 사용자는 캘린더 리마인더들이 햅틱 위젯이 햅틱 효과를 플레이하게 야기하도록 햅틱 위젯을 캘린더 애플리케이션과 연관시키거나 마이크가 작동될 때마다 햅틱 효과가 플레이되도록 마이크를 햅틱 위젯과 연관시킬 수 있다(예를 들어, 사용자가 무심코 전화를 걸 경우 사용자에 통지할 수 있다).
대안으로, 사용자는 햅틱 위젯과 그 위젯 내의 개별 햅틱 효과들 양쪽 모두를 소프트웨어 컴포넌트와 연관시킬 수 있다. 예를 들어, 사용자는 캘린더 약속을 햅틱 위젯과 연관시킬 수 있지만, 위젯 내의 다른 햅틱 효과들을 다른 리마인더들과 연관시킬 수 있다. 예를 들어, 사용자는 저강도 햅틱 효과를 약속 30분 전의 리마인더와 연관시키고 강한 부정적 쾌락 햅틱 효과를 약속 시간에 또는 약속 후의 시간에 발생하는 리마인더와 연관시켜 사용자가 약속에 늦은 것을 통지하거나, 또는 사용자가 소정 횟수 약속을 거른 경우(예를 들어, 체육관 또는 훈련 약속을 4회 이상 거른 경우) 통지할 수 있다. 햅틱 위젯이 소프트웨어 또는 하드웨어 컴포넌트와 연관된 후에, 방법은 블록 1508로 진행한다.
블록 1508에서는, 햅틱 위젯의 인터페이스를 통해 햅틱 위젯에 명령이 송신된다. 예를 들어, "플레이" 명령이 인터페이스를 통해 햅틱 위젯에 송신될 수 있다. 그러한 명령은 강도, 기간 등의 하나 이상의 파라미터를 포함할 수 있거나, 단순히 특정 햅틱 효과를 선택할 수 있고, 여기서 위젯은 위젯의 구성 파라미터들에 기초하여 햅틱 효과에 대한 파라미터들을 결정한다. 일부 실시예들에서, 플레이 명령은 출력될 복수의 햅틱 효과들, 또는 심지어 출력될 햅틱 위젯 내의 햅틱 효과들, 이미지들, 비디오들, 사운드들, 또는 다른 효과들을 식별할 수 있다.
또한, 일부 실시예들에서는 다른 명령들이 햅틱 위젯에 송신될 수 있다. 예를 들어, 일부 실시예들에서는, 위젯의 기능의 일부 또는 전부를 활성화시키거나, 위젯의 기능의 일부 또는 전부를 비활성화시키기 위한 명령이 송신될 수 있다. 일 실시예에서, 명령은 정보를 요청하거나 구성 설정을 제공할 수 있다. 또한, 일부 실시예들에 따라 복수의 명령들이 햅틱 위젯에 연속적으로 또는 거의 동시에 송신될 수 있다. 명령을 수신하는 것에 응답하여, 햅틱 위젯은 햅틱 효과를 야기하도록 구성된 신호를 생성하고 제공하는 것과 같은, 그 명령과 연관된 기능을 수행한다. 명령이 위젯에 송신된 후에, 방법(1500)은 종료할 수 있고, 또는 그것은 다른 명령이 햅틱 위젯에 송신되는 단계 1508로 되돌아갈 수 있거나 그것은 위젯이 재구성될 수 있는 블록 1504로 되돌아갈 수 있다. 일부 실시예들에서는, 추가의 기능들이 수행될 수 있거나 방법(1500)의 단계들이 상이한 순서로 수행될 수 있다.
햅틱 브랜드 각인
전술한 바와 같이, 본 발명의 실시예들은 브랜드들 또는 로고들과 연관된 햅틱 효과들을 제공할 수 있다. 예를 들어, 위젯들의 사용을 통해 그러한 햅틱 효과들을 제공하기 위한 실시예들이 여기에 개시되었다. 그러나, 햅틱 가능한 브랜드 각인이 각종 방법으로 구현되고 사용될 수 있다.
일반적으로 알려진 바와 같이, 회사와 같은 엔티티는 그 엔티티와 연관된 회사 또는 제품들을 고유하게 식별하는 이미지들 또는 로고들을 개발할 수 있다. 그러한 이미지들 또는 로고들은 공식적으로 상표 등록될 수 있거나 단순히 특정 회사 또는 제품과 관례적으로 연관될 수 있다. 그러나, 다른 소스 식별 특성들이 특정 제품 또는 회사를 참조하기 위해 사용될 수 있다. 예를 들어, 제품들 및 그들의 포장의 햅틱 지각(haptic perception)은 품질 지각 및 차별화의 중요한 부분이다. 이들 양자를 온라인 마케팅 캠페인들은 몹시 아쉬워한다. 더욱이, 브랜드 개발에 있어서, "접점들(touchpoints)"은 고객과 브랜드 간의 관계의 단계들이다. 접점들은 브랜드들에 관한 의견들과 느낌들이 형성되는 중요점들이다. 브랜드에 대한 고전적인 접점들 중 하나는 제품 포장이다. 디지털 및 소셜 매체로 마케팅되고 있는 제품들의 경우, 터치될 포장이 없다. 햅틱들은 이러한 감각적 공허감을 채우고 브랜드들을 실체적이고 본능적인 것으로 만들 수 있다. 아래의 실시예들은 "브랜드의 햅틱 컴포넌트" --- 마케팅 메시지의 일부인 디지털로 생성된 촉각 및 힘 피드백과 관계가 있고, 이는 소비자 행동에 영향을 줄 수 있다.
일 실시예에서, 햅틱 효과들은 애니메이션된 움직임, 햅틱들, 및/또는 상호 작용 제스처의 가능성으로 사용자의 관심을 얻는 회사 로고에 대한 상호 작용 아바타를 제공하는 데 이용된다. 도 3a의 200에 나타내어진, 본 출원의 양수인인 이머션사(Immersion Corporation)에 대한 로고는 인간 같은 방식으로 움직임으로써 관심과 공감을 얻는 아바타의 일례이다. 실시예들은 아바타가 움직이거나 흔들리거나 화면을 "탭(tap)"할 때, 사용자가 그것의 움직임들 또는 탭 제스처에 의해 야기되는 진동들을 느낄 수 있도록 제스처들에 햅틱 피드백 및 응답을 부가할 수 있다. 예를 들어, 아바타가 애니메이션될 때, 진동촉각 효과가 출력되도록 실행 시간 패키지, 애플리케이션, 또는 명령어 세트가 제공될 수 있다. 추가로, 사용자가 아바타를 터치할 때, 그것은 하이파이브 제스처와 대응 햅틱 효과를 가장할 수 있다. 하나 이상의 햅틱 효과를 통해, 사용자는 로고와 상호 작용할 수 있고 브랜드와의 다양한 상호 작용들 및 햅틱 경험의 풍요로움은 사용자를 끌어들이고, 따라서 브랜드에 대한 그의 감정적 반응을 강화할 수 있다.
일 실시예에서, 햅틱 효과는 고객들이 브랜드를 "인액트(enact)"하는 것을 격려하는 회사 로고에 대한 상호 작용 아이콘을 제공하는 데 이용된다. 목표 대상을 설득하여 제품의 명칭을 쓰게 하거나, 브랜드에 대한 고객 행동을 "조각하는 것(sculpting)"은 브랜드 충성도(brand loyalty)를 향상시키고 브랜드 지지(brand advocacy)를 장려할 수 있다. 따라서, 햅틱 효과는 그러한 행동을 촉진하는 데 이용될 수 있다 - 예로서, 제스처를 완료하면 즐거운 햅틱 응답으로 보상받을 수 있다. 예를 들어, 도 3b의 로고(300)가 화면상에 표현될 수 있다. 그 로고를 손가락으로 그릴 때 햅틱 응답을 제공하기 위해 터치 또는 다른 입력이 검출될 수 있다. 추가로 또는 대안으로, 입력이 진행 중인 동안 햅틱 피드백이 제공될 수 있다. 유사하게, 도 3c는 복수의 분명한 발톱 자국을 포함하는 로그(320)를 제공한다. 본 발명의 일 실시예에 따라, 사용자는 할큄 동작(clawing motion)을 가장하도록 로고와 상호 작용하기 위해 멀티-터치 제스처를 이용할 수 있다. 사용자가 제스처를 수행하는 동안, 장치(10)는 발톱이 옷을 찢는 것과 같은 찢는 느낌을 가장하도록 구성된 햅틱 효과와 같은 제스처와 관련된 햅틱 효과를 출력할 수 있다.
일 실시예에서, 햅틱 효과는 제품 ID 및/또는 특성의 햅틱 컴포넌트를 제공하는 데 이용된다. 예를 들어, 제품들(402, 404, 406, 408, 410, 및 412)의 목록을 묘사하고 있는, 도 4에 도시된 문서(400)를 고려해보자. 예를 들어, 문서(400)는 여러 가지 디지털 카메라의 목록들을 갖는 웹 페이지를 포함할 수 있다. 웹 페이지에 디스플레이되어 있어, 카메라들 각각은 매우 유사한 것 같이 보이고 품질의 인식과 종종 연관되는 무게 및 감촉과 같은 특성들은 고객에게 이용 가능하지 않다. 도 4에 도시된 실시예는 제품 마케팅 담당자들이 햅틱 효과를 그들의 제품과 연관시킬 수 있게 함으로써 이러한 문제를 해결한다. 예를 들어, 414에 도시된 바와 같이, 효과는 사용자가 제품의 이미지 위에서 그의 손가락을 슬라이딩할 때 발생할 수 있다. 다른 예로서, 효과는 사용자가 검색 결과 목록에서 특정 제품에 대한 링크를 터치할 때 출력되는 독특하고 쾌적한 햅틱 "클릭" 또는 다른 브랜드 특유 햅틱 효과를 이용해 제품들을 차별화하는 데 이용될 수 있다(예를 들어, 특정 카메라의 셔터의 클릭).
본 발명의 실시예들은 햅틱 위젯들의 이용을 통해 햅틱 브랜드 각인을 제공할 수 있다. 예를 들어, 전술한 바와 같이, 햅틱 위젯은 브랜드 특유 햅틱 위젯일 수 있거나, 브랜드 특유 햅틱 효과들 또는 로고 또는 브랜드와 같은 이미지들을 포함할 수 있다. 일 실시예에서, 장치(10)는 ECI와 연관된 브랜드 특유 햅틱 위젯을 포함할 수 있다. 그러한 실시예에서, 장치(10)는, 시동시에, 햅틱 위젯이 ECI와 연관된 이미지를 디스플레이할 뿐만 아니라 ECI와 연관된 브랜드 특유 햅틱 효과를 출력하게 하는 신호들을 햅틱 위젯에 송신할 수 있다. 일부 실시예들에서, 장치(10)는 이미지를 디스플레이하고 거의 동시에 브랜드 특유 햅틱 효과를 출력하도록 구성될 수 있다.
유사하게, 브랜드와 연관된 더 풍요로운 사용자 경험을 제공하기 위해 브랜드 특유 햅틱 위젯들을 이용하도록 애플리케이션들, 운영 체제들, 또는 콘텐트를 구성할 수 있다. 일 실시예에서, 웹페이지는 브랜드 또는 회사와 연관된 이미지를 포함할 수 있다. 그러한 실시예에서, 웹페이지는 컴퓨터 시스템에서 이용 가능한 햅틱 위젯들에 관한 정보를 요청하도록 구성된 프로그램 코드를 포함할 수 있다. 컴퓨터 시스템은 설치된 또는 활성화된 위젯들을 기술하는 테이블을 유지할 수 있고 또는 각각의 ID를 결정하기 위해 설치된 위젯들 중 하나 이상에 질의할 수 있다. 그러한 실시예에서, 컴퓨터 시스템은 요청에 응답하여 이용 가능한 햅틱 위젯들에 관한 정보를 제공한다. 그 후 프로그램 코드는 이미지와 연관된 햅틱 효과를 제공할 수 있는 브랜드 특유 햅틱 위젯과 같은 햅틱 위젯을 식별할 수 있다. 그 후 프로그램 코드는 선택된 햅틱 효과를 제공할 햅틱 위젯을 호출할 수 있다. 그러한 실시예들은 사용자의 컴퓨터 또는 장치에 미리 설치된 햅틱 위젯들을 이용하는 사용자에게 더 몰입적인 유익한 브라우징 경험을 제공한다.
일 실시예에서, 서버와 같은 원격 장치에 의해 제공된 웹페이지 또는 다른 콘텐츠가 햅틱 위젯을 포함할 수 있다. 예를 들어, 사용자는 햅틱 위젯을 포함하는 웹페이지로 내비게이션할 수 있고, 그 햅틱 위젯은 사용자의 장치로 송신되고 그 웹페이지에 의해 사용된다. 하나의 그러한 실시예에서, 웹페이지는 사용자에 의한 확인을 수신한 후에 또는 사용자 개입 없이 자동으로 햅틱 위젯을 설치할 수 있고, 그 후 예를 들어 웹페이지 내의 콘텐트에 기초하여 사용자에게 햅틱 효과를 출력하도록 햅틱 위젯을 구성하거나 활성화시킬 수 있다.
다른 실시예에서, 사용자는 컴퓨터 또는 스마트폰과 같은 장치에 애플리케이션을 설치할 수 있다. 설치 동안 또는 설치 후에, 햅틱 위젯이 애플리케이션과 연관될 수 있다. 예를 들어, 일 실시예에서, 설치 동안에, 운영 체제는 애플리케이션의 제공자를 결정하고 그 애플리케이션의 제공자와 연관된 하나 이상의 햅틱 위젯들, 예를 들어 하나 이상의 브랜드 특유 햅틱 위젯들, 또는 그 애플리케이션 제공자와 연관된 이미지들 또는 브랜드 특유 햅틱 효과들을 포함하는 햅틱 위젯들을 식별할 수 있다. 일 실시예에서, 그 애플리케이션은, 실행시에, 컴퓨터 또는 장치에서 이용 가능한 햅틱 위젯들을 검출하고, 애플리케이션 시동 또는 실행 중에, 하나 이상의 브랜드 특유 햅틱 효과가 플레이될 수 있도록 하나 이상의 위젯을 애플리케이션과 연관시킬 수 있다.
이제 도 16을 참조하면, 도 16은 본 발명의 일 실시예에 따른 방법(1600)을 보여준다. 도 16의 설명은 도 1a에 도시된 장치(10)를 참고로 하겠지만, 도 1b 및 도 1c에 도시된 것들과 같은 다른 장치들도 본 발명의 이들 및 다른 실시예들과 함께 사용하기에 적합하다.
도 16에 도시된 실시예에서, 방법(1600)은 블록 1602에서 브랜드와 연관된 이미지를 디스플레이하는 단계부터 시작된다. 알려진 바와 같이, 회사들은 로고, 마스코트 등과 같은 브랜드와 연관된 이미지들을 생성할 수 있다. 일 실시예에서, 이미지는 장치(10)가 부팅중일 때 또는 애플리케이션이 시작중일 때 스플래시 화면의 일부로서 디스플레이될 수 있다. 일 실시예에서, 이미지는 웹 콘텐트 내에 또는 검색 결과상의 스폰서 링크 세트 내에 디스플레이될 수 있다. 일부 실시예들에서, 이미지는 비용 없이 배포된 게임 내에, 게임 내 광고와 함께, 예를 들어 배너 또는 인터스티셜 광고를 통해 디스플레이될 수 있다. 이미지가 디스플레이된 후에, 방법(1600)은 블록 1604로 진행한다. 그러나, 일부 실시예들에서, 방법은 블록 1602에 이어 블록 1606 또는 1608로 진행할 수 있다. 예를 들어, 일부 실시예들에서, 이미지는 애니메이션을 포함할 수 있고 따라서 방법은 블록 1606으로 진행할 수 있다. 일부 실시예들에서, 이미지 및 햅틱 효과는 거의 동시에 출력될 수 있고, 그 경우 방법(1600)은 바로 블록 1608로 진행하거나, 거의 동시에 블록들 1602 및 1608을 수행할 수 있다.
블록 1604에서는, 장치의 프로세서가 터치 감응형 입력 장치와의 접촉을 나타내는 신호를 수신한다. 예를 들어, 일 실시예에서, 장치는 예를 들어 사용자의 손가락으로부터의 접촉을 감지하도록 구성된 터치 감응형 입력 장치를 포함할 수 있다. 그러한 실시예에서, 도 1a 내지 도 1c에 관련하여 전술한 바와 같이, 터치 감응형 입력 장치는 접촉과 연관된 위치 정보뿐만 아니라 압력 정보와 같은 다른 정보도 제공할 수 있다. 접촉 신호를 수신한 후에, 일 실시예에서, 방법(1600)은 블록 1606으로 진행하지만, 일부 실시예들에서, 방법은 단계 1608로 진행할 수 있다.
블록 1606에서는, 장치의 프로세서가 디스플레이된 이미지를 업데이트한다. 예를 들어, 일 실시예에서, 디스플레이된 이미지들은 복수의 이미지들을 통해 순환하여 애니메이션을 제공할 수 있다. 다른 실시예에서, 디스플레이된 이미지는 그 이미지와 연관된 사용자의 접촉 또는 제스처와 같은 수신된 접촉 신호에 의해 수정될 수 있거나 애니메이션이 트리거될 수 있다. 일 실시예에서, 사용자는 이미지를 터치하거나 이미지에 대해 제스처를 수행할 수 있고, 이로 인해 이미지는 색상, 형상 등을 변경하거나, 걷기 또는 점프하기와 같은 애니메이션된 움직임을 수행할 수 있다. 그러나, 일부 실시예들에서, 이미지는 변하지 않을 수 있고 따라서 블록 1606에 이르지 않을 수 있다. 그러나, 블록 1606이 완료된 후에, 방법(1600)은 블록 1608로 진행한다.
블록 1608에서는, 장치(10)가 햅틱 효과를 출력한다. 예를 들어, 일 실시예에서, 장치(10)는 이미지와 연관된 브랜드 특유 햅틱 효과를 출력할 수 있다. 다른 실시예에서, 장치(10)는 회사 로고 또는 마스코트의 애니메이션과 같은 이미지의 애니메이션 동안에 복수의 브랜드 특유 햅틱 효과들을 출력할 수 있다. 추가 실시예들에서, 장치(10)는 사용자의 접촉 또는 제스처와 연관된 브랜드 특유 햅틱 효과들을 출력할 수 있다. 예를 들어, 사용자가 이미지를 터치할 경우, 장치(10)는 긍정적 쾌락 햅틱 효과를 출력할 수 있고, 또는 사용자가 회사 로고를 나타내는 이미지와 같은 이미지를 정확하게 그릴 경우, 장치(10)는 제스처 내내 긍정적 쾌락 햅틱 효과를 출력하고 사용자가 성공적으로 제스처를 완료할 경우 제2의 긍정적 쾌락 햅틱 효과를 출력하고, 또는 사용자가 제스처를 부정확하게 수행하거나, 완료 전에 제스처를 멈출 경우 부정적 쾌락 햅틱 효과를 출력할 수 있다. 또한, 일부 실시예들에서, 햅틱 효과는 햅틱 위젯을 경유하여 출력될 수 있다. 예를 들어, 햅틱 위젯이 이미지와 또는 이미지와 연관된 브랜드와 연관될 수 있다. 하나의 그러한 실시예에서, 사용자가 이미지와 상호 작용할 때, 햅틱 위젯은 브랜드 특유 햅틱 효과들을 야기하는 하나 이상의 신호를 출력하도록 명령받을 수 있다.
방법(1600)의 일부 실시예들에서, 하나 이상의 단계들이 거의 동시에, 비동기적으로, 또는 상이한 순서들로 수행될 수 있다. 예를 들어, 애니메이션된 이미지는 그 애니메이션과의 어떠한 사용자 접촉에도 상관없이 디스플레이될 수 있고, 적절한 접촉이 이루어지거나 제스처가 수행될 경우 애니메이션 동안 언제라도 햅틱 효과들이 출력될 수 있다. 또한, 일부 실시예들에서는, 도시된 모든 단계들보다 적은 수의 단계가 수행될 수 있다. 예를 들어, 일 실시예에서, 이미지는 장치(10)가 부팅중인 동안 브랜드 특유 햅틱 효과와 거의 동시에 디스플레이될 수 있지만, 장치(10)는 화면과의 사용자 접촉들을 인지하지 못할 수 있고 이미지를 업데이트하거나 변경하지 않을 수 있다.
햅틱 광고
전술한 바와 같이, 본 발명의 실시예들은 햅틱 가능한 광고를 제공할 수 있다. 예를 들어, 실시예들은 회사들이 햅틱 슈퍼스티셜(superstitials), 햅틱-비디오 동기 광고들, 또는 상호 작용 햅틱 배너 광고로 이루어진 햅틱 강화된 광고들을 통해 그들의 고객들의 마음을 움직이는 데 도움이 되도록 햅틱들을 이용하는 것을 포함한다. 햅틱들은 본질적으로 감정적이고, 말초적으로 처리되고, 매우 관심을 끄는 것이므로 이 공간에 얼마간의 독특한 이득을 제공할 수 있다. 이점들은 마케팅 담당자들이 그들의 광고 유효성을 증진하기 위한 새로운 도구를 제공하는 것, 모바일 광고들의 사용자 경험을 향상시키는 것(사용자 중심적), 모바일 광고들을 더 효과적으로 만드는 것(광고자 중심적), 및/또는 제품 차별화를 용이하게 하는 것을 포함할 수 있다(그러나 이에 제한되지 않는다). 예를 들어, 광고 전달 엔티티 또는 네트워크는 햅틱 피드백을 갖는 광고들을 제공함으로써 그 자신을 차별화할 수 있다. 몇몇 예들이 아래에 언급되어 있는데, 어떤 것이든 또는 모두가, 예를 들어, 햅틱 효과들을 명시하는 광고 또는 다른 통신을 식별하는 데이터에 액세스하는 것에 응답하여 햅틱 피드백을 제공할 수 있게 된 브라우저 또는 다른 애플리케이션을 이용함으로써 구현될 수 있다. 브라우저는 모바일 장치 또는 다른 컴퓨팅 장치에 의해 실행될 수 있다.
일 실시예에서, 햅틱 효과들은 인터스티셜들과 관련하여 제공될 수 있다. 인터스티셜("중간에" 있는 어떤 것)은 웹사이트 상의 편집 콘텐트 구조의 노멀 플로우(normal flow)에 삽입되는 문서(이미지 또는 텍스트 블록 등) 또는 광고 또는 판촉을 위한 다른 문서 내의 세그먼트이다. 그것은 매우 거슬리거나, 약간 거슬리거나, 전혀 거슬리지 않을 수 있고, 뷰어들의 반응은 통상적으로 그 메시지가 얼마나 반갑거나 재미있는가에 달려 있다.
햅틱 사용의 일례가 도 5에 도시되어 있다. 웹페이지 또는 다른 문서(500)가 콘텐트(502)를 포함한다. 브라우저 또는 다른 디스플레잉 애플리케이션은 인터스티셜(504)이 화면상에 나타날 때 그리고 사용자의 관심 초점을 광고로 옮기려는 시도로 그것이 화면에서 사라질 때 햅틱 효과(경보, 감촉의 변화 등)를 플레이하도록 구성된다. 이것은 사용자가 문서 브라우저 내의 문서의 스크롤-위치를 제어하기 위해 화면과 이미 상호 작용중인 제스처 기반 인터페이스에서 특히 효과적이다.
게다가, 슬라이딩-스크롤링 제스처(506)로 광고를 화면 밖으로 스크롤링하는 데 더 많은 거리(예를 들어, 508에 도시된 거리)가 필요하게 하고, 따라서 사용자 측에서 광고를 무시하는 데 더 많은 의식적이고 물리적인 노력이 필요하게 하여, 더 긴 시간 동안 광고에 주의를 기울이게 하기 위해 "유사력 피드백(pseudo-force feedback)"으로 여겨지는 햅틱 효과를 사용할 수 있다. 이 유사력 피드백을 극도로 감지하기 힘들게 만들어, 스크롤링 행동이 광고의 위치에 의해 영향받는 것을 사용자가 의식하지 못하게 할 수 있다.
일 실시예에서, 햅틱 피드백과 함께 슈퍼스티셜 광고가 사용된다. 슈퍼스티셜 광고들은 문서의 주요 부분을 시각적으로 가리고, 마우스 클릭, 화면 탭 등과 같은 사용자가 개시한 서핑의 중단 시에만 플레이된다. 슈퍼스티셜은 브랜드 각인, 직접 마케팅, 상업 및 오락을 포함하는 다수의 광고 목표를 달성하는 데 사용될 수 있다. 도 6에 도시된 바와 같이, 슈퍼스티셜(602)이 화면(600)상에 나타날 때와 그것이 화면에서 사라질 때 햅틱 효과(경보, 감촉의 변화 등)가 송신될 수 있다. 이 예에서, 슈퍼스티셜은 왼쪽에서 오른쪽으로의 제스처에 의해 작동되는 클로즈 버튼(604)을 특별히 포함한다. 게다가, 햅틱 저지(606) 또는 보상(608)은 각각 사용자가 광고를 무시하는 것을 저지하거나 사용자가 광고와 상호 작용하는 것을 격려하기 위해 사용될 수 있다. 예를 들어, 햅틱 저지는 불쾌하거나 날카로운 햅틱 효과일 수 있거나, 클로즈 버튼(604)에 저항을 포함할 수 있거나, 등등이 가능하다.
실시예들은 또한 햅틱 효과를 이용하여 광고 특유 상호 작용(들)을 지원할 수 있다. 여기서 햅틱의 목적은 사용자들이 광고와 상호 작용하고 있는 동안에 햅틱 효과를 통하여 추가로 그들의 관심을 끄는 것이다. 이것은 더 몰입적이고 즐거운 광고와의 사용자 경험을 제공할 것이다. 캐주얼 게임들(스포츠 게임, 퍼즐 게임)은 매력적이고 몰입적인 것이 되기 위해 햅틱 피드백을 이용할 수 있다(방망이의 탭, 진흙 등을 통해 아바타를 끄는 것, 2개의 감촉의 비교). 햅틱 효과는 (사용자의 관심을 일으키는) 햅틱 브레이크-인(haptic break-in)으로 처음에 사용자를 게임으로 끌어들이고 및/또는 몰입적인 햅틱 효과로 그들의 플레이에 보상하기 위해 사용될 수 있다.
예를 들어, 도 7은 전화기 또는 다른 장치를 기울임으로써 조준기(702)를 조준하고, 목표는 공룡(704)을 겨냥하고 탭하여 쏘는 것인 슈팅 게임(700)을 도시하고 있다. 706에 도시된 바와 같이, 탭이 발생할 때 햅틱 효과가 제공될 수 있다. 게다가, 햅틱 효과는 게임이 시작될 때, 공룡이 겨냥될 때, 등등의 경우에 제공될 수 있다. 도 8은 목표가 장치를 기울여 구슬(802)을 구멍(804)으로 이동시키는 것인 게임(800)을 보여준다. 햅틱 효과는, 예를 들어, 게임이 시작될 때, 806에서 경계에 부딪칠 때, 808에서 구멍에 접근할 때, 및 게임 중 다른 경우에 제공될 수 있다. 도 9는 시뮬레이션된 스크래치-오프 게임(900)을 보여준다. 가상 복권 티켓을 긁어 지우기 위해 902에 도시된 터치 입력이 사용된다. 가상 복권 티켓을 덮는 막이 긁혀서 없어질 때 햅틱 효과(예를 들어, 긁는 듯한 느낌에서 매끄러운 느낌으로 감촉 변화)가 사용될 수 있다.
햅틱은 사용자가 제스처 또는 친숙한 일상의 손 상호 작용을 이용하여 광고와 상호 작용하는 것을 격려하기 위해 사용될 수 있다. 광고들에 포함된 캐주얼 게임들에 대한 상호 작용 위젯들의 추가 예들은 라이트 스위치, 슬라이더, 복권 스크래치 카드, 및 물레바퀴이다. 또 하나의 가능성은 사용자가 그의 손가락으로 또는 전화를 기울이는 것을 통해 광고를 탐색함으로써 숨겨진 햅틱 "부활절 달걀"을 찾는 것을 격려하는 것이다.
실시예들은 또한 햅틱 효과를 광고들 내의 비디오(및/또는 오디오) 콘텐트와 동기화시키거나 다른 식으로 코디네이트하는 것을 포함한다. 오늘날, 많은 광고들은 애니메이션/비디오, 및 오디오를 이용하여 의사 사회적(pseudo-social) 상호 작용 시나리오를 생성함으로써 관심을 끌도록 만들어진다. 예를 들어, 광고는 카메라 앞에서 걸으며, 카메라를(사용자를) 직접 보고, 제품에 관해 말하기 시작하는 사람의 비디오를 특별히 포함할 수 있다. 이것이 매력적인 이유는 우리는 우리를 보고 우리에게 말하고 있는 사람들에게 주목하도록 고정화되어 있기 때문이다. 게다가, 움직이는 물체들(특히 사람들)은 우리가 본능적으로 우리의 눈으로 그들을 추적하게 한다. 더욱이, 사람이 매력적이라면, 이러한 눈 추적 효과는 상당히 고조된다.
이러한 시나리오의 효능을 더욱 개선하기 위해 햅틱이 사용될 수 있다. 예를 들어, 도 10에 도시된 바와 같이, 비디오(1000)는 텍스트(1004)(및/또는 연설) 출력이 제공되는 동안 화면을 탭하거나 노크하는 사람(1002)을 특별히 포함할 수 있다. 예를 들어, 광고 속의 사람(1002)은 손가락(1006)을 이용하여 화면을 탭할 수 있다. 햅틱 효과(1008)(예를 들어, 진동, 국부적인 팝(pops) 또는 클릭)가 각각의 탭과 동기화될 수 있고 따라서 사용자는 사람(1002)이 노크하고 있고 사용자의 관심을 광고로 끌어들이고 있고 시각적 접촉을 시작하고 있다는 것을 "느낄" 수 있다. 다양한 피드백의 이러한 동기화는 또한 몰입적인 의사 사회적 시나리오를 생성하고, 여기서 사용자는 광고 속의 사람이 더 존재하고, 따라서 더 현실적이라고 느끼고, 이는 추천서 또는 다른 광고 콘텐트에 대한 사용자의 신뢰, 또는 광고에 대한 사용자의 관심의 강도를 향상시킬 수 있다. 햅틱 효과(1008)을 제공하는 것에 더하여 또는 그 대신에, 햅틱 효과는 광고의 오디오 부분(만약 있다면)에 맞추어질 수 있다 - 예를 들어, 상이한 햅틱 효과들이 오디오 내의 특정 단어 또는 억양과 연관될 수 있다. 예를 들어, 오디오가 장치 스피커를 통해 출력되고 및/또는 화면상의 텍스트로서 디스플레이되고 있을 때 오디오 트랙을 분석하여 상이한 효과들을 제공하는 데 이용되는 햅틱 데이터로 변환할 수 있다.
비록 광고의 상황에서 제시되었지만, 그러한 효과들은 다른 상황에서 사용될 수 있다 - 예를 들어, 제1 사람이 화면 영역과 햅틱 상호 작용(예를 들어, 탭 등)하는 것과 함께 "비디오 메일" 메시지가 제1 사람의 비디오를 녹화할 수 있다. 제2 사람에 의해 재생될 때(예를 들어, 모바일 장치를 이용하여), 비디오는 녹화된 상호 작용들과 함께 재생될 수 있다. 유사하게, 햅틱 효과는 햅틱 가능한 오디오 메시지 동안에 전술한 바와 같이 오디오에 맞추어질 수 있다. 물론, 햅틱 효과/상호 작용은 실시간 통신 세션(예를 들어, 비디오 채팅/원격 화상 회의, 음성 통화 등) 동안에 하나의 장치로부터 다른 장치로 중계될 수도 있다.
이러한 상호 작용에의 감각 몰입은 사용자에게 제스처로 비디오와 상호 작용하도록 청함으로써 더욱 고조될 수 있다. 예를 들어, 도 11에 도시된 바와 같이, 비디오(1100) 속의 사람(1102)은 그의 손가락(1106)을 화면을 따라 슬라이딩하여 사용자에게 그의 손가락(1106)이 경로(1108)를 따라 움직이고 있을 때 그것을 추적하려고 노력할 것을 요청할 수 있다(1104에 도시된 바와 같이). 사용자가 그것을 성공적으로 수행할 경우, 햅틱 보상이 전달된다. 비디오 속의 사람과 햅틱으로 통신하는 착각은 상호 작용에의 감정적 반응 및 주의 투자를 촉진하여, 더 긴 시간 동안 사용자가 사로 잡히게 하고 및/또는 행복과 사회적 수용의 느낌을 생성할 것이다.
비디오 동기화된 햅틱 광고들의 추가적인 예들은 파이(pie)와 같은 나는 물체가 화면에 부딪칠 때 진동 또는 팝과 같은 다른 물체들과의 효과들을 사용하는 것을 포함한다. 이들 및 다른 이벤트들은 운동 동작 및 충돌을 가장함으로써 사용자의 관심을 얻을 수 있다.
이제 도 17을 참조하면, 도 17은 본 발명의 일 실시예에 따른 방법(1700)을 보여준다. 도 17의 설명은 도 1a에 도시된 장치(10)를 참고로 하겠지만, 도 1b 및 도 1c에 도시된 것들과 같은 다른 장치들도 본 발명의 이들 및 다른 실시예들과 함께 사용하기에 적합하다.
도 17에 도시된 실시예에서, 방법(1700)은 블록(1702)에서 광고를 디스플레이하는 단계부터 시작된다. 알려진 바와 같이, 회사들은 웹페이지, 비디오, 게임 등과 같은 콘텐트 내에 포함될 광고들을 제공할 수 있다. 일 실시예에서, 광고는 사용자가 보고 있는 웹페이지 내에, 예를 들어 검색 결과상의 스폰서 링크 세트 내에 디스플레이될 수 있다. 일부 실시예들에서, 광고는 비용 없이 배포된 게임 내에, 예를 들어 배너 또는 인터스티셜 광고를 통해 디스플레이될 수 있다. 일부 실시예들에서, 광고는 애니메이션들 또는 사용자가 플레이할 미니-게임들을 포함할 수 있다. 광고가 디스플레이된 후에, 방법(1700)은 블록 1704로 진행한다. 그러나, 일부 실시예들에서, 방법은 블록 1702에 이어 블록 1706 또는 1708로 진행할 수 있다. 예를 들어, 일부 실시예들에서, 광고는 애니메이션 또는 사용자가 플레이할 미니-게임을 포함할 수 있고 따라서 방법은 광고의 애니메이션이 실행될 때 블록 1706으로 진행할 수 있다. 일부 실시예들에서, 광고 및 햅틱 효과는 거의 동시에 출력될 수 있고, 그 경우 방법(1700)은 바로 블록 1708로 진행하거나, 거의 동시에 블록들 1702 및 1708을 수행할 수 있다.
블록 1704에서는, 장치의 프로세서가 터치 감응형 입력 장치와의 접촉을 나타내는 신호를 수신한다. 예를 들어, 일 실시예에서, 장치는 예를 들어 사용자의 손가락으로부터의 접촉을 감지하도록 구성된 터치 감응형 입력 장치를 포함할 수 있다. 그러한 실시예에서, 도 1a 내지 도 1c에 관련하여 전술한 바와 같이, 터치 감응형 입력 장치는 접촉과 연관된 위치 정보뿐만 아니라 압력 정보와 같은 다른 정보도 제공할 수 있다. 접촉 신호를 수신한 후에, 일 실시예에서, 방법(1700)은 블록 1706으로 진행하지만, 일부 실시예들에서, 방법은 단계 1708로 진행할 수 있다.
블록 1706에서는, 장치의 프로세서가 광고를 업데이트한다. 예를 들어, 일 실시예에서, 광고는 복수의 이미지들을 통해 순환하여 애니메이션을 제공하거나, 미니어처 골프 게임과 같은, 사용자가 플레이할 미니-게임을 제공할 수 있다. 다른 실시예에서, 광고는 그 이미지와 연관된 사용자의 접촉 또는 제스처와 같은 수신된 접촉 신호에 의해 수정될 수 있거나 애니메이션이 트리거될 수 있다. 일 실시예에서, 사용자는 광고를 터치하거나 광고에 대해 제스처를 수행할 수 있고, 이로 인해 광고는 게임을 시작하거나 광고를 감추거나 닫을 수 있다. 그러나, 일부 실시예들에서, 광고는 변하지 않을 수 있고 따라서 블록 1706에 이르지 않을 수 있다. 그러나, 블록 1706이 완료된 후에, 방법(1700)은 블록 1708로 진행한다.
블록 1708에서는, 장치(10)가 햅틱 효과를 출력한다. 예를 들어, 일 실시예에서, 장치(10)는 볼이 표면상에 구르는 것 또는 총이 발사되는 것과 같은, 광고 내의 명백한 상호 작용과 연관된 햅틱 효과와 같은, 광고와 연관된 햅틱 효과를 출력할 수 있다. 다른 실시예에서, 장치(10)는 회사 로고 또는 마스코트의 애니메이션과 같은 이미지의 애니메이션 동안에 복수의 햅틱 효과들을 출력할 수 있고, 이 경우 마스코트가 화면상에서 걷거나 팔짝팔짝 뛰거나, 사람이 화면을 탭하는 것 같이 보인다. 추가의 실시예들에서, 장치(10)는 광고와 또는 사용자의 접촉 또는 제스처와 연관된 브랜드 특유 햅틱 효과들을 출력할 수 있다. 예를 들어, 사용자가 광고를 터치할 경우, 또는 사용자가 광고로부터 광고된 제품들을 판매하는 웹사이트로 내비게이션하는 제스처를 수행할 경우, 장치(10)는 긍정적 쾌락 햅틱 효과를 출력할 수 있다. 그러한 실시예에서, 장치(10)는 제스처 내내 긍정적 쾌락 햅틱 효과를 출력하고 사용자가 성공적으로 제스처를 완료할 경우 제2의 긍정적 쾌락 햅틱 효과를 출력하고, 또는 사용자가 제스처를 부정확하게 수행하거나, 완료 전에 제스처를 멈출 경우, 또는 사용자가 광고를 닫거나 감추려고 할 경우 부정적 쾌락 햅틱 효과를 출력할 수 있다. 일부 실시예들에서, 햅틱 효과는 햅틱 위젯을 경유하여 출력될 수 있다. 예를 들어, 하나 이상의 햅틱 위젯이 광고와 또는 광고와 연관된 브랜드와 연관될 수 있다. 하나의 그러한 실시예에서, 사용자가 광고와 상호 작용할 때, 햅틱 위젯은 브랜드 특유 햅틱 효과들을 야기하는 하나 이상의 신호를 출력하도록 명령받을 수 있다.
방법(1700)의 일부 실시예들에서, 하나 이상의 단계들이 거의 동시에, 비동기적으로, 또는 상이한 순서들로 수행될 수 있다. 예를 들어, 애니메이션된 광고는 그 광고와의 어떠한 사용자 접촉에도 상관없이 디스플레이될 수 있고, 적절한 접촉이 이루어지거나 제스처가 수행될 경우 광고 동안 언제라도 햅틱 효과들이 출력될 수 있다. 또한, 일부 실시예들에서는, 도시된 모든 단계들보다 적은 수의 단계가 수행될 수 있다. 예를 들어, 일 실시예에서, 광고는 광고가 웹페이지 내에 보이는 동안, 그러나 사용자가 그와 상호 작용하기 전에 브랜드 특유 햅틱 효과와 거의 동시에 디스플레이될 수 있다.
다시 도 1a 내지 도 1c를 참조하여, 본 발명의 양태들에 따른 실시예들은 디지털 전자 회로에서, 컴퓨터 하드웨어, 펌웨어, 소프트웨어에서, 또는 전술한 것들의 조합들에서 구현될 수 있다. 일 실시예에서, 컴퓨터는 프로세서 또는 프로세서들을 포함할 수 있다. 프로세서는 프로세서에 연결된 랜덤 액세스 메모리(RAM)와 같은 컴퓨터 판독 가능 매체를 포함하거나 이에 액세스할 수 있다. 프로세서는 센서 샘플링 루틴, 햅틱 효과 선택 루틴, 및 전술한 바와 같이 선택된 햅틱 효과들을 발생시키는 신호들을 생성하는 적합한 프로그래밍을 포함하는 하나 이상의 컴퓨터 프로그램을 실행하는 것과 같이, 메모리에 저장된 컴퓨터 실행 가능 프로그램 명령어들을 실행한다.
그러한 프로세서들은 마이크로프로세서, 디지털 신호 프로세서(DSP), ASIC(application-specific integrated circuit), FPGA들(field programmable gate arrays), 및 상태 기계를 포함할 수 있다. 그러한 프로세서들은 PLC들, PIC들(programmable interrupt controllers), PLD들(programmable logic devices), PROM들(programmable read-only memories), EPROM들 또는 EEPROM들(electrically programmable read-only-memories), 또는 다른 유사한 장치들과 같은 프로그램 가능한 전자 장치들을 더 포함할 수 있다.
그러한 프로세서들은 매체, 예를 들어, 프로세서에 의해 실행될 때, 프로세서로 하여금, 프로세서에 의해 수행되거나 도움을 받아 여기에 설명된 단계들을 수행하게 할 수 있는 명령어들을 저장할 수 있는 유형의(tangible) 컴퓨터 판독 가능 매체를 포함할 수 있거나, 또는 이와 통신할 수 있다. 컴퓨터 판독 가능 매체의 실시예들은 웹 서버 내의 프로세서와 같은 프로세서에 컴퓨터 판독 가능 명령어들을 제공할 수 있는 모든 전자, 광학, 자기, 또는 다른 저장 장치들을 포함할 수 있지만, 이에 제한되지는 않는다. 매체의 다른 예들은 플로피 디스크, CD-ROM, 자기 디스크, 메모리 칩, ROM, RAM, ASIC, 구성된 프로세서, 모든 광학 매체, 모든 자기 테이프 또는 다른 자기 매체, 또는 그로부터 컴퓨터 프로세서가 판독할 수 있는 임의의 다른 매체를 포함하지만, 이에 제한되지는 않는다. 또한, 라우터, 사설 또는 공공 네트워크, 또는 다른 송신 장치와 같은 다양한 다른 장치들이 컴퓨터 판독 가능 매체를 포함할 수 있다. 설명된 프로세서, 또는 프로세싱은 하나 이상의 구조에 있을 수 있고, 하나 이상의 구조를 통하여 분산될 수 있다. 프로세서는 여기에 설명된 방법들(또는 방법들의 부분들) 중 하나 이상을 수행하기 위한 코드를 포함할 수 있다.
일반 고려 사항
본 명세서에서 접속사 "또는"의 사용은 문맥의 기술에 따라 포괄적인 관계와 배타적인 관계 모두, 또는 포괄적인 관계와 배타적인 관계 중 어느 한쪽을 포함하는 것으로 의도된 것이다.
본 명세서에서 "하도록 적응된" 또는 "하도록 구성된"의 사용은 추가적인 작업들 또는 단계들을 수행하도록 적응된 또는 구성된 장치들을 배제하지 않는 개방적이고 포괄적인 표현으로 의도된 것이다. 추가로, "에 기초한"의 사용은 하나 이상의 열거된 조건들 또는 값들"에 기초한" 프로세스, 단계, 계산, 또는 다른 액션은, 실제로는, 열거된 것들 이외에 추가적인 조건들 또는 값들에 기초할 수 있다는 점에서, 개방적이고 포괄적인 것으로 의도된 것이다. 본 명세서에 포함된 표제들, 목록들, 및 번호 기재는 설명의 편의를 위한 것일 뿐 제한하는 것으로 의도된 것은 아니다.
본 발명은 그의 특정 실시예들에 관련하여 상세히 설명되었지만, 숙련된 당업자들은, 전술한 내용을 이해하게 되면, 그러한 실시예들의 변경들, 변형들, 및 동등물들을 쉽게 만들어 낼 수 있음을 알 것이다. 따라서, 본 개시 내용은 제한보다는 예시의 목적으로 제시되었고, 통상의 숙련된 당업자가 쉽게 알 수 있을 본 발명에 대한 그러한 변경들, 변형들 및/또는 추가들을 포함하는 것을 배제하지 않는다.

Claims (20)

  1. 햅틱 위젯을 정의하는 프로그램 코드를 포함하는 프로그램 코드를 포함하는 컴퓨터 판독 가능 매체로서, 상기 햅틱 위젯은,
    햅틱 효과를 정의하는 프로그램 코드;
    상기 햅틱 위젯에 대한 인터페이스를 정의하는 프로그램 코드;
    상기 인터페이스를 통해, 상기 햅틱 효과에 대한 플레이 명령을 수신하는 프로그램 코드; 및
    상기 인터페이스를 통해, 상기 햅틱 효과를 야기하도록 구성된 신호를 출력하는 프로그램 코드 - 상기 신호는 적어도 하나의 파라미터에 기초하고 상기 플레이 명령에 응답하여 생성됨 -
    를 포함하는 컴퓨터 판독 가능 매체.
  2. 제1항에 있어서, 상기 햅틱 위젯은,
    상기 인터페이스를 통해, 상기 햅틱 위젯의 적어도 하나의 파라미터의 구성을 수신하는 프로그램 코드를 더 포함하는 컴퓨터 판독 가능 매체.
  3. 제1항에 있어서, 상기 햅틱 위젯은,
    제2 햅틱 효과를 정의하는 프로그램 코드;
    상기 인터페이스를 통해, 상기 제2 햅틱 효과에 대한 제2 플레이 명령을 수신하는 프로그램 코드;
    상기 인터페이스를 통해, 상기 제2 햅틱 효과를 야기하도록 구성된 제2 신호를 출력하는 프로그램 코드 - 상기 제2 신호는 적어도 하나의 파라미터에 기초하고 상기 제2 플레이 명령에 응답하여 생성됨 -
    를 더 포함하는 컴퓨터 판독 가능 매체.
  4. 제1항에 있어서, 상기 햅틱 위젯은,
    상기 인터페이스를 통해, 상기 위젯이 운영 체제에 등록하게 하도록 구성된 등록 명령을 수신하는 프로그램 코드를 더 포함하는 컴퓨터 판독 가능 매체.
  5. 제1항에 있어서, 상기 햅틱 위젯은,
    상기 인터페이스를 통해, 식별 요청을 수신하는 프로그램 코드; 및
    상기 인터페이스를 통해, ID(identity)를 제공하는 프로그램 코드
    를 더 포함하는 컴퓨터 판독 가능 매체.
  6. 제1항에 있어서, 상기 햅틱 효과는 브랜드 특유 햅틱 효과를 포함하는 컴퓨터 판독 가능 매체.
  7. 제6항에 있어서, 상기 햅틱 위젯은 브랜드 특유 햅틱 위젯인 컴퓨터 판독 가능 매체.
  8. 햅틱 위젯을 식별하는 단계; 및
    햅틱 위젯 인터페이스에 플레이 명령을 송신하는 단계 - 상기 플레이 명령은 상기 햅틱 위젯이 햅틱 효과 신호를 출력하게 하도록 구성되고, 상기 햅틱 효과 신호는 햅틱 효과를 야기하도록 구성됨 -
    를 포함하는 방법.
  9. 제8항에 있어서, 햅틱 위젯 인터페이스를 이용하여 상기 햅틱 위젯을 구성하는 단계를 더 포함하는 방법.
  10. 제8항에 있어서, 상기 햅틱 위젯을 식별하는 단계는 상기 햅틱 위젯 인터페이스에 명령을 송신하는 단계 및 상기 햅틱 위젯 인터페이스로부터 상기 햅틱 위젯의 식별 정보(identification)를 수신하는 단계를 포함하는 방법.
  11. 제10항에 있어서, 상기 식별 정보는 브랜드 명, 상표, 로고, 또는 회사명을 포함하는 방법.
  12. 제10항에 있어서, 상기 햅틱 위젯을 그래픽 사용자 인터페이스 객체와 연관시키는 단계를 더 포함하는 방법.
  13. 제10항에 있어서, 상기 햅틱 위젯을 제2 위젯과 연관시키는 단계를 더 포함하고, 상기 제2 위젯과의 상호 작용은 상기 햅틱 위젯이 햅틱 효과를 야기하도록 구성된 신호를 출력하게 하는 방법.
  14. 제13항에 있어서, 상기 플레이 명령은 상기 제2 위젯에 의해 송신되는 방법.
  15. 광고를 디스플레이하는 단계;
    상기 광고와 연관된 입력을 수신하는 단계; 및
    상기 입력에 기초하여 쾌락 햅틱 효과(hedonic haptic effect)를 야기하도록 구성된 신호를 생성하는 단계
    를 포함하는 방법.
  16. 제15항에 있어서, 상기 입력은 제스처를 포함하는 방법.
  17. 제15항에 있어서, 상기 쾌락 햅틱 효과는 사용자가 상기 광고와 상호 작용하는 것을 격려하도록 구성된 긍정적 햅틱 효과인 방법.
  18. 제15항에 있어서, 상기 쾌락 햅틱 효과는 사용자가 상기 광고에 대해 액션을 수행하는 것을 단념시키도록 구성된 부정적 햅틱 효과인 방법.
  19. 제15항에 있어서, 상기 햅틱 효과는 액션을 완료하는 데 증가된 노력이 필요하도록 유사력 피드백(pseudo-force feedback)을 제공하는 방법.
  20. 제19항에 있어서, 상기 햅틱 효과는 검출된 움직임과는 다른 움직임 방향을 나타내도록 구성된 방법.
KR1020127030612A 2010-04-23 2011-04-22 햅틱 효과를 제공하는 시스템 및 방법 KR101855535B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US32745010P 2010-04-23 2010-04-23
US61/327,450 2010-04-23
PCT/US2011/033576 WO2011133860A2 (en) 2010-04-23 2011-04-22 Systems and methods for providing haptic effects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020187012236A Division KR102068428B1 (ko) 2010-04-23 2011-04-22 햅틱 효과를 제공하는 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20130103664A true KR20130103664A (ko) 2013-09-24
KR101855535B1 KR101855535B1 (ko) 2018-05-04

Family

ID=44626201

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020127030612A KR101855535B1 (ko) 2010-04-23 2011-04-22 햅틱 효과를 제공하는 시스템 및 방법
KR1020187012236A KR102068428B1 (ko) 2010-04-23 2011-04-22 햅틱 효과를 제공하는 시스템 및 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020187012236A KR102068428B1 (ko) 2010-04-23 2011-04-22 햅틱 효과를 제공하는 시스템 및 방법

Country Status (6)

Country Link
US (2) US9678569B2 (ko)
EP (1) EP2561424B1 (ko)
JP (3) JP6111192B2 (ko)
KR (2) KR101855535B1 (ko)
CN (3) CN102906667B (ko)
WO (1) WO2011133860A2 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170053290A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 햅틱 제공 방법 및 이를 지원하는 전자 장치
KR20200071721A (ko) * 2017-10-24 2020-06-19 마이크로칩 테크놀로지 인코포레이티드 구성 가능한 가상 위젯들을 포함하는 터치 감지 사용자 인터페이스

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668118B1 (ko) * 2010-07-23 2016-10-21 삼성전자주식회사 원격 사용자 인터페이스 시스템에서 원격 사용자 인터페이스 데이터 송/수신장치 및 방법
US8667425B1 (en) * 2010-10-05 2014-03-04 Google Inc. Touch-sensitive device scratch card user interface
US8840013B2 (en) 2011-12-06 2014-09-23 autoGraph, Inc. Consumer self-profiling GUI, analysis and rapid information presentation tools
US20140278992A1 (en) * 2013-03-15 2014-09-18 Nfluence Media, Inc. Ad blocking tools for interest-graph driven personalization
US20130135265A1 (en) * 2011-11-30 2013-05-30 Motorola Mobility, Inc. Display mode-based input key function reassignment in a communication device
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
KR101725073B1 (ko) * 2012-02-06 2017-04-11 핫헤드 게임즈 인크. 카드 상자 및 팩의 가상 개봉
WO2013119702A1 (en) 2012-02-06 2013-08-15 Hothead Games, Inc. Virtual competitive group management systems and methods
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US8711118B2 (en) * 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8493354B1 (en) * 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US9563297B2 (en) * 2012-03-02 2017-02-07 Nec Corporation Display device and operating method thereof
US8949974B2 (en) * 2012-05-11 2015-02-03 Tyfone, Inc. Mobile device with password protected desktop screen
US9891709B2 (en) 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
US20130311881A1 (en) * 2012-05-16 2013-11-21 Immersion Corporation Systems and Methods for Haptically Enabled Metadata
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9600831B1 (en) * 2012-06-22 2017-03-21 Google Inc. User association attribution system
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
US8914453B2 (en) * 2012-07-18 2014-12-16 Blackberry Limited Method and apparatus for motion based ping during chat mode
US9245428B2 (en) 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
US8651944B1 (en) * 2012-08-09 2014-02-18 Cadillac Jack, Inc. Electronic gaming device with scrape away feature
KR20140023534A (ko) * 2012-08-16 2014-02-27 에스케이플래닛 주식회사 반응형 사용자 인터페이스 제공 장치, 방법, 및 그에 대한 전자장치에서 판독 가능한 기록매체
US20140049473A1 (en) * 2012-08-17 2014-02-20 Yuvee, Inc. User-controlled keypad advertising system
KR101946366B1 (ko) 2012-08-23 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US11070597B2 (en) * 2012-09-21 2021-07-20 Gree, Inc. Method for displaying object in timeline area, object display device, and information recording medium having recorded thereon program for implementing said method
KR102091597B1 (ko) * 2012-09-24 2020-03-20 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US8743072B2 (en) * 2012-09-28 2014-06-03 Lg Electronics Inc. Display device and control method thereof
US20150234464A1 (en) * 2012-09-28 2015-08-20 Nokia Technologies Oy Apparatus displaying animated image combined with tactile output
US10410180B2 (en) * 2012-11-19 2019-09-10 Oath Inc. System and method for touch-based communications
JP6020083B2 (ja) * 2012-11-19 2016-11-02 アイシン・エィ・ダブリュ株式会社 操作支援システム、操作支援方法及びコンピュータプログラム
US9330544B2 (en) * 2012-11-20 2016-05-03 Immersion Corporation System and method for simulated physical interactions with haptic effects
US9335822B2 (en) 2012-12-12 2016-05-10 Immersion Corporation Method and system for providing haptic effects based on haptic context information
US11030645B2 (en) * 2013-02-05 2021-06-08 Zembula, Inc. Creation and distribution of reveal-based modular advertising units
US10775888B2 (en) * 2013-02-15 2020-09-15 Facebook, Inc. Method and system for integrating haptic feedback into portable electronic devices
US10504339B2 (en) * 2013-02-21 2019-12-10 Immersion Corporation Mobile device with instinctive alerts
US20140282073A1 (en) * 2013-03-15 2014-09-18 Micro Industries Corporation Interactive display device
US10168766B2 (en) * 2013-04-17 2019-01-01 Nokia Technologies Oy Method and apparatus for a textural representation of a guidance
JP6157215B2 (ja) * 2013-05-23 2017-07-05 キヤノン株式会社 表示制御装置及びその制御方法
US9729730B2 (en) * 2013-07-02 2017-08-08 Immersion Corporation Systems and methods for perceptual normalization of haptic effects
US10037081B2 (en) 2013-08-12 2018-07-31 Immersion Corporation Systems and methods for haptic fiddling
US9576445B2 (en) * 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9443401B2 (en) 2013-09-06 2016-09-13 Immersion Corporation Automatic remote sensing and haptic conversion system
US9711014B2 (en) * 2013-09-06 2017-07-18 Immersion Corporation Systems and methods for generating haptic effects associated with transitions in audio signals
US9558637B2 (en) 2013-09-10 2017-01-31 Immersion Corporation Systems and methods for performing haptic conversion
KR102201731B1 (ko) * 2013-09-26 2021-01-12 엘지전자 주식회사 택타일 피드백을 발생하는 디스플레이 디바이스 및 그 제어 방법
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
CN106991305A (zh) * 2013-11-22 2017-07-28 华为终端有限公司 消息的处理方法及装置
US20150149292A1 (en) * 2013-11-25 2015-05-28 John C. Feghali Leveraging sensors on smart mobile phones and tablets to create advertisements to replicate a real world experience
US20150173116A1 (en) * 2013-12-13 2015-06-18 Mediatek Inc. Communications method, device and system
US9489048B2 (en) 2013-12-13 2016-11-08 Immersion Corporation Systems and methods for optical transmission of haptic display parameters
US10218660B2 (en) * 2013-12-17 2019-02-26 Google Llc Detecting user gestures for dismissing electronic notifications
GB2521436A (en) * 2013-12-20 2015-06-24 Nokia Corp Method and apparatus for adaptive feedback
US20150205352A1 (en) * 2013-12-29 2015-07-23 Immersion Corporation Distributed control architecture for haptic devices
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
JPWO2015121964A1 (ja) * 2014-02-14 2017-03-30 富士通株式会社 入力装置
JPWO2015121958A1 (ja) * 2014-02-14 2017-03-30 富士通株式会社 電子機器、入力装置、及び電子機器の駆動制御方法
KR101712592B1 (ko) * 2014-02-28 2017-03-06 popIn가부시키가이샤 프로그램
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
US11308518B2 (en) * 2014-03-26 2022-04-19 Verizon Patent And Licensing Inc. Systems and methods for dynamically determining promotions associated with digital coupons
US9258480B2 (en) 2014-03-31 2016-02-09 Facebook, Inc. Techniques to selectively capture visual media using a single interface element
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
CN106716979B (zh) 2014-09-25 2020-09-01 瑞典爱立信有限公司 具有可变摩擦的移动通信设备
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US20160187976A1 (en) * 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
US9619034B2 (en) 2015-02-25 2017-04-11 Immersion Corporation Overlaying of haptic effects
US20160259439A1 (en) * 2015-03-02 2016-09-08 Ford Global Technologies, Llc Multi-touch keyless entry pad
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
JP2018513455A (ja) * 2015-04-21 2018-05-24 イマージョン コーポレーションImmersion Corporation エッチング入力の動的表現
CN104951686B (zh) * 2015-07-07 2020-08-04 京东方科技集团股份有限公司 一种移动终端及控制移动终端的方法
JP2017045251A (ja) * 2015-08-26 2017-03-02 富士通テン株式会社 入力装置、表示装置、入力装置の制御方法およびプログラム
US20170060241A1 (en) * 2015-08-26 2017-03-02 Fujitsu Ten Limited Input device, display device, method of controlling input device, and program
JP6625372B2 (ja) * 2015-08-27 2019-12-25 株式会社デンソーテン 入力装置および車載装置
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US9740352B2 (en) 2015-09-30 2017-08-22 Elo Touch Solutions, Inc. Supporting multiple users on a large scale projected capacitive touchscreen
US10339915B2 (en) * 2015-10-22 2019-07-02 Disney Enterprises, Inc. Vibration speaker for audio headsets
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10200332B2 (en) 2015-12-14 2019-02-05 Immersion Corporation Delivery of haptics to select recipients of a message
US10102722B2 (en) 2015-12-18 2018-10-16 Immersion Corporation Wearable article having an actuator that performs non-haptic and haptic operations
US10082877B2 (en) 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US9919213B2 (en) 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
DK179657B1 (en) 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
CN107656945B (zh) * 2016-08-25 2020-06-12 腾讯科技(北京)有限公司 信息处理方法及信息处理装置
WO2018036493A1 (zh) * 2016-08-25 2018-03-01 腾讯科技(深圳)有限公司 信息处理方法及装置、显示终端和存储介质
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
US20180188905A1 (en) * 2017-01-04 2018-07-05 Google Inc. Generating messaging streams with animated objects
DE102017201236B4 (de) * 2017-01-26 2023-09-07 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Bediensystems, Bediensystem und Fahrzeug mit einem Bediensystem
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
JP2019082901A (ja) * 2017-10-31 2019-05-30 富士通コンポーネント株式会社 入力装置及びプログラム
US10955922B2 (en) * 2017-11-29 2021-03-23 International Business Machines Corporation Simulating tactile information for haptic technology
JP6828671B2 (ja) * 2017-12-12 2021-02-10 株式会社デンソー 入力装置
US10564796B2 (en) * 2017-12-14 2020-02-18 Mastercard International Incorporated Haptic interaction
US11204648B2 (en) 2018-06-12 2021-12-21 Mastercard International Incorporated Handshake to establish agreement between two parties in virtual reality
US10976820B2 (en) * 2018-07-12 2021-04-13 Microsoft Technology Licensing, Llc Natural interactions with virtual objects and data through touch
CN109542267A (zh) * 2018-11-14 2019-03-29 Oppo广东移动通信有限公司 电子设备及滑动触感控制方法
CN111723343B (zh) * 2020-05-09 2023-10-20 百度在线网络技术(北京)有限公司 电子设备的交互控制方法、装置以及电子设备
US11531400B2 (en) 2020-12-31 2022-12-20 Snap Inc. Electronic communication interface with haptic feedback response
US20220206584A1 (en) * 2020-12-31 2022-06-30 Snap Inc. Communication interface with haptic feedback response
WO2022147151A1 (en) * 2020-12-31 2022-07-07 Snap Inc. Real-time video communication interface with haptic feedback
WO2022147451A1 (en) * 2020-12-31 2022-07-07 Snap Inc. Media content items with haptic feedback augmentations
CN112783591A (zh) * 2021-01-27 2021-05-11 北京字跳网络技术有限公司 互动方法、装置、电子设备和存储介质
KR102450263B1 (ko) * 2021-05-31 2022-10-04 주식회사 파블로아트컴퍼니 반응형 그림 제작 서비스 제공 시스템 및 이의 제어방법
CN113368488B (zh) * 2021-06-11 2022-07-05 西南大学 一种虚拟乒乓球拍及其力反馈方法、系统
US11797091B2 (en) 2021-06-24 2023-10-24 Microsoft Technology Licensing, Llc Computing device with haptic trackpad
WO2023108131A1 (en) * 2021-12-10 2023-06-15 Shaw Industries Group, Inc. Visceral surface covering simulator and method of use
CN116956259A (zh) * 2022-04-13 2023-10-27 腾讯科技(深圳)有限公司 验证方法、装置、计算机设备、后台服务器及介质

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825308A (en) * 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6161126A (en) * 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
US6965868B1 (en) * 1999-08-03 2005-11-15 Michael David Bednarek System and method for promoting commerce, including sales agent assisted commerce, in a networked economy
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
JP3937682B2 (ja) 2000-04-13 2007-06-27 富士ゼロックス株式会社 情報処理装置
JP2001296949A (ja) * 2000-04-14 2001-10-26 Fuji Xerox Co Ltd 触力覚呈示装置及び記録媒体
US7159008B1 (en) 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
JP2002116836A (ja) * 2000-10-11 2002-04-19 Soft Support:Kk 試用期間限定のアプリケーションプログラムを記録した記憶媒体
JP2002218555A (ja) 2001-01-19 2002-08-02 Yoshiaki Masuno 電子チラシシステムおよびその運用方法
US6885876B2 (en) * 2001-03-12 2005-04-26 Nokia Mobile Phones Ltd. Mobile phone featuring audio-modulated vibrotactile module
US6963762B2 (en) 2001-05-23 2005-11-08 Nokia Corporation Mobile phone using tactile icons
JP2003076915A (ja) 2001-08-31 2003-03-14 Pioneer Electronic Corp 旅行プラン提供システム、移動体運行プラン提供システム及び方法、並びにコンピュータプログラム
JP4164288B2 (ja) 2002-04-30 2008-10-15 キヤノンマーケティングジャパン株式会社 広告配信システムおよび広告配信システムの処理方法およびそのプログラム
WO2004036405A2 (en) 2002-10-15 2004-04-29 Immersion Corporation Products and processes for providing force sensations in a user interface
US7779166B2 (en) 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US20060136631A1 (en) * 2002-12-08 2006-06-22 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US20050021935A1 (en) * 2003-06-18 2005-01-27 Openwave Systems Inc. Method and system for downloading configurable user interface elements over a data network
US20060066569A1 (en) 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US20060209037A1 (en) * 2004-03-15 2006-09-21 David Wang Method and system for providing haptic effects
US20060015560A1 (en) * 2004-05-11 2006-01-19 Microsoft Corporation Multi-sensory emoticons in a communication system
JP2006163579A (ja) 2004-12-03 2006-06-22 Sony Corp 情報処理システム、情報処理装置及び情報処理方法
JP2006163206A (ja) * 2004-12-09 2006-06-22 Ntt Docomo Inc 触覚提示装置
US20070101279A1 (en) * 2005-10-27 2007-05-03 Chaudhri Imran A Selection of user interface elements for unified display in a display environment
JP2007156987A (ja) * 2005-12-07 2007-06-21 Toshiba Corp ソフトウェア部品およびソフトウェア部品管理システム
US7657849B2 (en) * 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4811206B2 (ja) * 2006-09-12 2011-11-09 トヨタ自動車株式会社 入力装置
BRPI0622003A2 (pt) 2006-09-27 2012-10-16 Nokia Corp tela sensìvel ao toque, dispositivo eletrÈnico, método para operar tela sensìvel ao toque de dispositivo eletrÈnico e produto de software
US8359114B2 (en) * 2006-11-28 2013-01-22 Dentsable, Inc. Haptically enabled dental modeling system
US20080168368A1 (en) * 2007-01-07 2008-07-10 Louch John O Dashboards, Widgets and Devices
US20080209037A1 (en) 2007-02-05 2008-08-28 Dror Zernik System and method for enforcing in real time corporate business rules on web users
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US9110685B2 (en) 2008-03-25 2015-08-18 Qualcomm, Incorporated Apparatus and methods for managing widgets in a wireless communication environment
EP2277096A1 (en) * 2008-05-09 2011-01-26 Koninklijke Philips Electronics N.V. Method and system for conveying an emotion
KR101498622B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
JP2011253211A (ja) * 2008-09-25 2011-12-15 Access Co Ltd アプリケーション制御方法、アプリケーション制御プログラム、サーバ装置、クライアント装置、およびアプリケーション制御システム
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback
US8775957B2 (en) * 2008-12-01 2014-07-08 Lg Electronics Inc. Method for operating execution icon of mobile terminal
US9927873B2 (en) * 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170053290A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 햅틱 제공 방법 및 이를 지원하는 전자 장치
KR20200071721A (ko) * 2017-10-24 2020-06-19 마이크로칩 테크놀로지 인코포레이티드 구성 가능한 가상 위젯들을 포함하는 터치 감지 사용자 인터페이스

Also Published As

Publication number Publication date
CN102906667B (zh) 2016-11-23
US20110264491A1 (en) 2011-10-27
KR20180049213A (ko) 2018-05-10
JP2015181035A (ja) 2015-10-15
WO2011133860A3 (en) 2012-08-02
US10372217B2 (en) 2019-08-06
CN107102721A (zh) 2017-08-29
JP6134753B2 (ja) 2017-05-24
KR102068428B1 (ko) 2020-02-11
JP2016139418A (ja) 2016-08-04
CN102906667A (zh) 2013-01-30
EP2561424B1 (en) 2019-02-20
CN105824413A (zh) 2016-08-03
JP6235636B2 (ja) 2017-11-22
JP6111192B2 (ja) 2017-04-05
JP2013528855A (ja) 2013-07-11
KR101855535B1 (ko) 2018-05-04
WO2011133860A2 (en) 2011-10-27
EP2561424A2 (en) 2013-02-27
US9678569B2 (en) 2017-06-13
CN105824413B (zh) 2019-05-21
US20170308169A1 (en) 2017-10-26

Similar Documents

Publication Publication Date Title
KR102068428B1 (ko) 햅틱 효과를 제공하는 시스템 및 방법
JP6906580B2 (ja) ビューポートベースの拡張現実触覚効果のシステム、方法及び非一時的コンピュータ可読媒体
US10203838B2 (en) Avatar personalization in a virtual environment
US9495074B2 (en) Information processing system, storing medium, information processing device, and display method
US9889379B2 (en) Information processing system, information processing device, storing medium, and display method
KR20200050869A (ko) 맞춤형 햅틱 재생을 제공하기 위한 시스템들 및 방법들
EP3553642A1 (en) Method for automatically setting wallpaper, terminal device and graphical user interface
US20130321451A1 (en) Information processing system, computer readable medium, information processing device, and display method
US20130326409A1 (en) Information processing system, storing medium, information processing device, and display method
US8845429B2 (en) Interaction hint for interactive video presentations
US9338198B2 (en) Information processing system, storing medium, information processing device, and display method
US20130324234A1 (en) Information processing system, storing medium, information processing device, and recommendation method
JP2021053466A (ja) ゲームプログラム、ゲームプログラムを実行する方法、および情報処理装置
US20240066399A1 (en) Smooth switchover of computer game control
KR101345193B1 (ko) 이동 단말기 및 그의 제어 방법
KR20230157692A (ko) 영상 콘텐츠 내 사용자 감정표현 표시 방법 및 장치
JP2020048604A (ja) ゲームプログラム、ゲームプログラムを実行する方法、および情報処理装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right