JP6602803B2 - 双方向性コンテンツの触覚的に強化された双方向性 - Google Patents

双方向性コンテンツの触覚的に強化された双方向性 Download PDF

Info

Publication number
JP6602803B2
JP6602803B2 JP2017021994A JP2017021994A JP6602803B2 JP 6602803 B2 JP6602803 B2 JP 6602803B2 JP 2017021994 A JP2017021994 A JP 2017021994A JP 2017021994 A JP2017021994 A JP 2017021994A JP 6602803 B2 JP6602803 B2 JP 6602803B2
Authority
JP
Japan
Prior art keywords
peripheral device
identifying
peripheral
user
computer program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017021994A
Other languages
English (en)
Other versions
JP2017111833A (ja
Inventor
バーンバウム,ディビッド,エム.
エー. グラント,ダニー
ヒューベル,ロバート,ダブリュー.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45890793&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6602803(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2017111833A publication Critical patent/JP2017111833A/ja
Application granted granted Critical
Publication of JP6602803B2 publication Critical patent/JP6602803B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Description

本発明は、コンテンツ出力装置によってユーザに伝達される双方向性コンテンツの触覚的に強化された双方向性に関する。前記コンテンツ出力装置は、ユーザによって操作される周辺機器の一又は複数の位置パラメータに基づいて当該双方向性コンテンツの出力を制御する一又は複数のプロセッサによって制御される。
ユーザは、仮想環境において様々な方法で仮想物体と相互作用することができる。ユーザは、現実世界における実在の物体を操作することによって仮想物体と相互作用できる場合もある。このような相互作用には、拡張現実技術を用いることができる。拡張現実技術によって、デジタル処理されその2次元や3次元仮想物体で「拡張された」ライブビデオに2次元や3次元の仮想物体が組み込まれる。つまり、このデジタル処理によって、現実世界と仮想世界とがリアルタイムや準リアルタイムでミックスされる。ユーザは、従来、視覚フィードバックや音響フィードバックによって仮想物体との相互作用の感覚を得ている。例えば、仮想物体はディスプレイ上でユーザに提示される。この仮想物体は、ユーザの目には当該ディスプレイ上を付随する音響効果を伴って又は伴わずに動いているように映る。しかしながら、既存のシステムにおいては、仮想物体との物理的な相互作用はユーザに提供されていない。
本発明の一態様は、周辺機器を操作するユーザに対して双方向性コンテンツを提示するように構成されたシステムに関する。このシステムは、前記ユーザに対して双方向性コンテンツを出力するように構成されたコンテンツ出力装置と、コンピュータプログラムモジュールを実行するように構成されたプロセッサとを含む。このコンピュータプログラムモジュールは、位置モジュール、周辺機器識別モジュール、コンテンツモジュール、及びハプティクスモジュールを含むことができる。この位置モジュールは、前記周辺機器の位置に関連する一又は複数の位置パラメータを決定するように構成されてもよい。周辺機器識別モジュールは、複数の周辺機器の候補の中から前記周辺機器を識別するように構成されてもよい。コンテンツモジュールは、前記コンテンツ出力装置によって出力された双方向性コンテンツを前記一又は複数の位置パラメータに基づいて調整するように構成されてもよい。ハプティクスモジュールは、前記ユーザに提供されるハプティックフィードバックを前記周辺機器の識別情報及び前記一又は複数の位置パラメータに基づいて決定するように構成されてもよい。
本発明の他の態様は、コンテンツ出力装置によってユーザに伝達される双方向性コンテンツの双方向性を向上させるように構成された周辺機器に関する。このコンテンツ出力装置は、前記周辺機器の一又は複数の状態パラメータに基づいて前記双方向性コンテンツの出力を制御する一又は複数のプロセッサによって制御されてもよい。周辺機器は、アクチュエータ、無線受信機、アクチュエータ制御部、及び一又は複数の識別部を含むことができる。アクチュエータは、ユーザのためにハプティックフィードバックを生成するように構成されてもよい。無線受信機は、アクチュエータによって生成される前記ハプティックフィードバックの一又は複数のフィードバックパラメータを定義する情報を前記一又は複数のプロセッサから受信するように構成されてもよい。アクチュエータ制御部は、アクチュエータが前記一又は複数のフィードバックパラメータを定義する前記受信情報に従って前記ユーザのためにハプティックフィードバックを生成するように前記アクチュエータを制御するように構成されてもよい。一又は複数の識別部は、前記一又は複数のプロセッサから前記周辺機器に伝達される前記一又は複数のフィードバックパラメータが前記周辺機器の前記識別部によって変わるように、前記双方向性コンテンツと共に用いることができる他の周辺機器から前記一又は複数のプロセッサに対する前記周辺機器を特定することができる。
本発明の上記及び上記以外の特徴及び性質、並びに、関連する構成要素及び各部分の組み合わせの動作方法及び機能、及び、製造の経済性については、添付図面を参照しつつ以下の詳細な説明と添付の特許請求の範囲を検討することによってさらに明らかになる。これらはいずれも本明細書の一部を構成する。本明細書においては、様々な図面において関連する部分は類似の参照符号によって示される。添付図面は例示及び説明のためのものであり、本発明の発明特定事項の定義として用いることは意図されていない。本明細書及び特許請求の範囲における用法によれば、単数形の"a"、"an"及び"the"には複数のものへの言及が含まれるが、文脈上別に解すべきことが明白な場合はこの限りでない。
図1は、本発明の一又は複数の実装態様に従って、一又は複数の周辺機器を操作する一又は複数のユーザに双方向性コンテンツを提示するように構成されたシステムを示す。
図2は、本発明の一又は複数の実装態様に従って、コンテンツ出力装置によってユーザに伝達される双方向性コンテンツの双方向性を向上するように構成された周辺機器を示す。
図3は、本発明の一又は複数の実装態様に従って、コンテンツ出力装置によってユーザに伝達される双方向性コンテンツの双方向性を向上するように構成された他の周辺機器を示す。
図4は、本発明の一又は複数の実装態様に従って、コンテンツ出力装置によってユーザに伝達される双方向性コンテンツと相互作用する方法を示す。
図1は、本発明の一又は複数の実装態様に従って、一又は複数の周辺機器を操作する一又は複数のユーザに双方向性コンテンツを提示するように構成されたシステム100を示す
。双方向性コンテンツには、現実世界の表示、仮想環境の表示、ユーザの表示、現実世界の物体、仮想物体、現実の音や人工の音等のコンテンツの表示、及び/又はこれらの組み合わせを含んでもよい。例示的な実装態様は、双方向性コンテンツとの双方向性を向上させるハプティック技術又は「ハプティクス(”haptics”)」を提供する。ハプティクス
には、力、振動、動き等の接触フィードバックをユーザに与えることによってユーザの触感を利用する触知フィードバック技術及び/又は運動感覚(力)フィードバック技術(kinesthetic feedback (force) feedback technology)を含んでも良い。これにより、双方向性コンテンツとの相互作用の際により魅力的で完全なユーザ体験を提供することができる。
一部の実装態様において、システム100は、少なくとも一つの周辺機器102、一又は複数の外部リソース104、少なくとも一つのデジタル装置106等のコンポーネントを含むことができる。システム100、周辺機器102、外部リソース104、及び/又はデジタル装置106のコンポーネントは、一又は複数の電子通信リンクを介して動作可能に接続される。例えば、かかる電子通信リンクは、少なくとも部分的に通信ネットワーク108を介して確立され、
インターネット等のネットワークを含むことができる。この説明は本発明を限定するものではなく、前記周辺機器102、外部リソース104、及び/又はデジタル装置106が他の通信媒体によって動作可能に接続された実装態様も本開示の範囲に含まれる。
周辺機器102には、双方向性コンテンツと相互作用するためにユーザによって操作される実在の物体、実在の装置、及び/又はこれらの組み合わせが含まれてもよい。周辺機器102の操作には、平行移動、回転、変形、及び/又はこれら以外の態様で周辺機器102を動かすことが含まれる。周辺機器102を構成する実在の物体の例には、玩具、飲料容器、包装、雑誌、彫像、カード(例えば、スポーツカード、ゲームカード、ギフトカード、及び/又はこれら以外のカード)、本、スポーツ用品/フィットネス用品、収集品等のコンシューマー製品、ユーザの体の部位(例えば、手、頭、顔、胴等の部位)、図柄付きの紙片及び/又はカード用紙(ユーザによって印刷されたものであっても良いしそうでなくとも良い)等の実在の物体が含まれる。周辺機器102の例である実在の装置には、例えば、携帯電話、デジタル・ミュージック・プレイヤー、携帯情報端末、スマートフォン、腕時計、電子書籍リーダー、ラップトップコンピューター、タブレットコンピューター、リモコン装置、ウェアラブルコンピューター(双方向性の洋服やアクセサリ(双方向性の洋服やアクセサリ))、ユーザの体に埋め込まれるコンピューター・デジタル・メディアデバイスや双方向性デジタル・メディアデバイス(computing/interactive digital media device)等の実在の装置が含まれる。しかしながら、例示的な実装態様に従ってユーザによって操作され又はユーザによって相互作用される任意のものが広く周辺機器102の構成要素となることができる。周辺機器102の構成要素となる例示的な周辺機器については、本発明の一又は複数の実装態様に従って図2及び図3に関連してさらに説明される。
外部リソース104には、システム100の外部にある情報リソース、双方向性コンテンツのホスト及び/又はプロバイダー、システム100に参加している外部主体等のリソースが含まれる。一部の実装態様においては、外部リソース104の機能の一部又は全部がシステム100内のリソースによって提供されてもよい。
デジタル装置106は、双方向性コンテンツをユーザに提供し、周辺機器102を操作するユーザと双方向性コンテンツとの相互作用を促進するように構成されてもよい。図1に示されているように、デジタル装置106には、電子記憶装置110、コンテンツ出力装置112、撮像装置114、周辺機器識別センサ116、位置センサ118、無線送受信機120、少なくとも一つのプロセッサ122等のコンポーネントを少なくとも一つ含むことができる。デジタル装置106には、例えば、デスクトップコンピューター、携帯電話、デジタル・ミュージック・プレイヤー、携帯情報端末、スマートフォン、腕時計、電子書籍リーダー、ラップトップコンピューター、タブレットコンピューター、リモコン装置、ウェアラブルコンピューター(双方向性の洋服やアクセサリ)、ユーザの体に埋め込まれるコンピューター・デジタル・メディアデバイスや双方向性デジタル・メディアデバイス、及び/又はこれら以外のコンピュータプラットフォームを少なくとも一つ含むことができる。
デジタル装置106を構成する一又は複数のコンポーネントが、デジタル装置106の一又は複数の構成要素の機能と組み合わされることにより、単一のコンポーネントとなっていてもよい。図1においては、デジタル装置106の構成要素は一つの装置に配置されているが、そうでなくともよい。一部の実装態様においては、デジタル装置106の一又は複数の構成要素は、デジタル装置106の他の構成要素から離れて別個に配置されていてもよい。かかる実装態様においては、デジタル装置106の別個の構成要素は、デジタル装置106の一又は複数の他の構成要素と(有線又は無線で)通信可能に接続されていてもよい。通信接続は、通信ネットワーク108によって提供されてもよい。
電子記憶装置110は、情報を電子的に記憶する電子記録媒体を含んでいてもよい。電子記憶装置110の電子記録媒体は、デジタル装置106と一体に設けられる(すなわち実質的に取り外し不可能な)システム記憶装置、及び/又は、例えばポート(例えば、USBポート、ファイヤーワイヤーポート等)やドライブ(例えばディスクドライブ等)を介してデジタル装置106に取り外し可能に接続されるリムーバブル記憶装置の両方又は一方を含むことができる。電子記憶装置110は、光学的に読み取り可能な記録媒体(光ディスク等)、磁気的に読み取り可能な記録媒体(磁気テープ、磁気ハードドライブ、フロッピードライブ等)、電気チャージ型の記録媒体(例えば、EEPROM、RAM等)、半導体記録媒体(フラッシュドライブ等)、及び/又はこれら以外の電子的に読み取り可能な記録媒体を少なくとも一つ含むことができる。電子記憶装置110は、ソフトウェアアルゴリズム、プロセッサ122によって決定された情報、周辺機器102によって受信された情報、外部リソース104から受信された情報、及び/又はデジタル装置106が以下に説明する動作を行うためのこれら以外の情報を記憶することができる。
コンテンツ出力装置112は、双方向性コンテンツをユーザに出力するように構成されてもよい。双方向性コンテンツは、視覚的に、音響的に、及び/又はハプティックに(触覚的に)出力可能である。双方向性コンテンツは、電子記憶装置110、プロセッサ122やそのモジュール、外部リソース104等のソースからの出力のために、コンテンツ出力装置112に提供される。例示的な実装態様におけるコンテンツ出力装置112は、電子ディスプレイ(モニターやスクリーン等)、電子音響変換器(スピーカー等)等のコンテンツ出力装置を含むことができる。コンテンツ出力装置112は、触覚的に知覚できる双方向性コンテンツを出力することができる。例えば、コンテンツ出力装置112に含まれる電子音響変換器は、ユーザの触覚知覚システムによって知覚される位置において所定範囲のエネルギーを出力するように構成されてもよい。このハプティック出力は、アクチュエータ等の追加的なハプティック出力専用装置とは独立に、ハプティック出力専用装置と協調して、又はハプティック出力専用装置の代わりに用いられる。
撮像装置114は、デジタル装置106の周辺環境やその構成要素の視覚的表示に関する情報を記録するように構成されてもよい。この周辺環境には、ユーザ、周辺機器102、ユーザの物理的な環境等の視覚的表示を含んでもよい。この視覚的表示には、少なくとも一つの静止画像、動画、及び/又はこれら以外の視覚的表示を含むことができる。撮像装置114によって記録される情報は、コンテンツ出力装置112、プロセッサ122やそのモジュールに、及び/又はシステム100のこれら以外のコンポーネントに対して提供されてもよい。撮像装置114には、デジタルカメラ、ウェブカメラ、アナログカメラ、三次元カメラ、ステレオカメラ等撮像装置が含まれるが、これらには限られない。
周辺機器識別センサ116は、周辺機器102を識別する情報を伝達する出力信号を生成するように構成されてもよい。一部の実装態様における周辺機器識別センサ116は、複数の他の周辺機器から周辺機器102を識別するように構成されてもよい。一部の実装態様における周辺機器識別センサ116は、周辺機器102を視覚的に識別することができる。かかる実装態様における周辺機器識別センサ116は、撮像装置114であってもよい。一部の実装態様における周辺機器識別センサ116は、周辺機器102をリモートセンシングにより識別することができる。周辺機器102の同一性のリモートセンシングには、RFID、画像認識、光符号識別及び/又は光符号変換、GPS等の位置センサ、無線信号強度、ネットワークアドレス、無線プロトコル(ブルートゥース(登録商標)等)、有線接続等のリモートセンシング技術が含まれる。周辺機器識別センサ116は、プロセッサ122やそのモジュール及び/又はシステム100の他のコンポーネントに対して、出力信号等によって周辺機器102の識別情報を提供することができる。
位置センサ118は、現実世界における周辺機器102の位置を検出するように構成されてもよい。一部の実装態様における位置センサ118は、周辺機器102の位置を視覚的に検出することができる。かかる実装態様において、位置センサ118は撮像装置114であってもよい。一部の実装態様において、位置センサ118は、周辺機器102の位置をリモートセンシングにより検出することができる。周辺機器102の位置のリモートセンシングには、RFID、WiFi等の無線通信プロトコルに基づく三角測量、容量性センシング、光学的な動き追跡もしくは他のタイプの動き追跡、磁力計、加速度計、ジャイロスコープ等の機器組み込み型センサから得られるデータへのアクセス、及び/又はこれらの以外のリモートセンシング技術を含むことができる。位置センサ118は、周辺機器102の位置に関連する情報を伝達する出力信号を生成するように構成されてもよい。かかる出力信号は、プロセッサ122やそのモジュール及び/又はシステム100のそれ以外のコンポーネントに対して提供されてもよい。一部の実装態様における位置センサ118は、周辺機器102によって支持される一又は複数のセンサを含む。例えば、位置センサ118は、加速度計、ジャイロスコープ、デジタルコンパス等の周辺機器102の位置及び/又は動きに関連する情報を伝達する出力信号を生成するように構成されたセンサを一又は複数含むことができる。
無線送受信機120は、システム100の一又は複数のコンポーネントへ情報を無線送信し、及び/又は、システム100の一又は複数のコンポーネントから情報を無線受信するように構成されてもよい。このように、無線送受信機120は、無線送信機、無線受信機、及び/又は無線送信機と無線受信機との組み合わせを含むことができる。無線送受信機120によって送受信される情報は、ユーザに提示されるハプティックフィードバックに関連するものでもよい。
プロセッサ122は、デジタル装置106において情報処理能力を提供するように構成されてもよい。このように、プロセッサ122は、デジタルプロセッサ、アナログプロセッサ、情報を処理するように構成されたデジタル回路、情報を処理するように構成されたアナログ回路、ステートマシーン、及び/又は電子的に情報を処理するこれら以外のメカニズムを少なくとも一つ含んでも良い。プロセッサ122は図1において単一の部材として示されているが、これは説明の便宜のために過ぎない。一部の実装態様において、プロセッサ122は、複数の処理ユニットを含むことができる。これらの処理ユニットは、同一の装置内に物理的に配置されてもよく、又は、プロセッサ122は、協働する複数の装置の処理機能を表すものであってもよい。プロセッサ122等は、デジタル装置106に含まれる第1のプロセッサと、周辺機器102に含まれる第2のプロセッサを含んでいてもよい。この第1のプロセッサ及び第2のプロセッサは、互いに通信することができ、協働してプロセッサ122に属する機能を提供することもできる。
図1に示されているように、プロセッサ122は、一又は複数のコンピュータプログラムモジュールを実行するように構成されてもよい。この一又は複数のコンピュータプログラムモジュールは、位置モジュール124、周辺機器識別モジュール126、コンテンツモジュール128、ハプティクスモジュール130等のモジュールを少なくとも一つ含むことができる。プロセッサ122は、モジュール124、126、128、及び/又は130を、ソフトウェア、ハードウェア、ファームウェア、これらの組み合わせ、及び/又はプロセッサ122上での処理能力を構成するこれら以外のメカニズムを実行するように構成されてもよい。
モジュール124、126、128、及び130は図1において単一の処理ユニットに配置されるように示されているが、プロセッサ122が複数の処理ユニットを含む実装態様においては、モジュール124、126、128、及び/又は130を少なくとも一つ他のモジュールと離れて配置してもよい。異なるモジュール124、126、128、及び/又は130によって提供される機能についての以下の説明は説明のためになされたものであり、発明を限定することを意図するものではない。モジュール124、126、128、及び/又は130の任意のモジュールは、説明された機能よりも少ない機能や、それよりも多い機能を提供することができる。例えば、モジュール124、126、128、及び/又は130の少なくとも一つを除外することができ、その機能の一部又は全部をモジュール124、126、128、及び/又は130の他のモジュールによって提供することも可能である。他の例においては、モジュール124、126、128、及び/又は130の一つの機能の一部又は全部を実行できる一又は複数の追加的なモジュールを実行するように、プロセッサ122を構成することができる。
位置モジュール124は、一又は複数の周辺機器(周辺機器102等)の位置に関連する一又は複数の位置パラメータを測定するように構成されてもよい。位置パラメータには、ユーザやデジタル装置106等の参照位置に対する周辺機器の位置、周辺機器の向き、周辺機器の寸法等に関連する情報を含めることができる。一部の実装態様における位置モジュールは、位置センサ118の出力信号に少なくとも部分的に基づいて一又は複数の位置パラメータを測定するように構成されてもよい。一部の実装態様においては、撮像装置114からの情報を一又は複数の位置パラメータを測定するために用いることができる。
周辺機器識別モジュール126は、複数の周辺機器の候補の中から周辺機器(周辺機器102等)を特定するように構成されてもよい。周辺機器の候補には、ユーザの近くにある様々な実在の物体及び/又は実在の装置を含んでもよい。一部の実装態様における周辺機器識別モジュール126は、周辺機器識別センサ116の出力信号に基づいて周辺機器を識別するように構成されてもよい。周辺機器識別モジュール126は、周辺機器の外観及び/又は視覚的側面に基づいて、その周辺機器を識別するように構成されてもよい。例えば、一部の実装態様における周辺機器識別モジュール126は、周辺機器が有する図柄に基づいて、その周辺機器を識別するように構成されてもよい。一部の実装態様においては、周辺機器識別モジュール126は、複数の周辺機器の種類の中から周辺機器の種類を識別することによって周辺機器を識別するように構成される。周辺機器の種類には、例えば、実在の物体の種類、実在の装置の種類等が含まれる
コンテンツモジュール128は、コンテンツ出力装置112によって出力される双方向性コンテンツを調整するように構成されてもよい。双方向性コンテンツの調整は、位置モジュール124によって測定された一又は複数の位置パラメータ、周辺機器識別モジュール126によって決定された周辺機器の識別情報や種類等の要素に基づいて行われる。コンテンツ出力装置112によって出力された双方向性コンテンツの調整には、外観、向き、寸法、位置、テーマ、音響、音量、及び/又は双方向性コンテンツの他の側面の調整を含むことができる。
ハプティクスモジュール130は、ユーザに提供されるハプティックフィードバックを決定するように構成されてもよい。ユーザは、図2及び図3に関連してさらに説明されるように、周辺機器102を介してハプティックフィードバックを体験することができる。ハプティックフィードバックには、ユーザの触覚を利用した触知フィードバック(tactile feedback)を含んでもよい。ハプティックフィードバックは、物理的な力、振動、動き等の周辺機器102によってユーザに作用させる触知フィードバックを含むことができる。ハプティクスモジュール130は、周辺機器識別モジュール126によって決定された周辺機器102の識別情報に少なくとも部分的に基づいてハプティックフィードバックを決定するように構成されてもよい。ハプティクスモジュール130は、位置モジュール124によって測定された一又は複数の位置パラメータに少なくとも部分的に基づいてハプティックフィードバックを決定するように構成されてもよい。ハプティクスモジュール130は、ハプティックフィードバックがコンテンツ出力装置112から出力される双方向性コンテンツにさらに少なくとも部分的に基づくように構成されてもよい。ユーザに提供されるハプティックフィードバックに関連する情報は、無線送受信機120によって伝達されてもよい。
図2は、本発明の一又は複数の実装態様に従って周辺機器202を示す。周辺機器202は、コンテンツ出力装置112によってユーザに伝達される双方向性コンテンツの双方向性を向上させるように構成されてもよい。一部の実装態様において、周辺機器202は、図1に示されている周辺機器102の構成要素であってもよい。図2に示されているように、周辺機器202は、付属装置204、ベース装置206等のコンポーネントを含むことができる。図2において、付属装置204及びベース装置206には所定のコンポーネントが含まれるように示されているが、この図示は、付属装置204及び/又はベース装置206がアクチュエータ208、無線送受信機210、アクチュエータ制御部212、一又は複数の識別部214等のコンポーネントの一又は複数を含む態様に本発明を限定することを意図するものではない。一部の実装態様においては、例えば、付属装置204及び/又はベース装置206は、バッテリー、音声再生装置、加速度計、動き検出器、ボタン等のコンポーネント(図2には示されていない)を少なくとも一つ含むことができる。
アクチュエータ208は、ユーザのためにハプティックフィードバックを生成するように構成されてもよい。ハプティックフィードバックは、物理的な力、振動、動き、マルチモード信号のハプティック成分、及び/又はこれら以外の周辺機器202がユーザに作用させる触知フィードバックを含むことができる。アクチュエータ208は、周辺機器202に一又は複数の動きを取らせるように構成された機械装置を含むことができる。アクチュエータ208は、エネルギー(例えば、電気エネルギー、空気エネルギー、油圧エネルギー等のエネルギー)を機械的エネルギーに変換し、周辺機器202の動きを生じさせる。一部の実装態様におけるアクチュエータ208は、そのドライブシャフトの回転によって振動が生成されるように、当該ドライブシャフトに偏った質量が付加された電気モーターを含んでも良い。例示的な実装態様において、アクチュエータ208は、付属装置204及び/又はベース装置206によって支持される。
無線送受信機210は、システム100の一又は複数のコンポーネントへ情報を無線送信し、及び/又は、同一又は複数のコンポーネントから情報を無線受信するように構成されてもよい。このように、無線送受信機210は、無線送信機、無線受信機、及び/又は無線送信機と無線受信機との組み合わせを含んでもよい。無線送受信機210によって送受信される情報は、ユーザに伝達されるハプティックフィードバックに関連するものであってもよい。例えば、無線送受信機210は、アクチュエータ208によって生成されるハプティックフィードバックの一又は複数のフィードバックパラメータを定義する一又は複数のプロセッサ(プロセッサ122等)からの情報を送受信するように構成される。フィードバックパラメータは、ハプティックフィードバックの種類、ハプティックフィードバックの持続期間、ハプティックフィードバックの強度又は強さ、周期的なハプティック信号の周波数、ハプティック信号の高調波成分、ハプティックパルスのパターンやハプティック信号の態様、静的な及び/又は変化する変形特性、及び/又はハプティックフィードバックのこれら以外の側面を含むことができる。
アクチュエータ制御部212は、アクチュエータ208を制御するように構成されてもよい。アクチュエータ制御部212は、アクチュエータ208を制御して、ユーザのためにハプティックフィードバックを生成させる。アクチュエータ制御部212によるアクチュエータ208の制御は、一又は複数のフィードバックパラメータを定義する一又は複数のプロセッサ(プロセッサ122等)からの受信情報に従って行われてもよい。アクチュエータ制御部212 は、例えば、付属装置204及び/又はベース装置206によって支持される。
識別部214は、一又は複数のプロセッサ(プロセッサ122等)に対して周辺機器202及び/又は付属装置204を識別するように構成されてもよい。識別部214は、双方向性コンテンツに関して使用できる他の周辺機器及び/又は付属装置の中から周辺機器202及び/又は付属装置204を識別できる。一又は複数のプロセッサ(プロセッサ122等)から周辺機器202に送信された一又は複数のフィードバックパラメータは、周辺機器202及び/又は付属装置204の識別部に依存するものであってもよい。識別部は、図柄、模様、色彩、及び/又はこれら以外の視覚的特徴を含んでもよい。
付属装置204は、ベース装置206と関連するように構成された実在の物体及び/又は実在の装置であってもよい。付属装置204とベース装置206との関係には、物理的な結合等の関係が含まれてもよい。付属装置204とベース装置206との物理的な結合には、付属装置204をベース装置206に取り外し可能に取り付けること、付属装置204をベース装置206に取り外しできないように取り付けること、付属装置204とベース装置206とを交換可能に結合すること等の物理的な結合を含むことができる。ベース装置206において、付属装置204等の複数の付属装置を入れ替えることができる。ベース装置206に関連する特定の付属装置は、コンテンツ出力装置112を介してユーザに提供される双方向性コンテンツに影響を与えることができる。付属装置204は、プロセッサ122の一又は複数のモジュールによって使用される識別部の構成要素となる所定の図柄を有していてもよい。
一部の実装態様において、付属装置204は、カード状又はそれ以外の紙状の物理的形態要素を有していても良い。かかる形態要素の例には、コレクションカード(スポーツカード及び/又はゲームカード等)、グリーティングカード(誕生日カード等)、製品カタログ等の宣伝用部材、地図等のガイド、書籍、雑誌、新聞等のカード状又はそれ以外の紙状の形態要素が含まれる。ベース装置206は付属装置204を受け入れるように構成され、付属装置204は取り外し可能にベース装置206に接続されてもよい。このように、付属装置204に類似する複数の付属装置は、ベース装置206において入れ替え可能である。例えば、ベース装置206は、カード状の形態要素を有する付属装置(付属装置204等)をその一部分が視認できるように挿入可能なスロットを備えることができる。ベース装置206は、付属装置204がベース装置206に接続されたときにハプティックフィードバックをユーザに提供するように構成されてもよい。ユーザに提供されるハプティックフィードバックは、付属装置204に依存してもよく、異なる付属装置によって異なるハプティックフィードバックが提供されてもよい。
一部の実装態様において、付属装置204は、ベース装置206と無関係にハプティックフィードバックをユーザに提供することができる。かかる実装態様において、ベース装置206をシステム100から省略し、又は他の用途に用いることができる。例えば、ベース装置206は、一又は複数の付属装置を格納し、一又は複数の付属装置を充電し、一又は複数の付属装置を選択し、及び/又はこれら以外の方法で付属装置204の使用を補完することができる。
付属装置204が書籍状の形態要素を有する一部の実装態様においては、一又は複数の個別ページが、デジタル装置106のコンテンツ出力装置112による双方向性コンテンツの提示を開始させる組み込み情報を含むことができる。かかる実装態様においては、装丁部分がデジタル装置106の構成要素となることができ、書籍状の形態要素において開かれている特定のページが付属装置204の構成要素となることができる。
図3は、本発明の一又は複数の実装態様に従って周辺機器302を示す。この周辺機器302は、コンテンツ出力装置112によってユーザに伝達される双方向性コンテンツの双方向性を向上させるように構成されてもよい。一部の実装態様において、周辺機器302は、図1に示された周辺機器102の構成要素であってもよい。図2に示されたように、周辺機器302は、アクチュエータ304、a 無線送受信機306、アクチュエータ制御部308、一又は複数の識別部310、電子ディスプレイ312、ディスプレイ制御部314、ユーザインタフェース316、及び/又はこれら以外のコンポーネントを少なくとも一つ含むことができる。例えば、一部の実装態様における周辺機器302は、バッテリー、音声再生装置、加速度計、動き検出器、ボタン等のコンポーネント(図3には不図示)を少なくとも一つ含むことができる。アクチュエータ304、無線送受信機306、アクチュエータ制御部308、及び/又は識別部310は、図2に示したアクチュエータ208、無線送受信機210、アクチュエータ制御部212、及び/又は識別部214にそれぞれ類似するものであってもよい。一部の実装態様において、識別部310は、周辺機器302に取り外し可能に接続できる加入者識別モジュールカード318を含むことができる。
電子ディスプレイ312は、コンテンツ(例えば、画像、動画、テキスト等のコンテンツ)をユーザに表示するように構成されてもよい。電子ディスプレイ312に表示されるコンテンツは、コンテンツ出力装置112の一又は複数のモジュールによって使用される識別部を含むことができる。電子ディスプレイ312によって表示されるコンテンツは、双方向性コンテンツを含むことができる。この双方向性コンテンツは、デジタル装置106のコンテンツ出力装置112によって提示される双方向性コンテンツと同一や類似のものであってもよく、異なるものであってもよい。電子ディスプレイ312は、単一の装置として周辺機器302に一体化されてもよい。電子ディスプレイ312は、周辺機器302と別個に設けられ、周辺機器302と通信可能に接続されてもよい。一部の実装態様において、電子ディスプレイ312は、ユーザから情報を受容するように構成されたタッチスクリーンを含んでいてもよい。
ディスプレイ制御部314は、電子ディスプレイ312を制御するように構成されてもよい。ディスプレイ制御部314は、電子ディスプレイ312を制御し、コンテンツ出力装置112によってユーザに伝達される双方向性コンテンツに対応する双方向性コンテンツをユーザに提示することができる。ディスプレイ制御部314は、識別部を提示するために電子ディスプレイ312を制御することができる。
ユーザインタフェース316は、ユーザから情報を受容し、及び/又はユーザに対して情報を提供するように構成されてもよい。このように、ユーザインタフェース316は、ユーザからの情報の受容及び/又はユーザへの情報の提供を促進するハードウェア及び/又はソフトウェアを含むことができる。例えば、ハードウェアは、ボタン、ダイアル、タッチパッド等のハードウェアを少なくとも一つ含むことができる。一部の実装態様において、ユーザインタフェース316の一部又は全部は、電子ディスプレイ312を介してユーザに提供される。電子ディスプレイ312がタッチスクリーンを含む実装態様においては、ユーザはそのタッチスクリーンを操作することによって情報をユーザインタフェース316に提供することができる。
一部の実装態様におけるユーザインタフェース316は、ユーザ構成可能な設定をユーザに提示するように構成されてもよい。ユーザインタフェース316は、ユーザ構成可能な設定に関する設定値の選択をユーザから受け取るように構成されてもよい。一又は複数のユーザ構成可能な設定は、周辺機器302のアクチュエータ304によって生成されるハプティックフィードバックに影響を与えることができる。ユーザ構成可能な設定は、周辺機器302のアクチュエータ制御部308の一又は複数の動作を構成することができる。このユーザ構成可能な設定は、一又は複数のプロセッサに提供されてもよい。一部の実装態様において、ユーザ構成可能な設定は、周辺機器302の無線送受信機306によってデジタル装置106のプロセッサ122に提供されてもよい。
一部の実装態様において、周辺機器302は、携帯電話、デジタル・ミュージック・プレイヤー、携帯情報端末、スマートフォン、腕時計、電子書籍リーダー、ラップトップコンピューター、タブレットコンピューター、リモコン装置、ウェアラブルコンピューター(双方向性の洋服やアクセサリ)、ユーザの体に埋め込まれるコンピューター・デジタル・メディアデバイスや双方向性デジタル・メディアデバイス等の携帯型装置を含んでもよい。これらの携帯型装置は、シングルプレイヤーゲーム、マルチプレイヤーゲーム、ソーシャルネットワーク、仮想現実環境や拡張現実環境との相互作用、双方向メッセージ等のコミュニケーション、遠隔操作の確認(例えば、テレロボティクス、現実の鍵や仮想的な鍵の施錠・解錠)、テキストベースのストーリーや映像ベースのストーリーにおけるストーリー内キャラクターの動作や物語の展開に基づく対話式応答、及び/又はこれら以外のモバイルアプリケーションの少なくとも一つのために設定されてもよい。
シングルプレイヤーゲームやマルチプレイヤーゲームに関連する実装態様においては、ゲーム内のイベントや相互作用に応答して周辺機器302を介してハプティックフィードバックをユーザに提供してもよい。例えば、アクチュエータ304は、ゲームにおいて爆発が起きている間、又は、所定の音楽が鳴っている間に振動することができる。ソーシャルネットワークに関連する実装態様においては、ソーシャルネットワーク内のイベントや相互作用に応答して周辺機器302を介してハプティックフィードバックをユーザに提供することができる。例えば、アクチュエータ304は、ソーシャルネットワークにおいてユーザに友人ができたときに振動することができる。
双方向メッセージ等のコミュニケーションに関連する実装態様において、コミュニケーションにはハプティックフィードバックを含むことができる。かかるコミュニケーションには、ユーザが双方向メッセージ要素(感情等)の反応を感じることができる仮想的な接触コミュニケーションを含んでもよい。かかるコミュニケーションは、互いに接触する仮想的な接触物体を含むことができる。例えば、ユーザに関連づけられた仮想的な手が他の仮想的な手に接触することにより、周辺機器302を介してハプティック効果を生じさせることができる。
遠隔操作の確認に関連する実装態様においては、仮想環境は、例えば、コンテンツ出力装置112や電子ディスプレイ312を介してユーザに提供される。この仮想環境は、現実世界の環境を表現するものである。ユーザは、現実世界の環境におけるロボット等のメカニズムを制御し、現実世界の環境における物体と相互作用することができる。これらの相互作用によって、周辺機器302によるハプティックフィードバックの提供が開始される。
テキストベースのストーリーや映像ベースのストーリーにおけるストーリー内キャラクターの動作や物語の展開に基づく対話式応答に関連する実装態様においては、所定のキャラクターの動作及び/又は物語の展開が、対応するハプティックフィードバック用のトリガーとして機能してもよい。例えば、ストーリー内キャラクターが野球バットを振って野球ボールを打つときに、ボールがバットに当たる衝撃を表すハプティックフィードバックが周辺機器302を介して提供されてもよい。
上述のように、周辺機器102は、玩具を含むことができる。周辺機器202及び/又は周辺機器302に関連して説明された一又は複数のコンポーネントは、かかる玩具に備えられていても良い。このような玩具の例には、アクションフィギュア、人形、乗り物、武器等の玩具が含まれる。この玩具の表示は、コンテンツ出力装置112等の装置により出力される双方向性コンテンツに含まれていても良い。ユーザは、玩具の表示によって実行されたアクションに応答するハプティックフィードバックをその玩具を介して体験することができる。玩具の表示は双方向性コンテンツに含まれていても良い。例えば、その玩具がアクションフィギュアであり、その玩具が双方向性コンテンツにおいて歩行しているように表示された場合には、その玩具は歩行に対応するハプティックフィードバックを提供することができる。ハプティックフィードバックは、ユーザによる玩具の操作に少なくとも部分的に基づいて開始されてもよい。例えば、玩具が武器である場合には、ユーザがその武器を模擬的に使用することによって、その玩具によって提供されるハプティックフィードバックが開始される。
図4は、本発明の一又は複数の実装態様に従って、コンテンツ出力装置によってユーザに提供される双方向性コンテンツと相互作用する方法400を示す。以下に示される方法400の工程は、説明のためのものである。一部の実装態様において、方法400は、明示していない一又は複数の追加的な工程とともに実行され、及び/又は、説明されている一又は複数の工程を省略して実行される。また、方法400の工程の実行順序が図4に示され以下に説明されるが、本発明の方法はこれに限定されるものではない。
一部の実装態様において、方法400は、一又は複数の処理装置(例えば、デジタルプロセッサ、アナログプロセッサ、情報処理用に設計されたデジタル回路、情報処理用に設計されたアナログ回路、ステートマシーン、及び/又はこれら以外の情報を電子的に処理するメカニズム)において実行される。これらの一又は複数の処理装置は、電子記憶装置媒体に電子的に記録された命令に応じて方法400の工程の一部又は全部を実行する一又は複数の装置を含むことができる。この一又は複数の処理装置には、方法400の工程の少なくとも一部を実行するように設計された専用のハードウェア、ファームウェア、及び/又はソフトウェアによって構成された一又は複数の装置が含まれる。
工程402において、双方向性コンテンツはユーザに対して出力される。一部の実装態様において、この双方向性コンテンツは、デジタル装置106のコンテンツ出力装置112及び/又は周辺機器302の電子ディスプレイ312によって出力されてもよい。一部の実装態様において、出力されるコンテンツはコンテンツモジュール128によって決定される。
工程404において、ユーザによって操作される周辺機器の位置に関連する一又は複数の位置パラメータが決定される。一部の実装態様において、この一又は複数の位置パラメータは、位置モジュール124と連動して決定される。一又は複数の位置パラメータを決定する際に、撮像装置114及び/又は位置センサ118を用いることができる。
工程406において、ユーザによって操作される周辺機器が、周辺機器の複数の候補の中から識別される。周辺機器識別モジュール126を実行することによって、ユーザによって操作される周辺機器を識別することができる。一部の実装態様においては、ユーザによって操作される周辺機器を識別する際に撮像装置114及び/又は周辺機器識別センサ116が用いられる。
工程408において、出力される双方向性コンテンツが調整される。この調整は、工程404において決定された位置パラメータ、工程406におけるユーザによって操作される周辺機器の識別情報、及び/又はこれら以外の要素の少なくとも一つに少なくとも部分的に基づいて行われる。一部の実装態様において、コンテンツモジュール128を実行することにより、工程408を実行することができる。
工程410において、ユーザに提供されるハプティックフィードバックが決定される。この決定は、工程404において決定された位置パラメータ、工程406におけるユーザによって操作される周辺機器の識別情報、及び/又はこれら以外の要素の少なくとも一つに少なくとも部分的に基づいて行われる。一部の実装態様において、ハプティクスモジュール130を実行することにより、工程410を実行することができる。
以上、現時点で最も実用的で望ましいと考えられる態様に基づいて本発明を説明したが、これらの説明は、本発明の説明のみを目的としたものであり、何ら本発明を限定することを意図したものではない。一方、これらの説明は、請求項の趣旨及び範囲に含まれる変更及び均等物を含むものである。例えば、任意の実施形態の特徴と他の実施形態の一又は複数の特徴との組み合わせも可能な限り本発明の範囲に含まれる。

Claims (17)

  1. 双方向性コンテンツを提示するためのコンピュータプログラムであって、
    前記コンピュータプログラムは、
    周辺機器の位置に関連する一又は複数の位置パラメータを位置センサ又は撮像装置の出力信号に基づいて決定する位置パラメータ決定ステップと、
    複数の周辺機器の候補の中から前記周辺機器を識別する周辺機器識別ステップと、
    電子ディスプレイを含むコンテンツ出力装置によって出力された双方向性コンテンツを
    前記一又は複数の位置パラメータに基づいて調整するコンテンツステップと、
    ハプティックフィードバックを前記周辺機器の識別情報及び前記一又は複数の位置パラ
    メータに基づいて決定するハプティクスステップと、
    を実行するようにプロセッサによって実行可能なコードを備えるコンピュータプログラ
    ム。
  2. 前記周辺機器識別ステップは、複数の周辺機器の種類の中から周辺機器の種類を識別す
    ることにより前記周辺機器を識別するステップを含む請求項1に記載のコンピュータプロ
    グラム。
  3. 前記周辺機器が図柄を有するカードを含み、前記周辺機器識別ステップが当該図柄に基
    づいて前記周辺機器を識別するステップを含む請求項1に記載のコンピュータプログラム
  4. 前記周辺機器が携帯電話である請求項1に記載のコンピュータプログラム。
  5. 前記出力信号は第1出力信号であり、前記周辺機器識別ステップが周辺機器識別センサの第2出力信号に基づいて前記周辺機器を識別するステップを含む請求項1に記載のコンピュータプログラム。
  6. 前記コンテンツ出力装置が電子音響変換器をさらに含む請求項1に記載のコンピュータ
    プログラム。
  7. 前記ハプティクスステップは、前記コンテンツ出力装置によって出力される双方向性コ
    ンテンツにさらに基づいて前記ハプティックフィードバックを決定するステップを含む請
    求項1に記載のコンピュータプログラム。
  8. 前記決定されたハプティックフィードバックに関連する情報を、前記ハプティックフィ
    ードバックを提示するように構成されたアクチュエータに無線送信するように、無線送信
    機を操作するように、プロセッサによって実行可能なコードを備える請求項1に記載のコ
    ンピュータプログラム。
  9. 請求項1〜のいずれか1項に記載のコンピュータプログラムが記憶された記憶媒体。
  10. 双方向性コンテンツを提示するための方法であって、
    前記方法は、
    周辺機器の位置に関連する一又は複数の位置パラメータを位置センサ又は撮像装置の出力信号に基づいて決定する位置パラメータ決定ステップと、
    複数の周辺機器の候補の中から前記周辺機器を識別する周辺機器識別ステップと、
    電子ディスプレイを含むコンテンツ出力装置によって出力された双方向性コンテンツを
    前記一又は複数の位置パラメータに基づいて調整するコンテンツステップと、
    ハプティックフィードバックを前記周辺機器の識別情報及び前記一又は複数の位置パラ
    メータに基づいて決定するハプティクスステップと、
    を備える方法。
  11. 前記周辺機器識別ステップは、複数の周辺機器の種類の中から周辺機器の種類を識別す
    ることにより前記周辺機器を識別するステップを含む請求項10に記載の方法。
  12. 前記周辺機器が図柄を有するカードを含み、前記周辺機器識別ステップが当該図柄に基
    づいて前記周辺機器を識別するステップを含む請求項10に記載の方法。
  13. 前記周辺機器が携帯電話である請求項10に記載の方法。
  14. 前記出力信号は第1出力信号であり、前記周辺機器識別ステップが周辺機器識別センサの第2出力信号に基づいて前記周辺機器を識別するステップを含む請求項10に記載の方法。
  15. 前記コンテンツ出力装置が電子音響変換器をさらに含む請求項10に記載の方法。
  16. 前記ハプティクスステップは、前記コンテンツ出力装置によって出力される双方向性コンテンツにさらに基づいて前記ハプティックフィードバックを決定するステップを含む請求項10に記載の方法。
  17. 前記決定されたハプティックフィードバックに関連する情報を、前記ハプティックフィ
    ードバックを提示するように構成されたアクチュエータに無線送信するステップをさらに
    を備える請求項10に記載の方法。
JP2017021994A 2010-09-30 2017-02-09 双方向性コンテンツの触覚的に強化された双方向性 Active JP6602803B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/895,161 US8352643B2 (en) 2010-09-30 2010-09-30 Haptically enhanced interactivity with interactive content
US12/895,161 2010-09-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011201748A Division JP6092506B2 (ja) 2010-09-30 2011-09-15 双方向性コンテンツの触覚的に強化された双方向性

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019185950A Division JP2020024725A (ja) 2010-09-30 2019-10-09 方法、非一時的コンピュータ可読媒体及びシステム

Publications (2)

Publication Number Publication Date
JP2017111833A JP2017111833A (ja) 2017-06-22
JP6602803B2 true JP6602803B2 (ja) 2019-11-06

Family

ID=45890793

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2011201748A Expired - Fee Related JP6092506B2 (ja) 2010-09-30 2011-09-15 双方向性コンテンツの触覚的に強化された双方向性
JP2017021994A Active JP6602803B2 (ja) 2010-09-30 2017-02-09 双方向性コンテンツの触覚的に強化された双方向性
JP2019185950A Pending JP2020024725A (ja) 2010-09-30 2019-10-09 方法、非一時的コンピュータ可読媒体及びシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011201748A Expired - Fee Related JP6092506B2 (ja) 2010-09-30 2011-09-15 双方向性コンテンツの触覚的に強化された双方向性

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019185950A Pending JP2020024725A (ja) 2010-09-30 2019-10-09 方法、非一時的コンピュータ可読媒体及びシステム

Country Status (2)

Country Link
US (6) US8352643B2 (ja)
JP (3) JP6092506B2 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633397B2 (en) * 2010-09-15 2017-04-25 GM Global Technology Operations LLC Social networking with autonomous agents
US8352643B2 (en) * 2010-09-30 2013-01-08 Immersion Corporation Haptically enhanced interactivity with interactive content
EP3659681A1 (en) 2011-01-05 2020-06-03 Sphero, Inc. Self-propelled device with actively engaged drive system
US10281915B2 (en) 2011-01-05 2019-05-07 Sphero, Inc. Multi-purposed self-propelled device
US9090214B2 (en) 2011-01-05 2015-07-28 Orbotix, Inc. Magnetically coupled accessory for a self-propelled device
US9429940B2 (en) * 2011-01-05 2016-08-30 Sphero, Inc. Self propelled device with magnetic coupling
US9218316B2 (en) 2011-01-05 2015-12-22 Sphero, Inc. Remotely controlling a self-propelled device in a virtualized environment
US20120225630A1 (en) * 2011-03-03 2012-09-06 Htc Systems and Methods for Antenna Tuning in a Mobile Device
US20120244969A1 (en) 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
US8590023B2 (en) 2011-06-30 2013-11-19 Intel Corporation Mobile device and method for automatic connectivity, data offloading and roaming between networks
US9571482B2 (en) 2011-07-21 2017-02-14 Intel Corporation Secure on-line sign-up and provisioning for Wi-Fi hotspots using a device management protocol
US20130227409A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Integrating sensation functionalities into social networking services and applications
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
TWI444851B (zh) * 2012-04-18 2014-07-11 Au Optronics Corp 三度空間互動系統及三度空間互動方法
US9292758B2 (en) 2012-05-14 2016-03-22 Sphero, Inc. Augmentation of elements in data content
US9827487B2 (en) 2012-05-14 2017-11-28 Sphero, Inc. Interactive augmented reality using a self-propelled device
EP2850512A4 (en) 2012-05-14 2016-11-16 Sphero Inc OPERATION OF A CALCULATION DEVICE BY DETECTING ROUNDED OBJECTS IN A PICTURE
US10056791B2 (en) 2012-07-13 2018-08-21 Sphero, Inc. Self-optimizing power transfer
US8947216B2 (en) * 2012-11-02 2015-02-03 Immersion Corporation Encoding dynamic haptic effects
KR101272582B1 (ko) * 2012-11-14 2013-06-28 주식회사 하이소닉 휴대단말기용 스마트 토이 구동 시스템
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
US9307408B2 (en) 2012-12-27 2016-04-05 Intel Corporation Secure on-line signup and provisioning of wireless devices
US9432916B2 (en) * 2012-12-27 2016-08-30 Intel Corporation Situation aware sensor power management
US9479595B2 (en) 2013-02-05 2016-10-25 Intel IP Corporation Online signup provisioning techniques for hotspot connections
US9247399B2 (en) * 2013-03-14 2016-01-26 Google Technology Holdings LLC Alert peripheral for notification of events occuring on a programmable user equipment with communication capabilities
US20140297900A1 (en) * 2013-04-02 2014-10-02 Phone Halo Llc Method for tracking wired and wireless audio peripherals using unique volume key identifiers on a host device
US9821237B2 (en) 2013-04-20 2017-11-21 Tito Vasquez Character-based electronic device, system, and method of using the same
WO2014209405A1 (en) * 2013-06-29 2014-12-31 Intel Corporation System and method for adaptive haptic effects
USD757028S1 (en) * 2013-08-01 2016-05-24 Palantir Technologies Inc. Display screen or portion thereof with graphical user interface
USD781869S1 (en) 2013-08-01 2017-03-21 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
AU355184S (en) 2013-08-01 2014-05-01 Palantir Tech Display screen
US9293015B2 (en) * 2013-09-09 2016-03-22 Immersion Corporation Electrical stimulation haptic feedback interface
US9829882B2 (en) 2013-12-20 2017-11-28 Sphero, Inc. Self-propelled device with center of mass drive system
US9898079B2 (en) 2014-06-11 2018-02-20 Drivemode, Inc. Graphical user interface for non-foveal vision
US10518188B2 (en) * 2014-06-30 2019-12-31 Microsoft Technology Licensing, Llc Controlling physical toys using a physics engine
EP2977856A1 (en) * 2014-07-25 2016-01-27 Rovio Entertainment Ltd Physical surface interaction
US9639159B2 (en) 2014-07-25 2017-05-02 Rovio Entertainment Ltd Physical surface interaction
US10369477B2 (en) 2014-10-08 2019-08-06 Microsoft Technology Licensing, Llc Management of resources within a virtual world
US9696757B2 (en) 2014-10-08 2017-07-04 Microsoft Corporation Transfer of attributes between generations of characters
USD780770S1 (en) 2014-11-05 2017-03-07 Palantir Technologies Inc. Display screen or portion thereof with graphical user interface
US10613629B2 (en) 2015-03-27 2020-04-07 Chad Laurendeau System and method for force feedback interface devices
CN107615213A (zh) * 2015-04-21 2018-01-19 意美森公司 蚀刻输入的动态呈现
US20160378186A1 (en) * 2015-06-23 2016-12-29 Intel Corporation Technologies for controlling haptic feedback intensity
US9594151B1 (en) 2015-09-05 2017-03-14 Techip International Limited System and method for locating objects
EP3349096B1 (en) * 2015-09-08 2023-08-23 Sony Group Corporation Information processing apparatus, method, and computer program
US10248207B2 (en) * 2015-10-28 2019-04-02 Capital One Services, Llc Systems and methods for providing variable haptic feedback
US10994188B2 (en) * 2015-11-30 2021-05-04 Nike, Inc. Shin guard with remote haptic feedback
US10197998B2 (en) 2015-12-27 2019-02-05 Spin Master Ltd. Remotely controlled motile device system
US10509468B2 (en) 2016-01-27 2019-12-17 Tactai, Inc. Providing fingertip tactile feedback from virtual objects
CN105536249B (zh) * 2016-02-18 2023-09-01 高创(苏州)电子有限公司 游戏系统
USD826269S1 (en) 2016-06-29 2018-08-21 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD803246S1 (en) 2016-06-29 2017-11-21 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD858572S1 (en) 2016-06-29 2019-09-03 Palantir Technologies Inc. Display screen or portion thereof with icon
USD802016S1 (en) 2016-06-29 2017-11-07 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD802000S1 (en) 2016-06-29 2017-11-07 Palantir Technologies, Inc. Display screen or portion thereof with an animated graphical user interface
USD847144S1 (en) 2016-07-13 2019-04-30 Palantir Technologies Inc. Display screen or portion thereof with graphical user interface
USD835646S1 (en) 2016-07-13 2018-12-11 Palantir Technologies Inc. Display screen or portion thereof with an animated graphical user interface
USD811424S1 (en) 2016-07-20 2018-02-27 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
DE102016223476A1 (de) * 2016-11-25 2018-05-30 BSH Hausgeräte GmbH Haptisches Bedienelement für ein Haushaltsgerät
USD808991S1 (en) 2016-12-22 2018-01-30 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
EP3343324B1 (en) * 2016-12-27 2021-06-09 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
USD868827S1 (en) 2017-02-15 2019-12-03 Palantir Technologies, Inc. Display screen or portion thereof with set of icons
USD834039S1 (en) 2017-04-12 2018-11-20 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD839298S1 (en) 2017-04-19 2019-01-29 Palantir Technologies Inc. Display screen or portion thereof with graphical user interface
USD822705S1 (en) 2017-04-20 2018-07-10 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD872736S1 (en) 2017-05-04 2020-01-14 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD837234S1 (en) 2017-05-25 2019-01-01 Palantir Technologies Inc. Display screen or portion thereof with transitional graphical user interface
USD874472S1 (en) 2017-08-01 2020-02-04 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD872121S1 (en) 2017-11-14 2020-01-07 Palantir Technologies, Inc. Display screen or portion thereof with transitional graphical user interface
US10871829B2 (en) 2017-12-05 2020-12-22 Tactai, Inc. Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
US20190187819A1 (en) * 2017-12-18 2019-06-20 Immersion Corporation Haptically-Enabled Peripheral Usable for Two-Dimensional and Three-Dimensional Tracking
USD883997S1 (en) 2018-02-12 2020-05-12 Palantir Technologies, Inc. Display screen or portion thereof with transitional graphical user interface
USD883301S1 (en) 2018-02-19 2020-05-05 Palantir Technologies, Inc. Display screen or portion thereof with transitional graphical user interface
USD885413S1 (en) 2018-04-03 2020-05-26 Palantir Technologies Inc. Display screen or portion thereof with transitional graphical user interface
USD888082S1 (en) 2018-04-03 2020-06-23 Palantir Technologies, Inc. Display screen or portion thereof with transitional graphical user interface
USD886848S1 (en) 2018-04-03 2020-06-09 Palantir Technologies Inc. Display screen or portion thereof with transitional graphical user interface
USD869488S1 (en) 2018-04-03 2019-12-10 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
USD879821S1 (en) 2018-08-02 2020-03-31 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
US11516649B2 (en) * 2018-10-29 2022-11-29 Apple Inc. Mechanism to activate and manage a standalone device for cellular service
USD919645S1 (en) 2019-01-02 2021-05-18 Palantir Technologies, Inc. Display screen or portion thereof with transitional graphical user interface
USD916789S1 (en) 2019-02-13 2021-04-20 Palantir Technologies, Inc. Display screen or portion thereof with transitional graphical user interface
USD953345S1 (en) 2019-04-23 2022-05-31 Palantir Technologies, Inc. Display screen or portion thereof with graphical user interface
CN111897524B (zh) * 2020-07-06 2022-04-29 瑞声新能源发展(常州)有限公司科教城分公司 实现Haptics触觉效果的方法及系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6300936B1 (en) * 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6256011B1 (en) 1997-12-03 2001-07-03 Immersion Corporation Multi-function control device with force feedback
US6160540A (en) 1998-01-12 2000-12-12 Xerox Company Zoomorphic computer user interface
JP2000250689A (ja) * 1999-03-03 2000-09-14 Minolta Co Ltd 仮想物体呈示システム
JP3958944B2 (ja) * 2001-07-17 2007-08-15 アルプス電気株式会社 多機能入力装置
WO2004111819A1 (en) * 2003-06-09 2004-12-23 Immersion Corporation Interactive gaming systems with haptic feedback
US20050198376A1 (en) * 2004-01-02 2005-09-08 Kotzin Michael D. Method and apparatus for data transfer
JP4632078B2 (ja) * 2004-04-07 2011-02-16 ソニー株式会社 コンテンツ提供システム、提供装置および方法、受信装置および方法、記録媒体、並びにプログラム
JP2006163579A (ja) * 2004-12-03 2006-06-22 Sony Corp 情報処理システム、情報処理装置及び情報処理方法
JP2007067724A (ja) * 2005-08-30 2007-03-15 Matsushita Electric Ind Co Ltd 携帯端末装置及び表示方法
US8539242B2 (en) * 2005-12-21 2013-09-17 The Invention Science Fund I, Llc Voice-capable system and method for providing input options for authentication
JP2010097291A (ja) * 2008-10-14 2010-04-30 Dainippon Printing Co Ltd 情報送信装置、情報送信システム、情報提供処理プログラム及び情報提供方法
US8123620B2 (en) * 2008-12-23 2012-02-28 Nintendo Co., Ltd. Enhanced video game jukebox-type system and methodology
US9317116B2 (en) * 2009-09-09 2016-04-19 Immersion Corporation Systems and methods for haptically-enhanced text interfaces
JP5508032B2 (ja) * 2010-01-07 2014-05-28 任天堂株式会社 ゲームプログラム、ゲーム装置、および、ゲームの制御方法
US9566503B2 (en) * 2010-02-02 2017-02-14 Nintendo Co., Ltd. Massively single-playing online game
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP5598050B2 (ja) 2010-03-26 2014-10-01 宇部興産株式会社 自己流動性水硬性組成物
US8352643B2 (en) 2010-09-30 2013-01-08 Immersion Corporation Haptically enhanced interactivity with interactive content
US9741215B2 (en) * 2014-12-11 2017-08-22 Elwha Llc Wearable haptic feedback devices and methods of fabricating wearable haptic feedback devices
US9946077B2 (en) * 2015-01-14 2018-04-17 Ginger W Kong Collapsible virtual reality headset for use with a smart device

Also Published As

Publication number Publication date
JP2020024725A (ja) 2020-02-13
US20170300117A1 (en) 2017-10-19
US10073598B2 (en) 2018-09-11
JP2017111833A (ja) 2017-06-22
US8352643B2 (en) 2013-01-08
US20180356963A1 (en) 2018-12-13
US20190258384A1 (en) 2019-08-22
US10248298B2 (en) 2019-04-02
US20120084467A1 (en) 2012-04-05
US8745284B2 (en) 2014-06-03
US9727217B2 (en) 2017-08-08
JP6092506B2 (ja) 2017-03-08
US20140281958A1 (en) 2014-09-18
US20130104040A1 (en) 2013-04-25
US10664143B2 (en) 2020-05-26
JP2012080533A (ja) 2012-04-19

Similar Documents

Publication Publication Date Title
JP6602803B2 (ja) 双方向性コンテンツの触覚的に強化された双方向性
US10974138B2 (en) Haptic surround functionality
EP2902879B1 (en) Haptic based information processing apparatus, information processing program, information processing system, and information processing method
EP3364272A1 (en) Automatic localized haptics generation system
JP2017062788A (ja) 音声−触覚干渉を補償するように触覚効果を修正するためのプログラム可能な触覚デバイスおよび方法
CN102099766A (zh) 用于在无源和有源模式之间变换触觉反馈功能的系统和方法
CN108509028A (zh) 用于虚拟情感触摸的系统和方法
CN109426343B (zh) 基于虚拟现实的协作训练方法及系统
US20120098837A1 (en) Apparatus for augmenting a handheld device
JP6801838B2 (ja) スローモーションのためのハプティック効果の修正
US20240123340A1 (en) Haptic fingerprint of user's voice
US20240100417A1 (en) Outputting braille or subtitles using computer game controller
US20240115937A1 (en) Haptic asset generation for eccentric rotating mass (erm) from low frequency audio content
WO2019111604A1 (ja) 第1の情報処理装置、第2の情報処理装置、情報処理方法、プログラムおよび情報処理システム
CN114984563A (zh) 云游戏控制系统、游戏手柄、游戏手柄的控制方法及装置
WO2023056225A2 (en) Systems and methods for haptic feedback effects
CN117836039A (zh) 用于触觉反馈效果的系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20180605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20190319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190816

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190827

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191009

R150 Certificate of patent or registration of utility model

Ref document number: 6602803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250