JP2021002399A - ユーザー相互作用を共有するための装置 - Google Patents

ユーザー相互作用を共有するための装置 Download PDF

Info

Publication number
JP2021002399A
JP2021002399A JP2020167593A JP2020167593A JP2021002399A JP 2021002399 A JP2021002399 A JP 2021002399A JP 2020167593 A JP2020167593 A JP 2020167593A JP 2020167593 A JP2020167593 A JP 2020167593A JP 2021002399 A JP2021002399 A JP 2021002399A
Authority
JP
Japan
Prior art keywords
content
user
gesture
users
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020167593A
Other languages
English (en)
Inventor
アルディ、ジェイソン
Hardi Jason
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Muzik LLC
Original Assignee
Muzik LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Muzik LLC filed Critical Muzik LLC
Publication of JP2021002399A publication Critical patent/JP2021002399A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/06Message adaptation to terminal or network requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/06Message adaptation to terminal or network requirements
    • H04L51/063Content adaptation, e.g. replacement of unsuitable content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/311Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/391Angle sensing for musical purposes, using data from a gyroscope, gyrometer or other angular velocity or angular movement sensing device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum
    • G10H2230/281Spint drum assembly, i.e. mimicking two or more drums or drumpads assembled on a common structure, e.g. drum kit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/095Identification code, e.g. ISWC for musical works; Identification dataset
    • G10H2240/101User identification
    • G10H2240/105User profile, i.e. data about the user, e.g. for user settings or user preferences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/155Library update, i.e. making or modifying a musical database using musical parameters as indices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/321Bluetooth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication

Abstract

【課題】ユーザー間でコンテンツを共有するためのコンピュータ実装方法。【解決手段】コンテンツをユーザーのヘッドホンに伝送するステップと、ヘッドホンに関連付けられるタッチバッド上でユーザにより行われた手のジェスチャを示すステップと、手のジェスチャに関する情報をヘッドホンからモバイル装置に伝送するステップと、モバイル装置で手のジェスチャに関する情報を受信するステップと、手のジェスチャによって判定されたコンテンツに関係するユーザー選好およびメタデータをネットワークに伝送するステップとを含む。【選択図】図1

Description

関連出願の相互参照
本出願は、2014年10月10日出願の米国仮出願第62/062,672号、DEVICES FOR SHARING USER INTERACTIONSに対する優先権の利益を主張するものであり、参照によりその全体が本明細書に組み込まれる。
本明細書は、遠隔入力装置、より具体的には、出力装置と一体化された入力装置に関する。コンピューティング装置は一般的にユーザーによって使用され、多種多様の機能を実施する。ユーザーは、1つ以上の制御と相互作用することによってコンピューティング装置にコマンドを発行し、入力はしばしば、キーボード、タッチバッド、マウス、またはタッチスクリーン等の入力装置を通して行われる。コンピューティング装置は、ビデオモニター、スピーカー、ヘッドホン、または他の感覚/知覚装置(複数可)を介して様々な形態で、ユーザーコマンドに応答してコンテンツを出力する。ヘッドホンを介してコマンドを音声再生装置に入力する、または音声ファイルが再生されるとヘッドホンを介してリアルタイムでソーシャルメディアチャネルと相互作用する等、制御およびコマンドを出力装置からコンピューティング装置に直接入力することが望ましい場合がある。「再生」、「停止」、「一時停止」、および「音量」等の基本的出力コマンドを除いて、現在の出力装置は、コンピューティング装置上で実行しているソフトウェアプログラムに対する制御または入力ができない。
本明細書は、例えば、かつこれらに限定されないが、ネットワーク接続される双方向型ヘッドホン、双方向型ドングル、双方向型ケーブル、双方向型スピーカー、双方向型音楽機器、および双方向型手動コントローラ等の双方向型遠隔入力装置および双方向型出力装置に関する技術を記載する。
本明細書に記載される本主題の1つ以上の実施形態の詳細は、添付図面および以下の説明において示される。本主題の他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになる。
ユーザー入力を承諾する、解釈する、および伝送するための例示的なシステムの図である。 入力インターフェースモジュールとのユーザー相互作用を解釈するための例示的な技法の図である。 近接情報を収集および解釈するための例示的なシステムの図である。 センサーデータを収集するための例示的なシステムの図である。 例示的な音声システムの図である。 例示的なデータパケットの図である。 別の例示的なデータパケットの図である。 直接アナログ入力/出力を例示する図である。 パケット翻訳の一例を示す。 例示的なボタンベースの作動を示す。 クライアント間でデータを交換する例示的なプロセスを示す。 クライアント間でデータを交換する例示的なプロセスを示す。 クライアント間でデータを交換する例示的なプロセスを示す。 クライアント間でデータを交換する例示的なプロセスを示す。 モバイルアプリケーションとサーバとの間で伝送される例示的なデータを示す。 モバイルアプリケーションとソーシャルメディアサーバとの間で伝送される例示的なデータを示す。 モバイルアプリケーションとメディアソースとの間で伝送される例示的なデータを示す。 ユーザー入力を承諾する、解釈する、および伝送するための別の例示的なシステムの図である。 ユーザーおよびユーザーに関連する機器に関するいくつかの例示的な領域の図である。 ユーザーおよびユーザーに関連する機器に関するいくつかのさらなる例示的な領域の図である。 例示的なメインプロセッサの様々な機能を示す。 例示的なモバイルアプリケーションの様々な機能を示す。 例示的な消失メッセージシステムの様々な機能を示す。
大まかに、本技術の実装は、複数のユーザーが、ユーザー自身、ユーザーの興味、およびユーザーのメディアコンテンツに関する情報を他者と共有することを可能にするシステムを含む。例示的な実装では、ユーザーは、個人用電子装置(例えば、コンピュータ、メディアプレーヤ、携帯電話、タブレットコンピュータ、または他の電子装置)を使用して、ユーザー自身およびユーザーの興味に関する情報を入力することができる。例えば、ユーザーは、ユーザーの名前およびユーザーの個人的興味(例えば、音楽、映画、TV、ビデオゲーム、本、スポーツ、趣味、有名人、および他の興味)を入力することができる。ユーザーは、装置を使用して、例えば、音楽を聴く、映画およびTV番組を見る、本を読む、画像を見る等、メディアを消費することもできる。ユーザーは、装置を使用して、ビデオゲームをする、写真を撮る、作曲および演奏する、動画を作成する、または他のコンテンツを作成する(例えば、書く、描く等)の他の活動を実施することもできる。
ユーザーおよびユーザーの興味に関する情報ならびに活動は、他のユーザーがそのユーザーの経験を共有することができるように他のユーザーと共有され得る。いくつかの実装では、ユーザー間で情報を共有することは、ユーザー間でコンテンツを直接送信することを含んでもよく、例えば、場合によっては、ユーザーは、ユーザーが聴いている歌曲を他のユーザーに伝送することができ、他のユーザーが同様にその歌曲を聴くことができるようにする。いくつかの実装では、ユーザー間で情報を共有することは、ユーザー間でコンテンツを間接的に送信することを含んでもよく、例えば、場合によっては、ユーザーは、ユーザーが聴いている歌曲に関するメタデータを他のユーザーに伝送することができ、他のユーザーが独立してその歌曲を取得し、歌曲を聴くことができるようにする。このように、ユーザーは、情報およびコンテンツを他のユーザーと直接または間接的に共有することができる。
いくつかの実装では、ユーザーは、ユーザーの個人用電子装置以外の制御装置を使用して、情報およびコマンドをシステムに入力することができる。例えば、いくつかの実装では、制御装置は、個人用電子装置自体を直接取り扱うことなく、ユーザーがコンピューティング装置の作動を制御することを可能にする個人用電子装置と併せて使用され得る。例示的な実装では、個人用電子装置は、音声出力装置(例えば、ヘッドホン、スピーカー、小型イヤホン、またはスピーカーケーブル)、ビデオ出力装置(例えば、スクリーンもしくはモニター、ヘッドアップディスプレイ、ビデオ対応の眼鏡もしくはバイザー、または他の携帯型ビデオ出力装置)、またはさらにステアリングホイール、ダッシュボードパネル、視覚もしくは音声キオスク、楽器等の個人用電子装置と関わらない遠隔入力装置から制御され得る。
双方向型出力装置または遠隔入力装置から個人用電子装置への入力が、より便利な方法でユーザーが個人用電子装置と相互作用することを可能にする場合、例えば、ユーザーは、最初に個人用電子装置を記憶装置位置(例えば、衣服のポケット、運搬している鞄、保持しているブラケット、アームバンド等)から取り外さずに、制御装置を使用して個人用電子装置と相互作用することができる。このように、ユーザーは制御装置を使用して、個人用電子装置を誤った取り扱いまたは環境要因による潜在的損傷に曝すことなく、個人用電子装置を作動することができる。ユーザーは、制御装置を使用して、容易にアクセスできない個人用電子装置、例えば、ケースもしくは保護ハウジング内に固定された、または固定筐体(例えば、家庭用音声システムまたは車両内のメディアシステム)に内蔵された装置を作動することもできる。
別の例では、ユーザーは、制御装置を使用して、制御装置または個人用電子装置のいずれも見ずに、個人用電子装置と相互作用することができる。このように、ユーザーは、歩行、ランニング、読書、運転、または注意をそらすことが望ましくない任意の他の活動等の他の活動に携わりながら、個人用電子装置を使用することができる。加えて、ユーザーは、制御装置を使用して、ユーザーが制御装置上で比較的単純な入力を使用して複雑な命令を個人用電子装置に発行し得るように、個人用電子装置の特定のタスクを単純化することができる。例えば、いくつかの実装では、ユーザーがヘッドセット上での入力装置の単純な操作によってソーシャルネットワークを介して音楽ファイルに関する選好を他のユーザーと連絡することができるように、ユーザーは、携帯電話上で再生され、ヘッドホンが入力コンポーネントを含むヘッドホン等の出力装置を介してユーザーに送達される音楽録音等のコンテンツを共有するか、または「気に入っていることを示す」ことができる。
ユーザー入力を承諾する、解釈する、および伝送するための例示的なシステムが、図1に示される。この例では、システムは、入力インターフェースモジュール、アナログ−デジタル変換モジュール、マイクロ−コントローラモジュール、メイン処理装置、Bluetooth(登録商標)モジュール、およびモバイル装置アプリケーションを入力する。
入力インターフェースモジュールは、ユーザーからの入力を受信する1つ以上のコンポーネントを含む。例えば、入力インターフェースモジュールは、ユーザーのタッチを検出することができる1つ以上のタッチセンサー式素子(例えば、容量性感知素子)を含み得る。抵抗性感知素子等の他のタッチセンサー式素子も、使用することができる。いくつかの実装では、入力インターフェースモジュールは、ボタン、スイッチ、ダイヤル、レバー、およびユーザーによって物理的に操作され得る他のコンポーネント等のコンポーネントも含むことができる。いくつかの実装では、入力インターフェースモジュールの部分は、ガラス、金属、もしくはプラスチックの層または筐体等の保護層または筐体によって保護され得る。例えば、いくつかの容量性感知素子は、感知素子が損傷を受けることを防ぐためにガラス片によって覆われ得る。
入力インターフェースモジュールは、アナログ電気信号の形態でユーザーからの入力を検出する。これらの電気信号は、それらがデジタル電気装置によってより容易に解釈され得るように、デジタル情報に変換され得る(例えば、「変形され得る」)。いくつかの実装では、これは、アナログ信号(例えば、アナログ電気波形)を承諾し、それらをデジタル情報(例えば、2進情報)に変換するアナログ−デジタル変換モジュールによって実施される。
デジタル化情報は、解釈のためにマイクロ−コントローラに伝送される。マイクロ−コントローラは、例えば、入力インターフェースモジュール上でユーザーによって作られる特定のジェスチャを判定するためにデジタル化情報を分析することができる。例えば、ユーザーは、特定のパターンで(例えば、タッチセンサー式素子の下部から上部へ上向きにスワイプすることによって、タッチセンサー式素子の左から右へ右方向にスワイプすることによって、またはタッチセンサー式素子上で「Z」等の特定のパターンをスワイプすることによって)入力インターフェースモジュールにタッチし得る。ユーザーは、特定の時間の長さにわたって入力インターフェースモジュールにタッチしてもよい(例えば、タッチインターフェースモジュールに手短にタッチする、またはタッチインターフェースモジュールに対してユーザーのタッチを保持する)。マイクロ−コントローラは、この相互作用を記載するデジタル化情報(例えば、位置、時間、力、および動作を記載する情報)を受信し、ジェスチャを識別する(例えば、方向性に依存するスワイプ、位置依存性接触、位置依存性ホールド等)。
識別されるジェスチャに関する情報は、メイン処理装置に伝送される。メイン処理装置は、ジェスチャ情報を装置の他のコンポーネントによって生成される他の情報と統合して、データパケットを作成する。例えば、例示されるシステムが、センサーを備えたヘッドホン(または他の音声再生装置)の一部である場合、ヘッドホンは、デジタル音声データ(例えば、内蔵型マイクから)、センサー情報(例えば、加速度計、ジャイロスコープ、コンパス、および/または近接センサーから)、電力情報(例えば、電池状態)、ならびに他の情報等の情報を生成することができる。ジェスチャ情報とともにこの情報は、1つ以上のデータパケットに統合される。各データパケットは、利用可能な情報のすべてを含む必要はない。例えば、場合によっては、データパケットは、情報の一部分のみ(例えば、タッチジェスチャに関する情報のみ)を含み得る。さらに、利用可能な情報は、いくつかのデータパケットにわたって散らばっていることがある。例えば、デジタル音声データは、いくつかの異なる部分に区分されることがあり、複数のデータパケットにわたって含まれ得る。
データパケットは、モバイル装置アプリケーションに伝送される。例えば、いくつかの実装では、データパケットは、Bluetooth通信プロトコルを使用してシステムとモバイル装置との間でデータを伝送および受信するBluetoothモジュールを介して伝送され得る。Bluetoothモジュールが図1に示されるが、これは単なる一例に過ぎない。いくつかの実装では、データパケットは、Wi−Fi無線通信、セル方式無線通信、赤外線トランシーバ、有線接続、または他の通信装置の使用等、他のコンポーネントを使用して伝送され得る。
前述のように、マイクロ−コントローラモジュールは、ユーザーによって作られる特定のジェスチャを識別するために、入力インターフェースモジュールとのユーザーの相互作用に対応するデジタル化情報を分析する。これは、多様な方法で実施され得る。例示的な技法が、図2に示される。ここでは、マイクロ−コントローラは、入力インターフェースモジュールとのユーザーの相互作用に対応するデジタル化データを受信する。ユーザーが、一定期間にわたって入力インターフェースモジュールとの相互作用(例えば、一定期間にわたるタッチの保持、一定期間にわたるスワイプ、または一定期間にわたる相互作用)し得る場合、デジタル化データは、それに応じて一定期間にわたって受信され得る。最後のデータが受信されてからある特定の時間が経過したとき(例えば、「タイムアウト時間」が経過したとき)、マイクロ−コントローラは、相互作用事象が終わったと判定し、その相互作用事象に関して受信されるデジタル化データを解釈する。
マイクロ−コントローラモジュールが、ユーザーが特定の閾時間を超える時間の長さにわたって感知素子にタッチしたと判定する場合、マイクロ−コントローラは、「ホールド」ジェスチャが実施されたと判定する。次いでマイクロ−コントローラモジュールは、タッチされた感知素子の部分(例えば、前後、上部、下部等)を識別し、適切なジェスチャ(例えば、「フロントホールド」、「バックホールド」、「アップホールド」、および「ダウンホールド」)を識別する。
マイクロ−コントローラモジュールが、ユーザーが特定の閾時間を超えなかった時間の長さにわたって感知素子にタッチしたと判定する場合、マイクロ−コントローラは、「ホールド」ジェスチャが実施されていないと判定する。次いでマイクロ−コントローラモジュールは、別のタイプのジェスチャが実施されたかどうかを判定する。例えば、マイクロ−コントローラは、デジタル化情報が、方向性に依存するスワイプ(例えば、「前方スワイプ」、「後方スワイプ」、「上方スワイプ」、または「下方スワイプ」)に対応するかどうかを判定することができる。例示的なジェスチャが図2に示されるが、これは単なる例示としての例に過ぎない。実際には、示されるものに加えて、またはその代わりに異なる技法を使用して、他のジェスチャを検出することができる。
図1に示される例では、タッチセンサー式素子から情報が収集され、システムによって解釈され、ジェスチャ情報が他の装置に伝送される。しかしながら、これはジェスチャ情報のみに限定されない。例えば、図3を参照すると、いくつかの実装では、システムは、システムのユーザーへの近接に関連する情報を収集および解釈することができる。例えば、システムは、装置がユーザーに近接するときを検出する近接センサー(例えば、アナログアンテナ、圧力センサー、赤外線センサー、または他のそのようなセンサー)を含み得る。場合によっては、センサーから出力される情報は、アナログ信号の形態であり得る。これらのアナログ信号は、上で考察されるものと同様の方式でデジタル情報に変換され得る(例えば、アナログ−デジタル変換モジュールを使用する)。同様に、このデジタル化情報は、マイクロ−コントローラモジュールによって解釈され得る。例えば、マイクロ−コントローラモジュールは、デジタル化情報に基づいて、システムが、ユーザー(例えば、ユーザーの耳)に近接するか、またはユーザーから遠くにあるか(例えば、ユーザーの耳から離れている)を判定することができる。上述と同様の方式で、この近接情報は、上で考察されるものと同様の方式で他の装置(例えば、モバイル装置アプリケーション)に伝送され得る。
いくつかの実装では、マイクロ−コントローラモジュールは、近接に基づいて特定のコマンドを選択することもできる。例えばヘッドホンの場合、マイクロ−コントローラモジュールが、システムがユーザーに近接していると判定する場合、マイクロ−コントローラは、音楽がユーザーに再生されるように「音楽再生」コマンドを選択することができる。マイクロ−コントローラモジュールが、システムがユーザーに近接していないと判定する場合、マイクロ−コントローラは、音楽再生が一時停止するように「音楽一時停止」コマンドを選択することができる。例示的なコマンドが示されるが、これらは単なる例に過ぎず、上に示されるものに加えて、またはその代わりに他のコマンドも可能である。上述と同様の方式で、これらのコマンドは、上で考察されるものと同様の方式で他の装置(例えば、モバイル装置アプリケーション)に伝送され得る。
上で考察されるように、場合によっては、システムは、加速度計、ジャイロスコープ、および/またはコンパスからのセンサーデータのために追加のセンサーを収集することができる。図4を参照すると、センサー情報は、データパケットへの集約のために、メイン処理装置のこれらのセンサーのうちの1つ以上から伝送され得る。図4に示される例では、センサーの出力は、デジタルデータであり、メイン処理装置に直接伝送され得る。これらのセンサーがアナログデータを出力する実装では、アナログデータは、まずアナログ−デジタル変換モジュールに伝送され得、上で考察されるものと同様の方式でデジタル化情報に変換され得る。
上で考察されるように、いくつかの実装では、システムは、ヘッドホンまたは他の音声再生装置の一部であり得る。例えば、図5を参照すると、システムは、音声再生または音声録音能力を提供する1つ以上のコンポーネントを含み得る。例えば、システムは、音声を録音するための1つ以上のマイクと、マイクによって録音されたアナログ音声情報をデジタル化情報に変換するための1つ以上のアナログからデジタルへの変換器を含んでもよい。このデジタル化情報は、さらなる処理のためにメイン処理装置に伝送され得る。例えば、メイン処理装置は、デジタル信号処理および雑音除去を実施し、録音を改善する、改良する、さもなければ変更することができる。処理後、録音に対応するデジタル化情報は、データパケット統合され得るか(例えば、前述のように)、および/または再生のために1つ以上のスピーカーに伝送され得る。例えば、デジタル化情報は、1つ以上のデジタル音声変換器(DAC)に伝送されてもよく、変換された音声情報は、ユーザーへの再生のために1つ以上のスピーカーに伝送され得る。
前述のように、メイン処理装置は、ジェスチャ情報、センサー情報、および他の情報等の情報を1つ以上のデータパケットに統合する。例示的なデータパケットが、図6に概念的に示される。図6に示されるように、データパケットは、デジタル音声情報(例えば、マイクで録音された音声に対応する)、マイクロ−コントローラモジュールによって判定されるジェスチャ情報、センサー情報(例えば、加速度計、ジャイロスコープ、コンパス、および近接データ)、電池状態情報、ならびに他の情報(例えば、試験状態および診断情報を組み入れる)を含み得る。上で考察されるように、各データパケットは、利用可能な情報のすべてを含む必要はない。例えば、場合によっては、データパケットは、情報の一部分のみ(例えば、タッチジェスチャに関する情報のみ)を含み得る。さらに、利用可能な情報は、いくつかのデータパケットにわたって散らばっていることがある。例えば、デジタル音声データは、いくつかの異なる部分に区分されることがあり、複数のデータパケットにわたって含まれ得る。さらに、データパケットの例示的なコンテンツが上に示されるが、これは一例に過ぎない。実際には、データパケットは、上述されるものに加えて、またはその代わりに他の情報を含み得る。
いくつかの実装では、システムは、データパケットを受信することもできる。図7を参照すると、一例として、受信されるデータパケットは、接続される装置(例えば、モバイル装置アプリケーション)からのデジタル音声データを含み得る。システムは、受信されたデジタル音声データを処理し(例えば、メイン処理装置を使用する)、デジタル音声データをアナログ信号に変換し(例えば、DACを使用する)、1つ以上のスピーカーを使用してアナログ音声を再生することができる。別の例として、受信されるデータパケットは、システム上に実装されるファームウェアまたはソフトウェアを更新するためのファームウェアまたはソフトウェアアップデートを含み得る。このように、システムの作動は、時間とともに修正および改善され得る。
図7に示される例では、システムは、デジタル音声データを受信し、デジタル音声データをアナログ信号に変換し、音声を再生することができる。いくつかの実装では、システムは、スピーカーで再生するためにアナログ音声を直接承諾することができる。例えば、図8を参照すると、装置は、アナログ入力(例えば、アナログ入力インターフェースから)を承諾し、1つ以上のスピーカーを使用して音声を直接再生することができる。
図5に示される例では、システムは、マイクからアナログ信号を受信し、アナログ信号をデジタル化情報に変換し、データパケットの一部としてデジタル化情報を伝送することができる。いくつかの実装では、システムは、マイクで録音された音声に対応するアナログ信号を直接出力することができる。例えば、図8を参照すると、マイクによるアナログ信号出力は、アナログ出力インターフェースを通して直接出力され得る。
モバイル装置アプリケーションによって受信されるデータパケットは、多様な方法で使用され得る。いくつかの実装では、モバイル装置アプリケーションによって受信されるデータパケットは、モバイル装置アプリケーションに適した対応するコマンドに「翻訳され」得る。例えば、図9を参照すると、モバイル装置アプリケーションが音声再生機能(例えば、メディアプレーヤ)を含む場合、モバイル装置アプリケーションは、データパケット中のジェスチャ情報をメディア再生に関係する機能に翻訳することができる。例えば、前方スワイプは、「次の曲」コマンドに翻訳されてもよく、後方スワイプは、「前の曲」コマンド等に翻訳されてもよく、その他であってもよい。その特定のモバイル装置アプリケーションによって使用されないコマンドは、無視され得る、放棄され得る、または他のアプリケーションに渡され得る。例示的なパケット翻訳が図9に示されるが、これは単なる一例に過ぎない。他のコマンドは、実装に応じてジェスチャの各々に関連付けられ得る。さらに、例示的な音声再生アプリケーションが図9に示されるが、これも単なる一例に過ぎない。他のタイプのアプリケーションおよび機能も、パケット翻訳と併せて使用することができる。いくつかの実装では、パケット翻訳は、データパケットを解釈し、それらをコマンドに翻訳することができるアプリケーションを作り上げるための標準化されたツールを開発者に提供するソフトウェア開発キット(SDK)の一部として含まれ得る。
前述のように、いくつかの実装では、入力インターフェースモジュールは、タッチセンサー式素子、ボタン、スイッチ、ダイヤル、レバー、およびユーザーによって物理的に操作され得る他のコンポーネント以外の1つ以上のコンポーネントを含み得る。これらのコンポーネントの各々は、ユーザーが様々なタスクを実施できるように1つ以上のコマンドと関連付けられ得る。例えば、システムは、ユーザーがシステム電源および/または同期を制御することを可能にするボタンを含み得る。ユーザーがボタンを押す特定のパターンに応じて、システムは、異なるタスクを実施することができる。これらの作動の一例が、図10に示される。例示的なパターンおよびタスクが図10に示されるが、これらは、単なる例に過ぎない。実際には、他の組み合わせおよびタスクも可能である。さらに、複数のボタンおよび/または他のコンポーネントを使用して、システムの様々な態様を制御することもできる。
前述のように、いくつかの実装では、システムは、複数のユーザーが、ユーザー自身、ユーザーの興味、およびユーザーのメディアコンテンツに関する情報を他者と共有することを可能にすることができる。これは、多様な方法で実施され得る。例えば、図11Aを参照すると、システムは、各々がそれぞれのモバイルアプリケーションを有する複数のクライアント装置を含むことができる。これらのクライアント装置の各々は、例えば、携帯電話、タブレット、メディアプレーヤ、個人用コンピュータ等の個人用電子装置であり得る。ここでは、第1のクライアント装置を使用するユーザーは、ユーザー自身、ユーザーの興味、およびユーザーのメディアコンテンツに関する情報を他者と共有することを望む。いくつかの実装では、共有される情報は、特定のメディアコンテンツアイテムに関する情報(例えば、メタデータ)を含む。例えば、第1のクライアントは、第1のクライアントが特定の歌曲、映画、もしくはTV番組を楽しむこと、または第1のクライアントが特定の歌曲、映画、もしくはTV番組を現在見ていることを示すことがある。この情報は、伝送されるデータを承諾し、さらなる検索のためにそれを記憶するサーバ(例えば「クラウド」サーバ)に第1のクライアント装置から伝送される。いくつかの実装では、サーバは、ユーザーに情報を記憶するための個人用アカウントを提供するサービスの一部であってもよい。この情報は、ソーシャルメディアサーバ(例えば、Facebook、Twitter、Google+等によって作動されるサーバ)に伝送されてもよい。情報は、WAN(例えば、インターネット)、LAN(例えば、イーサネット(登録商標)またはWi−Fiネットワーク)、または任意の他の有線もしくは有線ネットワーク等の他のネットワークに伝送され得る。
図11Bを参照すると、第1のクライアントによって伝送される情報は、第2のクライアントと共有され得る。例えば、第1のクライアントによって共有される情報は、サーバおよび/またはソーシャルメディアサーバから第2のクライアント装置のモバイルアプリケーションに伝送され得る。いくつかの実装では、第2のクライアントは、第1のクライアントによって共有されるデータを自由に受信し得る。いくつかの実装では、第2のクライアントはまず、第1のクライアントのプライバシーが制御されるように、第1のクライアントによって共有されるデータを受信するための許可を受信しなければならない。
図11Cを参照すると、受信される情報に基づいて、第2のクライアントは、メディアコンテンツアイテムを要求することができる。例えば、第1のクライアントが第1のクライアントが聴いている特定の歌曲に関する情報を共有した場合、第2のクライアントは、メディアソースからそのメディアコンテンツアイテムを要求することができる。一例として、歌曲に関する情報が共有される場合、メディアソースは、コンテンツ店舗(例えば、iTunes、Google Music等)またはコンテンツストリーミングサービス(例えば、Rdio、Spotify、Pandora等)を含み得る。図11Dを参照すると、要求されるメディアは次いで、モバイルアプリケーションのメディアソースから伝送される。
上記システムの実装を使用して、いくつかの異なるユーザーの間で情報を共有することができる。例えば、ユーザーは、メディアコンテンツアイテムを再生し、ユーザーが楽しむコンテンツアイテムを推奨し、ユーザーの現在の活動を他者と共有するために、ユーザーのモバイルアプリケーションと相互作用し得る。ユーザーは、他者から共有される情報を受信し、他のユーザーによって照会されるコンテンツアイテムを要求し、要求されたコンテンツアイテムを再生することもできる。コンテンツアイテムは、メタデータに基づいてメディアソースを通して要求されるため、コンテンツアイテム自体がユーザー間で伝送される必要はない。これは、ユーザーが、素早く合法的にコンテンツアイテムを他者と共有することを可能にする。しかしながら、いくつかの実装では、コンテンツアイテムはユーザー間で伝送されてもよく、例えば、場合によっては、コンテンツアイテムは、各クライアントから、サーバおよび/もしくはソーシャルメディアサーバに、または直接別のクライアントに伝送され得る。
図11A〜Bを参照すると、多様なユーザーおよび/またはメディア情報が、クライアントとサーバとの間で交換され得る。例えば、図12を参照すると、この情報は、ユーザー名およびパスワード(例えば、サーバ上の特定のユーザーのアカウントに関連付けられる)、ならびにプロフィール情報(例えば、ユーザーの識別情報、位置、興味、連絡先情報等のユーザーに関する情報)を含み得る。この情報は、1つ以上のメディアコンテンツアイテム、例えば、ユーザーのお気に入りの歌曲または他のメディアコンテンツアイテムに関する情報、およびプレイリストも含み得る。この情報は、コンテンツ自体を伝送することなく、コンテンツアイテム(例えば、題名、アルバム名、ジャンル、リリースの年等)を識別するメタデータの形態で伝送され得る。この情報は、ユーザーがソーシャルメディアプラットフォーム上のコンテンツアイテムに関する情報を共有しているという表示等のソーシャルメディアに関係する情報も含み得る。この情報は、1つ以上のユーザーの繋がり(例えば、「友達」またはユーザーが情報を共有することを望む他のユーザー)を含み得る。この情報は、ユーザーの位置(例えば、GPSまたは位置情報タグを付けられた事象)も含み得る。
再び図11A〜Bを参照すると、多様なユーザーおよび/またはメディア情報が、クライアントとソーシャルメディアサーバとの間で交換され得る。例えば、図13を参照すると、この情報は、1つ以上のメディアコンテンツアイテム、例えば、ユーザーのお気に入りの歌曲または他のメディアコンテンツアイテムに関する情報、およびプレイリストを含み得る。この情報は、ソーシャルメディアサーバ上のコンテンツアイテムに関する情報を共有するための表示も含み得る。この情報は、コンテンツアイテムを識別するメタデータの形態で伝送され得る。この情報は、画像およびサムネイル(例えば、アルバムカバー)、関連リンク(例えば、関連ウェブサイトへのリンク)も含み得る。
図11C〜Dを参照すると、クライアントは、メディアコンテンツアイテムがクライアント間で直接伝送される必要がないように、メディアソースからメディアコンテンツアイテムを要求し、受信することができる。図14を参照すると、モバイルアプリケーションとメディアソースとの間での情報交換は、ユーザー情報(例えば、ソースに関連付けられるユーザーのアカウント情報)、メディアコンテンツアイテムの部分(例えば、歌曲の断片もしくは視聴)、メディアコンテンツアイテム全体(例えば、完全な歌曲)、 ユーザーのお気に入りのメディアコンテンツアイテムに関する情報、およびプレイリストを含み得る。
例示的な情報が図12〜14に示されるが、これらは、例示としての例に過ぎないと意図される。実際には、上述されるものに加えて、またはその代わりに他の情報が、クライアント装置の各々、サーバ、およびソーシャルメディアサーバの間で交換され得る。さらに、2つのクライアント装置、単一サーバ、単一ソーシャルメディアサーバ、および単一メディアソースのみが上に示されるが、実際には、システムは、任意の数のクライアント、サーバ、ソーシャルメディアサーバ、およびメディアソースを含むことができる。
図1〜6を参照すると、ユーザー入力を承諾する、解釈する、および伝送するための例示的なシステムが、ヘッドホン等の音声再生装置に関連して記載されている。システムの実装は、ビデオ出力装置、自動車メディアプレーヤ、計器盤、視覚または音声キオスク、楽器等の他の装置の一部として実装され得る。例えば、図15を参照すると、ユーザー入力を承諾する、解釈する、および伝送するためのシステムは、電子ドラムセットの一部として実装され得る。
例示的な実装では、電子ドラムセットは、1つ以上のドラムスティック(例えば、左右のドラムスティック)および1つ以上のフットバンド(例えば、左右のフットバンド)を含む。ドラムスティックおよびフットバンドの各々は、加速度計、ジャイロスコープ、および電子コンパス等のセンサーを含む。ドラムスティックおよびフットバンドの各々は、センサーに接続されるメインプロセッサ、LED表示器、無線ネットワークモジュール、および触覚フィードバックモジュールも含む。ドラムスティックおよびフットバンドの各々は、モバイルアプリケーションに無線で接続する。
前述のものと同様の方式で、ドラムスティックおよびフットバンドは、デジタルデータを1つ以上のデータパケットに統合し、次いで、無線ネットワークモジュールを使用してデータパケットをモバイルアプリケーションに伝送することができる。例えば、加速度計、ジャイロスコープ、および電気コンパスからのセンサーデータは、センサーデータを1つ以上のデータパケットに統合するメインプロセッサに伝送され得る。これらのデータパケットは、データパケットをモバイルアプリケーションに無線で伝送する無線ネットワークモジュールに伝送される。
例示的な使用法では、ユーザーは、両手にドラムスティックを保持し、フットバンドを両足に設置する。次いでユーザーは、ドラムセットの演奏を模擬するように、ドラムスティックおよびユーザーの足をユーザーの周りで動かす。例えば、ユーザーは、特定のタイプのドラムの演奏を模擬するためにユーザーの正面でドラムスティックを振ってもよい。別の例として、ユーザーは、異なるタイプのドラムの演奏を模擬するために、ドラムスティックをユーザーの横に振ってもよい。さらに別の例として、ユーザーは、特定のタイプのフットペダル起動式のドラムの演奏を模擬するために、特定の方向でユーザーの足を動かしてもよい。さらに別の例として、ユーザーは、異なるタイプのフットペダル起動式のドラムの演奏を模擬するために、別の方向でユーザーの足を動かしてもよい。ユーザーがドラムスティックおよびユーザーの足を動かすと、ドラムスティックおよびフットバンド中のセンサーは、装置の加速度、配向性、および動作に関する情報を検出する。この情報を使用して、ドラムスティックおよびフットバンドの各々の動作、ならびにユーザーに対するそれらのそれぞれの位置を判定する。この情報は、モバイルアプリケーションに伝送される。ドラムスティックおよびフットバンドの各々の位置および運動に基づいて、モバイルアプリケーションは、特定のドラムの打撃を模擬するために適切な音声を、ドラムが叩かれた強度を模擬するために適切な音量で、再生する。ユーザーがドラムスティックおよびユーザーの足を動かし続けると、モバイルアプリケーションは、対応する音声を再生し、それにより演奏されているドラムセットを模擬し続ける。
一例として、図16を参照すると、ユーザーに関する領域は、特定の方向に対する偏角に基づいて、いくつかの異なる領域に分割され得る。例えば、ユーザーの正面で方向がちょうど0°である場合、275°〜0°は、第1のタイプのドラム(例えば、スネア)に関連付けられることがあり、0〜45°は、異なるタイプのドラム(例えば、ハイハット)に関連付けられることがあり、45°〜90°は、異なるタイプのドラム(例えば、フロアタム)に関連付けられることがある等である。各ドラムスティック内のセンサー情報に基づいて、モバイルアプリケーションは、再生音声(例えば、「打撃」運動)に関連付けられる運動を検出し、ドラムスティックが動かされている領域を識別し、適切な音を再生することができる。
機器の異なる組が、ドラムスティックおよびフットバンドの各々に関連付けられ得る。例えば、275°〜0°の領域は、ドラムスティック用のスネアに関連付けられてもよく、図17を参照すると、275°〜0°の領域は、フットバンド用のダブルベースに関連付けられ得る。同様に、異なる機器が、各々の領域に割り当てられ得る。このように、各ドラムスティックおよび/またはフットバンドは、実装に応じて機器の異なる組に関連付けられ得る。
例示的な機器および領域が図16〜17に示されるが、これらは単なる例に過ぎない。実際には、ユーザーに関する領域は、任意の数の異なる方法で分割されてもよく、各領域は、いくつかの異なる機器のうちのいずれか1つに関連付けられ得る。
いくつかの実装では、モバイルアプリケーションは、スピーカー、ヘッドホン、またはコンピュータ等の音声再生装置に接続され得る。このように、模擬されるドラム音声は、ユーザーが聞くことができ、および/または将来の再生のために録音され得る。いくつかの実装では、モバイルアプリケーションは、ユーザーの演奏が将来再生され得るように、再生を録音する(例えば、サウンドファイルとして、または一連の音符として)。いくつかの実装では、モバイルアプリケーションは、ユーザーが、異なる模擬される機器を選択することを可能にする。例えば、ユーザーは、全体として異なるタイプのドラムまたは異なるタイプの機器を選択することができる。いくつかの実装では、モバイルアプリケーションは、ユーザーが、再生を他者と共有することを可能にする(例えば、記憶される再生をサーバに、または直接他のユーザーに伝送することによって)。
前述のように、ユーザーがドラムスティックおよびユーザーの足を動かすと、ドラムスティックおよびフットバンド中のセンサーは、装置の加速度、配向性、および動作に関する情報を検出する。この情報を使用して、ドラムスティックおよびフットバンドの各々の動作、ならびにユーザーに対するそれらのそれぞれの位置を判定する。いくつかの実装では、この判定は、メインプロセッサによって実施され得る。例えば、図18を参照すると、いくつかの実装では、メインプロセスは、加速度計、ジャイロスコープ、および電子コンパスからセンサーデータを受信する。この情報(例えば、電子コンパスおよびジャイロスコープ)に基づいて、メインプロセッサは、ユーザーに対する装置の位置(例えば、ユーザーの正面に対する角度)を判定することができる。この情報(例えば、加速度計およびジャイロスコープ)に基づいて、メインプロセッサは、装置の運動が音声(例えば、「打撃」運動)の再生に対応するかどうかを判定することもできる。この情報(例えば、加速度計およびジャイロスコープ)に基づいて、メインプロセッサは、装置の運動の力であるかどうかを判定することもできる。この情報は、データパケットとして統合され、次いで、モバイルアプリケーションへの伝送のために無線ネットワークモジュールに伝送される。例えば、図16に示されるように、データパケットは、装置識別(例えば、ドラムスティックまたはフットバンドのうちの特定の1つ)、配置(例えば、ユーザーの正面に対する特定の角度)、力の強度(例えば、力の度合いを表す整数値)、および装置が動かされたときを示すタイムスタンプを含み得る。
いくつかの実装では、装置は、力の強度に基づく触覚フィードバックを生成することもできる。例えば、ユーザーが特に高い度合いの力でドラムスティックを振る場合、ドラムスティックは、ドラムの非常にしっかりとした殴打を模擬するように強く振動し得る。別の例として、ユーザーがより低い度合いの力でドラムスティックを振る場合、ドラムスティックは、ドラムのより優しい殴打を模擬するようにより弱く振動し得る。
いくつかの実装では、メインプロセッサは、情報をユーザーに中継するために表示器LEDを照らすこともできる(例えば、選択される機器のタイプ、装置の電力状態等)。
前述のように、ドラムスティックおよびフットバンドからの情報は、モバイルアプリケーションに伝送される。ドラムスティックおよびフットバンドの各々の位置および運動に基づいて、モバイルアプリケーションは、特定のドラムの打撃を刺激するために適切な音声を、ドラムが叩かれた強度を模擬するために適切な音量で、再生する。図19を参照すると、モバイルアプリケーションは、備わっているスピーカー(例えば、モバイルアプリケーションを実行する装置に内蔵されるスピーカー)、オーディオジャック(例えば、3.5mmジャック)、または1対のヘッドホンまたはスピーカーに対するBluetoothモジュールを使用して音声を再生することができる。さらに、いくつかの実装では、モバイルアプリケーションは、ユーザーが、各領域に対して、全体として異なるタイプのドラムまたは異なるタイプの機器を選択することを可能にすることができる。いくつかの実装では、モバイルアプリケーションは、ユーザーが、再生を他者と(例えば、記憶される再生をサーバまたは直接他のユーザーに伝送することによって)、ライブストリーミング再生を他者と(例えば、複数人が互いに同時に再生できるようにライブ再生を他者に伝送することによって)共有し、機器構造を交換し、カスタムサウンドを設計および交換することを可能にする。
本明細書に記載の実装は、ヘッドホンに限定されず、ドングルまたは他の外部入力装置に組み込まれてもよい。層状コンテンツを作成し、遠隔装置に入力されるコマンドを介してベース装置上でホストされるプログラムおよびコンテンツと相互作用する方法が、ビデオ装置またはヘッドホン/ビデオの組み合わせに実装され得る。
本明細書に記載される作動は、1つ以上のコンピュータ可読記憶装置上に記憶される、または他のソースから受信されるデータ上でデータ処理器具によって実施される作動として実装され得る。
「データ処理器具」という用語は、データを処理するためのすべての種類の器具、装置、および機械を包含し、例として、プログラマブルプロセッサ、コンピュータ、システム・オン・チップ、もしくは複数のもの、または前述のものの組み合わせを含む。器具は、特殊用途論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含み得る。器具は、ハードウェアに加えて、問題のコンピュータプログラムのための実行環境を作成するコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、クロスプラットフォームランタイム環境、仮想機械、またはそれらのうちの1つ以上の組み合わせを構成するコードも含み得る。器具および実行環境は、ウェブサービス、分散コンピューティング、およびグリッドコンピューティングインフラストラクチャ等の様々な異なるコンピューティングモデルインフラストラクチャを実現することができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとしても既知である)は、コンパイラ型またはインタプリタ型言語、宣言型または手続型言語を含む任意の形態のプログラミング言語で書かれてもよく、それは独立型プログラム、またはモジュール、コンポーネント、サブルーチン、オブジェクト、もしくはコンピューティング環境での使用に適した他のユニットを含む、任意の形態で展開され得る。コンピュータプログラムは、ファイルシステム内のファイルに対応し得るが、その必要はない。プログラムは、他のプログラムもしくはデータを保持するファイルの一部分内に(例えば、マークアップ言語文書内に記憶される1つ以上のスクリプト)、問題のプログラムに特化した単一ファイル内に、または複数の調整されたファイル内に(例えば、1つ以上のモジュール、サブプログラム、またはコードの部分を記憶するファイル)記憶され得る。コンピュータプログラムは、1つのコンピュータ上で、または1つの場所に位置する、もしくは複数の場所にわたって分散され、通信ネットワークによって相互接続される複数のコンピュータ上で実行されるように展開され得る。
本明細書に記載されるプロセスおよび論理流れ図は、1つ以上のコンピュータプログラムを実行し、入力データ上で作動し、出力を生成することによってアクションを実施する、1つ以上のプログラマブルプロセッサによって実施され得る。プロセスおよび論理流れ図は、特殊用途論理回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によっても実施され得、器具は、特殊用途論理回路としても実装され得る。
コンピュータプログラムの実行に適したプロセッサには、例として、汎用および特殊用途マイクロプロセッサの両方、ならびに任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。概して、プロセッサは、読み取り専用メモリもしくはランダムアクセスメモリまたはその両方から命令およびデータを受信する。コンピュータの必須素子は、命令に従ってアクションを実施するためのプロセッサ、ならびに命令およびデータを記憶するための1つ以上のメモリ装置である。概して、コンピュータは、データを記憶するための1つ以上の大容量記憶装置、例えば、磁気、磁気光学ディスク、または光学ディスクも含むか、または作動的に結合され、それらからデータを受信する、もしくはそれらにデータを転送する、またはその両方を行う。しかしながら、コンピュータは、そのような装置を有する必要はない。さらに、コンピュータは、別の装置、例えば、数例を挙げると、携帯電話、パーソナルデジタルアシスタント(PDA)、モバイル音声もしくはビデオ再生装置、ゲーム機、Global Positioning System(GPS)受信機、または携帯型記憶装置(例えば、ユニバーサルシリアルバス(USB)フラッシュドライブ)に埋め込まれてもよい。コンピュータプログラム命令およびデータを記憶するのに適した装置には、すべての形態の不揮発性メモリ、メディア、およびメモリ装置を含み、例として、半導体メモリ装置、例えば、EPROM、EEPROM、およびフラッシュメモリ装置、磁気ディスク、例えば、内蔵ハードディスクまたはリムーバブルディスク、磁気光学ディスク、ならびにCD−ROMおよびDVD−ROMディスクを含む。プロセッサおよびメモリは、特殊用途論理回路によって補完されるか、または特殊用途論理回路に組み込まれてもよい。
ユーザーとの相互作用を提供するために、本明細書に記載される本主題の実施形態は、ディスプレイ装置、例えば、ユーザーに情報を表示するためのCRT(陰極線管)もしくはLCD(液晶ディスプレイ)モニター、およびキーボード、およびポインティング装置、例えば、それによりユーザーが入力をコンピュータに提供することができるマウスまたはトラックボールを有するコンピュータ上に実装されてもよい。他の種類の装置を使用して、同様にユーザーとの相互作用を提供することもできる。例えば、ユーザーに提供されるフィードバックは、任意の形態の感覚フィードバック、例えば、視覚フィードバック、聴覚フィードバック、または触知性フィードバックであり得、ユーザーからの入力は、聴覚的、音声的、または触知性入力を含む任意の形態で受信され得る。加えて、コンピュータは、ユーザーによって使用される装置に文書を送信し、その装置から文書を受信することによって、例えば、ウェブブラウザから受信される要求に応答してユーザーのクライアント装置上のウェブブラウザにウェブページを送信することによって、ユーザーと相互作用することができる。
本明細書に記載される本主題の実施形態は、例えば、データサーバとしてバックエンドコンポーネントを含むか、またはミドルウェアコンポーネント、例えばアプリケーションサーバを含むか、またはフロントエンドコンポーネント、例えば、それを通してユーザーが本明細書に記載される本主題の実装と相互作用することができるグラフィカルユーザーインターフェースもしくはウェブブラウザを有するクライアントコンピュータを含むか、または1つ以上のそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組み合わせを含む、コンピューティングシステムに実装され得る。システムのコンポーネントは、任意の形態またはメディアのデジタルデータ通信、例えば、通信ネットワークによって相互接続され得る。通信ネットワークの例には、ローカルエリアネットワーク(「LAN」)および広域ネットワーク(「WAN」)、インターネットワーク(例えば、インターネット)、ならびにピアツーピアネットワーク(例えば、アドホックピアツーピアネットワーク)が挙げられる。
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、概して互いに遠くにあり、典型的には通信ネットワークを通して相互作用する。それぞれのコンピュータ上で実行しており、互いに対してクライアント−サーバ関係を有するコンピュータプログラムによって、クライアントおよびサーバの関係が生じる。いくつかの実施形態では、サーバは、データ(例えば、HTMLページ)をクライアント装置に伝送する(例えば、クライアント装置と相互作用するユーザーにデータを表示し、クライアント装置と相互作用するユーザーからユーザー入力を受信するため)。クライアント装置で生成されるデータ(例えば、ユーザー相互作用の結果)は、サーバでクライアント装置から受信され得る。
本明細書は多くの特定の具体的な実装詳細を含むが、これらは、あらゆる発明の範囲または特許請求され得る範囲に対する制限ではなく、むしろ1つ以上の例示的な実装の特徴の説明であると解釈されるべきである。別個の実施形態に関連して本明細書に記載されるある特定の特徴は、単一の実施形態で組み合わせて実装されてもよい。反対に、単一の実施形態に関連して記載される様々な特徴も、複数の実施形態に別個に、または任意の好適な部分的組み合わせで実装されてもよい。さらに、特徴は、ある特定の組み合わせで活動するように上述され得、およびさらに最初に特許請求され得るが、したがって、特許請求される組み合わせの1つ以上の特徴は、場合によっては、組み合わせから抜粋されることがあり、特許請求される組み合わせは、部分的組み合わせ、または部分的組み合わせの変形を対象にし得る。
同様に、作動は特定の順序で図面に示されるが、これは、そのような作動が示される特定の順序で、もしくは順番で実施されること、またはすべての例示される作動が望ましい結果を実現するように実施されることを必要とすると理解されるべきではない。ある特定の状況では、多重タスク処理および並列処理が有利であり得る。さらに、上述される実施形態における様々なシステムコンポーネントの分離は、すべての実施形態においてそのような分離を必要とすると理解されるべきではなく、記載されるプログラムコンポーネントおよびシステムは概して、単一のソフトウェア製品に一緒に一体化され得るか、または複数のソフトウェア製品にパッケージ化され得ると理解されるべきである。
このように、本主題の特定の実施形態が記載されている。他の実施形態は、以下の特許請求の範囲の範囲内である。場合によっては、特許請求の範囲に列挙されるアクションは、異なる順序で実施されてもよく、依然として望ましい結果を実現する。加えて、添付図面に示されるプロセスは、望ましい結果を実現するために示される特定の順序、または順番を必ずしも必要としない。ある特定の実装では、多重タスク処理および並列処理が有利であり得る。

Claims (20)

  1. ユーザー間でコンテンツを共有するためのコンピュータ実装方法であって、
    a.コンテンツをユーザーのヘッドホンに伝送するステップであって、前記コンテンツが前記コンテンツを識別するメタデータに関連付けられている、前記伝送するステップと、
    b.前記ヘッドホンに関連付けられるタッチバッド上で前記ユーザにより行われた手のジェスチャを示すステップであって、前記手のジェスチャは、前記コンテンツに関係するユーザー選好を判定する、前記手のジェスチャを示すステップと、
    c.前記手のジェスチャに関する情報を前記ヘッドホンからモバイル装置に伝送するステップと、
    d.前記モバイル装置で前記手のジェスチャに関する前記情報を受信するステップと、
    e.前記手のジェスチャによって判定された前記コンテンツに関係する前記ユーザー選好および前記メタデータをネットワークに伝送するステップと、を含み、
    前記ネットワークに伝送された前記ユーザー選好は消失メッセージを含み、該消失メッセージは、該消失メッセージにアクセスすることが可能な回数、前記消失メッセージが送信された時刻、及び/又は前記消失メッセージの有効期限の日時を含み、前記消失メッセージは、モバイル装置アプリケーションを通じて伝送され、前記消失メッセージは、前記ユーザーによって録音された音声メッセージを含む、方法。
  2. 前記タッチパッド上で前記ユーザにより行われた前記手のジェスチャが、前記タッチパッド上でのスワイプ、前記タッチパッド上でのタップ、前記タッチパッド上での複数の指でのタッチ、前記タッチパッド上でのスワイプおよびホールド、前記タッチパッド上での1つを超える方向におけるスワイプ、または1つを超える場所における前記タッチパッドとの接触を含む、請求項1に記載のコンピュータ実装方法。
  3. 前記タッチパッド上で前記ユーザにより行われた前記手のジェスチャが、ユーザー選好を示す1つ以上のコマンドと関連付けられ、前記ユーザー選好が、共有する、気に入っていることを示す、地理的位置を示す、評価を示す、購入を示すためのコマンド、または前記コンテンツを贈るためのコマンドを含む、請求項1に記載のコンピュータ実装方法。
  4. 前記モバイル装置で受信された前記手のジェスチャの表示が、前記ヘッドホン上で再生されている前記コンテンツに関係する特定のユーザー選好を判定するために前記モバイル装置により翻訳される、請求項1に記載のコンピュータ実装方法。
  5. 前記モバイル装置で受信された前記手のジェスチャに関する前記情報が、前記モバイル装置によって翻訳され、前記ネットワークに接続される1人以上の他のユーザーの前記ヘッドホン上で再生される前記コンテンツを識別する前記メタデータを共有するためのコマンドを生成する、請求項1に記載のコンピュータ実装方法。
  6. 前記モバイル装置は、携帯電話、タブレット、メディアプレーヤ、ゲーム機又はパーソナルコンピュータである、請求項1に記載のコンピュータ実装方法。
  7. 前記手のジェスチャによって示された前記コンテンツに関係する前記ユーザー選好及び前記コンテンツを特定するメタデータが伝送される前記ネットワークが、ソーシャルネットワークである、請求項1に記載のコンピュータ実装方法。
  8. 前記ネットワークが、LAN(ローカルエリアネットワーク)、WAN(広域ネットワーク)、インターネットワーク、ピアツーピアネットワーク及び携帯電話ネットワークのうちの1つ以上である、請求項5に記載のコンピュータ実装方法。
  9. 前記1人以上の他のユーザーは、携帯電話、タブレット、メディアプレーヤ、ゲーム機又はパーソナルコンピュータにより、前記ネットワークに接続される、請求項5に記載のコンピュータ実装方法。
  10. 前記ネットワークはサーバを含み、前記コンテンツに関係するユーザー選好及び前記コンテンツを特定するメタデータは前記サーバに伝送され、前記コンテンツに関係する前記ユーザー選好及び前記コンテンツを特定する前記メタデータは、前記サーバから前記ネットワークに接続された1人以上の他のユーザーに共有される、請求項5に記載のコンピュータ実装方法。
  11. 前記ネットワークはソーシャルメディアサーバを更に含み、前記コンテンツに関係するユーザー選好及び前記コンテンツを特定するメタデータは前記ソーシャルメディアサーバに伝送され、前記コンテンツに関係する前記ユーザー選好及び前記コンテンツを特定する前記メタデータは、前記ソーシャルメディアサーバから前記ネットワークに接続された1人以上の他のユーザーに共有される、請求項10に記載のコンピュータ実装方法。
  12. 前記ネットワークはメディアコンテンツを含むメディアソースを更に含み、前記ネットワークに接続された1人以上の他のユーザーは、メディアコンテンツを要求することができ、前記メディアソースは、要求された前記メディアコンテンツを前記1人以上の他のユーザーに伝送することができる、請求項11に記載のコンピュータ実装方法。
  13. 前記消失メッセージは、音声をテキストに変換したメッセージを含む、請求項1に記載のコンピュータ実装方法。
  14. 前記消失メッセージは、前記消失メッセージが送信された後、設定された有効期限の日時に削除される、請求項1に記載のコンピュータ実装方法。
  15. 前記消失メッセージは、前記消失メッセージが最大の回数だけアクセスされた後に削除される、請求項1に記載のコンピュータ実装方法。
  16. 前記ユーザーは、前記消失メッセージを受信する1人以上のユーザーを選択し、前記ユーザーは、前記消失メッセージが前記1人以上の他のユーザーのうちの1人に聞かれるか、読み取られるときに通知を受信する、請求項1に記載のコンピュータ実装方法。
  17. 1人以上の他のユーザーは、前記消失メッセージを着信していることの通知を受信する、請求項1に記載のコンピュータ実装方法。
  18. 前記1人以上の他のユーザーは、前記消失メッセージを読む又は聞くとの選択肢を有する、請求項17に記載のコンピュータ実装方法。
  19. ユーザー間でコンテンツを共有するためのコンピュータ実装方法であって、
    a.コンテンツをユーザーのヘッドホンに伝送するステップであって、前記コンテンツが前記コンテンツを識別するメタデータに関連付けられている、前記伝送するステップと、
    b.前記ヘッドホンに関連付けられるタッチバッド上で前記ユーザにより行われた手のジェスチャを示すステップであって、前記手のジェスチャは、前記コンテンツに関係するユーザー選好を判定する、前記手のジェスチャを示すステップと、
    c.前記手のジェスチャに関する情報を前記ヘッドホンからモバイル装置に伝送するステップと、
    d.前記モバイル装置で前記手のジェスチャに関する前記情報を受信するステップと、
    e.前記手のジェスチャによって判定された前記コンテンツに関係する前記ユーザー選好および前記メタデータをネットワークに伝送するステップと、を含み、
    前記ネットワークに伝送された前記ユーザー選好は消失メッセージを含み、該消失メッセージは、音声をテキストに変換したメッセージを含む、方法。
  20. ユーザー間でコンテンツを共有するためのコンピュータ実装方法であって、
    a.コンテンツをユーザーのヘッドホンに伝送するステップであって、前記コンテンツが前記コンテンツを識別するメタデータに関連付けられている、前記伝送するステップと、
    b.前記ヘッドホンに関連付けられるタッチバッド上で前記ユーザにより行われた手のジェスチャを示すステップであって、前記手のジェスチャは、前記コンテンツに関係するユーザー選好を判定する、前記手のジェスチャを示すステップと、
    c.前記手のジェスチャに関する情報を前記ヘッドホンからモバイル装置に伝送するステップと、
    d.前記モバイル装置で前記手のジェスチャに関する前記情報を受信するステップと、
    e.前記手のジェスチャによって判定された前記コンテンツに関係する前記ユーザー選好および前記メタデータをネットワークに伝送するステップと、を含み、
    前記ネットワークに伝送された前記ユーザー選好は消失メッセージを含み、前記ユーザーは、前記消失メッセージを受信する1人以上のユーザーを選択し、前記ユーザーは、前記消失メッセージが前記1人以上の他のユーザーのうちの1人に聞かれるか、読み取られるときに通知を受信する、方法。
JP2020167593A 2014-10-10 2020-10-02 ユーザー相互作用を共有するための装置 Pending JP2021002399A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462062672P 2014-10-10 2014-10-10
US62/062,672 2014-10-10

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017538923A Division JP2017534132A (ja) 2014-10-10 2015-10-09 ユーザー相互作用を共有するための装置

Publications (1)

Publication Number Publication Date
JP2021002399A true JP2021002399A (ja) 2021-01-07

Family

ID=55653865

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017538923A Pending JP2017534132A (ja) 2014-10-10 2015-10-09 ユーザー相互作用を共有するための装置
JP2020167593A Pending JP2021002399A (ja) 2014-10-10 2020-10-02 ユーザー相互作用を共有するための装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017538923A Pending JP2017534132A (ja) 2014-10-10 2015-10-09 ユーザー相互作用を共有するための装置

Country Status (4)

Country Link
US (3) US10088921B2 (ja)
JP (2) JP2017534132A (ja)
CN (1) CN107210950A (ja)
WO (1) WO2016057943A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273759B1 (ko) * 2021-01-27 2021-07-06 안중영 기록매체에 저장된 동작신호 전달 어플리케이션 프로그램 및 이를 이용한 동작신호 전달 시스템

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170031525A1 (en) 2010-05-14 2017-02-02 Racing Optics, Inc. Touch screen shield
US9295297B2 (en) 2014-06-17 2016-03-29 Racing Optics, Inc. Adhesive mountable stack of removable layers
US11283742B2 (en) * 2016-09-27 2022-03-22 Bragi GmbH Audio-based social media platform
EP3738116A1 (en) 2018-01-10 2020-11-18 Qrs Music Technologies, Inc. Musical activity system
WO2020160492A1 (en) 2019-02-01 2020-08-06 Racing Optics, Inc. Thermoform windshield stack with integrated formable mold
US11846788B2 (en) 2019-02-01 2023-12-19 Racing Optics, Inc. Thermoform windshield stack with integrated formable mold
US11947869B2 (en) 2019-04-01 2024-04-02 Sony Group Corporation Information processing device, information processing method, and program
US11364715B2 (en) 2019-05-21 2022-06-21 Racing Optics, Inc. Polymer safety glazing for vehicles
JP7188337B2 (ja) * 2019-09-24 2022-12-13 カシオ計算機株式会社 サーバ装置、演奏支援方法、プログラム、および情報提供システム
US11648723B2 (en) 2019-12-03 2023-05-16 Racing Optics, Inc. Method and apparatus for reducing non-normal incidence distortion in glazing films
US11548356B2 (en) 2020-03-10 2023-01-10 Racing Optics, Inc. Protective barrier for safety glazing
US11490667B1 (en) 2021-06-08 2022-11-08 Racing Optics, Inc. Low haze UV blocking removable lens stack
US11307329B1 (en) 2021-07-27 2022-04-19 Racing Optics, Inc. Low reflectance removable lens stack
US11709296B2 (en) 2021-07-27 2023-07-25 Racing Optics, Inc. Low reflectance removable lens stack
US11882166B2 (en) * 2021-11-17 2024-01-23 Lemon Inc. Methods, systems and storage media for generating an effect configured by one or more network connected devices
US11933943B2 (en) 2022-06-06 2024-03-19 Laminated Film Llc Stack of sterile peelable lenses with low creep
US11808952B1 (en) 2022-09-26 2023-11-07 Racing Optics, Inc. Low static optical removable lens stack

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130339859A1 (en) * 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
JP2014183594A (ja) * 2013-03-19 2014-09-29 Samsung Electronics Co Ltd ディスプレイ装置及びそのアクティビティに関する情報のディスプレイ方法

Family Cites Families (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880743A (en) 1995-01-24 1999-03-09 Xerox Corporation Apparatus and method for implementing visual animation illustrating results of interactive editing operations
JPH08305663A (ja) 1995-04-28 1996-11-22 Hitachi Ltd 共同作業支援システム
US6057845A (en) 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6956562B1 (en) 2000-05-16 2005-10-18 Palmsource, Inc. Method for controlling a handheld computer by entering commands onto a displayed feature of the handheld computer
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP3609748B2 (ja) * 2001-05-14 2005-01-12 株式会社バーテックススタンダード マイクロホンの特性調整装置
US7202861B2 (en) 2001-06-25 2007-04-10 Anoto Ab Control of a unit provided with a processor
AUPR956901A0 (en) 2001-12-17 2002-01-24 Jayaratne, Neville Real time translator
US7356564B2 (en) * 2002-01-09 2008-04-08 At&T Delaware Intellectual Property, Inc. Method, system, and apparatus for providing self-destructing electronic mail messages
US20030140769A1 (en) * 2002-01-30 2003-07-31 Muzik Works Technologies Inc. Method and system for creating and performing music electronically via a communications network
US20040145574A1 (en) 2003-01-29 2004-07-29 Xin Zhen Li Invoking applications by scribing an indicium on a touch screen
KR20040083788A (ko) 2003-03-25 2004-10-06 삼성전자주식회사 제스쳐 커맨드를 이용하여 프로그램을 구동시킬 수 있는휴대용 단말기 및 이를 이용한 프로그램 구동 방법
EP1618759A1 (en) 2003-04-18 2006-01-25 Koninklijke Philips Electronics N.V. Personal audio system with earpiece remote controller
WO2005003944A1 (en) 2003-07-01 2005-01-13 Nokia Corporation Method and device for operating a user-input area on an electronic display device
US20050047629A1 (en) 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7774411B2 (en) * 2003-12-12 2010-08-10 Wisys Technology Foundation, Inc. Secure electronic message transport protocol
US7653816B2 (en) * 2003-12-30 2010-01-26 First Information Systems, Llc E-mail certification service
US7365736B2 (en) 2004-03-23 2008-04-29 Fujitsu Limited Customizable gesture mappings for motion controlled handheld devices
US7176888B2 (en) 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
US8448083B1 (en) 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
CN1874613A (zh) * 2005-03-25 2006-12-06 南承铉 使用电容传感器的自动控制耳机系统
JP2006301683A (ja) * 2005-04-15 2006-11-02 Media Socket:Kk 電子コミュニケーション処理装置および方法
US8331603B2 (en) 2005-06-03 2012-12-11 Nokia Corporation Headset
US8266219B2 (en) * 2005-07-20 2012-09-11 Research In Motion Limited Method and system for instant messaging conversation security
US7610345B2 (en) * 2005-07-28 2009-10-27 Vaporstream Incorporated Reduced traceability electronic message system and method
US20070052672A1 (en) 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
NZ566533A (en) 2005-09-16 2010-11-26 Janssen Pharmaceutica Nv Cyclopropyl amines as modulators of the histamine H3 receptor
JP2007109118A (ja) 2005-10-17 2007-04-26 Hitachi Ltd 入力指示処理装置および入力指示処理プログラム
US8073137B2 (en) * 2006-03-06 2011-12-06 Sony Ericsson Mobile Communications Ab Audio headset
US8094673B2 (en) * 2006-04-10 2012-01-10 Microsoft Corporation Cable user interface
KR20080004229A (ko) 2006-07-05 2008-01-09 엘지노텔 주식회사 무선 단말기를 이용하여 원격으로 응용 프로그램을제어하는 시스템 및 방법
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7694240B2 (en) 2006-11-22 2010-04-06 General Electric Company Methods and systems for creation of hanging protocols using graffiti-enabled devices
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
DE602007004061D1 (de) * 2007-02-06 2010-02-11 Oticon As Abschätzung der eigenen Stimmaktivität mit einem Hörgerätsystem aufgrund des Verhältnisses zwischen Direktklang und Widerhall
US8060841B2 (en) 2007-03-19 2011-11-15 Navisense Method and device for touchless media searching
KR100814067B1 (ko) * 2007-05-30 2008-03-14 (주)엠비즈코리아 에스엠에스 메시지 열람확인 방법 및 이를 수행하기 위한단말장치
US8219936B2 (en) 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8564574B2 (en) * 2007-09-18 2013-10-22 Acer Incorporated Input apparatus with multi-mode switching function
US7631811B1 (en) 2007-10-04 2009-12-15 Plantronics, Inc. Optical headset user interface
JP2009129257A (ja) * 2007-11-26 2009-06-11 Sony Corp サーバ装置、端末装置、共感動作管理処理方法、共感動作方法、プログラム
US8677285B2 (en) 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
BRPI0911188B1 (pt) 2008-04-07 2020-05-05 Koss Corp fone de ouvido sem fio que se transiciona entre redes sem fio
US8731218B2 (en) * 2008-04-10 2014-05-20 Apple Inc. Deformable controller for electronic device
US8320578B2 (en) * 2008-04-30 2012-11-27 Dp Technologies, Inc. Headset
US20100293462A1 (en) 2008-05-13 2010-11-18 Apple Inc. Pushing a user interface to a remote device
TW200949618A (en) * 2008-05-16 2009-12-01 Kye Systems Corp Input device and the control method thereof
US8169414B2 (en) 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
CN101640857A (zh) * 2008-08-01 2010-02-03 中兴通讯股份有限公司 一种手机电视节目共享方法及其手机
US8447609B2 (en) 2008-12-31 2013-05-21 Intel Corporation Adjustment of temporal acoustical characteristics
US8819597B2 (en) 2009-04-10 2014-08-26 Google Inc. Glyph entry on computing device
EP2427812A4 (en) 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US9563350B2 (en) 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
US8957918B2 (en) 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
KR101304321B1 (ko) 2010-01-22 2013-09-11 전자부품연구원 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
CN103127716B (zh) 2010-03-22 2015-09-16 美泰有限公司 电子装置及数据的输入和输出
KR101119835B1 (ko) 2010-03-25 2012-02-28 이노디지털 주식회사 터치패드의 사용자 인터페이스가 구비된 리모콘
US9329767B1 (en) 2010-06-08 2016-05-03 Google Inc. User-specific customization based on characteristics of user-interaction
US9586147B2 (en) * 2010-06-23 2017-03-07 Microsoft Technology Licensing, Llc Coordinating device interaction to enhance user experience
EP2437163A1 (en) 2010-09-09 2012-04-04 Harman Becker Automotive Systems GmbH User interface for a vehicle system
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
EP2432218B1 (en) 2010-09-20 2016-04-20 EchoStar Technologies L.L.C. Methods of displaying an electronic program guide
US9129234B2 (en) * 2011-01-24 2015-09-08 Microsoft Technology Licensing, Llc Representation of people in a spreadsheet
US20120216152A1 (en) 2011-02-23 2012-08-23 Google Inc. Touch gestures for remote control operations
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US8223088B1 (en) 2011-06-09 2012-07-17 Google Inc. Multimode input field for a head-mounted display
US9024843B2 (en) * 2011-06-30 2015-05-05 Google Inc. Wearable computer with curved display and navigation tool
US8873147B1 (en) * 2011-07-20 2014-10-28 Google Inc. Chord authentication via a multi-touch interface
US20130021269A1 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
JP5866728B2 (ja) 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
US9292082B1 (en) 2011-11-08 2016-03-22 Google Inc. Text-entry for a computing device
GB2508763A (en) * 2011-11-09 2014-06-11 Yeil Electronics Co Ltd Securing structure of sound output mechanism and sound processing means of mobile device capable of outputting visual and sound signals
US9064436B1 (en) 2012-01-06 2015-06-23 Google Inc. Text input on touch sensitive interface
US20130194301A1 (en) * 2012-01-30 2013-08-01 Burn Note, Inc. System and method for securely transmiting sensitive information
US9035878B1 (en) 2012-02-29 2015-05-19 Google Inc. Input system
CN203164614U (zh) * 2013-03-05 2013-08-28 成名 一种多用手表
US10545660B2 (en) * 2013-05-03 2020-01-28 Blackberry Limited Multi touch combination for viewing sensitive information
WO2014204330A1 (en) * 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US20150169505A1 (en) * 2013-12-12 2015-06-18 Steve Kim Textbox magnifier
US20150222686A1 (en) * 2014-02-06 2015-08-06 Elijah Aizenstat System and a method for sharing interactive media content by at least one user with at least one recipient over a communication network
US9479909B2 (en) * 2014-03-20 2016-10-25 Tigertext, Inc. Method of sending messages to devices not configured to receive them
WO2015176037A1 (en) * 2014-05-16 2015-11-19 T-Ink, Inc. Devices and techniques relating to a touch sensitive control device
US20160070702A1 (en) * 2014-09-09 2016-03-10 Aivvy Inc. Method and system to enable user related content preferences intelligently on a headphone
USD793356S1 (en) * 2014-12-16 2017-08-01 Musik, LLC Headphone touchpad
US20170063751A1 (en) * 2015-08-27 2017-03-02 Nicolas Korboulewsky-Braustein Systems and methods for generating and transmitting an email message including an active content
US20170293351A1 (en) * 2016-04-07 2017-10-12 Ariadne's Thread (Usa), Inc. (Dba Immerex) Head mounted display linked to a touch sensitive input device
US20180077096A1 (en) * 2016-09-13 2018-03-15 Mark A. DeMattei Messaging environment for mobile device with multitask toolbar, search engine and keyboard control access to apps and centralized functionality
EP3886328A4 (en) * 2018-12-24 2022-02-09 Huawei Technologies Co., Ltd. WIRELESS SHORT RANGE AUDIO SHARING METHOD AND ELECTRONIC DEVICE
WO2022119772A1 (en) * 2020-12-02 2022-06-09 Amazon Technologies, Inc. Sharing audio from a source device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130339859A1 (en) * 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
JP2014183594A (ja) * 2013-03-19 2014-09-29 Samsung Electronics Co Ltd ディスプレイ装置及びそのアクティビティに関する情報のディスプレイ方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102273759B1 (ko) * 2021-01-27 2021-07-06 안중영 기록매체에 저장된 동작신호 전달 어플리케이션 프로그램 및 이를 이용한 동작신호 전달 시스템
WO2022164170A1 (ko) * 2021-01-27 2022-08-04 안중영 기록매체에 저장된 동작신호 전달 어플리케이션 프로그램 및 이를 이용한 동작신호 전달 시스템

Also Published As

Publication number Publication date
WO2016057943A1 (en) 2016-04-14
US20210034176A1 (en) 2021-02-04
JP2017534132A (ja) 2017-11-16
US20180364825A1 (en) 2018-12-20
US10824251B2 (en) 2020-11-03
US10088921B2 (en) 2018-10-02
US20160231834A1 (en) 2016-08-11
CN107210950A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
JP2021002399A (ja) ユーザー相互作用を共有するための装置
JP6553124B2 (ja) 複数センサ入力のためのセンサフュージョンインタフェース
US20160103511A1 (en) Interactive input device
US20180210552A1 (en) Haptic conversion system using segmenting and combining
CN104685470B (zh) 用于从模板生成用户界面的设备和方法
TWI578288B (zh) 多媒體海報生成方法及裝置
WO2020224322A1 (zh) 音乐文件的处理方法、装置、终端及存储介质
JP2017534132A5 (ja)
JP2014002748A (ja) 遠隔制御装置及びその制御方法
KR102270633B1 (ko) 단말기에서 근전도 검사 장치로 데이터를 전송하기 위한 장치, 시스템 및 방법
CN107209668A (zh) 反应型代理开发环境
US8878043B2 (en) Systems, methods, and apparatus for music composition
US9779710B2 (en) Electronic apparatus and control method thereof
US8962967B2 (en) Musical instrument with networking capability
WO2015080212A1 (ja) コンテンツの評価方法、装置、システム、サーバ装置及び端末装置
JP2013008360A (ja) 制御機器として用いられる運動制御子
JP2023534975A (ja) ユーザーインタラクションに基づく音楽再生方法、装置、機器及び記憶媒体
CN105684012A (zh) 提供情境信息
US10307672B2 (en) Distribution system, distribution method, and distribution device
JP3165268U (ja) マルチメディア操作のワイヤレスキーボードヘッドフォンセット
Castro et al. Exploring Interaction in a Virtual Music Studio through Gesture Recognition on Smartwatches and HMD Devices
KR20170093644A (ko) 휴대용 단말기 및 그 제어방법
CN117784917A (zh) 交互方法、装置、电子设备、存储介质及计算机程序产品
CN117135554A (zh) 用于平衡定向到用户的每只耳朵的音频的方法和系统
Hopmann Content and Context-Aware Interfaces for Smarter Media Control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211001

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419