JP2018506050A - ウェアラブルな音声混合 - Google Patents

ウェアラブルな音声混合 Download PDF

Info

Publication number
JP2018506050A
JP2018506050A JP2017528932A JP2017528932A JP2018506050A JP 2018506050 A JP2018506050 A JP 2018506050A JP 2017528932 A JP2017528932 A JP 2017528932A JP 2017528932 A JP2017528932 A JP 2017528932A JP 2018506050 A JP2018506050 A JP 2018506050A
Authority
JP
Japan
Prior art keywords
mixing
user
sound
worn
devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017528932A
Other languages
English (en)
Other versions
JP6728168B2 (ja
Inventor
ジェイ. アンダソン,グレン
ジェイ. アンダソン,グレン
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2018506050A publication Critical patent/JP2018506050A/ja
Application granted granted Critical
Publication of JP6728168B2 publication Critical patent/JP6728168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/211Wireless transmission, e.g. of music parameters or control data by radio, infrared or ultrasound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/023Transducers incorporated in garment, rucksacks or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/003Digital PA systems using, e.g. LAN or internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/01Input selection or mixing for amplifiers or loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Health & Medical Sciences (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)

Abstract

本明細書において、音を混合するシステム及び方法の複数の例が、一般的に説明される。音を混合する方法は、複数の身に付けられたデバイスの識別情報を決定するステップであって、それらの複数の身に付けられたデバイスの各々は、1つの音に割り当てられる、ステップを含んでもよい。また、上記の方法は、複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成するステップを含んでもよい。上記の方法は、混合された音を再生するステップを含んでもよい。

Description

この出願は、2014年12月12日に出願された米国特許出願第14/568,353号に基づく優先権の利益を主張し、米国特許出願第14/568,353号の内容は、本願の参照として取り入れられる。
ウェアラブルデバイスは、消費者向け技術においてますます重要な役割を果たしつつある。ウェアラブルデバイスは、腕時計及び腕に装着する計算機を含むが、近年のウェアラブルデバイスは、より多様性に富みそして複雑になっている。ウェアラブルデバイスは、エクササイズトラッキング及び睡眠状態のモニタリング等のさまざまな測定行為に使用される。
必ずしもスケーリングされて描画されてはいない図面においては、同様の参照数字は、複数の異なる視点からの同様の構成要素を示してもよい。異なる添え字を付した複数の同様の参照数字は、同様の構成要素の複数の異なる例を表してもよい。複数の図面は、本明細書において論じられる様々な実施形態を、限定する意図ではなく、一例として、一般的に図示している。
ある1つの実施形態にしたがった、混合された音を再生するシステムを含む環境を図示する概略図である。 ある1つの実施形態にしたがって音を混合するデバイスを図示する概略図である。 ある1つの実施形態にしたがって音を混合する方法を図示するフローチャートである。 ある1つの例示的な実施形態にしたがった例示的な機械を図示するブロック図であり、本明細書で論じられる(例えば、方法等の)複数の技術のうちの1つ又は複数のいずれかをその例示的な機械で実行することができる。 ある1つの実施形態にしたがってウェアラブルデバイスと関連する音を再生する方法を図示するフローチャートである。 ある1つの実施形態にしたがった、音楽再生装置を有する1つの例示的なウェアラブルデバイスシステムを図示するブロック図である。
音の属性を決定するのにウェアラブルデバイスの属性を使用してもよく、その音の属性を混合して再生してもよい。音の混合は、伝統的に、心地よい音を作り出すことを目的として、作曲家から現代のDJに至るまでの人によって行われてきた。自動的にチューニングされた音楽及びアドバンス(advances)の自動計算の出現により、最近では、機械が、音の混合においてより大きな役割を果たすようになってきている。
本明細書は、ウェアラブルデバイスと音の混合(sound mixing)との組み合わせを説明する。ウェアラブルデバイスは、音楽用のビート、楽器、反復楽句、録音の単位としてのトラック、歌、又はその他同様の音等の音と関連していてもよい。身に付けられたデバイスが活性化されると、その身に付けられたデバイス又は他のデバイスは、関連する音を再生してもよい。スピーカ又はスピーカシステム、ヘッドフォン、イヤフォン、又はその他同様の音源によってその関連する音を再生してもよい。その関連する音は、あるウェアラブルデバイスに対して不変の状態を保っていてもよく、又はそのウェアラブルデバイスに対して可変の状態であってもよい。その関連する音は、ユーザインターフェイスによる調整に基づいて、購入されたアップグレード、ダウンロードされた更新、ゲームの達成度のレベル又は活動のレベル、コンテンツ、又は他の要因を更新してもよい。ウェアラブルデバイスのその関連する音の特性は、そのウェアラブルデバイスのメモリの中に格納されてもよく、又は、音混合デバイス、リモートサーバ、クラウド等の他の場所に格納されてもよい。ウェアラブルデバイスは、シリアル番号、バーコード、名称、又はその他同様の識別情報等のウェアラブルデバイス識別情報(ID)を格納しているか又はウェアラブルデバイスIDに対応していてもよい。異なるデバイス又はシステムによってウェアラブルデバイス識別情報を使用してその関連する音を決定してもよい。関連する音は、ウェアラブルデバイスに格納されてもよく、又は、音混合デバイス、リモートサーバ、クラウド、再生デバイス、音楽再生装置、コンピュータ、電話、タブレット等の他の場所に格納されていてもよい。
1つの例において、複数の身に付けられたデバイスが、ウェアラブルデバイスサウンドシステムの中でアクティブであってもよく、それらの複数の身に付けられたデバイスのうちの各々の身に付けられたデバイスは、1つの音と関連していてもよく、その音は、身に付けられたデバイスの各々に対して完全に一意であってもよく、その音は、1つ又は複数の特性又は要素が重複していてもよく、或いは、他のデバイスの音と同じ音であってもよい。混合された音を生成するのに、複数の身に付けられたデバイスのうちの1つ又は複数のアクティブなデバイスを使用してもよい。例えば、ある身に付けられたデバイスと関連する音は、基準となる音声トラックと自動的に混ざっていてもよく、或いは、DJが、関連する音を操作して、その関連する音と他の音とを混合してもよい。そのDJは、複数のユーザによって身に付けられた複数のウェアラブルデバイスと関連する音を混合してもよい。DJは、他の関連する音を使用していないときに、ある関連する音を選択してもよい。音声結合についての経験則を使用すること等により、その関連する音を自動的に混合してもよい。
他の例では、2人のユーザの各々が1つ又は複数のウェアラブルデバイスを身に付けている場合に、それらの1つ又は複数のウェアラブルデバイスと関連する音を一緒に混合してもよい。ある半径の範囲内に、或いは、皮膚接触を通じて又は衣類が接触する際の静電容量を通じて物理的接触が生じるといった程度に、2人のユーザが互いにごく近接して位置している場合に、混合された音に対する変更を行ってもよい。ウェアラブルデバイスを身に付けている人体の電気的特性に基づいて、関連する音を変更してもよい。例えば、ユーザが発汗している場合に、静電容量又は心拍数が増加する可能性があり、その増加した静電容量又は心拍数は、音を混合するのに使用されてもよい。合計体重、脂肪の比率、水和レベル、体温等の他の要因を、音を混合するのに使用してもよい。
図1は、1つの実施形態にしたがって混合された音を再生するシステムを含む環境を図示する概略図を示している。図1に示されている1つの例において、音混合システム100は、ユーザ102を含んでもよく、ユーザ102は、第1のウェアラブルデバイス106及び第2のウェアラブルデバイス108を身に付けている。音混合システム100において、ユーザ104は、第3のウェアラブルデバイス110を身に付けていてもよい。1つの例において、音混合システム100は、セルラフォン、タブレット、コンピュータ等の個別の音混合デバイス114又はスピーカ112を含んでいてもよい。3つのウェアラブルデバイス106、108、又は110のいずれかのウェアラブルデバイスは、音混合デバイスとして機能してもよく、或いは、図示されていないコンピュータ又は他のデバイスによって音混合を行ってもよい。スピーカ112は、スピーカシステムの中に一体化されていてもよく、或いは、スピーカ112の代わりに又はスピーカ112に加えてイヤフォン又はヘッドフォンが使用されてもよい。第1のウェアラブルデバイス106、第2のウェアラブルデバイス108、又は第3のウェアラブルデバイス110等の複数の身に付けられているデバイスの識別情報を決定するのに音混合システム100を使用してもよい。音混合デバイス114は、ユーザ102のための、第1のウェアラブルデバイス106等の単一のウェアラブルデバイスの識別情報を決定してもよく、第1のウェアラブルデバイス106及び第2のウェアラブルデバイス108等の複数のウェアラブルデバイスの識別情報を決定してもよい。音混合デバイス114は、複数の識別されたウェアラブルデバイスの各々の音をそれぞれ混合して、混合された音を生成してもよい。音混合デバイス114は、その後、再生のために、スピーカ112にその混合された音を送ってもよい。
音混合デバイス112は、第1のユーザ102と第2のユーザ104との間の近接を検出してもよく、その近接に基づいて双方のユーザの複数の身に付けられたデバイスの各々の音をそれぞれ混合してもよい。上記の近接は、(数インチ以内、1フィート以内、1メーター以内、100フィート以内、同じクラブの中、同じ町の中等の)2人のユーザが互いに対してある指定された距離の範囲内に位置する場合等の第1のユーザ102と第2のユーザ104との間の非接触距離を含んでもよい。音混合デバイスは、上記の非接触距離が変化した場合に、混合された音を変更してもよい。例えば、第1のユーザ102と第2のユーザ104との間の距離が増加した場合には、混合された音は、より不調和な音になってもよい。他の例では、音混合デバイスは、一次ユーザとして第1のユーザ102と関連していてもよく、そして、この例では、第1のユーザ102と第2のユーザ104との間の距離が増加した場合に、混合された音は、(例えば、より少ない(楽器等の)音色(fewer notes)、より柔らかい音、徐々に消える音等のように)第2のユーザ104に関する第3のウェアラブルデバイス110と関連する音をより少なく含むように変更されてもよい。第1のユーザと第2のユーザとの間の距離が減少する場合には、混合された音は、(例えば、より不調和でない音、より多くの(楽器等の)音色(more notes)、より大きな音、徐々にはっきりする音等のように)正反対の効果を使用して変更されてもよい。
1つの例において、上記の近接は、第1のユーザ102と第2のユーザ104との間の物理的接触点を含んでもよい。音混合デバイスは、物理的接触点の特性に基づいて混合された音を変更してもよい。例えば、物理的接触点の特性は、静電容量、心拍数、又はその他同様の測定値等の生物測定信号の変化を検出することを含んでもよく、これらの生物測定信号は、ウェアラブルデバイス106、108、及び110の1つ又は複数のウェアラブルデバイスによって測定されてもよい。他の例では、物理的接触点の特性は、その物理的接触の領域、継続時間、強度、そのユーザにおける位置、導電性衣類における場所、又はその他同様の特性を含んでもよい。物理的接触点の特性は、接触面を含んでもよく、混合された音は、その接触面のサイズに基づいて変更されてもよい。物理的接触の点は、第1のユーザ102の皮膚又は導電性衣類と第2のユーザ104の皮膚又は導電性衣類との間の接触を含んでもよい。導電性衣類は、導電性シャツ、導電性手袋、又は他の導電性の身に付けられる衣装を含んでもよい。他の例では、物理的接触点は、2つのウェアラブルデバイスの間の物理的接触を含んでもよい。
上記の近接は、複数のユーザの踊りを含んでいてもよい。複数のユーザの踊りは、物理的接触点及び非接触距離の測定値の混合したものを含んでもよい。ユーザの踊りとして混合された音を操作してもよく、混合された音を操作することは、継続時間、接触点の数、接触点の領域、接触圧の強度、リズム等の複数のユーザの近接のさまざまな特性に基づいて、混合された音を変更することを含んでもよい。音声、磁石、無線周波数識別(RFID)、近距離無線通信(NFC)、ブルートゥース(登録商標)、全地球的測位システム(GPS)、局所的測位システム(LPS)を使用して、また、3GPP LTE、WiMAX、高速パケットアクセス(HSPA)、ブルートゥース(登録商標)、Wi-Fi Direct、又はWi-Fi規格規定又はその他同様の規格から選択された複数の無線通信規格を使用して、上記の近接を検出してもよい。
他の例において、複数のウェアラブルデバイスのいずれかの組み合わせと関連する音のいずれかの組み合わせを使用して、複数のウェアラブルデバイスのいずれか1つのウェアラブルデバイスによって、混合された音を生成してもよい。例えば、音を混合するのに第1のウェアラブルデバイス106を使用してもよい。例えば、第1のウェアラブルデバイス106は、第2のウェアラブルデバイス108の識別情報を決定し、第1のウェアラブルデバイス106それ自体及び第2のウェアラブルデバイス108からの関連する音を使用して音を混合してもよい。この例においては、第1のウェアラブルデバイス106は、音混合デバイスについて上記で説明された方法と同様の方法で近接を検出してもよく、上記の方法は、接触、距離の変化、及び近接に関連付けられる音の混合の他の複数の特性と関連する様々な効果を含む。
1つの例において、ウェアラブルデバイスと関連する音は、バイオリン、ギター、ドラム、トランペット、歌声等のある指定された楽器に対応する音を含んでもよい。他の例においては、ウェアラブルデバイスと関連する音は、ある指定された木材、ピッチ、雑音音量、(例えば、トレブル、バリトーネ、バス等の)楽器のタイプ又は歌声のタイプ、(例えば、ビブラート、不明瞭な音色(スラー音符)(slurred notes)、ポップ、カントリー、バロック等の)共振のスタイル、速度、周波数範囲、又はその他同様の要因に対応していてもよい。ウェアラブルデバイスと関連する音は、一連の音色、旋律、ハーモニー、スケール等を含んでもよい。
1つの例において、オブジェクトの形状又は色彩の特性に基づいて、混合された音を変更してもよい。例えば、(ネオングリーンよりもより暗い色彩としてフォレストグリーン等の)色彩のより暗い影は、そのオブジェクトと関連する音のより低いトーンを示してもよく、そのより低いトーンは、混合された音がより低いトーンを包含するようにさせる。他の例においては、(例えば、赤、青、グリーン、黄色等の)異なる色彩又は(正方形、立方体、スパイクの付いた形状、円形、卵形、球形、輪郭がはっきりしない形状等の)異なる形状は、異なる音、材木、ピッチ、音量、範囲、共振、スタイル、速度、又はその他同様の要因に対応していてもよい。カメラによってオブジェクトを検出してもよく、形状又は色彩等のオブジェクトの特性を決定してもよい。それらの特性は、ウェアラブルデバイスと関連する音と混合された音を変更してもよい。関連する音を含むウェアラブルデバイスは、混合された音を有していてもよく、その混合された音は、ユーザのジェスチャーによって変更されてもよい。ユーザは、ウェアラブルデバイスを身に付けていてもよく、又は、ジェスチャーは、ユーザの視点からカメラによって決定されてもよい。ジェスチャーは、動き或いは手又は腕を使った合図を含んでいてもよい。例えば、腰から上に向かって腕を上げるジェスチャーは、混合された音の音量の増加を示していてもよい。手を払うジェスチャーは、混合された音のトーン又はタイプの変更を示していてもよい。他の混合された音の変更について上記で示された複数の方法のうちのいずれかの方法で混合された音を変更するのに、他のジェスチャーを使用してもよい。他の例において、複数のジェスチャーを生成するのに、身に付けられたデバイスを使用してもよい。身に付けられたデバイスは、加速度計、或いは、他の動き又は加速度のモニタリングの態様を有していてもよい。例えば、ウェアラブルデバイスの加速度を決定し、その身に付けられているデバイスが加速した場合に、混合された音のテンポを増加させるといったように、その決定した加速度に基づいて混合された音を変更するのに、加速度計を使用してもよい。
図2は、1つの実施形態にしたがって音を混合するデバイスを図示する概略図を示している。1つの例において、音を混合することは、音混合デバイス又はウェアラブルデバイス200によって行われてもよい。音混合デバイス又はウェアラブルデバイス200は、音を混合する様々なモジュールを使用してもよい。例えば、複数の身に付けられたデバイスの識別情報を決定するのに通信モジュール202を使用してもよく、それらの複数の身に付けられたデバイスの各々は、1つの音に割り当てられている。通信モジュール202は、複数の身に付けられたデバイスの各々から生物測定信号を受信してもよい。他の例においては、通信モジュール202は、あるオブジェクトの色彩又は形状の指標、ユーザのジェスチャーの指標、或いは、複数の身に付けられたデバイスのうちの1つのデバイス又は他のオブジェクトの加速度を受信してもよい。
音混合デバイス又はウェアラブルデバイス200は、混合モジュール204を含んでもよく、混合モジュール204は、複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成する。1つの例において、混合モジュール204は、第1のユーザと第2のユーザとの間の近接を検出し、その近接に基づいて、複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合してもよい。上記の近接は、上記で説明された複数の例のいずれかを含んでもよい。混合モジュール204は、近接の変化に基づいて、音を変更し、変化させ、再び混合し、又は混合してもよく、近接の変化は、非接触距離の変化、物理的接触点の変化、又は接触点の変化を含んでもよい。他の例においては、混合モジュール204は、あるオブジェクトの色彩又は形状の特性、ユーザのジェスチャーの特性、或いは、身に付けられているデバイス又は他のオブジェクトの加速度の特性に基づいて、音を変更し、変化させ、再び混合し、又は混合してもよい。
音混合デバイス又はウェアラブルデバイス200は、再生モジュール206を含んでもよく、再生モジュール206は、混合された音を再生し又は記録する。再生モジュール206は、スピーカ、スピーカに音を送る配線、スピーカシステム、イヤフォン、ヘッドフォン、又はいずれかの他の音再生構成を含んでもよい。再生モジュール206は、ハードドライブを含んでもよく、ハードドライブは、混合された音の録音版を格納する。他の例においては、カメラは、ユーザの画像又は動画を記録し、或いは、ユーザの視点を形成してもよく、混合された音声とともにその画像又は動画を格納してもよい。ユーザがそのイクスペリエンスを再び体験するために、後の時点においてその画像又は動画及び混合された音をともに再生してもよい。オブジェクトを検出するのにカメラを使用してもよく、その検出されたオブジェクトの特性を決定してもよく、そのオブジェクトの形状、サイズ、色彩、質感等の特性を、混合された音を変更するのに使用してもよい。
ウェアラブルデバイス200は、センサアレイ208を含んでもよい。センサアレイ208は、生物測定信号を検出し、生物測定信号を処理し、又は生物測定信号を送信してもよい。生物測定信号は、ユーザの伝導度、心拍数、抵抗値、インダクタンス、体重、脂肪率、水和レベル、又はその他同様の測定値を含んでもよい。身に付けられているデバイスの識別情報を決定するのに、通信モジュール202によって生物測定信号を使用してもよい。他の例では、身に付けられているデバイスが、アクティブである又はある指定された音の混合に使用されるべきであるという指標として、生物測定信号を使用してもよい。センサアレイは、複数の容量性センサ、マイクロフォン、加速度計、ジャイロスコープ、心拍数モニタ、呼吸数モニタ等を含んでもよい。
他の例においては、ユーザインターフェイスは、ウェアラブルデバイス200に、音混合デバイスに、コンピュータに、電話機端末に、タブレットに、又はその他同様のデバイスに配置されるといったように、音混合システムに中に含まれていてもよい。ユーザインターフェイスは、音楽混合アプリケーションを含んでいてもよく、ユーザは、その音楽混合アプリケーションと対話して、混合された音を変化させ又は変更してもよい。例えば、ユーザは、そのユーザインターフェイスを使用して、音楽のテンポ、リズム、ピッチ、スタイル、ウェアラブルデバイスと関連する音の組み合わせ又はその他同様の特性を変化させてもよい。ユーザインターフェイスは、混合モジュール204及び再生モジュール206と通信してもよく、混合された音を変更し、新たな混合された音を再生することを可能とする。ユーザは、ユーザインターフェイスを使用して、指定されたウェアラブルデバイスを起動させ又はその動作を停止させてもよく、秘密モードを指示し、或いは、システムをオンにし又はオフにしてもよい。ユーザインターフェイスは、複数の特徴を含んでもよく、それらの複数の特徴は、ユーザが、ウェアラブルデバイス、オブジェクト、ジェスチャー、加速度、或いは、他のユーザ又は他のウェアラブルデバイスに対する近接の複数の指定された特性に、音の特性を割り当てることを可能にするように表示される。
ウェアラブルデバイス200は、図示されていない他の構成要素を含んでもよい。ウェアラブルデバイス200は、ユーザインターフェイス、音混合デバイス、又はスピーカと通信するための無線送受信機を含んでもよい。ウェアラブルデバイス200は、短時間記憶装置又は長時間記憶装置(メモリ)、複数のプロセッサ、又は容量性出力能力を含んでもよい。
図3は、1つの実施形態にしたがって音を混合する方法300を図示するフローチャートである。音を混合する方法300は、複数の身に付けられたデバイスの識別情報を決定するステップを含んでもよく、それらの複数の身に付けられたデバイスの各々は、1つの音に割り当てられている(動作302)。複数の身に付けられたデバイスは、単一のユーザが身に付けている複数のデバイスを含んでもよい。他の例では、複数の身に付けられたデバイスは、第1のユーザの1つ又は複数の身に付けられたデバイス及び第2のユーザの1つ又は複数の身に付けられたデバイスを含んでもよい。複数の身に付けられたデバイスは、複数のユーザによって身に付けられた複数のデバイスを含んでもよい。音を混合する方法300は、複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成するステップを含んでもよい(動作304)。それぞれの音は、一意の音であってもよく、重複した特性を持っていてもよく、音自体が重複しているものであってもよい(動作306)。
他の例において、1つのウェアラブルデバイスは、1つの音と関連していてもよい。あるユーザは、第1のウェアラブルデバイスを身に付けてもよく、第1のウェアラブルデバイスは、自動的に起動されてもよく、又はユーザによって起動されてもよい。第1のウェアラブルデバイスは、第1の信号を発して、その第1のウェアラブルデバイスと関連する第1の音を示してもよい。音混合デバイスは、第1の信号を受信して、その第1の関連する音を再生してもよい。そのユーザは、その後、第2のウェアラブルデバイスを身に付けてもよく、第2のウェアラブルデバイスは、第1の信号と同様の第2の信号を発して、その第2のウェアラブルデバイスと関連する第2の音を示してもよい。音混合デバイスは、第2の信号を受信し、第1の関連する音と第2の関連する音とを混合して、混合された音を再生してもよい。他の例において、第1のウェアラブルデバイスは、第2の信号を受信し、第1の関連する音と第2の関連する音とを混合して、その混合された音を音混合デバイスに送ってもよい。音混合デバイスは、その後、その混合された音を再生してもよい。他の例において、第2のユーザは、第3のウェアラブルデバイスを身に付け、音混合デバイスに第3の信号を送ってもよく、音混合デバイスは、その後、複数の関連する音のうちのすべて又はいくつかを混合してもよい。
図4は、機械400のブロック図であり、1つ又は複数の実施形態が、その機械400で実装されてもよい。代替的な実施形態において、機械400は、独立型デバイスとして動作してもよく、又は、他の機械に接続(例えば、ネットワークに接続)されてもよい。ネットワーク接続展開において、機械400は、サーバークライアントネットワーク環境におけるサーバ機械、クライアント機械、又は両方として動作してもよい。1つの例において、機械400は、ピアツーピア(P2P)(又は他の分散)ネットワーク環境の中のピア機械として動作してもよい。機械400は、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、パーソナルディジタルアシスタント(PDA)、携帯電話、ウェブアプライアンス、ネットワークルータ、スイッチ又はブリッジ、或いは、その機械によって行われるべき動作を指定する(順次的な或いは順次的でない)命令を実行することが可能ないずれかの機械であってもよい。さらに、単一の機械のみが図示されているが、"機械"という語は、機械のいずれかの集合も含むように解釈されるべきであり、それらの機械のいずれかの集合は、クラウドコンピューティング、サービス型ソフトウェア(software as a service(SaaS))、又は他のコンピュータクラスタ構成等の本明細書において論じられている複数の方法のうちの1つ又は複数の方法のうちのいずれかを実行するための複数の命令の1つのセット(又は複数のセット)を個々に又は共同で実行する機械の集合であってもよい。
本明細書に記載されている複数の例は、論理又はいくつかの構成要素、モジュール、又はメカニズムを含んでもよく、又はそれらによって動作してもよい。モジュールは、動作する際に、指定の動作を実行することが可能な(例えば、ハードウェア等の)有体物である。モジュールは、ハードウェアを含む。1つの例では、(例えば、配線接続される等の方法により)ある特定の動作を実行するように、ハードウェアを特に構成してもよい。1つの例では、ハードウェアは、複数の命令を含むコンピュータ読み取り可能な媒体及び(例えば、トランジスタ、回路等の)構成可能な実行ユニットを含んでもよく、それらの複数の命令は、動作の際に、ある特定の動作を実行するようにそれらの実行ユニットを構成する。実行ユニットの上記の構成は、実行ユニット又はCD-ROM等のためのローディングメカニズムの指示のもとで行われてもよい。したがって、それらの実行ユニットは、デバイスが動作する際に、コンピュータ読み取り可能な媒体と通信可能に接続される。この例では、実行ユニットは、1つより多くのモジュールを構成する1つであってもよい。例えば、動作中に、複数の命令の第1のセットによってそれらの実行ユニットを構成して、時間的なある1点において第1のモジュールを実装し、そして、複数の命令の第2のセットによってそれらの実行ユニットを再構成し、第2のモジュールを実装してもよい。
(例えば、コンピュータシステム等の)機械400は、(例えば、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、ハードウェアプロセッサコア、又はそれらのいずれかの組み合わせ等の)ハードウェアプロセッサ402、主メモリ404、及びスタティックメモリ406を含んでもよく、それらの一部又はすべては、(例えば、バス等の)相互リンク408を介して互いに通信してもよい。機械400は、ディスプレイユニット410、(例えば、キーボード等の)英数字入力デバイス412、及び(例えば、マウス等の)ユーザインターフェイス(UI)ナビゲーションデバイス414をさらに含んでもよい。1つの例では、ディスプレイユニット410、英数字入力デバイス412、及びUIナビゲーションデバイス414は、タッチスクリーンディスプレイであってもよい。機械400は、追加的に、(例えば、ドライブユニット等の)記憶デバイス416、(例えば、スピーカ等の)信号生成デバイス418、ネットワークインターフェイスデバイス420、及び全地球的測位システム(GPS)センサ、コンパス、加速度計、又は他のセンサ等の1つ又は複数のセンサ421を含んでもよい。機械400は、出力コントローラ428を含んでもよく、出力コントローラ428は、(例えば、ユニバーサルシリアルバス(USB)等の)直列、並列、或いは他の有線又は(例えば、赤外線(IR)通信、近距離無線通信(NFC)等の)無線接続等を介して、(例えば、プリンター、カードリーダ等の)1つ又は複数の周辺機器と通信し、又はこれらを制御する。
記憶デバイス416は、機械読み取り可能な媒体422を含んでもよく、機械読み取り可能な媒体422は、本明細書において説明されている複数の技術又は複数の機能のうちの1つ又は複数のいずれかを実現するか、或いは、それらの複数の技術又は複数の機能によって利用される(例えば、ソフトウェア等の)データ構造又は命令424の1つ又は複数のセットを格納していてもよい。命令424は、機械400による命令424の実行中に、完全に又は少なくとも部分的に、主メモリ404の中に、スタティックメモリ406の中に、又はハードウェアプロセッサ402の中に常駐していてもよい。1つの例では、ハードウェアプロセッサ402、主メモリ404、スタティックメモリ406、又は記憶デバイス416のうちの1つ又はいずれかの組み合わせが、機械読み取り可能な媒体を構成してもよい。
機械読み取り可能な媒体422は、単一の媒体として図示されているが、"機械読み取り可能な媒体"という語は、1つ又は複数の命令424を記憶するように構成される(例えば、集中データベース又は分散データベース、又は関連するキャッシュ及びサーバ等の)単一の媒体又は複数の媒体を含んでもよい。
"機械読み取り可能な媒体"という語は、いずれかの媒体を含んでもよく、その媒体は、機械400によって実行するための命令を格納し、符号化し、又は搬送することが可能であり、本開示に従った技術のうちの1つ又は複数のいずれかを機械400に実行させ、或いは、機械400によって実行するための命令によって使用され又は当該命令と関連するデータ構造を格納し、符号化し、又は搬送することが可能であってもよい。非限定的な機械読み取り可能な媒体の例は、ソリッドステートメモリ、及び光媒体及び磁気媒体を含んでもよい。1つの例では、マス機械読み取り可能な媒体(massed machine readable medium)は、(例えば、静止質量等の)不変の質量を有する複数の素粒子を使用する機械読み取り可能な媒体を含む。したがって、マス機械読み取り可能な媒体は、一時的な伝播信号ではない。マス機械読み取り可能な媒体の特定の例は、(例えば、電気的プログラム可能な読み出し専用メモリ(EPROM)、電気的消去可能なプログラム可能読み出し専用メモリ(EEPROM)等の)半導体メモリデバイス及びフラッシュメモリデバイス等の不揮発性メモリ、内部ハードディスク及びリムーバブルディスク等の磁気ディスク、磁気光ディスク、CD-ROM及びDVD-ROMディスクを含んでもよい。
(例えば、フレームリレー、インターネットプロトコル(IP)、送信制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)等の)いくつかの転送プロトコルのうちのいずれか1つを利用するネットワークインターフェイスデバイス420により送信媒体を使用して通信ネットワーク426を介して、命令424をさらに送信又は受信してもよい。例示的な通信ネットワークは、とりわけ、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、(例えば、インターネット等の)パケットデータネットワーク、(例えば、セルラネットワーク等の)携帯電話ネットワーク、アナログ音声通話(POTS)ネットワーク、及び、(例えば、Wi-Fiとして知られている米国電気電子通信学会(IEEE)802.11規格ファミリー、WiMaxとして知られているIEEE802.16規格ファミリー等の)無線データネットワーク、IEEE802.15.4規格ファミリー、及びピアツーピア(P2P)ネットワークを含んでもよい。1つの例では、ネットワークインターフェイスデバイス420は、通信ネットワーク426に接続するための(例えば、Ethernetジャック、同軸ジャック、又はフォンジャック等の)1つ又は複数の物理ジャック或いは1つ又は複数のアンテナを含んでもよい。1つの例では、ネットワークインターフェイスデバイス420は、複数のアンテナを含んでもよく、それらの複数のアンテナは、単一入力多出力(SIMO)、多入力多出力(MIMO)、又は多入力単一出力(MISO)技術のうちの少なくとも1つを使用して無線で通信してもよい。"送信媒体"という語は、いずれかの非有体的な媒体を含むように解釈されるべきであり、いずれかの非有体的な媒体は、機械400によって実行するための命令を格納し、符号化し、又は搬送することが可能であり、そのようなソフトウェアの通信を容易にするためのディジタル又はアナログ通信信号又は他の非有体的な媒体を含む。
図5は、1つの実施形態にしたがったウェアラブルデバイスと関連する音を再生する方法500を図示するフローチャートである。方法500は、ウェアラブルデバイスと音とを相互に関連付ける動作502を含んでもよい。方法500は、第1のユーザが第1のウェアラブルデバイスを身に付ける動作504を含んでもよい。第1のウェアラブルデバイスは、動作506において、第1の信号を発して、第1の関連する音を示してもよく、音楽再生装置は、動作508において、第1の信号を受信して、第1の関連する音を再生してもよい。方法500は、第1のユーザが、第2のウェアラブルデバイスを身に付ける、又は第2のウェアラブルデバイスを起動させる動作510を含んでもよい。第2のウェアラブルデバイスは、動作512において、第2の信号を発して、第2の関連する音を示してもよい。方法500は、第1のウェアラブルデバイスが第2の信号を受信する動作514を含んでもよい。他の例において、第2のウェアラブルデバイスは、第1のウェアラブルデバイスから第1の信号を受信してもよい。方法500は、第1のウェアラブルデバイスが音楽再生装置に第1の信号及び第2の信号を送信する動作516を含んでもよい。第1の信号及び第2の信号を送信する際に、第1のウェアラブルデバイスは、組み合わせられた信号、複数の個別の信号、第1の信号及び第2の信号に関する情報を有する新たな信号等を送信してもよい。方法500は、第2のユーザを含んでもよい。第2のユーザが存在する場合には、動作520は、音楽再生装置が、第1の信号と第2の信号及び第2のユーザから少なくとも1つの信号を受信し、関連する音を再生することを含んでもよい。第2のユーザが存在しない場合には、動作518は、音楽再生装置が、第1の信号及び第2の信号を受信し、関連する音を再生することを含んでもよい。
図6は、音楽再生装置を有する1つの実施形態にしたがった例示的なウェアラブルデバイスシステム600を図示するブロック図である。システム600は、第1のウェアラブルデバイス606及び第2のウェアラブルデバイス604を身に付けている第1のユーザ602を含んでもよい。1つの例において、第2のウェアラブルデバイス604及び第1のウェアラブルデバイス606は、無線送受信機を使用して互いに対して信号を送信してもよい。第2のウェアラブルデバイス604は、センサアレイ、無線送受信機、第1のウェアラブルデバイス606のための音の識別情報を含むメモリ、中央処理ユニット(CPU)、又は容量性出力等の第1のウェアラブルデバイス606の中に示されている複数の構成要素と同様の構成要素を含んでもよい。ウェアラブルデバイスシステム600は、第1のウェアラブルデバイス606の構成要素と同様の構成要素を有する第3のウェアラブルデバイス610を身に付けている第2のユーザ608を含んでいてもよい。1つの例において、第3のウェアラブルデバイス610は、無線送受信機を使用して第1のウェアラブルデバイス606と通信してもよい。音楽再生装置612と通信するのに、これらのウェアラブルデバイスのうちの1つ又は複数のものの無線送受信機を使用してもよい。音楽再生装置612は、コンテンツ及び混合器を含んでもよく、これらのウェアラブルデバイスのうちの1つ又は複数のもののメモリの中にある音の識別情報によって識別された音を再生してもよい。第1のウェアラブルデバイス606は、容量性出力を使用して、第2のウェアラブルデバイス604又は第3のウェアラブルデバイス610と通信してもよい。ウェアラブルデバイスシステム600のデバイス及び構成要素を使用して、上記の例示的な方法を実行してもよい。
補注及び例
これらの非限定的な例の各々は、それ自体で独立して存在してもよく、或いは、さまざまな変形又は他の例のうちの1つ又は複数との組み合わせの中で組み合わせられてもよい。
例1は、音混合システムによって具体化される主題を含み、当該音混合システムは、
複数の身に付けられたデバイスの識別情報を決定する通信モジュールであって、前記複数の身に付けられたデバイスの各々は、1つの音に割り当てられる、通信モジュールと、
前記複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成する混合モジュールと、
前記混合された音を再生する再生モジュールとを含む。
例2において、例1の主題は、前記複数の身に付けられたデバイスのうちの少なくとも1つのデバイスが、第1のユーザによって身に付けられ、前記複数の身に付けられたデバイスのうちの少なくとも1つの異なるデバイスが、第2のユーザによって身に付けられ、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、
前記第1のユーザと前記第2のユーザとの間の近接を検出し、
前記近接に基づいて、前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合する、ように構成されることを選択的に含んでもよい。
例3において、例1及び例2のうちの1つ又はいずれかの組み合わせの主題は、前記近接が、前記第1のユーザと前記第2のユーザとの間の非接触距離であることを選択的に含んでもよい。
例4において、例1乃至例3のうちの1つ又はいずれかの組み合わせの主題は、前記非接触距離が変化する場合に、前記混合モジュールが、さらに、前記変化に基づいて、前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合するように構成されることを選択的に含んでもよい。
例5において、例1乃至例4のうちの1つ又はいずれかの組み合わせの主題は、前記近接が、前記第1のユーザと前記第2のユーザとの間の物理的接触点を含み、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記物理的接触点の特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例6において、例1乃至例5のうちの1つ又はいずれかの組み合わせの主題は、前記物理的接触点の特性が接触面を含み、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記接触面のサイズに基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例7において、例1乃至例6のうちの1つ又はいずれかの組み合わせの主題は、前記物理的接触点が、前記第1のユーザ及び前記第2のユーザの導電性衣類の間の物理的接触を含むことを選択的に含んでもよい。
例8において、例1乃至例7のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの少なくとも2つのデバイスが、前記第1のユーザによって身に付けられていることを選択的に含んでもよい。
例9において、例1乃至例8のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの前記少なくとも2つのデバイスのうちの一方のデバイスが第1の周波数範囲に割り当てられ、前記複数の身に付けられたデバイスのうちの前記少なくとも2つのデバイスのうちの他方のデバイスが第2の周波数範囲に割り当てられることを選択的に含んでもよい。
例10において、例1乃至例9のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスの識別情報を決定する際に、前記通信モジュールが、さらに、前記複数の身に付けられたデバイスのセットから生物測定信号を受信するように構成されることを選択的に含んでもよい。
例11において、例1乃至例10のうちの1つ又はいずれかの組み合わせの主題は、前記生物測定信号が、伝導度の測定値又は心拍数の測定値のうちの少なくとも一方を含むことを選択的に含んでもよい。
例12において、例1乃至例11のうちの1つ又はいずれかの組み合わせの主題は、前記通信モジュールが、さらに、オブジェクトの色彩の指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールが、さらに、前記オブジェクトの前記色彩の特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例13において、例1乃至例12のうちの1つ又はいずれかの組み合わせの主題は、前記通信モジュールが、さらに、オブジェクトの形状の指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールが、さらに、前記オブジェクトの前記形状の特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例14において、例1乃至例13のうちの1つ又はいずれかの組み合わせの主題は、前記通信モジュールが、さらに、ユーザのジェスチャーの指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールが、さらに、前記ジェスチャーの特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例15において、例1乃至例14のうちの1つ又はいずれかの組み合わせの主題は、前記通信モジュールが、さらに、前記複数の身に付けられたデバイスのうちの1つのデバイスの動きの指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールが、さらに、前記動きの特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例16において、例1乃至例15のうちの1つ又はいずれかの組み合わせの主題は、前記再生モジュールが、さらに、前記混合された音を記録するように構成されることを選択的に含んでもよい。
例17は、音を混合する方法によって具体化される主題を含み、当該方法は、
複数の身に付けられたデバイスの識別情報を決定するステップであって、前記複数の身に付けられたデバイスの各々は、1つの音に割り当てられる、ステップと、
前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合して、混合された音を生成するステップと、
前記混合された音を再生するステップとを含む。
例18において、例17の主題は、前記複数の身に付けられたデバイスのうちの少なくとも1つのデバイスが、第1のユーザによって身に付けられ、前記複数の身に付けられたデバイスのうちの少なくとも1つの異なるデバイスが、第2のユーザによって身に付けられ、前記それぞれの音を混合するステップが、
前記第1のユーザと前記第2のユーザとの間の近接を検出するステップと、
前記近接に基づいて、前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合するステップとを含む、ことを選択的に含んでもよい。
例19において、例17及び例18のうちの1つ又はいずれかの組み合わせの主題は、前記近接が、前記第1のユーザと前記第2のユーザとの間の非接触距離であることを選択的に含んでもよい。
例20において、例17乃至例19のうちの1つ又はいずれかの組み合わせの主題は、前記非接触距離が変化する場合に、前記変化に基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例21において、例17乃至例20のうちの1つ又はいずれかの組み合わせの主題は、前記近接が、前記第1のユーザと前記第2のユーザとの間の物理的接触点を含み、前記物理的接触点の特性に基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例22において、例17乃至21のうちの1つ又はいずれかの組み合わせの主題は、前記物理的接触点の特性が接触面を含み、前記接触面のサイズに基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例23において、例17乃至22のうちの1つ又はいずれかの組み合わせの主題は、前記物理的接触点が、前記第1のユーザ及び前記第2のユーザの導電性衣類の間の物理的接触を含むことを選択的に含んでもよい。
例24において、例17乃至23のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの少なくとも2つのデバイスが、前記第1のユーザによって身に付けられていることを選択的に含んでもよい。
例25において、例17乃至24のうちの1つ又はいずれかの組み合わせの主題は、、前記複数の身に付けられたデバイスのうちの前記少なくとも2つのデバイスのうちの一方のデバイスが歌声の音に割り当てられ、前記複数の身に付けられたデバイスのうちの前記少なくとも2つのデバイスのうちの他方のデバイスがドラムの音に割り当てられることを選択的に含んでもよい。
例26において、例17乃至例25のうちの1つ又はいずれかの組み合わせの主題は、前記識別情報を決定するステップが、前記複数の身に付けられたデバイスの各々のデバイスから生物測定信号を受信するステップを含むことを選択的に含んでもよい。
例27において、例17乃至26のうちの1つ又はいずれかの組み合わせの主題は、前記生物測定信号が、伝導度の測定値又は心拍数の測定値のうちの少なくとも一方を含むことを選択的に含んでもよい。
例28において、例17乃至27のうちの1つ又はいずれかの組み合わせの主題は、オブジェクトの色彩の指標を受信するステップをさらに含み、前記オブジェクトの前記色彩の特性に基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例29において、例17乃至例28のうちの1つ又はいずれかの組み合わせの主題は、オブジェクトの形状の指標を受信するステップをさらに含み、前記オブジェクトの前記形状の特性に基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例30において、例17乃至29のうちの1つ又はいずれかの組み合わせの主題は、ユーザのジェスチャーを識別するステップをさらに含み、前記ジェスチャーの特性に基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例31において、例17乃至30のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの1つのデバイスの動きを識別するステップをさらに含み、前記動きの特性に基づいて、前記それぞれの音を混合するステップが変更されることを選択的に含んでもよい。
例32において、例17乃至31のうちの1つ又はいずれかの組み合わせの主題は、前記混合された音を記録するステップをさらに含むことを選択的に含んでもよい。
例33において、例17乃至32のうちの1つ又はいずれかの組み合わせの主題は、機械によって実行されると、例17乃至例32のいずれか1つに記載の方法を前記機械に実行させる、情報を受信するための命令を含む少なくとも1つの機械読み取り可能な記憶媒体を選択的に含んでもよい。
例34において、例17乃至33のうちの1つ又はいずれかの組み合わせの主題は、例17乃至例32のいずれか1つに記載の方法を実行する手段を含む装置を選択的に含んでもよい。
例35は、音を混合する装置によって具体化される主題を含み、当該装置は、
複数の身に付けられたデバイスの識別情報を決定する手段であって、前記複数の身に付けられたデバイスの各々のデバイスは、1つの音に割り当てられる、手段と、
前記複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成する手段と、
前記混合された音を再生する手段とを含む。
例36において、例35の主題は、前記複数の身に付けられたデバイスのうちの少なくとも1つのデバイスが、第1のユーザによって身に付けられ、前記複数の身に付けられたデバイスのうちの少なくとも1つの異なるデバイスが、第2のユーザによって身に付けられ、それぞれの音を混合する手段は、
前記第1のユーザと前記第2のユーザとの間の近接を検出する手段と、
前記近接に基づいて、前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合する手段とを含むことを選択的に含んでもよい。
例37において、例35及び例36のうちのいずれか1つ又はいずれかの組み合わせの主題は、前記近接が、前記第1のユーザと前記第2のユーザとの間の非接触距離であることを選択的に含んでもよい。
例38において、例35乃至例37のうちの1つ又はいずれかの組み合わせの主題は、前記非接触距離が変化する場合に、前記それぞれの音を混合する手段が、さらに、前記変化に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例39において、例35乃至例38のうちの1つ又はいずれかの組み合わせの主題は、前記近接が、前記第1のユーザと前記第2のユーザとの間の物理的接触点を含み、それぞれの音を混合する前記手段が、さらに、前記物理的接触点の特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例40において、例35乃至例39のうちの1つ又はいずれかの組み合わせの主題は、前記物理的接触点の特性が接触面を含み、それぞれの音を混合する前記手段が、さらに、前記接触面のサイズに基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例41において、例35乃至例40のうちの1つ又はいずれかの組み合わせの主題は、前記物理的接触点が、前記第1のユーザ及び前記第2のユーザの導電性衣類の間の物理的接触を含むことを選択的に含んでもよい。
例42において、例35乃至例41のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの少なくとも2つのデバイスが、前記第1のユーザによって身に付けられていることを選択的に含んでもよい。
例43において、例35乃至例42のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの前記少なくとも2つのデバイスのうちの一方のデバイスが1つの周波数範囲に割り当てられ、前記複数の身に付けられたデバイスのうちの前記少なくとも2つのデバイスのうちの他方のデバイスが受動的な音に割り当てられることを選択的に含んでもよい。
例44において、例35乃至例43のうちの1つ又はいずれかの組み合わせの主題は、識別情報を決定する前記手段が、さらに、前記複数の身に付けられたデバイスの各々のデバイスから生物測定信号を受信するように構成されることを選択的に含んでもよい。
例45において、例35乃至例44のうちの1つ又はいずれかの組み合わせの主題は、前記生物測定信号が、伝導度の測定値又は心拍数の測定値のうちの少なくとも一方を含むことを選択的に含んでもよい。
例46において、例35乃至例45のうちの1つ又はいずれかの組み合わせの主題は、オブジェクトの色彩の指標を受信する手段をさらに含み、それぞれの音を混合する前記手段が、さらに、前記オブジェクトの前記色彩の特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例47において、例35乃至例46のうちの1つ又はいずれかの組み合わせの主題は、オブジェクトの形状の指標を受信する手段をさらに含み、それぞれの音を混合する前記手段が、前記オブジェクトの前記形状の特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例48において、例35乃至例47のうちの1つ又はいずれかの組み合わせの主題は、ユーザのジェスチャーを識別する手段をさらに含み、それぞれの音を混合する前記手段が、さらに、前記ジェスチャーの特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例49において、例35乃至例48のうちの1つ又はいずれかの組み合わせの主題は、前記複数の身に付けられたデバイスのうちの1つのデバイスの動きを識別する手段をさらに含み、それぞれの音を混合する前記手段が、さらに、前記動きの特性に基づいて、前記混合された音を変更するように構成されることを選択的に含んでもよい。
例50において、例35乃至例49のうちの1つ又はいずれかの組み合わせの主題は、前記混合された音を記録する手段をさらに含むことを選択的に含んでもよい。
上記の詳細な説明は、複数の添付の図面に対する言及を含み、それらの複数の添付の図面は、上記の詳細な説明の一部を形成している。それらの複数の添付の図面は、実現可能な複数の特定の実施形態を例示の目的で示している。本明細書においては、"例"としてこれらの複数の実施形態を参照する。そのような例は、示され又は説明された要素に加えて複数の要素を含んでもよい。しかしながら、本発明の発明者は、示され又は説明された上記の複数の要素のみを提示する複数の例を検討してもよい。さらに、本発明の発明者は、本明細書において示され又は説明されたある特定の例(又はその1つ又は複数の態様)に関して、或いは、他の複数の例(又はそれらの1つ又は複数の態様)に関して、示され又は説明された上記の複数の例のいずれかの組み合わせ又は並び替え(又はそれらの1つ又は複数の態様)を使用して複数の例を検討してもよい。
本明細書と参照により取り込まれる出願との間で利用法が一致しない場合には、本明細書における利用法が優先される。
本明細書においては、特許文献においては一般的であるが、"少なくとも1つの(at least one)"又は"1つ又は複数の(one or more)"といった語のいずれかの他の用例又は用法とは関係なく、1つ又は1つより多くを含むことを示すのに"1つの(a)"又は"1つの(an)"の語を使用する。本明細書においては、特に示す場合を除き、"A又はB"が、"BではないがA"、"AではないがB"、及び"A及びB"を含むといったように、非除外的な態様を指すのに"又は(or)"の語を使用する。本明細書においては、"including"及び"in which"といった語が、それぞれ、"comprising"及び"wherein"の平易な同義語として使用されることもある。また、以下の特許請求の範囲では、"including"及び"comprising"といった語は、変更可能な表現、すなわち、請求項の中でそのような語の後に列挙されている要素のほかに複数の要素を含むシステム、デバイス、物品、組成物、定式化、又はプロセスは、依然として、請求項に記載された発明の範囲に属すると考えられるべきである。さらに、以下の特許請求の範囲においては、序数的形容詞"第1の(first)"、"第2の(second)"、及び"第3の(third)"等は、ラベルとして使用されるにすぎず、それらの序数的形容詞の対象に数的な要件を付加することを意図するものではない。
本明細書において説明された複数の方法の例を、少なくとも部分的に、機械又はコンピュータによって実装してもよい。いくつかの例は、複数の命令を使用して符号化されるコンピュータ読み取り可能な媒体又は機械読み取り可能な媒体を含んでもよく、それらの複数の命令は、上記の複数の例に従って説明された複数の方法を実行するように電子デバイスを構成するように動作可能である。それらの複数の方法の実装は、マイクロコード、アセンブリ言語コード、高レベル言語コード、又はその他同様のコード等のコードを含んでもよい。そのようなコードは、さまざまな命令を実行するための複数のコンピュータ読み取り可能な命令を含んでもよい。さらに、1つの例においては、実行中に又は他の時点において、1つ又は複数の揮発的な非一時的コンピュータ読み取り可能な有体の記憶媒体或いは1つ又は複数の不揮発性コンピュータ読み取り可能な有体の記憶媒体に、上記のコードを有体的に格納してもよい。これらのコンピュータ読み取り可能な有体の記憶媒体の複数の例は、これらには限定されないが、ハードディスク、取り外し可能な磁気ディスク、(例えば、コンパクトディスク及びディジタルビデオディスク等の)取り外し可能な光ディスク、磁気カセット、メモリカード又はメモリスティック、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、及びその他同様にメモリを含んでもよい。
上記の説明は、限定的な意図ではなく、例示を目的としている。例えば、上記の複数の例(又はそれらの1つ又は複数の態様)を互いに組み合わせて使用してもよい。当業者が上記の説明を再検討することにより、他の実施形態を使用してもよい。要約書は、37C.F.R.§1.72(b)に適合するように記載され、37C.F.R.§1.72(b)は、読者が技術的な開示の性質を迅速に解明することができるようにする。要約が請求項に記載された発明の範囲又は意味を解釈し或いは限定するのに使用されないのは、要約書が理解のために提出されるからである。さらに、開示内容を効率的にする目的で、上記の発明を実施するための形態の中にさまざまな特徴をグループとしてまとめてもよい。このような開示の手法は、実施形態のうちの請求項に係る発明として記載されない開示された特徴が、いずれかの請求項に必須のものであるという意図を反映しているものとして解釈されるべきではない。むしろ、発明の主題は、開示されているある特定の実施形態のすべての特徴よりもより少ない特徴の中に存在していてもよい。このようにして、以下の特許請求の範囲は、複数の例又は複数の実施形態として発明を実施するための形態の中に組み込まれ、各請求項は、個別の実施形態としてそれ自体で独立して存在し、そして、そのような実施形態を互いに組み合わせてさまざまな組み合わせ又はさまざまな配列にしてもよいということを考慮すべきである。実施形態の範囲は、添付の特許請求の範囲と合わせてこれらの請求項に与えられる等価な発明の範囲を参照して決定されるべきである。

Claims (26)

  1. 音混合システムであって、
    複数の身に付けられたデバイスの識別情報を決定する通信モジュールであって、前記複数の身に付けられたデバイスの各々は、1つの音に割り当てられる、通信モジュールと、
    前記複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成する混合モジュールと、
    前記混合された音を再生する再生モジュールとを含む、
    システム。
  2. 前記複数の身に付けられたデバイスのうちの少なくとも1つのデバイスは、第1のユーザによって身に付けられ、前記複数の身に付けられたデバイスのうちの少なくとも1つの異なるデバイスは、第2のユーザによって身に付けられ、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、
    前記第1のユーザと前記第2のユーザとの間の近接を検出し、
    前記近接に基づいて、前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合する、ように構成される、請求項1に記載のシステム。
  3. 前記近接は、前記第1のユーザと前記第2のユーザとの間の非接触距離である、請求項2に記載のシステム。
  4. 前記近接は、前記第1のユーザと前記第2のユーザとの間の物理的接触点を含み、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記物理的接触点の特性に基づいて、前記混合された音を変更するように構成される、請求項2に記載のシステム。
  5. 前記物理的接触点の特性は接触面を含み、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記接触面のサイズに基づいて、前記混合された音を変更するように構成される、請求項4に記載のシステム。
  6. 前記物理的接触点は、前記第1のユーザ及び前記第2のユーザの導電性衣類の間の物理的接触を含む、請求項4に記載のシステム。
  7. 前記複数の身に付けられたデバイスの識別情報を決定する際に、前記通信モジュールは、さらに、前記複数の身に付けられたデバイスの各々から生物測定信号を受信するように構成される、請求項1に記載のシステム。
  8. 前記生物測定信号が、伝導度の測定値又は心拍数の測定値のうちの少なくとも一方を含む、請求項7に記載のシステム。
  9. 前記通信モジュールは、さらに、オブジェクトの色彩の指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記オブジェクトの前記色彩の特性に基づいて、前記混合された音を変更するように構成される、請求項1に記載のシステム。
  10. 前記通信モジュールは、さらに、オブジェクトの形状の指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記オブジェクトの前記形状の特性に基づいて、前記混合された音を変更するように構成される、請求項1に記載のシステム。
  11. 前記通信モジュールは、さらに、ユーザのジェスチャーの指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記ジェスチャーの特性に基づいて、前記混合された音を変更するように構成される、請求項1に記載のシステム。
  12. 前記通信モジュールは、さらに、前記複数の身に付けられたデバイスのうちの1つのデバイスの動きの指標を受信するように構成され、前記それぞれの音を混合する際に、前記混合モジュールは、さらに、前記動きの特性に基づいて、前記混合された音を変更するように構成される、請求項1に記載のシステム。
  13. 前記再生モジュールは、さらに、前記混合された音を記録するように構成される、請求項1乃至12のいずれか1項に記載のシステム。
  14. 音を混合する方法であって、
    複数の身に付けられたデバイスの識別情報を決定するステップであって、前記複数の身に付けられたデバイスの各々は、1つの音に割り当てられる、ステップと、
    前記複数の身に付けられたデバイスの各々のデバイスのそれぞれの音を混合して、混合された音を生成するステップと、
    前記混合された音を再生するステップとを含む、
    方法。
  15. 前記複数の身に付けられたデバイスのうちの少なくとも1つのデバイスは、第1のユーザによって身に付けられ、前記複数の身に付けられたデバイスのうちの少なくとも1つの異なるデバイスは、第2のユーザによって身に付けられ、前記それぞれの音を混合するステップは、
    前記第1のユーザと前記第2のユーザとの間の近接を検出するステップと、
    前記近接に基づいて、前記複数の身に付けられたデバイスの各々のデバイスの前記それぞれの音を混合するステップとを含む、請求項14に記載の方法。
  16. 前記近接は、前記第1のユーザと前記第2のユーザとの間の非接触距離である、請求項15に記載の方法。
  17. 前記複数の身に付けられたデバイスのうちの少なくとも2つのデバイスは、前記第1のユーザによって身に付けられている、請求項16に記載の方法。
  18. 前記近接は、前記第1のユーザと前記第2のユーザとの間の物理的接触点を含み、前記物理的接触点の特性に基づいて、前記それぞれの音を混合するステップが変更される、請求項15に記載の方法。
  19. 前記物理的接触点の特性は接触面を含み、前記接触面のサイズに基づいて、前記それぞれの音を混合するステップが変更される、請求項18に記載の方法。
  20. ユーザのジェスチャーを識別するステップをさらに含み、
    前記ジェスチャーの特性に基づいて、前記それぞれの音を混合するステップが変更される、請求項14に記載の方法。
  21. 前記複数の身に付けられたデバイスのうちの1つのデバイスの動きを識別するステップをさらに含み、
    前記動きの特性に基づいて、前記それぞれの音を混合するステップが変更される、請求項14に記載の方法。
  22. 前記識別情報を決定するステップは、前記複数の身に付けられたデバイスの各々のデバイスから生物測定信号を受信するステップを含む、請求項14に記載の方法。
  23. 前記混合された音を記録するステップをさらに含む、請求項14に記載の方法。
  24. コンピュータ実行可能な命令を含むコンピュータプログラムであって、前記コンピュータ実行可能な命令は、コンピュータのプロセッサで実行されると、請求項14乃至23のいずれか1項に記載の方法を前記コンピュータに実行させる、コンピュータプログラム。
  25. 請求項14乃至23のいずれか1項に記載の方法を実行する手段を含む装置。
  26. 請求項24のコンピュータプログラムを格納しているコンピュータ読み取り可能な記憶媒体。
JP2017528932A 2014-12-12 2015-11-20 ウェアラブルな音声混合 Active JP6728168B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/568,353 2014-12-12
US14/568,353 US9596538B2 (en) 2014-12-12 2014-12-12 Wearable audio mixing
PCT/US2015/061837 WO2016094057A1 (en) 2014-12-12 2015-11-20 Wearable audio mixing

Publications (2)

Publication Number Publication Date
JP2018506050A true JP2018506050A (ja) 2018-03-01
JP6728168B2 JP6728168B2 (ja) 2020-07-22

Family

ID=56107940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017528932A Active JP6728168B2 (ja) 2014-12-12 2015-11-20 ウェアラブルな音声混合

Country Status (6)

Country Link
US (1) US9596538B2 (ja)
EP (1) EP3230849A4 (ja)
JP (1) JP6728168B2 (ja)
KR (1) KR102424233B1 (ja)
CN (1) CN107113497B (ja)
WO (1) WO2016094057A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9596538B2 (en) 2014-12-12 2017-03-14 Intel Corporation Wearable audio mixing
US10310805B2 (en) * 2016-01-11 2019-06-04 Maxine Lynn Barasch Synchronized sound effects for sexual activity
US9958275B2 (en) * 2016-05-31 2018-05-01 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for wearable smart device communications
GB2559815A (en) * 2017-02-21 2018-08-22 Philip Pisani Justin Music control device
US10902829B2 (en) * 2017-03-16 2021-01-26 Sony Corporation Method and system for automatically creating a soundtrack to a user-generated video
JP7124870B2 (ja) * 2018-06-15 2022-08-24 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
CN111757213A (zh) * 2019-03-28 2020-10-09 奇酷互联网络科技(深圳)有限公司 控制智能音箱的方法、可穿戴设备及计算机存储介质
US11308925B2 (en) * 2019-05-13 2022-04-19 Paul Senn System and method for creating a sensory experience by merging biometric data with user-provided content
US11036465B2 (en) * 2019-10-28 2021-06-15 Bose Corporation Sleep detection system for wearable audio device
CN111128098A (zh) * 2019-12-30 2020-05-08 休止符科技深圳有限公司 一种手戴式智能乐器及其演奏方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990941A (ja) * 1995-09-27 1997-04-04 Yamaha Corp 演奏制御装置
JP2002023743A (ja) * 2000-07-12 2002-01-25 Yamaha Corp 発音制御システム
JP2004157394A (ja) * 2002-11-07 2004-06-03 Toshiba Corp 音情報生成システム及び音情報生成方法
JP2005204961A (ja) * 2004-01-23 2005-08-04 Yamaha Corp 移動装置および移動装置システム
JP2008058742A (ja) * 2006-08-31 2008-03-13 Kyushu Univ 演奏装置
JP2008158546A (ja) * 2008-02-12 2008-07-10 Yamaha Corp 演奏処理装置
WO2013103103A1 (ja) * 2012-01-04 2013-07-11 株式会社ニコン 電子機器、及び音楽コード出力方法
US20140328502A1 (en) * 2013-05-02 2014-11-06 Nokia Corporation Audio Apparatus

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6392133B1 (en) 2000-10-17 2002-05-21 Dbtech Sarl Automatic soundtrack generator
AU2002255568B8 (en) 2001-02-20 2014-01-09 Adidas Ag Modular personal network systems and methods
US7400340B2 (en) * 2004-11-15 2008-07-15 Starent Networks, Corp. Data mixer for portable communications devices
PL1851943T3 (pl) 2005-02-02 2018-07-31 Audiobrax Indústria E Comércio De Produtos Eletrônicos S.A. Urządzenie komunikacji mobilnej z funkcjami instrumentu muzycznego
JP2008532353A (ja) 2005-02-14 2008-08-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1の音声データを第2の音声データと混合するためのシステム及び方法、プログラム要素並びにコンピュータ読取可能な媒体
US20070283799A1 (en) * 2006-06-07 2007-12-13 Sony Ericsson Mobile Communications Ab Apparatuses, methods and computer program products involving playing music by means of portable communication apparatuses as instruments
US20080250914A1 (en) * 2007-04-13 2008-10-16 Julia Christine Reinhart System, method and software for detecting signals generated by one or more sensors and translating those signals into auditory, visual or kinesthetic expression
CN101441448A (zh) * 2007-11-19 2009-05-27 升钜科技股份有限公司 可移动物体的互动信号产生装置及方法
US20110021273A1 (en) 2008-09-26 2011-01-27 Caroline Buckley Interactive music and game device and method
US8865991B1 (en) * 2008-12-15 2014-10-21 Cambridge Silicon Radio Limited Portable music player
US8638364B2 (en) * 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
JP5822651B2 (ja) * 2011-10-26 2015-11-24 株式会社ソニー・コンピュータエンタテインメント 個体判別装置および個体判別方法
US8183997B1 (en) * 2011-11-14 2012-05-22 Google Inc. Displaying sound indications on a wearable computing system
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US9191516B2 (en) * 2013-02-20 2015-11-17 Qualcomm Incorporated Teleconferencing using steganographically-embedded audio data
JP6212882B2 (ja) * 2013-03-13 2017-10-18 株式会社リコー 通信システム、送信装置及び受信装置並びに通信方法
CN104170360A (zh) * 2014-02-14 2014-11-26 华为终端有限公司 用户设备的智能响应方法和用户设备
US9596538B2 (en) 2014-12-12 2017-03-14 Intel Corporation Wearable audio mixing

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990941A (ja) * 1995-09-27 1997-04-04 Yamaha Corp 演奏制御装置
JP2002023743A (ja) * 2000-07-12 2002-01-25 Yamaha Corp 発音制御システム
JP2004157394A (ja) * 2002-11-07 2004-06-03 Toshiba Corp 音情報生成システム及び音情報生成方法
JP2005204961A (ja) * 2004-01-23 2005-08-04 Yamaha Corp 移動装置および移動装置システム
JP2008058742A (ja) * 2006-08-31 2008-03-13 Kyushu Univ 演奏装置
JP2008158546A (ja) * 2008-02-12 2008-07-10 Yamaha Corp 演奏処理装置
WO2013103103A1 (ja) * 2012-01-04 2013-07-11 株式会社ニコン 電子機器、及び音楽コード出力方法
US20140328502A1 (en) * 2013-05-02 2014-11-06 Nokia Corporation Audio Apparatus

Also Published As

Publication number Publication date
KR102424233B1 (ko) 2022-07-25
CN107113497A (zh) 2017-08-29
KR20170094138A (ko) 2017-08-17
EP3230849A1 (en) 2017-10-18
JP6728168B2 (ja) 2020-07-22
US20160173982A1 (en) 2016-06-16
US9596538B2 (en) 2017-03-14
EP3230849A4 (en) 2018-05-02
WO2016094057A1 (en) 2016-06-16
CN107113497B (zh) 2021-04-20

Similar Documents

Publication Publication Date Title
JP6728168B2 (ja) ウェアラブルな音声混合
US10234956B2 (en) Dynamic effects processing and communications for wearable devices
US9542920B2 (en) Modular wireless sensor network for musical instruments and user interfaces for use therewith
US10856602B2 (en) Footwear, sound output system, and sound output method
US10102835B1 (en) Sensor driven enhanced visualization and audio effects
CN107210950A (zh) 用于共享用户交互的设备
WO2020262333A1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
US11404036B2 (en) Communication method, sound generation method and mobile communication terminal
JP2008134295A (ja) 合奏システム
CN109346044A (zh) 音频处理方法、装置及存储介质
US20180137770A1 (en) Musical instrument indicator apparatus, system, and method to aid in learning to play musical instruments
US20150273321A1 (en) Interactive Module
JP7419305B2 (ja) システム、装置、方法及びプログラム
US10981063B2 (en) Video game processing apparatus and video game processing program product
KR101251959B1 (ko) 음악게임 프로그램이 저장된 서버 시스템 및 그 프로그램이 저장된 컴퓨터로 읽을 수 있는 매체
US20130207790A1 (en) Finger beamz
KR20230148650A (ko) 리듬 게임 시스템 및 방법
GB2533600A (en) Music Playing Service
JP2024020384A (ja) プログラム、および配信システム
KR20220035448A (ko) Midi 프로토콜을 통해 연속 동작으로부터 가상 악기를 에뮬레이팅하는 방법
KR20230148654A (ko) 리듬 게임 시스템 및 방법
KR20100114556A (ko) 밴드 게임 제공시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R150 Certificate of patent or registration of utility model

Ref document number: 6728168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250