JP2008539874A - コンピューターインタラクティブ処理による選択的音源聴取 - Google Patents

コンピューターインタラクティブ処理による選択的音源聴取 Download PDF

Info

Publication number
JP2008539874A
JP2008539874A JP2008510106A JP2008510106A JP2008539874A JP 2008539874 A JP2008539874 A JP 2008539874A JP 2008510106 A JP2008510106 A JP 2008510106A JP 2008510106 A JP2008510106 A JP 2008510106A JP 2008539874 A JP2008539874 A JP 2008539874A
Authority
JP
Japan
Prior art keywords
sound
capture
game
image
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008510106A
Other languages
English (en)
Other versions
JP5339900B2 (ja
Inventor
エル. マークス リチャード
マオ シャドン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Publication of JP2008539874A publication Critical patent/JP2008539874A/ja
Application granted granted Critical
Publication of JP5339900B2 publication Critical patent/JP5339900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

コンピュータプログラムとのインタラクティブ処理中にイメージ及びサウンドをキャプチャするための方法及び装置が提供される。装置は、1つ以上のイメージフレームをキャプチャするよう構成されたイメージキャプチャユニットを含む。さらに、サウンドキャプチャユニットが提供される。サウンドキャプチャユニットは、1つ以上の音源を識別するように構成される。サウンドキャプチャユニットは、フォーカスゾーンを決定するよう分析を行うことが可能なデータを生成することができ、フォーカスゾーンにおける音が処理されるとともにこのフォーカスゾーンの外部の音は実質的に排除される。このようにして、フォーカスゾーンからキャプチャされて処理された音はコンピュータプログラムとのインタラクティブ処理に用いられる。

Description

ビデオゲーム業界ではこの数年にわたって多くの変革が起きている。コンピュータの演算処理が向上するにつれて、ビデオゲームのディペロッパーも、これらの演算能力の向上を利したゲームソフトを同様に作成してきている。
この目的のために、ビデオゲームディペロッパーは、非常に現実的なゲーム体験が得られるように、洗練された動作および高度な数学を組み込んだゲームをコーディングしている。
例示的なゲームのプラットフォームとしては、ソニーのPlaystation(登録商標)またはPlaystation2(PS2:登録商標)が挙げられ、これらはいずれもゲーム機の形で売られる。良く知られているように、ゲーム機はモニター(通常はテレビ)に接続され、かつ携帯型のコントローラーを通じてユーザーとのインタラクティブ処理が可能になるよう設計されている。
ゲーム機は、CPU、集中的なグラフィックス処理を行うためのグラフィックスシンセサイザー、ジオメトリ変換を実行するためのベクトル演算ユニットおよびこれらをつなぐ他のハードウェア、ファームウェアおよびソフトウェアを含む、専用の処理ハードウェアで設計されてい。ゲーム機はさらに、ゲーム機によるローカルプレイ(スタンドアローンでのゲームプレイ)のためのゲームコンパクトディスクを受けるための光ディスクトレーを有するよう設計される。さらに、オンラインゲームも可能であり、この場合、ユーザーは、インターネット上の他のユーザーと対戦あるいは協力してインタラクティブにプレイを行うことができる。
ゲームが複雑であることでプレーヤーの好奇心がそそられることから、ゲーム及びハードウェアのメーカーは更なるインタラクティビティの向上が可能となるように革新を続けている。しかし、実際には、近年はユーザーとゲームとのインタラクティビティは劇的には変化していない。
以上のことから、ゲームとのより高度なユーザーインタラクティビティの達成を可能とする方法およびシステムが要求されている。
概して、本発明は、コンピュータープログラムとのインタラクティブ処理を容易にする装置および方法を提供することで、これらの要求を満たしている。一実施形態において、コンピュータープログラムはゲームプログラムであるが、これに限らず、本発明に係る装置および方法は、制御、入力あるいは通信を可能とするためのトリガーとして音入力を取り入れたいずれのコンピュータ環境に適用可能である。より詳細には、制御や入力の契機となるように音が用いられる場合、本発明の実施形態によれば特定の音源の入力のフィルタリングが可能となり、また、フィルタリングされた入力は、対象外の音源を削除あるいはフォーカスを外すように構成される。ビデオゲーム環境では、選択された音源に応じて、ビデオゲームは、対象の音源を処理した後に特定のレスポンスを返すことで応答を行うことができる。この際、対象外の他の音のひずみやノイズを伴うことはない。一般に、ゲーム環境は、音楽や他の人々、および、オブジェクトの移動といった多くのバックグラウンドノイズにさらされる。対象外の音が実質的にフィルタリングによって除去されると、コンピュータプログラムは対象の音によりよい応答を行うことができる。応答は、コマンド、アクションの起動、選択、ゲームステータスあるいはゲーム状態の変更、フィーチャのロック解除といった、任意の形式をとることができる。
一実施形態では、コンピュータプログラムとのインタラクティブ処理中にイメージ及び音をキャプチャするための装置が提供される。この装置は、1つ以上のイメージフレームをキャプチャーするように構成されたイメージキャプチャユニットを含む。さらに、サウンドキャプチャユニットが提供される。サウンドキャプチャユニットは、1つ以上の音源を識別するように構成される。サウンドキャプチャユニットは、フォーカスゾーンを決定するよう分析を行うことが可能なデータを生成することができ、フォーカスゾーンにおける音が処理されるとともにこのフォーカスゾーンの外部の音は実質的に排除される。このようにして、フォーカスゾーンからキャプチャされて処理された音はコンピュータプログラムとのインタラクティブ処理に用いられる。
別の実施形態では、コンピュータープログラムとのインタラクティブ処理中に選択的に音源聴取を行う方法が開示されている。該方法において、入力は、1つ以上の音源から2本以上の音源キャプチャマイクロホンで受け取られる。その後、該方法において、各音源からディレイパスを測定し、それぞれの1つ以上の音源の、それぞれの受信した入力方向が識別される。次に、該方法において、フォーカスゾーンの識別された方向にない音源をフィルタリングにより除去する。このフォーカスゾーンは、コンピュータプログラムとのインタラクティブ処理のための音源を供給するように構成される。
また別の実施形態では、ゲームシステムが提供される。このゲームシステムはイメージ−サウンドキャプチャデバイスを有し、このイメージ−サウンドキャプチャデバイスは、インタラクティブなコンピュータゲームの実行を可能とするコンピューティングシステムとのインターフェースとなるよう構成されている。イメージ−サウンドキャプチャデバイスは、フォーカスゾーンのビデオキャプチャが可能なように配置されたビデオキャプチャハードウェアを含む。1つ以上の音源からの音をキャプチャするためのマイクロフォンアレイが提供される。各音源は、イメージ−サウンドキャプチャデバイスに対する方向が識別されてその方向との関連付けが成されている。ビデオキャプチャーハードウェアに関連付けられたフォーカスゾーンは、フォーカスゾーンの近傍の方向にある音源のうちの一つを識別するために用いられるよう構成されている。
概して、インタラクティブサウンド識別及びトラッキングは、任意のコンピュータ装置の任意のコンピュータプログラムとインターフェースを行うために適用できる。音源が識別されると、音源のコンテンツはさらに、コンピュータプログラムによって描写されるフィーチャやオブジェクトをトリガリングする、運転する、方向付ける、あるいは制御するために処理可能である。
本発明の他の形態および利点は、一例として本発明の原理を示した添付の図面とともに、以下の詳細な説明から明らかとなるであろう。
本発明は、その更なる利点とともに、添付の図面とともに後述の詳細な記載を参照することによって最もよく理解される。
コンピュータプログラムとのインタラクティブツールとして音が用いられた場合における、特定音源の識別及び望ましくない音源のフィルタリング除去を促進するための方法及び装置に関する発明を開示する。
以下の記述では、本発明を理解するために、多数の具体的な詳細が述べられている。しかしながら、当業者であれば、本発明はこれらの具体的な詳細のうちのいくつかあるいはすべてを用いることなく実施することも可能であることは明らかであろう。換言すれば、本発明を不明瞭にしないように、周知のプロセスステップに関してはその詳細は記述されていない。
図1に、本発明の一実施形態に係る、一人あるいは複数のユーザーとのインタラクティブ処理のためにビデオゲームプログラムが実行されているゲーム環境100を示す。図示されるように、プレーヤー102は、ディスプレイ110を備えたモニター108の前に示される。モニター108には、コンピューティングシステム104が接続されている。コンピューティングシステムは、標準的なコンピュータシステム、ゲーム機あるいはポータブルコンピュータシステムとしてよい。この例において、ゲーム機は、ソニー・コンピュータ・エンターテインメント社、マイクロソフトあるいは他のメーカーによって製造されたゲーム機としてよいが、ゲーム機のメーカには何ら制限はない。
コンピューティングシステム104はイメージ−サウンドキャプチャデバイス1−6に相互接続された状態で示される。イメージ−サウンドキャプチャデバイス106はサウンドキャプチャユニット106aおよびイメージキャプチャユニット106bを含んでいる。図には、ディスプレイ110上のゲーム画面上のキャラクタ112とインタラクティブに通信した状態のプレーヤー102が示されている。実行されているビデオゲームは、プレーヤー102からの入力の少なくとも一部が、イメージキャプチャユニット106b及びサウンドキャプチャユニット106aを経由して提供される。図示されるように、プレーヤー102はディスプレイ110上のインタラクティブアイコン114を選択するようにプレーヤの手を移動させることができる。イメージキャプチャユニット106bによってキャプチャーが行われると、プレーヤー102'の半透明のイメージがディスプレイ110上に表示される。したがって、プレーヤー102は、アイコンの選択を行うため、あるいはゲーム画面112とのインターフェースを行うために、自分の手をどこに移動させるべきかを知ることができる。これらの動作や相互の動きをキャプチャーするための技術は種々変更できるが、例示的な技術としては、英国出願GB 0304024.3(PCT/GB2004/000693)およびGB 0304022.7(PCT/GB2004/000703)が挙げられる。これらはそれぞれ2003年2月21日に出願されており、参照として本願に包含される。
この例においては、インタラクティブアイコン114によって、プレイヤーは、ゲーム画面上のキャラクタ112に、その手にあるオブジェクトをスイングさせるよう、「スイング」を選択可能とすることができる。さらに、プレーヤー102は、音声コマンド入力することも可能であり、この音声コマンドは、サウンドキャプチャユニット106aによってキャプチャーすることができ、その後、コンピューティングシステム104によって処理されることで、実行されているビデオゲームにインタラクティビティを与える。図示されるように、音源116aは「ジャンプ!」という音声コマンドである。その後、音源116aはサウンドキャプチャユニット116aによってキャプチャーされ、その後にコンピューティングシステム104によって処理されてゲーム画面上のキャラクタ112をジャンプさせる。音声コマンドの識別を可能にするために音声認識を使用してもよい。他の形態では、プレーヤー102は、インターネット又はネットワークにより接続されているリモートユーザーと通信することもできる。このリモートユーザーは、リモートで接続されてるものの、直接あるいは部分的にゲームを通じてインタラクティブに通信できる。
本発明の一実施形態によれば、サウンドキャプチャユニット106aは、少なくとも二つのマイクロホンを備えて、これによりコンピューティングシステム104が特定方向から聞こえる音を選択できるように構成される。コンピュータシステム104が、ゲームプレイにおいて重要ではない方向からの音をフィルタリングにより除去できるようにすることで、プレイヤー102から特定のコマンドが出されたときに、ゲーム環境100において邪魔になる音によってゲームの実行が混乱されることが避けられる。例えば、ゲームプレーヤー102が足踏みをして、その足音を発生させる場合もある。この足音は、非言語音117である。そのような音がサウンドキャプチャユニット106aによってキャプチャーされる場合もあるが、プレイヤー102の足下からの音は、ビデオゲームにおいて焦点となるゾーン(フォーカスゾーン)からの音ではないので、フィルタリング除去される。
以下に述べるように、フォーカスゾーンは、好適には、イメージキャプチャユニット106bのフォーカスポイントであるアクティブイメージエリアによって識別される。他の形態では、フォーカスゾーンは、初期化段階後にユーザーに提示される選択ゾーンから手動で選ばれるようにする。図1の例に戻ると、ゲームの観客103が、インタラクティブゲームプレイ中にコンピューティングシステムによる処理に邪魔な音源116bをだす場合もある。しかしながら、ゲームの観客103は、イメージキャプチャユニット106bのアクティブイメージエリアにいない。したがって、ゲームの観客103の方向からの音は、フィルタリングにより除去され、コンピューティングシステム104が音源116bからのコマンドを、音源116aとしてプレーヤー102からの音源と誤って混同しないようになっている。
イメージ−サウンドキャプチャデバイス106は、イメージキャプチャユニット106bおよびサウンドキャプチャユニット106aを含んでいる。イメージ−サウンドキャプチャデバイス106は、好適にはイメージフレームをデジタルでキャプチャーした後に、更なる処理用のコンピューティングシステム104にそれらのイメージフレームを転送可能である。イメージキャプチャユニット106bの一例はウェブ画像であり、このウェブ画像は、通常、ビデオ画像をキャプチャした後にインターネットのようなネットワーク上でその後に記録あるいは通信するコンピュータ装置へデジタル送信されることが望まれる場合に使用される。識別及びフィルタリングが可能となるようにイメージデータがデジタル処理可能である限り、アナログかデジタルかを問わず、他のタイプのイメージキャプチャデバイスもまた使用可能である。1つの好ましい実施形態では、入力データが受け取られた後、フィルタリングを可能にするディジタル加工がソフトウェアにより行われる。図には、一対のマイクロホン(MIC1とMIC2)を含むサウンドキャプチャユニット106aが示される。マイクロホンは標準的なマイクロホンであり、イメージ−サウンドキャプチャデバイス106を構成するハウジングに一体化することもできる。
サウンドAおよびサウンドBからの音源116の処理時におけるサウンドキャプチャユニット106aを図3Aに示す。図示されるように、サウンドAは可聴音を生し、音経路201aおよび201bを通じて、MIC1およびMIC2により検出される。音経路202aおよび202bを通じてのMIC1およびMIC2に向けてサウンドBが出される。図示しているように、サウンドAの各音経路はその長さが異なり、それにより、音経路202aおよび202bと比較された時に相対的な遅れが生じる。サウンドAおよびサウンドBからのそれぞれの音は、その後、図3Bに示されるボックス216において方向の選択が行われるように、標準的な三角測量アルゴリズムにより処理される。MIC1とMIC2から聞こえる音は各々、バッファ1、2(210a、210b)にそれぞれ一時的に格納された後、またディレイライン(212a、212b)を通じて後段へと送られる。一実施形態において、バッファリング及びディレイプロセスは、ソフトウェアにより制御されるが、これらのオペレーションを行うためにハードウェアをカスタム設計してもよい。三角測量に基づいて、方向選択216をすることで、音源116のうちの1つが識別および選択される。
MIC1とMIC2のそれぞれからの音は、ボックス214で合計された後に、選択されたソースの出力として出力される。このようにして、音源がコンピュータシステム104による処理を阻害しないように、また、ネットワークあるいはインターネット上でインタラクティブにビデオゲームを行っている他のユーザとの通信を阻害することがないように、アクティブイメージエリアの方向以外の方向からの音はフィルタリングにより除去される。
図4は、本発明の一実施形態に係る、イメージ−サウンドキャプチャデバイス106と共に使用可能なコンピューティングシステム250を示す。コンピューティングシステム250はプロセッサ252及びメモリ256を含む。バス254はイメージ−サウンドキャプチャデバイス106とプロセッサおよびメモリ256とを相互連結させる。メモリ256は、少なくともインタラクティブプログラム258の一部を備え、さらに、選択的な音源聴取ロジックを備えるか、あるいは受信音源データを処理するためのコード260を備える。イメージキャプチャユニット106bでフォーカスゾーンがあると識別された場所に基づき、フォーカスゾーンの外側の音源は、実行されている(例えばプロセッサーによって実行され、少なくともその一部がメモリ256に格納されている)選択的音源聴取ロジック260によって選択的にフィルタリングされる。コンピューティングシステムは最も単純化した形式で示されているが、入力される音源の処理を達成するように命令処理が可能で、これにより選択的聴取が可能である限り、いずれのハードウェア構成とすることも可能である。
また、バス経由でディスプレイ110と相互連結されたコンピューティングシステム250も図示される。この例において、フォーカスゾーンは、音源Bにフォーカスを合わせているイメージキャプチャユニットによって識別される。音源Aのような他の音源からの音は、その音がサウンドキャプチャユニット106aによってキャプチャーされてコンピューティングシステム250に転送される際に、選択的音源聴取ロジック260によって実質的にフィルタリング除去される。
1つの特定の例においては、プレーヤーは他のユーザーと、インターネットあるいはネットワークを通じてのビデオゲームでの試合に参加することができ、この場合各ユーザは主にスピーカを通じてゲームの音を聴取している。これらのスピーカーは、コンピューティングシステムの一部、あるいはモニター108の一部となり得る。したがって、この場合はユーザ個々のスピーカーであるローカルスピーカーが、図4に示されるような音源Aを生成していることになる。音源A用のローカルスピーカーからの音をコンピュータユーザにフィードバックさせないようにするために、選択的音源聴取ロジック260は、試合を行っているユーザがユーザ自身の出す音や声がフィードバックされないように、音源Aからの音をフィルタリング除去する。このようにフィルタリングを行うことで、ビデオゲームとのインターフェースを行いながら、ネットワークを通じてインタラクティブコミュニケーションを行うことができ、かつ、その処理の間の、障害となるフィードバックを避けることができるという利点が得られる。
図5は、イメージ−サウンドキャプチャデバイス106が少なくとも4本のマイクロホン(MIC1−MIC4)を備えた例を示す。従って、サウンドキャプチャユニット106aは、音源116(AとB)の位置を識別する三角測量を、より高い精度で行うことができる。すなわち、補助マイクロホンを用いることで、音源の位置をより正確に判定することができ、これにより、対象外の音や、ゲームプレイやコンピュータシステムとのインタラクティビティを阻害するような音をフィルタリングにより除去することが可能となる。図5に示されるように、音源116(B)は、ビデオキャプチャーユニット106Bにより識別された、対象となる音源である。図5の例に続き、図6は、音源Bが空間体積においてどのように識別されるか識別する。
音源Bが位置する空間体積は、フォーカス274の体積を定義することになる。フォーカスされる体積を識別することで、特定の体積の範疇にない(即ち、単に方向を識別するだけではない)ノイズを消去あるいはフィルタリングにより除去することが可能となる。フォーカスされた体積274の選択を容易とするために、好ましくは、イメージ−サウンドキャプチャデバイス106は、少なくとも4つのマイクロホンを備える。マイクロホンのうち少なくとも1つは、他の3つのマイクロホンにより定義される平面とは異なる平面上に設けられる。イメージ−サウンドキャプチャデバイス106の4つのマイクのうち一つを平面271内に、その他のマイクを空間270内に維持することで、空間体積を決定することができる。
従って、近くにいる他の人(276a及び276bとして図示されている)からのノイズは、これらの他の人はフォーカスされた体積274として定義された空間体積内にはいないことから、フィルタリングにより除去される。さらに、スピーカ276cで示されるような、空間体積のちょうど外側で生成されるノイズも、このノイズが上記の空間体積の外側にあることから、フィルタリングにより除去される。
図7に、本発明の一実施形態に係るフローチャートを示す。この方法は、1つ以上の音源からの入力が2つ以上のサウンドキャプチャマイクで受信されるステップ302から開始される。一例において、2本以上のサウンドキャプチャマイクロホンは、イメージ−サウンドキャプチャデバイス106に一体化されている。他の形態では、2本以上のサウンドキャプチャマイクロホンは、イメージキャプチャユニット106bとのインターフェースとなる第2のモジュール/ハウジングの一部とすることもできる。他の形態では、サウンドキャプチャユニット106aは、サウンドキャプチャマイクロホンの本数は何本でも良く、サウンドキャプチャマイクロフォンは、コンピュータシステムとインターフェースを行うユーザからの音をキャプチャーするように設定された特定の位置に配置することができる。
この方法は、動作304に進み、各音源のディレイパスが測定される。図3Aにディレイパスの例として、音経路201、202が定義されている。周知のように、ディレイパスは、音源から、音をキャプチャーするよう配置された特定のマイクロホンまで、音波が移動するために要する時間を決定する。特定の音源116から音波が必要とするディレイに基づいて、マイクロフォンにより、音の発生している概略的な位置とディレイとを、標準的な三角測量アルゴリズムを用いて測定することができる。
その後、この方法は動作306に進み、1つ以上の音源から受信された入力のそれぞれに対してその方向が識別される。すなわち、音源116から生じている音の方向は、サウンドキャプチャユニット106aを含めたイメージ−サウンドキャプチャデバイスの位置に関して相対的に識別される。識別された方向に基づいて、フォーカスゾーン(あるいはフォーカスされた体積)の識別された方向にはないとされた音源の音は、動作308でフィルタリングにより除去される。フォーカスゾーンの近傍の方向以外の方向からの音源の音をフィルタリングにより除去することで、動作310に示されるように、フィルタリングにより除去されなかった音源からの音を用いてコンピュータプログラムとインタラクティブ処理を行うことができる。
例えば、インタラクティブプログラムとしては、ユーザーが、ビデオゲームのフィーチャと、あるいはビデオゲームでこのユーザ自身と対戦しているプレイヤーと、インタラクティブに通信可能なビデオゲームが挙げられる。ユーザと対戦しているプレーヤーは、ユーザと同じ場所(ローカル)にいるか、あるいは、ユーザとは別の場所にいて、インターネット等のネットワークを通じてこのプレイヤー自身と通信しているプレイヤーである。さらに、ビデオゲームも、そのビデオゲームに関連する特定の大会において各プレイヤーのスキルを競い合うよう、グループ内の多数のユーザ間でインタラクティブにプレイできるものとすることができる。
図8は、動作340において受信された入力に対して行われているソフトウェアにより実行される動作とは別に、イメージ−サウンドキャプチャデバイスの動作320のフローチャートを示す。したがって、動作302で、2本以上のサウンドキャプチャ用のマイクロホンにおいて1つ以上の音源からの入力が受信されると、動作304に進み、ソフトウェアで、各音源に対してディレイパスが決定される。動作306においては、ディレイパスに基づき、上述の一つ以上の音源のそれぞれについて、各受信された入力の方向が識別される。
この時点において、動作312に進み、ビデオキャプチャーに近接する識別された方向が決定される。例えば、ビデオキャプチャーは、図1に示されるようなアクティブイメージエリアにそのターゲットが定められる。従って、このアクティブイメージエリア(あるいは体積)内が、ビデオキャプチャーの近傍となり、かつ、このアクティブイメージエリア内又はその近傍の音源に関する方向がいずれも決定される。この決定に基づいて、動作314に進み、ビデオキャプチャーの近傍にない方向(あるいは体積)がフィルタリングにより除去される。従って、プレイヤー自身のビデオゲームプレイを妨害するおそれのあるノイズや騒音等の外部からの入力は、ゲームプレイ中に実行されるソフトウェアによってフィルタリングにより除去される。
続いて、プレイヤー自身はビデオゲームをインタラクティブにプレイするか、そのビデオゲームを使用している他のユーザとインタラクティブにプレイするか、この同じビデオゲームがログインしているトランザクションに関連付けられたネットワーク又はこのビデオゲームのトランザクションに関連付けられたネットワークを通じて他のユーザとの通信が可能となっている。このようなビデオゲームコミュニケーションにおいては、インタラクティビティや制御が、特定のゲームやインタラクティブプログラムへの参加やインタラクティブなコミュニケーションを意図していない外部からのノイズや観客により阻害されることはなくなっている。
ここに記述された実施形態は、オンラインゲームアプリケーション等に適用される。すなわち、上述の実施形態は、ネットワーク、例えばインターネットを通じてビデオ信号を複数のユーザに送信するサーバーに適用することができ、騒がしい場所にいる遠隔地のプレイヤーとも互いに通信可能となる。ここに記述された実施形態は、ハードウェアあるいはソフトウェアのいずれにより実装することも可能である。すなわち、上述の機能に関する記述は、ノイズキャンセルスキームに関連した各モジュールにおける機能的タスクを実行するように構成されたマイクロチップを形成するために総合してもよい。
さらに、音源の選択的なフィルタリングは、電話のような他の用途に適用することができる。電話を使用する環境では、通常、主たる人物(つまりかける側)が、第三者(つまり電話を受ける人)と話し合うことを所望する。しかしながら、その電話中に、近辺にいる人が話をするか、あるいは雑音を出すこともあり得る。電話を、電話をかける側の人物に向ける(例えばその受話器の方向を、電話をかける人にあわせる)ことで、電話をかける人の口をフォーカスゾーンとすることができ、従って、電話をかける人の声のみを選択することが可能となる。従って、選択的聴取を行うことで、電話をかける人とは無関係の声やノイズをフィルタリングにより除去することが可能で、従って、電話を受ける人物は、電話をかける側の人物の声を一層クリアに聞くことができる。
他に追加する技術として、音を制御あるいは通信の入力とすることが利点となる電子機器を用いることが挙げられる。例えば、ユーザーは、音声コマンドによって、他の乗客により音声コマンドを阻害されることなく自動車のセッティングをコントロールすることができる。他の用途としては、ブラウザ、文書作成あるいは通信といったコンピュータ制御関係のものが挙げられる。このフィルタリングを可能にすることによって、周囲の音により妨害されることなく、より効率的にボイスあるいは音によるコマンドをだすことができる。このように、いずれの電子機器においてもこのように適用することができる。
さらに、本発明の実施形態は多くの用途に適用することが可能であり、請求の範囲は、これらの実施形態から利点が得られる用途がいずれも含まれるように読み取られるべきである。
例えば、本実施形態に類する用途として、サウンドアナライズを用いて、音源からの音をフィルタリングして除去することも可能である。サウンド分析が使用される場合、マイクロホンが一本以上使用される。一本のマイクロホンによってキャプチャーされた音は、ソフトウェア又はハードウェアによってデジタル分析され、対象の音か否かが判定される。例えばゲームのような、幾つかの環境においては、ユーザ自身が自分の声を録音して、特定の声を識別するよう学習させることもできる。このようにして、他の声や音を排除しやすくなっている。その結果、一つの音のトーンや周波数に基づいてフイルタリングすることが可能となることから、必ずしも方向を識別する必要はなくなる。
また、方向及び体積を考慮する場合において、音のフィルタリングに関する上述のすべての利点を用いることが可能である。
上記の実施形態を念頭において、本発明は、コンピュータシステムに格納されたデータを含めて、種々のコンピュータに実装された動作を採用することができることが理解されよう。これらの動作には、物理量の物理的な操作を要求する動作が含まれる。通常、必須ではないものの、これらの量は、記録、結合、比較及びその他の操作が可能である電気信号あるいは磁気信号の形態をとる。さらに、実行された操作は、生産、識別、測定あるいは比較として記載される。
上述された発明は、携帯端末、マイクロプロセッサシステム、マイクロプロセッサベース又はプログラマブル家電、ミニコンピュータ、メインフレームコンピューターおよびこれらに類するものを含む、その他のコンピュータシステム構成により実施されてもよい。本発明は、通信ネットワークを通じてリンクされた遠隔処理デバイスによってタスクが実行される、分散コンピュータ環境にも適用することができる。
本発明は、コンピュータ可読媒体に記録されたコンピューター読取り可能なコードとして実施することもできる。コンピュータ可読媒体は、電磁波キャリアーを含む、データを記録するとともにその後にデータをコンピュータシステムによって読み出すことができるデータ記録デバイスのいずれとすることもできる。コンピュータ可読媒体の例としては、ハードドライブ、ネットワーク接続記憶装置(Network attached storage:NAS)、読み取り専用メモリ、ランダムアクセスメモリー、CD-ROM、CD-R、CD-RW、磁気テープおよび他の光学・非光学データストレージ装置が挙げられる。コンピュータ可読メディアは、コンピュータ可読コードが配布されるという形態で記録及び実行されるように、ネットワークにより接続されたコンピュータシステムを通じて配布することも可能である。
以上、本発明を明確な理解を助けるように詳細に記述したが、添付したクレームの範囲内である程度の変更および修正が可能であることは明らかであろう。従って、本実施形態は、例示的なものであって限定的なものではなく、本発明は、ここに開示した形態に限定されるものではなく、添付したクレームの範囲及び均等の範疇で変形が可能なものである。
本発明の一実施形態に係る、一人あるいは複数のユーザとのインタラクティビティのためにビデオゲームプログラムが実行されているゲーム環境を示した説明図。 本発明の一実施形態に係る、例示的イメージ−サウンドキャプチャデバイスの3D説明図。 本発明に係る、入力を受信するように設計された別々のマイクロフォンでの音経路の処理、および、選択された音源を出力するためのロジックを示した説明図。 本発明に係る、入力を受信するように設計された別々のマイクロフォンでの音経路の処理、および、選択された音源を出力するためのロジックを示した説明図。 本発明の一実施形態に係る、入力音源を処理するイメージ−サウンドキャプチャデバイスとインターフェースを行う例示的コンピューティングシステム。 本発明の一実施形態に係る、特定の音源の方向識別精度を高めるために使用される複数のマイクロフォンの例を示した説明図。 本発明の一実施形態に係る、異なる平面に設けられたマイクロフォンを使用して特定の空間体積で音が識別される例を示した説明図。 本発明の一実施形態に係る、音響の識別および、フォーカスしていない音響の排除で処理される例示的な方法動作の説明図。 本発明の一実施形態に係る、音響の識別および、フォーカスしていない音響の排除で処理される例示的な方法動作の説明図。

Claims (26)

  1. コンピュータープログラムとのインタラクティブ処理中にイメージ及び音をキャプチャするための装置であって、1つ以上のイメージフレームをキャプチャーするよう構成されたイメージキャプチャユニットと、サウンドキャプチャユニットと、を有し、
    前記サウンドキャプチャユニットは、1つ以上の音源を識別するように構成され、このサウンドキャプチャユニットは、フォーカスゾーンを決定するよう分析を行うことが可能なデータを生成することができ、前記フォーカスゾーンにおける音が処理されるとともにこのフォーカスゾーンの外部の音は実質的に排除され、フォーカスゾーンからキャプチャされて処理された音はコンピュータプログラムとのインタラクティブ処理に用いられる、装置。
  2. 請求項1記載の装置であって、
    前記サウンドキャプチャユニットは、マイクロホンアレイを有し、このマイクロホンアレイは、前記1つ以上の音源から音を受けとるように構成され、前記1つ以上の音源からの音によって各マイクロホン毎の音経路を決定する、装置。
  3. 請求項2記載の装置であって、
    前記音経路には、前記イメージ及びサウンドをキャプチャするための装置に対する前記1つ以上の音源のそれぞれの方向の計算を可能とする、特定のディレイが含まれる、装置。
  4. 請求項1記載の装置であって、
    イメージ及び音をキャプチャするための装置とのインターフェースを行うコンピュータシステムを有し、このコンピューティングシステムは、メモリとプロセッサとを備え、前記メモリは選択的音源聴取コードとコンピュータプログラムの少なくとも一部とを記録するように構成され、前記選択的音源聴取コードは1つ以上の音源のうちどれが前記フォーカスゾーンとして識別されるかを決定可能とする、装置。
  5. 請求項1記載の装置であって、前記サウンドキャプチャユニットは、マイクロホンを少なくとも4本備え、そのうちの一本は、他のマイクロホンが形成する平面とは異なる平面にある、装置。
  6. 請求項5記載の装置であって、前記4つのマイクロホンにより空間体積が決定される、装置。
  7. 請求項6記載の装置であって、前記空間体積は、前記コンピュータプログラムのインタラクティブ処理中に聴取するためにフォーカスされる体積として定義される、装置。
  8. 請求項7記載の装置であって、前記コンピュータプログラムは、ゲームプログラムである、装置。
  9. 請求項1記載の装置であって、前記コンピュータプログラムは、ゲームプログラムである、装置。
  10. 請求項9記載の装置であって、前記イメージキャプチャユニットはカメラであり、前記サウンドキャプチャユニットは、二つ以上のマイクロホンを備えたアレイにより形成される、装置。
  11. コンピュータプログラムのインタラクティブ処理中に選択的に音源聴取を行う方法であって、
    2本以上の音源キャプチャマイクロホンによって1つ以上の音源から入力を受け取り、
    各音源からディレイパスを測定し、
    1つ以上の音源のそれぞれから受信された入力方向を識別し、
    フォーカスゾーンの識別された方向内にない音源をフィルタリングにより除去し、このフォーカスゾーンから、コンピュータプログラムのインタラクティブ処理のための音源による音が供給される、方法。
  12. 請求項11記載の方法であって、
    前記フィルタリングでは、イメージキャプチャユニットにより分析された後に処理された入力データが受けとられるとともに、前記イメージキャプチャユニットは、前記コンピュータプログラムに対するイメージ入力を受けとるためにその方向が定められて配置されている、方法。
  13. 請求項11に記載の方法であって、
    前記コンピュータープログラムはゲームプログラムであり、このゲームプログラムはイメージデータとサウンドデータの双方からインタラクティブな入力を受けとり、前記サウンドデータは、前記フォーカスゾーンの音源からの音である、方法。
  14. 請求項11記載の方法であって、
    前記2本以上のサウンドキャプチャマイクロホンは、少なくとも4本のマイクロホンを含み、そのうちの少なくとも一本は、他のマイクロホンが形成する平面とは異なる平面に配置される、方法。
  15. 請求項14に記載の方法であって、
    前記1つ以上の音源から受けとられた各入力の方向の識別には三角測量処理が含まれ、この三角測量処理では、所定の位置に対する方向が決定され、前記所定の位置で、前記二つ以上の音源キャプチャマイクロホンで前記一つ以上の音源からの入力が受けとられる、方法。
  16. 請求項15記載の方法であって、
    前記2つ以上の音源キャプチャマイクロホンに関連付けられた1つ以上の音源から受けとった入力をバッファリングし、
    前記バッファリングされた入力のディレイ処理を行い、
    前記フィルタリングには、更に、音源のうち一つを選択することが含まれ、選択された音源の出力は、前記各音源キャプチャマイクロホンからの音を合計したものである、方法。
  17. ゲームシステムであって、
    イメージ−サウンドキャプチャデバイスを有し、このイメージ−サウンドキャプチャデバイスは、インタラクティブなコンピュータゲームの実行を可能とするコンピューティングシステムとのインターフェースとなるよう構成されており、
    前記イメージ−サウンドキャプチャデバイスは、フォーカスゾーンのビデオキャプチャが可能なように配置されたビデオキャプチャハードウェアと、1つ以上の音源からの音をキャプチャするためのマイクロホンアレイと、を有し、各音源は、前記イメージ−サウンドキャプチャデバイスに対する方向が識別されてその方向との関連付けされており、
    前記ビデオキャプチャハードウェアに関連付けられた前記フォーカスゾーンは、前記フォーカスゾーンの近傍の方向にある音源のうちの一つを識別するために用いられるよう構成されている、ゲームシステム。
  18. 請求項17に記載のゲームシステムであって、前記ビデオキャプチャーハードウェアは、コンピュータ・ゲームのフィーチャとのインタラクティブな処理を可能とするようにビデオデータを受け取る、ゲームシステム。
  19. 請求項17に記載のゲームシステムであって、前記フォーカスゾーンの近傍にある前記音源は、前記コンピュータゲームとのインタラクティブ処理あるいは他のゲームユーザとの音声コミュニケーションが可能とされている、ゲームシステム。
  20. 請求項19記載のゲームシステムであって、前記フォーカスゾーンの外部の音源からの音は、前記コンピュータゲームとインタラクティブ処理されないようフィルタリングにより除去される、ゲームシステム。
  21. コンピュータプログラムとのインタラクティブ処理の間にサウンドをキャプチャする装置であって、
    1つ以上の音源からの音をキャプチャするためのサウンドキャプチャユニットと、
    音を受けとって処理するためのプロセッサ及びメモリーと、を有し、前記プロセッサは、フォーカスゾーンに関連づけられた音源のうちの一つを識別する命令を実行するように構成されており、この識別された音源からの音はコンピュータプログラムとのインタラクティブな入力を可能とするように処理される、装置。
  22. 請求項21記載の装置であって、前記音源のうちの一つを識別する前記命令は、前記音源のそれぞれの方向を識別するために三角測量を使用する、装置。
  23. 請求項21記載の装置であって、前記音源のうちの一つを識別する前記命令は、前記音源のそれぞれを識別するために可聴周波数を使用する、装置。
  24. 請求項21記載の装置であって、前記インタラクティブな入力は、プログラムとの通信あるいは第3者との通信のうちの一方である、装置。
  25. 請求項21記載の装置であって、前記入力はコンピュータゲームのフィーチャとのインタラクティブな入力のインターフェースとなるように使用される、装置。
  26. 請求項21記載の装置であって、前記インタラクティブな入力は電子装置のインターフェースとなる、装置。
JP2008510106A 2005-05-05 2006-04-28 コンピューターインタラクティブ処理による選択的音源聴取 Active JP5339900B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US67841305P 2005-05-05 2005-05-05
US60/678,413 2005-05-05
PCT/US2006/016670 WO2006121681A1 (en) 2005-05-05 2006-04-28 Selective sound source listening in conjunction with computer interactive processing

Publications (2)

Publication Number Publication Date
JP2008539874A true JP2008539874A (ja) 2008-11-20
JP5339900B2 JP5339900B2 (ja) 2013-11-13

Family

ID=36721197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008510106A Active JP5339900B2 (ja) 2005-05-05 2006-04-28 コンピューターインタラクティブ処理による選択的音源聴取

Country Status (6)

Country Link
EP (1) EP1877149A1 (ja)
JP (1) JP5339900B2 (ja)
KR (1) KR100985694B1 (ja)
CN (1) CN101132839B (ja)
TW (1) TWI308080B (ja)
WO (1) WO2006121681A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510629A (ja) * 2012-01-12 2015-04-09 クゥアルコム・インコーポレイテッドQualcomm Incorporated 音分析および幾何解析を用いた拡張現実

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US7809145B2 (en) 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US8073157B2 (en) 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US7803050B2 (en) 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
WO2006037014A2 (en) 2004-09-27 2006-04-06 Nielsen Media Research, Inc. Methods and apparatus for using location information to manage spillover in an audience monitoring system
EP1880866A1 (en) 2006-07-19 2008-01-23 Sicpa Holding S.A. Oriented image coating on transparent substrate
WO2009021124A2 (en) * 2007-08-07 2009-02-12 Dna Digital Media Group System and method for a motion sensing amusement device
TWI404967B (zh) * 2007-10-19 2013-08-11 Chi Mei Comm Systems Inc 聲源定位系統及方法
US8953029B2 (en) * 2009-05-08 2015-02-10 Sony Computer Entertainment America Llc Portable device interaction via motion sensitive controller
CN101819758B (zh) * 2009-12-22 2013-01-16 中兴通讯股份有限公司 一种声音控制屏幕显示的系统及实现方法
US9196238B2 (en) 2009-12-24 2015-11-24 Nokia Technologies Oy Audio processing based on changed position or orientation of a portable mobile electronic apparatus
US8855101B2 (en) 2010-03-09 2014-10-07 The Nielsen Company (Us), Llc Methods, systems, and apparatus to synchronize actions of audio source monitors
US8885842B2 (en) 2010-12-14 2014-11-11 The Nielsen Company (Us), Llc Methods and apparatus to determine locations of audience members
KR101575121B1 (ko) * 2011-12-19 2015-12-07 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 제스처 기반 게임에 대한 일시 중지 및 재개 기법
US9087403B2 (en) * 2012-07-26 2015-07-21 Qualcomm Incorporated Maintaining continuity of augmentations
US9021516B2 (en) 2013-03-01 2015-04-28 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by measuring a crest factor
US9118960B2 (en) 2013-03-08 2015-08-25 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by detecting signal distortion
US9191704B2 (en) 2013-03-14 2015-11-17 The Nielsen Company (Us), Llc Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures
US9197930B2 (en) * 2013-03-15 2015-11-24 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover in an audience monitoring system
US9247273B2 (en) 2013-06-25 2016-01-26 The Nielsen Company (Us), Llc Methods and apparatus to characterize households with media meter data
CN104422922A (zh) * 2013-08-19 2015-03-18 中兴通讯股份有限公司 一种移动终端实现声源定位的方法及装置
US10163455B2 (en) 2013-12-03 2018-12-25 Lenovo (Singapore) Pte. Ltd. Detecting pause in audible input to device
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9680583B2 (en) 2015-03-30 2017-06-13 The Nielsen Company (Us), Llc Methods and apparatus to report reference media data to multiple data collection facilities
US9924224B2 (en) 2015-04-03 2018-03-20 The Nielsen Company (Us), Llc Methods and apparatus to determine a state of a media presentation device
US9848222B2 (en) 2015-07-15 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover
EP3434024B1 (en) * 2016-04-21 2023-08-02 Hewlett-Packard Development Company, L.P. Electronic device microphone listening modes
CN106067301B (zh) * 2016-05-26 2019-06-25 浪潮金融信息技术有限公司 一种使用多维化技术进行回声降噪的方法
CN109307856A (zh) * 2017-07-27 2019-02-05 深圳市冠旭电子股份有限公司 一种机器人空间定位的交互方法及装置
CN107886965B (zh) * 2017-11-28 2021-04-20 游密科技(深圳)有限公司 游戏背景音的回声消除方法
CN109168075B (zh) * 2018-10-30 2021-11-30 重庆辉烨物联科技有限公司 一种视频信息传输方法、系统、服务器
CN110602424A (zh) * 2019-08-28 2019-12-20 维沃移动通信有限公司 视频处理方法及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07218614A (ja) * 1994-01-31 1995-08-18 Suzuki Motor Corp 音源位置算出方法およびその装置
JPH11331827A (ja) * 1998-05-12 1999-11-30 Fujitsu Ltd テレビカメラ装置
JP2000163178A (ja) * 1998-11-26 2000-06-16 Hitachi Ltd 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体
US20020048376A1 (en) * 2000-08-24 2002-04-25 Masakazu Ukita Signal processing apparatus and signal processing method
JP2003111183A (ja) * 2001-09-27 2003-04-11 Chubu Electric Power Co Inc 音源探査システム
JP2003526300A (ja) * 2000-03-09 2003-09-02 ビーイーフォー リミッテッド 3次元オーディオの最適化のシステムと方法
US20040046736A1 (en) * 1997-08-22 2004-03-11 Pryor Timothy R. Novel man machine interfaces and applications
WO2005022951A2 (en) * 2003-08-27 2005-03-10 Sony Computer Entertainment Inc Audio input system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5993314A (en) * 1997-02-10 1999-11-30 Stadium Games, Ltd. Method and apparatus for interactive audience participation by audio command

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07218614A (ja) * 1994-01-31 1995-08-18 Suzuki Motor Corp 音源位置算出方法およびその装置
US20040046736A1 (en) * 1997-08-22 2004-03-11 Pryor Timothy R. Novel man machine interfaces and applications
JPH11331827A (ja) * 1998-05-12 1999-11-30 Fujitsu Ltd テレビカメラ装置
JP2000163178A (ja) * 1998-11-26 2000-06-16 Hitachi Ltd 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体
JP2003526300A (ja) * 2000-03-09 2003-09-02 ビーイーフォー リミッテッド 3次元オーディオの最適化のシステムと方法
US20020048376A1 (en) * 2000-08-24 2002-04-25 Masakazu Ukita Signal processing apparatus and signal processing method
JP2003111183A (ja) * 2001-09-27 2003-04-11 Chubu Electric Power Co Inc 音源探査システム
WO2005022951A2 (en) * 2003-08-27 2005-03-10 Sony Computer Entertainment Inc Audio input system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015510629A (ja) * 2012-01-12 2015-04-09 クゥアルコム・インコーポレイテッドQualcomm Incorporated 音分析および幾何解析を用いた拡張現実
US9563265B2 (en) 2012-01-12 2017-02-07 Qualcomm Incorporated Augmented reality with sound and geometric analysis

Also Published As

Publication number Publication date
CN101132839B (zh) 2011-09-07
CN101132839A (zh) 2008-02-27
JP5339900B2 (ja) 2013-11-13
TW200708328A (en) 2007-03-01
KR20080009153A (ko) 2008-01-24
KR100985694B1 (ko) 2010-10-05
EP1877149A1 (en) 2008-01-16
TWI308080B (en) 2009-04-01
WO2006121681A1 (en) 2006-11-16

Similar Documents

Publication Publication Date Title
JP5339900B2 (ja) コンピューターインタラクティブ処理による選択的音源聴取
US8723984B2 (en) Selective sound source listening in conjunction with computer interactive processing
US8947347B2 (en) Controlling actions in a video game unit
EP2352149B1 (en) Selective sound source listening in conjunction with computer interactive processing
KR101576294B1 (ko) 가상 현실 시스템에서 사운드 처리를 수행하기 위한 장치 및 방법
JP2004267433A (ja) 音声チャット機能を提供する情報処理装置、サーバおよびプログラム並びに記録媒体
JP4815940B2 (ja) ロボット制御システム、ロボット装置、およびロボット制御方法
JP2017176728A (ja) シミュレーションシステム及びプログラム
JP2012050791A (ja) キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP2007007172A (ja) 遊技機
CN115497491A (zh) 音频消除系统和方法
CN115487491A (zh) 音频消除系统和方法
EP4358084A1 (en) Audio cancellation system and method
JP5529485B2 (ja) ゲームプログラムおよびゲームシステム
WO2023084933A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2022125665A (ja) 音声再生プログラムおよび音声再生装置
WO2024084855A1 (ja) 遠隔会話支援方法、遠隔会話支援装置、遠隔会話システム、及び、プログラム
JP6737842B2 (ja) ゲームプログラム、およびゲーム装置
JP2006198135A (ja) ゲーム装置
Björnsson Amplified Speech in Live Theatre, What should it Sound Like?
JP2022125666A (ja) ゲームプログラムおよびゲーム装置
JP3882017B2 (ja) 音声出力方法、ゲーム装置、通信ゲームシステム、コンピュータプログラム及び記録媒体
JP2021069601A (ja) コンピュータシステム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100818

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111005

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20111014

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20111118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130806

R150 Certificate of patent or registration of utility model

Ref document number: 5339900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250