JP4900406B2 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4900406B2
JP4900406B2 JP2009045283A JP2009045283A JP4900406B2 JP 4900406 B2 JP4900406 B2 JP 4900406B2 JP 2009045283 A JP2009045283 A JP 2009045283A JP 2009045283 A JP2009045283 A JP 2009045283A JP 4900406 B2 JP4900406 B2 JP 4900406B2
Authority
JP
Japan
Prior art keywords
signal
client
audio signal
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009045283A
Other languages
English (en)
Other versions
JP2010200212A (ja
Inventor
郁夫 塚越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009045283A priority Critical patent/JP4900406B2/ja
Priority to US12/683,593 priority patent/US9602945B2/en
Priority to CN201610173331.4A priority patent/CN105824599A/zh
Priority to CN201010121665A priority patent/CN101827087A/zh
Publication of JP2010200212A publication Critical patent/JP2010200212A/ja
Application granted granted Critical
Publication of JP4900406B2 publication Critical patent/JP4900406B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、視聴者が自身の存在位置によらず好適な映像や音声を視聴することができるようになった、情報処理装置および方法、並びにプログラムに関する。
従来から、イベント会場などの広範な範囲で、映像や音声を出力するために、超大画面モニタや多チャンネルスピーカが配置されている場合があった。このような場合、多チャンネルの音声信号は、2チャンネルまたは5.1チャンネルなどの比較的小規模チャンネルの音声信号に変換される。そして、各チャンネルの音声信号に対応する音声はそれぞれ、対応するチャンネルのスピーカから出力される。(例えば特許文献1参照)。
特開2006-108855号公報
しかしながら、イベント会場などの広範な範囲では、視聴者は、その存在位置によっては、好適な映像や音声を視聴することができない場合があった。
本発明はこのような状況に鑑みてなされたものであり、視聴者が自身の存在位置によらず好適な映像や音声を視聴することができるようにするものである。
本発明の一側面の情報処理装置は、ユーザが保持する第1及び第2のクライアントユニットが出力する信号に基づいて、前記第1及び第2のクライアントユニットの位置を検出する位置検出手段と、前記位置検出手段により検出された前記第1及び第2のクライアントユニットの位置に基づいて、音声信号及び映像信号を変換するパラメータ値を可変設定し、前記パラメータ値を用いて前記音声信号及び映像信号を変換する変換手段と、前記変換手段による変換後の前記音声信号及び映像信号を出力する出力手段と、前記出力手段により出力された変換後の前記音声信号を前記第1のクライアントユニットであるヘッドフォンに出力し、変換後の前記映像信号を前記第2のクライアントユニットである携帯モニタに出力するインターフェース手段とを備える。
前記変換手段は、マルチチャンネルの音声信号の混合比を決定するパラメータ値を可変設定し、そのパラメータを用いて前記音声信号を変換する。
前記位置検出手段は、所定の領域から区分された複数の区分領域のうち、前記第1及び第2のクライアントユニットが位置する区分領域を示す情報を検出し、前記変換手段は、前記位置検出手段により検出された前記情報に基づいて、前記パラメータ値を可変設定する。
前記変換手段は、映像信号に対応する映像自身、またはその映像に関連する文字の拡大比を決定するパラメータ値を可変設定し、そのパラメータを用いて前記映像信号を変換する。
前記位置検出手段は、前記第1及び第2のクライアントユニットが出力する信号の時間推移に基づいて、時間変数として前記第1及び第2のクライアントユニットの位置を検出する。
前記変換手段は、前記位置検出手段により前記クライアントユニットの位置が変動していないと検出された場合、前記パラメータ値の設定を維持する。
本発明の一側面である情報処理方法とプログラムのそれぞれは、上述した本発明の一側面の情報処理装置に対応する方法とプログラムのそれぞれである。
本発明の一側面である情報処理装置および方法並びにプログラムにおいては、音声信号及び映像信を出力信号として出力する情報処理装置または、音声信号及び映像信を出力信号として出力する出力装置を制御するコンピュータによって、ユーザが保持する第1及び第2のクライアントユニットが出力する信号に基づいて、前記第1及び第2のクライアントユニットの位置が検出され、検出された前記第1及び第2のクライアントユニットの位置に基づいて、音声信号及び映像信号を変換するパラメータ値が可変設定され、前記パラメータ値を用いて前記音声信号及び映像信号変換され、変換後の前記音声信号及び映像が前記出力信号として出力され、出力された変換後の前記音声信号が前記第1のクライアントユニットであるヘッドフォンに出力され、変換後の前記映像信号が前記第2のクライアントユニットである携帯モニタに出力される。
以上のごとく、本発明によれば、視聴者が自身の存在位置によらず好適な映像や音声を視聴することができるようになる。
本発明を適用した情報処理システムの構成例である。 本発明を適用した情報処理システムの一実施の形態の構成を示すブロック図である。 音声信号出力処理を説明するフローチャートである。 本発明を適用した音声信号出力装置における、音声信号出力処理を説明するための図である。 本発明を適用した音声信号出力装置の、クライアントユニットCUの一実施の形態の構成例を示す図である。 本発明が適用される音声信号制御装置に含まれるまたはその駆動を制御するコンピュータの構成例を示すブロック図である。
以下、本発明が適用される情報処理システムの実施の形態として、第1の実施の形態と第2の実施の形態とについて説明する。なお、説明は以下の順序で行う。

1.第1の実施の形態(クライアントユニットCU:無線タグのみで構成される例)
2.第2の実施の形態(クライアントユニットCU:無線タグ付きヘッドフォンおよび無線タグ付きモニタで構成される例)
〈1.第1の実施の形態〉
[本発明が適用される情報処理システムの構成例]
図1は、本発明が適用される情報処理システムの構成例を示す図である。
情報処理システムは、サーバ1、超大画面モニタ2、スピーカ3乃至7、無線ノードWN1乃至WNK(Kは1以上の整数値。図1の例ではK=9)、および、クライアントユニットCU1乃至CUM(Mは、ユーザの人数を示す整数値。図1の例ではM=4)を含むように構成されている。
情報処理システムは、イベント会場などの広範な領域に構築される。
図1の例では、サーバ1と超大画面モニタ2は、図1中上方に配置されている。なお、以下、図1中上方向、即ち、ユーザが超大画面モニタ2を視聴する方向を前方向と称する。また、図1中下方向を後方向と、図1中左方向をそのまま左方向と、図1中右方向をそのまま右方向と称する。なお、当然ながら、サーバ1の配置位置は、図1の例の位置に限定されず、任意の位置でよい。
例えば、超大画面モニタ2の正面(超大画面モニタ2の表示面)に対向して形成されている円状の領域αは、超大画面モニタ2に表示された映像をユーザが視ることができる範囲を示しているとする。以下、かかる領域αをターゲット領域と称する。なお、ターゲット領域αは、情報処理システムの構築者が自由に決定して構わない設計事項であり、図1のターゲット領域αに限定されないことは言うまでもない。ターゲット領域αの境界(円周)上に、スピーカ3乃至7はそれぞれ配置されている。具体的には、超大画面モニタ2に対向して、左前方にスピーカ3が、右前方にスピーカ4が、右後方にスピーカ5が、中央後方にスピーカ6が、左後方にスピーカ7がそれぞれ配置されている。
無線ノードWN1乃至WN9は、前方から、それぞれ縦に3列、横に3列で等間隔で配置される。
なお、無線ノードWN1乃至WN9は、ターゲット領域αに複数箇所配置されていれば良く、図1の例の配置や個数に限定されない。
クライアントユニットCUK(Kは、1乃至M。Mは視聴者の最大人数である)は、図示せぬユーザにより保持されている。例えば図1の例ではM=4とされている。即ち、図1の例では、4人の視聴者のそれぞれによって、クライアントユニットCU1乃至CU4のそれぞれが1台ずつ保持されている。後述するように、サーバ1は、クライアントユニットCUKがターゲット領域αに位置する場合、その位置を検出する。この検出位置が、クライアントユニットCUKを保持しているユーザの存在位置を示すことになる。
サーバ1は、入力された映像信号を、超大画面モニタ2に出力する。超大画面モニタ2は、その映像信号に対応する映像を表示する。ターゲット領域α内に存在する視聴者は、超大画面モニタ2に表示されている映像を視認する。
また、サーバ1には、多チャンネルの音声信号が入力される。本実施の形態では、サーバ1は、入力された多チャンネルの音声信号を、5.1チャンネルの音声信号に変換する。本実施の形態では、5.1チャンネルの音声信号は、ステレオ信号LO、ステレオ信号R0、右サラウンド信号Rs、中央チャンネル信号C、左サラウンド信号Lsから構成されている。
なお、初期状態においては、5.1チャンネルの音声信号は、次のように供給される。ステレオ信号LOはスピーカ3に、ステレオ信号R0はスピーカ4に、右サラウンド信号Rsはスピーカ5に、中央チャンネル信号Cはスピーカ6に、サラウンド信号Lsはスピーカ7に、それぞれ供給される。
即ち、初期状態では、スピーカ3からはステレオ信号LOに対応する音声が出力され、スピーカ4からはステレオ信号R0に対応する音声が出力される。また、スピーカ5からは右サラウンド信号Rsに対応する音声が出力され、スピーカ6からは中央チャンネル信号Cに対応する音声が出力され、スピーカ7からは左サラウンド信号Lsに対応する音声が出力される。
このように、初期状態では、スピーカ3乃至7からは、従来の5.1チャンネルの音声が単に出力されるだけである。よって、視聴者が、ターゲット領域αの中心付近の最適なリスニングポイントに存在する場合、最適な音声を聴くことができる。ここで、「最適なリスニングポイント」における「最適」とは、従来の5.1チャンネルの音声が単に出力された場合に最適であることを意味している。即ち、後述するように、本発明が適用された場合には、ターゲット領域αの何れの位置もユーザにとって最適なリスニングポイントになる点注意を要する。よって、以下、従来の5.1チャンネルの音声が単に出力された場合の最適なリスニングポイントを、従来の最適リスニングポイントと称する。
ところで、ターゲット領域αとは、イベント会場等の広範囲な領域であるため、視聴者は、従来の最適なリスニングポイントに必ずしも位置しているとは限らない。よって、視聴者が、従来の最適なリスニングポイントに位置していない場合、[発明が解決しようとする課題]の欄で上述したように、好適な音声を聴くことができない。
そこで、本実施の形態では、サーバ1が、スピーカ3乃至7から出力される各音声の状態を、視聴者の存在位置に応じて変更させる制御をしている。即ち、ユーザの存在位置が、従来の最適リスニングポイント位置以外の場合、スピーカ3乃至7から出力される各音声の状態を、初期状態とは別の状態に遷移させる制御が行われる。してみると、この制御を実現するためには、先ず、サーバ1は、視聴者の存在位置を検出する必要がある。このため、サーバ1は、クライアントユニットCUKの位置を検出する機能、換言すると、クライアントユニットCUKを保持している視聴者の存在位置を検出する機能を有している。以下、この機能を、クライアントユニット位置検出機能と称する。また、クライアントユニットCUKの検出結果を示す情報を、クライアントユニット位置情報と称する。
クライアントユニット位置検出機能を実現するために、クライアントユニットCU1乃至CU4はそれぞれ無線タグを有している。クライアントユニットCU1乃至CU4の各無線タグは、信号を発信する。
なお、以下、クライアントユニットCU1乃至CU4を個々に区別する必要が無い場合、それらをまとめてクライアントユニットCUと称する。また、クライアントユニットCUから発信される信号を、クライアントユニット信号と称する。
無線ノードWN1乃至WN9はそれぞれ、クライアントユニット信号を受信する。無線ノードWN1乃至WN9はそれぞれ、クライアントユニット信号の電波強度や遅延特性等を測定する。その測定結果を、以下、クライアント信号測定結果と称する。クライアント信号測定結果は、サーバ1に出力される。
サーバ1は、無線ノードWN1乃至WN9からの各クライアント信号測定結果に基づいて、クライアントユニット位置情報を生成する。即ち、クライアントユニットCUを保持しているユーザの存在位置が検出される。そして、サーバ1は、ユーザの存在位置に応じて、スピーカ3乃至7から出力される各音声の状態を変更させる制御をする。なお、この制御の詳細例については後述する。また、以下、無線ノードWN1乃至WN9を個々に区別する必要が無い場合、単に無線ノードWNと称する。
図2は、サーバ1の詳細な構成例を示すブロック図である。
サーバ1は、システムインターフェース部21乃至位置検出部26を含むように構成されている。
また例えば、サーバ1には、チューナ11、ネットワーク12、および記録装置13が接続されている。なお、チューナ11乃至記録装置13も、図1の情報処理システムの一構成要素として把握してもよい。さらにいえば、チューナ11や記録装置13の各機能を、サーバ1に搭載させてもよい。
チューナ11は、放送局からの放送番組を受信し、圧縮符号化された映像信号と音声信号の形態で、システムインターフェース部21に供給する。
他機器によって圧縮符号化された映像信号と音声信号とは、他機器から出力されて、ネットワーク12を介して、システムインターフェース部21に供給される。
記録装置13は、コンテンツの映像信号と音声信号を圧縮符号化して記録している。記録装置13は、圧縮符号化された映像信号と音声信号の形態で、システムインターフェース部21に供給する。
システムインターフェース部21は、チューナ11、ネットワーク12、または記録装置13から供給された映像信号と音声信号を、システムデコード部22に供給する。
上述の如く、システムインターフェース部21からシステムデコード部22に供給される映像信号と音声信号は、所定のフォーマットで圧縮符号化されている。そこで、システムデコード部22は、圧縮符号化された映像信号および音声信号に対して伸張復号処理を施す。復号伸長復号処理の結果として得られた映像信号と音声信号とのうち、映像信号は映像プロセス部23に、音声信号は音声プロセス部24に、それぞれ供給される。
映像プロセス部23は、システムデコード部22からの映像信号に対して、画像処理を適宜施した上で、ネットワークインターフェース部25に供給する。
音声プロセス部24に供給された音声信号とは、上述の如く、多チャンネルの音声信号である。そこで、音声プロセス部24は、多チャンネルの音声信号を、5.1チャンネルの音声信号に変換する。さらに、音声プロセス部24は、位置検出部26からのクライアントユニット位置情報と、5.1チャンネルの音声信号とを用いて、スピーカ3乃至7のそれぞれに供給する各チャンネルの音声信号を生成する。なお、以下、スピーカ3乃至7のそれぞれに供給する各チャンネルの音声信号を、音声信号S_out3、音声信号S_out4、音声信号S_out5、音声信号S_out6、および音声信号S_out7と称する。なお、音声信号S_out3乃至S_out7を生成するまでの一連の処理を、音声信号出力処理と称する。音声信号出力処理の詳細については、図3を用いて後述する。
ネットワークインターフェース部25は、映像プロセス部23からの映像信号を超大画面モニタ2に出力する。また、ネットワークインターフェース部25は、音声プロセス部24からの音声信号S_out3乃至S_out7のそれぞれを、スピーカ3乃至7のそれぞれに出力する。
位置検出部26は、無線ノードWNのクライアント信号測定結果を受信し、その受信結果に基づいて、クライアントユニット位置情報を生成する。クライアントユニット位置情報とは、上述の如く、クライアントユニットCUを保持しているユーザの存在位置を示す情報をいう。クライアントユニット位置情報は、位置検出部26から音声プロセス部24に提供される。
[本発明が適用される音声信号出力装置の処理方法の例]
図3は、音声信号出力処理の一例について説明するフローチャートである。
ステップS1において、サーバ1の位置検出部26は、無線ノードWNから、クライアントユニット信号測定結果が受信されたか否かを判定する。
図1の例では、無線ノードWN1乃至WN9の何れからもクライアントユニット信号測定結果が送信されない場合とは、ターゲット領域αにクライアントユニットCUが存在しない場合を意味する。よって、このような場合、ステップS1においてNOであると判定されて、処理はステップS7に進む。ただし、ステップS7以降の処理については後述する。
これに対して、無線ノードWN1乃至WN9のうちの少なくとも1つからクライアントユニット信号測定結果が送信され、位置検出部26に受信された場合、ステップS1においてYESであると判定されて、処理はステップS2に進む。
ステップS2において、位置検出部26は、他の無線ノードWNからのクライアントユニット信号測定結果の受信を試みる。
ステップS3において、位置検出部26は、所定時間経過したか否かを判定する。所定時間がまだ経過していない場合、ステップS3においてNOであると判定されて、処理はステップS2に戻され、それ以降の処理が繰り返される。即ち、所定時間が経過するまでの間、他の無線ノードWNからのクライアントユニット信号測定結果が送信されてくる毎に、位置検出部26によって受信される。
その後、所定時間が経過すると、ステップS3においてYESであると判定されて処理はステップS4に進む。
ステップS4において、サーバ1は、1以上の無線ノードWNからのクライアントユニット信号測定結果に基づいて、クライアントユニット位置情報を生成する。クライアントユニット位置情報は、位置検出部26から音声プロセス部24に供給される。
具体的には、例えば本実施の形態では、ターゲット領域αは、複数の領域(以下、グループ領域と称する)に区分されている。位置検出部26は、無線ノードWNから受信されたクライアントユニット信号測定結果に基づいて、クライアントユニットCUがいずれのグループ領域内に位置しているのかを検出する。そして、位置検出部26は、クライアントユニットCUが属しているグループ領域を示す情報を、クライアントユニット位置情報として生成する。なお、クライアントユニット位置情報の具体例については、図4を用いて後述する。
また、クライアントユニットCUは、1つとは限らず、ターゲット領域αに存在する視聴者の数だけ存在する。例えば、図1の例では、ターゲット領域αには、4つのクライアントユニットCU1乃至CU4が存在する。このような場合、ステップS4の処理では、複数のクライアントユニットCU毎に、クライアントユニット位置情報がそれぞれ生成される。
ステップS5において、音声プロセス部24は、検出対象のクライアントユニットCUが同一のグループ領域に位置しているか否かを判定する。
ここで、検出対象のクライアントユニットCUとは、ステップS4の処理でクライアントユニットの位置情報が生成されたクライアントユニットCUをいう。
ターゲット領域αにおいて、複数のクライアントユニットCUのうち少なくとも1つが異なるグループ領域に存在していた場合、ステップS5においてNOであると判定されて、処理はステップS7に進む。ただし、ステップS7以降の処理については後述する。
これに対して、ターゲット領域αにおいて、1つのクライアントユニットCUのみ存在しているか、または、同一グループ領域内に複数のクライアントユニットCUが存在している場合、ステップS5においてYESであると判定され、処理はステップS6に進む。
ステップS6において、音声プロセス部24は、音声信号の出力状態を、クライアントユニットCUが位置するグループ領域に応じた状態にする。即ち、音声プロセス部24は、そのグループ領域に応じた各音声信号 S_out3乃至S_out7を生成し、ネットワークインターフェース部25を介して、スピーカ3乃至7のそれぞれに出力する。
これに対して、ターゲット領域αにおいて、クライアントユニットCUが存在しない場合、または、複数のクライアントユニットCUが2以上のグループ領域にまたがって存在する場合、ステップS1またはS5においてNOであると判定されて、処理はステップS7に進む。ステップS7において、音声プロセス部24は、音声信号の出力状態を、初期状態にする。即ち、音声プロセス部24は、ステレオ信号LO、ステレオ信号R0、右サラウンド信号Rs、中央チャンネル信号C、および左サラウンド信号Lsのそれぞれを、ネットワークインターフェース部25を介して、スピーカ3乃至7のそれぞれに出力する。
なお、複数のクライアントユニットCUが2以上のグループ領域にまたがって存在する場合、即ち、S5においてNOであると判定された場合、音声プロセス部24は、音声信号の出力状態を、初期状態とは異なる別の状態として、例えば指向性のない状態にすることもできる。
なお、音声信号出力処理は、一定時間ごとに繰り返される。即ち、多地点に配置された複数の無線ノードWNからのクライアントユニット信号測定結果は、一定の時間間隔でサーバ1の位置検出部26に送信される。その結果、クライアントユニットCUの移動が無ければ、各回のステップS6の処理による音声信号の出力状態は同一になる。即ち、クライアントユニットCUの移動が無ければ、音声信号の出力状態は維持される。これに対して、クライアントユニットCUが移動していけば、各回のステップS6の処理による音声信号の出力状態は、クライアントユニットCUの移動位置に応じて刻々と変化していくことになる。なお、この場合、位置検出部26は、時間変数として各クライアントユニット位置情報を算出し、その算出結果に基づいてセンターオフセットディスタンステーブルを構成することができる。
図4は、クライアントユニット位置情報の一例を示す図である。
図4に示されるクライアントユニット位置情報は、対象のクライアントユニットCUと各スピーカ3乃至7とのそれぞれの距離の組み合わせにより示されている。
なお、図4の一行目(初期設定)とは、初期状態となる場合のクライアントユニット位置情報の基本例を示している。このようなクライアントユニット位置情報(初期設定)が位置検出部26から音声プロセス部24に供給された場合、音声信号の出力状態は初期状態になる。即ち、ステレオ信号LO、ステレオ信号R0、右サラウンド信号Rs、中央チャンネル信号、および左サラウンド信号Lsのそれぞれが、スピーカ3乃至7のそれぞれから出力される。
例えば、図1のクライアントユニットCU1のみが、ターゲット領域αに存在したとする。この場合、クライアントユニットCU1は、スピーカ3に対してNear(近い)、スピーカ4に対してFar(遠い)、スピーカ5に対してFar(遠い)、スピーカ6に対してMid(中程度)、およびスピーカ7に対してNear(近い)というグループ領域に属することになる。よって、図4に示されるクライアントユニット位置情報No1が位置検出部26により生成され、音声プロセス部24に供給される。
この場合、音声プロセス部24は、次の式(1)乃至式(5)をそれぞれ演算することで、各音声信号 S_out3乃至S_out7を生成し、ネットワークインターフェース部25を介して、スピーカ3乃至7のそれぞれに出力する。
スピーカ3:S_out3=L0*CL+R0*CS+C*CS+Rs*CS+Ls*CM ・・・(1)
スピーカ4:S_out4=L0*CL+R0*CL+C*CS+Rs*CM+Ls*CS ・・・(2)
スピーカ5:S_out5=L0*CL+R0*CL+C*CS+Rs*CM+Ls*CS ・・・(3)
スピーカ6:S_out6=L0*CL+R0*CL+C*CS+Rs*CM+Ls*CS ・・・(4)
スピーカ7:S_out7=L0*CS+R0*CL+C*CS+Rs*CM+Ls*CS ・・・(5)
ここで、CL,CM,CSは音声信号に重み付けをするための係数(以下、ダウンミックス係数と称する)を示している。ダウンミックス係数CS、CM、CLは、その順番で大きな値となっている。
即ち、スピーカM(Mは、3乃至7のうちの何れかの整数値)に供給される音声信号S_outMは、次の式(6)のように算出される。即ち、ステレオ信号LO、ステレオ信号R0、右サラウンド信号Rs、中央チャンネル信号C、および左サラウンド信号Lsそれぞれに対して、ダウンミックス係数C1乃至C5が掛けられて重みづけされた各チャンネル信号の線形結合が、音声信号S_outMになる。
スピーカM:S_outM=L0*C1+R0*C2+C*C3+Rs*C4+Ls*C5 ・・・(6)
これらのダウンミックス係数C1乃至C5のそれぞれが、クライアントユニットMの存在するグループ領域に応じて、ダウンミックス係数CL,CM,CSのうちの何れかに可変されるのである。
例えば、クライアントユニット位置情報No2で示されるグループ領域に応じて、スピーカ3乃至7のそれぞれに対して、ダウンミックス係数C1乃至C5の組み合わせが予め決定されているとする。この場合、ターゲット領域α内に、図1のクライアントユニットCU2のみが存在すれば、クライアントユニット位置情報No2が取得されるので、クライアントユニット位置情報No2に対して決定されていたダウンミックス係数C1乃至C5の組み合わせが、スピーカ3乃至7のそれぞれについて採用される。そして、スピーカ3乃至7のそれぞれについて、それぞれ採用されたダウンミックス係数C1乃至C5が式(6)に代入されて演算され、その結果、クライアントユニット位置情報No2に応じた各音声信号 S_out3乃至S_out7が生成される。
また、例えば、クライアントユニット位置情報No3で示されるグループ領域に応じて、スピーカ3乃至7のそれぞれに対して、ダウンミックス係数C1乃至C5の組み合わせが予め決定されているとする。この場合、ターゲット領域α内に、図1のクライアントユニットCU3のみが存在すれば、クライアントユニット位置情報No3が取得される。よって、クライアントユニット位置情報No3に対して決定されていたダウンミックス係数C1乃至C5の組み合わせが、スピーカ3乃至7のそれぞれについて採用される。そして、スピーカ3乃至7のそれぞれについて、それぞれ採用されたダウンミックス係数C1乃至C5が式(6)に代入されて演算され、その結果、クライアントユニット位置情報No3に応じた各音声信号 S_out3乃至S_out7が生成される。
また、例えば、クライアントユニット位置情報No4で示されるグループ領域に応じて、スピーカ3乃至7のそれぞれに対して、ダウンミックス係数C1乃至C5の組み合わせが予め決定されているとする。この場合、ターゲット領域α内に、図1のクライアントユニットCU4のみが存在すれば、クライアントユニット位置情報No4が取得される。よって、クライアントユニット位置情報No4に対して決定されていたダウンミックス係数C1乃至C5の組み合わせが、スピーカ3乃至7のそれぞれについて採用される。そして、スピーカ3乃至7のそれぞれについて、それぞれ採用されたダウンミックス係数C1乃至C5が式(6)に代入されて演算され、その結果、クライアントユニット位置情報No4に応じた各音声信号 S_out3乃至S_out7が生成される。
以上の音声信号出力処理により、クライアントユニットCUを保持する視聴者がターゲット領域αのいずれの場所に存在していても、その存在位置に適するように生成された各音声信号 S_out3乃至S_out7が、スピーカ3乃至7のそれぞれに供給される。よって、視聴者の存在位置にとって好適な各チャンネルの音声がスピーカ3乃至7から出力されることになる。その結果、視聴者は、好適な音声を聴くことができるようになる。
なお、図4のクライアントユニット位置情報No5が取得された場合の音声信号処理について説明する。
クライアントユニット位置情報No5とは、スピーカ3に対してNear(近い)、スピーカ4に対してFar(遠い)、スピーカ5に対してNear(近い)、スピーカ6に対してNear(近い)、スピーカ7に対してNear(近い)という情報の集合体である。
しかしながら、図1の例で、クライアントユニットCU1乃至CU4のうちの何れか単体が静止している状態で、クライアントユニット位置情報No5が取得されることは考えられない。よって、図1の例で、クライアントユニット位置情報No5が取得される可能性としては、次の2つの可能性が考えられる。
第1の可能性として、複数のクライアントユニットCUが異なるグループ領域に存在している可能性が考えられる。例えば、図1の例でいえば、クライアントユニットCU1と、クライアントユニットCU3とが、図1にそれぞれ示される位置に同時に存在した場合、クライアントユニット位置情報No5が取得される。
第2の可能性として、単独のクライアントユニットCUがクライアントユニット位置情報の取得処理継続中に移動している可能性が考えられる。例えば、図1の例でいえば、クライアントユニットCU1が、図1に示される位置から、図1にクライアントユニットCU2の位置として示される位置まで移動した場合に、クライアントユニット位置情報No5が取得される。
このようなクライアントユニット位置情報No5が取得された場合、音声プロセス部24は、音声信号の出力状態を、指向性のない汎用状態(例えば、初期状態)にすることができる。
なお、第1の可能性であるのか、第2の可能性であるのかについて判断が必要な場合、時間変数としての各クライアントユニット位置情報に基づいて構成されたセンターオフセットディスタンステーブルを利用すればよい。クライアントユニット位置情報No5の前に取得されたクライアントユニット位置情報の経歴をみれば、第1の可能性であるのか、第2の可能性であるのかについて容易に判断することができるからである。
以上説明したように、サーバ1は、クライアントユニットCUのクライアントユニット位置情報に基づいて、音声信号のパラメータ(上述の例ではダウンミックス係数)を可変設定することが当然できる。さらに、サーバ1は、クライアントユニットCUのクライアントユニット位置情報に基づいて、映像信号の各種パラメータを変化させることもできる。例えば、クライアントユニットCUの存在位置が、超大画面モニタ2から遠方の位置である場合、サーバ1は、映像自身、または、その映像に関する文字情報(字幕等)を拡大して表示させるように、各種パラメータを設定することができる。
〈2.第2の実施の形態〉
[クライアントユニットCUの構成例]
図5は、図1、図2を用いて上述したクライアントユニットCUの別の実施の形態の例である。
図5に示すクライアントユニットCUaは、無線タグ付き携帯モニタである。また、クライアントユニットCUbは、無線タグ付きヘッドフォンである。
クライアントユニットCUaは、サーバ1から映像信号と音声信号を受信し、映像信号に対応する映像を表示するとともに、音声信号に対応する音声を出力する。
この場合、サーバ1は、クライアントユニットCUaのクライアントユニット位置情報に基づいて、上述した音声信号のパラメータ(例えばダウンミックス係数)を可変設定することが当然できる。さらに、サーバ1は、クライアントユニットCUaのクライアントユニット位置情報に基づいて、映像信号の各種パラメータを変化させることができる。例えば、クライアントユニットCUaの存在位置に応じて、サーバ1は、超大画面モニタ2に表示されている映像自身、または、その映像に関する文字情報(字幕等)を、クライアントユニットCUaにあった表示とするように、各種パラメータを設定することができる。
クライアントユニットCUbは、サーバ1から音声信号を受信し、受信した音声を出力する。
例えば、サーバ1は、クライアントユニットCUbのクライアントユニット位置情報に基づいて、上述した音声信号のパラメータ(例えばダウンミックス係数)を可変設定することができる。パラメータ設定後にサーバ1により生成された音声信号、上述の例では各音声信号 S_out3乃至S_out7は、クライアントユニットCUbに無線送信される。
即ち、第1の実施の形態においては、スピーカ3乃至7から各チャンネルの音声が出力されることが前提であった。このため、例えば複数のクライアントユニットCUが、異なるグループ領域に存在した場合等においては、サーバ1は、音声信号のパラメータとして、指向性のない汎用設定(例えば、初期状態にするためのパラメータ値の設定)をしていた。
これに対して、第2の実施の形態においては、クライアントユニットCUbから音声が出力される。このため、例えば複数のクライアントユニットCUbが、異なるグループ領域に存在した場合等でも、サーバ1は、複数のクライアントユニットCUbのそれぞれに対して、音声信号のパラメータとして、それぞれの存在位置に応じた個別の設定(例えば、別々のダウンミックス係数の設定)をすることができるようになる。これにより、それぞれのクライアントユニットCUbは、その存在位置にとって好適な音声信号を聴くことができるようになる。
なお、視聴者は、クライアントユニットCUaおよびクライアントユニットCUbの両方を保持してもよいし、そのどちらか一方のみを保持してもよい。
また、本発明が適用される情報処理装置におけるクライアント位置を検出する手法は、図1乃至図4を用いて説明した手法に限定されず、任意の手法でよい。
本発明が適用される情報処理装置においては、視聴者の存在位置に応じて好適な映像や音声を出力することができる。その結果、例えばイベント会場などの広範な範囲で、視聴者が映像や音声を視聴する場合において、視聴者はその存在位置によらず、容易に好適な映像や音声を視聴することが可能となる。
さらに、本発明が適用される情報処理装置においては、時間変数として各クライアントユニット位置情報を算出することができる。その結果、本発明が適用される情報処理装置は、視聴者が例えばイベント会場内で移動した場合においても、その位置に応じた好適な鑑賞環境を整えることが可能となる。
ところで、上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。
上述した一連の処理をソフトウエアにより実行させる場合、本発明が適用される情報処理装置は、例えば、図6に示されるコンピュータを含むように構成することもできる。或いは、図6のコンピュータによって、本発明が適用されるロボットハンド装置が制御されてもよい。
図6において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記録されているプログラム、または記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、ディスプレイなどよりなる出力部107、ハードディスクなどより構成される記憶部108、および、モデム、ターミナルアダプタなどより構成される通信部109が接続されている。通信部109は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
入出力インタフェース105にはまた、必要に応じてドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部108にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
このようなプログラムを含む記録媒体は、図6に示されるように、装置本体とは別に、視聴者にプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア(パッケージメディア)111により構成されるだけでなく、装置本体に予め組み込まれた状態で視聴者に提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置や処理部により構成される装置全体を表すものである。
1 サーバ, 2 超大画面モニタ, 3,4,5,6,7 スピーカ, CU1,CU2,CU3,CU4,CU5,CUa,CUb クライアントユニット, WN1,WN2,WN3,WN4,WN5,WN6,WN7,WN8,WN9 無線ノード, 11 チューナ, 12 ネットワーク, 13 記録装置, 21 システムインターフェース部, 22 システムデコード部, 23 映像プロセス部, 24 音声プロセス部, 25 ネットワークインターフェース部, 26 位置検出部, 101 CPU, 102 ROM, 103 RAM, 104 バス, 105 入出力インタフェース, 106 入力部, 107 出力部, 108 記憶部, 109 通信部, 110 ドライブ, 111 リムーバブルメディア

Claims (8)

  1. ユーザが保持する第1及び第2のクライアントユニットが出力する信号に基づいて、前記第1及び第2のクライアントユニットの位置を検出する位置検出手段と、
    前記位置検出手段により検出された前記第1及び第2のクライアントユニットの位置に基づいて、音声信号及び映像信号を変換するパラメータ値を可変設定し、前記パラメータ値を用いて前記音声信号及び映像信号を変換する変換手段と、
    前記変換手段による変換後の前記音声信号及び映像信号を出力する出力手段と
    前記出力手段により出力された変換後の前記音声信号を前記第1のクライアントユニットであるヘッドフォンに出力し、変換後の前記映像信号を前記第2のクライアントユニットである携帯モニタに出力するインターフェース手段と
    を備える情報処理装置。
  2. 前記変換手段は、マルチチャンネルの音声信号の混合比を決定するパラメータ値を可変設定し、そのパラメータ値を用いて前記音声信号を変換する
    請求項1に記載の情報処理装置。
  3. 前記位置検出手段は、所定の領域から区分された複数の区分領域のうち、前記第1及び第2のクライアントユニットが位置する区分領域を示す情報を検出し、
    前記変換手段は、前記位置検出手段により検出された前記情報に基づいて、前記パラメータ値を可変設定する
    請求項1に記載の情報処理装置。
  4. 前記変換手段は、映像信号に対応する映像自身、またはその映像に関連する文字の拡大比を決定するパラメータ値を可変設定し、そのパラメータ値を用いて前記映像信号を変換する
    請求項1に記載の情報処理装置。
  5. 前記位置検出手段は、前記第1及び第2のクライアントユニットが出力する信号の時間推移に基づいて、時間変数として前記第1及び第2のクライアントユニットの位置を検出する
    請求項1に記載の情報処理装置。
  6. 前記変換手段は、前記位置検出手段により前記第1及び第2のクライアントユニットの位置が変動していないと検出された場合、前記パラメータ値の設定を維持する
    請求項1に記載の情報処理装置。
  7. 音声信号及び映像信号を出力信号として出力する情報処理装置が、
    ユーザが保持する第1及び第2のクライアントユニットが出力する信号に基づいて、前記第1及び第2のクライアントユニットの位置を検出し、
    検出された前記第1及び第2のクライアントユニットの位置に基づいて、前記出力信号の音声信号及び映像信号を変換するパラメータ値を可変設定し、前記パラメータ値を用いて前記音声信号及び映像を変換し、
    変換後の前記音声信号及び映像を出し、
    出力された変換後の前記音声信号を前記第1のクライアントユニットであるヘッドフォンに出力し、変換後の前記映像信号を前記第2のクライアントユニットである携帯モニタに出力する
    ステップを含む情報処理方法。
  8. 音声信号及び映像信号を出力信号として出力する制御をするコンピュータに、
    ユーザが保持する第1及び第2のクライアントユニットが出力する信号に基づいて、前記第1及び第2のクライアントユニットの位置を検出し、
    検出された前記第1及び第2のクライアントユニットの位置に基づいて、前記出力信号の音声信号及び映像信号を変換するパラメータ値を可変設定し、前記パラメータ値を用いて前記音声信号及び映像を変換し、
    変換後の前記音声信号及び映像を出し、
    出力された変換後の前記音声信号を前記第1のクライアントユニットであるヘッドフォンに出力し、変換後の前記映像信号を前記第2のクライアントユニットである携帯モニタに出力する
    ステップを含む制御処理を実行させるプログラム。
JP2009045283A 2009-02-27 2009-02-27 情報処理装置および方法、並びにプログラム Expired - Fee Related JP4900406B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009045283A JP4900406B2 (ja) 2009-02-27 2009-02-27 情報処理装置および方法、並びにプログラム
US12/683,593 US9602945B2 (en) 2009-02-27 2010-01-07 Apparatus, method, and program for information processing
CN201610173331.4A CN105824599A (zh) 2009-02-27 2010-02-20 用于信息处理的设备、方法和程序
CN201010121665A CN101827087A (zh) 2009-02-27 2010-02-20 用于信息处理的设备、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009045283A JP4900406B2 (ja) 2009-02-27 2009-02-27 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2010200212A JP2010200212A (ja) 2010-09-09
JP4900406B2 true JP4900406B2 (ja) 2012-03-21

Family

ID=42666809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009045283A Expired - Fee Related JP4900406B2 (ja) 2009-02-27 2009-02-27 情報処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9602945B2 (ja)
JP (1) JP4900406B2 (ja)
CN (2) CN105824599A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3270375B1 (en) * 2013-05-24 2020-01-15 Dolby International AB Reconstruction of audio scenes from a downmix
JP6481341B2 (ja) * 2014-11-21 2019-03-13 ヤマハ株式会社 コンテンツ再生装置
KR20170039520A (ko) * 2015-10-01 2017-04-11 삼성전자주식회사 오디오 출력 장치 및 오디오 출력 장치의 제어 방법
CN105263097A (zh) * 2015-10-29 2016-01-20 广州番禺巨大汽车音响设备有限公司 一种基于音响系统实现环绕音的方法及系统
WO2018055860A1 (ja) * 2016-09-20 2018-03-29 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
KR101851360B1 (ko) * 2016-10-10 2018-04-23 동서대학교산학협력단 다채널 스피커 기반 플레이어 적응형 입체사운드 실시간 제공시스템
JP2022150204A (ja) * 2021-03-26 2022-10-07 ヤマハ株式会社 制御方法、制御装置、及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440639A (en) * 1992-10-14 1995-08-08 Yamaha Corporation Sound localization control apparatus
US7148909B2 (en) * 1998-05-27 2006-12-12 Canon Kabushiki Kaisha Image display system capable of displaying and scaling images on plurality of image sources and display control method therefor
JP2001197379A (ja) * 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd 機器設定装置、機器設定システムおよび機器設定処理プログラムを記録した記録媒体
US6697644B2 (en) * 2001-02-06 2004-02-24 Kathrein-Werke Kg Wireless link quality using location based learning
JP3851129B2 (ja) * 2001-09-26 2006-11-29 三洋電機株式会社 携帯型視聴装置
US7626635B2 (en) * 2003-04-04 2009-12-01 Koplar Interactive Systems International, L.L.C. Method and system of detecting signal presence from a video signal presented on a digital display device
EP1542503B1 (en) * 2003-12-11 2011-08-24 Sony Deutschland GmbH Dynamic sweet spot tracking
US7024002B2 (en) * 2004-01-26 2006-04-04 Dickey Baron C Method and apparatus for spatially enhancing the stereo image in sound reproduction and reinforcement systems
GB2411752B (en) * 2004-03-03 2006-02-01 Toshiba Res Europ Ltd Remote control location technique and associated apparatus
KR20060022053A (ko) * 2004-09-06 2006-03-09 삼성전자주식회사 Av 시스템 및 그 튜닝 방법
CA2581982C (en) * 2004-09-27 2013-06-18 Nielsen Media Research, Inc. Methods and apparatus for using location information to manage spillover in an audience monitoring system
JP4635549B2 (ja) 2004-10-01 2011-02-23 ソニー株式会社 情報処理装置および方法
US7617513B2 (en) * 2005-01-04 2009-11-10 Avocent Huntsville Corporation Wireless streaming media systems, devices and methods
JP2006229738A (ja) * 2005-02-18 2006-08-31 Canon Inc 無線接続制御装置
JP2006270522A (ja) * 2005-03-24 2006-10-05 Yamaha Corp 音像定位制御装置
JP4972875B2 (ja) * 2005-04-28 2012-07-11 ソニー株式会社 再生装置、再生方法
JP2007006356A (ja) * 2005-06-27 2007-01-11 Sony Corp リモートコントロールシステム、リモートコントローラ、および表示制御方法
ES2381765T3 (es) * 2006-03-31 2012-05-31 Koninklijke Philips Electronics N.V. Dispositivo y método para procesar datos
TW200809601A (en) * 2006-08-03 2008-02-16 Asustek Comp Inc An audio processing module and an audio-video card system using the same
JP2008160240A (ja) * 2006-12-21 2008-07-10 Sharp Corp 画像表示装置
US9647780B2 (en) * 2007-08-24 2017-05-09 Invention Science Fund I, Llc Individualizing a content presentation
US20090094375A1 (en) * 2007-10-05 2009-04-09 Lection David B Method And System For Presenting An Event Using An Electronic Device
US20100013855A1 (en) * 2008-07-16 2010-01-21 International Business Machines Corporation Automatically calibrating picture settings on a display in accordance with media stream specific characteristics

Also Published As

Publication number Publication date
CN105824599A (zh) 2016-08-03
US20100219966A1 (en) 2010-09-02
CN101827087A (zh) 2010-09-08
JP2010200212A (ja) 2010-09-09
US9602945B2 (en) 2017-03-21

Similar Documents

Publication Publication Date Title
JP4900406B2 (ja) 情報処理装置および方法、並びにプログラム
US11847376B2 (en) Orientation based microphone selection apparatus
US10932075B2 (en) Spatial audio processing apparatus
EP2926572B1 (en) Collaborative sound system
US9361898B2 (en) Three-dimensional sound compression and over-the-air-transmission during a call
US9357306B2 (en) Multichannel audio calibration method and apparatus
JP5990345B1 (ja) サラウンド音場の生成
Farina Advancements in impulse response measurements by sine sweeps
JP4973919B2 (ja) 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム
CN110537221A (zh) 用于空间音频处理的两阶段音频聚焦
CN102325298A (zh) 音频信号处理装置和音频信号处理方法
EP2812785B1 (en) Visual spatial audio
JP2020500480A (ja) デバイス内の非対称配列の複数のマイクからの空間メタデータの分析
EP2904817A1 (en) An apparatus and method for reproducing recorded audio with correct spatial directionality
EP3198721B1 (en) Mobile cluster-based audio adjusting method and apparatus
US20180288556A1 (en) Audio output device, and method for controlling audio output device
CN110890100A (zh) 语音增强、多媒体数据采集、播放方法、装置及监控系统
CN114128312B (zh) 用于低频效果的音频渲染
CN109716795B (zh) 联网麦克风设备及其方法以及媒体回放系统
KR20150128616A (ko) 사용자 및 스피커의 위치를 이용한 오디오 신호 변환 장치 및 그 방법
EP3481083A1 (en) Mobile device for creating a stereophonic audio system and method of creation
WO2024073649A1 (en) Network handoff for portable playback devices
JP2016208285A (ja) 音声無線伝送システム、およびソース機器
GB2536203A (en) An apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R151 Written notification of patent or utility model registration

Ref document number: 4900406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees