JP2013058991A - 音声出力制御装置および音声処理方法 - Google Patents
音声出力制御装置および音声処理方法 Download PDFInfo
- Publication number
- JP2013058991A JP2013058991A JP2011197447A JP2011197447A JP2013058991A JP 2013058991 A JP2013058991 A JP 2013058991A JP 2011197447 A JP2011197447 A JP 2011197447A JP 2011197447 A JP2011197447 A JP 2011197447A JP 2013058991 A JP2013058991 A JP 2013058991A
- Authority
- JP
- Japan
- Prior art keywords
- user
- audio output
- sound
- output control
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Stereophonic System (AREA)
Abstract
【課題】ユーザの位置に応じて音声の出力を制御することにより、常に良好な音声聴取環境を実現する音声出力制御装置および音声出力制御方法を提供する。
【解決手段】音声出力制御装置は、複数の音声出力部により形成される音場にいるユーザを検出するユーザ検出部と、ユーザ検出部により検出されたユーザが音場内の所定の範囲に位置しているかを判定するユーザ位置判定部と、ユーザ位置判定部の判定結果に基づいて音声出力部における音声出力を制御する音声出力制御部とを備える。
【選択図】図4
【解決手段】音声出力制御装置は、複数の音声出力部により形成される音場にいるユーザを検出するユーザ検出部と、ユーザ検出部により検出されたユーザが音場内の所定の範囲に位置しているかを判定するユーザ位置判定部と、ユーザ位置判定部の判定結果に基づいて音声出力部における音声出力を制御する音声出力制御部とを備える。
【選択図】図4
Description
本技術は、音声出力制御装置および音声処理方法に関し、詳しくは、音声を聴取するユーザの状態に応じて音声出力を制御する音声出力制御装置、音声処理方法に関する。
従来、オーディオ機器の想定するユーザの視聴スタイルは、スピーカとユーザの位置が理想的になる特定位置のみにユーザが存在することを想定されている。一方で、現実のユーザは部屋内のどこにいても同じように音楽を楽しみたいという欲求を持っている。
そこで、受聴位置が異なっても良好なステレオ感を得ることができる音声調整装置が提案されている(特許文献1)。
しかし、特許文献1に記載の技術は、ユーザの受聴位置を示すデータを入力する受聴位置データ入力手段を備える。受聴位置データ入力手段における受聴位置データの入力をユーザが行う必要があるとすると、その機能を有効にするためにはユーザが意図的に機器を操作し、その機能を有効にする必要がある、これにより、ユーザの恣意的な行動を阻害してしまうということとなる。
したがって、本技術の目的は、ユーザの恣意的な生活を妨げることなく、ユーザの視聴スタイルに合わせた音楽視聴環境を提供する情報処理装置を提供することにある。
上述した目的を達成するために、第1の技術は、複数の音声出力部により形成される音場にいるユーザを検出するユーザ検出部と、ユーザ検出部により検出されたユーザが音場内の所定の範囲に位置しているかを判定するユーザ位置判定部と、ユーザ位置判定部の判定結果に基づいて音声出力部における音声出力を制御する音声出力制御部とを備える音声出力制御装置である。
また、第2の技術は、複数の音声出力部により形成される音場にいるユーザを検出し、検出されたユーザが音場内の所定の範囲に位置しているかを判定し、ユーザが音場内の所定の範囲に位置しているか否かの判定結果に基づいて音声出力部における音声出力を制御する音声出力制御方法である。
本技術によれば、ユーザの視聴スタイルに合わせた音楽聴取環境を提供することができる。
することができる。
することができる。
以下、本技術の実施の形態について図面を参照しながら説明する。ただし、本技術は以下の実施例のみに限定されるものではない。なお、説明は以下の順序で行う。
<1.第1の実施の形態>
[1−1.音声出力制御装置の構成]
[1−2.音声出力制御装置を備える音声出力装置の構成]
[1−3.音声出力制御処理]
<2.第2の実施の形態>
[2−1.音声出力制御装置の構成]
[2−2.音声出力制御処理]
<3.第3の実施の形態>
[3−1.音声出力制御処理]
<4.変形例>
<1.第1の実施の形態>
[1−1.音声出力制御装置の構成]
[1−2.音声出力制御装置を備える音声出力装置の構成]
[1−3.音声出力制御処理]
<2.第2の実施の形態>
[2−1.音声出力制御装置の構成]
[2−2.音声出力制御処理]
<3.第3の実施の形態>
[3−1.音声出力制御処理]
<4.変形例>
<1.第1の実施の形態>
[1−1.音声出力制御装置の構成]
まず、図1を参照して音声出力制御装置10の構成について説明する。図1は、本技術に係る音声出力制御装置10の構成を示すブロック図である。
[1−1.音声出力制御装置の構成]
まず、図1を参照して音声出力制御装置10の構成について説明する。図1は、本技術に係る音声出力制御装置10の構成を示すブロック図である。
音声出力制御装置10は、撮像部11、顔検出部12、ユーザ位置検出部13、ユーザ位置判定部14、音声出力制御部15とから構成されている。音声出力制御装置10は、例えば、図2に示すような5.1chサラウンドシステムにおいて用いられる。
撮像部11は、ユーザを撮像して画像データを得るものである。撮像部11は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、撮像素子により得られた光画像を光電変換して電荷量に変換して画像データとして出力する画像処理回路などからなる。撮像部11により取得された画像データは顔検出部12に供給される。
顔検出部12は撮像部11から供給された画像データに係る画像中から人物の顔を検出するものである。顔検出方法としては、顔の形状に基づくテンプレートマッチング、顔の輝度分布に基づくテンプレートマッチング、画像に含まれる肌色の部分や人間の顔の特徴量等に基づく方法などを用いることができる。また、これらの手法を組み合わせて顔検出の精度を高めるようにしてもよい。
また、例えば特開2005−157679に記載されているような機械学習に基づく手法を採用してもよい。この技術を用いることで、人の顔の検出が可能であり、さらに、ユーザの向きも検出することができる。
顔検出部12により検出されたユーザの顔を示す顔画像データはユーザ位置検出部13に供給される。このように、本実施の形態においては、撮像部11で得た画像中かから顔を検出することによりユーザを検出する。撮像部11と顔検出部12は特許請求の範囲におけるユーザ検出部に相当するものである。
ユーザ位置検出部13は、顔検出部12によって検出されたユーザの位置を検出する。ユーザ位置検出部13は、撮像部11のカメラにより得られた画像に基づいてユーザの位置を検出する。ユーザの位置は例えば、撮像部11のカメラの光軸に対するユーザの相対位置の算出結果と、撮像部11のカメラの位置や角度の情報等に基づいて、基準となる位置(撮像部11のカメラなど)対する角度、距離として求めることができる。
ユーザ位置検出部13はCPUがプログラムを実行すること、または、その機能を有する専用のハードウェアによって実現される。ただし、このような方法に限られず、ユーザの位置を取得することが出来る方法であればどのような方法を用いてもよい。撮像部11による画像を用いずに、例えば、赤外線センサ、いわゆる人感センサなどと称されるセンサを用いてユーザの位置を検出するようにしてもよい。また、赤外線を出力したときの反射を利用してユーザまでの距離を測定するアクティブ方式の測距センサ、被写体の輝度情報をセンサで検出して得られた輝度から距離を測定するパッシブ方式の測距センサなどを用いてもよい。ユーザ位置検出部13により取得されたユーザ位置情報はユーザ位置判定部14に供給される。
ユーザ位置判定部14は、ユーザ位置検出部13により検出されたユーザの位置が音声の最適聴取範囲であるいわゆるスイートスポット内にであるか否かを判定するものである。ユーザ位置判定部14による判定の詳細については後述する。
音声出力制御部15には、ユーザ位置判定部14による判定結果に基づいて、音声出力部としてのスピーカからの音声出力を第1のモードで行うか、または第2のモードで行うかの制御を行うものである。音声出力制御部15による音声出力制御の詳細については後述する。
以上のようにして音声出力制御装置10が構成されている。
[1−2.音声出力制御装置を備える音声出力装置の構成]
次に、上述した音声出力制御装置10を備える音声出力装置100の構成について説明する。図2は音声出力装置100の構成を示すブロック図である。さらに、図3は、音声出力装置100を構成するスピーカの配置例を示す図である。音声出力装置100は、音声を出力するとともに映像の出力も可能な、いわゆる「ホームシアターシステム」と称されるAV(Audio Video)システムとして構成されている。
次に、上述した音声出力制御装置10を備える音声出力装置100の構成について説明する。図2は音声出力装置100の構成を示すブロック図である。さらに、図3は、音声出力装置100を構成するスピーカの配置例を示す図である。音声出力装置100は、音声を出力するとともに映像の出力も可能な、いわゆる「ホームシアターシステム」と称されるAV(Audio Video)システムとして構成されている。
音声出力装置100は、音源/映像源110、フロントLchスピーカ121、フロントRchスピーカ122、リアLchスピーカ123、リアRchスピーカ124、センタースピーカ125、サブウーファー126、映像処理部130、表示部140、システムコントローラ150、I/F(InterFace)160、撮像部11、顔検出部12、ユーザ位置検出部13およびユーザ位置判定部14、音声出力制御部15とから構成されている。撮像部11、顔検出部12、ユーザ位置検出部13、ユーザ位置判定部14および音声出力制御部15は音声出力制御装置10を構成するものである。
音源/映像源110は、音声出力装置100により出力されるコンテンツを構成する映像および音声、または音声のみを供給するものである。コンテンツとしてはテレビ番組、映画、音楽、ラジオなどが挙げられる。音源/映像源110としては例えば、テレビチューナー、ラジオチューナー、DVDプレーヤ、Blu-ray Discプレーヤ、ゲーム機などが挙げられる。音源/映像源110からの音声データは音声出力制御部15に供給される。また音源/映像源110からの映像データは映像処理部130に供給される。
フロントLchスピーカ121、フロントRchスピーカ122、リアLchスピーカ123、リアRchスピーカ124、センタースピーカ125およびサブウーファー126は音声を出力する、特許請求の範囲における音声出力部に相当するものである。これら各スピーカは音声出力制御部15の制御の元、音源/映像源110からの音声を出力する。
本実施の形態においては上述した各スピーカによって5.1チャンネルサラウンドシステムが構成されている。各スピーカから音声が出力されることにより、ユーザは音源/映像源110からの音声を聴取することができる。なお、以下の説明においては、上記各スピーカによって形成される音を聴取することができる空間を「音場」と称する。
フロントLchスピーカ121、フロントRchスピーカ122、リアLchスピーカ123、リアRchスピーカ124によって音場に音声の最適聴取範囲であるスイートスポットが形成される。音声の最適聴取範囲であるいわゆるスイートスポットは、図3に示すスピーカ配置では、フロントLchスピーカ121とリアRchスピーカ124とを結ぶ対角線と、フロントRchスピーカ122とリアLchスピーカ123とを結ぶ対角線の交点を中心とした所定の範囲のものとして形成される。図3においては、各スピーカ間の距離は略同一であり、交点から各スピーカまでの距離も略同一である。
また、フロントLchスピーカ121およびフロントRchスピーカ122からのみ音声を出力する場合、スイートスポットは、図3に示すスイートスポットと同様の位置に形成される。その位置は、Lchフロントスピーカ121とフロントRchスピーカ122を結ぶ線分を底辺とする二等辺三角形の頂点を略中心とした位置である。
ユーザ位置判定部14は、ユーザ位置検出部13により検出された検出されたユーザの位置とスイートスポットの位置とを比較することにより、ユーザがスイートスポットにいるか否かを判定する。したがって、ユーザ位置判定部14は予め、スイートスポットの位置を把握しておく必要がある。スイートスポットの位置はユーザが音声出力装置100としてのホームシアターシステムに対して入力することにより設定してもよいし、各スピーカの設置位置、角度から音声出力制御装置10が自動的に算出するようにしてもよい。また、テレビジョン受像機、ディスプレイなどの表示部140に撮像部11が設けられている場合には表示部140の画面サイズをユーザが音声出力制御装置10に入力することにより、表示部140の画面サイズからスイートスポットの位置を把握するようにしてもよい。これは、表示部140に撮像部14が設けられている場合には撮像部14の位置が特定されるため、表示部140の画面のサイズからスイートスポットの位置を特定することが可能となるからである。一般的に画面のサイズから適切な視聴位置が決まると考えられる。そこで、その適切な視聴位置がスイートスポットとしての蓋然性が高いとして、スイートスポットを把握するようにしてもよい。例えば、画面サイズと適切な視聴位置の組み合わせを示すデータを予め保持しておき、入力された画面のサイズに基づきその組み合わせを参照して適切な視聴位置をスイートスポットとして把握するようにしてもよい。また、所定の式を用いた演算により画面のサイズから視聴位置を算出するようにしてもよい。ユーザ位置判定部14による判定結果は音声出力制御部15に供給される。
音声出力制御部15は、上述したように、ユーザ位置判定部14による判定結果に基づいて、スピーカからの音声出力を第1のモードで行うか、または第2のモードで行うかの制御を行うものである。
本実施の形態において第1のモードとは、図4に示すように、フロントLchスピーカ121からフロントLch音声、フロントRchスピーカ122からフロントRch音声、リアLchスピーカ123からフロントRch音声、リアRchスピーカ124からフロントLch音声を出力するモードである。
これにより、フロントLchスピーカ121およびフロントRchスピーカ122によってステレオ再生環境が形成される。また、フロントLchスピーカ121およびリアLchスピーカ123によりステレオ再生環境が形成される。また、リアLchスピーカ123およびリアRchスピーカ124によりステレオ再生環境が形成される。さらに、リアRchスピーカ124およびフロントRchスピーカ122によりステレオ再生環境が形成される。すなわち、2つのスピーカの組み合わせにより、計4つのステレオ再生環境が形成される。ユーザ位置判定部14によりユーザがスイートスポットにいないと判定された場合には、この第1のモードで音声が出力される。
また、本実施の形態において第2のモードとは、図5に示すように、フロントLchスピーカ121からフロントLch音声を出力し、フロントRchスピーカ122からフロントRch音声を出力するモードである。リアLchスピーカ123およびリアRchスピーカ124からは音声は出力されない。よって、第2のモードでは一つのステレオ再生環境が形成される。ユーザ位置判定部14によりユーザがスイートスポットにいると判定された場合には、この第2のモードで音声が出力される。
音声出力制御部15は、例えば、リアLchスピーカ123およびリアRchスピーカ124における音声出力レベルを調整することにより第1のモードと第2のモードの切り替えを行う。具体的には、第1のモードに切り替えるには、リアLchスピーカ123およびリアRchスピーカ124における音声出力レベルをユーザが設定した値まで上げる。また、第2のモードに切り替える場合には、リアLchスピーカ123およびリアRchスピーカ124における音声出力レベルを0にする。なお、リアLchスピーカ123およびリアRchスピーカ124への音声信号の供給のオン・オフを切り替えることにより第1のモードと第2のモードの切り換えを行うようにしてもよい。モードの切り替えによって音声を出力しないスピーカの電源をオフにするようにしてもよい。これにより節電効果を得ることができる。
映像処理部130は、映像信号に対して解像度変換、輝度補正、色補正などの所定の映像処理を施して表示部140に供給する。表示部140は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro Luminescence)パネルなどにより構成された映像表示手段である。映像処理部130から供給された映像信号は表示部140によって映像として表示される。表示部140に映像が表示されることによりユーザは音源/映像源110からの映像を見ることができる。なお、音声出力装置100が音楽など音声のみを再生することを目的としたものである場合には表示部140、映像処理部130は不要である。
システムコントローラ150は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)などから構成される。ROMには、CPUにより読み込まれ動作されるプログラムなどが記憶されている。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムに実行すること音声出力装置100全体の制御を行う。
I/F160は、ユーザの操作により音声出力装置100付属のリモートコントローラ170から送信されたコントロール信号を受信してシステムコントローラ150に出力する。システムコントローラ150はリモートコントローラ170からのコントローラ信号に対応して音声出力装置100全体を制御する。
なお、音声出力制御装置10を構成する、撮像部11、顔検出部12、ユーザ位置検出部13、ユーザ位置判定部14および音声出力制御部15が全て同一筐体内に設けられている必要はない。例えば、撮像部11を表示部140の筐体に一体的に構成されたいわゆるWEBカメラとし、さらに表示部140内に顔検出部12、ユーザ位置検出部13を設け、外部機器に設けた音声出力制御部15にUSB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)などを通じてユーザ情報を供給するようにしてもよい。また、撮像部11を、USB、HDMIなどにより接続する独立したハードウェアとして構成してもよい。ただし、撮像部11はスイートスポットにいるユーザを確実に検出するために図3乃至図5に示すように一般的にスイートスポットの正面に位置する表示部140に設けるのが好ましい。
[1−3.音声出力制御処理]
次に、音声出力制御装置10を備える音声出力装置100において行われる音声出力制御処理について説明する。図6は、音声出力制御処理の流れを示すフローチャートである。
次に、音声出力制御装置10を備える音声出力装置100において行われる音声出力制御処理について説明する。図6は、音声出力制御処理の流れを示すフローチャートである。
なお、初期設定として、ユーザが前方(表示部140方向)を向いているものとしてフロントLchスピーカ121からはフロントLch音声を、フロントRchスピーカ122からはフロントRch音声を出力するように設定しておくとよい。
まずステップS101でシステムコントローラ150は、音声出力装置100においてコンテンツの再生が指示された否かを判定する。コンテンツの再生が指示されていない場合、処理はステップS102に進む(ステップS101のNo)。そして、ステップS102で音声出力装置100はコンテンツを再生するモード以外の動作モード、例えばスタンバイモードに設定される。
一方、ステップS101で、コンテンツの再生が指示されたと判定された場合、処理はステップS103に進む(ステップS101のYes)。次にステップS103で、スピーカからの音声出力が開始される。次にステップS104で、撮像部11はユーザの画像を取得する。取得された画像は顔検出部12に供給される。次に、ステップS105で、撮像部11により取得した画像に対して顔検出部12が顔検出処理を行うことより、ユーザの顔を検出する。検出されたユーザの顔を含んだ顔画像はユーザ位置検出部13に供給される。
次にステップS106で、ユーザ位置検出部13が顔検出部12によって検出されたユーザの位置の検出を行う。ユーザの位置の検出結果はユーザ位置判定部14に供給される。次にステップS107で、ユーザ位置判定部14が、ユーザがスイートスポット内にいるか否かを判定する。判定結果は音声出力制御部15に供給される。
ユーザ位置判定部14により、ユーザがスイートスポット内にいないと判定された場合、処理はステップS108に進む(ステップS107のNo)。そして、ステップS108で、音声を第1のモードで出力するように、音声出力制御部15はスピーカにおける音声出力を制御する。
第1のモードでは、上述したように、フロントLchスピーカ121およびフロントRchスピーカ122によりステレオ再生環境が形成される。また、フロントLchスピーカ121およびリアLchスピーカ123によりステレオ再生環境が形成される。また、リアLchスピーカ123およびリアRchスピーカ124によりステレオ再生環境が形成される。さらに、リアRchスピーカ124およびフロントRchスピーカ122によりステレオ再生環境が形成される。
これにより、ユーザはフロントLchスピーカ121、フロントRchスピーカ122、リアLchスピーカ123およびリアRchスピーカ124により構成される音場のどこにいても、さらにどの方向を向いていても適切なステレオ感で、再生される音声を聴取することができる。
一方、ステップS107で、ユーザ位置判定部14によりユーザがスイートスポット内にいないと判定された場合、処理はステップS109に進む(ステップS107のYes)。そして、ステップS109で、音声を第2のモードで出力するように、音声出力制御部15は各スピーカにおける音声出力を制御する。
上述したように、第2のモードではフロントLchスピーカ121からフロントLch音声を、フロントRchスピーカ122からはフロントRch音声を出力することにより、ステレオ再生が行われる。よって、スイートスポットにいるユーザは良好な環境で通常のステレオ感で声を聴取することができる。
次にステップS110で、システムコントローラ150は音声出力装置100によるコンテンツの再生が終了したか否かを判定する。コンテンツの再生が終了した場合は図6のフローチャートの処理は終了となる(ステップS110のYes)。一方、コンテンツの再生が終了していない場合には処理はステップS104に進む(ステップS110のNo)。そして、ステップS104以降の処理を繰り返し、コンテンツの再生が終了するまで音声出力制御処理が繰り返される。
なお、音声聴取を目的とせず音場を通過する人物を検出してしまうことを避けるために、周期的に音声出力制御処理を行う場合には、その周期をある程度大きくして不感帯を設けるようにしてもよい。
また、出力されている音声の途中で第1のモードと第2のモードとが切替わることによりユーザに違和感を与えることを避けるために、出力音声が無音または所定のレベル以下の場合に限りステップS104からの処理を行うようにしてもよい。
以上のようにして、本技術の第1の実施の形態における音声出力制御が行われる。第1の実施の形態においては、ユーザはスイートスポットにいる場合はもちろんのこと、スイートスポットにいない場合であってもステレオ再生環境で適切なステレオ感を得ることができる。これにより、どこにいても良好なステレオ感でステレオ音声を聴くことができるというユーザにとって良好な聴取環境を実現することができる。
<2.第2の実施の形態>
[2−1.音声出力制御装置の構成]
次に、本技術の第2の実施の形態について説明する。図7は第2の実施の形態に係る、音声出力制御装置20の構成を示すブロック図である。第2の実施の形態は、ユーザ向き検出部21を備える点で第1の実施の形態と異なる。
[2−1.音声出力制御装置の構成]
次に、本技術の第2の実施の形態について説明する。図7は第2の実施の形態に係る、音声出力制御装置20の構成を示すブロック図である。第2の実施の形態は、ユーザ向き検出部21を備える点で第1の実施の形態と異なる。
ユーザ向き検出部21は、顔検出部12により検出されたユーザの顔を含む画像データからユーザの顔が向いている方向(ユーザの顔の向き)を検出する。ユーザの顔の向きは、例えば、エッジ検出などの手法を用いることで、画像中から顔の両端位置と顔の中心位置(鼻先を通る線)とが検出され、その顔両端位置と顔中心位置とから顔の向きの方向が検出される。なお、顔の向きの検出方法として、例えば、目、鼻、口などの顔の構成要素の形状的な特徴を利用した方法や、検出対象となる顔の2点間の輝度値の差分値を用いた検出方法、赤外線センサを用いた手法など、顔の向きを検出できる手法であれば別の方式を用いてもよい。さらに、人の顔と髪の毛がある後頭部の温度差に基づき、赤外線センサを用いることでユーザの顔の向きを推定することも可能である。ユーザ向き検出部2121により検出されたユーザの顔の向きを示す向き情報は音声出力制御部15に供給される。
音声出力制御部15は、ユーザ向き検出部21から供給されるユーザの向き情報に基づいて、スピーカからの音声の出力を制御する。音声出力制御部15による音声出力制御の詳細は後述する。
図8は第2の実施の形態に係る音声出力制御装置20を備える音声出力装置200の構成を示すブロック図である。第2の実施の形態は4つの撮像部11A、11B、11C、11Dを備える点で第1の実施の形態と異なっている。図9は、フロントLchスピーカの外観図である。図9に示すように、撮像部11Aは、フロントLchスピーカ121に一体的に設けられている。なお、図示はしないがフロントRchスピーカ122に撮像部11Bが、リアLchスピーカ123に撮像部11Cが、リアRchスピーカ124に撮像部11Dがそれぞれ一体的に設けられている。その他の構成については第1の実施の形態と同様であるため、その説明を省略する。なお、第2の実施の形態におけるスピーカの設置位置および角度は図3に示すものと同様である。
このように、スイートスポットを囲うように配置されて音場を形成する各スピーカに撮像部を設けることにより、ユーザがどの方向を向いていても、撮像部により得られる画像からユーザの顔、顔の向きを検出することが可能となる。
ここで、この第2の実施の形態における音声出力制御の概要について図10を参照して説明する。図10A乃至図10Dは4つのスピーカからの音声によって形成されるスイートスポットにいるユーザの向きがそれぞれ異なっている状態を示すものである。なお、以下の説明において、フロントスピーカ方向を「前方(0°)」、リアスピーカ方向を「後方(180°」、フロントスピーカに向かって左方向を「左(90°)」、フロントスピーカに向かって右方向を「右(270°)」と定義する。
第2の実施の形態においては、図10Aに示すようにユーザが前方(0°)を向いている場合にはフロントLchスピーカ121からLch音声が出力され、フロントRchスピーカ122からはRch音声が出力される。それ以外のリアLchスピーカ123およびリアRchスピーカ124からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図10Bに示すように、ユーザが左(90°)を向いている場合には、リアLchスピーカ123からLch音声が出力され、フロントLchスピーカ121からRch音声が出力される。それ以外のフロントRchスピーカ122およびリアRchスピーカ124からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図10Cに示すように、ユーザが後方(180°)を向いている場合には、リアRchスピーカ124からLch音声が出力され、リアLchスピーカ123からRch音声が出力される。それ以外のフロントLchスピーカ121およびフロントRchスピーカ122からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図10Dに示すように、ユーザが右(270°)を向いている場合には、フロントRchスピーカ122からLch音声が出力され、リアRchスピーカ124からRch音声が出力される。それ以外のフロントLchスピーカ121およびリアLchスピーカ123からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
音声出力制御部15は、ユーザ向き検出部21から供給されたユーザの向き情報に基づいて上述のように音声出力が行われるよう、スピーカにおける音声出力を制御する。音声出力制御は、第1の実施の形態と同様に、例えば、各スピーカにおける音声出力レベルを調整することにより行う。なお、音声を出力しないスピーカの電源はオフにしてもよい。これにより節電効果を得ることができる。
[2−2.音声出力制御処理]
図11は第2の実施の形態における音声出力制御処理の流れを示すフローチャートである。ステップS101乃至ステップS106およびステップS110は第1の実施の形態と同様であるため説明を省略する。
図11は第2の実施の形態における音声出力制御処理の流れを示すフローチャートである。ステップS101乃至ステップS106およびステップS110は第1の実施の形態と同様であるため説明を省略する。
ステップS201で、ユーザ向き検出部21は顔検出部12により検出されたユーザの顔の向きを検出する。検出されたユーザの向き情報は音声出力制御部15に供給される。次にステップS202で音声出力制御部15は、上述したようにユーザの向きに応じた音声出力制御を行う。以上のようにして第2の実施の形態における音声出力制御処理が行われる。
なお、音声を出力するスピーカの切り替えを出力レベル調整により行うことによりユーザに違和感を与えずに音声出力制御を行うことができる。具体的には、図12に示すように行う。
図12は縦軸をLch音声およびRch音声の出力レベルとし、横軸をユーザの向きとして、ユーザの向きに応じた音声の出力レベルの変化を示したものである。
ユーザの向きが前方(0°)の場合は上述したようにフロントLchスピーカ121からLch音声が、フロントRchスピーカ122からRch音声がそれぞれ出力される。したがって、フロントLchスピーカ121からLch音声がユーザの指定レベルで出力され、フロントRchスピーカ122からRch音声がユーザの指定レベルで出力される。ここでいう、「ユーザの指定レベル」とは、ユーザが音声出力装置200に対して設定している音量レベルのことを指すものである。スピーカからユーザの指定レベルで音声を出力することにより、ユーザが所望する音量で音声が出力される。なお、出力レベル調整は、Lch音声レベルの合計値とRch音声レベルの合計値が等しくなるようになされる。
ユーザの顔の向きが左(90°)になった場合は、リアLchスピーカ123からLch音声が出力され、フロントLchスピーカ121からRch音声が出力される。
ユーザが前方(0°)から左(90°)方向に顔の向きを変える場合、その向き(角度)の変化に伴って、フロントLchスピーカ121におけるLch音声のレベルがユーザの向きの変化に伴って下がっていく。そして、顔の向きが中間の前方左(45°)に至った時点で、フロントLchスピーカ121からのLch音声のレベルは0となる。
続いて、ユーザの顔の向きが前方左(45°)から左(90°)へ変化していくと、それに伴い、フロントLchスピーカ121においてはRch音声のレベルが上がっていく。そして、ユーザの向きが左(90°)に至った時点でフロントLchスピーカ121におけるRch音声のレベルはユーザ指定レベルとなる。
一方、ユーザの顔の向きの変化に伴ってフロントRchスピーカ122におけるRch音声のレベルも徐々に下がっていく。そして、ユーザの向きが左(90°)に至った時点でフロントRchスピーカ122における音声出力レベルは0となる。
また、フロントRchスピーカ122におけるRch音声レベルの低下と平行して、ユーザの顔の向きの変化に伴ってリアLchスピーカ123におけるLch音声のレベルが徐々に上がっていく。そして、ユーザの向きが左(90°)に至った時点でリアLchスピーカ123におけるLch音声のレベルはユーザ指定レベルとなる。このようにしてスピーカからの音声出力が図10Aの状態から図10Bの状態へと切り替えられる。
ユーザが左(90°)から後方(180°)方向に顔の向きを変える場合、その向きの変化に伴って、リアLchスピーカ123におけるLch音声のレベルがユーザの向きの変化に伴って下がっていく。そして、顔の向きが中間の後方左(135°)に至った時点で、リアLchスピーカ123からのLch音声のレベルは0となる。
続いて、ユーザの顔の向きが後方左(135°)から後方(180°)へ変化していくと、それに伴い、リアLchスピーカ123においてはRch音声のレベルが上がっていく。そして、ユーザの向きが後方(180°)に至った時点でリアLchスピーカ123におけるRch音声のレベルはユーザ指定レベルとなる。
一方、ユーザの顔の向きの変化に伴ってフロントLchスピーカ121におけるRch音声のレベルも徐々に下がっていく。そして、ユーザの向きが後方(180°)に至った時点でフロントLchスピーカ121における音声出力レベルは0となる。
また、フロントLchスピーカ121におけるRch音声レベルの低下と平行して、ユーザの顔の向きの変化に伴ってリアRchスピーカ124におけるLch音声のレベルが徐々に上がっていく。そして、ユーザの向きが後方(180°)に至った時点でリアRchスピーカ124におけるLch音声のレベルはユーザ指定レベルとなる。このようにしてスピーカからの音声出力が図10Bの状態から図10Cの状態へと切り替えられる。
ユーザが後方(180°)から右(270°)方向に顔の向きを変える場合、その向きの変化に伴って、リアRchスピーカ124におけるLch音声のレベルがユーザの向きの変化に伴って下がっていく。そして、顔の向きが中間の後方右(225°)に至った時点で、リアRchスピーカ124からのLch音声のレベルは0となる。
続いて、ユーザの顔の向きが後方右(225°)から右(270°)へ変化していくと、それに伴い、リアRchスピーカ124においてはRch音声のレベルが上がっていく。そして、ユーザの向きが右(270°)に至った時点でリアRchスピーカ124におけるRch音声のレベルはユーザ指定レベルとなる。
一方、ユーザの顔の向きの変化に伴ってリアLchスピーカ123におけるRch音声のレベルも徐々に下がっていく。そして、ユーザの向きが右(270°)に至った時点でリアLchスピーカ123における音声出力レベルは0となる。
また、リアLchスピーカ123におけるRch音声レベルの低下と平行して、ユーザの顔の向きの変化に伴ってフロントRchスピーカ122におけるLch音声のレベルが徐々に上がっていく。そして、ユーザの向きが右(270°)に至った時点でフロントRchスピーカ122におけるLch音声のレベルはユーザ指定レベルとなる。このようにしてスピーカからの音声出力が図10Cの状態から図10Dの状態へと切り替えられる。
ユーザが右(270°)から前方(360°)方向に顔の向きを変える場合、その向きの変化に伴って、フロントRchスピーカ122におけるLch音声のレベルがユーザの向きの変化に伴って下がっていく。そして、顔の向きが中間の前方右(315°)に至った時点で、フロントRchスピーカ122からのLch音声のレベルは0となる。
続いて、ユーザの顔の向きが前方右(315°)から前方(360°)へ変化していくと、それに伴い、フロントRchスピーカ122においてはRch音声のレベルが上がっていく。そして、ユーザの向きが前方(360°)に至った時点でフロントRchスピーカ122におけるRch音声のレベルはユーザ指定レベルとなる。
一方、ユーザの顔の向きの変化に伴ってリアRchスピーカ124におけるRch音声のレベルも徐々に下がっていく。そして、ユーザの向きが前記(360°)に至った時点でリアRchスピーカ124における音声出力レベルは0となる。
また、リアRchスピーカ124におけるRch音声レベルの低下と平行して、ユーザの顔の向きの変化に伴ってフロントLchスピーカ121におけるLch音声のレベルが徐々に上がっていく。そして、ユーザの向きが前記ユーザ(360°)に至った時点でフロントLchスピーカ121におけるLch音声のレベルはユーザ指定レベルとなる。このようにしてスピーカからの音声出力が図10Dの状態から図10Aの状態へと切り替えられる。
このようにして、音量をユーザの向きに伴って徐々に変化させていくことにより、ユーザに違和感を与えることなく、音声出力を行うスピーカの切り替えを行うことができる。
なお、上述の説明では、前方(0°)、左(90°)、後方(180°)、右(270°)の4つの方向を基準としてスピーカからの音声出力を制御したが、基準とする方向はその4つの方向に限られない。図13および図14を参照して、以下に説明するように、さらに斜め方向も加えた計8つの方向を基準としてスピーカからの音声出力を制御するようにしてもよい。
図13Aに示すようにユーザが前方(0°)を向いている場合にはフロントLchスピーカ121からLch音声が出力され、フロントRchスピーカ122からRch音声が出力される。それ以外のリアLchスピーカ123およびリアRchスピーカ124からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図13Bに示すように、ユーザが前方左(45°)を向いている場合には、リアLchスピーカ123からLch音声が出力され、フロントRchスピーカ122からRch音声が出力される。それ以外のフロントLchスピーカ121およびリアRchスピーカ124からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図13Cに示すように、ユーザが左(90°)を向いている場合には、リアLchスピーカ123からLch音声が出力され、フロントLchスピーカ121からRch音声が出力される。それ以外のフロントRchスピーカ122およびリアRchスピーカ124からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図13Dに示すように、ユーザが後方左(135°)を向いている場合には、リアRchスピーカ124からLch音声が出力され、フロントLchスピーカ121からRch音声が出力される。それ以外のフロントRchスピーカ122およびリアLchスピーカ123からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図14Aに示すように、ユーザが後方(180°)を向いている場合には、リアRchスピーカ124からLch音声が出力され、リアLchスピーカ123からRch音声が出力される。それ以外のフロントLchスピーカ121およびフロントRchスピーカ122からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図14Bに示すように、ユーザが後方右(225°)を向いている場合には、フロントRchスピーカ122からLch音声が出力され、リアLchスピーカ123からRch音声が出力される。それ以外のフロントLchスピーカ121およびリアRchスピーカ124からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
また、図14Cに示すように、ユーザが右(270°)を向いている場合には、フロントRchスピーカ122からLch音声が出力され、リアRchスピーカ124からRch音声が出力される。それ以外のフロントLchスピーカ121およびリアLchスピーカ123からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
さらに、図14Dに示すように、ユーザが前方右(315°)を向いている場合には、フロントLchスピーカ121からLch音声が出力され、リアRchスピーカ124からRch音声が出力される。それ以外のフロントRchスピーカ122およびリアLchスピーカ123からは音声は出力されない。これによりスイートスポットにいるユーザは良好なステレオ感を得ることができる。
なお、図12では、ユーザの向きに応じて音量を緩やかに変化させることによりスピーカからの音声出力を切り替えたが、切り替える手法はそれだけに限られない。図15Aに示すように、45°、135°、225°、315°を境界に各スピーカの音声出力を切り替えるようにしてもよい。また、図15Bに示すように、0°、90°、180°、270°を境界に各スピーカの音声出力を切り替えるようにしてもよい。図15Aおよび図15Bは図12と同様に、縦軸をLch音声およびRch音声の出力レベルとし、横軸をユーザの向きとして、ユーザの向きに応じた音声の出力レベルの変化を示したものである。
第2の実施の形態によれば、ユーザの向きに応じて常にユーザの左からはLch音声が出力され、ユーザの右からはRch音声が出力される。これにより、ユーザはどの方向を向いていても常に適切な状態でステレオ音声を聴取することができる。
<3.第3の実施の形態>
[3−1.音声出力制御処理]
次に本技術の第3の実施の形態について説明する。第3の実施の形態における音声出力制御装置の構成は第2の実施の形態と同様であるため、その説明を省略する。
[3−1.音声出力制御処理]
次に本技術の第3の実施の形態について説明する。第3の実施の形態における音声出力制御装置の構成は第2の実施の形態と同様であるため、その説明を省略する。
図16は第3の実施の形態における音声出力制御の図である。第3の実施の形態は音場に複数のユーザがいる場合における音声出力制御である。図16においてはユーザが二人いる場合を例にして説明を行う。
図16Aは、二人のユーザ、ユーザAおよびユーザBが共にスイートスポットにいる場合を示すものである。この場合、顔検出部12によって撮像部11から供給された画像から二人のユーザの顔が検出される。そして、ユーザ位置検出部13が二人のユーザのそれぞれの位置を検出し、ユーザ位置判定部14がユーザが共にスイートスポットにいると判定した場合、ユーザ向き検出部21はユーザそれぞれの顔の向きを検出する。
さらに、ユーザ向き検出部21は、ユーザAおよびユーザBの顔の向きをそれぞれ同じ大きさのベクトルa、bとし、そのベクトル和c方向を音声出力制御部15へ供給する一つの向きとする。このようにして、複数のユーザがいても、その複数のユーザの顔の向きから一つの向きを決定する。また、二人のユーザのベクトルa、ベクトルbに対して重み付け(重み係数k:0≦k≦1)を行い、下記の式1に基づいてベクトル和cを算出してもよい。
[式1]
c=ka+(1−k)b
c=ka+(1−k)b
例えば、ホームシアターシステムのリモートコントローラを操作するユーザを検出し、そのユーザの向きを他のユーザよりも優先させるようにしてもよい。リモートコントローラを操作しているユーザはコンテンツの視聴に対して能動的であると考えられるからである。リモートコントローラを操作するユーザを検出する方法としては、例えば、撮像部11で取得した画像から公知の物体認識技術でリモートコントローラを検出する、または、リモートコントローラから出力される赤外線からリモートコントローラの位置を検出する。そして、ユーザ位置検出部13により検出したユーザの位置とリモートコントローラの位置とを対応させることによりリモートコントローラを操作しているユーザを特定することが可能である。
図16Bは、二人のユーザのうち、ユーザAのみがスイートスポット内に位置し、ユーザBはスイートスポット内にいない場合を示すものである。この場合、スイートスポットにいるユーザAの顔が向いている方向を基準として音声出力制御部15は音声出力処理を行う。
図16Bに示す例では、スイートスポットにいるユーザBは略右方向を向いている。よって、この場合、第2の実施の形態で上述したように、右方向を向いているユーザBにステレオ再生環境を提供するために、フロントRchスピーカ122からLch音声が出力され、リアRchスピーカ124からRch音声が出力される。このように、スイートスポットにユーザが一人いる場合には、そのユーザの顔の向きを基準として第2の実施の形態に基づく音声出力処理を行う。
このように、一人のユーザがスイートスポットにいる場合にはそのユーザを優先して音声出力制御を行う。これは、スイートスポットにいるユーザは音声を良好な環境で聴くことを望んでおり、一方、スイートスポットいないユーザは、音声を聴くことに重きをおいてはいないと考えられるからである。
図16Cは、二人のユーザA、ユーザBが共にスイートスポットにいない場合を示すものである。この場合、ユーザAとユーザBとで優先順位をつけることはできないため、図16Aに基づいて説明した場合と同様に二人の顔の向きをそれぞれ同じ大きさのベクトルd、eとして考え、そのベクトル和fを音声出力制御部15に供給する一つの方向とする。
図17は第3の実施の形態における音声出力制御の流れを示すフローチャートである。図17において、ステップS101乃至ステップS106およびステップS110は第1の実施の形態と同様であるため、その説明を省略する。また、ステップS201は第2の実施の形態と同様である。
ステップS105で顔検出部12により顔検出が行われると、次にステップS301で顔検出部12により複数の顔が検出されたか否かが判定される。複数の顔が検出された場合とは、音場に複数のユーザがいるということを意味している。
ステップS301で複数の顔が検出されていないと判定された場合、処理はステップS302に進む(ステップS301のNo)。複数の顔が検出されていない場合とは、ユーザが一人の場合であるため、ステップS302で音声出力制御部15は、第1または第2の実施の形態と同様の音声出力制御を行う。
一方、ステップS301で複数の顔が検出されたと判定された場合、処理はステップS106に進む(ステップS301のNo)。次にステップS106で、ユーザ位置検出部13は、顔が検出された複数のユーザのそれぞれの位置を検出する。次にステップS303で、ユーザ位置判定部14は、検出された複数のユーザの位置がスイートスポット内であるか否かを判定する。
ステップS303で、複数のユーザ全員がスイートスポット内にいると判定された場合、処理はステップS201に進む(ステップS303のNo)。そしてステップS201で、ユーザ向き検出部21は、検出された全てのユーザの顔の向きを検出する。次にステップS304でユーザ向き検出部21は、上述したように全ユーザの顔の向きからベクトル和の算出を行うことにより、音声出力制御の基準となる一つの向きを求める。
そしてステップS305で、音声出力制御部15は、ユーザ向き検出部21によって求められた一つの向きに基づいて音声出力制御を行う。なお、このようにしてステップS305に至る場合とは、ユーザが複数存在し、全てのユーザがスイートスポットにいる場合である。よって、この場合は、図16Aに示す音声出力制御が行われる。
説明はステップS303に戻る。ステップS303でスイートスポットに全ユーザがいるとは判定されなかった場合、処理はステップS306に進む(ステップS303のNo)。次にステップS306で、ユーザ位置判定部14は、スイートスポットに一人のユーザがいる否かを判定する。スイートスポットに一人のユーザがいないと判定された場合、処理はステップS201に進む(ステップS306のNo)。
そして、ステップS201、ステップS304およびステップS305によって音声出力制御が行われる。このようにしてステップS305に至る場合とは、音場にユーザがいるが、全てのユーザがスイートスポットにいない場合であるので、図16Cに示す音声出力制御が行われる。
一方、ステップS306で、スイートスポットに一人のユーザがいると判定された場合、処理はステップS307に進む(ステップS306のYes)。そして、ステップS307で、スイートスポットにいるユーザの顔の向きを音声出力制御の基準の向きとして決定する。決定された向きは音声出力制御部15に供給される。
そしてステップS305で、ステップS307で決定された向きを基準として音声出力制御が行われる。このようにしてステップS305に至る場合とは、複数のユーザがおり、その内の一人がスイートスポットにいる場合であるので、図16Bに示す音声出力制御が行われる。
以上のようにして、第3の実施の形態における音声出力制御が行われる。この第3の実施の形態によれば、複数のユーザが音場にいる場合であっても、スイートスポットにいるユーザを優先して適切に音声出力制御を行うことができる。なお、第3の実施の形態では、ユーザが二人いる場合を例にして説明を行ったが、ユーザの数は二人に限られない。ユーザが三人以上である場合にも同様にして音声出力制御を行うことができる。
<4.変形例>
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
例えば、第2および第3の実施の形態においては、複数のスピーカのそれぞれに撮像部11としてのカメラを設けたが、カメラを設ける位置はスピーカに限られるものではない。例えば、スピーカを設置した室内の天井のスイートスポットの上部に対応する位置に全方位カメラを設けてもよい。これにより、複数のスピーカのそれぞれにカメラを設けた場合と同様に、ユーザがどの方向を向いてその向きを検出することができる。
また、実施の形態では、特許請求の範囲におけるユーザ検出部として撮像部11を挙げているが、撮像部11以外にも赤外線センサを用いるようにしてもよい。赤外線センサを用いた場合、赤外線センサからの感受データに基づいてユーザの位置および向きを検出する。
また、センタースピーカ125とサブウーファー126を備える5.1サラウンドシステムではなく、本技術を実施するために、センタースピーカ125とサブウーファー126を除いて4つのスピーカで音場を形成してもよい。
また、音場を形成するスピーカの数は4つに限られるものではない。3つ以上であればスピーカの数はいくつであってもよい。
また、本技術は下記の構成をとることもできる。
(1)複数の音声出力部により形成される音場にいるユーザを検出するユーザ検出部と、
該ユーザ検出部により検出されたユーザが前記音場内の所定の範囲に位置しているかを判定するユーザ位置判定部と、
該ユーザ位置判定部の判定結果に基づいて前記音声出力部における音声出力を制御する音声出力制御部と
を備える音声出力制御装置。
該ユーザ検出部により検出されたユーザが前記音場内の所定の範囲に位置しているかを判定するユーザ位置判定部と、
該ユーザ位置判定部の判定結果に基づいて前記音声出力部における音声出力を制御する音声出力制御部と
を備える音声出力制御装置。
(2)前記音声出力制御部は、前記ユーザ位置判定部により前記ユーザが前記所定の範囲に位置していないと判定された場合、少なくとも2つのステレオ再生環境が形成されるように前記音声出力部における音声出力を制御する
前記(1)に記載の音声出力制御装置。
前記(1)に記載の音声出力制御装置。
(3)前記音声出力制御部は、前記ユーザ位置判定部により前記ユーザが前記所定の範囲に位置していると判定された場合、一つのステレオ再生環境が形成されるように前記音声出力部における音声出力を制御する
前記(1)または(2)に記載の音声出力制御装置。
前記(1)または(2)に記載の音声出力制御装置。
(4)前記ユーザ検出部により、複数のユーザが検出された場合、該複数のユーザのそれぞれの顔の向きを検出するユーザ向き検出部をさらに備え、
前記音声出力制御部は、前記ユーザ向き検出部の検出結果に基づいて前記音声出力部における音声出力を制御する
前記(1)に記載の音声出力制御装置。
前記音声出力制御部は、前記ユーザ向き検出部の検出結果に基づいて前記音声出力部における音声出力を制御する
前記(1)に記載の音声出力制御装置。
(5)前記ユーザ向き検出部は、前記ユーザ位置判定部により前記複数のユーザが前記所定の範囲に位置していると判定された場合、前記複数のユーザの顔の向きから一つの向きを検出し、
前記音声出力制御部は、前記一つの向きに基づいて前記音声出力部における音声出力を制御する
前記(4)に記載の音声出力制御装置。
前記音声出力制御部は、前記一つの向きに基づいて前記音声出力部における音声出力を制御する
前記(4)に記載の音声出力制御装置。
(6)前記ユーザ向き検出部は、前記ユーザ位置判定部により前記複数のユーザのうち、一人のユーザが前記所定の範囲に位置していると判定された場合、前記所定の範囲にいる前記ユーザの顔の向きを検出し、
前記音声出力制御部は、前記ユーザの顔の向きに基づいて前記音声出力部における音声出力を制御する
前記(4)または(5)に記載の音声出力制御装置。
前記音声出力制御部は、前記ユーザの顔の向きに基づいて前記音声出力部における音声出力を制御する
前記(4)または(5)に記載の音声出力制御装置。
(7)前記ユーザ向き検出部は、前記ユーザ位置判定部により前記複数のユーザが前記所定の範囲に位置していないと判定された場合、検出した前記複数のユーザの顔の向きから一つの方向を決定し、
前記音声出力制御部は、前記一つの方向に基づいて前記音声出力部における音声出力を制御する
前記(4)から(6)のいずれかに記載の音声出力制御装置。
前記音声出力制御部は、前記一つの方向に基づいて前記音声出力部における音声出力を制御する
前記(4)から(6)のいずれかに記載の音声出力制御装置。
(8)前記音声出力制御部は、前記ユーザ向き検出部により検出された前記向きに基づいて、前記ユーザの左右からLチャンネル音声およびRチャンネル音声がそれぞれ出力されるように前記音声出力部における音声出力を制御する
前記(4)から(7)のいずれかに記載の音声出力制御装置。
前記(4)から(7)のいずれかに記載の音声出力制御装置。
(9)前記音声出力部はスピーカであり、
前記所定の範囲は前記複数の音声出力部によって形成されるスイートスポットである
前記(1)から(8)のいずれかに記載の音声出力制御装置。
前記所定の範囲は前記複数の音声出力部によって形成されるスイートスポットである
前記(1)から(8)のいずれかに記載の音声出力制御装置。
(10)前記音声出力部は、フロントLチャンネルスピーカ、フロントRチャンネルスピーカ、リアLチャンネルスピーカ、リアLチャンネルスピーカからなる
前記(1)から(9)のいずれかに記載の音声出力制御装置。
前記(1)から(9)のいずれかに記載の音声出力制御装置。
(11)複数の音声出力部により形成される音場にいるユーザを検出し、
検出されたユーザが前記音場内の所定の範囲に位置しているかを判定し、
前記ユーザが前記音場内の所定の範囲に位置しているか否かの判定結果に基づいて前記音声出力部における音声出力を制御する
音声出力制御方法。
検出されたユーザが前記音場内の所定の範囲に位置しているかを判定し、
前記ユーザが前記音場内の所定の範囲に位置しているか否かの判定結果に基づいて前記音声出力部における音声出力を制御する
音声出力制御方法。
13・・・ユーザ検出部
14・・・ユーザ位置判定部
15・・・音声出力制御部
10・・・音声出力制御装置。
21・・・ユーザ向き検出部
121・・フロントLchスピーカ
122・・フロントRchスピーカ
123・・リアLchスピーカ
124・・リアRchスピーカ
14・・・ユーザ位置判定部
15・・・音声出力制御部
10・・・音声出力制御装置。
21・・・ユーザ向き検出部
121・・フロントLchスピーカ
122・・フロントRchスピーカ
123・・リアLchスピーカ
124・・リアRchスピーカ
Claims (11)
- 複数の音声出力部により形成される音場にいるユーザを検出するユーザ検出部と、
該ユーザ検出部により検出されたユーザが前記音場内の所定の範囲に位置しているかを判定するユーザ位置判定部と、
該ユーザ位置判定部の判定結果に基づいて前記音声出力部における音声出力を制御する音声出力制御部と
を備える音声出力制御装置。 - 前記音声出力制御部は、前記ユーザ位置判定部により前記ユーザが前記所定の範囲に位置していないと判定された場合、少なくとも2つのステレオ再生環境が形成されるように前記音声出力部における音声出力を制御する
請求項1に記載の音声出力制御装置。 - 前記音声出力制御部は、前記ユーザ位置判定部により前記ユーザが前記所定の範囲に位置していると判定された場合、1つのステレオ再生環境が形成されるように前記音声出力部における音声出力を制御する
請求項1に記載の音声出力制御装置。 - 前記ユーザ検出部により、複数のユーザが検出された場合、該複数のユーザのそれぞれの顔の向きを検出するユーザ向き検出部をさらに備え、
前記音声出力制御部は、前記ユーザ向き検出部の検出結果に基づいて前記音声出力部における音声出力を制御する
請求項1に記載の音声出力制御装置。 - 前記ユーザ向き検出部は、前記ユーザ位置判定部により前記複数のユーザが前記所定の範囲に位置していると判定された場合、前記複数のユーザの顔の向きから1つの向きを検出し、
前記音声出力制御部は、前記1つの向きに基づいて前記音声出力部における音声出力を制御する
請求項4に記載の音声出力制御装置。 - 前記ユーザ向き検出部は、前記ユーザ位置判定部により前記複数のユーザのうち、一人のユーザが前記所定の範囲に位置していると判定された場合、前記所定の範囲にいる前記ユーザの顔の向きを検出し、
前記音声出力制御部は、前記ユーザの顔の向きに基づいて前記音声出力部における音声出力を制御する
請求項4に記載の音声出力制御装置。 - 前記ユーザ向き検出部は、前記ユーザ位置判定部により前記複数のユーザが前記所定の範囲に位置していないと判定された場合、検出した前記複数のユーザの顔の向きから1つの方向を決定し、
前記音声出力制御部は、前記1つの方向に基づいて前記音声出力部における音声出力を制御する
請求項4に記載の音声出力制御装置。 - 前記音声出力制御部は、前記ユーザ向き検出部により検出された前記向きに基づいて、前記ユーザの左右からLチャンネル音声およびRチャンネル音声がそれぞれ出力されるように前記音声出力部における音声出力を制御する
請求項4に記載の音声出力制御装置。 - 前記音声出力部はスピーカであり、
前記所定の範囲は前記複数の音声出力部によって形成されるスイートスポットである
請求項1に記載の音声出力制御装置。 - 前記音声出力部は、フロントLチャンネルスピーカ、フロントRチャンネルスピーカ、リアLチャンネルスピーカ、リアLチャンネルスピーカからなる
請求項1に記載の音声出力制御装置。 - 複数の音声出力部により形成される音場にいるユーザを検出し、
検出されたユーザが前記音場内の所定の範囲に位置しているかを判定し、
前記ユーザが前記音場内の所定の範囲に位置しているか否かの判定結果に基づいて前記音声出力部における音声出力を制御する
音声出力制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011197447A JP2013058991A (ja) | 2011-09-09 | 2011-09-09 | 音声出力制御装置および音声処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011197447A JP2013058991A (ja) | 2011-09-09 | 2011-09-09 | 音声出力制御装置および音声処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013058991A true JP2013058991A (ja) | 2013-03-28 |
Family
ID=48134455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011197447A Withdrawn JP2013058991A (ja) | 2011-09-09 | 2011-09-09 | 音声出力制御装置および音声処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013058991A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015186686A1 (ja) * | 2014-06-02 | 2015-12-10 | ヤマハ株式会社 | 位置特定装置、オーディオ装置、位置特定方法およびプログラム |
KR20190024596A (ko) * | 2017-08-30 | 2019-03-08 | 주식회사 바디프랜드 | 사용자 맞춤 음향을 제공하는 마사지 장치 및 이의 제어 방법 |
-
2011
- 2011-09-09 JP JP2011197447A patent/JP2013058991A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015186686A1 (ja) * | 2014-06-02 | 2015-12-10 | ヤマハ株式会社 | 位置特定装置、オーディオ装置、位置特定方法およびプログラム |
CN106465030A (zh) * | 2014-06-02 | 2017-02-22 | 雅马哈株式会社 | 位置确定设备、音频设备、位置确定方法和程序 |
US9774978B2 (en) | 2014-06-02 | 2017-09-26 | Yamaha Corporation | Position determination apparatus, audio apparatus, position determination method, and program |
KR20190024596A (ko) * | 2017-08-30 | 2019-03-08 | 주식회사 바디프랜드 | 사용자 맞춤 음향을 제공하는 마사지 장치 및 이의 제어 방법 |
WO2019208978A1 (ko) * | 2017-08-30 | 2019-10-31 | 주식회사 바디프랜드 | 사용자 맞춤 음향을 제공하는 마사지 장치 및 이의 제어 방법 |
KR102156969B1 (ko) * | 2017-08-30 | 2020-09-16 | 주식회사 바디프랜드 | 사용자 맞춤 음향을 제공하는 마사지 장치 및 이의 제어 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11061643B2 (en) | Devices with enhanced audio | |
US20130058503A1 (en) | Audio processing apparatus, audio processing method, and audio output apparatus | |
US10264385B2 (en) | System and method for dynamic control of audio playback based on the position of a listener | |
US9036856B2 (en) | Sound reproduction device | |
USRE45251E1 (en) | Audio output adjusting device of home theater system and method thereof | |
JP5067595B2 (ja) | 画像表示装置および方法、並びにプログラム | |
WO2016127573A1 (zh) | 一种调节显示设备的音量的方法及显示设备 | |
US20110157327A1 (en) | 3d audio delivery accompanying 3d display supported by viewer/listener position and orientation tracking | |
US20120230525A1 (en) | Audio device and audio system | |
US20140347565A1 (en) | Media devices configured to interface with information appliances | |
CN103703772A (zh) | 内容播放方法和装置 | |
EP3358863B1 (en) | Audio output system and control method thereof | |
TW201517634A (zh) | 音訊處理裝置以及音訊處理方法 | |
EP2293603B1 (en) | Content reproduction device and content reproduction method | |
US20190050193A1 (en) | Display apparatus and controlling method thereof | |
JP2013058991A (ja) | 音声出力制御装置および音声処理方法 | |
US20170127185A1 (en) | Transmit audio in a target space | |
KR102522567B1 (ko) | 전자 장치 및 그 동작 방법 | |
TW201426529A (zh) | 通訊設備及其播放方法 | |
TWI733219B (zh) | 音頻調整方法以及音頻調整裝置 | |
WO2024011937A1 (zh) | 音频处理方法、系统及电子设备 | |
US20230409159A1 (en) | Display apparatus and control method thereof | |
CN115022716A (zh) | 显示设备、声场调整方法、存储介质和程序产品 | |
JP2013138352A (ja) | テレビジョン装置及びテレビジョン装置の制御方法 | |
KR20050069344A (ko) | 홈시어터 겸용 스피커 시스템을 갖는 티브이 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141202 |