JP7447602B2 - コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム - Google Patents

コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム Download PDF

Info

Publication number
JP7447602B2
JP7447602B2 JP2020054196A JP2020054196A JP7447602B2 JP 7447602 B2 JP7447602 B2 JP 7447602B2 JP 2020054196 A JP2020054196 A JP 2020054196A JP 2020054196 A JP2020054196 A JP 2020054196A JP 7447602 B2 JP7447602 B2 JP 7447602B2
Authority
JP
Japan
Prior art keywords
user
content
display screen
ambient sound
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054196A
Other languages
English (en)
Other versions
JP2021157245A (ja
JP2021157245A5 (ja
Inventor
建 小林
利一 藤井
一夫 野村
達弘 ▲鮭▼川
真史 上村
丁珠 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020054196A priority Critical patent/JP7447602B2/ja
Priority to PCT/JP2020/043489 priority patent/WO2021192410A1/ja
Priority to CN202080093491.2A priority patent/CN114981756A/zh
Publication of JP2021157245A publication Critical patent/JP2021157245A/ja
Publication of JP2021157245A5 publication Critical patent/JP2021157245A5/ja
Priority to US17/946,162 priority patent/US20230012555A1/en
Application granted granted Critical
Publication of JP7447602B2 publication Critical patent/JP7447602B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラムに関する。
音声出力可能な電子書籍やゲームなど、表示画面にコンテンツ内容を表示することに加えて、音声を出力する技術が知られている(例えば、特許文献1参照)。
特開2016-192211号公報
ところが、このような装置を、例えば公共交通機関などの乗車時に利用している場合、車内放送などの周辺音が聞き取りにくい場合などがある。
本発明は、上記に鑑みてなされたものであって、適切に周辺音の確認を可能にすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係るコンテンツ出力制御装置は、周辺音を取得する周辺音取得部と、前記周辺音取得部が取得した周辺音に基づき、ユーザに対して音声を出力する音声出力部が出力する音声に対して周辺音を低減する処理を行う周辺音低減処理部と、前記ユーザの視線方向を検出する視線検出部と、前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断する注視判断部と、前記注視判断部が、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、前記周辺音低減処理部による周辺音を低減した音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする音声出力制御部と、を備える。
本発明に係るコンテンツ出力システムは、上記のコンテンツ出力制御装置と、周辺音を収音する収音部と、音声を出力する音声出力部と、を備える。
本発明に係るコンテンツ出力制御方法は、周辺音を取得するステップと、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、取得した周辺音に基づき周辺音を低減した音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を低減した状態よりは周辺音が聞こえやすい状態とするステップと、を含む。
本発明に係るプログラムは、周辺音を取得するステップと、音声出力装置を利用しているユーザの視線方向を検出するステップと、視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した表示画面を注視しているか否かを判断するステップと、前記ユーザがコンテンツを表示した表示画面を注視していると判断した場合は、取得した周辺音に基づき周辺音を低減した音声を出力し、前記ユーザがコンテンツを表示した表示画面を注視していないと判断した場合は、周辺音を低減した状態よりは周辺音が聞こえやすい状態とするステップと、をコンピュータに実行させる。
本発明によれば、適切に周辺音の確認できるという効果を奏する。
図1は、第一実施形態に係るコンテンツ出力システムを示す概略図である。 図2は、第一実施形態に係るコンテンツ出力システムを示すブロック図である。 図3は、第一実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。 図4は、第一実施形態に係るコンテンツ出力システムにおける処理の流れの他の例を示すフローチャートである。 図5は、第二実施形態に係るコンテンツ出力システムのブロック図である。 図6は、第二実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。 図7は、第三実施形態に係るコンテンツ出力システムのブロック図である。 図8は、第三実施形態に係るコンテンツ出力システムにおける処理の流れの一例を示すフローチャートである。
以下に添付図面を参照して、本発明に係るコンテンツ出力システム1の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
<コンテンツ出力システム>
図1は、第一実施形態に係るコンテンツ出力システム1を示す概略図である。図2は、第一実施形態に係るコンテンツ出力システム1を示すブロック図である。コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と、例えば、電子書籍端末、スマートフォン、タブレット端末、携帯用音楽再生装置、および、携帯用ゲーム機など、映像および音声で構成されるコンテンツの再生や表示等を行う電子機器30とを含む。言い換えると、コンテンツ出力システム1は、音声出力装置としてのヘッドホン10と電子機器30との組み合わせである。コンテンツ出力システム1は、ユーザの視線方向に応じて、ヘッドホン10から音声を出力したり、周辺の音声のノイズをキャンセルしたりする。
<ヘッドホン>
ヘッドホン10は、例えばオーバーヘッド式で、ユーザの頭に装着する。ヘッドホン10は、電子機器30のコンテンツ出力制御装置40から出力される音声データに基づいて、表示画面36に表示したコンテンツに関する音声を出力する。ヘッドホン10は、コンテンツ出力制御装置40から出力される制御信号に基づいて、周辺のノイズをキャンセル可能である。ヘッドホン10は、電子機器30と有線または無線でデータを送受信可能に接続されている。ヘッドホン10は、左音声出力部11と右音声出力部12とコンテンツ入力部31と左マイクロフォン14と右マイクロフォン15とコンテンツ出力制御装置40とを有する。
左音声出力部11は、左耳用の音声出力部である。左音声出力部11は、左耳を覆う筐体を有する。左音声出力部11は、左耳において聞かせる音声を出力する。左音声出力部11は、コンテンツ出力制御装置40から音声データを取得する。左音声出力部11は、音声データの左チャンネルデータを出力する。左音声出力部11は、音声データの左チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
右音声出力部12は、右耳用の音声出力部である。右音声出力部12は、右耳において聞かせる音声を出力する。右音声出力部12は、コンテンツ出力制御装置40から音声データを取得する。右音声出力部12は、音声データの右チャンネルデータを出力する。右音声出力部12は、音声データの右チャンネルデータをD/A変換して得られた電気信号を音に変換して出力する。
左マイクロフォン14は、左音声出力部11の筐体に配置されている。左マイクロフォン14は、周辺音を取得する。周辺音は、例えば第三者の話し声および乗物の騒音などを含む環境音である。左マイクロフォン14は、取得した音声を電子機器30の周辺音取得部52に出力する。
右マイクロフォン15は、右音声出力部12の筐体に配置されている。右マイクロフォン15は、周辺音を検出する。右マイクロフォン15は、取得した音声を電子機器30の周辺音取得部52に出力する。
<電子機器>
電子機器30は、コンテンツ入力部31と、表示部32と、視線センサ33と、コンテンツ出力制御装置40とを有する。
コンテンツ入力部31は、例えば音楽、映像またはゲームなどのコンテンツデータが入力される。コンテンツ入力部31は、例えば図示しない記憶部に記憶されたコンテンツデータが入力されてもよい。コンテンツ入力部31は、外部の記憶装置から、有線または無線でコンテンツデータが入力されてもよい。コンテンツ入力部31に入力されるコンテンツデータは、例えば、音声出力を伴うコンテンツデータであり、動画コンテンツ、ゲームコンテンツ、WEBコンテンツなどである。
コンテンツデータには、コンテンツに関する映像データと音声データとを含む。コンテンツに関する映像データとは、表示画面36に表示するコンテンツの映像データである。コンテンツに関する音声データとは、表示画面36に表示されたコンテンツの映像データに対応して出力する音声の音声データである。コンテンツに関する音声データとは、例えば、電子書籍のテキスト読み上げの音声、WEBページのテキスト読み上げ音声および解説音声などでもよい。
視線センサ33は、電子機器30の表示画面36と同じ方向を向いて配置されている。視線センサ33は、電子機器30の表示画面36と対面している人物の視線を検出するセンサである。視線センサ33は、ユーザが表示画面36を視認している状態では、ユーザの顔と向かい合う位置に配置されている。視線センサ33は、例えば、電子機器30の表示画面36の上部に配置されている。視線センサ33は、撮影した撮影データをコンテンツ出力制御装置40の視線検出部43へ出力する。
視線センサ33は、例えば、赤外LED群で構成された赤外光発光部と、一対の赤外線カメラとを含む。本実施形態では、視線センサ33は、一対の赤外光発光部でユーザの顔方向に赤外光を照射し、赤外線カメラで撮影する。このようにして赤外線カメラで撮影した撮影映像から、後述する視線検出部43が、ユーザの瞳孔と角膜反射の位置とに基づいて、ユーザの視線が表示画面36を向いているか否かを判断する。さらに、ユーザの瞳孔と角膜反射の位置とに基づいて、表示画面36におけるユーザの視線の位置が判断される。視線センサ33は、可視光カメラなど、同様の機能を有する他の構成であってもよい。
表示部32は、コンテンツ入力部31に入力されたコンテンツの映像を表示する。表示部32は、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部32は、表示制御部42から出力された表示データに基づいて、コンテンツの映像を表示する。表示部32は、映像が表示される表示画面36を備える。
ヘッドホン10には、ヘッドホン10がユーザの頭に装着されているか否かを検出するセンサが備えられていてもよい。具体的には、ヘッドホン10には3軸の加速度センサが備えられ、重力加速度が検出されている方向に基づいて、ヘッドホン10がユーザの頭に装着されていると判断する。さらに、例えばヘッドバンドの開き具合またはイヤーパッドへの圧力などを検出する他のセンサを使用してもよい。
<コンテンツ出力制御装置>
コンテンツ出力制御装置40は、ヘッドホン10から音声を出力したり、周辺のノイズをキャンセルしたりする。コンテンツ出力制御装置40は、ユーザの視線方向に応じて、周辺音を低減した音声を出力したり、周辺音を低減した状態よりは周辺音が聞こえやすい状態としたりする。コンテンツ出力制御装置40は、例えば、CPU(Central Processing Unit)または映像処理用プロセッサなどで構成された演算処理装置(制御部)である。コンテンツ出力制御装置40は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。コンテンツ出力制御装置40は、映像取得部41と表示制御部42と視線検出部43と注視判断部44と音声処理部50と内部メモリである記憶部とが含まれる。音声処理部50は、音声取得部51と周辺音取得部52と周辺音低減処理部54と音声出力制御部53とを有する。コンテンツ出力制御装置40は、一または複数の装置で構成されていてもよい。
映像取得部41は、表示部32の表示画面36に出力するためのコンテンツの映像データをコンテンツ入力部31から取得する。
表示制御部42は、映像取得部41が取得したコンテンツの映像データを表示部32の表示画面36に表示させる。
視線検出部43は、視線センサ33が撮影した撮影データに基づいて、ユーザの視線方向を検出する。視線を検出する方法は限定されないが、本実施形態では、角膜反射によって視線を検出する。
注視判断部44は、視線検出部43の検出結果に基づき、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。表示画面36を注視しているとは、ユーザの視線方向に表示画面36が位置した状態、言い換えると、ユーザの視線方向と表示画面36とが交差する状態が、第一所定期間以上継続することをいう。第一所定期間とは、例えば5秒程度である。表示画面36を注視していないとは、ユーザの視線方向が表示画面36と異なる方向に向いている状態、言い換えると、ユーザの視線方向と表示画面36とが交差しない状態が、第二所定期間以上継続することをいう。第二所定期間とは、例えば5秒程度である。
音声取得部51は、左音声出力部11と右音声出力部12とから出力するための音声データをコンテンツ入力部31から取得する。
周辺音取得部52は、左マイクロフォン14と右マイクロフォン15とから、周辺音を取得する。
周辺音低減処理部54は、周辺音取得部52が取得した周辺音に基づき、ユーザに対して音声を出力する左音声出力部11と右音声出力部12とが出力する音声に対して周辺音を低減する処理を行う。周辺音低減処理部54は、周辺音取得部52が取得した周辺音に基づいて、周辺音のノイズキャンセルを行って周辺音を低減する。ノイズキャンセルの方法は、公知の方法を適用可能であり、周辺音の位相を逆にした信号を、音声出力制御部26に出力させる。
音声出力制御部53は、ヘッドホン10から音声データを音として出力する制御を行う。より詳しくは、音声出力制御部53は、音声データの左チャンネルデータをD/A変換して増幅した信号を左音声出力部11から出力させる。音声出力制御部53は、音声データの右チャンネルデータをD/A変換して増幅した信号を右音声出力部12から出力させる。
音声出力制御部53は、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、周辺音低減処理部54による周辺音を低減した音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音低減処理部54による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。
音声出力制御部53は、周辺音低減処理部54による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、周辺音低減処理部54による周辺音低減処理を行わないとしてもよい。この場合、音声出力制御部53は、ノイズキャンセルをOFFにする。これにより、ヘッドホン10を装着しているユーザが、周辺音を聞きやすくなる。
音声出力制御部53は、周辺音低減処理部54による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、周辺音低減処理部54による周辺音低減処理を行なわず、周辺音取得部52が取得した周辺音を左音声出力部11と右音声出力部12とから出力してもよい。これにより、ヘッドホン10を装着しているユーザが、左音声出力部11と右音声出力部12とから周辺音を聞けるようになる。
次に、図3、図4を用いて、ヘッドホン10における情報処理について説明する。図3は、第一実施形態に係るコンテンツ出力システム1における処理の流れの一例を示すフローチャートである。図4は、第一実施形態に係るコンテンツ出力システム1における処理の流れの他の例を示すフローチャートである。例えば、ヘッドホン10の電源がONになった場合、ヘッドホン10がユーザの頭に装着された場合、ヘッドホン10から音声の出力が開始された場合、または、コンテンツ出力制御処理の開始操作がされた場合などに、図3、図4に示すフローチャートの処理が実行される。
まず、図3に示す処理について説明する。コンテンツ出力制御装置40は、音声出力を伴うコンテンツが表示部32に表示されているか否かを判断する(ステップS101)。より詳しくは、コンテンツ入力部31に入力された、音声および映像からなるコンテンツが再生され、コンテンツの映像が表示部32に表示され、コンテンツの音声がヘッドホン10に出力されているか否かを判断する。言い換えると、音声および映像からなるコンテンツが再生されているか否かを判断する。音声出力を伴うコンテンツが表示部32に表示されている状態とは、表示部32にコンテンツの映像が表示され、コンテンツの音声がヘッドホン10に出力されている状態であり、これらの出力は、コンテンツの再生が終了するまで継続される。
音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ステップS102へ進む。音声出力を伴うコンテンツが表示部32に表示されていると判断しない場合(ステップS101でNo)、本処理を終了する。音声出力を伴うコンテンツが表示部32に表示されていると判断する場合(ステップS101でYes)、ユーザが表示画面36を注視しているか否かを判断する(ステップS102)。より詳しくは、注視判断部44によって、視線検出部43の検出結果から、ユーザがコンテンツを表示した電子機器30の表示画面36を注視しているか否かを判断する。注視判断部44によって、ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、ステップS103へ進む。注視判断部44によって、ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、ステップS104へ進む。
ユーザが表示画面36を注視していると判断する場合(ステップS102でYes)、コンテンツ出力制御装置40は、ノイズキャンセルをONにする(ステップS102)。より詳しくは、音声出力制御部53は、周辺音低減処理部54によるノイズキャンセルを行う。なお、音声出力制御部53は、コンテンツの音声を左音声出力部11と右音声出力部12とから出力してもよい。この状態では、左音声出力部11と右音声出力部12とからコンテンツの音声が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
ステップS103の処理は、ステップS101でYesのときにノイズキャンセルが既にONとなっていた場合はノイズキャンセルがONの状態を継続し、ステップS101でYesのときにノイズキャンセルがOFFとなっていた場合はノイズキャンセルをONとする。
ユーザが表示画面36を注視していると判断しない場合(ステップS102でNo)、コンテンツ出力制御装置40は、ノイズキャンセルをOFFにする(ステップS104)。より詳しくは、音声出力制御部53は、周辺音低減処理部54によるノイズキャンセルをOFFにする。なお、音声出力制御部53は、コンテンツの音声を左音声出力部11と右音声出力部12とから出力してもよい。この状態では、周囲の音声が聞こえやすい状態で、左音声出力部11と右音声出力部12とからコンテンツの音声が出力される。コンテンツ出力制御装置40は、ステップS105へ進む。
ステップS104の処理は、ステップS101でYesのときにノイズキャンセルが既にONとなっていた場合はノイズキャンセルをOFFとし、ステップS101でYesのときにノイズキャンセルがOFFとなっていた場合はノイズキャンセルがOFFの状態を継続する。
コンテンツ出力制御装置40は、ヘッドホン10や電子機器30などのコンテンツ出力システム1の利用を終了するか否かを判断する(ステップS105)。例えば、ヘッドホン10や電子機器30の電源がOFFになった場合、ヘッドホン10がユーザの頭から取り外された場合、ヘッドホン10への音声の出力が停止された場合、または、コンテンツ出力制御処理の終了操作がされた場合などに、利用を終了すると判断して(ステップS105でYes)、処理を終了する。コンテンツ出力制御装置40は、上記に該当しない場合、利用を終了すると判断せずに(ステップS105でNo)、ステップS101の処理を再度実行する。
つづいて、図4に示す処理について説明する。図4に示すフローチャートのステップS111、ステップS112、ステップS113、ステップS115は、図3に示すフローチャートのステップS101、ステップS102、ステップS103、ステップS105と同様の処理を行う。
ユーザが表示画面36を注視していると判断しない場合(ステップS112でNo)、コンテンツ出力制御装置40は、ノイズキャンセルをOFFにして、周辺音を出力する(ステップS114)。より詳しくは、音声出力制御部53は、周辺音低減処理部54によるノイズキャンセルをOFFにして、周辺音取得部52が取得した周辺音を左音声出力部11と右音声出力部12とから出力する。なお、音声出力制御部47は、コンテンツの音声を左音声出力部11と右音声出力部12とから出力してもよい。この状態では、周囲の音声が聞こえやすい状態で、左音声出力部11と右音声出力部12とからコンテンツの音声とともに、周辺音が出力される。コンテンツ出力制御装置40は、ステップS115へ進む。
ステップS113の処理は、ステップS111でYesのときにノイズキャンセルが既にONとなっていた場合はノイズキャンセルがONの状態を継続し、ステップS111でYesのときにノイズキャンセルがOFFであり周辺音が出力されている状態となっていた場合はノイズキャンセルをONとして周辺音の出力を停止する。
ステップS114の処理は、ステップS111でYesのときにノイズキャンセルが既にONとなっていた場合はノイズキャンセルをOFFとして周辺音を出力し、ステップS111でYesのときにノイズキャンセルがOFFであり周辺音が出力されている状態となっていた場合はノイズキャンセルがOFFの状態と周辺音の出力とを継続する。
このようにして、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、周辺音を低減し、ヘッドホン10を装着しているユーザが表示画面36を注視していない場合、周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。
<効果>
上述したように、本実施形態は、ヘッドホン10を装着しているユーザが表示画面36を注視している場合、周辺音を低減し、ユーザが表示画面36を注視していない場合、周辺音を低減した状態よりは周辺音が聞こえやすくできる。本実施形態によれば、ユーザが表示画面36を注視することを中断して、ユーザが周辺に注意を向けたと推定される状態となった場合に、周辺音がノイズキャンセルされた状態より、適切に周辺音を確認できる。このようにして、本実施形態によれば、ユーザが周辺音を聞きたいときに、ユーザが操作をしなくても、適切に周辺音を確認できる。
本実施形態では、周辺音を低減した状態よりは周辺音が聞こえやすい状態として、周辺音低減処理部54による周辺音低減処理を行わない、または、周辺音低減処理を行なわず、周辺音取得部52が取得した周辺音を左音声出力部11と右音声出力部12とから出力する。本実施形態によれば、周辺音を聞こえやすくできる。
[第二実施形態]
図5、図6を参照しながら、本実施形態に係るコンテンツ出力システム1Aについて説明する。図5は、第二実施形態に係るコンテンツ出力システム1Aのブロック図である。図6は、第二実施形態に係るコンテンツ出力システム1Aにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Aは、基本的な構成は第一実施形態のコンテンツ出力システム1と同様である。以下の説明においては、コンテンツ出力システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態では、電子機器30Aは、撮影部33Aと、コンテンツ出力制御装置40Aの顔検出部48Aとを有する点と、音声出力制御部53Aにおける処理とが、第一実施形態と異なる。
撮影部33Aは、電子機器30Aの表示画面36と対面している人物を撮影する可視光カメラである。撮影部33Aは、ユーザの顔を撮影する。撮影部33Aは、ユーザが表示画面を視認している状態では、ユーザの顔を撮影可能な位置に配置されている。撮影部33Aは、例えば、電子機器30Aの表示画面36の上部に配置されている。撮影部33Aは、撮影した撮影データをコンテンツ出力制御装置40Aの顔検出部48Aへ出力する。撮影部33Aと視線センサ33とは、同一の可視光カメラであってもよい。
顔検出部48Aは、撮影部33Aが撮影した撮影データからユーザの顔を認識し、認識した顔の向きを検出する。より詳しくは、顔検出部48Aは、顔検出部48Aが検出した顔の向きが、表示画面36に対して対向する向きであるか否かを検出する。例えばユーザがコンテンツが表示された表示画面36を注視している場合には、ユーザの顔の向きは表示画面36に対して対向する向きである。例えばユーザが周辺に注意を向けて周りを見回すような場合には、ユーザの顔の向きは表示画面36に対して対向する向きではない。
表示画面36に対して対向する向きとは、ユーザが表示画面36に表示されたコンテンツの画像などを視認可能な向きのことである。表示画面36に対して対向する向きとは、例えば、上下方向視および左右方向視において、ユーザの両眼の中心を通り、ユーザの前方に延びる直線と、表示画面36とが交差する角度が例えば、90°±30°程度の範囲など、明らかにユーザが表示画面36を見ているとされる向きが定義されればよい。
音声出力制御部53Aは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していると判断したことに加えて、顔検出部48Aが検出した顔の向きが、表示画面36に対して対向する向きである場合に、周辺音低減処理部54による周辺音を低減した音声を出力する。音声出力制御部53Aは、注視判断部44によってユーザがコンテンツを表示した表示画面36を注視していないと判断したことに加えて、顔検出部48Aが検出した顔の向きが、表示画面36に対して対向する向きではない場合に、周辺音低減処理部54による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。ユーザがコンテンツを表示した表示画面36を注視していない場合でも、ユーザの顔の向きが表示画面36に対して対向する場合、ユーザがコンテンツの視聴を継続する意思があると推定される。この場合、周辺音の低減を継続することが好ましい。これに対して、ユーザがコンテンツを表示した表示画面36を注視しておらず、かつ、ユーザの顔の向きが表示画面36に対して対向していない場合、ユーザは周辺に高い注意を払っていると推定される。この場合、周辺音を確認可能にすることが好ましい。
次に、図6を用いて、コンテンツ出力システム1Aにおける情報処理について説明する。図6に示すフローチャートのステップS121、ステップS122、ステップS124ないしステップS126は、図3に示すフローチャートのステップS101、ステップS102、ステップS103ないしステップS105と同様の処理を行う。
コンテンツ出力制御装置40Aは、ユーザの顔は対向しているか否かを判断する(ステップS123)。より詳しくは、顔検出部48Aが検出した顔の向きが、表示画面36に対して対向する向きである場合(ステップS123でYes)、ステップS124へ進む。顔検出部48Aが検出した顔の向きが、表示画面36に対して対向する向きではない場合(ステップS123でNo)、ステップS125へ進む。
<効果>
上述したように、本実施形態は、ユーザが表示画面36を注視して、かつ、ユーザの顔の向きが表示画面36に対して対向する場合、周辺音を低減して、ユーザが表示画面36を注視していないで、かつ、ユーザの顔の向きが表示画面36に対して対向する向きではない場合、周辺音を低減した状態よりは周辺音が聞こえやすくできる。本実施形態によれば、ユーザが顔の向きを表示画面36に対向しない向きにして、ユーザが周辺に注意を向けたと状態されるときに、適切に周辺音を確認できる。
[第三実施形態]
図7、図8を参照しながら、本実施形態に係るコンテンツ出力システム1Bについて説明する。図7は、第三実施形態に係るコンテンツ出力システム1Bのブロック図である。図8は、第三実施形態に係るコンテンツ出力システム1Bにおける処理の流れの一例を示すフローチャートである。コンテンツ出力システム1Bは、基本的な構成は図5に示す第二実施形態のコンテンツ出力システム1Aと同様である。本実施形態では、電子機器30Bは、GNSS(Global Navigation Satellite System)受信部34Bとコンテンツ出力制御装置40Bの位置情報算出部49Bと判断部50Bとを有する点と音声出力制御部53Bにおける処理とが、第一実施形態と異なる。
GNSS受信部34Bは、GNSS衛星からのGNSS信号を受信するGNSS受信機などで構成される。GNSS受信部34Bは、受信したGNSS信号を位置情報算出部49Bに出力する。
位置情報算出部49Bは、GNSS受信部34BからGNSS信号を受け付ける。位置情報算出部49Bは、GNSS信号に基づいて、現在位置情報を算出する。位置情報算出部49BおよびGNSS受信部34Bは、GNSS信号に限らず、他の方式の測位衛星システムに対応していてもよい。
判断部50Bは、ユーザが交通機関を利用しているか否かを判断する。例えば、判断部50Bは、位置情報算出部49Bが算出した位置情報に基づいて、ヘッドホン10を装着したユーザの現在位置が、図示しない地図情報の交通機関の位置情報に該当する場合や、移動履歴や移動速度に基づいて、交通機関を利用していると判断してもよい。判断部50Bは、交通機関を利用しているかを判断する方法は限定されず、例えば、ヘッドホン10の周辺のノイズまたは振動を利用するような他の方法によって判断されてもよい。
音声出力制御部53Bは、ユーザが交通機関を利用している場合に、ユーザがコンテンツを表示した表示画面36を注視していると判断した場合は、周辺音低減処理部54による周辺音を低減した音声を出力し、ユーザがコンテンツを表示した表示画面36を注視していないと判断した場合は、周辺音低減処理部54による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする。
次に、図8を用いて、コンテンツ出力システム1Bにおける情報処理について説明する。図8に示すフローチャートのステップS132ないしステップS136、は、図3に示すフローチャートのステップS101ないしステップS104と同様の処理を行う。
コンテンツ出力制御装置40Bは、交通機関を利用しているか否かを判断する(ステップS131)。より詳しくは、判断部50Bによって、位置情報算出部49Bが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報に該当する場合などの判断結果に基づき、交通機関を利用していると判断する。判断部50Bによって、交通機関を利用していると判断する場合(ステップS131でYes)、ステップS132へ進む。判断部50Bによって、交通機関を利用していると判断しない場合(ステップS131でNo)、処理を終了する。
ステップS136における利用終了の判断は、ヘッドホン10または電子機器30Bの利用終了の判断に加えて、コンテンツ出力制御装置40Bは、交通機関の利用を終了するか否かも判断する(ステップS136)。より詳しくは、判断部50Bによって、位置情報算出部49Bが算出した位置情報に基づいて、ユーザの現在位置が、地図情報の交通機関の位置情報から外れる場合など、交通機関の利用が終了していることの検出によって、交通機関の利用を終了すると判断する。判断部50Bによって、交通機関の利用を終了すると判断する場合(ステップS136でYes)、処理を終了する。判断部50Bによって、交通機関の利用を終了すると判断しない場合(ステップS136でNo)、ステップS132へ進む。
<効果>
上述したように、本実施形態は、ヘッドホン10を装着したユーザが交通機関を利用している場合であって、ユーザが表示画面36を注視している場合には、周辺音を低減し、ユーザが表示画面36を注視していない場合には、周辺音を低減した状態よりは周辺音が聞こえやすくできる。本実施形態によれば、ヘッドホン10を装着したユーザが交通機関の利用中に、アナウンスなどを聞くために顔の向きを表示画面36と対向する向きから変えた場合などに、アナウンスなどの周辺音を聞きやすくできる。本実施形態によれば、不用意にノイズキャンセルがOFFされることを抑制できる。
図示したコンテンツ出力システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
コンテンツ出力システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
上記では、音声出力装置の一例としてヘッドホン10について説明したが、これに限定されない。音声出力装置は、例えば、イヤホンおよび首掛け式のスピーカなどであってもよい。
1 コンテンツ出力システム
10 ヘッドホン(音声出力装置)
11 左音声出力部
12 右音声出力部
14 左マイクロフォン
15 右マイクロフォン
30 電子機器
31 コンテンツ入力部
33 視線センサ
40 コンテンツ出力制御装置
43 視線検出部
44 注視判断部
50 音声処理部
51 音声取得部
52 周辺音取得部
54 周辺音低減処理部
53 音声出力制御部

Claims (8)

  1. 表示画面と同じ方向を向いて配置されている視線センサによってユーザの視線方向を検出する視線検出部と、
    前記ユーザが装着しているヘッドホンに備えられたマイクロフォンから周辺音を取得する周辺音取得部と、
    前記視線検出部の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断する注視判断部と、
    前記ユーザが交通機関を利用していることを判断する判断部と、
    前記ユーザが交通機関を利用している場合に、前記注視判断部が、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断された場合より、周辺音が聞こえやすい状態とする音声出力制御部と、
    を備える、コンテンツ出力制御装置。
  2. 前記周辺音取得部が取得した周辺音に基づき、前記ユーザに対して音声を出力する音声出力部が出力する音声に対して周辺音を低減する処理を行う周辺音低減処理部、をさらに備え、
    前記音声出力制御部は、前記注視判断部が、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断した場合は、前記周辺音低減処理部による周辺音を低減した音声を出力し、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態とする、
    請求項1に記載のコンテンツ出力制御装置。
  3. 前記音声出力制御部は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、前記周辺音低減処理部による周辺音低減処理を行わない、
    請求項2に記載のコンテンツ出力制御装置。
  4. 前記音声出力制御部は、前記周辺音低減処理部による周辺音を低減した状態よりは周辺音が聞こえやすい状態として、前記周辺音低減処理部による周辺音低減処理を行なわず、前記周辺音取得部が取得した周辺音を出力する、
    請求項2に記載のコンテンツ出力制御装置。
  5. 前記ユーザの顔を認識し、認識した顔の向きを検出する顔検出部、をさらに備え、
    前記音声出力制御部は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きである場合より、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断したことに加えて、前記顔検出部が検出した顔の向きが、前記表示画面に対して対向する向きではない場合は、周辺音が聞こえやすい状態とする、
    請求項1から4のいずれか一項に記載のコンテンツ出力制御装置。
  6. 請求項1から5のいずれか一項に記載のコンテンツ出力制御装置と、
    周辺音を収音する収音部と、
    音声を出力する音声出力部と、
    を備える、コンテンツ出力システム。
  7. 表示画面と同じ方向を向いて配置されている視線センサによって、ヘッドホンを利用しているユーザの視線方向を検出するステップと、
    前記ユーザが装着している前記ヘッドホンに備えられたマイクロフォンから周辺音を取得するステップと、
    視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
    前記ユーザが交通機関を利用していることを判断するステップと、
    前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断された場合より、周辺音が聞こえやすい状態とするステップと、
    を含む、コンテンツ出力制御装置が実行するコンテンツ出力制御方法。
  8. 表示画面と同じ方向を向いて配置されている視線センサによって、ヘッドホンを利用しているユーザの視線方向を検出するステップと、
    前記ユーザが装着している前記ヘッドホンに備えられたマイクロフォンから周辺音を取得するステップと、
    視線方向の検出結果に基づき、前記ユーザがコンテンツを表示した前記表示画面を注視しているか否かを判断するステップと、
    前記ユーザが交通機関を利用していることを判断するステップと、
    前記ユーザが交通機関を利用している場合に、前記ユーザがコンテンツを表示した前記表示画面を注視していないと判断した場合は、前記ユーザがコンテンツを表示した前記表示画面を注視していると判断された場合より、周辺音が聞こえやすい状態とするステップと、
    を含む、コンピュータが実行するプログラム。
JP2020054196A 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム Active JP7447602B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020054196A JP7447602B2 (ja) 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
PCT/JP2020/043489 WO2021192410A1 (ja) 2020-03-25 2020-11-20 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
CN202080093491.2A CN114981756A (zh) 2020-03-25 2020-11-20 声音输出控制装置、声音输出系统、声音输出控制方法以及程序
US17/946,162 US20230012555A1 (en) 2020-03-25 2022-09-16 Sound output control device, sound output system, sound output control method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054196A JP7447602B2 (ja) 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2021157245A JP2021157245A (ja) 2021-10-07
JP2021157245A5 JP2021157245A5 (ja) 2022-09-13
JP7447602B2 true JP7447602B2 (ja) 2024-03-12

Family

ID=77917796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054196A Active JP7447602B2 (ja) 2020-03-25 2020-03-25 コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7447602B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023048014A (ja) 2021-09-27 2023-04-06 株式会社Jvcケンウッド 表示装置、表示装置の制御方法およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001018717A (ja) 1999-07-06 2001-01-23 Matsushita Electric Ind Co Ltd 運転車両周辺監視装置
JP2011203654A (ja) 2010-03-26 2011-10-13 Sony Corp 音声再生装置、音声再生方法およびプログラム
WO2012102130A1 (ja) 2011-01-27 2012-08-02 株式会社ニコン 撮像装置、プログラム、記録媒体およびノイズ低減方法
WO2012165657A1 (ja) 2011-06-03 2012-12-06 日本電気株式会社 音声処理システム、音声処理装置、音声処理方法およびそのプログラム
JP2014033373A (ja) 2012-08-03 2014-02-20 Ricoh Co Ltd 制御装置、プログラムおよび制御システム
WO2017056604A1 (ja) 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置及び情報処理方法並びにプログラム
WO2018061491A1 (ja) 2016-09-27 2018-04-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020031767A1 (ja) 2018-08-09 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020045328A1 (ja) 2018-08-27 2020-03-05 日本精機株式会社 表示装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001018717A (ja) 1999-07-06 2001-01-23 Matsushita Electric Ind Co Ltd 運転車両周辺監視装置
JP2011203654A (ja) 2010-03-26 2011-10-13 Sony Corp 音声再生装置、音声再生方法およびプログラム
WO2012102130A1 (ja) 2011-01-27 2012-08-02 株式会社ニコン 撮像装置、プログラム、記録媒体およびノイズ低減方法
WO2012165657A1 (ja) 2011-06-03 2012-12-06 日本電気株式会社 音声処理システム、音声処理装置、音声処理方法およびそのプログラム
JP2014033373A (ja) 2012-08-03 2014-02-20 Ricoh Co Ltd 制御装置、プログラムおよび制御システム
WO2017056604A1 (ja) 2015-09-29 2017-04-06 ソニー株式会社 情報処理装置及び情報処理方法並びにプログラム
WO2018061491A1 (ja) 2016-09-27 2018-04-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020031767A1 (ja) 2018-08-09 2020-02-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020045328A1 (ja) 2018-08-27 2020-03-05 日本精機株式会社 表示装置

Also Published As

Publication number Publication date
JP2021157245A (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US10219571B1 (en) In helmet sensors providing blind spot awareness
US9247779B1 (en) Enhanced global positioning system (GPS) based functionality for helmets
JP6743691B2 (ja) 表示制御装置、表示制御方法およびコンピュータプログラム
CN108028957B (zh) 信息处理装置、信息处理方法和机器可读介质
US20180270571A1 (en) Techniques for amplifying sound based on directions of interest
JP6409318B2 (ja) 情報呈示装置及び情報呈示方法
CN108961681B (zh) 疲劳驾驶提醒方法、装置及存储介质
JP6284331B2 (ja) 会話支援装置、会話支援方法及び会話支援プログラム
KR20150134666A (ko) 글래스 타입 단말기 및 이의 제어방법
US20220066207A1 (en) Method and head-mounted unit for assisting a user
CN110708630B (zh) 控制耳机的方法、装置、设备及存储介质
JP2018060403A (ja) 音出力装置及び携帯装置
JP7447602B2 (ja) コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
CN108848405B (zh) 图像处理方法和装置
EP3495942A1 (en) Head-mounted display and control method thereof
KR20230040347A (ko) 개별화된 사운드 프로파일들을 사용하는 오디오 시스템
JP7424156B2 (ja) コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
US11037519B2 (en) Display device having display based on detection value, program, and method of controlling device
FR3047628A1 (fr) Procede d'aide au suivi d'une conversation pour personne malentendante
WO2021192410A1 (ja) 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7443877B2 (ja) 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP2017183857A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JPH10138791A (ja) 携帯電話使用時の危険状態警報装置
JP2021157245A5 (ja)
KR20050112932A (ko) 이동통신 단말기를 이용한 이동체 사고 정보 제공 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150