JP2022014313A - 音声出力制御装置および音声出力制御プログラム - Google Patents

音声出力制御装置および音声出力制御プログラム Download PDF

Info

Publication number
JP2022014313A
JP2022014313A JP2020116585A JP2020116585A JP2022014313A JP 2022014313 A JP2022014313 A JP 2022014313A JP 2020116585 A JP2020116585 A JP 2020116585A JP 2020116585 A JP2020116585 A JP 2020116585A JP 2022014313 A JP2022014313 A JP 2022014313A
Authority
JP
Japan
Prior art keywords
voice
passenger
related information
output control
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020116585A
Other languages
English (en)
Other versions
JP7407665B2 (ja
Inventor
博仁 真瀬
Hirohito Mase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020116585A priority Critical patent/JP7407665B2/ja
Publication of JP2022014313A publication Critical patent/JP2022014313A/ja
Application granted granted Critical
Publication of JP7407665B2 publication Critical patent/JP7407665B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】座席毎に対応するスピーカが設定されている車両内において、搭乗者の状況を考慮し、音声出力が必要と推定される搭乗者に対して音声が出力されるよう、音声出力の制御を行うことができる音声出力制御装置を提供する。【解決手段】車両内を撮像した撮像画像を取得する撮像画像取得部と、撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部と、スピーカから出力するための音声に関する音声関連情報を取得する音声関連情報取得部と、搭乗者状況情報と、音声関連情報とに基づいて、音声を出力する対象となる対象搭乗者および当該対象搭乗者の着座位置を判定する判定部と、対象搭乗者の着座位置に対応する対象スピーカから、音声を出力させる出力制御部とを備えた。【選択図】図1

Description

本開示は、音声出力制御装置および音声出力制御プログラムに関する。
従来、車両内に複数のスピーカが設置されている場合に、当該複数のスピーカに対する音声の出力制御を行う技術が知られている。
例えば、特許文献1には、運転者が後部座席の搭乗者に話しかける会話動作があると判定されたときは運転者の音声データが後部座席へ出力されるよう制御し、当該会話動作がないと判定されたときは運転者の音声データが後部座席へ出力されないように制御する会話支援装置が開示されている。
特開2015-71320号公報
複数のスピーカが設置されている車両内において複数の搭乗者が存在する場合、当該複数のスピーカから出力される音声は、ある搭乗者にとっては必要な音声であっても、他の搭乗者には必要な音声ではない場合があるという課題があった。当該音声が必要ではない搭乗者にとって、当該音声は耳障りとなる。
特許文献1に開示されているような車載装置の技術は、後部座席の搭乗者への会話動作があったか否かを判定しているが、後部座席のどの搭乗者への会話動作であったかは考慮されておらず、依然として上記課題を解決しない。
本開示は、上記のような課題を解決するためになされたもので、座席毎に対応するスピーカが設定されている車両内において、搭乗者の状況を考慮し、音声出力が必要と推定される搭乗者に対して音声が出力されるよう、音声出力の制御を行うことができる音声出力制御装置を提供することを目的とする。
本開示に係る音声出力制御装置は、座席毎に対応するスピーカが設置されている車両内において音声出力を制御する音声出力制御装置であって、車両内を撮像した撮像画像を取得する撮像画像取得部と、撮像画像取得部が取得した撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部と、スピーカから出力するための音声に関する音声関連情報を取得する音声関連情報取得部と、搭乗者状況検出部が検出した搭乗者の状況に関する搭乗者状況情報と、音声関連情報取得部が取得した音声関連情報とに基づいて、音声を出力する対象となる対象搭乗者および当該対象搭乗者の着座位置を判定する判定部と、スピーカのうち、判定部が判定した対象搭乗者の着座位置に対応する対象スピーカから、音声を出力させる出力制御部を備えたものである。
本開示によれば、座席毎に対応するスピーカが設定されている車両内において、搭乗者の状況を考慮し、音声出力が必要と推定される搭乗者に対して音声が出力されるよう、音声出力の制御を行うことができる。
実施の形態1に係る音声出力制御装置の構成例を示す図である。 実施の形態1に係る音声出力制御装置を搭載した車両内のイメージの一例を説明するための図である。 実施の形態1に係る音声出力制御装置の動作を説明するためのフローチャートである。 図4A,図4Bは、実施の形態1に係る音声出力制御装置のハードウェア構成の一例を示す図である。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る音声出力制御装置1の構成例を示す図である。
音声出力制御装置1は、車両100に搭載され、カメラ2、AV機器3、マイク4、および、スピーカ5と接続される。
カメラ2は、車両100に設置され、少なくとも、車両100内の各座席を含む領域を撮像する。なお、カメラ2は、いわゆる「ドライバーモニタリングシステム(Driver Monitoring System,DMS)」と共用のものであってもよい。
図1では、便宜上、カメラ2は1つのみ図示しているが、これは一例に過ぎない。カメラ2は、車両100内に複数設置されるようになっていてもよい。例えば、カメラ2は、座席毎に1台設置されるようになっていてもよい。
カメラ2は、車両100内を撮像した撮像画像を、音声出力制御装置1に出力する。
AV(Audio/Visual)機器3は、車両100に設置されている車載AV装置である。AV機器3は、例えば、カーナビゲーション装置、車載用テレビ、または、車載用ラジオである。AV機器3は、音声にて操作が可能な音声制御機器も含む。図1では、便宜上、AV機器3は1つのみ図示しているが、これは一例に過ぎない。AV機器3は、車両100内に複数設置されるようになっていてもよい。
AV機器3は、例えば、搭乗者から操作を受け付け、受け付けた操作に基づき動作する。AV機器3は、受け付けた操作が音声出力を伴う操作である場合、スピーカ5から出力するための音声に関する情報(以下「音声関連情報」という。)を出力する。
AV機器3が出力した音声関連情報に基づく音声は、音声出力制御装置1の制御に基づき、スピーカ5から出力される。音声関連情報に基づく音声は、具体的には、例えば、テレビもしくはラジオのAV出力、応答メッセージ、道案内音声、または、インフォメーション音声である。実施の形態1において、インフォメーション音声とは、車両100の搭乗者全員にあてた案内音声である。
なお、音声出力制御装置1が、AV機器3から出力された音声関連情報に基づく音声を出力しないと判定した場合には、例えば、当該音声は、スピーカ5から出力しないよう制御される。
AV機器3が出力する音声関連情報には、例えば、音声データと、当該音声データを出力したAV機器3に関する情報(以下「音声出力機器情報」という。)が含まれる。音声出力機器情報は、AV機器3を特定可能な情報であればよい。また、音声出力機器情報には、例えば、音声の種別に関する情報が含まれていてもよい。実施の形態1において、音声の種別とは、例えば、AV出力、応答メッセージ、道案内、または、インフォメーション等、音声がどのような目的で出力されるかの種別をいう。当該種別は、予め設定されている。
マイク4は、車両100に設置され、例えば、車両100内において搭乗者が発した音声を収集する。車両100内において搭乗者が発する音声は、ある搭乗者による、他の搭乗者への発話、または、音声制御機器に対する操作指示等である。図1では、便宜上、マイク4は1つのみ図示しているが、これは一例に過ぎない。マイク4は、車両100内に複数設置されるようになっていてもよい。例えば、マイク4は、座席毎に1つ設置されるようになっていてもよい。マイク4が複数設置される場合、どのマイク4が、どの座席からの音声を収集するかは、予め決められている。
マイク4は、収集した音声に関する音声関連情報を、音声出力制御装置1に出力する。マイク4が出力する音声は、音声出力制御装置1の制御に基づき、スピーカ5から出力される。なお、音声出力制御装置1が、マイク4が収集した音声を出力しないと判定した場合には、当該音声は、例えば、スピーカ5から出力しないよう制御される。
マイク4が出力する音声関連情報には、音声データが含まれる。
スピーカ5は、指向性スピーカ51と減衰用スピーカ52とを含む。指向性スピーカ51と減衰用スピーカ52とは、それぞれ、車両100内の各座席と対応付けて設置される。指向性スピーカ51によって、各座席に別々の音声が出力可能となっている。指向性スピーカ51は、音声出力制御装置1の制御に基づいて、音声を出力する。減衰用スピーカ52は、音声出力制御装置1の制御に基づいて、他のスピーカ5から出力される音声を減衰させるための逆位相の音声を出力する。なお、音声出力制御装置1は、指向性スピーカ51と減衰用スピーカ52の切替を行う。
ここで、図2は、実施の形態1に係る音声出力制御装置1を搭載した車両100内のイメージの一例を説明するための図である。なお、図2において、音声出力制御装置1の図示は省略している。音声出力制御装置1は、例えば、ダッシュボード等に設置される。
図2では、上方からみた車両100内のイメージの一例を示している。
図2では、例えば、AV機器3は、車両100のダッシュボードに1つ設置されるものとしている。また、例えば、カメラ2は、各座席に、座席の前方から各座席を含む領域を撮像するよう設置されるものとしている。また、例えば、マイク4は、各座席に、座席毎の音声を収集するよう設置されるものとしている。また、例えば、指向性スピーカ51は、各座席を取り囲むように、座席と対応付けて、座席毎に4つ設置されるものとしている。また、例えば、減衰用スピーカ52は、各座席に2つずつ設置されるものとしている。
音声出力制御装置1の構成例について説明する。
音声出力制御装置1は、撮像画像取得部11、搭乗者状況検出部12、音声関連情報取得部13、音声解析部14、判定部15、および、出力制御部16を備える。音声関連情報取得部13は、機器関連情報取得部131および集音情報取得部132を備える。出力制御部16は、減衰データ生成部161および減衰データ出力部162を備える。
撮像画像取得部11は、カメラ2から、車両100内を撮像した撮像画像を取得する。
撮像画像取得部11は、取得した撮像画像を、搭乗者状況検出部12に出力する。
搭乗者状況検出部12は、撮像画像取得部11が取得した撮像画像に基づいて、搭乗者の状況を検出する。
実施の形態1において、搭乗者の状況とは、例えば、搭乗者の着座位置、搭乗者の名前、搭乗者が発話しているか否か、搭乗者がAV機器3の操作を行っているか否か、搭乗者が睡眠状態であるか否か、または、搭乗者の視線の向きをいう。
具体的には、例えば、搭乗者状況検出部12は、撮像画像に対して、既知の画像解析処理を行って、搭乗者の状況を検出する。また、搭乗者状況検出部12は、必要に応じて、記憶部17に記憶されている、搭乗者に関する情報(以下「ユーザ情報」という。)、または、AV機器3に関する情報(以下「機器情報」という。)を参照して、搭乗者の状況を検出する。ユーザ情報には、例えば、搭乗者の名前または顔写真等、当該搭乗者を特定可能な情報が含まれる。機器情報には、例えば、AV機器3を特定可能な情報と、AV機器3の設置位置に関する情報が含まれる。
搭乗者状況検出部12が搭乗者の状況を検出する方法について、具体例を挙げて具体的に説明する。
例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、車両100内に存在する搭乗者の顔を検出するとともに、各搭乗者の着座位置を検出する。なお、カメラ2の設置位置および画角は予めわかっているので、搭乗者状況検出部12は、搭乗者の顔を検出すると、当該搭乗者がどの座席に着座しているか特定できる。例えば、搭乗者状況検出部12は、記憶部17に記憶されているユーザ情報と突き合わせることで、当該搭乗者の名前も特定することができる。
また、例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、搭乗者が睡眠状態であることを検出する。搭乗者状況検出部12は、例えば、搭乗者が目を閉じた状態が予め設定された時間継続すれば、当該搭乗者が睡眠状態であると検出する。
また、例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、搭乗者がAV機器3の表示部の操作を行っている状態であること、または、搭乗者がリモコン操作を行っている状態であること等、搭乗者によるAV機器3等の操作状況を検出する。
また、例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、搭乗者の視線方向を検出する。その際、搭乗者状況検出部12は、例えば、カメラ2の設置位置と、カメラ2の画角と、検出した搭乗者の視線方向と、記憶部17に記憶されている機器情報とから、搭乗者の視線の先に設置されているAV機器3を特定することができる。また、例えば、搭乗者状況検出部12は、車両100に搭載されている、図示しないGPS(Global Positioning System)から取得した車両100の現在位置、図示しない地図データベースから取得した地図情報、カメラ2の設置位置、および、カメラ2の画角に基づいて、搭乗者が視線を向けている先の車両100外の地点の位置情報を算出することもできる。
また、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、搭乗者が発話状態であることを検出する。搭乗者状況検出部12は、例えば、搭乗者が口を開けている状態であれば、当該搭乗者は発話状態であると検出する。例えば、搭乗者状況検出部12は、搭乗者が発話状態であることを検出した場合、搭乗者による発話が、音声制御機器を音声操作するための発話であるのか、他の搭乗者等、音声制御機器以外の人への発話であるのかを、判定することもできる。例えば、搭乗者状況検出部12は、搭乗者の視線方向が音声制御機器を向いている、または、搭乗者の視線方向が音声制御機器への操作指示を入力するためのマイク4を向いている場合、搭乗者による発話は、音声制御機器を操作するための発話であると判定する。また、搭乗者状況検出部12は、搭乗者の口の動きによって、搭乗者による発話は、音声制御機器を操作するための発話であると判定してもよい。搭乗者状況検出部12は、搭乗者の口の動きが、予め設定されている、音声制御機器を操作するための発話を行った場合の口の動きであれば、搭乗者が音声制御機器を操作するための会話を行ったと判定する。
なお、上述した例は一例に過ぎない。搭乗者状況検出部12は、搭乗者の状況として、上述したような状況以外の状況を検出するようになっていてもよいし、上述したような状況のうちのいくつかの状況を検出するようになっていてもよい。ただし、搭乗者状況検出部12は、搭乗者の状況として、少なくとも、搭乗者の着座位置を検出するものとする。
搭乗者状況検出部12は、検出した搭乗者の状況に関する情報(以下「搭乗者状況情報」という。)を、判定部15に出力する。搭乗者状況情報は、搭乗者毎に、当該搭乗者の状況として少なくとも着座位置が対応づけられた情報である。
音声関連情報取得部13は、AV機器3もしくはマイク4、または、AV機器3およびマイク4の両方から、音声関連情報を取得する。
具体的には、音声関連情報取得部13の機器関連情報取得部131は、AV機器3から、音声関連情報を取得する。
機器関連情報取得部131がAV機器3から取得する音声関連情報には、例えば、AV機器3を特定可能な情報と、音声データが含まれている。音声関連情報において、AV機器3を特定可能な情報と音声データとは関連付けられている。
具体例を挙げると、例えば、AV機器3が搭乗者に対してアラートを出力しようとした場合、機器関連情報取得部131は、AV機器3からアラートを出力するための音声データと、当該アラートを出力したAV機器3を特定可能な情報とを音声関連情報として取得する。
また、例えば、AV機器3がカーナビゲーション装置であり、当該カーナビゲーション装置が搭乗者からのタッチパネル操作を受け付けたとすると、機器関連情報取得部131は、カーナビゲーション装置から、「はい」等、当該タッチパネル操作に応答する応答メッセージを示す音声データと、当該音声データを出力したカーナビゲーション装置を特定可能な情報とを、音声関連情報として取得する。
また、例えば、AV機器3が車載用テレビであり、当該車載用テレビが、搭乗者からのリモコン操作を受け付けてON状態となったとすると、機器関連情報取得部131は、当該車載用テレビから、テレビ放送のAV音声データと、当該AV音声データを出力している車載用テレビを特定可能な情報とを、音声関連情報として取得する。
また、機器関連情報取得部131がAV機器3から取得する音声関連情報には、例えば、音声データの種別に関する情報が含まれてもよい。具体例を挙げると、例えば、カーナビゲーション装置が道案内を行っているとすると、機器関連情報取得部131は、当該カーナビゲーション装置から、「次の信号を右折してください」等、道案内のための音声データと、当該音声データの種別が「道案内」を示す種別である旨の情報とを、音声関連情報として取得する。
また、機器関連情報取得部131がAV機器3から取得する音声関連情報には、例えば、音声データが含まれ、当該音声データは、地点を案内するための音声データであってもよい。具体例を挙げると、例えば、カーナビゲーション装置が車両100の周辺の場所の案内を行っているとすると、機器関連情報取得部131は、当該カーナビゲーション装置から、「右手に見える△△国立公園は紅葉で有名です」等、地点を案内する音声データを、音声関連情報として取得する。機器関連情報取得部131は、当該カーナビゲーション装置から、案内する地点の位置情報を、当該地点を案内する音声データとともに、音声関連情報として取得してもよい。
音声関連情報取得部13の集音情報取得部132は、マイク4から音声関連情報を取得する。
集音情報取得部132が取得する音声関連情報には、例えば、搭乗者による、他の搭乗者への発話音声が含まれる。具体例を挙げると、例えば、集音情報取得部132は、マイク4から、「〇〇さん、・・・」または「みなさん、・・・」等の発話音声データを、音声関連情報として取得する。
また、集音情報取得部132が取得する音声関連情報には、例えば、搭乗者による、音声制御機器を音声操作するための発話音声データが含まれていてもよい。具体例を挙げると、例えば、集音情報取得部132は、マイク4から、「ボリュームを上げて」等の発話音声データを、音声関連情報として取得する。
音声関連情報取得部13は、取得した音声関連情報を、音声解析部14または判定部15に出力する。具体的には、機器関連情報取得部131は、取得した音声関連情報を、判定部15に出力する。集音情報取得部132は、取得した音声関連情報を、音声解析部14に出力する。
音声解析部14は、集音情報取得部132が取得した音声関連情報に基づき、集音情報取得部132が取得した発話音声データの発話内容を解析する。音声解析部14は、音声認識辞書を用いる等、既存の音声認識技術を用いて、発話内容を解析するようにすればよい。
音声解析部14は、発話内容の解析結果を付与した音声関連情報を、判定部15に出力する。
判定部15は、搭乗者状況検出部12から出力された搭乗者状況情報と、音声関連情報取得部13が取得した音声関連情報とに基づいて、車両100の搭乗者のうち、音声関連情報取得部13が取得した音声を出力する対象となる搭乗者(以下「対象搭乗者」という。)、および、当該対象搭乗者の着座位置を判定する。そして、判定部15は、判定した対象搭乗者に関する情報(以下「対象搭乗者情報」という。)を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者に対して出力すべき音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力するようにする。
具体的には、例えば、判定部15は、音声関連情報取得部13の機器関連情報取得部131がAV機器3から取得した音声関連情報、または、音声関連情報取得部13の集音情報取得部132がマイク4から取得し、音声解析部14が発話内容の解析を行った後の音声関連情報と、搭乗者状況検出部12から出力された搭乗者状況情報とに基づいて、対象搭乗者を判定する。以下に、いくつか具体例を挙げて、判定部15による、音声関連情報と搭乗者に基づく対象搭乗者の判定方法を説明する。
(1)音声関連情報を出力したAV機器3を操作している搭乗者を対象搭乗者と判定する例
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声関連情報を出力したAV機器3を操作している搭乗者を、対象搭乗者と判定する。この場合、音声関連情報には、音声データと、当該音声データを出力したAV機器3に関する情報が含まれている。また、搭乗者状況情報には、搭乗者によるAV機器3の操作状況が含まれている。具体例を挙げると、例えば、AV機器3が車載用テレビであったとし、ある搭乗者がリモコン操作によって車載用テレビを操作したとする。この場合、判定部15は、ある搭乗者がリモコン操作を行った旨の搭乗者状況情報を取得する。また、判定部15は、車載用テレビから、リモコン操作が行われたことを示す情報を含む音声関連情報を取得する。判定部15は、音声関連情報と搭乗者状況情報とに基づき、ある搭乗者が車載用テレビを操作したと判定することができる。そして、判定部15は、ある搭乗者を対象搭乗者と判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、AV機器3、上述の例でいうと車載用テレビ、を操作している搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、車載用テレビからの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
(2)音声関連情報を出力したAV機器3の方向に視線を向けている搭乗者を対象搭乗者と判定する例
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声関連情報を出力したAV機器3の方向に視線を向けている搭乗者を、対象搭乗者と判定してもよい。この場合、音声関連情報には、音声データと、当該音声データを出力したAV機器3に関する情報が含まれている。また、搭乗者状況情報には、搭乗者の視線および当該視線が向けられているAV機器3に関する情報が含まれている。具体例を挙げると、例えば、AV機器3が車載用テレビであったとし、当該車載用テレビからAV出力データが音声関連情報として出力されたとする。この場合、判定部15は、搭乗者状況情報に基づき、車載用テレビの表示部の方向に視線を向けている搭乗者を、対象搭乗者と判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、AV機器3、上述の例でいうと車載用テレビ、の方向に視線を向けている搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、車載用テレビからの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
(3)音声の種別にマッチする状況にある搭乗者を対象搭乗者と判定する例
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声データの種別に応じて、当該音声の種別にマッチする状況にある搭乗者を対象搭乗者と判定するようにしてもよい。この場合、音声関連情報には、音声データと、当該音声データの種別に関する情報が含まれている。なお、どの音声データの種別に対して、どのような状況を、マッチする状況とするかは、予め決められている。
例えば、音声関連情報に含まれている音声データの種別が「道案内」を示す種別であったとする。この場合、判定部15は、搭乗者状況情報に基づき、例えば、運転者と、カーナビゲーション装置に表示されている地図に視線を向けている搭乗者とを、対象搭乗者と判定する。なお、この場合、搭乗者状況情報には、搭乗者の視線および当該視線が向けられているAV機器3に関する情報が含まれているものとする。判定部15は、搭乗者状況情報に基づいて、運転者、および、カーナビゲーション装置に表示されている地図に視線を向けている搭乗者を判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、運転者、および、カーナビゲーション装置に表示されている地図に視線を向けている搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、カーナビゲーション装置からの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
例えば、音声関連情報に含まれている音声データの種別が「インフォメーション」を示す種別の場合は、判定部15は、搭乗者のうち、覚醒している搭乗者、言い換えれば、睡眠状態でない搭乗者を、対象搭乗者と判定する。なお、この場合、搭乗者状況情報には、搭乗者が睡眠状態であることを示す情報が含まれているものとする。判定部15は、搭乗者状況情報に基づいて、覚醒している搭乗者を判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、覚醒している搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
例えば、音声関連情報に含まれている音声データの種別が「アラート」を示す種別の場合は、判定部15は、搭乗者全員を対象搭乗者と判定する。判定部15は、搭乗者全員を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
(4)音声の内容にマッチする状況にある搭乗者を対象搭乗者と判定する例
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声データが地点を案内する音声データである場合、視線が当該地点の方向を向いている搭乗者を、対象搭乗者と判定する。具体例を挙げると、例えば、AV機器3はカーナビゲーション装置であったとし、音声関連情報に含まれる音声が「右手に見える△△国立公園は紅葉で有名です」のように、△△国立公園という地点を案内する音声データであったとする。この場合、判定部15は、視線が当該△△国立公園の方向を向いている搭乗者を、対象搭乗者と判定する。なお、この場合、音声関連情報には、△△国立公園の位置に関する情報が含まれているものとする。また、搭乗者状況情報には、視線の先の位置に関する情報が含まれているものとする。判定部15は、視線の先の位置と、△△国立公園の位置とをマッチングさせることで、視線が△△国立公園の方向を向いている搭乗者を判定できる。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、音声データによって案内される地点の方向に視線を向けている搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、カーナビゲーション装置からの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
(5)発話音声に基づいて、特定の搭乗者を対象搭乗者と判定する例
例えば、ある搭乗者が、他の搭乗者に対して、「〇〇さん、」と呼びかける発話を行ったとする。この場合、マイク4は、当該発話による発話音声を収集し、集音情報取得部132は、マイク4から発話音声の音声データを音声関連情報として取得する。そして、音声解析部14は、「〇〇さん、」との発話内容の解析を行う。
この場合、判定部15は、発話音声に含まれている「〇〇」という名前の搭乗者を、対象搭乗者とする。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。具体的には、判定部15は、「○○」という名前の搭乗者の着座位置を判定する。この場合、搭乗者状況情報には、搭乗者の名前の情報が含まれているものとする。そして、判定部15は、「○○」という名前の搭乗者が対象搭乗者である旨の情報を、対象搭乗者情報として、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、マイク4が収集した音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
(6)発話音声に基づいて、複数の搭乗者を対象搭乗者と判定する例
例えば、ある搭乗者が、「みなさん、」と呼びかける発話を行ったとする。この場合、マイク4は、当該発話による発話音声を収集し、集音情報取得部132は、マイク4から発話音声の音声データを音声関連情報として取得する。そして、音声解析部14は、「みなさん、」との発話内容の解析を行う。
この場合、判定部15は、対象搭乗者は搭乗者全員であると判定する。そして、判定部15は、搭乗者全員が対象搭乗者である旨の情報を対象搭乗者情報として、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、マイク4から取得した音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
上述の(5)の例において、判定部15は、例えば、双方向の会話を成立させるために、発話を行った搭乗者も対象搭乗者と判定するようにしてもよい。この場合、判定部15は、搭乗者状況検出部12から出力された搭乗者状況情報に基づき、発話を行った搭乗者を特定する。具体的には、判定部15は、例えば、搭乗者状況情報に基づき、発話状態である搭乗者を、発話を行った搭乗者と特定し、当該搭乗者を、「〇〇」という名前の搭乗者とともに、対象搭乗者と判定する。
また、上述の(6)の一例において、判定部15は、例えば、発話を行った搭乗者以外の搭乗者を対象搭乗者と判定するようにしてもよい。この場合、判定部15は、搭乗者状況検出部12から出力された搭乗者状況情報に基づき、発話を行った搭乗者を特定する。搭乗者状況情報に基づき発話を行った搭乗者を特定する方法の一例は上述のとおりであるので、重複した説明を省略する。判定部15は、特定した、発話を行った搭乗者以外の搭乗者を、対象搭乗者と判定する。
また、判定部15は、上述した(1)~(6)の例のような判定を並行して行ってもよい。
実施の形態1において、判定部15は、音声操作者判定部151を備える。
音声操作者判定部151は、搭乗者状況検出部12から出力された搭乗者状況情報に基づき、車両100内に設置されている音声制御機器に対して、音声による操作指示を行った搭乗者(以下「音声操作搭乗者」という。)がいるか否かを判定する。
上述のとおり、搭乗者状況検出部12は、搭乗者が音声制御機器を操作するための会話を行った状況であることを検出できる。例えば、搭乗者状況情報には、音声制御機器を操作するための会話を行ったことを検出した旨の情報が含まれているものとする。なお、例えば、音声操作者判定部151が、搭乗者状況情報に基づき、視線が音声制御機器、または、マイク4の方向を向いていて、かつ、発話状態である搭乗者が存在するか否かを判定し、当該搭乗者が存在する場合に、当該搭乗者を音声操作搭乗者と判定するようにしてもよい。
音声操作者判定部151が、音声操作搭乗者がいると判定すると、判定部15は、当該音声操作搭乗者に関する情報(以下「音声操作者情報」という。)を、出力制御部16に出力する。判定部15は、音声操作者情報に、音声操作搭乗者の着座位置の情報を含めるようにする。
出力制御部16は、車両100に設置されている指向性スピーカ51のうち、判定部15が判定した対象搭乗者の着座位置に対応する指向性スピーカ51(以下「対象スピーカ」という。)から、音声関連情報取得部13が取得した音声関連情報に基づく音声を出力させる。具体的には、出力制御部16は、判定部15が判定した対象スピーカから、判定部15から対象搭乗者情報とともに出力された音声データに基づく音声を出力する。
例えば、予め、記憶部17には、車両100内の座席とスピーカ5とを対応付けたスピーカ情報が記憶されているものとし、出力制御部16は、スピーカ情報から、対象スピーカを特定すればよい。
出力制御部16は、対象スピーカから音声関連情報に基づく音声を出力させる際、出力音声の音量を制御することもできる。具体的には、例えば、出力制御部16は、音声関連情報に含まれている、音声データの種別に応じて、音量を制御することもできる。音声データがどの種別であった場合に、どれぐらいの音量で当該音声を出力するかは、予め決められているものとする。
実施の形態1において、出力制御部16は、減衰データ生成部161および減衰データ出力部162を備える。減衰データ生成部161および減衰データ出力部162は、減衰用スピーカ52から、他のスピーカ5からの音声を減衰させるための逆位相の音声を出力する制御を行う場合に機能する。
具体的には、減衰データ生成部161は、音声関連情報取得部13が取得した音声データを減衰させるための逆位相の減衰データを生成し、生成した減衰データを減衰データ出力部162に出力する。減衰データ出力部162は、減衰データ生成部161が生成した減衰データを、各座席に対応する減衰用スピーカ52から出力させる。すなわち、減衰データ出力部162は、音声データに基づく音声を減衰させるための音声を出力する。
減衰データ生成部161および減衰データ出力部162が機能するケースについて、いくつか具体例を挙げて説明する。
例えば、減衰データ生成部161は、判定部15が判定した対象搭乗者以外の搭乗者の着座位置に対応するスピーカ5から出力された音声を減衰させるための減衰データを生成する。そして、出力制御部16が、対象搭乗者の着座位置に対応する対象スピーカから音声関連情報に基づく音声を出力させると、減衰データ出力部162は、減衰データ生成部161が生成した減衰データを、対象搭乗者以外の搭乗者の着座位置に対応する減衰用スピーカ52から出力する。
また、例えば、判定部15から音声操作者情報が出力された場合、減衰データ生成部161は、音声関連情報取得部13が取得した音声データ、具体的には、音声関連情報取得部13の集音情報取得部132がマイク4から音声関連情報に含まれる音声データのノイズを減衰するための減衰データを生成することもできる。そして、減衰データ出力部162は、減衰データを出力する。なお、減衰データ出力部162は、音声操作搭乗者の着座位置に対応する減衰用スピーカ52から減衰用データを出力する。
また、例えば、音声出力制御装置1は、対象搭乗者の状況が変化したことに応じて、減衰データ生成部161および減衰データ出力部162を機能させるようにしてもよい。すなわち、音声出力制御装置1は、AV機器3から出力される音声データに基づく音声を聞く側の対象搭乗者の状況の変化に応じて、当該音声を搭乗者に届かないように減衰させて出力するようにすることができる。
例えば、ある搭乗者がAV機器3を動作させる指示を入力する操作を行った際、AV機器3は、当該操作が行われたことにより音声を出力するための音声関連情報を出力する。判定部15は、操作を行っている人を対象搭乗者とする(上記(1)の場合参照)。出力制御部16は、対象搭乗者の着座位置に対応する対象スピーカからAV機器3からの音声関連情報に基づく音声を出力させる。その後、ある搭乗者がAV機器3を停止させる操作を行わない限り、当該AV機器3からは継続的に音声関連情報が出力されることになる。ここで、出力制御部16の減衰データ生成部161は、搭乗者状況情報に基づき、ある搭乗者、言い換えれば、対象搭乗者が睡眠状態となったと判定した場合、対象スピーカから出力された音声を減衰させるための減衰データを生成し、減衰データ出力部162は、対象搭乗者の着座位置に対応する減衰用スピーカ52から減衰データを出力させる。
このように、音声出力制御装置1は、車両100の搭乗者の状況に応じて、当該搭乗者のうち、音声が必要とされる対象搭乗者の着座位置に対応する対象スピーカからのみ、音声が出力されるようにする。
例えば、ある搭乗者がリモコンを操作してAV機器3を動作させ、AV機器3から当該操作に応答する応答メッセージに関する音声関連情報が出力されたとすると、音声出力制御装置1は、当該ある搭乗者を対象搭乗者と判定し、AV機器3を動作させた搭乗者の着座位置に対応する対象スピーカからのみ、応答メッセージを出力させる。
また、例えば、AV機器3がナビゲーション装置であり、当該ナビゲーション装置から道案内を行う音声データに関する音声関連情報が出力されたとすると、音声出力制御装置1は、運転者、および、視線をナビゲーション装置に表示されている地図の方向に向けている搭乗者を対象搭乗者と判定し、運転者、および、視線をナビゲーション装置に表示されている地図の方向に向けている搭乗者の着座位置に対応する対象スピーカからのみ、道案内を行う音声を出力させる。
また、例えば、AV機器3がナビゲーション装置であり、当該ナビゲーション装置から△△国立公園を案内する音声データに関する音声関連情報が出力されたとすると、音声出力制御装置1は、視線を△△国立公園の方向に向けている搭乗者を対象搭乗者と判定し、視線を△△国立公園の方向に向けている搭乗者の着座位置に対応する対象スピーカからのみ、音声を出力させる。
また、例えば、ある搭乗者が「○○さん、・・・」と、他の搭乗者に対する発話を行ったとすると、音声出力制御装置1は、○○という名前の搭乗者を対象搭乗者と判定し、○○という名前あの搭乗者の着座位置に対応する対象スピーカから、ある搭乗者による発話音声を出力する。
これにより、音声出力制御装置1は、音声を届けるべき搭乗者に音声を届け、音声が必要のない搭乗者に対しては出力される音声が耳障りにならないようにすることができる。
また、音声出力制御装置1は、車両100の搭乗者の状況に応じて、音声出力が必要ない場合は、音声が出力されないようにすることができる。
例えば、音声出力制御装置1は、対象搭乗者の着座位置に対応する対象スピーカからは音声関連情報に基づく音声を出力させ、対象搭乗者以外の搭乗者の着座位置に対応する減衰用スピーカ52からは減衰データを出力させる。
これにより、音声出力制御装置1は、対象搭乗者以外の搭乗者に対して、不要な音声が聞こえないように制御することができる。
また、例えば、音声出力制御装置1は、音声操作搭乗者が存在する場合、音声操作搭乗者の着座位置に対応する減衰用スピーカ52から減衰データを出力させるようにする。
これにより、音声出力制御装置1は、音声操作搭乗者が音声制御機器を操作するために行った発話による音声を阻害するノイズを打ち消すことができる。
また、例えば、音声出力制御装置1は、対象操作者が睡眠状態となった場合、当該対象操作者の着座位置に対応する減衰用スピーカ52から減衰データを出力させるようにする。このように、音声出力制御装置1は、指向性スピーカ51から出力される音声を遮り、対象操作者の睡眠を妨げない制御を行うことができる。すなわち、音声出力制御装置1は、音声を聞く側の搭乗者の状況を把握し、当該音声の届け先に存在する搭乗者の状況に応じて音声の出力方法を制御することもできる。
記憶部17は、ユーザ情報または機器情報等を記憶する。
なお、実施の形態1では、図1に示すように、記憶部17は、音声出力制御装置1に備えられるものとするが、これは一例に過ぎない。記憶部17は、音声出力制御装置1の外部の、音声出力制御装置1が参照可能な場所に備えられるようにしてもよい。
実施の形態1に係る音声出力制御装置1の動作について説明する。
図3は、実施の形態1に係る音声出力制御装置1の動作について説明するためのフローチャートである。
撮像画像取得部11は、カメラ2から、車両100内を撮像した撮像画像を取得する(ステップST301)。
撮像画像取得部11は、取得した撮像画像を、搭乗者状況検出部12に出力する。
搭乗者状況検出部12は、ステップST301にて撮像画像取得部11が取得した撮像画像に基づいて、搭乗者の状況を検出する(ステップST302)。
搭乗者状況検出部12は、検出した搭乗者の状況に関する搭乗者状況情報を、判定部15に出力する。
音声関連情報取得部13は、AV機器3もしくはマイク4、または、AV機器3およびマイク4の両方から、音声関連情報を取得する(ステップST303)。
具体的には、音声関連情報取得部13の機器関連情報取得部131は、AV機器3から、音声関連情報を取得する。音声関連情報取得部13の集音情報取得部132は、マイク4から音声関連情報を取得する。
音声関連情報取得部13は、取得した音声関連情報を、音声解析部14または判定部15に出力する。具体的には、機器関連情報取得部131は、取得した音声関連情報を、判定部15に出力する。集音情報取得部132は、取得した音声関連情報を、音声解析部14に出力する。
音声解析部14は、集音情報取得部132が取得した音声関連情報に基づき、集音情報取得部132が取得した発話音声データの発話内容を解析する。音声解析部14は、発話内容の解析結果を付与した音声関連情報を、判定部15に出力する。
判定部15は、ステップST302にて搭乗者状況検出部12から出力された搭乗者状況情報と、ステップST303にて音声関連情報取得部13が取得した音声関連情報とに基づいて、対象搭乗者を判定する(ステップST304)。また、判定部15は、当該対象搭乗者の着座位置を判定する。そして、判定部15は、対象搭乗者情報を、出力制御部16に出力する。
判定部15の音声操作者判定部151は、ステップST302にて搭乗者状況検出部12から出力された搭乗者状況情報に基づき、音声操作搭乗者がいるか否かを判定する(ステップST305)。
音声操作者判定部151が、音声操作搭乗者がいると判定すると、判定部15は、音声操作者情報を、出力制御部16に出力する。
出力制御部16は、車両100に設置されている指向性スピーカ51のうち、ステップST304にて判定部15が判定した対象搭乗者の着座位置に対応する対象スピーカから、ステップST303にて音声関連情報取得部13が取得した音声関連情報に基づく音声を出力させる(ステップST306)。
なお、当該ステップST306において、出力制御部16の減衰データ生成部161は、ステップST303にて音声関連情報取得部13が取得した音声データを減衰させるための逆位相の減衰データを生成し、生成した減衰データを減衰データ出力部162に出力する。減衰データ出力部162は、減衰データ生成部161が生成した減衰データを、減衰用スピーカ52から出力させる。
図3のフローチャートにて説明した音声出力制御装置1の動作について、ステップST301~ステップST302の動作と、ステップST303の動作の順番は、逆であってもよいし、並行して行われてもよい。
図4A,図4Bは、実施の形態1に係る音声出力制御装置1のハードウェア構成の一例を示す図である。
実施の形態1において、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16の機能は、処理回路401により実現される。すなわち、音声出力制御装置1は、車両100の搭乗者の状況を考慮し、音声出力が必要と推定される搭乗者に対して音声が出力されるよう、音声出力の制御を行うための処理回路401を備える。
処理回路401は、図4Aに示すように専用のハードウェアであっても、図4Bに示すようにメモリ405に格納されるプログラムを実行するCPU(Central Processing Unit)405であってもよい。
処理回路401が専用のハードウェアである場合、処理回路401は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路401がCPU404の場合、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ405に記憶される。処理回路401は、メモリ405に記憶されたプログラムを読み出して実行することにより、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16の機能を実行する。すなわち、音声出力制御装置1は、処理回路401により実行されるときに、上述の図3のステップST301~ステップST306が結果的に実行させることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ405とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、撮像画像取得部11と音声関連情報取得部13については専用のハードウェアとしての処理回路401でその機能を実現し、搭乗者状況検出部12と音声解析部14と判定部15と出力制御部16については処理回路401がメモリ405に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、記憶部17は、メモリ405を使用する。なお、図4Aにおいては、例えば、処理回路401が不揮発性メモリを有しており、記憶部17はこれを使用する。これは一例であって、記憶部は、HDD、SSD(Solid State Drive)、または、DVD等によって構成されるものであってもよい。
また、音声出力制御装置1は、カメラ
2、AV機器3、マイク4、または、スピーカ5等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
なお、以上の実施の形態1では、車両100には減衰用スピーカ52が設置されているものとしたが、減衰用スピーカ52が設置されていることは必須ではない。
車両100には減衰用スピーカ52が設置されておらず、指向性スピーカ51のみ設置されていてもよい。この場合、音声出力制御装置1の出力制御部16は、減衰データ生成部161および減衰データ出力部162を備えない構成とすることができる。
音声出力制御装置1の出力制御部16は、例えば、上述したような、音声を減衰させるための逆位相の減衰データを出力するようにした場合において、指向性スピーカ51からの音声出力の停止を行う。
また、車両100には減衰用スピーカ52が設置されておらず、指向性スピーカ51のみ設置されている場合であっても、音声出力制御装置1の出力制御部16が、減衰データ生成部161および減衰データ出力部162を備えているようにしてもよい。この場合、減衰データ出力部162は、例えば、指向性スピーカ51から減衰データを出力すればよい。
また、以上の実施の形態1では、音声出力制御装置1は、音声操作者判定部151を備えるものとしたが、これは一例に過ぎない。音声出力制御装置1は、音声操作者判定部151を備えない構成としてもよい。この場合、図3を用いて説明した音声出力制御装置1の動作について、ステップST305の動作は省略できる。
また、以上の実施の形態1では、音声出力制御装置1は、車両100に搭載される車載装置とし、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16とは、音声出力制御装置1に備えられているものとした。
これに限らず、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16のうち、一部または全部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで音声出力制御システムを構成するようにしてもよい。
以上のように、実施の形態1に係る音声出力制御装置1は、車両100内を撮像した撮像画像を取得する撮像画像取得部11と、撮像画像取得部11が取得した撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部12と、スピーカ(指向性スピーカ51)から出力するための音声に関する音声関連情報を取得する音声関連情報取得部13と、搭乗者状況検出部12が検出した搭乗者の状況に関する搭乗者状況情報と、音声関連情報取得部13が取得した音声関連情報とに基づいて、音声を出力する対象となる対象搭乗者および当該対象搭乗者の着座位置を判定する判定部15と、スピーカのうち、判定部15が判定した対象搭乗者の着座位置に対応する対象スピーカから、音声を出力させる出力制御部16を備えるように構成した。そのため、音声出力制御装置1は、座席毎に対応するスピーカが設定されている車両内において、搭乗者の状況を考慮し、音声出力が必要と推定される搭乗者に対して音声が出力されるよう、音声出力の制御を行うことができる。
なお、本開示は、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
1 音声出力制御装置、2 カメラ、3 AV機器、4 マイク、5 スピーカ、51指向性スピーカ、52 減衰用スピーカ、11 撮像画像取得部、12 搭乗者状況検出部、13 音声関連情報取得部、131 機器関連情報取得部、132 集音情報取得部、14 音声解析部、15 判定部、151 音声操作者判定部、16 出力制御部、161 減衰データ生成部、162 減衰データ出力部、17 記憶部、401 処理回路、402 入力インタフェース装置、403 出力インタフェース装置、404 CPU、405 メモリ。

Claims (10)

  1. 座席毎に対応するスピーカが設置されている車両内において音声出力を制御する音声出力制御装置であって、
    前記車両内を撮像した撮像画像を取得する撮像画像取得部と、
    前記撮像画像取得部が取得した撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部と、
    前記スピーカから出力するための音声に関する音声関連情報を取得する音声関連情報取得部と、
    前記搭乗者状況検出部が検出した搭乗者の状況に関する搭乗者状況情報と、前記音声関連情報取得部が取得した音声関連情報とに基づいて、前記音声を出力する対象となる対象搭乗者および当該対象搭乗者の前記着座位置を判定する判定部と、
    前記スピーカのうち、前記判定部が判定した前記対象搭乗者の前記着座位置に対応する対象スピーカから、前記音声を出力させる出力制御部
    とを備えた音声出力制御装置。
  2. 前記搭乗者状況情報に基づき、前記車両内に設置されている音声操作可能な音声制御機器に対して音声による操作指示を行った音声操作搭乗者がいるか否かを判定する音声操作者判定部を備え、
    前記出力制御部は、
    前記音声操作者判定部が、前記音声操作搭乗者がいると判定した場合、前記音声を減衰させるための減衰データを出力する、または、前記音声を出力させない
    ことを特徴とする請求項1記載の音声出力制御装置。
  3. 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者が睡眠状態であるか否かが含まれ、
    前記出力制御部は、
    前記搭乗者状況情報に基づき、前記対象搭乗者が睡眠状態である場合は、前記音声を減衰させるための減衰データを出力する、または、前記音声を出力させない
    ことを特徴とする請求項1または請求項2記載の音声出力制御装置。
  4. 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者による車載装置の操作状況が含まれ、
    前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データを出力した前記車載装置に関する情報とが含まれ、
    前記判定部は、
    前記搭乗者のうち、前記車載装置を操作した前記搭乗者を前記対象搭乗者と判定する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。
  5. 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者の視線の方向が含まれ、
    前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データを出力した車載装置に関する情報とが含まれ、
    前記判定部は、
    前記搭乗者のうち、前記車載装置の方向に視線を向けている前記搭乗者を、前記対象搭乗者と判定する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。
  6. 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者の視線の方向が含まれ、
    前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データの種別に関する情報とが含まれ、
    前記判定部は、
    前記音声データの種別が道案内を示す種別である場合、車載装置に表示されている地図に視線を向けている前記搭乗者を、前記対象搭乗者と判定する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。
  7. 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者が睡眠状態であるか否かが含まれ、
    前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データの種別に関する情報とが含まれ、
    前記判定部は、
    前記音声関連情報と前記搭乗者状況情報とに基づき、前記音声データの種別が前記搭乗者全員に向けた案内を示す種別である場合、睡眠状態でない前記搭乗者を、前記対象搭乗者と判定する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。
  8. 前記搭乗者状況検出部が検出する前記搭乗者の状況には前記搭乗者の視線の方向が含まれ、
    前記音声関連情報取得部が取得する前記音声関連情報には音声データが含まれ、当該音声データは地点を案内するための音声データであり、
    前記判定部は、
    前記音声関連情報と前記搭乗者状況情報とに基づき、前記地点の方向に前記視線を向けている前記搭乗者を、前記対象搭乗者と判定する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。
  9. 前記搭乗者状況検出部が検出する前記搭乗者状況情報には発話を行った前記搭乗者を特定可能な情報が含まれ、
    前記音声関連情報取得部が取得する前記音声関連情報には音声データが含まれ、当該音声データは前記車両内に設置されているマイクから収集された、他の前記搭乗者に対する発話音声であり、
    前記判定部は、
    前記発話音声に基づく発話内容と前記搭乗者状況情報とに基づき前記対象搭乗者を判定する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。
  10. 座席毎に対応するスピーカが設置されている車両内において音声出力を制御する音声出力制御プログラムであって、
    コンピュータを、
    前記車両内を撮像した撮像画像を取得する撮像画像取得部と、
    前記撮像画像取得部が取得した撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部と、
    前記スピーカから出力するための音声に関する音声関連情報を取得する音声関連情報取得部と、
    前記搭乗者状況検出部が検出した搭乗者の状況に関する搭乗者状況情報と、前記音声関連情報取得部が取得した音声関連情報とに基づいて、前記音声を出力する対象となる対象搭乗者および当該対象搭乗者の前記着座位置を判定する判定部と、
    前記スピーカのうち、前記判定部が判定した前記対象搭乗者の前記着座位置に対応する対象スピーカから、前記音声を出力させる出力制御部
    として機能させるための音声出力制御プログラム。
JP2020116585A 2020-07-06 2020-07-06 音声出力制御装置および音声出力制御プログラム Active JP7407665B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020116585A JP7407665B2 (ja) 2020-07-06 2020-07-06 音声出力制御装置および音声出力制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020116585A JP7407665B2 (ja) 2020-07-06 2020-07-06 音声出力制御装置および音声出力制御プログラム

Publications (2)

Publication Number Publication Date
JP2022014313A true JP2022014313A (ja) 2022-01-19
JP7407665B2 JP7407665B2 (ja) 2024-01-04

Family

ID=80185356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020116585A Active JP7407665B2 (ja) 2020-07-06 2020-07-06 音声出力制御装置および音声出力制御プログラム

Country Status (1)

Country Link
JP (1) JP7407665B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005191668A (ja) * 2003-12-24 2005-07-14 Pioneer Electronic Corp 発音制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
WO2007135855A1 (ja) * 2006-05-18 2007-11-29 Pioneer Corporation 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009031065A (ja) * 2007-07-25 2009-02-12 Aisin Aw Co Ltd 車両用情報案内装置、車両用情報案内方法及びコンピュータプログラム
JP2009147812A (ja) * 2007-12-17 2009-07-02 Fujitsu Ten Ltd 音響システム、音響制御方法および音響システムの設定方法
JP2019012046A (ja) * 2017-06-30 2019-01-24 株式会社デンソーテン 通知装置、通知システムおよび通知方法
WO2019016936A1 (ja) * 2017-07-21 2019-01-24 三菱電機株式会社 操作支援装置および操作支援方法
JP2019075748A (ja) * 2017-10-18 2019-05-16 株式会社デンソーテン 車載装置、車載音響システムおよび音声出力方法
JP2020044879A (ja) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 車両用音入出力装置
JP2020060696A (ja) * 2018-10-10 2020-04-16 本田技研工業株式会社 コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005191668A (ja) * 2003-12-24 2005-07-14 Pioneer Electronic Corp 発音制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
WO2007135855A1 (ja) * 2006-05-18 2007-11-29 Pioneer Corporation 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009031065A (ja) * 2007-07-25 2009-02-12 Aisin Aw Co Ltd 車両用情報案内装置、車両用情報案内方法及びコンピュータプログラム
JP2009147812A (ja) * 2007-12-17 2009-07-02 Fujitsu Ten Ltd 音響システム、音響制御方法および音響システムの設定方法
JP2019012046A (ja) * 2017-06-30 2019-01-24 株式会社デンソーテン 通知装置、通知システムおよび通知方法
WO2019016936A1 (ja) * 2017-07-21 2019-01-24 三菱電機株式会社 操作支援装置および操作支援方法
JP2019075748A (ja) * 2017-10-18 2019-05-16 株式会社デンソーテン 車載装置、車載音響システムおよび音声出力方法
JP2020044879A (ja) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 車両用音入出力装置
JP2020060696A (ja) * 2018-10-10 2020-04-16 本田技研工業株式会社 コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム

Also Published As

Publication number Publication date
JP7407665B2 (ja) 2024-01-04

Similar Documents

Publication Publication Date Title
JP3910898B2 (ja) 指向性設定装置、指向性設定方法及び指向性設定プログラム
WO2017081960A1 (ja) 音声認識制御システム
JP6604151B2 (ja) 音声認識制御システム
JP6284331B2 (ja) 会話支援装置、会話支援方法及び会話支援プログラム
JP6767082B2 (ja) 車内通話制御装置、車内通話システムおよび車内通話制御方法
JP7049803B2 (ja) 車載装置および音声出力方法
US11904783B2 (en) Vehicle microphone activation and/or control systems
JP2010156825A (ja) 音声出力装置
JP2017090614A (ja) 音声認識制御システム
JP2004354930A (ja) 音声認識システム
JP6459330B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP4360308B2 (ja) 車載音響制御システム及びaiエージェント
US10645494B1 (en) Active control system for a vehicular dual microphone and a control method thereof
JP7065964B2 (ja) 音場制御装置および音場制御方法
WO2007145331A1 (ja) カメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体
JP2022014313A (ja) 音声出力制御装置および音声出力制御プログラム
WO2022176038A1 (ja) 音声認識装置および音声認識方法
WO2021234839A1 (ja) 対話予兆検知装置、および、対話予兆検知方法
WO2021038736A1 (ja) 音場制御装置及び音場制御方法
KR101710695B1 (ko) 차량용 음성 인식을 위한 마이크로폰 제어 시스템 및 그 제어 방법
WO2022172393A1 (ja) 音声認識装置および音声認識方法
WO2022038724A1 (ja) 音声対話装置、および、音声対話装置における対話対象判定方法
US20230252987A1 (en) Vehicle and control method thereof
JP2020160181A (ja) 音声処理装置及び音声処理方法
US20230282217A1 (en) Voice registration device, control method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231219

R150 Certificate of patent or registration of utility model

Ref document number: 7407665

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150