JP2022014313A - 音声出力制御装置および音声出力制御プログラム - Google Patents
音声出力制御装置および音声出力制御プログラム Download PDFInfo
- Publication number
- JP2022014313A JP2022014313A JP2020116585A JP2020116585A JP2022014313A JP 2022014313 A JP2022014313 A JP 2022014313A JP 2020116585 A JP2020116585 A JP 2020116585A JP 2020116585 A JP2020116585 A JP 2020116585A JP 2022014313 A JP2022014313 A JP 2022014313A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- passenger
- related information
- output control
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 62
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000004458 analytical method Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
例えば、特許文献1には、運転者が後部座席の搭乗者に話しかける会話動作があると判定されたときは運転者の音声データが後部座席へ出力されるよう制御し、当該会話動作がないと判定されたときは運転者の音声データが後部座席へ出力されないように制御する会話支援装置が開示されている。
特許文献1に開示されているような車載装置の技術は、後部座席の搭乗者への会話動作があったか否かを判定しているが、後部座席のどの搭乗者への会話動作であったかは考慮されておらず、依然として上記課題を解決しない。
実施の形態1.
図1は、実施の形態1に係る音声出力制御装置1の構成例を示す図である。
音声出力制御装置1は、車両100に搭載され、カメラ2、AV機器3、マイク4、および、スピーカ5と接続される。
図1では、便宜上、カメラ2は1つのみ図示しているが、これは一例に過ぎない。カメラ2は、車両100内に複数設置されるようになっていてもよい。例えば、カメラ2は、座席毎に1台設置されるようになっていてもよい。
カメラ2は、車両100内を撮像した撮像画像を、音声出力制御装置1に出力する。
AV機器3が出力した音声関連情報に基づく音声は、音声出力制御装置1の制御に基づき、スピーカ5から出力される。音声関連情報に基づく音声は、具体的には、例えば、テレビもしくはラジオのAV出力、応答メッセージ、道案内音声、または、インフォメーション音声である。実施の形態1において、インフォメーション音声とは、車両100の搭乗者全員にあてた案内音声である。
なお、音声出力制御装置1が、AV機器3から出力された音声関連情報に基づく音声を出力しないと判定した場合には、例えば、当該音声は、スピーカ5から出力しないよう制御される。
マイク4は、収集した音声に関する音声関連情報を、音声出力制御装置1に出力する。マイク4が出力する音声は、音声出力制御装置1の制御に基づき、スピーカ5から出力される。なお、音声出力制御装置1が、マイク4が収集した音声を出力しないと判定した場合には、当該音声は、例えば、スピーカ5から出力しないよう制御される。
マイク4が出力する音声関連情報には、音声データが含まれる。
図2では、上方からみた車両100内のイメージの一例を示している。
図2では、例えば、AV機器3は、車両100のダッシュボードに1つ設置されるものとしている。また、例えば、カメラ2は、各座席に、座席の前方から各座席を含む領域を撮像するよう設置されるものとしている。また、例えば、マイク4は、各座席に、座席毎の音声を収集するよう設置されるものとしている。また、例えば、指向性スピーカ51は、各座席を取り囲むように、座席と対応付けて、座席毎に4つ設置されるものとしている。また、例えば、減衰用スピーカ52は、各座席に2つずつ設置されるものとしている。
音声出力制御装置1は、撮像画像取得部11、搭乗者状況検出部12、音声関連情報取得部13、音声解析部14、判定部15、および、出力制御部16を備える。音声関連情報取得部13は、機器関連情報取得部131および集音情報取得部132を備える。出力制御部16は、減衰データ生成部161および減衰データ出力部162を備える。
撮像画像取得部11は、取得した撮像画像を、搭乗者状況検出部12に出力する。
実施の形態1において、搭乗者の状況とは、例えば、搭乗者の着座位置、搭乗者の名前、搭乗者が発話しているか否か、搭乗者がAV機器3の操作を行っているか否か、搭乗者が睡眠状態であるか否か、または、搭乗者の視線の向きをいう。
具体的には、例えば、搭乗者状況検出部12は、撮像画像に対して、既知の画像解析処理を行って、搭乗者の状況を検出する。また、搭乗者状況検出部12は、必要に応じて、記憶部17に記憶されている、搭乗者に関する情報(以下「ユーザ情報」という。)、または、AV機器3に関する情報(以下「機器情報」という。)を参照して、搭乗者の状況を検出する。ユーザ情報には、例えば、搭乗者の名前または顔写真等、当該搭乗者を特定可能な情報が含まれる。機器情報には、例えば、AV機器3を特定可能な情報と、AV機器3の設置位置に関する情報が含まれる。
例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、車両100内に存在する搭乗者の顔を検出するとともに、各搭乗者の着座位置を検出する。なお、カメラ2の設置位置および画角は予めわかっているので、搭乗者状況検出部12は、搭乗者の顔を検出すると、当該搭乗者がどの座席に着座しているか特定できる。例えば、搭乗者状況検出部12は、記憶部17に記憶されているユーザ情報と突き合わせることで、当該搭乗者の名前も特定することができる。
また、例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、搭乗者が睡眠状態であることを検出する。搭乗者状況検出部12は、例えば、搭乗者が目を閉じた状態が予め設定された時間継続すれば、当該搭乗者が睡眠状態であると検出する。
また、例えば、搭乗者状況検出部12は、撮像画像に対して既知の画像解析処理を行って、搭乗者の視線方向を検出する。その際、搭乗者状況検出部12は、例えば、カメラ2の設置位置と、カメラ2の画角と、検出した搭乗者の視線方向と、記憶部17に記憶されている機器情報とから、搭乗者の視線の先に設置されているAV機器3を特定することができる。また、例えば、搭乗者状況検出部12は、車両100に搭載されている、図示しないGPS(Global Positioning System)から取得した車両100の現在位置、図示しない地図データベースから取得した地図情報、カメラ2の設置位置、および、カメラ2の画角に基づいて、搭乗者が視線を向けている先の車両100外の地点の位置情報を算出することもできる。
搭乗者状況検出部12は、検出した搭乗者の状況に関する情報(以下「搭乗者状況情報」という。)を、判定部15に出力する。搭乗者状況情報は、搭乗者毎に、当該搭乗者の状況として少なくとも着座位置が対応づけられた情報である。
具体的には、音声関連情報取得部13の機器関連情報取得部131は、AV機器3から、音声関連情報を取得する。
機器関連情報取得部131がAV機器3から取得する音声関連情報には、例えば、AV機器3を特定可能な情報と、音声データが含まれている。音声関連情報において、AV機器3を特定可能な情報と音声データとは関連付けられている。
具体例を挙げると、例えば、AV機器3が搭乗者に対してアラートを出力しようとした場合、機器関連情報取得部131は、AV機器3からアラートを出力するための音声データと、当該アラートを出力したAV機器3を特定可能な情報とを音声関連情報として取得する。
また、例えば、AV機器3が車載用テレビであり、当該車載用テレビが、搭乗者からのリモコン操作を受け付けてON状態となったとすると、機器関連情報取得部131は、当該車載用テレビから、テレビ放送のAV音声データと、当該AV音声データを出力している車載用テレビを特定可能な情報とを、音声関連情報として取得する。
集音情報取得部132が取得する音声関連情報には、例えば、搭乗者による、他の搭乗者への発話音声が含まれる。具体例を挙げると、例えば、集音情報取得部132は、マイク4から、「〇〇さん、・・・」または「みなさん、・・・」等の発話音声データを、音声関連情報として取得する。
また、集音情報取得部132が取得する音声関連情報には、例えば、搭乗者による、音声制御機器を音声操作するための発話音声データが含まれていてもよい。具体例を挙げると、例えば、集音情報取得部132は、マイク4から、「ボリュームを上げて」等の発話音声データを、音声関連情報として取得する。
音声関連情報取得部13は、取得した音声関連情報を、音声解析部14または判定部15に出力する。具体的には、機器関連情報取得部131は、取得した音声関連情報を、判定部15に出力する。集音情報取得部132は、取得した音声関連情報を、音声解析部14に出力する。
音声解析部14は、発話内容の解析結果を付与した音声関連情報を、判定部15に出力する。
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声関連情報を出力したAV機器3を操作している搭乗者を、対象搭乗者と判定する。この場合、音声関連情報には、音声データと、当該音声データを出力したAV機器3に関する情報が含まれている。また、搭乗者状況情報には、搭乗者によるAV機器3の操作状況が含まれている。具体例を挙げると、例えば、AV機器3が車載用テレビであったとし、ある搭乗者がリモコン操作によって車載用テレビを操作したとする。この場合、判定部15は、ある搭乗者がリモコン操作を行った旨の搭乗者状況情報を取得する。また、判定部15は、車載用テレビから、リモコン操作が行われたことを示す情報を含む音声関連情報を取得する。判定部15は、音声関連情報と搭乗者状況情報とに基づき、ある搭乗者が車載用テレビを操作したと判定することができる。そして、判定部15は、ある搭乗者を対象搭乗者と判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、AV機器3、上述の例でいうと車載用テレビ、を操作している搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、車載用テレビからの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声関連情報を出力したAV機器3の方向に視線を向けている搭乗者を、対象搭乗者と判定してもよい。この場合、音声関連情報には、音声データと、当該音声データを出力したAV機器3に関する情報が含まれている。また、搭乗者状況情報には、搭乗者の視線および当該視線が向けられているAV機器3に関する情報が含まれている。具体例を挙げると、例えば、AV機器3が車載用テレビであったとし、当該車載用テレビからAV出力データが音声関連情報として出力されたとする。この場合、判定部15は、搭乗者状況情報に基づき、車載用テレビの表示部の方向に視線を向けている搭乗者を、対象搭乗者と判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、AV機器3、上述の例でいうと車載用テレビ、の方向に視線を向けている搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、車載用テレビからの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声データの種別に応じて、当該音声の種別にマッチする状況にある搭乗者を対象搭乗者と判定するようにしてもよい。この場合、音声関連情報には、音声データと、当該音声データの種別に関する情報が含まれている。なお、どの音声データの種別に対して、どのような状況を、マッチする状況とするかは、予め決められている。
例えば、音声関連情報に含まれている音声データの種別が「道案内」を示す種別であったとする。この場合、判定部15は、搭乗者状況情報に基づき、例えば、運転者と、カーナビゲーション装置に表示されている地図に視線を向けている搭乗者とを、対象搭乗者と判定する。なお、この場合、搭乗者状況情報には、搭乗者の視線および当該視線が向けられているAV機器3に関する情報が含まれているものとする。判定部15は、搭乗者状況情報に基づいて、運転者、および、カーナビゲーション装置に表示されている地図に視線を向けている搭乗者を判定する。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、運転者、および、カーナビゲーション装置に表示されている地図に視線を向けている搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、カーナビゲーション装置からの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、覚醒している搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
例えば、判定部15は、音声関連情報と搭乗者状況情報とに基づき、音声データが地点を案内する音声データである場合、視線が当該地点の方向を向いている搭乗者を、対象搭乗者と判定する。具体例を挙げると、例えば、AV機器3はカーナビゲーション装置であったとし、音声関連情報に含まれる音声が「右手に見える△△国立公園は紅葉で有名です」のように、△△国立公園という地点を案内する音声データであったとする。この場合、判定部15は、視線が当該△△国立公園の方向を向いている搭乗者を、対象搭乗者と判定する。なお、この場合、音声関連情報には、△△国立公園の位置に関する情報が含まれているものとする。また、搭乗者状況情報には、視線の先の位置に関する情報が含まれているものとする。判定部15は、視線の先の位置と、△△国立公園の位置とをマッチングさせることで、視線が△△国立公園の方向を向いている搭乗者を判定できる。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。判定部15は、音声データによって案内される地点の方向に視線を向けている搭乗者を対象搭乗者とする旨の対象搭乗者情報を、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、カーナビゲーション装置からの音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
例えば、ある搭乗者が、他の搭乗者に対して、「〇〇さん、」と呼びかける発話を行ったとする。この場合、マイク4は、当該発話による発話音声を収集し、集音情報取得部132は、マイク4から発話音声の音声データを音声関連情報として取得する。そして、音声解析部14は、「〇〇さん、」との発話内容の解析を行う。
この場合、判定部15は、発話音声に含まれている「〇〇」という名前の搭乗者を、対象搭乗者とする。
判定部15は、対象搭乗者を判定すると、搭乗者状況情報に基づき、当該対象搭乗者の着座位置を判定する。具体的には、判定部15は、「○○」という名前の搭乗者の着座位置を判定する。この場合、搭乗者状況情報には、搭乗者の名前の情報が含まれているものとする。そして、判定部15は、「○○」という名前の搭乗者が対象搭乗者である旨の情報を、対象搭乗者情報として、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、マイク4が収集した音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
例えば、ある搭乗者が、「みなさん、」と呼びかける発話を行ったとする。この場合、マイク4は、当該発話による発話音声を収集し、集音情報取得部132は、マイク4から発話音声の音声データを音声関連情報として取得する。そして、音声解析部14は、「みなさん、」との発話内容の解析を行う。
この場合、判定部15は、対象搭乗者は搭乗者全員であると判定する。そして、判定部15は、搭乗者全員が対象搭乗者である旨の情報を対象搭乗者情報として、出力制御部16に出力する。このとき、判定部15は、対象搭乗者の着座位置に関する情報を、対象搭乗者情報に含める。
判定部15は、対象搭乗者に対して出力すべき、マイク4から取得した音声データを、対象搭乗者情報と対応付けて、出力制御部16に出力する。なお、音声データは、音声関連情報に含まれている音声データである。
また、上述の(6)の一例において、判定部15は、例えば、発話を行った搭乗者以外の搭乗者を対象搭乗者と判定するようにしてもよい。この場合、判定部15は、搭乗者状況検出部12から出力された搭乗者状況情報に基づき、発話を行った搭乗者を特定する。搭乗者状況情報に基づき発話を行った搭乗者を特定する方法の一例は上述のとおりであるので、重複した説明を省略する。判定部15は、特定した、発話を行った搭乗者以外の搭乗者を、対象搭乗者と判定する。
また、判定部15は、上述した(1)~(6)の例のような判定を並行して行ってもよい。
音声操作者判定部151は、搭乗者状況検出部12から出力された搭乗者状況情報に基づき、車両100内に設置されている音声制御機器に対して、音声による操作指示を行った搭乗者(以下「音声操作搭乗者」という。)がいるか否かを判定する。
上述のとおり、搭乗者状況検出部12は、搭乗者が音声制御機器を操作するための会話を行った状況であることを検出できる。例えば、搭乗者状況情報には、音声制御機器を操作するための会話を行ったことを検出した旨の情報が含まれているものとする。なお、例えば、音声操作者判定部151が、搭乗者状況情報に基づき、視線が音声制御機器、または、マイク4の方向を向いていて、かつ、発話状態である搭乗者が存在するか否かを判定し、当該搭乗者が存在する場合に、当該搭乗者を音声操作搭乗者と判定するようにしてもよい。
音声操作者判定部151が、音声操作搭乗者がいると判定すると、判定部15は、当該音声操作搭乗者に関する情報(以下「音声操作者情報」という。)を、出力制御部16に出力する。判定部15は、音声操作者情報に、音声操作搭乗者の着座位置の情報を含めるようにする。
例えば、予め、記憶部17には、車両100内の座席とスピーカ5とを対応付けたスピーカ情報が記憶されているものとし、出力制御部16は、スピーカ情報から、対象スピーカを特定すればよい。
出力制御部16は、対象スピーカから音声関連情報に基づく音声を出力させる際、出力音声の音量を制御することもできる。具体的には、例えば、出力制御部16は、音声関連情報に含まれている、音声データの種別に応じて、音量を制御することもできる。音声データがどの種別であった場合に、どれぐらいの音量で当該音声を出力するかは、予め決められているものとする。
具体的には、減衰データ生成部161は、音声関連情報取得部13が取得した音声データを減衰させるための逆位相の減衰データを生成し、生成した減衰データを減衰データ出力部162に出力する。減衰データ出力部162は、減衰データ生成部161が生成した減衰データを、各座席に対応する減衰用スピーカ52から出力させる。すなわち、減衰データ出力部162は、音声データに基づく音声を減衰させるための音声を出力する。
減衰データ生成部161および減衰データ出力部162が機能するケースについて、いくつか具体例を挙げて説明する。
例えば、減衰データ生成部161は、判定部15が判定した対象搭乗者以外の搭乗者の着座位置に対応するスピーカ5から出力された音声を減衰させるための減衰データを生成する。そして、出力制御部16が、対象搭乗者の着座位置に対応する対象スピーカから音声関連情報に基づく音声を出力させると、減衰データ出力部162は、減衰データ生成部161が生成した減衰データを、対象搭乗者以外の搭乗者の着座位置に対応する減衰用スピーカ52から出力する。
また、例えば、判定部15から音声操作者情報が出力された場合、減衰データ生成部161は、音声関連情報取得部13が取得した音声データ、具体的には、音声関連情報取得部13の集音情報取得部132がマイク4から音声関連情報に含まれる音声データのノイズを減衰するための減衰データを生成することもできる。そして、減衰データ出力部162は、減衰データを出力する。なお、減衰データ出力部162は、音声操作搭乗者の着座位置に対応する減衰用スピーカ52から減衰用データを出力する。
例えば、ある搭乗者がAV機器3を動作させる指示を入力する操作を行った際、AV機器3は、当該操作が行われたことにより音声を出力するための音声関連情報を出力する。判定部15は、操作を行っている人を対象搭乗者とする(上記(1)の場合参照)。出力制御部16は、対象搭乗者の着座位置に対応する対象スピーカからAV機器3からの音声関連情報に基づく音声を出力させる。その後、ある搭乗者がAV機器3を停止させる操作を行わない限り、当該AV機器3からは継続的に音声関連情報が出力されることになる。ここで、出力制御部16の減衰データ生成部161は、搭乗者状況情報に基づき、ある搭乗者、言い換えれば、対象搭乗者が睡眠状態となったと判定した場合、対象スピーカから出力された音声を減衰させるための減衰データを生成し、減衰データ出力部162は、対象搭乗者の着座位置に対応する減衰用スピーカ52から減衰データを出力させる。
例えば、ある搭乗者がリモコンを操作してAV機器3を動作させ、AV機器3から当該操作に応答する応答メッセージに関する音声関連情報が出力されたとすると、音声出力制御装置1は、当該ある搭乗者を対象搭乗者と判定し、AV機器3を動作させた搭乗者の着座位置に対応する対象スピーカからのみ、応答メッセージを出力させる。
また、例えば、AV機器3がナビゲーション装置であり、当該ナビゲーション装置から道案内を行う音声データに関する音声関連情報が出力されたとすると、音声出力制御装置1は、運転者、および、視線をナビゲーション装置に表示されている地図の方向に向けている搭乗者を対象搭乗者と判定し、運転者、および、視線をナビゲーション装置に表示されている地図の方向に向けている搭乗者の着座位置に対応する対象スピーカからのみ、道案内を行う音声を出力させる。
また、例えば、AV機器3がナビゲーション装置であり、当該ナビゲーション装置から△△国立公園を案内する音声データに関する音声関連情報が出力されたとすると、音声出力制御装置1は、視線を△△国立公園の方向に向けている搭乗者を対象搭乗者と判定し、視線を△△国立公園の方向に向けている搭乗者の着座位置に対応する対象スピーカからのみ、音声を出力させる。
また、例えば、ある搭乗者が「○○さん、・・・」と、他の搭乗者に対する発話を行ったとすると、音声出力制御装置1は、○○という名前の搭乗者を対象搭乗者と判定し、○○という名前あの搭乗者の着座位置に対応する対象スピーカから、ある搭乗者による発話音声を出力する。
これにより、音声出力制御装置1は、音声を届けるべき搭乗者に音声を届け、音声が必要のない搭乗者に対しては出力される音声が耳障りにならないようにすることができる。
例えば、音声出力制御装置1は、対象搭乗者の着座位置に対応する対象スピーカからは音声関連情報に基づく音声を出力させ、対象搭乗者以外の搭乗者の着座位置に対応する減衰用スピーカ52からは減衰データを出力させる。
これにより、音声出力制御装置1は、対象搭乗者以外の搭乗者に対して、不要な音声が聞こえないように制御することができる。
また、例えば、音声出力制御装置1は、音声操作搭乗者が存在する場合、音声操作搭乗者の着座位置に対応する減衰用スピーカ52から減衰データを出力させるようにする。
これにより、音声出力制御装置1は、音声操作搭乗者が音声制御機器を操作するために行った発話による音声を阻害するノイズを打ち消すことができる。
また、例えば、音声出力制御装置1は、対象操作者が睡眠状態となった場合、当該対象操作者の着座位置に対応する減衰用スピーカ52から減衰データを出力させるようにする。このように、音声出力制御装置1は、指向性スピーカ51から出力される音声を遮り、対象操作者の睡眠を妨げない制御を行うことができる。すなわち、音声出力制御装置1は、音声を聞く側の搭乗者の状況を把握し、当該音声の届け先に存在する搭乗者の状況に応じて音声の出力方法を制御することもできる。
なお、実施の形態1では、図1に示すように、記憶部17は、音声出力制御装置1に備えられるものとするが、これは一例に過ぎない。記憶部17は、音声出力制御装置1の外部の、音声出力制御装置1が参照可能な場所に備えられるようにしてもよい。
図3は、実施の形態1に係る音声出力制御装置1の動作について説明するためのフローチャートである。
撮像画像取得部11は、取得した撮像画像を、搭乗者状況検出部12に出力する。
搭乗者状況検出部12は、検出した搭乗者の状況に関する搭乗者状況情報を、判定部15に出力する。
具体的には、音声関連情報取得部13の機器関連情報取得部131は、AV機器3から、音声関連情報を取得する。音声関連情報取得部13の集音情報取得部132は、マイク4から音声関連情報を取得する。
音声関連情報取得部13は、取得した音声関連情報を、音声解析部14または判定部15に出力する。具体的には、機器関連情報取得部131は、取得した音声関連情報を、判定部15に出力する。集音情報取得部132は、取得した音声関連情報を、音声解析部14に出力する。
音声解析部14は、集音情報取得部132が取得した音声関連情報に基づき、集音情報取得部132が取得した発話音声データの発話内容を解析する。音声解析部14は、発話内容の解析結果を付与した音声関連情報を、判定部15に出力する。
音声操作者判定部151が、音声操作搭乗者がいると判定すると、判定部15は、音声操作者情報を、出力制御部16に出力する。
なお、当該ステップST306において、出力制御部16の減衰データ生成部161は、ステップST303にて音声関連情報取得部13が取得した音声データを減衰させるための逆位相の減衰データを生成し、生成した減衰データを減衰データ出力部162に出力する。減衰データ出力部162は、減衰データ生成部161が生成した減衰データを、減衰用スピーカ52から出力させる。
実施の形態1において、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16の機能は、処理回路401により実現される。すなわち、音声出力制御装置1は、車両100の搭乗者の状況を考慮し、音声出力が必要と推定される搭乗者に対して音声が出力されるよう、音声出力の制御を行うための処理回路401を備える。
処理回路401は、図4Aに示すように専用のハードウェアであっても、図4Bに示すようにメモリ405に格納されるプログラムを実行するCPU(Central Processing Unit)405であってもよい。
また、記憶部17は、メモリ405を使用する。なお、図4Aにおいては、例えば、処理回路401が不揮発性メモリを有しており、記憶部17はこれを使用する。これは一例であって、記憶部は、HDD、SSD(Solid State Drive)、または、DVD等によって構成されるものであってもよい。
また、音声出力制御装置1は、カメラ
2、AV機器3、マイク4、または、スピーカ5等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
車両100には減衰用スピーカ52が設置されておらず、指向性スピーカ51のみ設置されていてもよい。この場合、音声出力制御装置1の出力制御部16は、減衰データ生成部161および減衰データ出力部162を備えない構成とすることができる。
音声出力制御装置1の出力制御部16は、例えば、上述したような、音声を減衰させるための逆位相の減衰データを出力するようにした場合において、指向性スピーカ51からの音声出力の停止を行う。
また、車両100には減衰用スピーカ52が設置されておらず、指向性スピーカ51のみ設置されている場合であっても、音声出力制御装置1の出力制御部16が、減衰データ生成部161および減衰データ出力部162を備えているようにしてもよい。この場合、減衰データ出力部162は、例えば、指向性スピーカ51から減衰データを出力すればよい。
これに限らず、撮像画像取得部11と、搭乗者状況検出部12と、音声関連情報取得部13と、音声解析部14と、判定部15と、出力制御部16のうち、一部または全部を車両の車載装置に搭載されるものとし、その他を当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで音声出力制御システムを構成するようにしてもよい。
Claims (10)
- 座席毎に対応するスピーカが設置されている車両内において音声出力を制御する音声出力制御装置であって、
前記車両内を撮像した撮像画像を取得する撮像画像取得部と、
前記撮像画像取得部が取得した撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部と、
前記スピーカから出力するための音声に関する音声関連情報を取得する音声関連情報取得部と、
前記搭乗者状況検出部が検出した搭乗者の状況に関する搭乗者状況情報と、前記音声関連情報取得部が取得した音声関連情報とに基づいて、前記音声を出力する対象となる対象搭乗者および当該対象搭乗者の前記着座位置を判定する判定部と、
前記スピーカのうち、前記判定部が判定した前記対象搭乗者の前記着座位置に対応する対象スピーカから、前記音声を出力させる出力制御部
とを備えた音声出力制御装置。 - 前記搭乗者状況情報に基づき、前記車両内に設置されている音声操作可能な音声制御機器に対して音声による操作指示を行った音声操作搭乗者がいるか否かを判定する音声操作者判定部を備え、
前記出力制御部は、
前記音声操作者判定部が、前記音声操作搭乗者がいると判定した場合、前記音声を減衰させるための減衰データを出力する、または、前記音声を出力させない
ことを特徴とする請求項1記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者が睡眠状態であるか否かが含まれ、
前記出力制御部は、
前記搭乗者状況情報に基づき、前記対象搭乗者が睡眠状態である場合は、前記音声を減衰させるための減衰データを出力する、または、前記音声を出力させない
ことを特徴とする請求項1または請求項2記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者による車載装置の操作状況が含まれ、
前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データを出力した前記車載装置に関する情報とが含まれ、
前記判定部は、
前記搭乗者のうち、前記車載装置を操作した前記搭乗者を前記対象搭乗者と判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者の視線の方向が含まれ、
前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データを出力した車載装置に関する情報とが含まれ、
前記判定部は、
前記搭乗者のうち、前記車載装置の方向に視線を向けている前記搭乗者を、前記対象搭乗者と判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者の視線の方向が含まれ、
前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データの種別に関する情報とが含まれ、
前記判定部は、
前記音声データの種別が道案内を示す種別である場合、車載装置に表示されている地図に視線を向けている前記搭乗者を、前記対象搭乗者と判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出した前記搭乗者の状況には、前記搭乗者が睡眠状態であるか否かが含まれ、
前記音声関連情報取得部が取得する前記音声関連情報には、音声データと、当該音声データの種別に関する情報とが含まれ、
前記判定部は、
前記音声関連情報と前記搭乗者状況情報とに基づき、前記音声データの種別が前記搭乗者全員に向けた案内を示す種別である場合、睡眠状態でない前記搭乗者を、前記対象搭乗者と判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出する前記搭乗者の状況には前記搭乗者の視線の方向が含まれ、
前記音声関連情報取得部が取得する前記音声関連情報には音声データが含まれ、当該音声データは地点を案内するための音声データであり、
前記判定部は、
前記音声関連情報と前記搭乗者状況情報とに基づき、前記地点の方向に前記視線を向けている前記搭乗者を、前記対象搭乗者と判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。 - 前記搭乗者状況検出部が検出する前記搭乗者状況情報には発話を行った前記搭乗者を特定可能な情報が含まれ、
前記音声関連情報取得部が取得する前記音声関連情報には音声データが含まれ、当該音声データは前記車両内に設置されているマイクから収集された、他の前記搭乗者に対する発話音声であり、
前記判定部は、
前記発話音声に基づく発話内容と前記搭乗者状況情報とに基づき前記対象搭乗者を判定する
ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声出力制御装置。 - 座席毎に対応するスピーカが設置されている車両内において音声出力を制御する音声出力制御プログラムであって、
コンピュータを、
前記車両内を撮像した撮像画像を取得する撮像画像取得部と、
前記撮像画像取得部が取得した撮像画像に基づいて、少なくとも着座位置を含む、搭乗者の状況を検出する搭乗者状況検出部と、
前記スピーカから出力するための音声に関する音声関連情報を取得する音声関連情報取得部と、
前記搭乗者状況検出部が検出した搭乗者の状況に関する搭乗者状況情報と、前記音声関連情報取得部が取得した音声関連情報とに基づいて、前記音声を出力する対象となる対象搭乗者および当該対象搭乗者の前記着座位置を判定する判定部と、
前記スピーカのうち、前記判定部が判定した前記対象搭乗者の前記着座位置に対応する対象スピーカから、前記音声を出力させる出力制御部
として機能させるための音声出力制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020116585A JP7407665B2 (ja) | 2020-07-06 | 2020-07-06 | 音声出力制御装置および音声出力制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020116585A JP7407665B2 (ja) | 2020-07-06 | 2020-07-06 | 音声出力制御装置および音声出力制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022014313A true JP2022014313A (ja) | 2022-01-19 |
JP7407665B2 JP7407665B2 (ja) | 2024-01-04 |
Family
ID=80185356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020116585A Active JP7407665B2 (ja) | 2020-07-06 | 2020-07-06 | 音声出力制御装置および音声出力制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7407665B2 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005191668A (ja) * | 2003-12-24 | 2005-07-14 | Pioneer Electronic Corp | 発音制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 |
WO2007135855A1 (ja) * | 2006-05-18 | 2007-11-29 | Pioneer Corporation | 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体 |
JP2009031065A (ja) * | 2007-07-25 | 2009-02-12 | Aisin Aw Co Ltd | 車両用情報案内装置、車両用情報案内方法及びコンピュータプログラム |
JP2009147812A (ja) * | 2007-12-17 | 2009-07-02 | Fujitsu Ten Ltd | 音響システム、音響制御方法および音響システムの設定方法 |
JP2019012046A (ja) * | 2017-06-30 | 2019-01-24 | 株式会社デンソーテン | 通知装置、通知システムおよび通知方法 |
WO2019016936A1 (ja) * | 2017-07-21 | 2019-01-24 | 三菱電機株式会社 | 操作支援装置および操作支援方法 |
JP2019075748A (ja) * | 2017-10-18 | 2019-05-16 | 株式会社デンソーテン | 車載装置、車載音響システムおよび音声出力方法 |
JP2020044879A (ja) * | 2018-09-14 | 2020-03-26 | トヨタ自動車株式会社 | 車両用音入出力装置 |
JP2020060696A (ja) * | 2018-10-10 | 2020-04-16 | 本田技研工業株式会社 | コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム |
-
2020
- 2020-07-06 JP JP2020116585A patent/JP7407665B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005191668A (ja) * | 2003-12-24 | 2005-07-14 | Pioneer Electronic Corp | 発音制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体 |
WO2007135855A1 (ja) * | 2006-05-18 | 2007-11-29 | Pioneer Corporation | 情報案内装置、情報案内方法、情報案内プログラムおよびコンピュータに読み取り可能な記録媒体 |
JP2009031065A (ja) * | 2007-07-25 | 2009-02-12 | Aisin Aw Co Ltd | 車両用情報案内装置、車両用情報案内方法及びコンピュータプログラム |
JP2009147812A (ja) * | 2007-12-17 | 2009-07-02 | Fujitsu Ten Ltd | 音響システム、音響制御方法および音響システムの設定方法 |
JP2019012046A (ja) * | 2017-06-30 | 2019-01-24 | 株式会社デンソーテン | 通知装置、通知システムおよび通知方法 |
WO2019016936A1 (ja) * | 2017-07-21 | 2019-01-24 | 三菱電機株式会社 | 操作支援装置および操作支援方法 |
JP2019075748A (ja) * | 2017-10-18 | 2019-05-16 | 株式会社デンソーテン | 車載装置、車載音響システムおよび音声出力方法 |
JP2020044879A (ja) * | 2018-09-14 | 2020-03-26 | トヨタ自動車株式会社 | 車両用音入出力装置 |
JP2020060696A (ja) * | 2018-10-10 | 2020-04-16 | 本田技研工業株式会社 | コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7407665B2 (ja) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3910898B2 (ja) | 指向性設定装置、指向性設定方法及び指向性設定プログラム | |
WO2017081960A1 (ja) | 音声認識制御システム | |
JP6604151B2 (ja) | 音声認識制御システム | |
JP6284331B2 (ja) | 会話支援装置、会話支援方法及び会話支援プログラム | |
JP6767082B2 (ja) | 車内通話制御装置、車内通話システムおよび車内通話制御方法 | |
JP7049803B2 (ja) | 車載装置および音声出力方法 | |
US11904783B2 (en) | Vehicle microphone activation and/or control systems | |
JP2010156825A (ja) | 音声出力装置 | |
JP2017090614A (ja) | 音声認識制御システム | |
JP2004354930A (ja) | 音声認識システム | |
JP6459330B2 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
JP4360308B2 (ja) | 車載音響制御システム及びaiエージェント | |
US10645494B1 (en) | Active control system for a vehicular dual microphone and a control method thereof | |
JP7065964B2 (ja) | 音場制御装置および音場制御方法 | |
WO2007145331A1 (ja) | カメラ制御装置、カメラ制御方法、カメラ制御プログラムおよび記録媒体 | |
JP2022014313A (ja) | 音声出力制御装置および音声出力制御プログラム | |
WO2022176038A1 (ja) | 音声認識装置および音声認識方法 | |
WO2021234839A1 (ja) | 対話予兆検知装置、および、対話予兆検知方法 | |
WO2021038736A1 (ja) | 音場制御装置及び音場制御方法 | |
KR101710695B1 (ko) | 차량용 음성 인식을 위한 마이크로폰 제어 시스템 및 그 제어 방법 | |
WO2022172393A1 (ja) | 音声認識装置および音声認識方法 | |
WO2022038724A1 (ja) | 音声対話装置、および、音声対話装置における対話対象判定方法 | |
US20230252987A1 (en) | Vehicle and control method thereof | |
JP2020160181A (ja) | 音声処理装置及び音声処理方法 | |
US20230282217A1 (en) | Voice registration device, control method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7407665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |