JPWO2019130399A1 - 音声認識装置、音声認識システム及び音声認識方法 - Google Patents

音声認識装置、音声認識システム及び音声認識方法 Download PDF

Info

Publication number
JPWO2019130399A1
JPWO2019130399A1 JP2019561409A JP2019561409A JPWO2019130399A1 JP WO2019130399 A1 JPWO2019130399 A1 JP WO2019130399A1 JP 2019561409 A JP2019561409 A JP 2019561409A JP 2019561409 A JP2019561409 A JP 2019561409A JP WO2019130399 A1 JPWO2019130399 A1 JP WO2019130399A1
Authority
JP
Japan
Prior art keywords
response
speaker
unit
voice
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019561409A
Other languages
English (en)
Inventor
直哉 馬場
直哉 馬場
匠 武井
匠 武井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019130399A1 publication Critical patent/JPWO2019130399A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60NSEATS SPECIALLY ADAPTED FOR VEHICLES; VEHICLE PASSENGER ACCOMMODATION NOT OTHERWISE PROVIDED FOR
    • B60N2/00Seats specially adapted for vehicles; Arrangement or mounting of seats in vehicles
    • B60N2/002Seats provided with an occupancy detection means mounted therein or thereon
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • B60K2360/148
    • B60K2360/171
    • B60K35/10
    • B60K35/22
    • B60K35/265
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

音声認識装置(100)は、車両(1)における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部(14)と、発話者の個人を特定する個人特定処理又は発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部(15)と、発話者特定部(15)による特定結果に応じて、発話者に対する応答の態様を設定する応答態様設定処理を実行する応答態様設定部(17)とを備え、応答態様設定処理は、複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別可能な態様に応答の態様を設定する処理である。

Description

本発明は、音声認識装置、音声認識システム及び音声認識方法に関する。
従来、車両内の情報機器に対する操作入力用の音声認識装置が開発されている。以下、車両における音声認識の対象となる座席を「音声認識対象座席」という。また、音声認識対象座席に着座している搭乗者のうちの操作入力用の音声を発話した搭乗者を「発話者」という。また、発話者により発話された操作入力用の音声を「発話音声」という。
特許文献1には、音声認識対象座席である運転席及び助手席のうちの発話者が着座している座席を特定する技術が開示されている。これにより、音声認識対象座席に複数人の搭乗者が着座している場合における適切な操作入力を実現している。
特開平11−65587号公報
近年、いわゆる「対話型」のUI(User Interface)に対応した音声認識装置が開発されている。すなわち、発話音声に対する音声認識を実行することにより操作入力を受け付けるのに加えて、当該発話音声に対する応答用の音声(以下「応答用音声」という。)をスピーカに出力させたり、又は当該発話音声に対する応答用の画像(以下「応答用画像」という。)をディスプレイに表示させたりするUIが開発されている。以下、対話型のUIにおける応答用音声及び応答用画像などを総称して単に「応答」ということがある。
対話型のUIに対応した音声認識装置においては、音声認識対象座席に複数人の搭乗者が着座している場合、当該複数人の搭乗者のうちの発話者に対する応答が出力される。このとき、当該複数人の搭乗者の各々が、応答が自身に対するものであるか否かを識別し難いという問題があった。特に、複数人の発話者に対する応答が略同時に出力された場合、識別が更に困難になるという問題があった。
本発明は、上記のような課題を解決するためになされたものであり、音声認識対象座席に着座している複数人の搭乗者の各々に、対話型のUIにおける応答が自身に対するものであるか否かを知らせることを目的とする。
本発明の音声認識装置は、車両における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部と、発話者の個人を特定する個人特定処理又は発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部と、発話者特定部による特定結果に応じて、発話者に対する応答の態様を設定する応答態様設定処理を実行する応答態様設定部とを備え、応答態様設定処理は、複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別可能な態様に応答の態様を設定する処理であることを特徴とするものである。
本発明によれば、上記のように構成したので、音声認識対象座席に着座している複数人の搭乗者の各々に、対話型のUIにおける応答が自身に対するものであるか否かを知らせることができる。
本発明の実施の形態1に係る音声認識装置が車両内の情報機器に設けられている状態を示すブロック図である。 表示装置に応答用画像が表示されている状態を示す説明図である。 表示装置に他の応答用画像が表示されている状態を示す説明図である。 図4Aは、本発明の実施の形態1に係る音声認識装置が設けられている情報機器のハードウェア構成を示すブロック図である。図4Bは、本発明の実施の形態1に係る音声認識装置が設けられている情報機器の他のハードウェア構成を示すブロック図である。 本発明の実施の形態1に係る音声認識装置が設けられている情報機器の動作を示すフローチャートである。 本発明の実施の形態1に係る音声認識装置のうちの音声認識部の詳細な動作を示すフローチャートである。 本発明の実施の形態1に係る音声認識システムの要部を示すブロック図である。 本発明の実施の形態2に係る音声認識装置が車両内の情報機器に設けられている状態を示すブロック図である。 本発明の実施の形態2に係る音声認識装置のうちの搭乗者特定部の動作を示すフローチャートである。 本発明の実施の形態2に係る音声認識装置のうちの搭乗者特定部の詳細な動作を示すフローチャートである。 本発明の実施の形態2に係る音声認識装置が設けられている情報機器のうちの搭乗者特定部を除く部位の動作を示すフローチャートである。 本発明の実施の形態2に係る音声認識装置のうちの音声認識部の詳細な動作を示すフローチャートである。 本発明の実施の形態2に係る他の音声認識装置が車両内の情報機器に設けられている状態を示すブロック図である。 本発明の実施の形態2に係る他の音声認識装置が車両内の情報機器に設けられている状態を示すブロック図である。 本発明の実施の形態2に係る音声認識システムの要部を示すブロック図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る音声認識装置が車両内の情報機器に設けられている状態を示すブロック図である。図1を参照して、実施の形態1の音声認識装置100について、車両1内の情報機器2に設けられている例を中心に説明する。
図中、3は集音装置である。集音装置3は、例えば、車両1の車室内前方部に設けられたN個のマイク3〜3により構成されている(Nは2以上の整数)。より具体的には、例えば、マイク3〜3の各々が無指向性マイクにより構成されており、一定間隔に配列されたマイク3〜3によりアレイマイクが構成されている。集音装置3は、マイク3〜3により集音された音声に対応する信号(以下「音声信号」という。)S〜Sを出力するものである。すなわち、音声信号S〜Sはマイク3〜3と一対一に対応するものである。
音声信号取得部11は、集音装置3により出力された音声信号S〜Sを取得するものである。音声信号取得部11は、例えばPCM(Pulse Code Modulation)により、音声信号S〜Sに対するアナログデジタル変換(以下「A/D変換」という。)を実行するものである。音声信号取得部11は、A/D変換後の音声信号S’〜S’を音声信号処理部12に出力するものである。
音声信号処理部12は、集音装置3に対する発話音声の入力方向(以下「発話方向」という。)を推定するものである。具体的には、例えば、集音装置3は、車両1の車室内前方部において車両1の左右方向に対する中心部に配置されている。以下、集音装置3の配置位置を通り、かつ、車両1の前後方向に対して平行な軸を「中心軸」という。音声信号処理部12は、音声信号S’〜S’間のパワーの差分値又は音声信号S’〜S ’間の位相差などに基づき、集音装置3の配置位置を基準とする中心軸に対する左右方向の角度θにより表される発話方向を推定する。
また、音声信号処理部12は、音声信号S’〜S’のうちの当該推定された発話方向と異なる方向から集音装置3に入力された音声に対応する成分を除去することにより、発話音声と異なる音声に対応する成分(以下「ノイズ成分」という。)を除去するものである。音声信号処理部12は、ノイズ成分が除去された音声信号S”〜S”を音声認識処理部13に出力するものである。なお、MはN以下の整数であり、例えば音声認識対象座席の座席数に対応する値である。
ノイズ成分は、例えば、車両1の走行により発生した騒音に対応する成分、及び車両1の搭乗者のうちの発話者と異なる搭乗者により発話された音声に対応する成分(すなわち搭乗者間の会話などにより発生した非操作入力用の音声に対応する成分)などを含むものである。音声信号処理部12におけるノイズ成分の除去には、ビームフォーミング法、バイナリマスキング法又はスペクトルサブトラクション法などの公知の種々の方法を用いることができる。このため、音声信号処理部12におけるノイズ成分の除去についての詳細な説明は省略する。
音声認識処理部13は、音声信号S”〜S”のうちの発話音声に対応する音声区間(以下「発話区間」という。)を検出するものである。音声認識処理部13は、発話区間内の音声信号S”〜S”から音声認識処理用の特徴量(以下「第1特徴量」という。)を抽出するものである。音声認識処理部13は、第1特徴量を用いて音声認識処理を実行するものである。
音声認識処理部13における音声認識処理には、HMM(Hidden Markov Model)法などの公知の種々の方法を用いることができる。このため、音声認識処理部13における音声認識処理についての詳細な説明は省略する。
また、音声認識処理部13は、発話区間内の音声信号S”〜S”から、発話者の個人を特定する処理(以下「個人特定処理」という。)用の特徴量(以下「第2特徴量」という。)を抽出するものである。
音声信号取得部11、音声信号処理部12及び音声認識処理部13により、音声認識部14が構成されている。すなわち、音声認識部14は、発話音声に対する音声認識を実行するものである。
なお、発話者が1人である場合、音声認識部14は当該1人の発話者による発話音声に対する音声認識を実行するものとなる。他方、発話者が複数人である場合、音声認識部14は当該複数人の発話者の各々による発話音声に対する音声認識を実行するものとなる。
発話者特定部15は、音声認識処理部13により抽出された第2特徴量を用いて個人特定処理を実行するものである。
具体的には、例えば、発話者特定部15には、第2特徴量に対応する複数人分の特徴量を含むデータベースが予め記憶されている。発話者特定部15は、音声認識処理部13により抽出された第2特徴量を当該複数人分の特徴量の各々と比較することにより、発話者の個人を特定する。
または、発話者特定部15は、音声信号処理部12により推定された発話方向に基づき、音声認識対象座席のうちの発話者が着座している座席を特定する処理(以下「座席特定処理」という。)を実行するものである。
具体的には、例えば、集音装置3の配置位置を基準とする中心軸に対する各音声認識対象座席の位置を示す角度(以下「実角度」という。)φが予め計測されており、各音声認識対象座席の実角度φが発話者特定部15に予め記憶されている。発話者特定部15は、音声信号処理部12により推定された発話方向が示す角度θを各音声認識対象座席に対応する実角度φと比較することにより、発話者が着座している座席を特定する。
一例として、車両1の運転席及び助手席が音声認識対象座席であり、運転席に対応する実角度φである+20°と助手席に対応する実角度φである−20°とが発話者特定部15に予め記憶されているものとする。この場合において、音声信号処理部12により推定された発話方向の示す角度θが+18°であるとき、発話者特定部15は、発話者の着座している座席が運転席であると特定する。
または、発話者特定部15は、個人特定処理及び座席特定処理の両方を実行するものである。
なお、発話者が1人である場合、個人特定処理は当該1人の発話者の個人を特定する処理となり、座席特定処理は当該1人の発話者が着座している座席を特定する処理となる。他方、発話者が複数人である場合、個人特定処理は当該複数人の発話者の各々の個人を特定する処理となり、座席特定処理は当該複数人の発話者の各々が着座している座席を特定する処理となる。
また、発話者特定部15が個人特定処理のみを実行するものである場合、図1に示す音声信号処理部12と発話者特定部15間の接続線は不要である。また、発話者特定部15が座席特定処理のみを実行するものである場合、音声認識処理部13による第2特徴点の抽出は不要であり、かつ、図1に示す音声認識処理部13と発話者特定部15の接続線は不要である。
応答内容設定部16は、発話音声に対する応答の内容(以下「応答内容」という。)を設定する処理(以下「応答内容設定処理」という。)を実行するものである。応答態様設定部17は、発話音声に対する応答の態様(以下「応答態様」という。)を設定する処理(以下「応答態様設定処理」という。)を実行するものである。応答出力制御部18は、応答内容設定部16により設定された応答内容及び応答態様設定部17により設定された応答態様に基づき、発話音声に対する応答を出力する制御(以下「応答出力制御」という。)を実行するものである。
具体的には、例えば、応答態様設定部17は、応答用音声の出力態様を設定する。応答出力制御部18は、いわゆる「音声合成」により、応答態様設定部17により設定された出力態様に基づく応答用音声を生成する。応答出力制御部18は、当該生成された応答用音声を音声出力装置4に出力させる制御を実行する。音声出力装置4は、例えば、複数個のスピーカにより構成されている。
応答出力制御部18における音声合成には、公知の種々の方法を用いることができる。このため、応答出力制御部18における音声合成についての詳細な説明は省略する。
また、例えば、応答態様設定部17は、応答用画像の表示態様を設定する。応答出力制御部18は、応答態様設定部17により設定された表示態様に基づく応答用画像を生成する。応答出力制御部18は、当該生成された応答用画像を表示装置5に表示させる制御を実行する。表示装置5は、例えば、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイなどのディスプレイにより構成されている。
なお、発話者が1人である場合、応答内容設定処理は当該1人の発話者に対する応答の内容を設定する処理となり、応答内容態様設定処理は当該1人の発話者に対する応答の態様を設定する処理となり、応答出力制御は当該1人の発話者に対する応答を出力する制御となる。他方、発話者が複数人である場合、応答内容設定処理は当該複数人の発話者の各々に対する応答の内容を設定する処理となり、応答内容態様設定処理は当該複数人の発話者の各々に対する応答の態様を設定する処理となり、応答出力制御は当該複数人の発話者の各々に対する応答を出力する制御となる。
以下、応答内容設定処理、応答態様設定処理及び応答出力制御の具体例について説明する。
〈応答内容設定処理の具体例〉
応答内容設定部16は、音声認識処理部13による音声認識処理の結果を取得する。応答内容設定部16は、予め記憶されている複数個の応答文のうちの音声認識処理の結果に対応する応答文を選択する。このときの選択は、音声認識処理の結果と予め記憶されている複数個の応答文との対応関係に関する所定のルールに基づくものであっても良く、又は大量の対話文例を用いた機械学習の結果による統計モデルに基づくものであっても良い。
なお、応答内容設定部16は、いわゆる「クラウド」から天気情報又はスケジュール情報などを取得して、これらの情報を含む応答文を生成するものであっても良い。
〈応答態様設定処理及び応答出力制御の第1具体例〉
応答態様設定部17は、発話者特定部15による個人特定処理の結果を取得する。また、応答態様設定部17は、応答内容設定部16により選択又は生成された応答文(以下「出力用応答文」という。)を取得する。応答態様設定部17は、個人特定処理の結果が示す発話者の氏名などに基づき、発話者に対する呼称を出力用応答文に付加する。応答出力制御部18は、当該呼称を含む出力用応答文に対応する応答用音声又は応答用画像を生成する。
例えば、運転席に着座している発話者による「迂回ルートを検索して。」という発話音声に対して、個人特定処理の結果が当該発話者の氏名「A」を示しており、応答内容設定部16が「迂回ルートを検索しました。案内します。」という出力用応答文を選択したものとする。この場合、応答態様設定部17は、応答内容設定部16により選択された出力用応答文の先頭部に呼称を付加することにより、「Aさん、迂回ルートを検索しました。案内します。」という出力用応答文を生成する。応答出力制御部18は、応答態様設定部17により生成された出力用応答文に対応する応答用音声又は応答用画像を生成する。図2に、この場合における応答用画像Iの一例を示す。
または、例えば、運転席に着座している発話者による「今日のスケジュールを教えて。」という発話音声に対して、個人特定処理の結果が当該発話者の氏名「A」を示しており、応答内容設定部16がスケジュール情報を用いて「今日は14時より歯医者の予約が入っています。」という出力用応答文を生成したものとする。また、助手席に着座している発話者による「私のスケジュールも教えて。」という発話音声に対して、個人特定処理の結果が当該発話者の氏名「B」を示しており、応答内容設定部16がスケジュール情報を用いて「今日は17時より友人との飲み会が入っています。」という出力用応答文を生成したものとする。
この場合、応答態様設定部17は、応答内容設定部16により生成された各出力用応答文の先頭部に呼称を付加することにより、「Aさん、今日は14時より歯医者の予約が入っています。」という出力用応答文と「Bさん、今日は17時より友人との飲み会が入っています。」という出力用応答文とを生成する。応答出力制御部18は、これらの出力用応答文の各々に対応する応答用音声又は応答用画像を生成する。
または、応答態様設定部17は、発話者特定部15による座席特定処理の結果を取得する。また、応答態様設定部17は、応答内容設定部16により選択又は生成された出力用応答文を取得する。応答態様設定部17は、座席特定処理の結果が示す座席の名称などに基づき、発話者に対する呼称を出力用応答文に付加する。応答出力制御部18は、当該呼称を含む出力用応答文に対応する応答用音声又は応答用画像を生成する。
例えば、運転席に着座している発話者による「近くの駐車場を教えて。」という発話音声に対して、座席特定処理の結果が「運転席」を示しており、応答内容設定部16が「近くの駐車場が3件見つかりました。」という出力用応答文を生成したものとする。また、助手席に着座している発話者による「音楽聴きたい。」という発話音声に対して、座席特定処理の結果が「助手席」を示しており、応答内容設定部16が「どのようなジャンルの音楽をお探しですか?」という出力用応答文を選択したものとする。
この場合、応答態様設定部17は、応答内容設定部16により生成又は選択された各出力用応答文の先頭部に呼称を付加することにより、「運転手さん、近くの駐車場が3件見つかりました。」という出力用応答文と「助手席乗員さん、どのようなジャンルの音楽をお探しですか?」という出力用応答文とを生成する。応答出力制御部18は、これらの出力用応答文の各々に対応する応答用音声又は応答用画像を生成する。
〈応答態様設定処理及び応答出力制御の第2具体例〉
応答態様設定部17は、発話者特定部15による個人特定処理の結果を取得する。応答出力制御部18における音声合成は、応答用音声の話者を複数人の話者の中から選択自在になっている。応答態様設定部17は、個人特定処理の結果が示す発話者に応じて、応答用音声の話者を異なる話者に設定する。
または、応答態様設定部17は、発話者特定部15による座席特定処理の結果を取得する。応答出力制御部18における音声合成は、応答用音声の話者を複数人の話者の中から選択自在になっている。応答態様設定部17は、座席特定処理の結果が示す座席に応じて、応答用音声の話者を異なる話者に設定する。
〈応答態様設定処理及び応答出力制御の第3具体例〉
応答態様設定部17は、発話者特定部15による座席特定処理の結果を取得する。応答態様設定部17は、座席特定処理の結果が示す座席の位置に応じて、音声出力装置4に含まれる複数個のスピーカのうちの応答用音声の出力に用いられるスピーカを設定する。応答出力制御部18は、応答態様設定部17により設定されたスピーカから応答用音声が出力されるように制御する。
例えば、音声出力装置4が左右一対のフロントスピーカにより構成されており、座席特定処理の結果が「運転席」を示しているものとする。この場合、応答態様設定部17は、フロントスピーカのうちの運転席側のスピーカを応答用音声の出力に用いられるスピーカに設定する。応答出力制御部18は、フロントスピーカのうちの運転席側のスピーカから応答用音声が出力されるように制御する。
同様に、音声出力装置4が左右一対のフロントスピーカにより構成されており、座席特定処理の結果が「助手席」を示しているものとする。この場合、応答態様設定部17は、フロントスピーカのうちの助手席側のスピーカを応答用音声の出力に用いられるスピーカに設定する。応答出力制御部18は、フロントスピーカのうちの助手席側のスピーカから応答用音声が出力されるように制御する。
〈応答態様設定処理及び応答出力制御の第4具体例〉
応答態様設定部17は、発話者特定部15による座席特定処理の結果を取得する。応答出力制御部18は、応答用音声が出力されるときの車両1の車室内における音場を制御する機能を有している。応答態様設定部17は、座席特定処理の結果が示す座席の位置に応じて、応答用音声が出力されるときの音場を設定する。応答出力制御部18は、応答態様設定部17により設定された音場が車両1の車室内に形成されるように、音声出力装置4に応答用音声を出力させる。
例えば、座席特定処理の結果が「運転席」を示しているものとする。この場合、応答態様設定部17は、運転席における応答用音声の音量が他の座席における応答用音声の音量よりも大きくなるように音場を設定する。応答出力制御部18は、かかる音場が車両1の車室内に形成されるように、音声出力装置4に応答用音声を出力させる。
同様に、座席特定処理の結果が「助手席」を示しているものとする。この場合、応答態様設定部17は、助手席における応答用音声の音量が他の座席における応答用音声の音量よりも大きくなるように音場を設定する。応答出力制御部18は、かかる音場が車両1の車室内に形成されるように、音声出力装置4に応答用音声を出力させる。
〈応答態様設定処理及び応答出力制御の第5具体例〉
応答態様設定部17は、発話者特定部15による座席特定処理の結果を取得する。応答態様設定部17は、座席特定処理の結果が示す座席の位置に応じて、表示装置5の表示領域のうちの応答用画像が表示される部位を設定する。応答出力制御部18は、応答態様設定部17により設定された部位に応答用画像を表示させる。
例えば、運転席に着座している発話者による「今日のスケジュールを教えて。」という発話音声に対して、応答内容設定部16がスケジュール情報を用いて「今日は14時より歯医者の予約が入っています。」という出力用応答文を生成したものとする。また、助手席に着座している発話者による「私のスケジュールも教えて。」という発話音声に対して、応答内容設定部16がスケジュール情報を用いて「今日は17時より友人との飲み会が入っています。」という出力用応答文を生成したものとする。
この場合、応答態様設定部17は、運転席に着座している発話者に対する出力用応答文に対応する応答用画像が、表示装置5の表示領域のうちの運転席側の半部に表示されるように設定する。また、応答態様設定部17は、助手席に着座している発話者に対する出力用応答文に対応する応答用画像が、表示装置5の表示領域のうちの助手席側の半部に表示されるように設定する。図3に、この場合における応答用画像I,Iの一例を示す。
応答態様設定部17は、第1具体例〜第5具体例のうちの少なくとも一つによる応答態様設定処理を実行する。これにより、音声認識対象座席に着座している複数人の搭乗者の各々は、応答が自身に対するものであるか否かを容易に識別することができる。特に、複数人の発話者に対する応答が略同時に出力されたとき、当該複数人の発話者の各々が、これらの応答が自身に対するものであるか否かを容易に識別することができる。
なお、応答態様設定部17が第1具体例による応答態様設定処理を実行するものである場合、呼称を含む出力用応答文が応答態様設定部17から応答出力制御部18に出力される。他方、応答態様設定部17が第1具体例による応答態様設定処理を実行しないものである場合、応答内容設定部16により選択又は生成された出力用応答文が応答内容設定部16から応答出力制御部18に出力される。また、第2具体例〜第5具体例は、いずれも、応答態様設定処理に出力用応答文を用いないものである。
このため、応答態様設定部17が第1具体例による応答態様設定処理を実行するものである場合、図1に示す応答内容設定部16と応答出力制御部18間の接続線は不要である。他方、応答態様設定部17が第1具体例による応答態様設定処理を実行しないものである場合(すなわち応答態様設定部17が第2具体例〜第5具体例のうちの少なくとも一つによる応答態様設定処理のみを実行するものである場合)、図1に示す応答内容設定部16と応答態様設定部17間の接続線は不要である。
音声認識部14、発話者特定部15及び応答態様設定部17により、音声認識装置100の要部が構成されている。音声認識装置100、応答内容設定部16及び応答出力制御部18により、情報機器2の要部が構成されている。
情報機器2は、例えば、車両1に搭載されたカーナビゲーション装置、カーオーディオ装置又はディスプレイオーディオ装置などの車載情報機器により構成されている。または、例えば、情報機器2は、車両1に持ち込まれたスマートフォン、タブレットPC(personal computer)若しくはPND(Portable Navigation Device)などの携帯情報端末により構成されている。
次に、図4を参照して、情報機器2の要部のハードウェア構成について説明する。
図4Aに示す如く、情報機器2はコンピュータにより構成されており、プロセッサ21及びメモリ22を有している。メモリ22には、当該コンピュータを音声認識部14、発話者特定部15、応答内容設定部16、応答態様設定部17及び応答出力制御部18として機能させるためのプログラムが記憶されている。メモリ22に記憶されたプログラムをプロセッサ21が読み出して実行することにより、音声認識部14、発話者特定部15、応答内容設定部16、応答態様設定部17及び応答出力制御部18の機能が実現される。
プロセッサ21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)などを用いたものである。メモリ22は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read−Only Memory)などの半導体メモリ、磁気ディスク、光ディスク又は光磁気ディスクなどを用いたものである。
または、図4Bに示す如く、音声認識部14、発話者特定部15、応答内容設定部16、応答態様設定部17及び応答出力制御部18の機能が専用の処理回路23により実現されるものであっても良い。処理回路23は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、SoC(System−on−a−Chip)又はシステムLSI(Large−Scale Integration)などを用いたものである。
または、音声認識部14、発話者特定部15、応答内容設定部16、応答態様設定部17及び応答出力制御部18のうちの一部の機能がプロセッサ21及びメモリ22により実現され、かつ、残余の機能が処理回路23により実現されるものであっても良い。
次に、図5及び図6のフローチャートを参照して、情報機器2の動作について説明する。なお、図6に示すステップST11〜ST17は、図5に示すステップST1内の詳細な処理内容を示している。
まず、ステップST1にて、音声認識部14が発話音声に対する音声認識を実行する。
すなわち、ステップST11にて、音声信号取得部11は、集音装置3により出力された音声信号S〜Sを取得する。音声信号取得部11は、音声信号S〜Sに対するA/D変換を実行する。音声信号取得部11は、A/D変換後の音声信号S’〜S’を音声信号処理部12に出力する。
次いで、ステップST12にて、音声信号処理部12は、音声信号S’〜S’間のパワーの差分値又は音声信号S’〜S ’間の位相差などに基づき、集音装置3に対する発話音声の入力方向、すなわち発話方向を推定する。
次いで、ステップST13にて、音声信号処理部12は、ステップST12で推定された発話方向に基づき、音声信号S’〜S’のうちの発話音声と異なる音声に対応する成分、すなわちノイズ成分を除去する。音声信号処理部12は、ノイズ成分が除去された音声信号S”〜S”を音声認識処理部13に出力する。
次いで、ステップST14にて、音声認識処理部13は、音声信号S”〜S”のうちの発話音声に対応する音声区間、すなわち発話区間を検出する。
次いで、ステップST15にて、音声認識処理部13は、発話区間内の音声信号S”〜S”から音声認識処理用の第1特徴量を抽出する。次いで、ステップST16にて、音声認識処理部13は、第1特徴量を用いて音声認識処理を実行する。
また、発話者特定部15が個人特定処理を実行するものである場合、ステップST14に次いで、ステップST17にて、音声認識処理部13は、発話区間内の音声信号S”〜S”から個人特定処理用の第2特徴量を抽出する。なお、発話者特定部15が個人特定処理を実行しないものである場合(すなわち発話者特定部15が座席特定処理のみを実行するものである場合)、ステップST17の処理は不要である。
ステップST1に次いで、ステップST2にて、発話者特定部15が個人特定処理又は座席特定処理のうちの少なくとも一方を実行する。個人特定処理の具体例及び座席特定処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
次いで、ステップST3にて、応答内容設定部16が応答内容設定処理を実行する。応答内容設定処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
次いで、ステップST4にて、応答態様設定部17が応答態様設定処理を実行する。応答態様設定処理の具体例は既に説明したとおりであるため、再度の説明は省略する。
次いで、ステップST5にて、応答出力制御部18が応答出力制御を実行する。応答出力制御の具体例は既に説明したとおりであるため、再度の説明は省略する。
なお、集音装置3は複数個の無指向性マイクにより構成されたアレイマイクに限定されるものではない。例えば、各音声認識対象座席に対する前方部に少なくとも1個の指向性マイクが設けられており、これらの指向性マイクにより集音装置3が構成されているものであっても良い。この場合、音声信号処理部12において、発話方向を推定する処理及び当該推定された発話方向に基づきノイズ成分を除去する処理は不要である。また、座席特定処理は、例えば、発話音声に対応する成分を含む音声信号が出力された指向性マイクに対応する座席に発話者が着座していると特定する処理となる。
また、応答態様設定処理は、音声認識対象座席に着座している複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別できるように応答態様を設定するものであれば良く、第1具体例〜第5具体例に限定されるものではない。また、応答態様設定処理は、応答用音声の出力態様を設定する処理又は応答用画像の表示態様を設定する処理に限定されるものではない。
例えば、各音声認識対象座席に対する前方部にLED(Light Emitting Diode)などの発光素子が設けられており、応答態様設定部17は、座席特定処理の結果に基づき、これらの発光素子のうちの発話者が着座している座席に対する前方部に設けられている発光素子を点灯対象に設定するものであっても良い。応答出力制御部18は、応答態様設定部17により点灯対象に設定された発光素子を点灯させる制御を実行するものであっても良い。
また、例えば、発話者が複数人である場合、応答態様設定部17は、当該複数人の発話者のうちの一部の発話者のみに対する応答の態様を設定するものであっても良い。応答出力制御部18は、当該複数人の発話者のうちの一部の発話者に対する応答は応答態様設定部17により設定された応答態様に基づき出力する一方、当該複数人の発話者のうちの残余の発話者に対する応答は初期設定の応答態様に基づき出力する制御を実行するものであっても良い。すなわち、応答態様設定処理は、当該複数人の発話者のうちの少なくとも1人の発話者に対する応答の態様を設定するものであれば良い。
また、音声認識処理部13は、発話区間を検出するとき、個々の発話音声の始点を検出するものであっても良い。応答態様設定部17は、1人目の発話者(以下「第1発話者」という。)による発話音声の始点が検出された後、第1発話者に対する応答の出力が開始される前に2人目の発話者(以下「第2発話者」という。)による発話音声の始点が検出された場合にのみ、応答態様設定処理を実行するものであっても良い。そのほかの場合、応答態様設定部17は応答態様設定処理を実行せずに、応答出力制御部18は初期設定の応答態様に基づく応答を出力する制御を実行するものであっても良い。
また、前者の場合において、第1発話者に対する応答態様の設定が第1発話者に対する応答の出力開始に間に合わない場合(例えば第1発話者に対する応答の出力が開始される直前に第2発話者による発話音声の始点が検出された場合)、応答態様設定部17は、第1発話者に対する応答態様設定処理は実行せずに、第2発話者に対する応答態様設定処理のみを実行するものであっても良い。この場合、第1発話者に対する応答は、初期設定の応答態様により出力されるものであっても良い。
または、応答態様設定部17は、第1発話者による発話音声の始点が検出された後、所定の時間(以下「基準時間」という。)が経過する前に第2発話者による発話音声の始点が検出された場合にのみ、応答態様設定処理を実行するものであっても良い。そのほかの場合、応答態様設定部17は応答態様設定処理を実行せずに、応答出力制御部18は初期設定の応答態様に基づく応答を出力する制御を実行するものであっても良い。基準時間は、例えば、個々の発話音声の発話時間の実測値の統計値(例えば平均値)に対応する値であり、応答態様設定部17に予め記憶されている。
すなわち、1人の発話者による発話音声のみが入力された場合、当該1人の発話者に対する応答のみが出力される。また、複数人の発話者による発話音声が時間的に重複せずに入力された場合、当該1人の発話者に対する応答も時間的に重複せずに出力される。このような場合、応答態様設定処理が実行されなくても、応答が誰に対するものであるのかは明確である。このような場合に応答態様設定処理をキャンセルことにより、情報機器2の処理負荷を低減することができる。また、このような場合に例えば第1具体例による応答態様設定処理をキャンセルことにより、応答用音声又は応答用画像に含まれる呼称が発話者に煩わしさを与えるのを抑制することができる。
また、図7に示す如く、車両1の外部に情報機器2と通信自在なサーバ装置6が設けられており、このサーバ装置6に音声認識処理部13が設けられているものであっても良い。すなわち、情報機器2に設けられた音声信号取得部11、音声信号処理部12、発話者特定部15及び応答態様設定部17とサーバ装置6に設けられた音声認識処理部13とにより、音声認識システム200の要部が構成されているものであっても良い。これにより、音声認識処理部13における音声認識処理の精度を向上することができる。
なお、音声認識システム200のシステム構成は図7に示す例に限定されるものではない。すなわち、音声信号取得部11、音声信号処理部12、音声認識処理部13、発話者特定部15、応答内容設定部16、応答態様設定部17及び応答出力制御部18の各々は、車両1に搭載自在な車載情報機器、車両1に持ち込み自在な携帯情報端末、又は当該車載情報機器若しくは当該携帯情報端末と通信自在なサーバ装置のうちのいずれに設けられているものであっても良い。当該車載情報機器、当該携帯情報端末又は当該サーバ装置のうちのいずれか二以上が連携することにより、音声認識システム200が実現されるものであれば良い。
以上のように、実施の形態1の音声認識装置100は、車両1における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部14と、発話者の個人を特定する個人特定処理又は発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部15と、発話者特定部15による特定結果に応じて、発話者に対する応答の態様(応答態様)を設定する応答態様設定処理を実行する応答態様設定部17とを備え、応答態様設定処理は、複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別可能な態様に応答の態様(応答態様)を設定する処理である。これにより、音声認識対象座席に着座している複数人の搭乗者の各々は、応答が自身に対するものであるか否かを容易に識別することができる。特に、複数人の発話者に対する応答が略同時に出力されたとき、当該複数人の発話者の各々が、これらの応答が自身に対するものであるか否かを容易に識別することができる。
また、応答態様設定部17は、複数人の発話者のうちの第1発話者による発話音声の始点が検出された後、基準時間が経過する前に複数人の発話者のうちの第2発話者による発話音声の始点が検出された場合、応答態様設定処理を実行する。これにより、処理負荷を低減することができ、かつ、発話者に与える煩わしさを低減することができる。
また、応答態様設定部17は、複数人の発話者のうちの第1発話者による発話音声の始点が検出された後、第1発話者に対する応答の出力が開始される前に複数人の発話者のうちの第2発話者による発話音声の始点が検出された場合、応答態様設定処理を実行する。これにより、処理負荷を低減することができ、かつ、発話者に与える煩わしさを低減することができる。
また、発話者特定部15は、音声認識部14により抽出された特徴量(第2特徴量)を用いて個人特定処理を実行する。これにより、個人特定処理用の専用のカメラ又はセンサ類を不要とすることができる。
また、応答態様設定処理は、発話者特定部15による特定結果に基づく呼称を応答に含める処理である。第1具体例により、複数人の発話者の各々が応答が自身に対するものであるか否かを容易に識別可能な応答態様を実現することができる。
また、応答態様設定処理は、発話者特定部15による特定結果に応じて応答用の音声(応答用音声)の話者を変更する処理である。第2具体例により、複数人の発話者の各々が応答が自身に対するものであるか否かを容易に識別可能な応答態様を実現することができる。
また、応答態様設定処理は、座席特定処理の結果が示す座席の位置に応じて応答用の音声(応答用音声)が出力されるスピーカを変更する処理、又は座席特定処理の結果が示す座席の位置に応じて応答用の音声(応答用音声)が出力されるときの音場を変更する処理である。第3具体例又は第4具体例により、複数人の発話者の各々が応答が自身に対するものであるか否かを容易に識別可能な応答態様を実現することができる。
また、実施の形態1の音声認識システム200は、車両1における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部14と、発話者の個人を特定する個人特定処理又は発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部15と、発話者特定部15による特定結果に応じて、発話者に対する応答の態様(応答態様)を設定する応答態様設定処理を実行する応答態様設定部17とを備え、応答態様設定処理は、複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別可能な態様に応答の態様(応答態様)を設定する処理である。これにより、音声認識装置100による上記効果と同様の効果を得ることができる。
また、実施の形態1の音声認識方法は、音声認識部14が、車両1における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行するステップST1と、発話者特定部15が、発話者の個人を特定する個人特定処理又は発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行するステップST2と、応答態様設定部17が、発話者特定部15による特定結果に応じて、発話者に対する応答の態様(応答態様)を設定する応答態様設定処理を実行するステップST4とを備え、応答態様設定処理は、複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別可能な態様に応答の態様(応答態様)を設定する処理である。これにより、音声認識装置100による上記効果と同様の効果を得ることができる。
実施の形態2.
図8は、実施の形態2に係る音声認識装置が車両内の情報機器に設けられている状態を示すブロック図である。図8を参照して、実施の形態2の音声認識装置100aについて、車両1内の情報機器2に設けられている例を中心に説明する。なお、図8において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
図中、7は車室内撮像用のカメラである。カメラ7は、例えば、車両1の車室内前方部に設けられた赤外線カメラ又は可視光カメラにより構成されている。カメラ7は、少なくとも、音声認識対象座席(例えば運転席及び助手席)に着座している搭乗者の顔を含む範囲を撮像可能な画角を有している。
搭乗者特定部19は、一定周期(例えば30FPS(Frames Per Second)の周期)にて、カメラ7による撮像画像を示す画像データを取得するものである。搭乗者特定部19は、当該取得された画像データに対する画像認識処理を実行することにより、各音声認識対象座席における搭乗者の有無を判定するとともに、音声認識対象座席に着座している各搭乗者の個人を特定する処理(以下「搭乗者特定処理」という。)を実行するものである。
具体的には、例えば、搭乗者特定部19は、画像認識処理を実行することにより、撮像画像のうちの音声認識対象座席に着座している搭乗者の顔に対応する領域(以下「顔領域」という。)を検出するとともに、個々の顔領域から搭乗者特定処理用の特徴量(以下「第3特徴量」という。)を抽出する。搭乗者特定部19は、撮像画像における個々の顔領域のサイズ及び位置などに基づき、各音声認識対象座席における搭乗者の有無を判定する。また、搭乗者特定部19には、第3特徴量に対応する複数人分の特徴量を含むデータベースが予め記憶されている。搭乗者特定部19は、個々の顔領域から抽出された第3特徴量を当該複数人分の特徴量の各々と比較することにより、音声認識対象座席に着座している各搭乗者の個人を特定する。
搭乗者特定部19は、搭乗者特定処理の結果を発話者特定部15aに出力する。搭乗者特定処理の結果は、例えば、音声認識対象座席に着座している各搭乗者の氏名などを示す情報と、当該各搭乗者が着座している座席の名称及び位置などを示す情報とを含むものである。なお、音声認識対象座席のうちの一部の座席に搭乗者が着座していない場合、搭乗者特定処理の結果は、これらの情報のみを含むものであっても良く、又は、これらの情報に加えて当該一部の座席が空席であることを示す情報を含むものであっても良い。
発話者特定部15aは、音声信号処理部12により推定された発話方向及び搭乗者特定部19による搭乗者特定処理の結果を用いて、発話者の個人を特定する処理、すなわち個人特定処理を実行するものである。
具体的には、例えば、発話者特定部15aには、実施の形態1における座席特定処理用の実角度φと同様の実角度φが予め記憶されている。発話者特定部15aは、音声信号処理部12により推定された発話方向が示す角度θを各音声認識対象座席に対応する実角度φと比較することにより、発話者が着座している座席を特定する。発話者特定部15aは、搭乗者特定部19による搭乗者特定処理の結果を用いて、当該特定された座席に着座している搭乗者、すなわち発話者の個人を特定する。
すなわち、発話者特定部15aは、実施の形態1の音声認識装置100における発話者特定部15と異なり、個人特定処理に第2特徴量を用いないものである。このため、実施の形態2の音声認識装置100aにおいて、音声認識処理部13による第2特徴量の抽出は不要である。
応答態様設定部17は、発話者特定部15aによる個人特定処理の結果を応答態様設定処理に用いるようになっている。応答態様設定処理の具体例は実施の形態1にて説明したとおりであるため、再度の説明は省略する。
音声認識部14、発話者特定部15a、応答態様設定部17及び搭乗者特定部19により、音声認識装置100aの要部が構成されている。音声認識装置100a、応答内容設定部16及び応答出力制御部18により、情報機器2の要部が構成されている。
情報機器2の要部のハードウェア構成は、実施の形態1にて図4を参照して説明したものと同様であるため、再度の説明は省略する。すなわち、発話者特定部15aの機能はプロセッサ21及びメモリ22により実現されるものであっても良く、又は処理回路23により実現されるものであっても良い。同様に、搭乗者特定部19の機能はプロセッサ21及びメモリ22により実現されるものであっても良く、又は処理回路23により実現されるものであっても良い。
次に、図9及び図10のフローチャートを参照して、搭乗者特定部19の動作について説明する。なお、図10に示すステップST31〜ST34は、図9に示すステップST21内の詳細な処理内容を示している。
車両1のアクセサリー電源がオンされている状態にて、一定周期にて、搭乗者特定部19はカメラ7による撮像画像を示す画像データを取得して、当該取得された画像データを用いて搭乗者特定処理を実行する(ステップST21)。
すなわち、ステップST31にて、搭乗者特定部19は、カメラ7による撮像画像を示す画像データを取得する。
次いで、ステップST32にて、搭乗者特定部19は、ステップST31で取得された画像データに対する画像認識処理を実行することにより、撮像画像のうちの顔領域を検出するとともに、個々の顔領域から搭乗者特定処理用の第3特徴量を抽出する。
次いで、ステップST33にて、搭乗者特定部19は、ステップST32で検出された個々の顔領域のサイズ及び位置などに基づき、各音声認識対象座席における搭乗者の有無を判定する。
次いで、ステップST34にて、搭乗者特定部19は、ステップST33で抽出された第3特徴量を用いて、音声認識対象座席に着座している各搭乗者の個人を特定する。搭乗者特定部19は、搭乗者特定処理の結果を発話者特定部15aに出力する。
次に、図11及び図12のフローチャートを参照して、情報機器2のうちの搭乗者特定部19を除く部位の動作について説明する。なお、図12に示すステップST51〜ST56は、図11に示すステップST41内の詳細な処理内容を示している。
まず、ステップST41にて、音声認識部14が発話音声に対する音声認識を実行する。
すなわち、ステップST51にて、音声信号取得部11は、集音装置3により出力された音声信号S〜Sを取得する。音声信号取得部11は、音声信号S〜Sに対するA/D変換を実行する。音声信号取得部11は、A/D変換後の音声信号S’〜S’を音声信号処理部12に出力する。
次いで、ステップST52にて、音声信号処理部12は、音声信号S’〜S’間のパワーの差分値又は音声信号S’〜S ’間の位相差などに基づき、集音装置3に対する発話音声の入力方向、すなわち発話方向を推定する。
次いで、ステップST53にて、音声信号処理部12は、ステップST52で推定された発話方向に基づき、音声信号S’〜S’のうちの発話音声と異なる音声に対応する成分、すなわちノイズ成分を除去する。音声信号処理部12は、ノイズ成分が除去された音声信号S”〜S”を音声認識処理部13に出力する。
次いで、ステップST54にて、音声認識処理部13は、音声信号S”〜S”のうちの発話音声に対応する音声区間、すなわち発話区間を検出する。
次いで、ステップST55にて、音声認識処理部13は、発話区間内の音声信号S”〜S”から音声認識処理用の第1特徴量を抽出する。次いで、ステップST56にて、音声認識処理部13は、第1特徴量を用いて音声認識処理を実行する。
ステップST41に次いで、ステップST42にて、発話者特定部15aが個人特定処理を実行する。すなわち、発話者特定部15aは、ステップST52で音声信号処理部12により推定された発話方向とステップST34で搭乗者特定部19により出力された搭乗者特定処理の結果とを用いて、上記の具体例より発話者の個人を特定する。
次いで、ステップST43にて、応答内容設定部16が応答内容設定処理を実行する。応答内容設定処理の具体例は実施の形態1にて説明したとおりであるため、再度の説明は省略する。
次いで、ステップST44にて、応答態様設定部17が応答態様設定処理を実行する。応答態様設定処理の具体例は実施の形態1にて説明したとおりであるため、再度の説明は省略する。
次いで、ステップST45にて、応答出力制御部18が応答出力制御を実行する。応答出力制御の具体例は実施の形態1にて説明したとおりであるため、再度の説明は省略する。
このように、搭乗者特定部19を設けることにより、個人特定処理において音声信号S”〜S”から抽出された第2特徴量を不要とすることができる。この結果、個人特定処理の騒音耐性を向上することができるため、個人特定処理の精度を向上することができる。
なお、搭乗者特定部19における画像認識処理により、音声認識対象座席に着座している各搭乗者の頭部の三次元位置座標、より好ましくは当該各搭乗者の口の三次元位置座標が検出されるものであっても良い。音声信号処理部12は、搭乗者特定部19により検出された三次元位置座標を用いて、より鋭い指向性による発話方向(例えば集音装置3の配置位置を基準とする中心軸に対する左右方向の角度θ及び上下方向の角度ψにより表される発話方向)を推定するものであっても良い。これにより、発話方向の推定精度を向上することができるため、ノイズ成分の除去精度を向上することができる。図8において、この場合における搭乗者特定部19と音声信号処理部12間の接続線は図示を省略している。
また、発話者特定部15aは、カメラ7による撮像画像を示す画像データを取得して、当該取得された画像データに対する画像認識処理を実行することにより、音声認識対象座席に着座している搭乗者のうちの口を動かしている搭乗者を検出するものであっても良い。発話者特定部15aは、搭乗者特定部19による搭乗者特定処理の結果を用いて、当該口を動かしている搭乗者、すなわち発話者の個人を特定するものであっても良い。この場合、個人特定処理において音声信号処理部12により推定された発話方向は不要であるため、図8に示す音声信号処理部12と発話者特定部15a間の接続線は不要となる。また、図8において、この場合におけるカメラ7と発話者特定部15a間の接続線は図示を省略している。
また、図13に示す如く、各音声認識対象座席の座面部に着座センサ8が設けられており、搭乗者特定部19は、これらの着座センサ8による検出値を用いて搭乗者特定処理を実行するものであっても良い。すなわち、個々の着座センサ8は、例えば、複数個の圧力センサにより構成されている。当該複数個の圧力センサにより検出される圧力分布は、対応する座席に着座している搭乗者の体重、着座姿勢及び臀部形状などに応じて異なるものとなる。搭乗者特定部19は、かかる圧力分布を特徴量に用いて搭乗者特定処理を実行する。かかる圧力分布を特徴量に用いて個人を特定する方法については、公知の種々の方法を用いることができるものであり、詳細な説明は省略する。
また、搭乗者特定部19は、カメラ7による撮像画像を用いた搭乗者特定処理と着座センサ8による検出値を用いた搭乗者特定処理との両方を実行するものであっても良い。これにより、搭乗者特定処理の精度を向上することができる。この場合のブロック図を図14に示す。
また、図15に示す如く、情報機器2に設けられた音声信号取得部11、音声信号処理部12、発話者特定部15a、応答態様設定部17及び搭乗者特定部19とサーバ装置6に設けられた音声認識処理部13とにより、音声認識システム200aの要部が構成されているものであっても良い。これにより、音声認識処理部13における音声認識処理の精度を向上することができる。
また、音声認識システム200aにおいて、発話者特定部15aは、カメラ7による撮像画像に代えて又は加えて着座センサ8による検出値を用いて搭乗者特定処理を実行するものであっても良い。この場合のブロック図は図示を省略する。
そのほか、音声認識装置100aは、実施の形態1にて説明したものと同様の種々の変形例、すなわち図1に示す音声認識装置100と同様の種々の変形例を採用することができる。同様に、音声認識システム200aは、実施の形態1にて説明したものと同様の種々の変形例、すなわち図7に示す音声認識システム200と同様の種々の変形例を採用することができる。
以上のように、実施の形態2の音声認識装置100aは、車室内撮像用のカメラ7又は着座センサ8のうちの少なくとも一方を用いて、複数人の搭乗者の各々の個人を特定する搭乗者特定処理を実行する搭乗者特定部19を備え、発話者特定部15aは、搭乗者特定処理の結果を用いて個人特定処理を実行する。これにより、個人特定処理の騒音耐性を向上することができるため、個人特定処理の精度を向上することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本発明の音声認識装置は、例えば、車両内の情報機器に対する操作入力に用いることができる。
1 車両、2 情報機器、3 集音装置、3〜3 マイク、4 音声出力装置、5 表示装置、6 サーバ装置、7 カメラ、8 着座センサ、11 音声信号取得部、12 音声信号処理部、13 音声認識処理部、14 音声認識部、15,15a 発話者特定部、16 応答内容設定部、17 応答態様設定部、18 応答出力制御部、19 搭乗者特定部、21 プロセッサ、22 メモリ、23 処理回路、100,100a 音声認識装置、200,200a 音声認識システム。
本発明の音声認識装置は、車両における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部と、発話者の個人を特定する個人特定処理又は発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部と、複数人の前記発話者に対する応答が時間的に重複する可能性がある場合に、発話者特定部による特定結果に応じて、発話者に対する応答の態様を設定する応答態様設定処理を実行する応答態様設定部とを備え、応答態様設定処理は、複数人の搭乗者の各々が応答が自身に対するものであるか否かを識別可能な態様に応答の態様を設定する処理であることを特徴とするものである。
すなわち、1人の発話者による発話音声のみが入力された場合、当該1人の発話者に対する応答のみが出力される。また、複数人の発話者による発話音声が時間的に重複せずに入力された場合、当該1人の発話者に対する応答も時間的に重複せずに出力される。このような場合、応答態様設定処理が実行されなくても、応答が誰に対するものであるのかは明確である。このような場合に応答態様設定処理をキャンセルすることにより、情報機器2の処理負荷を低減することができる。また、このような場合に例えば第1具体例による応答態様設定処理をキャンセルすることにより、応答用音声又は応答用画像に含まれる呼称が発話者に煩わしさを与えるのを抑制することができる。

Claims (12)

  1. 車両における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部と、
    前記発話者の個人を特定する個人特定処理又は前記発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部と、
    前記発話者特定部による特定結果に応じて、前記発話者に対する応答の態様を設定する応答態様設定処理を実行する応答態様設定部と、を備え、
    前記応答態様設定処理は、前記複数人の搭乗者の各々が前記応答が自身に対するものであるか否かを識別可能な態様に前記応答の態様を設定する処理である
    ことを特徴とする音声認識装置。
  2. 前記応答態様設定部は、複数人の前記発話者のうちの第1発話者による前記発話音声の始点が検出された後、基準時間が経過する前に複数人の前記発話者のうちの第2発話者による前記発話音声の始点が検出された場合、前記応答態様設定処理を実行することを特徴とする請求項1記載の音声認識装置。
  3. 前記応答態様設定部は、複数人の前記発話者のうちの第1発話者による前記発話音声の始点が検出された後、前記第1発話者に対する前記応答の出力が開始される前に複数人の前記発話者のうちの第2発話者による前記発話音声の始点が検出された場合、前記応答態様設定処理を実行することを特徴とする請求項1記載の音声認識装置。
  4. 前記発話者特定部は、前記音声認識部により抽出された特徴量を用いて前記個人特定処理を実行することを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声認識装置。
  5. 車室内撮像用のカメラ又は着座センサのうちの少なくとも一方を用いて、前記複数人の搭乗者の各々の個人を特定する搭乗者特定処理を実行する搭乗者特定部を備え、
    前記発話者特定部は、前記搭乗者特定処理の結果を用いて前記個人特定処理を実行する
    ことを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声認識装置。
  6. 前記応答態様設定処理は、前記発話者特定部による特定結果に基づく前記発話者に対する呼称を前記応答に含める処理であることを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声認識装置。
  7. 前記応答態様設定処理は、前記呼称を前記応答用の音声に含める処理であることを特徴とする請求項6記載の音声認識装置。
  8. 前記応答態様設定処理は、前記呼称を前記応答用の画像に含める処理であることを特徴とする請求項6記載の音声認識装置。
  9. 前記応答態様設定処理は、前記発話者特定部による特定結果に応じて前記応答用の音声の話者を変更する処理であることを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声認識装置。
  10. 前記応答態様設定処理は、前記座席特定処理の結果が示す座席の位置に応じて前記応答用の音声が出力されるスピーカを変更する処理、又は前記座席特定処理の結果が示す座席の位置に応じて前記応答用の音声が出力されるときの音場を変更する処理であることを特徴とする請求項1から請求項3のうちのいずれか1項記載の音声認識装置。
  11. 車両における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行する音声認識部と、
    前記発話者の個人を特定する個人特定処理又は前記発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行する発話者特定部と、
    前記発話者特定部による特定結果に応じて、前記発話者に対する応答の態様を設定する応答態様設定処理を実行する応答態様設定部と、を備え、
    前記応答態様設定処理は、前記複数人の搭乗者の各々が前記応答が自身に対するものであるか否かを識別可能な態様に前記応答の態様を設定する処理である
    ことを特徴とする音声認識システム。
  12. 音声認識部が、車両における音声認識対象座席に着座している複数人の搭乗者のうちの発話者による操作入力用の発話音声に対する音声認識を実行するステップと、
    発話者特定部が、前記発話者の個人を特定する個人特定処理又は前記発話者が着座している座席を特定する座席特定処理のうちの少なくとも一方を実行するステップと、
    応答態様設定部が、前記発話者特定部による特定結果に応じて、前記発話者に対する応答の態様を設定する応答態様設定処理を実行するステップと、を備え、
    前記応答態様設定処理は、前記複数人の搭乗者の各々が前記応答が自身に対するものであるか否かを識別可能な態様に前記応答の態様を設定する処理である
    ことを特徴とする音声認識方法。
JP2019561409A 2017-12-25 2017-12-25 音声認識装置、音声認識システム及び音声認識方法 Pending JPWO2019130399A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/046469 WO2019130399A1 (ja) 2017-12-25 2017-12-25 音声認識装置、音声認識システム及び音声認識方法

Publications (1)

Publication Number Publication Date
JPWO2019130399A1 true JPWO2019130399A1 (ja) 2020-04-23

Family

ID=67066716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019561409A Pending JPWO2019130399A1 (ja) 2017-12-25 2017-12-25 音声認識装置、音声認識システム及び音声認識方法

Country Status (5)

Country Link
US (1) US20200411012A1 (ja)
JP (1) JPWO2019130399A1 (ja)
CN (1) CN111556826A (ja)
DE (1) DE112017008305T5 (ja)
WO (1) WO2019130399A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7474058B2 (ja) 2020-02-04 2024-04-24 株式会社デンソーテン 表示装置および表示装置の制御方法
JP7366850B2 (ja) * 2020-07-28 2023-10-23 本田技研工業株式会社 情報共有システムおよび情報共有方法
CN113012700B (zh) * 2021-01-29 2023-12-26 深圳壹秘科技有限公司 语音信号处理方法、装置、系统及计算机可读存储介质
DE102022207082A1 (de) 2022-07-11 2024-01-11 Volkswagen Aktiengesellschaft Ortsbasierte Aktivierung der Sprachsteuerung ohne Verwendung eines spezifischen Aktivierungsbegriffs

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114699A (ja) * 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車載音声認識システム
JP2003135845A (ja) * 2001-10-30 2003-05-13 Aruze Corp ゲームプログラム及びこれを記憶した記憶媒体
JP2005350018A (ja) * 2004-06-14 2005-12-22 Honda Motor Co Ltd 車載用電子制御装置
JP2006281349A (ja) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2013110508A (ja) * 2011-11-18 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 会議装置、会議方法および会議プログラム
JP2015118049A (ja) * 2013-12-19 2015-06-25 株式会社ユピテル システム及びプログラム
WO2016157662A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
WO2017042906A1 (ja) * 2015-09-09 2017-03-16 三菱電機株式会社 車載用音声認識装置および車載機器

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003114699A (ja) * 2001-10-03 2003-04-18 Auto Network Gijutsu Kenkyusho:Kk 車載音声認識システム
JP2003135845A (ja) * 2001-10-30 2003-05-13 Aruze Corp ゲームプログラム及びこれを記憶した記憶媒体
JP2005350018A (ja) * 2004-06-14 2005-12-22 Honda Motor Co Ltd 車載用電子制御装置
JP2006281349A (ja) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2013110508A (ja) * 2011-11-18 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 会議装置、会議方法および会議プログラム
JP2015118049A (ja) * 2013-12-19 2015-06-25 株式会社ユピテル システム及びプログラム
WO2016157662A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
WO2017042906A1 (ja) * 2015-09-09 2017-03-16 三菱電機株式会社 車載用音声認識装置および車載機器

Also Published As

Publication number Publication date
DE112017008305T5 (de) 2020-09-10
WO2019130399A1 (ja) 2019-07-04
CN111556826A (zh) 2020-08-18
US20200411012A1 (en) 2020-12-31

Similar Documents

Publication Publication Date Title
JPWO2019130399A1 (ja) 音声認識装置、音声認識システム及び音声認識方法
KR101749143B1 (ko) 탑승자 오디오 및 시각적 입력의 차량 기반 결정
CN110032660A (zh) 基于情绪来产生个性化音频内容
US11176948B2 (en) Agent device, agent presentation method, and storage medium
JP6466385B2 (ja) サービス提供装置、サービス提供方法およびサービス提供プログラム
CN108762494A (zh) 显示信息的方法、装置及存储介质
WO2014057540A1 (ja) ナビゲーション装置およびナビゲーション用サーバ
JPWO2005114576A1 (ja) 動作内容判定装置
JPWO2014002128A1 (ja) 車載情報装置
JP2017007652A (ja) 言語制御のための文脈を認識する方法、言語制御のための言語制御信号を決定する方法、および方法を実施するための装置
JP7250547B2 (ja) エージェントシステム、情報処理装置、情報処理方法、およびプログラム
US11450316B2 (en) Agent device, agent presenting method, and storage medium
JP2017090612A (ja) 音声認識制御システム
JP2009251388A (ja) 母国語発話装置
JPWO2018055898A1 (ja) 情報処理装置、及び情報処理方法
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
JP2012121387A (ja) 車室内監視装置
JP2006313287A (ja) 音声対話装置
JP2006038929A (ja) 音声案内装置、音声案内方法およびナビゲーション装置
CN111429882A (zh) 播放语音的方法、装置及电子设备
JP2019053785A (ja) サービス提供装置
JP2010262424A (ja) 車載カメラシステム
WO2022239142A1 (ja) 音声認識装置及び音声認識方法
JP6555113B2 (ja) 対話装置
JP2021114081A (ja) ドライブレコーダ、記録方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220125