JP5972372B2 - 車載情報装置 - Google Patents

車載情報装置 Download PDF

Info

Publication number
JP5972372B2
JP5972372B2 JP2014522219A JP2014522219A JP5972372B2 JP 5972372 B2 JP5972372 B2 JP 5972372B2 JP 2014522219 A JP2014522219 A JP 2014522219A JP 2014522219 A JP2014522219 A JP 2014522219A JP 5972372 B2 JP5972372 B2 JP 5972372B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
voice
state
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014522219A
Other languages
English (en)
Other versions
JPWO2014002128A1 (ja
Inventor
加藤 真
真 加藤
尚嘉 竹裏
尚嘉 竹裏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2014002128A1 publication Critical patent/JPWO2014002128A1/ja
Application granted granted Critical
Publication of JP5972372B2 publication Critical patent/JP5972372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Description

この発明は、搭乗者の発話内容を常に認識して車内の会話を支援する車載情報装置に関するものである。
一般に、車内における会話では、エンジン音やタイヤノイズ、あるいは車外からの騒音により阻害されて会話内容を聞き洩らすという問題がある。そこで、従来からこの問題を改善するための技術が提案されている。例えば特許文献1には、車内の会話をマイクにより集音し、スピーカにより拡声音を聴取できるようにした車内会話支援システムが開示されている。
しかし、例えば特許文献1のような従来の車内会話支援システムでは、音声による会話支援であるため、スピーカにより出力された音声も聞き洩らした場合には解決できない、という問題があった。また、音声データであるため、後から再生しなければ内容を確認できないという問題もあった。さらに、マイクの集音とスピーカからの出力とによりハウリングを起こすおそれがある、という問題もあった。
そこで、車内の会話をマイクにより集音し、会話内容を文字列として提供することが考えられる。
これに関連する技術として、会議での発話内容をマイクにより集音し、議事録を自動的に作成する装置が種々提案されている。例えば特許文献2には、複数の話者ごとの発話内容を再現した議事録データを作成できる音声認識装置および会議システムが開示されている。
特開2008−42390号公報 特開2008−275987号公報
しかしながら、例えば特許文献2のような従来の音声認識装置および会議システムは、音声を文字列として記録することはできるが、会議システムであるため、車内で使用することや車内の会話支援として使用することを想定していないので、エンジン音やタイヤノイズ、あるいは車外からの騒音により阻害されて会話内容を聞き洩らすという、従来からあった車両走行中の問題については考慮されておらず、また、会話内容を聞き洩らした人のためのリアルタイムの会話支援、ということも考慮されていない。そのため、例えば特許文献2のような音声認識装置および会議システムを車載情報装置に適用したとしても、車両特有の問題が解決されない、という課題があった。
この発明は、上記のような課題を解決するためになされたものであり、車内での会話内容を常に認識して得られた認識結果に基づいて、リアルタイムに有効な会話支援を行うことができる車載情報装置を提供することを目的とする。
上記目的を達成するため、この発明は、車両に搭載され、搭乗者の会話を支援する情報を提供する車載情報装置において、前記車載情報装置が起動されている場合は常時、前記搭乗者の発話した音声を検知して取得する音声取得部と、前記音声取得部により取得した前記音声の発話内容を認識する音声認識部と、前記音声認識部が認識した発話内容を記憶する会話履歴記憶部と、前記音声認識部が認識した発話内容から、会話履歴記憶部に記憶された会話内容の画面表示の出力の開始または停止に関する所定のキーワードを抽出するキーワード抽出部と、前記車両の車室内の環境状態または前記車両周辺の環境状態または前記車両の運行状態を含む車両状態を検出する車両状態検出部と、前記車両状態検出部により検出された前記車両状態および前記キーワード抽出部により抽出されたキーワードに応じて前記音声認識部により認識された前記発話内容を表示データまたは音声データとして生成し、出力部への出力制御をする出力制御部とを備えたことを特徴とする。
この発明の車両情報装置によれば、車内での会話内容を常に認識して得られた認識結果に基づいて、リアルタイムに有効な会話支援を行うことができるばかりでなく、必要な時にだけ会話を提示してくれるので、会話の表示が不要な場合には、別のコンテンツを表示することができ、また、会話を提示するタイミングについても、必要なタイミングで会話を提示してくれたり、表示しないよう指示するキーワードが含まれていればその後は表示しないなど、制御することができる。
実施の形態1による車載情報装置の基本構成を示すブロック図である。 実施の形態1による車載情報装置の基本動作を示すフローチャートである。 実施の形態1による車載情報装置の構成を示す構成を示すブロック図である。 実施の形態1による車載情報装置の動作を示すフローチャートである。 会話内容が表示部に表示された表示例を示す図である。 実施の形態2による車載情報装置の構成を示すブロック図である。 実施の形態2における車載情報装置の動作を示すフローチャートである。 実施の形態3による車載情報装置の構成を示すブロック図である。 実施の形態3における車載情報装置の動作を示すフローチャートである。 実施の形態4による車載情報装置の構成を示すブロック図である。 実施の形態4における車載情報装置の動作を示すフローチャートである。 表示部の位置が助手席側である場合の表示例である。 表示部の位置が運転席側である場合の表示例である。 表示部の位置が助手席側である場合の別の表示例である。 実施の形態5による車載情報装置の構成を示すブロック図である。 実施の形態5による車載情報装置の動作を示すフローチャートである。 実施の形態6による車載情報装置の構成を示すブロック図である。 実施の形態7による車載情報装置の構成を示すブロック図である。 実施の形態7による車載情報装置の動作を示すフローチャートである。 実施の形態8による車載情報装置の構成を示すブロック図である。 実施の形態9による車載情報装置の構成を示すブロック図である。 実施の形態10による車載情報装置の構成を示すブロック図である。 実施の形態10による車載情報装置の動作を示すフローチャートである。 実施の形態11による車載情報装置の構成を示すブロック図である。 実施の形態11による車載情報装置の動作を示すフローチャートである。 実施の形態12による車載情報装置の構成を示すブロック図である。 実施の形態12による車載情報装置の動作を示すフローチャートである。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
この発明は、車載ナビゲーション装置、車載オーディオ装置、車載映像装置等の車載情報装置において、この車載情報装置が起動されている場合は常時、車両内の搭乗者の発話内容を認識し、その認識結果に基づいて、リアルタイムに会話支援を行うものである。また、以下の実施の形態についても同様である。
図1は、この発明の実施の形態1による車載情報装置の基本構成を示すブロック図である。この車載情報装置は、音声取得部1と、音声認識部2と、表示制御部(出力制御部)3と、表示部(出力部)4とを備えている。また、図示は省略したが、この車載情報装置は、キーやタッチパネル等による入力信号を取得するキー入力部も備えている。
音声取得部1は、車内のマイク等により集音された搭乗者発話、すなわち、車両内の搭乗者の発話により入力された音声をA/D変換して、例えばPCM(Pulse Code Modulation)形式で取得する。また、車内環境では車載オーディオやカーナビゲーション等から音楽やガイダンス音声等が出力されるので、FIR(Finite Impulse Response)フィルタを用いた一般的なエコーキャンセル技術を用いて、それらの音については音声取得部1で取得されないような処理が施されているものとする。
音声認識部2は、認識辞書(図示せず)を有し、音声取得部1により取得された音声データから、搭乗者が発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて認識辞書を用いて認識処理を行い、音声認識結果の文字列を出力する。なお、認識処理としては、例えばHMM(Hidden Markov Model)法のような一般的な方法を用いて行えばよい。また、音声認識部2は、ネットワーク上の音声認識サーバを使用してもよい。
ところで、カーナビゲーションシステム等に搭載されている音声認識機能においては、搭乗者が発話の開始をシステムに対して明示(指示)するのが一般的である。そのために、音声認識開始を指示するボタン等(以下、「音声認識開始指示部」と呼ぶ)が、タッチパネルに表示されたりハンドルに設置されたりしている。そして、搭乗者により音声認識開始指示部が押下された後に、発話された音声を認識する。すなわち、音声認識開始指示部が音声認識開始信号を出力し、音声認識部が当該信号を受けると、当該信号を受けた後に音声取得部により取得された音声データから、搭乗者が発話した内容に該当する音声区間を検出し、上述した認識処理を行う。
しかし、この実施の形態1における音声認識部2は、上述したような搭乗者による音声認識開始指示がなくても、常に、搭乗者が発話した内容を認識する。すなわち、音声認識部2は、音声認識開始信号を受けなくても、音声取得部1により取得された音声データから、搭乗者が発話した内容に該当する音声区間を検出し、該音声区間の音声データの特徴量を抽出し、その特徴量に基づいて認識辞書を用いて認識処理を行い、音声認識結果の文字列を出力する処理を繰り返し行う。なお、以下の実施の形態においても同様である。
表示制御部3は、音声認識部2により音声認識された音声認識結果である搭乗者の発話内容を表示データとして生成するものであり、例えば時系列順等に並べて生成する。
表示部4は、表示制御部3により生成された表示データを表示するものであり、例えばナビの表示画面、ダッシュボード上の表示部、フロントガラス、後部座席エンターテイメント(RSE(Rear Seat Entertainment))などである。
次に、この車載情報装置の基本動作について説明する。図2は、実施の形態1による車載情報装置の基本動作を示すフローチャートである。なお、以下の処理は、自装置(車載情報装置)が起動されている間中、常時行われているものである。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST1)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST2)。そして、表示制御部3が、音声認識部2の音声認識結果の文字列を時系列順等に並べた表示データを生成し、表示部4へその表示データを送信することにより、表示部4に会話内容が文字列で表示される(ステップST3)。(後述の実施の形態4における図12参照)
図3は、この発明の実施の形態1による車載情報装置の構成を示すブロック図である。なお、図1に示す基本構成で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態1では、図1に示した基本構成と比べると、車内に複数の搭乗者がいることを考慮して、マイクが搭乗者(N人)ごとに複数(N本)用意されており、搭乗者ごとの発話の位置を検出する車室内環境状態検出部(車両状態検出部)30を備えている。
そして、この実施の形態1による車載情報装置は、搭乗者数(マイク本数)Nごとの音声取得部1(1−1,1−2,・・・,1−N)と、それぞれに対応する音声認識部2(2−1,2−2,・・・,2−N)と、車室内環境状態検出部(車両状態検出部)30と、表示制御部(出力制御部)3と、表示部(出力部)4から構成されており、音声取得部1および音声認識部2の対を、車両内の搭乗者ごとに複数備えている。
この発明の実施の形態1における車室内環境状態検出部(車両状態検出部)30は、車室内の環境状態として、搭乗者ごとに用意された音声取得部1(1−1,1−2,・・・,1−N)の配置状態を検出することにより、搭乗者ごとの発話の位置を検出することができるものである。
また、表示制御部3(出力制御部)は、音声認識部2により音声認識された音声認識結果を、車室内環境状態検出部(車両状態検出部)30により検出された搭乗者ごとの発話の位置に対応づけた発話内容として、表示データを生成および出力制御するものであり、例えば搭乗者ごとに時系列順等に並べるなど、発話した複数の搭乗者を識別可能な態様の表示データを生成する。
次に、この実施の形態1による車載情報装置の動作について説明する。図4は、実施の形態1における車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、各音声取得部1(1−1,1−2,・・・,1−N)が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST11)。次に、各音声取得部1により取得された音声データを対応する各音声認識部2(2−1,2−2,・・・,2−N)が認識する(ステップST12)。そして、車室内環境状態検出部30が、各音声認識部2の音声認識結果の各文字列を各音声認識部2ごと、すなわち、各音声認識部2に対応する各音声取得部1の位置に応じて、搭乗者の位置ごとに検出し(ステップST13)、表示制御部3が、それらを整理して搭乗者の位置ごとおよび時系列順等に並べた表示データを作成し、表示部4へその表示データを送信することにより、表示部4に会話内容が文字列で表示される(ステップST14)。
図5は、このようにして会話内容が表示部4に表示された表示例を示す図である。この例では、運転者Aと助手席の同乗者Bとの会話が、搭乗者の位置ごとの発話の位置を区別して整理して時系列順に並べられている。すなわち、発話した複数の搭乗者を識別可能なレイアウトで表示されている。
これにより、エンジン音やタイヤノイズ、あるいは車外からの騒音により阻害されて会話内容を聞き洩らしたり、運転操作への注力等により突発的に聞き取れなかった場合であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。
なお、ここでは図5に示すように、表示制御部(出力制御部)3が、搭乗者ごとに表示文字の画面内のレイアウトを変えることにより、発話した複数の搭乗者を識別可能な異なる態様の表示データを出力するようにしたが、異なる態様の表示データとしては、表示文字または表示画像の種類、形状、大きさ、色、濃度、明度、画面内のレイアウトのいずれかが異なる表示データを生成して表示するようにすればよい。以下の実施の形態においても同様とする。
以上のように、この実施の形態1によれば、搭乗者が意識しなくても車載情報装置が起動している場合には常時、音声取得および音声認識を行っており、何らかの発話があれば自動的に音声取得および音声認識を行ってその音声認識結果を文字列として時系列順等に並べて出力してくれるため、音声取得や音声認識開始のための搭乗者の手動操作や入力の意思などを必要とせず、騒音や運転操作への注力等で突発的に会話内容を聞き取れなかった場合であっても、会話内容を確認することができる。
また、常に車内の会話を搭乗者ごとに聞き取って音声認識を行い、搭乗者ごとの発話の位置を区別して検出し、それらを整理して提示するようにしたので、騒音や運転操作への注力等により会話が聞き取れなかった場合であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。また、搭乗者ごとに音声認識することができるので、同時に発話した場合の音声認識率を高めることができる。
実施の形態2.
図6は、この発明の実施の形態2による車載情報装置の構成を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態2では、図3に示した実施の形態1の構成と比べると、音声取得部1がM個のマイク(1−1,1−2,・・・,1−M)をアレイ状に配置したアレイマイクであり、信号処理部5が追加されている。すなわち、この実施の形態2による車載情報装置では、M個のマイクをアレイ状に配置した音声取得部1(1−1,1−2,・・・,1−M)が音声(音源)を取得し、信号処理部5がその音源をN個に分離して、N個の音声認識部が各搭乗者N人ごとに発話内容を音声認識するものである。
この実施の形態2では、搭乗者N人に対して、アレイマイクが備えるマイクの数はM個とし、発話する搭乗者ごとにマイクが設けられているわけではないが、M個のマイクをアレイ状に配置したアレイマイクから取得した音声データを、信号処理部5が、ビームフォーミング法などの一般的な音源分離手法を用いて、N個分(搭乗者の人数N分)の音源に分離する。この音源分離については周知の技術であるため、ここでは説明を省略するが、以降の実施の形態における「音源分離」は、このような一般的な音源分離手法により行われるものとする。
そして、この発明の実施の形態2における車室内環境状態検出部(車両状態検出部)30は、車室内の環境状態として、信号処理部5により分離されたN個の音源から搭乗者(N人)ごとの発話の位置、すなわち、搭乗者の配置状態を検出するものである。
また、表示制御部3(出力制御部)は、音声認識部2により音声認識された音声認識結果を、車室内環境状態検出部(車両状態検出部)30により検出された搭乗者ごとの発話の位置に対応づけた発話内容として、表示データを生成および出力制御するものであり、例えば搭乗者ごとに時系列順等に並べるなど、発話した複数の搭乗者を識別可能な態様の表示データを生成する。
次に、この実施の形態2による車載情報装置の動作について説明する。図7は、実施の形態2における車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、音声取得部1(1−1,1−2,・・・,1−M)が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST21)。次に、音声取得部1により取得された音声データから、信号処理部5がN個(搭乗者の人数N分)に音源分離を行う(ステップST22)。このN個に音源分離された会話の音声データを、各音声認識部2(2−1,2−2,・・・,2−N)が認識する(ステップST23)。そして、車室内環境状態検出部30が、各音声認識部2の音声認識結果の各文字列を搭乗者の位置ごとに検出し(ステップST24)、表示制御部3が、それらを整理して搭乗者の位置ごとおよび時系列順等に並べた表示データを作成し、表示部4へその表示データを送信することにより、表示部4に会話内容が文字列で表示される(ステップST25)。
このようにして表示された表示例としては、実施の形態1において示した図5と同様であり、運転者Aと助手席の同乗者Bとの会話が、搭乗者の位置ごとに整理して時系列順に並べられている。
これにより、エンジン音やタイヤノイズ、あるいは車外からの騒音により阻害されて会話内容を聞き洩らしたり、運転操作への注力等により突発的に聞き取れなかった場合であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。
以上のように、この実施の形態2によれば、車内に複数のマイクをアレイ状に配置したアレイマイクが用意されており、常に車内の会話を聞き取って音声認識を行い、搭乗者ごとに整理して提示するようにしたので、実施の形態1と同様に、騒音や運転操作への注力等により会話が聞き取れなかった場合であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。また、搭乗者ごとに音声認識することができるので、同時に発話した場合の音声認識率を高めることができる。
実施の形態3.
図8は、この発明の実施の形態3による車載情報装置の構成を示すブロック図である。なお、実施の形態1,2で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態3では、図3に示した実施の形態1の構成と比べると、信号処理部5において分離したN個の音声データに対応させたN個の発話有無検出部6とN個の発話データ抽出部7と、発話データ順番整理部8と、音声認識待ち発話データ記憶部9とが追加されており、また、音声認識部2は1つのみの構成となっている。
なお、この実施の形態3では実施の形態2と同様、M個のマイクをアレイ状に配置したアレイマイクを用いる構成としているが、実施の形態1の図3に示した構成と同様に、搭乗者ごとにN本のマイクを備えるものとしてもよい。
発話有無検出部6は、信号処理部5から出力される搭乗者の位置毎に音声を分離した音声データに音声区間検出を行い、発話が検出された場合に、発話データ抽出部7に対して検出した音声区間の発話データを抽出するように指示を行う。
発話データ抽出部7は、信号処理部5から出力される搭乗者の位置毎に音声を分離した音声データに対して、発話有無検出部6で指示された音声区間を抽出し、抽出した発話データ(音声データ)を発話データ順番整理部8に送信する。
発話データ順番整理部8は、発話データ抽出部7から発話データを受け取ると同時に、その発話データをどの発話データ抽出部7から受け取ったかにより発話した搭乗者の位置を判断し、後段の音声認識部2に対しては発話データ(音声データ)を、また車室内環境状態検出部(車両状態検出部)30に対しては搭乗者の位置情報を送信する。ただし、音声認識部2が前回の発話データに対する音声認識処理を完了していない場合は、一旦音声認識待ち発話データ記憶部9に発話データと発話した搭乗者の位置情報を送り、音声認識部2の前回の音声認識処理の完了後に音声認識待ち発話データ記憶部9から発話データ(音声データ)と発話した搭乗者の位置情報を取得し、これらを音声認識部2と車室内環境状態検出部(車両状態検出部)30に送信する。
音声認識待ち発話データ記憶部9は、発話データ順番整理部8から送信されてくる発話データと発話した搭乗者の位置情報をキュー(FIFO(First In First Out))に記憶し、発話データ順番整理部8から取得要求があれば発話データと発話した搭乗者の位置情報を返す。
そして、この発明の実施の形態3における車室内環境状態検出部(車両状態検出部)30は、車室内の環境状態として、発話データ順番整理部8により取得・整理された発話データ(音声データ)を検出することにより、搭乗者(N人)ごとの発話の位置、すなわち、搭乗者の配置状態を検出するものである。
また、表示制御部3(出力制御部)は、車室内環境状態検出部(車両状態検出部)30から受取った搭乗者の配置状態(発話位置情報)を元に、音声認識部2により認識された発話内容である音声認識結果を搭乗者の位置ごとに整理し、例えば搭乗者ごとに時系列順等に並べるなど、発話した複数の搭乗者を識別可能な態様の表示データを生成し、表示部4に対して提示内容の出力制御を行う。
次に、この実施の形態3による車載情報装置の動作について説明する。図9は、実施の形態3における車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、音声取得部1(1−1,1−2,・・・,1−M)が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST31)。次に、音声取得部1により取得された音声データから、信号処理部5がN個(搭乗者の人数N分)に音源分離を行う(ステップST32)。このN個に音源分離された会話の音声データの中に、発話が含まれているか否かを、各発話有無検出部6(6−1,6−2,・・・,6−N)が検出する(ステップST33)。この発話有無検出については、各音声データに対して音声量のレベルを検出する音声区間検出を行うことにより行えばよい。
ここで、発話が検出されなかった場合(ステップST33のNOの場合)には、ステップST31に戻って処理を行う。一方、発話が検出された場合(ステップST33のYESの場合)には、信号処理部5から受け取ったN個の分離した音声データそれぞれに対して、発話有無検出部6から音声区間抽出の指示が発話データ抽出部7(7−1,7−2,・・・,7−N)に対してなされ、発話データ抽出部7にて抽出処理を行い、抽出した発話データを発話データ順番整理部8に送信する(ステップST34)。
そして、音声認識部2にて音声認識処理中でなければ(ステップST35のNOの場合)、音声認識部2で発話データの音声認識処理を行う(ステップST38)。一方、音声認識部2にて前回の音声認識処理が行われていた場合(ステップST35のYESの場合)には、発話データ順番整理部8から音声認識部2に送信予定の発話データと表示制御部3に送信予定の搭乗者の位置情報とを、一旦音声認識待ち発話データ記憶部9に保存する(ステップST36)。
その後、音声認識部2の音声認識処理が終わるのを待ち、音声認識処理が終わり次第、発話データ順番整理部8が、音声認識待ち発話データ記憶部9に保存した発話データと搭乗者の位置情報を取得し、それぞれ音声認識部2と車室内環境状態検出部30に送信する(ステップST37)。そして、音声認識部2で発話データの音声認識処理を行う(ステップST38)。
最後に、車室内環境状態検出部30が、発話データ順番整理部8から受け取った搭乗者の位置情報を基に、音声認識部2の音声認識結果の各文字列を搭乗者の位置ごとに検出し(ステップST39)、表示制御部3が、それらを整理して搭乗者の位置ごとおよび時系列順等に並べた表示データを生成し、表示部4へその表示データを送信することにより、表示部4に会話内容が文字列で表示される(ステップST40)。
このようにして表示された表示例としては、実施の形態1において示した図5と同様であり、運転者Aと助手席の同乗者Bとの会話が、搭乗者の位置ごとに整理して時系列順に並べられている。
これにより、エンジン音やタイヤノイズ、あるいは車外からの騒音により阻害されて会話内容を聞き洩らしたり、運転操作への注力等により突発的に聞き取れなかった場合であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。
以上のように、この実施の形態3によれば、実施の形態1,2と同様の効果に加え、音声認識部2を1つにすることができるため、音声認識部2が必要とするリソースを減らすことができ、また、その減ったリソース分を利用して音声認識部2の性能を向上させることができる、という効果もある。
実施の形態4.
図10は、この発明の実施の形態4による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜3で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態4では、実施の形態1において説明した図1に示す基本構成と比べると、表示部4を複数(N個)備えており、各表示部4(4−1,4−2,・・・,4−N)の位置を検出する車室内環境状態検出部(車両状態検出部)30を備えている。そして、認識した音声データを文字列として表示する際に、車室内環境状態検出部(車両状態検出部)30において検出された各表示部4(4−1,4−2,・・・,4−N)の位置に応じて、表示形式(表示内容)を変えて表示するものである。
そして、この発明の実施の形態4における車室内環境状態検出部(車両状態検出部)30は、車室内の環境状態として、表示部4(4−1,4−2,・・・,4−N)の配置状態を検出するものである。
また、表示制御部3(出力制御部)は、車室内環境状態検出部(車両状態検出部)30により検出された表示部4(4−1,4−2,・・・,4−N)の配置状態に基づいて、すなわち、例えばその表示部4が運転席に位置するものであるか助手席に位置するものであるかに応じて、異なる表示態様の表示データを生成し、表示部4に対して提示内容の出力制御を行う。
次に、この実施の形態4による車載情報装置の動作について説明する。図11は、実施の形態4による車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST41)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST42)。一方、車室内環境状態検出部(車両状態検出部)30が、各表示部4(4−1,4−2,・・・,4−N)の位置を検出する(ステップST43)。そして、表示制御部3が、音声認識部2の音声認識結果の文字列を時系列順に並べ、車室内環境状態検出部(車両状態検出部)30において検出された各表示部4(4−1,4−2,・・・,4−N)の位置に応じて表示形式(表示内容)を変えて表示データを生成し、それぞれの表示部4へその表示データを送信することにより、各表示部4に会話内容が文字列で表示される(ステップST44)。
図12および図13は、このようにして表示された表示例を示す図である。図12は、表示部4の位置が助手席側である場合の表示例であり、図13は、表示部4の位置が運転席側である場合の表示例である。この例では、図12に示す助手席側の表示部4には、すべての会話が時系列順に複数(この例では、発話時間とともに同時に5行くらい)表示されている。一方、図13に示す運転席側の表示部4には、画面いっぱいに大きく、2行のみ(発話時間もなく)表示されている。運転者は、運転に集中しなければならないため、文字が大きくないと短時間で会話内容を確認することができないからである。
また、実施の形態1〜3のように、マイクが複数ある場合やアレイマイクを用いることにより、搭乗者の位置も取得できているような場合には、例えば助手席側の表示部4には、図12に代えて図14のような表示画面を表示するようにしてもよい。この場合には、助手席側の自分(B)の発話内容以外の他人の発話内容を大きく表示することにより、他人の会話をよりわかりやすく認識することができる。
以上のように、この実施の形態4によれば、常に車内の会話を聞き取って音声認識を行い、例えば運転席側にある表示部では短時間で文字の視認が可能で注視しなくてもよいように表示したり、助手席側にある表示部では運転手のような制約はなくより多くの情報を表示するなど、表示部の位置ごとに最適な表示をするようにしたので、表示内容をよりわかりやすくすることができる。また、搭乗者の位置も加味して表示することにより、自分より他人の会話をよりわかりやすく認識することができる。
実施の形態5.
図15は、この発明の実施の形態5による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜4で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態5では、実施の形態1において説明した図1に示す基本構成と比べると、車室内環境状態検出部(車両状態検出部)30、音声のS/N取得部31、音響機器動作状態取得部32、空調機器動作状態取得部33、車室内の騒音状態取得部34、窓またはルーフの開閉状態取得部35を備えている。
音声のS/N取得部31は、音声取得部1から取得した音声データを基に音声区間検出を行い、音声区間の信号レベルとそれ以外の区間の信号レベルの比を計算する。
音響機器動作状態取得部32、空調機器動作状態取得部33は、車室内のオーディオ機器等の音響機器や、エアコン等の空調機器の動作状態をそれぞれ取得する。
車室内の騒音状態取得部34は、車室内の騒音レベルが所定の閾値を超えているか否かという騒音状態を取得する。
窓またはルーフの開閉状態取得部35は、車両の窓またはルーフの開閉状態を車両からのCAN(Controller Area Network)信号等から取得する。
ここで、実施の形態1〜4における車室内環境状態検出部30は、車室内における話者(搭乗者)、音声取得部1、表示部(出力部)4のいずれかの配置状態を検出するものであったが、この実施の形態5における車室内環境状態検出部30は、音声取得部1が取得した音声のS/N比、車室内の音響機器(オーディオ機器等)または空調機器(エアコン等)の動作状態、車室内の騒音状態、窓またはルーフの開閉状態のいずれかを検出するものである。
そして、この実施の形態5では、車室内環境状態検出部30により車室内の環境状態が騒がしいと判断される車両状態が検出された場合に、その検出された車両状態に基づいて、表示形式(表示内容)を変えて表示するものである。
次に、この実施の形態5による車載情報装置の動作について説明する。図16は、実施の形態5による車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST51)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST52)。
その後、車室内環境状態検出部30により、車室内の環境状態が騒がしいと判断されたか否かに基づいて、会話内容の表示が必要か否かが判断される(ステップST53)。すなわち、音声のS/N取得部31により取得された音声のS/N比が所定の閾値を超えている、音響機器動作状態取得部32により取得された車室内の音響機器動作状態が動作中である、空調機器動作状態取得部33により取得された車室内の空調機器動作状態が動作中である、車室内の騒音状態取得部34により取得された車室内の騒音レベルが所定の閾値を超えている、窓またはルーフの開閉状態取得部35により取得された車両の窓またはルーフの開閉状態が開である、のいずれかの状態である場合に、車室内環境状態検出部30は車室内の環境状態が騒がしいと判断し、会話の提示が必要であると判断する。
そして、会話の提示が不要であると判断された場合(ステップST53のNOの場合)には、ステップST51に戻って処理を行う。
一方、会話の提示が必要であると判断された場合(ステップST53のYESの場合)には、表示制御部3が、ステップST52で認識された音声データを整理して時系列順等に並べた表示データを作成し、表示部4へその表示データを送信することにより、表示部4に会話内容が文字列で表示される(ステップST54)。
以上のように、この実施の形態5によれば、常に車内の会話を聞き取って音声認識を行い、車室内の環境状態が騒がしくて、搭乗者が会話を聞き逃す可能性が高いと判断された場合には、会話内容を提示するようにしたので、騒音等により会話が聞き取れなかった場合であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。
実施の形態6.
図17は、この発明の実施の形態6による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜5で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態6では、実施の形態1において説明した図1に示す基本構成に比べると、車室内環境状態検出部(車両状態検出部)30、音声特徴情報取得部36を備えている。
この実施の形態6では、音声取得部1が取得した音声の種類、音量、音程、音質、音色、声色、テンポ、周波数特性のいずれかを含む音声特徴情報を音声特徴情報取得部36で取得し、車室内環境状態検出部30は、その音声特徴情報に基づく推定により、音声を発話した搭乗者の感情状態を車両状態として検出するものである。
そして、この実施の形態6では、車室内環境状態検出部30により搭乗者の感情状態が明るい/暗い等と推定される車両状態が検出された場合に、その検出された車両状態に基づいて、表示形式(表示内容)を変えて表示するものである。
次に、この実施の形態6による車載情報装置の動作について説明する。この実施の形態6における車載情報装置の動作を示すフローチャートについては、実施の形態5における図16に示すフローチャートと同じであるため、図示を省略する。ただし、ステップST53における判断の処理が、実施の形態5とは異なっている。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST51)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST52)。
その後、車室内環境状態検出部30により、車室内における搭乗者の感情状態が明るいか暗いかに基づいて、会話内容の表示が必要か否かが判断される(ステップST53)。すなわち、車室内環境状態検出部30が、音声特徴情報取得部36により取得された音声特徴情報に基づいて、車室内における搭乗者の感情状態が明るいか暗いかを推定し、搭乗者の感情状態が暗い場合には、会話が聞き取りにくい状態である可能性が高く、会話の提示が必要であると判断する。
そして、車室内における搭乗者の感情状態が明るいと推定され、会話の提示が不要であると判断された場合(ステップST53のNOの場合)には、ステップST51に戻って処理を行う。
一方、車室内における搭乗者の感情状態が暗いと推定され、会話の提示が必要であると判断された場合(ステップST53のYESの場合)には、表示制御部3が、ステップST52で認識された音声データを整理して時系列順等に並べた表示データを作成し、表示部4へその表示データを送信することにより、表示部4に会話内容が文字列で表示される(ステップST54)。
以上のように、この実施の形態6によれば、常に車内の会話を聞き取って音声認識を行い、車室内における搭乗者の感情状態が暗く、会話を聞き取りにくい状態である可能性が高いと判断された場合には、会話内容を提示するようにしたので、騒音や運転操作への注力等により会話が聞き取りにくい状態であっても、会話内容を確認することができるとともに、会話の流れもわかりやすくなる。
実施の形態7.
図18は、この発明の実施の形態7による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜6で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態7では、実施の形態4において説明した図10に示すブロック図に比べると、車室内環境状態検出部(車両状態検出部)30に代えて車両周辺環境状態検出部(車両状態検出部)40を備え、さらに時刻取得部41、天候状態取得部42を備えている。
この実施の形態7の車両周辺環境状態検出部40は、現在の日付、時刻、曜日などの情報を取得する時刻取得部41、現在の自車位置の天候情報を通信機器を介して取得する天候状態取得部42により取得された、車両周辺の現在の年月日、時刻、曜日、天候状態のいずれかに基づいて、車両周辺の環境状態を車両状態として検出するものである。
そして、この実施の形態7では、車両周辺環境状態検出部40により車両周辺の環境状態から運転手が運転操作に注力しなければならない状況であることが検出された場合に、その検出された車両状態に基づいて、表示形式(表示内容)を変えて表示したり、運転席側の表示部4では表示を非表示にするなど、表示データを出力する表示部または出力しない表示部を選択、変更、切り換える等の制御を行うものである。
次に、この実施の形態7による車載情報装置の動作について説明する。図19は、実施の形態7による車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST71)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST72)。
そして、表示制御部3は、運転席側(運転手から見える位置)の表示部4に表示を行うわけではない場合(ステップST73のNOの場合)は、ステップST72で音声認識部2により認識された音声認識結果の文字列を整理して時系列順等に並べ、各表示部4(4−1,4−2,・・・,4−N)の位置に応じて表示形式(表示内容)を変えて表示データを生成し、それぞれの表示部4へその表示データを送信することにより、各表示部4に会話内容が文字列で表示される(ステップST74)。
一方、表示制御部3が運転席側(運転手から見える位置)の表示部4に表示を行う場合(ステップST73のYESの場合)は、さらにステップ75において、車両周辺環境状態検出部40により、現在の車両周辺の年月日、時刻、曜日、天候のいずれかに基づいて、運転操作に注力が必要か否かが判断される(ステップST75)。すなわち、時刻取得部41により取得された現在の車両周辺の年月日、時刻、曜日がいつであるか、また、天候状態取得部42により取得された現在の車両周辺の天候がどのような天候であるか、に基づいて、車両周辺環境状態検出部40が、日付や曜日が混雑する時期である場合、時間帯が夜間である場合、天候が雨である場合などに、運転手が運転操作に注力しなければならない状態であると判断する。
そして、運転操作への注力が不要であると判断された場合(ステップST75のNOの場合)には、運転席側の表示部4を表示状態にする(ステップST76)。ただし、既に表示状態の場合には何もしない。
一方、運転操作への注力が必要であると判断された場合(ステップST75のYESの場合)には、運転席側の表示部4を非表示状態にする(ステップST77)。ただし、既に非表示状態の場合には何もしない。
以上のように、この実施の形態7によれば、常に車内の会話を聞き取って音声認識を行い、表示部の位置および車両周辺の環境状態が、運転手が運転操作に注力しなければならない状態である場合には、運転席側の表示部には音声認識結果を表示させないようにしたので、実施の形態4と同様の効果に加え、運転中に運転手がわき見をすることを防ぐことができる。
実施の形態8.
図20は、この発明の実施の形態8による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜7で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態8では、実施の形態5において説明した図10に示すブロック図に比べると、車室内環境状態検出部(車両状態検出部)30に代えて車両運行状態検出部(車両状態検出部)50を備え、さらにステアリング状態取得部51、シフトレバー使用状態取得部52、ブレーキ使用状態取得部53、ウィンカー使用状態取得部54、照明状態取得部55、ワイパー使用状態取得部56を備えている。
ステアリング状態取得部51、シフトレバー使用状態取得部52、ブレーキ使用状態取得部53、ウィンカー使用状態取得部54、照明状態取得部55、ワイパー使用状態取得部56は、車両からのCAN信号等から、ステアリング状態、シフトレバー、ブレーキ、ウィンカー、照明、ワイパーの使用有無信号をそれぞれ取得する。
この実施の形態8における車両運行状態検出部50は、車両のステアリング、シフトレバー、ブレーキ、ウィンカー、照明、ワイパーなどの使用状態を検出するものである。
そして、この実施の形態8では、車両運行状態検出部50により上記の車両設備が使用されている状態であると検出された場合に、その検出された車両状態に基づいて、表示形式(表示内容)を変えて表示したり、運転席側の表示部4では表示を非表示にするなど、表示データを出力する表示部または出力しない表示部を選択、変更、切り換える等の制御を行うものである。
次に、この実施の形態8による車載情報装置の動作について説明する。この実施の形態8における車載情報装置の動作を示すフローチャートについては、実施の形態7における図19に示すフローチャートと同じであるため、図示を省略する。ただし、ステップST75における判断の処理が、実施の形態7とは異なっている。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST71)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST72)。
そして、表示制御部3が運転席側(運転手から見える位置)の表示部4に表示を行うわけではない場合(ステップST73のNOの場合)は、音声認識部2の音声認識結果の文字列を時系列順に並べ、各表示部4(4−1,4−2,・・・,4−N)の位置に応じて表示形式(表示内容)を変えて表示データを生成し、それぞれの表示部4へその表示データを送信することにより、各表示部4に会話内容が文字列で表示される(ステップST74)。
一方、表示制御部3が運転席側(運転手から見える位置)の表示部4に表示を行う場合(ステップST73のYESの場合)は、さらにステップ75において、車両運行状態検出部50により、車両のステアリング、シフトレバー、ブレーキ、ウィンカー、照明、ワイパーなどが使用されているか否かに基づいて、運転操作に注力が必要か否かが判断される(ステップST75)。すなわち、ステアリング状態取得部51、シフトレバー使用状態取得部52、ブレーキ使用状態取得部53、ウィンカー使用状態取得部54、照明状態取得部55、ワイパー使用状態取得部56により取得された、車両のステアリング状態、シフトレバー、ブレーキ、ウィンカー、照明、ワイパーのいずれかの使用有無信号が使用中(使用有)である場合に、車両運行状態検出部50は、運転手が運転操作に注力しなければならない状態であると判断する。
そして、運転操作への注力が不要であると判断された場合(ステップST75のNOの場合)には、運転席側の表示部4を表示状態にする(ステップST76)。ただし、既に表示状態の場合には何もしない。
一方、運転操作への注力が必要であると判断された場合(ステップST75のYESの場合)には、運転席側の表示部4を非表示状態にする(ステップST77)。ただし、既に非表示状態の場合には何もしない。
以上のように、この実施の形態8によれば、常に車内の会話を聞き取って音声認識を行い、表示部の位置および車両のステアリング状態、シフトレバー、ブレーキ、ウィンカー、照明、ワイパーのいずれかの操作状態が使用中であって、運転手が運転操作に注力しなければならない状態である場合には、運転席側の表示部には音声認識結果を表示させないようにしたので、実施の形態4と同様の効果に加え、運転中に運転手がわき見をすることを防ぐことができる。
実施の形態9.
図21は、この発明の実施の形態9による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜8で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態9では、実施の形態4において説明した図10に示すブロック図と比べると、車室内環境状態検出部(車両状態検出部)30に代えて車両運行状態検出部(車両状態検出部)50を備え、さらに自車位置取得部61、車速信号取得部62、加速度取得部63、方位取得部64、走行継続時間取得部65、走行継続距離取得部66、走行道路種別取得部67、走行道路路面状態取得部68、走行道路渋滞状況取得部69、走行経路設定状態取得部70、走行経路誘導状態取得部71を備えている。
この実施の形態9における車両運行状態検出部50は、車両の現在の位置、速度、加速度、方位、走行継続距離、走行継続時間、走行道路種別、走行道路路面状態、走行道路渋滞状況、走行経路設定状態、走行経路誘導状態のいずれかの車両の運行状態を検出するものである。
そして、この実施の形態9では、車両運行状態検出部50により検出された車両状態に基づいて、表示形式(表示内容)を変えて表示するものである。
なお、実施の形態4,7,8に示すように、表示部4を複数備えている場合には、車両運行状態検出部50により検出された車両状態に基づいて、表示形式(表示内容)を変えて表示したり、運転席側の表示部4では車両運行中は表示を非表示にするなど、表示データを出力する表示部または出力しない表示部を選択、変更、切り換える等の制御を行うこともできる。
自車位置取得部61は、GPS(Global Positioning System)受信機やジャイロスコープなどから取得した情報を用いて、現在の自車位置を取得する。
車速信号取得部62は、車両からのCAN信号等から車両の速度情報を取得する。
加速度取得部63は、ジャイロスコープや、車両のアクセル・ブレーキ・ハンドル操作から、車両の加速度を取得する。
方位取得部64は、自車位置の移動方向や電子コンパスから車両の方位を取得する。
走行継続時間取得部65、走行継続距離取得部66は、カーナビゲーションや車両からのCAN信号等から、走行継続時間、走行継続距離をそれぞれ判断して取得する。
走行道路種別取得部67、走行道路路面状態取得部68は、自車位置取得部61により取得された現在の自車位置情報と、後述する地図データ記憶部72等に記憶されている地図データとに基づいて、現在走行中の走行道路種別、走行道路路面状態をそれぞれ取得する。取得できる情報としては「トンネル内か否か」「舗装済か未舗装か」等の騒音状況や運転操作に影響を与える道路の状態である。また、例えば自車位置がまだトンネル内でなくてもこのまま進むとトンネル内に入る場合等は「まもなくトンネル内に入る」という情報を取得するようにしてもよい。
走行道路渋滞状況取得部69は、通信機器を介して自車位置の渋滞情報を取得したり、電波・光ビーコンからVICS(Vehicle Information and Communication System/登録商標)情報(道路交通情報)を取得したりする。
走行経路設定状態取得部70、走行経路誘導状態取得部71は、ナビゲーション装置から現在の走行経路設定状態、走行経路誘導状態の情報をそれぞれ取得する。
地図データ記憶部72には、例えば道路データ、トンネルデータ等の地図データが記憶されている。この地図データ記憶部72は、DVD−ROM、ハードディスク、SDカードなど、どのような形態のものでもよい。またネットワーク上に存在し、通信ネットワークを介して道路データなどの情報を取得できる構成としてもよい。
車両運行状態検出部50は、自車位置取得部61と車速信号取得部62、加速度取得部63、方位取得部64、走行継続時間取得部65、走行継続距離取得部66等から取得した情報を基に、走行中か停車中かを判定したり、走行道路種別取得部67、走行道路路面状態取得部68、走行道路渋滞状況取得部69から取得した情報を元に、走行中の道路の騒音状況や運転操作に影響を与える道路の状態であるか否かを判定したり、走行経路がナビゲーション装置により設定、誘導されている状態であるか否かを判定する。
そして表示制御部3は、車両運行状態検出部50が走行中と判断した場合や、運転操作に影響を与える道路の状態であると判断した場合には、運転席側(運転手から見える位置)の表示部4の表示内容を非表示にする。
次に、この実施の形態9による車載情報装置の動作について説明する。この実施の形態9における車載情報装置の動作を示すフローチャートについては、実施の形態7における図19に示すフローチャートと同じであるため、図示を省略する。ただし、ステップST75における判断の処理が、実施の形態7とは異なっている。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST71)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST72)。そして、表示制御部3が運転席側(運転手から見える位置)の表示部4に表示を行うわけではない場合(ステップST73のNOの場合)は、音声認識部2の音声認識結果の文字列を時系列順に並べ、各表示部4(4−1,4−2,・・・,4−N)の位置に応じて表示形式(表示内容)を変えて表示データを生成し、それぞれの表示部4へその表示データを送信することにより、各表示部4に会話内容が文字列で表示される(ステップST74)。
一方、表示制御部3が運転席側(運転手から見える位置)の表示部4に表示を行う場合(ステップST73のYESの場合)は、さらにステップ75において、車両運行状態検出部50により、現在の自車位置、車速、加速度、方位、走行継続時間、走行継続距離のいずれかに基づいて走行中か停車中かを判定したり、現在走行中の道路種別、道路路面状態、道路渋滞状況のいずれかに基づいて走行中の道路の騒音状況や運転操作に影響を与える道路の状態であるか否かを判定したり、走行経路設定状態や走行経路誘導状態に基づいて走行経路のナビゲーション中であるか否か(走行経路がナビゲーション装置により設定、誘導されている状態であるか否か)を判定することにより、現在運転手にとって運転操作に注力が必要か否かが判断される(ステップST75)。
そして、運転操作への注力が不要であると判断された場合(ステップST75のNOの場合)には、運転席側の表示部4を表示状態にする(ステップST76)。ただし、既に表示状態の場合には何もしない。
一方、運転操作への注力が必要であると判断された場合(ステップST75のYESの場合)には、運転席側の表示部4を非表示状態にする(ステップST77)。ただし、既に非表示状態の場合には何もしない。
以上のように、この実施の形態9によれば、常に車内の会話を聞き取って音声認識を行い、表示部の位置および車両の運行状態が、運転手が運転操作に注力しなければならない状態である場合には、運転席側の表示部には音声認識結果を表示させないようにしたので、実施の形態4と同様の効果に加え、走行中に運転手がわき見をすることを防ぐことができる。
実施の形態10.
図22は、この発明の実施の形態10による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜9で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態10では、実施の形態7において説明した図18に示すブロック図と比べると、音声出力制御部11および音声出力部12をさらに備えており、運転席側の表示部4において走行中は表示を非表示としたため、運転手への代わりの情報として音声出力により会話内容を提示するものである。なお、ここでは実施の形態7を元に説明するが、実施の形態8,9においても同様に、音声出力制御部および音声出力部を備えて同様の構成とすることができる。
音声出力制御部11は、運転席側の表示部4を非表示とした場合に音声認識部2により認識した発話内容を音声合成して、音声出力部12へ送信する。
なお、この実施の形態10では合成音声を出力する構成としているが、音声認識部2で音声区間検出した部分を合成音声の代わりに出力する構成としてもよい。
音声出力部12は、音声出力制御部11から送信された音声データをスピーカ等により出力する。
次に、この実施の形態10による車載情報装置の動作について説明する。図23は、実施の形態10による車載情報装置の動作を示すフローチャートである。
ステップST101〜ST107までの処理については、実施の形態7における図19のフローチャートのステップST71〜ST77と同じであるため、説明を省略する。そして、この実施の形態10では、ステップST107において運転席側の表示部4を非表示状態にした後に、音声出力制御部11が音声認識部2により認識した発話内容の音声データを音声出力部12に送信し、音声データを出力する(ステップST108)。
このように、この実施の形態10では、実施の形態7と同様、走行中には運転席側の表示部を非表示とし、運転手への代わりの情報として音声出力により会話内容を提示することにより、運転手は音声により会話内容を認識することができる。
以上のように、この実施の形態10によれば、走行中に運転席側の表示部を非表示にした場合には、音声出力部により音声認識結果を出力するようにしたので、実施の形態7と同様の効果に加え、走行中であっても、運転手は音声により会話内容を認識することができる。
実施の形態11.
図24は、この発明の実施の形態11による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜10で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態11では、実施の形態8において説明した図20に示すブロック図と比べると、音声出力保留判定部10、音声出力制御部11および音声出力部12をさらに備えており、運転席側の表示部4において走行中は表示を非表示としたため、運転手への代わりの情報として音声出力により会話内容を提示するものである。なお、ここでは実施の形態8を元に説明するが、実施の形態9においても同様に、音声出力保留判定部、音声出力制御部および音声出力部を備えて同様の構成とすることができる。
この実施の形態11は、実施の形態10と比べると音声出力保留判定部10を備えている点が異なるのみである。
音声出力保留判定部10は、ステアリング状態取得部51、シフトレバー使用状態取得部52、ブレーキ使用状態取得部53、ウィンカー使用状態取得部54、照明状態取得部55、ワイパー使用状態取得部56からの情報により、右左折時や車線変更時など、特に運転に注意を払う必要がある場面であるか否かを判断し、それにより音声出力の保留の要否を判定し、音声出力制御部11に通知する。
音声出力制御部11は、運転席側の表示部4を非表示とした場合に音声認識部2により認識した発話内容を音声合成して、音声出力部12へ送信する。ただし、音声出力保留判定部10から音声出力の保留が通知された場合は直ちに出力を停止する。保留が解除された場合、保留した音声データの先頭から送信し直す。また、保留時間が長い場合は保留した音声データを破棄するようにしてもよい。
なお、この実施の形態10では合成音声を出力する構成としているが、音声認識部2で音声区間検出した部分を合成音声の代わりに出力する構成としてもよい。
音声出力部12は、音声出力制御部11から送信された音声データをスピーカ等により出力する。
次に、この実施の形態11による車載情報装置の動作について説明する。図25は、実施の形態11による車載情報装置の動作を示すフローチャートである。
ステップST111〜ST117までの処理については、実施の形態10における図23のフローチャートのステップST101〜ST107と同じであるため、説明を省略する。そして、この実施の形態11では、ステップST117において運転席側の表示部4を非表示状態にした後に、音声出力保留判定部10にて音声出力の保留の要否判断を行う(ステップST118)。音声出力の保留が必要であると判断された場合(ステップST118のYESの場合)は、音声出力の保留が解除されるまで音声出力部12への音声データを保留する(ステップST119のNOの場合)。
ステップST118において音声出力の保留が不要であると判断された場合(ステップST118のNOの場合)または音声出力の保留が解除された場合(ステップST119のYESの場合)には、音声認識部2により認識した発話内容の音声データを音声出力部12に送信し、音声データを出力する(ステップST120)。なお、音声出力中に保留が行われ、解除された場合には、保留した音声データの先頭から出力し直す。
ここで、ステップST118において、音声出力保留判定部10が音声出力の保留の要否を判断する処理について説明する。例えば、ウィンカー使用状態取得部54によりウィンカーが使用されていることが検知され、車両運行状態検出部50により車両の運行状態が右左折中や車線変更中であると検出された場合に、音声出力保留判定部10は、その右左折中や車線変更中であることから、特に運転に注意を払う必要がある場面であると判定し、音声出力の保留が必要であると判断し、音声出力制御部11に「音声出力の保留必要」と通知を行う。また逆に、ステアリング状態取得部51、シフトレバー使用状態取得部52、ブレーキ使用状態取得部53、ウィンカー使用状態取得部54、照明状態取得部55、ワイパー使用状態取得部56からいずれも使用されていないと検知された場合には、音声出力の保留は不要であると判断し、音声出力制御部11に対して「音声出力の保留不要」と通知を行う。
このように、この実施の形態11では、実施の形態10と同様、走行中には運転席側の表示部を非表示とし、運転手への代わりの情報として音声出力により会話内容を提示することにより、運転手は音声により会話内容を認識することができる。また、右左折時や車線変更時など、特に運転に注意を払う必要がある場面であるかどうかを検出し、そのように運転に注意を払う必要がある場面であると判断された場合には、音声出力も行わない(保留する)ようにすることにより、運転手はより運転に集中することができる。
以上のように、この実施の形態11によれば、走行中に運転席側の表示部を非表示にした場合には、音声出力部により音声認識結果を出力するようにしたので、実施の形態10と同様の効果に加え、走行中であっても、運転手は音声により会話内容を認識することができる。また、その音声についても、右左折時や車線変更時などの特に注意を払う必要がある場合には提示しないようにしたことにより、運転手がより運転に集中することができる。
実施の形態12.
図26は、この発明の実施の形態12による車載情報装置の構成を示すブロック図である。なお、実施の形態1〜11で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。以下に示す実施の形態12では、実施の形態1において説明した図1に示す基本構成と比べると、実施の形態5〜10において説明した各種取得部31〜36,41〜42,51〜56,61〜72のいずれかと、車両状態検出部30,40,50に加え、キーワード抽出部13および会話履歴記憶部14をさらに備えており、車両状態検出部30,40,50により検出された車両状態またはキーワード抽出部13により抽出された所定のキーワードに基づいて、発話内容の全部または部分の出力要否を判断し、出力要と判断された発話内容の全部または部分の表示データのみを生成したり、表示開始または表示停止のタイミングを判断し、表示するタイミングを変えたりするものである。
キーワード抽出部13は、音声認識部2で認識した会話文字列の中に、「えっ、何?」「会話をテロップで表示」「会話をテロップに表示しない」「このテロップ邪魔」等の所定のキーワードが含まれていたら、これらを抽出する。
会話履歴記憶部14は、音声認識部2により認識した発話内容をすべて記憶しておくものであり、表示制御部3からの指示により直前の会話が必要とされた場合に、記憶されている会話内容の直前の会話を送信する。
表示制御部3は、各種取得部31〜36,41〜42,51〜56,61〜72から取得した情報を基に、音声認識部2により認識した発話内容を表示部4へ提示内容として送信するが、例えば下記のような判定を組み合わせることにより、会話内容の表示/非表示を切り替えたり、表示する場合でも提示する会話の直前から表示をしたり、逆に会話の直後から提示したりという制御を行う。なお、直前の会話から提示する場合には、会話履歴記憶部14から直前の会話を取得して表示する。また、下記a)〜h)の判定はあくまでも一例にすぎず、各種取得部31〜36,41〜42,51〜56,61〜72から取得した情報により他の条件を組み合わせてもよいことは言うまでもない。
a)車速がある閾値以上であれば提示し、ある閾値未満であれば提示しない。
b)窓が開いたら提示し、閉まったら提示しない。
c)トンネル内を走行していれば提示し、トンネル外であれば提示しない。
d)まもなくトンネル内に入ると通知された場合、その直後の会話から提示する。
e)入力音声のS/N比がある閾値以下であれば提示し、ある閾値より大きければ提示しない。
f)音声認識結果に「えっ、何?」等の会話を聞き取れなかったことを意味するキーワードが含まれていれば、その直前の会話から提示する。
g)音声認識結果に「会話をテロップで表示」等の表示を指示するキーワードが含まれていれば、その直後の会話から提示する。
h)音声認識結果に「会話をテロップに表示しない」「このテロップ邪魔」等の表示しないよう指示するキーワードが含まれていれば、会話を提示しない。
次に、この実施の形態12による車載情報装置の動作について説明する。図27は、実施の形態12による車載情報装置の動作を示すフローチャートである。
まず初めに、何らかの発話入力があると、音声取得部1が入力された音声を取得し、A/D変換して、例えばPCM形式の音声データとして取得する(ステップST121)。次に、音声取得部1により取得された音声データを音声認識部2が認識する(ステップST122)。そして、音声認識部2で認識した発話内容を表示制御部3が後から参照することができるよう、認識した会話の文字列を会話履歴として会話履歴記憶部14に保存する(ステップST123)。
その後、表示制御部3により、前述の判定a)〜h)を組み合わせて会話内容の表示が必要か否かが判断される(ステップST124)。会話の提示が必要であると判断された場合(ステップST124のYESの場合)であって、提示するタイミングがその認識の直後だと通知された場合(ステップST125のYESの場合)には、ステップST121に戻って処理を行う。
なお、会話の提示が不要であると判断された場合(ステップST124のNOの場合)にも、ステップST121に戻る。
一方、会話の提示が必要であると判断され、提示するタイミングがその認識の直前だと通知された場合(ステップST126のYESの場合)には、表示制御部3が会話履歴記憶部14に記憶された会話履歴から直前の会話内容を取得して表示データを生成して表示部4へ送信し(ステップST127)、それに続けて音声認識部2で認識した発話(現在の発話内容)の文字列から生成した表示データを表示部4に送信して表示する(ステップST128)。
また、提示するタイミングがその認識の直前でも直後でもない場合(ステップST126のNOの場合)には、音声認識部で認識した会話の文字列から生成した表示データを表示部4に送信して表示する(ステップST128)。
このように、この実施の形態12は、実施の形態1と同様に、常に車内の会話を聞き取って音声認識を行い、会話を提示してくれるものであるが、車両状態検出部により検出された車両状態またはキーワード抽出部により抽出された所定のキーワードに基づいて、発話内容の全部または部分の出力要否を判断し、出力要と判断された発話内容の全部または部分の表示データのみを生成することにより、必要な時にだけ会話を提示してくれるので、会話の表示が不要な場合には、別のコンテンツを表示することができる。また、会話を提示するタイミングについても、車両状態検出部により検出された車両状態またはキーワード抽出部により抽出された所定のキーワードに基づいて、例えばトンネル内に入る直後から、会話が聞き取れなかったことを意味するキーワードの直前から、表示を指示するキーワードの直後から、など、表示開始または表示停止のタイミングを判断し、必要なタイミングで会話を提示してくれたり、表示しないよう指示するキーワードが含まれていればその後は表示しないなど、制御してくれる。
なお、キーワード抽出部13が抽出するキーワードの中に、所定の語句が含まれていた場合に、当該所定の語句を、所定の異なる語句または所定の画像に変換した表示データ(または、所定の語句を、所定の異なる語句または所定の音声に変換した音声データ)を生成したり、所定の略語または言い換え語または方言が含まれていた場合には、当該所定の略語または言い換え語または方言を、所定の標準語句に変換した表示データ(または音声データ)を生成するようにしてもよい。具体的には、例えば、ブランド名をそのブランドの記号に置き換えたり、「やったー」等の感情的な語彙を絵文字や記号に置き換えたり、「おめでとう」等のキーワードについては拍手等の効果音を出力したりする。
これにより、わかりにくい語句なども明確に提示されるので、会話内容を明確に確認することができる。
以上のように、この実施の形態12によれば、常に車内の会話を聞き取って音声認識を行い、車両状態検出部により検出された車両状態またはキーワード抽出部により抽出された所定のキーワードに基づいて、必要な時にだけ、また、必要なタイミングで会話が提示されるので、必要に応じて会話内容を確認することができ、不要な場合には別のコンテンツを表示することができる。
この発明の車載情報装置は、搭乗者と装置との音声対話を行うことが可能な車載用ナビゲーション装置、車載オーディオ装置、車載映像装置などに適用することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 音声取得部、2 音声認識部、3 表示制御部(出力制御部)、4 表示部(出力部)、5 信号処理部、6 発話有無検出部、7 発話データ抽出部、8 発話データ順番整理部、9 音声認識待ち発話データ記憶部、10 音声出力保留判定部、11 音声出力制御部(出力制御部)、12 音声出力部(出力部)、13 キーワード抽出部、14 会話履歴記憶部、30 車室内環境状態検出部(車両状態検出部)、31 音声のS/N取得部、32 音響機器動作状態取得部、33 空調機器動作状態取得部、34 車室内の騒音状態取得部、35 窓またはルーフの開閉状態取得部、36 音声特徴情報取得部、40 車両周辺環境状態検出部(車両状態検出部)、41 時刻取得部、42 天候状態取得部、50 車両運行状態検出部(車両状態検出部)、51 ステアリング状態取得部、52 シフトレバー使用状態取得部、53 ブレーキ使用状態取得部、54 ウィンカー使用状態取得部、55 照明状態取得部、56 ワイパー使用状態取得部、61 自車位置取得部、62 車速信号取得部、63 加速度取得部、64 方位取得部、65 走行継続時間取得部、66 走行継続距離取得部、67 走行道路種別取得部、68 走行道路路面状態取得部、69 走行道路渋滞状況取得部、70 走行経路設定状態取得部、71 走行経路誘導状態取得部、72 地図データ記憶部。

Claims (15)

  1. 車両に搭載され、搭乗者の会話を支援する情報を提供する車載情報装置において、
    前記車載情報装置が起動されている場合は常時、前記搭乗者の発話した音声を検知して取得する音声取得部と、
    前記音声取得部により取得した前記音声の発話内容を認識する音声認識部と、
    前記音声認識部が認識した発話内容を記憶する会話履歴記憶部と、
    前記音声認識部が認識した発話内容から、前記会話履歴記憶部に記憶された会話内容の画面表示の出力の開始または停止に関する所定のキーワードを抽出するキーワード抽出部と、
    前記車両の車室内の環境状態または前記車両周辺の環境状態または前記車両の運行状態を含む車両状態を検出する車両状態検出部と、
    前記車両状態検出部により検出された前記車両状態および前記キーワード抽出部により抽出されたキーワードに応じて前記音声認識部により認識された前記発話内容を表示データまたは音声データとして生成し、出力部への出力制御をする出力制御部とを備えた
    ことを特徴とする車載情報装置。
  2. 前記車両状態検出部は、車室内の環境状態として、搭乗者、音声取得部、出力部のいずれかの配置状態を検出することを特徴とする請求項1記載の車載情報装置。
  3. 前記車両状態検出部は、車室内の環境状態として、音声取得部が取得した音声のS/N比、車室内の音響機器または空調機器の動作状態、車室内の騒音状態、窓またはルーフの開閉状態のいずれかを検出することを特徴とする請求項1記載の車載情報装置。
  4. 前記車両状態検出部は、車室内の環境状態として、音声取得部が取得した音声の種類、音量、音程、音質、音色、声色、テンポ、周波数特性のいずれかを含む音声特徴情報に基づく推定により、前記音声を発話した搭乗者の感情状態を検出することを特徴とする請求項1記載の車載情報装置。
  5. 前記車両状態検出部は、車両周辺の環境状態として、車両周辺の現在の年月日、時刻、曜日、天候状態のいずれかを検出することを特徴とする請求項1記載の車載情報装置。
  6. 前記車両状態検出部は、車両の運行状態として、ステアリング、シフトレバー、ブレーキ、ウィンカー、照明、ワイパーのいずれかの操作状態を検出することを特徴とする請求項1記載の車載情報装置。
  7. 前記車両状態検出部は、車両の運行状態として、車両の現在の位置、速度、加速度、方位、走行継続距離、走行継続時間、走行道路種別、走行道路路面状態、走行道路渋滞状況、走行経路設定状態、走行経路誘導状態のいずれかを検出することを特徴とする請求項1記載の車載情報装置。
  8. 前記出力制御部は、前記車両状態検出部により検出された車両状態または前記キーワード抽出部により抽出されたキーワードに応じて、異なる態様の表示データまたは音声データを生成することを特徴とする請求項1記載の車載情報装置。
  9. 前記異なる態様の表示データまたは音声データとしては、表示文字または表示画像の種類、形状、大きさ、色、濃度、明度、画面内のレイアウトのいずれかが異なる表示データ、または、音声の種類、音量、音程、音質、音色、声色、テンポ、音像、残響、チャンネル数、周波数特性のいずれかが異なる音声データであることを特徴とする請求項8記載の車載情報装置。
  10. 前記出力制御部は、前記車両状態検出部により検出された車両状態または前記キーワード抽出部により抽出されたキーワードに応じて、前記発話内容の全部または部分の出力要否を判断し、前記発話内容の全部または部分の表示データまたは音声データを生成するまたは生成しないことを特徴とする請求項1記載の車載情報装置。
  11. 前記出力制御部は、前記キーワードに所定の語句が含まれるか否かを判断し、前記所定の語句が含まれると判断した場合には、前記所定の語句を、所定の異なる語句または所定の画像または所定の音声に変換した表示データまたは音声データを生成することを特徴とする請求項1記載の車載情報装置。
  12. 前記出力制御部は、前記キーワードに所定の略語または言い換え語または方言が含まれるか否かを判断し、前記所定の略語または言い換え語または方言が含まれると判断した場合には、前記所定の略語または言い換え語または方言を、所定の標準語句に変換した表示データまたは音声データを生成することを特徴とする請求項1記載の車載情報装置。
  13. 前記出力制御部は、前記搭乗者が複数いる場合には、発話した前記複数の搭乗者を識別可能な態様の表示データまたは音声データを生成することを特徴とする請求項1記載の車載情報装置。
  14. 前記出力制御部は、前記出力部が複数ある場合には、前記車両状態検出部により検出された車両状態または前記キーワード抽出部により抽出されたキーワードに応じて、表示データまたは音声データを出力する出力部または出力しない出力部を選択または変更または切り換えることを特徴とする請求項1記載の車載情報装置。
  15. 前記車載情報装置は、車載ナビゲーション装置、車載オーディオ装置、車載映像装置のいずれかであることを特徴とする請求項1記載の車載情報装置。
JP2014522219A 2012-06-25 2012-06-25 車載情報装置 Active JP5972372B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/004099 WO2014002128A1 (ja) 2012-06-25 2012-06-25 車載情報装置

Publications (2)

Publication Number Publication Date
JPWO2014002128A1 JPWO2014002128A1 (ja) 2016-05-26
JP5972372B2 true JP5972372B2 (ja) 2016-08-17

Family

ID=49782371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522219A Active JP5972372B2 (ja) 2012-06-25 2012-06-25 車載情報装置

Country Status (5)

Country Link
US (1) US9305555B2 (ja)
JP (1) JP5972372B2 (ja)
CN (1) CN104412323B (ja)
DE (1) DE112012006617B4 (ja)
WO (1) WO2014002128A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200022932A (ko) * 2018-08-24 2020-03-04 정우주 차량 탑승자 대화기반 컨텐츠 추천 방법 및 장치
US10647251B2 (en) 2017-12-20 2020-05-12 Hyundai Motor Company Vehicle and method of controlling the same

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
WO2014006690A1 (ja) * 2012-07-03 2014-01-09 三菱電機株式会社 音声認識装置
BR112015018905B1 (pt) 2013-02-07 2022-02-22 Apple Inc Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US20140288939A1 (en) * 2013-03-20 2014-09-25 Navteq B.V. Method and apparatus for optimizing timing of audio commands based on recognized audio patterns
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP6413263B2 (ja) * 2014-03-06 2018-10-31 株式会社デンソー 報知装置
US9584236B2 (en) 2014-05-16 2017-02-28 Alphonso Inc. Efficient apparatus and method for audio signature generation using motion
EP2949536B1 (en) * 2014-05-30 2016-10-05 Honda Research Institute Europe GmbH Method for controlling a driver assistance system
CN106471570B (zh) 2014-05-30 2019-10-01 苹果公司 多命令单一话语输入方法
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
KR102249392B1 (ko) * 2014-09-02 2021-05-07 현대모비스 주식회사 사용자 맞춤형 서비스를 위한 차량 기기 제어 장치 및 방법
JP6242773B2 (ja) * 2014-09-16 2017-12-06 株式会社東芝 会議情報蓄積装置、方法およびプログラム
WO2016103988A1 (ja) * 2014-12-26 2016-06-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
CN106714026B (zh) * 2015-07-30 2019-06-21 惠州市德赛西威汽车电子股份有限公司 多输出音源的识别方法以及基于该方法的车载多音源系统
DE102015011023B4 (de) * 2015-08-22 2022-01-05 Audi Ag Fahrzeug-Datenschreibervorrichtung, Fahrzeug und Verfahren zum Protokollieren eines Vorgangs in einem Fahrzeug
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US20180130467A1 (en) * 2015-09-09 2018-05-10 Mitsubishi Electric Corporation In-vehicle speech recognition device and in-vehicle equipment
CN107004414B (zh) * 2015-10-08 2020-11-13 索尼公司 信息处理设备、信息处理方法及记录介质
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP6385624B2 (ja) * 2016-06-08 2018-09-05 三菱電機株式会社 車載情報処理装置、車載装置および車載情報処理方法
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
EP3504523B1 (en) * 2016-08-29 2023-11-08 Harman International Industries, Incorporated Apparatus and method for generating virtual venues for a listening room
DE102016218270B4 (de) * 2016-09-22 2018-04-26 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
WO2018061824A1 (ja) * 2016-09-29 2018-04-05 日本電気株式会社 情報処理装置、情報処理方法およびプログラム記録媒体
US10773726B2 (en) * 2016-09-30 2020-09-15 Honda Motor Co., Ltd. Information provision device, and moving body
JP6918471B2 (ja) * 2016-11-24 2021-08-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 対話補助システムの制御方法、対話補助システム、及び、プログラム
US10593328B1 (en) * 2016-12-27 2020-03-17 Amazon Technologies, Inc. Voice control of remote device
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN110402584B (zh) 2017-03-17 2021-11-23 三菱电机株式会社 车内通话控制装置、车内通话系统以及车内通话控制方法
CN107230478A (zh) * 2017-05-03 2017-10-03 上海斐讯数据通信技术有限公司 一种语音信息处理方法及系统
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770411A1 (en) * 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DE102017213249A1 (de) * 2017-08-01 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erzeugen einer auditiven Meldung in einem Innenraum eines Fahrzeugs
US20190156834A1 (en) * 2017-11-22 2019-05-23 Toyota Motor Engineering & Manufacturing North America, Inc. Vehicle virtual assistance systems for taking notes during calls
CN109835280B (zh) * 2017-11-27 2022-07-15 比亚迪股份有限公司 一种通过语音识别显示车辆状态及驾驶行为的系统和车辆
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
JP7186375B2 (ja) * 2018-03-29 2022-12-09 パナソニックIpマネジメント株式会社 音声処理装置、音声処理方法および音声処理システム
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
KR20200004054A (ko) 2018-07-03 2020-01-13 현대자동차주식회사 대화 시스템 및 대화 처리 방법
KR20200042127A (ko) * 2018-10-15 2020-04-23 현대자동차주식회사 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
KR20200001188A (ko) * 2018-06-27 2020-01-06 현대자동차주식회사 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
JP6936772B2 (ja) * 2018-06-04 2021-09-22 株式会社ホンダアクセス 情報提供装置
JP7163625B2 (ja) * 2018-06-06 2022-11-01 日本電信電話株式会社 移動支援情報提示制御装置、方法およびプログラム
JP6992893B2 (ja) * 2018-06-19 2022-01-18 日産自動車株式会社 走行情報処理装置及び処理方法
CN112513979A (zh) * 2018-07-24 2021-03-16 佛吉亚歌乐电子有限公司 信息收集装置以及控制方法
US11425517B2 (en) * 2018-08-02 2022-08-23 Nippon Telegraph And Telephone Corporation Conversation support system, method and program for the same
WO2020065771A1 (ja) * 2018-09-26 2020-04-02 三菱電機株式会社 音声感情認識装置および音声感情認識方法
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
JP2020060830A (ja) * 2018-10-05 2020-04-16 本田技研工業株式会社 エージェント装置、エージェント提示方法、およびプログラム
JP7068986B2 (ja) * 2018-10-09 2022-05-17 本田技研工業株式会社 エージェントシステム、エージェント制御方法、およびプログラム
JP2020060696A (ja) * 2018-10-10 2020-04-16 本田技研工業株式会社 コミュニケーション支援システム、コミュニケーション支援方法、およびプログラム
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109733293A (zh) * 2018-12-14 2019-05-10 江苏辰汉电子科技有限公司 一种支持语音识别的新型车载智能终端装置
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
JP2020154013A (ja) 2019-03-18 2020-09-24 株式会社Subaru 車両用注意喚起装置、車両用注意喚起方法及びプログラム
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
CN111402868B (zh) * 2020-03-17 2023-10-24 阿波罗智联(北京)科技有限公司 语音识别方法、装置、电子设备及计算机可读存储介质
KR20210133600A (ko) * 2020-04-29 2021-11-08 현대자동차주식회사 차량 음성 인식 방법 및 장치
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN111816189B (zh) * 2020-07-03 2023-12-26 斑马网络技术有限公司 一种车辆用多音区语音交互方法及电子设备
CN114089943A (zh) 2020-07-17 2022-02-25 阿尔卑斯阿尔派株式会社 声音输出装置及声音输出方法
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
JP2022061873A (ja) * 2020-10-07 2022-04-19 トヨタ自動車株式会社 車両用エージェント装置、車両用エージェントシステム、及び車両用エージェントプログラム
US20220415321A1 (en) * 2021-06-25 2022-12-29 Samsung Electronics Co., Ltd. Electronic device mounted in vehicle, and method of operating the same
DE102022113817A1 (de) 2022-06-01 2023-12-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum betreiben eines sprachsteuersystems eines automatisierten kraftfahrzeugs
DE102022125547A1 (de) 2022-10-04 2024-04-04 Cariad Se Kraftfahrzeug und Verfahren zum Zusammenfassen eines Gesprächs in einem Kraftfahrzeug

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054203B2 (en) * 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
JP4002030B2 (ja) * 1999-06-11 2007-10-31 富士通テン株式会社 車載用情報提供装置及び音声認識装置
JP2001005487A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声認識装置
KR101034524B1 (ko) * 2002-10-23 2011-05-12 코닌클리케 필립스 일렉트로닉스 엔.브이. 음성에 근거하여 장치를 제어하는 음성 제어 유닛, 제어되는 장치 및 장치를 제어하는 방법
JP4533705B2 (ja) * 2003-09-01 2010-09-01 パナソニック株式会社 車載対話装置
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
JP2005309185A (ja) 2004-04-23 2005-11-04 Nissan Motor Co Ltd 音声入力装置、および音声入力方法
US8880047B2 (en) 2005-08-03 2014-11-04 Jeffrey C. Konicek Realtime, location-based cell phone enhancements, uses, and applications
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
JP2007208828A (ja) 2006-02-03 2007-08-16 Denso Corp 車両用音声入出力制御装置
WO2008004486A1 (fr) 2006-07-06 2008-01-10 Panasonic Corporation Dispositif d'entrée vocale
JP2008042390A (ja) 2006-08-03 2008-02-21 National Univ Corp Shizuoka Univ 車内会話支援システム
JP2008242261A (ja) 2007-03-28 2008-10-09 Denso Corp 音声認識装置
JP2008275987A (ja) 2007-05-01 2008-11-13 Yamaha Corp 音声認識装置および会議システム
US7881929B2 (en) * 2007-07-25 2011-02-01 General Motors Llc Ambient noise injection for use in speech recognition
US20090055180A1 (en) * 2007-08-23 2009-02-26 Coon Bradley S System and method for optimizing speech recognition in a vehicle
WO2009047874A1 (ja) * 2007-10-12 2009-04-16 Mitsubishi Electric Corporation 車載情報提供装置
US8351581B2 (en) 2008-12-19 2013-01-08 At&T Mobility Ii Llc Systems and methods for intelligent call transcription
JP2010156825A (ja) 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音声出力装置
JP5326843B2 (ja) 2009-06-11 2013-10-30 日産自動車株式会社 感情推定装置及び感情推定方法
JP2011170634A (ja) * 2010-02-18 2011-09-01 Nikon Corp 情報処理装置
US8428227B2 (en) 2010-05-18 2013-04-23 Certicall, Llc Certified communications system and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10647251B2 (en) 2017-12-20 2020-05-12 Hyundai Motor Company Vehicle and method of controlling the same
KR20200022932A (ko) * 2018-08-24 2020-03-04 정우주 차량 탑승자 대화기반 컨텐츠 추천 방법 및 장치
KR102109186B1 (ko) * 2018-08-24 2020-05-11 정우주 차량 탑승자 대화기반 컨텐츠 추천 방법 및 장치

Also Published As

Publication number Publication date
JPWO2014002128A1 (ja) 2016-05-26
CN104412323A (zh) 2015-03-11
DE112012006617B4 (de) 2023-09-28
US9305555B2 (en) 2016-04-05
US20150006167A1 (en) 2015-01-01
DE112012006617T5 (de) 2015-04-09
CN104412323B (zh) 2017-12-12
WO2014002128A1 (ja) 2014-01-03

Similar Documents

Publication Publication Date Title
JP5972372B2 (ja) 車載情報装置
US6889189B2 (en) Speech recognizer performance in car and home applications utilizing novel multiple microphone configurations
WO2017057170A1 (ja) 対話装置及び対話方法
JP6173477B2 (ja) ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法
WO2014057540A1 (ja) ナビゲーション装置およびナビゲーション用サーバ
JP6604151B2 (ja) 音声認識制御システム
JP4798431B2 (ja) エージェント装置、エージェント機能付車載用ナビゲーション装置、エージェント出力方法
JP5413321B2 (ja) 通信システム、車載端末、および携帯端末
JP2006317573A (ja) 情報端末
US20200294092A1 (en) System and method for providing content to a user based on a predicted route identified from audio or images
JP2009251388A (ja) 母国語発話装置
CN111261154A (zh) 智能体装置、智能体提示方法及存储介质
JP5414951B2 (ja) ナビゲーション装置、方法およびプログラム
KR101755308B1 (ko) 음성 인식 모듈, 그를 가지는 단말기 및 차량
JP5181533B2 (ja) 音声対話装置
JPH11351901A (ja) 制御装置
JP6741387B2 (ja) 音声出力装置
WO2019163060A1 (ja) 操作制限制御装置及び操作制限制御方法
JP2020160181A (ja) 音声処理装置及び音声処理方法
JP2009086132A (ja) 音声認識装置、音声認識装置を備えたナビゲーション装置、音声認識装置を備えた電子機器、音声認識方法、音声認識プログラム、および記録媒体
JP2018087870A (ja) 音声出力装置
US20200026937A1 (en) Information providing device, vehicle, and information providing method
JP2022018605A (ja) 電子機器及び音声起動方法
CN112241248A (zh) 信息提供装置、信息提供方法及存储介质
JP2021105769A (ja) 車載装置及び応答出力制御方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160712

R150 Certificate of patent or registration of utility model

Ref document number: 5972372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250