JP6346281B2 - 車載対話型システム、及び車載情報機器 - Google Patents

車載対話型システム、及び車載情報機器 Download PDF

Info

Publication number
JP6346281B2
JP6346281B2 JP2016531202A JP2016531202A JP6346281B2 JP 6346281 B2 JP6346281 B2 JP 6346281B2 JP 2016531202 A JP2016531202 A JP 2016531202A JP 2016531202 A JP2016531202 A JP 2016531202A JP 6346281 B2 JP6346281 B2 JP 6346281B2
Authority
JP
Japan
Prior art keywords
image
content
unit
vehicle
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016531202A
Other languages
English (en)
Other versions
JPWO2016002406A1 (ja
Inventor
宗紀 杉田
宗紀 杉田
吉原 敬一朗
敬一朗 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2016002406A1 publication Critical patent/JPWO2016002406A1/ja
Application granted granted Critical
Publication of JP6346281B2 publication Critical patent/JP6346281B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/213
    • B60K35/22
    • B60K35/81
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • B60K2360/148
    • B60K2360/334
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics

Description

本発明は、車載対話型システム、及び車載情報機器に関する。
本技術分野の背景技術として、特開2014−106927号公報(特許文献1)がある。この公報には、「所定のユーザ操作を受け付ける操作受付手段33と、音声データをテキストデータに変換する音声認識手段23と、前記音声認識手段が認識したテキストデータから1つ以上の検索キーを抽出し、予め定められたカテゴリに分類する分類手段222と、カテゴリに分類される検索キーがない場合、検索履歴データに記録されている同じカテゴリの過去の検索キーを読み出して該カテゴリの検索キーに決定する検索キー作成手段226と、前記分類手段が分類した検索キーをカテゴリに対応づけて前記検索履歴データとして時系列に記録する検索履歴記録手段227と、検索キー作成手段が前記検索履歴データから検索キーを読み出す時系列上の位置を変更する参照履歴変更手段228と、を有する。」と記載されている。
特開2014−106927号公報
ユーザは、車両内において車載装置と対話することで、所望とする情報を検索することができるようになってきたが、発話の内容の自由度が高い場合には、ユーザは何を発話すれば良いか迷ってしまうときがあった。
そこで、本発明は、ユーザにとってより利便性が高められる車載対話型システム、及び車載情報機器を提供することを目的とする。
上記目的を達成するために、ユーザが発話した話し言葉の発話音声が入力される車載情報機器と、前記話し言葉の発話音声を対話型音声認識処理する対話型音声認識処理部と、前記対話型音声認識処理の結果に基づく応答を前記車載情報機器に送る応答部と、を備えた車載対話型システムにおいて、前記車載情報機器に設けられた表示部と、図像の画像を前記表示部に表示する表示制御部と、複数のコンテンツを記憶するコンテンツ記憶部と、を備え、前記図像は、前記発話に用いる単語、又は言葉を明示しない図像であり、かつ、当該単語、又は言葉を前記ユーザに連想させる図像であり、前記応答部は、前記対話型音声認識処理の結果に基づいて前記コンテンツ記憶部からコンテンツを取得し、前記車載情報機器に出力し、前記表示制御部は、前記コンテンツ記憶部に記憶されているコンテンツを連想させる図像の画像を前記表示部に表示し、前記コンテンツ記憶部から取得するコンテンツが特定されない場合には、当該コンテンツを特定するための対話応答文と、当該対話応答文に対応した図像の画像とを前記表示部に表示し、前記対話応答文に対応した図像の画像は、前記対話応答文に前記ユーザが返答するときの発話に用いる単語、又は言葉を明示しない図像であり、かつ、当該単語、又は言葉を前記ユーザに連想させる図像の画像であることを特徴とする。
本発明によれば、ユーザにとってより利便性が高められる。
図1は、本発明の実施形態に係る車載対話型システムの構成を模式的に示す図である。 図2は、車載情報機器の構成を示す機能ブロック図である。 図3は、虚像の表示態様を模式的に示す図である。 図4は、サービス提供サーバの構成を示す機能ブロック図である。 図5は、コンテンツサーバが提供するコンテンツの多様性を説明するための樹形図である。 図6は、連想画像の表示動作に係るシーケンス図である。 図7は、待受画面の一例を示す図である。 図8は、コンテンツの取得要求における対話応答画面の表示例を示す図である。 図9は、POI情報検索要求における対話応答画面の表示例を示す図である。 図10は、連想画像の説明図である。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る車載対話型システム1の構成を模式的に示す図である。
車載対話型システム1は、車両2に乗車しているユーザU(主に運転手)が当該車両2に搭載されている車載情報機器3に音声入力により指示を与えて操作するシステムである。この音声入力には対話型音声認識処理が用いられている。
対話型音声認識処理は、音声認識処理とは異なり、「コマンド」を認識処理するのではなく、「自然な話し言葉」を認識処理する。
「コマンド」とは、各種の操作の指示のために予め定められた単語、又は言葉であり、例えば「音声入力開始」や、「○○表示」、「音楽再生」といった単語、又は言葉である。「コマンド」を用いた認識処理では、「コマンド」以外の単語や言葉は認識されないことから、ユーザUは、適切な指示を与えるには「コマンド」についての予備知識が必要となる。
一方、「自然な話し言葉」における「話し言葉」とは、日常の会話に用いられる言葉であり、「自然な」「話し言葉」とは、ユーザUが音声認識装置への音声入力操作を意識した「話し言葉」ではなく、日常生活においてユーザUが相対する「聞き手」との会話で通常に使う言葉である。
すなわち、この車載対話型システム1では、「自然な話し言葉」が発話されて音声入力されても、「聞き手」が通常に理解する意味と同等の内容が対話型音声認識処理により認識、及び理解される。このため、ユーザUは、車載情報機器3に指示を与えるための「コマンド」を予め知っている必要はなく、日常生活で話すときと同じ自由な発話で指示を与えることができるようになっている。
また、この車載対話型システム1は、ユーザUの発話音声A1の音声入力による操作を通じて、コンテンツの取得、及びPOI情報検索を可能にしており、図1に示すように、上記車載情報機器3と、サービス提供サーバ4と、コンテンツサーバ5と、VRサーバ6とを備え、これらが電気通信回線7に互いにデータ通信するように接続されている。
図2は、車載情報機器3の構成を示す機能ブロック図である。
車載情報機器3は、車両2に搭載される車載型の機器であり、コンテンツ提供機能、及びPOI検索機能に加え、ナビゲーション機能と、運転支援機能とを実現可能に構成され、かつ、これらの機能を音声入力により操作可能に構成されている。
すなわち、車載情報機器3は、図2に示すように、音声入力部10と、操作部11と、表示部12と、音声出力部15と、コンテンツ再生部16と、ナビゲーション部17と、運転支援部18と、データ通信部19と、記憶部20と、制御部30とを備えている。
制御部30は、車載情報機器3の各部を中枢的に制御するものであり、CPUやRAM、ROM等を備えたマイクロコンピュータにより構成されている。また、ROMには、制御部30による制御機能を実現するためのコンピュータプログラムが格納されている。この制御部30の機能的構成については後述する。
音声入力部10は、ユーザUが発話した発話音声A1を取得し、制御部30に出力する。
この音声入力部10は、例えば発話音声A1を集音してアナログ音声信号を出力するマイク装置や、このアナログ音声信号を所定の符号化形式でデジタル化してデジタル音声信号を出力するデジタルプロセッサを備え、このデジタル音声信号が制御部30に出力される。
操作部11は、複数の操作子を備え、車載情報機器3に対する手動操作を可能にする。
表示部12は、各種の情報を表示するものであり、LCD13とHUD14とを備えている。
LCD13は、液晶ディスプレイであり、車両2に設けられたダッシュボード(図示せず)に設置され、メインメニュー画面や、コンテンツ提供機能、ナビゲーション機能、及び運転支援機能の各機能に対応した画面を表示する。
例えば、コンテンツ提供機能に対応した画面として、コンテンツ表示画面や、音楽コンテンツや動画コンテンツの再生を操作するための操作画面が表示される。またナビゲーション機能に対応した画面として、経路案内用地図を表示する地図画面や周辺地図、POI(Point of Interest)情報を表示する情報表示画面が表示される。
なお、LCD13に代えて、例えば有機ELディスプレイ等の他のフラットパネルディスプレイを用いても良い。また、LCD13にタッチパネルを設け、上記操作部11を構成しても良い。
HUD14は、走行中の道路や交通の状況に基づき、運転者の運転を支援する情報を表示する表示手段であり、運転者の前方に虚像による虚像画面Vを表示する、いわゆるヘッドアップディスプレイ(HUD:Head-Up Display)である。
図3は、虚像画面Vの表示態様を模式的に示す図である。
HUD14は、図4に示すように、車両2のフロントウィンドシールド40に像を投影することで運転者に虚像画面Vを視認させるものであり、虚像画面Vを投影するための図示せぬ投影装置や投影光学系を有している。
虚像画面Vは、運転操作中の運転者による視認を容易とするために、運転者からみて運転ハンドル41の正面位置の所定領域42に表示される。
なお、上記LCD13は、HUD14の表示位置とは異なり、運転操作中にフロントウィンドシールド40を正面視している運転者の視界に入り難い、又は入らない位置に設置される。
前掲図2に戻り、音声出力部15は、各種の音声を出力するものであり、車両2の車室内に配設されたスピーカ装置を備えている。
音声出力部15が出力する音声には、コンテンツ再生音や、車載情報機器3の操作音、及び操作ガイダンス音声、上述した対話型音声認識処理における対話音声などが挙げられる。
コンテンツ再生部16は、制御部30の制御の下、音楽コンテンツ、動画コンテンツ、画像コンテンツ、及び文字コンテンツ等のマルチメディアコンテンツの再生出力機能を実現する。このコンテンツ再生部16は、通常の車載オーディオ装置が備えるマルチメディア再生機能を有し、音声出力部15を通じて音声を適宜に出力し、また表示部12のLCD13に動画や画像、文字を適宜に表示する。すなわち、これら音声出力部15、及び表示部12は、コンテンツをユーザ視聴可能に出力する出力部としても機能する。
ナビゲーション部17は、制御部30の制御の下、ナビゲーション機能を実現する。このナビゲーション機能には、現在地又はユーザ指定地から目的地までのルートを検索するルート検索機能や、現在地から目的地までのルートを案内するルート案内機能が含まれる。
このナビゲーション部17は、GPS等の測位装置、及び地図データを記憶する記憶部などを備える通常の車載ナビゲーション装置が備える各種の機能を有し、音声出力部15を通じて音声を出力し、また表示部12のLCD13に適宜に地図や、画像、文字等の各種情報を表示する。また、地図データには、道路の情報として、運転支援部18の運転支援に要する各種の情報(法定速度や、勾配、規制情報、警戒情報など)が含められている。
運転支援部18は、制御部30の制御の下、車両2を運転する運転者の運転を支援する運転支援機能を実現する。この運転支援部18は、前掲図3に示すように、表示部12のHUD14に運転支援画像43を表示することで運転者の運転を支援する。
この運転支援画像43は、運転者の運転操作に有益な情報を示す画像であれば任意のものが用いられる。例えば目的地に至る経路の方向を指し示す経路誘導画像や、走行中の道路の情報(例えば法定速度、勾配、規制情報、警戒情報など)を示す画像、周囲や走行方向前方の障害物を警告する画像といったものが運転支援画像43に用いられる。
運転支援部18は、ナビゲーション部17が備える地図データ及びGPSと、車両2が備える各種の車両情報センサ(例えば、車速パルスセンサや周囲物体検知装置、ブレーキ操作検知センサなど)とに基づいて、運転者の運転操作に有益な情報を特定し、当該情報に応じた運転支援画像43をHUD14に表示する。
データ通信部19は、無線通信により電気通信回線7と通信する機能を備えている。この無線通信には、例えば携帯電話網を用いた通信や無線LAN等の各種の移動体通信を用いることができる。また、データ通信部19は、スマートフォンや無線LANルータ端末等の他の通信装置を中継器として利用して電気通信回線7と通信する構成であっても良い。
記憶部20は、制御部30が実行するコンピュータプログラムや各種のデータを記憶する。
上記制御部30は、コンテンツ再生制御部31と、ナビ制御部32と、運転支援制御部33と、表示制御部34と、サーバ連携部35とを備えている。
コンテンツ再生制御部31、ナビ制御部32、及び運転支援制御部33は、それぞれコンテンツ再生部16、ナビゲーション部17、及び運転支援部18の動作を制御する。
表示制御部34は、表示部12が備えるLCD13への各種情報の表示、及びHUD14への虚像画面Vの表示を制御する。
また、この表示制御部34は、発話音声A1による音声入力が受け付け可能であるときには、前掲図3に示すように、音声入力の待機状態であることを示すマイク画像44をHUD14に表示する。HUD14にマイク画像44が表示されることで、ユーザUが運転操作中であっても、視線を逸らすことなく、発話音声A1による音声入力が受け付け可能であることを把握できる。
なお、表示制御部34は、マイク画像44の表示時には、連想画像45を表示しているが、これについては後述する。
サーバ連携部35は、データ通信部19を介してサービス提供サーバ4と通信し、当該サービス提供サーバ4との協働により、対話型音声認識により発話音声A1を音声認識、及び理解し、ユーザUへのコンテンツの提供、及びPOI情報検索を実行する。
具体的には、この車載対話型システム1では、ユーザUの発話音声A1に対する音声認識、及び理解に係る処理、及びユーザUが要求するコンテンツ取得、及びPOI情報の検索に係る処理を、サービス提供サーバ4が中枢的に実行している。
すなわち、サーバ連携部35は、ユーザUが発話した発話音声A1を音声データに変換してサービス提供サーバ4に送信し、この発話音声A1を対話型音声認識処理した結果に基づく応答を当該サービス提供サーバ4から受信し、表示部12や音声出力部15に出力する。
サービス提供サーバ4から車載情報機器3が受ける応答は、例えばユーザUが要求したコンテンツ、POI情報検索の結果、及びユーザUに応答を求める対話応答文である。
図4は、サービス提供サーバ4の構成を示す機能ブロック図である。
サービス提供サーバ4は、ユーザUの発話音声A1を対話型音声認識処理により音声認識し理解し、ユーザUが要求しているコンテンツ、又はPOI情報を車載情報機器3に送信するサーバコンピュータであり、図4に示すように、制御部50と、データ通信部51と、記憶部52とを備えている。
データ通信部51は、電気通信回線7を介して車載情報機器3、コンテンツサーバ5、及びVRサーバ6との間でデータ通信する。
記憶部52は、制御部50が実行するコンピュータプログラムや各種のデータを記憶する。
制御部50は、各部を中枢的に制御するとともに、対話型音声認識処理を実行するものであり、CPU、RAM、及びROM等を備え、記憶部52に格納されているコンピュータプログラムに基づいて動作する。
対話型音声認識処理部54は、対話型音声認識処理を実現する機能を有し、発話音声入力部56と、音声認識部57と、発話内容理解部58と、応答部59とを備えている。
発話音声入力部56は、データ通信部51を通じて車載情報機器3から受信したユーザUの発話音声A1が入力され音声認識部57に出力する。この発話音声入力部56は、音声認識部57による発話音声A1の音声認識精度を高めるために、この発話音声A1の音声データに含まれるノイズ(雑音)を除去した後、音声認識部57に出力する。なお、ノイズの除去には、音声信号処理の分野における任意の手法を用いることができる。
音声認識部57は、発話音声A1を音声認識し、発話音声A1を文字列(テキスト)に変換したテキストデータを発話内容理解部58に出力する。
この車載対話型システム1では、発話音声A1の音声認識を高い精度で処理するために、前掲図1に示すように、音声認識処理を担うVRサーバ6が設けられており、音声認識部57は、このVRサーバ6を用いて発話音声A1をテキストデータに変換する。
VRサーバ6は、電気通信回線7を介してサービス提供サーバ4から発話音声A1の音声データを受信し、音声認識処理を施して文字列に変換し、この文字列のテキストデータをサービス提供サーバ4に送信する。このテキストデータが音声認識部57を通じて発話内容理解部58に出力される。
発話内容理解部58は、テキストデータに基づきユーザUが発話した内容を理解し、理解結果を応答部59に出力する。
詳述すると、この発話内容理解部58は、テキストデータの中から上記「コマンド」を抽出して指示を理解するのではなく、テキストデータの単語列の中から、当該サービス提供サーバ4がタスクを遂行するときに重要となるキーワードを抽出し、これらのキーワードを理解結果として応答部59に出力する。
タスクとは、ユーザUが要求する用件であり、この車載対話型システム1では、コンテンツの取得要求、又はPOI情報の検索要求である。
すなわち、発話内容理解部58では、コンテンツを取得するときに重要となる単語(例えば、コンテンツの種類や内容、名称など)、及び、POI情報検索のときに重要となる単語(検索キーとなる単語)がキーワードとして抽出される。
例えば、発話音声A1のテキストデータが「えーっと。サッカーワールドカップの結果が知りたいのだが。」という文字列であった場合、発話内容理解部58は、ユーザUの要求(タスク)がコンテンツの取得要求であると理解し、この理解結果として、「サッカー、ワールドカップ、結果」をキーワードとして抽出する。
また例えば、発話音声A1のテキストデータが「この辺りでイタリアンレストランをお願いしたい。」という文字列であった場合、発話内容理解部58は、ユーザUの要求がPOI情報の検索要求であると理解し、この理解結果として、「この辺り、イタリアン、レストラン」をキーワードとして抽出する。
応答部59は、発話内容理解部58によって抽出されたキーワードに基づいて、発話内容理解部58で理解されたタスク(ユーザUの要求)を遂行し、遂行の結果を車載情報機器3に応答として送信する。
具体的には、タスクがコンテンツの取得要求であった場合、応答部59は、ユーザUが要求しているコンテンツをキーワードに基づいて特定し、当該コンテンツを車載情報機器3に送信する。例えば、キーワードが「サッカー、ワールドカップ、結果」であった場合、ユーザUが取得要求しているコンテンツとして、サッカーワールドカップの試合結果の情報が特定される。
また例えば、タスクがPOI情報検索要求であった場合、応答部59は、キーワードに基づいてPOI情報を検索し、検索結果を車載情報機器3に送信する。例えばキーワードが「この辺り、イタリアン、レストラン」であった場合、現在地周辺のイタリアンレストランのPOI情報が検索される。
応答部59は、コンテンツ、又はPOI情報のデータを取得する場合、コンテンツサーバ5(図1)から取得し車載情報機器3に送信する。
なお、応答部59は、理解結果のキーワードが不足し、ユーザUが要求しているコンテンツ、又はPOI情報検索を特定できない場合には、これらの特定に要する発話音声A1の入力を促す対話応答文を生成し、対話応答文のテキストデータを車載情報機器3に送信する。車載情報機器3にあっては、この対話応答文のテキストデータに基づく合成音声が出力され、これにより、対話形式で、ユーザUによる音声入力操作が進められる。
前掲図1において、コンテンツサーバ5は、いわゆるコンテンツプロバイダーが管理するサーバコンピュータであり、多種多様なコンテンツのデータ(以下、「コンテンツデータ」という)をサービス提供サーバ4に提供可能に記憶するコンテンツ記憶部48を備えている。
図5は、コンテンツサーバ5が提供するコンテンツの多様性を説明するための樹形図である。
この図に示すように、コンテンツサーバ5は、「ニュース」、「ラジオ」、「天気」、及び「グルメ」の各ジャンルJのコンテンツデータを提供可能に保持している。
「ニュース」、「ラジオ」、及び「天気」のジャンルJについては、ジャンルJに対して下位の階層に位置する下位階層ジャンルJ1に細分化されており、これら下位階層ジャンルJ1の各々にコンテンツデータが保持されている。
例えば「ニュース」のジャンルJの下には「経済」、「IT」、及び「スポーツ」等の下位階層ジャンルJ1が配置され、それぞれの下位階層ジャンルJ1にニュースのジャンルJに係るコンテンツデータが準備されている。
また「ラジオ」のジャンルJは、いわゆるインターネットラジオを指し、この「ラジオ」のジャンルJの下には、「ロック」や「JAZZ」等の下位階層ジャンルJ1が配置され、それぞれの下位階層ジャンルJ1に音楽コンテンツデータが準備されている。
また「天気」のジャンルJは、天気情報を提供するジャンルであり、この「天気」のジャンルJの下には、地方単位で分類した「関東地方」や「九州地方」等の下位階層ジャンルJ1が配置される。また、当該下位階層ジャンルJ1の下には、更に、県単位で分類した下位階層ジャンルJ2と、県を更に市区町村単位で分類した下位階層ジャンルJ3とが、それぞれ階層構造を成して配置されている。そして、最下層である下位階層ジャンルJ3のそれぞれに、天気コンテンツデータが準備されている。
「グルメ」はPOI情報の検索対象のジャンルJを示し、例えばレストラン情報等のPOI情報Kが準備されている。
コンテンツサーバ5は、図5に示す多数のジャンルJのコンテンツデータ、及びPOI情報をコンテンツ記憶部48に保持するが、これらのコンテンツデータは、ジャンルJごとに分けて管理されているのではなく、ジャンルJ、及び下位階層ジャンルJ1、J2・・・と、その他の付随的情報とを含むタグ情報が紐付けられて管理されている。付随的情報とは、コンテンツデータごとに固有な情報や、コンテンツの内容に基づく特徴を表す情報などである。
コンテンツサーバ5は、コンテンツデータ又はPOI情報の要求をサービス提供サーバ4から受けた場合、要求に応じたジャンルJごとに階層を下位に辿るように絞り込み検索を行って該当のコンテンツデータ又はPOI情報を検索するのではなく、次のようにして検索を行っている。
すなわち、コンテンツサーバ5は、コンテンツデータの要求を受けた場合には、全てのコンテンツデータの中から、要求にマッチする度合いが高いタグ情報を有したコンテンツデータを検索し、サービス提供サーバ4に送信する。
また、コンテンツサーバ5は、POI情報の要求を受けた場合にも、全てのPOI情報の中から、要求にマッチする度合いが高いタグ情報を有したPOI情報を検索し、サービス提供サーバ4に送信する。
この検索によれば、コンテンツデータの要求時に、そのコンテンツデータが属するジャンルJ、及び下位階層ジャンルJ1、J2・・・が指定されていなくとも、要求にマッチするコンテンツデータが抽出可能になる。
すなわち、ユーザUがコンテンツデータを発話音声A1の音声入力によって要求するときに、ジャンルJ、及び下位階層ジャンルJ1、J2・・・を指定する単語を発話せずとも、所望のコンテンツデータが特定される。
このように、この車載対話型システム1では、ユーザUは、コンテンツ及びPOI情報を要求するときには、図5に示すジャンルJや下位階層ジャンルJ1、J2、・・・を知らなくても、所望のコンテンツ、及びPOI情報に因んだ単語や言葉を発話すれば、当該所望のコンテンツ、及びPOI情報がサービス提供サーバ4によって取得され、ユーザUに提供される。
これに加え、この車載対話型システム1にあっては、上述のとおり、ユーザUは、「コマンド」などの所定の単語を発話せずとも、日常の自由な発話により車載情報機器3に対して音声による指示を与えることができる。
すなわち、ユーザUは、車載情報機器3に指示を与えるときには、何を話してもよいし、どんな表現で話してもよく、音声入力に用いる発話の自由度が非常に高い車載対話型システム1が実現されている。
一方で、車載対話型システム1が提供可能なコンテンツの種類やPOI情報を把握していないユーザUにとっては、音声入力に用いる発話の自由度が高いと、反って何を発話すれば良いのか分かり難くなる。
そこで例えばユーザUが操作部11を手動操作してLCD13にメインメニュー等を表示させれば、提供可能なコンテンツの種類等を把握できるものの、運転操作中に運転者がLCD13の画面を注視することは好ましくない。
一方、HUD14は、運転操作中の運転者の視野内に位置することから、このHUD14に音声入力に用いて好ましい発話の例文等を文字で表示すると、運転者が無意識に文字読みしてしまい、運転者の集中力を削ぎ兼ねない。
また、提供可能なコンテンツをユーザUが把握する必要があるということは、予備知識を必要としない音声入力操作とは言えず、ましてや音声入力に用いる発話の例文等を表示し、それをユーザUに読み上げさせることは、「コマンド」による音声入力と何ら変りがない。
そこで、この車載情報機器3では、提供可能なコンテンツをユーザUが把握しておらず、なおかつ運転操作中であっても、ユーザUが指示を与えるための発話を直感できるように、HUD14の虚像画面Vには、前掲図3に示すように、上述の連想画像45が表示されている。この連想画像45は、車載情報機器3へ音声入力により指示を与えるときに用いる単語又は言葉を連想させる図像が描かれた画像であり、HUD14への連想画像45の表示は、車載情報機器3の表示制御部34によって制御されている。また、この連想画像45に用いられている図像は、その単語や言葉を表し、或いは象徴する図形や模様、絵などからなる画像であり、その単語や言葉を直接的に示す文字列を含まないものである。
図6は、連想画像45の表示動作に係るシーケンス図である。
同図に示すように、車載情報機器3は、音声入力を待ち受けている待受時には、虚像画面Vとして待受画面V1を表示する(ステップS1)。
図7は、待受画面V1の一例を示す図である。
この図に示す待受画面V1は、車両2の走行中の表示例であり、運転操作を支援する運転支援画像43が含まれ、また音声入力の待受状態であることを示すマイク画像44が表示されている。そして、このマイク画像44に隣接して連想画像45が表示される。
この車載対話型システム1では、ユーザUは、前掲図5に示すように、「ニュース」、「ラジオ」、「天気」、及び「グルメ」の各ジャンルJのコンテンツデータ、POI情報を音声入力操作によって入手できる。
したがって、音声入力の待受画面V1にあっては、車載情報機器3は、これらの各ジャンルJのコンテンツの取得、及びPOI情報検索をするために、ユーザUが音声入力により指示を与えるときに用いる単語や言葉を連想させる図像を描いた画像を連想画像45として表示する。
なお、この図7の例では、理解を助けるために、連想画像45の各々にジャンルJの名称が併記されているが、HUD14にジャンル名を必ずしも表示する必要は無い。連想画像45に文字を併記する場合は、ユーザUが一瞥しただけで瞬時に理解できるように、当該文字は一つの単語を構成する文字列とするのが好ましい。
図7の例において、「ニュース」のジャンルJに関連した単語を連想させる図像は「新聞」であり、この「新聞」の図像が、「ニュース」や「政治」、「経済」、「スポーツ」、或いは「サッカーの試合結果」といった「新聞」に関連した単語や言葉を、ユーザUに連想させ、また示唆することとなる。
このとき、待受画面V1に、ジャンルJの名称が明示的に表示されないこととすれば、連想画像45の図像を視覚したユーザUは、個々の関心事や興味の方向に即した単語や言葉を純粋に連想し発話が促されることとなる。
このようにして連想される単語や言葉は、ジャンルJの名称に捕らわれることなくユーザUの個々の関心事や興味を純粋に示すものであるから、対話型音声認識処理において、発話内容理解部58が理解するキーワードに十分に相応しい単語を含むもの、すなわち、前掲図5の樹形図において、下位階層ジャンルJ1、J2、・・・のコンテンツデータを直接的に特定可能な単語や言葉である蓋然性が高くなる。
したがって、このような単語や言葉が発話音声A1に用いられることで、1回の発話音声A1の音声入力で所望のコンテンツデータが特定され易くなるのである。
前掲図6に戻り、車載情報機器3は、待受画面V1の表示時に、ユーザUの発話音声A1が入力されると(ステップS2)、当該発話音声A1の音声データをサービス提供サーバ4に送信する(ステップS3)。
サービス提供サーバ4は、発話音声A1の音声データを受信すると(ステップS4)、この音声データに対して対話型音声認識処理を施して音声認識、及び理解する(ステップS5)。この発話音声A1の理解の結果、ユーザUが要求しているタスク(コンテンツの取得要求、又はPOI情報の検索要求)と、タスクの遂行に重要なキーワードとが特定される。
なお、この車載対話型システム1では、音声認識は、上述のとおり、VRサーバ6によって行われる。
次いで、サービス提供サーバ4は、コンテンツの絞り込みの要否を判定する(ステップS6)。この絞り込みの要否では、発話音声A1の理解結果に基づき、提供すべきコンテンツを特定できない場合、或いはPOI情報の検索結果が所定数を超えている場合には、絞り込みが「要」であると判定される。
例えば、コンテンツの取得要求において、発話音声A1に、下位階層ジャンルJ1、J2、・・・のコンテンツを直接的に特定可能な単語や言葉が含まれていた場合、ユーザUが要求しているコンテンツが十分に特定されるから、絞り込みは「不要」と判定される。
これに対し、例えばユーザUが「ニュース」というジャンルJの名称のみを発話音声A1として入力した場合、該当するコンテンツの数が多すぎることから、ユーザUが要求しているコンテンツが特定されない。したがって、この場合には、サービス提供サーバ4は、上記絞り込みを「要」と判定する。
コンテンツの絞り込みは、ユーザUとの対話形式で行われ、サービス提供サーバ4は、絞り込みに必要な発話音声A1の返答を促す対話応答文のテキストデータを生成し、車載情報機器3に送信する(ステップS7)。
車載情報機器3は、対話応答文のテキストデータを受信すると(ステップS)、このテキストデータを合成音声で読み上げて音声出力するとともに、対話応答画面V2をHUD14に表示する(ステップS9)。
図8は、コンテンツの取得要求における対話応答画面V2の表示例を示す図である。
コンテンツの取得要求においては、対話応答画面V2に対話応答文46が文字列表示される。対話応答文46が表示されることで、ユーザUが対話応答文の音声出力を車両2の走行音等に埋もれて聞き取れなかった場合でも、対話応答の内容を把握できる。
さらに、この対話応答画面V2にあっては、対話応答文46によって、ユーザUが返答すべき内容は示唆されるものの、その返答の発話に用いる単語や言葉をユーザUが想像し易くするために、この対話応答画面V2にも連想画像45が表示されている。
この表示例は、「ニュース」のジャンルJに属するニュースコンテンツを絞り込むための対話応答画面V2であり、このため、連想画像45としては、「ニュース」のジャンルJの下位に配置される下位階層ジャンルJ1の名称である「経済」や「スポーツ」等に関連した画像が用いられる。
図9は、POI情報検索要求における対話応答画面V2の表示例を示す図である。
POI情報検索要求においては、対話応答画面V2には、検索でヒットしたPOI情報ごとに連想画像45が表示される。それぞれの連想画像45の画像は、例えばPOI情報が示す施設や建物、風景の写真画像であり、この連想画像45に基づいて、POIの名称や、特徴を示す単語や言葉をユーザUは連想するようになる。
また、対話応答画面V2には、それぞれの連想画像45に、項番(識別子)が併せて表示される。POI情報検索要求においては、この項番が対話応答文に相当し、対話応答画面V2の表示の際に合成音声によっても読み上げられる。ユーザUは、連想画像45から連想される単語や言葉に代えて、項番を発話することで、所望のPOI情報の指定が容易となる。
前掲図6に戻り、車載情報機器3は、ユーザUが対話応答文に返答する発話をし、発話音声A1が入力されると(ステップS10)、当該発話音声A1の音声データをサービス提供サーバ4に送信する(ステップS11)。
サービス提供サーバ4は、発話音声A1の音声データを受信すると(ステップS12)、この音声データに対して対話型音声認識処理を施して音声認識、及び理解する(ステップS13)。
そして、サービス提供サーバ4は、コンテンツデータの絞り込みの要否を判定し(ステップS14)、絞り込みが「要」である場合には、ステップS7に戻って、絞り込みのための処理を繰り返す。
また、絞り込みが「不要」である場合、サービス提供サーバ4は、ユーザUが要求しているコンテンツデータ、又はPOI情報の検索結果をコンテンツサーバ5から取得し(ステップS15)、車載情報機器3に送信する(ステップS16)。
車載情報機器3は、コンテンツデータ、又はPOI情報の検索結果を受信すると(ステップS17)、これを音声、及び表示により出力することで、ユーザUに提供する(ステップS18)。
具体的には、車載情報機器3は、コンテンツデータ、又はPOI情報の検索結果がテキストデータを含む場合、当該テキストデータを合成音声により読み上げ、またLCD13には、コンテンツデータ、又はPOI情報の検索結果に基づく表示を出力する。またコンテンツデータが音楽コンテンツデータである場合、車載情報機器3は、音楽コンテンツデータを再生出力する。
なお、車載情報機器3は、コンテンツデータ、及びPOI情報の検索結果を表示により出力する場合に、HUD14にも、コンテンツデータ、及びPOI情報の検索結果に係る情報を虚像表示しても良い。
以上説明した実施形態によれば、次のような効果を奏する。
すなわち、ユーザUが発話した発話音声A1を対話型音声認識処理した結果に基づく応答を出力する車載情報機器3において、応答を得るための発話に用いる単語、又は言葉を連想させる図像である連想画像45を表示部12のHUD14に表示する構成とした。
この構成により、ユーザUは、連想画像45を視覚することで、音声入力により発話する単語、又は言葉を連想することができ、車載情報機器3の音声入力操作に対し、予備知識が無くとも、所望の応答に合せて適切に発話することができる。
これにより、自由な発話で音声入力操作が可能であり、かつ、ユーザUが発話に用いる単語や言葉に迷うことが無い、非常に利便性が高い車載情報機器3が実現される。
また本実施形態によれば、車載情報機器3が出力可能なコンテンツを連想させる図像が連想画像45として表示される。
これにより、ユーザUは、車載情報機器3が出力可能なコンテンツに関する単語や言葉を連想し、発話に用いるようになるので、出力可能なコンテンツの範囲をユーザUが予め知らなくとも、コンテンツを容易に得られる。
また本実施形態によれば、ユーザUの発話音声A1によりコンテンツが特定されない場合には、コンテンツを特定するための対話応答文46と、当該対話応答文に返答するときの発話に用いる単語、又は言葉を連想させる連想画像45を表示部12のHUD14に表示する構成とした。
これにより、ユーザUは、対話応答文に返答するときにおいても、返答に用いる単語や言葉に迷うことなく、スムーズに音声入力操作を遂行できる。
また本実施形態によれば、ユーザUが要求しているPOI情報として複数のPOI情報が特定された場合には、それぞれのPOI情報ごとの連想画像45を識別子たる項番47とともにHUD14に表示する構成とした。
この構成によれば、ユーザUは、POI情報を選択するための発話に、連想画像45から連想される単語や言葉の他に、項番47を用いることができる。特にユーザUは、項番47を発話に用いることで、POI情報を一意に選択できる。
なお、タスクがコンテンツ取得要求であった場合に、複数のコンテンツデータが特定されたとき、POI情報と同様に、コンテンツデータごとの連想画像45を識別子とともにHUD14に対話応答画面V2として表示しても良いことは勿論である。
また本実施形態によれば、HUD14に、連想画像45を表示する構成とした。
この構成によれば、運転者が運転操作中であっても、視線を大きく逸らすことなく連想画像45を視覚して、発話に用いる単語や言葉を連想することができる。
さらに、連想画像45には、発話に用いる単語や言葉を連想させる図像が用いられており、その単語や言葉を直接的に示す文字列ではないから、運転支援画像43を表示する表示機に連想画像45を表示しても、運転時の文字読みという危険な行為を回避できる。
なお、上述した実施形態は、あくまでも本発明の趣旨を逸脱しない範囲で任意に変形、及び応用が可能である。
例えば、上述した実施形態において、自由度が高い音声入力操作にユーザUが慣れた場合には、連想画像45の表示を中止しても良い。
また連想画像45の画像データは、サービス提供サーバ4が例えば対話応答文の内容に合わせて生成し、車載情報機器3に送信してHUD14に表示させても良い。
また、図7〜図9などに示す連想画像45の絵は、あくまでも例示であり、これに限定されるものではない。例えば図7には、「ニュース」のジャンルJに関連した単語を連想させる連想画像45として「新聞」を描いた図像が用いられている。
そして、上述のとおり、この「新聞」の図像は、「ニュース」というジャンルJの名称のみならず、図10に示すように、「ニュース」のジャンルJの下位階層に系統付けられている「経済」や「スポーツ」といった下位階層ジャンルJ1のジャンルの名称、これら下位階層ジャンルJ1の更に下位の階層である「野球」や「サッカー」という下位階層ジャンルJ2のジャンルの名称をユーザUに連想させている。
加えて、「新聞」を描いた連想画像45は、これらジャンルJ、下位階層ジャンルJ1、J2、・・・にタグ情報によって関連付けられているコンテンツ(例えば、「為替レート」や「サッカーの試合結果」など)の単語や言葉をも、ユーザUに連想させ、また示唆するものとして用いられる。
このように、上述した実施形態の連想画像45は、ジャンルJ、このジャンルJの下位階層に系統付けられた下位階層ジャンルJ1、J2、・・・及び、これらジャンルJ、或いは下位階層ジャンルJ1、J2、・・・に関連付けられているコンテンツの各々を内包する図像として描かれたものである。
これにより、例えば連想画像45として、ジャンルJ、下位階層ジャンルJ1、J2、・・・及び、コンテンツごとに、その名称や単語を一義的にユーザUに認識させる画像を連想画像45として提示する場合には、ユーザUが一義的に認識した名称や単語しか発話しなくなるのに対し、1つの連想画像45から、ジャンルJのみならず、その下位階層ジャンルJ1、J2、・・・やコンテンツを連想させて発話を促すことができ、結果として、発話入力の回数の削減にもつながる。
このような連想画像45の具体例としては、内包するジャンルJ、下位階層ジャンルJ1、J2、・・・及びコンテンツの全てを象徴する1つの図形や文字、記号(以下、図形等という)の図像の他に、例えばジャンルJを象徴する図形等、下位階層ジャンルJ1、J2、・・・を象徴する図形等、及びコンテンツを象徴する図形等の各々を含んで描かれた図像がある。
また上述した実施形態において、サービス提供サーバ4が受け付け可能なタスクや、提供可能なコンテンツは、あくまでも例示であり、任意のタスクやコンテンツを設定できる。
また図2、及び図4は、本願発明を理解容易にするために、車載情報機器3、及びサービス提供サーバ4の機能構成を主な処理内容に応じて分類して示した概略図であり、これらの構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。この場合、上記車載情報機器3、及びサービス提供サーバ4のそれぞれは、これらのコンピュータプログラムを例えば電気通信回線7を通じてダウンロードし、或いは、コンピュータ読み取り可能な記録媒体から読み出し、それぞれのCPUで実行する。
また例えば、上記図6のフローチャートの処理単位は、連想画像45の表示処理の理解を容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。
すなわち、連想画像45の表示処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、連想画像45の表示が同様に行われれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また上述した実施形態の連想画像45は、ユーザUの音声入力を対話型音声認識処理により認識し、応答する機器であれば、車載型の機器に限らず、任意の機器の表示部に表示させ、ユーザ操作の利便性向上させことができる。
1 車載対話型システム
2 車両
3 車載情報機器
4 サービス提供サーバ
5 コンテンツサーバ
10 音声入力部
12 表示部
14 HUD(ヘッドアップディスプレイ)
15 音声出力部(出力部)
30 制御部
34 表示制御部
35 サーバ連携部
40 フロントウィンドシールド
43 運転支援画像
44 マイク画像
45 連想画像
46 対話応答文
47 項番(識別子)
48 コンテンツ記憶部
50 制御部
54 対話型音声認識処理部
56 発話音声入力部
57 音声認識部
58 発話内容理解部
59 応答部
A1 発話音声
U ユーザ
J ジャンル
J1、J2、・・・下位階層ジャンル
V 虚像画面
V1 待受画面
V2 対話応答画面

Claims (6)

  1. ユーザが発話した話し言葉の発話音声が入力される車載情報機器と、
    前記話し言葉の発話音声を対話型音声認識処理する対話型音声認識処理部と、
    前記対話型音声認識処理の結果に基づく応答を前記車載情報機器に送る応答部と、を備えた車載対話型システムにおいて、
    前記車載情報機器に設けられた表示部と、
    図像の画像を前記表示部に表示する表示制御部と、
    複数のコンテンツを記憶するコンテンツ記憶部と、
    を備え、
    前記図像は、前記発話に用いる単語、又は言葉を明示しない図像であり、かつ、当該単語、又は言葉を前記ユーザに連想させる図像であり、
    前記応答部は、
    前記対話型音声認識処理の結果に基づいて前記コンテンツ記憶部からコンテンツを取得し、前記車載情報機器に出力し、
    前記表示制御部は、
    前記コンテンツ記憶部に記憶されているコンテンツを連想させる図像の画像を前記表示部に表示し、前記コンテンツ記憶部から取得するコンテンツが特定されない場合には、当該コンテンツを特定するための対話応答文と、当該対話応答文に対応した図像の画像とを前記表示部に表示し、
    前記対話応答文に対応した図像の画像は、
    前記対話応答文に前記ユーザが返答するときの発話に用いる単語、又は言葉を明示しない図像であり、かつ、当該単語、又は言葉を前記ユーザに連想させる図像の画像である
    ことを特徴とする車載対話型システム。
  2. 前記表示制御部は、
    前記対話型音声認識処理の結果に基づいて、複数のコンテンツが特定された場合、それぞれのコンテンツを連想させる図像の画像を識別子とともに前記表示部に表示する
    ことを特徴とする請求項に記載の車載対話型システム。
  3. 前記表示部は、
    車両の運転者の正面に虚像を表示するヘッドアップディスプレイである
    ことを特徴とする請求項1に記載の車載対話型システム。
  4. ユーザが発話した話し言葉の発話音声が入力される音声入力部と、
    前記話し言葉の発話音声を対話型音声認識処理した結果に基づく応答を出力する出力部と、
    を備えた車載情報機器において、
    表示部と、
    図像の画像を前記表示部に表示する表示制御部と、
    を備え、
    前記図像の画像は、前記発話に用いる単語、又は言葉を明示しない画像であり、かつ、当該単語、又は言葉を前記ユーザに連想させる図像であり、
    前記出力部は、
    前記対話型音声認識処理の結果に基づくコンテンツを出力し、
    前記表示制御部は、
    前記出力部が出力可能なコンテンツを連想させる図像の画像を前記表示部に表示し、前記出力部に出力するコンテンツが特定されない場合には、当該コンテンツを特定するための対話応答文と、当該対話応答文に応じた図像の画像とを前記表示部に表示し、
    前記対話応答文に対応した図像の画像は、
    前記対話応答文に前記ユーザが返答するときの発話に用いる単語、又は言葉を明示しない画像であり、かつ、当該単語、又は言葉を前記ユーザに連想させる図像の画像である
    ことを特徴とする車載情報機器。
  5. 前記表示制御部は、
    前記対話型音声認識処理の結果に基づいて複数のコンテンツが特定された場合、それぞれのコンテンツを連想させる図像の画像を識別子とともに前記表示部に表示する
    ことを特徴とする請求項に記載の車載情報機器。
  6. 前記表示部は、
    運転者の正面に虚像を表示するヘッドアップディスプレイである
    ことを特徴とする請求項に記載の車載情報機器。
JP2016531202A 2014-07-04 2015-05-29 車載対話型システム、及び車載情報機器 Active JP6346281B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014138848 2014-07-04
JP2014138848 2014-07-04
PCT/JP2015/065642 WO2016002406A1 (ja) 2014-07-04 2015-05-29 車載対話型システム、及び車載情報機器

Publications (2)

Publication Number Publication Date
JPWO2016002406A1 JPWO2016002406A1 (ja) 2017-04-27
JP6346281B2 true JP6346281B2 (ja) 2018-06-20

Family

ID=55018959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531202A Active JP6346281B2 (ja) 2014-07-04 2015-05-29 車載対話型システム、及び車載情報機器

Country Status (5)

Country Link
US (1) US20170168774A1 (ja)
EP (1) EP3166023A4 (ja)
JP (1) JP6346281B2 (ja)
CN (1) CN106662918A (ja)
WO (1) WO2016002406A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244118B2 (en) 2019-08-01 2022-02-08 Samsung Electronics Co., Ltd. Dialogue management method based on dialogue management framework and apparatus thereof

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6114249B2 (ja) * 2014-11-20 2017-04-12 ヤマハ株式会社 情報送信装置および情報送信方法
CN106463114B (zh) * 2015-03-31 2020-10-27 索尼公司 信息处理设备、控制方法及程序存储单元
KR20170099188A (ko) * 2016-02-23 2017-08-31 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
FR3048113B1 (fr) * 2016-02-23 2019-06-14 Valeo Schalter Und Sensoren Gmbh Dispositif et procede d'aide a la conduite d'un vehicule automobile
US10140770B2 (en) 2016-03-24 2018-11-27 Toyota Jidosha Kabushiki Kaisha Three dimensional heads-up display unit including visual context for voice commands
CN107796415B (zh) * 2016-09-07 2022-11-18 阿尔派株式会社 导航装置及其显示控制方法
CN107342083B (zh) * 2017-07-05 2021-07-20 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
KR102401896B1 (ko) * 2017-07-12 2022-05-27 주식회사 비즈모델라인 차량용 음파장치와 그 운영 방법
KR102403355B1 (ko) * 2017-07-25 2022-06-02 현대자동차주식회사 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
JP2018045694A (ja) * 2017-10-06 2018-03-22 ヤフー株式会社 地図検索装置、地図検索方法、および地図検索プログラム
US11758111B2 (en) 2017-10-27 2023-09-12 Baidu Usa Llc 3D lidar system using a dichroic mirror for autonomous driving vehicles
JP2019086911A (ja) * 2017-11-02 2019-06-06 三菱自動車工業株式会社 車載ユーザーインターフェース装置
CN107833574B (zh) * 2017-11-16 2021-08-24 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
US10794716B2 (en) * 2017-12-14 2020-10-06 Google Llc Systems and methods for selecting a POI to associate with a navigation maneuver
JP7197272B2 (ja) * 2018-01-11 2022-12-27 トヨタ自動車株式会社 音声出力システム、音声出力方法、及びプログラム
WO2019155526A1 (ja) 2018-02-06 2019-08-15 日産自動車株式会社 情報処理方法及び情報処理装置
JP2019137357A (ja) * 2018-02-15 2019-08-22 トヨタ自動車株式会社 車両用音出力及び文字表示装置
CN108665893A (zh) * 2018-03-30 2018-10-16 斑马网络技术有限公司 车载声音反应系统及方法
CN112313137A (zh) * 2018-06-19 2021-02-02 日产自动车株式会社 行驶信息处理装置和处理方法
CN110874201B (zh) * 2018-08-29 2023-06-23 斑马智行网络(香港)有限公司 交互方法、设备、存储介质和操作系统
US11221741B2 (en) * 2018-08-30 2022-01-11 Sony Corporation Display control of interactive content based on direction-of-view of occupant in vehicle
JP2020055348A (ja) * 2018-09-28 2020-04-09 本田技研工業株式会社 エージェント装置、エージェント制御方法、およびプログラム
US11055361B2 (en) * 2019-01-07 2021-07-06 Microsoft Technology Licensing, Llc Extensible framework for executable annotations in electronic content
JP7222757B2 (ja) * 2019-03-08 2023-02-15 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020154527A (ja) * 2019-03-19 2020-09-24 本田技研工業株式会社 車載装置、車載装置の制御方法、およびプログラム
WO2020240958A1 (ja) * 2019-05-30 2020-12-03 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7151694B2 (ja) * 2019-11-27 2022-10-12 井関農機株式会社 コンバイン
CN112172836B (zh) * 2020-09-28 2022-05-13 广州小鹏汽车科技有限公司 一种信息的推送方法、装置、车辆、可读介质
CN113138737B (zh) * 2021-04-16 2023-11-03 阿波罗智联(北京)科技有限公司 投屏场景的显示控制方法、装置、设备、介质及程序产品
EP4350689A4 (en) * 2021-06-03 2024-04-24 Nissan Motor DISPLAY CONTROL DEVICE AND DISPLAY CONTROL METHOD
CN113479154B (zh) * 2021-06-03 2023-01-03 亿咖通(湖北)技术有限公司 兼容仪表和娱乐功能的信息输送控制系统及方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331195A (ja) * 2000-05-19 2001-11-30 Sony Corp 車載機器、カーナビゲーションシステムおよびモニタ装置
JP2007265425A (ja) * 2004-06-10 2007-10-11 Matsushita Electric Ind Co Ltd 入力補助装置、情報検索装置、入力補助方法、及びプログラム
CN100536512C (zh) * 2004-07-22 2009-09-02 乐金电子(惠州)有限公司 通过车辆导航装置进行通话连接的方法和装置
JP4802522B2 (ja) * 2005-03-10 2011-10-26 日産自動車株式会社 音声入力装置および音声入力方法
JP2006309509A (ja) * 2005-04-28 2006-11-09 Nippon Telegr & Teleph Corp <Ntt> 閲覧画面再利用装置、閲覧画面再利用プログラム、及び記録媒体
JP4684739B2 (ja) * 2005-05-13 2011-05-18 クラリオン株式会社 音声処理装置
EP1895508B1 (en) * 2005-06-21 2010-10-06 Pioneer Corporation Speech recognizing device, information processing device, speech recognizing method, program, and recording medium
CN201266093Y (zh) * 2008-09-27 2009-07-01 东莞美城电子电器有限公司 具有语音识别功能的导航系统
JP2014046867A (ja) * 2012-08-31 2014-03-17 Sony Corp 入力装置
WO2014070872A2 (en) * 2012-10-30 2014-05-08 Robert Bosch Gmbh System and method for multimodal interaction with reduced distraction in operating vehicles
US20140181651A1 (en) * 2012-12-20 2014-06-26 Honda Motor Co., Ltd. User specific help
US20170301349A1 (en) * 2014-12-26 2017-10-19 Mitsubishi Electric Corporation Speech recognition system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244118B2 (en) 2019-08-01 2022-02-08 Samsung Electronics Co., Ltd. Dialogue management method based on dialogue management framework and apparatus thereof

Also Published As

Publication number Publication date
EP3166023A1 (en) 2017-05-10
JPWO2016002406A1 (ja) 2017-04-27
WO2016002406A1 (ja) 2016-01-07
CN106662918A (zh) 2017-05-10
US20170168774A1 (en) 2017-06-15
EP3166023A4 (en) 2018-01-24

Similar Documents

Publication Publication Date Title
JP6346281B2 (ja) 車載対話型システム、及び車載情報機器
US9667742B2 (en) System and method of conversational assistance in an interactive information system
JP5333673B2 (ja) 移動情報端末、情報管理装置、及び移動情報端末用情報管理システム
US20140201004A1 (en) Managing Interactive In-Vehicle Advertisements
US20120035924A1 (en) Disambiguating input based on context
US8265862B1 (en) System, method, and computer program product for communicating location-related information
JP4715805B2 (ja) 車載情報検索装置
US10755711B2 (en) Information presentation device, information presentation system, and terminal device
JP2017507425A (ja) 車両に用いられるシステム
US20090234565A1 (en) Navigation Device and Method for Receiving and Playing Sound Samples
US20220365991A1 (en) Method and apparatus for enhancing a geolocation database
US20180052658A1 (en) Information processing device and information processing method
JP5839978B2 (ja) ナビゲーション装置
JP4668747B2 (ja) 車載用ナビゲーション装置
JP5160653B2 (ja) 情報提供装置、通信端末、情報提供システム、情報提供方法、情報出力方法、情報提供プログラム、情報出力プログラムおよび記録媒体
US11175154B2 (en) Translation of verbal directions into a list of maneuvers
JP3982239B2 (ja) 情報提供システム、情報提供装置、情報提供方法
JP2015129672A (ja) 施設検索装置および方法
JP5831936B2 (ja) 車載機器システム及び車載機器
JP6324256B2 (ja) 電子装置、情報検索プログラムおよび情報検索システム
KR20130012754A (ko) 관광 가이드용 패턴코드 인식 펜 및 그 구동방법
JP2014074670A (ja) 地図表示装置
JP2008152417A (ja) 情報取得装置及び情報取得プログラム
KR20140092667A (ko) 차량용 단말기 및 그것의 목적지 탐색 방법
WO2014097375A1 (ja) 表示装置、ナビゲーション装置、表示方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180524

R150 Certificate of patent or registration of utility model

Ref document number: 6346281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150