JP2020106997A - 車載装置、通信システム - Google Patents

車載装置、通信システム Download PDF

Info

Publication number
JP2020106997A
JP2020106997A JP2018243753A JP2018243753A JP2020106997A JP 2020106997 A JP2020106997 A JP 2020106997A JP 2018243753 A JP2018243753 A JP 2018243753A JP 2018243753 A JP2018243753 A JP 2018243753A JP 2020106997 A JP2020106997 A JP 2020106997A
Authority
JP
Japan
Prior art keywords
vehicle
line
command
sight direction
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018243753A
Other languages
English (en)
Other versions
JP7233918B2 (ja
Inventor
中山 高志
Takashi Nakayama
高志 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2018243753A priority Critical patent/JP7233918B2/ja
Publication of JP2020106997A publication Critical patent/JP2020106997A/ja
Application granted granted Critical
Publication of JP7233918B2 publication Critical patent/JP7233918B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】音声操作のためのコマンドが長くなったり複雑になったりすることを抑制して音声操作が可能な車載装置を提供すること。【解決手段】車両の乗員の音声操作を受け付ける車載装置10であって、前記車両の乗員の音声を認識する音声認識手段24と、前記車両の乗員の視線方向を認識する視線方向認識手段と、前記音声認識手段が認識した音声からコマンドを検出するコマンド検出手段25と、前記視線方向認識手段が認識した視線方向に応じて、コマンドを処理するコマンド処理手段26、28、32と、を有することを特徴とする。【選択図】図3

Description

本発明は、車載装置及び通信システムに関する。
運転中にユーザが操作ボタン等を操作しなくても車載装置等の操作を可能とするために、車載装置には従来から音声操作を受け付ける機能がある。例えば「近くのコンビニ」という発言に対し、現在地の近くのコンビニ又は目的地までのルート上のコンビニを車載装置が検索して表示する。
図1は音声操作による施設の検索を説明する図の一例である。車両の乗員が例えば「周辺検索」と発言すると、図1(a)に示すように、音声で検索できる施設のジャンルが表示される。例えば「近くのファミレス」「近くのファーストフード」「近くのコンビニ」などが表示される。車両の乗員が例えば「近くのコンビニ」と発言すると、図1(b)に示すように近くのコンビニのリストが検索して表示される。車両の乗員が「ここに行く」と発言するとリストの先頭の施設(ここではコンビニ)を目的地に設定し、「真ん中に行く」と発言するとリストの真ん中の施設を目的地に設定し、「一番下に行く」と発言するとリストの一番下の施設を目的地に設定し、この施設までのルートを探索する。
図2は、音声操作による検索に関して車両の乗員に生じうる種々の状況を説明する図の一例である。走行中の車両の乗員の状況は様々であるが、例えば進行方向の「右側のコンビニだけを検索したい」、「中央分離帯があって左側の店にしか入れない」、又は、「渋滞していて、右側の店には入りにくい」などの状況が生じうる。これらの状況の場合、車両の乗員が「右側のコンビニ」「左側の店」又は「左側だけ」などの検索要素を付加したい場合がある。
このような技術に関して、音声で発せられた方向に関する言葉で施設を検索する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、「左側の建物は何ですか」という発言から、左・右・前・後等の検索方向を判別して、指定された方向の施設を検索するナビゲーション装置が開示されている。
特開2001−133283号公報
しかしながら、従来の技術では、音声操作のためのコマンドが長くなったり複雑になったりするという問題があった。例えば、特許文献1の技術では、施設を検索する音声とは別に方向などの検索要素を指定する音声を発言する必要がある。「右側のコンビニだけを検索したい」場合でも、「近くのコンビニ」と発言し、更に「右側」などと発言する必要があり、操作が煩わしいと感じられるおそれがある。
また、ユーザが長い言葉や複雑な言葉を発言すると音声の認識率が低下するため、車載装置が音声を認識できなかったり、間違った検索を行ったりするおそれがあるという問題もある。
このように、従来の技術では、比較的単純な言葉しか使用できないため、「近くのコンビニ」などのように距離に応じた検索を行うことができても、方向などの検索要素を付加することが困難であった。
また、車載装置を音声操作で制御する場合、車載装置の種類や数が多くなるにつれて、より長い名称で車載装置を指定する必要がある。右又は左のサイドカメラの映像に切り替えたい場合、「右サイドカメラ」「左サイドカメラ」と発言する必要があり、操作が煩わしいと感じられるおそれがある。
本発明は、上記課題に鑑み、音声操作のためのコマンドが長くなったり複雑になったりすることを抑制して音声操作が可能な車載装置を提供することを目的とする。
上記課題に鑑み、本発明は、車両の乗員の音声操作を受け付ける車載装置であって、前記車両の乗員の音声を認識する音声認識手段と、前記車両の乗員の視線方向を認識する視線方向認識手段と、前記音声認識手段が認識した音声からコマンドを検出するコマンド検出手段と、前記視線方向認識手段が認識した視線方向に応じて、コマンドを処理するコマンド処理手段と、を有することを特徴とする。
音声操作のためのコマンドが長くなったり複雑になったりすることを抑制して音声操作が可能な車載装置を提供することができる。
音声操作による施設の検索を説明する図の一例である。 音声操作による検索に関して車両の乗員に生じうる種々の状況を説明する図の一例である。 車両の乗員の視線方向と車載装置が表示する電子地図に表示される施設の検索結果の一例を説明する図である。 車載装置の構成例を説明する図である。 車載装置が有する機能をブロック状に示す機能ブロック図の一例である。 右側、正面、左側、又は、ディスプレイと判断される視線方向を説明する図である。 コマンドの発言に対する視線方向の判断のタイミングを説明する図の一例である。 ディスプレイに表示された電子地図の一例を示す図である。 ルート又は走行中の道路に対し施設が右側か左側かの判断方法を説明する図の一例である。 HUDの表示例を示す図である。 車載装置が視線方向を検索要素として施設を検索する手順を示すフローチャート図の一例である。 車両の乗員の視線方向と探索された迂回ルートの一例を説明する図である。 車載装置が視線方向を検索要素として迂回ルートを探索する手順を示すフローチャート図の一例である。 車両に搭載されるカメラの配置例を示す図である。 車載装置が有する機能をブロック状に示す機能ブロック図の一例である(実施例3)。 車載装置が視線方向に応じてディスプレイに表示する映像を切り替える手順を示すフローチャート図の一例である。
以下、本発明を実施するための形態の一例として車載装置と、車載装置が行う音声操作方法について図面を参照しながら説明する。
<本実施形態の検索方法の概略>
まず、図3を用いて、本実施形態の検索方法の概略について説明する。図3は、車両の乗員の視線方向と車載装置が表示する電子地図301に表示される施設の検索結果の一例を説明する図である。
本実施形態の車載装置は、音声により入力されたコマンドに視線方向を組み合わせることが特徴の1つとなっている。コマンドにより施設を検索する場合、視線方向に応じて右側、左側、又は正面、などの方向に関する検索要素を施設の検索に付加することができる。
例えば、車両の乗員が右側11を見ながら「近くのコンビニ」と発言した場合、車載装置は走行中の道路又は目的地までのルートに対し右側にあるコンビニだけ検索する。音声操作と視線方向を組み合わせることで、「右」などのキーワードを言わずともコマンドに基づく検索に方向の検索要素を組み合わせて施設などの検索を行うことができる。
・図3(a)は車両の乗員が左側13を見ながら「近くのコンビニ」と発言した場合の検索結果を示す図である。電子地図301にはルートに沿って左側にあるコンビニのみが検索され表示されている。
・図3(d)は車両の乗員が右側11を見ながら「近くのコンビニ」と発言した場合の検索結果を示す図である。電子地図301にはルートに沿って右側にあるコンビニのみが検索され表示されている。
・図3(c)は車両の乗員が車載装置のディスプレイ14を見ながら「近くのコンビニ」と発言した場合の検索結果を示す図である。ディスプレイ14が表示中の電子地図内にあるコンビニが検索され電子地図301に表示されている。
・図3(b)は車両の乗員が正面12を見ながら「近くのコンビニ」と発言した場合の検索結果を示す図である。正面12を見ながら発言した場合、車両の乗員に検索要素を付加する意志がないと判断され、電子地図301にはルートの両側にあるコンビニが検索され表示されている。すなわち、従来と同様の検索も可能である。
このように、本実施形態の車載装置は、視線方向を認識して、車両の乗員が見ている方向と音声操作を組み合わせて検索を行うことができる。
<用語について>
車両の乗員とは、施設を検索する者をいう。例えば、運転者であるが、単なる乗員であってもよい。また、自動運転により移動する移動体では乗員が全く運転しない場合が含まれる。
車両とは、主に動力で移動する移動体をいう。例えば、自動車の他、動力付き二輪車(自動二輪車という)等でもよい。また、人力で移動する自転車などの軽車両がふくまれてよい。車椅子が含まれてもよい。
コマンドは、車載装置の入力となる命令である。例えば、予め決まっている文字列がコマンドとなる。したがって、命令、操作音声、テキストなどと称してもよい。
検索とはデータの中から必要な事項を探し出すことをいう。POI(Point Of Interest)を探し出すことが含まれるのはもちろんであるが、ルートの検索(探索)も含まれる。検索範囲は、検索対象とするデータの範囲をいう。検索範囲の変更とは検索対象とするデータの範囲を変えることをいう。例えば、検索するPOIの範囲を変更する。
コマンドを処理するとは、コマンドの内容に応じた機能を車載装置が提供するために内部的又は外部的に動作することをいう。コマンドの処理をコマンドの実行といってもよい。
施設とはある目的のためで用意された設備であるが、何らかの物理的な設備があることまでは必要ない。地図上の特定のポイント(地点)であってもよくこれをPOIという。
<構成例>
図4は、車載装置10の構成例を説明する図である。まず、図4(a)は車両に搭載された車載装置10を示す。車載装置10は車両に搭載された装置であり、本実施形態では少なくとも施設を検索する機能を有している。また、施設までのルートを探索してディスプレイ14に表示する機能も有するとよい。このような車載装置10をカーナビゲーション装置と呼ぶ場合がある。
車載装置10は出発地から目的地までのルートを探索して道路地図に設定し、ディスプレイ14に表示された電子地図301にルートと現在地を表示したり、ルートに基づいて進路変更の手前で音声案内を出力したり、アニメーションなどで適切な進路を案内したりする。この他、AV(Audio Visual)の再生機能、インターネットとの通信機能等を有していてよい。車載装置10は、チューナー、PND(Portable Navigation Device)、又は、カーオーディオなどと呼ばれる場合もある。
なお、ナビゲーション機能を有さずに、主にAV機能と通信機能を有する装置をディスプレイオーディオという。ディスプレイオーディオは、スマートフォンなどの端末装置との通信によりナビゲーションの機能を提供する。この場合、スマートフォンに搭載されるアプリがナビ画面を作成し、このナビ画面をディスプレイオーディオが通信で取得して車載装置側のディスプレイ14に表示する。スマートフォンで動作するこのようなアプリとしてCarPlay(登録商標)やAndroid Auto(登録商標)等が知られている。車載装置10はディスプレイオーディオでもよい。
また、車載装置10は、汎用的な情報処理端末である場合と車両に専用の専用端末の場合がある。汎用的な情報処理端末とは、例えば、スマートフォン、タブレット端末、携帯電話、PDA(Personal Digital Assistant)、ノートPC、及び、ウェアラブルPC(例えば、腕時計型、サングラス型など)などがある。これらの装置は、普段は情報処理端末として利用されるが、ナビゲーションのためのアプリケーションソフトウェアを実行すると、専用端末と同様、ルート探索及びルート案内等を行う。専用端末は、上記のナビゲーション装置、チューナー、又は、カーオーディオの他、PND(Portable Navigation Device)等を言う。
車載装置10は、汎用的な情報処理端末とナビゲーション専用端末のどちらの場合でも、車載された状態と携帯可能な状態の切り替えが可能であってもよい。つまり、車載装置10は、車両に脱着可能であってよい。
図4(b)は車載装置10とサーバ50とを有する通信システム100の概略構成図である。車載装置10はネットワークを介してサーバ50と通信する。施設などを検索する場合、車載装置10で処理を完結するのでなく、車載装置10がサーバ50と通信して処理を行う場合がある。例えば、以下のような形態を採用しうる。
(i) サーバ50が音声認識して、施設の検索を行い、検索結果を車両に送信する。
(ii) サーバ50が音声認識して、コマンドを車載装置10に送信し、車載装置10が施設を検索する。
(iii) 車載装置10が音声認識してコマンドをサーバ50に送信し、サーバ50が施設の検索を行い、検索結果を車両に送信する。
図4(a)のように車載装置10で処理を完結するのか、図4(b)の(i)〜(iii)のようにサーバ50と連携して処理するのかは、種々の状況を勘案して決定される。
まず、音声認識の方法にはトリガー方式とトリガーレス方式があり、トリガー方式はステアリングスイッチの押下、又はある決まった発言(呼びかけ)を車載装置10が検出した場合等に、音声からコマンドを検出するために音声の認識を開始する方式である。トリガーレス方式は、音声認識の機能が起動中、車載装置10がコマンドを検出するために常に音声の認識を継続する方式である。
サーバ50が音声認識を行う場合、音声認識の性能という点では有利であるがトリガーレス方式では常に音声データをサーバ50に送信し続けるため通信量が増大したり、レスポンスが遅れたりするおそれがある。車載装置10による音声認識は音声認識の性能という点では不利であるが通信量を抑制でき、音声認識の結果が得られるまでのレスポンスが速くなる。
したがって、トリガーレス方式では図4(a)、図4(b)の(iii)の形態が好ましい可能性があり、トリガー方式では図4(b)の(i)(ii)の形態が好ましい可能性がある。本実施形態では、車載装置10で処理が完結される図4(a)の形態に基づいて説明するが、図4(b)の(i)〜(iii)の形態も採用できる。
なお、図4(b)の形態では、ナビゲーションに関する機能もサーバ50が提供できる。例えば、車両8が現在地を送信するとサーバ50がナビ画面を作成して車両8に送信し、車両8が2つのPOIを送信するとルートを探索して車両8に送信する。また、電子地図を描画するための地図DB、道路の構造を表す道路構造DBの少なくとも一部をサーバ50が車両8に配信してもよい。
<車載装置が有する機能について>
図5は、車載装置10が有する機能をブロック状に示す機能ブロック図の一例である。車載装置10は、画像データ取得部21、視線方向認識部22、音声データ取得部23、音声認識部24、コマンド検出部25、施設検索部26、位置検出部27、ルート探索部28、ルート案内部29、操作受付部30、及び、ナビ画面作成部31を有している。
車載装置10が有するこれらの各機能は、車載装置10が有する情報処理装置の一般的な機能(CPU、RAM、補助記憶装置、入出力I/F、ディスプレイ14、キーボード、タッチパネル、通信装置等)により実現される。例えば、補助記憶装置からRAMに展開されたプログラムをCPUが実行することにより実現される機能又は手段である。
また、車載装置10は補助記憶装置やRAM等により形成される施設情報DB35、道路構造DB36、及び、地図DB37を有している。まず、これらデータベースについて説明する。
Figure 2020106997


表1(a)は、施設情報DB35に記憶されているジャンル情報を模式的に示す。ジャンル情報は各施設のジャンルを索引的に検索できるデータベースであり、表1(b)の施設詳細情報の施設と対応付けられている。また、ジャンル情報には一般的な施設のジャンルが格納されている。このジャンルで施設詳細情報が検索される。したがって、音声認識でジャンルを特定できれば、このジャンルの施設を検索できる。
表1(b)は、施設情報DB35に記憶されている施設詳細情報を模式的に示す。施設詳細情報は、各施設に関する施設情報を有する。ジャンルごとに、例えば、施設名、店名、住所、電話番号、及び、ジャンル名などが登録されている。施設名はいわばブランド名であり、チェーン店の名称、屋号などである。店名は同じ施設名を区別するための名称であり、ない場合もある。住所は所在を示す。電話番号は連絡先である。ジャンルはこの施設を何らかの属性でグループ分けする際のグループ名であり、表1(a)のジャンルと対応付けられている。なお、1つの施設が複数のジャンルに属する場合がある。
なお、施設詳細情報には、この他、施設が接しているリンクなどが登録されてよく、表1(b)に示す情報には限られない。
Figure 2020106997
表2は道路構造DB36の構成を模式的に示す。道路構造DB36は、車両が通行可能な道路の構造を表すデータであって、表2(a)のノードテーブルと表2(b)のリンクテーブルとが相互に連携したデータ構造を有する。
ノードテーブルには、ノードを識別するためのノードIDとノードの座標(緯度・経度)、交差点の有無、一時停止の有無等が登録されている。ノードとは道路網表現上の結節点である。ノードは例えば交差点、分岐点、合流点、屈曲点などである。ノードIDが分かればノードに繋がっているリンクがリンクテーブルから判明するので、車載装置10はノードテーブルとリンクテーブルを相互に参照することで道路の構造を辿ることができる。なお、ノードテーブルには、この他、横断歩道の有無、接続されているリンク数などが登録されてよく、表2に示す情報には限られない。
また、リンクテーブルにはリンクを識別するためのリンクID、リンクの始点ノード、リンクの終点ノード、リンク長、道路種別、及び、交通法規などが登録されている。リンクとはノードとノードを結ぶ道路を表し、リンクはノード同士を結ぶ線分となる。道路種別は、例えば一般道、高速道路、専用道路、私道などである。交通法規は、当該リンクで定められている(禁止又は制限されている)車両の運転に関する交通規則又は交通ルールである。なお、リンクテーブルには、この他、車線数、幅員、周囲の施設情報などが登録されてよく、表2に示す情報には限られない。
地図DB37は、電子地図301を描画するための地図データが記憶されている。電子地図301に表示される情報には、ベクトルデータやラスターデータで地図を描くためのデータが含まれている。地図データは経度・緯度などが既知のメッシュ状に区切られており、1つ以上のメッシュを結合して電子地図301が作成される。電子地図301に表示される情報には、都道府県などの区画、緑地や河川、道路や鉄道、記号や注記など多くの表示対象があるため、性質の似たものに分類し各分類ごとに描画できるようになっている。それぞれに分類された表示対象又は表示対象が描画された状態をレイヤーといい、電子地図301はいくつかのレイヤーを重ねることで描画される。
図5に戻って説明する。画像データ取得部21はカメラが撮像した画像データを取得する。カメラは車両の乗員の顔(更に詳細には目)を撮像できる位置に取り付けられている。例えば、センターコンソール、ステアリングコラム、メータパネル内、又は、運転席の近くのルーフのうちフロントウィンドウシールドに近い側などである。カメラは運転者の顔を撮像できるように赤外光を照射するとよい。カメラは所定のフレームレートで車両の乗員の顔の撮像を繰り返し行う。
画像データ取得部21は、所定のフレームレートで繰り返し撮像するカメラから画像データを取得する。カメラが撮像する全ての画像データを取得しなくてもよい。画像データは視線方向の検知に使用される他、顔認識による乗員の識別、眠気検知、等に使用される。乗員を監視する仕組みをドライバモニタリングシステムという。
視線方向認識部22は、車両の乗員の顔が写った画像データのうち目の撮像範囲から基準点と動点を検出して、基準点と動点の相対位置に基づいて視線方向を認識する。一例として、基準点に目頭、動点に虹彩を選ぶ方法と、基準点に角膜反射、動点に瞳孔を選ぶ方法とがある。基準点に角膜反射を使用する場合は赤外光などの点光源が照射される。
視線方向認識部22は、画像データから顔部分を特定し、顔部分から眉、鼻孔、目、唇などの特徴的な部品を特定し、これらの配置関係から目の位置を特定する。目の位置が特定されると目頭、虹彩、角膜反射及び瞳孔を検出できる。基準点と動点の相対位置に視線方向が対応付けられたテーブルが予め容易されており、視線方向認識部22はこのテーブルを参照して視線方向を認識する。視線方向は例えばカメラの撮像素子の中心を原点とする三次元座標系のベクトルで表される。
視線方向は画像データごとに送出されるため、視線方向認識部22はカメラのフレームレートに準じて視線方向を認識する。検出される視線方向はある程度の誤差を有するので、視線方向認識部22は複数の視線方向の平均を算出して用いてもよい。
視線方向認識部22は、視線方向が右側11、正面12、左側13、又は、ディスプレイ14のどれを向いているかを判断する。正面12、左側13、右側11、又は、ディスプレイ14を向いている視線方向の範囲は予め視線方向認識部22がパラメータとして持っている。例えば、三次元のベクトルで視線方向が表される場合、正面方向をゼロする水平角度と垂直角度に変換する(極座標に変換する)。視線方向の水平角度と垂直角度がそれぞれ右側11、正面12、左側13、又は、ディスプレイ14に対応付けられた範囲内である場合に、視線方向が右側11、正面12、左側13、又は、ディスプレイ14を向いていると判断する。視線方向認識部22は視線方向(右側11、正面12、左側13、又は、ディスプレイ14)を施設検索部26に送出する。
音声データ取得部23は、トリガーレス方式で常に、マイク41が集音した音声をA/D変換により電気信号に変換し音声データとして取得する。音声データは連続データなので、音声データ取得部23は所定時間分(例えば20ミリ秒など)の音声データを繰り返し取得する。所定時間は音声認識に有利な時間として設定されている。
音声認識部24は音声データをテキストデータに変換する音声認識を行う。テキストデータへの変換には公知の方法があると共に様々な方法がある。ここでは一例を説明する。まず、音声認識部24は音声データを周波数スペクトルに変換して雑音に相当する周波数部分を除去するなどの処理を行う。次に、音声データからパターンの認識に役立つ情報として、フォルマント又はMFCC(Mel Frequency Cepstrum Coefficient)を抽出する。これにより、音声データから数十次元の特徴ベクトルが得られる。そして、音声認識部24は、音声の波形(トライフォンと呼ばれる3つの音素が組み合わされた組音素)とその時の音声のテキストデータとを紐付けた音響モデルを特徴ベクトルで検索してテキストデータを得る。テキストデータが一意に決まらない場合も少なくないため、音声認識部24は、単語と単語のつながり方を確率で表現した言語モデルを使って、確率的に最も確からしいテキストデータを採用する。この方法では単語単位で認識されているため形態素解析は不要になる。文字単位で音声認識が行われる場合、音声認識部24は形態素解析を行う。
また、近年ではディープラーニングを利用した音声認識が一般的になっている。音声データは可変長の時系列データであるため、可変長データをニューラルネットワークで扱えるRNN(Recurrent Neural Network)と呼ばれる方法が使用される。
音声認識部24が認識したテキストデータはコマンド検出部25に送出される。コマンド検出部25はテキストデータに含まれるコマンドを検出して、コマンドに応じた機能(ブロック)を呼び出す。例えば、トリガーレス方式では予めいくつかのコマンドが定義されており、このコマンドがテキストデータに含まれるか否かを監視している。コマンドは、例えば、「近くのコンビニ」、「周辺検索」「近くのガソリンスタンド」「自宅に戻る」「ルート案内」「ルート消去」「地図表示」「オーディオ表示」「ダブルゾーン」「広域表示」「詳細表示」「フロントカメラ」「サイドカメラ」「コーナーカメラ」などである。
コマンド検出部25は、コマンドに応じた処理を実行する。例えば、「近くのコンビニ」、「周辺検索」「近くのガソリンスタンド」は検索に関するコマンドなので、検索要求を生成して、施設検索部26に送出する。「自宅に戻る」「ルート案内」「ルート消去」はルート探索に関するコマンドなので、出発地と目的地を指定したルート探索要求を生成してルート探索部28に送出する。「地図表示」「オーディオ表示」「ダブルゾーン」はディスプレイ14の表示に関するコマンドなので、ナビ画面作成部31に画面の表示切替を要求する。「広域表示」「詳細表示」は電子地図301の縮尺に関するコマンドなので、ナビ画面作成部31に電子地図301の縮尺の変更を要求する。「フロントカメラ」「サイドカメラ」「コーナーカメラ」はカメラの映像の切り替えに関するコマンドなので、車載カメラのどのカメラが撮像した映像をディスプレイ14に表示するかを切り替える。
したがって、コマンド検出部25は、例えば「近くのコンビニ」というコマンドに対しては、「近く」という距離に関する情報と「コンビニ」というジャンルを含む検索要求を施設検索部26に送出する。
施設検索部26は、検索要求と視線方向を受け取り、視線方向に基づく方向を検索要素として検索要求に付加して、施設情報DB35を検索する。
操作受付部30は、ルート探索のための2つのPOI(例えば出発地と目的地)の入力、ルート案内の開始、再探索の指示、ナビ画面の拡大・縮尺の指示、及び、表示範囲変更などの指示を車両の乗員から受け付ける。
位置検出部27は、定期的に及び車両の乗員の操作に応じて、GPS受信機が行う電波測位により、車両の現在地を緯度、経度、及び標高の座標として検出する。なお、位置検出部27は、自律航法用センサを使って詳細な位置を推定し、更にマップマッチングにより車両の位置を道路上に補正する。
ルート探索部28は、車両の乗員がルート探索を要求したりルートから車両が外れたりして再探索する場合に、道路構造DB36を用いてルートを探索しルート情報を作成する。ルート探索には、リンク長や幅員、渋滞状況をコストに換算して、出発地から目的地までのコストの合計が最も少なくなるルートを選ぶダイクストラ法、ダイクストラ法にヒューリスティックコストを加えて探索するA*(エースター)法が知られている。また、決定したルートにおいて隣接するリンクのなす角が所定以上の場合、進行方向の変更が必要であると判断し、ルート情報において、進路変更の手前に案内ポイントを設定する。ルート探索部28は、ルート探索で生成したルート情報をルート案内部29、及び、ナビ画面作成部31に送出する。
ルート案内部29は、現在地(位置情報)とルート情報に基づいてルート案内を行う。すなわち、車両の現在地がルート情報に含まれる案内ポイントに到達すると、曲がり角などを指示する音声データをスピーカ43から出力する。なお、音声データはMP3などの形式でデータ化されていてもよいし、案内用のテキストデータに基づいて音声合成をおこなって作成してもよい。
ナビ画面作成部31は、例えば車両の現在地の周囲を包含する電子地図301であって、ルートが強調表示された電子地図301を地図DB37の地図データを用いて作成する。ナビ画面作成部31は、更に車両の現在地を現在地マークなどで表示する。ナビ画面作成部31は電子地図にメニューボタン等を加えてナビ画面を作成する。また、ナビ画面作成部31は、大きな交差点など、拡大図が用意されている場所に車両が近づくと地図DB37から地図データを取得して交差点等の拡大図を表示する。この他、AVを操作する画面なども作成する。
<右側、正面、左側、又は、ディスプレイと判断される視線方向の一例>
続いて、図6を用いて右側11、正面12、左側13、又はディスプレイ14と判断される視線方向について説明する。図6は、右側11、正面12、左側13、又は、ディスプレイ14と判断される視線方向を説明する図である。図示するように、視線方向の水平角度がφ1〜φ2かつ垂直角度がθ1〜θ2の間にある場合、視線方向が左側13であると判断される。正面12,右側11、及び、ディスプレイ14についても同様に、視線方向が水平角度と垂直角度の決まった範囲に入るかどうかにより視線方向が判断される。
なお、このような判断は一例であって、水平角度が閾値1(正面よりやや左側の方向を示す水平角度)よりも左の場合は左側13と判断し、水平角度が閾値2(正面よりやや右側の方向を示す水平角度)よりも右の場合は右側11と判断し、それ以外は正面12と判断してもよい。すなわち、この場合は垂直角度を考慮しない。ただし、左側13と判断する場合には、垂直角度と閾値3(ディスプレイ14の上辺を示す垂直角度)と比較してディスプレイ14を向いているか単に左側13を向いているかを区別する。
<視線方向の判断のタイミング>
車両の乗員がコマンドを発言するには一定の時間がかかるが、視線方向は瞬間の値としてフレームレートに応じて繰り返し判断される。一方、コマンドが認識されるためには、車両の乗員がコマンドを発言し終わっている必要がある。
図7は、コマンドの発言に対する視線方向の判断のタイミングを説明する図の一例である。車両の乗員がコマンドを発言し終わっている必要があるという要請からは、図7(a)に示すように、コマンドが認識された直後の視線方向を、施設検索部26が使用することが考えられる。車両の乗員としては、コマンドの言い終わりに所望の方向を向けばよいので操作しやすい。
また、施設を探している車両の乗員は自然にその方向を見ることを考慮すると、図7(b)に示すように、コマンドが認識された時点でなくコマンドの言い始めの時点の視線方向を、施設検索部26が使用することも有効である。この場合、施設検索部26は過去の一定時間の視線方向を保持しておき、コマンドの長さ(発言に要する時間)により決まった時刻だけ前の視線方向を施設検索部26が使用することが考えられる。車両の乗員は実空間の施設を目視して探しながらコマンドを発言するという自然の使い方で施設を検索できる。
また、車両の乗員がコマンドを言いながら所望の方向の施設を継続的に探すことを考慮すると、図7(c)に示すように、コマンドが発言されている間の視線方向の平均を施設検索部26が使用することも有効である。コマンドが発言されている時間は、コマンドの長さにより予め決まっている。車両の乗員はコマンドを言いながらある程度の時間、所望の方向を見ればよいので誤操作を低減できる。
なお、車両の乗員が車両を制動することで視線方向がぶれる(大きく変わる)場合がある。この場合、視線方向の信頼性が低下しているので、制動が検出された場合、視線方向認識部22が視線方向の認識を停止するか、又は、施設検索部26が視線方向を検索に使用しないことが有効である。なお、車両の乗員が車両を制動したことは前後方向の加速度により検出できる。また、進行方向を変更している場合(右左折していたりY字路への進行中)は視線方向がぶれる(大きく変わる)場合があるので、この場合も同様に処理してよい。なお、車両が進行方向を変更していることはヨーレートにより検出できる。
<右側又は左側の施設の検索について>
続いて、図8、図9を用いて右側又は左側の施設の検索について説明する。まず、図8を用いて、車両の「近く」の施設の検索について説明する。図8は検索範囲の説明に関してディスプレイ14に表示された電子地図301の一例を示す。図8では、現在地マーク302とルート303が表示されているが、説明の便宜上、地物については省略した。
電子地図301は上記のようにメッシュごとに描画されるので、1つに見える電子地図301は複数のメッシュ305を有している場合が多い。メッシュ305の4つの頂点の座標は既知である。また、スムーズなスクロールを実現するために電子地図301よりも大きいバッファ領域304が少なくとも1メッシュ分以上、メモリ上に描画されている。
図8に示すように目的地までのルート303が設定されている場合、ルート303から外れることを望まない車両の乗員が多いため、ルート沿い(ルートに面した)の施設が検索される。また、目的地とは逆方向に戻ることは考えにくいので、進行方向の前方の施設が検索される。車両の近くとは、数分で到着できる範囲でもよいし、電子地図301に表示されている範囲でもよい。したがって、施設検索部26は、現在地よりも前方のルート303が含まれるメッシュ305内に存在する施設であって、現在地から所定距離内の施設を施設情報DB35から検索する。ルート沿いに限定するため(ルート303に面している施設に限定するため)、施設情報DB35に登録されている施設が接しているリンクを利用して絞り込む。
目的地までのルート303が設定されていない場合、車両が走行中であるか否かによって提供すべき施設が異なると考えられる。車両が走行中である場合、現在走行中の道路をルート303と見なして、目的地までのルート303が設定されている場合と同様に施設を検索する。車両が走行中でない場合、進行方向が不明なので、現在地から所定距離内の施設を施設情報DB35から検索する。例えば、現在地があるメッシュ305とこれに隣接した8個のメッシュ305から施設を検索する。なお、車両が走行中であるかどうかは車速及び現在の位置情報の少なくとも一方から判断できる。
本実施形態の車載装置10は、視線方向が右側11又は左側13の場合、ルート303又は走行中の道路の右側又は左側の施設のみに絞り込む。
図9は、ルート303又は走行中の道路に対し施設が右側か左側かの判断方法を説明する図の一例である。図9(a)に示すように、ルート303又は走行中の道路の右側と左側に施設311,312があるとする。まず、施設検索部26は、図9(b)に示すように、ルート303又は走行中の道路を構成するリンクのうち、施設に最寄りのリンク313を取り出す。
施設311と進行方向から見たリンク313の始点とを結ぶ直線v1、及び、施設311と進行方向から見たリンク313の終点とを結ぶ直線v2、を考える。施設312についても同様に直線v1,v2を考える。ルート303又は走行中の道路に対し右側にある施設311の場合、直線v1を直線v2の方向に変更する回転方向は時計回りであり、ルート303又は走行中の道路に対し左側にある施設312の場合、直線v1を直線v2の方向に変更する回転方向は反時計回りである。
2つのベクトルがある場合に時計回りか反時計回りかを判断するには外積を利用する方法がある。しがって、例えば以下のように施設311,312がルート303又は走行中の道路に対し右側か左側かを判断できる。
直線1×直線2が正 → 左側
直線1×直線2が負 → 右側
このように、施設検索部26は近くの施設を検索して、ルート又は走行中の道路に対し右側又は左側になる施設のみを検索できる(絞り込むことができる)。
なお、視線方向がディスプレイ14を向いている場合は、電子地図301の表示範囲に座標を有する施設を検索すればよい。
<その他の視線方向>
右側11、正面12、左側13、又はディスプレイ14以外に、HUD(Head Up Display)を車両の乗員が見ているかどうかを判断してもよい。図10は、HUDの表示例を示す。図10に示すHUDには「300m前方を右折する」ことがアイコンで示されているが、このようにHUDには進行方向が表示される場合がある。
車両の乗員はHUDを見て進行方向を変更するタイミングを予測するが、進行方向の変更後にどのような施設があるか又は所望の施設があるが知りたい場合がある。そこで、HUDを見て車両の乗員がコマンドを発言した場合、施設検索部26は最寄りの案内ポイントで車両が進行方向を変更した後の周辺検索を行うことが有効である。
この場合、施設検索部26は進行方向を変更するノードよりも前方のルート又は走行中の道路を含むメッシュから施設を検索する。この場合はルート又は走行中の道路の両側の施設が検索されるが、車両の乗員が右側又は左側に絞り込みたい場合は視線方向で改めて検索できる。
<動作手順>
図11は、車載装置10が視線方向を検索要素として施設を検索する手順を示すフローチャート図の一例である。
ステップS1〜S4は並列に実行される。ステップS1では画像データ取得部21がカメラから画像データを取得する(S1)。視線方向認識部22は画像データに写った顔画像から視線方向を認識する(S2)。
音声データ取得部23は常に音声データを取得しており(S3)、音声認識部24が音声データをテキストデータに変換する(S4)。
コマンド検出部25はテキストデータに予め定めたコマンドが含まれるか否かを判断する(S5)。本実施形態では検索に関するコマンドが検出される。コマンドが検出されない場合(S5のNo)、処理はステップS1に戻る。
コマンドが検出された場合(S5のYes)、施設検索部26は検索要素とするために視線方向を特定する(S6)。すなわち、言い始め、言い終わり、又は、平均などから視線方向を特定する。また、制動や進行方向の変更があった場合は、制動後や進行方向の変更後の視線方向を無視する。
次に、施設検索部26は検索要求にしたがって例えば近くの施設を検索する(S7)。施設のジャンルは車両の乗員により指定されている。乗員が明示的に指定しなくてもよく、例えばよく行くジャンルの施設を検索してもよい。なお、視線方向がディスプレイ14の場合、表示されている電子地図301の範囲内で検索しておくことができる。
施設検索部26が特定した視線方向に応じて処理が実行される(S8)。
・視線方向が左側13の場合、左側の施設に絞り込む(S9)。
・視線方向が正面12の場合、施設の絞り込みは行わない。
・視線方向が右側11の場合、右側の施設に絞り込む(S10)。
・視線方向がディスプレイ14の場合、電子地図301の表示範囲で検索する(S11)。この場合、ステップS7で検索しておけばステップS11は不要になる。
ナビ画面作成部31は検索された施設のアイコン又はピンマークなどを電子地図301に表示する(S12)。
<まとめ>
以上説明したように、本実施形態の車載装置10は、車両の乗員の視線方向を認識して、車両の乗員が見ている方向と音声操作を組み合わせて施設の検索を行うことができる。換言すると、車両の乗員が見ている方向に応じて施設の検索範囲を変更できる。したがって、施設を検索する音声とは別に方向など別の検索要素を指定する音声を発言する必要がないし、長い言葉や複雑な言葉を発言する必要がないので、音声の認識率が低下することもない。
本実施例では、ルート探索において視線方向に応じてルートの探索方法を変更する車載装置10について説明する。すなわち、ルート探索の検索要素に視線方向を付加する。
<本実施形態のルート探索の概略>
図12は、車両の乗員の視線方向と探索された迂回ルートの一例を説明する図である。まず、図12(c)に示すように車両の乗員は運転席から前方を見ている。例えば、車両の乗員が右側11を見ながら「迂回ルート」と発言した場合、車載装置10はルート303に対し右側の(右折の)迂回ルート321だけ探索する。また、左側13を見ながら発言した場合、ルートに対し左側の(左折の)迂回ルート320だけ検索する。
・図12(a)は車両の乗員が左側13を見ながら「迂回ルート」と発言した場合に探索された迂回ルート320を示す図である。ルート303の左側に迂回ルート320が表示されている。
・図12(b)は車両の乗員が右側11を見ながら「迂回ルート」と発言した場合に探索された迂回ルート321を示す図である。ルート303の右側に迂回ルート321が表示されている。
例えば、右折レーンが混雑している場合には、ルート303の右側の迂回ルートを提案されても車両の乗員は採用しにくい。また、右側のレーンの走行しており左側のレーンが混雑している場合には、ルート303の左側の迂回ルートを提案されても採用しにくい。本実施例では、これらの場合、車両の乗員が視線方向を右又は左に向けるだけで、迂回ルート320,321の探索方向を制御できる。
<車載装置が有する機能について>
本実施例では、実施例1の図5の機能ブロック図を援用して説明する。しかし、本実施例では視線方向認識部22が認識した視線方向がルート探索部28に入力される。ルート探索部28は、視線方向が入力された場合、視線方向に応じてルート303又は走行中の道路に対し右側又は左側の迂回ルートを検索する。処理の流れは以下のようになる。
・例えば、現在地よりも前方で交差点があるノードを起点、現在のルート303の混雑が緩和されるノードを終点としてルート探索を行う。あるいは、所定距離前方のノードを終点としてもよい。
・現在のルート303に含まれるリンクであって、起点から終点までのリンクのコストを最大値に設定する。
・視線方向が右側11の場合、ルート303に対し左方向に進路変更を伴うリンクのコストを最大値に設定し、視線方向が左側13の場合、ルート303に対し右方向に進路変更を伴うリンクのコストを最大値に設定する。こうすることで、ルート303に対し右側又は左側の迂回ルートを探索できる。なお、ルート303に対し左方向又は右方向に進路変更を伴うリンクは、ルート303が有するリンクとのなす角により判断できる。
<動作手順>
図13は、車載装置10が視線方向を検索要素として迂回ルートを探索する手順を示すフローチャート図の一例である。なお、図13の説明では主に図11との相違を説明する。まず、ステップS11〜S16はステップS1〜S6と同様でよい。
ルート探索に関するコマンドが検出され(S15)、視線方向が特定できると(S16)、施設検索部26が特定した視線方向に応じて処理が実行される(S17)。
・視線方向が左側13の場合、ルート探索部28はルート303又は走行中の道路に対し左側の迂回ルートを検索する(S18)。
・視線方向が右側11の場合、ルート探索部28はルート303又は走行中の道路に対し右側の迂回ルートを検索する(S19)。
ナビ画面作成部31は迂回ルートが強調された迂回ルートを含む電子地図301を作成してディスプレイ14に表示する(S20)。
したがって、本実施例の車載装置10によれば、車両の乗員が視線方向を右又は左に向けるだけで、迂回ルートの探索方向を制御できる。なお、迂回ルートは目的地までのルート303が設定されている場合だけでなく、ルート303が設定されていなくても探索できる。ルートが設定されていない場合、走行中の道路に対し迂回ルートが探索される。
本実施例では、ディスプレイ14に表示する映像を視線方向によって切り替える車載装置10について説明する。
<本実施形態のルート探索の概略>
まず、図14に示すように一台の車両には複数のカメラが搭載される場合がある。図14は車両に搭載されるカメラの配置例を示す。フロントカメラ51は主に広角カメラでT字路や十字路で左右の障害物を撮像するために使用される。右サイドカメラ54と左サイドカメラ53は、左サイド又は右サイドの死角を撮像するために使用される。バックカメラ52は主に後退時に後方を撮像するために使用される。
例えば、車両の乗員が右側11を見ながら「サイドカメラ」と発言した場合、車載装置10は右サイドカメラ54が撮像する映像をディスプレイ14に表示する。また、左側13を見ながら「サイドカメラ」と発言した場合、車載装置10は左サイドカメラ53が撮像する映像をディスプレイ14に表示する。
・車両の乗員が右側11を見ながら「サイドカメラ」と発言した場合、ディスプレイ14には映像55が表示される。映像55には車両8の右後側方が写っている。
・車両の乗員が左側13を見ながら「サイドカメラ」と発言した場合、ディスプレイ14には映像56が表示される。映像56には車両8の左後側方が写っている。
道路の左側又は右側に車両を寄せたい場合や狭い道路を走行中に側溝や障害物の有無を確認したい場合があるが、車両の乗員は視線方向を右又は左に向けてサイドカメラと発言するだけで、ディスプレイ14に表示される映像を右サイドカメラ54と左サイドカメラ53が撮像した映像に切り替えることができる。
<車載装置が有する機能について>
図15は、車載装置10が有する機能をブロック状に示す機能ブロック図の一例である。図15の説明に関して、図5において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。
本実施例の車載装置10はカメラ切替部32を有している。カメラ切替部32には視線方向認識部22が認識した視線方向が入力される。また、カメラ切替部32にはナビ画面だけでなく、フロントカメラ51、バックカメラ52、左サイドカメラ53、及び、右サイドカメラ54の映像が入力される。カメラ切替部32は、右側という視線方向が入力された場合、右サイドカメラ54の映像をディスプレイ14に表示し、左側という視線方向が入力された場合、左サイドカメラ53の映像をディスプレイ14に表示する。
<動作手順>
図16は、車載装置10が視線方向に応じてディスプレイ14に表示する映像を切り替える手順を示すフローチャート図の一例である。なお、図16の説明では主に図11との相違を説明する。まず、ステップS21〜S26はステップS1〜S6と同様でよい。
ルート探索のコマンドが検出され(S25)、視線方向が特定できると(S26)、視線方向認識部22が特定した視線方向に応じて処理が実行される(S27)。
・視線方向が左側13の場合、カメラ切替部32はディスプレイ14に映像を表示するカメラを左サイドカメラ53に切り替える(S28)。
・視線方向が右側11の場合、カメラ切替部32はディスプレイ14に映像を表示するカメラを右サイドカメラ54に切り替える(S29)。
これにより、ディスプレイ14には左サイドカメラ53又は右サイドカメラ54が撮像した映像が表示される(S30)。
<まとめ>
したがって、本実施例の車載装置10によれば、車両の乗員が視線方向を右又は左に向けて、カメラの映像の切り替えに関するコマンドを発言することで、ディスプレイ14に映像を表示するカメラを切り替えることができる。
なお、本実施形態では、視線方向で左右のサイドカメラの映像を切り替えたが、フロントカメラ51又はバックカメラ52が2つあるような場合にはこれらの映像を切り替えることもできる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態ではトリガーレス方式でコマンドを検出しているが、トリガー方式でコマンドを検出してもよい。
また、検索される施設はルート沿い又は走行中の道路沿いと限らず、ルート又は走行中の道路よりも右側又は左側にあればよい。
また、トリガーレス方式の音声認識では、車載装置10が有するオーディオビジュアル装置が出力する音声が、運転者の発言と共に集音されてしまうおそれがある。このような不都合に対しては、オーディオビジュアル装置の音声をスピーカ出力とは別に音声認識部に分岐して音声認識することが有効である。マイクから入力された音声データから分岐して入力したオーディオビジュアル装置の音声を除外して、音声認識を行うと、運転者が発言したテキストデータが得られる。
また、図5などの構成例は、車載装置10の処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。また、車載装置10の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
なお、音声認識部24は音声認識手段の一例であり、視線方向認識部22は視線方向認識手段の一例であり、コマンド検出部25はコマンド検出手段の一例であり、施設検索部26、ルート探索部28及びカメラ切替部32はコマンド処理手段の一例である。
10 車載装置
14 ディスプレイ
41 カメラ
42 マイク
43 スピーカ

Claims (12)

  1. 車両の乗員の音声操作を受け付ける車載装置であって、
    前記車両の乗員の音声を認識する音声認識手段と、
    前記車両の乗員の視線方向を認識する視線方向認識手段と、
    前記音声認識手段が認識した音声からコマンドを検出するコマンド検出手段と、
    前記視線方向認識手段が認識した視線方向に応じて、前記コマンドを処理するコマンド処理手段と、
    を有することを特徴とする車載装置。
  2. 前記コマンド検出手段は、前記音声認識手段が認識した音声から検索に関する前記コマンドを検出し、
    前記コマンド処理手段は、前記視線方向認識手段が認識した視線方向を、検索要素に付加して前記検索に関する前記コマンドを処理することを特徴とする請求項1に記載の車載装置。
  3. 前記コマンド検出手段は、前記音声認識手段が認識した音声から検索に関する前記コマンドを検出し、
    前記コマンド処理手段は、前記視線方向認識手段が認識した視線方向に応じて、前記検索の範囲を変更して前記検索に関する前記コマンドを処理することを特徴とする請求項1又は2に記載の車載装置。
  4. 前記コマンドはPOI(Point Of Interest)の検索に関し、
    前記コマンド処理手段は、前記視線方向に応じて検索するPOIの範囲を変更することを特徴とする請求項2又は3に記載の車載装置。
  5. 前記コマンド処理手段は、前記視線方向に応じて進行方向の右側に存在するPOIを検索するか、又は、左側に存在するPOIを検索するか変更することを特徴とする請求項4に記載の車載装置。
  6. 前記コマンド処理手段は、前記視線方向が正面の場合、進行方向の右側に存在するPOI、及び、左側に存在するPOIを検索することを特徴とする請求項2〜5のいずれか1項に記載の車載装置。
  7. 電子地図を表示するディスプレイを有し、
    前記コマンド処理手段は、前記視線方向が前記ディスプレイの範囲内である場合、前記ディスプレイに表示されている電子地図の表示範囲に存在するPOIを検索することを特徴とする請求項2〜4のいずれか1項に記載の車載装置。
  8. 前記コマンドはルートの探索に関し、
    前記コマンド処理手段は、前記視線方向に応じてルートの探索方法を変更することを特徴とする請求項1に記載の車載装置。
  9. 前記コマンド処理手段は、前記視線方向に応じて進行方向の右側の迂回ルートを探索するか、又は、左側の迂回ルートを探索するか変更することを特徴とする請求項8に記載の車載装置。
  10. 前記コマンド検出手段は、前記音声認識手段が認識した音声からディスプレイに表示する映像に関するコマンドを検出し、
    前記コマンド処理手段は、前記視線方向認識手段が認識した視線方向に応じて、前記ディスプレイに表示する映像を切り替えるコマンドを処理することを特徴とする請求項1に記載の車載装置。
  11. 前記コマンド処理手段は、前記視線方向に応じて右側のカメラの映像を前記ディスプレイに表示するか、又は、左側のカメラの映像を前記ディスプレイに表示するか切り替えることを特徴とする請求項10に記載の車載装置。
  12. 車両の乗員の音声操作を受け付ける車載装置と、前記車載装置とネットワークを介して通信するサーバとを有する通信システムであって、
    前記車両の乗員の音声を認識する音声認識手段と、
    前記車両の乗員の視線方向を認識する視線方向認識手段と、
    前記音声認識手段が認識した音声からコマンドを検出するコマンド検出手段と、
    前記視線方向認識手段が認識した視線方向に応じて、前記コマンドを処理するコマンド処理手段と、
    を有することを特徴とする通信システム。
JP2018243753A 2018-12-26 2018-12-26 車載装置、通信システム Active JP7233918B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018243753A JP7233918B2 (ja) 2018-12-26 2018-12-26 車載装置、通信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243753A JP7233918B2 (ja) 2018-12-26 2018-12-26 車載装置、通信システム

Publications (2)

Publication Number Publication Date
JP2020106997A true JP2020106997A (ja) 2020-07-09
JP7233918B2 JP7233918B2 (ja) 2023-03-07

Family

ID=71450811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243753A Active JP7233918B2 (ja) 2018-12-26 2018-12-26 車載装置、通信システム

Country Status (1)

Country Link
JP (1) JP7233918B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022254669A1 (ja) * 2021-06-03 2022-12-08 日産自動車株式会社 対話サービス装置及び対話システム制御方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267092A (ja) * 2004-03-17 2005-09-29 Mitsubishi Electric Corp 照応解析装置及びナビゲーション装置
JP2008013070A (ja) * 2006-07-06 2008-01-24 Toyota Motor Corp 車両用表示装置
JP2008298522A (ja) * 2007-05-30 2008-12-11 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラム
JP2009085750A (ja) * 2007-09-28 2009-04-23 Aisin Aw Co Ltd 施設特定システム及び施設特定装置
JP2012167970A (ja) * 2011-02-14 2012-09-06 Canvas Mapple Co Ltd ナビゲーション装置、及びナビゲーションプログラム
JP2016081513A (ja) * 2014-10-15 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報取得方法、情報取得システム及び情報取得プログラム
JP2017090614A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
WO2018226248A1 (en) * 2017-06-09 2018-12-13 Mitsubishi Electric Automotive America, Inc. In-vehicle infotainment with multi-modal interface

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267092A (ja) * 2004-03-17 2005-09-29 Mitsubishi Electric Corp 照応解析装置及びナビゲーション装置
JP2008013070A (ja) * 2006-07-06 2008-01-24 Toyota Motor Corp 車両用表示装置
JP2008298522A (ja) * 2007-05-30 2008-12-11 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション装置の検索方法及び検索プログラム
JP2009085750A (ja) * 2007-09-28 2009-04-23 Aisin Aw Co Ltd 施設特定システム及び施設特定装置
JP2012167970A (ja) * 2011-02-14 2012-09-06 Canvas Mapple Co Ltd ナビゲーション装置、及びナビゲーションプログラム
JP2016081513A (ja) * 2014-10-15 2016-05-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報取得方法、情報取得システム及び情報取得プログラム
JP2017090614A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
WO2018226248A1 (en) * 2017-06-09 2018-12-13 Mitsubishi Electric Automotive America, Inc. In-vehicle infotainment with multi-modal interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022254669A1 (ja) * 2021-06-03 2022-12-08 日産自動車株式会社 対話サービス装置及び対話システム制御方法

Also Published As

Publication number Publication date
JP7233918B2 (ja) 2023-03-07

Similar Documents

Publication Publication Date Title
US11366513B2 (en) Systems and methods for user indication recognition
US10949886B2 (en) System and method for providing content to a user based on a predicted route identified from audio or images
JP7345683B2 (ja) シーン認識対話を行うためのシステム
US11176948B2 (en) Agent device, agent presentation method, and storage medium
US10994612B2 (en) Agent system, agent control method, and storage medium
JP2018173862A (ja) 走行支援装置及びコンピュータプログラム
US9915547B2 (en) Enhanced navigation information to aid confused drivers
JP7250547B2 (ja) エージェントシステム、情報処理装置、情報処理方法、およびプログラム
US10901503B2 (en) Agent apparatus, agent control method, and storage medium
JP2018173860A (ja) 走行支援装置及びコンピュータプログラム
CN112313137A (zh) 行驶信息处理装置和处理方法
US20200111489A1 (en) Agent device, agent presenting method, and storage medium
WO2018180756A1 (ja) 運転支援システム
JP7233918B2 (ja) 車載装置、通信システム
CN111746435A (zh) 信息提供装置、信息提供方法及存储介质
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
US20210181900A1 (en) System for a scrolling mode interface in a vehicle
JP2014154125A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP7280072B2 (ja) 報知制御装置、および、報知制御方法
US20220315063A1 (en) Information processing apparatus, mobile object, control method thereof, and storage medium
JP2019163938A (ja) 車載装置、音声案内システム
JP2024057142A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP2024057143A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP5831016B2 (ja) 移動案内システム、移動案内装置、移動案内方法及びコンピュータプログラム
JP2020184020A (ja) 報知制御装置、報知システム、報知制御方法、及び、制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R150 Certificate of patent or registration of utility model

Ref document number: 7233918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150