JP2015041197A - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
JP2015041197A
JP2015041197A JP2013171277A JP2013171277A JP2015041197A JP 2015041197 A JP2015041197 A JP 2015041197A JP 2013171277 A JP2013171277 A JP 2013171277A JP 2013171277 A JP2013171277 A JP 2013171277A JP 2015041197 A JP2015041197 A JP 2015041197A
Authority
JP
Japan
Prior art keywords
display
line
sight
speaker
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013171277A
Other languages
English (en)
Other versions
JP6016732B2 (ja
Inventor
貴久 青柳
Takahisa Aoyanagi
貴久 青柳
朝子 重田
Asako Shigeta
朝子 重田
哲司 羽下
Tetsuji Hashimo
哲司 羽下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013171277A priority Critical patent/JP6016732B2/ja
Publication of JP2015041197A publication Critical patent/JP2015041197A/ja
Application granted granted Critical
Publication of JP6016732B2 publication Critical patent/JP6016732B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ドライバー以外の乗員が発話した指示語が示す特定位置をドライバーに対して明確に提示することができる表示制御装置を提供する。
【解決手段】車両内の表示装置に情報を表示させる表示制御装置10において、車両内の発話者の視線位置を認識する視線認識部1と、発話者の発話内容から少なくとも指示語を認識する音声認識部2と、音声認識部2により指示語が認識された時点で視線認識部1により認識された視線位置を、表示ディスプレイ51の画面上の表示位置に変換する視線補正部4と、視線補正部4により変換された表示位置を示す重畳データを表示ディスプレイ51に重畳表示させる重畳表示部5とを備えるようにしたので、発話者が「そこ」「あの」等の指示語を発話したタイミングにおける視線を共有でき、発話者以外の乗員が発話者の意図を的確に知ることができる。
【選択図】図1

Description

この発明は、自動車等の車両において、視線認識および音声認識を伴う表示制御装置に関するものである。
複数人が同乗する自動車等の車両においては、その車両を運転中のドライバーに対して、助手席や後部座席にいる乗員が「そこ」「あの」等の指示語を発話することにより道案内をしたり、その乗員の行きたい場所を指示したりすることがある。
しかし、発話者が「そこ」「あの」等の指示語を発話した際に、それを聞いたドライバーは、その指示語がどこを指しているのかを的確に判断することができない。例えば、助手席の人が「そこに停めて」や「あの角を曲がって」などと発話した場合に、それを聞いたドライバーは、「そこ」とはどこを指しているのか、「あの角」とはどの角を指しているのかを、直感的に知ることができない。
一方、例えば特許文献1または2には、運転中に「あの山は何?」とか「あの建物は何?」と発話すると、視線認識と音声認識とにより、その山の名称や建物の名称を表示または音声により出力する装置が開示されている。
特開2003−329463号公報 特開2006−90790号公報 特開2006−321474号公報
しかしながら、例えば特許文献1,2等に示すような従来技術では、「そこ」「あの」等の指示語が発話された際に、その指示語が示す山や建物等の名称が記憶されているデータベースと照合してその名称を得ることができるだけであり、ドライバー以外の乗員が発話した指示語がどこを指しているのかをドライバーが直感的に知ることはできない、という課題があった。
また、特許文献1,2等に示すような従来技術では、指示語を含む問いに対して対象物の名称等の情報を発話者に対して提示しているが、「そこ」「あの」等で指示する対象はその装置に格納されている情報の範囲内にとどまり、その範囲外のもの、例えば、その視線の先の対象が時間とともに変化するものや、名称と位置情報とが格納されていない情報(移動体、看板、街路樹、歩道など)は対象外となってしまう、という課題もあった。
この発明は、上記のような課題を解決するためになされたものであり、ドライバー以外の乗員が発話した指示語が示す特定位置をドライバーに対して明確に提示することができる表示制御装置を提供することを目的とする。
上記目的を達成するため、この発明は、車両内の表示装置に情報を表示させる表示制御装置において、前記車両内の発話者の視線位置を認識する視線認識部と、前記発話者の発話内容から少なくとも指示語を認識する音声認識部と、前記音声認識部により前記指示語が認識された時点で前記視線認識部により認識された視線位置を、前記表示装置の画面上の表示位置に変換する視線補正部と、前記視線補正部により変換された表示位置を示す重畳データを前記表示装置に重畳表示させる重畳表示部とを備えたことを特徴とする。
この発明によれば、発話者が「そこ」「あの」等の指示語を発話したタイミングにおける、すなわち、発話者の発話時における視線位置から指示語の対象先を求め、発話者の視線位置を乗員が視認する表示装置の画面上の表示位置に変換して重畳表示させることにより、発話者以外の乗員に発話者の視線を共有することができ、発話者以外の乗員が発話者の意図を的確に知ることができる。
実施の形態1における表示制御装置の構成の一例を示すブロック図である。 指示語/特徴語パターン記憶部に記憶されている指示語の例を示すテーブルである。 指示語/特徴語パターン記憶部に記憶されている特徴語の例を示すテーブルである。 実施の形態1における表示制御装置の構成の別の例を示すブロック図である。 発話者が助手席の人、対象者が運転席の人の場合の、視線補正部における変換方法を図解化した説明図である。 発話者が後部座席の人、対象者が運転席の人の場合の、視線補正部における変換方法を図解化した説明図である。 重畳データとして矢印を採用した場合の、表示ディスプレイ(HUD)における表示例を示す図である。 表示ディスプレイ(HUD)が複数の乗員から視認できる大きさのディスプレイであった場合の表示例を示す図である。 実施の形態2における表示制御装置の構成の一例を示すブロック図である。 実施の形態2の視線補正部における変換方法を図解化した説明図である。 実施の形態2における表示制御装置の構成の別の例を示すブロック図である。 実施の形態2における表示ディスプレイ(ナビ画面)に重畳データを重畳させた表示例を示す図である。 実施の形態3における表示制御装置の構成の一例を示すブロック図である。 実施の形態3における表示制御装置の構成の別の例を示すブロック図である。 実施の形態3における表示ディスプレイ(ナビ画面)に重畳データを重畳させた表示例を示す図である。 実施の形態4における表示制御装置の構成の一例を示すブロック図である。
以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1における表示制御装置の構成の一例を示すブロック図である。この表示制御装置10は、車両に搭載されて車両内の表示装置である表示ディスプレイ51に情報を表示させるものであり、視線認識部1、音声認識部2、指示語/特徴語パターン記憶部3、視線補正部4、重畳表示部5、重畳パターン記憶部6を備えている。また、車両内には、視線認識カメラ11、音声認識マイク21、表示ディスプレイ51も設けられている。
視線認識カメラ11は、発話者(例えば、助手席に着席している乗員)の両目を常に監視できる箇所に設置され、その発話者の両目を含む映像を視線認識部1へ出力する。
視線認識部1は、視線認識カメラ11から取得した映像から、発話者の視線位置を認識して、視線補正部4へ出力する。具体的には、発話者の視線を常に認識し、その発話者の右目と左目の位置および右目と左目の視線がクロスする焦点(視線位置)を認識して、視線補正部4へ出力する。すなわち、視線認識部1は、少なくとも基準点(例えば、発話者の左右の目の中間点)に対する三次元(奥行き、高さ、横)の視線の先の相対距離を視線補正部4へ出力する。
また、三次元(奥行き、高さ、横)の視線の先の相対距離の他に、基準点に対する両目の相対距離や両目の検出状況(検出できているか否か)等も視線補正部4へ出力するようにしてもよい。以降の説明では、視線認識部1より算出するデータを総称して「視線データ」と呼ぶ。
音声認識マイク21は、発話者の音声を取得できる箇所に設置され、発話者の発話音声を音声認識部2へ出力する。
音声認識部2は、音声認識マイク21より取得した発話者の発話内容から少なくとも指示語を認識して視線補正部4へ出力する。具体的には、音声認識マイク21より取得した発話者の音声と、指示語/特徴語パターン記憶部3に記憶された指示語および特徴語とパターンマッチングを行い、パターンが一致した指示語および特徴語を、視線補正部4へ出力する。
図2は、指示語/特徴語パターン記憶部3に記憶されている指示語の例を示すテーブルである。また、図3は、指示語/特徴語パターン記憶部3に記憶されている特徴語の例を示すテーブルである。
指示語とは、例えば図2に示すように、この、ここ、これ、こっち、その、そこ、それ、そっち、あの、あそこ、あれ、あっち等の、どの位置や場所であるかを特定するための語のことである。また、特徴語とは、例えば図3に示すように、色情報としては赤、青、黄、白、黒等、物体情報としては建物、ビル、車、人、信号等、施設情報としてはコンビニ、ファミレス、駐車場等、形情報としては丸い、四角い等、目印となる対象物などを特定するための語のことである。
なお、この実施の形態1では、助手席に座る発話者が「そこ曲がって!」と発話した場合を例に説明するが、このように、必ずしも特徴語は必要ではなく、指示語のみの発話であってもよい。この場合、「そこ」という指示語のみが音声認識される。
また、特徴語も含む場合、例えば「あそこの駐車場にとめて」や「あの赤い車についていって」などと発話された場合には、「あそこの駐車場」「あの赤い車」が認識される。
なお、図4に示すように、音声認識用ボタン22を設け、この音声認識用ボタン22が押された場合のみ音声認識を行うようにしてもよい。これにより、発話タイミングが限定されるので、より音声認識の認識率を高めることができる。
視線補正部4は、音声認識部2により指示語が認識された時点で、視線認識部1により認識された視線位置を、発話者以外の乗員が視認できる表示ディスプレイ51上の表示位置へ変換する。具体的には、音声認識部2より出力された指示語のタイミングで、視線認識部1からの視線データから、発話者が指示語を発話したタイミング(発話時)の、発話者のある基準点に対する焦点距離(奥行き、高さ、横)を算出し、当該算出したある基準点に対する焦点距離(奥行き、高さ、横)から、表示させるデバイスである表示ディスプレイ51を基準とした座標軸への変換処理を行う。
なお、表示ディスプレイ51としては、この実施の形態1では、HUD(ヘッドアップディスプレイ)として説明するが、HUD以外にもヘッドマウントディスプレイ(HMD)等、この表示ディスプレイ51を視認する車両内の乗員の視界に情報を重畳させて表示するディスプレイであれば、いずれのものでもよい。
図5は、発話者が助手席の人、対象者が運転席の人の場合の、視線補正部4における変換方法を図解化した説明図である。助手席の人(発話者101)が発した指示語に対して運転席の人(対象者102)がHUD51を介してその視線位置を確認する場合について示している。
まず水平方向については、図5(a)に示すように、発話者101の目の位置(左右の目の中間点)をC、視線補正部4より算出した焦点位置(視線位置)をA、HUD51と線分ACとの交点をB、焦点位置(視線位置)Aと対象者102の目の位置(左右の目の中間点)Dとを結ぶ線分ADとHUD51との交点(つまり、重畳表示させる位置)をXとする。ここで、線分ACの長さLACは、視線補正部4の算出結果より取得できるため既知である。また、線分BCの長さLBCおよび線分CDの長さLCDは、自動車(車両)のシート位置とHUD51の位置に相当し、事前に知り得る情報であるため既知である。
ここで、三角形ACDと三角形ABXは相似の関係にあることから、以下の(1)式の関係が成り立ち、
LAC:(LAC−LBC)=LCD:LBX (1)
線分BXの長さLBXは、以下の(2)式により求められる。
LBX=LCD×(LAC−LBC)/LAC (2)
また、HUD51にあるB点の位置も既知であることから、HUD51に表示させる水平方向の点Xは、上記(2)式から求めることができる。
次に高さ方向については、図5(b)に示すように、発話者101の目の位置(左右の目の中間点)をC’、視線認識部1より検出した焦点位置(視線位置)をA’、HUD51と線分A’C’との交点をB’、焦点位置(視線位置)A’と対象者102の目の位置(左右の目の中間点)D’とを結ぶ線分A’D’とHUD51との交点(つまり、重畳表示させる位置)をX’とする。ここで、線分A’C’の長さLA’C’は、視線補正部4の算出結果より取得できるため既知である。また線分B’C’の長さLB’C’は、自動車(車両)のシート位置とHUD51の位置に相当し、事前に知り得る情報であるため既知である。
ここで、三角形A’C’D’と三角形ABXは相似の関係にあることから、以下の(3)式の関係が成り立ち、
LA’C’:(LA’C’−LB’C’)=LC’D’:LB’X’ (3)
線分C’D’の長さLC’D’、つまり、発話者101と対象者102の目の高さの違い(≒頭の高さの違い(座高差))がわかれば、線分B’X’の長さLB’X’は、以下の(4)式により求められる。
LB’X’=LC’D’×(LA’C’−LB’C’)/LA’C’ (4)
また、HUD51にあるB’点の位置も既知であることから、HUD51に表示させる高さ方向の点X’は、上記(4)式から求めることができる。
なお、発話者101と対象者102との座高差がほとんどないような場合には、高さ方向は同一としてもよい。
上記補正式については、助手席に座る発話者101と運転席に座る対象者(発話者以外の乗員)102を前提としている(つまり真横の関係を前提としている)が、発話者101と対象者102の関係は、必ずしもそうでなくてもよい。
図6は、発話者が後部座席の人、対象者が運転席の人の場合の、視線補正部4における変換方法を図解化した説明図である。この図においても図5と同様に、図6(a)は水平方向、図6(b)は高さ方向についての説明図である。
このように発話者101が後部座席にいる場合、発話者101と焦点位置(視線位置)(A,A’)を結ぶ直線上と対象者102からの補助線(水平方向であれば真横、高さ方向であれば垂直に引いた線)との交点(C#,C#’)を求める。
この交点(C#,C#’)は、発話者101の目の位置(左右の目の中間点)(C,C’)および対象者102の目の位置(左右の目の中間点)(DまたはD’)の位置関係が既知であるため、三角関数を用いれば既知として扱うことができ、この交点(C#,C#’)に関わる線分(LAC#,LBC#,LC#DもしくはLAC#’,LBC#’,LC#’D)も既知として扱うことができることから、上記相似式よりHUD51への表示点(X,X’)を求めることができる。
このように、視線補正部4は、視線認識部1により認識された発話者101の目の位置および焦点位置(視線位置)に基づいて、表示ディスプレイ(HUD)51を視認する対象者(発話者以外の乗員)102の目の位置に焦点位置(視線位置)が合うように、発話者101の目の位置、発話者101の焦点位置(視線位置)、表示ディスプレイ(HUD)51を視認する対象者102の目の位置、の3点を頂点とした三角形の相似関係から、変換を行う。
また、視線補正部4は自車が走行中の場合、その自車の移動に伴い、発話者101の発話後の視線を監視し続け、変換処理を繰り返すこともできる。上記のとおり、視線補正部4は指示語の発話時の発話者の焦点距離(奥行き、高さ、横)から、表示させるデバイスである表示ディスプレイ(HUD)51を基準とした表示位置へ補正、変換し、その表示位置を重畳表示部5へ出力する。
なお、上記変換および出力は、助手席または後部座席の発話者の視線を発話者以外の乗員である運転席の対象者の視線に合わせた変換について説明しているが、その逆でも同様の方法で変換することが可能である。さらに、発話者の意図どおりに対象者(発話者以外の乗員)へ通知されているのかを確認するために、発話者視点での表示点(B,B’)も表示位置として重畳表示部5へ出力するようにしてもよい。(後述する図8参照)
重畳表示部5では、視線補正部4からの表示位置に対し、重畳パターン記憶部6に格納されている重畳データ(例えば、矢印や丸、四角等の図形データや文字データ(フォント含む)および色データ)を表示位置へ重畳表示させ、表示ディスプレイ(HUD)51へ出力する。すなわち、重畳表示部5は、視線補正部4により変換された表示位置を示す重畳データを表示ディスプレイ(HUD)51に重畳表示させる。
図7は、重畳データとして矢印を採用した場合の、表示ディスプレイ(HUD)51における表示例を示す図である。この図7では、例えば助手席に座る発話者が「そこ曲がって!」と発話した場合に、表示ディスプレイ(HUD)51に表示されている画面上で、運転者に対して「そこ」というのがどこであるかをわかるよう、矢印61という重畳データを重畳表示させている。
重畳データは、特定の条件に応じて、その形、大きさ、色、内容のうちの少なくとも1つを可変させることができる。特定の条件としては、例えば、発話者の発した指示語の数、発話者がどの座席の人か、焦点距離の長さ、表示ディスプレイを視認する人の座席の違い、車速等の車両情報などが考えられる。
具体的には、例えば、発話者が「そこかあそこ」などのように複数の指示語を発した場合、その発話者の発した指示語の数が1つの場合とは別の色で重畳データを表示させたり、その指示語の数を示す数値を重畳データに付して表示させたりしてもよい。
また、発話者の違いによって表示させる色を変える場合には、例えば、助手席の人が発した場合は黄色、後部座席の人が発した場合は赤色で矢印や丸などの重畳データを表示させるようにしてもよい。
ここで、表示ディスプレイ(HUD)51の大きさは、ある特定者(例えば運転手)のみが見える程度の比較的小さなものでもよいし、フロントガラス全面に表示できる程度の比較的大きなものでもよい。図7は、運転手のみが見える程度の表示ディスプレイ(HUD)51を想定しているが、例えば図8に示すように、表示ディスプレイ(HUD)51が複数の乗員から視認できる大きさのディスプレイである場合も考えられる。
図8に示すように、表示ディスプレイ(HUD)51が、フロントガラス全面に表示できる程度の比較的大きなディスプレイである場合、重畳表示の内容が対象者(ここでは運転席の人)以外の位置からも見えることになるため、表示位置にずれが生じる可能性がある。
そこで、このような場合には、図8に示すように、運転席の対象者から見える位置には赤色の矢印61とし、発話者である助手席から見える位置には黄色の矢印61Aが表示させるようにしてもよい。つまり、表示ディスプレイ(HUD)51を視認する対象者が運転席の場合は赤色、助手席の場合は黄色、部座席中央の場合は緑色等、表示ディスプレイ(HUD)51を視認する対象者の座席毎に表示させる色を変えてもよい。
または、例えば特許文献3に示す車載用表示装置で適用されている技術(指向性のあるディスプレイの技術)を応用して、特定の対象者の方向にのみその対象者への表示内容を表示させることで対象者毎に視線補正部4で表示位置を変換し、視線補正部4で変換した表示位置へ重畳表示させ、表示ディスプレイ(HUD)51へ出力してもよい。
また、車速等の車両情報に応じて重畳データの大きさを変える場合、例えば、重畳データとして丸を表示させるとすると、車速が速い場合は焦点位置との相対関係が刻々と変化するため表示させる丸の大きさを大きくし、車速が遅い場合は焦点位置との相対関係の時間変化が比較的少ないため、表示させる丸の大きさを小さくしてもよい。
なお、一度表示した重畳データは任意のタイミングで消去できる。例えば、対象者がその重畳データを視線認識部1において直視したと判断した際にその重畳データを消去してもよいし、重畳データを重畳表示させてからある一定時間が経った場合に消去してもよい。もしくは音声認識部2で“消去”などのキーワードを認識した場合や、対象者が確認したらボタン等を押すことにより消去してもよい。
また、対象者が運転に集中していて確認できないような場合には、現在位置や焦点位置(視線位置)に基づいて、すなわち、発話者が指示語を発話した位置からの移動に応じて焦点位置(視線位置)を計算し直したり、所定タイミングごとに計算させたりすることにより、表示ディスプレイ(HUD)51上の重畳データの表示位置を、表示ディスプレイ(HUD)51に表示されている道路や建物等の移動に合わせて追従させるようにすればよい。
以上のように、この実施の形態1によれば、発話者(例えば助手席や後部座席の人)が発した「そこ」「あの」等の指示語の発話時の発話者の視線の方向から、その発話者が発した指示語がどこのことなのかをHUD等の表示装置に表示させることにより、発話者以外の他の乗員(例えば運転手)と発話者の視線を共有することができるので、乗員同士で的確な場所や発話者の意図を知ることができるようになる。
なお、視線補正部4は、音声認識部2により指示語が認識された時点で視線認識部1により認識された視線位置を、発話者以外の乗員が視認できる表示位置へ変換するものとして説明し、上記の実施例では「音声認識部2により指示語が認識された時点で」とは、音声認識部2により指示語が認識されたタイミングで、という意味であるが、一定期間内で所定タイミングごとに視線位置を取得して、その平均をとるようにしてもよい。
例えば、現在から過去に遡った単位時間あたりの平均値を常に算出しておき、音声認識部2より出力された指示語のタイミングでその時点の平均値を焦点距離(奥行き、高さ、横)としてもよい。すなわち、視線補正部4が、音声認識部2により指示語が認識された時点と当該指示語が認識された時間から所定時間遡った時点との間に視線認識部1により認識された視線位置の平均値を、発話者以外の乗員が視認できる表示装置の画面上の表示位置へ変換するようにしてもよい。
または、現在から過去に遡った単位時間あたりの平均値を常に算出しておき、音声認識部2より出力された指示語のタイミングからその時点から先の単位時間まで含めた平均値を焦点距離(奥行き、高さ、横)としてもよい。すなわち、視線補正部4が、音声認識部2により指示語が認識された時点を中心に前後の所定時間の間に視線認識部1により認識された視線位置の平均値を、発話者以外の乗員が視認できる表示装置の画面上の表示位置へ変換するようにしてもよい。
さらに、このように視線補正部4で視線位置の単位時間あたりの平均値を算出した場合には、重畳データを可変させる特定の条件として、その視線位置のばらつき度合いも含めることができる。すなわち、その平均値のばらつき度合いにしたがって、重畳データの形、大きさ、色、内容のうちの少なくとも1つを可変させることができる。
具体的には、重畳データとして丸を表示させるとすると、視線補正部4で視線位置の単位時間あたりの平均値を算出した際の視線位置のばらつき度合いが小さければ表示させる丸の大きさを小さくし、そのばらつきが大きければ、表示させる丸の大きさを大きくしてもよい。つまり、ばらつきが小さければ、焦点位置の精度が高いと判断して丸を小さくしてピンポイントで表示させ、ばらつきが大きければ、焦点位置(視線位置)の精度が低いと判断し、丸を大きくして発話者の焦点の全体像を表示させる。
実施の形態2.
図9は、この発明の実施の形態2における表示制御装置の構成の一例を示すブロック図である。なお、実施の形態1で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態2における表示制御装置10Aは、実施の形態1における表示制御装置10に比べると、自車位置取得部7をさらに備え、重畳表示部5がナビ画面である表示ディスプレイ52に重畳データを重畳させるものである。
車両には、例えばGPS(Global Positioning System)等の自車位置検出センサ71も備えられている。そして、自車位置取得部7は、そのようなGPS等の自車位置検出センサ71を用いて検出された自車の現在位置を取得する。
また、実施の形態1では表示するデバイスである表示ディスプレイ51はその表示ディスプレイ51を視認する発話者以外の乗員の視界に情報を重畳させて表示するディスプレイ(例えば、HUD)であるものとして説明したが、この実施の形態2では、表示ディスプレイ52は、自車位置取得部7により取得された自車位置と、地図データとを表示可能なディスプレイ(例えば、ナビ画面)であるものとする。
視線補正部4における変換方法は、基本的には実施の形態1において説明した視線補正部4の場合と同様であるが、この実施の形態2では、自車位置取得部7が取得した自車位置P0を視線補正部4が受け取っていることと、表示ディスプレイ52がナビ画面であり、発話者と対象者との視差が生じるものではない点が、実施の形態1とは異なっている。
視線補正部4は、音声認識部2により指示語が認識された時点で、視線認識部1により認識された視線認識結果と自車位置取得部7により取得された自車位置とに基づいて、視線認識部により認識された視線位置を、発話者以外の乗員が視認できる表示位置へ変換する。
具体的には、視線補正部4は、音声認識部2より出力された指示語のタイミングで、視線認識部1からの視線データから、発話者が指示語を発話したタイミング(発話時)の、発話者のある基準点に対する焦点距離(奥行き、高さ、横)を算出し、当該算出したある基準点に対する焦点距離(奥行き、高さ、横)から、表示させるデバイスである表示ディスプレイ52(この実施の形態2ではナビ画面とする)を基準とした座標軸への変換処理を行う。
算出した焦点距離は、音声認識部2より出力された指示語のタイミングの視線認識部1からの視線データとしてもよい。
また、実施の形態1同様、現在から過去に遡った単位時間あたりの平均値を常に算出しておき、音声認識部2より出力された指示語のタイミングでその時点の平均値を焦点距離(奥行き、高さ、横)としてもよい。
または、現在から過去に遡った単位時間あたりの平均値を常に算出しておき、音声認識部2より出力された指示語のタイミングからその時点から先の単位時間まで含めた平均値を焦点距離(奥行き、高さ、横)としてもよい。
また視線補正部4は、算出したある基準点に対する焦点距離(奥行き、高さ、横)から表示させるデバイスである表示ディスプレイ(ナビ画面)52を基準とした座標軸への変換処理も行う。
図10は、実施の形態2の視線補正部4における変換方法を図解化した説明図である。この実施の形態2においては、助手席の人が発話した指示語および特徴語に対して運転席の人が表示ディスプレイ(ナビ画面)52を介してその発話者の視線位置を確認する場合を例に説明する。
図10における自車位置Pは、GPS等の自車位置検出センサ71を用いて取得した自車位置取得部7から受け取ることができるので既知である。また、視線認識部1により得られた焦点距離より、ある基準位置からの対象物の位置P、および、ある基準位置からの対象物までの距離Pも既知である。
ここで、ある基準位置とは、視線認識カメラ11もしくは発話者の目の位置(左右の目の中間点)である。いずれの場合にせよ、図10における対象物の位置Pに対して、視線認識カメラ11の位置も発話者の位置もその違いによる影響は少ないといえることと、GPS等により検出された自車位置Pと発話者の位置や視線認識カメラ11の位置はほぼ同じ位置であるので、ここでは基準位置=自車位置(P)とすることができる。
したがって、自車位置を基準とした対象物までの位置関係(P,P)が既知となるため、ナビゲーションの地図表示のスケールサイズに応じてナビ画面上の表示位置に変換することが可能となる。
さらに図11に示すように、ナビPOI情報記憶部8も備えるようにすれば、発話者が「あそこのコンビニ」や「あの駐車場」等、指示語の他に施設名称(特徴語)を含む語を発話した場合、ナビPOI情報記憶部8に記憶されているナビPOI情報の周辺施設の位置情報を用いることで、より正確な変換をすることができる。
また、視線補正部4は自車が走行中の場合、その自車の移動に伴い、自動的に追従して変換することが可能となる。上記のとおり、視線補正部4は指示語の発話時の発話者の焦点距離(奥行き、高さ、横)から表示させるデバイスである表示ディスプレイ(ナビ画面)52を基準とした表示位置へ補正、変換し、その表示位置を重畳表示部5へ出力する。
重畳表示部5は、表示ディスプレイ(ナビ画面)52に自車位置とともに表示された地図データに、視線補正部4により変換された表示位置を示す重畳データを重畳表示させる。この際、実施の形態1同様、視線補正部4からの表示位置に対し、重畳パターン記憶部6に格納されている重畳データ(例えば、矢印や丸、四角等の図形データや文字データ(フォント含む)および色データ)をその表示位置へ重畳表示させ、表示ディスプレイ(ナビ画面)52へ出力する。
図12は、実施の形態2における表示ディスプレイ(ナビ画面)52に重畳データを重畳させた表示例を示す図である。この図12では、例えば助手席に座る発話者が「あそこの駐車場にとめて!」と発話した場合に、表示ディスプレイ(ナビ画面)52に表示されている地図データ画面上で、運転者に対して「あそこの駐車場」というのがどこであるかをわかるよう、矢印63という重畳データを重畳表示させている。
この図12では、通常のナビゲーション画面同様、自車マーク70も表示されており、走行中の道路沿いにいくつも駐車場が存在する場合を示しているが、この実施の形態2によれば、単に「あそこの駐車場」と言われてもすぐにどこの駐車場のことかを運転者が把握できないという不具合をなくし、発話者の視線を認識して発話者の意図する駐車場がどれであるかを、矢印63を重畳させることにより明確に運転者に提示することができる。
なお、実施の形態1同様、一度表示したパターンは任意のタイミングで消去できる。例えば、対象者がそのパターンを視線認識部1において直視したと判断した際にそのパターンを消去してもよいし、パターン表示後ある一定時間が経った場合に消去してもよい。もしくは音声認識部2で“消去”などのキーワードを認識した場合に消去してもよい。
以上のように、この実施の形態2によれば、発話者(例えば助手席や後部座席の人)が発話した「そこ」「あの」等の指示語の発話時の発話者の視線の方向から、その発話者が発した指示語がどこのことなのかをナビ画面の表示装置に表示させることにより、発話者以外の他者(例えば運転手)と発話者の視線を共有することができ、乗員同士で的確な場所や発話者の意図を知ることができるようになる。
なお、この実施の形態2においても、発話者を運転手以外、対象者を運転手としているが、その他でも実施例のとおりである。
また、実施の形態1の図4で示したように、この実施の形態2においても音声認識用ボタン22を設け、この音声認識用ボタン22が押された場合のみ音声認識を行うようにしてもよい。
また、実施の形態1同様、重畳表示部5が、特定の条件に応じて、重畳データの形、大きさ、色、内容のうちの少なくとも1つを可変させるようにしてもよい。
実施の形態3.
図13は、この発明の実施の形態3における表示制御装置の構成の一例を示すブロック図である。なお、実施の形態1,2で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態3における表示制御装置10Bは、実施の形態1における表示制御装置10に比べると、車両の前方を写す外向カメラ(前方カメラ)91の映像を取得する映像取得部9をさらに備えている。
また、実施の形態1では表示するデバイスである表示ディスプレイ51はその表示ディスプレイ51を視認する発話者以外の乗員の視界に情報を重畳させて表示するディスプレイ(例えば、HUD)であるものとして説明したが、この実施の形態3では、表示ディスプレイ52は、映像取得部9により取得された外向カメラ(前方カメラ)91で撮影した画像や映像を表示可能なディスプレイ(例えば、ナビ画面やTV画面等)であるものとする。
視線補正部4における変換方法は、基本的には実施の形態1において説明した視線補正部4の場合と同様であるが、この実施の形態3では、外向カメラ(前方カメラ)91からの映像取得部9が取得した映像を視線補正部4が受け取っていることと、表示ディスプレイ53がナビ画面またはTV画面であり、発話者と対象者との視差が生じるものではない点が、実施の形態1とは異なっている。
視線補正部4は、音声認識部2より出力された指示語のタイミングで、視線認識部1からの視線データから、発話者が指示語を発話したタイミング(発話時)の、発話者のある基準点に対する焦点距離(奥行き、高さ、横)を算出し、当該算出したある基準点に対する焦点距離(奥行き、高さ、横)から、表示させるデバイスである表示ディスプレイ53(この実施の形態3では、ナビ画面またはTV画面とする)を基準とした座標軸への変換処理を行う。
算出した焦点距離は、音声認識部2より出力された指示語のタイミングの視線認識部1からの視線データとしてもよい。
また、実施の形態1同様、現在から過去に遡った単位時間あたりの平均値を常に算出しておき、音声認識部2より出力された指示語のタイミングでその時点の平均値を焦点距離(奥行き、高さ、横)としてもよい。
または、現在から過去に遡った単位時間あたりの平均値を常に算出しておき、音声認識部2より出力された指示語のタイミングからその時点から先の単位時間まで含めた平均値を焦点距離(奥行き、高さ、横)としてもよい。
また視線補正部4は、算出したある基準点に対する焦点距離(奥行き、高さ、横)から表示させるデバイスである表示ディスプレイ(ナビ画面、TV画面)53を基準とした座標軸への変換処理も行う。
図13に示す実施の形態3では、外向カメラ(前方カメラ)91が設置されており、この外向カメラ91から映像取得部9が取得した映像内におけるある基準点(例えばピクセル単位)を予め発話者に視線を向けることでキャリブレーションを取っておけば、算出したある基準点に対する焦点距離(奥行き、高さ、横)から表示させるデバイスを基準とした座標軸への変換は容易である。
また、図14に示すように、画像認識部90も備えるようにすれば、映像取得部9で取得した画像や映像を画像認識することができることから、例えば発話者が「あの赤い車についていって」や「あそこの○○と書いてある看板のところを曲がって」等、指示語の他に特徴語が含まれる語を発話した場合、視線補正部4が、画像認識部90により認識された画像から、音声認識部2により認識されたその特徴語に対応する画像を認識、すなわち、その特徴語に一致した車や看板などを認識することにより、さらに正確な表示位置の変換をすることができる。
仮に「あの赤い車についていって」と発話された場合であって、映像取得部9が外向カメラ(前方カメラ)91から取得した映像を画像認識した結果、赤い車が複数認識された場合は、前述のように算出したある基準点に対する焦点距離(奥行き、高さ、横)に一番近いものを正として採用するようにしてもよい。
また、視線補正部4は自車が走行中の場合、その自車の移動に伴い、変換処理を繰り返すが、画像認識部90を伴う場合は、発話者の発話後の視線にかかわらず、自動的に追従して変換することが可能となる。上記のとおり、視線補正部4は指示語の発話時の発話者の焦点距離(奥行き、高さ、横)から表示させるデバイスである表示ディスプレイ(ナビ画面、TV画面)53を基準とした表示位置へ補正、変換し、その表示位置を重畳表示部5へ出力する。
重畳表示部5は、表示ディスプレイ(ナビ画面、TV画面)53に表示された映像取得部9により取得された映像に、視線補正部4により変換された表示位置を示す重畳データを重畳表示させる。この際、実施の形態1同様、視線補正部4からの表示位置に対し、重畳パターン記憶部6に格納されている重畳データ(例えば、矢印や丸、四角等の図形データや文字データ(フォント含む)および色データ)をその表示位置へ重畳表示させ、表示ディスプレイ(ナビ画面、TV画面)53へ出力する。
図15は、実施の形態3における表示ディスプレイ(ナビ画面、TV画面)53に重畳データを重畳させた表示例を示す図である。この図15では、例えば助手席に座る発話者が「あの赤い車についていって!」と発話した場合に、表示ディスプレイ(ナビ画面、TV画面)53に表示されている外向カメラ41で自車の前方を映した映像上に、運転者に対して「あの赤い車」というのがどれであるかをわかるよう、矢印64という重畳データを重畳表示させている。
なお、実施の形態1同様、一度表示したパターンは任意のタイミングで消去できる。例えば、対象者がそのパターンを視線認識部1において直視したと判断した際にそのパターンを消去してもよいし、パターン表示後ある一定時間が経った場合に消去してもよい。もしくは音声認識部2で“消去”などのキーワードを認識した場合に消去してもよい。
以上のように、この実施の形態3によれば、発話者(例えば助手席や後部座席の人)が発話した「そこ」「あの」等の指示語の発話時の発話者の視線の方向から、その発話者が発した指示語がどこのことなのかをナビ画面やTV画面等の表示装置に表示させることにより、発話者以外の他者(例えば運転手)と発話者の視線を共有することができ、乗員同士で的確な場所や発話者の意図を知ることができるようになる。
なお、この実施の形態3においても、発話者を運転手以外、対象者を運転手としているが、その他でも実施例のとおりである。
また、実施の形態1の図4で示したように、この実施の形態3においても音声認識用ボタン22を設け、この音声認識用ボタン22が押された場合のみ音声認識を行うようにしてもよい。
また、実施の形態1同様、重畳表示部5が、特定の条件に応じて、重畳データの形、大きさ、色、内容のうちの少なくとも1つを可変させるようにしてもよい。
実施の形態4.
図16は、この発明の実施の形態4における表示制御装置の構成の一例を示すブロック図である。なお、実施の形態1〜3で説明したものと同様の構成には、同一の符号を付して重複した説明を省略する。この実施の形態4における表示制御装置10Cは、実施の形態1〜3における表示制御装置10,10A,10Bの構成要素をすべて備えたものである。
この実施の形態4では、図16に示すように、表示装置である表示ディスプレイ54(54A,54B,・・・)を複数持たせることができるので、視線補正部4が、予め対象者ごとの表示ディスプレイ(表示装置)を登録しておき、発話者の視線位置を各表示ディスプレイ54の画面上の表示位置に変換することで、重畳表示部5は実施の形態1〜3と同様に、視線補正部4が変換した表示位置に重畳データを重畳表示するだけで、対象者に応じた表示ディスプレイ54に重畳データが重畳表示される。
すなわち、この実施の形態4における表示制御装置10Cの構成によれば、表示装置である表示ディスプレイ54(54A,54B,・・・)を複数持たせることが可能となることから、対象者に応じて表示ディスプレイ(表示装置)を選択することができる。例えば、運転手に対しては運転席前方のHUDに表示させ、助手席の乗員へはナビゲーション画面に表示させ、後部座席へはリアスクリーン等に表示させてもよい。
また、視線補正部4が、発話者の視線位置に応じた表示ディスプレイ54を判別し、その画面上の表示位置を求めることにより、重畳表示部5は実施の形態1〜3と同様に、視線補正部4が変換した表示位置に重畳データを重畳表示するだけで、発話者の視線位置に応じた表示ディスプレイ54に重畳データが重畳表示される。
すなわち、この実施の形態4における表示制御装置10Cの構成によれば、表示装置である表示ディスプレイ54(54A,54B,・・・)を複数持たせることが可能となることから、発話者の視線位置によって表示ディスプレイ(表示装置)を選択することができる。例えば、発話者の視線位置が、運転手の前方(HUD表示範囲内)であれば、HUDに表示させ、運転手の側方もしくは後方(HUD表示範囲外)であれば、ナビゲーション画面に表示させるようにしてもよい。
また、この実施の形態4では、実施の形態1〜3における各種構成をすべて網羅する構成としたが、実施の形態1〜3の各構成要素を適宜組み合わせるようにしてもよい。
このように構成しても、実施の形態1〜3同様、発話者(例えば助手席や後部座席の人)が発話した「そこ」「あの」等の指示語の発話時の発話者の視線の方向から、その発話者が発した指示語がどこのことなのかを表示装置に表示させることにより、発話者以外の他者(例えば運転手)と発話者の視線を共有することができ、乗員同士で的確な場所や発話者の意図を知ることができるようになる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 視線認識部、2 音声認識部、3 指示語/特徴語パターン記憶部、4 視線補正部、5 重畳表示部、6 重畳パターン記憶部、7 自車位置取得部、8 ナビPOI情報記憶部、9 映像取得部、10,10A,10B,10C 表示制御装置、11 視線認識カメラ、21 音声認識マイク、22 音声認識用ボタン、51 表示ディスプレイ(HUD)、52 表示ディスプレイ(ナビ画面)、53 表示ディスプレイ(ナビ画面、TV画面)、54 表示ディスプレイ、61,61A,63,64 矢印(重畳データ)、63 丸(重畳データ)、70 自車マーク、71 自車位置検出センサ、90 画像認識部、91 外向カメラ(前方カメラ)、101 発話者、102 対象者。

Claims (15)

  1. 車両内の表示装置に情報を表示させる表示制御装置において、
    前記車両内の発話者の視線位置を認識する視線認識部と、
    前記発話者の発話内容から少なくとも指示語を認識する音声認識部と、
    前記音声認識部により前記指示語が認識された時点で前記視線認識部により認識された視線位置を、前記表示装置の画面上の表示位置に変換する視線補正部と、
    前記視線補正部により変換された表示位置を示す重畳データを前記表示装置に重畳表示させる重畳表示部とを備えた
    ことを特徴とする表示制御装置。
  2. 前記表示装置は、前記車両内の乗員の視界に情報を重畳させて表示するディスプレイである
    ことを特徴とする請求項1記載の表示制御装置。
  3. 前記視線補正部は、前記視線認識部により認識された前記発話者の視線位置を、前記発話者以外の乗員から見た前記ディスプレイ上の表示位置に変換する
    ことを特徴とする請求項2記載の表示制御装置。
  4. 前記視線補正部は、前記視線認識部により認識された前記発話者の視線位置、前記発話者の目の位置、前記発話者以外の乗員の目の位置の3点を頂点として三角形の相似関係から、前記変換を行う
    ことを特徴とする請求項3記載の表示制御装置。
  5. 前記車両の位置を取得する自車位置取得部をさらに備え、
    前記視線補正部は、前記視線認識部により認識された視線認識結果と前記自車位置取得部により取得された自車位置とに基づいて、前記変換を行う
    ことを特徴とする請求項1記載の表示制御装置。
  6. 前記表示装置は、前記自車位置取得部により取得された自車位置と、地図データとを表示可能なディスプレイであり、
    前記重畳表示部は、前記表示装置に自車位置とともに表示された地図データに、前記視線補正部により変換された表示位置を示す重畳データを重畳表示させる
    ことを特徴とする請求項5記載の表示制御装置。
  7. 前記車両の前方の映像を取得する映像取得部をさらに備え、
    前記重畳表示部は、前記表示装置に表示された前記映像取得部により取得された映像に、前記視線補正部により変換された表示位置を示す重畳データを重畳表示させる
    ことを特徴とする請求項1記載の表示制御装置。
  8. 前記映像取得部により取得された映像を画像認識する画像認識部をさらに備え、
    前記音声認識部は、前記指示語およびそれに付随する特徴語を認識し、
    前記視線補正部は、前記画像認識部により認識された画像から、前記音声認識部により認識された前記特徴語に対応する画像を認識して、前記変換を行う
    ことを特徴とする請求項7記載の表示制御装置。
  9. 前記視線補正部は、前記音声認識部により前記指示語が認識された時点と当該指示語が認識された時間から所定時間遡った時点との間に視線認識部により認識された視線位置の平均値を、前記表示装置の画面上の表示位置に変換する
    ことを特徴とする請求項1記載の表示制御装置。
  10. 前記視線補正部は、前記音声認識部により前記指示語が認識された時点を中心に前後の所定時間の間に前記視線認識部により認識された視線位置の平均値を、前記表示装置の画面上の表示位置に変換する
    ことを特徴とする請求項1記載の表示制御装置。
  11. 前記重畳表示部は、前記視線位置の平均値を算出する際の前記視線位置のばらつき度合いに応じて、前記重畳データの形、大きさ、色、内容のうちの少なくとも1つを可変させる
    ことを特徴とする請求項9または請求項10記載の表示制御装置。
  12. 前記重畳表示部は、特定の条件に応じて、前記重畳データの形、大きさ、色、内容のうちの少なくとも1つを可変させる
    ことを特徴とする請求項1記載の表示制御装置。
  13. 前記特定の条件とは、発話者の発した指示語の数、発話者がどの座席の人か、焦点距離の長さ、表示装置を視認する人の座席の違い、車両情報のうちの少なくとも1つである
    ことを特徴とする請求項12記載の表示制御装置。
  14. 前記表示装置が複数存在する場合に、
    前記視線補正部は、前記乗員ごとの前記表示装置を予め登録しており、前記発話者の視線位置を前記各表示装置の画面上の表示位置に変換する
    ことを特徴とする請求項1記載の表示制御装置。
  15. 前記表示装置が複数存在する場合に、
    前記視線補正部は、前記発話者の視線位置を、当該発話者の視線位置に応じた前記表示装置の画面上の表示位置に変換する
    ことを特徴とする請求項1記載の表示制御装置。
JP2013171277A 2013-08-21 2013-08-21 表示制御装置 Active JP6016732B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013171277A JP6016732B2 (ja) 2013-08-21 2013-08-21 表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171277A JP6016732B2 (ja) 2013-08-21 2013-08-21 表示制御装置

Publications (2)

Publication Number Publication Date
JP2015041197A true JP2015041197A (ja) 2015-03-02
JP6016732B2 JP6016732B2 (ja) 2016-10-26

Family

ID=52695334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171277A Active JP6016732B2 (ja) 2013-08-21 2013-08-21 表示制御装置

Country Status (1)

Country Link
JP (1) JP6016732B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145565A1 (ja) * 2016-02-22 2017-08-31 富士フイルム株式会社 投写型表示装置、投写表示方法、及び、投写表示プログラム
CN107650795A (zh) * 2016-07-25 2018-02-02 福特全球技术公司 基于车辆传感器数据呈现车载媒体内容的系统、方法和设备
WO2018147084A1 (ja) * 2017-02-07 2018-08-16 コニカミノルタ株式会社 視線情報共有方法および視線情報共有システム
JP2018147063A (ja) * 2017-03-02 2018-09-20 マツダ株式会社 情報制御装置
KR20190011458A (ko) * 2017-07-25 2019-02-07 현대자동차주식회사 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
CN110271419A (zh) * 2019-06-28 2019-09-24 马瑞利汽车电子(广州)有限公司 一种汽车仪表显示调节装置
JP2020126166A (ja) * 2019-02-05 2020-08-20 本田技研工業株式会社 エージェントシステム、情報処理装置、情報処理方法、およびプログラム
JP2021081372A (ja) * 2019-11-21 2021-05-27 日産自動車株式会社 表示画像生成装置及び表示画像生成方法
WO2022158407A1 (ja) * 2021-01-25 2022-07-28 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2023163047A1 (ja) * 2022-02-25 2023-08-31 パイオニア株式会社 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366691B2 (en) 2017-07-11 2019-07-30 Samsung Electronics Co., Ltd. System and method for voice command context

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329463A (ja) * 2002-05-10 2003-11-19 Matsushita Electric Ind Co Ltd 対象物案内装置およびその方法
JP2004061259A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報提供装置、情報提供方法及び情報提供用プログラム
JP2006090790A (ja) * 2004-09-22 2006-04-06 Toyota Motor Corp 運転支援装置
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP2010123121A (ja) * 2008-11-17 2010-06-03 Honeywell Internatl Inc シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329463A (ja) * 2002-05-10 2003-11-19 Matsushita Electric Ind Co Ltd 対象物案内装置およびその方法
JP2004061259A (ja) * 2002-07-29 2004-02-26 Mazda Motor Corp 情報提供装置、情報提供方法及び情報提供用プログラム
JP2006090790A (ja) * 2004-09-22 2006-04-06 Toyota Motor Corp 運転支援装置
JP2007080060A (ja) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd 対象物特定装置
JP2010123121A (ja) * 2008-11-17 2010-06-03 Honeywell Internatl Inc シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145565A1 (ja) * 2016-02-22 2017-08-31 富士フイルム株式会社 投写型表示装置、投写表示方法、及び、投写表示プログラム
CN107650795A (zh) * 2016-07-25 2018-02-02 福特全球技术公司 基于车辆传感器数据呈现车载媒体内容的系统、方法和设备
WO2018147084A1 (ja) * 2017-02-07 2018-08-16 コニカミノルタ株式会社 視線情報共有方法および視線情報共有システム
JP2018147063A (ja) * 2017-03-02 2018-09-20 マツダ株式会社 情報制御装置
KR102403355B1 (ko) * 2017-07-25 2022-06-02 현대자동차주식회사 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
KR20190011458A (ko) * 2017-07-25 2019-02-07 현대자동차주식회사 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법
JP2020126166A (ja) * 2019-02-05 2020-08-20 本田技研工業株式会社 エージェントシステム、情報処理装置、情報処理方法、およびプログラム
CN111599356A (zh) * 2019-02-05 2020-08-28 本田技研工业株式会社 智能体系统、信息处理装置、信息处理方法及存储介质
US11508368B2 (en) 2019-02-05 2022-11-22 Honda Motor Co., Ltd. Agent system, and, information processing method
JP7250547B2 (ja) 2019-02-05 2023-04-03 本田技研工業株式会社 エージェントシステム、情報処理装置、情報処理方法、およびプログラム
CN110271419A (zh) * 2019-06-28 2019-09-24 马瑞利汽车电子(广州)有限公司 一种汽车仪表显示调节装置
JP2021081372A (ja) * 2019-11-21 2021-05-27 日産自動車株式会社 表示画像生成装置及び表示画像生成方法
JP7418189B2 (ja) 2019-11-21 2024-01-19 日産自動車株式会社 表示画像生成装置及び表示画像生成方法
WO2022158407A1 (ja) * 2021-01-25 2022-07-28 ソニーグループ株式会社 情報処理装置及び情報処理方法
WO2023163047A1 (ja) * 2022-02-25 2023-08-31 パイオニア株式会社 端末装置、情報提供システム、情報処理方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP6016732B2 (ja) 2016-10-26

Similar Documents

Publication Publication Date Title
JP6016732B2 (ja) 表示制御装置
CN111433067B (zh) 平视显示装置及其显示控制方法
US8536995B2 (en) Information display apparatus and information display method
JP2020064068A (ja) 視覚強化ナビゲーション
WO2019097755A1 (ja) 表示装置及びコンピュータプログラム
US20130194110A1 (en) Automotive augmented reality head-up display apparatus and method
WO2019097762A1 (ja) 重畳画像表示装置及びコンピュータプログラム
JP6626069B2 (ja) 車両用表示装置
JP2007045169A (ja) 車両用情報処理装置
US20150211878A1 (en) On-vehicle display apparatus
JP2016095688A (ja) 車載用情報表示装置
JP2015172548A (ja) 表示制御装置、制御方法、プログラム、及び記憶媒体
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
JP2015128956A (ja) ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP5735658B2 (ja) 表示装置及び表示方法
JP2016090515A (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体
JP2018173399A (ja) 表示装置及びコンピュータプログラム
JP2019056884A (ja) 重畳画像表示装置
JP6444508B2 (ja) 表示制御装置およびナビゲーション装置
KR20160077678A (ko) 버스 운행 안내 시스템
JP6424100B2 (ja) ナビゲーションシステム、ナビゲーション装置、グラス型デバイス及び装置間連携方法
JPWO2013111302A1 (ja) 表示装置、制御方法、プログラム、記憶媒体
JP2015161632A (ja) 画像表示システム、ヘッドアップディスプレイ装置、画像表示方法、及び、プログラム
EP4196239A1 (en) Systems and methods for dynamic image processing
JP2021081372A (ja) 表示画像生成装置及び表示画像生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160927

R150 Certificate of patent or registration of utility model

Ref document number: 6016732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250