JP2020204984A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2020204984A
JP2020204984A JP2019113317A JP2019113317A JP2020204984A JP 2020204984 A JP2020204984 A JP 2020204984A JP 2019113317 A JP2019113317 A JP 2019113317A JP 2019113317 A JP2019113317 A JP 2019113317A JP 2020204984 A JP2020204984 A JP 2020204984A
Authority
JP
Japan
Prior art keywords
information processing
visibility
user
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019113317A
Other languages
English (en)
Other versions
JP7321787B2 (ja
Inventor
乘 西山
Nori Nishiyama
乘 西山
剛仁 寺口
Takehito Teraguchi
剛仁 寺口
井上 裕史
Yasushi Inoue
裕史 井上
雄宇 志小田
Yuu Shioda
雄宇 志小田
翔太 大久保
Shota Okubo
翔太 大久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2019113317A priority Critical patent/JP7321787B2/ja
Publication of JP2020204984A publication Critical patent/JP2020204984A/ja
Application granted granted Critical
Publication of JP7321787B2 publication Critical patent/JP7321787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】車両に乗車するユーザの安全を確保しつつ、リアリティのある仮想現実映像を表示することができる情報処理装置及び情報処理方法を提供する。【解決手段】情報処理装置100は、複数の仮想第1オブジェクトの映像が表示されるARゴーグル10と、車両の外部又は内部に実在する第2オブジェクトを検出する第2オブジェクト検出部20と、第2オブジェクトに対するユーザの視認性に影響を与えるエリアを視認性確保エリアとして特定する視認性確保エリア特定部30と、視認性確保エリアにおいて第1オブジェクトの映像の表示態様を制御する表示制御部40とを備える。【選択図】図2

Description

本発明は、仮想のオブジェクトの映像の表示態様を制御する情報処理装置及び情報処理方法に関するものである。
特許文献1には、車両のフロントガラス又はホログラム積層体に情報を投影する情報処理装置が記載されている。車両のフロントガラス等に映像を投影する場合、運転の安全を確保するために、映像の透過率を高くする必要があった。
特開平9−222583号公報
しかしながら、特許文献1の情報処理装置では、安全性の確保のために映像の透過率を高くしてしまうと、仮想現実としてのリアリティが損なわれてしまうおそれがある。
本発明が解決しようとする課題は、車両に乗車するユーザの安全を確保しつつ、リアリティのある仮想現実映像を表示することができる情報処理装置及び情報処理方法を提供することである。
本発明は、視認性確保エリアを特定し、視認性確保エリアにおける第2オブジェクトに対するユーザの視認性が維持されるように、第1オブジェクト表示部に表示される仮想の第1オブジェクトの映像の表示態様を制御することによって上記課題を解決する。
本発明によれば、視認性確保エリアでのみ仮想の第1オブジェクトの映像の表示態様を制御するので、車両に乗車するユーザの安全を確保しつつ、リアリティのある仮想現実映像を表示することができるという効果を奏する。
ユーザと、第1オブジェクトと、第2オブジェクトとの関係を示す図である。 本発明の実施の形態に係る情報処理装置の構成を示すブロック図である。 図1に示す例で、第1オブジェクトの映像が第2オブジェクトに重畳して表示された状態を示す図である。 図3Aに示す場合に、図2に示す情報処理装置を用いて、第1オブジェクトの映像の表示態様を変更した状態を示す図である。 図2に示す情報処理装置を用いて第1オブジェクトの映像を表示する方法を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
図1に示す例では、ARゴーグル10を装着したユーザ5が車両3に乗車している。ユーザ5は車両3の運転を行うドライバーである。ユーザ5はARゴーグル10を介して仮想の第1オブジェクト1a,1bを視認する。第1オブジェクト1a,1bの映像は、車両3の速度情報、周辺情報、渋滞情報、ナビ画面、ルートガイダンスの矢印、アバター等、ユーザ5の運転操作を補助するための情報を含む仮想現実映像である。また、車両3の前方には、第2オブジェクト2としての信号機が設置されている。
なお、図1に示す第1オブジェクト1a,1bの位置及び大きさは、ユーザ5の視点位置5aから見た仮想的な位置及び大きさである。
図2に示すように、ARゴーグル10に第1オブジェクト1a,1bの映像を表示するための情報処理装置100は、第2オブジェクト検出部20、視認性確保エリア特定部30、表示制御部40及び第1オブジェクト表示部としてのARゴーグル10を有している。情報処理装置100を構成するCPUは、第2オブジェクト検出部20、視認性確保エリア特定部30及び表示制御部40の各々の機能を発揮するためのプログラムを実行する。なお、第1オブジェクト表示部は、ユーザ5が装着可能なウェアラブル装置であればよく、ARゴーグル10に限定されず、HMD(ヘッドマウントディスプレイ)であってもよい。
ここで、図1に示す例において、情報処理装置100の第2オブジェクト検出部20は、車両3の外部の信号機、すなわち、実在する第2オブジェクト2を検出する。第2オブジェクト2は、ユーザ5の運転の安全の確保のために視認が必要な車外又は車内のオブジェクトである。すなわち、第2オブジェクト2は、車両3の運転操作を行うために必要な情報を含むオブジェクト、または、車両3の運転操作を行うための操作オブジェクトである。第2オブジェクト検出部20は、カメラ等の車載センサ又はARゴーグル10に搭載されたカメラを備える。すなわち、第2オブジェクト検出部20は、信号機を画像認識してメモリに格納されたデータと照合し、第2オブジェクト2として検出する。また、第2オブジェクト検出部20は、GPSを有しており、地図データを照合して信号機の座標位置を把握することで、第2オブジェクト2としての信号機を検出することもできる。
そして、視認性確保エリア特定部30は、第2オブジェクト検出部20によって検出された第2オブジェクト2の位置に応じて視認性確保エリア21を特定する。図1に示すように、視認性確保エリア21は、第2オブジェクト2の周辺領域を底面とし、かつ、ユーザ5の視点位置5aを頂点とした錐形状の三次元エリアである。視認性確保エリア21は、第2オブジェクト2に対するユーザ5の視認性に影響を与えるエリアである。なお、第2オブジェクト検出部20の検出誤差を考慮して、視認性確保エリア21の錐形状の底面の領域は、実際の第2オブジェクト2のサイズよりも大きく設定される。
また、視認性確保エリア特定部30は、視認性確保エリア21を第2オブジェクト2の位置とユーザ5の視点位置5aとに基づいて設定する。さらに、図2に示すように、視認性確保エリア特定部30は、ユーザ5の頭部の位置及び向きに基づいてユーザ5の視点位置5aを検出する視点検出部31を有する。視点検出部31は、例えば、車両3の内部に設置されたカメラ又はARゴーグル10に取り付けられたセンサである。また、視認性確保エリア21の位置及び大きさは、ARゴーグル10の位置又は大きさに応じて変わる。なお、視認性確保エリア21は、ARゴーグル10の画面上で、ユーザ5の視点から見た所定の二次元エリアに変換される。すなわち、視認性確保エリア21は、第1オブジェクト表示部であるARゴーグル10における表示領域において設定される。
また、視認性確保エリア特定部30の視点検出部31は、ユーザ5の頭部に限らず、ユーザ5の上体の少なくとも一部の位置及び向きに基づいてユーザ5の視点位置5aを検出してもよい。
表示制御部40は、ARゴーグル10に表示される第1オブジェクト1a,1bの映像の表示態様を制御する。具体的には、図3Aに示すユーザ5の視界6において、第1オブジェクト1aの映像は第2オブジェクト2に重畳して配置されている。このような場合、表示制御部40は、図3Bに示すように、第1オブジェクト1aの映像の一部を消し込み、視認性確保エリア21において第2オブジェクト2に対するユーザ5の視認性が維持されるようにする。
次に、情報処理装置100による第1オブジェクト1a,1bの表示方法について、図4を用いて、より詳細に説明する。
図4に示すように、ステップS1において、情報処理装置100は、ARゴーグル10に表示されるべき仮想の第1オブジェクト1a,1bが有るか否かを判定する。第1オブジェクトが無い場合は、情報処理装置100は制御を終了する。
一方、ARゴーグル10に表示されるべき第1オブジェクト1a,1bが有る場合、制御は、ステップS2に移る。ステップS2において、情報処理装置100は、第2オブジェクト検出部20が車両3の外部の第2オブジェクト2を検出したか否かを判定する。車両3の外部に第2オブジェクト2を検出されなかった場合、制御はステップS4に移る。また、車両3の外部に第2オブジェクト2を検出された場合、制御はステップS3に移る。なお、車両3の外部の第2オブジェクト2は、ユーザ5の運転の安全のために視認が必要な実在のオブジェクトであり、例えば、交通標識、道路標識、信号機、歩行者、障害物又は道路上のマーカである。
ステップS3において、情報処理装置100の視認性確保エリア特定部30は、車両3の外部の第2オブジェクト2に対応して第1視認性確保エリアを特定する。情報処理装置100の視認性確保エリア特定部30は、第2オブジェクト2の位置及び大きさを、ユーザ5の視点位置5aを基準にした座標に変換し、第1視認性確保エリアを特定する。
次に、ステップS4において、情報処理装置100の視認性確保エリア特定部30は、車両3の内部の第2オブジェクト2に対応して第2視認性確保エリアを特定する。なお、情報処理装置100の第2オブジェクト検出部20は、予め記憶された第2オブジェクト2のCADデータを参照して、車両3の内部の第2オブジェクト2を検出する。すなわち、視認性確保エリア特定部30は、ユーザ5の視点位置5aと、予め記憶された車内の第2オブジェクト2のCADデータの位置及び大きさとに基づいて、第2視認性確保エリアを特定する。
ここで、車両3の内部の第2オブジェクト2は、車両3の外部の第2オブジェクト2と同様、ユーザ5の運転の安全のために視認が必要な実在のオブジェクトである。具体的には、車両3の内部の第2オブジェクト2は、運転操作に使用される操作部又は運転操作を補助する補助部である。ここで、操作部とは、例えば、ハンドル、ブレーキ、シフトレバー又はアクセルである。また、補助部とは、例えば、ミラー、メータ又はナビゲーション機器である。また、窓開閉スイッチ、エアコン制御操作部等も第2オブジェクト2として検出される。
なお、車両3の内部の第2オブジェクト2がハンドル等、設置位置の調整機構を有するものである場合には、第2オブジェクト2の位置の変化量が車内センサによって計測される。そして、視認性確保エリア特定部30は、予め記憶された第2オブジェクト2の基準位置に、計測された変化量を加算することによって、第2オブジェクト2の正確な位置に応じた第2視認性確保エリアを特定する。
次に、ステップS5において、情報処理装置100は、第1オブジェクト1a,1bの映像を予め決められた所定の位置に表示した場合、第1オブジェクト1a,1bの映像と第1視認性確保エリア又は第2視認性確保エリアとが干渉するか否かを判定する。第1オブジェクト1a,1bの映像と第1視認性確保エリア又は第2視認性確保エリアとが干渉しない場合、制御はステップS7に移り、情報処理装置100は、第1オブジェクト1a,1bの映像を、表示態様を変更することなく、所定の位置に表示する。
図3Aに示すように、第1オブジェクト1a,1bと第1視認性確保エリア又は第2視認性確保エリアとが干渉する場合、情報処理装置100の表示制御部40は、ステップS6において、第1オブジェクト1a,1bの映像の表示態様を変更する。具体的には、情報処理装置100の表示制御部40は、第1視認性確保エリア又は第2視認性確保エリアに第1オブジェクト1a,1bの映像が表示されないように、第1オブジェクト1a,1bの位置を移動させたり、第1オブジェクト1a,1bを変形させたりする。または、第1オブジェクト1a,1bの映像が第1視認性確保エリア又は第2視認性確保エリアに重畳しないように、図3Bに示すように、表示制御部40は、第1オブジェクト1a,1bの映像の少なくとも一部を消し込む。または、表示制御部40は、第1視認性確保エリア又は第2視認性確保エリアに重畳して表示される第1オブジェクト1a,1bの映像の少なくとも一部の透過率が所定値以上になるように、第1オブジェクト1a,1bの映像の表示態様を制御する。なお、「所定値以上の透過率」とは、第1オブジェクト1a,1bの映像が第2オブジェクト2に重畳していた場合であってもユーザ5が充分に第2オブジェクト2を視認することができる程度に高い透過率をいう。
以上より、この実施の形態の情報処理装置100の視認性確保エリア特定部30は、実在の第2オブジェクト2に対するユーザ5の視認性に影響を与えるエリアを視認性確保エリア21として特定する。そして、情報処理装置100の表示制御部40は、視認性確保エリア21において第2オブジェクト2に対するユーザ5の視認性が維持されるように、第1オブジェクト表示部としてのARゴーグル10に表示される第1オブジェクト1a,1bの映像の表示態様を制御する。これにより、視認性確保エリア21以外の領域では、仮想の第1オブジェクト1a,1bの映像の透過率を上げる必要がない。一方、表示制御部40は、視認性確保エリア21においてのみ第1オブジェクト1a,1bの映像の表示態様を変更して、第2オブジェクト2に対するユーザ5の視認性を維持することができる。これにより、情報処理装置100は、ユーザ5の運転の安全を確保しつつ、リアリティのある仮想現実映像としての第1オブジェクト1a,1bの映像をARゴーグル10に表示することができる。
また、表示制御部40は、視認性確保エリア21には第1オブジェクト1a,1bの映像が表示されないように、視認性確保エリア21に重畳して表示される第1オブジェクト1a,1bの映像の少なくとも一部を消し込む。これにより、情報処理装置100は、第2オブジェクト2に対するユーザ5の視認性を維持することができ、ユーザ5の運転の安全を確保することできる。また、その一方で、情報処理装置100は、視認性確保エリア21以外の領域では第1オブジェクト1a,1bのリアリティが損なわれないように、第1オブジェクト1a,1bの映像をARゴーグル10に表示することができる。
また、表示制御部40は、視認性確保エリア21には第1オブジェクト1a,1bの映像が表示されないように、視認性確保エリア21に重畳する第1オブジェクト1a,1bの映像の位置を移動させたり、変形したりして、表示態様を変更することができる。これにより、第1オブジェクト1a,1bのリアリティを損なうことなく、より確実にユーザ5の運転の安全を確保することができる。
また、表示制御部40は、視認性確保エリア21に重畳して表示される第1オブジェクト1a,1bの映像の少なくとも一部の透過率が所定値以上になるように、第1オブジェクト1a,1bの映像の表示態様を制御することもできる。ここで、第1オブジェクト1a,1bがルートガイダンスの矢印等、位置情報が重要となるオブジェクトである場合は、第1オブジェクト1a,1bの映像を移動させたり、変形したり、消し込んだりするよりも、透過率を上げる方がより好ましい。これにより、ユーザ5の運転の安全が確保される一方で、ユーザ5は、第1オブジェクト1a,1bの位置及びガイドの方向を確実に把握することができる。
また、視認性確保エリア21は、第1オブジェクト表示部であるARゴーグル10における表示領域において設定される。これにより、表示制御部40は、より適切に、ARゴーグル10に表示される第1オブジェクト1a,1bの映像の表示態様を制御することができる。
また、視認性確保エリア特定部30は、視認性確保エリア21を第2オブジェクト2の位置とユーザ5の視点位置5aとに基づいて特定する。また、視認性確保エリア特定部30は、ユーザ5の上体の少なくとも一部の位置及び向きに基づいてユーザ5の視点位置5aを検出する視点検出部31を有する。これによって、視認性確保エリア特定部30は、ユーザ5の視点位置5aに応じて、より適切な視認性確保エリア21を特定することができる。
また、視認性確保エリア21の位置及び大きさは、ARゴーグル10等の第1オブジェクト表示部の位置又は大きさに応じて変わる。これにより、視認性確保エリア特定部30は、第1オブジェクト表示部との関係に応じて、より適切な視認性確保エリア21を特定することができる。
さらに、車両3の内部に存在する第2オブジェクト2は、車両3の内部に設けられたハンドル、ブレーキ、アクセル又はミラーのうち少なくともいずれか1つを含むが、これに限らず、運転者により車両の運転操作に必要とされる手段を示す操作オブジェクトであればよい。また、車両3の外部に存在する第2オブジェクト2は、車両3の外部に設けられた交通標識、道路標識又は信号機のうち少なくともいずれか1つを含むが、これに限らず、車両の運転操作の判断に必要とされる情報を示すオブジェクトであればよい。これにより、運転に必要とされるオブジェクトが確実に第2オブジェクト2として検出されるため、ユーザ5は仮想の第1オブジェクト1a,1bを見ながら、第2オブジェクト2を確認することができ、ユーザ5の運転の安全が維持される。
また、第1オブジェクト1a,1bの映像は、ユーザ5の運転操作を補助するための情報を含む映像である。これにより、ユーザ5は運転操作の判断に必要な情報を確実に取得することができる。
また、この実施の形態では、第1オブジェクト表示部は、ユーザ5が装着可能なウェアラブル装置であるが、これに限定されず、車両3の内部に設置されるAR−HUD(仮想現実ヘッドアップディスプレイ)等の透過型ディスプレイであってもよい。また、第1オブジェクト表示部は、フロントガラスであってもよい。なお、第1オブジェクト表示部が透過型ディスプレイ又はフロントガラスである場合も、視認性確保エリア21の位置及び大きさは、第1オブジェクト表示部の位置又は大きさに応じて変わる。
なお、表示制御部40は、視認性確保エリア21に重畳する第1オブジェクト1a,1bを輪郭のみ表示してもよい。
また、第2オブジェクト2の色情報に重要性がある場合、表示制御部40は、第1オブジェクト1a,1bの色が第2オブジェクト2の色と同じ色相にならないように、第1オブジェクト1a,1bの色を編集してもよい。具体的には、第2オブジェクト2としての信号機の信号が赤である時に、表示制御部40は、第1オブジェクト1a,1bの色を暖色系以外の色に変更し、信号機の色情報をより目立たせることができる。
また、表示制御部40は、第1オブジェクト1a,1bに含まれる情報の重要性が低い場合は、視認性確保エリア21に重畳する第1オブジェクト1a,1bの映像の表示をキャンセルしてもよい。
100…情報処理装置
1a,1b…第1オブジェクト
2…第2オブジェクト
3…車両
5…ユーザ
5a…ユーザの視点位置
10…ARゴーグル(第1オブジェクト表示部)
20…第2オブジェクト検出部
21…視認性確保エリア
30…視認性確保エリア特定部
31…視点検出部
40…表示制御部

Claims (15)

  1. 車両に乗車しているユーザに視認可能な仮想の第1オブジェクトの映像が表示される第1オブジェクト表示部と、
    前記車両の外部又は内部に実在する第2オブジェクトを検出する第2オブジェクト検出部と、
    前記ユーザが前記第2オブジェクトを見た時に、前記第2オブジェクトに対する前記ユーザの視認性に影響を与えるエリアを視認性確保エリアとして特定する視認性確保エリア特定部と、
    前記視認性確保エリアにおいて前記第2オブジェクトに対する前記ユーザの視認性が維持されるように、前記第1オブジェクト表示部に表示される前記第1オブジェクトの映像の表示態様を制御する表示制御部とを備える、情報処理装置。
  2. 前記表示制御部は、前記視認性確保エリアには前記第1オブジェクトの映像が表示されないように前記第1オブジェクトの映像の表示態様を制御する、請求項1に記載の情報処理装置。
  3. 前記視認性確保エリアに前記第1オブジェクトの映像が重畳すると判断された場合、前記表示制御部は、前記第1オブジェクトの映像が前記視認性確保エリアに重畳しないように、前記第1オブジェクトの映像の位置を移動させるか、前記第1オブジェクトの映像を変形させるか、又は、前記第1オブジェクトの映像の少なくとも一部を消し込むように前記第1オブジェクトの映像の表示態様を制御する、請求項2に記載の情報処理装置。
  4. 前記視認性確保エリアは、前記第1オブジェクト表示部における表示領域において設定される、請求項1に記載の情報処理装置。
  5. 前記第2オブジェクトは、前記車両の運転操作を行うために必要な情報を含むオブジェクト、または、前記車両の運転操作を行うための操作オブジェクトである、請求項1に記載の情報処理装置。
  6. 前記表示制御部は、前記視認性確保エリアに重畳して表示される第1オブジェクトの映像の少なくとも一部の透過率が所定値以上になるように、前記第1オブジェクトの映像の表示態様を制御する、請求項1に記載の情報処理装置。
  7. 前記第1オブジェクト表示部は、前記ユーザが装着可能なウェアラブル装置である、請求項1〜6のいずれか一項に記載の情報処理装置。
  8. 前記第1オブジェクト表示部は、前記車両の内部に設置される透過型ディスプレイである、請求項1〜6のいずれか一項に記載の情報処理装置。
  9. 前記視認性確保エリア特定部は、前記視認性確保エリアを前記第2オブジェクトの位置と前記ユーザの視点位置とに基づいて特定する、請求項1〜8のいずれか一項に記載の情報処理装置。
  10. 前記視認性確保エリア特定部は、前記ユーザの上体の少なくとも一部の位置及び向きに基づいて前記ユーザの視点位置を検出する視点検出部を有する、請求項9に記載の情報処理装置。
  11. 前記視認性確保エリアの位置及び大きさは、前記第1オブジェクト表示部の位置又は大きさに応じて変わる、請求項1〜10のいずれか一項に記載の情報処理装置。
  12. 前記第2オブジェクトは、前記車両の内部に設けられたハンドル、ブレーキ、アクセル又はミラーのうち少なくともいずれか1つを含む、請求項1〜11のいずれか一項に記載の情報処理装置。
  13. 前記第2オブジェクトは、前記車両の外部に設けられた交通標識、道路標識又は信号機のうち少なくともいずれか1つを含む、請求項1〜11のいずれか一項に記載の情報処理装置。
  14. 前記第1オブジェクトの映像は、前記ユーザの運転操作を補助するための情報を含む映像である、請求項1〜13のいずれか一項に記載の情報処理装置。
  15. 車両に乗車しているユーザに対して、仮想の第1オブジェクトの映像を視認可能に表示するための情報処理方法であって、
    車両の外部又は内部に存在する第2オブジェクトを検出し、
    前記ユーザが前記第2オブジェクトを見た時に、前記第2オブジェクトに対する前記ユーザの視認性に影響を与えるエリアを視認性確保エリアとして特定し、
    前記視認性確保エリアにおいて前記第2オブジェクトに対する前記ユーザの視認性が維持されるように、前記第1オブジェクトの映像の表示態様を制御する、情報処理方法。
JP2019113317A 2019-06-19 2019-06-19 情報処理装置及び情報処理方法 Active JP7321787B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019113317A JP7321787B2 (ja) 2019-06-19 2019-06-19 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019113317A JP7321787B2 (ja) 2019-06-19 2019-06-19 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2020204984A true JP2020204984A (ja) 2020-12-24
JP7321787B2 JP7321787B2 (ja) 2023-08-07

Family

ID=73837319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019113317A Active JP7321787B2 (ja) 2019-06-19 2019-06-19 情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7321787B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276849A (ja) * 2008-05-12 2009-11-26 Toyota Motor Corp 運転者撮像装置および運転者撮像方法
WO2011105087A1 (ja) * 2010-02-26 2011-09-01 株式会社カプコン コンピュータ装置、記録媒体、及び制御方法
JP2014185926A (ja) * 2013-03-22 2014-10-02 Aisin Aw Co Ltd 誘導表示システム
JP2015127937A (ja) * 2013-11-29 2015-07-09 富士通株式会社 運転支援装置、方法、及びプログラム
JP2018005005A (ja) * 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009276849A (ja) * 2008-05-12 2009-11-26 Toyota Motor Corp 運転者撮像装置および運転者撮像方法
WO2011105087A1 (ja) * 2010-02-26 2011-09-01 株式会社カプコン コンピュータ装置、記録媒体、及び制御方法
JP2014185926A (ja) * 2013-03-22 2014-10-02 Aisin Aw Co Ltd 誘導表示システム
JP2015127937A (ja) * 2013-11-29 2015-07-09 富士通株式会社 運転支援装置、方法、及びプログラム
JP2018005005A (ja) * 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP7321787B2 (ja) 2023-08-07

Similar Documents

Publication Publication Date Title
US11840251B2 (en) Image processing device
CN109484299B (zh) 控制增强现实显示装置的显示的方法、装置、存储介质
US7605773B2 (en) Head-up display system and method for carrying out the location-correct display of an object situated outside a vehicle with regard to the position of the driver
EP2936240B1 (en) Infotainment system
US9443429B2 (en) Optimum gaze location on full windscreen display
US11486726B2 (en) Overlaying additional information on a display unit
WO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
JP6459205B2 (ja) 車両用表示システム
US11993145B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented reality display device for a motor vehicle
JP2006501443A (ja) 車両に対してナビゲーション情報を表示する方法及び装置
EP2455927A1 (en) Driving support device, driving support method, and program
CN109968977B (zh) 显示系统
JP6558770B2 (ja) 投射表示装置、投射表示方法および投射表示プログラム
US20240059309A1 (en) Image processing device
US11325470B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
CN109788243B (zh) 识别和可视化地呈现显示增强图像内容时的系统不可靠性
US11100718B2 (en) Method for operating a display device in a motor vehicle
JP2005069800A (ja) 車両用表示装置
JP6328366B2 (ja) ヘッドアップディスプレイの表示制御装置および表示制御方法
CN108725321A (zh) 信息提示装置
JP2020204984A (ja) 情報処理装置及び情報処理方法
CN114537277A (zh) 用于显示虚拟元素的方法
JP2005201635A (ja) 車両用ナビゲーションシステム
US11941173B2 (en) Image display system
WO2015186326A1 (ja) 車載ナビゲーション装置及び経路誘導案内表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230726

R150 Certificate of patent or registration of utility model

Ref document number: 7321787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150