JP7278829B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP7278829B2
JP7278829B2 JP2019059641A JP2019059641A JP7278829B2 JP 7278829 B2 JP7278829 B2 JP 7278829B2 JP 2019059641 A JP2019059641 A JP 2019059641A JP 2019059641 A JP2019059641 A JP 2019059641A JP 7278829 B2 JP7278829 B2 JP 7278829B2
Authority
JP
Japan
Prior art keywords
vehicle
augmented reality
area
image
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019059641A
Other languages
English (en)
Other versions
JP2020161988A (ja
Inventor
剛仁 寺口
裕史 井上
乘 西山
翔太 大久保
雄宇 志小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019059641A priority Critical patent/JP7278829B2/ja
Publication of JP2020161988A publication Critical patent/JP2020161988A/ja
Application granted granted Critical
Publication of JP7278829B2 publication Critical patent/JP7278829B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、車両で用いられる情報処理装置及び情報処理方法に関するものである。
車両の運転中、ドライバの視界の範囲では周辺の状況の全てを視認することができず、死角となってしまうエリアがある。ドライバの視界を補助する自動車用情報表示装置としては、ドライバが装着するゴーグルに、死角エリアの情報を含む文字情報を表示するものがあった(特許文献1)。
特開平7-294842号公報
しかしながら、特許文献1の自動車用情報表示装置は、文字情報のみを画面上の所定の位置に表示するものなので、ドライバが車両の周辺の状況を直感的に把握し難いという問題があった。
本発明が解決しようとする課題は、最小限の視線移動で、ドライバが車両の周囲の状況を直感的に把握することができる情報処理装置及び情報処理方法を提供することである。
本発明は、車両の周囲に存在するオブジェクトのイメージを、車両がバック駐車又は縦列駐車を行っているときは、拡張現実映像の上側、右側及び左側に配置し、車両が前進しているときは、拡張現実映像の右側及び左側に配置して、ドライバが視認可能な拡張現実映像を生成することによって上記課題を解決する。
本発明によれば、ドライバが車両の周囲のオブジェクトのイメージを拡張現実映像として視認することができるので、最小限の視線移動で、ドライバが車両の周囲の状況を直感的に把握することができるという効果を奏する。
この発明の実施の形態に係る情報処理装置の構成を示すブロック図である。 図1に示す情報処理装置による仮想エリアの設定の例及び車両の周辺に存在するオブジェクトの例を示す図である。 図2Aに示す状況において、ドライバの装着するHMDのモニターに表示される拡張現実映像の例を示す図である。 図1に示す情報処理装置による情報処理方法を示すフローチャートである。
以下、本発明の実施形態を図面に基づいて説明する。
図1に示すように、車両101には、ドライバ1が乗車している。ドライバ1は車両101を運転しながら、AR(拡張現実)システムに使用されるHMD(ヘッドマウントディスプレイ)20を装着している。車両101は、HMD20に拡張現実映像を表示するために各種の情報を処理する情報処理装置100を有している。
情報処理装置100は、車両101から運転状態情報を取得する車両状態入力部10を有している。車両状態入力部10は、舵角センサ11、ペダルセンサ12及びトランスミッションセンサ13を含む。舵角センサ11は、ハンドルの舵角を検知する。ペダルセンサ12は、アクセルペダル及びブレーキペダルの踏み込み状態を検知する。トランスミッションセンサ13は、変速機の入力ポジション(前進、後退又は中立)を検知する。これにより、車両状態入力部10は、車両101の進行方向を示す情報、車両101の前進又は後進を示す情報及び車両101が運転状態にあることを示す情報を取得することができる。
なお、車両101の進行方向を示す情報とは、車両101が方角的にどの程度の角度で進んでいるかを示す情報である。
また、情報処理装置100には、HMD20も含まれる。HMD20は、視界方向検知部30及び表示部40を有する。視界方向検知部30は、ドライバ1の頭部又は視線の向きを検知するためのカメラ31、加速度センサ32及びジャイロセンサ33を有する。視界方向検知部30は、ドライバ1の頭部又は視線の向きに基づいて、ドライバ1の視界方向を検出する。表示部40は、ドライバ1に視覚情報を提供するモニター41と、ドライバ1に音声情報を提供するスピーカー42とを有する。
さらに、情報処理装置100は、通信部50を有する。通信部50は、道路交通情報及び天候情報等を取得するのに用いられる。
また、情報処理装置100は、オブジェクト情報入力部60を有する。オブジェクト情報入力部60は、カメラ61、超音波センサ62、レーダ63及びGPS64を有する。オブジェクト情報入力部60は、カメラ61、超音波センサ62、レーダ63及びGPS64を用いて、車両101の周囲のオブジェクト70に関するオブジェクトデータを取得する。カメラ61は、車両101の前後左右に、各々、外向きに取り付けられている。超音波センサ62及びレーダ63は、車両101の周辺に存在するオブジェクト70の位置を検知する。GPS64は、道路における車両101の自己位置を測定する。
なお、オブジェクト70は、例えば、歩行者、他車両、自転車又は障害物等である。障害物には、ガードレール、トンネル内壁、建物の壁、電柱又は料金所等が含まれる。
また、情報処理装置100は、コントローラ80を有する。コントローラ80は、車両状態入力部10によって取得された運転状態情報と、視界方向検知部30によって検知された視界方向とに応じて、車両101の周囲に複数の仮想エリアを設定する。また、コントローラ80は、オブジェクト情報入力部60から、オブジェクト70に関するオブジェクトデータを、複数の仮想エリアの各々について取得する。コントローラ80は、オブジェクトデータに基づき、車両101に対するオブジェクト70の相対位置及び相対速度を算出するとともに、オブジェクト70の危険度を算出する。なお、本実施形態の危険度とは、車両101とオブジェクト70との衝突の可能性をいう。オブジェクト70の危険度は、通信部50から取得した道路交通情報及び天候情報によって調整される。具体的には、雨天時には、オブジェクト70の危険度は晴天時よりも高めに算出される。さらに、コントローラ80は、複数の仮想エリアの各々に存在するオブジェクト70のイメージを、対応する仮想エリア毎に各々異なる領域に表示されるように配置して、拡張現実映像90を生成する。コントローラ80によって生成された拡張現実映像90は、ドライバ1が視認可能となるように、表示部40のモニター41に表示される。
コントローラ80は、エリア設定部及び出力部を構成する。
次に、情報処理装置100のコントローラ80によって生成される拡張現実映像90の例について、図2A,2Bを用いて説明する。なお、図2Aにおいて、図面上における上側が車両101の前進方向であり、図面上における下側が車両101の後進方向である。また、図2Aに示す状況では、ドライバ1は、後ろを振り返って車両101の後進方向を確認しながらバック駐車を行っている。従って、車両101は後進しており、ドライバ1の視界方向Dは、車両101の後進方向と一致する。
図2Aに示すように、コントローラ80は、車両101の周辺に3つの仮想エリアを設定する。仮想エリアは、ドライバ1の視界方向Dに対する後側、すなわち車両101の前進方向に位置する後側領域Bと、視界方向Dに対して右側に位置する右側領域Rと、視界方向Dに対して左側に位置する左側領域Lとからなる。また、後側領域B、右側領域R及び左側領域Lは、ドライバ1の視域Fよりも外側の領域、すなわち、ドライバ1の死角エリア内に設定される。
図2Aに示す例では、ドライバ1の視界方向Dには、駐車中の他車両71及び三角コーン74が存在している。また、左側領域Lには、前進して走行する他車両72が通過中である。また、後側領域Bでは、歩行者73が車両101の前進方向を横切っている。なお、右側領域Rにはオブジェクトは存在しない。
図2Bは、図2Aに示す状況において、ドライバ1が装着するHMD20のモニター41に表示される拡張現実映像90を示している。拡張現実映像90の左側には、左側ワイプ窓91が表示される。拡張現実映像90の右側には、右側ワイプ窓93が表示される。さらに、拡張現実映像90の正面上側には、上側ワイプ窓92が表示される。そして、左側ワイプ窓91の内側には、左側領域Lに存在する他車両72のイメージ72aが表示されている。また、上側ワイプ窓92には、後側領域Bに存在する歩行者73のイメージ73aが表示されている。
ここで、他車両72のイメージ72a及び歩行者73のイメージ73aは、オブジェクト情報入力部60のカメラ61によって撮像される映像に基づいて生成される。なお、ドライバ1の視界方向Dが、車両101の前後左右に取り付けられた各カメラ61の撮像方向と一致しない場合は、ライトフィールドレンダリングなどの中間視点画像生成技術を利用して、各カメラ61同士の中間映像が生成される。また、他車両72のイメージ72a及び歩行者73のイメージ73aは、反転して表示される。
また、他車両72の危険度が高いと判断される時は、左側ワイプ窓91は、点滅して表示されるか、又は、破線に示すように拡大されて表示される。また、同様に、歩行者73の危険度が高いと判断される時は、上側ワイプ窓92は、点滅して表示されるか、又は、破線に示すように拡大されて表示される。なお、右側領域Rにはオブジェクトが存在しないため、右側ワイプ窓93の内側にはオブジェクトのイメージは表示されない。また、拡張現実映像90は、ドライバ1が直接的に視認している風景に重畳して表示される。そのため、ドライバ1は、左側ワイプ窓91,上側ワイプ窓92及び右側ワイプ窓93の各々の内側に表示された映像を視認するとともに、視域Fに存在する他車両71及び三角コーン74も直接視認している。なお、左側ワイプ窓91,上側ワイプ窓92及び右側ワイプ窓93の各々の内側の映像は透過表示となっているため、図2Bに示すように、他車両71に右側ワイプ窓93が重なった場合でも、ドライバ1は他車両71を視認することができる。
次に、図3を用いて、情報処理装置100のコントローラ80による情報処理方法について、説明する。
まず、ドライバ1が、HMD20を装着してARシステムの利用を開始する。そして、ステップS1において、コントローラ80は、車両状態入力部10から取得した情報に基づいて、車両101がバック駐車又は縦列駐車を行っているか否かを判定する。車両101がバック駐車又は縦列駐車を行っている時、ドライバ1は、頻繁に顔又は視線を動かして周囲を確認しなければならない運転状態にある。そのため、コントローラ80は、視界方向検知部30によって検出されたドライバ1の顔又は視線の向きに基づき、ドライバ1が頻繁に後方を確認していると判断された場合に、車両101は、バック駐車又は縦列駐車を行っていると判定してもよい。
ステップS1において、車両101がバック駐車又は縦列駐車を行っていると判断された場合、制御は、ステップS2に移る。ステップS2において、コントローラ80は、後側領域B、左側領域L及び右側領域Rの各々に存在するオブジェクト70の危険度が所定値以上であるか否かを判定する。なお、各々のオブジェクト70の危険度は、オブジェクト情報入力部60から取得した情報に基づき算出される。具体的には、コントローラ80は、仮に車両101がブレーキをかけずに直進したとする場合にオブジェクト70と衝突するまでにかかると推定される衝突推定時間を算出し、この衝突推定時間に基づいてオブジェクト70の危険度を求めることができる。
死角エリアに危険度の高いオブジェクトが存在しない場合、制御は、ステップS3に移る。ステップS3において、コントローラ80は、HMD20のモニター21に表示される左側ワイプ窓91、上側ワイプ窓92及び右側ワイプ窓93の各々が、予め設定された下限値に応じた最小の大きさであるか否かを判定する。そして、ステップS4において、左側ワイプ窓91、上側ワイプ窓92及び右側ワイプ窓93の少なくともいずれかが最小の大きさでない場合は、コントローラ80は、左側ワイプ窓91、上側ワイプ窓92及び右側ワイプ窓93の大きさを、最小になるまで縮小する。
一方、ステップS2において、死角エリアに危険度の高いオブジェクト70が存在すると判断された場合、制御は、ステップS5に移る。ステップS5において、コントローラ80は、危険度が高いオブジェクト70のイメージを強調表示して出力する。具体的には、オブジェクト70のイメージが表示されるワイプ窓の枠を点滅表示したり、オブジェクト70のイメージの周囲を目立つ色の四角い枠で囲うように表示したり、オブジェクト70のイメージの透過度を下げたりする。
次に、ステップS6において、危険度が高いオブジェクト70のイメージを強調表示した状態で、一定時間が経過したか否かが判定される。ステップS6で、一定時間が経過していると判断された場合は、ステップS7において、オブジェクト70の危険度が充分に低下したか否かが判定される。具体的には、車両101とオブジェクト70との衝突推定時間が所定の閾値以上になった場合に、オブジェクト70の危険度は充分に低下したと判断される。
ステップS6において、オブジェクト70の危険度が充分に低下したと判断された場合、制御はステップS3,S4に移り、各々のワイプ窓の大きさは縮小される。一方、ステップS6において、オブジェクト70の危険度が充分に低下していないと判断された場合、制御はステップS8に移る。ステップS8において、コントローラ80は、危険度が高いオブジェクト70が表示されるワイプ窓が、予め設定された上限値に応じた最大の大きさであるか否かを判定する。そして、危険度が高いオブジェクト70に対応するワイプ窓が最大の大きさでない場合、ステップS9において、コントローラ80は、該当するワイプ窓の大きさを拡大する。そして、制御は、ステップS7に戻り、オブジェクト70の危険度が充分に低下するか、又は、該当するワイプ窓の大きさが最大になるまで、コントローラ80は、ワイプ窓の大きさを拡大させ続ける。なお、コントローラ80は、ワイプ窓の大きさを拡大させるとともに、ワイプ窓の透過度を低下させてもよい。
ワイプ窓の大きさを最大まで拡大させた後、ステップS11において、オブジェクト70の危険度が充分に低下したと判断された場合は、コントローラ80は、ステップS11において、ワイプ窓の大きさ及び配置を標準状態に戻す。
そして、ステップS12において、ドライバ1がARシステムの利用を終了したと判断された場合は、コントローラ80は制御を終了する。
以上より、この実施の形態に係る情報処理装置100は、車両101の周囲のオブジェクト70のイメージを、対応する仮想エリア毎に各々異なる領域に表示されるように配置して、ドライバ1が視認可能な拡張現実映像90を生成する。これにより、ドライバ1が、車両101の周囲のオブジェクト70をイメージとして直感的に認識することができ、運転の安全性が向上する。また、複数のオブジェクト70は、拡張現実映像90にまとめて表示されるため、ドライバ1は最小限の視線移動で車両101の周囲の状況を把握することができる。
また、車両状態入力部10が取得する運転状態情報は、車両101の進行方向を示す情報、車両101の前進又は後進を示す情報及び車両101が運転状態にあることを示す情報のうちの少なくともいずれか1つを含む。これにより、情報処理装置100は、車両101がバック駐車又は縦列駐車等の特に注意を要する運転状態なのか、通常の前進状態なのかを認識することができる。従って、運転状態に応じて、より最適な表示形態で、オブジェクト70を拡張現実映像90に表示することができる。例えば、車両101が通常の道路を前進している場合は、真後ろには危険がそもそも少ないとして、左側領域L及び右側領域Rのみを仮想エリアをして設定し、拡張現実映像90には左側ワイプ窓91及び右側ワイプ窓93のみを表示させることができる。一方、車両101がバック駐車又は縦列駐車を行っている時は、図2Bに示すように、左側ワイプ窓91及び右側ワイプ窓93に加えて、後側領域Bに対応する上側ワイプ窓92を、拡張現実映像90に表示させる。
また、コントローラ80は、3つの仮想エリアである後側領域B、右側領域R及び左側領域Lを、ドライバ1の死角エリアに設定する。これにより、ドライバ1は、拡張現実映像90の左側ワイプ窓91、上側ワイプ窓92及び右側ワイプ窓93を介して、死角エリアにあるオブジェクト70を、最小限の視線移動で直感的に把握することができる。
また、仮想エリアが、後側領域B、右側領域R及び左側領域Lの3つの領域として設定されることにより、確認しなければならない仮想エリアの数が、ドライバ1が直感的に把握しやすい範囲の数となっている。また、3つの仮想エリアである後側領域B、右側領域R及び左側領域Lは、ドライバ1の視界方向Dに関して対称的に配置されているため、ドライバ1にとってはより直感的に把握しやすくなっている。
さらに、後側領域Bが上側ワイプ窓92に、右側領域Rが右側ワイプ窓93に、左側領域Lが左側ワイプ窓91に、各々配置されて表示されることにより、ドライバ1は、サイドミラー及びバックミラーを見る感覚で周囲のオブジェクト70を確認することができる。
また、図2Bに示すように、コントローラ80は、車両101の周囲のオブジェクト70を反転して、拡張現実映像90に反映する。これにより、ドライバ1は、ミラーを見る感覚で、より直感的に周囲のオブジェクト70を確認することができる。
また、拡張現実映像90に表示されるオブジェクト70は、車両101の周囲に存在する他車両、歩行者又は障害物であるため、ドライバ1は、特に注意すべきオブジェクト70のみ視認することができ、周囲の状況に配慮しながら、運転に集中することができる。
また、拡張現実映像90におけるオブジェクト70のイメージは、オブジェクト70の危険度に応じて、表示態様が変化する。特に、オブジェクト70の危険度が高い程、オブジェクト70のイメージは拡大して表示されるため、ドライバ1は、より効率的かつ直感的に、オブジェクト70の危険度を把握することができる。
また、表示部としてのHMD20は、ウェアラブル装置であるため、限られた車内空間で場所を取らずに、ドライバ1に視覚的な情報を提供することができる。
なお、この実施の形態において、コントローラ80は3つの仮想エリアを設定するが、これに限定されず、仮想エリアの数は複数であればよいものとする。また、この実施の形態において、コントローラ80が設定する仮想エリアは、ドライバ1の死角エリアの一部をカバーしているが、死角エリアを全方位的にカバーしていてもよい。また、仮想エリアは、ドライバ1の死角エリアを一部に含んでいればよく、ドライバ1の視域Fの一部と重なり合っていてもよい。
また、モニター41に表示されるオブジェクト70のイメージは、オブジェクト70の危険度に応じて表示態様が変化するが、これに加えて、オブジェクト70の危険度が特に高い場合にスピーカー42から警告音声を流してもよい。また、仮想音場を設定し、あたかもオブジェクト70から音が発せられているかのように、スピーカー42から流れる音声を調整してもよい。
また、表示部としてのウェアラブル装置は、HMD20に限定されず、ARグラスであってもよい。また、HMD20のモニター41に表示される映像は、拡張現実映像90に限定されず、ワイプ窓の外側の映像も全てCGで置き換えたVR(仮想現実)映像であってもよい。
また、車両状態入力部10は、舵角センサ11又はペダルセンサ12等の車載センサに限定されず、車内に設けられたカメラでもよい。すなわち、カメラによってドライバ1の姿勢を検出し、ドライバ1が背後を振り向いていることを検知した場合に、バック駐車を行っていることを検出してもよい。
上記のHMD20は、本発明に係る視界方向検知部及び表示部に相当する。上記のコントローラ80は、本発明に係るエリア設定部及び出力部に相当する。
100…情報処理装置
101…車両
1…ドライバ
10…車両状態入力部
20…HMD(視界方向検知部、表示部)
30…視界方向検知部
40…表示部
60…オブジェクト情報入力部
70…オブジェクト
80…コントローラ(エリア設定部、出力部)
90…拡張現実映像
D…視界方向
B…後側領域(仮想エリア)
R…右側領域(仮想エリア)
L…左側領域(仮想エリア)

Claims (9)

  1. 車両から運転状態情報を取得する車両状態入力部と、
    前記車両を運転するドライバの頭部又は視線の向きに基づいて前記ドライバの視界方向を検知する視界方向検知部と、
    前記車両の周囲のオブジェクトに関するオブジェクトデータを取得するオブジェクト情報入力部と、
    前記運転状態情報及び前記ドライバの前記視界方向に応じて、前記車両の周囲に複数の仮想エリアを設定するエリア設定部と、
    前記オブジェクトデータに基づいて、前記仮想エリア毎の前記オブジェクトのイメージを、各々異なる領域に表示されるように配置して、拡張現実映像を生成する出力部と、
    前記出力部によって生成された前記拡張現実映像を前記ドライバが視認可能となるように表示する表示部とを備え
    前記車両がバック駐車又は縦列駐車を行っているときは、
    前記エリア設定部は、前記ドライバの前記視界方向に対して後側に位置する後側領域と、前記視界方向に対して右側に位置する右側領域と、前記視界方向に対して左側に位置する左側領域とからなる3つの前記仮想エリアを設定し、
    前記出力部は、前記後側領域に対応するイメージを前記拡張現実映像の上側に配置し、前記右側領域に対応するイメージを前記拡張現実映像の右側に配置し、前記左側領域に対応するイメージを前記拡張現実映像の左側に配置して、前記拡張現実映像を生成し、
    前記車両が前進しているときは、
    前記エリア設定部は、前記右側領域と前記左側領域とからなる2つの前記仮想エリアを設定し、
    前記出力部は、前記右側領域に対応するイメージを前記拡張現実映像の右側に配置し、前記左側領域に対応するイメージを前記拡張現実映像の左側に配置して、前記拡張現実映像を生成する情報処理装置。
  2. 前記車両状態入力部が取得する前記運転状態情報は、前記車両の進行方向を示す情報、前記車両の前進又は後進を示す情報及び前記車両が運転状態にあることを示す情報のうちの少なくともいずれか1つを含む、請求項1に記載の情報処理装置。
  3. 前記エリア設定部は、前記複数の仮想エリアの各々を、前記ドライバの死角エリアを含むように設定する、請求項1又は2に記載の情報処理装置。
  4. 前記出力部は、前記オブジェクトのイメージを反転させて、前記拡張現実映像に反映する、請求項1~のいずれか一項に記載の情報処理装置。
  5. 前記オブジェクトは、前記車両の周囲に存在する他車両、歩行者又は障害物である、請求項1~のいずれか一項に記載の情報処理装置。
  6. 前記拡張現実映像における前記オブジェクトのイメージは、前記オブジェクトの危険度に応じて、表示態様が変化する、請求項1~のいずれか一項に記載の情報処理装置。
  7. 前記拡張現実映像における前記オブジェクトのイメージは、前記オブジェクトの危険度が高い程、拡大して表示される、請求項に記載の情報処理装置。
  8. 前記表示部は、ウェアラブル装置である、請求項1~のいずれか一項に記載の情報処理装置。
  9. 車両から運転状態情報を取得するステップと、
    前記車両を運転するドライバの頭部又は視線の向きに基づいて前記ドライバの視界方向を検知するステップと、
    前記車両の周囲のオブジェクトに関するオブジェクトデータを取得するステップと、
    前記運転状態情報及び前記ドライバの前記視界方向に応じて、前記車両の周囲に複数の仮想エリアを設定するステップと、
    前記オブジェクトデータに基づいて、前記仮想エリア毎の前記オブジェクトのイメージを、各々異なる領域に表示されるように配置して、拡張現実映像を生成するステップと、
    前記拡張現実映像を前記ドライバが視認可能となるように表示するステップとを備え
    前記車両がバック駐車又は縦列駐車を行っているときは、
    前記ドライバの前記視界方向に対して後側に位置する後側領域と、前記視界方向に対して右側に位置する右側領域と、前記視界方向に対して左側に位置する左側領域とからなる3つの前記仮想エリアを設定し、
    前記後側領域に対応するイメージを前記拡張現実映像の上側に配置し、前記右側領域に対応するイメージを前記拡張現実映像の右側に配置し、前記左側領域に対応するイメージを前記拡張現実映像の左側に配置して、前記拡張現実映像を生成し、
    前記車両が前進しているときは、
    前記右側領域と前記左側領域とからなる2つの前記仮想エリアを設定し、
    前記右側領域に対応するイメージを前記拡張現実映像の右側に配置し、前記左側領域に対応するイメージを前記拡張現実映像の左側に配置して、前記拡張現実映像を生成する、情報処理方法。
JP2019059641A 2019-03-27 2019-03-27 情報処理装置及び情報処理方法 Active JP7278829B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019059641A JP7278829B2 (ja) 2019-03-27 2019-03-27 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019059641A JP7278829B2 (ja) 2019-03-27 2019-03-27 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2020161988A JP2020161988A (ja) 2020-10-01
JP7278829B2 true JP7278829B2 (ja) 2023-05-22

Family

ID=72643706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019059641A Active JP7278829B2 (ja) 2019-03-27 2019-03-27 情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7278829B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040123A (ja) 2004-07-29 2006-02-09 Honda Motor Co Ltd 車両の認知支援装置
US20080278821A1 (en) 2007-05-09 2008-11-13 Harman Becker Automotive Systems Gmbh Head-mounted display system
WO2016088227A1 (ja) 2014-12-03 2016-06-09 日立マクセル株式会社 映像表示装置及び方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10206789A (ja) * 1997-01-22 1998-08-07 Honda Motor Co Ltd 車両用ヘッドマウントディスプレイ装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040123A (ja) 2004-07-29 2006-02-09 Honda Motor Co Ltd 車両の認知支援装置
US20080278821A1 (en) 2007-05-09 2008-11-13 Harman Becker Automotive Systems Gmbh Head-mounted display system
WO2016088227A1 (ja) 2014-12-03 2016-06-09 日立マクセル株式会社 映像表示装置及び方法

Also Published As

Publication number Publication date
JP2020161988A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
US8044781B2 (en) System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor
JP5099451B2 (ja) 車両周辺確認装置
JP4907883B2 (ja) 車両周辺画像表示装置および車両周辺画像表示方法
EP1916846B1 (en) Device and method for monitoring vehicle surroundings
JP5210994B2 (ja) 車両用画像表示装置
TW201726452A (zh) 車輛用影像顯示系統及搭載有該影像顯示系統之車輛
JP6307895B2 (ja) 車両用周辺監視装置
JP4872245B2 (ja) 歩行者認識装置
EP2216764A1 (en) Vehicle information display device
JP2004535971A (ja) ヘッドアップディスプレイシステム及び方法
JP6649914B2 (ja) 画像表示装置
JP2007074326A (ja) 運転支援装置
JP2010128794A (ja) 車両周辺認知支援装置
JP2010143250A (ja) 後方視認装置
KR102130059B1 (ko) 디지털 백미러 제어 유닛 및 방법
US10836311B2 (en) Information-presenting device
JP2016088187A (ja) 車両用透過表示装置
JP2010095202A (ja) ルームミラー位置後視カメラ画像表示装置
JP2007180622A (ja) 車両周囲監視装置
JP4986070B2 (ja) 車両用周囲監視装置
JP3884815B2 (ja) 車両用情報表示装置
KR101209796B1 (ko) 전경 투과 기능을 갖는 차량용 표시장치 및 이의 표시방법
JP2011155651A (ja) 車両周辺画像表示装置および車両周辺画像表示方法
JP7278829B2 (ja) 情報処理装置及び情報処理方法
JP2008162550A (ja) 外部環境表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7278829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150