JP2021149641A - 対象物提示装置及び対象物提示方法 - Google Patents

対象物提示装置及び対象物提示方法 Download PDF

Info

Publication number
JP2021149641A
JP2021149641A JP2020049863A JP2020049863A JP2021149641A JP 2021149641 A JP2021149641 A JP 2021149641A JP 2020049863 A JP2020049863 A JP 2020049863A JP 2020049863 A JP2020049863 A JP 2020049863A JP 2021149641 A JP2021149641 A JP 2021149641A
Authority
JP
Japan
Prior art keywords
occupant
image
display
object image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020049863A
Other languages
English (en)
Inventor
剛仁 寺口
Takehito Teraguchi
剛仁 寺口
裕史 井上
Yasushi Inoue
裕史 井上
乘 西山
Nori Nishiyama
乘 西山
翔太 大久保
Shota Okubo
翔太 大久保
雄宇 志小田
Yuu Shioda
雄宇 志小田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2020049863A priority Critical patent/JP2021149641A/ja
Publication of JP2021149641A publication Critical patent/JP2021149641A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】注意する必要がある対象物が乗員に認識されないことを防ぐことができる対象物提示装置を提供することである。【解決手段】車両の乗員が注意する必要がある対象物を検出し、対象物を示す対象物画像を表示装置に送信し、乗員の視線の方向情報または乗員の顔の向きの方向情報を含む乗員姿勢情報を取得し、乗員姿勢情報及び表示装置の表示画面上において対象物が表示されている表示位置に基づき、乗員が対象物画像を認識しているか否かを推定し、認識していないと推定される場合には、対象物画像を強調表示することによって上記課題を解決する。【選択図】 図1

Description

本発明は、対象物提示装置及び対象物提示方法に関するものである。
車両の前方の障害物を検知した際に、障害物の視認性を推定し、障害物の視認性に応じて作成された表示像をドライバの視界に表示することにより、適切な情報表示をドライバに提供できる車両用情報表示装置が知られている(例えば、特許文献1)。
特開2009−248721号公報
しかしながら、特許文献1に記載の技術では、表示像を表示して障害物の存在を知らせたとしても、表示された表示像に乗員の注意が向けられない場合には、障害物の存在が認識されない可能性があるという問題がある。
本発明が解決しようとする課題は、注意する必要がある対象物が乗員に認識されないことを防ぐことができる対象物提示装置を提供することである。
本発明は、車両の乗員が注意する必要がある対象物を検出し、対象物を示す対象物画像を表示装置に送信し、乗員の視線の方向情報または乗員の顔の向きの方向情報を含む乗員姿勢情報を取得し、乗員姿勢情報及び表示装置の表示画面上において対象物が表示されている表示位置に基づき、乗員が対象物画像を認識しているか否かを推定し、認識していないと推定される場合には、対象物画像を強調表示することによって上記課題を解決する。
本発明によれば、注意する必要がある対象物が乗員に認識されないことを防ぐことができる。
本実施形態における対象物提示装置の一実施形態を示すブロック図である。 本実施形態における対象物提示装置において実行される対象物画像の表示制御の手順を示すフローチャートである。 対象物画像を強調表示する制御の一例を示す図である。 ユーザが対象物画像を認識した後の表示画像制御の一例を示す図である。
以下、本願発明の実施形態を図面に基づいて説明する。
本実施形態では、図1に示すように、対象物提示装置12は、自車両10に搭載され、表示端末11(例えば、ARヘッドマウントディスプレイ)、車載センサー13及び外部情報取得装置30(他車両及び路上設備)と通信可能に接続されている。表示端末11は、例えば、自車両10の乗員であるユーザ40の頭部に装着されるARヘッドマウントディスプレイであり、ユーザ40は、表示端末11を介して、現実の光景に画像が表示された拡張現実(AR)を見ることができる。ユーザ40は、例えば、自車両10の運転者である。本実施形態では、対象物提示装置12は、自車両10に搭載され、表示端末11及び車載センサー13と有線で接続されることとしているが、これに限らず、対象物提示装置12は、自車両10の外に設置され、表示端末11及び車載センサー13と無線で接続しているものとしてもよい。
表示端末11は、少なくともセンサー群100と、出力部110とを備える。センサー群100は、カメラ101と、加速度センサー102と、ジャイロセンサー103とを備え、ユーザ40の頭部の向きまたは視線の方向を検知する。例えば、カメラ101によりユーザ40の眼球を撮像し、撮像した画像を解析して視線方向を検知する。また、加速度センサー102やジャイロセンサー103により頭部の動きを計測して頭部の向きを検知する。センサー群100により取得されたユーザ40の頭部の向きや視線の方向に関する姿勢情報は、対象物提示装置12の乗員姿勢情報取得部123に出力される。また、出力部110は、モニター111と、スピーカー112とを有し、モニター111に画像を表示し、スピーカーから音声を出力する。モニター111は、対象物提示装置12の表示画像送信部124から出力された表示画像の情報に基づき、表示画像を表示する。例えば、モニター111は透過型ディスプレイであり、ユーザの視界に、表示画像を重畳表示する。
対象物提示装置12は、通信装置120と、コントローラ121を備える。通信装置120は、自車両10の外部に存在する外部情報取得装置30(他車両や路上設備)と無線で通信可能に接続されていて、外部環境情報を取得する。外部環境情報は、自車両10の走行経路上、ユーザ40が注意する必要がある対象物を含む。対象物は、自車両10の走行に影響を与える可能性があるものであり、自車両10の走行経路上で接近する可能性がある障害物や自車両10の乗員に必要な情報を提供する案内表示を含む。例えば、歩行者、他車両、自転車、壁(ガードレール、トンネル内壁、建物、電柱、料金所を含む)、道路標識、道路標示、交通信号機である。また、乗員にとって有益な案内情報を含むこととしてもよい。例えば、パーキングエリアまでの距離を示す案内板等である。
コントローラ121は、ユーザの姿勢情報や外部環境情報を取得し、ユーザ40に表示する表示画像を生成し、表示端末11に送信する。コントローラ121は、ハードウェア及びソフトウェアを有するコンピュータを備えており、このコンピュータはプログラムを格納したROM(Read Only Memory)と、ROMに格納されたプログラムを実行するCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)を含むものである。コントローラ121は、機能ブロックとして、対象物検出部122と、乗員姿勢情報取得部123と、表示画像送信部124と、注意喚起制御部125とを備え、上記各機能を実現する又は各処理を実行するためのソフトウェアと、ハードウェアとの協働により各機能を実行する。
コントローラ121は、対象物検出部122により、通信装置120を介して、外部情報取得装置30により取得された外部環境情報を取得し、車載センサー13から、車載センサー13により取得された外部環境情報を取得する。また、取得された外部環境情報から、自車両10から所定の範囲内にユーザ40が注意する必要のある対象物があるか否か検出する。対象物を検出する方法としては、例えば、画像認識により対象物を検出する。コントローラ121は、対象物検出部122により、車載センサー13のカメラ131や外部情報取得装置30のカメラ320が取得した画像データから、対象物の特徴を抽出し、対象物の種別を識別する。対象物の検出は、一度に、複数の対象物を検出することとしてもよい。
なお、コントローラ121は、対象物検出部122により、対象物として、視認性が低い対象物、例えば、外部環境により視認性が低い対象物や乗員の視界から一部または全部が遮蔽物により遮蔽されている対象物を検出することとしてもよい。視認性が低い対象物は、視認可能な面積が小さい対象物、又は、周囲環境に対して特徴が視認しにくい対象物である。視認可能な面積が小さい対象物は、サイズが小さい、自車両10からの距離が遠い、又は、遮蔽物により特徴部分が遮蔽されている対象物である。また、周囲環境に対して特徴が視認しにくい対象物は、色が周囲環境に類似している対象物、又は、視認性を下げる外部環境にある対象物である。視認性が低い対象物は、特に乗員が見落とす可能性が高いため、視認性が低い対象物を検出し、対象物画像を表示することで、乗員が対象物を認識しないことを防止することができる。視認性を下げる外部環境は、夜間や霧、雨といった外部環境が例として挙げられる。視認性が低い対象物を検出する方法は、例えば、可視光カメラで撮像した画像と遠赤外線カメラで撮像した画像の差から視認性が低い対象物を検出する方法や、外部情報取得装置30のカメラ320で認識できているものの、車載センサー13のカメラ131では認識できない対象物が検知された場合に、視認性が低い対象物として検出する方法が挙げられる。また、コントローラ121は、遮蔽物によりユーザ40からの視点では一部または全部が遮蔽されていて視認性が低い場合にも、視認性が低い対象物として検出する。例えば、車載センサー13のカメラ131が取得した画像からでは、遮蔽物が手前にあって、遮蔽物の後ろの対象物が検出できない場合に、外部情報取得装置30のカメラ320で対象物が検出できれば、視認性が低い対象物として検出する。
コントローラ121は、乗員姿勢情報取得部123により、表示端末11から、センサー群100により取得されたユーザ40の視線の方向や頭の向きに関する姿勢情報を取得する。
また、コントローラ121は、表示画像送信部124により、対象物画像を生成し、生成した対象物画像を表示端末11に送信する。このとき、対象物画像は、表示端末11のモニター111上に表示される対象物画像の表示位置に関する情報を含む。本実施形態では、対象物の種別に応じて、対象物を表す画像の種類を選択し、選択した画像の大きさや色、輝度等を決定して対象物画像を生成する。例えば、軽自動車が検出された場合には、コントローラ121は軽自動車を「車両」として認識し、「車両」を表す画像を選択して、軽自動車の対象物画像を生成する。また、表示端末11のモニター111上に表示される対象物画像の表示位置の取得方法は、まず、対象物の現実の位置を特定する。次に、特定された対象物の位置に対応するモニター111上の位置を表示位置として取得する。具体的には、対象物が実際に存在する位置を表す3次元座標をモニター111上の2次元座標に対応付けることによって、モニター111上の表示位置を取得する。
また、コントローラ121は、注意喚起制御部125により、取得したユーザ40の姿勢情報、つまり、ユーザ40の視線の方向または頭部の向きに関する姿勢情報、及びモニター111上に表示されている対象物画像の表示位置の位置情報に基づいて、ユーザ40が対象物画像を認識しているか否かを推定する。例えば、コントローラ121は、注意喚起制御部125により、ユーザ40の視線の方向または頭部の向きが、対象物画像が表示されている位置の方向に一致している方向一致時間が所定時間未満であるか否かを判断する。そして、所定時間未満であると判断される場合には、ユーザ40が対象物画像を認識していないと推定する。所定時間未満ではない、つまり、所定時間以上であると判断される場合には、ユーザ40が対象物画像を認識していると推定する。
また、コントローラ121は、注意喚起制御部125により、ユーザ40が対象物画像を認識していると推定した場合には、ユーザ40が対象物画像を認識しているという推定結果を維持する。具体的には、推定後、ユーザ40の視線の方向または頭部の向きが対象物画像の表示位置の方向とは異なる方向に変わった場合に、方向一致時間が所定未満になったとしても、ユーザ40が対象物画像を認識していないと推定せず、ユーザ40が対象物画像を認識しているという推定結果を維持する。これは、ユーザ40が対象物画像を一度認識すれば、ユーザ40が他のところに視線を向けていたとしても、ユーザ40は対象物には気づいていて、認識していると考えられるからである。
さらに、コントローラ121は、注意喚起制御部125により、対象物画像をユーザ40が認識していないと推定される場合には、ユーザ40に、対象物画像への注意を喚起する制御を実行する。具体的には、表示端末11を介してユーザ40に表示している対象物画像を強調表示する制御を実行する。例えば、コントローラ121は、強調画像を表示画像送信部124に生成させる制御信号を出力する。強調画像は、対象物画像の色を赤色等の目立つ色に変えた画像や、輝度を上げた画像、表示位置を変更した画像、重畳表示する画像を含む。また、コントローラ121は、注意喚起制御部125により、対象物画像を点滅表示させる制御信号を表示端末11に送信することとしてもよい。なお、対象物画像を強調する制御として、ユーザ40の視線の方向または顔の向きを、対象物画像の表示位置の方向に誘導する音声データを生成して表示端末11に送信することとしてもよい。コントローラ121は、これらの制御のうち、少なくともひとつを用いて対象物画像への注意を喚起する制御を実行する。
車載センサー13は、自車両10に搭載されたセンサー群であり、自車両10の周囲(前方、側方、後方の全周囲)の対象物の存在を含む走行環境に関する情報を取得する。車載センサー13は、カメラ131と、超音波センサー132と、レーダー133と、GPS134とを備える。カメラ131は、例えばCCD等の撮像素子を備えるカメラである。本実施形態のカメラは自車両10に設置され、自車両10の周囲の走行環境を撮像し、自車両10の周囲に存在する車両や歩行者等を含む画像データを取得する。カメラ131は、超音波カメラ、赤外線カメラなどを含む。また、超音波センサー132及びレーダー133は、自車両10と対象物との相対距離を取得する。レーダー133は、レーザーレーダー、ミリ波レーダーなど(LRF等)、LiDAR(Light Detection And Ranging)ユニットを用いることができる。車載センサー13は、一又は複数のカメラ、超音波センサー132及びレーダー133を採用することができる。また、GPS134は、自車両10の現在位置を検出するGPS機器である。複数の衛星通信から送信される電波を受信機で受信することで、自車両の位置情報を取得する。また、GPS134は、周期的に複数の衛星通信から送信される電波を受信することで、自車両の位置情報の変化を検出することができる。
車載センサー13が検知するものは、車線境界線、センターライン、路面標識、中央分離帯、ガードレール、縁石、高速道路の側壁、道路標識、信号機、横断歩道、工事現場、事故現場、交通制限、自車両以外の自動車(他車両)、オートバイ、自転車、歩行者を含む。また、車載センサー13が検知するものは、ユーザ40が運転中に注意する必要がある対象物を含む。
外部情報取得装置30は、他車両や路上設備に備えられた装置であり、通信装置31と、外部センサー群32とを有する。外部センサー群32は、車載センサー13と同様に、カメラ320と、超音波センサー321と、レーダー322と、GPS323を備え、対象物を含む周囲の走行環境に関する情報を取得する。なお、外部情報取得装置30を構成する外部センサー群32は、車載センサー13と異なる構成としてもよい。通信装置31は、外部センサー群32が取得した情報を、対象物提示装置12の通信装置120に送信する。例えば、他車両が移動しながらセンサーによって周囲の環境情報を取得し、あるいは、路上や路上付近に設置された路上設備は、センサーによって周囲の環境情報を取得する。これにより、自車両10の車載センサー13では取得できない環境情報を、対象物提示装置12に送信することができる。例えば、曲がり角によって、曲がり角の壁の後ろに位置する対象物を自車両10の車載センサー13で検出できないような場合であっても、コントローラ121は、当該対象物を外部情報取得装置30が検出することで、見えない対象物が存在する位置を取得することができる。
次に、図2を用いて、本実施形態に係るユーザ40に表示する表示画像の強調表示制御について説明する。図2は、ユーザ40に表示する表示画像の強調表示制御を実行するためのフローチャートである。本実施形態では、ユーザ40が起動スイッチをオンにして車内ARシステムの利用を開始すると、フローチャートに基づき、ステップS201から強調表示制御を開始する。
ステップS201では、コントローラ121は、自車両10の周囲の外部環境情報を取得する。具体的には、コントローラ121は、車載センサー13及び外部情報取得装置30から、それぞれ取得された外部環境情報を取得する。
ステップS202では、コントローラ121は、ステップS201で取得した外部環境情報に基づき、ユーザ40が注意する必要がある対象物があるか否か検出する。具体的には、コントローラ121は、画像認識により、カメラで取得した画像データから、対象物の特徴を抽出し、対象物の種別を特定する。種別としては、例えば、自動車、歩行者、自転車、建造物、標識、信号機が挙げられる。対象物は、自車両10から所定の範囲内に存在し、自車両に接近する可能性がある障害物(歩行者や自動車等)や、交差点付近であれば、交差点の信号機等を含む。また、コントローラ121は、対象物として、外部環境により視認性が低い対象物や、一部または全部が遮蔽物によりユーザ40の視界から遮蔽されている対象物を検出することとしてもよい。ユーザ40が注意すべき対象物が検出される場合には、ステップS203に進む。ユーザ40が注意すべき対象物が検出されない場合には、ステップS201に戻り、再び、外部環境情報を取得する。本実施形態では、自車両10が走行している間に、常に外部環境情報を取得し、対象物の検出を繰り返す。
ステップS203では、コントローラ121は、対象物を示す対象物画像を表示する。具体的には、コントローラ121は、ステップS202において特定された対象物の種別ごとに予め設定された表示画像を選択し、当該表示画像を対象物画像として生成する。次に、コントローラ121は、生成した対象物画像を、モニター111上に表示される対象物画像の位置に関する位置情報とともに、ユーザ40が装着している表示端末11に送信する。このとき、対象物画像が表示される位置は、対象物の現実の位置から、対応する2次元の座標位置を求めることで取得される。そして、表示端末11は、コントローラ121から対象物画像及び対象物画像が表示される表示位置の位置情報を取得すると、出力部110のモニター111上の表示位置に当該対象物画像を表示する。このとき、例えば、対象物が壁等の後ろに存在してユーザ40の視界において対象物が直接見えていない場合であっても、壁等がなければ、ユーザ40の視界において対象物が見える位置に表示される。
ステップS204では、コントローラ121は、ユーザ40の姿勢情報を取得する。具体的には、コントローラ121は、ユーザ40が装着している表示端末11のセンサー群100により取得されたユーザ40の視線の方向や顔の向きを含む姿勢情報を取得する。
ステップS205では、コントローラ121は、ユーザ40が対象物画像を認識しているか否かを推定する。まず、コントローラ121は、ステップS204で取得した姿勢情報及び対象物画像が表示されている表示位置の位置情報から、対象物画像の位置の方向とユーザ40の視線の方向または頭の向きを比較する。そして、ユーザ40の視線の方向または頭の向きが、対象物画像の位置の方向に一致している方向一致時間が所定時間未満であるか否かを判定する。そして、方向一致時間が所定時間未満ではない、すなわち、所定時間以上であると判定される場合には、ユーザ40が対象物画像を認識していると推定する。また、方向一致時間が所定時間未満であると判定される場合には、ユーザ40が対象物画像を認識していないと推定する。ユーザ40が対象物画像を認識していると推定される場合には、ステップS209に進む。ユーザ40が対象物画像を認識していないと推定される場合には、ステップS206に進む。
なお、ユーザ40の視線の方向または頭の向きが、対象物画像の位置の方向に一致している方向一致時間の閾値として設定されている所定時間は、対象物の種別に応じて、変更することとしてもよい。例えば、対象物の種別が他車両や歩行者である場合の所定時間を、対象物の種別がそれ以外である場合の所定時間よりも長く設定する。また、対象物の種別が案内標識である場合の所定時間を、対象物がそれ以外である場合の所定時間よりも短く設定する。
ステップS206では、コントローラ121は、対象物画像を強調表示する制御を実行する。例えば、対象物画像の表示を強調する強調画像を生成して表示する。強調画像としては、例えば、対象物画像のサイズを大きくした画像や、対象物画像を赤色等の目立つ色に変えた画像、対象物画像の輝度を強くした画像が挙げられる。コントローラ121は、強調画像を生成すると、強調画像を表示端末11の出力部110に出力する。強調画像を取得した表示端末11は、モニター111上の対象物画像が表示されている位置に強調画像を表示する。また、強調画像を生成することに限らず、対象物画像を点滅表示させることとしてもよい。この場合、コントローラ121は、対象物画像の点滅表示を実行する制御信号を出力部110に出力する。そして、出力部110は、当該制御信号に基づいて、対象物画像を点滅表示させる。
図3は、対象物画像の強調表示制御を実行する一例を示す図である。図3では、壁301の後ろに対象物である他車両302が存在する場面において、表示端末11を介してユーザ40の視界に見えている光景を示す一例である。図3で示されるように、他車両302は、壁301により一部が遮蔽されている状態である。そして、他車両302が対象物として検出されると、対象物画像303が、モニター111上における対象物の位置に表示される。このとき、図3で示されるように、対象物である他車両302が壁等により遮蔽されている場合には、対象物画像303を壁等の上に重畳表示させる。さらに、対象物画像303が表示されている状態において、ユーザ40が対象物画像303を認識しているか否かの推定を行い、ユーザ40が対象物画像303を認識していないと推定される場合には、強調画像304が、モニター上における対象物画像の位置に表示される。このとき、強調画像304を表示することに限らず、対象物画像303を点滅表示することとしてもよい。なお、図3では、他車両302が壁301に遮蔽されている場面を例として挙げているが、これに限らず、対象物である他車両が遮蔽物がない場所に存在する場合であってもよい。
ステップS207では、コントローラ121は、ユーザ40の姿勢情報を取得する。具体的には、コントローラ121は、ステップS204と同じように、ユーザ40が装着している表示端末11により取得されたユーザ40の視線の方向や顔の向きを含む姿勢情報を取得する。
ステップS208では、コントローラ121は、ユーザ40が対象物画像を認識しているか否かを推定する。推定方法は、ステップS205と同様である。ステップS208では、ステップS206において対象物画像を強調表示したことによって、ユーザ40の視線の方向または顔の向きが対象物画像の位置の方向に変わったか否かを判定するために、再度、ユーザ40が対象物画像を認識しているか否かを推定する。ユーザ40が対象物画像を認識していると推定される場合には、ステップS209に進む。ユーザ40が対象物画像を認識していないと推定される場合には、ステップS206に戻る。ステップS206では、コントローラ121は、他の強調方法で、再度、対象物画像を強調表示にしたり、音声によって対象物画像の位置の方向に、ユーザ40の視線の方向または頭の向きを誘導したりする。
ステップS209では、コントローラ121は、ユーザ40の注意状態を確認したことをユーザ40に提示する。注意状態とは、注意する必要がある対象物をユーザが認識している状態である。コントローラ121は、例えば、対象物または対象物画像の周囲を発光させることによって、注意状態、すなわち、ユーザ40が対象物を認識していることを確認したことを提示する。
ステップS210では、コントローラ121は、車載センサー13と外部情報取得装置30により取得される外部環境情報に基づいて、対象物がユーザ40から見て遮蔽物の後ろ側にあるか否かを判定する。このとき、ユーザ40から見て遮蔽物により遮蔽されている部分が対象物の一部か全部かにかかわらず、対象物が遮蔽物の後ろ側にあると判定する。対象物が遮蔽物の後ろ側にあると判定される場合には、ステップS211に進む。対象物が遮蔽物の後ろ側にあると判定されない場合には、ステップS212に進む。
ステップS211では、コントローラ121は、対象物の実写画像を取得し、対象物の実写画像の透明度を調整した透過画像をモニター111に表示する。すなわち、ステップS211において、ユーザ40から見えていない対象物の一部または全部を補完する形で透過画像を表示することで、対象物の視認性を高めることができる。
ステップS212では、コントローラ121は、対象物画像を非表示にする。具体的には、コントローラ121は、対象物画像の表示を中止する制御信号を出力部110に出力し、出力部110は、当該制御信号に基づき、対象物画像を非表示にする。ステップS212では、ユーザ40が対象物の存在を認識していて、かつ対象物が直接視認することができる位置に存在するため、表示していた対象物画像を非表示にすることで、ユーザ40は対象物を直接視認することができる。
図4は、ステップS209からステップS212までの、ユーザの注意状態を確認したことの提示制御及び対象物画像の表示制御の一例を示す図である。図4では、モニター111上の対象物の位置に対象物画像を重畳表示した後に、ユーザ40が対象物画像を認識していると推定された場面が示されている。ユーザ40が対象物を認識していると推定されると、コントローラ121は、ユーザ40が対象物を認識していることを対象物提示装置12が確認したということをユーザ40に提示する。例えば、STEP209(1)及びSTEP209(2)の発光305で示されるように、対象物画像303の周囲を発光させる。図4では、STEP209(1)は、図2のS209の一例であって、対象物である他車両が壁301に遮蔽されている場面において、対象物画像303の周囲を発光させている状況を示している。STEP209(2)は、図2のS209の一例であって、対象物である他車両が遮蔽物のない場所に存在する場面において、対象物画像303の周囲を発光させている状況を示している。次に、対象物の前に壁301がある場合(STEP209(1))には、表示画像を対象物画像303から透過画像306に変更して、モニター111上における対象物の位置に透過画像を表示させる(STEP211)。透過画像306は、壁等の遮蔽物によりユーザ40が直接的に見ることができない部分を補完的に表示させる画像である。また、対象物の前に壁301がない場合(STEP209(2))には、対象物画像303を非表示にして、実際の対象物または実写画像を表示させる(STEP212)。
ステップS213では、コントローラ121は、車室内ARシステムの利用を終了したか否かを判定する。例えば、ユーザ40が、起動スイッチをオフにして、車室内ARシステムの利用を終了した場合には、強調表示制御を終了する。車室内ARシステムの利用を終了したと判定されない場合には、ステップS201に戻り、以下、車室内ARシステムの利用を終了するまで、フローを繰り返す。
また、本実施形態では、対象物検出部122により検出された複数の対象物の対象物画像が表示されている場合には、コントローラ121は、それらの複数の対象物のうち、対象物の重要度に応じて、重要度が高い対象物を選択して、選択された対象物をユーザ40が認識しているか否かを判定してもよい。重要度は、ユーザが注意する必要性の高さである。重要度は、あらかじめ対象物の種別ごとに設定されている。例えば、対象物の種別が、「歩行者」、「自転車」、「他車両」であるときには、重要度は「高」に設定され、対象物の種別が「案内板」等であるときには、重要度は「低」に設定される。重要度の設定は、「高」、「低」の2段階に限らず、「高」、「中」、「低」の3段階等、2以上の段階で区分してもよい。本実施形態では、まず、コントローラ121は、対象物の種別を特定して、対象物の種別ごとに設定された重要度に基づいて、対象物の重要度を判定する。次に、コントローラ121は、対象物画像が表示されている複数の対象物それぞれの重要度に基づいて、最も重要度が高い対象物を選択して、ユーザ40が当該対象物の対象物画像を認識しているか否かを推定する。そして、コントローラ121は、ユーザ40が当該対象物を認識していないと推定される場合には、当該対象物の強調表示を実行する。これにより、注意する必要性の高い対象物をユーザが認識していない場合には、当該対象物を強調表示することで、注意する必要性の高い対象物が乗員に認識されないことを防ぐことができる。
なお、本実施形態では、コントローラ121は、対象物検出部122により対象物が複数検出されている場合には、複数の対象物それぞれの重要度を判定して、重要度に応じて、対象物画像を生成する対象物を選択してもよい。具体的には、コントローラ121は、複数の対象物が検出された場合には、対象物の種別を特定して、対象物の種別ごとに設定された重要度に基づいて、対象物の重要度を判定する。そして、コントローラ121は、複数の対象物それぞれの重要度に応じて、検出された対象物の中で重要度が最も高い種別に属する対象物の対象物画像を生成して、表示端末11に送信する。また、コントローラ121は、複数の対象物それぞれの重要度に応じて、重要度が高い順に、対象物画像を生成する対象物を選択してもよい。例えば、コントローラ121は、所定数の対象物の対象物画像を生成するとあらかじめ設定しておき、複数の対象物が検出された場合には、重要度が高い順に所定数の対象物について、対象物画像を生成することとしてもよい。
以上のように、本実施形態では、車両から所定の範囲内に存在し、車両の乗員が注意する必要がある対象物を検出し、検出された対象物を示す対象物画像を表示装置に送信し、乗員の視線の方向情報または乗員の顔の向きの方向情報を含む乗員姿勢情報を取得し、取得された乗員姿勢情報及び表示装置の表示画面上において対象物画像が表示されている表示位置に基づき、乗員が表示画面上で対象物画像を認識しているか否かを推定し、乗員が対象物画像を認識していないと推定される場合には、対象物画像を強調表示する画像表示制御を実行する。これにより、注意する必要がある対象物が乗員に認識されないことを防ぐことができる。
また、本実施形態では、乗員姿勢情報に基づいて、乗員の視線の方向または乗員の顔の向きが表示位置の方向に一致している方向一致時間が所定時間未満であると検知される場合には、乗員が対象物画像を認識していないと推定する。これにより、対象物画像が乗員に認識されていないと判断することができる。
また、本実施形態では、方向一致時間が所定時間以上であると検知された場合には、乗員が対象物画像を認識していると推定し、乗員が対象物画像を認識していると推定された後に、乗員の視線の方向または乗員の顔の向きが、表示位置の方向とは異なる方向に変わったとしても、乗員が対象物画像を認識しているという推定結果を維持する。これにより、乗員が一度対象物画像を認識した場合には、乗員の視線の方向または顔の向きが対象物画像の表示位置の方向とは異なる方向に変わったとしても、乗員が対象物画像を認識していると判断することができる。
また、本実施形態では、画像表示制御は、対象物画像の表示を強調する強調画像を生成して表示する制御、または対象物画像を点滅表示する制御を含む。これにより、乗員の視線の方向または顔の向きを対象物画像の表示位置の方向に誘導することができる。
また、本実施形態では、対象物は、少なくとも車両の外部環境により視認性が低い対象物及び乗員の視界から一部または全部が遮蔽物により遮蔽された対象物のいずれか一方を含む。これにより、視認性が低く認識しづらい対象物であっても、乗員は見落とさずに認識することができる。
さらに、本実施形態では、表示位置の方向に、乗員の視線の方向または乗員の顔の向きを誘導する音声データを生成し、音声データを表示装置に送信する。これにより、乗員が視覚的に認識できていない対象物であっても、乗員の視線の方向または顔の向きを対象物画像の表示位置の方向に誘導することができる。
なお、本実施形態では、モニター111上に対象物画像を表示し、表示された対象物画像をユーザが認識しているか否かを推定したが、これに限らず、例えば、ステップS202で対象物が検知された後に、ユーザが対象物を認識しているか否かを推定することとしてもよい。そして、ユーザが対象物を認識していないと推定される場合に、対象物画像を表示することとしてもよい。
なお、以上に説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
11…表示端末
100…センサー群
110…出力部
12…対象物提示装置
120…通信装置
121…コントローラ
122…対象物検出部
123…乗員姿勢情報取得部
124…表示画像送信部
125…注意喚起制御部
13…車載センサー
30…外部情報取得装置
31…通信装置
32…外部センサー群

Claims (7)

  1. 車両から所定の範囲内に存在し、前記車両の乗員が注意する必要がある対象物を検出する対象物検出部と、
    前記対象物検出部により検出された前記対象物を示す対象物画像を表示装置に送信する表示画像送信部と、
    前記乗員の視線の方向情報または前記乗員の顔の向きの方向情報を含む乗員姿勢情報を取得する乗員姿勢情報取得部と、
    前記表示装置により表示された前記対象物画像に対する前記乗員の注意を喚起する注意喚起制御部とを備え、
    前記注意喚起制御部は、
    前記乗員姿勢情報取得部により取得された前記乗員姿勢情報及び前記表示装置の表示画面上において前記対象物画像が表示されている表示位置に基づき、前記乗員が前記表示画面上で前記対象物画像を認識しているか否かを推定し、
    前記乗員が前記対象物画像を認識していないと推定される場合には、前記対象物画像を強調表示する画像表示制御を実行する対象物提示装置。
  2. 請求項1に記載の対象物提示装置であって、
    前記注意喚起制御部は、
    前記乗員姿勢情報に基づいて、前記乗員の視線の方向または前記乗員の顔の向きが前記表示位置の方向に一致している方向一致時間が所定時間未満であると検知される場合には、前記乗員が前記対象物画像を認識していないと推定する対象物提示装置。
  3. 請求項2に記載の対象物提示装置であって、
    前記注意喚起制御部は、
    前記方向一致時間が所定時間以上であると検知された場合には、前記乗員が前記対象物画像を認識していると推定し、
    前記乗員が前記対象物画像を認識していると推定された後に、前記乗員の視線の方向または前記乗員の顔の向きが、前記表示位置の方向とは異なる方向に変わったとしても、前記乗員が前記対象物画像を認識しているという推定結果を維持する対象物提示装置。
  4. 請求項1に記載の対象物提示装置であって、
    前記画像表示制御は、前記対象物画像の表示を強調する強調画像を生成して表示する制御、または前記対象物画像を点滅表示する制御を含む対象物提示装置。
  5. 請求項1に記載の対象物提示装置であって、
    前記対象物は、少なくとも前記車両の外部環境により視認性が低い前記対象物及び前記乗員の視界から一部または全部が遮蔽物により遮蔽された前記対象物のいずれか一方を含む対象物提示装置。
  6. 請求項1に記載の対象物提示装置であって、
    前記注意喚起制御部は、
    前記表示位置の方向に、前記乗員の視線の方向または前記乗員の顔の向きを誘導する音声データを生成し、
    前記音声データを前記表示装置に送信する対象物提示装置。
  7. 対象物提示装置を用いて実行される対象物提示方法であって、
    前記対象物提示装置は、
    車両から所定の範囲内に存在し、前記車両の乗員が注意する必要がある対象物を検出し、
    検出された前記対象物を示す対象物画像を表示装置に送信し、
    前記乗員の視線の方向情報または前記乗員の顔の向きの方向情報を含む乗員姿勢情報を取得し、
    取得された前記乗員姿勢情報及び前記表示装置の表示画面上において前記対象物画像が表示されている表示位置に基づき、前記乗員が前記表示画面上で前記対象物画像を認識しているか否かを推定し、
    前記乗員が前記対象物画像を認識していないと推定される場合には、前記対象物画像を強調表示する画像表示制御を実行する対象物提示方法。
JP2020049863A 2020-03-19 2020-03-19 対象物提示装置及び対象物提示方法 Pending JP2021149641A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049863A JP2021149641A (ja) 2020-03-19 2020-03-19 対象物提示装置及び対象物提示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049863A JP2021149641A (ja) 2020-03-19 2020-03-19 対象物提示装置及び対象物提示方法

Publications (1)

Publication Number Publication Date
JP2021149641A true JP2021149641A (ja) 2021-09-27

Family

ID=77849027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049863A Pending JP2021149641A (ja) 2020-03-19 2020-03-19 対象物提示装置及び対象物提示方法

Country Status (1)

Country Link
JP (1) JP2021149641A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042618A1 (ja) 2021-09-14 2023-03-23 Kddi株式会社 無線通信端末装置、認証及び鍵共有方法、プログラム、認証及び鍵共有システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2012234409A (ja) * 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
JP2013196359A (ja) * 2012-03-19 2013-09-30 Honda Motor Co Ltd 運転支援装置
JP2015191583A (ja) * 2014-03-28 2015-11-02 株式会社デンソー 車両用認知通知装置、車両用認知通知システム
JP2019206262A (ja) * 2018-05-29 2019-12-05 日本精機株式会社 表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008029802A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
JP2012234409A (ja) * 2011-05-02 2012-11-29 Mazda Motor Corp 車両用運転支援装置
JP2013196359A (ja) * 2012-03-19 2013-09-30 Honda Motor Co Ltd 運転支援装置
JP2015191583A (ja) * 2014-03-28 2015-11-02 株式会社デンソー 車両用認知通知装置、車両用認知通知システム
JP2019206262A (ja) * 2018-05-29 2019-12-05 日本精機株式会社 表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042618A1 (ja) 2021-09-14 2023-03-23 Kddi株式会社 無線通信端末装置、認証及び鍵共有方法、プログラム、認証及び鍵共有システム

Similar Documents

Publication Publication Date Title
US11767024B2 (en) Augmented reality method and apparatus for driving assistance
US10303257B2 (en) Communication between autonomous vehicle and external observers
CN109427199B (zh) 用于辅助驾驶的增强现实的方法及装置
CN111247575B (zh) 车辆驾驶辅助系统、方法及计算机可读取的存储介质
US9747800B2 (en) Vehicle recognition notification apparatus and vehicle recognition notification system
US20180198955A1 (en) Vehicle-use image display system and method
JP4719590B2 (ja) 車載周辺状況提示装置
KR20170099188A (ko) 차량 운전 보조장치 및 이를 포함하는 차량
JP4872245B2 (ja) 歩行者認識装置
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
US10232772B2 (en) Driver assistance system
US20190244515A1 (en) Augmented reality dsrc data visualization
KR20080004835A (ko) 주행 차량의 운전자 보조 정보 생성 장치 및 방법
JP7163748B2 (ja) 車両用表示制御装置
US20190135169A1 (en) Vehicle communication system using projected light
JP5888339B2 (ja) 表示制御装置
JP6136565B2 (ja) 車両用表示装置
KR102635265B1 (ko) 라이다를 이용한 어라운드 뷰 모니터링 장치 및 방법
US20190189014A1 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
JP4462895B2 (ja) 車載用物体認識システムおよびこれを用いた運転支援システム
JP2021149641A (ja) 対象物提示装置及び対象物提示方法
JP6555413B2 (ja) 移動体周囲表示方法及び移動体周囲表示装置
JP2021189932A (ja) 移動体検知システム
JP6740644B2 (ja) 報知装置
WO2021076734A1 (en) Method for aligning camera and sensor data for augmented reality data visualization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240424