JP7439949B2 - 表示制御装置、表示システム、表示制御方法及び表示制御プログラム - Google Patents

表示制御装置、表示システム、表示制御方法及び表示制御プログラム Download PDF

Info

Publication number
JP7439949B2
JP7439949B2 JP2022558626A JP2022558626A JP7439949B2 JP 7439949 B2 JP7439949 B2 JP 7439949B2 JP 2022558626 A JP2022558626 A JP 2022558626A JP 2022558626 A JP2022558626 A JP 2022558626A JP 7439949 B2 JP7439949 B2 JP 7439949B2
Authority
JP
Japan
Prior art keywords
image
display
vehicle
information
blind spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022558626A
Other languages
English (en)
Other versions
JPWO2022091194A1 (ja
Inventor
修平 鈴木
新作 福▲高▼
宗貴 西平
晶子 今石
美里 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022091194A1 publication Critical patent/JPWO2022091194A1/ja
Application granted granted Critical
Publication of JP7439949B2 publication Critical patent/JP7439949B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本開示は、自車両によって生じる死角における状況を示す死角画像を表示装置へ表示する際の制御を行う表示制御装置、表示システム、表示制御方法及び表示制御プログラムに関するものである。
自動車等の車両を運転している場合に、自車両が原因で自車両の周辺に存在する歩行者等の対象者にとって死角が生じることがある。
そこで、自車両の周辺をカメラで撮像し、自車両の存在により周辺の歩行者等の対象者にとって死角となる視野の情報を自車両の周辺に対して表示装置で表示する装置が、特許文献1に開示されている。特許文献1に開示された装置は、自車両に設けられ、自車両の周辺の画像を撮像する撮像手段と、自車両の少なくとも一部に設けられた画像表示手段に、撮像手段で撮像された画像表示手段が設けられた位置において死角となる視野の画像を表示させる表示制御手段とを備えている。
特開2002-87188号公報
しかしながら、上記した従来の表示制御装置では、歩行者に対して死角画像を表示しても、歩行者がどこの範囲を表示しているか認識しにくいという問題があった。
本開示は、上記のような問題を解決するためになされたものであって、死角画像を表示する際に、対象者にどこの死角画像であるのかを直感的にわかりやすく表示することができる表示制御装置、表示システム、表示制御方法及び表示制御プログラムを提供することを目的とする。
本開示に係る表示制御装置は、自車両の外に存在する対象者から見て自車両によって生じる死角を示す死角画像を取得する死角画像取得部と、自車両の画像を死角画像に重畳した表示画像を生成する表示画像生成部と、自車両の車体から外部向けて取り付けられた表示装置に表示画像を表示する制御部とを備えるものである。
本開示に係る表示システムは、自車両の車体から外部向けて取り付けられた表示装置と、自車両の外に存在する対象者から見て自車両によって生じる死角を示す死角画像を取得する死角画像取得部と、自車両の画像を死角画像に重畳した表示画像を生成する表示画像生成部と、表示装置に表示画像を表示する制御部とを備えるものである。
本開示に係る表示制御方法は、自車両の外に存在する対象者から見て自車両によって生じる死角を示す死角画像を取得するステップと、自車両の画像を死角画像に重畳した表示画像を生成するステップと、自車両の車体から外部向けて取り付けられた表示装置に表示画像を表示するステップとを有するものである。
本開示に係る表示制御プログラムは、死角画像取得部が、自車両の外に存在する対象者から見て自車両によって生じる死角を示す死角画像を取得する処理と、表示画像生成部が、自車両の画像を死角画像に重畳した表示画像を生成する処理と、制御部が、自車両の車体から外部向けて取り付けられた表示装置に表示画像を表示する処理とを実行させるものである
本開示によれば、表示画像生成部が自車両の画像を死角画像に重畳した表示画像を生成し、制御部が自車両の車体から外部向けて取り付けられた表示装置に表示画像を表示することにより、死角画像を表示する際に、対象者にどこの範囲の死角画像であるのかを直感的にわかりやすく表示することができる。
片側二車線の道路上に横断歩道がある状況の一例を示した図である。 実施の形態1に係る表示制御装置を含む表示システムのブロック図である。 実施の形態1に係る自車両の前面図である。 実施の形態1に係る自車両の後面図である。 実施の形態1に係る自車両の左側面図である。 実施の形態1に係る自車両の右側面図である。 実施の形態1に係る自車両の車載システムのハードウェア構成図である。 実施の形態1に係る表示システムの動作を示すフローチャートである。 実施の形態1に係る自車両の画像を加工する前の表示画像の一例である。 実施の形態1に係る自車両の画像を加工した後の表示画像の一例である。 実施の形態1に係る対象者から自車両を見たときの図の一例である。 実施の形態1に係る自車両を真正面から見たときの図の一例である。 実施の形態2に係る表示システムの動作を示すフローチャートである。
実施の形態1.
図1は、片側二車線の道路上に横断歩道4がある状況の一例を示した図である。実施の形態1では、一例として、図1に示した通り、自動車である自車両1が片側二車線の道路を走行している場合を考える。横断歩道4の前で自車両1が停車し、対象者として歩行者3が停車している自車両1の前を横切ろうとしている。さらに、歩行者3に対して自車両1の奥にあたる自車両1の隣の車線の後方から自動車である他車両2が自車両1を追い越そうとしている。歩行者3からは自車両1が原因で他車両2がいる範囲が死角になり、他車両2が見えない状況について、本開示を適用した場合を以下に説明する。
図2は、本実施の形態1に係る表示制御装置20を含む表示システム30のブロック図である。表示システム30は、自車両1に設けられた報知装置31と、自車両1の車両全体を制御する全体制御ECU(Electronic Control Unit)10から取得した車内外情報を用いて報知すべき情報である報知情報を判定し、報知情報を報知装置31から報知するよう制御する表示制御装置20とを備えている。ここで、車内外情報は、死角情報または死角画像を含んでいる。死角情報と死角画像については、後述する。
報知装置31は、自車両1から自車両1の外に存在する対象者に報知情報を報知する装置である。報知装置31は、例えば、自車両1の周囲の自車両1の外に存在する対象者に自車両1の状態、自車両1の現在または今後の動作の予告と意図、または警告等を報知する。報知装置31は、表示装置32~35と、スピーカ36とを備える。ただし、報知装置31は、少なくとも1つの表示装置を備えていればいい。
図3は、本実施の形態1に係る自車両1の前面図である。本実施の形態1では、表示装置32は自車両1の前面に設けられ、スピーカ36は自車両1の前面の表示装置32の上側に設けられている。
図4は、本実施の形態1に係る自車両1の後面図である。本実施の形態1では、表示装置33は自車両1の後面に設けられている。
図5は、本実施の形態1に係る自車両1の左側面図である。本実施の形態1では、表示装置34は自車両1の左側面に設けられている。
図6は、本実施の形態1に係る自車両1の右側面図である。本実施の形態1では、表示装置35は自車両1の右側面に設けられている。
図2に戻って、全体制御ECU10は、自車両1の車内外の様々なセンサから死角情報または死角画像を含む車内外情報を取得し、取得した車内外情報に基づいて、自車両1内のハードウェアに指示を送り、ハードウェアを制御する。
表示制御装置20は、全体制御ECU10から死角情報または死角画像を含む車内外情報を取得する車内外情報取得部27を備えている。また、表示制御装置20は、死角情報から死角画像を生成する際の画像のパーツが記憶されている死角画像DB(Database)24bと、死角画像DB24bを用いて死角情報から死角画像を生成する死角画像生成部28とを備えている。
また、表示制御装置20は、死角画像を取得する死角画像取得部21と、死角画像、車内外情報等を報知装置31から報知するか否か判定する判定部22とを備えている。また、表示制御装置20は、自車両1の画像が記憶されている自車両画像DB(Database)24aと、判定部22で報知すると判定した場合、自車両画像DB24aから取得した自車両1の画像を死角画像に重畳した表示画像を含む報知情報を生成する表示画像生成部23とを備えている。
また、表示制御装置20は、車内外情報と報知装置31とが対応付けられた報知装置情報と表示画像の加工情報等の報知パターン情報と報知する報知タイミング情報等の条件情報が記憶されている条件情報DB(Database)25とを備えている。また、表示制御装置20は、表示画像に条件情報DB25から取得した条件情報を付与する条件付与部29と、条件情報DB25で対応付けられた報知装置31に報知情報を報知させるように制御する制御部26とを備えている。以下にそれぞれの構成について説明する。
車内外情報取得部27は、全体制御ECU10から死角情報または死角画像を含む車内外情報を取得する。車内外情報とは、例えば、自車両1の位置情報、対象者3の位置情報、対象者3の目線情報、対象者3の死角情報、対象者3の死角画像、他車両2の位置情報、エンジンの回転量情報、エンジンONとOFFとの切り替え情報、シフトレバーによるギアの変更情報、ドアの開閉情報、自車両1の動作情報、ハンドルの舵角情報、ウィンカーの操作情報、周囲の混雑状況情報、周囲の人や他車両等のオブジェクトの検出情報および認識情報、自車両1の車内にいるユーザに関する情報等である。なお、車内外情報取得部27は、対象者3の目線情報を取得する目線情報取得部に対応する。
ここで、死角情報とは、自車両1の外に存在する対象者3から見て自車両1によって生じる死角における状況を示す情報である。具体的には、例えば、死角情報は、超音波センサ、レーダセンサ、ミリ波レーダセンサ、ライダー、赤外線レーザーセンサからの情報等である。
死角画像とは、自車両1の外に存在する対象者3から見て自車両1によって生じる死角の画像である。具体的には、例えば、死角画像は、車外カメラ等の画像である。
死角画像DB24bは、様々な角度から見た様々な他車両等のオブジェクトの画像を予め記憶している。また、死角画像DB24bは、様々な角度から見た様々な背景の画像を予め記憶している。オブジェクトと背景等の画像は、写真等の実際の画像、イラスト等であり、死角情報から死角画像を生成する際の画像のパーツとなる。
死角画像生成部28は、死角情報から死角画像DB24bに記憶されている画像のパーツを用いて死角画像を生成する。また、死角画像生成部28は、車内外情報取得部27で取得した死角画像の範囲が広すぎる場合は、適切な範囲を抽出し、それを以降の死角画像とする。具体的には、死角画像生成部28は、例えば、死角情報がレーダ情報等であった場合は、死角情報を用いて、死角画像DB24bから画像のパーツを取得し、画像のパーツから死角画像生成する。また、死角画像生成部28は、例えば、死角よりも広い範囲の車外カメラの画像である場合は、死角に合わせて死角画像を抽出する。
死角画像取得部21は、車内外情報取得部27が取得した死角画像または死角画像生成部28で生成した死角画像を取得する。なお、死角画像は、自車両1の外に存在する対象者3から見て自車両1によって生じる死角を示す。
判定部22は、車内外情報に基づいて、自車両1の車両の状態、自車両1の車外の交通環境等を判定する。判定部22は、例えば、ギアの変更情報に基づいて、自車両1が停車したままなのか、前進しようとしているのか、後退しようとしているのかを判定する。また、判定部22は、例えば、周囲の人や車等のオブジェクトの検出情報および認識情報に基づいて、対象者が危険な状態にあるか否かを判定する。
判定部22は、判定した自車両1の車両の状態、自車両1の車外の交通環境等に基づき、対象者に報知情報を報知するか判定する。具体的には、判定部22は、対象者3に表示画像を表示するか否か判定する。判定部22は、例えば、図1のような場合、歩行者3に他車両2の存在を報知すると判定する。
自車両画像DB24aは、様々な角度から見た自車両1の画像を予め記憶している。自車両1の画像は、写真等の実際の画像、イラスト等である。
表示画像生成部23は、判定部22で報知すると判定した場合、車内外情報から報知情報を生成する。表示画像生成部23は、報知情報を生成する際、少なくとも自車両画像DB24aから取得した自車両1の画像を死角画像に重畳した表示画像を含む報知情報を生成する。
条件情報DB25は、条件情報が記憶されている。具体的には、例えば、条件情報DB25は、表示装置32~35とスピーカ36との装置の情報を記憶しており、車内外情報の識別子と報知装置31の識別子とが対応付けられた報知装置情報を記憶している。また、条件情報DB25は、車内外情報と対応付けられた報知パターン情報を記憶している。報知パターン情報とは、例えば、表示装置32~35に表示する画像の形状、色、大きさ、輝度、位置等の情報、スピーカ36に報知させる音の大きさ、音の高低、音の種類等の情報である。さらに、条件情報DB25は、車内外情報と対応付けられた報知タイミング情報を記憶している。報知タイミング情報とは、例えば、報知装置31に報知させるタイミング、時間等の情報である。
条件付与部29は、条件情報DB25から報知する報知装置31と報知パターンと報知するタイミング、時間等とを決定し、表示画像を含む報知情報に条件情報を付与する。具体的には、例えば、条件付与部29は、報知パターン情報として表示画像の自車両の画像を縮小する加工情報を取得した場合、自車両の画像を縮小して表示画像を加工する。
制御部26は、判定部22で報知を行うと判定された場合に、条件情報DB25で対応付けられた報知装置31に表示画像を含む報知情報を報知させるように制御する。具体的には、制御部26は、判定部22が表示すると判定した場合に、条件情報DB25で対応付けられた表示装置に表示画像を表示させるように制御する。
次に実施の形態1における自車両1の一部のハードウェア構成について説明する。
図7は、本実施の形態1に係る自車両1の車載システム100のハードウェア構成図である。図7を用いて、本実施の形態1に係る表示制御装置20を含む表示システム30の構成について説明する。
車載システム100は、一例として、通信線65と、センサ40と、通信装置60と、全体制御ECU10と、報知制御ECU(Electronic Control Unit)15と、運転装置70と、報知装置80とで構成される。
通信線65は、各装置間及び機器間を電気的に接続し、データのやり取りを行う信号経路である。本実施の形態1では、CAN(Controller Area Network)を介してデータのやり取りを行う。なお、車載システム100の各装置をバスでつなげてもよい。車載システム100の装置間及び機器間は通信を介して接続されており、用いる通信については、有線通信でも無線通信でもよい。
センサ40は、車速センサ41、舵角センサ42、アクセルセンサ43、ブレーキセンサ44、シフトセンサ45、ウィンカーセンサ46、ハザードセンサ47、ワイパーセンサ48、ライトセンサ49、ドア開閉センサ50、ドライバカメラ51、着座センサ52、加速度センサ53、角速度センサ54、GPS(Global Positioning System)デバイス55、ナビゲーションシステム56、車外カメラ57、車外センサ58、および照度センサ59等の自車両1の車内外情報を検出するセンサである。
車速センサ41は、自車両1の速度を検出するセンサであり、車輪速に応じた電気信号(車速パルス)を全体制御ECU10に出力する。車輪速に応じた電気信号が車速情報となる。
舵角センサ42は、自車両1の操舵角を検出するセンサであり、操舵角に応じた電気信号を全体制御ECU10に出力する。操舵角に応じた電気信号が、舵角情報となる。
アクセルセンサ43は、自車両1のアクセルの開度すなわちアクセルペダルの操作量を検出するセンサであり、アクセルペダルの操作量情報を全体制御ECU10に出力する。
ブレーキセンサ44は、自車両1のブレーキペダルの操作量を検出するセンサであり、ブレーキペダルの操作量情報を全体制御ECU10に出力する。
シフトセンサ45は、自車両1のシフトレバーの現在の状態または変化を検出するセンサであり、自車両1のユーザによるシフト変更等、シフトレバーの操作情報を全体制御ECU10に出力する。
ウィンカーセンサ46は、自車両1のウィンカー(方向指示器)の操作を検出するセンサであり、ユーザがウィンカーを操作した場合、ウィンカー操作指示の情報を全体制御ECU10に出力する。
ハザードセンサ47は、自車両1のハザードスイッチの操作を検出するセンサであり、ユーザのハザードスイッチの操作を検出し、操作情報を全体制御ECU10に出力する。
ワイパーセンサ48は、自車両1のワイパー操作を検出するセンサであり、ユーザがワイパーを操作した場合、この操作指示情報を全体制御ECU10に出力する。
ライトセンサ49は、ユーザの自車両1のライトレバーの操作を検出するセンサであり、ユーザのライトの操作情報を全体制御ECU10に出力する。
ドア開閉センサ50は、自車両1のドアの開閉を検出するセンサであり、ドアの開閉情報を全体制御ECU10に出力する。
ドライバカメラ51は、自車両1のドライバ席に対向して設けられたカメラ(撮像装置)であり、ドライバ席に座るユーザを撮像する機能を有している。ドライバカメラ51は、ユーザの顔や上半身を撮像し、撮像した画像を全体制御ECU10に出力する。
着座センサ52は、自車両1のシートに設けられ、ユーザの着座状況を検出するセンサであり、例えば押圧センサ等によって実現される。着座センサ52は、ユーザが着座または離席すると、この情報を全体制御ECU10に出力する。着座センサ52は、シートに複数設けられていてもよく、この複数の押圧センサの情報に基づいて、全体制御ECU10はユーザの姿勢等を推定する。
加速度センサ53は、自車両1の加速度を検出するセンサであり、例えば3軸加速度センサにより構成される。加速度センサ53は、自車両1の加速度情報を全体制御ECU10に出力する。
角速度センサ54は、自車両1の角速度(ジャイロ)を検出するセンサであり、この角速度情報に基づいて全体制御ECU10は自車両1の旋回速度等を検出する。角速度センサ54は、検出した角速度情報を全体制御ECU10に出力する。
GPSデバイス55は、グローバルポジショニングシステム(Global Positioning System)を用いて人工衛星が発信する電波を利用し、自車両1の位置情報を検出する装置であり、自車両1の位置情報である座標の情報を全体制御ECU10およびナビゲーションシステム56に出力する。
ナビゲーションシステム56は、地図情報を有しており、自車両1の位置情報と地図情報に基づいて、自車両1の目的地への推奨経路を算出する機能を有している。また、ナビゲーションシステム56は、通信機能を有しており、渋滞情報や通行止め情報等の外部情報をサーバ(不図示)より取得し、これらに基づいた推奨経路を算出しても良い。または、ナビゲーションシステム56は、自車両1の位置情報および目的地情報等をサーバに送る機能を有しており、サーバ側で推奨経路を算出し、この推奨経路の情報を受信するシステムとして構成されていてもよい。ナビゲーションシステム56は、算出された経路情報を全体制御ECU10に出力する。
車外カメラ57は、自車両1の車外を撮像するために設けられたカメラ(撮像装置)である。車外カメラ57は、例えば自車両1の前方、後方および左右にそれぞれ設けられており、それぞれの撮像画像を全体制御ECU10に出力する。全体制御ECU10は、この入力された撮像画像に基づいて、対象者の検出や認識、また他車両と障害物等のオブジェクトの検出や認識を実行することができる。
車外センサ58は、自車両1の車外の周囲の物体を検出することができるセンサであり、例えば超音波センサ、レーダセンサ、ミリ波レーダセンサ、ライダー、赤外線レーザーセンサ等により構成される。車外センサ58は、この検出情報を全体制御ECU10に出力する。全体制御ECU10は、車外センサ58から入力される車外の物体の検出情報に基づいて、その物体との距離情報や、物体の位置情報を検出する。距離情報及び位置情報の検出は、本実施の形態1のように全体制御ECU10が検出するものとしてもよいし、車外センサ58が検出した情報に基づいて距離情報及び位置情報を算出し、全体制御ECU10にこの情報を出力するとしてもよい。
照度センサ59は、自車両1の車外に向けて設けられており、車外の照度(明るさ)を検出するセンサである。照度センサ59は、検出した照度の情報を全体制御ECU10に出力する。
通信装置60は、自車両1の車外に存在する別の通信機器と無線通信を行う。通信装置60は、特定の周波数帯域を用いて、他車両との車車間通信、路側機との路車間通信、または人が持つスマートフォン等の通信可能な電子機器との通信を行う。通信装置60が行う通信は、特定の決められた周波数帯を用いた独自の通信、車内通信機器と外部通信機器との間の通信を実行するために規格化された通信規格を用いての通信であってもよいし、例えば無線LAN(Local Area Network)、Bluetooth(登録商標)、Zigbee(登録商標)等の既存の通信規格を用いての通信であってもよい。
通信装置60は、アンテナ61と、送信部62と、受信部63とを備えている。通信装置60は、アンテナ61を介して送信部62より別の通信機器に無線信号を送信し、アンテナ61を介して受信部63より別の通信機器からの周囲の混雑状況情報等の無線信号を受信する。
例えば、全体制御ECU10は、車外カメラ57、車外センサ58等から自車両1の周囲に他車両2が存在しているかどうかの情報、及び周囲の他車両2の色、形状、型番等の特徴の情報を取得し、GPSデバイス55、ナビゲーションシステム56、通信装置60等から自車両1の位置情報、速度規定、直線道路と車線数と曲線道路等の道路の形状情報とを取得し、車外カメラ57から死角情報または死角画像を含む自車両1の周囲の状況を取得する。表示システム30は、それらの情報を全体制御ECU10から取得する。なお、センサ40と通信装置60とのうち少なくとも一方は、死角情報または死角画像を取得し、全体制御ECU10に死角情報または死角画像を送信する。
全体制御ECU10は、自車両1の車両全体を制御する機能を有するECUである。センサ40から検出した情報を取得し、この情報に基づいて自車両1の各部を適切に動作させるように指示や情報を送ることで自車両1の車両全体の制御を実行する。全体制御ECU10は、プロセッサ11と、メモリ12とを備えている。
プロセッサ11は、メモリ12に格納されるプログラムを読み込み実行することで、全体制御ECU10において計算処理を実行するCPU(Central Processing Unit)である。具体的には、プロセッサ11は、メモリ12に記憶したOS(Operating System)の少なくとも一部をロードし、OSを実行しながら、プログラムを実行する。プロセッサ11は、通信線65を介して各装置及び機器と接続し、各装置及び機器を制御する。プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)であればいいので、計算処理回路、電気回路、コントローラ、中央処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等、またはこれらを組み合わせたものであってもよい。
なお、全体制御ECU10の様々な機能を別のプロセッサで実現してもよいし、様々な機能をまとめて1つのプロセッサで実現しても良い。
メモリ12は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアの組み合わせが記述されたプログラム、OS及び各種情報等を記憶する。メモリ12は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等である。
なお、メモリ12は、各部の機能をそれぞれ別々のメモリで実現してもよいし、各部の機能をまとめて1つのメモリで実現してもよい。
全体制御ECU10は、例えば、メモリ12として、1以上のプログラムを格納する不揮発性記憶装置であるROMと、プロセッサ11がプログラムと各種情報との展開領域として用いる揮発性記憶装置であるRAMを有しており、プロセッサ11はROMからプログラムを読み出し、読み出したプログラムをRAM上に展開して計算処理を実行する。
全体制御ECU10の機能は、ハードウェア、ソフトウェア、ファームウェア、またはハードウェアとソフトウェアとファームウェアとの組み合わせにより実現できる。全体制御ECU10の各部の機能は、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしても良い。例えば、全体制御ECU10の一部は専用のハードウェアとしての処理回路でその機能を実現し、残りの部分はCPUがメモリに格納されたプログラムを読み出して実行することによってその機能を実現してもよい。
運転装置70は、自車両1を運転するための装置である。運転装置70は、ヘッドライトドライバ71と、ヘッドライト72と、エンジン73と、変速機74と、ブレーキアクチュエータ75と、ステアリングアクチュエータ76と、ウィンカー77と、HUD(Head-Up Display)78とを備えている。
ヘッドライトドライバ71は、ヘッドライト72を駆動させる駆動装置である。ヘッドライトドライバ71は、全体制御ECU10からの指示に基づいて、ヘッドライド72を駆動させ、ヘッドライト72の点灯、消灯、ハイビームとロービームの切り替え等の動作を制御する。
ヘッドライト72は、自車両1の車体の前側に設けられ、車体の前方に光を照射する照射装置である。ヘッドライト72は、自車両1の車体の前側の左右にそれぞれ設けられており、ライトから照射された光を導く導光部の構造、または、複数のライトの切り替え等により、より遠くを照らすハイビームと、ハイビームより近距離を照らすロービームとを切り替えることができる。
エンジン73は、自車両1を駆動させる動力を発生させる内燃機関である。エンジン73は、ガソリン等の燃料を燃焼させることで、車輪を回転させるための動力を発生させる。エンジン73は、全体制御ECU10からの指示に基づいて動作する。
変速機74は、歯車や軸等によって構成され、動力を車輪へと伝達する機能を有している。変速機74は、全体制御ECU10からの指示に基づいてギアを変更することで、自車両1の車輪に伝達するトルクを変更する。
ブレーキアクチュエータ75は、自車両1を減速させるためのブレーキ(減速機)を動作させる機構である。ブレーキアクチュエータ75は、全体制御ECU10からの指示に基づいてブレーキを動作させ、自車両1を減速させる。
ステアリングアクチュエータ76は、自車両1の車輪の方向を変更し、自車両1の進行方向を制御するステアリング(操舵装置)を動作させる機構である。ステアリングアクチュエータ76は、全体制御ECU10からの指示に基づいてステアリングを制御し、自車両1の進行方向を制御する。
ウィンカー77は、自車両1の進行方向を発光によって車外に示すための方向指示器である。ウィンカー77は、全体制御ECU10からの指示に基づいて点滅し、車外に自車両1の進行方向を示す。
HUD78は、自車両1のフロントガラスに重畳して設けられた透過型の映像表示装置である。HUD78は、全体制御ECU10からの指示に基づいて種々の映像を表示する。HUD78は、は映像を表示することで自車両1の車内のユーザに様々な情報を提示する。なお、HUD78は、ナビゲーションシステム56のディスプレイとしてもよい。
報知制御ECU15は、自車両1の報知装置80を制御する機能を有するECUである。報知制御ECU15は、全体制御ECU10から自車両1の車内外情報を取得し、取得した車内外情報に基づいて自車両1の状況及び状態を判定し、対象者に対して報知装置80によって死角画像を含む報知情報を報知させる機能を有する装置である。報知制御ECU15は、プロセッサ16と、メモリ17とを備えている。
プロセッサ16は、メモリ17に格納されるプログラムを読み込み実行することで、報知制御ECU15において計算処理を実行するCPU(Central Processing Unit)である。具体的には、プロセッサ16は、メモリ17に記憶したOS(Operating System)の少なくとも一部をロードし、OSを実行しながら、プログラムを実行する。プロセッサ16は、通信線65を介して各装置及び機器と接続し、各装置及び機器を制御する。プロセッサ16は、プロセッシングを行うIC(Integrated Circuit)であればいいので、計算処理回路、電気回路、中央処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等、またはこれらを組み合わせたものであってもよい。
図2における表示制御装置20が備える車内外情報取得部27と、死角画像生成部28と、死角画像取得部21と、判定部22と、表示画像生成部23と、条件付与部29と、制御部26とは、プロセッサ16がメモリ17にロードしたプログラムを読み込み、実行することにより実現する。
なお、報知制御ECU15の様々な機能を別のプロセッサで実現してもよいし、様々な機能をまとめて1つのプロセッサで実現しても良い。
メモリ17は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアの組み合わせが記述されたプログラム、OS及び各種情報等を記憶する。メモリ17は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等である。
図2における表示制御装置20が備える車内外情報取得部27と、死角画像生成部28と、死角画像取得部21と、判定部22と、表示画像生成部23と、条件付与部29と、制御部26とは、メモリ17に記憶するプログラムによって実現する。また、死角画像DB24bと、自車両画像DB24aと、条件情報DB25とは、メモリ17によって実現する。
なお、メモリ17は、各部の機能をそれぞれ別々のメモリで実現してもよいし、各部の機能をまとめて1つのメモリで実現してもよい。
報知制御ECU15は、例えば、メモリ17として、1以上のプログラムを格納する不揮発性記憶装置であるROMと、プロセッサ16がプログラムと各種情報との展開領域として用いる揮発性記憶装置であるRAMを有しており、プロセッサ16はROMからプログラムを読み出し、読み出したプログラムをRAM上に展開して計算処理を実行する。
報知制御ECU15の機能は、ハードウェア、ソフトウェア、ファームウェア、またはハードウェアとソフトウェアとファームウェアとの組み合わせにより実現できる。報知制御ECU15の各部の機能は、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしても良い。例えば、報知制御ECU15の一部は専用のハードウェアとしての処理回路でその機能を実現し、残りの部分はCPUがメモリに格納されたプログラムを読み出して実行することによってその機能を実現してもよい。
報知装置80は、報知制御ECU15から少なくとも表示画像を含む報知情報を受信し、対象者に少なくとも表示画像を表示することを含む報知情報を報知する。報知装置80は、外部ライトデバイス81、プロジェクタデバイス86、ボディライトデバイス89、サウンドデバイス92等である。ただし、報知装置80は、外部ライトデバイス81、プロジェクタデバイス86、ボディライトデバイス89等の画像が表示できるデバイスを少なくとも1つ備える。なお、報知装置80は、図2の報知装置31に対応する。
外部ライトデバイス81は、自車両1の車体から外部に向けて取り付けられた照射装置である。外部ライトデバイス81は、路面や近くの壁面に光を照射し、自車両1の周囲の自車両1の外に存在する対象者に自車両1の状態、現在または今後の自車両1の動作の意図、自車両1の今後の動作の予告、または警告等を報知する。外部ライトデバイス81は、これらの報知情報を自車両1の外に存在する対象者に報知するために、これに適した形状、色、位置、大きさ、輝度、位置、タイミング、時間等で光を路面等に照射する。外部ライトデバイス81は、外部ライトドライバ82と、外部ライトセット83とを備えている。
外部ライトドライバ82は、外部ライトセット83を駆動させる駆動装置である。外部ライトドライバ82は、外部ライトセット83に所定の光を照射させるように制御する。外部ライトドライバ82は、外部ライトセット83の中の外部ライト84と外部ライト85との照射タイミングや照射時間等の組み合わせを制御する。また、外部ライトドライバ82は、外部ライト84と外部ライト85とに設けられたカラーフィルタ、シェード、導光機構等を動作させ、所定の自車両1の車体からの相対位置に、所定形状の、所定の色の、所定の大きさの、所定の輝度の光を所定のタイミング、所定の時間に照射する。
外部ライトセット83は、複数の外部ライト(照射装置)を備えており、具体的には、本実施の形態1では、外部ライト84と、外部ライト85とを備えている。外部ライト84と、外部ライト85は、外部ライトドライバ82に基づいて点灯する。
プロジェクタデバイス86は、自車両1の車体から外部向けて取り付けられた映像投射装置である。プロジェクタデバイス86は、路面や近くの壁面に光を照射し、自車両1の周囲の自車両1の外に存在する対象者に自車両1の状態、現在または今後の自車両1の動作の意図、自車両1の今後の動作の予告、または警告等を報知する。プロジェクタデバイス86は、これらの報知情報を自車両1の外に存在する対象者に伝えるために、これに適したこれに適した形状、色、位置、大きさ、輝度、位置、タイミング、時間等で光を路面等に照射(投影)する。プロジェクタデバイス86は、プロジェクタドライバ87と、プロジェクタ88とを備えている。
プロジェクタドライバ87は、プロジェクタ88を駆動させる駆動装置であり、プロジェクタ88に所定の光を照射させる。プロジェクタドライバ87は、プロジェクタ88の照射する光の形状、色、位置、大きさ、輝度、タイミング、時間等を制御する機能を有している。
プロジェクタ88は、光(映像)を自車両1の車外に照射(投影)する照射(投影)装置である。プロジェクタ88は、プロジェクタドライバ87の動作に基づいて光(映像)を車外の路面または壁面等に照射する。
ボディライトデバイス89は、自車両1の車体に設けられたディスプレイ、車体の輪郭に沿ってライン状に光る装置等の発光装置である。ボディライトデバイス89は、自車両1の周囲の自車両1の外に存在する対象者に自車両1の状態、現在または今後の自車両1の動作の意図、自車両1の今後の動作の予告、または警告等を報知する。また、ボディライトデバイス89は、自車両1の車体表面の所定の位置に、所定の形状の、所定の色の、所定の大きさの、所定の輝度の光を所定のタイミング、所定の時間で発光する。ボディライトデバイス89は、ボディライトドライバ90とボディライト91とを備えている。
ボディライトドライバ90は、ボディライト91を駆動させる駆動装置である。ボディライトドライバ90は、ボディライト91に所定の光を照射させる。ボディライトドライバ90は、ボディライト91の照射する光の形状、色、位置、大きさ、輝度、タイミング、時間等を制御する。
ボディライト91は、自車両1の車体の外側表面から発光する光が露光するように設けられた発光装置である。本実施の形態1におけるボディライト91は、LCD(Liquid Crystal Display)及びLED(Light Emitting Diode)で構成されており、LEDが発光した光がLCDを透過することにより、所定の形状、色、位置、大きさ、輝度の光を自車両1の車外に照射する。本実施の形態1ではボディライト91がLCD及びLEDで構成される例を示したが、有機EL(Electroluminescence)モニタ、ドットLED、液晶モニタ、ELパネル、リアプロジェクション方式の表示器等の他の発光装置や表示装置でもよい。また、発光させる場所についても、本実施の形態1では、表示装置32は自車両1の前面に設けられ、表示装置33は自車両1の後面に設けられ、表示装置34は自車両1の左側面に設けられ、表示装置35は自車両1の右側面に設けられているが、窓ガラスに表示する等してもよい。
図2における報知装置31が備える表示装置32~35は、外部ライトデバイス81、プロジェクタデバイス86、ボディライトデバイス89、または外部ライトデバイス81とプロジェクタデバイス86とボディライトデバイス89との組み合わせによって実現する。本実施の形態1では、表示装置32~35は、それぞれボディライトデバイス89であるとする。
サウンドデバイス92は、自車両1の車体に設けられた音響装置である。サウンドデバイス92は、自車両1の周囲の自車両1の外に存在する対象者に自車両1の状態、現在または今後の自車両1の動作の意図、自車両1の今後の動作の予告、または警告等を報知する。また、サウンドデバイス92は、自車両1の車体の表面の所定の位置に、所定の大きさの、所定のタイミング、所定の時間で所定の音を出力する。サウンドデバイス92は、サウンドドライバ93と、サウンド機器94とを備えている。
サウンドドライバ93は、サウンド機器94を駆動させる駆動装置である。サウンドドライバ93は、サウンド機器94に所定の位置に、所定の大きさの、所定のタイミング、所定の時間で所定の音を出力させる。サウンド機器94は、自車両1の車体から自車両1の外に存在する対象者に向けて音を発生させる装置である。図2における報知装置31が備えるスピーカ36は、サウンドデバイス92によって実現する。
次に、表示システム30の動作について説明する。具体例として、図1に示したような状況について説明する。
図8は、本実施の形態1に係る表示システム30の動作を示すフローチャートである。図8を用いて、表示システム30の動作を以下に説明する。
ステップS1において、車内外情報取得部27は、全体制御ECU10から死角情報または死角画像を含む車内外情報を取得する。具体的には、本実施の形態1では、車内外情報取得部27は、車内外情報として自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、対象者3の死角情報または死角画像とを取得する。
ステップS2において、車内外情報取得部27は、車内外情報に含まれる死角情報または死角画像はそのまま死角画像として使用できる否か判定する。車内外情報取得部27は、車内外情報に含まれる死角情報または死角画像はそのまま死角画像として使用できると判定した場合、ステップS2:Yesとなる。具体的には、例えば、車内外情報に含まれる死角情報または死角画像が、車外カメラから取得した抽出する必要のない、対象者3の目線にあった死角画像である場合、ステップS2:Yesとなる。なお、車内外情報に含まれる死角情報または死角画像はそのまま死角画像として使用できるということは、車内外情報に含まれる情報は死角画像である。車内外情報取得部27は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを死角画像取得部21に送信し、ステップS4に進む。
一方、車内外情報取得部27は、車内外情報に含まれる死角情報または死角画像はそのまま死角画像として使用できないと判定した場合、ステップS2:Noとなる。具体的には、例えば、車内外情報に含まれる死角情報または死角画像が、死角のレーダ情報である場合、ステップS2:Noとなる。また、例えば、車内外情報に含まれる死角情報または死角画像が、死角よりも広い範囲の車外カメラの画像である場合、ステップS2:Noとなる。例えば、車内外情報に含まれる死角情報または死角画像が、対象者3の目線に合っていない場合、ステップS2:Noとなる。車内外情報取得部27は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、対象者3の死角情報または死角画像とを死角画像生成部28に送信し、ステップS3に進む。
ステップS3において、死角画像生成部28は、車内外情報取得部27から自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、対象者3の死角情報または死角画像とを受信する。死角画像生成部28は、対象者3の死角情報または死角画像から死角画像を生成または抽出する。
具体的には、例えば、死角画像生成部28は、車内外情報に含まれる死角情報または死角画像が、死角のレーダ情報である場合、死角のレーダ情報から死角画像DB24bの画像のパーツを用いて死角画像を生成する。また、例えば、死角画像生成部28は、車内外情報に含まれる死角情報または死角画像が、死角よりも広い範囲の車外カメラの画像である場合、死角に合わせて死角画像を抽出する。例えば、死角画像生成部28は、車内外情報に含まれる死角情報または死角画像が、対象者3の目線に合っていない場合、対象者3の目線に合った死角画像を生成する。死角画像生成部28が対象者3の死角情報または死角画像から死角画像を生成または抽出する方法は従来技術を用いればよい。死角画像生成部28は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを死角画像取得部21に送信し、ステップS4に進む。
ステップS4において、死角画像取得部21は、車内外情報取得部27または死角画像生成部28から自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを取得する。死角画像取得部21は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを判定部22に送信し、ステップS5に進む。
ステップS5において、判定部22は、死角画像取得部21から自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを受信する。判定部22は、予め決められた範囲情報を記憶している。本実施の形態1では、範囲情報は、自車両1から5メートル以内の範囲とする。判定部22は、予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定する。具体的には、例えば、判定部22は、自車両1の位置情報と、対象者3の位置情報とから、予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定する。または、判定部22は、予め決められた自車両1から5メートル以内の範囲の画像から予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定する。判定部22が予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定する方法は従来技術を用いればよい。
判定部22が予め決められた自車両1から5メートル以内の範囲に対象者3が存在すると判定した場合、ステップS5:Yesとなり、ステップS6に進む。判定部22が予め決められた自車両1から5メートル以内の範囲に対象者3が存在しないと判定した場合、ステップS5:Noとなり、動作を終了する。
ステップS6において、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定する。具体的には、例えば、判定部22は、死角画像に他車両2等のオブジェクトが写っているか従来技術である画像判断をする。または、例えば、表示システム30が他車両2の位置情報と地図情報とを取得し、死角画像に位置情報が含まれていた場合は、判定部22は、他車両2の位置情報と地図情報と死角画像とから死角に他車両2等のオブジェクトが存在するか判定する。例えば、判定部22は、表示システム30が他車両2の位置情報と地図情報とを取得し、他車両2の位置情報と地図情報と自車両1の位置情報と、対象者3の位置情報とから死角に他車両2等のオブジェクトが存在するか判定する。判定部22が対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定する方法は従来技術を用いればよい。
判定部22が対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在すると判定した場合、ステップS6:Yesとなる。判定部22は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを表示画像生成部23に送信し、ステップS7に進む。判定部22が対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在しないと判定した場合、ステップS6:Noとなり、動作を終了する。
ステップS7において、表示画像生成部23は、判定部22から自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを受信する。表示画像生成部23は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを用いて、自車両画像DB24aから対象者3の目線に合わせた自車両1の画像を取得し、ステップS8に進む。
ステップS8において、表示画像生成部23は、自車両1の画像を死角画像に重畳した表示画像を生成する。表示画像生成部23は、対象者3が実際に自車両1を見た際と同じ位置、同じ目線となるように表示画像を生成する。また、表示画像生成部23は、対象者3と自車両1との距離に応じて表示画像を見やすい倍率に変更する。表示画像生成部23が表示画像を生成する方法は、機械学習等の従来技術を用いればよい。
図9は、本実施の形態1に係る自車両1の画像8を加工する前の表示画像7の一例である。本実施の形態1では、表示画像生成部23は、他車両2の画像である死角画像に自車両1の画像8を重畳して表示画像7を生成する。なお、死角画像は、他車両2の画像だけではなく、別の他車両、人等のオブジェクト、背景画像等を含んでいてもよい。ステップS8の段階では、自車両1の画像8に隠れて、他車両2の画像である死角画像は見えていない。
図8に戻って、表示画像生成部23は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、表示画像とを条件付与部29に送信し、ステップS9に進む。
ステップS9において、条件付与部29は、表示画像生成部23から自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、表示画像とを受信する。条件付与部29は、自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、表示画像とを用いて、条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得する。
条件付与部29は、条件情報DB25から車内外情報である自車両1の位置情報の識別子と、対象者3の位置情報の識別子と、対象者3の目線情報の識別子と、表示画像の識別子とに対応する報知装置情報と報知パターン情報と報知タイミング情報とを取得する。または、条件付与部29は、機械学習で、条件情報DB25から自車両1の位置情報の識別子と、対象者3の位置情報の識別子と、対象者3の目線情報の識別子と、死角画像の識別子とに対応する報知装置情報と報知パターン情報と報知タイミング情報とを取得する。条件付与部29が条件情報DB25から報知装置情報と報知パターン情報と報知タイミング情報とを取得する方法は従来技術を用いればよい。なお、報知装置情報と報知パターン情報と報知タイミング情報とは1組である必要はなく、1組でも複数組でもよい。
本実施の形態1では、条件付与部29は、条件情報DB25から、自車両1の前方に設けられた表示装置32の識別子に対応した報知装置情報と、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報と、表示装置32がすぐに報知を開始する報知タイミング情報とを取得したとして、ステップS10に進む。
ステップS10において、条件付与部29は、報知パターン情報は表示画像を加工するものであるか否か判定する。具体的には、例えば、報知パターン情報が自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報、自車両1の画像に透過処理を施す報知パターン情報、自車両1の画像を少しだけずらした視点から見たような画像にする報知パターン情報、自車両1の輪郭だけ実線もしくは点線とした画像とする報知パターン情報等であった場合、条件付与部29は、報知パターン情報が表示画像を加工するものであると判定する。条件付与部29は、報知パターン情報が表示画像を加工するものである場合、ステップS10:Yesとなり、ステップS11に進む。本実施の形態1では、報知パターン情報が自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報であるため、条件付与部29は、報知パターン情報が表示画像を加工するものであると判定し、ステップS10:Yesとなり、ステップS11に進む。
一方、例えば、報知パターン情報が、制御部26に表示装置に表示画像を強調するような表示をさせる表示装置32の枠を赤色に点滅させる報知パターン情報、表示と共に警報音を出す報知パターン情報等であった場合、条件付与部29は、報知パターン情報が表示画像を加工するものでないと判定する。報知パターン情報が表示画像を加工するものでない場合、ステップS10:Noとなる。条件付与部29は、報知装置情報と、報知パターン情報と、報知タイミング情報と、表示画像とを制御部26に送信し、ステップS12に進む。
ステップS11において、条件付与部29は、表示画像を加工する。具体的には、本実施の形態1では、条件付与部29は、条件情報DB25から、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報を取得したため、自車両1の画像を加工する。条件付与部29は、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報を用いて、自車両画像DB24aから取得した対象者3の目線に合わせた自車両1の画像を縮小する。例えば、条件付与部29は、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報に予め付与されていた縮小度に基づき、自車両1の画像を縮小する。または、条件付与部29は、機械学習で縮小度を決め、当該縮小度に基づき自車両1の画像を縮小する。条件付与部29が縮小度を決定する方法は従来技術を用いればよい。
図10は、本実施の形態1に係る自車両1の画像8を加工した後の表示画像7の一例である。条件付与部29が自車両1の画像8を縮小したことで、他車両2の画像9である死角画像が見えやすくなる。
図8に戻って、条件付与部29は、報知装置情報と、報知タイミング情報と、表示情報とを制御部26に送信する。本実施の形態1では、条件付与部29は、表示装置32の識別子に対応した報知装置情報と、表示装置32がすぐに報知を開始する報知タイミング情報と、表示画像とを制御部26に送信し、ステップS12に進む。
なお、本実施の形態1では、条件付与部29は、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報だけを取得したが、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報とともに、例えば表示と共に警報音を出す報知パターン情報を取得する場合がある。このような場合、条件付与部29は、報知装置情報と、報知タイミング情報と、表示情報とともに、報知パターン情報も制御部26に送信する。
また、例えば、条件付与部29は、報知パターン情報は表示画像を加工するものであるか否かに関わらず、条件情報DB25から自車両1の前方に設けられたスピーカ36の識別子である報知装置情報と、スピーカ36の音の報知パターン情報と、スピーカ36がすぐに報知を開始する報知タイミング情報とを取得する場合がある。このような場合、条件付与部29は、スピーカ36から発生させる報知情報である音情報を生成し、制御部26に送信する。報知情報は、表示画像、音情報等であり、1つでも複数でもよい。
ステップS12において、制御部26は、条件付与部29から報知装置情報と、報知パターン情報と、報知タイミング情報と、表示情報とを受信する。必要であれば、制御部26は、条件付与部29から報知パターン情報と、例えば音情報等の表示画像以外の報知情報とを受信する。本実施の形態1では、制御部26は、表示装置32の識別子である報知装置情報と、表示装置32がすぐに報知を開始する報知タイミング情報と、表示画像とを受信する。制御部26は、表示装置32の識別子である報知装置情報と、表示装置32がすぐに報知を開始する報知タイミング情報と、ステップS11で加工した表示画像とを用いて、当該情報を受信するとすぐに表示画像を表示装置32に表示し始める制御をする。
図11は、本実施の形態1に係る対象者3から自車両1を見たときの図の一例である。具体的には、図11は、図1において、対象者3から自車両1を見たときの点線矢印5から見たときの図である。自車両1の表示装置32は、制御部26の制御ですぐに表示画像7を表示し始める。
図12は、本実施の形態1に係る自車両1を真正面から見たときの図の一例である。具体的には、図12は、図1において、真正面から自車両1を見たときの点線矢印6から見たときの図である。図11と同様に、自車両1の表示装置32は、制御部26の制御ですぐに表示画像7を表示し始める。ただし、表示画像7は対象者3から自車両1を見たときの画像であるため、表示画像7は真正面から自車両1を見たときの風景と異なる。
図8に戻って、制御部26が報知情報としてスピーカ36の音情報を受信した場合は、表示と共に報知してもよい。例えば、他車両2が対象者3に接近してくる場合、制御部26は、スピーカ36から他車両2が近づいてくる走行音が強調されて出力されるように制御する。また、制御部26が表示装置32の枠を赤色に点滅させる報知パターン情報を受信した場合は、制御部26は表示装置に表示画像を強調するような表示をさせるように、表示と共に表示装置32の枠を赤色に点滅させる制御をしてもよい。
表示装置32が制御部26の制御によって表示画像を表示した後、表示システム30は動作を終了する。
ステップS5:Noとなった場合と、ステップS6:Noなった場合と、ステップS12を実行した後の場合、ステップS1に戻り、電源をOFFにすること、または終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。各ステップは、それぞれ独立した処理として、ステップ毎に処理を繰り返してもよい。
以上述べたように、実施の形態1の表示システム30は、表示画像生成部23が自車両1の画像に死角画像を重畳した表示画像を生成し、制御部26が自車両1に設けられた表示装置に表示画像を表示する。そのため、実施の形態1の表示システム30は、死角画像を表示する際に、対象者3にどこの範囲の死角画像であるのかを直感的に位置関係をわかりやすく表示することができる。
また、実施の形態1においては、条件付与部29が自車両1の画像8を縮小したことで、他車両2の画像9である死角画像が見えやすくなり、死角に存在する他車両2等のオブジェクトの視認度を高めることができる。
実施の形態1においては、報知パターン情報が自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報であり、条件付与部29は、自車両1の画像を縮小する加工を行った。しかし、条件付与部29は、自車両1の画像に透過処理を施す報知パターン情報によって自車両1の画像に透過処理を施す加工、自車両1の画像を少しだけずらした視点から見たような画像にする報知パターン情報によって自車両1の画像をずらした視点から見たような加工、自車両1の輪郭だけ実線もしくは点線とした画像とする報知パターン情報によって自車両1の輪郭だけ実線もしくは点線とする加工等を行ってもよい。このようにしても、実施の形態1の効果と同様の効果を得ることができる。
実施の形態1においては、表示システム30は、表示画像を生成した後に、条件付与部29が条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得し、自車両1の画像を加工した。しかし、表示システム30は、条件付与部29が条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得し、自車両1の画像を加工した後に、表示画像を生成してもよい。このようにしても、実施の形態1の効果と同様の効果を得ることができる。
実施の形態2.
実施の形態1では、報知パターン情報が、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報であり、条件付与部29は、表示画像の自車両1の画像を縮小した。実施の形態2では、報知パターン情報が、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報であり、条件付与部29は、死角画像の他車両2の画像を拡大する。当該加工をすることにより、死角画像を表示する際に、対象者にどこの範囲の死角画像であるのかを直感的にわかりやすく表示することができるとともに、死角に存在する他車両2等のオブジェクトの視認度を高めることができる。それ以外は、実施の形態1と同様である。以下の説明において実施の形態1で説明した構成及び動作については、同一符号を付して、重複する説明を省略する。
なお、実施の形態2でも実施の形態1と同様に、一例として、図1に示した状況について、本開示を適用した場合を以下に説明する。
本開示の実施の形態2に係る表示制御装置20を含む表示システム30のブロック図は、実施の形態1の図2と同様である。また、本実施の形態2に係る自車両1の車載システム100のハードウェア構成図は、図7と同様である。
次に、本実施の形態2に係る表示システム30の動作について説明する。
図13は、本開示の実施の形態2に係る表示システム30の動作を示すフローチャートである。図13を用いて、表示システム30の動作を以下に説明する。
ステップS1~S8は、実施の形態1のステップS1~S8と同様である。
ステップS19において、本実施の形態2では、条件付与部29は、条件情報DB25から、自車両1の画像を縮小して死角画像を見やすくさせる報知パターン情報ではなく、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報を取得する。それ以外は、ステップS19は、実施の形態1のステップS9と同様である。
ステップS20において、本実施の形態2では、報知パターン情報が他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報であるため、条件付与部29は、報知パターン情報が表示画像を加工するものであると判定し、ステップS20:Yesとなり、ステップS21に進む。それ以外は、ステップS20は、実施の形態1のステップS10と同様である。
ステップS21において、本実施の形態2では、条件付与部29は、条件情報DB25から、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報を取得したため、他車両2の画像を加工する。条件付与部29は、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報を用いて、死角画像である他車両2の画像を拡大する。例えば、条件付与部29は、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報に予め付与されていた拡大度に基づき、他車両2の画像を拡大する。または、条件付与部29は、機械学習で拡大度を決め、当該拡大度に基づき他車両2の画像を拡大する。条件付与部29が拡大度を決定する方法は従来技術を用いればよい。
なお、本実施の形態2では、条件付与部29は、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報だけを取得したが、他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報とともに、例えば表示と共に警報音を出す報知パターン情報を取得する場合がある。このような場合、条件付与部29は、報知装置情報と、報知タイミング情報と、表示情報とともに、報知パターン情報も制御部26に送信する。
このように、条件付与部29が他車両2の画像を拡大したことで、他車両2の画像である死角画像が見えやすくなる。それ以外は、ステップS21は、実施の形態1のステップS11と同様である。
ステップS12は、実施の形態1のステップS12と同様である。
ステップS5:Noとなった場合と、ステップS6:Noなった場合と、ステップS12を実行した後の場合、ステップS1に戻り、電源をOFFにすること、または終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。各ステップは、それぞれ独立した処理として、ステップ毎に処理を繰り返してもよい。
以上述べたように、実施の形態2の表示システム30は、表示画像生成部23が自車両1の画像に死角画像を重畳した表示画像を生成し、制御部26が自車両1に設けられた表示装置に表示画像を表示する。そのため、実施の形態2の表示システム30は、死角画像を表示する際に、対象者3にどこの範囲の死角画像であるのかを直感的に位置関係をわかりやすく表示することができる。
また、実施の形態2においては、条件付与部29が他車両2の画像を拡大したことで、他車両2の画像である死角画像が見えやすくなり、死角に存在する他車両2等のオブジェクトの視認度を高めることができる。
実施の形態2においては、報知パターン情報が他車両2の画像を拡大して死角画像を見やすくさせる報知パターン情報であり、条件付与部29は、死角画像である他車両2の画像を拡大する加工を行った。しかし、条件付与部29は、死角画像中の少なくとも1部分について大きさを拡大させる報知パターン情報によって死角画像中の少なくとも1部分について大きさを拡大させる加工、死角画像中の少なくとも1部分について自車両1の画像との重なりが少なくなるように位置をずらす報知パターン情報によって死角画像中の少なくとも1部分について自車両1の画像との重なりが少なくなるように位置をずらす加工等を行ってもよい。このようにしても、実施の形態2の効果と同様の効果を得ることができる。なお、条件付与部29は、他車両2等のオブジェクトの画像に矢印を付ける、他車両2等のオブジェクトの輪郭の色を赤色、黄色等の目立つ色を付けて強調する、他車両2等のオブジェクトの色を変更する等の死角画像である他車両2の画像を強調する加工を行ってもよい。
実施の形態2においては、表示システム30は、表示画像を生成した後に、条件付与部29が条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得し、死角画像である他車両2の画像を加工した。しかし、表示システム30は、条件付与部29が条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得し、他車両2の画像を加工した後に、表示画像を生成してもよい。このようにしても、実施の形態2の効果と同様の効果を得ることができる。
実施の形態1~2においては、制御部26が表示装置に表示画像を強調するような表示をさせる例として、制御部26が表示装置32の枠を赤色に点滅させる報知パターン情報を受信した場合は、表示と共に表示装置32の枠を赤色に点滅させる制御をする例を示した。しかし、制御部26は、表示装置に表示画像を強調するような表示をさせるために、表示画像の少なくとも1部分を点滅させてもよい。表示と共に表示装置32の枠を赤色に点滅させる制御をする例は、表示画像の少なくとも1部分を点滅させることの一例である。このように、制御部26が、表示装置32の枠を点滅させること、または、表示画像の少なくとも1部分を点滅させる制御をしたりするような表示装置に表示画像を強調するような表示をさせることにより、より対象者3の注意を惹くことができる。
実施の形態1~2においては、ステップS5で、判定部22は、自車両1の予め決められた範囲に対象者3が存在するか否か判定し、自車両1の予め決められた範囲に対象者3が存在する場合、対象者3に表示画像を表示すると判定していた。このようにすることで、表示システム30は、対象者3がいない場合は、表示をしないようにし、省エネルギーに貢献できる。また、表示システム30は、対象者3がいない場合は、表示画像の表示の代わりに「お先に行ってください」、「ありがとう」、「一時停止します」等の対象者3へのコミュニケーションを図る文字表示、広告表示、自車両1がタクシーである場合は予約、空き等の表示をすることができる。また、表示システム30は、自車両1が駐車または停車している場合、自車両1が原因となる死角をなくすために、各表示装置の反対側の映像を各表示装置に表示等してもよい。
実施の形態1~2においては、ステップS6で、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定し、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在する場合、対象者3に表示画像を表示すると判定していた。このようにすることで、対象者3は表示装置に表示画像が表示されたことにより、自車両1の方向に何かしらの交通環境の変化を予測することができる。具体的には、例えば、対象者3は表示が開始されたことが他車両2への注意喚起とそのまま認識できるため、より早く状況を把握することができる。
実施の形態1~2においては、表示システム30は、報知パターン情報により、表示装置32~35に表示する画像の形状、色、大きさ、輝度、位置等、スピーカ36に報知させる音の大きさ、音の高低、音の種類等の付加的な処理を行うことにより、対象者3の視覚と聴覚とにインパクトを与えることができるため、より早く状況を把握することができる。
なお、実施の形態1~2において、報知パターン情報が、表示装置32の枠を赤色に点滅させる報知パターン情報を含む場合、表示画像生成部23が表示画像を生成した後、制御部26が表示装置32に表示装置32の枠を赤色に点滅させるが、報知パターン情報を死角画像の他車両2等のオブジェクトの画像を点滅させる等の報知パターン情報とし、表示画像生成部23が表示画像を生成した後、制御部26が死角画像の他車両2等のオブジェクトの画像を点滅させる等してもよい。
実施の形態1~2において、表示画像生成部23は、対象者3の目線に合わせた自車両1の画像を取得し、対象者3の目線に合わせた死角画像に自車両1の画像を重畳し、表示画像を生成した。このようにすることで、表示システム30は、対象者3によりどこの範囲の死角画像であるのかを直感的にわかりやすく表示することができる。しかし、車内外情報取得部27が、対象者3の目の高さ情報を全体制御ECU10から取得できた場合は、表示画像生成部23は、車内外情報である自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、対象者3の目の高さ情報、死角画像とを用いて、自車両画像DB24aから対象者3の目線に合わせ、かつ対象者3の目の高さから自車両1を見た自車両1の画像を取得してもよい。そして、表示画像生成部23は、対象者3の目線に合わせ、かつ対象者3の目の高さから自車両1を見た死角画像に自車両1の画像を重畳し、対象者3の目線に合わせ、かつ対象者3の目の高さから自車両1を見た表示画像を生成してもよい。ここで、車内外情報取得部27は、目の高さ情報取得部に対応する。
具体的には、例えば、自車両画像DB24aは対象者3の目線及び対象者3の目の高さごとの自車両1の画像を記憶しているとする。表示画像生成部23は、車内外情報である自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、対象者3の目の高さ情報、死角画像とを用いて、自車両画像DB24aから対象者3の目線に合わせ、かつ対象者3の目の高さに合わせた自車両1の画像を取得する。
または、自車両画像DB24aは対象者3の目線及び対象者3の男性、女性、子供等の属性ごとの自車両1の画像を記憶しているとする。表示画像生成部23は、対象者3の目の高さ情報から属性を判定し、車内外情報である自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像と、属性の情報とを用いて、自車両画像DB24aから対象者3の目線に合わせ、かつ対象者3の目の高さに合わせた自車両1の画像を取得する。
または、表示画像生成部23は、車内外情報である自車両1の位置情報と、対象者3の位置情報と、対象者3の目線情報と、死角画像とを用いて、自車両画像DB24aから対象者3の目線に合わせた自車両1の画像を取得する。表示画像生成部23は、取得した自車両1の画像を対象者3の目の高さ情報を用いて画像を加工等してもよい。このように、対象者3の目線だけでなく対象者3の目の高さに合わせた自車両1の画像を用いることで、対象者3は報知情報をより認識しやすくなるという効果がある。例えば、男性目線の表示画像が表示装置に表示されている場合、子供にとっては見たことのない高さからの表示画像となるため認識しにくい可能性があるが、目の高さを考慮することで、認識しやすくなる。
実施の形態1~2において、対象者3の目線情報は、車内外情報取得部27が全体制御ECU10から取得したが、対象者3は自車両1を見ていると仮定して、判定部22が自車両1の位置情報と、対象者3の位置情報とから対象者3の目線情報を算出してもよい。
実施の形態1~2において、判定部22は、自車両1の位置情報と、対象者3の位置情報とから、予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定するとしたが、5メートルでなくても、例えば3メートル、10メートル等範囲はどのような範囲でもよい。また、予め決められた自車両1から5メートル以内の範囲としたが、表示装置32から半径5メートル、自車両1を囲む予め決められた矩形等範囲の形はどのようなものでもよい。
実施の形態1~2において、ステップS5では、判定部22は、自車両1の位置情報と、対象者3の位置情報とから、予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定した。また、ステップS6では、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定し、判定部22は対象者3に表示画像を表示するか否か判定していた。しかし、判定部22は、ギアの変更情報、舵角情報等から自車両1の動作の予測をしたり、他車両2の速度情報、他車両2の位置情報、ウィンカーの操作情報等から他車両2の動作の予測をしたりし、判定部22が対象者3に表示画像を表示するか否か判定してもよい。例えば、判定部22は、他車両2の速度情報と進行方向の情報とを用いて、判定部22は対象者3に表示画像を表示するか否か判定してもよい。判定部22が対象者3に表示画像を表示するか否か判定する方法は従来技術を用いればよい。また、条件付与部29は、車内外情報によって生成する表示画像を変化、または表示画像を加工してもよい。このようにすることで、対象者3は、死角の他車両2等のオブジェクトの状況とその変化とを認識しやすくなる。
実施の形態1~2において、ステップS5では、判定部22は、自車両1の位置情報と、対象者3の位置情報とから、予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定し、対象者3が存在する場合に、対象者3に表示画像を表示すると判定していた。しかし、判定部22は、表示している途中で対象者3が予め決められた自車両1から5メートル以内の範囲から出て存在しなくなった場合、または対象者3が横断歩道4を渡らずに止まっている場合等では、表示を終了し、表示画像を表示しないと判定してもよい。制御部26は、判定部22が表示しないと判定した場合に、表示装置に表示画像を表示させない制御を行う。
実施の形態1~2において、ステップS5では、判定部22は、自車両1の位置情報と、対象者3の位置情報とから、予め決められた自車両1から5メートル以内の範囲に対象者3が存在するか否か判定し、対象者3が存在する場合に、対象者3に表示画像を表示すると判定していた。しかし、判定部22は、対象者3がいない場合でも、予め決められた目線に合わせた表示画像を表示してもよい。このようにすることで、判定部22が対象者3の存在を判定できない位置に対象者3がいた場合でも、対象者3は早めに死角の状況を把握することができる。
実施の形態1~2において、ステップS6では、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定し、対象者3に表示画像を表示するか否か判定していた。しかし、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在したとしても、他車両2等のオブジェクトの行動の予測から対象者3にとって危険ではないと判定した場合は、表示画像を表示しないと判定してもよい。また、判定部22は、表示画像を表示していた場合は、表示を終了し、表示しないと判定してもよい。例えば、他車両2が自車両1の後ろ、真横等で停車したり、他車両2が死角を出て、対象者3を通り過ぎた場合は、判定部22は、表示を終了し、対象者3に表示画像を表示しないと判定する。制御部26は、判定部22が表示しないと判定した場合に、表示装置に表示画像を表示させない制御を行う。このようにすることで、対象者3は周囲に危険がないことを確認しやすくなり、対象者3の安心につながる。
実施の形態1~2において、ステップS6では、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定し、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在する場合に、対象者3に表示画像を表示すると判定していた。しかし、判定部22は、対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在しない場合でも、表示画像を表示してもよい。このようにすることで、対象者3は周囲に危険がないことを確認しやすくなり、対象者3の安心につながる。
実施の形態1~2において、判定部22は、ステップS5で対象者3の存在を判定してから、ステップS6で対象者3から見た自車両1の死角に他車両2等のオブジェクトが存在するか否か判定し、対象者3に表示画像を表示するか否か判定した。しかし、表示システム30は、ステップS5とステップS6とはどちらを先にしてもよい。さらに、判定部22は、ステップS12で表示画像を表示装置に表示させるまでの間であれば、どこで判定してもよい。
実施の形態1~2において、ステップS4で、死角画像取得部21は、死角画像を取得したが、ステップS5の後、ステップS6の後、ステップS7の後等に、死角画像取得部21が死角画像を取得してもよい。なお、表示システム30は、条件付与部29が条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得し、他車両2の画像の加工を行った後に、表示画像を生成する場合は、条件付与部29が条件情報DB25から表示装置を含む報知すべき報知装置31の報知装置情報と、報知パターン情報と、報知タイミング情報とを取得した後に、死角画像取得部21が死角画像を取得してもよい。
実施の形態1~2において、自車両1が停車している場合の表示システム30を説明したが、自車両1が駐車している場合、移動している場合でも本開示は適用できる。例えば、表示システム30は、自車両1が横断歩道4の数十m手前から走行中に表示を開始してもよい。また、対象者として歩行者3が停車している自車両1の前を横切ろうとしている場合を説明したが、対象者3が移動している場合、対象者3が止まっている場合でも本開示は適用できる。例えば、歩行者3が横断歩道4を渡る気がなく止まっていても、他車両2が突っ込んでくる場合がある。その場合に、本開示の表示画像を表示することで対象者3に注意喚起ができる。
なお、当該場合に、車内外情報取得部27は、死角に存在する他車両2の情報を示す他車両情報を取得し、条件付与部29は、他車両情報によって加工を変更すれば、より対象者3に注意喚起ができる。具体的には、車内外情報取得部27は、他車両情報である死角に存在する他車両2の速度情報と進行方向情報等を取得する。判定部22は、速度情報と進行方向情報等から他車両2の今後の動作の予測をし、条件付与部29は、他車両情報によって加工を変更する。なお、ここで、車内外情報取得部27は、他車両情報取得部に対応する。
実施の形態1~2において、対象者3は歩行者1人である場合を説明したが、対象者3が複数人である場合も本開示は適用できる。例えば、実施の形態1~2のように自車両1が車体の前後左右に表示装置32~35を設けており、自車両1の前側に歩行者が1人、自車両1の右側にも別の歩行者が1人いた場合、判定部22は、それぞれの歩行者に対して表示画像を表示するか否か判定する。判定部22がそれぞれの歩行者に対して表示すると判断した場合、表示画像生成部23は、それぞれの歩行者に対して表示画像を生成する。制御部26は、自車両1の前面に設けられた表示装置32に自車両1の前側にいる歩行者に対して生成された表示画像を表示させ、自車両1の右側面に設けられた表示装置35に自車両1の右側にいる歩行者に対して生成された表示画像を表示させる。
また、例えば、実施の形態1~2のように自車両1が車体の前後左右に表示装置32~35を設けており、自車両1の前側に歩行者が複数人いた場合、判定部22は、それぞれの歩行者に対して表示画像を表示するか否か判定する。判定部2は、表示画像を表示すると判定し、かつ死角に他車両2がいるにもかかわらず横断歩道4を渡ろうとした一番危険な行動を起こしそうな歩行者を1人決定する。表示画像生成部23は、判定部22が表示画像を表示すると判定し、かつ一番危険な行動を起こしそうな歩行者に対して表示画像を生成する。制御部26は、自車両1の前面に設けられた表示装置32に表示画像を表示させる。
なお、例えば、表示画像を表示すると判定し、かつ死角に他車両2がいるにもかかわらず横断歩道4を渡ろうとした一番危険な行動を起こしそうな歩行者が複数人いる場合は、判定部22は、一番早く危険となる歩行者に対して表示画像を表示すると決定する。その場合は、一番早く危険となる歩行者の目線に合わせた表示画像が表示装置に表示されるが、表示自体は他の歩行者も確認できるため、他の歩行者に対しても注意喚起ができる。また、表示と共にスピーカ36で報知を行えば、より注意喚起ができる。
また、自車両1の前側に歩行者が複数人いた場合、判定部22は、例えば、機械学習で表示画像を表示する歩行者を決定する、それぞれの歩行者に対して優先度を判定して優先度が一番高い歩行者を表示の対象の歩行者に決定する等してもよい。さらに、表示システム30は、自車両1の前側に歩行者が複数人いた場合、複数人の歩行者の平均位置の目線に合わせた表示画像を表示する、自車両1の真正面、真後ろ、左側面の真ん中、右側面の真ん中、真上等から見た表示画像を表示する等してもよい。
実施の形態1~2において、表示システム30は、判定部22は対象者3の目線情報から、対象者3が表示装置に表示されている表示画像に気づいているか判定し、対象者3が表示画像に気づいていない場合は、条件付与部29は、表示画像の少なくとも1部を加工してもよい。制御部26は、表示装置に加工した表示画像を表示するようにしてもよい。このようにすることで、対象者3が表示画像を確認する確率が高くなり、対象者3の視認性を高めることができる。
実施の形態1~2において、表示システム30は、表示画像を表示する場合を説明したが、表示と共にクラクション(不図示)を出力したり、ヘッドライト72から光を出力したり、スピーカ36から音を出力したり、それらを1以上の表示装置と組み合わせてもよい。具体的には、例えば、表示システム30が表示画像を表示した際に、対象者3が表示画像に気づいていない場合、判定部22は、自車両に設けられたクラクションを出力するか否か、自車両に設けられたヘッドライト72から光を出力するか否か、自車両に設けられたスピーカ36から音を出力させるか否か等を判定する。制御部26は、判定部22がクラクションを出力すると判定した場合、ヘッドライト72から光を出力すると判定した場合、スピーカ36から音を出力させると判定した場合等、表示装置に表示画像を表示するとともに、クラクションを出力する、ヘッドライト72から光を出力する、スピーカ36から音を出力させる等する。さらに、表示システム30は、対象者3が表示画像に気づくまでクラクションを出力する、ヘッドライト72から光を出力する、スピーカ36から音を出力する等し続けることにより、対象者3が表示画像を確認する確率が高くなり、対象者3の視認性を高めることができる。
また、例えば、表示システム30が表示画像を表示した際に、表示したことの注意喚起を対象者3にしたい場合、表示システム30は、表示とともに、クラクションを出力する、ヘッドライト72から光を出力する、スピーカ36から音を出力する等してもよい。このようにすることで、対象者3が表示画像を確認する確率が高くなり、対象者3の視認性を高めることができる。
なお、ヘッドライト72の場合は、表示システム30は、ヘッドライト72の点灯と消灯とを表示と連動させ、例えばパッシングを行うことで対象者3に表示を気づかせる、注意喚起をする等してもよい。また、例えば、歩行者3から見て、ヘッドライト72から光を出力していることで表示画像の表示が見えにくい場合は、表示システム30は、ヘッドライト72の光を弱めたり、消したりしてもよい。
実施の形態1~2において、自車両1が横断歩道周辺にいる場合を説明したが、混雑している駐車場、路肩での駐車等でも本開示を適用できる。
実施の形態1~2において、車内外情報取得部21は、全体制御ECU11から車内外情報を取得したが、車内外情報取得部21は、それぞれのセンサから直接車内外情報を取得してもよい。
実施の形態1~2において、自車両画像DB24aと死角画像DB24bと条件情報DB25とは、表示制御装置20が備えていたが、自車両画像DB24aと死角画像DB24bと条件情報DB25とは、別のサーバ等に記憶されており、表示制御装置20は通信装置60等を用いて、別のサーバ等から取得してもよい。
実施の形態1~2において、自車両1は自動車としたが、自動運転車両でも人が運転をする自動車でもよい。なお、自動運転車両の場合は、ドライバが必ずしも運転状況を把握していない場合があるため、ドライバの代わりに対象者3に対して安全に行動ができるようにサポートできるようになる。また、自車両1は自動車に限らず、フォークリフト、船、飛行機、自転車、バイク等でもよい。
実施の形態1~2において、対象者3は歩行者としたが、自転車、バイク、自動車、フォークリフト等の車両のドライバ等でもよい。
ところで、上記した実施の形態に示した表示制御装置、表示システム、表示制御方法及び表示制御プログラムは一例に過ぎず、適宜、他の装置と組み合わせて構成することが出来るものであって、実施の形態単独の構成に限られるものではない。
1 自車両、 2 他車両、 3 対象者、 4 横断歩道、
5 対象者3から自車両1を見たときの点線矢印、
6 真正面から自車両1を見たときの点線矢印、
7 表示画像、 8 自車両1の画像、
9 他車両2の画像である死角画像、
10 全体制御ECU、 11 プロセッサ、 12 メモリ、
15 報知制御ECU、 16 プロセッサ、 17 メモリ、
20 表示制御装置、 21 死角画像取得部、 22 判定部、
23 表示画像生成部、 24a 自車両画像DB、
24b 死角画像DB、 25 条件情報DB、
26 制御部、 27 車内外情報取得部、 28 死角画像生成部、
29 条件付与部、 30 表示システム、 31 報知装置、
32~35 表示装置、 36 スピーカ、 40 センサ、
41 車速センサ、 42 舵角センサ、 43 アクセルセンサ、
44 ブレーキセンサ、 45 シフトセンサ、
46 ウィンカーセンサ、 47 ハザードセンサ、
48 ワイパーセンサ、 49 ライトセンサ、
50 ドア開閉センサ、 51 ドライバカメラ、
52 着座センサ、 53 加速度センサ、 54 角速度センサ、
55 GPSデバイス、 56 ナビゲーションシステム、
57 車外カメラ、 58 車外センサ、 59 照度センサ、
60 通信装置、 61 アンテナ、 62 送信部、
63 受信部、 65 通信線、 70 運転装置、
71 ヘッドライトドライバ、 72 ヘッドライト、
73 エンジン、 74 変速機、 75 ブレーキアクチュエータ、
76 ステアリングアクチュエータ、
77 ウィンカー、 78 HUD、 80 報知装置、
81 外部ライトデバイス、 82 外部ライトドライバ、
83 外部ライトセット、 84~85 外部ライト、
86 プロジェクタデバイス、 87 プロジェクタドライバ、
88 プロジェクタ、 89 ボディライトデバイス、
90 ボディライトドライバ、 91 ボディライト、
92 サウンドデバイス、 93 サウンドドライバ、
94 サウンド機器、 95 表示装置32の枠、
100 車載システム。

Claims (19)

  1. 自車両の外に存在する対象者から見て前記自車両によって生じる死角を示す死角画像を取得する死角画像取得部と、
    前記自車両の画像を前記死角画像に重畳した表示画像を生成する表示画像生成部と、
    前記自車両の車体から外部向けて取り付けられた表示装置に前記表示画像を表示する制御部と
    を備えた表示制御装置。
  2. 前記表示画像を加工する条件付与部を備え、
    前記制御部は、前記表示装置に加工した前記表示画像を表示する
    請求項1に記載の表示制御装置。
  3. 前記条件付与部は、前記自車両の画像を加工する
    請求項2に記載の表示制御装置。
  4. 前記条件付与部は、前記自車両の画像を縮小する加工、前記自車両の画像に透過処理を施す加工、前記自車両の画像をずらした視点から見たような加工、または、前記自車両の輪郭だけ実線もしくは点線とする加工、のうちの少なくとも1つの加工をする
    請求項3に記載の表示制御装置。
  5. 前記条件付与部は、前記死角画像を加工する
    請求項2~4のいずれか1項に記載の表示制御装置。
  6. 前記条件付与部は、前記死角画像中の少なくとも1部分について大きさを拡大させる加工、または、前記死角画像中の少なくとも1部分について前記自車両の画像との重なりが少なくなるように位置をずらす加工、のうちの少なくとも1つの加工をする
    請求項5に記載の表示制御装置。
  7. 前記制御部は、前記表示装置に前記表示画像を強調するような表示をさせる
    請求項1~6のいずれか1項に記載の表示制御装置。
  8. 前記表示画像を強調するような表示とは、前記表示装置の枠を点滅させること、または、前記表示画像の少なくとも1部分を点滅させることである
    請求項7に記載の表示制御装置。
  9. 前記死角に存在する他車両の情報を示す他車両情報を取得する他車両情報取得部を備え、
    前記条件付与部は、前記他車両情報によって加工を変更する
    請求項2~のいずれか1項に記載の表示制御装置。
  10. 前記対象者の目線情報を取得する目線情報取得部を備え、
    前記表示画像生成部は、前記目線情報により前記対象者の目線に合わせた前記表示画像を生成する
    請求項1~9のいずれか1項に記載の表示制御装置。
  11. 前記対象者の目の高さ情報を取得する目の高さ情報取得部を備え、
    前記表示画像生成部は、前記目の高さ情報により前記対象者の目の高さから前記自車両を見た前記表示画像を生成する
    請求項10に記載の表示制御装置。
  12. 前記対象者に前記表示画像を表示する否か判定する判定部を備え、
    前記制御部は、前記判定部が表示すると判定した場合に、前記表示装置に前記表示画像を表示する
    請求項2~6、9のいずれか1項に記載の表示制御装置。
  13. 前記判定部は、予め決められた範囲に前記対象者が存在すると判定した場合、前記対象者に前記表示画像を表示すると判定し、前記予め決められた範囲に前記対象者が存在しないと判定した場合、前記対象者に前記表示画像を表示しないと判定する
    請求項12に記載の表示制御装置。
  14. 前記判定部は、前記死角にオブジェクトが存在する場合、前記対象者に前記表示画像を表示すると判定し、前記死角に前記オブジェクトが存在しない場合と、前記死角に前記オブジェクトが停止している場合とは、前記対象者に前記表示画像を表示しないと判定する
    請求項12~13のいずれか1項に記載の表示制御装置。
  15. 前記判定部は、前記対象者が前記表示装置に表示されている前記表示画像に気づいているか否か判定し、
    前記条件付与部は、前記判定部が前記対象者が前記表示画像に気づいていないと判定した場合は、前記表示画像の少なくとも1部を加工し、
    前記制御部は、前記表示装置に加工した前記表示画像を表示する
    請求項12~14のいずれか1項に記載の表示制御装置。
  16. 前記判定部は、前記自車両に設けられたスピーカから音を出力させるか否か判定し、
    前記制御部は、前記判定部が前記スピーカから前記音を出力させると判定した場合、前記表示装置に前記表示画像を表示するとともに、
    前記スピーカから前記音を出力させる
    請求項12~15のいずれか1項に記載の表示制御装置。
  17. 自車両の車体から外部向けて取り付けられた表示装置と、
    前記自車両の外に存在する対象者から見て前記自車両によって生じる死角を示す死角画像を取得する死角画像取得部と、
    前記自車両の画像を前記死角画像に重畳した表示画像を生成する表示画像生成部と、
    前記表示装置に前記表示画像を表示する制御部と、
    を備えた表示システム。
  18. 自車両の外に存在する対象者から見て前記自車両によって生じる死角を示す死角画像を取得するステップと、
    前記自車両の画像を前記死角画像に重畳した表示画像を生成するステップと、
    前記自車両の車体から外部向けて取り付けられた表示装置に前記表示画像を表示するステップと
    を有する表示制御方法。
  19. 死角画像取得部が、自車両の外に存在する対象者から見て前記自車両によって生じる死角を示す死角画像を取得する処理と、
    表示画像生成部が、前記自車両の画像を前記死角画像に重畳した表示画像を生成する処理と、
    制御部が、前記自車両の車体から外部向けて取り付けられた表示装置に前記表示画像を表示する処理と
    を実行させる表示制御プログラム。
JP2022558626A 2020-10-27 2020-10-27 表示制御装置、表示システム、表示制御方法及び表示制御プログラム Active JP7439949B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/040178 WO2022091194A1 (ja) 2020-10-27 2020-10-27 表示制御装置、表示システム、表示制御方法及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2022091194A1 JPWO2022091194A1 (ja) 2022-05-05
JP7439949B2 true JP7439949B2 (ja) 2024-02-28

Family

ID=81382155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022558626A Active JP7439949B2 (ja) 2020-10-27 2020-10-27 表示制御装置、表示システム、表示制御方法及び表示制御プログラム

Country Status (2)

Country Link
JP (1) JP7439949B2 (ja)
WO (1) WO2022091194A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244688A (ja) 2001-12-12 2003-08-29 Equos Research Co Ltd 車両の画像処理装置
JP2011253486A (ja) 2010-06-04 2011-12-15 Denso Corp 車両用の情報表示装置
JP2018148284A (ja) 2017-03-01 2018-09-20 ソフトバンク株式会社 基地局装置及び通信システム
JP2019202589A (ja) 2018-05-22 2019-11-28 日本精機株式会社 表示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102105547B1 (ko) * 2018-04-02 2020-04-28 주식회사 알트에이 보행자 사전감지 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244688A (ja) 2001-12-12 2003-08-29 Equos Research Co Ltd 車両の画像処理装置
JP2011253486A (ja) 2010-06-04 2011-12-15 Denso Corp 車両用の情報表示装置
JP2018148284A (ja) 2017-03-01 2018-09-20 ソフトバンク株式会社 基地局装置及び通信システム
JP2019202589A (ja) 2018-05-22 2019-11-28 日本精機株式会社 表示装置

Also Published As

Publication number Publication date
JPWO2022091194A1 (ja) 2022-05-05
WO2022091194A1 (ja) 2022-05-05

Similar Documents

Publication Publication Date Title
CN110214472B (zh) 照射控制装置和照射方法
JP4807263B2 (ja) 車両用表示装置
US20200148214A1 (en) Travel control apparatus and travel control method
KR101895485B1 (ko) 운전 보조 장치 및 그 제어 방법
US11318879B2 (en) Irradiation apparatus and irradiation method
KR101478135B1 (ko) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템
CN109204305B (zh) 丰富视野方法、观察员车辆和对象中使用的设备和机动车
JP2006227811A (ja) 運転支援装置
JP7470230B2 (ja) 車両用表示システム、車両システム及び車両
JP7309724B2 (ja) 車両用表示システム及び車両
CN112298024B (zh) 一种避让提醒系统、方法、车辆及计算机存储介质
KR20220083675A (ko) 표시 시스템, 표시 장치, 표시 방법 및 이동 장치
CN112298016A (zh) 一种远光灯提醒系统、方法、车辆及计算机存储介质
CN112298021A (zh) 一种环境交互系统、方法、车辆及计算机存储介质
JP2015149006A (ja) 車両用通信装置、車両用通信装置プログラム、車両用通信方法
CN112298017A (zh) 一种互动系统、方法及计算机存储介质
CN112298022A (zh) 一种迎宾系统、方法、车辆及计算机存储介质
JP7439949B2 (ja) 表示制御装置、表示システム、表示制御方法及び表示制御プログラム
WO2021131789A1 (ja) 車両
JP7318431B2 (ja) 表示制御装置及び表示制御プログラム
KR20180085585A (ko) 차량에 구비된 차량 제어 장치 및 그의 제어방법
CN112298018A (zh) 一种求助系统、方法、车辆及计算机存储介质
CN112365729A (zh) 一种路况提醒系统、方法、车辆及计算机存储介质
CN112298020A (zh) 一种车机信息展示系统、方法、车辆及计算机存储介质
JP7480801B2 (ja) 車両用報知制御装置及び車両用報知制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R151 Written notification of patent or utility model registration

Ref document number: 7439949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151