JP2021196743A - 画像処理装置、プログラム、及び画像処理システム - Google Patents

画像処理装置、プログラム、及び画像処理システム Download PDF

Info

Publication number
JP2021196743A
JP2021196743A JP2020101592A JP2020101592A JP2021196743A JP 2021196743 A JP2021196743 A JP 2021196743A JP 2020101592 A JP2020101592 A JP 2020101592A JP 2020101592 A JP2020101592 A JP 2020101592A JP 2021196743 A JP2021196743 A JP 2021196743A
Authority
JP
Japan
Prior art keywords
image
target
information
vehicle
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020101592A
Other languages
English (en)
Other versions
JP7276255B2 (ja
JP2021196743A5 (ja
Inventor
敬久 藤野
Takahisa Fujino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020101592A priority Critical patent/JP7276255B2/ja
Priority to PCT/JP2021/021574 priority patent/WO2021251339A1/ja
Publication of JP2021196743A publication Critical patent/JP2021196743A/ja
Publication of JP2021196743A5 publication Critical patent/JP2021196743A5/ja
Application granted granted Critical
Publication of JP7276255B2 publication Critical patent/JP7276255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

【課題】車両の乗員の視線を、表示する画像の中の特定の物標に誘導できる画像処理装置、プログラム、及び画像処理システムを提供すること。【解決手段】画像処理装置3は表示装置15、17、19に画像を表示する。画像処理装置は、情報取得ユニットと、画像作成ユニットとを備える。情報取得ユニットは、車両の周辺に存在する物標の位置を表す第1情報と、物標が強調対象物標であるか否かを表す第2情報とを取得する。画像作成ユニットは、第1情報により表された位置に物標を表す画像を作成する。物標の少なくとも一部が強調対象物標である場合、画像作成ユニットは、強調対象物標が被写界深度にあるように表された画像を作成する。【選択図】図1

Description

本開示は、画像処理装置、プログラム、及び画像処理システムに関する。
特許文献1に、車両用運転操作補助装置用の表示装置が開示されている。表示装置は、自車線前方の先行車を表すシンボルと、自車線外の車両を表すシンボルとを異なる色で表示することで、先行車を強調表示する。
特許第4779355号公報
特許文献1に記載の表示装置では、車両の乗員の視線を、表示する画像の中の特定の物標に誘導できない場合がある。本開示の1つの局面では、車両の乗員の視線を、表示する画像の中の特定の物標に誘導できる画像処理装置、プログラム、及び画像処理システムを提供することが好ましい。
(1)本開示の1つの局面は、車両(2)が備える表示装置(15、17、19)に画像(57、65、67)を表示する画像処理装置(3)である。画像処理装置は、前記車両の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像を作成するように構成された画像作成ユニット(37)とを備える。
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。
本開示の1つの局面である画像処理装置は、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。
(2)本開示の別の局面は、コンピュータを画像処理装置(3)として機能させるプログラムである。前記画像処理装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)とを備える。
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。
本開示の別の局面であるプログラムは、コンピュータを画像処理装置として機能させる。画像処理装置は、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。
(3)本開示の別の局面は、情報提供装置(41)と、画像処理装置(3)と、を備える画像処理システム(41、3)である。前記情報提供装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを提供するように構成される。
前記画像処理装置は、前記情報提供装置から前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(35)と、前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、を備える。
前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する。
本開示の別の局面である画像処理システムは、作成する画像のうち、強調対象物標へ、車両の乗員の視線を誘導することができる。
車載システムの構成を表すブロック図である。 車載システムの機能的構成を表すブロック図である。 画像処理装置が実行する処理を表すフローチャートである。 第1画像の例を表す説明図である。 第1画像の例を表す説明図である。 第2画像の例を表す説明図である。 第2画像の例を表す説明図である。 第3画像の例を表す説明図である。 第3画像の例を表す説明図である。 第3画像の例を表す説明図である。 強調対象物標の優先度が変化した場合の第2画像の変化を表す説明図である。 第1画像の表示範囲を変更する処理を表す説明図である。
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.車載システム1の構成
車載システム1の構成を、図1及び図2に基づき説明する。車載システム1は、車両2に搭載されている。
図1に示すように、車載システム1は、画像処理装置3と、自動運転システム5と、ロケータECU7と、走行制御ECU9と、周辺監視センサ11と、メータディスプレイ15と、CID(Center Information Display)17と、HUD19と、操作デバイス21と、ボディECU23と、方向指示SW(スイッチ)25と、ドライバモニタ27と、を備える。車載システム1の各構成は、通信バス29により、互いに通信可能に接続されている。
画像処理装置3は、は、CPU31と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ33とする)と、を有するマイクロコンピュータを備える。
画像処理装置3の各機能は、CPU31が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ33が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、画像処理装置3は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
画像処理装置3は、図2に示すように、情報取得ユニット35と、画像作成ユニット37と、画像出力ユニット39と、を備える。画像処理装置3が備える各構成の機能は後述する。
自動運転システム5は、自動運転ECU41と、運転支援ECU43と、を備える。自動運転ECU41は、車両2の乗員に代わり運転操作を自動で行う自動運転機能を実現させる車載ECUである。自動運転ECU41は、例えば、米国自動車技術会が規定する自動運転レベル3以上の自律走行を可能にする。
自動運転ECU41は、図2に示すように、環境認識ユニット45と、行動判断ユニット47と、操作実行ユニット49と、を備える。
環境認識ユニット45は、ロケータECU7からロケータ情報及び地図情報を取得する。ロケータ情報及び地図情報については後述する。環境認識ユニット45は、周辺監視センサ11から検出情報を取得する。検出情報については後述する。
環境認識ユニット45は、ロケータ情報、地図情報、及び検出情報に基づき、車両2の走行環境を認識する。走行環境として、例えば、車両2の周辺に存在する物標59の位置及び速度等が挙げられる。物標59として、例えば、他の車両、歩行者、自転車、動物、固定物、車線境界線等が挙げられる。また、走行環境として、例えば、車両2が走行しているレーンの位置及び形状等が挙げられる。
環境認識ユニット45は、第1情報及び第2情報を作成する。第1情報は、車両2の周辺に存在する物標59の位置を表す情報である。第2情報は、第1情報により位置を表された物標59が強調対象物標59Aであるか否かを表す情報である。強調対象物標59Aとは、車両2の乗員が注意を向けるべき物標である。
強調対象物標59Aとして、例えば、車両2が追従している先行車、蛇行運転をしている他の車両、車両2がレーンチェンジを予定している場合に、変更後のレーンを走行している他の車両、車両2と通信を行っている周辺車、自動運転システム5が認識した、並走を回避すべき周辺車、自動運転システム5が認識した、割り込み進入してきた周辺車等が挙げられる。
環境認識ユニット45は、強調対象物標59Aが2以上存在する場合、強調対象物標59Aに優先度を設定する。車両2にとって注意すべき必要性が高いほど優先度は高くなる。第2情報は、優先度をさらに含む。
環境認識ユニット45は、例えば、車両2の挙動に基づき優先度を設定することができる。環境認識ユニット45は、例えば、ボディECU23から、後述する方向指示情報を取得する。環境認識ユニット45は、方向指示情報に基づき、車両2が進路を変更した場合に、変更後の進路上にある物標を探索する。変更後の進路上に物標が存在する場合、環境認識ユニット45は、その物標の優先度を、他の物標の優先度より高く設定する。
行動判断ユニット47は、環境認識ユニット45が認識した走行環境に基づき、車両2の予定走行ラインを生成する。操作実行ユニット49は、走行制御ECU9と連携しながら、行動判断ユニット47が生成した予定走行ラインに沿って車両2が走行するように、車両2の加減速制御及び操舵制御等を実行する。操作実行ユニット49は、第3情報を作成する。第3情報は、現時点において車両2の状態が自動運転状態であるか否かを表す情報である。自動運転状態とは、自動運転を実行している状態である。
なお、自動運転ECU41は、第1情報と第2情報とを画像処理装置3に提供する情報提供装置に対応する。自動運転ECU41と画像処理装置3とを備えるシステムは、画像処理システムに対応する。
運転支援ECU43は、車両2の乗員の運転操作を支援する運転支援操作を実現させる車載ECUである。運転支援ECU43は、例えば、米国自動車技術会が規定する自動運転レベル2程度の高度運転支援又は部分的な自動走行制御を可能にする。
ロケータECU7は、GNSS(Global Navigation Satellite System)受信器及び慣性センサ等を含む。ロケータECU7は、GNSS受信器で受信する測位信号、慣性センサの計測結果、及び通信バス29に出力された車速情報等を組み合わせ、車両2の位置及び進行方向等を逐次測定する。ロケータECU7は、ロケータ情報を通信バス29に逐次出力する。ロケータ情報は、車両2の位置及び進行方向等を表す情報である。
ロケータECU7は、地図データベース51をさら備える。地図データベース51は、大容量の記憶媒体を主体とする構成である。記憶媒体には、多数の地図データが格納されている。地図データとして、3次元地図データ及び2次元地図データがある。3次元地図データは、いわゆる高精度地図データである。3次元地図データは、高度運転支援及び自動運転に必要な情報を含んでいる。3次元地図データは、道路の3次元形状情報、各レーンの詳細情報等を含んでいる。
ロケータECU7は、車両2の現在位置周辺の地図データを地図データベース51から読み出す。ロケータ7ECUは、運転支援ECU43及び自動運転ECU41等に、ロケータ情報とともに地図情報を提供する。地図情報は、地図データベース51から読み出した地図データを含む情報である。
なお、車載システム1は、ロケータECU7に替えて、スマートフォン等のユーザ端末又はナビゲーション装置等からロケータ情報及び地図情報を取得し、取得したロケータ情報及び地図情報を運転支援ECU43及び自動運転ECU41等に提供してもよい。
走行制御ECU9は、マイクロコントローラを主体として含む電子制御装置である。走行制御ECU9は、車両2の各輪のハブ部分に設けられた車輪速センサの検出信号に基づき、車両2の現在の走行速度を示す車速情報を生成する。走行制御ECU9は、車速情報を通信バス29に逐次出力する。
走行制御ECU9は、ブレーキ制御ECU及び駆動制御ECUの機能を少なくとも有する。走行制御ECU9は、車両2の乗員の運転操作に基づく操作指令、運転支援ECU43からの制御指令、及び自動運転ECU41からの制御指令のいずれか一つに基づき、車両2の各輪に発生させるブレーキ力の制御と、車両2の動力源の出力制御とを継続的に実施する。
周辺監視センサ11は、車両2の周辺環境を監視する自律センサである。周辺監視センサ11は、車両2の周辺に存在する物標を検出可能である。周辺監視センサ11は、検出情報を、通信バス29を介して、運転支援ECU43及び自動運転ECU41等に提供する。検出情報は、検出した物標の位置及び速度等を表す情報である。
周辺監視センサ11は、例えば、カメラユニット53及びミリ波レーダ55等を含む。カメラユニット53は、単眼カメラを含む構成であってもよいし、複眼カメラを含む構成であってもよい。カメラユニット53は、例えば、車両2の前方範囲、側方範囲、及び後方範囲等を撮影可能である。検出情報は、例えば、カメラユニット53が車両2の周囲を撮影して生じた撮像データ、及び撮像データの解析結果の少なくとも一方を含む。
ミリ波レーダ55は、ミリ波又は準ミリ波を車両2の周囲へ向けて照射する。ミリ波レーダ55は、物標で反射した反射波を受信する。検出情報は、例えば、ミリ波レーダ55の検出結果を含む。周辺監視センサ11は、ライダ及びソナー等をさらに備えていてもよい。
メータディスプレイ15及びCID17は、それぞれ、例えば、液晶ディスプレイ又はOLED(Organic Light Emitting Diode)ディスプレイ等を主体とする構成である。メータディスプレイ15及びCID17は、画像処理装置3から取得する制御信号及び映像データに基づき、種々の画像を表示画面に表示させる。メータディスプレイ15は、例えば、車両2の運転席の正面に設置されている。CID17は、例えば、車両2のセンタクラスタの上方に設置されている。CID17は、タッチパネルの機能を有している。CID17は、例えば、車両2の乗員等による表示画面へのタッチ操作及びスワイプ操作等を検出する。
HUD19は、画像処理装置3から取得する制御信号及び映像データに基づき、車両2の乗員の前方に結像される画像の光を、ウィンドシールドに投影する。ウィンドシールドにて車両2の車室内側に反射された画像の光は、車両2の乗員によって知覚される。こうしてHUD19は、ウィンドシールドよりも前方の空間中に虚像を表示する。車両2の乗員は、HUD19によって表示される虚像を、車両2の前景と重ねて視認する。
なお、メータディスプレイ15、CID17、及びHUD19は、車両2が備える表示装置に対応する。
操作デバイス21は、車両2の乗員等によるユーザ操作を受け付ける入力部である。操作デバイス21には、例えば、自動運転機能の作動及び停止に関連するユーザ操作等が入力される。操作デバイス21として、例えば、ステアリングホイールのスポーク部に設けられたステアスイッチ、ステアリングコラム部に設けられた操作レバー、及び車両2の乗員の発話内容を認識する音声入力装置等が挙げられる。
ボディECU23は、マイクロコントローラを主体として含む電子制御装置である。ボディECU23は、車両2に搭載された灯火装置の作動を制御する機能を少なくとも有する。ボディECU23は、方向指示スイッチ25と電気的に接続されている。方向指示スイッチ25は、ステアリングコラム部に設けられたレバー状の操作部である。
方向指示スイッチ25は、左方向の操作と、右方向の操作とを受け付けることができる。方向指示スイッチ25が左方向の操作を受け付けたとき、ボディECU23は、左の方向指示器の点滅を開始させる。方向指示スイッチ25が右方向の操作を受け付けたとき、ボディECU23は、右の方向指示器の点滅を開始させる。
ボディECU23は、方向指示情報を、通信バス29を介して、自動運転ECU41等に提供する。方向指示情報は、方向指示スイッチ25に対し行われた操作の内容を表す情報である。
ドライバモニタ27は、近赤外光源及び近赤外カメラと、これらを制御する制御ユニットとを含む構成である。ドライバモニタ27は、例えば、ステアリングコラム部の上面又はインスツルメントパネルの上面等に設置されている。ドライバモニタ27は、近赤外カメラが運転席のヘッドレスト部分に向くように取付けられている。
ドライバモニタ27は、近赤外光源によって近赤外光を照射された、車両2の乗員の頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御ユニットによって画像解析される。制御ユニットは、車両2の乗員のアイポイントの位置及び視線方向等を表す情報(以下では乗員情報とする)を撮像画像から抽出する。制御ユニットは、抽出した乗員情報を、通信バス29を介して、画像処理装置3等に提供する。
2.画像処理装置3が実行する処理
画像処理装置3が所定時間ごとに繰り返し実行する処理を、図3〜図12に基づき説明する。図3のステップ1では、情報取得ユニット35が、環境認識ユニット45から第1情報及び第2情報を取得する。第1情報は、車両2の周辺に存在する物標の位置を表す情報である。第2情報は、第1情報により位置を表された物標が強調対象物標59Aであるか否かを表す情報である。また、情報取得ユニット35は、行動判断ユニット47から第3情報を取得する。第3情報は、現時点において車両2の状態が自動運転状態であるか否かを表す情報である。
ステップ2では、画像作成ユニット37が、前記ステップ1で取得した第3情報に基づき、現時点において車両2の状態が自動運転状態であるか否かを判断する。自動運転状態であると判断した場合、本処理はステップ3に進む。自動運転状態ではないと判断した場合、本処理は終了する。
ステップ3では、画像作成ユニット37が、第1情報により位置を表された物標のうち、強調対象物標59Aに該当するものを認識する。画像作成ユニット37は、前記ステップ1で取得した第2情報において強調対象物標59Aであるとされている物標を、強調対象物標59Aとして認識する。画像作成ユニット37は、認識した強調対象物標59Aの数を算出する。強調対象物標59Aの数が1である場合、本処理はステップ4に進む。強調対象物標59Aの数が2以上である場合、本処理はステップ5に進む。強調対象物標59Aの数が0である場合、本処理はステップ6に進む。
ステップ4では、画像作成ユニット37が、第1画像57を作成する。第1画像57の例を図4に示す。第1画像57は、物標59を表す画像である。図4に示す例では、物標59は他の車両である。第1画像57は、例えば、一定の撮影位置からカメラにより撮影された撮影画像を模した合成画像である。撮影位置は、例えば、車両2の上方且つ後方の位置である。第1画像57における物標59の位置は、第1情報により表された物標の位置である。
第1画像57の一部は、被写界深度領域61である。被写界深度領域61の中にある物標59は、被写界深度にあるように表される。すなわち、被写界深度領域61の中にある物標59は、被写界深度領域61の外にある物標59に比べて、一層ピントが合っているように表される。
第1画像57において、強調対象物標59Aは、被写界深度領域61の中にある。よって、第1画像57において、強調対象物標59Aは、被写界深度にあるように表される。第1画像57において、例えば、強調対象物標59Aには、強調表現がなされている。
強調表現として、例えば、ハイライトを加えること、アニメーションの加工を加えること、別の部品を加えること等が挙げられる。アニメーションの加工として、例えば、点滅のアニメーション、拡大のアニメーション等が挙げられる。別の部品として、例えば、スポットライト、波紋マーク、矢印等が挙げられる。また、強調表現として、例えば、強調対象物標59Aではない物標59(以下では通常物標59Bとする)とは異なる色で表すこと等が挙げられる。
例えば、被写界深度領域61の中に1つの物標59のみしか存在しない場合等では、強調対象物標59Aには、強調表現がなされていなくてもよい。
第1画像57において、被写界深度領域61の中に、通常物標59Bが存在してもよいし、存在しなくてもよい。図4に示す例では、被写界深度領域61の中に通常物標59Bが存在する。被写界深度領域61の中にある通常物標59Bには、例えば、上述した強調表現がなされていない。被写界深度領域61の中にある通常物標59Bには、例えば、目立ちにくくなる表現がなされている。目立ちにくくなる表現として、例えば、モザイク表現、トーンダウン、低画素化、アニメーションの加工を加えること、別の部品を加えること等が挙げられる。アニメーションの加工として、例えば、通常物標59Bを縮小すること等が挙げられる。別の部品として、例えば、通常物標59Bを隠すマスク等が挙げられる。
第1画像57において、例えば、被写界深度領域61の外に、通常物標59Bが存在する。被写界深度領域61の外にある通常物標59Bは、被写界深度の外にあるように表される。すなわち、被写界深度領域61の外にある通常物標59Bは、強調対象物標59Aに比べて、ピントが合っていないように表される。被写界深度領域61の外にある通常物標59Bには、例えば、上述した強調表現がなされていない。
第1画像57は、例えば、図4に示すように、車両2を含む。車両2は、例えば、被写界深度領域61の中に存在する。この場合、第1画像57において、車両2は、被写界深度領域61の外にある通常物標59Bに比べて、ピントが合っているように表される。車両2は、例えば、被写界深度領域61の外に存在していてもよい。また、第1画像57は、被写界深度領域61とは別の被写界深度領域61を備えていてもよい。車両2は、例えば、被写界深度領域61とは別の被写界深度領域の中に存在していてもよい。
第1画像57は、例えば、車両2の挙動を表す表示を含む。車両2の挙動を表す表示として、例えば、第1画像57に表された車両2のストップランプやターンランプが点灯したり点滅したりする表示が挙げられる。第1画像57に表された車両2のストップランプが点灯する表示は、車両2がブレーキをかけたことを表す。第1画像57に表された車両2のターンランプが点滅する表示は、車両2が右又は左に進路を変えることを表す。車両2がブレーキをかけること、及び、車両2が右又は左に進路を変えることは、車両2の挙動に対応する。
例えば、車両2のストップランプやターンランプが点灯したり点滅したりする表示をする場合、車両2を強調対象物標59Aとしてもよい。
第1画像57は、図5に示すものであってもよい。図5に示す第1画像57は、図4に示す第1画像57と基本的には同じである。ただし、図5に示す第1画像57は、警告63をさらに含む。警告63は、車両2の乗員に伝えるべき内容を含む。警告63の内容は、例えば、強調対象物標59Aに関する内容である。第1画像57において、警告63は、被写界深度領域61の外にある。警告63は、ピントが合っているように表される。
ステップ5では、画像作成ユニット37が、第2画像65を作成する。第2画像65の例を図6に示す。第2画像65は、基本的には、第1画像57と同じである。ただし、第2画像65において、2以上の強調対象物標59Aが、被写界深度領域61の中にある。例えば、第2画像65において、第2情報によって強調対象物標59Aであるとされた全ての強調対象物標59Aが、被写界深度領域61の中にある。よって、第2画像65において、2以上の強調対象物標59Aは、それぞれ、被写界深度にあるように表される。
第2画像65において、例えば、2以上の強調対象物標59Aには、それぞれ、強調表現がなされている。例えば、第2画像65は、第1画像57に比べて、被写界深度が深いように表される。2以上の強調対象物標59Aの間に優先度の差がある場合、第2画像65において、例えば、強調対象物標59Aは、その優先度が高いほど、ピントが一層合っているように表される。また、第2画像65において、例えば、強調対象物標59Aには、その優先度が高いほど、著しい強調表現がなされている。
第2画像65は、図7に示すものであってもよい。図7に示す第2画像65は、分割画像65Aと分割画像65Bとに分割されている。分割画像65Aは、被写界深度領域61Aを含む。分割画像65Bは、被写界深度領域61Bを含む。被写界深度領域61Aの上下方向における位置と、被写界深度領域61Bの上下方向における位置とは、例えば、異なる。
分割画像65Aにおいて、強調対象物標59Aは、被写界深度領域61Aの中にある。分割画像65Bにおいて、強調対象物標59Aは、被写界深度領域61Bの中にある。分割画像65A及び分割画像65Bのそれぞれにおいて、例えば、強調対象物標59Aには、強調表現がなされている。
分割画像65A及び分割画像65Bに存在する全ての強調対象物標59Aを含む1つの被写界深度領域を設ける場合に比べて、分割画像65A及び分割画像65Bは、被写界深度が狭いように表される。そのため、強調対象物標59Aに車両2の乗員の視線を誘導する効果が一層高い。
ステップ6では、画像作成ユニット37が、第3画像67を作成する。第3画像67の例を図8に示す。図8に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図8に示す第3画像67では、全ての通常物標59Bが、ピントが合っているように表される。また、第3画像67は、強調対象物標59Aを含まない。
第3画像67は、図9に示すものであってもよい。図9に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図9に示す第3画像67では、被写界深度領域61の中に、車両2に対して前車に該当する通常物標59Bが存在する。
第3画像67は、図10に示すものであってもよい。図10に示す第3画像67は、基本的には、第1画像57と同じである。ただし、図10に示す第3画像67では、被写界深度領域61の中に、車両2が存在する。被写界深度領域61の中に、通常物標59Bがさらに存在してもよい。
ステップ7では、画像出力ユニット39が、前記ステップ4〜6のいずれかで作成された画像に対応する制御信号及び映像データを、表示装置に出力する。表示装置は、メータディスプレイ15、CID17、及びHUD19のうちの1以上である。表示装置は、前記ステップ4〜6のいずれかで作成された画像を表示する。車両2の乗員は、表示された画像を見ることができる。
画像処理装置3は上述したステップ1〜7の処理を繰り返す。時間の経過にともない、第2画像65に表されている強調対象物標59Aの優先度が変化することがある。図11に示す事例では、第2画像65は、2つの強調対象物標59Aを表す。時刻T1において、2つの強調対象物標59Aのうち、右車線にある強調対象物標59Aが、優先物標59Mであった。優先物標59Mとは、優先度が最も高い強調対象物標59Aである。
時刻T1での第2画像65は、例えば、優先物標59Mを、左側にある強調対象物標59Aに比べて、一層ピントが合っているように表す。また、時刻T1での第2画像65において、例えば、優先物標59Mには、左側にある強調対象物標59Aに比べて、一層著しい強調表現がなされている。
時刻T2において、車両2の左の方向指示器の点滅が始まった。方向指示情報の内容は、方向指示スイッチ25に対して左方向の操作がなされたことを表す内容となった。環境認識ユニット45は、方向指示情報に基づき、2つの強調対象物標59Aのうち、左側にある強調対象物標59Aを、優先物標59Mとした。右車線にある強調対象物標59Aは、優先物標59Mではなくなった。
時刻T2での第2画像65は、例えば、新たな優先物標59Mを、右車線にある強調対象物標59Aに比べて、一層ピントが合っているように表す。また、時刻T2での第2画像65において、例えば、新たな優先物標59Mには、右車線にある強調対象物標59Aに比べて、一層著しい強調表現がなされている。
画像処理装置3は上述したS1〜7の処理を繰り返す。時間の経過にともない、第1画像57又は第2画像65に表されている強調対象物標59Aが変化することがある。例えば、通常物標59Bが、強調対象物標59Aに変化することがある。また、強調対象物標59Aが、通常物標59Bに変化することがある。また、それまで画角の外にあった強調対象物標59Aが、第1画像57又は第2画像65に新たに表されることがある。また、第1画像57又は第2画像65にそれまで表されていた強調対象物標59Aが、消失することがある。
画像作成ユニット37は、強調対象物標59Aの変化に応じて、第1画像57及び第2画像65を変化させる。例えば、画像作成ユニット37は、変化後の強調対象物標59Aが被写界深度領域61に含まれるように、被写界深度領域61の位置、大きさ、形状、ピント位置等を変化させる。ピント位置とは、被写界深度領域61の中で最もはっきり見える部分である。画像作成ユニット37は、被写界深度領域61の位置、大きさ、形状、ピント位置等を、シームレスに変化させることが好ましい。
画像作成ユニット37は、強調対象物標59Aの位置や数等に応じて、第1画像57又は第2画像65の表示範囲を変更することができる。例えば、画像作成ユニット37は、図12の左側に示す広い表示範囲の第1画像57と、右側に示す狭い表示範囲の第1画像57とのいずれか一方を、強調対象物標59Aの位置や数等に応じて選択することができる。画像作成ユニット37は、第1画像57又は第2画像65の表示範囲を、シームレスに変化させることが好ましい。
3.画像処理装置3が奏する効果
(1A)画像処理装置3は、第1情報と、第2情報とを取得する。画像処理装置3は、第1情報により表された位置に物標59を表す画像を作成する。画像に表される物標59の少なくとも一部が強調対象物標59Aであることを第2情報が表している場合、画像処理装置3は、強調対象物標59Aが被写界深度にあるように表された第1画像57又は第2画像65を作成する。
第1画像57又は第2画像65において、強調対象物標59Aは、被写界深度にあるように表されるので、車両2の乗員の注意を引きやすい。そのため、画像処理装置3は、第1画像57又は第2画像65のうち、強調対象物標59Aへ、車両2の乗員の視線を誘導することができる。
(1B)画像処理装置3は、被写界深度にあるように表された車両2と、車両2の挙動を表す表示とを含む画像を作成することができる。車両2の乗員は、画像を見ることで、車両2の挙動を容易に理解することができる。また、車両2の乗員は、画像を見ることで、車両2の挙動と強調対象物標59Aとの関連性を理解することができる。
(1C)画像処理装置3は、画像のうち、被写界深度の外であるように表された部分に警告63を表示することができる。警告63の周囲は、ピントが合っていないように表されているので、警告63が目立ちやすい。
(1D)第1画像57又は第2画像65において、強調対象物標59Aが変化した場合、画像処理装置3は、変化後の強調対象物標59Aが被写界深度にあるように表されるように、第1画像57又は第2画像65を変化させる。そのため、強調対象物標59Aが変化した場合でも、画像処理装置3は、前記(1A)の効果を維持できる。
(1E)第2情報は、強調対象物標59Aの優先度を表す。画像処理装置3は、第1画像57又は第2画像65において、強調対象物標59Aを、優先度が高いほどピントが一層合っているように表す。画像処理装置3は、第1画像57又は第2画像65の中で、優先度が高い強調対象物標59Aへ、車両2の乗員の視線を一層誘導することができる。
(1F)第1画像57又は第2画像65に表されている強調対象物標59Aの優先度が変化した場合、画像処理装置3は、強調対象物標59Aの表現を、変化後の優先度に応じた表現に変化させる。そのため、強調対象物標59Aの優先度が変化した場合でも、画像処理装置3は、前記(1E)の効果を維持することができる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1)画像処理装置3は、画像のうち、被写界深度領域61以外の部分のテクスチャ解像度や表示ポリゴン数を、被写界深度領域61に比べて削減することができる。この場合、画像処理装置3の計算負荷を軽減できる。
(2)強調対象物標59Aの優先度を、方向指示情報以外の情報に基づき設定してもよい。例えば、画像処理装置3は、ドライバモニタ27から取得した乗員情報に基づき、強調対象物標59Aの優先度を設定する。
乗員情報は、例えば、車両2の乗員の視線方向を表す情報である。画像処理装置3は、車両2の乗員が見ていない方向にある強調対象物標59Aの優先度を、車両2の乗員の視線方向にある強調対象物標59Aの優先度より高くする。この場合、画像処理装置3は、車両2の乗員が気づいていないおそれがある強調対象物標59Aに、車両2の乗員の視線を誘導できる。
(3)本開示に記載の画像処理装置3及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の画像処理装置3及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の画像処理装置3及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。画像処理装置3に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(4)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(5)上述した画像処理装置3の他、当該画像処理装置3を構成要素とするシステム、当該画像処理装置3としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、画像処理方法、画像作成方法、画像表示方法等、種々の形態で本開示を実現することもできる。
2…車両、3…画像処理装置、15…メータディスプレイ、17…CID、19…HUD、35…情報取得ユニット、37…画像作成ユニット、39…画像出力ユニット、41…自動運転ECU、45…環境認識ユニット、47…行動判断ユニット、49…操作実行ユニット、57…第1画像、59…物標、59A…強調対象物標、59B…通常物標、59M…優先物標、61、61A、61B…被写界深度領域、63…警告、65…第2画像、67…第3画像

Claims (8)

  1. 車両(2)が備える表示装置(15、17、19)に画像(57、65、67)を表示する画像処理装置(3)であって、
    前記車両の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、
    前記第1情報により表された前記位置に前記物標を表す画像を作成するように構成された画像作成ユニット(37)と、
    を備え、
    前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記画像作成ユニットは、被写界深度にあるように表された前記車両と、前記車両の挙動を表す表示とを含む前記画像を作成するように構成された画像処理装置。
  3. 請求項1又は2に記載の画像処理装置であって、
    前記画像作成ユニットは、前記画像のうち、被写界深度の外であるように表された部分に警告(63)を表示するように構成された画像処理装置。
  4. 請求項1〜3のいずれか1項に記載の画像処理装置であって、
    前記画像において、前記強調対象物標が変化した場合、前記画像作成ユニットは、変化後の前記強調対象物標が被写界深度にあるように表されるように、前記画像を変化させる画像処理装置。
  5. 請求項1〜4のいずれか1項に記載の画像処理装置であって、
    前記第2情報は、前記強調対象物標の優先度をさらに表し、
    前記画像作成ユニットは、前記画像において、前記強調対象物標を、前記優先度が高いほどピントが一層合っているように表す画像処理装置。
  6. 請求項5に記載の画像処理装置であって、
    前記画像に表されている前記強調対象物標の前記優先度が変化した場合、前記画像作成ユニットは、前記強調対象物標の表現を、変化後の前記優先度に応じた表現に変化させる画像処理装置。
  7. コンピュータを画像処理装置(3)として機能させるプログラムであって、
    前記画像処理装置は、
    車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを取得するように構成された情報取得ユニット(35)と、
    前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、
    を備え、
    前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する、
    プログラム。
  8. 情報提供装置(41)と、画像処理装置(3)と、を備える画像処理システム(41、3)であって、
    前記情報提供装置は、車両(2)の周辺に存在する物標(59)の位置を表す第1情報と、前記物標が強調対象物標(59A)であるか否かを表す第2情報とを提供するように構成され、
    前記画像処理装置は、
    前記情報提供装置から前記第1情報及び前記第2情報を取得するように構成された情報取得ユニット(35)と、
    前記第1情報により表された前記位置に前記物標を表す画像(57、65、67)を作成するように構成された画像作成ユニット(37)と、
    を備え、
    前記画像に表される前記物標の少なくとも一部が前記強調対象物標であることを前記第2情報が表している場合、前記画像作成ユニットは、前記強調対象物標が被写界深度にあるように表された前記画像(57、65)を作成する、
    画像処理システム。
JP2020101592A 2020-06-11 2020-06-11 画像処理装置、プログラム、及び画像処理システム Active JP7276255B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020101592A JP7276255B2 (ja) 2020-06-11 2020-06-11 画像処理装置、プログラム、及び画像処理システム
PCT/JP2021/021574 WO2021251339A1 (ja) 2020-06-11 2021-06-07 画像処理装置、プログラム、及び画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020101592A JP7276255B2 (ja) 2020-06-11 2020-06-11 画像処理装置、プログラム、及び画像処理システム

Publications (3)

Publication Number Publication Date
JP2021196743A true JP2021196743A (ja) 2021-12-27
JP2021196743A5 JP2021196743A5 (ja) 2022-08-17
JP7276255B2 JP7276255B2 (ja) 2023-05-18

Family

ID=78846265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020101592A Active JP7276255B2 (ja) 2020-06-11 2020-06-11 画像処理装置、プログラム、及び画像処理システム

Country Status (2)

Country Link
JP (1) JP7276255B2 (ja)
WO (1) WO2021251339A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148530A (ja) * 2017-03-09 2018-09-20 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2019014300A (ja) * 2017-07-04 2019-01-31 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP2019179296A (ja) * 2018-03-30 2019-10-17 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
JP2019180075A (ja) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 運転支援システム、画像処理装置及び画像処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5178553B2 (ja) * 2009-01-27 2013-04-10 オリンパス株式会社 撮像装置
US10721384B2 (en) * 2014-03-27 2020-07-21 Sony Corporation Camera with radar system
US20190143905A1 (en) * 2017-11-15 2019-05-16 Toyota Research Institute, Inc. Image capture with a vehicle object sensor device based on user input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018148530A (ja) * 2017-03-09 2018-09-20 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2019014300A (ja) * 2017-07-04 2019-01-31 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
JP2019179296A (ja) * 2018-03-30 2019-10-17 アイシン・エィ・ダブリュ株式会社 走行支援装置及びコンピュータプログラム
JP2019180075A (ja) * 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 運転支援システム、画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP7276255B2 (ja) 2023-05-18
WO2021251339A1 (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
CN111052733B (zh) 周围车辆显示方法及周围车辆显示装置
EP3235684B1 (en) Apparatus that presents result of recognition of recognition target
US10474907B2 (en) Apparatus that presents result of recognition of recognition target
US11787335B2 (en) Periphery monitoring device
JP7222216B2 (ja) 運転支援装置
JP2018144526A (ja) 周辺監視装置
JP7014205B2 (ja) 表示制御装置および表示制御プログラム
US11325470B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
JP6876236B2 (ja) 表示制御装置
JP7047586B2 (ja) 車両用表示制御装置
JP2018103667A (ja) 自動運転システム
JP2020003890A (ja) 車両遠隔支援システム
US20230373309A1 (en) Display control device
JP2023138849A (ja) 提示制御装置及び提示制御プログラム
JP2023112053A (ja) 画像処理装置
JP7263734B2 (ja) 視認対象判定装置
WO2021251339A1 (ja) 画像処理装置、プログラム、及び画像処理システム
JP2017191472A (ja) 画像表示方法及び画像表示装置
JP7111137B2 (ja) 表示制御装置、および表示制御プログラム
JP2019156295A (ja) 走行制御装置、車両および走行制御方法
WO2017026223A1 (ja) 表示システム
JP7342926B2 (ja) 表示制御装置及び表示制御プログラム
JP7255429B2 (ja) 表示制御装置および表示制御プログラム
JP7014206B2 (ja) 表示制御装置および表示制御プログラム
JP7255443B2 (ja) 表示制御装置及び表示制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R151 Written notification of patent or utility model registration

Ref document number: 7276255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151