JP6618767B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6618767B2
JP6618767B2 JP2015211100A JP2015211100A JP6618767B2 JP 6618767 B2 JP6618767 B2 JP 6618767B2 JP 2015211100 A JP2015211100 A JP 2015211100A JP 2015211100 A JP2015211100 A JP 2015211100A JP 6618767 B2 JP6618767 B2 JP 6618767B2
Authority
JP
Japan
Prior art keywords
image
unit
frame image
frame
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015211100A
Other languages
English (en)
Other versions
JP2017084068A (ja
Inventor
裕生 松本
裕生 松本
敦 三野
敦 三野
直士 垣田
直士 垣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015211100A priority Critical patent/JP6618767B2/ja
Priority to US15/261,408 priority patent/US10127702B2/en
Priority to CN201610926097.8A priority patent/CN107045620A/zh
Publication of JP2017084068A publication Critical patent/JP2017084068A/ja
Application granted granted Critical
Publication of JP6618767B2 publication Critical patent/JP6618767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Description

本発明の実施形態は、画像処理装置および画像処理方法に関する。
従来、カメラ等の撮像装置によって順次撮像されるフレーム画像に写る障害物を検出し、フレーム画像に検出した障害物を囲む枠画像を重畳表示させる画像表示装置がある。
かかる画像処理装置は、検出される全ての障害物について枠画像を重畳させた場合、フレーム画像がユーザにとって見づらい画像になったり、ユーザにとって注意すべき対象物が分かり難くなったりすることがある。
そこで、撮像装置から最も距離が近い障害物をのみを検出し、フレーム画像中の検出された障害物にマーキングを行う等して強調表示する装置がある。
特開2007−181129号公報
しかしながら、撮像装置からの距離が最も近い障害物だけがユーザにとって危険度の高い障害物とは限らない。例えば、撮像装置に直近の障害物がユーザから遠ざかる方向へ移動しており、直近の障害物の次に撮像装置から近い障害物がユーザへ近づく方向へ移動中の場合、直近の障害物の次に近い障害物もユーザにとって危険度が高い障害物である。
このように、撮像装置から最も距離が近い障害物をのみ強調表示させたフレーム画像は、ユーザに対して危険度の高い障害物を通知する情報として、情報の質が高いとは言えない。
本実施形態は、情報が過多にならないことを維持しつつ、ユーザに対して危険度の高い障害物を通知する情報の質を向上させることができる画像処理装置および画像処理方法を提供することを目的とする。
実施形態に係る画像処理装置は、物体検知部と、選択部と、強調画像生成部とを備える。物体検知部は、撮像装置から順次入力されるフレーム画像から物体を検知する。選択部は、前記フレーム画像を左右方向に複数に分割した各分割領域に含まれる前記物体のうちの最下部に位置する前記物体を選択する。強調画像生成部は、前記選択部によって選択される前記物体を前記フレーム画像中で強調する強調画像を生成する。
本実施形態によれば、情報が過多にならないことを維持しつつ、ユーザに対して危険度の高い障害物を通知する情報の質を向上させることができる。
図1は、実施形態に係る画像処理方法の対比例を示す説明図である。 図2は、実施形態に係る画像処理方法を示す説明図である。 図3は、実施形態に係る画像処理装置の構成を示す機能ブロック図である。 図4は、実施形態に係る立体物検知部の構成を示す機能ブロック図である。 図5は、実施形態に係る特徴点方式静止物点取得部の構成を示す機能ブロック図である。 図6は、実施形態に係る特徴点方式の説明図である。 図7は、実施形態に係る特徴点方式の説明図である。 図8は、実施形態に係る背景差分方式静止物点取得部の構成を示す機能ブロック図である。 図9は、実施形態に係る特徴点画像生成部の動作を示す説明図である。 図10は、実施形態に係るグループ化処理部およびマスク処理部の処理順序を示す説明図である。 図11は、実施形態に係るグループ化処理部およびマスク処理部の処理順序を示す説明図である。 図12は、実施形態に係る画像処理の一例を示す説明図である。 図13は、実施形態に係る画像処理の一例を示す説明図である。 図14は、実施形態に係るグループ化処理の閾値の説明図である。 図15は、実施形態に係るグループ化処理の閾値の説明図である。 図16は、実施形態に係るマスクの形状変化を示す説明図である。 図17は、実施形態に係るグループ選択部の構成を示す機能ブロック図である。 図18は、実施形態に係るグループ選択部および領域分割部の動作の一例を示す説明図である。 図19は、実施形態に係る画像処理装置が実行する処理を示すフローチャートである。 図20は、実施形態の変形例1に係る画像処理装置の画像処理方法を示す説明図である。 図21は、実施形態の変形例2に係る画像処理装置の画像処理方法を示す説明図である。 図22は、実施形態の変形例3に係る画像処理装置の画像処理方法を示す説明図である。 図23は、実施形態の変形例1に係る画像処理装置の画像処理方法を示す説明図である。
以下、添付図面を参照して、本願の開示する画像処理装置および画像処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
以下では、実施形態に係る画像処理装置が、車載カメラによって連続して撮像される車両後方の画像(以下、「フレーム画像」記載する)に対して画像処理を行い、画像処理後のフレーム画像を車室内に設けられる表示装置へ出力する場合を例に挙げて説明する。
なお、実施形態に係る画像処理装置が画像処理する画像は、車両の後方を撮像した画像に限定されるものではなく、車両の前方や側方を撮像した画像であってもよい。また、実施形態に係る画像処理装置が画像の入力を受け付ける撮像装置は、車載カメラに限定されるものではなく、例えば、スマートフォン等のモバイル機器に搭載されたカメラモジュール、デジタルカメラ、街頭や住居に設置される防犯カメラ等であってもよい。
以下では、まず、実施形態に係る画像処理方法の対比例について説明した後、実施形態に係る画像処理方法および画像処理装置について説明する。図1は、実施形態に係る画像処理方法の対比例を示す説明図であり、図2は、実施形態に係る画像処理方法を示す説明図である。
図1(a)に示すように、対比例では、車載カメラから車両後方が撮像されたフレーム画像Pを取得すると、まず、フレーム画像Pから複数の物体(以下、代表的に「立体物」と称する)A,B,C,Dを検知する。ここで、対比例は、例えば、図1(b)に示すように、検知した立体物を囲む枠画像(同図中の太線矩形枠)をフレーム画像Pに重畳させることにより、自車の後方に自車と衝突の可能性がある立体物が存在することをユーザへ通知することができる。
ただし、対比例は、図1(b)に示すように、検知した全ての立体物A,B,C,Dの画像に対して、枠画像を重畳した場合、ユーザに通知する情報量が過多になり好ましくない。具遺体的には、対比例では、検知した全ての立体物A,B,C,Dの画像に枠画像を重畳することで、フレーム画像Pがユーザにとって見難くなる、または、ユーザにとって特に注意が必要な立体物が分かり難くなるという問題が生じる。
そこで、対比例2は、図1(c)に示すように、検知した立体物A,B,C,Dのうち、自車からの処理が最も近く、フレーム画像Pの最下部に位置する立体物Bだけに枠画像を重畳することにより上記問題を解決する。
しかしながら、フレーム画像Pの最下部に位置する立体物Bだけを枠画像によって強調表示した場合には、新たに以下のような問題が生じる。具体的には、図1(c)に示す例の場合、車載カメラから直近の立体物Bが自車から遠ざかる方向へ移動しており、直近の立体物Bの次に自車から近い立体物Aがユーザへ近づく方向へ移動中の場合、直近の立体物Bの次に近い立体物Aも自車と衝突する危険度が高い。
また、全ての立体物が静止物であったとしても、例えば、自車の移動方向が立体物Dのある方向であった場合、ユーザは、立体物Dについても注意をはらう必要がある。つまり、自車に最も近い立体物Bだけがユーザにとって危険度の高い障害物であるとは限らない。
そこで、実施形態に係る画像処理方法は、図2(a)に示すように、対比例と同一のフレーム画像Pを取得すると、まず、対比例と同様に、フレーム画像Pから複数の立体物A,B,C,Dを検知する。
続いて、実施形態に係る画像処理方法は、図2(b)に示すように、フレーム画像を左右方向に並ぶ複数(ここでは、3つ)の分割領域a1,a2,a3に分割する。そして、実施形態に係る画像処理方法は、各分割領域a1,a2,a3における最下部に位置する立体物を選択する。
図2(b)に示す例では、実施形態に係る画像処理方法は、分割領域a1から立体物Aを選択し、分割領域a2から立体物Bを選択し、分割領域a3から立体物Dを選択する。そして、実施形態に係る画像処理方法は、分割領域a1,a2,a3毎に選択した3つの立体物A,B,Dの画像に枠画像を重畳する。
このように、実施形態に係る画像処理方法は、フレーム画像P中で自車に最も近い位置に存在する立体物Bに加え、フレーム画像P中で立体物Bから左右方向へ離間し、自車からの比較的近い位置に存在する立体物A,Dの存在までユーザへ通知することができる。
しかも、実施形態に係る画像処理方法は、自車から比較的遠い位置に存在する立体物C,E,Fについては、存在をユーザに通知することがないため、フレーム画像Pが見難くなることや、注意が必要な立体物が分かり難くなることを抑制することができる。
したがって、実施形態に係る画像処理方法によれば、情報が過多にならないことを維持しつつ、ユーザに対して危険度の高い障害物を通知する情報の質を向上させることができる。なお、図2に示す立体物の選択方法は、一例であり種々の変形が可能である。立体物の選択方法に関する変形例については、図21〜図23を参照して後述する。
次に、図3を参照して、実施形態に係る画像処理装置2について説明する。図3は、実施形態に係る画像処理装置2の構成を示す機能ブロック図である。図3に示すように、画像処理装置2は、自車の後方を撮像する車載カメラ1と車室内に設けられる表示装置3とに接続される。
かかる画像処理装置2は、例えば、FPGA(Field Programmable Gate Array)であり、設計されたプログラムを実行することによって機能する立体物検知部4と、描画処理部5とを備える。立体物検知部4および描画処理部5には、車載カメラ1から自車の後方が撮像された動画映像のフレーム画像Pが順次時系列で入力される。
立体物検知部4は、入力されるフレーム画像Pからフレーム画像Pに写る静止物と移動物とを検知して、静止物の検知結果と移動部の検知結果とを個別に描画処理部5へ出力する処理部である。また、立体物検知部4は、フレーム画像Pに基づいて、自車の移動量および旋回量を検出し、検出結果を描画処理部5へ出力する処理も行う。かかる立体物検知部4の詳細については、図4〜図11を参照して後述する。
描画処理部5は、立体物検知部4から入力される検知結果に基づいて、フレーム画像P中の静止物および移動物をそれぞれ個別に囲む枠画像を生成し、車載カメラ1から入力されるフレーム画像Pに枠画像を重畳して表示装置3へ出力する処理部である。枠画像は、フレーム画像P中の静止物および移動物を強調する強調画像の一例である。
また、描画処理部5は、立体物検知部4から入力される自車の移動量および旋回量の検出結果に基づいて、自車の移動経路になると予測される予測ガイド線の画像(予測移動線画像)を生成してフレーム画像Pに重畳させる処理も行う。なお、描画処理部5は、自車の操舵量とは無関係に、自車後方の中央領域Rに対応する領域を示す固定ガイド線の画像を生成し、フレーム画像Pに重畳させる処理も行う。
ここで、図4〜図9を参照して、立体物検知部4の構成および動作について説明する。図4は、実施形態に係る立体物検知部4の構成を示す機能ブロック図であり、図5は、実施形態に係る特徴点方式静止物点取得部6の構成を示す機能ブロック図である。
また、図6および図7は、実施形態に係る特徴点方式の説明図であり、図8は、実施形態に係る背景差分方式静止物点取得部7の構成を示す機能ブロック図であり、図9は、実施形態に係る特徴点画像生成部42の動作を示す説明図である。
図4に示すように、立体物検知部4は、特徴点取得部41と、特徴点画像生成部42とを備える。特徴点取得部41は、車載カメラ1から順次入力されるフレーム画像Pから各フレーム画像Pに写る立体物の特徴点を複数取得する処理部である。
また、特徴点取得部41は、特徴点方式静止物点取得部6、背景差分方式静止物点取得部7、および背景差分方式移動物点取得部8を備える。特徴点方式静止物点取得部6は、特徴点方式を使用してフレーム画像Pにおける静止物の特徴点を取得し、取得した特徴点をプロットした画像を特徴点画像生成部42へ出力する処理部である。
具体的には、特徴点方式静止物点取得部6は、自車の移動に伴うフレーム画像Pの遷移状態を特徴点で追跡し、特徴点の移動ベクトルから自車の移動推定を行うことでフレーム画像Pにおける静止物の位置を推定する処理部である。かかる特徴点方式静止物点取得部6は、図5に示すように、フレームメモリ61、オプティカルフロー算出部62、第1視点変換部63、静止物検出部64、および第2視点変換部65とを備える。フレームメモリ61は、車載カメラ1から入力されるフレーム画像Pを時系列に順次記憶してオプティカルフロー算出部62へ出力するメモリである。
オプティカルフロー算出部62は、フレーム画像Pにサンプル点を設定し、そのサンプル点が自車の移動に伴って移動した移動ベクトルをオプティカルフローとして算出して第1視点変換部63へ出力する処理部である。
例えば、オプティカルフロー算出部62は、図6(b)に示す撮像された最新のフレーム画像Pを車載カメラ1から取得し、最新のフレーム画像Pよりも以前に撮像された図6(a)に示す1フレーム前のフレーム画像Pをフレームメモリ61から取得する。
そして、オプティカルフロー算出部62は、図6(a)に示すように、1フレーム前のフレーム画像P中に、複数個(例えば、数百個)のサンプル点(同図中の黒点)を設定する。その後、オプティカルフロー算出部62は、1フレーム前のフレーム画像Pが撮像された時刻と、図6(b)に示す最新のフレーム画像Pが撮像された2時刻間でのサンプル点の移動ベクトルをオプティカルフローとして算出する。
図6(b)に示す黒点から延びる線分は、各サンプル点の移動ベクトルを示している。図5へ戻り、オプティカルフロー算出部62は、車載カメラ1から最新のフレーム画像Pが入力される度に、順次オプティカルフローを算出して、第1視点変換部63へ出力する。
第1視点変換部63は、オプティカルフロー算出部62から入力されるオプティカルフローを路面展開して、静止物検出部64へ出力する処理部である。ここでの路面展開とは、算出されたフレーム画像P上のオプティカルフローを路面上(ワールド座標上)の移動ベクトル(オプティカルフロー)へ変換する処理である。
かかる第1視点変換部63は、図7に示すように、フレーム画像P上のオプティカルフローB1を路面上へ投影することによって、路面上のオプティカルフローB2を算出する。第1視点変換部63は、車載カメラ1の取付位置および俯角を用いた変換アルゴリズムを使用して路面上のオプティカルフローB2を算出する。
車載カメラ1のフレーム画像P上のオプティカルフローB1は、路面Gに投影されることで路面G上のオプティカルフローB2に変換される。車載カメラ1の視点からフレーム画像P上のオプティカルフローB1の始点を結ぶ線を延長し、路面Gと交差する点が路面G上のオプティカルフローB2の始点となる。
同様に、車載カメラ1の視点からフレーム画像P上のオプティカルフローB1の終点を結ぶ線を延長し、路面Gと交差する点が路面G上のオプティカルフローB2の終点となる。図7におけるフレーム画像Pは、フレーム画像P上のオプティカルフローB1を路面G上のオプティカルフローB2に変換する場合の概念図であり、実空間上に存在するフレーム画像Pを示すものではない。
路面G上のオプティカルフローB2の始点および終点は、路面GをXY平面とし、車載カメラ1の位置を基点とした場合における、XY座標から算出することができる。図5へ戻り、第1視点変換部63は、算出した路面G上のオプティカルフローB2を静止物検出部64へ出力する。
静止物検出部64は、第1視点変換部63から入力される路面G上のオプティカルフローB2に基づいて、路面G上における静止物の位置を検出する処理部である。具体的には、静止物検出部64は、路面G上のオプティカルフローB2に基づいて、各フレーム画像Pが撮像される期間に移動した自車の路面Gに対する旋回量と、移動量とを算出する。
また、静止物検出部64は、自車の旋回量および移動量とオプティカルフローB2の長さとに基づいて静止物の特徴点を検出する。そして、静止物検出部64は、各フレーム画像Pの路面G上における静止物の特徴点を、480×720画素の立体物配置マップへマッピングする。
ここで、静止物検出部64は、特徴点がマッピングされた画素(ここでは、「中心画素」という)を所定の輝度の色とし、中心画素の周囲の数画素を中心画素から遠ざかるにつれて所定の輝度から徐々に低い輝度の色とし、その他の画素を黒色とする。
そして、静止物検出部64は、現時点のフレーム画像Pを基準フレーム画像として設定する。そして、静止物検出部64は、基準フレーム画像よりも過去に撮像された各フレーム画像Pの立体物配置マップにマッピングされた特徴点を、自車の旋回量および移動量に基づいて、基準フレーム画像中の対応する位置へシフト(回転、並進)させる。
なお、静止物検出部64は、自車のY方向(図7のXYZ座標参照)への移動量が一定量(例えば、45mm)を超えた場合に、基準フレーム画像を最新のフレーム画像Pに更新する。
静止物検出部64は、フレーム画像P毎に作成した立体物配置マップにおける各画素の輝度値を積分することによって、各画素に静止物の特徴点が存在する確からしさ(以下、「確度」という)を各画素の輝度値で示す最終的な立体物配置マップを作成する。
このとき、静止物検出部64は、各立体物配置マップにおける前画素の輝度値を一律(2%:2/100倍)に低減してから各画素の輝度値を積分することにより、積分が完了する前に輝度値が上限値に達してオーバーフロー状態となる画素の発生を抑制する。
図5へ戻り、静止物検出部64は、こうして作成した路面G上における静止物の特徴点の位置および確度をマップ内の黒以外の画素の位置および輝度値によって示す立体物配置マップを後段の第2視点変換部65へ出力する。かかる立体物配置マップ中の黒以外の画素は、静止物の特徴点の一例である。
なお、静止物検出部64は、立体物配置マップを作成する過程で算出した自車の旋回量および移動量を描画処理部5へ出力する処理も行う。描画処理部5は、入力される自車の旋回量および移動量を使用して、自車の移動経路になると予測される前述の予測ガイド線の画像を生成する。
第2視点変換部65は、静止物検出部64から入力される立体物配置マップを画像展開することによって、480×720画素の画像を生成し、生成した画像を特徴点画像生成部42へ出力する処理部である。ここでの画像展開とは、路面G上(ワールド座標上)の静止物の特徴点の位置を車載カメラ1視点のフレーム画像Pの位置へ変換する処理である。
次に、図8を参照して、図4に示す背景差分方式静止物点取得部7について説明する。なお、背景差分方式静止物点取得部7と、背景差分方式移動物点取得部8とは、取得対象の特徴点のフレーム間における移動量(移動速度)が異なる点を除き、同様の構成である。このため、背景差分方式移動物点取得部8については、その詳細な説明を省略する。
図8に示すように、背景差分方式静止物点取得部7は、フレームメモリ71、移動量算出部72、エッジ検出部73、および静止物検出部74を備える。フレームメモリ71は、車載カメラ1から入力されるフレーム画像Pを時系列に順次記憶して移動量算出部72へ出力するメモリである。
移動量算出部72は、車載カメラ1から順次入力される各フレーム画像Pと、フレームメモリ71から取得する1フレーム前のフレーム画像Pとの差分を取ることによって立体物を抽出した差分画像を生成してエッジ検出部73へ出力する処理部である。
具体的には、移動量算出部72は、車載カメラ1から最新のフレーム画像P(ここでは、現フレーム)を順次取得し、フレームメモリ71から1フレーム前のフレーム画像P(ここでは、前フレームという)を順次取得する。
そして、移動量算出部72は、現フレームおよび前フレームについて、それぞれ2種類の視点変換画像を生成する。まず、移動量算出部72は、現フレームおよび前フレームについて、それぞれ俯角を90度とした仮想視点の水平画像を生成する。さらに、移動量算出部72は、現フレームおよび前フレームについて、俯角0度とした仮想視点の路面画像を生成する。
そして、移動量算出部72は、現フレームおよび前フレームの水平画像にそれぞれ特定矩形領域を指定し、前フレームの特定矩形領域を現フレームの特定矩形領域へ微小距離ずつずらしながら、現フレームの特定矩形領域とのSAD(Sum of Absolute Difference)値を算出する。移動量算出部72は、SAD値が最小のときのずれ量を摂動量として算出し、算出した摂動量と車載カメラ1の焦点距離とに基づいて自車の旋回量を算出する。
続いて、移動量算出部72は、現フレームおよび前フレームの路面画像にそれぞれ特定矩形領域を指定し、前フレーム画像の特定矩形領域については、先に算出した旋回量を用いて現フレームの特定矩形領域と相対的な方向を合わせる。
そして、移動量算出部72は、補正後の前フレームの特定矩形領域を、路面上に規定したXY座標のX方向およびY方向にずらしながら、現フレームの特定矩形領域とのSAD値を算出する。移動量算出部72は、SAD値が最小のときのずれ量を摂動量として算出し、算出した摂動と路面画像の仮想視点の高さとに基づき、自車の移動量を算出する。移動量算出部72は、算出した自車の旋回量および移動量をエッジ検出部73および静止物検出部74へ出力する。
エッジ検出部73は、車載カメラ1から現フレームを順次取得し、フレームメモリ71から前フレームを順次取得して、現フレームおよび前フレームから立体物のエッジを検出し、エッジ部分を選択的に強調したエッジ検出画像を生成する処理部である。
エッジ検出部73は、エッジ検出画像を生成する場合、移動量算出部72から入力される自車の旋回量および移動量に基づいて、予め前フレームを回転および並進させる補正を行うことにより、現フレームとの相対的な位置および方向を合わせる。そして、エッジ検出部73は、生成した現フレームおよび前フレームのエッジ画像を静止物検出部74へ出力する。
静止物検出部74は、エッジ検出部73から入力される現フレームのエッジ画像と、前フレームのエッジ画像の各画素の輝度値の差分をとる差分処理を行うことによって、背景差分画像を生成する。かかる背景差分画像には、立体物の像が現れ、非立体物の像は現れない。
続いて、静止物検出部74は、背景差分画像に現れる立体物の像から複数(例えば、200個)の特徴点を検出する。そして、静止物検出部74は、移動量算出部72から入力される自車の旋回量および移動量に基づいて、前フレームの背景差分画像の特徴点の位置を現フレームの背景差分画像の座標中の位置に変換し、各画素の輝度値を一律に低減させてから積分を行う。
このとき、静止物検出部74は、各画素の輝度値を約1/2(輝度値の上限が255の場合、128)に低減して積分を行うことにより、静止物および移動物の特徴点を含む480×720画素の画像を生成する。
また、静止物検出部74は、各画素の輝度値を約1/8(輝度値の上限が255の場合、32)に低減して積分を行うことにより、移動物の特徴点を含む480×720画素の画像を生成する。そして、静止物検出部74は、静止物および移動物の特徴点を含む画像から移動物の特徴点を削除した画像を静止物の特徴点を含む画像として特徴点画像生成部42へ出力する。
図4へ戻り、背景差分方式移動物点取得部8は、背景差分方式静止物点取得部7と同様の手順によって、移動物の特徴点を含む480×720画素の画像を生成し、生成した移動物の特徴点を含む画像を特徴点画像生成部42へ出力する。
特徴点画像生成部42は、特徴点取得部41から入力される480×720画素の各画像を、それぞれ30×45画素の画像へ圧縮して特徴点画像を生成する処理部である。ここで、図9を参照して、特徴点画像生成部42による画像圧縮処理の手順について説明する。
図9(a)に示すように、特徴点画像生成部42は、480×720画素の画像を16×16画素の領域に分割し、16×16画素の領域に含まれる各画素の輝度値と第1輝度閾値とを比較する。
そして、特徴点画像生成部42は、図9(b)に示すように、例えば、16×16画素の領域に、第1輝度閾値以上の画素が3個ある場合、図9(c)に示すように、30×45画素の領域の対応する位置へ、第1輝度閾値以上の画素数である3をプロットする。
ここで、30×45画素の領域における画素数をプロットする位置は、480×720画素の画像から選択した16×16画素の領域の画像における位置と同じ相対位置である。
特徴点画像生成部42は、480×720画素の画像を分割した全ての16×16画素の領域について、輝度閾値以上の画素の個数を判別して、30×45画素の領域へプロットすることにより、30×45画素の特徴点画像を生成する。
さらに、特徴点画像生成部42は、生成した30×45画素の特徴点画像の各画素にプロットした画素数と第2輝度閾値とを比較し、画素数が第2輝度閾値以上の画素を白、第2輝度閾値未満の画素を黒とする2値化を行い30×45画素の特徴点画像を生成する。
そして、特徴点画像生成部42は、特徴点方式静止物点取得部6および背景差分方式静止物点取得部7から入力された各画像からそれぞれ生成した静止物の特徴点画像を描画処理部5へ出力する。また、特徴点画像生成部42は、背景差分方式移動物点取得部8から入力された画像から生成した移動物の特徴点画像を描画処理部5へ出力する。
図3へ戻り、描画処理部5は、グループ化処理部51、マスク処理部52、領域分割部53、グループ選択部54、枠画像生成部55、および重畳画像生成部56を備える。グループ化処理部51は、立体物検知部4によってフレーム画像Pから取得される静止物および立体物の複数の特徴点を同一の立体物毎のグループに振分けるグループ化処理を行う処理部である。
また、マスク処理部52は、立体物検知部4によってフレーム画像Pから取得される静止物および立体物の複数の特徴点から、フレーム画像Pにおける一部の領域に含まれる特徴点を排除するマスク処理を行う処理部である。
これらグループ化処理部51およびマスク処理部52は、立体物検知部4によって検知される立体物が移動物か静止物かによって処理を行う順序が変わる。ここで、図10〜図13を参照して、グループ化処理部51およびマスク処理部52の処理順序および処理の一例について説明する。図10および図11は、実施形態に係るグループ化処理部51およびマスク処理部52の処理順序を示す説明図である。
また図12および図13は、実施形態に係る画像処理の一例を示す説明図である。なお、ここでは、フレーム画像P中に、立ち止った人物(静止物)、他車(移動物)、建物(静止物)および樹木(静止物)が写っている場合の処理の一例について説明する。
立体物検知部4は、検知した立体物が移動物であった場合、検知した移動物の特徴点画像をグループ化処理部51へ出力する。かかる場合、図10に示すように、グループ化処理部51は、移動物の特徴点画像中の移動物の特徴点を同一物のグループに振分けるグループ化処理を行い、グループ化処理後の移動物の特徴点画像をマスク処理部52へ出力する。
例えば、グループ化処理部51は、図12(a)に示すように、フレーム画像Pから移動体である他車の複数の特徴点を取得してグループ化処理を行う。これにより、他車の特徴点のグループG3は、ほぼ他車全体を含む領域となる。
マスク処理部52は、すでにグループ化処理が行われた移動物の特徴点画像に対してマスク処理を行い、マスク処理後の移動物の特徴点画像を出力する。例えば、マスク処理部52は、図12(b)に示すように、マスクMを適用したマスク処理を行う。
マスクMは、自車後方の正面にあたるフレーム画像Pの中央領域Rで取得される静止物および移動物の特徴点を排除せず、中央領域Rの左右両端から中央領域Rの外側へ左右方向に所定距離だけ離れた位置までの側方領域M1で取得される静止物の特徴点を排除する。また、マスクMは、フレーム画像P中で中央領域Rおよび側方領域M1よりも外側の遠方領域M2で取得された静止物および移動物の特徴点を排除する。
そして、マスク処理部52から出力される移動物の特徴点画像は、領域分割部53およびグループ選択部54を介して枠画像生成部55へ入力される。なお、領域分割部53およびグループ選択部54の動作については後述する。
枠画像生成部55は、入力されるグループ化処理およびマスク処理の順に処理された移動物の特徴点画像中の特徴点のグループを囲む枠画像を生成する。これにより、枠画像生成部55は、例えば、図12(c)に示すように、移動物である他車のほぼ全体を囲む枠画像を生成して重畳画像生成部56へ出力することができる。重畳画像生成部56は、枠画像生成部55から入力される枠画像を車載カメラ1から入力されるフレーム画像Pに重畳して重畳画像を生成して、表示装置3へ出力する。
一方、立体物検知部4は、検知した立体物が静止物であった場合、検知した静止物の特徴点画像をマスク処理部52へ出力する。かかる場合、図11に示すように、マスク処理部52は、静止物の特徴点画像に対してマスク処理を行い、マスク処理後の静止物の特徴点画像をグループ化処理部51へ出力する。
例えば、マスク処理部52は、図13(a)に示すように、フレーム画像Pから取得した静止物である人物、建物、および樹木の特徴点に対して、マスクMを適用したマスク処理を行う。
グループ化処理部51は、すでにマスク処理が行われた静止物の特徴点画像に対してグループ化処理を行い、マスク処理後の静止物の特徴点画像を出力する。例えば、グループ化処理部51は、図13(b)に示すように、マスク処理によって排除されなかった人物の特徴点をグループG2とするグループ化処理を行う。
グループ化処理部51から出力される静止物の特徴点画像は、領域分割部53およびグループ選択部54を介して枠画像生成部55へ入力される。枠画像生成部55は、入力されるマスク処理およびグループ化処理の順に処理された静止物の特徴点画像中の特徴点のグループを囲む枠画像を生成する。
これにより、枠画像生成部55は、例えば、図13(c)に示すように、静止物である立ち止った人物のほぼ全体を囲む枠画像を生成して重畳画像生成部56へ出力することができる。重畳画像生成部56は、枠画像生成部55から入力される枠画像を車載カメラ1から入力されるフレーム画像Pに重畳して重畳画像を生成して、表示装置3へ出力する。
また、グループ化処理部51は、移動物の特徴点をグループ化処理する場合と、静止物の特徴点をグループ化処理する場合とで、同一のグループにする特徴点間の距離の閾値を異ならせている。ここで、図14および図15を参照し、グループ化処理部51によるグループ化処理の閾値について説明する。図14および図15は、実施形態に係るグループ化処理の閾値の説明図である。
図14に示すように、グループ化処理部51は、例えば、他車などの移動物の特徴点をグループ化処理する場合、フレーム画像P中で左右方向に並ぶ特徴点同士が同一のグループになり易く、上下方向に並ぶ特徴点同士が同一のグループになり難くする。
具体的には、グループ化処理部51は、フレーム画像P中で上下方向に並ぶ移動物の特徴点間の距離が第1の閾値Th1以下の場合に、特徴点同士を一つのグループとする。一方、グループ化処理部51は、フレーム画像P中で左右方向に並ぶ移動物の特徴点間の距離が第1の閾値Th1よりも大きな第2の閾値Th2以下の場合に、特徴点同士を一つのグループとする。
例えば、グループ化処理部51は、第1の閾値Th1を縦2画素分の距離とし、第2の閾値Th2を横3画素分の距離とする。これにより、グループ化処理部51は、移動物が他車である場合に、車両の前後や左右のエッジのように左右方向に離間した位置で特徴点が取得されても、左右方向に離間した特徴点を含む他車全体を包含する領域を特徴点のグループG3が占める領域とすることができる。したがって、枠画像生成部55は、他車のほぼ全体を囲む枠画像を生成することができる。
一方、グループ化処理部51は、図15に示すように、例えば、立ち止った人物の静止物の特徴点をグループ化処理する場合、フレーム画像P中で縦に並ぶ特徴点同士が同一のグループになり易く、左右方向に並ぶ特徴点同士が同一のグループになり難くする。
具体的には、グループ化処理部51は、フレーム画像P中で上下方向に並ぶ静止物の特徴点間の距離が第3の閾値Th3以下の場合に、特徴点同士を一つのグループとする。一方、グループ化処理部51は、フレーム画像P中で左右方向に並ぶ静止物の特徴点間の距離が第3の閾値Th3よりも小さな第4の閾値Th4以下の場合に、特徴点同士を一つのグループとする。
例えば、グループ化処理部51は、第3の閾値Th3を縦4画素分の距離とし、第4の閾値Th4を横1画素分の距離とする。これにより、グループ化処理部51は、静止物が人物である場合に、足元および頭部のエッジのように上下方向に離間した位置で特徴点が取得されても、上下方向に離間した特徴点を含む人物全体を包含する領域を特徴点のグループG2が占める領域とすることができる。
したがって、枠画像生成部55は、人物のほぼ全体を囲む枠画像を生成することができる。しかも、グループ化処理部51は、グループG2の左右方向近傍に、別の人物画像から取得した特徴点のグループG4が存在しても、グループG2とグループG4とを一つのグループにすることがない。したがって、枠画像生成部55は、二人並んだ人物をそれぞれ個別に囲む枠画像を生成することができる。
また、マスク処理部52は、自車が後方へ直進する場合には、図12(b)などに記載したマスクMを適用したマスク処理を行うが、自車が旋回しながら後退する場合には、フレーム画像Pに重畳される前述の予測ガイド線に応じてマスクMの形状を変化させる。
ここで、図16を参照して、マスクMの形状変化について説明する。図16は、実施形態に係るマスクMの形状変化を示す説明図である。図16(a)に示すように、重畳画像生成部56は、自車が後方へ直進する場合、自車後方の中央領域Rに対応する領域を示す固定ガイド線RLをフレーム画像Pに重畳させる。
また、重畳画像生成部56は、自車が旋回しながら後退する場合、立体物検知部4から入力される自車の旋回量に基づいて、図16(b)に示すように、自車の移動経路になると予測される予測ガイド線GLをフレーム画像Pへさらに重畳させる。そして、重畳画像生成部56は、フレーム画像Pにおける予測ガイド線GLの表示位置をマスク処理部52へ出力する。
かかる場合、マスク処理部52は、図16(c)に示すように、マスクMにおける中央領域Rと側方領域M1との境界線を予測ガイド線GLの表示位置に連動して変化させる。これにより、マスク処理部52は、自車が旋回しながら後退する場合に、これから自車が進む予定の領域に、静止物および移動物の特徴点を排除しない中央領域Rを設定することができ、ユーザにとってより有益な特徴点を排除せずに残すことができる。
図3へ戻り、領域分割部53は、グループ化処理部51またはマスク処理部52から入力される特徴点画像を左右方向に並ぶ複数の分割領域に分割してグループ選択部54へ出力する処理部である。グループ選択部54は、領域分割部53から入力される複数の分割領域に分割された特徴点画像に含まれる特徴点のグループのうち、フレーム画像P中で枠画像を重畳させるグループを選択する処理部である。
ここで、図17および図18を参照して、グループ選択部54の構成と、グループ選択部54および領域分割部53の動作の一例について説明する。図17は、実施形態に係るグループ選択部54の構成を示す機能ブロック図であり、図18は、実施形態に係るグループ選択部54および領域分割部53の動作の一例を示す説明図である。
図17に示すように、グループ選択部54は、サイズ判定部81、所属領域判定部82、および最下部判定部83を備える。ここで、例えば、図18(a)に示すように、領域分割部53へグループA,B,C,D,Eという5つの特徴点のグループを含む特徴点画像P1が入力される場合がある。なお、ここでは、便宜上、特徴点画像P1におけるグループA,B,C,D,Eの形状を矩形状としている。
かかる場合、領域分割部53は、図18(b)に示すように、特徴点画像P1を分割領域a1,a2,a3という左右方向に並ぶ3つの分割領域に分割してグループ選択部54のサイズ判定部81へ出力する。
サイズ判定部81は、領域分割部53から入力される特徴点画像P1に含まれるグループの各サイズを判定し、所定サイズよりも小さなグループEを削除して所属領域判定部82へ出力する。これにより、サイズ判定部81は、自車の後方に存在していても危険性の低い極小さな物体の存在がユーザへ無駄に通知されることを抑制することができる。
続いて、所属領域判定部82は、サイズ判定部81から入力される特徴点画像P1に含まれる各グループが何れの分割領域に属するかを判定する。具体的には、まず、所属領域判定部82は、特徴点画像P1に各グループを囲むグループ枠を規定し、各グループ枠の底辺中心座標を含む分割領域を、グループ枠によって囲まれるグループが属する分割領域と判定する。
これにより、図18(c)に示す例では、所属領域判定部82は、グループAが分割領域a1に属し、グループB,Cが分割領域a2に属し、グループDが分割領域a3に属すると判定する。そして、所属領域判定部82は、各グループの属性を付加した特徴点画像P1を最下部判定部83へ出力する。
最下部判定部83は、各分割領域に属するグループのうち、各分割領域における最下部に位置するグループを分割領域毎に選択する。具体的には、最下部判定部83は、各分割領域に属するグループのうち、グループ枠の底辺中心座標と特徴点画像P1の底辺との距離が最短のグループ枠によって囲まれるグループを各分割領域における最下部に位置するグループと判定する。
例えば、最下部判定部83は、図18(c)に示す分割領域a1では、グループAを囲むグループ枠の底辺の中心座標から特徴点画像P1の底辺Lまでの距離D1が最も近いので、グループAを最下部のグループと判定する。
こうして、最下部判定部83は、図18(d)に示すように、グループAを分割領域a1の最下部に位置するグループ、グループBを分割領域a2の最下部に位置するグループ、グループDを分割領域a3の最下部に位置するグループと判定する。そして、最下部判定部83は、各分割領域の最下部に位置するグループのグループ枠の特徴点画像P1における位置情報を枠画像生成部55へ出力する。
図5へ戻り、枠画像生成部55は、グループ選択部54から入力される特徴点画像におけるグループ枠の位置情報に基づいて、フレーム画像Pに重畳させる枠画像を生成して、重畳画像生成部56へ出力する。
重畳画像生成部56は、枠画像生成部55から入力される枠画像をフレーム画像Pへ重畳した重畳画像を生成して表示装置3へ出力する。なお、重畳画像生成部56は、前述した固定ガイド線や予測ガイド線などの画像もフレーム画像Pに重畳させる。
これにより、画像処理装置2は、フレーム画像Pを左右方向に並ぶ3つの各分割領域内で自車に最も近い位置にある立体物を枠画像で囲んだ重畳画像をユーザへ提供することができる。したがって、画像処理装置2は、例えば、フレーム画像P全体で最も自車に近い立体物だけを枠画像で囲む他の画像処理装置よりも、ユーザに対して立体物の存在を通知する情報の質を向上させることができる。
次に、図19を参照して、画像処理装置2が実行する処理について説明する。図19は、実施形態に係る画像処理装置2が実行する処理を示すフローチャートである。画像処理装置2は、例えば、自車のシフトレバーがバックの位置へシフトされている期間、図19に示す処理を所定周期で繰り返し実行する。
画像処理装置2は、自車のシフトレバーがバックの位置へシフトされると、図19に示すように、フレーム画像Pから立体物を検知したか否かを判定する(ステップS101)。そして、画像処理装置2は、立体物を検知しないと判定した場合(ステップS101,No)、処理をステップS110へ移し、フレーム画像Pに固定ガイド線や予測ガイド線を重畳した重畳画像を生成して表示装置3へ出力し、処理を終了する。
また、画像処理装置2は、立体物を検知したと判定した場合(ステップS101,Yes)、検知した立体物は移動物か否かを判定する(ステップS102)。そして、画像処理装置2は、立体物は移動物であると判定した場合(ステップS102,Yes)、立体物の特徴点画像に対してグループ化処理を行い(ステップS103)、その後、特徴点画像に対してマスク処理を行って(ステップS104)、処理をステップS105へ移す。
また、画像処理装置2は、検知した立体物は移動物でないと判定した場合(ステップS102,No)、立体物を静止物と判定し、立体物の特徴点画像に対してマスク処理を行い(ステップS111)、その後、特徴点画像に対してグループ化処理を行って(ステップS112)、処理をステップS105へ移す。
ステップS105において、画像処理装置2は、特徴点画像を複数の分割領域に分割する領域分割を行い、その後、特徴点画像に含まれる特徴点のグループのサイズ判定を行う(ステップS106)。そして、画像処理装置2は、特徴点のグループに所定サイズよりも小さなグループがある場合には、特徴点画像から削除して処理をステップS107へ移す。
ステップS107において、画像処理装置2は、特徴点画像に含まれる特徴点のグループが属する分割領域を判定する所属領域判定を行い、その後、各分割領域で最下部に位置するグループを判定する最下部判定を行う(ステップS108)。
続いて、画像処理装置2は、各分割領域で最下部に位置するグループを囲む枠画像を生成する枠画像生成を行う(ステップS109)。その後、画像処理装置2は、枠画像をフレーム画像Pに重畳した重畳画像を生成する重畳画像生成を行い(ステップS110)、生成した重畳画像を表示装置3へ出力して処理を終了する。
なお、上述した実施形態は一例であり、実施形態に係る画像処理装置2の構成および動作は、上記した実施形態に限定されるものではない。以下、実施形態に係る画像処理装置2の変形例について説明する。
図20〜図23は、実施形態の変形例1〜4に係る画像処理装置の画像処理方法を示す説明図である。上述した実施形態では、画像処理装置が移動物の特徴点画像に対して、グループ化処理、マスク処理の順に画像処理を行い、静止物の特徴点画像に対して、マスク処理、グループ化処理の順に画像処理を行う場合を例に挙げたが、これは一例である。
例えば、変形例1の画像処理装置は、図20(a)に示すように、移動物および静止物の特徴点についてグループ処理を行い、図20(b)に示すように、グループ化処理後の特徴点についてマスク処理を行うこともできる。かかる画像処理方法によっても、図20(c)に示すように、移動体である他車のほぼ全体を囲む枠画像をフレーム画像Pに重畳させることができる。
また、上述した実施形態では、画像処理装置が特徴点画像を分割した複数の各分割領域内で、最も下部に位置するグループを枠画像で囲むグループとして選択したが、枠画像で囲むグループは、各分割領域につき1つに限定するものではない。
例えば、変形例2の画像処理装置は、特徴点画像を分割した分割領域における最下部に位置するグループを囲むグループ枠の底辺から特徴点画像の上辺側へ所定距離離れた位置までの領域を下部領域として設定する下部領域設定部をさらに備える。
かかる画像処理装置は、図21(a)に示す特徴点画像P1を生成した場合、まず、図21(b)に示すように、特徴点画像P1を3つの分割領域a1,a2,a3に分割する。その後、画像処理装置の下部領域設定部は、図21(c)内にハッチングで示すように、各分割領域a1,a2,a3におけるグループ枠の底辺から特徴点領域の上辺側へ所定距離離D2だけ離れた位置までの領域を下部領域として設定する。
そして、画像処理装置のグループ選択部は、最下部に位置するグループとともに、各下部領域内に底辺中心座標が位置するグループ枠によって囲まれるグループを画像で囲むグループとしてさらに選択する。これにより、画像処理装置は、図21(d)に示すように、例えば、分割領域a1については、2つのグループA,Eをそれぞれ枠画像で囲むグループとして選択することができる。
かかる画像処理装置は、例えば、グループAに対応する立体物が静止物であり、グループEに対応する立体物が自車へ近づく移動物の場合に、グループAよりも注意が必要なグループEに対応する移動物を枠画像で囲み、ユーザに存在を通知することができる。
また、変形例3の画像処理装置は、特徴点画像の分割数を可変とした領域分割部と、上記した下部領域の大きさを可変とした下部領域設定部とをさらに備える。かかる画像処理装置は、例えば、図22に示すように、特徴点領域を左右方向に並ぶ4以上(ここでは、6つ)の分割領域a11,a12,a13,a14,a15,a16に分割することが可能である。これにより、画像処理装置は、自車に近い危険なより多くの立体物を枠画像で囲むことにより、立体物の存在をユーザへ通知することができる。
ただし、画像処理装置は、領域分割部によって特徴点画像の分割数を増加させる場合は、下部領域設定部による底辺から上辺までの所定距離D3を縮小する。これにより、画像処理装置は、ユーザへ提供する枠画像の情報が過多になることを抑制しつつ、自車に近い危険な立体物をより多く枠画像で囲み、危険な立体物の存在をユーザへ通知することができる。
また、画像処理装置は、領域分割部によって特徴点画像の分割数を減少させる場合には、下部領域における底辺から上辺までの所定距離D3を拡大する。これにより、画像処理装置は、特徴点画像の分割数を減少させたことにより、ユーザへ通知する危険な立体物数の過度な現象を抑制することができる。
また、画像処理装置は、領域分割部を省略することも可能である。かかる変形例4の画像処理装置は、上述した下部領域設定部を備える。そして、変形例4の画像処理装置は、図23に示すように、特徴点画像中で最も下部に位置する特徴点のグループAを囲むグループ枠の底辺から特徴点画像の上辺側へ所定距離D4離れた位置までの領域を下部領域として設定する。
このとき、下部領域設定部は、車載カメラ1の広角レンズに起因して、自車からの距離が同一であるにも関わらず、特徴点画像中の位置が異なる上下方向の最大距離を所定距離D4として設定する。なお、図23には、自車からグループAに対応する立体物までの距離と同一距離にある特徴点画像中の位置を円弧L1によって示している。
かかる画像処理装置によれば、特徴点画像中では、グループAよりも上部に位置するが、自車からの距離がグループAに対応する立体物と同じグループBに対応する立体物も枠画像で囲むことができる。
また、画像処理装置は、撮像装置の広角レンズに起因した特徴点画像の歪み補正を行う補正部を備える構成であってもよい。かかる場合、画像処理装置のグループ選択部は、
補正部によって歪み補正された特徴点画像に基づいて、分割領域における最下部に位置するグループを選択する。これにより、画像処理装置は、各分割領域内で自車からの距離が最短の立体物をより高精度に検出することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 車載カメラ
2 画像処理装置
3 表示装置
4 立体物検知部
5 描画処理部
6 特徴点方式静止物点取得部
7 背景差分方式静止物点取得部
8 背景差分方式移動物点取得部
12 立体物検知部
41 特徴点取得部
42 特徴点画像生成部
51 グループ化処理部
52 マスク処理部
53 領域分割部
54 グループ選択部
55 枠画像生成部
56 重畳画像生成部
61 フレームメモリ
62 オプティカルフロー算出部
63 第1視点変換部
64 静止物検出部
65 第2視点変換部
71 フレームメモリ
72 移動量算出部
73 エッジ検出部
74 静止物検出部
81 サイズ判定部
82 所属領域判定部
83 最下部判定部

Claims (6)

  1. 撮像装置から順次入力されるフレーム画像から物体を検知する物体検知部と、
    前記フレーム画像を左右方向に複数に分割した各分割領域に含まれる前記物体のうちの最下部に位置する前記物体を選択する選択部と、
    前記選択部によって選択される前記物体を前記フレーム画像中で強調する強調画像を生成する強調画像生成部と
    を備え
    前記選択部は、
    各分割領域に含まれる前記物体のうち、当該物体を含む領域における最下部中心点が前記分割領域内で最下部にある前記物体を選択す
    ことを特徴とする画像処理装置。
  2. 前記分割領域における最下部に位置する前記物体を囲む領域の最下部から前記フレーム画像の上辺側へ所定距離離れた位置までの領域を下部領域として設定する下部領域設定部
    をさらに備え、
    前記選択部は、
    各分割領域に含まれる前記物体のうち、前記下部領域設定部によって設定される前記下部領域内に、前記最下部中心点が位置する前記物体をさらに選択する
    ことを特徴とする請求項に記載の画像処理装置。
  3. 前記フレーム画像の分割数は可変であり、
    前記下部領域設定部は、
    前記フレーム画像の分割数が増加する場合に、前記下部領域における前記所定距離を縮小し、前記フレーム画像の分割数が減少される場合には、前記下部領域における前記所定距離を拡大する
    ことを特徴とする請求項に記載の画像処理装置。
  4. 前記撮像装置の広角レンズに起因した前記フレーム画像の歪みを補正する補正部
    をさらに備え、
    前記選択部は、
    前記補正部によって歪みが補正された前記フレーム画像に基づいて、前記分割領域に含まれる前記物体のうちの最下部に位置する前記物体を選択する
    ことを特徴とする請求項1〜のいずれか一つに記載の画像処理装置。
  5. 撮像装置から順次入力されるフレーム画像から物体を検知する物体検知部と、
    前記フレーム画像に含まれる前記物体のうち最下部に位置する第1物体の前記フレーム画像における最下点から前記フレーム画像の上辺側へ所定距離離れた位置までの領域を下部領域として設定する下部領域設定部と、
    前記フレーム画像に含まれる前記物体のうち、前記第1物体と、前記下部領域設定部によって設定される前記下部領域内に少なくとも一部が含まれる第2物体とを選択する選択部と、
    前記選択部によって選択された前記第1および第2物体を前記フレーム画像中で強調する強調画像を生成する強調画像生成部と
    を備えることを特徴とする画像処理装置。
  6. 撮像装置から順次入力されるフレーム画像から物体を物体検知部によって検知する工程と、
    前記フレーム画像を左右方向に複数に分割した各分割領域に含まれる前記物体のうちの最下部に位置する前記物体を選択部によって選択する工程と、
    前記選択部によって選択される前記物体を前記フレーム画像中で強調する強調画像を強調画像生成部によって生成する工程と
    を含み、
    前記物体を選択部によって選択する工程は、
    各分割領域に含まれる前記物体のうち、当該物体を含む領域における最下部中心点が前記分割領域内で最下部にある前記物体を選択する工程
    を含むことを特徴とする画像処理方法。
JP2015211100A 2015-10-27 2015-10-27 画像処理装置および画像処理方法 Active JP6618767B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015211100A JP6618767B2 (ja) 2015-10-27 2015-10-27 画像処理装置および画像処理方法
US15/261,408 US10127702B2 (en) 2015-10-27 2016-09-09 Image processing device and image processing method
CN201610926097.8A CN107045620A (zh) 2015-10-27 2016-10-24 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015211100A JP6618767B2 (ja) 2015-10-27 2015-10-27 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2017084068A JP2017084068A (ja) 2017-05-18
JP6618767B2 true JP6618767B2 (ja) 2019-12-11

Family

ID=58561725

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015211100A Active JP6618767B2 (ja) 2015-10-27 2015-10-27 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US10127702B2 (ja)
JP (1) JP6618767B2 (ja)
CN (1) CN107045620A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6675984B2 (ja) * 2014-08-06 2020-04-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、およびプログラム
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6699761B2 (ja) * 2017-01-16 2020-05-27 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置
JP2019009686A (ja) * 2017-06-27 2019-01-17 株式会社日立製作所 情報処理装置及び画像データの処理方法
JP6861375B2 (ja) * 2017-06-30 2021-04-21 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
US10482610B2 (en) * 2017-11-01 2019-11-19 Adobe Inc. Detection of partially motion-blurred video frames
CN109935107B (zh) * 2017-12-18 2023-07-14 姜鹏飞 一种提升交通通视范围的方法及装置
JP2020060531A (ja) * 2018-10-12 2020-04-16 株式会社デンソーテン 異常検出装置、異常検出システム、および、異常検出方法
US11580800B2 (en) * 2018-11-08 2023-02-14 Verizon Patent And Licensing Inc. Computer vision based vehicle inspection report automation
JP2022151012A (ja) * 2021-03-26 2022-10-07 本田技研工業株式会社 地図生成装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445409B1 (en) * 1997-05-14 2002-09-03 Hitachi Denshi Kabushiki Kaisha Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
EP0878965A3 (en) * 1997-05-14 2000-01-12 Hitachi Denshi Kabushiki Kaisha Method for tracking entering object and apparatus for tracking and monitoring entering object
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP2007181129A (ja) * 2005-12-28 2007-07-12 Hitachi Ltd 車載用移動体検出装置
JP4692371B2 (ja) * 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
US8279937B2 (en) * 2008-04-22 2012-10-02 Core Logic, Inc. Correcting moving image wavering
JP2011100174A (ja) * 2009-11-03 2011-05-19 Tokyo Institute Of Technology 車線内車両検出装置及び車線内車両検出方法
US9762795B2 (en) * 2013-09-04 2017-09-12 Gyeongil Kweon Method and apparatus for obtaining rectilinear images using rotationally symmetric wide-angle lens
JP5035643B2 (ja) * 2010-03-18 2012-09-26 アイシン精機株式会社 画像表示装置
CN101930609B (zh) * 2010-08-24 2012-12-05 东软集团股份有限公司 接近的目标物检测方法及装置
JP5964108B2 (ja) * 2012-03-30 2016-08-03 株式会社メガチップス 物体検出装置
CN102682455B (zh) * 2012-05-10 2014-11-12 天津工业大学 一种基于单目视觉的前方车辆检测方法
EP2669845A3 (en) * 2012-06-01 2014-11-19 Ricoh Company, Ltd. Target recognition system, target recognition method executed by the target recognition system, target recognition program executed on the target recognition system, and recording medium storing the target recognition program
JP5829980B2 (ja) * 2012-06-19 2015-12-09 トヨタ自動車株式会社 路側物検出装置
CN102930719B (zh) * 2012-10-09 2014-12-10 北京航空航天大学 用于交通路口场景并基于网络物理系统的视频图像前景检测方法
JP5991224B2 (ja) * 2013-02-15 2016-09-14 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
KR101498114B1 (ko) * 2013-11-28 2015-03-05 현대모비스 주식회사 보행자를 검출하는 영상 처리 장치 및 그 방법
JP6243758B2 (ja) * 2014-03-12 2017-12-06 株式会社デンソーアイティーラボラトリ 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6618766B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US10127702B2 (en) 2018-11-13
JP2017084068A (ja) 2017-05-18
CN107045620A (zh) 2017-08-15
US20170116743A1 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6618766B2 (ja) 画像処理装置および画像処理方法
JP6618767B2 (ja) 画像処理装置および画像処理方法
JP6303090B2 (ja) 画像処理装置および画像処理プログラム
JP5706874B2 (ja) 車両の周辺監視装置
JP5108605B2 (ja) 運転支援システム及び車両
JP5503728B2 (ja) 車両の周辺監視装置
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
US11518390B2 (en) Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP4872769B2 (ja) 路面判別装置および路面判別方法
US20120069153A1 (en) Device for monitoring area around vehicle
JP6561512B2 (ja) 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム
JP2016013793A (ja) 画像表示装置、画像表示方法
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
KR101573576B1 (ko) Avm 시스템의 이미지 처리 방법
JP7005458B2 (ja) 画像処理装置、及び、画像処理プログラム、並びに、運転支援システム
JP6882885B2 (ja) 障害物検出装置および障害物検出方法
WO2015190327A1 (en) Disparity image generating device, disparity image generating method, and image
JP2009025910A (ja) 障害物検出装置、障害物検出システム及び障害物検出方法
JP2015207278A (ja) 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム
JP6617610B2 (ja) 車両用表示装置
JP6232933B2 (ja) 放射歪み補正装置、道路環境認識装置、放射歪み補正方法およびプログラム
CN111316322B (zh) 路面区域检测装置
JP2009077022A (ja) 運転支援システム及び車両
JP2019012915A (ja) 画像処理装置、画像変換方法
CN113330480A (zh) 模块化图像修复方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191113

R150 Certificate of patent or registration of utility model

Ref document number: 6618767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250