JP2017084067A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2017084067A
JP2017084067A JP2015211099A JP2015211099A JP2017084067A JP 2017084067 A JP2017084067 A JP 2017084067A JP 2015211099 A JP2015211099 A JP 2015211099A JP 2015211099 A JP2015211099 A JP 2015211099A JP 2017084067 A JP2017084067 A JP 2017084067A
Authority
JP
Japan
Prior art keywords
image
unit
feature points
processing unit
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015211099A
Other languages
English (en)
Other versions
JP6618766B2 (ja
Inventor
直士 垣田
Naoshi Kakita
直士 垣田
敦 三野
Atsushi Mino
敦 三野
裕生 松本
Hiroo Matsumoto
裕生 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015211099A priority Critical patent/JP6618766B2/ja
Priority to US15/258,519 priority patent/US9990534B2/en
Priority to CN201610920649.4A priority patent/CN107038693A/zh
Publication of JP2017084067A publication Critical patent/JP2017084067A/ja
Application granted granted Critical
Publication of JP6618766B2 publication Critical patent/JP6618766B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/476Contour-based spatial representations, e.g. vector-coding using statistical shape modelling, e.g. point distribution models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】ユーザに対して物体の存在を通知する情報の質を向上させることができる画像処理装置および画像処理方法を提供すること。【解決手段】本実施形態に係る画像処理装置は、特徴点取得部と、グループ化処理部と、マスク処理部と、強調画像生成部と、重畳画像生成部とを備える。特徴点取得部は、入力されるフレーム画像から物体の特徴点を複数取得する。グループ化処理部は、入力される複数の特徴点に対してグループ化処理を行って出力する。マスク処理部は、入力される複数の特徴点に対してマスク処理を行って出力する。強調画像生成部は、特徴点取得部がグループ化処理部へ特徴点を入力し、グループ化処理部がマスク処理部へ特徴点を出力する場合に、マスク処理後の特徴点のグループに対応する物体の強調画像を生成する。重畳画像生成部は、強調画像をフレーム画像に重畳した重畳画像を生成して出力する。【選択図】図3

Description

本発明の実施形態は、画像処理装置および画像処理方法に関する。
従来、カメラによって撮像される複数のフレーム画像内に存在する物体のエッジを抽出し、エッジのフレーム画像内における左右方向の移動速度を算出し、エッジの左右方向の移動速度に基づいて、フレーム画像内に存在する道路境界を検出する物体検出装置がある(例えば、特許文献1参照)。
この種の物体検出装置は、一般に、撮像装置から順次入力されるフレーム画像から各フレーム画像に写る立体物などの物体の特徴点を複数取得し、フレーム画像中でカメラから比較的遠い一部の領域に含まれる特徴点を取得した複数の特徴点から排除するマスク処理を行う。
その後、物体検出装置は、マスク処理後に残った複数の特徴点を同一物体毎のグループに振分けるグループ化処理を行い、例えば、特徴点のグループを囲む枠画像をフレーム画像中の対応する物体に重畳することにより、ユーザに物体の存在を通知する。
特開2006−268097号公報
しかしながら、かかる装置は、枠画像によって物体の全体ではなく一部だけを囲んだフレーム画像をユーザに提供する場合がある。かかるフレーム画像は、ユーザに物体の存在を通知する情報として、情報の質が高いとは言えない。
本実施形態は、ユーザに対して物体の存在を通知する情報の質を向上させることができる画像処理装置および画像処理方法を提供することを目的とする。
本実施形態に係る画像処理装置は、特徴点取得部と、グループ化処理部と、マスク処理部と、強調画像生成部と、重畳画像生成部とを備える。特徴点取得部は、撮像装置から順次入力されるフレーム画像から各前記フレーム画像に写る物体の特徴点を複数取得する。グループ化処理部は、入力される複数の前記特徴点を同一物体毎のグループに振分けるグループ化処理を行って出力する。マスク処理部は、入力される複数の前記特徴点から前記フレーム画像中の一部の領域に含まれる特徴点を排除するマスク処理を行って出力する。強調画像生成部は、前記特徴点取得部が前記グループ化処理部へ前記特徴点を入力し、前記グループ化処理部が前記マスク処理部へ前記特徴点を出力する場合に、前記マスク処理部から出力される前記特徴点のグループに対応する前記フレーム画像中の前記物体を強調する強調画像を生成する。重畳画像生成部は、前記強調画像生成部によって生成された前記強調画像を前記フレーム画像に重畳した重畳画像を生成して出力する。
本実施形態に係る画像処理装置および画像処理方法は、ユーザに対して物体の存在を通知する情報の質を向上させることができる。
図1は、実施形態に係る画像処理方法の対比例1を示す説明図である。 図2は、実施形態に係る画像処理方法の対比例2を示す説明図である。 図3は、実施形態に係る画像処理方法を示す説明図である。 図4は、実施形態に係る画像処理方法を示す説明図である。 図5は、実施形態に係る画像処理装置の構成を示す機能ブロック図である。 図6は、実施形態に係る立体物検知部の構成を示す機能ブロック図である。 図7は、実施形態に係る特徴点方式静止物点取得部の構成を示す機能ブロック図である。 図8は、実施形態に係る特徴点方式の説明図である。 図9は、実施形態に係る特徴点方式の説明図である。 図10は、実施形態に係る背景差分方式静止物点取得部の構成を示す機能ブロック図である。 図11は、実施形態に係る特徴点画像生成部の動作を示す説明図である。 図12は、実施形態に係るグループ化処理部およびマスク処理部の処理順序を示す説明図である。 図13は、実施形態に係るグループ化処理部およびマスク処理部の処理順序を示す説明図である。 図14は、実施形態に係るグループ化処理の閾値の説明図である。 図15は、実施形態に係るグループ化処理の閾値の説明図である。 図16は、実施形態に係るマスクの形状変化を示す説明図である。 図17は、実施形態に係るグループ選択部の構成を示す機能ブロック図である。 図18は、実施形態に係るグループ選択部および領域分割部の動作の一例を示す説明図である。 図19は、実施形態に係る画像処理装置が実行する処理を示すフローチャートである。 図20は、実施形態の変形例1に係る画像処理装置の画像処理方法を示す説明図である。 図21は、実施形態の変形例2に係る画像処理装置の画像処理方法を示す説明図である。 図22は、実施形態の変形例3に係る画像処理装置の画像処理方法を示す説明図である。 図23は、実施形態の変形例4に係る画像処理装置の画像処理方法を示す説明図である。
以下、添付図面を参照して、本願の開示する画像処理装置および画像処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
以下では、実施形態に係る画像処理装置が、車載カメラによって連続して撮像される自車後方の画像(以下、「フレーム画像」と記載する)に対して画像処理を行い、画像処理後のフレーム画像を車室内に設けられる表示装置へ出力する場合を例に挙げて説明する。
なお、実施形態に係る画像処理装置が画像処理する画像は、車両の後方を撮像した画像に限定されるものではなく、車両の前方や側方を撮像した画像であってもよい。また、実施形態に係る画像処理装置が画像の入力を受け付ける撮像装置は、車載カメラに限定されるものではなく、例えば、スマートフォン等のモバイル機器に搭載されたカメラモジュール、デジタルカメラ、街頭や住居に設置される防犯カメラ等であってもよい。
以下では、まず、実施形態に係る画像処理方法の対比例について説明した後、実施形態に係る画像処理方法および画像処理装置について説明する。図1は、実施形態に係る画像処理方法の対比例1を示す説明図であり、図2は、実施形態に係る画像処理方法の対比例2を示す説明図である。また、図3および図4は、実施形態に係る画像処理方法を示す説明図である。
図1(a)に示すように、対比例1では、フレーム画像P中に、立ち止った人物(静止物)、他車(移動物)、建物(静止物)および樹木(静止物)などの物体が写っている場合、図1(b)に示すように、フレーム画像Pから各物体(以下代表的に「立体物」と称する)の特徴点を取得する。
ここでの特徴点は、例えば、フレーム画像P中の立体物のエッジ等、各立体物の外形で際立った点のことである。かかる特徴点は、例えば、所謂特徴点方式や背景差分方式などの立体物検知法によって取得する。なお、特徴点方式や背景差分方式については、画像処理装置の説明と合わせて後述する。
続いて、対比例1では、図1(c)に示すように、各特徴点が集中している領域を囲む枠画像(同図中の太線矩形枠)を生成し、フレーム画像Pに重畳させて表示装置へ出力する。かかる対比例1によれば、ユーザへ自車後方に障害物がある旨を通知することができるが、フレーム画像Pに重畳される枠画像数が多過ぎて、ユーザに通知する障害物の情報量が過多となり、ユーザにとって見難くなる。
かかる問題を解消する方法として、例えば、図2に示す対比例2の画像処理方法がある。対比例2では、図1(b)に示した複数の特徴点を取得した後、特徴点に対するマスク処理を行い、マスク処理後の特徴点をグループ化することによって、ユーザへ通知する障害物の情報が過多となることを抑制する。
具体的には、対比例2では、図2(a)に示すように、特徴点を取得したフレーム画像Pに対して、マスクMを適用する。マスクMは、自車後方の正面にあたるフレーム画像Pの中央領域Rで取得される静止物および移動物の特徴点を排除せず、中央領域Rの左右両端から中央領域Rの外側へ左右方向に所定距離だけ離れた位置までの側方領域M1で取得される静止物の特徴点を排除する。
また、マスクMは、フレーム画像P中で中央領域Rおよび側方領域M1よりも外側の遠方領域M2で取得された静止物および移動物の特徴点を排除する。なお、図2(a)に示すマスクMが特徴点を除外する領域は一例であり、これに限定されるものではない。
これにより、マスク処理後には、フレーム画像Pにおける中央領域Rに、静止物および移動物の特徴点が残り、側方領域M1に移動物の特徴点が残る。つまり、マスク処理によって、遠方領域M2では、全ての特徴点が排除され、側方領域M1では、静止物の特徴点が選択的に排除される。
したがって、対比例2によれば、フレーム画像Pが図1(a)に示すものの場合、走行安全性の観点からユーザへ通知する必要性が比較的低い遠方に存在する建物や樹木の特徴点を、マスク処理によって立体物の検知材料から排除することができる。
さらに、対比例2によれば、現時点で自車が後退しても衝突しない位置にあるが、今後衝突の可能性が生じる側方領域M1で移動中の他車については、立体物の検知材料として残すことができる。
続いて、対比例2では、図2(b)に示すように、マスク処理後に残された複数の特徴点を同一立体物毎のグループG1,G2に振分けるグループ化処理を行う。ここで、グループG1は、移動中の特徴点のグループである。グループG2は、立ち止った人物の特徴点のグループである。
その後、対比例2では、図2(b)に示す各グループG1,G2を囲む枠画像を生成し、図2(c)に示すように、フレーム画像Pに枠画像(同図中の太線矩形枠)を重畳する。かかる対比例2によれば、自車が後退した場合に衝突の可能性がある立体物に対して、選択的に枠画像を重畳させることで、ユーザへ提供する障害物の情報が過多となることを抑制する。
しかしながら、対比例2では、フレーム画像から取得した全ての特徴点について、一律にマスク処理を行ってからグループ化処理を行うため、枠画像によって移動物の全体ではなく一部だけを囲んだフレーム画像をユーザに提供する場合がある。
具体的には、図2(a)に示すように、移動中の他車から取得した特徴点をマスク処理した後、図2(b)に示すように、マスク処理で残った特徴点をグループ化処理すると、他車における特徴点のグループG1は、他車の前部分だけとなる。
このため、グループG1を囲む枠画像をフレーム画像Pに重畳した場合、図2(c)に示すように、他車の前部分だけが枠画像によって囲まれたフレーム画像Pとなってしまう。このような枠画像を重畳したフレーム画像Pは、ユーザに障害物の存在を通知する情報として、情報の質が高いとは言えない。
そこで、実施形態に係る画像処理方法は、フレーム画像Pから取得する立体物の複数の特徴点のうち、移動物の特徴点については、グループ化処理を行った後にマスク処理を行い、静止物の特徴点については、マスク処理を行った後に、グループ化処理を行う。
具体的には、実施形態に係る画像処理方法(以下、「本画像処理方法」と記載する)は、図3(a)に示すように、フレーム画像Pから移動体である他車の複数の特徴点を取得してグループ化処理を行う。これにより、他車の特徴点のグループG3は、ほぼ他車全体を含む領域となる。
その後、本画像処理方法は、図3(b)に示すように、グループ化処理後の特徴点のグループG3に対して、マスク処理を行う。なお、ここで適用するマスクMは、図2(a)に示すものと同じマスクMである。ただし、グループが占める領域の一部でも特徴点を排除しない領域と重なる場合は、当該グループの特徴点は排除せずに残される。したがって、図3(b)に示すグループG3の特徴点は排除されずに残される。
続いて、本画像処理方法は、フレーム画像PにおけるグループG3が占める領域を、他車の特徴点が存在する領域として囲む枠画像を生成し、図3(c)に示すように、枠画像(同図中の太線矩形枠)をフレーム画像Pに重畳する。
これにより、本画像処理方法は、側方領域M1に大半が侵入した他車のほぼ全体を囲む枠画像を生成することができるので、ユーザに障害物の存在を通知する情報として対比例2よりも質の高い枠画像を重畳したフレーム画像Pを生成することができる。
また、本画像処理方法は、フレーム画像P中の静止物を囲む枠画像を生成する場合、対比例と同様の方法によって、枠画像を生成する。具体的には、本画像処理装置は、フレーム画像P中の静止物を囲む枠画像を生成する場合、図4(a)に示すように、まず、フレーム画像Pから取得した静止物である人物、建物、および樹木の特徴点に対して、マスクMを適用したマスク処理を行う。
その後、本画像処理方法は、図4(b)に示すように、マスク処理によって排除されなかった人物の特徴点をグループG2とするグループ化処理を行う。そして、本画像処理方法は、グループG2を囲む枠画像を生成し、図4(c)に示すように、枠画像(同図中の太線矩形枠)をフレーム画像Pに重畳する。
これにより、本画像処理方法は、フレーム画像P中の静止物のうち、自車に衝突する恐れのない遠方の建物および樹木に枠画像を重畳させることなく、自車が後退した場合に衝突する危険性のある後方正面の人物に枠画像を重畳させることができる。
次に、図5を参照して、実施形態に係る画像処理装置2について説明する。図5は、実施形態に係る画像処理装置2の構成を示す機能ブロック図である。図5に示すように、画像処理装置2は、自車の後方を撮像する車載カメラ1と車室内に設けられる表示装置3とに接続される。
かかる画像処理装置2は、例えば、FPGA(Field Programmable Gate Array)であり、設計されたプログラムを実行することによって機能する立体物検知部4と、描画処理部5とを備える。立体物検知部4および描画処理部5には、車載カメラ1から自車の後方が撮像された動画映像のフレーム画像Pが順次時系列で入力される。
立体物検知部4は、入力されるフレーム画像Pからフレーム画像Pに写る静止物と移動物とを検知して、静止物の検知結果と移動部の検知結果とを個別に描画処理部5へ出力する処理部である。また、立体物検知部4は、フレーム画像Pに基づいて、自車の移動量および旋回量を検出し、検出結果を描画処理部5へ出力する処理も行う。かかる立体物検知部4の詳細については、図6〜図11を参照して後述する。
描画処理部5は、立体物検知部4から入力される検知結果に基づいて、フレーム画像P中の静止物および移動物をそれぞれ個別に囲む枠画像を生成し、車載カメラ1から入力されるフレーム画像Pに枠画像を重畳して表示装置3へ出力する処理部である。枠画像は、フレーム画像P中の静止物および移動物を強調する強調画像の一例である。
また、描画処理部5は、立体物検知部4から入力される自車の移動量および旋回量の検出結果に基づいて、自車の移動経路になると予測される予測ガイド線の画像(予測移動線画像)を生成してフレーム画像Pに重畳させる処理も行う。なお、描画処理部5は、自車の旋回量とは無関係に、自車後方の中央領域Rに対応する領域を示す固定ガイド線の画像を生成し、フレーム画像Pに重畳させる処理も行う。
ここで、図6〜図11を参照して、立体物検知部4の構成および動作について説明する。図6は、実施形態に係る立体物検知部4の構成を示す機能ブロック図であり、図7は、実施形態に係る特徴点方式静止物点取得部6の構成を示す機能ブロック図である。
また、図8および図9は、実施形態に係る特徴点方式の説明図であり、図10は、実施形態に係る背景差分方式静止物点取得部7の構成を示す機能ブロック図であり、図11は、実施形態に係る特徴点画像生成部42の動作を示す説明図である。
図6に示すように、立体物検知部4は、特徴点取得部41と、特徴点画像生成部42とを備える。特徴点取得部41は、車載カメラ1から順次入力されるフレーム画像Pから各フレーム画像Pに写る立体物の特徴点を複数取得する処理部である。
また、特徴点取得部41は、特徴点方式静止物点取得部6、背景差分方式静止物点取得部7、および背景差分方式移動物点取得部8を備える。特徴点方式静止物点取得部6は、特徴点方式を使用してフレーム画像Pにおける静止物の特徴点を取得し、取得した特徴点をプロットした画像を特徴点画像生成部42へ出力する処理部である。
具体的には、特徴点方式静止物点取得部6は、自車の移動に伴うフレーム画像Pの遷移状態を特徴点で追跡し、特徴点の移動ベクトルから自車の移動推定を行うことでフレーム画像Pにおける静止物の位置を推定する処理部である。かかる特徴点方式静止物点取得部6は、図7に示すように、フレームメモリ61、オプティカルフロー算出部62、第1視点変換部63、静止物検出部64、および第2視点変換部65とを備える。フレームメモリ61は、車載カメラ1から入力されるフレーム画像Pを時系列に順次記憶してオプティカルフロー算出部62へ出力するメモリである。
オプティカルフロー算出部62は、フレーム画像Pにサンプル点を設定し、そのサンプル点が自車の移動に伴って移動した移動ベクトルをオプティカルフローとして算出して第1視点変換部63へ出力する処理部である。
例えば、オプティカルフロー算出部62は、図8(b)に示す撮像された最新のフレーム画像Pを車載カメラ1から取得し、最新のフレーム画像Pよりも以前に撮像された図8(a)に示す1フレーム前のフレーム画像Pをフレームメモリ61から取得する。
そして、オプティカルフロー算出部62は、図8(a)に示すように、1フレーム前のフレーム画像P中に、複数個(例えば、数百個)のサンプル点(同図中の黒点)を設定する。その後、オプティカルフロー算出部62は、1フレーム前のフレーム画像Pが撮像された時刻と、図8(b)に示す最新のフレーム画像Pが撮像された2時刻間でのサンプル点の移動ベクトルをオプティカルフローとして算出する。
図8(b)に示す黒点から延びる線分は、各サンプル点の移動ベクトルを示している。図7へ戻り、オプティカルフロー算出部62は、車載カメラ1から最新のフレーム画像Pが入力される度に、順次オプティカルフローを算出して、第1視点変換部63へ出力する。
第1視点変換部63は、オプティカルフロー算出部62から入力されるオプティカルフローを路面展開して、静止物検出部64へ出力する処理部である。ここでの路面展開とは、算出されたフレーム画像P上のオプティカルフローを路面上(ワールド座標上)の移動ベクトル(オプティカルフロー)へ変換する処理である。
かかる第1視点変換部63は、図9に示すように、フレーム画像P上のオプティカルフローB1を路面上へ投影することによって、路面上のオプティカルフローB2を算出する。第1視点変換部63は、車載カメラ1の取付位置および俯角を用いた変換アルゴリズムを使用して路面上のオプティカルフローB2を算出する。
車載カメラ1のフレーム画像P上のオプティカルフローB1は、路面Gに投影されることで路面G上のオプティカルフローB2に変換される。車載カメラ1の視点からフレーム画像P上のオプティカルフローB1の始点を結ぶ線を延長し、路面Gと交差する点が路面G上のオプティカルフローB2の始点となる。
同様に、車載カメラ1の視点からフレーム画像P上のオプティカルフローB1の終点を結ぶ線を延長し、路面Gと交差する点が路面G上のオプティカルフローB2の終点となる。図9におけるフレーム画像Pは、フレーム画像P上のオプティカルフローB1を路面G上のオプティカルフローB2に変換する場合の概念図であり、実空間上に存在するフレーム画像Pを示すものではない。
路面G上のオプティカルフローB2の始点および終点は、路面GをXY平面とし、車載カメラ1の位置を基点とした場合における、XY座標から算出することができる。図7へ戻り、第1視点変換部63は、算出した路面G上のオプティカルフローB2を静止物検出部64へ出力する。
静止物検出部64は、第1視点変換部63から入力される路面G上のオプティカルフローB2に基づいて、路面G上における静止物の位置を検出する処理部である。具体的には、静止物検出部64は、路面G上のオプティカルフローB2に基づいて、各フレーム画像Pが撮像される期間に移動した自車の路面Gに対する旋回量と、移動量とを算出する。
また、静止物検出部64は、自車の旋回量および移動量とオプティカルフローB2の長さとに基づいて静止物の特徴点を検出する。そして、静止物検出部64は、各フレーム画像Pの路面G上における静止物の特徴点を、480×720画素の立体物配置マップへマッピングする。
ここで、静止物検出部64は、特徴点がマッピングされた画素(ここでは、「中心画素」という)を所定の輝度の色とし、中心画素の周囲の数画素を中心画素から遠ざかるにつれて所定の輝度から徐々に低い輝度の色とし、その他の画素を黒色とする。
そして、静止物検出部64は、現時点のフレーム画像Pを基準フレーム画像として設定する。そして、静止物検出部64は、基準フレーム画像よりも過去に撮像された各フレーム画像Pの立体物配置マップにマッピングされた特徴点を、自車の旋回量および移動量に基づいて、基準フレーム画像中の対応する位置へシフト(回転、並進)させる。
なお、静止物検出部64は、自車のY方向(図9のXYZ座標参照)への移動量が一定量(例えば、45mm)を超えた場合に、基準フレーム画像を最新のフレーム画像Pに更新する。
静止物検出部64は、フレーム画像P毎に作成した立体物配置マップにおける各画素の輝度値を積分することによって、各画素に静止物の特徴点が存在する確からしさ(以下、「確度」という)を各画素の輝度値で示す最終的な立体物配置マップを作成する。
このとき、静止物検出部64は、各立体物配置マップにおける前画素の輝度値を一律(2%:2/100倍)に低減してから各画素の輝度値を積分することにより、積分が完了する前に輝度値が上限値に達してオーバーフロー状態となる画素の発生を抑制する。
図7へ戻り、静止物検出部64は、こうして作成した路面G上における静止物の特徴点の位置および確度をマップ内の黒以外の画素の位置および輝度値によって示す立体物配置マップを後段の第2視点変換部65へ出力する。かかる立体物配置マップ中の黒以外の画素は、静止物の特徴点の一例である。
なお、静止物検出部64は、立体物配置マップを作成する過程で算出した自車の旋回量および移動量を描画処理部5へ出力する処理も行う。描画処理部5は、入力される自車の旋回量および移動量を使用して、自車の移動経路になると予測される前述の予測ガイド線の画像を生成する。
第2視点変換部65は、静止物検出部64から入力される立体物配置マップを画像展開することによって、480×720画素の画像を生成し、生成した画像を特徴点画像生成部42へ出力する処理部である。ここでの画像展開とは、路面G上(ワールド座標上)の静止物の特徴点の位置を車載カメラ1視点のフレーム画像Pの位置へ変換する処理である。
次に、図10を参照して、図6に示す背景差分方式静止物点取得部7について説明する。なお、背景差分方式静止物点取得部7と、背景差分方式移動物点取得部8とは、取得対象の特徴点のフレーム間における移動量(移動速度)が異なる点を除き、同様の構成である。このため、背景差分方式移動物点取得部8については、その詳細な説明を省略する。
図10に示すように、背景差分方式静止物点取得部7は、フレームメモリ71、移動量算出部72、エッジ検出部73、および静止物検出部74を備える。フレームメモリ71は、車載カメラ1から入力されるフレーム画像Pを時系列に順次記憶して移動量算出部72へ出力するメモリである。
移動量算出部72は、車載カメラ1から順次入力される各フレーム画像Pと、フレームメモリ71から取得する1フレーム前のフレーム画像Pとの差分を取ることによって立体物を抽出した差分画像を生成してエッジ検出部73へ出力する処理部である。
具体的には、移動量算出部72は、車載カメラ1から最新のフレーム画像P(ここでは、現フレーム)を順次取得し、フレームメモリ71から1フレーム前のフレーム画像P(ここでは、前フレームという)を順次取得する。
そして、移動量算出部72は、現フレームおよび前フレームについて、それぞれ2種類の視点変換画像を生成する。まず、移動量算出部72は、現フレームおよび前フレームについて、それぞれ俯角を90度とした仮想視点の水平画像を生成する。さらに、移動量算出部72は、現フレームおよび前フレームについて、俯角0度とした仮想視点の路面画像を生成する。
そして、移動量算出部72は、現フレームおよび前フレームの水平画像にそれぞれ特定矩形領域を指定し、前フレームの特定矩形領域を現フレームの特定矩形領域へ微小距離ずつずらしながら、現フレームの特定矩形領域とのSAD(Sum of Absolute Difference)値を算出する。移動量算出部72は、SAD値が最小のときのずれ量を摂動量として算出し、算出した摂動量と車載カメラ1の焦点距離とに基づいて自車の旋回量を算出する。
続いて、移動量算出部72は、現フレームおよび前フレームの路面画像にそれぞれ特定矩形領域を指定し、前フレーム画像の特定矩形領域については、先に算出した旋回量を用いて現フレームの特定矩形領域と相対的な方向を合わせる。
そして、移動量算出部72は、補正後の前フレームの特定矩形領域を、路面上に規定したXY座標のX方向およびY方向にずらしながら、現フレームの特定矩形領域とのSAD値を算出する。移動量算出部72は、SAD値が最小のときのずれ量を摂動量として算出し、算出した摂動と路面画像の仮想視点の高さとに基づき、自車の移動量を算出する。移動量算出部72は、算出した自車の旋回量および移動量をエッジ検出部73および静止物検出部74へ出力する。
エッジ検出部73は、車載カメラ1から現フレームを順次取得し、フレームメモリ71から前フレームを順次取得して、現フレームおよび前フレームから立体物のエッジを検出し、エッジ部分を選択的に強調したエッジ検出画像を生成する処理部である。
エッジ検出部73は、エッジ検出画像を生成する場合、移動量算出部72から入力される自車の旋回量および移動量に基づいて、予め前フレームを回転および並進させる補正を行うことにより、現フレームとの相対的な位置および方向を合わせる。そして、エッジ検出部73は、生成した現フレームおよび前フレームのエッジ画像を静止物検出部74へ出力する。
静止物検出部74は、エッジ検出部73から入力される現フレームのエッジ画像と、前フレームのエッジ画像の各画素の輝度値の差分をとる差分処理を行うことによって、背景差分画像を生成する。かかる背景差分画像には、立体物の像が現れ、非立体物の像は現れない。
続いて、静止物検出部74は、背景差分画像に現れる立体物の像から複数(例えば、200個)の特徴点を検出する。そして、静止物検出部74は、移動量算出部72から入力される自車の旋回量および移動量に基づいて、前フレームの背景差分画像の特徴点の位置を現フレームの背景差分画像の座標中の位置に変換し、各画素の輝度値を一律に低減させてから積分を行う。
このとき、静止物検出部74は、各画素の輝度値を約1/2(輝度値の上限が255の場合、128)に低減して積分を行うことにより、静止物および移動物の特徴点を含む480×720画素の画像を生成する。
また、静止物検出部74は、各画素の輝度値を約1/8(輝度値の上限が255の場合、32)に低減して積分を行うことにより、移動物の特徴点を含む480×720画素の画像を生成する。そして、静止物検出部74は、静止物および移動物の特徴点を含む画像から移動物の特徴点を削除した画像を静止物の特徴点を含む画像として特徴点画像生成部42へ出力する。
図6へ戻り、背景差分方式移動物点取得部8は、背景差分方式静止物点取得部7と同様の手順によって、移動物の特徴点を含む480×720画素の画像を生成し、生成した移動物の特徴点を含む画像を特徴点画像生成部42へ出力する。
特徴点画像生成部42は、特徴点取得部41から入力される480×720画素の各画像を、それぞれ30×45画素の画像へ圧縮して特徴点画像を生成する処理部である。ここで、図11を参照して、特徴点画像生成部42による画像圧縮処理の手順について説明する。
図11(a)に示すように、特徴点画像生成部42は、480×720画素の画像を16×16画素の領域に分割し、16×16画素の領域に含まれる各画素の輝度値と第1輝度閾値とを比較する。
そして、特徴点画像生成部42は、図11(b)に示すように、例えば、16×16画素の領域に、第1輝度閾値以上の画素が3個ある場合、図11(c)に示すように、30×45画素の領域の対応する位置へ、第1輝度閾値以上の画素数である3をプロットする。
ここで、30×45画素の領域における画素数をプロットする位置は、480×720画素の画像から選択した16×16画素の領域の画像における位置と同じ相対位置である。
特徴点画像生成部42は、480×720画素の画像を分割した全ての16×16画素の領域について、輝度閾値以上の画素の個数を判別して、30×45画素の領域へプロットすることにより、30×45画素の特徴点画像を生成する。
さらに、特徴点画像生成部42は、生成した30×45画素の特徴点画像の各画素にプロットした画素数と第2輝度閾値とを比較し、画素数が第2輝度閾値以上の画素を白、第2輝度閾値未満の画素を黒とする2値化を行い30×45画素の特徴点画像を生成する。
そして、特徴点画像生成部42は、特徴点方式静止物点取得部6および背景差分方式静止物点取得部7から入力された各画像からそれぞれ生成した静止物の特徴点画像を描画処理部5へ出力する。また、特徴点画像生成部42は、背景差分方式移動物点取得部8から入力された画像から生成した移動物の特徴点画像を描画処理部5へ出力する。
図5へ戻り、描画処理部5は、グループ化処理部51、マスク処理部52、領域分割部53、グループ選択部54、枠画像生成部55、および重畳画像生成部56を備える。グループ化処理部51は、立体物検知部4によってフレーム画像Pから取得される静止物および立体物の複数の特徴点を同一の立体物毎のグループに振分けるグループ化処理を行う処理部である。
また、マスク処理部52は、立体物検知部4によってフレーム画像Pから取得される静止物および立体物の複数の特徴点から、フレーム画像Pにおける一部の領域に含まれる特徴点を排除するマスク処理を行う処理部である。
これらグループ化処理部51およびマスク処理部52は、立体物検知部4によって検知される立体物が移動物か静止物かによって処理を行う順序が変わる。ここで、図12および図13を参照して、グループ化処理部51およびマスク処理部52の処理順序について説明する。図12および図13は、実施形態に係るグループ化処理部51およびマスク処理部52の処理順序を示す説明図である。
立体物検知部4は、検知した立体物が移動物であった場合、検知した移動物の特徴点画像をグループ化処理部51へ出力する。かかる場合、図12に示すように、グループ化処理部51は、移動物の特徴点画像中の移動物の特徴点を同一物のグループに振分けるグループ化処理を行い、グループ化処理後の移動物の特徴点画像をマスク処理部52へ出力する(図3(a)参照)。マスク処理部52は、すでにグループ化処理が行われた移動物の特徴点画像に対してマスク処理を行い、マスク処理後の移動物の特徴点画像を出力する(図3(b)参照)。
そして、マスク処理部52から出力される移動物の特徴点画像は、領域分割部53およびグループ選択部54を介して枠画像生成部55へ入力される。なお、領域分割部53およびグループ選択部54の動作については後述する。
枠画像生成部55は、入力されるグループ化処理およびマスク処理の順に処理された移動物の特徴点画像中の特徴点のグループを囲む枠画像を生成する。これにより、枠画像生成部55は、例えば、図3(c)に示すように、移動物である他車のほぼ全体を囲む枠画像を生成して重畳画像生成部56へ出力することができる。重畳画像生成部56は、枠画像生成部55から入力される枠画像を車載カメラ1から入力されるフレーム画像Pに重畳して重畳画像を生成して、表示装置3へ出力する。
一方、立体物検知部4は、検知した立体物が静止物であった場合、検知した静止物の特徴点画像をマスク処理部52へ出力する。かかる場合、図13に示すように、マスク処理部52は、静止物の特徴点画像に対してマスク処理を行い、マスク処理後の静止物の特徴点画像をグループ化処理部51へ出力する(図4(a)参照)。グループ化処理部51は、すでにマスク処理が行われた静止物の特徴点画像に対してグループ化処理を行い、マスク処理後の静止物の特徴点画像を出力する(図4(b)参照)。
グループ化処理部51から出力される静止物の特徴点画像は、領域分割部53およびグループ選択部54を介して枠画像生成部55へ入力される。枠画像生成部55は、入力されるマスク処理およびグループ化処理の順に処理された静止物の特徴点画像中の特徴点のグループを囲む枠画像を生成する。
これにより、枠画像生成部55は、例えば、図4(c)に示すように、静止物である立ち止った人物のほぼ全体を囲む枠画像を生成して重畳画像生成部56へ出力することができる。重畳画像生成部56は、枠画像生成部55から入力される枠画像を車載カメラ1から入力されるフレーム画像Pに重畳して重畳画像を生成して、表示装置3へ出力する。
また、グループ化処理部51は、移動物の特徴点をグループ化処理する場合と、静止物の特徴点をグループ化処理する場合とで、同一のグループにする特徴点間の距離の閾値を異ならせている。ここで、図14および図15を参照し、グループ化処理部51によるグループ化処理の閾値について説明する。図14および図15は、実施形態に係るグループ化処理の閾値の説明図である。
図14に示すように、グループ化処理部51は、例えば、他車などの移動物の特徴点をグループ化処理する場合、フレーム画像P中で左右方向に並ぶ特徴点同士が同一のグループになり易く、上下方向に並ぶ特徴点同士が同一のグループになり難くする。
具体的には、グループ化処理部51は、フレーム画像P中で上下方向に並ぶ移動物の特徴点間の距離が第1の閾値Th1以下の場合に、特徴点同士を一つのグループとする。一方、グループ化処理部51は、フレーム画像P中で左右方向に並ぶ移動物の特徴点間の距離が第1の閾値Th1よりも大きな第2の閾値Th2以下の場合に、特徴点同士を一つのグループとする。
例えば、グループ化処理部51は、第1の閾値Th1を縦2画素分の距離とし、第2の閾値Th2を横3画素分の距離とする。これにより、グループ化処理部51は、移動物が他車である場合に、車両の前後や左右のエッジのように左右方向に離間した位置で特徴点が取得されても、左右方向に離間した特徴点を含む他車全体を包含する領域を特徴点のグループG3が占める領域とすることができる。したがって、枠画像生成部55は、他車のほぼ全体を囲む枠画像を生成することができる。
一方、グループ化処理部51は、図15に示すように、例えば、立ち止った人物の静止物の特徴点をグループ化処理する場合、フレーム画像P中で縦に並ぶ特徴点同士が同一のグループになり易く、左右方向に並ぶ特徴点同士が同一のグループになり難くする。
具体的には、グループ化処理部51は、フレーム画像P中で上下方向に並ぶ静止物の特徴点間の距離が第3の閾値Th3以下の場合に、特徴点同士を一つのグループとする。一方、グループ化処理部51は、フレーム画像P中で左右方向に並ぶ静止物の特徴点間の距離が第3の閾値Th3よりも小さな第4の閾値Th4以下の場合に、特徴点同士を一つのグループとする。
例えば、グループ化処理部51は、第3の閾値Th3を縦4画素分の距離とし、第4の閾値Th4を横1画素分の距離とする。これにより、グループ化処理部51は、静止物が人物である場合に、足元および頭部のエッジのように上下方向に離間した位置で特徴点が取得されても、上下方向に離間した特徴点を含む人物全体を包含する領域を特徴点のグループG2が占める領域とすることができる。
したがって、枠画像生成部55は、人物のほぼ全体を囲む枠画像を生成することができる。しかも、グループ化処理部51は、グループG2の左右方向近傍に、別の人物画像から取得した特徴点のグループG4が存在しても、グループG2とグループG4とを一つのグループにすることがない。したがって、枠画像生成部55は、二人並んだ人物をそれぞれ個別に囲む枠画像を生成することができる。
また、マスク処理部52は、自車が後方へ直進する場合には、図4(a)などに記載したマスクMを適用したマスク処理を行うが、自車が旋回しながら後退する場合には、フレーム画像Pに重畳される前述の予測ガイド線に応じてマスクMの形状を変化させる。
ここで、図16を参照して、マスクMの形状変化について説明する。図16は、実施形態に係るマスクMの形状変化を示す説明図である。図16(a)に示すように、重畳画像生成部56は、自車が後方へ直進する場合、自車後方の中央領域Rに対応する領域を示す固定ガイド線RLをフレーム画像Pに重畳させる。
また、重畳画像生成部56は、自車が旋回しながら後退する場合、立体物検知部4から入力される自車の旋回量に基づいて、図16(b)に示すように、自車の移動経路になると予測される予測ガイド線GLをフレーム画像Pへさらに重畳させる。そして、重畳画像生成部56は、フレーム画像Pにおける予測ガイド線GLの表示位置をマスク処理部52へ出力する。
かかる場合、マスク処理部52は、図16(c)に示すように、マスクMにおける中央領域Rと側方領域M1との境界線を予測ガイド線GLの表示位置に連動して変化させる。これにより、マスク処理部52は、自車が旋回しながら後退する場合に、これから自車が進む予定の領域に、静止物および移動物の特徴点を排除しない中央領域Rを設定することができ、ユーザにとってより有益な特徴点を排除せずに残すことができる。
図5へ戻り、領域分割部53は、グループ化処理部51またはマスク処理部52から入力される特徴点画像を左右方向に並ぶ複数の分割領域に分割してグループ選択部54へ出力する処理部である。グループ選択部54は、領域分割部53から入力される複数の分割領域に分割された特徴点画像に含まれる特徴点のグループのうち、フレーム画像P中で枠画像を重畳させるグループを選択する処理部である。
ここで、図17および図18を参照して、グループ選択部54の構成と、グループ選択部54および領域分割部53の動作の一例について説明する。図17は、実施形態に係るグループ選択部54の構成を示す機能ブロック図であり、図18は、実施形態に係るグループ選択部54および領域分割部53の動作の一例を示す説明図である。
図17に示すように、グループ選択部54は、サイズ判定部81、所属領域判定部82、および最下部判定部83を備える。ここで、例えば、図18(a)に示すように、領域分割部53へグループA,B,C,D,Eという5つの特徴点のグループを含む特徴点画像P1が入力される場合がある。なお、ここでは、便宜上、特徴点画像P1におけるグループA,B,C,D,Eの形状を矩形状としている。
かかる場合、領域分割部53は、図18(b)に示すように、特徴点画像P1を分割領域a1,a2,a3という左右方向に並ぶ3つの分割領域に分割してグループ選択部54のサイズ判定部81へ出力する。
サイズ判定部81は、領域分割部53から入力される特徴点画像P1に含まれるグループの各サイズを判定し、所定サイズよりも小さなグループEを削除して所属領域判定部82へ出力する。これにより、サイズ判定部81は、自車の後方に存在していても危険性の低い極小さな物体の存在がユーザへ無駄に通知されることを抑制することができる。
続いて、所属領域判定部82は、サイズ判定部81から入力される特徴点画像P1に含まれる各グループが何れの分割領域に属するかを判定する。具体的には、まず、所属領域判定部82は、特徴点画像P1に各グループを囲むグループ枠を規定し、各グループ枠の底辺中心座標を含む分割領域を、グループ枠によって囲まれるグループが属する分割領域と判定する。
これにより、図18(c)に示す例では、所属領域判定部82は、グループAが分割領域a1に属し、グループB,Cが分割領域a2に属し、グループDが分割領域a3に属すると判定する。そして、所属領域判定部82は、各グループの属性を付加した特徴点画像P1を最下部判定部83へ出力する。
最下部判定部83は、各分割領域に属するグループのうち、各分割領域における最下部に位置するグループを分割領域毎に選択する。具体的には、最下部判定部83は、各分割領域に属するグループのうち、グループ枠の底辺中心座標と特徴点画像P1の底辺との距離が最短のグループ枠によって囲まれるグループを各分割領域における最下部に位置するグループと判定する。
例えば、最下部判定部83は、図18(c)に示す分割領域a1では、グループAを囲むグループ枠の底辺の中心座標から特徴点画像P1の底辺Lまでの距離D1が最も近いので、グループAを最下部のグループと判定する。
こうして、最下部判定部83は、図18(d)に示すように、グループAを分割領域a1の最下部に位置するグループ、グループBを分割領域a2の最下部に位置するグループ、グループDを分割領域a3の最下部に位置するグループと判定する。そして、最下部判定部83は、各分割領域の最下部に位置するグループのグループ枠の特徴点画像P1における位置情報を枠画像生成部55へ出力する。
図5へ戻り、枠画像生成部55は、グループ選択部54から入力される特徴点画像におけるグループ枠の位置情報に基づいて、フレーム画像Pに重畳させる枠画像を生成して、重畳画像生成部56へ出力する。
重畳画像生成部56は、枠画像生成部55から入力される枠画像をフレーム画像Pへ重畳した重畳画像を生成して表示装置3へ出力する。なお、重畳画像生成部56は、前述した固定ガイド線や予測ガイド線などの画像もフレーム画像Pに重畳させる。
これにより、画像処理装置2は、フレーム画像Pを左右方向に並ぶ3つの各分割領域内で自車に最も近い位置にある立体物を枠画像で囲んだ重畳画像をユーザへ提供することができる。したがって、画像処理装置2は、例えば、フレーム画像P全体で最も自車に近い立体物だけを枠画像で囲む他の画像処理装置よりも、ユーザに対して立体物の存在を通知する情報の質を向上させることができる。
次に、図19を参照して、画像処理装置2が実行する処理について説明する。図19は、実施形態に係る画像処理装置2が実行する処理を示すフローチャートである。画像処理装置2は、例えば、自車のシフトレバーがバックの位置へシフトされている期間、図19に示す処理を所定周期で繰り返し実行する。
画像処理装置2は、自車のシフトレバーがバックの位置へシフトされると、図19に示すように、フレーム画像Pから立体物を検知したか否かを判定する(ステップS101)。そして、画像処理装置2は、立体物を検知しないと判定した場合(ステップS101,No)、処理をステップS110へ移し、フレーム画像Pに固定ガイド線や予測ガイド線を重畳した重畳画像を生成して表示装置3へ出力し、処理を終了する。
また、画像処理装置2は、立体物を検知したと判定した場合(ステップS101,Yes)、検知した立体物は移動物か否かを判定する(ステップS102)。そして、画像処理装置2は、立体物は移動物であると判定した場合(ステップS102,Yes)、立体物の特徴点画像に対してグループ化処理を行い(ステップS103)、その後、特徴点画像に対してマスク処理を行って(ステップS104)、処理をステップS105へ移す。
また、画像処理装置2は、検知した立体物は移動物でないと判定した場合(ステップS102,No)、立体物を静止物と判定し、立体物の特徴点画像に対してマスク処理を行い(ステップS111)、その後、特徴点画像に対してグループ化処理を行って(ステップS112)、処理をステップS105へ移す。
ステップS105において、画像処理装置2は、特徴点画像を複数の分割領域に分割する領域分割を行い、その後、特徴点画像に含まれる特徴点のグループのサイズ判定を行う(ステップS106)。そして、画像処理装置2は、特徴点のグループに所定サイズよりも小さなグループがある場合には、特徴点画像から削除して処理をステップS107へ移す。
ステップS107において、画像処理装置2は、特徴点画像に含まれる特徴点のグループが属する分割領域を判定する所属領域判定を行い、その後、各分割領域で最下部に位置するグループを判定する最下部判定を行う(ステップS108)。
続いて、画像処理装置2は、各分割領域で最下部に位置するグループを囲む枠画像を生成する枠画像生成を行う(ステップS109)。その後、画像処理装置2は、枠画像をフレーム画像Pに重畳した重畳画像を生成する重畳画像生成を行い(ステップS110)、生成した重畳画像を表示装置3へ出力して処理を終了する。
なお、上述した実施形態は一例であり、実施形態に係る画像処理装置2の構成および動作は、上記した実施形態に限定されるものではない。以下、実施形態に係る画像処理装置2の変形例について説明する。
図20〜図23は、実施形態の変形例1〜4に係る画像処理装置の画像処理方法を示す説明図である。上述した実施形態では、画像処理装置が移動物の特徴点画像に対して、グループ化処理、マスク処理の順に画像処理を行い、静止物の特徴点画像に対して、マスク処理、グループ化処理の順に画像処理を行う場合を例に挙げたが、これは一例である。
例えば、変形例1の画像処理装置は、図20(a)に示すように、移動物および静止物の特徴点についてグループ処理を行い、図20(b)に示すように、グループ化処理後の特徴点についてマスク処理を行うこともできる。かかる画像処理方法によっても、図20(c)に示すように、移動体である他車のほぼ全体を囲む枠画像をフレーム画像Pに重畳させることができる。
また、上述した実施形態では、画像処理装置が特徴点画像を分割した複数の各分割領域内で、最も下部に位置するグループを枠画像で囲むグループとして選択したが、枠画像で囲むグループは、各分割領域につき1つに限定するものではない。
例えば、変形例2の画像処理装置は、特徴点画像を分割した分割領域における最下部に位置するグループを囲むグループ枠の底辺から特徴点画像の上辺側へ所定距離離れた位置までの領域を下部領域として設定する下部領域設定部をさらに備える。
かかる画像処理装置は、図21(a)に示す特徴点画像P1を生成した場合、まず、図21(b)に示すように、特徴点画像P1を3つの分割領域a1,a2,a3に分割する。その後、画像処理装置の下部領域設定部は、図21(c)内にハッチングで示すように、各分割領域a1,a2,a3におけるグループ枠の底辺から特徴点領域の上辺側へ所定距離離D2だけ離れた位置までの領域を下部領域として設定する。
そして、画像処理装置のグループ選択部は、各下部領域内に底辺中心座標が位置するグループ枠によって囲まれるグループを最下部に位置するグループとして選択する。これにより、画像処理装置は、図21(d)に示すように、分割領域a1については、2つのグループA,Eをそれぞれ枠画像で囲むグループとして選択することができる。
かかる画像処理装置は、例えば、グループAに対応する立体物が静止物であり、グループEに対応する立体物が自車へ近づく移動物の場合に、グループAよりも注意が必要なグループEに対応する移動物を枠画像で囲み、ユーザに存在を通知することができる。
また、変形例3の画像処理装置は、特徴点画像の分割数を可変とした領域分割部と、上記した下部領域の大きさを可変とした下部領域設定部とをさらに備える。かかる画像処理装置は、例えば、図22に示すように、特徴点領域を左右方向に並ぶ4以上(ここでは、6つ)の分割領域a11,a12,a13,a14,a15,a16に分割することが可能である。これにより、画像処理装置は、自車に近い危険なより多くの立体物を枠画像で囲むことにより、立体物の存在をユーザへ通知することができる。
ただし、画像処理装置は、領域分割部によって特徴点画像の分割数を増加させる場合は、下部領域設定部による底辺から上辺までの所定距離D3を縮小する。これにより、画像処理装置は、ユーザへ提供する枠画像の情報が過多になることを抑制しつつ、自車に近い危険な立体物をより多く枠画像で囲み、危険な立体物の存在をユーザへ通知することができる。
また、画像処理装置は、領域分割部によって特徴点画像の分割数を減少させる場合には、下部領域における底辺から上辺までの所定距離D3を拡大する。これにより、画像処理装置は、特徴点画像の分割数を減少させたことにより、ユーザへ通知する危険な立体物数の過度な現象を抑制することができる。
また、画像処理装置は、領域分割部を省略することも可能である。かかる変形例4の画像処理装置は、上述した下部領域設定部を備える。そして、変形例4の画像処理装置は、図23に示すように、特徴点画像中で最も下部に位置する特徴点のグループAを囲むグループ枠の底辺から特徴点画像の上辺側へ所定距離D4離れた位置までの領域を下部領域として設定する。
このとき、下部領域設定部は、車載カメラ1の広角レンズに起因して、自車からの距離が同一であるにも関わらず、特徴点画像中の位置が異なる上下方向の最大距離を所定距離D4として設定する。なお、図23には、自車からグループAに対応する立体物までの距離と同一距離にある特徴点画像中の位置を円弧L1によって示している。
かかる画像処理装置によれば、特徴点画像中では、グループAよりも上部に位置するが、自車からの距離がグループAに対応する立体物と同じグループBに対応する立体物も枠画像で囲むことができる。
また、画像処理装置は、撮像装置の広角レンズに起因した特徴点画像の歪み補正を行う補正部を備える構成であってもよい。かかる場合、画像処理装置のグループ選択部は、
補正部によって歪み補正された特徴点画像に基づいて、分割領域における最下部に位置するグループを選択する。これにより、画像処理装置は、各分割領域内で自車からの距離が最短の立体物をより高精度に検出することができる。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 車載カメラ
2 画像処理装置
3 表示装置
4 立体物検知部
5 描画処理部
6 特徴点方式静止物点取得部
7 背景差分方式静止物点取得部
8 背景差分方式移動物点取得部
12 立体物検知部
41 特徴点取得部
42 特徴点画像生成部
51 グループ化処理部
52 マスク処理部
53 領域分割部
54 グループ選択部
55 枠画像生成部
56 重畳画像生成部
61 フレームメモリ
62 オプティカルフロー算出部
63 第1視点変換部
64 静止物検出部
65 第2視点変換部
71 フレームメモリ
72 移動量算出部
73 エッジ検出部
74 静止物検出部
81 サイズ判定部
82 所属領域判定部
83 最下部判定部

Claims (9)

  1. 撮像装置から順次入力されるフレーム画像から各前記フレーム画像に写る物体の特徴点を複数取得する特徴点取得部と、
    入力される複数の前記特徴点を同一物体毎のグループに振分けるグループ化処理を行って出力するグループ化処理部と、
    入力される複数の前記特徴点から前記フレーム画像中の一部の領域に含まれる特徴点を排除するマスク処理を行って出力するマスク処理部と、
    前記特徴点取得部が前記グループ化処理部へ前記特徴点を入力し、前記グループ化処理部が前記マスク処理部へ前記特徴点を出力する場合に、前記マスク処理部から出力される前記特徴点のグループに対応する前記フレーム画像中の前記物体を強調する強調画像を生成する強調画像生成部と、
    前記強調画像生成部によって生成された前記強調画像を前記フレーム画像に重畳した重畳画像を生成して出力する重畳画像生成部と
    を備えることを特徴とする画像処理装置。
  2. 前記特徴点取得部は、
    複数の前記特徴点から前記物体のうち移動物の特徴点を取得する移動物点取得部
    を備え、
    前記移動物点取得部は、
    前記移動物の特徴点を前記グループ化処理部へ入力する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記グループ化処理部は、
    前記フレーム画像中で上下方向に並ぶ前記移動物の特徴点間の距離が第1の閾値以下の場合に、当該特徴点同士を一つのグループとし、前記フレーム画像中で左右方向に並ぶ前記移動物の特徴点間の距離が前記第1の閾値よりも大きな第2の閾値以下の場合に、当該特徴点同士を一つのグループとする
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記強調画像生成部は、
    前記特徴点取得部が前記マスク処理部へ前記特徴点を入力し、前記マスク処理部が前記グループ化処理部へ前記特徴点を出力する場合に、前記グループ化処理部から出力される前記特徴点のグループに対応する前記フレーム画像中の前記物体を強調する強調画像を生成する
    ことを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  5. 前記特徴点取得部は、
    複数の前記特徴点から前記物体のうち静止物の特徴点を取得する静止物点取得部
    を備え、
    前記静止物点取得部は、
    前記静止物の特徴点を前記マスク処理部へ入力する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記グループ化処理部は、
    前記フレーム画像中で上下方向に並ぶ前記静止物の特徴点間の距離が第3の閾値以下の場合に、当該特徴点同士を一つのグループとし、前記フレーム画像中で左右方向に並ぶ前記静止物の特徴点間の距離が前記第3の閾値よりも小さな第4の閾値以下の場合に、当該特徴点同士を一つのグループとする
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記重畳画像生成部は、
    前記撮像装置が搭載される車両の予測移動領域の左右両端を示す予測移動線画像を前記フレーム画像に重畳し、
    前記マスク処理部は、
    前記予測移動領域よりも外側の領域に含まれる前記静止物の特徴点を前記入力される前記特徴点から排除するマスク処理と、
    前記予測移動領域の左右両端から左右方向外側へ所定距離離れた領域に含まれる移動物の特徴点を前記入力される前記特徴点から排除するマスク処理と
    を行うことを特徴とする請求項5または請求項6に記載の画像処理装置。
  8. 前記重畳画像生成部は、
    前記車両の旋回量に応じて湾曲する前記予測移動線画像を前記フレーム画像に重畳する
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 特徴点取得部が撮像装置から順次入力されるフレーム画像から各前記フレーム画像に写る物体の特徴点を複数取得する工程と、
    グループ化処理部が入力される複数の前記特徴点を同一物体毎のグループに振分けるグループ化処理を行って出力する工程と、
    マスク処理部が入力される複数の前記特徴点から前記フレーム画像中の一部の領域に含まれる特徴点を排除するマスク処理を行って出力する工程と、
    前記特徴点取得部が前記グループ化処理部へ前記特徴点を入力し、前記グループ化処理部が前記マスク処理部へ前記特徴点を出力する場合に、強調画像生成部が前記マスク処理部から出力される前記特徴点のグループに対応する前記フレーム画像中の前記物体を強調する強調画像を生成する工程と、
    重畳画像生成部が前記強調画像生成部によって生成された前記強調画像を前記フレーム画像に重畳した重畳画像を生成して出力する工程と
    を含むことを特徴とする画像処理方法。
JP2015211099A 2015-10-27 2015-10-27 画像処理装置および画像処理方法 Active JP6618766B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015211099A JP6618766B2 (ja) 2015-10-27 2015-10-27 画像処理装置および画像処理方法
US15/258,519 US9990534B2 (en) 2015-10-27 2016-09-07 Image processing device and image processing method
CN201610920649.4A CN107038693A (zh) 2015-10-27 2016-10-21 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015211099A JP6618766B2 (ja) 2015-10-27 2015-10-27 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2017084067A true JP2017084067A (ja) 2017-05-18
JP6618766B2 JP6618766B2 (ja) 2019-12-11

Family

ID=58559069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015211099A Active JP6618766B2 (ja) 2015-10-27 2015-10-27 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US9990534B2 (ja)
JP (1) JP6618766B2 (ja)
CN (1) CN107038693A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064157A (ja) * 2019-10-14 2021-04-22 株式会社デンソー 障害物認識装置
JP7467107B2 (ja) 2019-12-25 2024-04-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
US11132529B2 (en) 2016-11-16 2021-09-28 Ventana Medical Systems, Inc. Convolutional neural networks for locating objects of interest in images of biological samples
JP6817804B2 (ja) * 2016-12-16 2021-01-20 クラリオン株式会社 区画線認識装置
JP6894725B2 (ja) * 2017-03-09 2021-06-30 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
CN114782705A (zh) * 2017-08-31 2022-07-22 北京图森未来科技有限公司 一种物体封闭轮廓的检测方法和装置
JP7071086B2 (ja) * 2017-10-13 2022-05-18 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
CN107767673B (zh) * 2017-11-16 2019-09-27 智慧互通科技有限公司 一种基于多摄像机的路侧停车管理方法、装置及系统
CN108985259B (zh) * 2018-08-03 2022-03-18 百度在线网络技术(北京)有限公司 人体动作识别方法和装置
CN109241956B (zh) * 2018-11-19 2020-12-22 Oppo广东移动通信有限公司 合成图像的方法、装置、终端及存储介质
JP6825754B1 (ja) * 2019-06-20 2021-02-03 住友電気工業株式会社 車載通信システム、スイッチ装置、機能部、通信制御方法および通信制御プログラム
JP2021077039A (ja) * 2019-11-07 2021-05-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム。
JP7279685B2 (ja) * 2020-04-23 2023-05-23 トヨタ自動車株式会社 情報処理システム
FR3114418A1 (fr) * 2020-09-18 2022-03-25 Data Smart Process Masquage dynamique de zones privatives dans une caméra PTZ.
CN113657384B (zh) * 2021-09-02 2024-04-05 京东科技控股股份有限公司 证件图像的矫正方法及装置、存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008049889A (ja) * 2006-08-25 2008-03-06 Denso Corp 駐車支援装置
JP2013210942A (ja) * 2012-03-30 2013-10-10 Fujitsu Ten Ltd 検知装置、及び検知方法
JP2015158874A (ja) * 2014-02-25 2015-09-03 トヨタ自動車株式会社 周辺監視装置及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487191B2 (ja) * 2004-12-24 2010-06-23 カシオ計算機株式会社 画像処理装置および画像処理プログラム
JP2006268097A (ja) 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
EP2629156B1 (en) * 2012-01-27 2024-04-17 Samsung Electronics Co., Ltd. Image processing apparatus and method
JP2014142484A (ja) * 2013-01-24 2014-08-07 Fuji Xerox Co Ltd 非磁性一成分トナー、トナーカートリッジ、プロセスカートリッジおよび画像形成装置
CN103237168A (zh) * 2013-04-02 2013-08-07 清华大学 一种基于综合增益的高动态范围图像视频处理方法
CN104616297A (zh) * 2015-01-26 2015-05-13 山东省计算中心(国家超级计算济南中心) 一种用于图像篡改取证的改进型sift算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008049889A (ja) * 2006-08-25 2008-03-06 Denso Corp 駐車支援装置
JP2013210942A (ja) * 2012-03-30 2013-10-10 Fujitsu Ten Ltd 検知装置、及び検知方法
JP2015158874A (ja) * 2014-02-25 2015-09-03 トヨタ自動車株式会社 周辺監視装置及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021064157A (ja) * 2019-10-14 2021-04-22 株式会社デンソー 障害物認識装置
JP7322651B2 (ja) 2019-10-14 2023-08-08 株式会社デンソー 障害物認識装置
JP7467107B2 (ja) 2019-12-25 2024-04-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
CN107038693A (zh) 2017-08-11
US20170116461A1 (en) 2017-04-27
JP6618766B2 (ja) 2019-12-11
US9990534B2 (en) 2018-06-05

Similar Documents

Publication Publication Date Title
JP6618766B2 (ja) 画像処理装置および画像処理方法
JP6618767B2 (ja) 画像処理装置および画像処理方法
JP6303090B2 (ja) 画像処理装置および画像処理プログラム
JP5706874B2 (ja) 車両の周辺監視装置
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
US20120069153A1 (en) Device for monitoring area around vehicle
US11518390B2 (en) Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP6377970B2 (ja) 視差画像生成装置及び視差画像生成方法
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP2014090349A (ja) 画像処理システム及び画像処理方法
JP2015096812A (ja) 画像処理装置、撮像装置および距離補正方法
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP7005458B2 (ja) 画像処理装置、及び、画像処理プログラム、並びに、運転支援システム
JP6882885B2 (ja) 障害物検出装置および障害物検出方法
CN111213194A (zh) 显示控制装置、显示控制方法及显示系统
JP2015184907A (ja) 画像処理装置および画像処理プログラム
JP6753134B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
JP2009025910A (ja) 障害物検出装置、障害物検出システム及び障害物検出方法
EP4068220A1 (en) Image processing device, image processing method, moving device, and storage medium
KR20150046810A (ko) 영상 처리 방법 및 장치
JP6617610B2 (ja) 車両用表示装置
JP6232933B2 (ja) 放射歪み補正装置、道路環境認識装置、放射歪み補正方法およびプログラム
JP2011065280A (ja) 画像処理装置、周辺監視システム、及び操作支援システム
JP6060612B2 (ja) 移動面状況認識装置、移動体、及びプログラム
JP2020035334A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191113

R150 Certificate of patent or registration of utility model

Ref document number: 6618766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250