JP2021128470A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2021128470A
JP2021128470A JP2020021886A JP2020021886A JP2021128470A JP 2021128470 A JP2021128470 A JP 2021128470A JP 2020021886 A JP2020021886 A JP 2020021886A JP 2020021886 A JP2020021886 A JP 2020021886A JP 2021128470 A JP2021128470 A JP 2021128470A
Authority
JP
Japan
Prior art keywords
area
image
region
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020021886A
Other languages
English (en)
Other versions
JP7309630B2 (ja
Inventor
琢馬 大里
Takuma Osato
琢馬 大里
健 遠藤
Takeshi Endo
健 遠藤
フェリペ ゴメズカバレロ
Gomezcaballero Felipe
フェリペ ゴメズカバレロ
健 永崎
Takeshi Nagasaki
健 永崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020021886A priority Critical patent/JP7309630B2/ja
Priority to DE112020005046.7T priority patent/DE112020005046T5/de
Priority to PCT/JP2020/047353 priority patent/WO2021161655A1/ja
Publication of JP2021128470A publication Critical patent/JP2021128470A/ja
Application granted granted Critical
Publication of JP7309630B2 publication Critical patent/JP7309630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物体と車両間のTTCを高精度に推定することのできる画像処理装置を提供する。
【解決手段】画像から物体を検知する物体検知部241と、前記物体を検知した画像領域を複数の部分領域に分離する領域分離部242と、前記分離した複数の部分領域から拡大率算出に用いる部分領域を選択する領域選択部243と、前記選択された部分領域を用いて算出した拡大率から、対象となる前記物体と衝突するまでの衝突予測時間(TTC)を算出するTTC算出部244と、を備える。
【選択図】図2

Description

本発明は、画像処理装置に関する。
本技術分野の背景技術として、特許第5687702号公報(特許文献1)がある。該公報には、課題として「単一のカメラによる撮像画像に基づく、物体と車両間の距離の算出精度が低下することを抑制した車両周辺監視装置を提供すること」と記載され、解決手段として「車両に搭載された単一のカメラによる撮像画像に基づいて、該撮像画像から抽出した画像部分に対応する実空間上の物体と前記車両間の距離を算出する距離算出部と、前記画像部分に対応する実空間上の物体の種別を判定する物体種別判定部とを備えた車両周辺監視装置に関する。そして、前記距離算出部は、所定期間における前記画像部分又は前記画像部分に対応する実空間上の物体の形状変化を判定し、前記形状変化が所定レベルを超えるときは、前記物体の種別を想定して設定された実空間上の前記車両からの距離と前記撮像画像での画像部分の大きさとの相関関係に、前記撮像画像から抽出された前記物体の画像部分の大きさを適用して、前記物体と前記車両との距離を算出する第1距離算出処理を実行し、前記形状変化が前記所定レベル以下であるときには、前記カメラによる時系列の撮像画像から抽出した前記物体の画像部分の大きさの変化に基づいて、前記物体と前記車両との距離を算出する第2距離算出処理を実行する」と記載されている。
特許第5687702号公報
特許文献1に記載の車両周辺監視装置によれば、単一のカメラによる撮像画像に基づく、物体と車両間の距離の算出精度が低下することを抑制した車両周辺監視装置を提供することができる。該特許文献1においては、条件に応じて、物体の種別を想定して設定された実空間上の車両からの距離と撮像画像での画像部分の大きさとの相関関係に撮像画像から抽出された物体の画像部分の大きさを適用して物体と車両との距離を算出する第1距離算出処理と、時系列の撮像画像から抽出した前記物体の画像部分の大きさの変化に基づいて物体と車両との距離を算出する第2距離算出処理を切り替える手法が記載されている。
ここで第2距離算出処理によって示された手法は、対象となる物体の画像上での見え方の変化、すなわちセンサとの相対的な位置関係の変化を用いているため、TTC(Time To Collision:衝突予測時間)の推定に優れていることが知られている。車両制御のためにはTTCの精度の良い推定が不可欠であるため、できるだけ多くのシーンにおいて本手法が採用されることが望ましい。しかし、特許文献1によれば、「所定期間における画像部分又は画像部分に対応する実空間上の物体の形状変化を判定し、形状変化が所定レベルを超える」ことを条件に手法を切り替えており、第1距離算出処理が実行された場合にはTTCの精度が低下する。
本発明の目的は、対象物体と車両間のTTCを高精度に推定することのできる画像処理装置を提供することである。
上記目的を達成するために、本発明は、画像から物体を検知する物体検知部と、前記物体を検知した画像領域を複数の部分領域に分離する領域分離部と、前記分離した複数の部分領域から拡大率算出に用いる部分領域を選択する領域選択部と、前記選択された部分領域を用いて算出した拡大率から、対象となる前記物体と衝突するまでの衝突予測時間を算出するTTC算出部と、を備える。
本発明によれば、対象物体と車両間のTTCを高精度に推定することのできる画像処理装置を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
実施例1における車載カメラシステムの概略構成を示す説明図。 実施例1における物体検知装置の構成を示す説明図。 俯瞰画像を用いた物体検知の説明図。 入力画像から領域選択部までの出力の例を示す説明図。 2時刻における物体との相対位置と撮像画像の例を示す説明図。 実施例2における物体検知装置の構成を示す説明図。 実施例2における画像処理部の処理例を示すフローチャート。 実施例3における物体検知装置の構成を示す説明図。 実施例3における画像処理部の処理例を示すフローチャート。 オプティカルフローを用いた領域選択の例(短時間オプティカルフローを用いた判定例)を示す説明図。 オプティカルフローを用いた領域選択の例(長時間オプティカルフローを用いた判定例)を示す説明図。 実施例4における物体検知装置の構成を示す説明図。 実施例4における画像処理部の処理例を示すフローチャート。 ステレオカメラにおけるステレオ領域と単眼領域の例を示す説明図。 実施例5における物体検知装置の構成を示す説明図。 実施例5における画像処理部の処理例を示すフローチャート。
以下、図面を用いて本発明の実施例を説明する。
[実施例1]
図1を用いて、実施例1における物体検知装置を搭載した車載カメラシステムの概要を説明する。当該車載カメラシステムにおいて、車両100にカメラ101が搭載される。カメラ101には物体検知装置102が搭載されており、例えば前方の物体までの距離や相対速度を計測して車両制御部103に送信する。車両制御部103は、物体検知装置102から受け取った距離や相対速度からブレーキ・アクセル105、ステアリング104を制御する。
カメラ101は、図2に示す物体検知装置102を備えている。物体検知装置102は、撮像素子201、メモリ202、CPU203、画像処理部(画像処理装置)204、外部出力部205などを備える。物体検知装置102を構成する各構成要素は、通信ライン206を介して通信可能に接続されている。画像処理部(画像処理装置)204は、物体検知部241、領域分離部242、領域選択部243、TTC算出部244を有する。CPU203は、メモリ202に格納されているプログラムの指示に従って、以下で説明する演算処理を実行する。
撮像素子201で撮影された画像(車両100の周辺を撮像した画像)は画像処理部204に送信され、物体検知部241において物体を検知し、演算周期ごとに得られる物体検知結果同士を比較し、同一物体を対応付けて追跡する。前記対象物体(検知物体)の撮像されている画像上の領域は、領域分離部242において複数に分割される。前記複数に分割された領域のうち所定の条件を満たす領域が領域選択部243によって選択される。選択された領域はTTC算出部244に受け渡され、領域の大きさの相対変化(すなわち、拡大率)によってTTCが算出される。算出されたTTCは外部出力部205より物体検知装置102の外部に送信され、前述の車載カメラシステムであれば、車両制御部103においてアクセル・ブレーキ105、ステアリング104などの車両制御の判断に利用される。
以下、画像処理部204の構成要素について説明する。
(物体検知部241)
物体検知部241においては、撮像素子201で撮影された画像を用いて物体の検知と追跡を行う。画像を用いた物体の検知手段については、例えば俯瞰画像の差分を用いた手法が公知である。この手法では、図3に示す通り、時系列に撮像した2枚の画像301、302を用いて物体の検知を行う。2枚の画像301、302のうち過去に撮像された画像301を俯瞰画像に変換すると同時に、車速などの情報から車両の運動による見え方の変化を算出し、今フレームで撮像されると予測される画像304を生成する。予測した画像304と実際に今フレームで撮像された画像302を俯瞰画像に変換した画像305を比較し、差分画像306を作成する。差分画像306は各画素における差分の値を持っており、差分のない領域が黒、差分がある領域が白で表される。予測に誤差がなければ、道路面については同一の画像となり差分が発生しないが、障害物(立体物など)303の存在する領域には差分が発生する。この差分を検出することによって物体を検知することができる。今フレームで検知された物体は過去フレームで検知された物体と画像上での位置やテクスチャの相関によって比較され、同一物体と判断された場合に対応付けることで画像上において同一物体の追跡を行うことができる。なお、画像から物体を検知および追跡する手段についてはこれに限られないことは勿論である。
(領域分離部242)
領域分離部242においては、前記の検出した物体(画像上において追跡している物体)の撮像されている領域(画像領域)を複数の領域(部分領域)に分離する。分離手段については様々な手法が考えられるが、例えば対象が歩行者であった場合は、検知領域を単純に上下(2つ)の領域に分割することができる。
(領域選択部243)
領域選択部243においては、分離された複数の領域(部分領域)のうちTTC算出部244に受け渡す(すなわち、拡大率算出に用いる)領域を選択する。ここでTTC算出部244においては、物体の拡大率からTTCを算出する(後で説明)。拡大率を精度良く算出するためには、画像上での見え方の変化が、距離の変化に起因する拡大縮小以外にはないことが望ましい。対象が歩行者であれば、歩行時の足の動きなどが含まれる領域は不適であるため、本実施例では、上下2つに分割された領域のうち、上半身に当たる上部領域を選択する。
ここまでの出力の例を図4に示した。撮像素子201で撮影された画像401を入力とし、物体検知部241において、画像401から物体402を検知する。領域分離部242において、上半身領域403と下半身領域404に物体402の領域(画像領域)を分離し、領域選択部243において、上半身領域403を選択してTTC算出部244に出力している。
(TTC算出部244)
TTC算出部244においては、領域選択部243から受け取った画像領域(部分領域)の拡大率から、対象物体と衝突するまでの衝突予測時間であるTTCを算出する。時刻tと時刻t−1に検知した物体について考える。図5に、2時刻において撮像された画像501、502とその際の自車504と対象物(物体)503の位置関係を示す俯瞰図505、506を示した。時刻tにおいては時刻t−1より物体503との距離が小さくなっており、それに伴い画像上での物体503の大きさが拡大していることがわかる。このとき、物体503の実際の高さをH[mm]、物体503の画面上での高さをh[px]、自車504と物体503の距離をZ[mm]、自車504と物体503の相対速度をrv[mm/s]、カメラの焦点距離をf[mm]、処理周期をS[sec]とすると、以下の式(1)〜(4)が成り立つ。
[数1]
Figure 2021128470
[数2]
Figure 2021128470
[数3]
Figure 2021128470
[数4]
Figure 2021128470
ここで、画像上での拡大率α=h/ht−1とおくと、以下の式(5)が得られる。
[数5]
Figure 2021128470
処理周期Sは正確な値が得られるため、TTCの算出精度は拡大率αに依存する。また、本例では物体の高さに着目したが、任意の部分の長さについて同様の式が成り立つため、高さに限らず、画像領域全体の拡大率をαとおいた場合にも同様の式が成立することは自明である。また、選択された領域を用いて算出される拡大率αは、領域の大きさの変化率を意味しており、100%以上の場合もあるし、100%未満(この場合、縮小率ということがある)の場合もあり得る。
正確な拡大率αを算出するためには、距離の変化による拡大縮小以外の見え方の変化のない領域をできる限り広く確保する必要があるが、本実施例においては、前述した領域分離部242及び領域選択部243によって実現される。
上記のようにTTC算出部244で算出されたTTCは、外部出力部205から物体検知装置102の外部の車両制御部103に送信され、車両制御部103において車両制御の判断に利用される。
以上で説明したように、本実施例の画像処理部(画像処理装置)204は、画像から物体を検知する物体検知部241と、前記物体を検知した画像領域を複数の部分領域に分離する領域分離部242と、前記分離した複数の部分領域から拡大率算出に用いる部分領域を選択する領域選択部243と、前記選択された部分領域を用いて算出した拡大率から、対象となる前記物体と衝突するまでの衝突予測時間(TTC)を算出するTTC算出部244と、を備える。
上記した画像処理部(画像処理装置)204によれば、実施例1の車載カメラシステムにおいて、対象物体と車両間のTTCを高精度に推定することのできる画像処理部(画像処理装置)204を提供することができる。
[実施例2(特定種別の対象物体に対する領域選択の実施例)]
実施例2は実施例1の変形例であり、物体検知部241で検知する物体の種別が識別されているとき、領域選択部243が物体の種別に応じて選択条件を変更する実施例を示す。物体の種別ごとに変形が少ないと予想される領域を事前知識として与えておくことで、識別の結果に応じて適切な領域を選択することができる。
実施例2における物体検知装置102の構成を図6に示す。物体検知装置102の画像処理部204は、実施例1の構成に、物体検知部241で検知する物体の種別を識別する物体識別部245と、領域分離部242および領域選択部243の参照のための、変形が小さいと予想される領域の情報を保存・格納した変形小領域データベース246とを追加している。
本実施例における画像処理部204、特に、領域分離部242、領域選択部243のフローチャートの一例を図7に示した。
物体検知部241において、画像から物体を検知し(S701)、その物体検知結果に対して、物体識別部245において、物体の種別(歩行者、自転車、自動車など)を識別する(S702)。領域分離部242および領域選択部243において、S702の識別結果に応じて、変形が小さいと予想される領域の変形小領域データベース246を参照し、画像領域から変形が少ないと予想される領域を分離および選択できるよう、領域分離条件の決定(S703)及び領域選択条件の決定(S705)を実行する。例えば歩行者と識別されたときには、頭部や胴体の領域を分離および選択する、自転車と識別されたときには、サドルより上の上半身部分やタイヤ部分の領域を分離および選択する、などの例が考えられる。あるいは、変形小領域データベース246には特定の条件下で対象の周辺に存在する可能性の高い変形しにくい物体を登録しておき、該物体の撮像されている領域を探索し、登録された物体(変形しにくい物体)があった場合に、その領域を分離および選択する処理を実施してもよい。例えば歩行者と識別されかつ幅が閾値以上であった場合には、ベビーカーやスーツケースを探索し、それらが周辺にあれば、分離および選択する。子どもと識別されたときには、ランドセルを探索し、それが周辺にあれば、分離および選択する、などの手法が考えられる。領域分離部242において、S703で決定された領域分離条件に応じた領域を分離し(S704)、領域選択部243において、S705で決定された領域選択条件に応じた領域を選択する(S706)。TTC算出部244において、領域選択部243から受け取った画像領域を用いて算出した拡大率から、TTCを算出する(S707)。
以上で説明したように、本実施例2の画像処理部(画像処理装置)204は、前記領域分離部242および前記領域選択部243は、前記検知した物体の種別に応じた画像上の特定領域(例えば、検知した物体の種別ごとに変形が少ないと予想される領域)を分離および選択する。
本実施例2によれば、対象物体の種別が識別されているときに、より安定なTTC算出を実現する画像処理部(画像処理装置)204を提供することができる。
[実施例3(任意の対象物体に対する領域選択の実施例)]
実施例3は実施例1の変形例であり、領域分離部242で物体の撮像領域を変形の大きさによって分離し、領域選択部243では変形が小さいと判断された領域を選択する実施例を示す。物体の検知された全領域に対して変形の大小を判定するため、物体の識別処理や事前知識を必要とせず、任意の対象物体に対して適切な領域を選択することができる。
実施例3における物体検知装置102の構成を図8に示す。物体検知装置102の画像処理部204は、実施例1の構成に、物体検知部241で物体の検知された全領域(画像領域)に対してオプティカルフローを算出するオプティカルフロー算出部247を追加している。
本実施例における画像処理部204、特に、領域分離部242、領域選択部243のフローチャートの一例を図9に示した。
物体検知部241において、画像から物体を検知する(S901)。物体検知結果は処理周期ごとに得られる。オプティカルフロー算出部247においては、処理周期ごとの物体検知領域においてオプティカルフローを算出する(S902)。オプティカルフローとは、十分小さな局所領域の追跡結果であり、物体を検知した全領域においてそれぞれの局所領域ごとに時系列の移動を表すことができる。領域分離部242においては、S902の算出結果(局所領域の追跡結果)に基づいて、物体を検知した全領域を分離する(S903)。領域選択部243においては、S903で分離した領域(換言すれば、S902にて算出したオプティカルフロー)を短時間のオプティカルフローあるいは長時間のオプティカルフローという観点から選択する(S904、S905)。
まず、図10を用いて、短時間のオプティカルフローを用いた判定例について述べる。時刻t−1における撮像領域801と時刻tにおける撮像領域802に対してオプティカルフローを算出し、2時刻において対応付いた局所領域ごとに直線を引いたとき、拡大縮小変化だけで表現できる領域における直線はある消失点803に収束する。このとき、歩行者の足の先端のように拡大縮小以外の変形が支配的な領域804においては、直線は消失点803を通らない。領域選択部243においては、この性質を用いて、消失点803に収束する直線に属する局所領域を選択することで、変形の小さい領域(部分領域)を選択することができる。
次に、図11を用いて、長時間のオプティカルフローを用いた判定例について述べる。任意の時刻t−kにおける撮像領域805から時刻tにおける撮像領域802までのオプティカルフローを用いると、拡大縮小変化だけで表現できる領域におけるオプティカルフロー807は直線となり、処理周期ごとの移動量も安定する。このとき、歩行者の手の先端のように拡大縮小以外の変形を含む領域におけるオプティカルフロー808は、直線以外の軌道をとり、処理周期ごとに方向や移動量が大きく変化する。領域選択部243においては、この性質を用いて、オプティカルフローが安定に直線軌道を描く領域を選択することで、変形の小さい領域(部分領域)を選択することができる。
そして、TTC算出部244において、領域選択部243から受け取った画像領域を用いて算出した拡大率から、TTCを算出する(S906)。
なお、ここでは、領域分離部242とオプティカルフロー算出部247を別ブロックとしているが、領域分離部242にオプティカルフロー算出部247を設け、領域分離部242内で上述したオプティカルフロー算出を実施してもよいことは勿論である。
以上で説明したように、本実施例3の画像処理部(画像処理装置)204は、前記領域選択部243は、前記画像上において追跡している物体の撮像されている画像領域におけるオプティカルフローを用いて、前記拡大率算出に用いる部分領域を選択する。
本実施例3によれば、任意の物体に対して、時系列の変形の小さい領域を選択し、TTCを算出することのできる画像処理部(画像処理装置)204を提供することができる。
[実施例4(繰り返しモーションの発生する物体に対する領域選択の実施例)]
実施例4は実施例1の変形例であり、対象が歩行者などの繰り返しのモーションであるときに有効な実施例を示す。例えば歩行モーションはある一定パターンの繰り返しであるため、一定時間ごとに同一のポーズを取る時刻が発生する。本実施例においては、決まった2時刻の物体検知結果でなく、過去の物体検知結果を含む物体検知領域から同一のポーズである2時刻を抽出し、領域選択することで、領域選択部243によって選択される領域の面積を最大化することができる。
実施例4における物体検知装置102の構成を図12に示す。物体検知装置102の画像処理部204は、実施例1の構成に、物体検知部241で検知された物体(画像上において追跡している物体)の2時刻間の類似度を算出する類似度算出部248を追加している。
本実施例における画像処理部204、特に、領域分離部242、領域選択部243のフローチャートを図13に示した。
物体検知部241において、画像から物体を検知する(S1301)。物体検知結果(画像領域)はメモリ202などに保存されている。ここで、現在時刻をt、過去時刻をkとする。類似度算出部248において、まず時刻kをt−1とし(S1302)、保存されている物体検知結果を参照して、時刻tと時刻kにおける物体の類似度を算出する(S1303)。類似度算出手段については公知の様々な手法が考えられる。S1303で算出した類似度が予め設定した閾値以上であるか否かを判定し(S1304)、類似度が閾値未満であった場合、ポーズが違うものとして時刻kをk−1に設定し(S1305)、再度、類似度を算出する(S1303)。ここでは同一ポーズである2時刻を決定することが目的であるから、例えばメモリの許す限り過去の物体検知結果を保存しておき、すべての物体検知結果と類似度を算出し、最も類似度の高い時刻を時刻kとして設定してもよい。類似度が閾値以上であった場合、つまり、同一のポーズであると判断できる時刻kを発見できたとき、領域分離部242および領域選択部243において、時刻tと時刻kの物体検知結果をもとに(すなわち、過去撮像された画像領域の中から)領域の分離および選択を実施する(S1306)。
そして、TTC算出部244において、領域選択部243から受け取った画像領域を用いて算出した拡大率から、TTCを算出する(S1307)。
以上で説明したように、本実施例4の画像処理部(画像処理装置)204は、前記領域選択部243は、前記画像上において追跡している物体に対して、過去撮像された画像領域の中から、前記拡大率算出に用いる部分領域を選択する。
本実施例4によれば、直近の2フレームで撮像された対象物体において変形する領域が支配的であった場合にも、過去の物体検知結果(過去に撮像された検知・追跡物体の画像領域)を用いることで変形しない領域を広く選択することができ、TTC精度を向上することができる。
[実施例5(センサフュージョンを用いた領域選択の実施例)]
実施例5は実施例1の変形例であり、カメラ(単眼カメラ)101以外の測距可能なセンサが同時に利用可能であるときに有効な実施例を示す。例えばステレオカメラと単眼カメラの例について、図14にその監視領域を示す。2台のカメラ1001、1002で監視可能な領域(ステレオ領域ともいう)1003においては三角測量の原理によって対象となる物体までの距離を計測するが、1台のカメラ(ここでは、カメラ1001またはカメラ1002)でのみ監視可能な領域(単眼領域ともいう)1004、1005においては三角測量が使えず、本実施例のような手法でTTCを算出する必要がある。同様にミリ波レーダーやLiDARといった測距可能なセンサと単眼カメラを同時に用いた場合、複数センサで同時に観測可能な領域と、単眼カメラでのみ観測可能な領域が存在する。このように、単眼カメラ以外の測距可能なセンサ(ステレオカメラ、ミリ波レーダー、LiDARなど)が同時に利用可能であるとき、単眼カメラとそれ以外の測距可能なセンサを含む複数手段で同時にTTCを算出可能である。
実施例5における物体検知装置102の構成を図15に示す。物体検知装置102の画像処理部204は、実施例1の構成に、物体検知部241で物体の検知された画像領域から、単眼カメラ以外の測距可能なセンサ(以下、他センサという)でTTCを算出可能か否かを判断する他センサTTC算出可否判断部249と、物体検知部241で物体の検知された画像領域から、変形が少なく、拡大率算出に適した領域を抽出する変形小領域抽出部250と、変形小領域抽出部250で抽出した領域を変形小領域として保存・格納する変形小領域判定結果データベース251とを追加している。
本実施例における画像処理部204、特に、領域分離部242、領域選択部243のフローチャートを図16に示した。
物体検知部241において、画像から物体を検知する(S1601)。他センサTTC算出可否判断部249において、物体検知部241で物体の検知された領域が、単眼カメラとそれ以外の他センサ、例えばステレオカメラで同時に観測可能な領域か否かを判断することにより、他センサでTTCを算出可能か否かを判断する(S1602)。他センサTTC算出可否判断部249において、物体検知部241で物体の検知された領域が、単眼カメラとそれ以外の他センサ、例えばステレオカメラで同時に観測可能な領域であると判断されたとき(S1602:Yes)、他センサによるTTC算出を実施する(S1603)。例えばステレオカメラでは直接距離を測距可能であるため、距離を用いてTTCが算出可能である。次に、領域分離部242において、単眼カメラで撮像された物体領域(画像領域)をいくつかの領域に分離し(S1604)、領域選択部243において、分離した複数の領域から拡大率算出に用いる領域を選択し(S1605)、TTC算出部244において、選択した領域の拡大率を用いたTTC算出を実施する(S1606)。変形小領域抽出部250において、単眼カメラによって(拡大率を用いて)算出されたTTC(S1606)を他センサ、例えばステレオカメラによって算出されたTTC(S1603)と比較し、他センサ、例えばステレオカメラによって算出されたTTCと近い値(予め設定した閾値より近い値)を算出できた領域(すなわち、TTCの整合のとれる領域)は変形が少なく、拡大率の算出に適した領域(変形小領域)であるとして抽出し(S1607)、それ以降の拡大率を用いたTTC算出で選択できるように、変形小領域判定結果データベース251に変形小領域として保存・格納する(S1608)。
他センサTTC算出可否判断部249において、物体検知部241で物体の検知された領域が、単眼カメラとそれ以外の他センサ、例えばステレオカメラで同時に観測可能な領域でないと判断されたとき(S1602:No)、他センサでTTCを算出不可、且つ、拡大率によるTTCの算出のみが可能であるため、他センサによるTTC算出を実施せず、前述のS1604、S1605、S1606を実施する。このとき(すなわち、拡大率によるTTCの算出のみが可能になったとき)、領域分離部242および領域選択部243において、変形小領域判定結果データベース251に保存・格納された変形小領域を用いて領域の分離および選択を実施する(S1604、S1605)。
以上で説明したように、本実施例5の画像処理部(画像処理装置)204は、前記領域選択部243は、複数手段で同時にTTCを算出可能であるとき、TTCの整合のとれる領域を抽出して変形小領域として保存しておき、前記拡大率によるTTCの算出のみが可能になったときは、前記拡大率算出に用いる部分領域として前記保存された変形小領域を選択する。
本実施例5によれば、複数センサのデータが利用可能である場合に共通の監視領域を用いて拡大率を用いたTTC算出に適した領域を選択でき、対象となる物体が単眼カメラのみの監視領域に移動した場合においても、過去の領域選択結果を用いることで変形しない領域を精度よく選択することができ、TTC精度を向上することができる。
以上、本発明の実施例を説明した。上記の実施例では、TTCの精度を従来より向上させることができる。よって、本発明は高精度なTTCが要求される場面、例えば、交差点での衝突被害軽減ブレーキへの適用に特に好適である。なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されている
と考えてもよい。
100 車両、101 カメラ、102 物体検知装置、103 車両制御部、201 撮像素子、202 メモリ、203 CPU、204 画像処理部(画像処理装置)、205 外部出力部、206 通信ライン、241 物体検知部、242 領域分離部、243 領域選択部、244 TTC算出部、245 物体識別部(実施例2)、246 変形小領域データベース(実施例2)、247 オプティカルフロー算出部(実施例3)、248 類似度算出部(実施例4)、249 他センサTTC算出可否判断部(実施例5)、250 変形小領域抽出部(実施例5)、251 変形小領域判定結果データベース(実施例5)

Claims (5)

  1. 画像から物体を検知する物体検知部と、
    前記物体を検知した画像領域を複数の部分領域に分離する領域分離部と、
    前記分離した複数の部分領域から拡大率算出に用いる部分領域を選択する領域選択部と、
    前記選択された部分領域を用いて算出した拡大率から、対象となる前記物体と衝突するまでの衝突予測時間を算出するTTC算出部と、を備えることを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記領域分離部および前記領域選択部は、前記検知した物体の種別に応じた画像上の特定領域を分離および選択することを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記領域選択部は、前記画像上において追跡している物体の撮像されている画像領域におけるオプティカルフローを用いて、前記拡大率算出に用いる部分領域を選択することを特徴とする画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    前記領域選択部は、前記画像上において追跡している物体に対して、過去撮像された画像領域の中から、前記拡大率算出に用いる部分領域を選択することを特徴とする画像処理装置。
  5. 請求項1に記載の画像処理装置であって、
    前記領域選択部は、複数手段で同時に前記衝突予測時間を算出可能であるとき、前記衝突予測時間の整合のとれる領域を抽出して変形小領域として保存しておき、前記拡大率による前記衝突予測時間の算出のみが可能になったときは、前記拡大率算出に用いる部分領域として前記保存された変形小領域を選択することを特徴とする画像処理装置。
JP2020021886A 2020-02-12 2020-02-12 画像処理装置 Active JP7309630B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020021886A JP7309630B2 (ja) 2020-02-12 2020-02-12 画像処理装置
DE112020005046.7T DE112020005046T5 (de) 2020-02-12 2020-12-18 Bildverarbeitungsvorrichtung
PCT/JP2020/047353 WO2021161655A1 (ja) 2020-02-12 2020-12-18 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020021886A JP7309630B2 (ja) 2020-02-12 2020-02-12 画像処理装置

Publications (2)

Publication Number Publication Date
JP2021128470A true JP2021128470A (ja) 2021-09-02
JP7309630B2 JP7309630B2 (ja) 2023-07-18

Family

ID=77292355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020021886A Active JP7309630B2 (ja) 2020-02-12 2020-02-12 画像処理装置

Country Status (3)

Country Link
JP (1) JP7309630B2 (ja)
DE (1) DE112020005046T5 (ja)
WO (1) WO2021161655A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157581A (ja) * 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc 歩行者検出装置
JP2012098776A (ja) * 2010-10-29 2012-05-24 Daihatsu Motor Co Ltd 運転支援装置
JP2016009331A (ja) * 2014-06-24 2016-01-18 本田技研工業株式会社 車両周辺監視装置
WO2016152807A1 (ja) * 2015-03-20 2016-09-29 株式会社デンソー 衝突余裕時間算出装置及び衝突回避システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2571005B1 (en) 2010-08-31 2016-07-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157581A (ja) * 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc 歩行者検出装置
JP2012098776A (ja) * 2010-10-29 2012-05-24 Daihatsu Motor Co Ltd 運転支援装置
JP2016009331A (ja) * 2014-06-24 2016-01-18 本田技研工業株式会社 車両周辺監視装置
WO2016152807A1 (ja) * 2015-03-20 2016-09-29 株式会社デンソー 衝突余裕時間算出装置及び衝突回避システム

Also Published As

Publication number Publication date
WO2021161655A1 (ja) 2021-08-19
DE112020005046T5 (de) 2022-08-11
JP7309630B2 (ja) 2023-07-18

Similar Documents

Publication Publication Date Title
US10762643B2 (en) Method for evaluating image data of a vehicle camera
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
JP7025912B2 (ja) 車載環境認識装置
JP6682833B2 (ja) 物体認識アルゴリズムの機械学習のためのデータベース構築システム
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US20180150704A1 (en) Method of detecting pedestrian and vehicle based on convolutional neural network by using stereo camera
JP4919036B2 (ja) 移動物体認識装置
JP5136504B2 (ja) 物体識別装置
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP5999127B2 (ja) 画像処理装置
JP5353455B2 (ja) 周辺監視装置
JP5178276B2 (ja) 画像認識装置
JP5678147B2 (ja) 移動物体を検出するための検知システム及び検知方法
KR102569437B1 (ko) 3차원 영상정보 기반 객체 추적 장치 및 방법
JP2009169776A (ja) 検出装置
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP2004145660A (ja) 障害物検出装置
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP4937844B2 (ja) 歩行者検出装置
Dinesh Kumar et al. Stereo camera and LIDAR sensor fusion-based collision warning system for autonomous vehicles
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JP5107154B2 (ja) 運動推定装置
Michalke et al. Towards a closer fusion of active and passive safety: Optical flow-based detection of vehicle side collisions
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
WO2021161655A1 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230705

R150 Certificate of patent or registration of utility model

Ref document number: 7309630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150