JP7120835B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7120835B2
JP7120835B2 JP2018135056A JP2018135056A JP7120835B2 JP 7120835 B2 JP7120835 B2 JP 7120835B2 JP 2018135056 A JP2018135056 A JP 2018135056A JP 2018135056 A JP2018135056 A JP 2018135056A JP 7120835 B2 JP7120835 B2 JP 7120835B2
Authority
JP
Japan
Prior art keywords
image
target
imaging
processing
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018135056A
Other languages
English (en)
Other versions
JP2020013330A (ja
Inventor
佳 孫
将尭 横田
尚宏 曽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2018135056A priority Critical patent/JP7120835B2/ja
Priority to CN201910520788.1A priority patent/CN110738088B/zh
Priority to US16/514,313 priority patent/US11157755B2/en
Publication of JP2020013330A publication Critical patent/JP2020013330A/ja
Application granted granted Critical
Publication of JP7120835B2 publication Critical patent/JP7120835B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Description

本発明は、例えば、カメラ等の撮像手段が撮像した画像に写り込んでいる物標を認識するための画像認識処理を行う画像処理装置の技術分野に関する。
このような画像処理装置の一例として、特許文献1には、カメラを備える車両において、カメラから入力される情報に基づいて、周辺車両の位置、速度及び加速度等の状態を認識する画像処理装置が記載されている。
その他、本願発明に関連する先行技術文献として、特許文献2があげられる。特許文献2には、広角レンズを有するカメラ及び望遠レンズを有するカメラを備える車両において、これら2つのカメラで撮像した2つの画像の夫々に所定の処理を施す画像処理装置が記載されている。
特開2017-207907号公報 特開平5-342497号公報
特許文献2に記載された画像処理装置では、2つのカメラが夫々撮像した2つの画像の夫々に対して所定の処理が施される。このため、仮に特許文献1に記載された車両が2つのカメラ(或いは、複数のカメラ)を備えている場合には、複数のカメラが夫々撮像した複数の画像の夫々に対して、周辺車両の位置、速度及び加速度等の状態を認識するための処理が行われる。しかしながら、この場合には、画像処理装置の演算負荷が高くなってしまう(言い換えれば、演算量ないしは計算量が膨れ上がってしまう)可能性がある。このため、演算負荷を低減する(つまり、演算量ないしは計算量を低減する)ことが望まれる。
演算負荷を低減するための第1の方法として、各カメラが撮像した各画像の解像度を下げた後に、解像度が下がった画像に基づいて周辺車両の位置、速度及び加速度等の状態を認識する方法が想定される。演算負荷を低減するための第2の方法として、各カメラの撮像レートを低くする(つまり、各カメラが単位時間当たりに撮像する画像の枚数を少なくする)ことで、相対的に少ない枚数の画像に基づいて周辺車両の位置、速度及び加速度等の状態を認識する方法が想定される。演算負荷を低減するための第3の方法として、各カメラが所定の撮像レートである期間中に撮像した複数の画像のうちの一部だけを抽出した上で、当該抽出した相対的に少ない枚数の画像に基づいて周辺車両の位置、速度及び加速度等の状態を認識する方法が想定される。しかしながら、これらの方法はいずれも、画像に写りこんでいる周辺車両(或いは、任意の物標)の認識精度の悪化につながる。
本発明が解決しようとする課題には上記のようなものが一例としてあげられる。本発明は、カメラ等の撮像手段が撮像した画像に写り込んでいる物標を認識する画像認識処理を行う際に、画像認識処理の演算負荷の低減及び画像認識処理による認識精度の悪化の抑制の双方を両立することが可能な画像処理装置を提供することを課題とする。
本発明の画像処理装置の第1の態様は、第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、前記第1及び第2画像の少なくとも一部に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を検出するための画像認識処理を行う処理手段とを備え、前記処理手段は、前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に対して前記画像認識処理を行うことなく、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に対して前記画像認識処理を行う。
本発明の画像処理装置の第2の態様は、第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、前記第1及び第2画像の夫々に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を認識するための画像認識処理を行う処理手段とを備え、前記処理手段は、前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に対して第1の演算負荷の前記画像認識処理を行い、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に対して前記第1の演算負荷よりも小さい第2の演算負荷の前記画像認識処理を行う。
本発明の画像処理装置の第3の態様は、第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、前記第1及び第2画像の夫々に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を認識するための画像認識処理を行う処理手段とを備え、前記処理手段は、複数の前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に写り込んだ物標を認識するための前記画像認識処理を、前記複数の第1画像の夫々に対して行い、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に写り込んだ物標を認識するための前記画像認識処理を、前記複数の第1画像のうちの一部に対して行う一方で前記複数の第1画像のうちの他の一部に対して行わない。
図1は、本実施形態の車両の構成を示すブロック図である。 図2は、図2(a)は、本実施形態の車両における標準カメラの撮像領域及び望遠カメラの撮像領域を示す平面図であり、図2(b)は、本実施形態の車両における標準カメラの撮像領域及び望遠カメラの撮像領域を示す断面図である。 図3は、本実施形態の第1の物標認識動作の流れを示すフローチャートである。 図4は、図3のステップS12における画像認識処理の流れを示すフローチャートである。 図5(a)は、標準カメラが撮像した標準画像を示す平面図であり、図5(b)は、望遠カメラが撮像した望遠画像を示す平面図である。 図6は、本実施形態の第2の物標認識動作の流れを示すフローチャートである。 図7(a)は、重複画像部分と非重複画像部分との境界を跨ぐ特定物標を、標準画像上で示す平面図であり、図7(b)は、重複画像部分と非重複画像部分との境界を跨ぐ特定物標を、望遠画像上で示す平面図である。 図8は、変形例における望遠画像を対象とする処理の流れを示すフローチャートである。 図9は、変形例における標準画像を対象とする処理の流れを示すフローチャートである。 図10は、通常の画像認識処理が行われる領域が第1の認識促進処理によって変更される様子を示す平面図である。
以下、図面を参照しながら、画像処理装置の実施形態について説明する。以下では、画像処理装置の実施形態が搭載された車両1を用いて説明を進める。
(1)車両1の構成
初めに、図1及び図2(a)から図2(b)を参照しながら、本実施形態の車両1の構成について説明する。図1は、本実施形態の車両1の構成を示すブロック図である。図2(a)は、本実施形態の車両1における標準カメラ11wの撮像領域IRw及び望遠カメラ11tの撮像領域IRtを示す平面図であり、図2(b)は、本実施形態の車両1における標準カメラ11wの撮像領域IRw及び望遠カメラ11tの撮像領域IRtを示す断面図である。尚、以下の説明では、必要に応じて、車両1から右側に向かう方向が+Y方向に対応し、車両1から左側に向かう方向が-Y方向に対応し、車両1から前側に向かう方向が+X方向に対応し、車両1から後側に向かう方向が-X方向に対応し、車両1から上側に向かう方向が+Z方向に対応し、車両1から下側に向かう方向が-Z方向に対応するXYZ座標系を用いて、説明を進める。
図1に示すように、車両1は、後述する付記における「第1撮像手段」の一具体例である標準カメラ11wと、後述する付記における「第2撮像手段」の一具体例である望遠カメラ11tと、後述する付記における「画像処理装置」の一具体例であるECU(Electrical Control Unit)12とを備える。
標準カメラ11wは、望遠カメラ11tよりも画角が広い撮像機器である。つまり、望遠カメラ11tは、標準カメラ11wよりも画角が狭い撮像機器である。言い換えれば、標準カメラ11wは、望遠カメラ11tよりも焦点距離が短い撮像機器である。つまり、望遠カメラ11tは、標準カメラ11wよりも焦点距離が長い撮像機器である。このため、本実施形態において「標準カメラ11w」という表記は、一般的な標準レンズ(例えば、画角が25度から50度程度のレンズ)を備えているカメラを意味するというよりは、望遠カメラ11tに対して画角が広く且つ焦点距離が短いカメラを意味する。同様に、本実施形態において「望遠カメラ11t」という表記は、一般的な望遠レンズ(例えば、画角が10度から15度程度のレンズ)を備えているカメラを意味するというよりは、標準カメラ11wに対して画角が狭く且つ焦点距離が長いカメラを意味する。尚、図2(a)及び図2(b)は、標準カメラ11wの水平画角θhwは、望遠カメラ11tの水平画角θhtよりも広く、且つ、標準カメラ11wの垂直画角θvwは、望遠カメラ11tの垂直画角θvtよりも広い例を示している。
標準カメラ11w及び望遠カメラ11tの夫々は、図2(a)及び図2(b)に示すように、車両1の前方(特に、真正面)の光景を撮像するように、車両1に固定されている。具体的には、車両1の前方の光景を撮像するために、標準カメラ11w及び望遠カメラ11tの夫々の撮影中心は、車両1から真っ直ぐ前方に位置している。つまり、標準カメラ11w及び望遠カメラ11tの夫々が備えるレンズ等の光学系の光軸は、車両1から真っ直ぐ前方に向かって延びる。特に、本実施形態では、車両1の前方において、標準カメラ11wの撮像領域(言い換えれば、撮像範囲)IRwは、望遠カメラ11tの撮像領域IRtと部分的に重複するように、標準カメラ11w及び望遠カメラ11tが位置合わせされている。具体的には、車両1の前方において、望遠カメラ11tの撮像領域IRtは、標準カメラ11wの撮像領域IRwに包含されるように、標準カメラ11w及び望遠カメラ11tが位置合わせされている。但し、標準カメラ11w及び望遠カメラ11tの夫々が車両1の前方を撮像することができ且つ標準カメラ11wの撮像領域IRwと望遠カメラ11tの撮像領域IRtとが部分的に重複することができる限りは、標準カメラ11w及び望遠カメラ11tの配置位置が限定されることはない。
ECU12は、車両1の全体の動作を制御する。本実施形態では特に、ECU12は、標準カメラ11wが撮像した画像(以下、“標準画像111w”と称する)及び望遠カメラ11tが撮像した画像(以下、“望遠画像111t”と称する)の少なくとも一部に写り込んでいる物標を認識するための物標認識動作を行う。物標の一例として、他の車両、自転車、歩行者、障害物、信号機、道路標識及び道路標示の少なくとも一つがあげられる。尚、本実施形態における「物標を認識する」動作は、「物標がどのような種類の物標であるかを特定する(例えば、他の車両であるのか、自転車であるのか、歩行者であるのか、障害物であるのか、灯色が特定色の信号機であるのか、特定の意味を有する道路標識であるのか、特定の意味を有する道路標示であるのかを特定する)」動作を含む。更に、本実施形態における「物標を認識する」動作は、「物標の位置、移動速度及び移動方向の少なくとも一つを特定する」動作を含んでいてもよい。物標認識動作を行うために、ECU12は、ECU12の内部に論理的に実現される処理ブロックとして、後述する付記における「取得手段」の一具体例である画像取得部121と、後述する付記における「処理手段」の一具体例である画像処理部122とを備える。尚、画像取得部121及び画像処理部122の夫々の動作の詳細については、後に図面を参照しながら詳述する。
(2)物標認識動作の流れ
続いて、ECU12が行う物標認識動作の流れについて説明する。本実施形態では、ECU12は、第1の物標認識動作及び第2の物標認識動作の少なくとも一方を行うことが可能である。このため、以下では、第1の物標認識動作及び第2の物標認識動作について順に説明する。
(2-1)第1の物標認識動作の流れ
初めに、図3を参照しながら、第1の物標認識動作の流れについて説明する。図3は、第1の物標認識動作の流れを示すフローチャートである。
図3に示すように、まず、画像取得部121は、望遠カメラ11tから望遠画像111tを取得する(ステップS11)。更に、画像取得部121は、望遠画像111tの取得と並行して、標準カメラ11wから標準画像111wを取得する(ステップS13)。
尚、標準カメラ11wは、所定の第1撮像レート(例えば、車両1の前方の光景を1秒間に10回撮像して、1秒間に10枚の標準画像111wを取得可能な撮像レート)で車両1の前方の光景を撮像する。同様に、望遠カメラ11tもまた、所定の第2撮像レート(例えば、車両1の前方の光景を1秒間に10回撮像して、1秒間に10枚の望遠画像111tを取得可能な撮像レート)で車両1の前方の光景を撮像する。従って、ECU12は、標準カメラ11w及び望遠カメラ11tが車両1の前方の光景を撮像する都度、図3に示す物標検出動作を行う。つまり、図3に示す物標検出動作は、標準カメラ11w及び望遠カメラ11tの撮像レートに合わせて繰り返し行われる。
その後、画像処理部122は、望遠画像111tに対して(典型的には、望遠画像111tの全体に対して)、望遠画像111tに写り込んでいる物標を認識するための画像認識処理を行う(ステップS12)。ここで、図3のステップS12における画像認識処理の流れについて、図4を参照しながら更に詳細に説明する。図4は、図3のステップS12における画像認識処理の流れを示すフローチャートである。
図4に示すように、まずは、画像処理部122は、有効に認識された物標の数を示す変数iを0に初期化する(ステップS1210)。その後、画像処理部122は、望遠画像111tに写り込んでいる物標を認識する(ステップS1211)。更に、画像処理部122は、ステップS1211で認識された物標の数を、変数Nとして記録する(ステップS1212)。尚、画像処理部122は、画像に写り込んでいる物標を認識するための方法としては、既存の方法を用いてもよい。このため、画像に写り込んでいる物標を認識するための方法の詳細な説明は省略する。尚、既存の方法の一例として、テンプレートと望遠画像111tに写り込んでいる物標との類似度に基づいて物標がどのような物標であるかを特定する方法(いわゆる、テンプレートマッチング法)があげられる。既存の方法の他の一例として、望遠画像111tに写り込んでいる物標周辺の特徴量を抽出し、抽出した特徴量に基づいて物標が複数種類の物標の夫々である確率を出力し、当該確率に基づいて物標がどのような物標であるかを特定する方法(例えば、ニューラルネットワークを用いた方法)があげられる。
その後、画像処理部122は、ステップS1211において少なくとも一つの物標が認識されたか否かを判定する(ステップS1213)。ステップS1213における判定の結果、物標が一つも認識されなかった(つまり、認識された物標の数を示す変数Nがゼロである)と判定された場合には(ステップS1213:No)、画像処理部122は、図4に示す画像認識処理を終了する。他方で、ステップS1213における判定の結果、少なくとも一つの物標が認識された(つまり、認識された物標の数を示す変数Nが1以上である)と判定された場合には(ステップS1213:Yes)、画像処理部122は、変数kを1に初期化する(ステップS1221)。
その後、画像処理部122は、ステップS1212で認識されたN(但し、Nは1以上の整数)個の物標のうちのk番目の物標#kが、前回行われた画像認識処理(つまり、1つ前に取得された望遠画像111tに対して行われた画像認識処理)で認識されていない新しい物標であるか否かを判定する(ステップS1222)。ステップS1222における判定の結果、k番目の物標#kが新しい物標であると判定された場合には(ステップS1222:Yes)、画像処理部122は、k番目の物標#kを管理するために、k番目の物標#kに対して、各物標を識別するための固有の物標IDを付与する(ステップS1223)。他方で、ステップS1222における判定の結果、k番目の物標#kが新しい物標でない(つまり、1つ前の望遠画像111tにも写り込んでいた物標である)と判定された場合には(ステップS1222:No)、前回までに行われた画像認識処理によってk番目の物標#kには既に物標IDが付与されているため、画像処理部122は、k番目の物標#kに新たな物標IDを付与しない。
その後、画像処理部122は、有効に認識された物標の数を示す変数iを1だけインクリメントする(ステップS1224)。その後、画像処理部122は、望遠画像111t内でのk番目の物標#kの位置を算出する(ステップS1225)。更に、画像処理部122は、今回取得された望遠画像111t内でのk番目の物標#kの位置と前回までに(つまり、今回の一つ前までに)取得された望遠画像111t内でのk番目の物標#kの位置とを比較して、k番目の物標#kの移動方向及びk番目の物標#kの移動速度を算出する(ステップS1225)。但し、k番目の物標#kが新たな物標である場合には、画像処理部122は、k番目の物標#kの移動方向及び移動速度を算出しなくてもよい。
その後、画像処理部122は、変数kが、ステップS1211で認識された物標の数を示す変数Nと一致しているか否かを判定する(ステップS1226)。つまり、画像処理部122は、ステップS1211で認識された物標の全てに対して、物標の位置、移動方向及び移動速度を算出する処理が行われたか否かを判定する(ステップS1226)。ステップS1226における判定の結果、変数kが、ステップS1211で認識された物標の数を示す変数Nと一致していないと判定された場合には(ステップS1226:No)、ステップS1211で認識された物標のうちの一部に対して、物標の位置、移動方向及び移動速度を算出する処理が未だ行われていないと想定される。この場合には、画像処理部122は、変数kを1だけインクリメントした後に(ステップS1227)、ステップS1222以降の処理を繰り返す。
他方で、ステップS1226における判定の結果、変数kが、ステップS1211で認識された物標の数を示す変数Nと一致していると判定された場合には(ステップS1226:Yes)、ステップS1211で認識された物標の全てに対して、物標の位置、移動方向及び移動速度を算出する処理が行われたと想定される。この場合には、画像処理部122は、前回取得された望遠画像111tにおいて認識された物標のうち、今回取得された望遠画像111tにおいて認識されなかった物標が存在するか否かを判定する(ステップS1231)。つまり、画像処理部122は、今回取得された望遠画像111tにおいて消失した物標が存在する(つまり、前回取得された望遠画像111tにおいて認識された物標が、今回取得された望遠画像111tにおいて消失した)か否かを判定する(ステップS1231)。ステップS1231における判定の結果、消失した物標が存在すると判定された場合には(ステップS1231:Yes)、画像処理部122は、消失した物標を管理する必要性がなくなったため、消失した物標に付与されていた物標IDを削除する(ステップS1232)。その後、画像処理部122は、図4に示す画像認識処理を終了する。他方で、ステップS1231における判定の結果、消失した物標が存在しないと判定された場合には(ステップS1231:No)、画像処理部122は、図4に示す画像認識処理を終了する。
再び、図3において、望遠画像111tに対する画像認識処理と並行して又は相前後して、画像処理部122は、標準画像111wの一部に対して、標準画像111wの一部に写り込んでいる物標を認識するための画像認識処理を行う(ステップS14)。尚、標準画像111wに写り込んでいる物標を認識するための画像認識処理の流れは、望遠画像111tに写り込んでいる物標を認識するための画像認識処理の流れと同一であるため、その詳細な説明は省略する。一方で、画像処理部122は、標準画像111wの残りの一部に対して、標準画像111wの残りの一部に写り込んでいる物標を認識するための画像認識処理を行わない。
具体的には、上述したように、標準カメラ11wの撮像領域IRwと望遠カメラ11tの撮像領域IRtとは部分的に重複している。具体的には、望遠カメラ11tの撮像領域IRtは、標準カメラ11wの撮像領域IRwに包含される。このため、図5(a)に示すように、標準画像111wには、望遠画像111tに写り込んでいる光景と同じ光景が写り込んでいる重複画像部分112wと、望遠画像111tに写り込んでいる光景とは異なる光景が写り込んでいる非重複画像部分113wとが含まれている。つまり、標準画像111wには、撮像領域IRwのうち撮像領域IRtと重複する領域部分が写り込んでいる重複画像部分112wと、撮像領域IRwのうち撮像領域IRtと重複しない(つまり、撮像領域IRwに固有の)領域部分が写り込んでいる非重複画像部分113wとが含まれている。尚、図5(b)は、望遠画像111tを参考までに示している。
重複画像部分112wに写り込んでいる物標は、望遠画像111tにも写り込んでいるはずである。このため、画像処理部122は、重複画像部分112wに写り込んでいる物標を認識するための画像認識処理を重複画像部分112wに対して行わなくても、望遠画像111tに写り込んでいる物標を認識するための画像認識処理の結果から、重複画像部分112wに写り込んでいる物標を間接的に認識することができる。つまり、重複画像部分112wに写り込んでいる物標を認識するための画像認識処理が重複画像部分112wに対して行われなかったとしても、重複画像部分112wに写り込んでいる物標の認識精度が悪化することは殆どない。そこで、本実施形態では、画像処理部122は、標準画像111wのうちの重複画像部分112wに対して、重複画像部分112wに写り込んでいる物標を認識するための画像認識処理を行わない。
一方で、非重複画像部分113wに写り込んでいる物標は、望遠画像111tには写り込んでいない可能性が高い。このため、画像処理部122は、望遠画像111tに写り込んでいる物標を認識するための画像認識処理の結果から、非重複画像部分113wに写り込んでいる物標を認識することができない可能性が高い。このため、本実施形態では、画像処理部122は、標準画像111wのうちの非重複画像部分113wに対して(典型的には、非重複画像部分113wの全体に対して)、非重複画像部分113wに写り込んでいる物標を認識するための画像認識処理を行う。
以上説明したステップS11からステップS12までの処理が、望遠カメラ11tが車両1の前方の光景を撮像する都度、繰り返し行われる。同様に、以上説明したステップS13からステップS14までの処理が、標準カメラ11wが車両1の前方の光景を撮像する都度、繰り返し行われる。
このような第1の物標認識動作によれば、画像処理部122は、標準画像111wの一部に対して画像認識処理を行わなくてもよくなる。その結果、第1の物標認識動作は、標準画像111wの全体に対して画像認識処理を行う必要がある第1比較例の物標認識動作と比較して、標準画像111wの一部に対して画像認識処理を行わなくてもよい分だけ画像認識処理の演算負荷を低減することができる。つまり、第1の物標認識動作は、画像認識処理の演算負荷を低減するための方法として、上述した「発明が解決しようとする課題」で説明した方法(つまり、物標の認識精度の悪化につながりかねない方法)を採用しなくてもよくなる。このため、第1の物標認識動作は、画像認識処理の演算負荷の低減及び画像認識処理による認識精度の悪化の抑制の双方を両立することができる。
尚、本実施形態における「演算負荷の低減」は、画像認識処理を行うために必要な演算量(言い換えれば、計算量又は処理量)の低減を意味していてもよい。従って、ある画像に対して一の画像認識処理を行うために必要な演算量が、同じ画像に対して他の画像認識処理を行うために必要な演算量よりも少ない場合には、一の画像認識処理の演算負荷が他の画像認識処理の演算負荷に対して低減されている(つまり、他の画像認識処理の演算負荷よりも小さい)ことになる。また、本実施形態における「認識精度の悪化」は、そもそも画像から物標自体を検出することができないこと、物標自体は検出できるもののその物標が具体的にどのような種類の物標であるのかを特定できないこと、本来は第1の種類の物標であると特定されるべき物標が第1の種類の物標とは異なる第2の種類の物標であると誤って特定してしまうこと、及び、物標の認識結果に基づいて行われる制御に対して十分な時間的ゆとりをもって物標を認識することができなくなることの少なくとも一つを意味していてもよい。
尚、望遠画像111tに写り込んでいる光景が標準画像111wにも写り込んでいることを考慮すれば、画像処理部122は、望遠画像111tに対して画像認識処理を行わなくても、標準画像111wの全体に対して画像認識処理を行えば標準画像111w及び望遠画像111tの少なくとも一方に写り込んでいる物標を認識することができるとも想定される。しかしながら、標準カメラ11wの撮像領域IRw及び望遠カメラ11tの撮像領域IRtの双方に含まれる物標が標準カメラ11w及び望遠カメラ11tの双方によって撮像されると、標準カメラ11w及び望遠カメラ11tの間での画角及び焦点距離の違いに起因して、当該物標は、標準画像111wのうちの重複画像部分112wに相対的に小さく写り込む一方で、望遠画像111tに相対的に大きく写り込む可能性が高い。つまり、当該物標は、標準画像111wのうちの重複画像部分112wにおいて相対的に少ない画素から構成される相対的に小さい領域に写り込む一方で、望遠画像111tにおいて相対的に多くの画素から構成される相対的に大きい領域に写り込む可能性が高い。このため、重複画像部分112wに対して行われる画像認識処理による物標の認識精度は、望遠画像111tに対して行われる画像認識処理による同じ物標の認識精度に劣ってしまう可能性がある。そうすると、望遠画像111tの全体及び標準画像111wのうちの非重複画像部分113wに対して画像認識処理を行う一方で標準画像111wのうちの重複画像部分112wに対して画像認識処理を行わない第1の物標認識動作は、標準画像111wの全体に対して画像認識処理を行う一方で望遠画像111tに対して画像認識処理を行わない第2比較例の物標認識動作と比較して、物標の認識精度が高くなるという点において特に優れている。
(2-2)第2の物標認識動作の流れ
続いて、図6を参照しながら、第2の物標認識動作の流れについて説明する。図6は、第2の物標認識動作の流れを示すフローチャートである。尚、上述した図3に示す第1の物標認識動作で行われる処理と同一の処理については、同一のステップ番号を付して、その詳細な説明を省略する。
図5に示すように、第2の物標認識動作においても、第1の物標認識動作と同様に、画像取得部121は、望遠カメラ11tから望遠画像111tを取得し(ステップS11)、画像処理部122は、望遠画像111tに対して画像認識処理を行う(ステップS12)。更に、画像処理部122は、標準カメラ11wから標準画像111wを取得し(ステップS13)、画像処理部122は、標準画像111wのうちの非重複画像部分113wに対して画像認識処理を行う(ステップS14)。
第2の物標認識動作では特に、画像処理部122は、標準画像111wのうちの重複画像部分112wに対しても画像認識処理を行う(ステップS25)。但し、重複画像部分112wに対して行われる画像認識処理の演算負荷は、非重複画像部分113wに対して行われる画像認識処理の演算負荷よりも小さい。つまり、画像処理部122は、重複画像部分112wに対して、演算負荷が相対的に小さい画像認識処理を行う(ステップS25)。一方で、画像処理部122は、望遠画像111t及び非重複画像部分112wに対して、演算負荷が相対的に大きい画像認識処理(典型的には、上述した第1の物標認識動作で行われる画像認識処理)を行う。
演算負荷を小さくするために、画像処理部122は、上述した「発明が解決しようとする課題」で説明した方法を用いてもよい。例えば、画像処理部122は、ステップS25において、重複画像部分112wの解像度を下げた後に、解像度が下がった重複画像部分112wに対して画像認識処理を行ってもよい。例えば、画像処理部122は、標準カメラ11wが所定の第1撮像レートである期間中に撮像した複数の標準画像111wのうちの一部だけを抽出した上で、当該抽出した相対的に少ない枚数の標準画像111wの重複画像部分112wに対して画像認識処理を行ってもよい。つまり、画像処理部122は、抽出されなかった標準画像111wの重複画像部分112wに対して画像認識処理を行わなくてもよい。
このような第2の物標認識動作によれば、画像処理部122は、標準画像111wの一部に対して、通常の画像認識処理(つまり、望遠画像111t及び標準画像111wの他の一部に対して行われる、演算負荷が相対的に大きい画像認識処理)を行わなくてもよくなる。その結果、第2の物標認識動作は、標準画像111wの全体に対して通常の画像認識処理を行う必要がある第1比較例の物標認識動作と比較して、標準画像111wの一部に対して通常の画像認識処理を行わなくてもよい分だけ画像認識処理の演算負荷を低減することができる。一方で、上述したように、画像処理部122は、望遠画像111tに写り込んでいる物標を認識するための画像認識処理の結果から、重複画像部分112wに写り込んでいる物標を間接的に認識することができる。このため、重複画像部分112wに対して物標の認識精度の悪化をまねきかねない画像認識処理(つまり、演算負荷が相対的に少ない画像認識処理)が行われたとしても、重複画像部分112wに写り込んでいる物標の認識精度が悪化することは殆どない。このため、第2の物標認識動作は、画像認識処理の演算負荷の低減及び画像認識処理による認識精度の悪化の抑制の双方を両立することができる。
尚、第2の物標認識動作では、画像処理部122は、望遠画像111wに対して行われる画像認識処理の結果に加えて、重複画像部分112wに対して行われる画像認識処理の結果にも基づいて、望遠画像111w及び重複画像部分112wに写り込んでいる物標を認識してもよい。その結果、重複画像部分112wに対して行われる画像認識処理の結果に基づくことなく望遠画像111w及び重複画像部分112wに写り込んでいる物標を認識する場合と比較して、望遠画像111w及び重複画像部分112wに写り込んでいる物標の認識精度が向上する可能性がある。
(3)変形例
続いて、物標認識動作の変形例について説明する。上述したように、標準画像111wが重複画像部分112wと非重複画像部分113wとを含む場合には、標準画像111wには、重複画像部分112wと非重複画像部分113wとの境界を跨ぐように写り込んでいる物標(以降、説明の便宜上、“特定物標P”と称する)が存在する可能性がある。
この場合、図7(a)に示すように、特定物標Pのうちの第1物標部分P1が重複画像部分112wに写り込む一方で、特定物標Pのうちの第1物標部分P1以外の第2物標部分P2が非重複画像部分1113wに写り込むことになる。その結果、上述した第1の物標認識動作では、重複画像部分112wに対して画像認識処理が行われないため、画像処理部122は、第1物標部分P1の存在を検出することができない。その結果、画像処理部122は、標準画像111wに対する画像認識処理の結果に基づいて、第1物標部分P1を含む特定物標Pを全体として適切に認識することができない可能性がある。同様に、上述した第2の物標認識動作では、重複画像部分112wに対して認識精度の悪化をまねきかねない画像認識処理が行われるため、第1物標部分P1を含む特定物標Pの認識精度が悪化する可能性がある。その結果、画像処理部122は、標準画像111wに対する画像認識処理の結果に基づいて、第1物標部分P1を含む特定物標Pを全体として適切に認識することができない可能性がある。一方で、図7(b)に示すように、望遠画像111tについて見ても、特定物標Pのうちの第1物標部分P1が望遠画像111tに写り込む一方で、特定物標Pのうちの第2物標部分P2が望遠画像111tに写り込むことはない。その結果、上述した第1又は第2の物標認識動作では、画像処理部122は、望遠画像111tに対する画像認識処理の結果に基づいて、第2物標部分P2を含む特定物標Pを全体として適切に認識することができない可能性がある。
そこで、変形例では、画像処理部122は、重複画像部分112wと非重複画像部分113wとの境界を跨ぐ特定物標Pが存在する場合には、特定物標Pが存在しない場合と比較して、特定物標Pを認識しやすくなる(つまり、特定物標Pがどのような種類の物標であるかを特定しやすくなる)ように、標準画像111wに対する画像認識処理の内容を変える。具体的には、変形例では、画像処理部122は、特定物標Pを認識しやすくするために、望遠画像111tを対象とする処理として、図3及び図6の夫々におけるステップS12の処理に代えて、図8に示す処理を行う。更に、画像処理部122は、特定物標Pを認識しやすくするために、標準画像111wを対象とする処理として、図3におけるステップS14の処理又は図6におけるステップS14からステップS25の処理に代えて、図9に示す処理を行う。以下、図8及び図9を参照しながら、変形例における望遠画像111t及び標準画像111wを対象とする処理について順に説明する。
はじめに、変形例における望遠画像111tを対象とする処理について説明する。図8に示すように、画像処理部122は、まず、望遠画像111tに対して画像認識処理を行う(ステップS30)。尚、ステップS30における画像認識処理は、図3のステップS12における画像認識処理と同一である。その結果、画像処理部122は、望遠画像111tに写り込んでいる物標の移動方向及び移動速度を特定する。
その後、画像処理部122は、ステップS30における画像認識処理の結果に基づいて、近い将来に(例えば、今から所定時間が経過するまでに)、画像認識処理によって認識された物標の少なくとも一つが、重複画像部分112wと非重複画像部分113wとの境界を跨ぐことになるか否かを前もって予測する(ステップS31)。つまり、画像処理部122は、近い将来に特定物標Pになると予測される物標が、望遠画像111t内に存在するか否かを判定する。具体的には、画像処理部122は、画像認識処理によって特定される物標の移動方向及び移動速度に基づいて、物標の将来の位置を予測すると共に、予測した位置に位置する物標が、重複画像部分112wと非重複画像部分113wとの境界を跨ぐか否かを判定する。
ステップS31における判定の結果、近い将来に特定物標Pになると予測される物標が存在しないと判定された場合には(ステップS31:No)、画像処理部122は、図8に示す処理を終了する。他方で、ステップS31における判定の結果、近い将来に特定物標Pになると予測される物標が存在すると判定された場合には(ステップS31:Yes)、画像処理部122は、ステップS30における画像認識処理の結果(特に、物標の移動方向及び移動速度)に基づいて、物標が重複画像部分112wと非重複画像部分113wとの境界を跨ぐ期間(つまり、物標が特定物標Pになる期間)を予測する(ステップS32)。更に、画像処理部122は、ステップS32で特定された期間における物標の位置(つまり、物標が重複画像部分112wと非重複画像部分113wとの境界を跨ぐ位置)を予測する(ステップS33)。その後、画像処理部122は、近い将来に特定物標Pとなると予測される物標に関する情報(ステップS32で特定された期間及びステップS33で特定された位置を含む)を記憶しておく(ステップS34)。ここで記憶した情報は、図9に示す標準画像111wを対象とする処理において利用される。
続いて、変形例における標準画像111wを対象とする処理について説明する。図9に示すように、画像処理部122は、図8のステップS32で特定された期間中に標準カメラ11wによって撮像された標準画像111wを取得したか否かを判定する(ステップS41)。ステップS32で特定された期間において望遠画像111t内のある物標が重複画像部分112wと非重複画像部分113wとの境界を跨ぐと予測されることから、ステップS41では、画像処理部122は、特定物標Pが写り込んでいると予測される標準画像111wを取得した否かを判定していると言える。
ステップS41における判定の結果、図8のステップS32で特定された期間中に標準カメラ11wによって撮像された標準画像111wを取得したと判定された場合には(ステップS41:Yes)、取得した標準画像111wには、特定物標Pが写り込んでいると推定される。この場合には、画像処理部122は、認識促進処理を行う(ステップS42)。認識促進処理は、標準画像111wに対して行われる画像認識処理によって標準画像111wに写り込んでいる特定物標Pを認識しやすくするための処理である。認識促進処理は、標準画像111wに対して行われる画像認識処理によって標準画像111wに写り込んでいる特定物標Pが認識しやすくなるように、標準画像111wに対して行われる画像認識処理を変更する処理である。
認識促進処理は、通常の画像認識処理(具体的には、望遠画像111tに対して行われる画像認識処理と同じ画像認識処理)が行われる画像部分を変更する第1の認識促進処理を含んでいてもよい。具体的には、上述したように、標準画像111wのうちの非重複画像部分113wに対して通常の画像認識処理が行われる一方で、標準画像111wのうちの重複画像部分112wに対しては画像認識処理が行われないか又は演算負荷が相対的に小さい画像認識処理が行われる。第1の認識促進処理は、特定物標Pが写り込んでいる場合には、特定物標Pが写り込んでいない場合と比較して、通常の画像認識処理が行われる画像部分を拡大する処理である。典型的には、図10に示すように、第1の認識促進処理は、通常の画像認識処理が行われる画像部分を、重複画像部分112wのうち特定物標Pが写り込んでいる画像部分を含む一部の画像部分112w-1にまで拡大する処理である。つまり、第1の認識促進処理は、特定物標Pが写り込んでいる画像部分の全体が通常の画像認識処理が行われる画像部分に含まれるように、通常の画像認識処理が行われる画像部分を拡大する処理である。その結果、特定物標Pの全体が通常の画像認識処理の対象となるため、画像処理部122は、特定物標Pを認識しやすくなる(つまり、適切に認識することができる)。尚、重複画像部分112wのうち画像部分112w-1以外の残りの一部の画像部分112w-2に対しては、従前どおり、画像認識処理が行われないか又は演算負荷が相対的に小さい画像認識処理が行われる。
上述したように物標を認識するための方法としてテンプレートマッチング法が用いられる場合には、認識促進処理は、テンプレートと物標との類似度に基づいて物標を認識するために類似度と比較される閾値を変更する第2の認識促進処理を含んでいてもよい。具体的には、テンプレートマッチング法では、通常、テンプレートと物標との類似度が閾値よりも大きい(つまり、類似している可能性が高い)場合に、物標が、テンプレートに対応する種類の物標であると特定される。このため、閾値が小さくなればなるほど、物標が、テンプレートに対応する種類の物標であると特定されやすくなる。つまり、閾値が小さくなればなるほど、物標が認識されやすくなる。このため、典型的には、第2の認識促進処理は、特定物標Pが写り込んでいる場合には、特定物標Pが写り込んでいない場合と比較して、閾値を小さくする処理である。その結果、画像処理部122は、特定物標Pを認識しやすくなる(つまり、適切に認識することができる)。
上述したように物標を認識するための方法としてニューラルネットワークを用いた方法が用いられる場合には、認識促進処理は、ニューラルネットワークの重み付け係数を変更する第3の認識促進処理を含んでいてもよい。具体的には、第3の認識促進処理が行われる場合には、画像処理部122は、特定物標Pが写り込んでいない場合に物標を認識するために用いられる第1の重み付け係数と、特定物標Pが写り込んでいる場合に物標(特に、特定物標P)を認識するために用いられる第2重み付け係数とを用意しておく。第1の重み付け係数は、特定物標Pが写り込んでいない画像を用いてニューラルネットワークを学習させることで比較的容易に取得可能であり、第2の重み付け係数は、特定物標Pが写り込んでいる画像を用いてニューラルネットワークを学習させることで比較的容易に取得可能である。この場合、第3の認識促進処理は、典型的には、特定物標Pが写り込んでいない場合には、ニューラルネットワークで用いる重み付け係数として、第1の重み付け係数を選択し、特定物標Pが写り込んでいる場合には、ニューラルネットワークで用いる重み付け係数として、第2の重み付け係数を選択する処理である。その結果、画像処理部122は、特定物標Pを認識しやすくなる(つまり、適切に認識することができる)。
このような認識促進処理が行われた後に、画像処理部122は、標準画像111wに対して画像認識処理を行う(ステップS43)。尚、ステップS43における画像認識処理は、上述した認識促進処理による変更点を除いて、図3のステップS14又は図6のステップS14からステップS25における画像認識処理と同一である。
他方で、ステップS41における判定の結果、図8のステップS32で特定された期間中に標準カメラ11wによって撮像された標準画像111wを取得しなかったと判定された場合には(ステップS41:No)、取得した標準画像111wには、特定物標Pが写り込んでいないと推定される。この場合には、画像処理部122は、認識促進処理を行わなくてもよい。更に、認識促進処理が既に行われている状況下で(つまり、標準画像111wに対する画像認識処理の内容が既に変更されている状況下で)、図8のステップS32で特定された期間中に標準カメラ11wによって撮像された標準画像111wを取得しなかったと判定された場合には、画像処理部122は、認識促進処理を終了する。つまり、画像処理部122は、変更した画像認識処理の内容を元に戻す。例えば、画像処理部122は、通常の画像認識処理が行われる画像部分、テンプレートマッチング法における閾値及び/又はニューラルネットワークの重み付け係数を、変更前のものに戻す。その後、画像処理部122は、標準画像111wに対して画像認識処理を行う(ステップS43)。
このように、変形例では、画像処理部122は、特定物標Pが写り込んでいる場合であっても、何らの対策がなされなければ認識しにくくなる可能性がある特定物標Pを適切に認識することができる。
尚、上述した説明では、画像処理部122は、望遠画像111tに対して行われた画像認識処理の結果に基づいて、近い将来に特定物標Pになると予測される物標が存在するか否かを判定している。しかしながら、画像処理部122は、標準画像111wに対して行われた画像認識処理の結果に基づいて、近い将来に特定物標Pとなると予測される物標が存在するか否かを判定してもよい。
上述した説明では、画像処理部122は、物標の少なくとも一つが、重複画像部分112wと非重複画像部分113wとの境界を跨ぐことになるか否かを前もって予測している。しかしながら、画像処理部122は、物標の少なくとも一つが、重複画像部分112wと非重複画像部分113wとの境界を実際に跨いでいるか否かを判定してもよい。物標の少なくとも一つが重複画像部分112wと非重複画像部分113wとの境界を実際に跨いでいると判定された場合には、認識促進処理が行われてもよい。
(4)付記
以上説明した実施形態に関して、更に以下の付記を開示する。
(4-1)付記1
付記1に記載された画像処理装置は、第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、前記第1及び第2画像の少なくとも一部に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を検出するための画像認識処理を行う処理手段とを備え、前記処理手段は、前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に対して前記画像認識処理を行うことなく、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に対して前記画像認識処理を行う画像処理装置である。
付記1に記載された画像処理装置によれば、処理手段は、第1画像のうちの重複画像部分に対して画像認識処理を行わない一方で、第1画像のうちの非重複画像部分に対して画像認識処理を行う。その結果、付記2に記載された画像処理装置は、第1画像の全体に対して画像認識処理を行う比較例の画像処理装置と比較して、画像認識処理の演算負荷を低減することができる。
一方で、第1画像の重複画像部分に写り込んだ物標については、重複画像部分に画像認識処理が行われないことに起因して認識精度が悪化する可能性がある。しかしながら、第1画像の重複画像部分に写り込んだ物標は、第2画像にも当然に写り込んでいるがゆえに、第2画像に対して行われる画像認識処理によって認識可能である。このため、重複画像部分に対して画像認識処理が行われなかったとしても、重複画像部分に写り込んだ物標の認識精度が悪化することは殆どない。
このため、付記1に記載された画像処理装置は、画像認識処理の演算負荷の低減及び画像認識処理による認識精度の悪化の抑制の双方を両立することができる。
(4-2)付記2
付記2に記載された画像処理装置は、第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、前記第1及び第2画像の夫々に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を認識するための画像認識処理を行う処理手段とを備え、前記処理手段は、前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に対して第1の演算負荷の前記画像認識処理を行い、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に対して前記第1の演算負荷よりも小さい第2の演算負荷の前記画像認識処理を行う画像処理装置画像処理装置である。
付記2に記載された画像処理装置によれば、処理手段は、第1画像のうちの重複画像部分に対して、演算負荷が相対的に小さい画像認識処理を行う一方で、第1画像のうちの非重複画像部分に対して、演算負荷が相対的に大きい画像認識処理を行う。その結果、付記2に記載された画像処理装置は、第1画像の全体に対して演算負荷が相対的に大きい画像認識処理を行う比較例の画像処理装置と比較して、画像認識処理の演算負荷を低減することができる。
一方で、第1画像の重複画像部分に写り込んだ物標については、演算負荷が相対的に低い画像認識処理が行われることに起因して認識精度が悪化する可能性がある。しかしながら、第1画像の重複画像部分に写り込んだ物標は、上述したように第2画像に対して行われる画像認識処理によって認識可能である。このため、重複画像部分に対して行われる画像認識処理の演算負荷が相対的に小さくなったとしても、重複画像部分に写り込んだ物標の認識精度が悪化することは殆どない。
このため、付記2に記載された画像処理装置は、付記1に記載された画像処理装置と同様に、画像認識処理の演算負荷の低減及び画像認識処理による認識精度の悪化の抑制の双方を両立することができる。
(4-3)付記3
付記3に記載された画像処理装置は、第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、前記第1及び第2画像の夫々に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を認識するための画像認識処理を行う処理手段とを備え、前記処理手段は、複数の前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に写り込んだ物標を認識するための前記画像認識処理を、前記複数の第1画像の夫々に対して行い、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に写り込んだ物標を認識するための前記画像認識処理を、前記複数の第1画像のうちの一部に対して行う一方で前記複数の第1画像のうちの他の一部に対して行わない画像処理装置画像処理装置である。
付記3に記載された画像処理装置によれば、処理手段は、重複画像部分に写り込んでいる物標を認識するための画像認識処理を、複数の第1画像の一部に対して行わなくてもよくなる。その結果、付記3に記載された画像処理装置は、重複画像部分に写り込んでいる物標を認識するための画像認識処理を複数の第1画像の全てに行う比較例の画像処理装置と比較して、画像認識処理の演算負荷を低減することができる。
一方で、第1画像の重複画像部分に写り込んだ物標については、重複画像部分に写り込んでいる物標を認識するための画像認識処理が複数の第1画像の一部に対して行われないことに起因して認識精度が悪化する可能性がある。しかしながら、第1画像の重複画像部分に写り込んだ物標は、上述したように第2画像に対して行われる画像認識処理によって認識可能である。このため、重複画像部分に写り込んでいる物標を認識するための画像認識処理が複数の第1画像の一部に対して行われなかったとしても、重複画像部分に写り込んだ物標の認識精度が悪化することは殆どない。
このため、付記3に記載された画像処理装置は、付記1又は2に記載された画像処理装置と同様に、画像認識処理の演算負荷の低減及び画像認識処理による認識精度の悪化の抑制の双方を両立することができる。
(4-4)付記4
付記4に記載された画像処理装置は、前記処理手段は、(i)前記重複画像部分と前記非重複画像部分とに跨るように前記第1画像に写り込む物標である特定物標が存在するか否かを判定し、(ii)前記特定物標が存在すると判定された場合には、前記特定物標が存在しないと判定された場合と比較して、前記特定物標が認識されやすくなるように前記第1画像に対して前記画像認識処理を行う付記1から3のいずれか一項に記載の画像処理装置である。
重複画像部分と非重複画像部分とに跨るように第1画像に写り込む特定物標が存在する場合、画像認識処理が行われる又は演算負荷が相対的に大きい画像認識処理が行われる非重複画像部分には、特定物標の一部のみが写り込んでおり、特定物標の残りの一部は、画像認識処理が行われない又は演算負荷が相対的に小さい画像認識処理が行われる重複画像部分に写り込む。このため、仮に何らの対策がなされなければ、重複画像部分に対しては画像認識処理が行われない又は演算負荷が相対的に小さい画像認識処理が行われるに過ぎないがゆえに、第1画像に対する画像認識処理によって特定物標を認識しにくくなる可能性がある。更に、第2画像においても、特定物標の一部のみが写り込んでおり、特定物標の残りの一部は、第2画像に写り込まない。このため、仮に何らの対策がなされなければ、特定物標の一部にのみ画像認識処理が行われるに過ぎないがゆえに、第2画像に対する画像認識処理によって特定物標を認識しにくくなる可能性がある。
そこで、付記4に記載された画像処理装置は、特定物標が存在する場合には、特定物標が存在しない場合と比較して、特定物標が認識されやすくなるように第1画像に対して画像認識処理を行う。このため、付記4に記載された画像処理装置は、特定物標が存在する場合であっても、何らの対策がなされなければ認識しにくくなる可能性がある特定物標を適切に認識することができる。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う画像処理装置もまた本発明の技術的範囲に含まれるものである。
1 車両
11w 標準カメラ
11t 望遠カメラ
111w 標準画像
112w 重複画像部分
113w 非重複画像部分
111t 望遠画像
12 ECU
121 画像取得部
122 画像処理部
IRw、IRt 撮像領域

Claims (3)

  1. 第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、
    前記第1及び第2画像の夫々に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を認識するための画像認識処理を行う処理手段と
    を備え、
    前記処理手段は、前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に対して第1の演算負荷の前記画像認識処理を行い、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に対して前記第1の演算負荷よりも小さい第2の演算負荷の前記画像認識処理を行う
    画像処理装置。
  2. 第1撮像手段が第1撮像領域を撮像して得られる第1画像及び前記第1撮像手段よりも焦点距離が長い第2撮像手段が前記第1撮像領域と部分的に重複する第2撮像領域を撮像して得られる第2画像を取得する取得手段と、
    前記第1及び第2画像の夫々に対して、前記第1及び第2画像の少なくとも一方に写り込んでいる物標を認識するための画像認識処理を行う処理手段と
    を備え、
    前記処理手段は、複数の前記第1画像に対して前記画像認識処理を行う場合には、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複しない非重複領域が写り込んだ非重複画像部分に写り込んだ物標を認識するための前記画像認識処理を、前記複数の第1画像の夫々に対して行い、前記第1画像のうち前記第1撮像領域と前記第2撮像領域とが重複する重複領域が写り込んだ重複画像部分に写り込んだ物標を認識するための前記画像認識処理を、前記複数の第1画像から抽出される少なくとも一枚の第1画像に対して行う一方で前記複数の第1画像から抽出されなかった残りの第1画像に対して行わない
    画像処理装置。
  3. 前記処理手段は、(i)前記重複画像部分と前記非重複画像部分とに跨るように前記第1画像に写り込む物標である特定物標が存在するか否かを判定し、(ii)前記特定物標が存在すると判定された場合には、前記特定物標が存在しないと判定された場合と比較して、前記特定物標が認識されやすくなるように前記第1画像に対して前記画像認識処理を行う
    請求項1又は2に記載の画像処理装置。
JP2018135056A 2018-07-18 2018-07-18 画像処理装置 Active JP7120835B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018135056A JP7120835B2 (ja) 2018-07-18 2018-07-18 画像処理装置
CN201910520788.1A CN110738088B (zh) 2018-07-18 2019-06-17 图像处理装置
US16/514,313 US11157755B2 (en) 2018-07-18 2019-07-17 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018135056A JP7120835B2 (ja) 2018-07-18 2018-07-18 画像処理装置

Publications (2)

Publication Number Publication Date
JP2020013330A JP2020013330A (ja) 2020-01-23
JP7120835B2 true JP7120835B2 (ja) 2022-08-17

Family

ID=69163099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135056A Active JP7120835B2 (ja) 2018-07-18 2018-07-18 画像処理装置

Country Status (3)

Country Link
US (1) US11157755B2 (ja)
JP (1) JP7120835B2 (ja)
CN (1) CN110738088B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111988524A (zh) * 2020-08-21 2020-11-24 广东电网有限责任公司清远供电局 一种无人机与摄像头协同避障方法、服务器及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015154386A (ja) 2014-02-18 2015-08-24 富士フイルム株式会社 自動追尾撮像装置
JP2017067535A (ja) 2015-09-29 2017-04-06 日立オートモティブシステムズ株式会社 周辺認識装置
US20170293198A1 (en) 2016-04-07 2017-10-12 Lg Electronics Inc. Driver assistance apparatus and vehicle

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342497A (ja) 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JP5622648B2 (ja) * 2011-04-14 2014-11-12 日立オートモティブシステムズ株式会社 画像処理装置
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
JP5949955B2 (ja) * 2013-01-25 2016-07-13 トヨタ自動車株式会社 道路環境認識システム
US9898670B2 (en) * 2013-12-13 2018-02-20 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
JP6313646B2 (ja) * 2014-04-24 2018-04-18 日立オートモティブシステムズ株式会社 外界認識装置
CN106415192B (zh) * 2014-06-06 2019-05-03 株式会社富士 引线图像识别方法及识别装置以及图像处理用元件数据生成方法及生成装置
JP2017033402A (ja) * 2015-08-04 2017-02-09 株式会社デンソー 車載表示制御装置、車載表示制御方法
EP3131035A1 (en) * 2015-08-07 2017-02-15 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
JP6765219B2 (ja) 2016-05-18 2020-10-07 本田技研工業株式会社 車両制御システム、通信システム、車両制御方法、および車両制御プログラム
JP6508134B2 (ja) * 2016-06-14 2019-05-08 トヨタ自動車株式会社 物体判別装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015154386A (ja) 2014-02-18 2015-08-24 富士フイルム株式会社 自動追尾撮像装置
JP2017067535A (ja) 2015-09-29 2017-04-06 日立オートモティブシステムズ株式会社 周辺認識装置
US20170293198A1 (en) 2016-04-07 2017-10-12 Lg Electronics Inc. Driver assistance apparatus and vehicle

Also Published As

Publication number Publication date
US11157755B2 (en) 2021-10-26
JP2020013330A (ja) 2020-01-23
CN110738088A (zh) 2020-01-31
US20200026934A1 (en) 2020-01-23
CN110738088B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
Wu et al. Lane-mark extraction for automobiles under complex conditions
US8005266B2 (en) Vehicle surroundings monitoring apparatus
JP4157620B2 (ja) 移動物体検出装置及びその方法
JP2003067752A (ja) 車両周辺監視装置
JP7104916B2 (ja) 移動物体検出装置および移動物体検出方法
JP6226368B2 (ja) 車両監視装置、および車両監視方法
US7221789B2 (en) Method for processing an image captured by a camera
JP2010218226A (ja) 計測マップ生成装置及び走行環境確認装置
WO2017212992A1 (ja) 物体距離検出装置
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP7120835B2 (ja) 画像処理装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6620607B2 (ja) 画像解析プログラム、画像解析装置、及び画像解析方法
JP4575315B2 (ja) 物体検出装置及びその方法
JP2008060988A (ja) 走行環境情報取得装置
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP5493705B2 (ja) 車両位置検出装置、車両位置検出方法、及び車両位置検出プログラム
KR102051324B1 (ko) 서라운드 뷰 모니터링 시스템
JP3543912B2 (ja) オプティカルフロー検出方法
JP5822866B2 (ja) 画像処理装置
CN111133439B (zh) 全景监视系统
CN112334944B (zh) 摄像机装置的标志识别方法及标志识别装置
US11417115B2 (en) Obstacle recognition device
JP5724473B2 (ja) 車両用画像認識装置、車両用画像認識方法、プログラム及び媒体
JP3292292B2 (ja) オプティカルフロー検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220804

R151 Written notification of patent or utility model registration

Ref document number: 7120835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151