WO2020090330A1 - 画像処理装置、カメラ、移動体および画像処理方法 - Google Patents

画像処理装置、カメラ、移動体および画像処理方法 Download PDF

Info

Publication number
WO2020090330A1
WO2020090330A1 PCT/JP2019/038806 JP2019038806W WO2020090330A1 WO 2020090330 A1 WO2020090330 A1 WO 2020090330A1 JP 2019038806 W JP2019038806 W JP 2019038806W WO 2020090330 A1 WO2020090330 A1 WO 2020090330A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
singular value
value decomposition
low rank
rank approximation
Prior art date
Application number
PCT/JP2019/038806
Other languages
English (en)
French (fr)
Inventor
顕嗣 山本
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US17/288,730 priority Critical patent/US11675875B2/en
Priority to CN201980069372.0A priority patent/CN112912922A/zh
Priority to EP19877927.4A priority patent/EP3876187A4/en
Publication of WO2020090330A1 publication Critical patent/WO2020090330A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the imaging unit 11 is an in-vehicle camera mounted on the moving body 1.
  • the imaging unit 11 acquires an image obtained by imaging the periphery of the moving body 1.
  • a plurality of imaging units 11 may be mounted on the moving body 1. For example, when four vehicle-mounted cameras are mounted on the moving body 1, for example, a position where a peripheral region in front of the moving body 1 and at least a part of a front side surface of the moving body 1 can be photographed, Of the rear side of the mobile body 1 and at least a part of the rear side surface of the mobile body 1, a peripheral area on the left side of the mobile body 1, and at least a part of the left side surface of the mobile body 1 can be captured.
  • A is a left singular value matrix that is an m ⁇ m orthogonal matrix
  • B is an m ⁇ n diagonal matrix
  • C is a right singular value that is an n ⁇ n orthogonal matrix. It is a matrix.
  • the diagonal matrix B (first diagonal matrix) is a matrix in which the diagonal component has a positive value or 0 and the non-diagonal component has 0.
  • the diagonal components of the diagonal matrix B are arranged in descending order from the largest value. Of the diagonal elements of the diagonal matrix B, the number of non-zero elements is called rank k.
  • FIG. 4F shows an original captured image when a vehicle is present 1 m behind and an image in which the compression rate of the feature amount obtained by low rank approximation by singular value decomposition is 80% for the captured image. There is.
  • An image in which the compression ratio of the feature amount is 80% has a rank of 174 in the width direction and a rank of 158 in the height direction.
  • the matrix corresponding to the original captured image has a size of W (width): 1280 ⁇ H (height): 960 ⁇ C (color): 3 (R, G, B). Is a matrix in which a value is assigned to each element of the three-dimensional matrix of.
  • the matrix corresponding to the image in which the compression rate of the feature amount is 80% shown in FIGS. 4A to 4F and FIGS. 5 to 5F is conceptually the matrix whose size corresponds to the original captured image. Is a sparse matrix in which only the elements of W: 180 ⁇ H: 160 ⁇ C: 3 have values and the other elements are 0.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置10は、画像を取得するインターフェイス12と、取得された画像である取得画像に対して特異値分解による低ランク近似を行い、特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサ13とを備える。

Description

画像処理装置、カメラ、移動体および画像処理方法 関連出願の相互参照
 本出願は、2018年10月29日に日本国に特許出願された特願2018-203193の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、画像処理装置、カメラ、移動体および画像処理方法に関する。
 特許文献1には、機械学習により生成されたモデルを用いて、撮影画像から注目物体を検出する技術が開示されている。
特開2015-73191号公報
 一態様の画像処理装置は、画像を取得するインターフェイスと、前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサと、を備える。
 一態様のカメラは、撮像光学系と、前記撮像光学系を介して結像した像を撮像する撮像素子と、前記撮像素子により撮像された画像を取得するインターフェイスと、前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサと、を備える。
 一態様の移動体は、前記移動体の周辺を撮像するカメラを備え、前記カメラは、撮像光学系と、前記撮像光学系を介して結像した像を撮像する撮像素子と、前記撮像素子により撮像された画像を取得するインターフェイスと、前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサと、を備える。
 一態様の画像処理方法は、画像処理装置における画像処理方法であって、
 画像を取得するステップと、前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に基づき物体認識を行うステップと、を含む。
本開示の一実施形態に係る画像処理装置の構成例を示す図である。 図1に示すプロセッサによる所望の特徴量の決定の一例について説明するための図である。 撮像画像および特異値分解による低ランク近似後の画像の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 撮像画像および特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。 図1に示す画像処理装置における画像処理方法について説明するためのフローチャートである。
 画像に含まれる物体の物体認識を行う場合、物体認識の精度低下を抑制しつつ、処理負荷を低減することが有益である。本開示の一態様によれば、物体認識の精度低下を抑制しつつ、処理負荷を低減することができる。
 以下、本開示の実施の形態について図面を参照して例示説明する。各図中、同一符号は
、同一または同等の構成要素を示している。
 図1は、本開示の一実施形態に係る画像処理装置10の構成例を示す図である。本実施形態に係る画像処理装置10は、画像に含まれる物体を認識する物体認識を行う。画像処理装置10は、例えば、図1に示すように、移動体1に搭載される。画像処理装置10が移動体1に搭載される場合、画像処理装置10は、移動体1の周辺を撮像した画像に対して、その画像に含まれる人、他の移動体などの物体の物体認識を行う。以下では、画像処理装置10は、移動体1に搭載されるものとして説明する。
 本開示における移動体1は、例えば、車両である。車両には、自動車および産業車両を含むが、これに限られず、鉄道車両、生活車両、および、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバスなどを含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。
 図1に示す画像処理装置10は、インターフェイス12と、プロセッサ13と、メモリ14とを備える。移動体1には、移動体1の周辺を撮像した画像を取得する撮像部11が搭載されている。画像処理装置10および撮像部11は、移動体1に搭載されたカメラ1Aを構成する。まず、撮像部11について説明する。
 撮像部11は、移動体1に搭載された車載カメラである。撮像部11は、移動体1の周辺を撮像した画像を取得する。撮像部11は、移動体1に複数台搭載されてもよい。例えば、移動体1に4台の車載カメラが搭載される場合、例えば、移動体1の前方の周辺領域と、移動体1の前側面の少なくとも一部とを撮影可能な位置と、移動体1の後方の周辺領域と、移動体1の後側面の少なくとも一部とを撮影可能な位置と、移動体1の左側方の周辺領域と、移動体1の左側面の少なくとも一部とを撮影可能な位置と、移動体1の右側方の周辺領域と、移動体1の右側面の少なくとも一部とを撮影可能な位置とにそれぞれ、撮像部11を配置する。このような配置とすることにより、移動体1の四方の周辺領域を撮影することができる。
 撮像部11は、少なくとも撮像光学系11aと、撮像素子11bとを備える。
 撮像光学系11aは、例えば、1個以上のレンズおよび絞りなどの光学部材を含む。撮像光学系11aが備えるレンズは、例えば、魚眼レンズなどの画角の広いレンズであってもよい。撮像光学系11aは、被写体像を撮像素子11bの受光面に結像させる。撮像素子11bは、例えば、CCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを含む。撮像素子11bの受光面上には、複数の画素が配列されている。撮像素子11bは、受光面上に結像された被写体像を撮像して撮像画像を生成する。撮像部11は、移動体1に搭載されたECU(Electronic Control Unit)、ディスプレイおよびナビゲーション装置などの外部装置に撮像した画像を出力してもよい。また、撮像部11は、撮像した画像に対して、ホワイトバランス調整処理、露出調整処理およびガンマ補正処理などの所定の画像処理を施す機能を有していてもよい。
 次に、画像処理装置10が備える構成について説明する。
 インターフェイス12は、有線または無線を介して、移動体1が備える各種構成と通信を行う。例えば、インターフェイス12は、撮像部11が撮像した画像を取得し、プロセッサ13に出力する。
 プロセッサ13は、例えば、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)およびFPGA(Field-Programmable Gate Array)などの専用のプロセッサ、または、CPU(Central Processing Unit)などの汎用プロセッサを含む。プロセッサ13は、画像処理装置10全体の動作を制御する。例えば、プロセッサ13は、インターフェイス12が取得した画像である取得画像を用いて物体認識を行う。プロセッサ13による物体認識の詳細は後述する。
 メモリ14は、例えば、一次記憶装置または二次記憶装置などを含む。メモリ14は、画像処理装置10の動作に必要な種々の情報およびプログラムを記憶する。
 次に、プロセッサ13による物体認識について説明する。
 プロセッサ13は、インターフェイス12が取得した取得画像に対して、数学的な処理を行い、処理後の画像に対して物体認識を行う。具体的には、プロセッサ13は、取得画像に対して、特異値分解による低ランク近似を行い、低ランク近似後の画像に対して物体認識を行う。
 プロセッサ13は、取得画像に対応する行列Mを生成する。取得画像に対応する行列Mとは、取得画像を行列で表現したものである。通常、画像は、行方向と列方向とに配列された複数の画素からなる。プロセッサ13は、例えば、取得画像の各画素の輝度値などを、各画素の位置に対応する要素とする行列Mを生成する。そして、プロセッサ13は、生成した行列Mの特異値分解を行う。特異値分解は、一般的な数学的処理であり、詳細な説明は省略するが、任意のm×nの行列Mを、以下の式(1)に示すように、3つの行列A,B,Cに分解する処理である。
 M=ABC ・・・式(1)
 式(1)において、Aは、m×mの直交行列である左特異値行列であり、Bは、m×nの対角行列であり、Cはn×nの直交行列である右特異値行列である。対角行列B(第1の対角行列)は、対角成分が正の値または0であり、非対角成分が0である行列である。対角行列Bの対角成分は、値の大きなものから降順に並ぶ。対角行列Bの対角成分のうち、ゼロでない成分の数をランクkと称する。
 プロセッサ13は、上述した特異値分解を行った後、低ランク近似を行う。具体的には、プロセッサ13は、対角行列Bのランクをk-lに下げた対角行列B’(第2の対角行列)を生成する。ここで、プロセッサ13は、対角行列Bのゼロでないk個の対角成分のうち、値の小さな成分から順にl個の対角成分をゼロとすることで、対角行列B’を生成する。すなわち、プロセッサ13は、対角行列Bのランクを下げた対角行列B’を生成する。そして、プロセッサ13は、左特異値行列Aと、対角行列Bのランクを下げた対角行列B’と、右特異値行列Cとの内積により得られる行列M’に対応する画像を、低ランク近似後の画像として生成する。
 次に、プロセッサ13は、行列M’に対応する画像を用いて、物体認識を行う。以下では、取得画像について算出された行列M’に対応する画像を、特異値分解による低ランク近似後の画像と称する。
 上述したように、特異値分解による低ランク近似後の行列M’は、左特異値行列Aと、対角行列Bのランクを下げた対角行列B’と、右特異値行列Cとの内積により得られる。対角行列B’は、対角行列Bよりも、値がゼロである対角成分の数が多い。このような対角行列B’のスパース性により、プロセッサ13は、物体認識の処理負荷の低減を図ることができる。例えば、プロセッサ13は、任意の値x×0=0あるいは任意の値x+0=xといった計算結果が自明な計算を省略することで、処理負荷を低減することができる。
 また、対角行列B’は、対角行列Bの対角成分のうち、値の小さな対角成分から順に所定の数の対角成分をゼロとすることで得られる。そのため、特異値分解による低ランク近似後の画像では、取得画像のうち特徴に乏しい部分が優先的に圧縮される。したがって、特異値分解による低ランク近似後の画像においても、物体認識に必要な特徴的な部分は残るので、物体認識の精度低下は抑制される。
 一般に、物体認識の精度を上げるには、解像度の高い画像を用いることが考えられる。しかしながら、解像度の高い画像を用いると、処理負荷が増大し、物体認識に要する時間も長くなってしまう。また、物体認識の処理負荷を下げるには、画像の解像度を下げることが考えられる。しかしながら、画像の解像度を下げると、物体認識に必要な特徴的な部分の解像度も下がるため、物体認識の精度が低下してしまう。一方、本実施形態においては、特異値分解による低ランク近似を行うことで、物体認識の精度の低下を抑制しつつ、処理負荷を低減することができる。
 プロセッサ13は、物体認識に必要とされる画像の特徴量に応じて、対角行列B’のランクを決定する。すなわち、プロセッサ13は、特異値分解による低ランク近似後の画像における所望の特徴量に応じて、対角行列B’のランクを決定する。例えば、プロセッサ13は、対角行列B’のランクを所定値ずつ変化させながら、各ランクにおける、特異値分解による低ランク近似後の画像の特徴量を求め、対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係から、所望の特徴量に応じた対角行列B’のランクを決定する。ここで、対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係は画像ごとに異なる。そのため、画像ごとに、対角行列B’のランクと特異値分解による低ランク近似後の画像の特徴量との関係を求めるための演算を行う必要があるが、このような演算を行ったとしても、取得画像自体を用いて物体認識を行うよりは、プロセッサ13の処理負荷を低減することができる。なお、特徴量とは、物体のエッジのような、物体認識に必要な特徴的な部分の量を意味し、例えば、空間周波数を用いて表すことができる。
 また、プロセッサ13は、画像のエリアに応じて、所望の特徴量を決定してもよい。
 例えば、移動体1の前方を撮像した画像では、画像の上部には、空などの移動体1の走行に影響の小さい物体が含まれることが多く、画像の中部には、他の移動体1あるいは歩行者などの、移動体1の走行に影響の大きい物体が含まれることが多い。すなわち、移動体1の前方を撮像した画像の上部には、物体認識の必要性が低い物体が含まれ、画像の中部には、物体認識の必要性が高い物体が含まれることが多い。また、移動体1の前方を撮像した画像の下部には、画像の中部に存在していた、距離情報を取得済みで移動体の走行に伴って相対的に移動体1に近づいてきた物体が含まれることが多い。このように、1つの画像の中でも、物体認識を優先的に行うべきエリアが存在する。したがって、プロセッサ13は、取得画像のエリアに応じて、所望の特徴量を決定し、その決定した所望の特徴量に応じて、エリアごとに、対角行列B’のランクを決定してもよい。例えば、プロセッサ13は、図2に示すように、取得画像2の中部2bにおける所望の特徴量を高くし、取得画像2の上部2aにおける所望の特徴を低くし、取得画像2の下部2cにおける所望の特徴量を、上部2aの特徴量と中部2bの特徴量との間の値としてもよい。
 また、プロセッサ13は、移動体1の挙動に応じて、所望の特徴量を決定してもよい。例えば、プロセッサ13は、移動体1が高速で移動している場合には、所望の特徴量を高くし、移動体1が低速で移動している場合には、所望の特徴量を低くしてもよい。
 また、プロセッサ13は、撮像部11が撮像を行うフレームレートが可変である場合、移動体1の挙動に応じて、フレームレートと所望の特徴量とを決定してもよい。例えば、移動体1が高速で移動している場合、移動体1は高速道路を走行していると考えられる。移動体1が高速道路を走行している場合、移動体1の単位時間当たりの移動量が大きいため、撮像部11の撮像間隔が長くなり過ぎないことが望ましい。また、移動体1の単位時間当たりの移動量が大きいため、物体認識に要する時間を短くすることが望ましい。したがって、プロセッサ13は、例えば、移動体1が高速道路を走行している場合、撮像部11のフレームレートを高くするとともに、所望の特徴量を低くする。
 また、例えば、移動体1が低速で移動している場合、移動体1は市街地を走行していると考えられる。移動体1が市街地を走行している場合、移動体1の単位時間当たりの移動量は小さいが、歩行者の飛び出しなどが起きる可能性が高く、高い物体認識の精度が求められることが多い。したがって、プロセッサ13は、例えば、移動体1が低速で移動している場合、撮像部11のフレームレートを低くするとともに、所望の特徴量を高くする。こうすることで、プロセッサ13は、移動体1が移動する状況に適した物体認識を行うことができる。
 プロセッサ13は、上述したように、特異値分解による低ランク近似後の画像を用いて物体認識を行う。具体的には、プロセッサ13は、学習により生成されたモデルに、特異値分解による低ランク近似後の画像を入力して、物体認識を行う。物体認識を行うためのモデルは、例えば、ニューラルネットワークを用いた学習により生成される。モデルの学習には、特異値分解による低ランク近似が施されていない画像を用いることができる。
 次に、実際の撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により特徴量を圧縮した画像を例示する。以下では、撮像画像はカラー画像であるとする。そして、そのカラー画像を3階テンソルとみなし、カラー画像に対して、タッカー分解(Tucker Decomposition)/高次特異値分解(HOSVD:Higher Order Singular Value Decomposition)による低ランク近似を施した例を示す。タッカー分解/高次特異値分解とは行列(2階テンソル)における特異値分解をテンソルに拡張した手法である。
 図3A,3Bは、オリジナルの撮像画像、および、撮像画像に対して、特異値分解による低ランク近似により情報量を圧縮した画像を示す図である。図3Aには、オリジナルの撮像画像、および、特徴量の圧縮率が95%,90%,80%である画像を示している。図3Bには、特徴量の圧縮率が75%,70%,60%,50%である画像を示している。特徴量の圧縮率は、撮像画像に対応する行列の特異値分解により得られる対角行列Bの特異値(非ゼロの対角成分)を規格化して定義される。
 図3A,3Bに示すように、オリジナルの撮像画像の幅方向のランクは1280であり、高さ方向のランクは960である。特徴量の圧縮率が95%である画像の幅方向のランクは569であり、高さ方向のランクは494である。特徴量の圧縮率が90%である画像の幅方向のランクは371であり、高さ方向のランクは333である。特徴量の圧縮率が80%である画像の幅方向のランクは202であり、高さ方向のランクは186である。特徴量の圧縮率が75%である画像の幅方向のランクは156であり、高さ方向のランクは145である。特徴量の圧縮率が70%である画像の幅方向のランクは122であり、高さ方向のランクは114である。特徴量の圧縮率が60%である画像の幅方向のランクは73であり、高さ方向のランクは69である。特徴量の圧縮率が50%である画像の幅方向のランクは41であり、高さ方向のランクは38である。
 図3A,3Bに示すように、特異値分解による低ランク近似を行うことで、オリジナルの撮像画像に対して、例えば、空あるいは車両のボンネットなどの特徴の乏しい部分の像が粗くなっている。一方、特異値分解による低ランク近似後の画像でも、車両のエッジ、路面に描かれた文字及び線などの特徴的な部分は、認識可能となっている。したがって、撮像画像に対して、特異値分解による低ランク近似を行い、ランクを数分の一から数十分の一に下げても、特徴の乏しい部分から圧縮が行われ、物体認識に必要な特徴的な部分は保持されていることが分かる。したがって、物体認識の精度低下を抑制することができるとともに、特異値分解による低ランク近似後の画像に対応する行列のスパース性により、処理負荷を低減し、物体認識の速度を向上することができる。
 次に、特異値分解による低ランク近似を行った画像を用いた物体認識の結果の一例について説明する。
 図4A~図4Fは、後方に車両が存在する場合の撮像画像、および、その撮像画像に対する特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。図4A~図4Fにおいては、タッカー分解/高次特異値分解による低ランク近似により、情報量をオリジナルの撮像画像の80%に圧縮した例を示している。オリジナルの撮像画像の幅方向のランクは1280であり、高さ方向のランクは960である。
 図4Aにおいては、17m後方に車両が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは181であり、高さ方向のランクは163である。
 図4Bにおいては、12m後方に車両が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは180であり、高さ方向のランクは162である。
 図4Cにおいては、8m後方に車両が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは179であり、高さ方向のランクは161である。
 図4Dにおいては、5m後方に車両が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは178であり、高さ方向のランクは159である。
 図4Eにおいては、3m後方に車両が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは175であり、高さ方向のランクは157である。
 図4Fにおいては、1m後方に車両が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは174であり、高さ方向のランクは158である。
 図5A~図5Fは、後方に人が存在する場合の、実際の撮像画像、および、その撮像画像に対する特異値分解による低ランク近似後の画像を用いた物体認識の結果の一例を示す図である。図5A~図5Fにおいては、タッカー分解/高次特異値分解による低ランク近似により、情報量を撮像画像の80%に圧縮した例を示している。オリジナルの撮像画像の幅方向のランクは1280であり、高さ方向のランクは960である。
 図5Aにおいては、17m後方に人が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは187であり、高さ方向のランクは168である。
 図5Bにおいては、12m後方に人が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは185であり、高さ方向のランクは167である。
 図5Cにおいては、8m後方に人が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは185であり、高さ方向のランクは167である。
 図5Dにおいては、5m後方に人が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは183であり、高さ方向のランクは164である。
 図5Eにおいては、3m後方に人が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは186であり、高さ方向のランクは167である。
 図5Fにおいては、1m後方に人が存在する場合のオリジナルの撮像画像、および、その撮像画像に対する特異値分解による低ランク近似により得られた特徴量の圧縮率が80%である画像を示している。特徴量の圧縮率が80%である画像の幅方向のランクは194であり、高さ方向のランクは174である。
 図4A~図4Fおよび図5~図5Fに示すように、物体認識の対象が車両である場合にも、人である場合にも、特異値分解による低ランク近似により、幅方向および高さ方向にランクを15%程度まで下げても、オリジナルの撮像画像を用いたのと同程度の物体認識の精度が得られた。
 ここで、オリジナルの撮像画像に対応する行列は、概念的に言うと、W(幅):1280×H(高さ):960×C(色):3(R,G,B)の大きさの立体行列の各要素に値が割り当てられている行列である。一方、図4A~図4Fおよび図5~図5Fに示す、特徴量の圧縮率が80%である画像に対応する行列は、概念的に言うと、大きさはオリジナルの撮像画像に対応する行列の大きさと同じで、W:180×H:160×C:3の要素だけが値を持ち、他の要素は0である、疎な行列である。このような疎な行列に対応する画像を用いた画像認識では、0をかける、あるいは、0を足すといった計算結果が明らかな計算を省略することができるので、物体認識の処理負荷を低減することができる。また、図4A~図4Fおよび図5~図5Fに示すように、空、あるいは、車両のボンネットなどの特徴の乏しい部分が優先的に圧縮されるので、物体認識の精度の低下を抑制することができる。
 次に、本実施形態に係る画像処理装置10における画像処理方法について、図6に示すフローチャートを参照して説明する。画像処理装置10は、図6に示すフローを、例えば、所定の時間間隔で繰り返す。
 インターフェイス12は、撮像部11が撮像した画像を取得する(ステップS11)。
 プロセッサ13は、インターフェイス12が取得した取得画像に対して、特異値分解による低ランク近似を行う(ステップS12)。
 次に、プロセッサ13は、特異値分解による低ランク近似後の画像に対して物体認識を行う(ステップS13)。
 特異値分解による低ランク近似後の画像により、プロセッサ13は、画像上で特徴量が大きい領域あるいは特徴量が小さい領域を検出するといった画像解析を行うこともできる。また、細かい模様が存在するアスファルト路面は、特異値分解による低ランク近似後の画像でもその特徴量が保持されるので、プロセッサ13は、移動体1が走行するアスファルト路面などを検出することができる。また、プロセッサ13は、水面、湖面、芝生、田畑などアスファルト路面でない領域を検出することもできる。
 また、特異値分解による低ランク近似後の画像では、太陽光および屋外照明光など強い光が照射される方向の壁面は、特徴量が小さくなり、低ランク近似により優先的に圧縮される。そのため、プロセッサ13は、日当たりおよび光の照射方向などを検出することもできる。また、プロセッサ13は、行列の次元を上げて、動画像から切り出した静止画をバッチ処理することで、移動物体および静止物体を検出することもできる。
 このように、本実施形態においては、画像処理装置10は、画像を取得するインターフェイス12と、取得された画像である取得画像に対して、特異値分解による低ランク近似を行い、特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサ13と、を備える。
 取得画像に対する低ランク近似を行うことで、特異値分解による低ランク近似後の画像に対応する行列では、より多くの要素がゼロとなる。そのため、0をかけるあるいは0を足すといった結果が自明な計算を省略することができるので、物体認識の処理負荷を低減することができる。また、特異値分解による低ランク近似では、特徴の乏しい部分が優先的に圧縮され、特徴的な部分は残るので、物体認識の精度低下を抑制することができる。
 本開示の一実施形態を諸図面および実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。従って、これらの変形および修正は本開示の範囲に含まれることに留意されたい。
 1  移動体
 1A  カメラ
 10  画像処理装置
 11  撮像部
 11a  撮像光学系
 11b  撮像素子
 12  インターフェイス
 13  プロセッサ
 14  メモリ

Claims (9)

  1.  画像を取得するインターフェイスと、
     前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサと、を備える、画像処理装置。
  2.  前記プロセッサは、
     特異値分解により、前記取得画像に対応する行列を、左特異値行列と、第1の対角行列と、右特異値行列とに分解し、前記左特異値行列と、前記第1の対角行列のランクを下げた第2の対角行列と、前記右特異値行列との内積により得られる行列に対応する画像を、前記特異値分解による低ランク近似後の画像とし、
     前記特異値分解による低ランク近似後の画像における所望の特徴量に応じて、前記第2の対角行列のランクを決定する、請求項1に記載の画像処理装置。
  3.  前記プロセッサは、前記取得画像のエリアに応じて、前記所望の特徴量を異ならせる、請求項2に記載の画像処理装置。
  4.  前記取得画像は、移動体に搭載されたカメラにより撮像され、
     前記プロセッサは、前記移動体の挙動に応じて、前記所望の特徴量を異ならせる、請求項2または3に記載の画像処理装置。
  5.  前記プロセッサは、学習により生成されたモデルに前記特異値分解による低ランク近似後の画像を入力して、前記物体認識を行う、請求項1から4のいずれか一項に記載の画像処理装置。
  6.  前記モデルの学習に用いられる学習データは、前記特異値分解による低ランク近似が施されていない画像である、請求項5に記載の画像処理装置。
  7.  撮像光学系と、
     前記撮像光学系を介して結像した像を撮像する撮像素子と、
     前記撮像素子により撮像された画像を取得するインターフェイスと、
     前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサと、を備えるカメラ。
  8.  移動体であって、
     前記移動体の周辺を撮像するカメラを備え、
     前記カメラは、
     撮像光学系と、
     前記撮像光学系を介して結像した像を撮像する撮像素子と、
     前記撮像素子により撮像された画像を取得するインターフェイスと、
     前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に対して物体認識を行うプロセッサと、を備える移動体。
  9.  画像処理装置における画像処理方法であって、
     画像を取得するステップと、
     前記取得された画像である取得画像に対して特異値分解による低ランク近似を行い、前記特異値分解による低ランク近似後の画像に基づき物体認識を行うステップと、を含む画像処理方法。
PCT/JP2019/038806 2018-10-29 2019-10-01 画像処理装置、カメラ、移動体および画像処理方法 WO2020090330A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/288,730 US11675875B2 (en) 2018-10-29 2019-10-01 Image processing apparatus, camera, mobile body, and image processing method
CN201980069372.0A CN112912922A (zh) 2018-10-29 2019-10-01 图像处理装置、摄像头、移动体以及图像处理方法
EP19877927.4A EP3876187A4 (en) 2018-10-29 2019-10-01 Image processing device, camera, mobile body, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018203193A JP7034050B2 (ja) 2018-10-29 2018-10-29 画像処理装置、カメラ、移動体および画像処理方法
JP2018-203193 2018-10-29

Publications (1)

Publication Number Publication Date
WO2020090330A1 true WO2020090330A1 (ja) 2020-05-07

Family

ID=70462251

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/038806 WO2020090330A1 (ja) 2018-10-29 2019-10-01 画像処理装置、カメラ、移動体および画像処理方法

Country Status (5)

Country Link
US (1) US11675875B2 (ja)
EP (1) EP3876187A4 (ja)
JP (1) JP7034050B2 (ja)
CN (1) CN112912922A (ja)
WO (1) WO2020090330A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7380435B2 (ja) * 2020-06-10 2023-11-15 株式会社Jvcケンウッド 映像処理装置、及び映像処理システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015073191A (ja) 2013-10-02 2015-04-16 キヤノン株式会社 画像処理システムおよびその制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2667711B1 (fr) * 1990-10-09 1992-11-27 Thomson Csf Procede de reconnaissance d'objets dans des images et son application au suivi d'objets dans des sequences d'images.
US6807536B2 (en) 2000-11-16 2004-10-19 Microsoft Corporation Methods and systems for computing singular value decompositions of matrices and low rank approximations of matrices
CN101964050B (zh) * 2010-09-06 2012-09-05 中国海洋大学 一种基于模型定阶和信号消噪的模态参数识别方法
CN106612435A (zh) * 2016-01-16 2017-05-03 四川用联信息技术有限公司 一种基于svd-dwt-dct的联合图像压缩方法
US9697177B1 (en) * 2016-10-13 2017-07-04 Sas Institute Inc. Analytic system for selecting a decomposition description of sensor data
CN108068697A (zh) * 2016-11-11 2018-05-25 法乐第(北京)网络科技有限公司 基于汽车的摄像系统、方法及汽车
US11037330B2 (en) * 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
EP3438922B1 (en) * 2017-07-27 2019-11-20 Siemens Healthcare GmbH Method for processing at least one x-ray image
CN107403124A (zh) * 2017-07-31 2017-11-28 苏州经贸职业技术学院 一种基于视觉图像的条形码检测识别方法
CN107680116B (zh) * 2017-08-18 2020-07-28 河南理工大学 一种监测视频图像中运动目标的方法
US20190087729A1 (en) * 2017-09-18 2019-03-21 Intel Corporation Convolutional neural network tuning systems and methods
US10271823B2 (en) * 2017-10-02 2019-04-30 General Electric Company Extracting a cardiac-cycle signal from echocardiogram data
CN108509983A (zh) * 2018-03-13 2018-09-07 范大昭 基于奇异值分解的影像匹配提纯方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015073191A (ja) 2013-10-02 2015-04-16 キヤノン株式会社 画像処理システムおよびその制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MORIGAKI, J. ET. AL.: "Applying higher order singular value decomposition to image classification.", IEICE, PROCESSING OF THE 19TH DATA ENGINEERING WORKSHOP, 7 April 2008 (2008-04-07), pages 1 - 6, XP009527034 *
See also references of EP3876187A4

Also Published As

Publication number Publication date
EP3876187A1 (en) 2021-09-08
JP7034050B2 (ja) 2022-03-11
JP2020071532A (ja) 2020-05-07
EP3876187A4 (en) 2022-06-29
US11675875B2 (en) 2023-06-13
CN112912922A (zh) 2021-06-04
US20210397879A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
AU2022203095B2 (en) Real-time HDR video for vehicle control
US7283679B2 (en) Image processor and method thereof
DE112020002697T5 (de) Modellerstellung einer fahrzeugumgebung mit kameras
JP6456499B2 (ja) 立体物検出装置、ステレオカメラ装置、車両及び立体物検出方法
CN112172797B (zh) 泊车控制方法、装置、设备和存储介质
WO2020090330A1 (ja) 画像処理装置、カメラ、移動体および画像処理方法
US20200402206A1 (en) Image processing device, image processing method, and program
JP7023212B2 (ja) 画像処理装置、撮像装置、移動体および画像処理方法
US11681047B2 (en) Ground surface imaging combining LiDAR and camera data
JP7088807B2 (ja) 画像処理装置、カメラ、移動体および画像処理方法
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
JP2023178691A (ja) 画像処理装置、制御方法、及びプログラム
CN108073884A (zh) 一种用于车道线检测的图像预处理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19877927

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019877927

Country of ref document: EP

Effective date: 20210531