JP7143703B2 - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP7143703B2 JP7143703B2 JP2018179121A JP2018179121A JP7143703B2 JP 7143703 B2 JP7143703 B2 JP 7143703B2 JP 2018179121 A JP2018179121 A JP 2018179121A JP 2018179121 A JP2018179121 A JP 2018179121A JP 7143703 B2 JP7143703 B2 JP 7143703B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- camera
- point
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 184
- 230000033001 locomotion Effects 0.000 claims description 384
- 239000013598 vector Substances 0.000 claims description 200
- 238000003384 imaging method Methods 0.000 claims description 144
- 230000003287 optical effect Effects 0.000 claims description 133
- 230000002093 peripheral effect Effects 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 27
- 238000000034 method Methods 0.000 description 119
- 230000008569 process Effects 0.000 description 92
- 238000004364 calculation method Methods 0.000 description 63
- 238000001514 detection method Methods 0.000 description 49
- 230000006870 function Effects 0.000 description 30
- 230000002159 abnormal effect Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 12
- 238000007689 inspection Methods 0.000 description 11
- 230000007547 defect Effects 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 8
- 230000004069 differentiation Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 210000000746 body region Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000000087 stabilizing effect Effects 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012567 pattern recognition method Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Endoscopes (AREA)
Description
(画像処理装置の構成)
図1は、第1実施形態に係る画像処理装置を含む車両の機能ブロック図である。図1に示されるように、画像処理装置1は、車両2に搭載される。車両2は、カメラ200(撮像部の一例)を備える。カメラ200は、車両2の進行方向に向けられている。このため、カメラ200の撮像方向(光軸方向)は、車両2の進行方向と概ね一致する。つまり、カメラ200は、概ね光軸方向に移動する撮像部である。カメラ200は、ピンホールカメラモデルが成立するように校正されている。即ち、カメラ200の内部パラメータは既知であり、レンズ歪も補正された状態である。本開示は、撮像部の移動の影響を適切に低減する実用的な技術思想を開示するものであり、当然のことながら車両の進行方向と光軸方向のずれを補正する効果も内包する。このため、本開示は、前記二つの方向の厳密な一致を求めるものではない。以下、「光軸方向に移動する」とは、概ね光軸方向に移動するとの意味である。
初期設定部120は、エッジ強度の積分値が所定の閾値以上の場合には、座標(x0,y0)を特定点とし、周辺領域の画像特徴と関連付けて特定点記憶部123に格納する。初期設定部120は、エッジ強度の積分値が所定の閾値よりも小さい場合には、座標(x0,y0)の近傍でエッジ強度の積分値、即ち空間情報量が最も大きい点を特定点として選択し、その周辺領域の画像特徴と関連付けて特定点記憶部123に格納する。
ここで、w:[0<w<1]は荷重平均における強度画像g0の荷重である。特定点座標を原点とする座標系に変換されているため、カメラ200の回転運動に起因する位置ズレは補正され、生成される現時刻までの蓄積画像の原点も特定点に対応する。生成された蓄積画像は、探索部121で求められた特定点の座標とともに特定点記憶部123に格納される。
数式(1)は、カメラ200が一般的なイメージセンサである場合における拘束条件である。
ここでjは虚数単位を表し、画像g1(x,y)は以下である。
数式(2)を以下の数式(4)を用いて変形すると、数式(5)となる。
図2は、画像処理装置1の動作の一例を示すフローチャートである。図2に示されるフローチャートは、例えば画像処理装置1の動作開始指示を受け付けたときから処理を開始する。なお、以下では、カメラ200は動画を出力するものとする。
車両2に搭載されたカメラ200は、路面の凹凸などによりピッチ角及びヨー角が変動する。ピッチ角及びヨー角の変動に起因して、カメラ200の画像の座標も変動する。画像から車両、歩行者、標識、信号、白線などを認識する場合、複数フレームの情報を用いることで認識精度を高められる。複数フレームの情報を用いて認識するには、認識対象をフレーム間で対応付ける必要がある。しかしながら、上述のような画像の座標変動があると対応付けすることができないか、または、誤った対応付けがなされることにより認識精度が低下するおそれがある。
第2実施形態に係る画像処理装置1Aは、画像処理装置1と比較して、カメラ200の回転運動を推定する点が相違する。以下では相違点を中心に説明し、第1実施形態と重複する説明は繰り返さない。
図3は、第2実施形態に係る画像処理装置を含む車両の機能ブロック図である。図3に示されるように、画像処理装置1Aは、車両2に搭載される。車両2は、カメラ200及び画像処理装置1Aを備える。カメラ200は、第1実施形態と同一である。
行列成分A,Bを以下のように定義することにより、数式(6)は、数式(7)のように簡潔に表現することができる。
数式(8)は、距離Z、並進運動T及び回転運動Ωに関連した拘束条件となる。つまり、距離Z(x,y),並進運動(T=(TX,TY,YZ))及び回転運動(Ω=(ΩX,ΩY,ΩZ))を、数式(8)の拘束条件の下、未知数として解を求めることができる。数式(8)を用いて解を求めることは、“撮像対象の輝度値はカメラ200と撮像対象との相対運動により変化しないことを仮定した拘束条件”と、“カメラ200の運動と撮像画像上での各画素の動きベクトルとの関係”とに基づいて未知数を求めることに相当する。つまり、第2推定部19は、数式(8)を用いて特定点とカメラ200の光学中心とを結ぶ直線である第3軸の軸回りの回転速度成分を推定する。
特定点は、光軸方向に移動するカメラ200から得られた画像の光軸近傍点に設定されており、さらに追跡されている。よって、特定点は常に十分遠方であるといえる。数式(7)において、距離Z(x,y)が並進速度|T|に対して十分に大きくなるほど数式(7)の第1項は0に近づく。このため、数式(7)は、以下の数式(9)のように近似できる。
ここで、行列Bの要素中で2次の微小項(x2,y2,xyが含まれる項)を無視すると、以下の数式(10)のように近似できる。
数式(10)において、第1項がロール角速度成分であり、第2項がピッチ角速度及びヨー角速度成分である。走行する車両2に搭載されたカメラ200では、路面の凹凸などによるピッチ角速度Ωxと旋回などによるヨー角速度Ωyは比較的大きいが、ロール角速度Ωzは小さい。更に、ロール角速度成分は画像中で原点から離れるほど大きくなり、原点付近では小さい。原点、即ち動きベクトルの基準点は光軸近傍、即ち回転中心の近傍であるため、ロール角速度Ωzは無視することができる。したがって、特定点の周辺領域の主要な動きベクトルは、以下のとおりとなる。
カメラ200の動きとオプティカルフローの関係式である数式(6)において、2次の微小項(x2,y2,xyが含まれる項)を無視した場合、次の数式(12)のように記述することができる。
カメラ200の動きであるvr(r)を次の数式(13)のように記述した場合、数式(12)は数式(14)のように記述することができる。
Ωz及びvr(r)でそれぞれ偏微分した値を0とすると、以下の数式(19)を解として得られる。
ここで、添え字iは各画素を特定するインデックスである。
加重平均の各画素の重みwiは次の数式(21)で定義する。
数式(21)は、数式(19)の分母、即ち解を求めるための行列式であり、解の信頼度を表す。この定義により、信頼度の大きい解に対して大きな重みを付与した平均値を得ることができる。
図5は、画像処理装置1Aの動作の一例を示すフローチャートである。図5に示されるフローチャートは、例えば画像処理装置1Aの動作開始指示を受け付けたときから処理を開始する。なお、以下では、カメラ200は動画を出力するものとする。
画像処理装置1Aでは、光軸方向に移動するカメラ200により得られた画像の光軸近傍点の位置が特定点の位置として設定される。そして、第1推定部18により、特定点の周辺領域の動きベクトルに基づいて、回転速度成分のうちカメラ200のピッチ軸及びヨー軸のうち少なくとも一方の軸回りの回転速度成分が推定される。画像処理装置1Aは、光軸近傍の特定点の周辺領域の主要な動きベクトルを推定することにより、個々の動きベクトル推定に誤差を生じても、主要な動きベクトルとして高精度且つロバストにピッチ軸及びヨー軸の回りの回転速度成分を推定することができる。
第3実施形態に係る画像処理装置1Bは、画像処理装置1と比較して、カメラ200の回転運動を推定する点、及びカメラ200が撮像対象に到達するまでの到達時間を算出する点が相違する。以下では相違点を中心に説明し、第1実施形態及び第2実施形態と重複する説明は繰り返さない。
図6は、第3実施形態に係る画像処理装置を含む車両の機能ブロック図である。図6に示されるように、画像処理装置1Bは、車両2に搭載される。車両2は、カメラ200及び画像処理装置1Bを備える。カメラ200は、第1実施形態と同一である。
第3項は、座標原点を中心とする放射状に分布する速度ベクトル場である。この放射状速度ベクトル場の係数であるvr(r)=TZ/Z(r)は、並進速度成分TZを距離Z(r)で規格化した規格化並進速度と見なすことができ、並進速度成分TZが既知のもと、静止対象の距離Z(r)を与える。更に、逆数1/vr(r)は、Z軸方向の距離をZ軸方向の並進速度Tzで除した量であり、画素rに対応する撮像対象点がカメラ200に到達するまでの時間、即ち到達時間を表す。撮像対象が移動する場合でも、逆数1/vr(r)は正しい到達時間を表す。
図7は、画像処理装置1Bの動作の一例を示すフローチャートである。図7に示されるフローチャートは、例えば画像処理装置1Bの動作開始指示を受け付けたときから処理を開始する。なお、以下では、カメラ200は動画を出力するものとする。
カメラ200の運動は並進運動及び回転運動に分けることができる。車両2に搭載されて前方を監視するカメラ200の場合には、カメラ200の主要な運動は進行方向の並進運動成分である。しかしながら、カメラ200の運動は、路面の凹凸などによるピッチ角速度や旋回によるヨー角速度などの回転運動成分をも含む。このため、並進運動成分のみを用いて到達時間を算出した場合には、算出される到達時間の精度が低下するおそれがある。これに対して、画像処理装置1Bでは、カメラ200の自己運動の少なくとも1つの軸に関する回転速度成分が推定される。そして、推定された回転速度成分と、撮像対象の輝度値は撮像部と撮像対象との相対運動により変化しないことを仮定した拘束条件と、撮像部の運動と画像上での各画素の動きベクトルとの関係とに基づいて、少なくとも1つの軸に関する回転速度成分を補償した到達時間が算出される。このように、画像処理装置1Bは、回転速度成分を補償した到達時間を推定するため、カメラ200が上下振動したり旋回運動したりするような場合であっても高い精度で到達(衝突)時間を推定することができる。また、画像処理装置1Bは、動きベクトルを推定することなく到達時間を直接算出するため、到達時間の推定を簡易な構成で実現することができる。
第4実施形態に係る画像処理装置1Cは、画像処理装置1と比較して、カメラ200の回転運動を推定する点、距離で規格化された並進ベクトルを推定する点、及びカメラ200の運動に起因する画素の動きを除外した動きベクトルを算出する点が相違する。以下では相違点を中心に説明し、第1実施形態~第3実施形態と重複する説明は繰り返さない。
図8は、第4実施形態に係る画像処理装置を含む車両の機能ブロック図である。図8に示されるように、画像処理装置1Cは、車両2に搭載される。車両2は、カメラ200及び画像処理装置1Cを備える。カメラ200は、第1実施形態と同一である。
ここで、その他の成分[Vex、Vey]はカメラ200の回転運動およびZ軸方向の並進運動に起因する成分を除去したオプティカルフローである。数式(25)を、カメラ200がCISの場合の拘束条件である数式(2)に代入すると、以下の数式(26)となる。
数式(26)の変数を以下のように変換する。
これにより、数式(26)は、以下の数式(27)として記述される。
数式(27)の形式は、カメラ200がCISの場合の拘束条件である数式(5)の形式と同一である。したがって、異常動きベクトル算出部23は、Lucas&Kanade法またはHorn&Schunck法と同様に評価関数を定めて、評価関数を最小化することによりvex及びveyを求める。この動きベクトルは、カメラの回転運動と光軸方向並進運動を補償した動きベクトルであり、路面や路側物など静止対象においてゼロとなる。先行車両などカメラ光軸とほぼ平行に運動する対象の動きベクトルも、数式(14)の第3項(vr(r)の項)で表されるため、補償されてゼロとなる。一方、車線変更する先行車や出会い頭の車両など、カメラの光軸と直交する方向に並進運動成分を持つ撮像対象の動きベクトルは、補償されずに異常な動きベクトルとして現れる。
図9は、画像処理装置1Cの動作の一例を示すフローチャートである。図9に示されるフローチャートは、例えば画像処理装置1Cの動作開始指示を受け付けたときから処理を開始する。なお、以下では、カメラ200は動画を出力するものとする。
画像処理装置1Cは、カメラ200の運動と画像上での各画素の動きベクトルとの関係に基づいてカメラ200の回転運動及び並進運動に起因する画素の動きを除外した動きベクトルを算出するので、撮像対象の動きに起因する動きベクトル、即ち移動する撮像対象の動きベクトルのみを抽出することができる。
第5実施形態に係る画像処理装置1Dは、第1実施形態~第4実施形態に係る画像処理装置の機能を組み合わせた装置である。以下では、第1実施形態~第4実施形態と重複する説明は繰り返さない。
図10は、第5実施形態に係る画像処理装置を含む車両の機能ブロック図である。図10に示されるように、画像処理装置1Dは、車両2に搭載される。車両2は、カメラ200及び画像処理装置1Dを備える。カメラ200は、第1実施形態と同一である。
ここで、蓄積画像gacc(x,y,t-1)は同時に格納された特定点の座標を用いて、特定点を原点とするように座標変換されているものとする。マッチング関数Mt,Mx,Myはそれぞれ、現時刻画像の座標を特定点である(xc(t),yc(t))だけずらしたときにおける、強度値、強度値のx方向偏微分、及び強度値のy方向偏微分についての、現時刻画像と蓄積画像との差異である。マッチング関数Mt,Mx,Myは、積分区間Σにおけるこれらの和が最小になる(xc(t),yc(t))を現時刻の対応点とする。
ここで、skylabel(x,y)は空領域検出部14において付与された空であるか否かを表すラベルであり、movelabel(x,y)は移動体検出部15において付与された移動体であるか否かを表すラベルである。路面領域の検出手法は、特に限定されない。一例として、路面領域検出部16は、region growing手法やSemantic Segmentationなどのラベル付与手法を用いることができる。
その他の成分である[vgx,vgy]がカメラ200の回転運動に起因する成分を除去したオプティカルフローである。数式(29)を、カメラ200がCISの場合の拘束条件である数式(2)に代入すると、以下の数式(30)となる。
数式(30)の変数を以下のように変換する。
これにより、数式(30)は、以下の数式(31)として記述される。
数式(31)の形式は、カメラ200がCISの場合の拘束条件である数式(5)の形式と同一である。したがって、動きベクトル算出部20は、Lucas&Kanade法またはHorn&Schunck法と同様に評価関数を定めて、評価関数を最小化することによりvgx及びvgyを求める。
fcはカメラ200のレンズの焦点距離、Hcは路面に対するカメラ200の高さである。数式(32)は、基準環境モデルの最も単純な一例である。基準環境モデルは、各画素の座標と対応する撮像対象までの距離を対応付けられる他のモデルを用いてもよい。
これにより、数式(16)は、以下の数式(33)として記述される。
数式(33)は、数式(22)の形式と同一である。したがって、並進速度推定部25は、Lucas&Kanade法またはHorn&Schunck法と同様に評価関数を定め、評価関数を最小化することにより並進速度Tzを求める。ここで、積分区間Γは距離を推定できたすべての画素の集合である。路面モデルを用いる場合は、roadlabel(x,y)=trueの画素集合であり、他の基準環境モデルの場合や測距センサで距離を推定する場合は、距離を推定できた画素の集合である。
ここでは、空領域とラベリングされた画素は、数式(34)の計算は行わず、距離Z(r)には無限大を意味する所定値が代入される。
図12は、画像処理装置1Dの動作の一例を示すフローチャートである。図12に示されるフローチャートは、例えば画像処理装置1Dの動作開始指示を受け付けたときから処理を開始する。なお、以下では、カメラ200は、CISであり、動画を出力するものとする。
図12は、カメラ200がCISの場合の動作例である。カメラ200が一般的なイメージセンサである場合には、以下のように図12を変更すればよい。
これにより、数式(17)における係数hθ,hr,hbは、次式となる。
以上のように係数を置き換えた数式(17)を拘束条件として、ロール角速度を推定する。
並進速度推定部25は、係数を上記のように置き換えて、数式(33)を解く。
画像処理装置1Dは、第1実施形態~第4実施形態に係る画像処理装置の機能を組合せて一連の処理として動作する。このように、第1実施形態~第4実施形態に係る画像処理装置の各機能はモジュールとして独立しており、選択的に組み合わせることができる。
第5実施形態に係る画像処理装置1Eは、画像処理装置1と比較して、カメラが固定されており、撮像対象が移動している場合が相違する。以下では相違点を中心に説明し、第1実施形態~第3実施形態と重複する説明は繰り返さない。
図16は、画像処理装置1Eの動作の一例を示すフローチャートである。図16に示されるフローチャートは、例えば画像処理装置1Eの動作開始指示を受け付けたときから処理を開始する。なお、以下では、カメラ200Aは、CISであり、動画を出力するものとする。
めっき部品や塗装部品など、特徴量が少なく、かつ、動きベクトルが大きい場合には、第1画像と第2画像とを対応付けることが困難となる。画像処理装置1Eによれば、動きベクトルが一様な領域に含まれる点を用いて第2画像に基準点を設定することにより、特徴量が少ない場合であっても認識対象を画像間で対応付けることができる。
上述した各実施形態は、当業者の知識に基づいて種々の変更、改良を施した様々な形態で実施することができる。
Claims (3)
- 光軸方向に移動する撮像部により得られた画像に基準点を設定する画像処理装置であって、
記憶部と、
前記撮像部により得られた第1画像において前記撮像部の光軸と撮像面との交点を求め、当該交点及び当該交点の周囲に位置する点のなかから光軸近傍点を選択し、前記光軸近傍点の位置を前記第1画像の特定点の初期位置として前記光軸近傍点の周辺領域の画像特徴と関連付けて前記記憶部に格納する初期設定部と、
前記記憶部に格納された前記画像特徴に基づいて、前記撮像部により得られた第2画像における前記特定点の対応点を探索する探索部と、
前記第2画像の前記対応点の位置を前記第2画像の基準点の位置として出力する出力部と、
を備え、
前記基準点は、前記第1画像と前記第2画像とを対応付ける際に基準となる座標点である、
画像処理装置。 - 前記第2画像の各画素において画素と前記基準点との相対動きベクトルを算出する動きベクトル算出部を備える請求項1に記載の画像処理装置。
- 光軸方向に移動する撮像部により得られた画像に基づいて前記撮像部の回転運動を推定する画像処理装置であって、
前記画像の光軸近傍点を特定点として設定する設定部と、
前記特定点の周辺領域の動きベクトルに基づいて、回転速度成分のうち前記撮像部の撮像面と平行であって互いに直交する第1軸及び第2軸のうち少なくとも一方の軸回りの回転速度成分を推定する第1推定部と、
前記第1推定部により推定された回転速度成分と、撮像対象の輝度値は前記撮像部と前記撮像対象との相対運動により変化しないことを仮定した拘束条件と、前記撮像部の運動と前記画像上での各画素の動きベクトルとの関係とに基づいて、前記特定点と前記撮像部の光学中心とを結ぶ直線である第3軸の軸回りの回転速度成分を推定する第2推定部と、
を備える画像処理装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179121A JP7143703B2 (ja) | 2018-09-25 | 2018-09-25 | 画像処理装置 |
EP19191963.8A EP3633617A3 (en) | 2018-09-25 | 2019-08-15 | Image processing device |
US16/565,711 US10991105B2 (en) | 2018-09-25 | 2019-09-10 | Image processing device |
CN201910891795.2A CN110942470B (zh) | 2018-09-25 | 2019-09-20 | 图像处理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179121A JP7143703B2 (ja) | 2018-09-25 | 2018-09-25 | 画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052544A JP2020052544A (ja) | 2020-04-02 |
JP7143703B2 true JP7143703B2 (ja) | 2022-09-29 |
Family
ID=67658999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179121A Active JP7143703B2 (ja) | 2018-09-25 | 2018-09-25 | 画像処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10991105B2 (ja) |
EP (1) | EP3633617A3 (ja) |
JP (1) | JP7143703B2 (ja) |
CN (1) | CN110942470B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020170462A1 (ja) * | 2019-02-22 | 2020-08-27 | 公立大学法人会津大学 | 動画像距離算出装置および動画像距離算出用プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP7120180B2 (ja) * | 2019-08-07 | 2022-08-17 | トヨタ自動車株式会社 | イメージセンサ |
JP2021129268A (ja) * | 2020-02-17 | 2021-09-02 | キヤノン株式会社 | 撮像装置およびその制御方法 |
CN113009688B (zh) * | 2021-03-04 | 2022-05-03 | 清华大学 | 量子成像方法以及量子成像系统 |
CN114967458B (zh) * | 2022-05-30 | 2023-03-10 | 江南大学 | 一种微纳机器人集群的驱动控制系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003051016A (ja) | 2001-05-11 | 2003-02-21 | Honda Motor Co Ltd | 接近検出装置、接近検出方法、及び接近検出プログラム |
JP2006338272A (ja) | 2005-06-01 | 2006-12-14 | Nissan Motor Co Ltd | 車両挙動検出装置、および車両挙動検出方法 |
JP2007104516A (ja) | 2005-10-07 | 2007-04-19 | Sony Corp | 画像処理装置、および、画像処理方法、プログラム、並びに、記録媒体 |
JP2007323615A (ja) | 2006-06-05 | 2007-12-13 | Topcon Corp | 画像処理装置及びその処理方法 |
US20170186169A1 (en) | 2015-12-29 | 2017-06-29 | Texas Instruments Incorporated | Stationary-vehicle structure from motion |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4159226B2 (ja) | 2000-03-21 | 2008-10-01 | 住友重機械工業株式会社 | 患部トラッキング方法、装置、及び、これを用いた放射線照射方法、装置、並びに放射線治療装置 |
US7050205B2 (en) * | 2000-12-26 | 2006-05-23 | Fuji Photo Film Co., Ltd. | Method of correcting image data picked up from photographic film |
JP4217143B2 (ja) | 2003-11-11 | 2009-01-28 | 株式会社東研 | バーコード読取装置 |
JP4328692B2 (ja) * | 2004-08-11 | 2009-09-09 | 国立大学法人東京工業大学 | 物体検出装置 |
JP4096932B2 (ja) | 2004-09-22 | 2008-06-04 | 日産自動車株式会社 | 車両用衝突時間推定装置及び車両用衝突時間推定方法 |
US7262710B2 (en) | 2004-09-22 | 2007-08-28 | Nissan Motor Co., Ltd. | Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles |
JP4039425B2 (ja) | 2004-12-20 | 2008-01-30 | 日産自動車株式会社 | 画像処理装置、および方法 |
KR100773393B1 (ko) * | 2005-08-20 | 2007-11-06 | 한국건설기술연구원 | 댐 시설물의 실시간 모니터링시스템 및 그 방법 |
JP4961850B2 (ja) | 2006-06-15 | 2012-06-27 | ソニー株式会社 | 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置 |
JP4756660B2 (ja) * | 2008-03-14 | 2011-08-24 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
JP2010135964A (ja) | 2008-12-03 | 2010-06-17 | Seiko Epson Corp | 画像読取装置のドライバおよび画像読取方法 |
JP6141601B2 (ja) | 2012-05-15 | 2017-06-07 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 車載カメラ自動キャリブレーション装置 |
JP5882153B2 (ja) * | 2012-07-17 | 2016-03-09 | 大成建設株式会社 | 三次元座標算出装置 |
JP5566516B2 (ja) * | 2013-09-13 | 2014-08-06 | 坂田電機株式会社 | 軌道変位測定装置 |
-
2018
- 2018-09-25 JP JP2018179121A patent/JP7143703B2/ja active Active
-
2019
- 2019-08-15 EP EP19191963.8A patent/EP3633617A3/en not_active Withdrawn
- 2019-09-10 US US16/565,711 patent/US10991105B2/en active Active
- 2019-09-20 CN CN201910891795.2A patent/CN110942470B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003051016A (ja) | 2001-05-11 | 2003-02-21 | Honda Motor Co Ltd | 接近検出装置、接近検出方法、及び接近検出プログラム |
JP2006338272A (ja) | 2005-06-01 | 2006-12-14 | Nissan Motor Co Ltd | 車両挙動検出装置、および車両挙動検出方法 |
JP2007104516A (ja) | 2005-10-07 | 2007-04-19 | Sony Corp | 画像処理装置、および、画像処理方法、プログラム、並びに、記録媒体 |
JP2007323615A (ja) | 2006-06-05 | 2007-12-13 | Topcon Corp | 画像処理装置及びその処理方法 |
US20170186169A1 (en) | 2015-12-29 | 2017-06-29 | Texas Instruments Incorporated | Stationary-vehicle structure from motion |
Non-Patent Citations (1)
Title |
---|
二宮芳樹 外1名,オプティカルフローによる移動物体の検知,電子情報通信学会技術研究報告,社団法人電子情報通信学会,1997年05月16日,第97巻,第41号,pp. 25-31 |
Also Published As
Publication number | Publication date |
---|---|
EP3633617A3 (en) | 2020-05-13 |
CN110942470A (zh) | 2020-03-31 |
CN110942470B (zh) | 2023-10-13 |
US10991105B2 (en) | 2021-04-27 |
EP3633617A2 (en) | 2020-04-08 |
US20200098115A1 (en) | 2020-03-26 |
JP2020052544A (ja) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143703B2 (ja) | 画像処理装置 | |
CN111862672B (zh) | 基于顶视图的停车场车辆自定位及地图构建方法 | |
Huang et al. | Visual odometry and mapping for autonomous flight using an RGB-D camera | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
US10762643B2 (en) | Method for evaluating image data of a vehicle camera | |
US9990726B2 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
US11187790B2 (en) | Laser scanning system, laser scanning method, movable laser scanning system, and program | |
JP4367475B2 (ja) | 移動物体認識装置、移動物体認識方法及びコンピュータプログラム | |
CN111882612A (zh) | 一种基于三维激光检测车道线的车辆多尺度定位方法 | |
CN111076733A (zh) | 一种基于视觉与激光slam的机器人室内建图方法及系统 | |
US11151729B2 (en) | Mobile entity position estimation device and position estimation method | |
CN110865650A (zh) | 基于主动视觉的无人机位姿自适应估计方法 | |
CN114217665A (zh) | 一种相机和激光雷达时间同步方法、装置及存储介质 | |
CN110223354A (zh) | 一种基于sfm三维重建的相机自标定方法 | |
JP2019056629A (ja) | 距離推定装置及び方法 | |
JP2020179441A (ja) | 制御システム、情報処理装置および制御方法 | |
JP7145770B2 (ja) | 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム | |
JP5267100B2 (ja) | 運動推定装置及びプログラム | |
CN116952229A (zh) | 无人机定位方法、装置、系统和存储介质 | |
CN116630421A (zh) | 一种基于单目视觉的卫星编队相对姿态估计方法及系统 | |
US20230082656A1 (en) | Method and apparatus for vehicle positioning | |
CN116109701A (zh) | 一种基于被动双目的高反光物体抓取方法 | |
CN111462321B (zh) | 点云地图处理方法、处理装置、电子装置和车辆 | |
JP2018116147A (ja) | 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム | |
KR102618951B1 (ko) | 시각적 매핑 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7143703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |