JP2022143412A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2022143412A
JP2022143412A JP2021043902A JP2021043902A JP2022143412A JP 2022143412 A JP2022143412 A JP 2022143412A JP 2021043902 A JP2021043902 A JP 2021043902A JP 2021043902 A JP2021043902 A JP 2021043902A JP 2022143412 A JP2022143412 A JP 2022143412A
Authority
JP
Japan
Prior art keywords
unit
image
image processing
feature point
search range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021043902A
Other languages
English (en)
Other versions
JP7528009B2 (ja
Inventor
俊貴 秋山
Toshitaka Akiyama
圭 滝沢
Kei Takizawa
伊央 小澤
Io Ozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2021043902A priority Critical patent/JP7528009B2/ja
Priority to US17/395,373 priority patent/US11921823B2/en
Publication of JP2022143412A publication Critical patent/JP2022143412A/ja
Application granted granted Critical
Publication of JP7528009B2 publication Critical patent/JP7528009B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像間のマッチングにおいて、誤った対応付けを防止する画像処理装置を提供する。【解決手段】画像処理装置は、取得部と、抽出部と、探索範囲設定部と、探索部と、マッチング部とを備える。取得部は、移動体に搭載されたカメラによって撮像された時系列の複数の画像を取得する。抽出部は、第1画像の特徴点を抽出する。探索範囲設定部は、第2画像における特徴点の対応箇所を探索する範囲である探索範囲を設定する。探索部は、第2画像における探索範囲から特徴点の対応箇所を探索する。マッチング部は、対応箇所同士の位置関係に基づいて対応箇所と特徴点との対応付けを行う。【選択図】図4

Description

本発明の実施形態は、画像処理装置および画像処理方法に関する。
複数の画像間をマッチングさせる技術がある。画像間をマッチングさせる場合、一の画像の点を他の画像の誤った点に対応付けてしまうことを防止することが望まれる。
特表2012-529691号公報
一つの実施形態は、画像間のマッチングにおいて、誤った対応付けを防止する画像処理装置を提供することを目的とする。
一つの実施形態によれば、画像処理装置は、取得部と、抽出部と、探索範囲設定部と、探索部と、マッチング部とを備える。取得部は、移動体に搭載されたカメラによって撮像された時系列の複数の画像を取得する。抽出部は、第1画像の特徴点を抽出する。探索範囲設定部は、第2画像における特徴点の対応箇所を探索する範囲である探索範囲を設定する。探索部は、第2画像における探索範囲から特徴点の対応箇所を探索する。マッチング部は、対応箇所同士の位置関係に基づいて対応箇所と特徴点との対応付けを行う。
図1は、本実施形態にかかる移動体の例を示す図である。 図2は、繰り返しパターンを含む画像の一例である。 図3は、繰り返しパターン上に特徴点が存在し、且つ探索範囲も繰り返しパターン上に存在する時のスコア分布の例である。 図4は、本実施形態にかかる移動体の機能構成の例を示す図である。 図5は、本実施形態にかかる3次元点群推定部の機能ブロック図である。 図6Aは、時刻tにおける画像上の特徴点の位置の例を示す図である。 図6Bは、時刻t+1における画像上の特徴点探索範囲の例を示す図である。 図7は、本実施形態にかかる特徴点マッチング部の機能ブロック図である。 図8は、画像処理方法の全体処理を示すフローチャートである。 図9は、特徴点と、対応座標との対応付け処理手順を示すフローチャートである。 図10Aは、時刻tにおける画像上の特徴点の位置の例を示す図である。 図10Bは、時刻t+1における画像上の特徴点探索範囲の他の例を示す図である。 図11は、類似する対応座標の配置例を示す図である。 図12は、本実施形態の画像処理装置のハードウェア構成の例を示す図である。
以下、添付図面を参照して実施形態の画像処理装置について説明する。
本実施形態の画像処理装置は、例えば移動体に搭載される。
[移動体の例]
図1は実施形態の移動体10の例を示す図である。
移動体10は、画像処理装置20、出力部10A、カメラ10B、センサ10C、動力制御部10G及び動力部10Hを備える。
移動体10は任意でよい。移動体10は、例えば車両、台車及び移動ロボット等である。車両は、例えば自動二輪車、自動四輪車及び自転車等である。また、移動体10は、例えば人による運転操作を介して走行する移動体でもよいし、人による運転操作を介さずに自動的に走行(自律走行)可能な移動体でもよい。
画像処理装置20は、例えば専用又は汎用のコンピュータハードウェアにより実現される。画像処理装置20は、移動体10に搭載されたカメラ10Bにより時系列に撮像された複数の画像に基づいて画像上の特徴点によるマッチング処理をする。マッチング処理とは、特定の画像で抽出された特徴点の座標の所定範囲と一致する部分を、次の画像における所定の探索範囲で探索して、当該特徴点と対応付けをするマッチング動作である。例えば、上記マッチング処理は、いわゆるブロックマッチング処理などである。なお、画像処理装置20は、クラウドシステム上のサーバ装置により実現するようにしてもよい。
ここで、図2に繰り返しパターンを含む画像の例を示す。図2は、繰り返しパターンを含む画像の一例である。図2に示す画像は、いわゆるゼブラゾーンZNを含む。当該ゼブラゾーンZNは、ほぼ平行の部分が3つ繰り返しており、この平行の部分が繰り返しパターンに対応する。図2に示すような、いわゆるゼブラゾーンZN上に特徴点がある場合、当該特徴点に類似する部分が所定距離毎にあるため誤った対応付けをしてしまう可能性がある。また、繰り返しパターンには、ガードレールのポール部分等も該当する。
ここで、図3に、繰り返しパターン上に特徴点が存在し、且つ探索範囲も繰り返しパターン上に存在する時のスコア分布の例を示す。ここでいうスコアとは、例えば特徴点の類似度合いを示すスコアである。図3に示す分布の横軸は、探索範囲上の位置を示す。また、図3に示す分布の縦軸は、上記スコアを示す。
画像中に繰り返しパターンがある場合、図3に示すように、類似度が高い座標が所定間隔で存在し、分布の峰が複数存在する。このことを、本実施形態では、多峰性があるという。
上記のようにスコア分布に多峰性がある場合、特徴点に類似している箇所が複数存在するので、単にスコアのみに基づいて対応付けすると、誤った対応付けをしてしまう可能性がある。例えば、本来特徴点に対応する点が点Xであったとしても、当該点Xよりもスコアがわずかに高い点である点Y1および点Y2があると、当該点Y1に対して対応付けをしてしまう。
画像処理装置20は、上述のような画像中の繰り返しパターンにより、特徴点に対して誤った対応付けをしてしまう可能性があると判断した場合、当該特徴点との対応付けを中止する。ここでいう中止とは、特徴点に対して対応する点が無いと判断することを示す。画像処理装置20が、特徴点に対応する点が無いと判断した場合、後述する3次元点群推定部23や障害物推定部24が実行する処理において、上記特徴点を使用しない。
図1に戻り、動力部10Hは、移動体10に搭載された駆動デバイスである。動力部10Hは、例えば、エンジン、モータ及び車輪等である。
動力制御部10Gは、動力部10Hを制御する。動力制御部10Gの制御によって動力部10Hが駆動する。
出力部10Aは情報を出力する。本実施形態では、出力部10Aは、画像処理装置20によりマッチングした結果を示す情報を出力する。
出力部10Aは、例えば、画像処理装置20による処理結果を送信する通信機能、画像処理装置20による処理結果を表示する表示機能、及び、画像処理装置20による処理結果を示す音を出力する音出力機能等を備える。出力部10Aは、例えば通信部10D、ディスプレイ10E及びスピーカ10Fの少なくとも1つを備える。なお、本実施形態では、出力部10Aは、通信部10D、ディスプレイ10E及びスピーカ10Fを備えた構成を例にして説明する。
通信部10Dは、画像処理装置20による処理結果を他の装置へ送信する。例えば、通信部10Dは、通信回線を介して、画像処理装置20による処理結果を他の装置へ送信する。ディスプレイ10Eは、画像処理装置20による処理結果を表示する。ディスプレイ10Eは、例えばLCD(Liquid Crystal Display)、投影装置及びライト等である。スピーカ10Fは、画像処理装置20による処理結果を示す音を出力する。
カメラ10Bは、例えば単眼カメラ、ステレオカメラ、魚眼カメラ及び赤外線カメラ等である。カメラ10Bの数は任意でよい。また、撮像される画像はRGBの3チャネルで構成されたカラー画像であってもよく、グレースケールで表現された1チャネルのモノクロ画像であってもよい。カメラ10Bは、移動体10周辺の時系列の画像を撮像する。カメラ10Bは、例えば移動体10の周辺を時系列に撮像することにより、時系列の画像を撮像する。移動体10の周辺は、例えば当該移動体10から予め定められた範囲内の領域である。この範囲は、例えばカメラ10Bの撮像可能な範囲である。
本実施形態では、カメラ10Bが、移動体10の前方を撮影方向として含むように設置されている場合を例にして説明する。すなわち、本実施形態では、カメラ10Bは、移動体10の前方を時系列に撮像する。
センサ10Cは、測定情報を測定するセンサである。測定情報は、例えば移動体10の速度、並びに、移動体10のハンドルの舵角を含む。センサ10Cは、例えば慣性計測装置(IMU:Inertial Measurement Unit)、速度センサ及び舵角センサ等である。IMUは、移動体10の三軸加速度及び三軸角速度を含む測定情報を測定する。速度センサは、タイヤの回転量から速度を測定する。舵角センサは、移動体10のハンドルの舵角を測定する。
次に、本実施形態の移動体10の機能構成の例について詳細に説明する。
[機能構成の例]
図4は本実施形態の移動体10の機能構成の例を示す図である。
移動体10は、画像処理装置20、出力部10A、カメラ10B、センサ10C、動力制御部10G及び動力部10Hを備える。画像処理装置20は、処理部20A及び記憶部20Bを備える。出力部10Aは、通信部10D、ディスプレイ10E及びスピーカ10Fを備える。
処理部20A、記憶部20B、出力部10A、カメラ10B、センサ10C及び動力制御部10Gは、バス10Iを介して接続されている。動力部10Hは、動力制御部10Gに接続されている。
なお、出力部10A(通信部10D、ディスプレイ10E及びスピーカ10F)、カメラ10B、センサ10C、動力制御部10G及び記憶部20Bは、ネットワークを介して接続されていてもよい。接続に使用されるネットワークの通信方式は、有線方式であっても無線方式であってもよい。また、接続に使用されるネットワークは、有線方式と無線方式とを組み合わせることにより実現されていてもよい。
記憶部20Bは情報を記憶する。記憶部20Bは、例えば半導体メモリ素子、ハードディスク及び光ディスク等である。半導体メモリ素子は、例えばRAM(Random Access Memory)及びフラッシュメモリ等である。なお、記憶部20Bは、画像処理装置20の外部に設けられた記憶装置であってもよい。また、記憶部20Bは、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部20Bを、複数の記憶媒体から構成してもよい。
処理部20Aは、画像取得部21、エゴモーション推定部22、3次元点群推定部23、障害物推定部24、及び、移動体制御部25を備える。画像取得部21、エゴモーション推定部22、3次元点群推定部23、障害物推定部24、及び、移動体制御部25は、例えば1又は複数のプロセッサにより実現される。
処理部20Aは、例えばCPU(Central Processing Unit)等のプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現されてもよい。また例えば、処理部20Aは、専用のIC(Integrated Circuit)等のプロセッサ、すなわちハードウェアにより実現されてもよい。また例えば、処理部20Aは、ソフトウェア及びハードウェアを併用することにより実現されてもよい。
なお、実施形態において用いられる「プロセッサ」の文言は、例えば、CPU、GPU(Graphical Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、及び、プログラマブル論理デバイスを含む。プログラマブル論理デバイスは、例えば単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及び、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA)等を含む。
プロセッサは、記憶部20Bに保存されたプログラムを読み出し実行することで、処理部20Aを実現する。なお、記憶部20Bにプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成してもよい。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで、処理部20Aを実現する。
画像取得部21は、カメラ10Bによって撮像された画像をカメラ10Bから取得する。画像取得部21は、取得部の一例である。
エゴモーション推定部22は、カメラ10Bによって撮像された時系列の画像を取得し、当該時系列の画像に基づいて、移動体の移動に基づいた情報であるエゴモーション情報を推定する。エゴモーション推定部22は、例えば、下記文献に記載の技術の手法により、当該時系列の画像に基づいてエゴモーション情報を推定する。R. Mur-Artal and J. D. Tardos, “ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras”, arXiv preprint arXiv:1610.06475, 2016.
エゴモーション推定部22は、例えば、時刻tの画像と時刻t+1の画像との間におけるエゴモーション情報を推定する。ここで、時刻t+1の画像とは、時刻tの次のタイミングに撮像された画像をいう。
3次元点群推定部23は、カメラ10Bによって撮像された時系列の画像及びエゴモーション情報を取得する。また、3次元点群推定部23は、時系列の画像及びエゴモーション情報に基づいて特徴点のマッチングをする。また、3次元点群推定部23は、時刻tの画像の特徴点座標、時刻t+1の画像の対応座標、及びエゴモーション情報に基づいて特徴点の3次元座標を推定する。
障害物推定部24は、3次元点群推定部23により推定された3次元点群と、エゴモーション推定部22により推定されたエゴモーション情報とに基づいて障害物を推定する。例えば、障害物推定部24は、3次元点群の空間的密度が高い3次元領域、時系列の画像のそれぞれに3次元点群が出力された3次元領域がある場合、これらの3次元領域には障害物が存在すると推定する。
移動体制御部25は、障害物推定部24による障害物の推定結果に基づいて移動体を制御する。例えば、移動体制御部25は、障害物の推定結果に基づいて、移動体10が障害物に近づいていると判断した場合、動力制御部10Gに停止動作を指示する制御信号を送出する。
続いて、図5を用いて、3次元点群推定部23の機能構成について説明する。図5は、3次元点群推定部23の機能ブロック図である。
3次元点群推定部23は、特徴点抽出部110、特徴点探索範囲設定部111、特徴点マッチング部112、及び特徴点3次元推定部113を備える。
特徴点抽出部110は、カメラ10Bによって撮像された時系列の画像から3次元推定を行うための特徴点を抽出する。特徴点抽出部110は、抽出部の一例である。特徴点抽出部110は、例えば、下記文献に記載の技術の手法により、時系列の画像から3次元推定を行うための特徴点を抽出する。J. Shi J. & C. Tomasi, “Good Features to Track”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94). pp.593 - 600, 1994.
特徴点探索範囲設定部111は、時刻tの画像の特徴点座標と、時刻tの画像・時刻t+1の画像間のエゴモーション情報とを取得し、時刻t+1の画像における特徴点探索ラインを決定する。特徴点探索範囲設定部111は、探索範囲設定部の一例である。特徴点探索範囲設定部111は、特徴点探索ラインとして、下記文献に記載のような時刻tの特徴点に対する時刻t+1のエピポーラ線を設定する。金谷, 菅谷, 金沢, “3次元コンピュータビジョン計算ハンドブック”, 森北出版, 2016.
ここで、図6を用いて、特徴点探索範囲の例について説明する。図6は、時刻tにおける画像上の特徴点の位置および時刻t+1の画像上の特徴点探索範囲の例を示す図である。図6Aに示すように時刻tの画像における特徴点を特徴点P1とした場合、特徴点探索範囲設定部111は、時刻t・時刻t+1間のエゴモーション情報と、特徴点P1とに基づいて、図6Bに示すような特徴点の探索ラインL1を決定する。
図5に戻り、特徴点マッチング部112は、特徴点と、特徴点の対応座標とのマッチング処理を行う。特徴点マッチング部112によるマッチング処理については、後述する。
特徴点3次元推定部113は、時刻tの画像の特徴点座標、時刻t+1の画像の対応座標、及びエゴモーション情報に基づいて特徴点の3次元座標を推定する。時刻tの画像の特徴点座標、時刻t+1の画像の対応座標、及びエゴモーション情報に基づいて特徴点の3次元座標を推定する方法は、公知技術を適用することができる。
続いて、図7を用いて、特徴点マッチング部112の機能構成について説明する。図7は、特徴点マッチング部112の機能ブロック図である。
特徴点マッチング部112は、探索範囲分割処理部121、特徴点対応付け処理部122、及び対応座標判定処理部123を備える。
探索範囲分割処理部121は、特徴点探索範囲設定部111により決定された特徴点探索ラインを複数の領域に分割する。
特徴点対応付け処理部122は、時刻tの画像、時刻tの特徴点座標、時刻t+1の画像、及び時刻t+1の画像における特徴点探索ラインに基づいて、特徴点探索ラインの分割範囲毎に特徴点の対応付け処理を実行し、特徴点との類似度を示すスコアが高い対応座標を抽出する。特徴点対応付け処理部122は、探索部の一例である。特徴点対応付け処理部122は、特徴点との類似度を示すスコアが予め定められている閾値である閾値A以上である対応座標を抽出する。なお、特徴点対応付け処理部122は、特徴点探索ライン全体における、スコアが上位の対応座標を抽出するようにしてもよい。上記スコアを算出する方法は、公知技術を適用することができる。
対応座標判定処理部123は、特徴点と、特徴点対応付け処理部122が抽出した対応座標とを対応付けするか否かを判定する。対応座標判定処理部123は、マッチング部の一例である。対応座標判定処理部123は、特徴点の対応座標が複数抽出されている場合、対応座標のペアを選択し、それぞれの対応座標のスコアの差分や比と、それぞれの画像位置の距離とに基づいて、多峰性の有無を判定し、多峰性があると判定した場合、特徴点と対応座標とをマッチングさせることを中止する。また、対応座標判定処理部123は、多峰性が無いと判定した場合、最も高いスコアの対応座標を特徴点とマッチングさせる。
続いて、図8および図9を用いて、画像処理装置20による画像処理方法を説明する。図8は、画像処理方法の全体処理を示すフローチャートである。
まず、画像取得部21は、少なくとも1つ以上のカメラ10Bによって時系列の画像を取得する(ステップS1)。続いて、エゴモーション推定部22は、カメラ10Bによって撮像された時系列の画像を取得し、当該時系列の画像からエゴモーション情報を推定する(ステップS2)。
続いて、3次元点群推定部23の特徴点抽出部110は、カメラ10Bによって撮像された時系列の画像から3次元推定を行うための特徴点を抽出する(ステップS3)。
続いて、3次元点群推定部23の特徴点探索範囲設定部111は、時刻tの画像における特徴点座標と、時刻t・時刻t+1間のエゴモーション情報とを取得し、時刻t+1の画像における特徴点探索ラインを決定する(ステップS4)。
続いて、特徴点マッチング部112の探索範囲分割処理部121は、特徴点探索範囲設定部111が決定した特徴点探索ラインを分割する。そして、特徴点対応付け処理部122は、特徴点探索ラインの分割範囲毎に特徴点の対応付け処理を実行し、特徴点との類似度を示すスコアが高い対応座標を抽出する(ステップS5)。
続いて、特徴点マッチング部112の対応座標判定処理部123は、特徴点と、対応座標との対応付けをする(ステップS6)。
続いて、図8のステップS6の処理の詳細について、図9に示すフローチャートを用いて説明する。図9は、特徴点と、対応座標との対応付け処理手順を示すフローチャートである。
まず、対応座標判定処理部123は、抽出結果として、特徴点対応付け処理部122から対応座標およびスコアを取得する(ステップS11)。
続いて、対応座標判定処理部123は、抽出結果の対応座標が1点以上無い場合(ステップS12:No)、マッチングさせる対応座標が無いので、マッチング失敗と判定し(ステップS21)、処理を終了する。
対応座標判定処理部123は、抽出結果の対応座標が1点以上ある場合(ステップS12:Yes)、抽出結果の対応座標が2点以上あるか否かを判断した結果、2点以上無いとき(ステップS13:No)、対応座標が1点のみであり、多峰性が無いと判定し(ステップS18)、マッチング成功と判定し(ステップS19)、処理を終了する。
また、対応座標判定処理部123は、ステップS13において、抽出結果の対応座標が2点以上あると判断した場合(ステップS13:Yes)、対応座標のペアを生成し、当該対応座標のペアのスコアの差分が、予め定められている閾値C以下であるか否かを判断する(ステップS15)。ここでいう対応座標のペアのスコアの差分が、予め定められている閾値C以下であるか否かの判断とは、対応座標のペアのスコアが近い値であるか否かを判断することをいう。例えば、対応座標のペアのスコアの差分が、閾値C以下であるか否かを判断する。対応座標判定処理部123は、対応座標のペアのスコアの差分が閾値C以下ではない場合(ステップS15:No)、ステップS17へ進み、全ての対応座標のペアのループ処理を実行したか否かを判断し、全ての対応座標のペアのループ処理を実行していない場合、ステップS14へ進む。
ステップS15において、スコアの差分が閾値C以下である場合(ステップS15:Yes)、対応座標判定処理部123は、対応座標の画像上における距離を比較し、座標の画像上における距離が、予め定められている閾値B未満である場合(ステップS16:No)、ステップS17へ進み、全ての対応座標のペアのループ処理を実行したか否かを判断し、全ての対応座標のペアのループ処理を実行していない場合、ステップS14へ進む。
ステップS16において、対応座標判定処理部123は、対応座標の画像上における距離を比較し、座標の画像上における距離が閾値以上である場合(ステップS16:Yes)、多峰性ありと判定し(ステップS20)、誤ったマッチングをする可能性があるので、マッチング失敗と判定し(ステップS21)、処理を終了する。
ステップS17において、全ての対応座標のペアのループ処理を実行したか否かを判断し、全ての対応座標のペアのループ処理を実行した場合、対応座標判定処理部123は、閾値以上の距離が離れて、スコアの値が近い対応座標が複数存在しなかったことになるので、多峰性なしと判定する(ステップS18)。そして、対応座標判定処理部123は、最もスコアの高い対応座標を特徴点にマッチングさせて(ステップS19)、処理を終了する。
なお、上述の実施形態では、特徴点探索範囲設定部111が、特徴点探索ラインを決定する場合について述べたが、線状の探索範囲に限らず、所定領域を特徴点探索範囲にするようにしてもよい。
ここで、図10に特徴点探索範囲の他の例を示す。図10Aに示すような、時刻tの画像の特徴点P1がある場合、特徴点探索範囲設定部111は、時刻tの特徴点座標と、時刻t・時刻t+1間のエゴモーション情報とを取得し、図10Bに示すような時刻t+1における探索範囲AR1を設定する。
続いて、図11を用いて、画像処理装置20の処理を説明する。図11は、類似する対応座標の配置例を示す図である。図11に示す分布の横軸は、探索範囲上の位置を示す。また、図11に示す分布の縦軸は、スコアを示す。図11に示すように、画像処理装置20は、分割範囲を複数設定しておき、それぞれの分割範囲から、類似度のスコアが、閾値Aを超えるスコアの座標を抽出する。画像処理装置20は、対応座標のペア(点Xおよび点Y)のスコアの差分を判断し、当該差分と閾値Cとを比較する。画像処理装置20は、上記差分が閾値Cより少ない場合、点Xと点Yとの距離と、閾値Bとを比較し、点Xと点Yとの距離が、閾値Bより大きい場合、特徴点を対応座標と対応付けることを中止する。
対応座標のペアのスコアの差分が小さいということは、互いに類似した対応座標が複数存在することを示す。また、当該類似した対応座標同士の距離が、一定以上あるということは、特徴点が繰り返しパターン上など、類似した箇所が点在するところにあることを意味する。よって、類似する対応座標が点在する場合、単にスコアに基づいてマッチングすると、誤ったマッチング処理をしてしまう可能性がある。そこで、画像処理装置20は、類似した対応座標同士の距離が、一定以上ある場合にマッチングを中止することで、誤ったマッチング処理をしてしまうことを回避することができる。
なお、対応座標のペアのスコアの差分を算出する代わりに、対応座標判定処理部123が、対応座標のペアのスコアの比率を算出し、当該比率に基づいて対応座標のペアが互いに類似するか否かを判断するようにしてもよい。
また、特徴点探索範囲設定部111は、移動体10の移動に基づいて探索範囲を設定する場合について述べたが、時刻tの画像から抽出した標識等の目標物に基づいて、時刻t+1の画像の探索範囲を設定するようにしてもよい。
上述の実施形態によれば、画像処理装置20の画像取得部21は、移動体10に搭載されたカメラ10Bによって撮像された複数の画像を取得する。特徴点抽出部110は、時刻tに対応する画像の特徴点を抽出する。特徴点探索範囲設定部111は、時刻t+1に対応する画像における特徴点の対応箇所を探索する範囲である探索範囲を、エゴモーション情報に基づいて設定する。特徴点マッチング部112の特徴点対応付け処理部122は、時刻t+1に対応する画像の探索範囲から対応箇所を探索する。対応座標判定処理部123は、対応箇所が複数ある場合、対応箇所の位置関係に基づいて対応箇所と特徴点との対応付けをする。
画像処理装置20は、上述のような繰り返しパターン上の特徴点から対応箇所を探索した場合、互いに距離がある複数の対応箇所があると、マッチング処理を誤る可能性がある。画像処理装置20は、複数の対応箇所の距離が離れていない場合に、対応付けをすることで、適切に対応付けをすることができる。すなわち、画像処理装置20は、画像間のマッチングにおいて、誤った対応付けを防止することができる。
また、画像処理装置20の特徴点対応付け処理部122は、探索範囲を分割した分割範囲毎に、対応箇所を探索する。
このように、画像処理装置20は、分割範囲毎に対応箇所を探索することで、上述のような繰り返しパターン上に特徴点がある場合に、離れた分割範囲のそれぞれに対応箇所があることを特定することで、マッチング処理を誤る可能性がある状況を特定することができる。
また、対応座標判定処理部123は、対応箇所が複数ある場合、対応箇所同士の距離に基づいて対応箇所と特徴点との対応付けを中止する。このように、画像処理装置20は、対応箇所の距離が離れているような、マッチング処理を誤る可能性が高い場合に、マッチング処理を中止することで、マッチング処理を誤ってしまうことを回避することができる。
対応座標判定処理部123は、対応箇所同士の類似度にさらに基づいて特徴点との対応付けを行うことで、類似度が近い対応箇所が、離れて存在するようなマッチング処理を誤る可能性のある場合を特定することができ、適切に対応付けをすることができる。
なお、上述の実施形態では、障害物検知をする装置に画像処理装置20を適用する場合について述べたが、これに限られず、物体を検知する装置に画像処理装置20を適用するようにしてもよい。
また、画像処理装置20を搭載する移動体は、車両以外の装置でもよく、いわゆるドローン、ロボットに適用するようにしてもよい。
なお、画像処理装置20は、探索範囲を分割する場合について述べたが、探索範囲を分割しなくてもよい。
なお、画像処理装置20は、複数の対応座標が存在する場合、複数の対応座標のスコアを比較する値について閾値と比較する場合について述べたが、当該複数の対応座標のスコアを比較する値を算出しなくてもよい。
また、画像処理装置20は、複数の対応座標が存在する場合、複数の対応座標の距離を算出して、特徴点と対応座標とを対応付けるか否かを判断する例について述べたが、複数の対応座標が属する分割範囲が相違するか否かに基づいて特徴点と対応座標とを対応付けるか否かを判断するようにしてもよい。すなわち、複数の対応座標について、距離以外の位置関係に関する情報に基づいて特徴点と対応座標とを対応付けるか否かを判断するようにしてもよい。
最後に、本実施形態の画像処理装置20のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図12は本実施形態の画像処理装置20のハードウェア構成の例を示す図である。画像処理装置20は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
なお、表示装置304、入力装置305及び通信装置306は備えていなくてもよい。例えば、画像処理装置20が他の装置と接続される場合、当該他の装置の表示機能、入力機能及び通信機能を利用してもよい。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。制御装置301は、例えばCPU等の1以上のプロセッサである。主記憶装置302はROM(Read Only Memory)、及び、RAM等のメモリである。補助記憶装置303はメモリカード、及び、HDD(Hard Disk Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばハードウェアキー等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。
画像処理装置20で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R、及び、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また画像処理装置20で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また画像処理装置20が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また画像処理装置20で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
画像処理装置20で実行されるプログラムは、画像処理装置20の機能のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なお画像処理装置20の機能の一部を、IC等のハードウェアにより実現してもよい。ICは、例えば専用の処理を実行するプロセッサである。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 移動体、20 画像処理装置、21 画像取得部、22 エゴモーション推定部、23 3次元点群推定部、24 障害物推定部、25 移動体制御部、110 特徴点抽出部、111 特徴点探索範囲設定部、112 特徴点マッチング部、113 特徴点3次元推定部、301 制御装置、302 主記憶装置、303 補助記憶装置、304 表示装置、305 入力装置、306 通信装置。

Claims (8)

  1. 移動体に搭載されたカメラによって撮像された時系列の複数の画像を取得する取得部と、
    前記取得部により取得された第1画像の特徴点を抽出する抽出部と、
    前記取得部により取得された第2画像における前記特徴点の対応箇所を探索する範囲である探索範囲を設定する探索範囲設定部と、
    前記第2画像における探索範囲から前記特徴点の対応箇所を探索する探索部と、
    前記探索部により探索された対応箇所が複数ある場合、対応箇所同士の位置関係に基づいて対応箇所と前記特徴点との対応付けを行うマッチング部と、
    を備える画像処理装置。
  2. 前記探索部は、前記探索範囲を分割した分割範囲毎に、前記特徴点の対応箇所を探索する、請求項1に記載の画像処理装置。
  3. 前記マッチング部は、前記位置関係として、対応箇所同士の距離に基づいて前記対応箇所と前記特徴点との対応付けを中止する、請求項1に記載の画像処理装置。
  4. 前記マッチング部は、対応箇所同士の類似度にさらに基づいて前記対応箇所と前記特徴点との対応付けを行う、請求項1に記載の画像処理装置。
  5. 前記マッチング部は、前記対応箇所同士の類似度の比率にさらに基づいて前記対応箇所と前記特徴点との対応付けを行う、請求項4に記載の画像処理装置。
  6. 前記探索範囲設定部は、前記移動体の移動に基づいて設定する、請求項1に記載の画像処理装置。
  7. 前記探索範囲に繰り返しパターンを含む、請求項1に記載の画像処理装置。
  8. 移動体に搭載されたカメラによって撮像された時系列の複数の画像を取得する取得ステップと、
    前記取得ステップで取得した第1画像の特徴点を抽出する抽出ステップと、
    前記取得ステップで取得した第2画像における前記特徴点の対応箇所を探索する範囲である探索範囲を設定する探索範囲設定ステップと、
    前記第2画像における探索範囲から前記特徴点の対応箇所を探索する探索ステップと、
    前記探索ステップで探索した対応箇所が複数ある場合、対応箇所同士の位置関係に基づいて対応箇所と前記特徴点との対応付けを行うマッチングステップと、
    を含む画像処理方法。
JP2021043902A 2021-03-17 2021-03-17 画像処理装置および画像処理方法 Active JP7528009B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021043902A JP7528009B2 (ja) 2021-03-17 2021-03-17 画像処理装置および画像処理方法
US17/395,373 US11921823B2 (en) 2021-03-17 2021-08-05 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021043902A JP7528009B2 (ja) 2021-03-17 2021-03-17 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2022143412A true JP2022143412A (ja) 2022-10-03
JP7528009B2 JP7528009B2 (ja) 2024-08-05

Family

ID=83283660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021043902A Active JP7528009B2 (ja) 2021-03-17 2021-03-17 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US11921823B2 (ja)
JP (1) JP7528009B2 (ja)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4377474B2 (ja) 1999-03-31 2009-12-02 株式会社東芝 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP3759429B2 (ja) * 2001-05-23 2006-03-22 株式会社東芝 障害物検出装置及びその方法
JP2008242839A (ja) 2007-03-27 2008-10-09 Toshiba Corp 画像処理装置及びその方法
JP2009041972A (ja) * 2007-08-07 2009-02-26 Toshiba Corp 画像処理装置及びその方法
JP4702569B2 (ja) 2008-09-30 2011-06-15 マツダ株式会社 車両用画像処理装置
JP5487298B2 (ja) 2009-06-11 2014-05-07 株式会社東芝 3次元画像生成
JP5414588B2 (ja) * 2010-03-24 2014-02-12 株式会社東芝 車両運転支援用処理装置及び車両運転支援装置
CN103988241A (zh) * 2012-11-13 2014-08-13 株式会社东芝 检测装置、方法以及程序
JP2015184929A (ja) * 2014-03-24 2015-10-22 株式会社東芝 立体物検出装置、立体物検出方法、および立体物検出プログラム
JP6486069B2 (ja) * 2014-10-31 2019-03-20 株式会社東芝 画像処理装置、検査装置、検査方法及び画像処理プログラム
EP3848509A1 (en) * 2015-07-21 2021-07-14 Kabushiki Kaisha Toshiba Crack analysis device, crack analysis method, and crack analysis program
JP6526589B2 (ja) 2016-03-14 2019-06-05 株式会社東芝 画像処理デバイス及び画像処理プログラム
JP6997369B2 (ja) * 2017-02-28 2022-02-04 富士通株式会社 プログラム、測距方法、及び測距装置
JP7117872B2 (ja) 2018-03-28 2022-08-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN108615247B (zh) * 2018-04-27 2021-09-14 深圳市腾讯计算机系统有限公司 相机姿态追踪过程的重定位方法、装置、设备及存储介质
JP6836561B2 (ja) * 2018-09-20 2021-03-03 ファナック株式会社 画像処理装置及び画像処理方法
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object
US10896348B2 (en) * 2019-01-29 2021-01-19 Intel Corporation End to end framework for geometry-aware multi-scale keypoint detection and matching in fisheye images
CN111649724B (zh) * 2020-06-04 2022-09-06 百度在线网络技术(北京)有限公司 基于移动边缘计算的视觉定位方法和装置

Also Published As

Publication number Publication date
US11921823B2 (en) 2024-03-05
JP7528009B2 (ja) 2024-08-05
US20220300751A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
CN107735797B (zh) 用于确定第一坐标系与第二坐标系之间的运动的方法
EP2757527B1 (en) System and method for distorted camera image correction
KR20200060194A (ko) 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치
US20210237774A1 (en) Self-supervised 3d keypoint learning for monocular visual odometry
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
CN111213153A (zh) 目标物体运动状态检测方法、设备及存储介质
JP2020086545A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
de Paula Veronese et al. An accurate and computational efficient system for detecting and classifying ego and sides lanes using LiDAR
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP6635621B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
US10916018B2 (en) Camera motion estimation device, camera motion estimation method, and computer program product
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
US10789489B2 (en) Vehicle exterior environment recognition apparatus
JP2022143412A (ja) 画像処理装置および画像処理方法
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
KR20160063039A (ko) 3차원 데이터를 이용한 도로 인식 방법
US20220245387A1 (en) End-to-end monocular 2d semantic keypoint detector and tracker learning
TWI604979B (zh) 車距偵測方法
Unger et al. Efficient stereo matching for moving cameras and decalibrated rigs
WO2024148551A1 (en) Apparatus and methods for tracking features within images
JP6488697B2 (ja) オプティカルフロー算出装置、オプティカルフロー算出方法、及びプログラム
US20210082140A1 (en) Estimation device, estimation method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240724

R150 Certificate of patent or registration of utility model

Ref document number: 7528009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150