JP2015032211A - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP2015032211A
JP2015032211A JP2013162552A JP2013162552A JP2015032211A JP 2015032211 A JP2015032211 A JP 2015032211A JP 2013162552 A JP2013162552 A JP 2013162552A JP 2013162552 A JP2013162552 A JP 2013162552A JP 2015032211 A JP2015032211 A JP 2015032211A
Authority
JP
Japan
Prior art keywords
feature data
region
regions
image processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2013162552A
Other languages
English (en)
Inventor
英貴 大平
Hideki Ohira
英貴 大平
佑典 田副
Yusuke Tazoe
佑典 田副
関根 真弘
Masahiro Sekine
真弘 関根
正志 西山
Masashi Nishiyama
正志 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013162552A priority Critical patent/JP2015032211A/ja
Priority to US14/451,526 priority patent/US9384415B2/en
Publication of JP2015032211A publication Critical patent/JP2015032211A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】照明の変動などに対しても頑健な高精度の認識を可能とする。
【解決手段】画像処理装置は、取得部と、設定部と、第1算出部と、第2算出部と、第3算出部と、を備える。取得部は、画像を取得する。設定部は、2以上の画素を含む複数の第1領域と、2以上の画素を含み、少なくとも1つが第1領域に対して位置または大きさが異なる複数の第2領域と、を画像上に設定する。第1算出部は、複数の第1領域の画像の特徴を表す第1特徴データを算出する。第2算出部は、複数の第2領域間の輝度勾配である第2特徴データを算出する。第3算出部は、第1特徴データと第2特徴データとの相対関係を表す相対特徴データを算出する。
【選択図】図1

Description

本発明の実施形態は、画像処理装置、方法およびプログラムに関する。
画像認識技術を用いて拡張現実感を実現する手法として、マーカを利用する手法が知られている。しかし、無機質なマーカはデザインを損ねるという問題がある。この問題を解消するため、対象物体の状態の変化(対象物体が回転したり距離が変わったりすること)に頑健な局所特徴量を用いてマーカを用いずに対象物体を特定する手法が知られている。
特表2010−541053号公報
しかしながら、従来技術では、照明などの影響により対象物体に影や光沢が生じた場合、認識精度が大きく低下するという問題があった。
実施形態の画像処理装置は、取得部と、設定部と、第1算出部と、第2算出部と、第3算出部と、を備える。取得部は、画像を取得する。設定部は、2以上の画素を含む複数の第1領域と、2以上の画素を含み、少なくとも1つが第1領域に対して位置または大きさが異なる複数の第2領域と、を画像上に設定する。第1算出部は、複数の第1領域の画像の特徴を表す第1特徴データを算出する。第2算出部は、複数の第2領域間の輝度勾配である第2特徴データを算出する。第3算出部は、第1特徴データと第2特徴データとの相対関係を表す相対特徴データを算出する。
本実施形態の物体検出装置のブロック図。 本実施形態における物体検出処理のフローチャート。 領域の形状および配置の一例を説明するための図。 領域の形状および配置の一例を説明するための図。 領域の形状および配置の一例を説明するための図。 領域の形状および配置の一例を説明するための図。 領域の形状および配置の一例を説明するための図。 領域の形状および配置の一例を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 第1領域および第2領域の位置および大きさの関係を説明するための図。 2つの特徴データの差を特徴データとする例を説明する図。 2つの特徴データの差の比を特徴データとする例を説明する図。 本実施形態にかかる画像処理装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる画像処理装置の好適な実施形態を詳細に説明する。
照明などの影響による認識精度低下の問題に対し、特徴量算出の要素である輝度勾配を強調することで高い認識精度を実現する技術が提案されている。しかし、この技術は、対象物体の形状や性質がある程度既知であることを利用するため、対象物体の形状等が未知の場合、適用できない。この他、前処理としてフィルタを用いて輝度値を正規化した後に、輝度勾配を算出する方法も考えられる。しかし、この方法では計算量が過大となるため、計算性能の低い携帯端末などに適用することが困難となる。
本実施形態にかかる画像処理装置は、位置または大きさが異なる複数の領域から算出した複数の特徴データ(輝度勾配など)の相対関係を用いて照明の影響を除去する。例えば照明が2つの輝度勾配に対して同等の影響を与えている場合、2つの輝度勾配の差や比を用いることにより、照明の影響がない特徴データを算出できる。影や光沢などの照明の影響を受けない特徴データが算出可能になるため、照明変動に頑健な画像認識(物体認識)が可能となる。なお、特徴データは、画像の特徴を表すデータである。特徴データは、スカラー(特徴量)であっても、ベクトル(特徴ベクトル)であってもよい。
以下では、画像認識により画像から物体を検出する物体検出装置として画像処理装置を実現した例を説明する。適用可能な装置は物体検出装置に限られるものではない。例えば、物体を検出する機能を備えず、物体検出等に用いられる特徴データの抽出までを行う装置として画像処理装置を実現してもよい。
図1は、本実施形態の物体検出装置100の機能構成例を示すブロック図である。物体検出装置100は、記憶部121と、表示部131と、取得部101と、設定部102と、第1算出部103と、第2算出部104と、第3算出部105と、検出部106と、を備えている。
記憶部121は、各種処理で参照される情報を記憶する。例えば、記憶部121は、予め定められた登録物体を特定する情報と、登録物体の画像から求められた特徴データとを対応づけて記憶する。後述する検出部106は、記憶部121に記憶された特徴データと、撮像された画像から求められた対象物の特徴データとを照合することにより、対象物に適合する登録物体を検出する。なお、記憶部121は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
表示部131は、各種情報を表示するものであり、例えば液晶ディスプレイやタッチパネル式ディスプレイなどの表示装置により実現できる。
取得部101は、対象物が撮像された画像を取得する。取得部101は、例えば、物体検出装置100に撮像部(カメラ)が搭載されている場合は、カメラにより撮像された画像を取得するように構成できる。取得部101が、物体検出装置100の外部装置から画像を取得するように構成してもよい。
設定部102は、取得された画像上に領域を設定する。例えば、設定部102は、複数の第1領域と、第1領域に対して位置または大きさが異なる複数の第2領域とを、取得された画像上に設定する。第1領域および第2領域は、2以上の画素を含む領域である。複数の第2領域のうち少なくとも1つの領域が、複数の第1領域のうち少なくとも1つの領域に対して、位置または大きさが異なっていればよい。第1領域および第2領域の配置例については後述する。
第1算出部103は、複数の第1領域の画像の特徴を表す特徴データ(第1特徴データ)を算出する。第2算出部104は、複数の第2領域の画像の特徴を表す特徴データ(第2特徴データ)を算出する。第1特徴データおよび第2特徴データの少なくとも一方は、領域間の輝度勾配を表す。以下では、主に第2特徴データが輝度勾配を表すものとして説明する。第1特徴データが輝度勾配を表し、第2特徴データが輝度勾配以外の特徴を表す場合は、第1特徴データと第2特徴データとを入れ替えて以下の手法を適用すればよい。
領域間の輝度勾配は、例えば以下のような方法で算出できる。
・各領域の輝度平均の重み付和
・各領域の輝度平均を重み付きで乗算した値
・各領域の輝度合計の重み付和
・各領域の輝度合計を重み付きで乗算した値
輝度勾配の具体例についてさらに説明する。輝度勾配は、複数の領域のうち少なくとも2つの領域の間の輝度差を表すデータであればどのような方法で算出してもよい。例えば輝度勾配の方向は、以下の(1)式〜(3)式により算出される。また、以下の(4)式により輝度勾配の強度が算出される。
Figure 2015032211
Figure 2015032211
Figure 2015032211
Figure 2015032211
輝度値L(i)(i=1,2,・・・,n)は、座標xのサンプリング点に対応するn個の領域の輝度値である。V(x)およびH(x)は、それぞれ垂直方向および水平方向の輝度勾配の方向である。aはi番目の領域の重みである。U(x)は垂直方向の輝度勾配を算出するときに使用する領域の集合である。U(x)は水平方向の輝度勾配を算出するときに使用する領域の集合である。U(x)とU(x)とは一致していてもよい。θ(x)は、サンプリング点xにおける輝度勾配の方向である。m(x)は、サンプリング点xにおける輝度勾配の強度である。
領域の輝度値とは、領域内の画素の輝度値の重み付和や、領域内の画素の輝度値の重み付き平均のことをいう。輝度値の重みは一定でもよいし、ガウシアンフィルタなどを使って決めてもよいし、任意の値に設定してもよい。領域が矩形の場合、輝度平均はIntegral Imageを用いると高速に算出できる。
輝度勾配を算出するためには、少なくとも2つの領域が設定されればよい。例えば、垂直方向の輝度勾配を算出するためには垂直方向に並ぶ2つの領域が設定されればよい。水平方向の輝度勾配を算出するためには水平方向に並ぶ2つの領域が設定されればよい。
輝度勾配以外の特徴データは、例えば以下のような方法で算出できる。
・各領域の輝度平均の総和
・各領域の輝度平均を乗算した値
・各領域の輝度合計の総和
・各領域の輝度合計を乗算した値
第3算出部105は、第1特徴データと第2特徴データとの相対関係を表す相対特徴データを算出する。例えば、第3算出部105は、第1特徴データと第2特徴データとの差である相対特徴データ、または、第1特徴データと第2特徴データとの比である相対特徴データを算出する。
第1特徴データおよび第2特徴データが共に輝度勾配の場合、両者の差をとることにより、影や光沢の輝度勾配方向に対する影響を相殺した相対特徴データを得ることができる。
第1特徴データおよび第2特徴データの比を相対特徴データとする場合は、影や光沢の輝度勾配強度(コントラスト)に対する影響を抑制することができる。この場合は、第1特徴データおよび第2特徴データの一方が輝度勾配以外の特徴データであってもよい。
第3算出部105は、第1特徴データと第2特徴データとの差および比を組み合わせて相対特徴データを算出してもよい。これにより、輝度勾配方向および輝度勾配強度の両方に対する影や光沢の影響を抑制した相対特徴データを算出できる。例えば、第3算出部105が、第1特徴データと第2特徴データとの差、および、第3特徴データと第2特徴データとの差、の比である相対特徴データを算出してもよい。
第3特徴データとは、複数の第3領域の画像の特徴を表すデータである。第3領域は、第1領域および第2領域に対して位置または大きさが異なる領域であり、例えば設定部102により設定される。この場合、例えば第2算出部104(第1算出部103でもよい)が、第3領域の画像の特徴を表す第3特徴データを算出するように構成すればよい。
検出部106は、算出された相対特徴データと、記憶部121に記憶された登録物体の特徴データとを比較し、算出された相対特徴データと類似または一致する特徴データを有する登録物体を、対象物に対応する登録物体として特定(検出)する。登録物体の特徴データは、第3算出部105と同様の手法により事前に算出される。検出部106は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、および、正規化相互相関などによって、特徴データ間の類似度を算出してもよい。また、検出部106が、SVM(Support Vector Machine)などの識別器によって対象物に対応する登録物体を検出するように構成してもよい。
取得部101、設定部102、第1算出部103、第2算出部104、第3算出部105、および、検出部106は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、すなわち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェアおよびハードウェアを併用して実現してもよい。
次に、このように構成された本実施形態にかかる物体検出装置100による物体検出処理について図2を用いて説明する。図2は、本実施形態における物体検出処理の一例を示すフローチャートである。
取得部101は、例えばカメラで撮像された画像を取得する(ステップS101)。設定部102は、取得された画像内に第1領域を設定する(ステップS102)。設定部102は、取得された画像内に第2領域を設定する(ステップS103)。3つの領域の特徴データを用いる場合は、設定部102が、さらに画像内に第3領域を設定してもよい。
第1算出部103は、第1領域から第1特徴データを算出する(ステップS104)。第2算出部104は、第2領域から第2特徴データを算出する(ステップS105)。第3算出部105は、第1特徴データと第2特徴データとから、相対特徴データを算出する(ステップS106)。
検出部106は、算出された相対特徴データと、記憶部121に記憶された登録物体の特徴データとを比較する(ステップS107)。検出部106は、対応する登録物体、すなわち、特徴データが類似または一致する登録物体が検出されたか否かを判断する(ステップS108)。検出された場合(ステップS108:Yes)、検出部106は、物体が検出されたことを出力し(ステップS109)、物体検出処理を終了する。対応する登録物体が検出されなかった場合(ステップS108:No)、検出部106は物体検出処理を終了する。
物体が検出されたことは、通信部(図示せず)などを介して外部装置に出力してもよいし、表示部131に出力(表示)してもよい。検出部106が、検出結果に応じたコンテンツを表示部131に表示してもよい。例えば、検出部106が、検出結果に応じた映像を表示部131にストリーミング配信したり、検出結果に応じたホームページを表示部131に表示したりしてもよい。これにより、ユーザに特定結果をフィードバックすることができる。映像の配信や、ホームページの表示に時間がかかる場合は、物体を認識(検出)したことを示すアニメーションを表示部131に表示してもよい。これにより、物体を認識したか否かをユーザに素早くフィードバックすることができる。
次に、特徴データを算出する領域(第1領域、第2領域など)の形状および配置の例について説明する。図3〜図8は、領域の形状および配置の一例を説明するための図である。
図3は、複数の領域それぞれを矩形とし、基準となる点(サンプリング点など)を中心とする円の円周上に各領域が配置される例を示す。なお、各領域の形状は任意であり、矩形(正方形、長方形)のほか、多角形(八角形など)および円形(楕円形を含む)などでもよい。
図4は、基準となる点を中心とする矩形の外周上に各領域が配置される例を示す。図5は、基準となる点を中心とするひし形の外周上に各領域が配置される例を示す。図6は、基準となる点を通る直線上に各領域が配置される例を示す。図7は、各領域が隣り合うように配置される例を示す。
図8は、各領域の一部が重なり合うように配置する例を示す。図8は、図5のように各領域がひし形の外周上に配置され、かつ、重なり合うように配置される例である。図3、図4および図6などの例に従い各領域が配置され、かつ、各領域が重なり合うように配置されてもよい。
次に、第1領域および第2領域(または第3領域)の位置および大きさの関係の例について説明する。図9〜図18は、第1領域および第2領域の位置および大きさの関係の一例を説明するための図である。各図では、斜線なしの領域が第1領域を表し、斜線ありの領域が第2領域を表す。逆に、斜線ありの領域が第1領域を表し、斜線なしの領域が第2領域を表すように構成してもよい。
図9は、第1領域および第2領域が、同一の円の円周上に配置される例を示す。図9では、第2領域に含まれる矩形の各領域の大きさが、第1領域に含まれる矩形の各領域の大きさより大きい例が示されている。なお、図9は、第2領域上に第1領域が重ね合わされていることを表している。第1領域の中心と第2領域の中心とは一致している必要はない。また、図9のように、第1領域と第2領域の一部が重なり合うように配置されてもよいし、重なり合わないように配置されてもよい。
図9は、同一の円の円周上に配置される例であるが、同心円状の2つの円それぞれの円周上に、第1領域および第2領域がそれぞれ配置されてもよい。
図10は、第1領域および第2領域が、中心を共有する矩形の外周上に配置される例を示す。図10は、同一の矩形の外周上に配置される例であるが、中心を共有する異なる2つの矩形それぞれの外周上に、第1領域および第2領域がそれぞれ配置されてもよい。
図11は、第1領域および第2領域が、中心を共有するひし形の外周上に配置される例を示す。図11は、同一のひし形の外周上に配置される例であるが、中心を共有する異なる2つのひし形それぞれの外周上に、第1領域および第2領域がそれぞれ配置されてもよい。
図12は、第1領域および第2領域が、同一の直線上に配置される例を示す。直線の方向は水平方向に限られるものではなく、任意の方向とすることができる。
図13は、第1領域および第2領域が、中心を共有するが相互に異なる形状の外周上に配置される例を示す。図13は、第1領域が円の円周上に配置され、第2領域が矩形の外周上に配置される例を示す。相互に異なる形状の組み合わせはこれに限られるものではなく、任意の組み合わせを適用できる。
図14は、第1領域および第2領域が、中心を共有しない2つの円の円周上にそれぞれ配置される例を示す。図15は、第1領域および第2領域が、中心を共有しない2つの矩形の外周上に配置される例を示す。図16は、第1領域および第2領域が、中心を共有しない2つのひし形の外周上に配置される例を示す。図14から図16で、2つの形状の中心がずれる方向は、図示する方向に限られるものではない。
図17は、第1領域および第2領域が、異なる2つの直線上にそれぞれ配置される例を示す。図18は、第1領域および第2領域が、中心を共有せず相互に異なる形状の外周上に配置される例を示す。
第1領域の形状、第2領域の形状、第1領域と第2領域の位置関係、および、第1領域と第2領域の大きさの関係は、アプリケーションの使い方や対象物体の形状によって最適なものを選べばよい。
例えば、図3のように各領域を円状に配置すれば、どのような方向の輝度勾配も一様に算出できる。図4のように各領域を矩形の外周上に配置すれば、縦方向の輝度勾配や横方向の輝度勾配を高精度に算出できる。図5のように各領域をひし形の外周上に配置すれば、縦方向の輝度勾配や横方向の輝度勾配を高速に算出できる。図6および図7のように、各領域を直線状、または、隣り合うように配置すれば、一定方向の輝度勾配を高速に算出できる。
相対特徴データが、例えば、第1特徴データと第2特徴データとの差を用いて算出した値であれば、影や光沢による輝度勾配方向の影響がない特徴データを得ることができる。図19は、2つの特徴データの差を特徴データ(相対特徴データ)とする例を説明する図である。図19は、2つの特徴データがいずれも輝度勾配である場合の例を示す。
図19の左は、影や光沢の影響がない場合に算出される相対特徴データの例を示す。相対特徴データは、第1特徴データ1901と第2特徴データ1902との差で表される。
図19の右は、影や光沢の影響がある場合に算出される相対特徴データの例を示す。この場合は、影や光沢の影響による特徴データ1903が、第1領域の輝度勾配、および、第2領域の輝度勾配のそれぞれに加算される。一方、相対特徴データは、第1領域の輝度勾配と第2領域の輝度勾配との差である。このため、両者の差分を取ることにより特徴データ1903が相殺され、図19の左と同じ相対特徴データが算出される。
相対特徴データが、例えば、第1特徴データと第2特徴データとの比を用いて算出した値であれば、影や光沢による輝度勾配強度の影響がない特徴データを得ることができる。
相対特徴データが、例えば、第1特徴データと第2特徴データとの差および比を組み合わせて算出した値であれば、影や光沢による輝度勾配方向の影響、および、影や光沢による輝度勾配強度の影響がない特徴データを得ることができる。
図20は、2つの特徴データの差を複数求め、複数の差の比を特徴データ(相対特徴データ)とする例を説明する図である。図20は、2つの特徴データがいずれも輝度勾配である場合の例を示す。
図20の左は、影や光沢の影響がない場合に算出される相対特徴データの例を示す。相対特徴データは、第1特徴データ2001と第2特徴データ2002との差を、第3特徴データ2003と第2特徴データ2002との差で除算した値となる。
図20の右は、影や光沢の影響がある場合に算出される相対特徴データの例を示す。この場合は、影や光沢の影響による特徴データ2004が、第1領域の輝度勾配、第2領域の輝度勾配、および、第3領域の輝度勾配のそれぞれに加算される。また、第1特徴データ2001、第2特徴データ2002、および、第3特徴データ2003に相当する輝度勾配は、影や光沢の影響により強度がそれぞれa倍された特徴データ2001−2、特徴データ2002−2、および、特徴データ2003−2に変化する。なお、コントラストが低下する場合、aは1未満の値となる。また、コントラストが増加する場合、aは1より大きい値となる。
図20の例では、3つの領域のうち2つの領域間の輝度勾配の差を取り、異なる組み合わせの2つの領域に対して求めた複数の差の比を相対特徴データとする。これにより、影や光沢の影響による特徴データ2004が相殺されるとともに、コントラストの変化分であるaの影響も相殺される。この結果、図20の左と右とで同じ相対特徴データが算出される。
このように、本実施形態にかかる画像処理装置では、位置または大きさが異なる複数の領域から算出した複数の特徴データの相対関係を用いて影や光沢などの照明の影響を受けない特徴データを算出する。これにより、照明の変動などに対しても頑健な高精度の画像認識(物体認識)が可能となる。
次に、本実施形態にかかる画像処理装置のハードウェア構成について図21を用いて説明する。図21は、本実施形態にかかる画像処理装置のハードウェア構成を示す説明図である。
本実施形態にかかる画像処理装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
本実施形態にかかる画像処理装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
本実施形態にかかる画像処理装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、本実施形態にかかる画像処理装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態にかかる画像処理装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施形態にかかる画像処理装置で実行されるプログラムは、コンピュータを上述した画像処理装置の各部(取得部、設定部、第1算出部、第2算出部、第3算出部、検出部)として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 物体検出装置
101 取得部
102 設定部
103 第1算出部
104 第2算出部
105 第3算出部
106 検出部
121 記憶部
131 表示部

Claims (12)

  1. 画像を取得する取得部と、
    2以上の画素を含む複数の第1領域と、2以上の画素を含み、少なくとも1つが前記第1領域に対して位置または大きさが異なる複数の第2領域と、を前記画像上に設定する設定部と、
    複数の前記第1領域の画像の特徴を表す第1特徴データを算出する第1算出部と、
    複数の前記第2領域間の輝度勾配である第2特徴データを算出する第2算出部と、
    前記第1特徴データと前記第2特徴データとの相対関係を表す相対特徴データを算出する第3算出部と、
    を備える画像処理装置。
  2. 前記設定部は、同一の円の円周上に配置されるように前記第1領域と前記第2領域とを前記画像上に設定する、
    請求項1に記載の画像処理装置。
  3. 前記設定部は、同心円状の2つの円それぞれの円周上に配置されるように前記第1領域と前記第2領域とを前記画像上に設定する、
    請求項1に記載の画像処理装置。
  4. 前記設定部は、同一の矩形の外周上に配置されるように前記第1領域と前記第2領域とを前記画像上に設定する、
    請求項1に記載の画像処理装置。
  5. 前記設定部は、前記第1領域と、前記第1領域と中心が同一で大きさが異なる前記第2領域と、を前記画像上に設定する、
    請求項1に記載の画像処理装置。
  6. 前記第3算出部は、前記第1特徴データと前記第2特徴データとの差である前記相対特徴データを算出する、
    請求項1に記載の画像処理装置。
  7. 前記第3算出部は、前記第1特徴データと前記第2特徴データとの比である前記相対特徴データを算出する、
    請求項1に記載の画像処理装置。
  8. 前記設定部は、さらに、2以上の画素を含み、少なくとも1つが前記第1領域および前記第2領域に対して位置または大きさが異なる複数の第3領域と、を前記画像上に設定し、
    前記第2算出部は、さらに、複数の前記第3領域の画像の特徴を表す第3特徴データを算出し、
    前記第3算出部は、前記第1特徴データと前記第2特徴データと前記第3特徴データとの相対関係を表す相対特徴データを算出する、
    請求項1に記載の画像処理装置。
  9. 前記第3算出部は、前記第1特徴データと前記第2特徴データとの差、および、前記第3特徴データと前記第2特徴データとの差の比である前記相対特徴データを算出する、
    請求項8に記載の画像処理装置。
  10. 前記第1特徴データは、複数の前記第1領域間の輝度勾配である、
    請求項1に記載の画像処理装置。
  11. 画像を取得し、
    2以上の画素を含む複数の第1領域と、2以上の画素を含み、少なくとも1つが前記第1領域に対して位置または大きさが異なる複数の第2領域と、を前記画像上に設定し、
    複数の前記第1領域の画像の特徴を表す第1特徴データを算出し、
    複数の前記第2領域間の輝度勾配である第2特徴データを算出し、
    前記第1特徴データと前記第2特徴データとの相対関係を表す相対特徴データを算出する、画像処理方法。
  12. コンピュータを、
    画像を取得する手段と、
    2以上の画素を含む複数の第1領域と、2以上の画素を含み、少なくとも1つが前記第1領域に対して位置または大きさが異なる複数の第2領域と、を前記画像上に設定する手段と、
    複数の前記第1領域の画像の特徴を表す第1特徴データを算出する手段と、
    複数の前記第2領域間の輝度勾配である第2特徴データを算出する手段と、
    前記第1特徴データと前記第2特徴データとの相対関係を表す相対特徴データを算出する手段、
    として機能させるための、画像処理プログラム。
JP2013162552A 2013-08-05 2013-08-05 画像処理装置、方法およびプログラム Abandoned JP2015032211A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013162552A JP2015032211A (ja) 2013-08-05 2013-08-05 画像処理装置、方法およびプログラム
US14/451,526 US9384415B2 (en) 2013-08-05 2014-08-05 Image processing apparatus and method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013162552A JP2015032211A (ja) 2013-08-05 2013-08-05 画像処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2015032211A true JP2015032211A (ja) 2015-02-16

Family

ID=52427726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013162552A Abandoned JP2015032211A (ja) 2013-08-05 2013-08-05 画像処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US9384415B2 (ja)
JP (1) JP2015032211A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101745192B1 (ko) * 2015-12-04 2017-06-09 현대자동차주식회사 초고강도 스프링강

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62125481A (ja) * 1985-11-26 1987-06-06 インターナショナル・ビジネス・マシーンズ・コーポレーション パタ−ン認識装置
JP3726309B2 (ja) 1995-05-26 2005-12-14 日産自動車株式会社 車両認識装置及びそれを用いた車両接近報知装置
US5991456A (en) 1996-05-29 1999-11-23 Science And Technology Corporation Method of improving a digital image
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US9530073B2 (en) * 2010-04-20 2016-12-27 Qualcomm Incorporated Efficient descriptor extraction over multiple levels of an image scale space
US9424648B2 (en) * 2011-07-07 2016-08-23 Siemens Aktiengesellschaft Method and system for device detection in 2D medical images
JP5758757B2 (ja) 2011-09-12 2015-08-05 株式会社東海理化電機製作所 電子キーシステム
JP2013161126A (ja) * 2012-02-01 2013-08-19 Honda Elesys Co Ltd 画像認識装置、画像認識方法および画像認識プログラム
US9275300B2 (en) * 2012-02-24 2016-03-01 Canon Kabushiki Kaisha Method and apparatus for generating image description vector, image detection method and apparatus
JP5651659B2 (ja) 2012-08-31 2015-01-14 株式会社東芝 物体検出システムおよびプログラム
JP2014186520A (ja) 2013-03-22 2014-10-02 Toshiba Corp 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US9384415B2 (en) 2016-07-05
US20150036932A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
JP7297018B2 (ja) ビジョンシステムでラインを検出するためのシステム及び方法
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
US20210233250A1 (en) System and method for finding and classifying lines in an image with a vision system
BR112016004206B1 (pt) Método, aparelho e memória legível por processador não transitória para processamento de imagens
KR102649038B1 (ko) 비전 시스템으로 이미지에서 라인을 찾기 위한 시스템 및 방법
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
JP6530432B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9342753B2 (en) Image processing apparatus, image processing method, and computer program product
JP2013162516A (ja) 画像自動補正のための構図に基づく露出測定方法及び装置
US9739604B2 (en) Information processing apparatus, information processing method, and storage medium
JP5651659B2 (ja) 物体検出システムおよびプログラム
JP2015032211A (ja) 画像処理装置、方法およびプログラム
JP2015170206A (ja) 検出装置および検出方法
JP2015045919A (ja) 画像認識方法及びロボット
US10083545B2 (en) Image processing device, image processing method, and non-transitory computer-readable recording medium for specifying markers in accepted image data
US20160379087A1 (en) Method for determining a similarity value between a first image and a second image
CN109696656A (zh) 基于相位对焦的定位方法及其系统
JP2015176252A (ja) 画像処理装置および画像処理方法
JP2013254324A5 (ja)
JP2014038606A (ja) 撮像画像の特徴点抽出方法および特徴点抽出装置
JP5811915B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
US20240078801A1 (en) System and method for finding and classifying lines in an image with a vision system
CN112906704A (zh) 用于跨域目标检测的方法和装置
CN105637560A (zh) 优化基于增强现实的定位系统的定位的方法
JP5790552B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160316

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20160805