JPWO2017221860A1 - 領域識別装置と領域識別方法および領域識別プログラム - Google Patents

領域識別装置と領域識別方法および領域識別プログラム Download PDF

Info

Publication number
JPWO2017221860A1
JPWO2017221860A1 JP2018524065A JP2018524065A JPWO2017221860A1 JP WO2017221860 A1 JPWO2017221860 A1 JP WO2017221860A1 JP 2018524065 A JP2018524065 A JP 2018524065A JP 2018524065 A JP2018524065 A JP 2018524065A JP WO2017221860 A1 JPWO2017221860 A1 JP WO2017221860A1
Authority
JP
Japan
Prior art keywords
image
observation target
region
area
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018524065A
Other languages
English (en)
Other versions
JP7031584B2 (ja
Inventor
亮介 石井
亮介 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017221860A1 publication Critical patent/JPWO2017221860A1/ja
Application granted granted Critical
Publication of JP7031584B2 publication Critical patent/JP7031584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することを目的とする。本発明の領域識別装置は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する。

Description

本発明は、地上や上空や宇宙等で撮影された画像の観測対象領域を識別する技術に関する。
人工衛星から取得した画像の雲領域のエッジ情報を基に雲領域を識別する装置(特許文献1)や、画像の明度および彩度から雲などの観測対象領域を識別する画像処理装置(特許文献2)が開示されている。これらの装置では、利用者が観測対象領域を識別するための特徴量をグラフ上で見ながら、観測対象領域の設定を行う。また、k−means法に代表される領域分割手法とSVM(Support Vector Machine)に代表される機械学習とを組み合わせて画像が属するカテゴリを識別し、雲などの観測対象領域を抽出する画像識別装置(特許文献3)が開示されている。
特開平5−333160号公報 特開2015−64753号公報 国際公開第2012/111236号 国際公開第2012/095938号
しかしながら、特許文献1に開示された装置では、地表上の雲領域と似通ったエッジ情報を持つ物体を雲領域と誤判定してしまう。また、雲は種類によって多様なエッジの特徴を持っているため、雲領域を取りこぼしてしまう。特許文献2に開示された装置では、カラー画像を前提としており、赤外画像のようなモノクロ画像では識別ができない。また、これらの装置では、利用者が観測対象領域を識別するための特徴量をグラフ上で見ながら、観測対象領域の設定を行う。そのため、特徴量が2つ程度に制限され、詳細な境界条件を設定することが難しい。
以上の結果、これらの装置では、観測対象領域の識別精度を上げられないという課題がある。また、特許文献1と特許文献2は、入力される静止画像を処理する場合については言及しているものの、動画等のリアルタイム処理については言及していない。
一方、特許文献3に開示された装置では、観測対象領域の識別精度を上げることができる。しかしながら、この装置では、k−means法に代表される領域分割手法とSVMに代表される機械学習とを組み合わせているため、計算量が膨大となり、動画等のリアルタイム処理には向かないという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、その目的は、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することにある。
本発明の領域識別装置は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する。
本発明の領域識別方法は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する。
本発明の領域識別プログラムは、入力された画像を局所領域に分割する処理と、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる。
本発明によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
本発明の第1の実施形態の領域識別装置の構成を示すブロック図である。 本発明の第2の実施形態の領域識別装置の構成を示すブロック図である。 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する動作を示すフローチャートである。 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する学習用の画像の例を示す図である。 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する学習用の画像をブロックに分割した例を示す図である。 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する学習用の画像の観測対象正解領域情報の例を示す図である。 本発明の第2の実施形態の領域識別装置が機械学習により特徴量と観測対象正解領域とを対応付けた例を示す図である。 本発明の第2の実施形態の領域識別装置が特徴量と観測対象正解領域の関係を特徴量の座標系に表し観測対象判定基準の境界を設定した例を示す図である。 本発明の第2の実施形態の領域識別装置で設定される観測対象の判定基準の境界の例を示す図である。 本発明の第2の実施形態の領域識別装置の観測対象領域を識別する動作を示すフローチャートである。 本発明の第2の実施形態の領域識別装置の観測対象領域を識別する画像をブロックに分割した例を示す図である。 本発明の第2の実施形態の領域識別装置の3種類以上の領域を識別する動作を示すフローチャートである。 本発明の第2の実施形態の領域識別装置で設定される3種類以上の領域を識別する判定基準の境界の例を示す図である。 本発明の第3の実施形態の領域識別装置の構成を示すブロック図である。 本発明の第4の実施形態の領域識別装置の構成を示すブロック図である。
以下、図を参照しながら、本発明の実施形態を詳細に説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。
(第1の実施形態)
図1は、本発明の第1の実施形態の領域識別装置の構成を示すブロック図である。本実施形態の領域識別装置1は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段11を有する。さらに、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段12を有する。
本実施形態の領域識別装置1によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第2の実施形態)
図2は、本発明の第2の実施形態の領域識別装置2の構成を示すブロック図である。領域識別装置2は、画像入力部21、特徴量導出部22、辞書保存部23、観測対象領域判定部24、観測対象領域情報出力部25、学習部26を備えている。
画像入力部21は、例えば、雲等の観測対象領域の識別を行う画像の画像データを入力する。
特徴量導出部22は、画像入力部21で入力された画像を局所領域に分割し、局所領域ごとに画像の画素情報に基づく特徴量を算出する。
辞書保存部23は、観測対象領域の判定基準を設定している辞書データを保存し、前記辞書データを観測対象領域判定部24に入力する。
観測対象領域判定部24は、特徴量導出部22で算出された特徴量と辞書保存部23から入力された辞書データで設定されている観測対象領域を判定する基準とを比較して、観測対象か否かを判定する。
観測対象領域情報出力部25は、観測対象領域判定部24の判定結果を、雲等の観測対象領域を識別した画像に表現するなどして出力する。
学習部26は、観測対象領域の判定基準を設定した辞書データを生成する。
領域識別装置2は、PC(Personal Computer)やサーバなどの情報処理機器(コンピュータ)とすることができる。情報処理機器は構成要素として、演算資源であるCPU(Central Processing Unit)、記憶資源であるメモリやHDD(Hard Disk Drive)、通信資源である通信ボードや入力インターフェイス、入力資源であるキーボードやマウスやタッチパネル、表示資源であるディスプレイやプリンタ、などを備えている。CPUでプログラムを動作させ、これらの構成要素を用いることにより、領域識別装置1を構成する各部を実現することができる。
すなわち、画像入力部21は、衛星や航空機から送信された画像データを受信する通信ユニットや、外部から画像データを入力する入力インターフェイスなどにより実現される。特徴量導出部22や観測対象領域判定部24や学習部26はCPUでプログラムを動作させることにより実現される。辞書保存部23は、メモリやHDDなどにより実現される。観測対象領域情報出力部25はディスプレイやプリンタなどにより実現される。
図3は、本実施形態の領域識別装置が実行する、観測対象領域の判定基準を設定する動作を示すフローチャートである。本フローチャートは、観測対象領域の判定基準を設定する動作を実行するプログラムを起動することで開始となる。
まず、ステップS01で、学習部26に、観測対象が映っている学習用の画像を外部から入力する。図4は、観測対象を雲としたときの学習用の画像の例を示す図である。学習用の画像は、例えば、観測対象が雲であれば、様々な雲を撮影した画像を複数枚、例えば数枚から数十枚を入力する。
学習用の画像は、実際に観測対象領域の識別を行う画像と、撮影するカメラや撮影条件、気象条件、時刻、季節などが同じ条件であることが好ましいが、これには限定されない。これらの条件を満たす画像の取得が困難な場合は、これらの条件の幾つかを異にする画像や模擬画像を使用することができる。
また、学習用の画像は、以降で算出される特徴量の分解能を高めるためには、画像処理のされていない未加工画像(RAW画像とも呼ぶ)とすることが好ましい。これは、未加工画像が例えば14ビット(214)の分解能であっても、画像処理により例えば8ビット(2)の分解能まで低下させてしまうことで、特徴量の分解能を低下させてしまうことになるためである。
次に、ステップS02で、学習部26は、入力された学習用の画像の局所領域ごとの特徴量を、画像データの有する画素情報から算出する。特徴量の種類としては、実際に観測対象領域の識別を行う画像で使用する特徴量と同じ種類とし、ひとつ以上の特徴量とすることができる。例えば、画像が可視画像である場合、特徴量−1として平均輝度、特徴量−2として輝度の分散の2つを特徴量とすることができるが、これらには限定されない。特徴量の種類は、予め定めておくことができる。
図5は、学習用の画像の局所領域の特徴量を算出するために、学習部26が、画像をブロックに分割した例を示す。学習部26は、各ブロックの特徴量を局所領域の特徴量として算出する。
次に、ステップS03で、学習部26に、入力された画像中の観測対象の観測対象正解領域情報を入力する。図6は、観測対象正解領域情報である、雲の部分とその他の部分とで2値化した2値化画像を示す。この2値化画像の雲の領域、すなわち図6での白い領域が、観測対象正解領域である。この2値化画像は、利用者が学習用の画像から雲の部分を指定する、あるいは、2値化画像の画像処理をするなどして、予め作成しておくことができる。
次に、ステップS04で、学習部26は、学習用画像の局所領域の特徴量と観測対象正解領域情報とから機械学習の処理を行う。機械学習としては、例えば、特許文献4に開示されているGLVQ(Generalized Learning Vector Quantization、一般化学習ベクトル量子化)のような、識別時の計算量が少ない方法が望ましい。GLVQによれば、ステップS02で算出した各ブロックの特徴量と、ステップS03で入力した観測対象正解領域情報の観測対象正解領域とを対応付け、観測対象正解領域となるための特徴量を設定することができる。
なお、機械学習の方法は、各ブロックの特徴量と観測対象正解領域情報の観測対象正解領域とを対応付けて、観測対象正解領域となるための特徴量を設定することができる方法であれば、GLVQには限定されない。
図7は、学習部26が、機械学習により特徴量と観測対象正解領域(例えば、雲領域と雲以外の領域)とを対応付けた例を示す。図7では、2枚の学習用の画像を入力し、1画像あたり1000個の局所領域とし、各々の局所領域について2種類の特徴量を算出した場合を示しているが、これには限定されない。
画像−1の各局所領域の特徴量−1と特徴量−2との組は、(a,b)、(a,b)、・・・、(a1000,b1000)となり、各々の組が、観測対象正解クラスの1(雲領域)に属するか、または0(雲以外の領域)に属するか、判定されている。また、画像−2の各局所領域の特徴量−1と特徴量−2との組は、(a1001,b1001)、・・・、(a2000,b2000)となり、各々の組が、観測対象正解クラスの1に属するか、または0に属するか、判定されている。なお、a〜a2000やb〜b2000には、各々、計算などにより導出された特徴量の数値が入る。
次に、ステップS05で、学習部26は、以上の機械学習の処理により得た観測対象領域と特徴量との対応から、特徴量で観測対象領域を識別する基準を設定した辞書データを生成する。
図8は、学習部26が、図7の各局所領域の特徴量と観測対象正解領域の関係を特徴量−1と特徴量−2の座標系に表し、観測対象判定基準の境界を設定した例を示す。画像−1と画像−2の特徴量の各々は、特徴量−1と特徴量−2の座標系に一同に表される。境界は、例えばGLVQを用いた機械学習により、設けられた境界によるクラス1とクラス0のクラス分けと、図7のクラス分けとの食い違いが最小となるように設定される。そのため、GLVQで設けられた境界によるクラス1とクラス0のクラス分けと、図7のクラス分けとの食い違いが生じる場合もあり得る。
GLVQによれば、所定のクラスらしさを表す指標として誤分類尺度を用いる。誤分類尺度は−1〜1の間の値を取り、クラス1に対する誤分類尺度の場合、誤分類尺度が−1に近いほどクラス1である確度が高い。逆に、誤分類尺度が1に近いほどクラス1でない、すなわちクラス0である確度が高い。クラス1とクラス0の境界は、通常、誤分類尺度0に設定され、曖昧さを含み易い領域である。また、例えば、空の部分を雲だと多少誤ったとしても雲の部分を確実に雲と判定したい場合は、雲に対する誤分類尺度が0より大きい正の値を閾値として識別する、などの調整が可能である。
図9は、学習部26で設定される観測対象判定基準の境界の例を示す。学習部26は、図9に示すような特徴量−1と特徴量−2との座標系において、観測対象とそれ以外との境界を設定し、この境界を判定基準として特徴量により観測対象であるか否かを判定することのできる辞書データを生成する。生成された辞書データは、辞書保存部23に保存され、終了する。
図9において、観測対象であると判定するための境界を、より現実の観測対象に近づけるためには、前記のクラス間の分離性の高い、すなわち、図8の境界付近の特徴量が少ない特徴量を選択することが有効である。このためには、予め何種類かの特徴量で境界を決める上記の動作を実行し、できるだけ曖昧さを含まずに境界を決めることができる特徴量を選択する、などが可能である。
図10は、本実施形態の領域識別装置が実行する、観測対象領域を識別する動作を示すフローチャートである。本フローチャートは、観測対象領域を識別する動作を実行するプログラムを起動することで開始となる。
まず、ステップS11で、画像入力部21に、観測対象領域を識別する画像を外部から入力する。画像の入力は、カメラで撮像された画像を直接入力することが可能であるが、これには限定されない。画像の入力は、記憶媒体に保存されている画像を入力してもよい。
観測対象領域を識別する画像は、以降で算出される特徴量の分解能を高めるためには、画像処理のされていない未加工画像とすることが好ましい。これは、未加工画像が例えば14ビットの分解能であっても、画像処理により例えば8ビットの分解能まで低下させてしまうことで、特徴量の分解能を低下させてしまうことになるためである。
次に、ステップS12で、特徴量導出部22は、画像をブロックに分割し、各ブロックを局所領域とし、局所領域ごとの特徴量を算出する。図11は、観測対象領域を識別する画像をブロックに分割した例を示す図である。図11に示すように、例えば、縦8画素と横8画素を1つのブロックとすることができるが、これには限定されない。特徴量導出部22は、例えば、個々の画素の有する特徴量の平均値をブロックの特徴量とすることができる。また、個々の画素の有する特徴量の分散をブロックの特徴量とすることができるが、これらには限定されない。
また、局所領域ごとの特徴量を算出する方法は、図11のようにブロックに分割する方法には限定されない。例えば、縦8画素と横8画素を1つの局所領域とし、この領域を1画素ずつずらして走査しながら連続的に特徴量を算出する方法でもよい。また、特徴量としては、ひとつ以上の特徴量とすることができる。例えば、画像が可視画像である場合、特徴量を彩度や明度の2つや、輝度や輝度分散の2つ、あるいはこれら全ての4つ、などとすることができるがこれらには限定されない。特徴量の種類は、予め定めておくことができる。
次に、ステップS13で、辞書保存部23は、学習部26で生成された辞書データを観測対象領域判定部24に入力する。観測対象領域判定部24は、特徴量導出部22で得られた局所領域ごとの特徴量と辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象か否かを判定する。
次に、ステップS14で、観測対象領域情報出力部25は、ステップS13での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力し、終了する。
図12は、本実施形態の領域識別装置2が実行する、3つの領域を判定する動作を示すフローチャートである。ここでは、観測対象領域として、雲と海と、これら以外の領域を識別する場合を説明する。
学習部26は、予め、図3に示す観測対象領域の判定基準を設定する動作により、学習用画像と、学習用画像中の海と雲のそれぞれに対する観測対象正解領域情報とから、図13に示すような観測対象領域の判定基準を設定した辞書データを生成する。
図13は、3つの領域を識別する判定基準の境界の例を示す図である。学習部26は、図13のような特徴量−1と特徴量−2との座標系において、観測対象−1(雲)と観測対象−2(海)と観測対象外との境界を設定し、この境界を判定基準として特徴量により観測対象を識別することのできる辞書データを生成する。学習部26は、生成した辞書データを、辞書保存部23に保存する。
図12のフローチャートは、観測対象領域を識別する動作を実行するプログラムを起動することで開始となる。まず、ステップS21で、画像入力部21に観測対象領域を識別する画像を入力する。次に、ステップS22で、特徴量導出部22は、画像をブロックに分割し、各ブロックを局所領域とし、局所領域ごとの特徴量を算出する。
次に、ステップS23で、辞書保存部23は、学習部26で生成された辞書データを観測対象領域判定部24に入力する。観測対象領域判定部24は、特徴量導出部22で得られた局所領域ごとの特徴量と辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに雲か海かこれら以外かを判定する。
次に、ステップS24で、観測対象領域情報出力部25は、ステップS23での判定結果を、例えば、雲領域を1、海領域を2、これら以外を0とした3値画像等にして外部に出力し、終了する。
以上の方法により、例えば、観測対象領域を識別する画像中に移動体が存在した場合、移動体が存在する場所が海である場合、移動体を船舶と推定することができる。また、移動体が存在する場所が雲である場合、移動体を飛行体と推定することができる。
なお、観測対象領域は以上のような1つの領域や2つの領域には限定されない。観測対象領域の数は任意の正数とすることができ、予め、観測対象領域に対応した観測対象を識別することのできる辞書データを生成しておけばよい。
なお、観測対象領域は、例えば、雲、海、空、陸、氷、雪、山、草原、森、砂漠、珊瑚礁、建物や道路などの構造物など、空中や地上や水中から取得される画像中の領域とすることができる。また、観測対象領域はこれらには限定されず、室内や生体から取得される画像中の領域や、顕微鏡で拡大された画像中の領域とすることもできる。
なお、特徴量は、可視画像であれば彩度や明度や輝度や輝度分散など、赤外画像であれば輝度や輝度分散などとすることができる。また、ブロックなどの局所領域中の画素ごとの強度のヒストグラムや分布の様子(模様)、SIFT(Scale−Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)により記述される特徴量とすることができる。特徴量は、画像の画素の有する前記の彩度や明度や輝度などの情報からの値の抽出や、抽出された値を用いた計算などによって、導出される。
本実施形態の領域識別装置2によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第3の実施形態)
図14は、本発明の第3の実施形態の領域識別装置3の構成を示すブロック図である。領域識別装置3は、第1の画像入力部31−1、第2の画像入力部31−2、特徴量導出部32、辞書保存部33、観測対象領域判定部34、観測対象領域情報出力部35、学習部36を備えている。本実施形態の領域識別装置3では、同時期に同じ観測対象を含む場面を撮影した2種類以上の画像を入力して領域識別するために、複数の画像入力部を備えている点が、第2の実施形態と異なる。
図14は、2種類の画像を入力して領域識別する場合を示している。まず、同時期に同じ場面を撮影した2種類の画像、例えば、可視画像を第1の画像入力部31−1に、赤外画像を第2の画像入力部31−2に入力する。特徴量導出部32は、それぞれの画像をブロックに分割して局所領域ごとの特徴量を算出する。
2種類の画像の特徴量としては、例えば、可視画像の彩度および明度、赤外画像の平均輝度および輝度の分散の4種類とすることができる。学習部36は、予め、前記4種類の特徴量を機械学習し、4次元の特徴量空間に境界を設定する辞書データを生成しておく。辞書保存部33は、学習部36で生成された辞書データを保存し、観測対象領域判定部34に入力する。
観測対象領域判定部34は、特徴量導出部32で得られた局所領域の特徴量と、辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象か否かを判定する。
観測対象領域情報出力部35は、観測対象領域判定部34での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力する。
以上のように、可視画像と赤外画像といった異なる複数の画像により観測領域を識別することで、例えば、雲と氷や雪といった可視画像だけでは識別が困難な領域についても、赤外画像と組み合わせることで、正確な識別が可能となる。
なお、画像入力部は2つには限定されない。画像入力部の数は任意の正数とすることができる。また、ひとつの画像入力部から複数の画像を入力してもよい。
本実施形態の領域識別装置3によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第4の実施形態)
図15は、本発明の第4の実施形態の領域識別装置4の構成を示すブロック図である。領域識別装置4は、第1の画像入力部41−1、第2の画像入力部41−2、特徴量導出部42、辞書保存部43、観測対象領域判定部44、観測対象領域情報出力部45、学習部46、辞書選択部47を備えている。本実施形態の領域識別装置4では、画像の撮影条件によって複数の辞書を使い分けるために辞書選択部47を備えている点が、第3の実施形態と異なる。
ここでは、航空機より水平線方向を2波長の赤外線カメラで撮影している場面において、画像中の雲領域をリアルタイムに識別する場合について説明する。
まず、第1の画像入力部41−1にa波長赤外画像1を、第2の画像入力部41−2にb波長赤外画像2を入力する。ここで、2種類の画像はほぼ同時に撮影されたものであり、1台のカメラでフィルタを切り替えて2波長を交互に撮影したものでもよいし、2台のカメラを使用するものでもよい。それぞれの画像は、観測対象である雲領域の物性や温度に対応する輝度を得るために、未加工画像を用いる。
特徴量導出部42は、それぞれの画像をブロックに分割して局所領域ごとの特徴量を算出する。2種類の画像の特徴量としては、例えば、2波長の赤外画像の各々の平均輝度および輝度の分散の、4次元の特徴量とすることができる。
なお、ここで、例えば、a波長赤外画像1を波長が3から4μmの赤外画像、b波長赤外画像2を波長が4から5μmの赤外画像とする。赤外画像は、波長が3から4μmのときに太陽光の影響を大きく受ける。そこで、3から4μmの赤外画像と4から5μmの赤外画像との差を取ることで、太陽光の影響を抽出することができる。これにより、太陽光の影響を削除して、観測対象領域を識別することができる。なお、赤外画像の赤外線の波長は、上記の組み合わせには限定されない。
学習部46は、予め、4種類の特徴量を学習し、4次元の特徴量空間に境界を設定する辞書データを生成する。ここで学習用画像としては、撮影条件別の画像の組みを複数用意し、撮影条件別に辞書データを作成する。撮影条件としては、例えば、気象条件や昼夜などの時刻や季節などが挙げられる。辞書保存部43は、学習部46で生成された辞書データを保存する。辞書選択部47は、実際の撮影時の条件に最も撮影条件が近い辞書を選択して、観測対象領域判定部44に入力する。
観測対象領域判定部44は、特徴量導出部42で得られた局所領域の特徴量と、辞書データで設定された観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象を識別する。
観測対象領域情報出力部45は、観測対象領域判定部44での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力する。
以上のように、観測対象領域を識別したい画像の撮影時の条件に最も撮影条件が近い辞書を選択して観測対象を識別することで、撮影条件が変化することで生じる誤識別を抑制することができる。
本実施形態の領域識別装置4によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する領域識別装置。
(付記2)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する学習手段を有する、付記1記載の領域識別装置。
(付記3)
前記学習手段は、機械学習して前記観測対象領域を設定する、付記2記載の領域識別装置。
(付記4)
前記画像の撮影条件に基づいて前記辞書を選択する辞書選択手段を有する、付記1から3の内の1項記載の領域識別装置。
(付記5)
前記画像を入力する画像入力手段を有する、付記1から4の内の1項記載の領域識別装置。
(付記6)
前記画像入力手段は複数である、付記5記載の領域識別装置。
(付記7)
入力された画像を局所領域に分割し、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する、領域識別方法。
(付記8)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する、付記7記載の領域識別方法。
(付記9)
機械学習して前記観測対象領域を設定する、付記7または8記載の領域識別方法。
(付記10)
前記画像の撮影条件に基づいて前記辞書を選択する、付記7から9の内の1項記載の領域識別方法。
(付記11)
入力された画像を局所領域に分割する処理と、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる領域識別プログラム。
(付記12)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する処理をコンピュータに実行させる、付記11記載の領域識別プログラム。
(付記13)
機械学習して前記観測対象領域を設定する処理をコンピュータに実行させる、付記11または12記載の領域識別プログラム。
(付記14)
前記画像の撮影条件に基づいて前記辞書を選択する処理をコンピュータに実行させる、付記11から13の内の1項記載の領域識別プログラム。
この出願は、2016年6月21日に出願された日本出願特願2016−122510を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、2、3、4 領域識別装置
11 特徴量導出手段
12 観測対象領域判定手段
21 画像入力部
31−1、41−1 第1の画像入力部
31−2、41−2 第2の画像入力部
22、32、42 特徴量導出部
23、33、43 辞書保存部
24、34、44 観測対象領域判定部
25、35、45 観測対象領域情報出力部
26、36、46 学習部
47 辞書選択部

Claims (14)

  1. 入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、
    導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する領域識別装置。
  2. 前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する学習手段を有する、請求項1記載の領域識別装置。
  3. 前記学習手段は、機械学習して前記観測対象領域を設定する、請求項2記載の領域識別装置。
  4. 前記画像の撮影条件に基づいて前記辞書を選択する辞書選択手段を有する、請求項1から3の内の1項記載の領域識別装置。
  5. 前記画像を入力する画像入力手段を有する、請求項1から4の内の1項記載の領域識別装置。
  6. 前記画像入力手段は複数である、請求項5記載の領域識別装置。
  7. 入力された画像を局所領域に分割し、
    前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、
    導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する、領域識別方法。
  8. 前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する、請求項7記載の領域識別方法。
  9. 機械学習して前記観測対象領域を設定する、請求項7または8記載の領域識別方法。
  10. 前記画像の撮影条件に基づいて前記辞書を選択する、請求項7から9の内の1項記載の領域識別方法。
  11. 入力された画像を局所領域に分割する処理と、
    前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、
    導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる領域識別プログラムを記録する記録媒体。
  12. 前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する処理をコンピュータに実行させる、請求項11記載の領域識別プログラムを記録する記録媒体。
  13. 機械学習して前記観測対象領域を設定する処理をコンピュータに実行させる、請求項11または12記載の領域識別プログラムを記録する記録媒体。
  14. 前記画像の撮影条件に基づいて前記辞書を選択する処理をコンピュータに実行させる、請求項11から13の内の1項記載の領域識別プログラムを記録する記録媒体。
JP2018524065A 2016-06-21 2017-06-19 領域識別装置と領域識別方法および領域識別プログラム Active JP7031584B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016122510 2016-06-21
JP2016122510 2016-06-21
PCT/JP2017/022445 WO2017221860A1 (ja) 2016-06-21 2017-06-19 領域識別装置と領域識別方法および領域識別プログラム

Publications (2)

Publication Number Publication Date
JPWO2017221860A1 true JPWO2017221860A1 (ja) 2019-04-11
JP7031584B2 JP7031584B2 (ja) 2022-03-08

Family

ID=60784269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018524065A Active JP7031584B2 (ja) 2016-06-21 2017-06-19 領域識別装置と領域識別方法および領域識別プログラム

Country Status (2)

Country Link
JP (1) JP7031584B2 (ja)
WO (1) WO2017221860A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003837A (ja) * 2018-06-25 2020-01-09 日本電気株式会社 識別装置および識別方法
JP2021081373A (ja) * 2019-11-21 2021-05-27 三菱アルミニウム株式会社 加熱炉および加熱済体の判定方法
JP7424066B2 (ja) 2020-01-20 2024-01-30 株式会社大林組 地質評価システム、地質評価方法及び地質評価プログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11151232A (ja) * 1997-11-20 1999-06-08 Canon Inc 肺領域抽出装置、肺領域抽出方法及びコンピュータ読み取り可能な記憶媒体
JP2000137812A (ja) * 1998-10-30 2000-05-16 Oki Electric Ind Co Ltd 個体識別装置
JP2000172844A (ja) * 1998-12-03 2000-06-23 Toshiba Corp 印刷検査方法および印刷検査装置
CN102129576A (zh) * 2011-02-28 2011-07-20 西安电子科技大学 全天空极光图像占空比参数的提取方法
WO2012111236A1 (ja) * 2011-02-17 2012-08-23 三洋電機株式会社 画像識別装置およびプログラム
WO2012124458A1 (ja) * 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ 本人認証テンプレート学習システム、及び本人認証テンプレート学習方法
JP2012243197A (ja) * 2011-05-23 2012-12-10 Morpho Inc 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
JP2014116763A (ja) * 2012-12-08 2014-06-26 Xacti Corp 電子カメラ
JP2016071387A (ja) * 2014-09-26 2016-05-09 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP2019060836A (ja) * 2018-02-07 2019-04-18 Necプラットフォームズ株式会社 印刷物の浮き検出装置及び浮き検出方法、検査装置及び検査方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11151232A (ja) * 1997-11-20 1999-06-08 Canon Inc 肺領域抽出装置、肺領域抽出方法及びコンピュータ読み取り可能な記憶媒体
JP2000137812A (ja) * 1998-10-30 2000-05-16 Oki Electric Ind Co Ltd 個体識別装置
JP2000172844A (ja) * 1998-12-03 2000-06-23 Toshiba Corp 印刷検査方法および印刷検査装置
WO2012111236A1 (ja) * 2011-02-17 2012-08-23 三洋電機株式会社 画像識別装置およびプログラム
CN102129576A (zh) * 2011-02-28 2011-07-20 西安电子科技大学 全天空极光图像占空比参数的提取方法
WO2012124458A1 (ja) * 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ 本人認証テンプレート学習システム、及び本人認証テンプレート学習方法
JP2012243197A (ja) * 2011-05-23 2012-12-10 Morpho Inc 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
JP2014116763A (ja) * 2012-12-08 2014-06-26 Xacti Corp 電子カメラ
JP2016071387A (ja) * 2014-09-26 2016-05-09 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP2019060836A (ja) * 2018-02-07 2019-04-18 Necプラットフォームズ株式会社 印刷物の浮き検出装置及び浮き検出方法、検査装置及び検査方法

Also Published As

Publication number Publication date
JP7031584B2 (ja) 2022-03-08
WO2017221860A1 (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
WO2019220622A1 (ja) 画像処理装置、システム、方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP5968098B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
CN108182421B (zh) 视频分割方法和装置
EP3319045B1 (en) Image processing apparatus, image processing method, and storage medium
JP6497579B2 (ja) 画像合成システム、画像合成方法、画像合成プログラム
WO2013088175A1 (en) Image processing method
US11049256B2 (en) Image processing apparatus, image processing method, and storage medium
JP2018022360A (ja) 画像解析装置、画像解析方法およびプログラム
KR101872811B1 (ko) 행동 패턴 인식 장치, 행동 패턴 인식 방법 및 행동 패턴 분류기 생성 방법
EP1542153A1 (en) Object detection
JP7031584B2 (ja) 領域識別装置と領域識別方法および領域識別プログラム
KR20170038144A (ko) 어텐션 검출 장치 및 어텐션 검출 방법
KR20210064193A (ko) 화상 처리 장치 및 화상 처리 방법, 그리고 프로그램
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6851163B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
JP6770363B2 (ja) 顔方向推定装置及びそのプログラム
US11373313B2 (en) Image processing apparatus and image processing method
KR100586227B1 (ko) 색분포 학습을 통한 얼굴영역 추출 방법
JP2017207960A (ja) 画像解析装置、画像解析方法およびプログラム
Yang et al. A comprehensive study on digital image matting
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
Pham Motion detection with segmentation of optical flows for infrared images
KR101675030B1 (ko) 색상 대비가 강조된 흑백영상 획득 시스템 및 이를 이용한 흑백 영상 획득 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R151 Written notification of patent or utility model registration

Ref document number: 7031584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151