JP7031584B2 - Area identification device and area identification method and area identification program - Google Patents
Area identification device and area identification method and area identification program Download PDFInfo
- Publication number
- JP7031584B2 JP7031584B2 JP2018524065A JP2018524065A JP7031584B2 JP 7031584 B2 JP7031584 B2 JP 7031584B2 JP 2018524065 A JP2018524065 A JP 2018524065A JP 2018524065 A JP2018524065 A JP 2018524065A JP 7031584 B2 JP7031584 B2 JP 7031584B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- observation target
- area
- feature amount
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims 1
- 238000009795 derivation Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 7
- 239000006185 dispersion Substances 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 2
- 235000014653 Carica parviflora Nutrition 0.000 description 1
- 241000243321 Cnidaria Species 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
本発明は、地上や上空や宇宙等で撮影された画像の観測対象領域を識別する技術に関する。 The present invention relates to a technique for identifying an observation target area of an image taken on the ground, in the sky, in space, or the like.
人工衛星から取得した画像の雲領域のエッジ情報を基に雲領域を識別する装置(特許文献1)や、画像の明度および彩度から雲などの観測対象領域を識別する画像処理装置(特許文献2)が開示されている。これらの装置では、利用者が観測対象領域を識別するための特徴量をグラフ上で見ながら、観測対象領域の設定を行う。また、k-means法に代表される領域分割手法とSVM(Support Vector Machine)に代表される機械学習とを組み合わせて画像が属するカテゴリを識別し、雲などの観測対象領域を抽出する画像識別装置(特許文献3)が開示されている。 A device that identifies a cloud region based on edge information of a cloud region of an image acquired from an artificial satellite (Patent Document 1), and an image processing device that identifies an observation target region such as a cloud from the brightness and saturation of an image (Patent Document 1). 2) is disclosed. In these devices, the observation target area is set while the feature amount for the user to identify the observation target area is viewed on the graph. In addition, an image identification device that identifies the category to which an image belongs by combining a region division method represented by the k-means method and machine learning represented by SVM (Support Vector Machine), and extracts an observation target region such as a cloud. (Patent Document 3) is disclosed.
しかしながら、特許文献1に開示された装置では、地表上の雲領域と似通ったエッジ情報を持つ物体を雲領域と誤判定してしまう。また、雲は種類によって多様なエッジの特徴を持っているため、雲領域を取りこぼしてしまう。特許文献2に開示された装置では、カラー画像を前提としており、赤外画像のようなモノクロ画像では識別ができない。また、これらの装置では、利用者が観測対象領域を識別するための特徴量をグラフ上で見ながら、観測対象領域の設定を行う。そのため、特徴量が2つ程度に制限され、詳細な境界条件を設定することが難しい。
However, in the apparatus disclosed in
以上の結果、これらの装置では、観測対象領域の識別精度を上げられないという課題がある。また、特許文献1と特許文献2は、入力される静止画像を処理する場合については言及しているものの、動画等のリアルタイム処理については言及していない。
As a result of the above, there is a problem that these devices cannot improve the identification accuracy of the observation target area. Further,
一方、特許文献3に開示された装置では、観測対象領域の識別精度を上げることができる。しかしながら、この装置では、k-means法に代表される領域分割手法とSVMに代表される機械学習とを組み合わせているため、計算量が膨大となり、動画等のリアルタイム処理には向かないという課題がある。 On the other hand, in the apparatus disclosed in Patent Document 3, the identification accuracy of the observation target area can be improved. However, since this device combines a region division method represented by the k-means method and machine learning represented by SVM, the amount of calculation becomes enormous, and there is a problem that it is not suitable for real-time processing such as moving images. be.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an area identification device capable of real-time area identification with high accuracy regardless of whether the image is color or monochrome. To do.
本発明の領域識別装置は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する。 The region identification device of the present invention divides an input image into local regions, and derives one or more of the feature quantities that can be derived for each local region based on the pixel information of the image. An observation target area determination means for determining whether or not each local region is an observation target by comparing the derived means with the derived feature amount and a criterion for determining the observation target area set in a predetermined dictionary. Have.
本発明の領域識別方法は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する。 In the region identification method of the present invention, the input image is divided into local regions, and one or more of the feature quantities that can be derived based on the pixel information of the image is derived and derived for each local region. It is determined whether or not the feature amount is an observation target for each local region by comparing the feature amount with the reference for determining the observation target region set in a predetermined dictionary.
本発明の領域識別プログラムは、入力された画像を局所領域に分割する処理と、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる。 The region identification program of the present invention derives one or more of a process of dividing an input image into local regions and a feature amount that can be derived for each local region based on the pixel information of the image. Have the computer execute the process and the process of comparing the derived feature amount with the criterion for determining the observation target area set in the predetermined dictionary and determining whether or not the feature is the observation target for each local area. ..
本発明によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。 According to the present invention, it is possible to provide a region identification device that enables real-time region identification with high accuracy regardless of whether the image is color or monochrome.
以下、図を参照しながら、本発明の実施形態を詳細に説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。
(第1の実施形態)
図1は、本発明の第1の実施形態の領域識別装置の構成を示すブロック図である。本実施形態の領域識別装置1は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段11を有する。さらに、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段12を有する。Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, although the embodiments described below have technically preferable limitations for carrying out the present invention, the scope of the invention is not limited to the following.
(First Embodiment)
FIG. 1 is a block diagram showing a configuration of a region identification device according to a first embodiment of the present invention. The
本実施形態の領域識別装置1によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。
According to the
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第2の実施形態)
図2は、本発明の第2の実施形態の領域識別装置2の構成を示すブロック図である。領域識別装置2は、画像入力部21、特徴量導出部22、辞書保存部23、観測対象領域判定部24、観測対象領域情報出力部25、学習部26を備えている。As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
(Second embodiment)
FIG. 2 is a block diagram showing a configuration of the area identification device 2 according to the second embodiment of the present invention. The area identification device 2 includes an
画像入力部21は、例えば、雲等の観測対象領域の識別を行う画像の画像データを入力する。
The
特徴量導出部22は、画像入力部21で入力された画像を局所領域に分割し、局所領域ごとに画像の画素情報に基づく特徴量を算出する。
The feature
辞書保存部23は、観測対象領域の判定基準を設定している辞書データを保存し、前記辞書データを観測対象領域判定部24に入力する。
The
観測対象領域判定部24は、特徴量導出部22で算出された特徴量と辞書保存部23から入力された辞書データで設定されている観測対象領域を判定する基準とを比較して、観測対象か否かを判定する。
The observation target
観測対象領域情報出力部25は、観測対象領域判定部24の判定結果を、雲等の観測対象領域を識別した画像に表現するなどして出力する。
The observation target area
学習部26は、観測対象領域の判定基準を設定した辞書データを生成する。
The
領域識別装置2は、PC(Personal Computer)やサーバなどの情報処理機器(コンピュータ)とすることができる。情報処理機器は構成要素として、演算資源であるCPU(Central Processing Unit)、記憶資源であるメモリやHDD(Hard Disk Drive)、通信資源である通信ボードや入力インターフェイス、入力資源であるキーボードやマウスやタッチパネル、表示資源であるディスプレイやプリンタ、などを備えている。CPUでプログラムを動作させ、これらの構成要素を用いることにより、領域識別装置1を構成する各部を実現することができる。
The area identification device 2 can be an information processing device (computer) such as a PC (Personal Computer) or a server. Information processing equipment includes a CPU (Central Processing Unit) as a computing resource, a memory and an HDD (Hard Disk Drive) as a storage resource, a communication board and an input interface as a communication resource, and a keyboard and a mouse as an input resource. It is equipped with a touch panel, displays and printers that are display resources. By operating the program on the CPU and using these components, it is possible to realize each part constituting the
すなわち、画像入力部21は、衛星や航空機から送信された画像データを受信する通信ユニットや、外部から画像データを入力する入力インターフェイスなどにより実現される。特徴量導出部22や観測対象領域判定部24や学習部26はCPUでプログラムを動作させることにより実現される。辞書保存部23は、メモリやHDDなどにより実現される。観測対象領域情報出力部25はディスプレイやプリンタなどにより実現される。
That is, the
図3は、本実施形態の領域識別装置が実行する、観測対象領域の判定基準を設定する動作を示すフローチャートである。本フローチャートは、観測対象領域の判定基準を設定する動作を実行するプログラムを起動することで開始となる。 FIG. 3 is a flowchart showing an operation of setting a determination criterion of an observation target area, which is executed by the area identification device of the present embodiment. This flowchart is started by starting a program that executes an operation of setting a criterion for an observation target area.
まず、ステップS01で、学習部26に、観測対象が映っている学習用の画像を外部から入力する。図4は、観測対象を雲としたときの学習用の画像の例を示す図である。学習用の画像は、例えば、観測対象が雲であれば、様々な雲を撮影した画像を複数枚、例えば数枚から数十枚を入力する。
First, in step S01, a learning image showing the observation target is input to the
学習用の画像は、実際に観測対象領域の識別を行う画像と、撮影するカメラや撮影条件、気象条件、時刻、季節などが同じ条件であることが好ましいが、これには限定されない。これらの条件を満たす画像の取得が困難な場合は、これらの条件の幾つかを異にする画像や模擬画像を使用することができる。 The image for learning is preferably, but is not limited to, the image that actually identifies the observation target area and the camera to be photographed, the image-taking conditions, the weather conditions, the time, the season, and the like. When it is difficult to obtain an image satisfying these conditions, an image or a simulated image different from some of these conditions can be used.
また、学習用の画像は、以降で算出される特徴量の分解能を高めるためには、画像処理のされていない未加工画像(RAW画像とも呼ぶ)とすることが好ましい。これは、未加工画像が例えば14ビット(214)の分解能であっても、画像処理により例えば8ビット(28)の分解能まで低下させてしまうことで、特徴量の分解能を低下させてしまうことになるためである。Further, the image for learning is preferably an unprocessed image (also referred to as a RAW image) that has not been image-processed in order to increase the resolution of the feature amount calculated later. This is because even if the raw image has a resolution of, for example, 14 bits (214), the resolution of the feature amount is lowered by reducing the resolution to, for example, 8 bits (28) by image processing. This is because it will be.
次に、ステップS02で、学習部26は、入力された学習用の画像の局所領域ごとの特徴量を、画像データの有する画素情報から算出する。特徴量の種類としては、実際に観測対象領域の識別を行う画像で使用する特徴量と同じ種類とし、ひとつ以上の特徴量とすることができる。例えば、画像が可視画像である場合、特徴量-1として平均輝度、特徴量-2として輝度の分散の2つを特徴量とすることができるが、これらには限定されない。特徴量の種類は、予め定めておくことができる。
Next, in step S02, the
図5は、学習用の画像の局所領域の特徴量を算出するために、学習部26が、画像をブロックに分割した例を示す。学習部26は、各ブロックの特徴量を局所領域の特徴量として算出する。
FIG. 5 shows an example in which the
次に、ステップS03で、学習部26に、入力された画像中の観測対象の観測対象正解領域情報を入力する。図6は、観測対象正解領域情報である、雲の部分とその他の部分とで2値化した2値化画像を示す。この2値化画像の雲の領域、すなわち図6での白い領域が、観測対象正解領域である。この2値化画像は、利用者が学習用の画像から雲の部分を指定する、あるいは、2値化画像の画像処理をするなどして、予め作成しておくことができる。
Next, in step S03, the observation target correct answer area information of the observation target in the input image is input to the
次に、ステップS04で、学習部26は、学習用画像の局所領域の特徴量と観測対象正解領域情報とから機械学習の処理を行う。機械学習としては、例えば、特許文献4に開示されているGLVQ(Generalized Learning Vector Quantization、一般化学習ベクトル量子化)のような、識別時の計算量が少ない方法が望ましい。GLVQによれば、ステップS02で算出した各ブロックの特徴量と、ステップS03で入力した観測対象正解領域情報の観測対象正解領域とを対応付け、観測対象正解領域となるための特徴量を設定することができる。
Next, in step S04, the
なお、機械学習の方法は、各ブロックの特徴量と観測対象正解領域情報の観測対象正解領域とを対応付けて、観測対象正解領域となるための特徴量を設定することができる方法であれば、GLVQには限定されない。 The machine learning method is a method that can set the feature amount to be the observation target correct answer area by associating the feature amount of each block with the observation target correct answer area of the observation target correct answer area information. , Not limited to GLVQ.
図7は、学習部26が、機械学習により特徴量と観測対象正解領域(例えば、雲領域と雲以外の領域)とを対応付けた例を示す。図7では、2枚の学習用の画像を入力し、1画像あたり1000個の局所領域とし、各々の局所領域について2種類の特徴量を算出した場合を示しているが、これには限定されない。
FIG. 7 shows an example in which the
画像-1の各局所領域の特徴量-1と特徴量-2との組は、(a1,b1)、(a2,b2)、・・・、(a1000,b1000)となり、各々の組が、観測対象正解クラスの1(雲領域)に属するか、または0(雲以外の領域)に属するか、判定されている。また、画像-2の各局所領域の特徴量-1と特徴量-2との組は、(a1001,b1001)、・・・、(a2000,b2000)となり、各々の組が、観測対象正解クラスの1に属するか、または0に属するか、判定されている。なお、a1~a2000やb1~b2000には、各々、計算などにより導出された特徴量の数値が入る。The set of the feature amount -1 and the feature amount -2 of each local region of the image-1 is (a 1 , b 1 ), (a 2 , b 2 ), ..., (A 1000 , b 1000 ). , It is determined whether each set belongs to 1 (cloud region) or 0 (region other than cloud) of the observation target correct answer class. Further, the set of the feature amount -1 and the feature amount -2 of each local region of the image-2 is (a 1001 , b 1001 ), ..., (A 2000 , b 2000 ), and each set is. It is determined whether it belongs to 1 or 0 of the observation target correct answer class. It should be noted that the numerical values of the feature quantities derived by calculation or the like are input to a 1 to a 2000 and b 1 to b 2000 , respectively.
次に、ステップS05で、学習部26は、以上の機械学習の処理により得た観測対象領域と特徴量との対応から、特徴量で観測対象領域を識別する基準を設定した辞書データを生成する。
Next, in step S05, the
図8は、学習部26が、図7の各局所領域の特徴量と観測対象正解領域の関係を特徴量-1と特徴量-2の座標系に表し、観測対象判定基準の境界を設定した例を示す。画像-1と画像-2の特徴量の各々は、特徴量-1と特徴量-2の座標系に一同に表される。境界は、例えばGLVQを用いた機械学習により、設けられた境界によるクラス1とクラス0のクラス分けと、図7のクラス分けとの食い違いが最小となるように設定される。そのため、GLVQで設けられた境界によるクラス1とクラス0のクラス分けと、図7のクラス分けとの食い違いが生じる場合もあり得る。
In FIG. 8, the
GLVQによれば、所定のクラスらしさを表す指標として誤分類尺度を用いる。誤分類尺度は-1~1の間の値を取り、クラス1に対する誤分類尺度の場合、誤分類尺度が-1に近いほどクラス1である確度が高い。逆に、誤分類尺度が1に近いほどクラス1でない、すなわちクラス0である確度が高い。クラス1とクラス0の境界は、通常、誤分類尺度0に設定され、曖昧さを含み易い領域である。また、例えば、空の部分を雲だと多少誤ったとしても雲の部分を確実に雲と判定したい場合は、雲に対する誤分類尺度が0より大きい正の値を閾値として識別する、などの調整が可能である。
According to GLVQ, a misclassification scale is used as an index to express a predetermined classiness. The misclassification scale takes a value between -1 and 1, and in the case of the misclassification scale for
図9は、学習部26で設定される観測対象判定基準の境界の例を示す。学習部26は、図9に示すような特徴量-1と特徴量-2との座標系において、観測対象とそれ以外との境界を設定し、この境界を判定基準として特徴量により観測対象であるか否かを判定することのできる辞書データを生成する。生成された辞書データは、辞書保存部23に保存され、終了する。
FIG. 9 shows an example of the boundary of the observation target determination standard set by the
図9において、観測対象であると判定するための境界を、より現実の観測対象に近づけるためには、前記のクラス間の分離性の高い、すなわち、図8の境界付近の特徴量が少ない特徴量を選択することが有効である。このためには、予め何種類かの特徴量で境界を決める上記の動作を実行し、できるだけ曖昧さを含まずに境界を決めることができる特徴量を選択する、などが可能である。 In FIG. 9, in order to bring the boundary for determining the observation target closer to the actual observation target, the feature having high separability between the above classes, that is, the feature amount near the boundary in FIG. 8 is small. It is useful to choose the amount. For this purpose, it is possible to execute the above operation of determining the boundary with several kinds of features in advance, and select a feature amount that can determine the boundary with as little ambiguity as possible.
図10は、本実施形態の領域識別装置が実行する、観測対象領域を識別する動作を示すフローチャートである。本フローチャートは、観測対象領域を識別する動作を実行するプログラムを起動することで開始となる。 FIG. 10 is a flowchart showing an operation for identifying an observation target area executed by the area identification device of the present embodiment. This flowchart is started by starting a program that executes an operation for identifying an observation target area.
まず、ステップS11で、画像入力部21に、観測対象領域を識別する画像を外部から入力する。画像の入力は、カメラで撮像された画像を直接入力することが可能であるが、これには限定されない。画像の入力は、記憶媒体に保存されている画像を入力してもよい。
First, in step S11, an image that identifies the observation target area is input to the
観測対象領域を識別する画像は、以降で算出される特徴量の分解能を高めるためには、画像処理のされていない未加工画像とすることが好ましい。これは、未加工画像が例えば14ビットの分解能であっても、画像処理により例えば8ビットの分解能まで低下させてしまうことで、特徴量の分解能を低下させてしまうことになるためである。 The image that identifies the observation target area is preferably an unprocessed image that has not been image-processed in order to improve the resolution of the feature amount calculated later. This is because even if the raw image has a resolution of, for example, 14 bits, the resolution of the feature amount is lowered by reducing the resolution to, for example, 8 bits by image processing.
次に、ステップS12で、特徴量導出部22は、画像をブロックに分割し、各ブロックを局所領域とし、局所領域ごとの特徴量を算出する。図11は、観測対象領域を識別する画像をブロックに分割した例を示す図である。図11に示すように、例えば、縦8画素と横8画素を1つのブロックとすることができるが、これには限定されない。特徴量導出部22は、例えば、個々の画素の有する特徴量の平均値をブロックの特徴量とすることができる。また、個々の画素の有する特徴量の分散をブロックの特徴量とすることができるが、これらには限定されない。
Next, in step S12, the feature
また、局所領域ごとの特徴量を算出する方法は、図11のようにブロックに分割する方法には限定されない。例えば、縦8画素と横8画素を1つの局所領域とし、この領域を1画素ずつずらして走査しながら連続的に特徴量を算出する方法でもよい。また、特徴量としては、ひとつ以上の特徴量とすることができる。例えば、画像が可視画像である場合、特徴量を彩度や明度の2つや、輝度や輝度分散の2つ、あるいはこれら全ての4つ、などとすることができるがこれらには限定されない。特徴量の種類は、予め定めておくことができる。 Further, the method of calculating the feature amount for each local region is not limited to the method of dividing into blocks as shown in FIG. For example, a method may be used in which 8 vertical pixels and 8 horizontal pixels are set as one local area, and the feature amount is continuously calculated while scanning by shifting this area by 1 pixel. Further, the feature amount can be one or more feature amounts. For example, when the image is a visible image, the feature quantities can be two of saturation and lightness, two of luminance and luminance dispersion, or all four of these, but are not limited thereto. The type of feature amount can be predetermined.
次に、ステップS13で、辞書保存部23は、学習部26で生成された辞書データを観測対象領域判定部24に入力する。観測対象領域判定部24は、特徴量導出部22で得られた局所領域ごとの特徴量と辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象か否かを判定する。
Next, in step S13, the
次に、ステップS14で、観測対象領域情報出力部25は、ステップS13での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力し、終了する。
Next, in step S14, the observation target area
図12は、本実施形態の領域識別装置2が実行する、3つの領域を判定する動作を示すフローチャートである。ここでは、観測対象領域として、雲と海と、これら以外の領域を識別する場合を説明する。 FIG. 12 is a flowchart showing an operation of determining three areas executed by the area identification device 2 of the present embodiment. Here, a case where clouds, the sea, and other regions are identified as observation target regions will be described.
学習部26は、予め、図3に示す観測対象領域の判定基準を設定する動作により、学習用画像と、学習用画像中の海と雲のそれぞれに対する観測対象正解領域情報とから、図13に示すような観測対象領域の判定基準を設定した辞書データを生成する。
The
図13は、3つの領域を識別する判定基準の境界の例を示す図である。学習部26は、図13のような特徴量-1と特徴量-2との座標系において、観測対象-1(雲)と観測対象-2(海)と観測対象外との境界を設定し、この境界を判定基準として特徴量により観測対象を識別することのできる辞書データを生成する。学習部26は、生成した辞書データを、辞書保存部23に保存する。
FIG. 13 is a diagram showing an example of a boundary of a criterion for identifying three regions. The
図12のフローチャートは、観測対象領域を識別する動作を実行するプログラムを起動することで開始となる。まず、ステップS21で、画像入力部21に観測対象領域を識別する画像を入力する。次に、ステップS22で、特徴量導出部22は、画像をブロックに分割し、各ブロックを局所領域とし、局所領域ごとの特徴量を算出する。
The flowchart of FIG. 12 is started by starting a program that executes an operation of identifying an observation target area. First, in step S21, an image that identifies the observation target area is input to the
次に、ステップS23で、辞書保存部23は、学習部26で生成された辞書データを観測対象領域判定部24に入力する。観測対象領域判定部24は、特徴量導出部22で得られた局所領域ごとの特徴量と辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに雲か海かこれら以外かを判定する。
Next, in step S23, the
次に、ステップS24で、観測対象領域情報出力部25は、ステップS23での判定結果を、例えば、雲領域を1、海領域を2、これら以外を0とした3値画像等にして外部に出力し、終了する。
Next, in step S24, the observation target area
以上の方法により、例えば、観測対象領域を識別する画像中に移動体が存在した場合、移動体が存在する場所が海である場合、移動体を船舶と推定することができる。また、移動体が存在する場所が雲である場合、移動体を飛行体と推定することができる。 By the above method, for example, when a moving body is present in an image identifying an observation target area, or when the place where the moving body is located is the sea, the moving body can be estimated to be a ship. Further, when the place where the moving body exists is a cloud, the moving body can be estimated as a flying body.
なお、観測対象領域は以上のような1つの領域や2つの領域には限定されない。観測対象領域の数は任意の正数とすることができ、予め、観測対象領域に対応した観測対象を識別することのできる辞書データを生成しておけばよい。 The observation target area is not limited to one area or two areas as described above. The number of observation target areas can be any positive number, and dictionary data that can identify the observation target corresponding to the observation target area may be generated in advance.
なお、観測対象領域は、例えば、雲、海、空、陸、氷、雪、山、草原、森、砂漠、珊瑚礁、建物や道路などの構造物など、空中や地上や水中から取得される画像中の領域とすることができる。また、観測対象領域はこれらには限定されず、室内や生体から取得される画像中の領域や、顕微鏡で拡大された画像中の領域とすることもできる。 The observation target area is an image acquired from the air, ground, or underwater, such as clouds, sea, sky, land, ice, snow, mountains, grasslands, forests, deserts, coral reefs, and structures such as buildings and roads. It can be an area inside. Further, the observation target area is not limited to these, and may be a region in an image acquired from a room or a living body, or a region in an image magnified by a microscope.
なお、特徴量は、可視画像であれば彩度や明度や輝度や輝度分散など、赤外画像であれば輝度や輝度分散などとすることができる。また、ブロックなどの局所領域中の画素ごとの強度のヒストグラムや分布の様子(模様)、SIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)により記述される特徴量とすることができる。特徴量は、画像の画素の有する前記の彩度や明度や輝度などの情報からの値の抽出や、抽出された値を用いた計算などによって、導出される。 The feature amount can be saturation, brightness, luminance, luminance dispersion for a visible image, and luminance, luminance dispersion, etc. for an infrared image. In addition, it can be a feature amount described by a histogram of the intensity of each pixel in a local region such as a block, a state of distribution (pattern), SIFT (Scale-Invariant Features Transition Form), and HOG (Histograms of Oriented Gradients). .. The feature amount is derived by extracting a value from the information such as saturation, brightness, and brightness of the pixel of the image, and calculating using the extracted value.
本実施形態の領域識別装置2によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 2 of the present embodiment, the user does not need to set the target area while looking at the feature amount on the graph, and detailed boundary conditions can be set by a wide variety of feature amounts. As a result, the identification accuracy of the target area can be improved regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the identification in real time such as a moving image is possible.
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第3の実施形態)
図14は、本発明の第3の実施形態の領域識別装置3の構成を示すブロック図である。領域識別装置3は、第1の画像入力部31-1、第2の画像入力部31-2、特徴量導出部32、辞書保存部33、観測対象領域判定部34、観測対象領域情報出力部35、学習部36を備えている。本実施形態の領域識別装置3では、同時期に同じ観測対象を含む場面を撮影した2種類以上の画像を入力して領域識別するために、複数の画像入力部を備えている点が、第2の実施形態と異なる。As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
(Third embodiment)
FIG. 14 is a block diagram showing the configuration of the area identification device 3 according to the third embodiment of the present invention. The area identification device 3 includes a first image input unit 31-1, a second image input unit 31-2, a feature
図14は、2種類の画像を入力して領域識別する場合を示している。まず、同時期に同じ場面を撮影した2種類の画像、例えば、可視画像を第1の画像入力部31-1に、赤外画像を第2の画像入力部31-2に入力する。特徴量導出部32は、それぞれの画像をブロックに分割して局所領域ごとの特徴量を算出する。
FIG. 14 shows a case where two types of images are input to identify an area. First, two types of images obtained by capturing the same scene at the same time, for example, a visible image is input to the first image input unit 31-1 and an infrared image is input to the second image input unit 31-2. The feature
2種類の画像の特徴量としては、例えば、可視画像の彩度および明度、赤外画像の平均輝度および輝度の分散の4種類とすることができる。学習部36は、予め、前記4種類の特徴量を機械学習し、4次元の特徴量空間に境界を設定する辞書データを生成しておく。辞書保存部33は、学習部36で生成された辞書データを保存し、観測対象領域判定部34に入力する。
The two types of image features can be, for example, four types: saturation and brightness of a visible image, average luminance and luminance dispersion of an infrared image. The
観測対象領域判定部34は、特徴量導出部32で得られた局所領域の特徴量と、辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象か否かを判定する。
The observation target
観測対象領域情報出力部35は、観測対象領域判定部34での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力する。
The observation target area
以上のように、可視画像と赤外画像といった異なる複数の画像により観測領域を識別することで、例えば、雲と氷や雪といった可視画像だけでは識別が困難な領域についても、赤外画像と組み合わせることで、正確な識別が可能となる。 As described above, by identifying the observation area from a plurality of different images such as a visible image and an infrared image, for example, a region such as clouds and ice or snow that is difficult to identify only by the visible image can be combined with the infrared image. This enables accurate identification.
なお、画像入力部は2つには限定されない。画像入力部の数は任意の正数とすることができる。また、ひとつの画像入力部から複数の画像を入力してもよい。 The image input unit is not limited to two. The number of image input units can be any positive number. Further, a plurality of images may be input from one image input unit.
本実施形態の領域識別装置3によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 3 of the present embodiment, the user does not need to set the target area while looking at the feature amount on the graph, and detailed boundary conditions can be set by a wide variety of feature amounts. As a result, the identification accuracy of the target area can be improved regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the real-time identification of a moving image or the like is possible.
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第4の実施形態)
図15は、本発明の第4の実施形態の領域識別装置4の構成を示すブロック図である。領域識別装置4は、第1の画像入力部41-1、第2の画像入力部41-2、特徴量導出部42、辞書保存部43、観測対象領域判定部44、観測対象領域情報出力部45、学習部46、辞書選択部47を備えている。本実施形態の領域識別装置4では、画像の撮影条件によって複数の辞書を使い分けるために辞書選択部47を備えている点が、第3の実施形態と異なる。As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
(Fourth Embodiment)
FIG. 15 is a block diagram showing the configuration of the area identification device 4 according to the fourth embodiment of the present invention. The area identification device 4 includes a first image input unit 41-1, a second image input unit 41-2, a feature
ここでは、航空機より水平線方向を2波長の赤外線カメラで撮影している場面において、画像中の雲領域をリアルタイムに識別する場合について説明する。 Here, a case will be described in which a cloud region in an image is identified in real time in a scene in which a two-wavelength infrared camera is used to capture the horizon direction from an aircraft.
まず、第1の画像入力部41-1にa波長赤外画像1を、第2の画像入力部41-2にb波長赤外画像2を入力する。ここで、2種類の画像はほぼ同時に撮影されたものであり、1台のカメラでフィルタを切り替えて2波長を交互に撮影したものでもよいし、2台のカメラを使用するものでもよい。それぞれの画像は、観測対象である雲領域の物性や温度に対応する輝度を得るために、未加工画像を用いる。
First, the a-wavelength
特徴量導出部42は、それぞれの画像をブロックに分割して局所領域ごとの特徴量を算出する。2種類の画像の特徴量としては、例えば、2波長の赤外画像の各々の平均輝度および輝度の分散の、4次元の特徴量とすることができる。
The feature
なお、ここで、例えば、a波長赤外画像1を波長が3から4μmの赤外画像、b波長赤外画像2を波長が4から5μmの赤外画像とする。赤外画像は、波長が3から4μmのときに太陽光の影響を大きく受ける。そこで、3から4μmの赤外画像と4から5μmの赤外画像との差を取ることで、太陽光の影響を抽出することができる。これにより、太陽光の影響を削除して、観測対象領域を識別することができる。なお、赤外画像の赤外線の波長は、上記の組み合わせには限定されない。
Here, for example, the a-wavelength
学習部46は、予め、4種類の特徴量を学習し、4次元の特徴量空間に境界を設定する辞書データを生成する。ここで学習用画像としては、撮影条件別の画像の組みを複数用意し、撮影条件別に辞書データを作成する。撮影条件としては、例えば、気象条件や昼夜などの時刻や季節などが挙げられる。辞書保存部43は、学習部46で生成された辞書データを保存する。辞書選択部47は、実際の撮影時の条件に最も撮影条件が近い辞書を選択して、観測対象領域判定部44に入力する。
The
観測対象領域判定部44は、特徴量導出部42で得られた局所領域の特徴量と、辞書データで設定された観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象を識別する。
The observation target
観測対象領域情報出力部45は、観測対象領域判定部44での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力する。
The observation target area
以上のように、観測対象領域を識別したい画像の撮影時の条件に最も撮影条件が近い辞書を選択して観測対象を識別することで、撮影条件が変化することで生じる誤識別を抑制することができる。 As described above, by selecting the dictionary that has the closest shooting conditions to the shooting conditions of the image for which the observation target area is to be identified and identifying the observation target, it is possible to suppress erroneous identification caused by changes in the shooting conditions. Can be done.
本実施形態の領域識別装置4によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 4 of the present embodiment, the user does not need to set the target area while looking at the feature amount on the graph, and detailed boundary conditions can be set by a wide variety of feature amounts. As a result, it is possible to improve the identification accuracy of the target area regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the identification in real time such as a moving image is possible.
以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。 As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the embodiments, the invention of the present application is not limited to the above-described embodiment. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the configuration and details of the present invention.
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する領域識別装置。
(付記2)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する学習手段を有する、付記1記載の領域識別装置。
(付記3)
前記学習手段は、機械学習して前記観測対象領域を設定する、付記2記載の領域識別装置。
(付記4)
前記画像の撮影条件に基づいて前記辞書を選択する辞書選択手段を有する、付記1から3の内の1項記載の領域識別装置。
(付記5)
前記画像を入力する画像入力手段を有する、付記1から4の内の1項記載の領域識別装置。
(付記6)
前記画像入力手段は複数である、付記5記載の領域識別装置。
(付記7)
入力された画像を局所領域に分割し、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する、領域識別方法。
(付記8)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する、付記7記載の領域識別方法。
(付記9)
機械学習して前記観測対象領域を設定する、付記7または8記載の領域識別方法。
(付記10)
前記画像の撮影条件に基づいて前記辞書を選択する、付記7から9の内の1項記載の領域識別方法。
(付記11)
入力された画像を局所領域に分割する処理と、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる領域識別プログラム。
(付記12)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する処理をコンピュータに実行させる、付記11記載の領域識別プログラム。
(付記13)
機械学習して前記観測対象領域を設定する処理をコンピュータに実行させる、付記11または12記載の領域識別プログラム。
(付記14)
前記画像の撮影条件に基づいて前記辞書を選択する処理をコンピュータに実行させる、付記11から13の内の1項記載の領域識別プログラム。In addition, some or all of the above embodiments may be described as in the following appendix, but are not limited to the following.
(Appendix 1)
A feature quantity deriving means that divides the input image into local regions and derives one or more of the feature quantities that can be derived based on the pixel information of the image for each local region.
Area identification having an observation target area determination means for determining whether or not each local area is an observation target by comparing the derived feature amount with a criterion for determining an observation target area set in a predetermined dictionary. Device.
(Appendix 2)
It has a learning means for creating the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer region information of the observation target of the learning image. The area identification device according to
(Appendix 3)
The area identification device according to Appendix 2, wherein the learning means performs machine learning to set the observation target area.
(Appendix 4)
The area identification device according to
(Appendix 5)
The area identification device according to
(Appendix 6)
The area identification device according to Appendix 5, wherein the image input means is plural.
(Appendix 7)
Divide the input image into local areas and
One or more of the feature quantities that can be derived based on the pixel information of the image for each local region are derived.
A region identification method for determining whether or not each local region is an observation target by comparing the derived feature amount with a criterion for determining an observation target region set in a predetermined dictionary.
(Appendix 8)
Addendum 7 to create the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer region information of the observation target of the learning image. Area identification method.
(Appendix 9)
The area identification method according to Appendix 7 or 8, wherein the observation target area is set by machine learning.
(Appendix 10)
The area identification method according to
(Appendix 11)
The process of dividing the input image into local areas and
A process of deriving one or more of the feature quantities that can be derived based on the pixel information of the image for each local region.
An area identification program that causes a computer to execute a process of comparing the derived feature amount with a standard for determining an observation target area set in a predetermined dictionary and determining whether or not each local area is an observation target. ..
(Appendix 12)
The computer executes a process of creating the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer area information of the observation target of the learning image. The area identification program according to
(Appendix 13)
The area identification program according to
(Appendix 14)
The area identification program according to
この出願は、2016年6月21日に出願された日本出願特願2016-122510を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2016-122510 filed on June 21, 2016 and incorporates all of its disclosures herein.
1、2、3、4 領域識別装置
11 特徴量導出手段
12 観測対象領域判定手段
21 画像入力部
31-1、41-1 第1の画像入力部
31-2、41-2 第2の画像入力部
22、32、42 特徴量導出部
23、33、43 辞書保存部
24、34、44 観測対象領域判定部
25、35、45 観測対象領域情報出力部
26、36、46 学習部
47 辞書選択部1, 2, 3, 4
Claims (10)
所定の辞書で設定され、前記種類の数の次元の特徴量空間に複数通りの観測対象領域のそれぞれについて設定された境界を基準として、当該基準と、導出した複数の前記種類の前記特徴量と、を比較して、前記局所領域ごとにいずれの観測対象かを判定する観測対象領域判定手段と、を有する領域識別装置。 A feature amount deriving means for dividing an input image into local regions and deriving a plurality of types of feature quantities that can be derived based on the pixel information of the image for each local region.
Based on the boundary set in a predetermined dictionary and set for each of a plurality of observation target areas in the feature quantity space of the dimension of the number of the type, the reference and the derived feature quantity of the plurality of the types are used. A region identification device comprising an observation target region determination means for determining which observation target is to be observed for each of the local regions by comparing the above.
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる複数の種類の特徴量を導出し、
所定の辞書で設定され、前記種類の数の次元の特徴量空間に複数通りの観測対象領域のそれぞれについて設定された境界を基準として、当該基準と、導出した複数の前記種類の前記特徴量とを比較して、前記局所領域ごとにいずれの観測対象かを判定する、領域識別方法。 Divide the input image into local areas and
A plurality of types of feature quantities that can be derived based on the pixel information of the image are derived for each local region.
Based on the boundary set in a predetermined dictionary and set for each of a plurality of observation target areas in the feature quantity space of the dimension of the number of the type, the reference and the derived feature quantity of the plurality of the types are used. A region identification method for determining which observation target is to be observed for each of the local regions.
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる複数の種類の特徴量を導出する処理と、
所定の辞書で設定され、前記種類の数の次元の特徴量空間に複数通りの観測対象領域のそれぞれについて設定された境界を基準として、当該基準と、導出した複数の前記種類の前記特徴量とを比較して、前記局所領域ごとにいずれの観測対象かを判定する処理と、をコンピュータに実行させる領域識別プログラム。 The process of dividing the input image into local areas and
A process for deriving a plurality of types of features that can be derived based on the pixel information of the image for each local region, and a process for deriving the features.
Based on the boundary set in a predetermined dictionary and set for each of a plurality of observation target areas in the feature quantity space of the dimension of the number of the above type, the reference and the derived feature quantity of the plurality of the types are used. A region identification program that causes a computer to execute a process of comparing and determining which observation target is to be observed for each local region.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016122510 | 2016-06-21 | ||
JP2016122510 | 2016-06-21 | ||
PCT/JP2017/022445 WO2017221860A1 (en) | 2016-06-21 | 2017-06-19 | Area differentiation device, area differentiation method, and area differentiation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017221860A1 JPWO2017221860A1 (en) | 2019-04-11 |
JP7031584B2 true JP7031584B2 (en) | 2022-03-08 |
Family
ID=60784269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018524065A Active JP7031584B2 (en) | 2016-06-21 | 2017-06-19 | Area identification device and area identification method and area identification program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7031584B2 (en) |
WO (1) | WO2017221860A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020003837A (en) * | 2018-06-25 | 2020-01-09 | 日本電気株式会社 | Identification apparatus and identification method |
JP7548693B2 (en) * | 2019-11-21 | 2024-09-10 | Maアルミニウム株式会社 | Method for determining heating furnace and heated body |
JP7424066B2 (en) * | 2020-01-20 | 2024-01-30 | 株式会社大林組 | Geological evaluation system, geological evaluation method and geological evaluation program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137812A (en) | 1998-10-30 | 2000-05-16 | Oki Electric Ind Co Ltd | Individual identifier |
JP2000172844A (en) | 1998-12-03 | 2000-06-23 | Toshiba Corp | Printing inspection method and device therefor |
CN102129576A (en) | 2011-02-28 | 2011-07-20 | 西安电子科技大学 | Method for extracting duty ratio parameter of all-sky aurora image |
WO2012111236A1 (en) | 2011-02-17 | 2012-08-23 | 三洋電機株式会社 | Image identification device and program |
WO2012124458A1 (en) | 2011-03-16 | 2012-09-20 | 株式会社エヌ・ティ・ティ・ドコモ | Authorized party authentication template learning system and authorized party authentication template learning method |
JP2012243197A (en) | 2011-05-23 | 2012-12-10 | Morpho Inc | Image identification device, image identification method, image identification program and recording medium |
JP2014116763A (en) | 2012-12-08 | 2014-06-26 | Xacti Corp | Electronic camera |
JP2016071387A (en) | 2014-09-26 | 2016-05-09 | 富士通株式会社 | Image processing apparatus, image processing method, and program |
JP2019060836A (en) | 2018-02-07 | 2019-04-18 | Necプラットフォームズ株式会社 | Float detector and float detection method of print, inspection device, and inspection method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4143149B2 (en) * | 1997-11-20 | 2008-09-03 | キヤノン株式会社 | Region extraction apparatus, region extraction method, and computer-readable recording medium |
-
2017
- 2017-06-19 WO PCT/JP2017/022445 patent/WO2017221860A1/en active Application Filing
- 2017-06-19 JP JP2018524065A patent/JP7031584B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000137812A (en) | 1998-10-30 | 2000-05-16 | Oki Electric Ind Co Ltd | Individual identifier |
JP2000172844A (en) | 1998-12-03 | 2000-06-23 | Toshiba Corp | Printing inspection method and device therefor |
WO2012111236A1 (en) | 2011-02-17 | 2012-08-23 | 三洋電機株式会社 | Image identification device and program |
CN102129576A (en) | 2011-02-28 | 2011-07-20 | 西安电子科技大学 | Method for extracting duty ratio parameter of all-sky aurora image |
WO2012124458A1 (en) | 2011-03-16 | 2012-09-20 | 株式会社エヌ・ティ・ティ・ドコモ | Authorized party authentication template learning system and authorized party authentication template learning method |
JP2012243197A (en) | 2011-05-23 | 2012-12-10 | Morpho Inc | Image identification device, image identification method, image identification program and recording medium |
JP2014116763A (en) | 2012-12-08 | 2014-06-26 | Xacti Corp | Electronic camera |
JP2016071387A (en) | 2014-09-26 | 2016-05-09 | 富士通株式会社 | Image processing apparatus, image processing method, and program |
JP2019060836A (en) | 2018-02-07 | 2019-04-18 | Necプラットフォームズ株式会社 | Float detector and float detection method of print, inspection device, and inspection method |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017221860A1 (en) | 2019-04-11 |
WO2017221860A1 (en) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10395136B2 (en) | Image processing apparatus, image processing method, and recording medium | |
Sathya et al. | Classification and segmentation in satellite imagery using back propagation algorithm of ann and k-means algorithm | |
JP7031584B2 (en) | Area identification device and area identification method and area identification program | |
CN111886600B (en) | Apparatus and method for instance level segmentation of images | |
Dev et al. | Nighttime sky/cloud image segmentation | |
US10013608B2 (en) | Method and system for facilitating real time detection of linear infrastructural objects by aerial imagery | |
JP7159384B2 (en) | Image processing device, image processing method, and program | |
US11176455B2 (en) | Learning data generation apparatus and learning data generation method | |
KR20210064193A (en) | Image processing apparatus, image processing method, and program | |
CN114627173A (en) | Data enhancement for object detection by differential neural rendering | |
JP6448212B2 (en) | Recognition device and recognition method | |
JP6851163B2 (en) | Image processing equipment, image processing methods, and programs | |
Xing et al. | Image-enhanced YOLOv5 and deep sort underwater multi-moving target tracking method | |
JP6546385B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
KR101592087B1 (en) | Method for generating saliency map based background location and medium for recording the same | |
Kim et al. | Dehazing using Non-local Regularization with Iso-depth Neighbor-Fields. | |
JP6770363B2 (en) | Face direction estimator and its program | |
US11373313B2 (en) | Image processing apparatus and image processing method | |
CN112308875A (en) | Unsupervised image segmentation based on background likelihood estimation | |
US20220366651A1 (en) | Method for generating a three dimensional, 3d, model | |
Yang et al. | A comprehensive study on digital image matting | |
Pham | Motion detection with segmentation of optical flows for infrared images | |
Taşar et al. | Object detection using optical and lidar data fusion | |
CN115063661B (en) | Multi-source image fusion method in intelligent teaching space | |
RU2809945C2 (en) | Method for detecting moving objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210901 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7031584 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |