JP7031584B2 - Area identification device and area identification method and area identification program - Google Patents

Area identification device and area identification method and area identification program Download PDF

Info

Publication number
JP7031584B2
JP7031584B2 JP2018524065A JP2018524065A JP7031584B2 JP 7031584 B2 JP7031584 B2 JP 7031584B2 JP 2018524065 A JP2018524065 A JP 2018524065A JP 2018524065 A JP2018524065 A JP 2018524065A JP 7031584 B2 JP7031584 B2 JP 7031584B2
Authority
JP
Japan
Prior art keywords
image
observation target
area
feature amount
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018524065A
Other languages
Japanese (ja)
Other versions
JPWO2017221860A1 (en
Inventor
亮介 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017221860A1 publication Critical patent/JPWO2017221860A1/en
Application granted granted Critical
Publication of JP7031584B2 publication Critical patent/JP7031584B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Description

本発明は、地上や上空や宇宙等で撮影された画像の観測対象領域を識別する技術に関する。 The present invention relates to a technique for identifying an observation target area of an image taken on the ground, in the sky, in space, or the like.

人工衛星から取得した画像の雲領域のエッジ情報を基に雲領域を識別する装置(特許文献1)や、画像の明度および彩度から雲などの観測対象領域を識別する画像処理装置(特許文献2)が開示されている。これらの装置では、利用者が観測対象領域を識別するための特徴量をグラフ上で見ながら、観測対象領域の設定を行う。また、k-means法に代表される領域分割手法とSVM(Support Vector Machine)に代表される機械学習とを組み合わせて画像が属するカテゴリを識別し、雲などの観測対象領域を抽出する画像識別装置(特許文献3)が開示されている。 A device that identifies a cloud region based on edge information of a cloud region of an image acquired from an artificial satellite (Patent Document 1), and an image processing device that identifies an observation target region such as a cloud from the brightness and saturation of an image (Patent Document 1). 2) is disclosed. In these devices, the observation target area is set while the feature amount for the user to identify the observation target area is viewed on the graph. In addition, an image identification device that identifies the category to which an image belongs by combining a region division method represented by the k-means method and machine learning represented by SVM (Support Vector Machine), and extracts an observation target region such as a cloud. (Patent Document 3) is disclosed.

特開平5-333160号公報Japanese Unexamined Patent Publication No. 5-333160 特開2015-64753号公報JP-A-2015-64753 国際公開第2012/111236号International Publication No. 2012/11236 国際公開第2012/095938号International Publication No. 2012/095938

しかしながら、特許文献1に開示された装置では、地表上の雲領域と似通ったエッジ情報を持つ物体を雲領域と誤判定してしまう。また、雲は種類によって多様なエッジの特徴を持っているため、雲領域を取りこぼしてしまう。特許文献2に開示された装置では、カラー画像を前提としており、赤外画像のようなモノクロ画像では識別ができない。また、これらの装置では、利用者が観測対象領域を識別するための特徴量をグラフ上で見ながら、観測対象領域の設定を行う。そのため、特徴量が2つ程度に制限され、詳細な境界条件を設定することが難しい。 However, in the apparatus disclosed in Patent Document 1, an object having edge information similar to the cloud region on the ground surface is erroneously determined as a cloud region. In addition, since clouds have various edge characteristics depending on the type, the cloud area is missed. The apparatus disclosed in Patent Document 2 is premised on a color image, and cannot be identified by a monochrome image such as an infrared image. Further, in these devices, the observation target area is set while the user sees the feature amount for identifying the observation target area on the graph. Therefore, the feature amount is limited to about two, and it is difficult to set detailed boundary conditions.

以上の結果、これらの装置では、観測対象領域の識別精度を上げられないという課題がある。また、特許文献1と特許文献2は、入力される静止画像を処理する場合については言及しているものの、動画等のリアルタイム処理については言及していない。 As a result of the above, there is a problem that these devices cannot improve the identification accuracy of the observation target area. Further, Patent Document 1 and Patent Document 2 refer to the case of processing the input still image, but do not refer to the real-time processing of moving images and the like.

一方、特許文献3に開示された装置では、観測対象領域の識別精度を上げることができる。しかしながら、この装置では、k-means法に代表される領域分割手法とSVMに代表される機械学習とを組み合わせているため、計算量が膨大となり、動画等のリアルタイム処理には向かないという課題がある。 On the other hand, in the apparatus disclosed in Patent Document 3, the identification accuracy of the observation target area can be improved. However, since this device combines a region division method represented by the k-means method and machine learning represented by SVM, the amount of calculation becomes enormous, and there is a problem that it is not suitable for real-time processing such as moving images. be.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an area identification device capable of real-time area identification with high accuracy regardless of whether the image is color or monochrome. To do.

本発明の領域識別装置は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する。 The region identification device of the present invention divides an input image into local regions, and derives one or more of the feature quantities that can be derived for each local region based on the pixel information of the image. An observation target area determination means for determining whether or not each local region is an observation target by comparing the derived means with the derived feature amount and a criterion for determining the observation target area set in a predetermined dictionary. Have.

本発明の領域識別方法は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する。 In the region identification method of the present invention, the input image is divided into local regions, and one or more of the feature quantities that can be derived based on the pixel information of the image is derived and derived for each local region. It is determined whether or not the feature amount is an observation target for each local region by comparing the feature amount with the reference for determining the observation target region set in a predetermined dictionary.

本発明の領域識別プログラムは、入力された画像を局所領域に分割する処理と、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる。 The region identification program of the present invention derives one or more of a process of dividing an input image into local regions and a feature amount that can be derived for each local region based on the pixel information of the image. Have the computer execute the process and the process of comparing the derived feature amount with the criterion for determining the observation target area set in the predetermined dictionary and determining whether or not the feature is the observation target for each local area. ..

本発明によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。 According to the present invention, it is possible to provide a region identification device that enables real-time region identification with high accuracy regardless of whether the image is color or monochrome.

本発明の第1の実施形態の領域識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the area identification apparatus of 1st Embodiment of this invention. 本発明の第2の実施形態の領域識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the area identification apparatus of 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する動作を示すフローチャートである。It is a flowchart which shows the operation which sets the determination criterion of the observation target area of the area identification apparatus of 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する学習用の画像の例を示す図である。It is a figure which shows the example of the image for learning which sets the determination criterion of the observation target area of the area identification apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する学習用の画像をブロックに分割した例を示す図である。It is a figure which shows the example which divided the image for learning which sets the determination criterion of the observation target area of the area identification apparatus of 2nd Embodiment of this invention into a block. 本発明の第2の実施形態の領域識別装置の観測対象領域の判定基準を設定する学習用の画像の観測対象正解領域情報の例を示す図である。It is a figure which shows the example of the observation target correct area information of the image for learning which sets the determination criterion of the observation target area of the area identification apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置が機械学習により特徴量と観測対象正解領域とを対応付けた例を示す図である。It is a figure which shows the example which the area identification apparatus of the 2nd Embodiment of this invention associated a feature quantity with an observation target correct answer area by machine learning. 本発明の第2の実施形態の領域識別装置が特徴量と観測対象正解領域の関係を特徴量の座標系に表し観測対象判定基準の境界を設定した例を示す図である。It is a figure which shows the example which the area identification apparatus of the 2nd Embodiment of this invention represented the relationship between the feature amount and the observation object correct answer area in the coordinate system of the feature amount, and set the boundary of the observation object determination criteria. 本発明の第2の実施形態の領域識別装置で設定される観測対象の判定基準の境界の例を示す図である。It is a figure which shows the example of the boundary of the determination criteria of the observation target set by the area identification apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置の観測対象領域を識別する動作を示すフローチャートである。It is a flowchart which shows the operation which identifies the observation target area of the area identification apparatus of 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置の観測対象領域を識別する画像をブロックに分割した例を示す図である。It is a figure which shows the example which divided the image which identifies the observation target area of the area identification apparatus of 2nd Embodiment of this invention into a block. 本発明の第2の実施形態の領域識別装置の3種類以上の領域を識別する動作を示すフローチャートである。It is a flowchart which shows the operation of discriminating three or more kinds of regions of the region identification apparatus of 2nd Embodiment of this invention. 本発明の第2の実施形態の領域識別装置で設定される3種類以上の領域を識別する判定基準の境界の例を示す図である。It is a figure which shows the example of the boundary of the determination criteria which discriminates three or more kinds of regions set by the region identification apparatus of the 2nd Embodiment of this invention. 本発明の第3の実施形態の領域識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the area identification apparatus of 3rd Embodiment of this invention. 本発明の第4の実施形態の領域識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the area identification apparatus of 4th Embodiment of this invention.

以下、図を参照しながら、本発明の実施形態を詳細に説明する。但し、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。
(第1の実施形態)
図1は、本発明の第1の実施形態の領域識別装置の構成を示すブロック図である。本実施形態の領域識別装置1は、入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段11を有する。さらに、導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段12を有する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, although the embodiments described below have technically preferable limitations for carrying out the present invention, the scope of the invention is not limited to the following.
(First Embodiment)
FIG. 1 is a block diagram showing a configuration of a region identification device according to a first embodiment of the present invention. The area identification device 1 of the present embodiment divides the input image into local regions, and derives one or more of the feature quantities that can be derived based on the pixel information of the image for each local region. It has a feature amount deriving means 11. Further, it has an observation target area determination means 12 for determining whether or not each local region is an observation target by comparing the derived feature amount with a standard for determining an observation target region set in a predetermined dictionary.

本実施形態の領域識別装置1によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 1 of the present embodiment, it is not necessary for the user to set the target area while looking at the feature amount on the graph, and it is possible to set detailed boundary conditions with a wide variety of feature amounts. As a result, the identification accuracy of the target area can be improved regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the identification in real time such as a moving image is possible.

以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第2の実施形態)
図2は、本発明の第2の実施形態の領域識別装置2の構成を示すブロック図である。領域識別装置2は、画像入力部21、特徴量導出部22、辞書保存部23、観測対象領域判定部24、観測対象領域情報出力部25、学習部26を備えている。
As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
(Second embodiment)
FIG. 2 is a block diagram showing a configuration of the area identification device 2 according to the second embodiment of the present invention. The area identification device 2 includes an image input unit 21, a feature quantity derivation unit 22, a dictionary storage unit 23, an observation target area determination unit 24, an observation target area information output unit 25, and a learning unit 26.

画像入力部21は、例えば、雲等の観測対象領域の識別を行う画像の画像データを入力する。 The image input unit 21 inputs image data of an image for identifying an observation target area such as a cloud.

特徴量導出部22は、画像入力部21で入力された画像を局所領域に分割し、局所領域ごとに画像の画素情報に基づく特徴量を算出する。 The feature amount derivation unit 22 divides the image input by the image input unit 21 into local regions, and calculates the feature amount based on the pixel information of the image for each local region.

辞書保存部23は、観測対象領域の判定基準を設定している辞書データを保存し、前記辞書データを観測対象領域判定部24に入力する。 The dictionary storage unit 23 stores the dictionary data in which the determination criteria of the observation target area are set, and inputs the dictionary data to the observation target area determination unit 24.

観測対象領域判定部24は、特徴量導出部22で算出された特徴量と辞書保存部23から入力された辞書データで設定されている観測対象領域を判定する基準とを比較して、観測対象か否かを判定する。 The observation target area determination unit 24 compares the feature amount calculated by the feature amount derivation unit 22 with the standard for determining the observation target area set by the dictionary data input from the dictionary storage unit 23, and observes the observation target. Judge whether or not.

観測対象領域情報出力部25は、観測対象領域判定部24の判定結果を、雲等の観測対象領域を識別した画像に表現するなどして出力する。 The observation target area information output unit 25 outputs the determination result of the observation target area determination unit 24 by expressing it in an image that identifies the observation target area such as clouds.

学習部26は、観測対象領域の判定基準を設定した辞書データを生成する。 The learning unit 26 generates dictionary data in which the determination criteria of the observation target area are set.

領域識別装置2は、PC(Personal Computer)やサーバなどの情報処理機器(コンピュータ)とすることができる。情報処理機器は構成要素として、演算資源であるCPU(Central Processing Unit)、記憶資源であるメモリやHDD(Hard Disk Drive)、通信資源である通信ボードや入力インターフェイス、入力資源であるキーボードやマウスやタッチパネル、表示資源であるディスプレイやプリンタ、などを備えている。CPUでプログラムを動作させ、これらの構成要素を用いることにより、領域識別装置1を構成する各部を実現することができる。 The area identification device 2 can be an information processing device (computer) such as a PC (Personal Computer) or a server. Information processing equipment includes a CPU (Central Processing Unit) as a computing resource, a memory and an HDD (Hard Disk Drive) as a storage resource, a communication board and an input interface as a communication resource, and a keyboard and a mouse as an input resource. It is equipped with a touch panel, displays and printers that are display resources. By operating the program on the CPU and using these components, it is possible to realize each part constituting the area identification device 1.

すなわち、画像入力部21は、衛星や航空機から送信された画像データを受信する通信ユニットや、外部から画像データを入力する入力インターフェイスなどにより実現される。特徴量導出部22や観測対象領域判定部24や学習部26はCPUでプログラムを動作させることにより実現される。辞書保存部23は、メモリやHDDなどにより実現される。観測対象領域情報出力部25はディスプレイやプリンタなどにより実現される。 That is, the image input unit 21 is realized by a communication unit that receives image data transmitted from a satellite or an aircraft, an input interface that inputs image data from the outside, and the like. The feature amount derivation unit 22, the observation target area determination unit 24, and the learning unit 26 are realized by operating a program on the CPU. The dictionary storage unit 23 is realized by a memory, an HDD, or the like. The observation target area information output unit 25 is realized by a display, a printer, or the like.

図3は、本実施形態の領域識別装置が実行する、観測対象領域の判定基準を設定する動作を示すフローチャートである。本フローチャートは、観測対象領域の判定基準を設定する動作を実行するプログラムを起動することで開始となる。 FIG. 3 is a flowchart showing an operation of setting a determination criterion of an observation target area, which is executed by the area identification device of the present embodiment. This flowchart is started by starting a program that executes an operation of setting a criterion for an observation target area.

まず、ステップS01で、学習部26に、観測対象が映っている学習用の画像を外部から入力する。図4は、観測対象を雲としたときの学習用の画像の例を示す図である。学習用の画像は、例えば、観測対象が雲であれば、様々な雲を撮影した画像を複数枚、例えば数枚から数十枚を入力する。 First, in step S01, a learning image showing the observation target is input to the learning unit 26 from the outside. FIG. 4 is a diagram showing an example of an image for learning when the observation target is a cloud. As the image for learning, for example, if the observation target is a cloud, a plurality of images of various clouds, for example, several to several tens of images are input.

学習用の画像は、実際に観測対象領域の識別を行う画像と、撮影するカメラや撮影条件、気象条件、時刻、季節などが同じ条件であることが好ましいが、これには限定されない。これらの条件を満たす画像の取得が困難な場合は、これらの条件の幾つかを異にする画像や模擬画像を使用することができる。 The image for learning is preferably, but is not limited to, the image that actually identifies the observation target area and the camera to be photographed, the image-taking conditions, the weather conditions, the time, the season, and the like. When it is difficult to obtain an image satisfying these conditions, an image or a simulated image different from some of these conditions can be used.

また、学習用の画像は、以降で算出される特徴量の分解能を高めるためには、画像処理のされていない未加工画像(RAW画像とも呼ぶ)とすることが好ましい。これは、未加工画像が例えば14ビット(214)の分解能であっても、画像処理により例えば8ビット(2)の分解能まで低下させてしまうことで、特徴量の分解能を低下させてしまうことになるためである。Further, the image for learning is preferably an unprocessed image (also referred to as a RAW image) that has not been image-processed in order to increase the resolution of the feature amount calculated later. This is because even if the raw image has a resolution of, for example, 14 bits (214), the resolution of the feature amount is lowered by reducing the resolution to, for example, 8 bits (28) by image processing. This is because it will be.

次に、ステップS02で、学習部26は、入力された学習用の画像の局所領域ごとの特徴量を、画像データの有する画素情報から算出する。特徴量の種類としては、実際に観測対象領域の識別を行う画像で使用する特徴量と同じ種類とし、ひとつ以上の特徴量とすることができる。例えば、画像が可視画像である場合、特徴量-1として平均輝度、特徴量-2として輝度の分散の2つを特徴量とすることができるが、これらには限定されない。特徴量の種類は、予め定めておくことができる。 Next, in step S02, the learning unit 26 calculates the feature amount for each local region of the input learning image from the pixel information of the image data. The type of the feature amount may be the same as the feature amount used in the image that actually identifies the observation target area, and may be one or more feature amounts. For example, when the image is a visible image, the feature amount-1 can be the average luminance and the feature amount-2 can be the dispersion of the luminance, but the feature amount is not limited to these. The type of feature amount can be predetermined.

図5は、学習用の画像の局所領域の特徴量を算出するために、学習部26が、画像をブロックに分割した例を示す。学習部26は、各ブロックの特徴量を局所領域の特徴量として算出する。 FIG. 5 shows an example in which the learning unit 26 divides the image into blocks in order to calculate the feature amount of the local region of the image for learning. The learning unit 26 calculates the feature amount of each block as the feature amount of the local region.

次に、ステップS03で、学習部26に、入力された画像中の観測対象の観測対象正解領域情報を入力する。図6は、観測対象正解領域情報である、雲の部分とその他の部分とで2値化した2値化画像を示す。この2値化画像の雲の領域、すなわち図6での白い領域が、観測対象正解領域である。この2値化画像は、利用者が学習用の画像から雲の部分を指定する、あるいは、2値化画像の画像処理をするなどして、予め作成しておくことができる。 Next, in step S03, the observation target correct answer area information of the observation target in the input image is input to the learning unit 26. FIG. 6 shows a binarized image obtained by binarizing the cloud portion and the other portion, which is the observation target correct area information. The cloud area of this binarized image, that is, the white area in FIG. 6 is the observation target correct answer area. This binarized image can be created in advance by the user by designating a cloud portion from the learning image or by performing image processing on the binarized image.

次に、ステップS04で、学習部26は、学習用画像の局所領域の特徴量と観測対象正解領域情報とから機械学習の処理を行う。機械学習としては、例えば、特許文献4に開示されているGLVQ(Generalized Learning Vector Quantization、一般化学習ベクトル量子化)のような、識別時の計算量が少ない方法が望ましい。GLVQによれば、ステップS02で算出した各ブロックの特徴量と、ステップS03で入力した観測対象正解領域情報の観測対象正解領域とを対応付け、観測対象正解領域となるための特徴量を設定することができる。 Next, in step S04, the learning unit 26 performs machine learning processing from the feature amount of the local region of the learning image and the observation target correct answer region information. As machine learning, for example, a method with a small amount of calculation at the time of identification, such as GLVQ (Generalized Learning Vector Quantization) disclosed in Patent Document 4, is desirable. According to GLVQ, the feature amount of each block calculated in step S02 is associated with the observation target correct answer area of the observation target correct answer area information input in step S03, and the feature amount for becoming the observation target correct answer area is set. be able to.

なお、機械学習の方法は、各ブロックの特徴量と観測対象正解領域情報の観測対象正解領域とを対応付けて、観測対象正解領域となるための特徴量を設定することができる方法であれば、GLVQには限定されない。 The machine learning method is a method that can set the feature amount to be the observation target correct answer area by associating the feature amount of each block with the observation target correct answer area of the observation target correct answer area information. , Not limited to GLVQ.

図7は、学習部26が、機械学習により特徴量と観測対象正解領域(例えば、雲領域と雲以外の領域)とを対応付けた例を示す。図7では、2枚の学習用の画像を入力し、1画像あたり1000個の局所領域とし、各々の局所領域について2種類の特徴量を算出した場合を示しているが、これには限定されない。 FIG. 7 shows an example in which the learning unit 26 associates the feature amount with the observation target correct answer region (for example, a cloud region and a region other than the cloud) by machine learning. FIG. 7 shows a case where two learning images are input to make 1000 local regions per image, and two types of feature quantities are calculated for each local region, but the present invention is not limited to this. ..

画像-1の各局所領域の特徴量-1と特徴量-2との組は、(a,b)、(a,b)、・・・、(a1000,b1000)となり、各々の組が、観測対象正解クラスの1(雲領域)に属するか、または0(雲以外の領域)に属するか、判定されている。また、画像-2の各局所領域の特徴量-1と特徴量-2との組は、(a1001,b1001)、・・・、(a2000,b2000)となり、各々の組が、観測対象正解クラスの1に属するか、または0に属するか、判定されている。なお、a~a2000やb~b2000には、各々、計算などにより導出された特徴量の数値が入る。The set of the feature amount -1 and the feature amount -2 of each local region of the image-1 is (a 1 , b 1 ), (a 2 , b 2 ), ..., (A 1000 , b 1000 ). , It is determined whether each set belongs to 1 (cloud region) or 0 (region other than cloud) of the observation target correct answer class. Further, the set of the feature amount -1 and the feature amount -2 of each local region of the image-2 is (a 1001 , b 1001 ), ..., (A 2000 , b 2000 ), and each set is. It is determined whether it belongs to 1 or 0 of the observation target correct answer class. It should be noted that the numerical values of the feature quantities derived by calculation or the like are input to a 1 to a 2000 and b 1 to b 2000 , respectively.

次に、ステップS05で、学習部26は、以上の機械学習の処理により得た観測対象領域と特徴量との対応から、特徴量で観測対象領域を識別する基準を設定した辞書データを生成する。 Next, in step S05, the learning unit 26 generates dictionary data in which the criteria for identifying the observation target area by the feature amount is set from the correspondence between the observation target area and the feature amount obtained by the above machine learning process. ..

図8は、学習部26が、図7の各局所領域の特徴量と観測対象正解領域の関係を特徴量-1と特徴量-2の座標系に表し、観測対象判定基準の境界を設定した例を示す。画像-1と画像-2の特徴量の各々は、特徴量-1と特徴量-2の座標系に一同に表される。境界は、例えばGLVQを用いた機械学習により、設けられた境界によるクラス1とクラス0のクラス分けと、図7のクラス分けとの食い違いが最小となるように設定される。そのため、GLVQで設けられた境界によるクラス1とクラス0のクラス分けと、図7のクラス分けとの食い違いが生じる場合もあり得る。 In FIG. 8, the learning unit 26 represents the relationship between the feature amount of each local region of FIG. 7 and the observation target correct answer region in the coordinate system of the feature amount-1 and the feature amount-2, and sets the boundary of the observation target determination criterion. An example is shown. Each of the feature quantities of image-1 and image-2 is collectively represented in the coordinate system of feature quantity-1 and feature quantity-2. The boundary is set so that the discrepancy between the classification of class 1 and class 0 according to the provided boundary and the classification of FIG. 7 is minimized by machine learning using, for example, GLVQ. Therefore, there may be a discrepancy between the classification of class 1 and class 0 according to the boundary provided by GLVQ and the classification of FIG. 7.

GLVQによれば、所定のクラスらしさを表す指標として誤分類尺度を用いる。誤分類尺度は-1~1の間の値を取り、クラス1に対する誤分類尺度の場合、誤分類尺度が-1に近いほどクラス1である確度が高い。逆に、誤分類尺度が1に近いほどクラス1でない、すなわちクラス0である確度が高い。クラス1とクラス0の境界は、通常、誤分類尺度0に設定され、曖昧さを含み易い領域である。また、例えば、空の部分を雲だと多少誤ったとしても雲の部分を確実に雲と判定したい場合は、雲に対する誤分類尺度が0より大きい正の値を閾値として識別する、などの調整が可能である。 According to GLVQ, a misclassification scale is used as an index to express a predetermined classiness. The misclassification scale takes a value between -1 and 1, and in the case of the misclassification scale for class 1, the closer the misclassification scale is to -1, the higher the probability that the misclassification scale is class 1. On the contrary, the closer the misclassification scale is to 1, the higher the probability that it is not class 1, that is, it is class 0. The boundary between class 1 and class 0 is usually set to the misclassification scale 0 and is a region that tends to contain ambiguity. Also, for example, if you want to reliably determine the cloud part as a cloud even if the sky part is a little wrong as a cloud, you can make adjustments such as identifying a positive value with a misclassification scale for clouds greater than 0 as a threshold value. Is possible.

図9は、学習部26で設定される観測対象判定基準の境界の例を示す。学習部26は、図9に示すような特徴量-1と特徴量-2との座標系において、観測対象とそれ以外との境界を設定し、この境界を判定基準として特徴量により観測対象であるか否かを判定することのできる辞書データを生成する。生成された辞書データは、辞書保存部23に保存され、終了する。 FIG. 9 shows an example of the boundary of the observation target determination standard set by the learning unit 26. The learning unit 26 sets a boundary between the observation target and the other in the coordinate system of the feature amount -1 and the feature amount -2 as shown in FIG. Generate dictionary data that can determine whether or not there is. The generated dictionary data is stored in the dictionary storage unit 23 and ends.

図9において、観測対象であると判定するための境界を、より現実の観測対象に近づけるためには、前記のクラス間の分離性の高い、すなわち、図8の境界付近の特徴量が少ない特徴量を選択することが有効である。このためには、予め何種類かの特徴量で境界を決める上記の動作を実行し、できるだけ曖昧さを含まずに境界を決めることができる特徴量を選択する、などが可能である。 In FIG. 9, in order to bring the boundary for determining the observation target closer to the actual observation target, the feature having high separability between the above classes, that is, the feature amount near the boundary in FIG. 8 is small. It is useful to choose the amount. For this purpose, it is possible to execute the above operation of determining the boundary with several kinds of features in advance, and select a feature amount that can determine the boundary with as little ambiguity as possible.

図10は、本実施形態の領域識別装置が実行する、観測対象領域を識別する動作を示すフローチャートである。本フローチャートは、観測対象領域を識別する動作を実行するプログラムを起動することで開始となる。 FIG. 10 is a flowchart showing an operation for identifying an observation target area executed by the area identification device of the present embodiment. This flowchart is started by starting a program that executes an operation for identifying an observation target area.

まず、ステップS11で、画像入力部21に、観測対象領域を識別する画像を外部から入力する。画像の入力は、カメラで撮像された画像を直接入力することが可能であるが、これには限定されない。画像の入力は、記憶媒体に保存されている画像を入力してもよい。 First, in step S11, an image that identifies the observation target area is input to the image input unit 21 from the outside. The input of the image can be directly input to the image captured by the camera, but the input is not limited to this. The image may be input as an image stored in the storage medium.

観測対象領域を識別する画像は、以降で算出される特徴量の分解能を高めるためには、画像処理のされていない未加工画像とすることが好ましい。これは、未加工画像が例えば14ビットの分解能であっても、画像処理により例えば8ビットの分解能まで低下させてしまうことで、特徴量の分解能を低下させてしまうことになるためである。 The image that identifies the observation target area is preferably an unprocessed image that has not been image-processed in order to improve the resolution of the feature amount calculated later. This is because even if the raw image has a resolution of, for example, 14 bits, the resolution of the feature amount is lowered by reducing the resolution to, for example, 8 bits by image processing.

次に、ステップS12で、特徴量導出部22は、画像をブロックに分割し、各ブロックを局所領域とし、局所領域ごとの特徴量を算出する。図11は、観測対象領域を識別する画像をブロックに分割した例を示す図である。図11に示すように、例えば、縦8画素と横8画素を1つのブロックとすることができるが、これには限定されない。特徴量導出部22は、例えば、個々の画素の有する特徴量の平均値をブロックの特徴量とすることができる。また、個々の画素の有する特徴量の分散をブロックの特徴量とすることができるが、これらには限定されない。 Next, in step S12, the feature amount derivation unit 22 divides the image into blocks, sets each block as a local area, and calculates the feature amount for each local area. FIG. 11 is a diagram showing an example in which an image identifying an observation target area is divided into blocks. As shown in FIG. 11, for example, 8 vertical pixels and 8 horizontal pixels can be one block, but the block is not limited thereto. The feature amount derivation unit 22 can use, for example, the average value of the feature amounts of each pixel as the feature amount of the block. Further, the dispersion of the feature amount of each pixel can be used as the feature amount of the block, but the feature amount is not limited thereto.

また、局所領域ごとの特徴量を算出する方法は、図11のようにブロックに分割する方法には限定されない。例えば、縦8画素と横8画素を1つの局所領域とし、この領域を1画素ずつずらして走査しながら連続的に特徴量を算出する方法でもよい。また、特徴量としては、ひとつ以上の特徴量とすることができる。例えば、画像が可視画像である場合、特徴量を彩度や明度の2つや、輝度や輝度分散の2つ、あるいはこれら全ての4つ、などとすることができるがこれらには限定されない。特徴量の種類は、予め定めておくことができる。 Further, the method of calculating the feature amount for each local region is not limited to the method of dividing into blocks as shown in FIG. For example, a method may be used in which 8 vertical pixels and 8 horizontal pixels are set as one local area, and the feature amount is continuously calculated while scanning by shifting this area by 1 pixel. Further, the feature amount can be one or more feature amounts. For example, when the image is a visible image, the feature quantities can be two of saturation and lightness, two of luminance and luminance dispersion, or all four of these, but are not limited thereto. The type of feature amount can be predetermined.

次に、ステップS13で、辞書保存部23は、学習部26で生成された辞書データを観測対象領域判定部24に入力する。観測対象領域判定部24は、特徴量導出部22で得られた局所領域ごとの特徴量と辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象か否かを判定する。 Next, in step S13, the dictionary storage unit 23 inputs the dictionary data generated by the learning unit 26 to the observation target area determination unit 24. The observation target area determination unit 24 observes each divided region by comparing the feature amount for each local region obtained by the feature quantity derivation unit 22 with the determination standard for the observation target region set in the dictionary data. Determine if it is a target.

次に、ステップS14で、観測対象領域情報出力部25は、ステップS13での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力し、終了する。 Next, in step S14, the observation target area information output unit 25 outputs the determination result in step S13 as, for example, a binary image in which the observation target is 1 and the non-observation target is 0, and the process ends.

図12は、本実施形態の領域識別装置2が実行する、3つの領域を判定する動作を示すフローチャートである。ここでは、観測対象領域として、雲と海と、これら以外の領域を識別する場合を説明する。 FIG. 12 is a flowchart showing an operation of determining three areas executed by the area identification device 2 of the present embodiment. Here, a case where clouds, the sea, and other regions are identified as observation target regions will be described.

学習部26は、予め、図3に示す観測対象領域の判定基準を設定する動作により、学習用画像と、学習用画像中の海と雲のそれぞれに対する観測対象正解領域情報とから、図13に示すような観測対象領域の判定基準を設定した辞書データを生成する。 The learning unit 26 sets the determination criteria of the observation target area shown in FIG. 3 in advance, and obtains the observation target correct area information for each of the sea and the cloud in the learning image in FIG. 13 from the learning image. Generate dictionary data with the criteria for the observation target area as shown.

図13は、3つの領域を識別する判定基準の境界の例を示す図である。学習部26は、図13のような特徴量-1と特徴量-2との座標系において、観測対象-1(雲)と観測対象-2(海)と観測対象外との境界を設定し、この境界を判定基準として特徴量により観測対象を識別することのできる辞書データを生成する。学習部26は、生成した辞書データを、辞書保存部23に保存する。 FIG. 13 is a diagram showing an example of a boundary of a criterion for identifying three regions. The learning unit 26 sets the boundary between the observation target-1 (cloud), the observation target-2 (sea), and the non-observation target in the coordinate system of the feature amount -1 and the feature amount -2 as shown in FIG. , Generate dictionary data that can identify the observation target by the feature quantity using this boundary as a criterion. The learning unit 26 stores the generated dictionary data in the dictionary storage unit 23.

図12のフローチャートは、観測対象領域を識別する動作を実行するプログラムを起動することで開始となる。まず、ステップS21で、画像入力部21に観測対象領域を識別する画像を入力する。次に、ステップS22で、特徴量導出部22は、画像をブロックに分割し、各ブロックを局所領域とし、局所領域ごとの特徴量を算出する。 The flowchart of FIG. 12 is started by starting a program that executes an operation of identifying an observation target area. First, in step S21, an image that identifies the observation target area is input to the image input unit 21. Next, in step S22, the feature amount derivation unit 22 divides the image into blocks, sets each block as a local area, and calculates the feature amount for each local area.

次に、ステップS23で、辞書保存部23は、学習部26で生成された辞書データを観測対象領域判定部24に入力する。観測対象領域判定部24は、特徴量導出部22で得られた局所領域ごとの特徴量と辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに雲か海かこれら以外かを判定する。 Next, in step S23, the dictionary storage unit 23 inputs the dictionary data generated by the learning unit 26 to the observation target area determination unit 24. The observation target area determination unit 24 compares the feature amount for each local region obtained by the feature amount derivation unit 22 with the determination standard for the observation target area set in the dictionary data, and thereby clouds for each divided region. Determine whether it is the sea or something else.

次に、ステップS24で、観測対象領域情報出力部25は、ステップS23での判定結果を、例えば、雲領域を1、海領域を2、これら以外を0とした3値画像等にして外部に出力し、終了する。 Next, in step S24, the observation target area information output unit 25 sets the determination result in step S23 as, for example, a ternary image in which the cloud area is 1, the sea area is 2, and the other areas are 0, and the result is externalized. Output and exit.

以上の方法により、例えば、観測対象領域を識別する画像中に移動体が存在した場合、移動体が存在する場所が海である場合、移動体を船舶と推定することができる。また、移動体が存在する場所が雲である場合、移動体を飛行体と推定することができる。 By the above method, for example, when a moving body is present in an image identifying an observation target area, or when the place where the moving body is located is the sea, the moving body can be estimated to be a ship. Further, when the place where the moving body exists is a cloud, the moving body can be estimated as a flying body.

なお、観測対象領域は以上のような1つの領域や2つの領域には限定されない。観測対象領域の数は任意の正数とすることができ、予め、観測対象領域に対応した観測対象を識別することのできる辞書データを生成しておけばよい。 The observation target area is not limited to one area or two areas as described above. The number of observation target areas can be any positive number, and dictionary data that can identify the observation target corresponding to the observation target area may be generated in advance.

なお、観測対象領域は、例えば、雲、海、空、陸、氷、雪、山、草原、森、砂漠、珊瑚礁、建物や道路などの構造物など、空中や地上や水中から取得される画像中の領域とすることができる。また、観測対象領域はこれらには限定されず、室内や生体から取得される画像中の領域や、顕微鏡で拡大された画像中の領域とすることもできる。 The observation target area is an image acquired from the air, ground, or underwater, such as clouds, sea, sky, land, ice, snow, mountains, grasslands, forests, deserts, coral reefs, and structures such as buildings and roads. It can be an area inside. Further, the observation target area is not limited to these, and may be a region in an image acquired from a room or a living body, or a region in an image magnified by a microscope.

なお、特徴量は、可視画像であれば彩度や明度や輝度や輝度分散など、赤外画像であれば輝度や輝度分散などとすることができる。また、ブロックなどの局所領域中の画素ごとの強度のヒストグラムや分布の様子(模様)、SIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)により記述される特徴量とすることができる。特徴量は、画像の画素の有する前記の彩度や明度や輝度などの情報からの値の抽出や、抽出された値を用いた計算などによって、導出される。 The feature amount can be saturation, brightness, luminance, luminance dispersion for a visible image, and luminance, luminance dispersion, etc. for an infrared image. In addition, it can be a feature amount described by a histogram of the intensity of each pixel in a local region such as a block, a state of distribution (pattern), SIFT (Scale-Invariant Features Transition Form), and HOG (Histograms of Oriented Gradients). .. The feature amount is derived by extracting a value from the information such as saturation, brightness, and brightness of the pixel of the image, and calculating using the extracted value.

本実施形態の領域識別装置2によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 2 of the present embodiment, the user does not need to set the target area while looking at the feature amount on the graph, and detailed boundary conditions can be set by a wide variety of feature amounts. As a result, the identification accuracy of the target area can be improved regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the identification in real time such as a moving image is possible.

以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第3の実施形態)
図14は、本発明の第3の実施形態の領域識別装置3の構成を示すブロック図である。領域識別装置3は、第1の画像入力部31-1、第2の画像入力部31-2、特徴量導出部32、辞書保存部33、観測対象領域判定部34、観測対象領域情報出力部35、学習部36を備えている。本実施形態の領域識別装置3では、同時期に同じ観測対象を含む場面を撮影した2種類以上の画像を入力して領域識別するために、複数の画像入力部を備えている点が、第2の実施形態と異なる。
As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
(Third embodiment)
FIG. 14 is a block diagram showing the configuration of the area identification device 3 according to the third embodiment of the present invention. The area identification device 3 includes a first image input unit 31-1, a second image input unit 31-2, a feature quantity derivation unit 32, a dictionary storage unit 33, an observation target area determination unit 34, and an observation target area information output unit. It has 35 and a learning unit 36. The first aspect of the area identification device 3 of the present embodiment is that it is provided with a plurality of image input units in order to input two or more types of images of scenes including the same observation target at the same time to identify the area. It is different from the second embodiment.

図14は、2種類の画像を入力して領域識別する場合を示している。まず、同時期に同じ場面を撮影した2種類の画像、例えば、可視画像を第1の画像入力部31-1に、赤外画像を第2の画像入力部31-2に入力する。特徴量導出部32は、それぞれの画像をブロックに分割して局所領域ごとの特徴量を算出する。 FIG. 14 shows a case where two types of images are input to identify an area. First, two types of images obtained by capturing the same scene at the same time, for example, a visible image is input to the first image input unit 31-1 and an infrared image is input to the second image input unit 31-2. The feature amount derivation unit 32 divides each image into blocks and calculates the feature amount for each local region.

2種類の画像の特徴量としては、例えば、可視画像の彩度および明度、赤外画像の平均輝度および輝度の分散の4種類とすることができる。学習部36は、予め、前記4種類の特徴量を機械学習し、4次元の特徴量空間に境界を設定する辞書データを生成しておく。辞書保存部33は、学習部36で生成された辞書データを保存し、観測対象領域判定部34に入力する。 The two types of image features can be, for example, four types: saturation and brightness of a visible image, average luminance and luminance dispersion of an infrared image. The learning unit 36 machine-learns the four types of features in advance, and generates dictionary data for setting boundaries in the four-dimensional feature space. The dictionary storage unit 33 stores the dictionary data generated by the learning unit 36 and inputs it to the observation target area determination unit 34.

観測対象領域判定部34は、特徴量導出部32で得られた局所領域の特徴量と、辞書データで設定されている観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象か否かを判定する。 The observation target area determination unit 34 observes each divided region by comparing the feature amount of the local region obtained by the feature amount derivation unit 32 with the determination standard of the observation target area set in the dictionary data. Determine if it is a target.

観測対象領域情報出力部35は、観測対象領域判定部34での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力する。 The observation target area information output unit 35 outputs the determination result of the observation target area determination unit 34 as, for example, a binary image in which the observation target is 1 and the non-observation target is 0.

以上のように、可視画像と赤外画像といった異なる複数の画像により観測領域を識別することで、例えば、雲と氷や雪といった可視画像だけでは識別が困難な領域についても、赤外画像と組み合わせることで、正確な識別が可能となる。 As described above, by identifying the observation area from a plurality of different images such as a visible image and an infrared image, for example, a region such as clouds and ice or snow that is difficult to identify only by the visible image can be combined with the infrared image. This enables accurate identification.

なお、画像入力部は2つには限定されない。画像入力部の数は任意の正数とすることができる。また、ひとつの画像入力部から複数の画像を入力してもよい。 The image input unit is not limited to two. The number of image input units can be any positive number. Further, a plurality of images may be input from one image input unit.

本実施形態の領域識別装置3によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 3 of the present embodiment, the user does not need to set the target area while looking at the feature amount on the graph, and detailed boundary conditions can be set by a wide variety of feature amounts. As a result, the identification accuracy of the target area can be improved regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the real-time identification of a moving image or the like is possible.

以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。
(第4の実施形態)
図15は、本発明の第4の実施形態の領域識別装置4の構成を示すブロック図である。領域識別装置4は、第1の画像入力部41-1、第2の画像入力部41-2、特徴量導出部42、辞書保存部43、観測対象領域判定部44、観測対象領域情報出力部45、学習部46、辞書選択部47を備えている。本実施形態の領域識別装置4では、画像の撮影条件によって複数の辞書を使い分けるために辞書選択部47を備えている点が、第3の実施形態と異なる。
As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.
(Fourth Embodiment)
FIG. 15 is a block diagram showing the configuration of the area identification device 4 according to the fourth embodiment of the present invention. The area identification device 4 includes a first image input unit 41-1, a second image input unit 41-2, a feature quantity derivation unit 42, a dictionary storage unit 43, an observation target area determination unit 44, and an observation target area information output unit. It includes 45, a learning unit 46, and a dictionary selection unit 47. The area identification device 4 of the present embodiment is different from the third embodiment in that it includes a dictionary selection unit 47 in order to properly use a plurality of dictionaries depending on the image shooting conditions.

ここでは、航空機より水平線方向を2波長の赤外線カメラで撮影している場面において、画像中の雲領域をリアルタイムに識別する場合について説明する。 Here, a case will be described in which a cloud region in an image is identified in real time in a scene in which a two-wavelength infrared camera is used to capture the horizon direction from an aircraft.

まず、第1の画像入力部41-1にa波長赤外画像1を、第2の画像入力部41-2にb波長赤外画像2を入力する。ここで、2種類の画像はほぼ同時に撮影されたものであり、1台のカメラでフィルタを切り替えて2波長を交互に撮影したものでもよいし、2台のカメラを使用するものでもよい。それぞれの画像は、観測対象である雲領域の物性や温度に対応する輝度を得るために、未加工画像を用いる。 First, the a-wavelength infrared image 1 is input to the first image input unit 41-1 and the b-wavelength infrared image 2 is input to the second image input unit 41-2. Here, the two types of images are taken at almost the same time, and may be taken by switching filters with one camera and taking two wavelengths alternately, or may use two cameras. For each image, an unprocessed image is used in order to obtain brightness corresponding to the physical properties and temperature of the cloud region to be observed.

特徴量導出部42は、それぞれの画像をブロックに分割して局所領域ごとの特徴量を算出する。2種類の画像の特徴量としては、例えば、2波長の赤外画像の各々の平均輝度および輝度の分散の、4次元の特徴量とすることができる。 The feature amount derivation unit 42 divides each image into blocks and calculates the feature amount for each local region. As the feature amount of the two types of images, for example, a four-dimensional feature amount of the average luminance and the dispersion of the luminance of each of the two wavelength infrared images can be used.

なお、ここで、例えば、a波長赤外画像1を波長が3から4μmの赤外画像、b波長赤外画像2を波長が4から5μmの赤外画像とする。赤外画像は、波長が3から4μmのときに太陽光の影響を大きく受ける。そこで、3から4μmの赤外画像と4から5μmの赤外画像との差を取ることで、太陽光の影響を抽出することができる。これにより、太陽光の影響を削除して、観測対象領域を識別することができる。なお、赤外画像の赤外線の波長は、上記の組み合わせには限定されない。 Here, for example, the a-wavelength infrared image 1 is an infrared image having a wavelength of 3 to 4 μm, and the b-wavelength infrared image 2 is an infrared image having a wavelength of 4 to 5 μm. Infrared images are greatly affected by sunlight when the wavelength is 3 to 4 μm. Therefore, the influence of sunlight can be extracted by taking the difference between the infrared image of 3 to 4 μm and the infrared image of 4 to 5 μm. This makes it possible to eliminate the influence of sunlight and identify the observation target area. The infrared wavelength of the infrared image is not limited to the above combination.

学習部46は、予め、4種類の特徴量を学習し、4次元の特徴量空間に境界を設定する辞書データを生成する。ここで学習用画像としては、撮影条件別の画像の組みを複数用意し、撮影条件別に辞書データを作成する。撮影条件としては、例えば、気象条件や昼夜などの時刻や季節などが挙げられる。辞書保存部43は、学習部46で生成された辞書データを保存する。辞書選択部47は、実際の撮影時の条件に最も撮影条件が近い辞書を選択して、観測対象領域判定部44に入力する。 The learning unit 46 learns four types of features in advance and generates dictionary data for setting boundaries in a four-dimensional feature space. Here, as the learning image, a plurality of sets of images for each shooting condition are prepared, and dictionary data is created for each shooting condition. Examples of the shooting conditions include weather conditions, time of day and night, and seasons. The dictionary storage unit 43 stores the dictionary data generated by the learning unit 46. The dictionary selection unit 47 selects a dictionary having the closest shooting conditions to the conditions at the time of actual shooting, and inputs the dictionary to the observation target area determination unit 44.

観測対象領域判定部44は、特徴量導出部42で得られた局所領域の特徴量と、辞書データで設定された観測対象領域の判定基準とを比較することで、分割した領域ごとに観測対象を識別する。 The observation target area determination unit 44 compares the feature amount of the local region obtained by the feature amount derivation unit 42 with the determination standard of the observation target area set by the dictionary data, and thereby observes each divided region. To identify.

観測対象領域情報出力部45は、観測対象領域判定部44での判定結果を、例えば、観測対象を1、観測対象以外を0とした2値画像等にして出力する。 The observation target area information output unit 45 outputs the determination result of the observation target area determination unit 44 as, for example, a binary image in which the observation target is 1 and the non-observation target is 0.

以上のように、観測対象領域を識別したい画像の撮影時の条件に最も撮影条件が近い辞書を選択して観測対象を識別することで、撮影条件が変化することで生じる誤識別を抑制することができる。 As described above, by selecting the dictionary that has the closest shooting conditions to the shooting conditions of the image for which the observation target area is to be identified and identifying the observation target, it is possible to suppress erroneous identification caused by changes in the shooting conditions. Can be done.

本実施形態の領域識別装置4によれば、利用者が特徴量をグラフ上で見ながら対象領域の設定を行う必要が無く、多種多様な特徴量により詳細な境界条件を設定することができる。その結果、カラー画像やモノクロ画像を問わずに対象領域の識別精度を上げることができる。さらに、画像の特徴量を所定の辞書データと比較するだけで対象領域を識別できるので、識別時の計算量が少なくて済むことから動画等のリアルタイムでの識別が可能である。 According to the area identification device 4 of the present embodiment, the user does not need to set the target area while looking at the feature amount on the graph, and detailed boundary conditions can be set by a wide variety of feature amounts. As a result, it is possible to improve the identification accuracy of the target area regardless of whether it is a color image or a monochrome image. Further, since the target area can be identified only by comparing the feature amount of the image with the predetermined dictionary data, the calculation amount at the time of identification can be small, so that the identification in real time such as a moving image is possible.

以上のように、本実施形態によれば、画像がカラーやモノクロであることによらずに、高い精度での領域識別をリアルタイムに可能とする領域識別装置を提供することができる。 As described above, according to the present embodiment, it is possible to provide an area identification device that enables real-time area identification with high accuracy regardless of whether the image is color or monochrome.

以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the embodiments, the invention of the present application is not limited to the above-described embodiment. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the configuration and details of the present invention.

また、上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する特徴量導出手段と、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する観測対象領域判定手段と、を有する領域識別装置。
(付記2)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する学習手段を有する、付記1記載の領域識別装置。
(付記3)
前記学習手段は、機械学習して前記観測対象領域を設定する、付記2記載の領域識別装置。
(付記4)
前記画像の撮影条件に基づいて前記辞書を選択する辞書選択手段を有する、付記1から3の内の1項記載の領域識別装置。
(付記5)
前記画像を入力する画像入力手段を有する、付記1から4の内の1項記載の領域識別装置。
(付記6)
前記画像入力手段は複数である、付記5記載の領域識別装置。
(付記7)
入力された画像を局所領域に分割し、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出し、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する、領域識別方法。
(付記8)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する、付記7記載の領域識別方法。
(付記9)
機械学習して前記観測対象領域を設定する、付記7または8記載の領域識別方法。
(付記10)
前記画像の撮影条件に基づいて前記辞書を選択する、付記7から9の内の1項記載の領域識別方法。
(付記11)
入力された画像を局所領域に分割する処理と、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる特徴量の内の1つ以上を導出する処理と、
導出した前記特徴量と所定の辞書で設定された観測対象領域を判定する基準とを比較して、前記局所領域ごとに観測対象か否かを判定する処理と、をコンピュータに実行させる領域識別プログラム。
(付記12)
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する処理をコンピュータに実行させる、付記11記載の領域識別プログラム。
(付記13)
機械学習して前記観測対象領域を設定する処理をコンピュータに実行させる、付記11または12記載の領域識別プログラム。
(付記14)
前記画像の撮影条件に基づいて前記辞書を選択する処理をコンピュータに実行させる、付記11から13の内の1項記載の領域識別プログラム。
In addition, some or all of the above embodiments may be described as in the following appendix, but are not limited to the following.
(Appendix 1)
A feature quantity deriving means that divides the input image into local regions and derives one or more of the feature quantities that can be derived based on the pixel information of the image for each local region.
Area identification having an observation target area determination means for determining whether or not each local area is an observation target by comparing the derived feature amount with a criterion for determining an observation target area set in a predetermined dictionary. Device.
(Appendix 2)
It has a learning means for creating the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer region information of the observation target of the learning image. The area identification device according to Appendix 1.
(Appendix 3)
The area identification device according to Appendix 2, wherein the learning means performs machine learning to set the observation target area.
(Appendix 4)
The area identification device according to item 1 of Addendums 1 to 3, which has a dictionary selection means for selecting the dictionary based on the shooting conditions of the image.
(Appendix 5)
The area identification device according to item 1 of Supplementary note 1 to 4, which has an image input means for inputting the image.
(Appendix 6)
The area identification device according to Appendix 5, wherein the image input means is plural.
(Appendix 7)
Divide the input image into local areas and
One or more of the feature quantities that can be derived based on the pixel information of the image for each local region are derived.
A region identification method for determining whether or not each local region is an observation target by comparing the derived feature amount with a criterion for determining an observation target region set in a predetermined dictionary.
(Appendix 8)
Addendum 7 to create the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer region information of the observation target of the learning image. Area identification method.
(Appendix 9)
The area identification method according to Appendix 7 or 8, wherein the observation target area is set by machine learning.
(Appendix 10)
The area identification method according to item 1 of Appendix 7 to 9, wherein the dictionary is selected based on the shooting conditions of the image.
(Appendix 11)
The process of dividing the input image into local areas and
A process of deriving one or more of the feature quantities that can be derived based on the pixel information of the image for each local region.
An area identification program that causes a computer to execute a process of comparing the derived feature amount with a standard for determining an observation target area set in a predetermined dictionary and determining whether or not each local area is an observation target. ..
(Appendix 12)
The computer executes a process of creating the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer area information of the observation target of the learning image. The area identification program according to Appendix 11.
(Appendix 13)
The area identification program according to Appendix 11 or 12, which causes a computer to execute a process of setting an observation target area by machine learning.
(Appendix 14)
The area identification program according to item 1 of Addendums 11 to 13, which causes a computer to execute a process of selecting the dictionary based on the shooting conditions of the image.

この出願は、2016年6月21日に出願された日本出願特願2016-122510を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2016-122510 filed on June 21, 2016 and incorporates all of its disclosures herein.

1、2、3、4 領域識別装置
11 特徴量導出手段
12 観測対象領域判定手段
21 画像入力部
31-1、41-1 第1の画像入力部
31-2、41-2 第2の画像入力部
22、32、42 特徴量導出部
23、33、43 辞書保存部
24、34、44 観測対象領域判定部
25、35、45 観測対象領域情報出力部
26、36、46 学習部
47 辞書選択部
1, 2, 3, 4 Area identification device 11 Feature quantity derivation means 12 Observation target area determination means 21 Image input unit 31-1, 41-1 First image input unit 31-2, 41-2 Second image input Units 22, 32, 42 Feature quantity derivation unit 23, 33, 43 Dictionary storage unit 24, 34, 44 Observation target area determination unit 25, 35, 45 Observation target area information output unit 26, 36, 46 Learning unit 47 Dictionary selection unit

Claims (10)

入力された画像を局所領域に分割し、前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる複数の種類の特徴量を導出する特徴量導出手段と、
所定の辞書で設定され、前記種類の数の次元の特徴量空間に複数通りの観測対象領域のそれぞれについて設定された境界を基準として、当該基準と、導出した複数前記種類の前記特徴量と、を比較して、前記局所領域ごとにいずれの観測対象かを判定する観測対象領域判定手段と、を有する領域識別装置。
A feature amount deriving means for dividing an input image into local regions and deriving a plurality of types of feature quantities that can be derived based on the pixel information of the image for each local region.
Based on the boundary set in a predetermined dictionary and set for each of a plurality of observation target areas in the feature quantity space of the dimension of the number of the type, the reference and the derived feature quantity of the plurality of the types are used. A region identification device comprising an observation target region determination means for determining which observation target is to be observed for each of the local regions by comparing the above.
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する学習手段を有する、請求項1記載の領域識別装置。 It has a learning means for creating the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer region information of the observation target of the learning image. The area identification device according to claim 1. 前記学習手段は、機械学習して前記観測対象領域を設定する、請求項2記載の領域識別装置。 The area identification device according to claim 2, wherein the learning means performs machine learning to set the observation target area. 前記画像の撮影条件に基づいて前記辞書を選択する辞書選択手段を有する、請求項1から3の内の1項記載の領域識別装置。 The area identification device according to claim 1, further comprising a dictionary selection means for selecting the dictionary based on the imaging conditions of the image. 前記画像を入力する画像入力手段を有する、請求項1から4の内の1項記載の領域識別装置。 The area identification device according to claim 1, further comprising an image input means for inputting the image. 前記画像入力手段は複数である、請求項5記載の領域識別装置。 The area identification device according to claim 5, wherein the image input means is a plurality of. 入力された画像を局所領域に分割し、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる複数の種類の特徴量を導出し、
所定の辞書で設定され、前記種類の数の次元の特徴量空間に複数通りの観測対象領域のそれぞれについて設定された境界を基準として、当該基準と、導出した複数前記種類の前記特徴量とを比較して、前記局所領域ごとにいずれの観測対象かを判定する、領域識別方法。
Divide the input image into local areas and
A plurality of types of feature quantities that can be derived based on the pixel information of the image are derived for each local region.
Based on the boundary set in a predetermined dictionary and set for each of a plurality of observation target areas in the feature quantity space of the dimension of the number of the type, the reference and the derived feature quantity of the plurality of the types are used. A region identification method for determining which observation target is to be observed for each of the local regions.
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する、請求項7記載の領域識別方法。 The seventh aspect of claim 7, wherein the dictionary for setting the observation target area of the feature amount is created based on the feature amount of the learning image having the observation target and the correct answer region information of the observation target of the learning image. Area identification method. 入力された画像を局所領域に分割する処理と、
前記局所領域ごとに前記画像の画素情報に基づいて導出することのできる複数の種類の特徴量を導出する処理と、
所定の辞書で設定され、前記種類の数の次元の特徴量空間に複数通りの観測対象領域のそれぞれについて設定された境界を基準として、当該基準と、導出した複数の前記種類の前記特徴量とを比較して、前記局所領域ごとにいずれの観測対象かを判定する処理と、をコンピュータに実行させる領域識別プログラム。
The process of dividing the input image into local areas and
A process for deriving a plurality of types of features that can be derived based on the pixel information of the image for each local region, and a process for deriving the features.
Based on the boundary set in a predetermined dictionary and set for each of a plurality of observation target areas in the feature quantity space of the dimension of the number of the above type, the reference and the derived feature quantity of the plurality of the types are used. A region identification program that causes a computer to execute a process of comparing and determining which observation target is to be observed for each local region.
前記観測対象を有する学習画像の前記特徴量と、前記学習画像の前記観測対象の正解領域情報とに基づいて、前記特徴量の前記観測対象領域を設定する前記辞書を作成する処理をコンピュータに実行させる、請求項9記載の領域識別プログラム。 The computer executes a process of creating the dictionary for setting the observation target area of the feature amount based on the feature amount of the learning image having the observation target and the correct answer area information of the observation target of the learning image. The area identification program according to claim 9.
JP2018524065A 2016-06-21 2017-06-19 Area identification device and area identification method and area identification program Active JP7031584B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016122510 2016-06-21
JP2016122510 2016-06-21
PCT/JP2017/022445 WO2017221860A1 (en) 2016-06-21 2017-06-19 Area differentiation device, area differentiation method, and area differentiation program

Publications (2)

Publication Number Publication Date
JPWO2017221860A1 JPWO2017221860A1 (en) 2019-04-11
JP7031584B2 true JP7031584B2 (en) 2022-03-08

Family

ID=60784269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018524065A Active JP7031584B2 (en) 2016-06-21 2017-06-19 Area identification device and area identification method and area identification program

Country Status (2)

Country Link
JP (1) JP7031584B2 (en)
WO (1) WO2017221860A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003837A (en) * 2018-06-25 2020-01-09 日本電気株式会社 Identification apparatus and identification method
JP7424066B2 (en) 2020-01-20 2024-01-30 株式会社大林組 Geological evaluation system, geological evaluation method and geological evaluation program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137812A (en) 1998-10-30 2000-05-16 Oki Electric Ind Co Ltd Individual identifier
JP2000172844A (en) 1998-12-03 2000-06-23 Toshiba Corp Printing inspection method and device therefor
CN102129576A (en) 2011-02-28 2011-07-20 西安电子科技大学 Method for extracting duty ratio parameter of all-sky aurora image
WO2012111236A1 (en) 2011-02-17 2012-08-23 三洋電機株式会社 Image identification device and program
WO2012124458A1 (en) 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ Authorized party authentication template learning system and authorized party authentication template learning method
JP2012243197A (en) 2011-05-23 2012-12-10 Morpho Inc Image identification device, image identification method, image identification program and recording medium
JP2014116763A (en) 2012-12-08 2014-06-26 Xacti Corp Electronic camera
JP2016071387A (en) 2014-09-26 2016-05-09 富士通株式会社 Image processing apparatus, image processing method, and program
JP2019060836A (en) 2018-02-07 2019-04-18 Necプラットフォームズ株式会社 Float detector and float detection method of print, inspection device, and inspection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4143149B2 (en) * 1997-11-20 2008-09-03 キヤノン株式会社 Region extraction apparatus, region extraction method, and computer-readable recording medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137812A (en) 1998-10-30 2000-05-16 Oki Electric Ind Co Ltd Individual identifier
JP2000172844A (en) 1998-12-03 2000-06-23 Toshiba Corp Printing inspection method and device therefor
WO2012111236A1 (en) 2011-02-17 2012-08-23 三洋電機株式会社 Image identification device and program
CN102129576A (en) 2011-02-28 2011-07-20 西安电子科技大学 Method for extracting duty ratio parameter of all-sky aurora image
WO2012124458A1 (en) 2011-03-16 2012-09-20 株式会社エヌ・ティ・ティ・ドコモ Authorized party authentication template learning system and authorized party authentication template learning method
JP2012243197A (en) 2011-05-23 2012-12-10 Morpho Inc Image identification device, image identification method, image identification program and recording medium
JP2014116763A (en) 2012-12-08 2014-06-26 Xacti Corp Electronic camera
JP2016071387A (en) 2014-09-26 2016-05-09 富士通株式会社 Image processing apparatus, image processing method, and program
JP2019060836A (en) 2018-02-07 2019-04-18 Necプラットフォームズ株式会社 Float detector and float detection method of print, inspection device, and inspection method

Also Published As

Publication number Publication date
WO2017221860A1 (en) 2017-12-28
JPWO2017221860A1 (en) 2019-04-11

Similar Documents

Publication Publication Date Title
Berman et al. Non-local image dehazing
Zhuo et al. Cloud classification of ground-based images using texture–structure features
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
Sathya et al. Classification and segmentation in satellite imagery using back propagation algorithm of ann and k-means algorithm
Dev et al. Nighttime sky/cloud image segmentation
US10013608B2 (en) Method and system for facilitating real time detection of linear infrastructural objects by aerial imagery
JP7159384B2 (en) Image processing device, image processing method, and program
CN111886600A (en) Device and method for instance level segmentation of image
CN110084837B (en) Target detection and tracking method based on unmanned aerial vehicle video
JP7031584B2 (en) Area identification device and area identification method and area identification program
JP6448212B2 (en) Recognition device and recognition method
KR20210064193A (en) Image processing apparatus, image processing method, and program
Li et al. RGBD relocalisation using pairwise geometry and concise key point sets
US11176455B2 (en) Learning data generation apparatus and learning data generation method
Cheng et al. Semantic single-image dehazing
JP6851163B2 (en) Image processing equipment, image processing methods, and programs
JP6546385B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
US20220366651A1 (en) Method for generating a three dimensional, 3d, model
KR101592087B1 (en) Method for generating saliency map based background location and medium for recording the same
Xing et al. Image-enhanced YOLOv5 and deep sort underwater multi-moving target tracking method
JP6044138B2 (en) Image region dividing apparatus, method, and program
JP6770363B2 (en) Face direction estimator and its program
US11373313B2 (en) Image processing apparatus and image processing method
Kim et al. Dehazing using Non-local Regularization with Iso-depth Neighbor-Fields.
US20160203368A1 (en) Smudge removal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210901

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R151 Written notification of patent or utility model registration

Ref document number: 7031584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151