JP2012128558A - Identification apparatus - Google Patents

Identification apparatus Download PDF

Info

Publication number
JP2012128558A
JP2012128558A JP2010278018A JP2010278018A JP2012128558A JP 2012128558 A JP2012128558 A JP 2012128558A JP 2010278018 A JP2010278018 A JP 2010278018A JP 2010278018 A JP2010278018 A JP 2010278018A JP 2012128558 A JP2012128558 A JP 2012128558A
Authority
JP
Japan
Prior art keywords
identification
feature
unit
learning
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278018A
Other languages
Japanese (ja)
Other versions
JP5214716B2 (en
Inventor
Tomokazu Kawahara
智一 河原
Tatsuo Kosakaya
達夫 小坂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010278018A priority Critical patent/JP5214716B2/en
Publication of JP2012128558A publication Critical patent/JP2012128558A/en
Application granted granted Critical
Publication of JP5214716B2 publication Critical patent/JP5214716B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve identification accuracy of a target.SOLUTION: An identification apparatus includes a selection section, a learning section, an input receiving section, a feature extraction section, a feature amount calculation section, a similarity calculation section, an identification section and an output control section. The selection section performs selection processing multiple times for selecting a plurality of groups each including one or more learning samples among a plurality of learning samples resulting from classifying each of the learning samples to any one of a plurality of categories. The learning section learns an identification criterion to identify the plurality of groups on a selected-multiple-groups unit basis and generates an evaluation criterion including a plurality of identification criteria. The input receiving section receives input of an image based on a radar echo from a target. The feature extraction section extracts a feature vector representing a feature of a contour shape of the target from the image. The feature amount calculation section calculates a feature amount of the feature vector using the evaluation criterion. The similarity calculation section calculates similarity between the feature amount and an identification feature amount. The identification section identifies the target using the similarity. The output control section causes an output section to output an identification result.

Description

本発明の実施形態は、識別装置に関する。   Embodiments described herein relate generally to an identification device.

従来から、未知の目標を識別する手法として、当該目標からのレーダエコーを処理して作成されるISAR(Inverse Synthetic Aperture Radar:逆合成開口レーダ)画像を用いた識別手法が知られている。   Conventionally, as a technique for identifying an unknown target, an identification technique using an ISAR (Inverse Synthetic Aperture Radar) image created by processing a radar echo from the target is known.

例えば、未知の船舶の種類を識別する場合、ISAR画像上の未知の船舶の船首と船尾を結ぶ主軸の上側に位置する艦橋や砲台などの高さを使用して当該未知の船舶の輪郭形状をベクトルで表現し、このベクトルに基づいて未知の船舶の種類を識別する手法がある。   For example, when identifying the type of an unknown ship, the contour shape of the unknown ship is determined using the height of a bridge or a turret located above the main axis connecting the bow and stern of the unknown ship on the ISAR image. There is a method of expressing a vector and identifying an unknown ship type based on this vector.

しかしながら、この手法では、未知の船舶の輪郭形状を主軸からの高さを用いたベクトルで表現しているため、輪郭の凹みを表現できない場合があり、誤類別のおそれがある。例えば、艦橋から横に砲身が突き出ている場合、船舶の輪郭形状は主軸からの砲身の高さを用いたベクトルで表現されるため、砲身の下の空間が表現されず、砲身と同じ高さの構造物を載せた別の船舶と誤類別されるおそれがある。   However, in this method, since the contour shape of an unknown ship is expressed by a vector using the height from the main axis, the contour dent may not be expressed, which may cause misclassification. For example, if a barrel protrudes from the bridge, the contour of the ship is represented by a vector that uses the height of the barrel from the main axis, so the space below the barrel is not represented, and the same height as the barrel There is a risk of being misclassified as another ship carrying the structure.

ところで、例えば、輝度勾配の共起関係の組み合わせのヒストグラムなどを使用することで、凹みを始めとする複雑な輪郭形状をベクトルで表現する技術が提案されている。   By the way, for example, by using a histogram of combinations of co-occurrence relationships of luminance gradients, a technique for expressing a complex contour shape including a dent as a vector has been proposed.

特開2002−6034号公報JP 2002-6034 A 特開2010−44439号公報JP 2010-44439 A

しかしながら、上述したような表現能力の高いベクトルは次元が高くなる傾向にある。このため、目標からのレーダエコーに基づく画像を用いた識別手法に適用した場合、ベクトルを目標識別に用いる特徴量に変換するために使用する評価基準の学習時に過学習が起き易くなってしまう。評価基準の学習時に過学習が起きてしまうと、評価基準の精度が悪化してしまうため、目標識別の精度も悪化してしまう。   However, vectors with high expressive power as described above tend to have higher dimensions. For this reason, when applied to an identification method using an image based on a radar echo from a target, overlearning is likely to occur during learning of an evaluation criterion used to convert a vector into a feature amount used for target identification. If overlearning occurs during the learning of the evaluation criteria, the accuracy of the evaluation criteria is deteriorated, so that the accuracy of target identification is also deteriorated.

実施形態の識別装置は、選択部と、学習部と、入力受付部と、特徴抽出部と、特徴量計算部と、類似度計算部と、識別部と、出力制御部と、を備える。選択部は、各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する学習サンプル記憶部から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行う。学習部は、選択された複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する。入力受付部は、目標からのレーダエコーに基づく画像の入力を受け付ける。特徴抽出部は、前記画像から前記目標の輪郭形状の特徴を表現する特徴ベクトルを抽出する。特徴量計算部は、前記評価基準を用いて、前記特徴ベクトルの特徴量を計算する。類似度計算部は、前記特徴量と識別基準となる識別特徴量との類似度を計算する。識別部は、前記類似度を用いて、前記目標を識別する。出力制御部は、識別結果を出力部に出力させる。   The identification device according to the embodiment includes a selection unit, a learning unit, an input reception unit, a feature extraction unit, a feature amount calculation unit, a similarity calculation unit, an identification unit, and an output control unit. The selection unit performs a selection process of selecting a plurality of groups including one or more learning samples from a learning sample storage unit that stores a plurality of learning samples in which each learning sample is classified into any of a plurality of categories. The learning unit learns an identification criterion for identifying the plurality of groups for each of the selected plurality of groups, and generates an evaluation criterion including the learned plurality of identification criteria. The input receiving unit receives an image input based on a radar echo from the target. The feature extraction unit extracts a feature vector expressing the feature of the target contour shape from the image. The feature amount calculation unit calculates the feature amount of the feature vector using the evaluation criterion. The similarity calculation unit calculates a similarity between the feature quantity and the identification feature quantity serving as a discrimination reference. The identification unit identifies the target using the similarity. The output control unit causes the output unit to output the identification result.

本実施形態の識別装置の構成例を示すブロック図。The block diagram which shows the structural example of the identification device of this embodiment. 本実施形態のISAR画像から生成した2値化画像例を示す図。The figure which shows the example of the binarized image produced | generated from the ISAR image of this embodiment. 本実施形態の輝度勾配方向の共起関係を用いたベクトルの抽出手法例の説明図。Explanatory drawing of the example of the extraction method of the vector using the co-occurrence relationship of the brightness | luminance gradient direction of this embodiment. 本実施形態の画像の輝度勾配方向の一部を表示した例を示す図。The figure which shows the example which displayed a part of brightness | luminance gradient direction of the image of this embodiment. 本実施形態の特徴ベクトルの特徴量の計算手法例の説明図。Explanatory drawing of the example of the calculation method of the feature-value of the feature vector of this embodiment. 本実施形態の識別テーブルの例を示す図。The figure which shows the example of the identification table of this embodiment. 本実施形態の評価基準の生成手法例を示す説明図。Explanatory drawing which shows the example of the evaluation criterion production | generation method of this embodiment. 本実施形態の識別処理例を示すフローチャート図。The flowchart figure which shows the example of an identification process of this embodiment. 本実施形態の学習処理例を示すフローチャート図。The flowchart figure which shows the example of a learning process of this embodiment. 本実施形態の学習サンプル格納処理例を示すフローチャート図。The flowchart figure which shows the example of a learning sample storage process of this embodiment. 本実施形態の識別特徴量登録処理例を示すフローチャート図。The flowchart figure which shows the identification feature-value registration process example of this embodiment. 本実施形態の識別装置のハードウェア構成例を示すブロック図。The block diagram which shows the hardware structural example of the identification device of this embodiment.

図1は、本実施形態の識別装置100の構成の一例を示すブロック図である。図1に示すように、識別装置100は、入力部102と、入力受付部104と、目標抽出部106と、特徴抽出部108と、評価基準記憶部110と、特徴量計算部112と、識別テーブル記憶部114と、類似度計算部116と、識別部118と、出力制御部120と、出力部122と、学習サンプル記憶部124と、選択部126と、学習部128とを、備える。   FIG. 1 is a block diagram illustrating an example of the configuration of the identification device 100 according to the present embodiment. As illustrated in FIG. 1, the identification device 100 includes an input unit 102, an input reception unit 104, a target extraction unit 106, a feature extraction unit 108, an evaluation criterion storage unit 110, a feature amount calculation unit 112, an identification A table storage unit 114, a similarity calculation unit 116, an identification unit 118, an output control unit 120, an output unit 122, a learning sample storage unit 124, a selection unit 126, and a learning unit 128 are provided.

なお入力部102は、例えば、画像入力用のインタフェースなどにより実現できる。また、入力受付部104、目標抽出部106、特徴抽出部108、特徴量計算部112、類似度計算部116、識別部118、出力制御部120、選択部126、及び学習部128は、例えば、CPU(Central Processing Unit)などの既存の制御装置により実現できる。また、評価基準記憶部110、識別テーブル記憶部114、及び学習サンプル記憶部124は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ROM(Read Only Memory)、メモリカードなどの磁気的、光学的、又は電気的に記憶可能な既存の記憶装置の少なくともいずれかにより実現できる。また、出力部122は、例えば、液晶ディスプレイ等の既存の表示装置により実現できる。   The input unit 102 can be realized by, for example, an image input interface. In addition, the input receiving unit 104, the target extracting unit 106, the feature extracting unit 108, the feature amount calculating unit 112, the similarity calculating unit 116, the identifying unit 118, the output control unit 120, the selecting unit 126, and the learning unit 128 are, for example, This can be realized by an existing control device such as a CPU (Central Processing Unit). The evaluation criterion storage unit 110, the identification table storage unit 114, and the learning sample storage unit 124 are, for example, magnetic such as a hard disk drive (HDD), a solid state drive (SSD), a read only memory (ROM), and a memory card. It can be realized by at least one of existing storage devices capable of storing optically, optically, or electrically. The output unit 122 can be realized by an existing display device such as a liquid crystal display.

入力部102は、目標からのレーダエコーに基づく画像を入力する。本実施形態では、入力部102は、識別対象の未知の船舶からのレーダエコーを処理することによりフレーム単位で生成される時系列のISAR(Inverse Synthetic Aperture Radar:逆合成開口レーダ)画像を順次入力する。このISAR画像には、識別対象の未知の船舶が含まれている。なお入力部102は、船舶(広義には、目標)と関係のない背景などを予め取り除いたISAR画像を入力するようにしてもよい。この場合、後述の目標抽出部106による処理が不要となる。   The input unit 102 inputs an image based on the radar echo from the target. In the present embodiment, the input unit 102 sequentially inputs time-series ISAR (Inverse Synthetic Aperture Radar) images generated in units of frames by processing radar echoes from unknown ships to be identified. To do. This ISAR image includes an unknown ship to be identified. Note that the input unit 102 may input an ISAR image in which a background that is not related to a ship (a target in a broad sense) is removed in advance. In this case, processing by the target extraction unit 106 described later is not necessary.

本実施形態では、入力部102により入力されるISAR画像が、Ds(Ds≧1)次元のベクトルで表されるデータであり、ベクトルの各要素が輝度値である場合を例に取り説明する。例えば、入力部102により入力されるISAR画像Xは、(X,X,…,XDs)で表されるものとする。但し、入力部102により入力される画像は、これに限定されるものではない。 In the present embodiment, the case where the ISAR image input from the input unit 102 is data represented by a Ds (Ds ≧ 1) -dimensional vector and each element of the vector is a luminance value will be described as an example. For example, it is assumed that the ISAR image X input by the input unit 102 is represented by (X 1 , X 2 ,..., X Ds ). However, the image input by the input unit 102 is not limited to this.

入力受付部104は、入力部102から入力された画像の入力を受け付ける。本実施形態では、入力受付部104は、入力部102から、識別対象の未知の船舶が含まれる時系列のISAR画像の入力を順次受け付ける。   The input receiving unit 104 receives an input of an image input from the input unit 102. In the present embodiment, the input receiving unit 104 sequentially receives input of time-series ISAR images including unknown ships to be identified from the input unit 102.

目標抽出部106は、入力受付部104により受け付けられた画像から目標を抽出する。本実施形態では、目標抽出部106は、入力受付部104により受け付けられたISAR画像内に含まれる未知の船舶の領域を抽出する。   The target extraction unit 106 extracts a target from the image received by the input reception unit 104. In the present embodiment, the target extraction unit 106 extracts an unknown ship region included in the ISAR image received by the input reception unit 104.

目標抽出部106は、例えば、ISAR画像を輝度の高い領域と低い領域とに分け、輝度の高い領域を船舶の領域(広義には、目標領域)として抽出する。但し、目標の抽出手法はこれに限定されるものではない。例えば、目標抽出部106は、各ISAR画像から船舶領域の船舶の軸を検出し、検出した船舶の軸に基づいて各ISAR画像を正規化し、正規化した各ISAR画像を重畳することにより、船舶の領域を抽出するようにしてもよい。   For example, the target extraction unit 106 divides the ISAR image into a high luminance region and a low luminance region, and extracts a high luminance region as a marine region (target region in a broad sense). However, the target extraction method is not limited to this. For example, the target extraction unit 106 detects the ship axis of the ship region from each ISAR image, normalizes each ISAR image based on the detected ship axis, and superimposes each normalized ISAR image, thereby These regions may be extracted.

特徴抽出部108は、入力受付部104により受け付けられた画像から、目標抽出部106により抽出された目標の輪郭形状の特徴を表現する特徴ベクトルを抽出する。具体的には、特徴抽出部108は、特徴ベクトルとして、輝度勾配方向の共起関係を用いたベクトルを抽出する。本実施形態では、特徴抽出部108は、入力受付部104により受け付けられたISAR画像から、目標抽出部106により抽出された未知の船舶の領域の輪郭形状の特徴を表現する特徴ベクトルとして、輝度勾配方向の共起関係を用いたベクトルを抽出する。   The feature extraction unit 108 extracts a feature vector representing the feature of the target contour shape extracted by the target extraction unit 106 from the image received by the input reception unit 104. Specifically, the feature extraction unit 108 extracts a vector using a co-occurrence relationship in the luminance gradient direction as the feature vector. In the present embodiment, the feature extraction unit 108 uses a luminance gradient as a feature vector that represents the feature of the contour shape of the unknown ship region extracted by the target extraction unit 106 from the ISAR image received by the input reception unit 104. Extract a vector using the co-occurrence relationship of directions.

図2は、ISAR画像から生成した2値化画像の一例を示す図である。図3は、輝度勾配方向の共起関係を用いたベクトルの抽出手法の一例の説明図である。図4は、船舶の輝度勾配方向の一部を表示した例を示す図である。   FIG. 2 is a diagram illustrating an example of a binarized image generated from an ISAR image. FIG. 3 is an explanatory diagram of an example of a vector extraction method using the co-occurrence relationship in the luminance gradient direction. FIG. 4 is a diagram showing an example in which a part of the luminance gradient direction of the ship is displayed.

特徴抽出部108は、例えば、ISAR画像から、船舶の領域の画素を1、船舶の領域以外の画素を0とした2値化画像を生成し(図2参照)、生成した2値化画像を小領域に分割し(図3左図参照)、分割した小領域毎に次の処理を行う。具体的には、特徴抽出部108は、小領域中の各ピクセルの輝度勾配を計算し、計算した輝度勾配の中から予め定めたオフセット毎に当該オフセットを持つ2つの輝度勾配のペアの出現頻度を計算する(図3中央図参照)。そして特徴抽出部108は、オフセット及び輝度勾配のペア毎の出現頻度を並べることにより(図3右図参照)、輝度勾配方向の共起関係を用いたベクトル、即ち、特徴ベクトルを抽出する(図4参照)。図4に示す例では、艦橋から横に砲身が突き出ているが、砲身の下の空間も表現できている。なお、特徴抽出部108は、2値化画像の代わりに、ISAR画像から、船舶の領域の画素の輝度をそのままとし、船舶の領域以外の画素の輝度を0とした画像を生成してもよい。この画像からでも上記と同様の手法で輝度勾配方向の共起関係を用いたベクトルを抽出できる。   For example, the feature extraction unit 108 generates a binarized image from the ISAR image in which the pixel of the ship area is 1 and the pixels other than the ship area are 0 (see FIG. 2), and the generated binarized image is generated. The area is divided into small areas (see the left figure in FIG. 3), and the following processing is performed for each divided small area. Specifically, the feature extraction unit 108 calculates the luminance gradient of each pixel in the small region, and the appearance frequency of two luminance gradient pairs having the offset for each predetermined offset from the calculated luminance gradient Is calculated (see the central diagram of FIG. 3). Then, the feature extraction unit 108 extracts the vector using the co-occurrence relationship of the luminance gradient direction, that is, the feature vector by arranging the appearance frequency for each pair of offset and luminance gradient (see the right diagram in FIG. 3) (see FIG. 3). 4). In the example shown in FIG. 4, the barrel protrudes from the bridge, but the space under the barrel can also be expressed. Note that the feature extraction unit 108 may generate an image from the ISAR image in which the brightness of the pixels in the ship region is kept as it is and the brightness of the pixels other than the ship region is set to 0, instead of the binarized image. . Even from this image, a vector using the co-occurrence relationship of the luminance gradient direction can be extracted by the same method as described above.

評価基準記憶部110は、後述の選択部126及び学習部128により生成される評価基準を記憶する。本実施形態では、評価基準記憶部110は、識別器F(x)(1≦i≦N(N≧2))を有する評価基準{F(x),F(x),…,F(x)}を記憶する。 The evaluation criterion storage unit 110 stores evaluation criteria generated by the selection unit 126 and the learning unit 128 described later. In the present embodiment, the evaluation criterion storage unit 110 has evaluation criteria {F 1 (x), F 2 (x),... Having a discriminator F i (x) (1 ≦ i ≦ N (N ≧ 2)). Store F N (x)}.

特徴量計算部112は、評価基準記憶部110に記憶されている評価基準を用いて、特徴抽出部108により抽出された特徴ベクトルの特徴量を計算する。   The feature amount calculation unit 112 calculates the feature amount of the feature vector extracted by the feature extraction unit 108 using the evaluation criterion stored in the evaluation criterion storage unit 110.

本実施形態では、評価基準記憶部110に記憶されている評価基準{F(x),F(x),…,F(x)}に含まれるそれぞれの識別器F(x)が、特徴ベクトルに対し、数式(1)に示すように評価値sを返却するものとする。ここで、後述の学習部128により、いずれの学習手法を用いて識別器F(x)が学習された場合であっても、識別器F(x)の出力は、識別対象のグループに属する尤度などとして表されるため、数式(1)を満たす。 In this embodiment, each discriminator F i (x) included in the evaluation criteria {F 1 (x), F 2 (x),..., F N (x)} stored in the evaluation criteria storage unit 110. Assume that an evaluation value s i is returned for the feature vector as shown in Equation (1). Here, the learning unit 128 to be described later, even when using any of the learning method classifiers F i (x) is learned, the output of the discriminator F i (x), a group to be identified Since it is expressed as the likelihood to belong, the mathematical formula (1) is satisfied.

(X)=s …(1) F i (X) = s i (1)

なお本実施形態では、評価値sがスカラー量である場合を例に取り説明するが、これに限定されるものではなく、例えば、複数の要素を持つベクトルであってもよい。また、後述する内容は、評価値sがベクトルであっても同様に適用できる。例えば、後述の学習部128により、3個以上のグループを識別する学習手法を用いて識別器F(x)が学習された場合、識別器F(x)の出力は、識別対象のグループに含まれる各カテゴリに帰属する尤度を要素に持つようなベクトルとなる。 In the present embodiment, the case where the evaluation value s i is a scalar quantity will be described as an example. However, the present embodiment is not limited to this, and may be a vector having a plurality of elements, for example. Further, the contents described later can be similarly applied even when the evaluation value s i is a vector. For example, when the classifier F i (x) is learned by the learning unit 128 described later using a learning method for identifying three or more groups, the output of the classifier F i (x) is the group to be identified. Is a vector having elements having likelihoods belonging to the respective categories included in.

図5は、特徴ベクトルYの特徴量v(Y)の計算手法の一例の説明図である。特徴量計算部112は、図5に示すように、特徴抽出部108により抽出された特徴ベクトルYを評価基準記憶部110に記憶されている評価基準{F(x),F(x),…,F(x)}に適用して、評価値sを取得し、取得した評価値sから特徴ベクトルYの特徴量v(Y)を計算する。本実施形態では、特徴量計算部112は、図5及び数式(2)に示すように、全ての評価値sを1つに並べることで特徴ベクトルYの特徴量v(Y)を計算する。 FIG. 5 is an explanatory diagram illustrating an example of a method for calculating the feature quantity v (Y) of the feature vector Y. As shown in FIG. 5, the feature quantity calculation unit 112 uses the evaluation criteria {F 1 (x), F 2 (x) stored in the evaluation criteria storage unit 110 for the feature vector Y extracted by the feature extraction unit 108. , ..., is applied to F N (x)}, and obtains the evaluation value s i, calculates the feature quantity v (Y) of the feature vector Y from the evaluation value s i obtained. In the present embodiment, the feature quantity calculation unit 112 calculates the feature quantity v (Y) of the feature vector Y by arranging all the evaluation values s i together as shown in FIG. 5 and Equation (2). .

v(Y)=(s,s,…,s) …(2) v (Y) = (s 1 , s 2 ,..., s N ) (2)

例えば、識別器F(x)が2つのクラスを判別し、評価値sとして0又は1を出力する関数であるとする。この場合、特徴量計算部112は、特徴抽出部108により抽出された特徴ベクトルYの特徴量を、例えば、v(Y)=(1,1,0,1,0,…,1)のように、0と1との組み合わせで表現されたベクトルとして計算する。また特徴量計算部112は、特徴抽出部108により抽出された特徴ベクトルY’(Y’≠Y)の特徴量を計算すると、例えば、v(Y’)=(0,1,1,1,0,…,0)のように、やはり0と1との組み合わせで表現されたベクトルとして計算するが、計算した特徴量は特徴ベクトルYの特徴量と異なるものになる。つまり、この例では、0と1との組み合わせで表現されたベクトルが、ISAR画像に含まれる船舶が有する固有の特徴量となり、船舶の識別に有効な特徴量となる。なお、識別器F(x)が2つ以上のクラスを判別し、評価値sとして0及び1以外の実数を出力する関数である場合であっても、上記と同様である。 For example, it is assumed that the classifier F i (x) is a function that discriminates two classes and outputs 0 or 1 as the evaluation value s i . In this case, the feature amount calculation unit 112 sets the feature amount of the feature vector Y extracted by the feature extraction unit 108 as, for example, v (Y) = (1, 1, 0, 1, 0,..., 1). And a vector expressed as a combination of 0 and 1. When the feature quantity calculation unit 112 calculates the feature quantity of the feature vector Y ′ (Y ′ ≠ Y) extracted by the feature extraction unit 108, for example, v (Y ′) = (0, 1, 1, 1, (0,..., 0), which is also calculated as a vector expressed by a combination of 0 and 1, but the calculated feature quantity is different from the feature quantity of the feature vector Y. That is, in this example, a vector expressed by a combination of 0 and 1 is a unique feature amount that the ship included in the ISAR image has, and is an effective feature amount for identifying the ship. The same applies to the case where the classifier F i (x) is a function that discriminates two or more classes and outputs a real number other than 0 and 1 as the evaluation value s i .

但し、特徴量の計算手法は上述の手法に限定されるものではなく、取得した評価値sをどのように用いて特徴量を計算しても構わない。 However, the feature amount calculation method is not limited to the above-described method, and the feature amount may be calculated by using the acquired evaluation value s i in any way.

なお、評価値sがベクトルの場合、特徴ベクトルYの特徴量v(Y)は、評価値sが持つ各要素を並べたものとなる。つまり、評価値sの次元数をdとすると、特徴ベクトルYの特徴量v(Y)の次元数Dは、次元数dの総和となる(D=d+…+d)。なお、各評価値sの次元数dは、全て同じ値でもよいし、それぞれ異なっていてもよい。 When the evaluation value s i is a vector, the feature quantity v (Y) of the feature vector Y is obtained by arranging the elements of the evaluation value s i . That is, if the number of dimensions of the evaluation value s i is d i , the number of dimensions D of the feature quantity v (Y) of the feature vector Y is the sum of the number of dimensions d i (D = d 1 +... + D N ). Incidentally, the dimension number d i of each evaluation value s i is, all may be the same value or may be different.

また、特徴量計算部112は、特徴量v(Y)を評価値sのヒストグラムとして計算するようにしてもよい。具体的には、特徴量計算部112は、評価値sを離散化(必要なら要素毎に)しておき、その値に該当するビンに対して投票することでヒストグラム特徴量v(Y)を計算することができる。 The feature amount calculation unit 112 may calculate the feature amount v (Y) as a histogram of the evaluation value s i . Specifically, the feature amount calculation unit 112 discretizes the evaluation value s i (for each element if necessary), and votes for the bin corresponding to the value to thereby determine the histogram feature amount v (Y). Can be calculated.

なお、評価値sがベクトルの場合、特徴量計算部112は、次元数dのヒストグラムとすることでヒストグラム特徴量v(Y)を計算することができる。また、スカラー量とベクトルのように次元数の異なる評価値sが混在している場合、特徴量計算部112は、同種の評価値s毎にヒストグラム特徴量を計算しておき、計算したヒストグラム特徴量を1つのベクトルとして並べることでヒストグラム特徴量v(Y)を計算することができる。 When the evaluation value s i is a vector, the feature amount calculation unit 112 can calculate the histogram feature amount v (Y) by using a histogram with the number of dimensions d i . When evaluation values s i having different numbers of dimensions are mixed, such as a scalar quantity and a vector, the feature quantity calculation unit 112 calculates and calculates a histogram feature quantity for each evaluation value s i of the same type. By arranging the histogram feature values as one vector, the histogram feature value v (Y) can be calculated.

また、特徴量計算部112は、評価値sを1つに並べてベクトル化した特徴量と、評価値sをヒストグラム化したヒストグラム特徴量とを、更に1つのベクトルとして並べる(連結する)ことで特徴量v(Y)を計算するようにしてもよい。また、特徴量計算部112は、評価値sに非線形な変換を施して特徴量を計算するようにしてもよい。また、特徴量計算部112は、計算した特徴量に対して、平均を0にしたり、2乗平均を1にしたりするなどの正規化を行うようにしてもよい。 Further, the feature quantity calculation unit 112 further arranges (connects) the feature quantity obtained by arranging the evaluation values s i into one vector and the histogram feature quantity obtained by making the evaluation values s i into a histogram as one vector. The feature value v (Y) may be calculated by Further, the feature amount calculation unit 112 may calculate the feature amount by performing nonlinear conversion on the evaluation value s i . Further, the feature quantity calculation unit 112 may perform normalization such as setting the average to 0 or setting the square average to 1 for the calculated feature quantity.

識別テーブル記憶部114は、識別基準となる各識別特徴量にカテゴリを対応付けた識別テーブルを記憶する。ここで、カテゴリとは、目標を識別する際の種類を表し、目標が船舶の場合には、船舶の名称、種類、又は大きさなどが該当する。識別特徴量及びカテゴリの組は、予め識別テーブルに登録されていてもよい。また、特徴量計算部112が、既知の船舶が含まれるISAR画像から抽出された特徴ベクトルの特徴量を計算し、計算した特徴量を識別特徴量として、既知の船舶が属するカテゴリに対応付けて識別テーブルに登録するようにしてもよい。   The identification table storage unit 114 stores an identification table in which a category is associated with each identification feature amount serving as an identification reference. Here, the category represents a type for identifying a target. When the target is a ship, the name, type, size, or the like of the ship is applicable. The combination of the identification feature quantity and the category may be registered in advance in the identification table. Further, the feature amount calculation unit 112 calculates the feature amount of the feature vector extracted from the ISAR image including the known ship, and associates the calculated feature amount with the category to which the known ship belongs as the identification feature amount. It may be registered in the identification table.

図6は、識別テーブルの一例を示す図である。図6に示す例では、カテゴリAとカテゴリAに属するか否かの識別基準となる識別特徴量v’(A)=(a,a,…,a)が対応付けられており、カテゴリBとカテゴリBに属するか否かの識別基準となる識別特徴量v’(B)=(b,b,…,b)が対応付けられている。 FIG. 6 is a diagram illustrating an example of the identification table. In the example shown in FIG. 6, the category A and the identification feature quantity v ′ (A) = (a 1 , a 2 ,..., A N ) that are identification criteria as to whether or not it belongs to the category A are associated, The classification feature v ′ (B) = (b 1 , b 2 ,..., B N ), which serves as an identification criterion for whether or not the category B belongs to the category B, is associated.

類似度計算部116は、特徴量計算部112により計算された特徴量と識別テーブル記憶部114に記憶されている識別特徴量との類似度を計算する。本実施形態では、類似度計算部116は、数式(3)を用いて、特徴量計算部112により計算された特徴量v(Y)と識別テーブル記憶部114に記憶されている各識別特徴量(識別特徴量v’(A)及び識別特徴量v’(B)など)との類似度を計算する。   The similarity calculation unit 116 calculates the similarity between the feature amount calculated by the feature amount calculation unit 112 and the identification feature amount stored in the identification table storage unit 114. In the present embodiment, the similarity calculation unit 116 uses the mathematical formula (3) to calculate the feature amount v (Y) calculated by the feature amount calculation unit 112 and each identification feature amount stored in the identification table storage unit 114. The degree of similarity with (identification feature amount v ′ (A), identification feature amount v ′ (B), etc.) is calculated.

L=(α,β)/||α||||β|| …(3)   L = (α, β) / || α ||| β || (3)

ここで、数式(3)は、ベクトルαとベクトルβとの単純類似度を計算する数式である。(α,β)は、ベクトルαとベクトルβとの内積を示し、||α||、||β||は、それぞれベクトルα、ベクトルβのノルムを示す。例えば、特徴量v(Y)と識別特徴量v’(A)との類似度Lは、数式(3)より、L=(v(Y),v’(A))/||v(Y)||||v’(A)||となる。   Here, Expression (3) is an expression for calculating the simple similarity between the vector α and the vector β. (Α, β) represents the inner product of the vectors α and β, and || α || and || β || represent the norms of the vectors α and β, respectively. For example, the similarity L between the feature quantity v (Y) and the identified feature quantity v ′ (A) is expressed by L = (v (Y), v ′ (A)) / || v (Y from Equation (3). ) |||| v ′ (A) ||

なお、類似度計算部116は、ベクトル間の距離を計算する数式(4)又は数式(5)を用いて、特徴量計算部112により計算された特徴量v(Y)と識別テーブル記憶部114に記憶されている各識別特徴量(識別特徴量v’(A)及び識別特徴量v’(B)など)との類似度を計算するようにしてもよい。   Note that the similarity calculation unit 116 uses the feature value v (Y) calculated by the feature value calculation unit 112 and the identification table storage unit 114 using Equation (4) or Equation (5) for calculating the distance between vectors. The degree of similarity with each of the identification feature amounts (such as the identification feature amount v ′ (A) and the identification feature amount v ′ (B)) stored in the table may be calculated.

Figure 2012128558
Figure 2012128558

Figure 2012128558
Figure 2012128558

識別部118は、類似度計算部116により計算された類似度を用いて、目標を識別する。具体的には、識別部118は、類似度計算部116により計算された類似度を用いて、画像に含まれる未知の目標を同定するか、又は未知の目標が属する複数の候補を特定する。本実施形態では、識別部118は、識別テーブル記憶部114に記憶されている識別テーブルから、類似度計算部116により計算された類似度Lの値が大きい順、即ち、類似度の高い順に所定数の識別特徴量を選択する。そして識別部118は、選択した所定数の識別特徴量に対応するカテゴリの少なくともいずれかに、ISAR画像に含まれる船舶が属すると識別する。なお識別部118は、識別テーブル記憶部114に記憶されている識別テーブルから、類似度計算部116により計算された類似度Lが閾値を超えた識別特徴量のうち類似度の高い順に所定数の識別特徴量を選択するようにしてもよい。   The identification unit 118 identifies the target using the similarity calculated by the similarity calculation unit 116. Specifically, the identification unit 118 uses the similarity calculated by the similarity calculation unit 116 to identify an unknown target included in the image or specify a plurality of candidates to which the unknown target belongs. In the present embodiment, the identification unit 118 is predetermined from the identification table stored in the identification table storage unit 114 in descending order of the value of the similarity L calculated by the similarity calculation unit 116, that is, in descending order of similarity. Select a number of discriminating features. Then, the identification unit 118 identifies that the ship included in the ISAR image belongs to at least one of the categories corresponding to the selected predetermined number of identification feature amounts. It should be noted that the identification unit 118 includes a predetermined number of identification features in descending order of similarity among the identification feature amounts for which the similarity L calculated by the similarity calculation unit 116 exceeds the threshold from the identification table stored in the identification table storage unit 114. An identification feature amount may be selected.

また、類似度計算部116が、ベクトル間の距離を計算する数式(4)又は数式(5)を用いて類似度Lを計算した場合、ベクトル間の距離が短いほど、即ち、類似度Lの値が小さいほど類似度が高くなる。この場合であれば、識別部118は、識別テーブル記憶部114に記憶されている識別テーブルから、類似度計算部116により計算された類似度Lの値が小さい順に所定数の識別特徴量を選択する。なお、識別部118は、識別テーブル記憶部114に記憶されている識別テーブルから、類似度計算部116により計算された類似度Lが閾値よりも小さい識別特徴量のうち類似度Lの値が小さい順に所定数の識別特徴量を選択するようにしてもよい。   In addition, when the similarity calculation unit 116 calculates the similarity L using Equation (4) or Equation (5) for calculating the distance between vectors, the shorter the distance between vectors, that is, the similarity L The smaller the value, the higher the similarity. In this case, the identification unit 118 selects, from the identification table stored in the identification table storage unit 114, a predetermined number of identification feature amounts in ascending order of the similarity L calculated by the similarity calculation unit 116. To do. Note that the identification unit 118 has a smaller value of the similarity L among the identification features whose similarity L calculated by the similarity calculation unit 116 is smaller than the threshold from the identification table stored in the identification table storage unit 114. A predetermined number of identification feature amounts may be selected in order.

出力制御部120は、識別部118の識別結果を出力部122に出力させる。本実施形態では、出力制御部120は、識別部118によりISAR画像に含まれる船舶が少なくともいずれかに属すると識別されたカテゴリを出力部122に出力させる。   The output control unit 120 causes the output unit 122 to output the identification result of the identification unit 118. In the present embodiment, the output control unit 120 causes the output unit 122 to output the category identified by the identifying unit 118 as belonging to at least one of the ships included in the ISAR image.

出力部122は、出力制御部120により制御され、識別部118の識別結果を出力する。   The output unit 122 is controlled by the output control unit 120 and outputs the identification result of the identification unit 118.

学習サンプル記憶部124は、各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する。本実施形態では、学習サンプルが、船舶の領域の輪郭形状の特徴を表現する特徴ベクトルの特徴量である場合を例に取り説明するが、学習サンプルはこれに限定されるものではない。特徴量(広義には、学習サンプル)は、予め学習サンプル記憶部124に記憶されていてもよい。また、特徴量計算部112が、船舶が含まれるISAR画像から抽出された特徴ベクトルの特徴量を計算し、計算した特徴量を学習サンプル記憶部124に記憶するようにしてもよい。   The learning sample storage unit 124 stores a plurality of learning samples in which each learning sample is classified into one of a plurality of categories. In the present embodiment, the case where the learning sample is a feature quantity of a feature vector that expresses the feature of the contour shape of the ship region will be described as an example, but the learning sample is not limited to this. The feature amount (learning sample in a broad sense) may be stored in the learning sample storage unit 124 in advance. In addition, the feature amount calculation unit 112 may calculate the feature amount of the feature vector extracted from the ISAR image including the ship, and store the calculated feature amount in the learning sample storage unit 124.

本実施形態では、学習サンプル記憶部124は、M(M≧2)個の特徴量を記憶している。なお、特徴量のカテゴリはC(C≧2)用意され、M個の特徴量はカテゴリ毎にM(1≦h≦C)個の特徴量に分類されるものとする。つまり、M=M+…+Mとなる。ここで、カテゴリは、前述したように、目標を識別する際の種類を表し、目標が船舶の場合には、船舶の名称、種類、又は大きさなどが該当する。つまり、M個の特徴量の中に種類αの船舶の特徴量と種類βの船舶の特徴量と種類γの船舶の特徴量との計3種類の船舶の特徴量が含まれていれば、C=3となる。 In the present embodiment, the learning sample storage unit 124 stores M (M ≧ 2) feature amounts. It is assumed that C (C ≧ 2) are provided as feature quantity categories, and M feature quantities are classified into M h (1 ≦ h ≦ C) feature quantities for each category. In other words, the M = M 1 + ... + M C. Here, as described above, the category represents the type used to identify the target. When the target is a ship, the category corresponds to the name, type, or size of the ship. In other words, if M feature quantities include a feature quantity of a ship of type α, a feature quantity of a ship of type β, and a feature quantity of a ship of type γ, a total of three types of feature quantities of the ship are included. C = 3.

選択部126は、学習サンプル記憶部124から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行う。特に選択部126は、選択する複数のグループのそれぞれに含まれる学習サンプルのカテゴリ数又はサンプル数が略同数となるように、当該複数のグループを選択する。具体的には、選択部126は、選択する複数のグループのそれぞれに含まれる学習サンプルのカテゴリ数又はサンプル数のグループ間の差が予め定められた範囲内に収まるように、当該複数のグループを選択する。なお本実施形態では、選択部126が、学習サンプル記憶部124から学習サンプルを無作為に選択(ランダムサンプリング)するものとする。これにより、選択部126により選択される複数のグループに含まれる学習サンプルのカテゴリは、選択部126の選択処理毎に異なることが期待できる。但し、学習サンプルの選択手法はこれに限定されるものではなく、選択する複数のグループに含まれる学習サンプルのカテゴリが選択処理毎に異なることが期待できれば、どのような選択基準で選択してもよい。   The selection unit 126 performs a selection process for selecting a plurality of groups including one or more learning samples from the learning sample storage unit 124 a plurality of times. In particular, the selection unit 126 selects the plurality of groups so that the number of learning samples or the number of samples included in each of the plurality of groups to be selected is substantially the same. Specifically, the selection unit 126 sets the plurality of groups so that the category number of the learning samples included in each of the plurality of groups to be selected or the difference between the groups of the sample numbers is within a predetermined range. select. In the present embodiment, it is assumed that the selection unit 126 randomly selects (random sampling) learning samples from the learning sample storage unit 124. Thereby, it can be expected that the categories of learning samples included in the plurality of groups selected by the selection unit 126 are different for each selection process of the selection unit 126. However, the selection method of the learning sample is not limited to this, and any selection criterion can be used as long as it can be expected that the category of the learning sample included in the plurality of groups to be selected is different for each selection process. Good.

本実施形態では、選択部126は、学習サンプル記憶部124から、各グループが特徴量を1個以上含むようにK(K=2)個のグループを無作為に選択する選択処理をN(N≧2)回行う。特に選択部126は、選択処理を行う際、K個のグループのそれぞれに含まれる特徴量のカテゴリ数が同数となるように、K個のグループを無作為に選択する。なお、Kの値は2以上であってもよい。   In the present embodiment, the selection unit 126 performs a selection process of randomly selecting K (K = 2) groups from the learning sample storage unit 124 so that each group includes one or more feature values. ≧ 2) Repeatedly. In particular, when performing the selection process, the selection unit 126 randomly selects K groups so that the number of feature categories included in each of the K groups is the same. The value of K may be 2 or more.

このため選択部126は、学習サンプル記憶部124から特徴量を完全に無作為に選択するのではなく、カテゴリの特徴量の個数に応じて重み付けを行ってK個のグループ間の特徴量の個数の差を小さくするように調整したり、カテゴリの特徴量の個数に関わらずある一定の個数の特徴量を抽出するようにしたりしてもよい。なお、特徴量の個数を一定にする場合、選択部126は、さらに単純にカテゴリから特徴量を無作為に選択するようにしてもよいし、学習サンプルとしてまだ選択されていない未選択の特徴量をカテゴリから優先的に選択するようにしてもよい。   For this reason, the selection unit 126 does not select feature amounts completely randomly from the learning sample storage unit 124, but performs weighting according to the number of feature amounts of the category, and the number of feature amounts between the K groups. It is also possible to adjust so as to reduce the difference between them, or to extract a certain number of feature quantities regardless of the number of feature quantities in the category. When the number of feature amounts is constant, the selection unit 126 may further simply select feature amounts randomly from categories, or unselected feature amounts that have not yet been selected as learning samples. May be preferentially selected from the category.

学習部128は、選択部126により選択された複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する。本実施形態では、学習部128は、選択部126により選択されたK個のグループ毎に当該K個のグループを識別する識別器F(x)(1≦i≦N)を学習し、学習したN個の識別器を含む評価基準{F(x),F(x),…,F(x)}を生成し、評価基準記憶部110に記憶する。 The learning unit 128 learns identification criteria for identifying the plurality of groups for each of the plurality of groups selected by the selection unit 126, and generates an evaluation criterion including the plurality of learned identification criteria. In the present embodiment, the learning unit 128 learns and learns a discriminator F i (x) (1 ≦ i ≦ N) for identifying the K groups for each of the K groups selected by the selection unit 126. Evaluation criteria {F 1 (x), F 2 (x),..., F N (x)} including the N discriminators are generated and stored in the evaluation criteria storage unit 110.

学習部128により生成された評価基準{F(x),F(x),…,F(x)}は、ISAR画像内に含まれる船舶の識別に用いられる。具体的には、評価基準{F(x),F(x),…,F(x)}に含まれるN個の識別器F(x)のそれぞれが、識別対象のISAR画像(詳細には、ISAR画像内に含まれる船舶)に対する評価値を出力する。評価値は、例えば、識別器が予め学習したいずれのクラスに属するかを示す尤度やクラス番号などが該当する。そして、出力された複数の評価値がISAR画像内に含まれる船舶の特徴量として利用されることにより、船舶の識別に用いられる。 The evaluation criteria {F 1 (x), F 2 (x),..., F N (x)} generated by the learning unit 128 are used for identification of the ship included in the ISAR image. Specifically, each of the N classifiers F i (x) included in the evaluation criteria {F 1 (x), F 2 (x),..., F N (x)} is an ISAR image to be identified. Specifically, the evaluation value for the ship included in the ISAR image is output. The evaluation value corresponds to, for example, a likelihood or a class number indicating which class the classifier belongs to in advance. Then, the plurality of output evaluation values are used as ship feature values included in the ISAR image, and are used for ship identification.

本実施形態では、学習部128は、サポートベクターマシンにより、K個のグループを識別する識別器F(x)を学習する。サポートベクターマシンは、2クラスのパターン識別器を構成する手法である。サンプルから、各データとの距離が最大となる分離平面を求め、マージンを最大化するという基準で学習する。但し、識別器の学習手法はこれに限定されるものではなく、既存の学習手法を用いることができる。例えば、学習部128は、ブースティングなどの学習手法を用いることができる。また例えば、選択部126により選択された3個のグループを識別する識別器を学習する場合であれば、学習部128は、k近傍識別器、ベイズ分類、又はニューラルネットワークなどの学習手法を用いることができる。 In the present embodiment, the learning unit 128 learns a discriminator F i (x) that identifies K groups by a support vector machine. The support vector machine is a technique for constructing two classes of pattern classifiers. A separation plane that maximizes the distance from each data is obtained from the sample, and learning is performed on the basis of maximizing the margin. However, the learning method of the classifier is not limited to this, and an existing learning method can be used. For example, the learning unit 128 can use a learning technique such as boosting. Further, for example, when learning a discriminator that identifies three groups selected by the selection unit 126, the learning unit 128 uses a learning method such as a k-neighbor discriminator, a Bayes classification, or a neural network. Can do.

図7は、評価基準の生成手法の一例を示す説明図である。なお、図7に示す例では、S〜S(M≧11)が、学習サンプル(特徴量)を示し、C=Mであるものとする。つまり、図7に示す例では、全ての学習サンプルのカテゴリが異なるものとする。また、図7に示す例では、K=2であるものとする。つまり、図7に示す例では、選択部126は、各グループに含まれる学習サンプルのカテゴリ数が2となるように、即ち、C=Mであるため、各グループに含まれる学習サンプル数が2となるように、2個のグループを選択する。 FIG. 7 is an explanatory diagram illustrating an example of an evaluation criterion generation method. In the example illustrated in FIG. 7, S 1 to S M (M ≧ 11) indicate learning samples (features), and C = M. That is, in the example shown in FIG. 7, it is assumed that the categories of all learning samples are different. In the example shown in FIG. 7, it is assumed that K = 2. That is, in the example illustrated in FIG. 7, the selection unit 126 sets the number of learning samples included in each group to be 2, that is, since C = M, the number of learning samples included in each group is 2. Select two groups so that

図7に示す例では、選択部126は、1回目の選択処理で、学習サンプルS及びSを含むグループ151aと、学習サンプルS及びSを含むグループ151bとを、選択している。また、選択部126は、2回目の選択処理で、学習サンプルS及びSを含むグループ152aと、学習サンプルS10及びSを含むグループ152bとを、選択している。また、選択部126は、N回目の選択処理で、学習サンプルS及びSを含むグループ153aと、学習サンプルS及びSを含むグループ153bとを、選択している。 In the example illustrated in FIG. 7, the selection unit 126 selects the group 151 a including the learning samples S 1 and S 5 and the group 151 b including the learning samples S 2 and S 7 in the first selection process. . Further, the selecting unit 126, in the second selection process, and the group 152a including learning samples S 3 and S 8, and the group 152b including learning samples S 10 and S M, is selected. Further, the selecting unit 126, an N-th selection process, and the group 153a including learning samples S 4 and S 9, and the group 153b including learning samples S 6 and S 7, is selected.

また、学習部128は、選択部126により1回目の選択処理で選択されたグループ151aとグループ151bとを識別する識別器F(x)を学習している。また、学習部128は、選択部126により2回目の選択処理で選択されたグループ152aとグループ152bとを識別する識別器F(x)を学習している。また、学習部128は、選択部126によりN回目の選択処理で選択されたグループ153aとグループ153bとを識別する識別器F(x)を学習している。これにより、学習部128は、学習したN個の識別器を含む評価基準{F(x),F(x),…,F(x)}を生成する。 In addition, the learning unit 128 learns the discriminator F 1 (x) that identifies the group 151a and the group 151b selected by the selection unit 126 in the first selection process. In addition, the learning unit 128 has learned the discriminator F 2 (x) that identifies the group 152a and the group 152b selected by the selection unit 126 in the second selection process. In addition, the learning unit 128 learns a discriminator F N (x) that identifies the group 153a and the group 153b selected by the selection unit 126 in the N-th selection process. Thereby, the learning unit 128 generates an evaluation criterion {F 1 (x), F 2 (x),..., F N (x)} including the learned N discriminators.

図8は、本実施形態の識別装置100で行われる識別処理の手順の流れの一例を示すフローチャート図である。   FIG. 8 is a flowchart illustrating an example of a flow of identification processing performed by the identification apparatus 100 according to the present embodiment.

まず、入力受付部104は、入力部102から、識別対象の未知の船舶が含まれるISAR画像の入力を受け付ける(ステップS100)。   First, the input receiving unit 104 receives an input of an ISAR image including an unknown ship to be identified from the input unit 102 (step S100).

続いて、目標抽出部106は、入力受付部104により受け付けられたISAR画像から未知の船舶を抽出する(ステップS102)。   Subsequently, the target extraction unit 106 extracts an unknown ship from the ISAR image received by the input reception unit 104 (step S102).

続いて、特徴抽出部108は、入力受付部104により受け付けられたISAR画像から、目標抽出部106により抽出された未知の船舶の輪郭形状の特徴を表現する特徴ベクトル(輝度勾配方向の共起関係を用いたベクトル)を抽出する(ステップS104)。   Subsequently, the feature extraction unit 108 uses a feature vector (co-occurrence relationship of luminance gradient directions) expressing the characteristics of the contour shape of an unknown ship extracted by the target extraction unit 106 from the ISAR image received by the input reception unit 104. Vector) is extracted (step S104).

続いて、特徴量計算部112は、評価基準記憶部110に記憶されている評価基準を用いて、特徴抽出部108により抽出された特徴ベクトルの特徴量を計算する(ステップS106)。   Subsequently, the feature amount calculation unit 112 calculates the feature amount of the feature vector extracted by the feature extraction unit 108 using the evaluation criterion stored in the evaluation criterion storage unit 110 (step S106).

続いて、類似度計算部116は、特徴量計算部112により計算された特徴量と識別テーブル記憶部114に記憶されている各識別特徴量との類似度を計算する(ステップS108)。   Subsequently, the similarity calculation unit 116 calculates the similarity between the feature amount calculated by the feature amount calculation unit 112 and each identification feature amount stored in the identification table storage unit 114 (step S108).

続いて、識別部118は、識別テーブル記憶部114に記憶されている識別テーブルから、類似度計算部116により計算された類似度が上位の識別特徴量を選択し、選択した識別特徴量に対応するカテゴリの少なくともいずれかに、ISAR画像に含まれる船舶が分類されると識別する(ステップS110)。   Subsequently, the identification unit 118 selects, from the identification table stored in the identification table storage unit 114, an identification feature amount having a higher similarity calculated by the similarity calculation unit 116, and corresponds to the selected identification feature amount. When a ship included in the ISAR image is classified into at least one of the categories to be classified (step S110).

続いて、出力制御部120は、識別部118の識別結果、即ち、識別部118によりISAR画像に含まれる船舶が少なくともいずれかに分類されると識別されたカテゴリを出力部122に出力させる(ステップS112)。   Subsequently, the output control unit 120 causes the output unit 122 to output the identification result of the identification unit 118, that is, the category identified by the identification unit 118 that the ship included in the ISAR image is classified into at least one (Step). S112).

図9は、本実施形態の識別装置100で行われる学習処理の手順の流れの一例を示すフローチャート図である。   FIG. 9 is a flowchart illustrating an example of a flow of a learning process performed by the identification device 100 according to the present embodiment.

まず、選択部126は、学習サンプル記憶部124から、それぞれ特徴量を1つ以上含む2つのグループを選択する(ステップS200)。この際、選択部126は、選択する2つのグループのそれぞれに含まれる特徴量のカテゴリ数のグループ間の差が予め定められた範囲内に収まるように、当該2つのグループを選択する。   First, the selection unit 126 selects two groups each including one or more feature amounts from the learning sample storage unit 124 (step S200). At this time, the selection unit 126 selects the two groups so that the difference between the groups in the number of categories of feature amounts included in each of the two groups to be selected falls within a predetermined range.

続いて、学習部128は、選択部126により選択された2つのグループを識別する識別基準を学習する(ステップS202)。   Subsequently, the learning unit 128 learns an identification criterion for identifying the two groups selected by the selection unit 126 (step S202).

続いて、選択部126は、例えば、選択がN回行われていない場合には、選択を続行すると判定し(ステップS204でYes)、ステップS200に戻り、選択がN回行われている場合には、選択を続行しないと判定し(ステップS204でNo)、ステップS206へ進む。   Subsequently, for example, if the selection has not been performed N times, the selection unit 126 determines to continue the selection (Yes in step S204), returns to step S200, and if the selection has been performed N times. Determines that the selection is not continued (No in step S204), and proceeds to step S206.

続いて、学習部128は、ステップS202で学習した複数の識別基準を含む評価基準を生成し、評価基準記憶部110に格納する(ステップS206)。   Subsequently, the learning unit 128 generates an evaluation criterion including a plurality of identification criteria learned in step S202, and stores the evaluation criterion in the evaluation criterion storage unit 110 (step S206).

図10は、本実施形態の識別装置100で行われる学習サンプル格納処理の手順の流れの一例を示すフローチャート図である。なお、学習サンプル格納処理は、図8の識別処理中に行ってもよいし、図8の識別処理と別々に行ってもよい。   FIG. 10 is a flowchart illustrating an example of a flow of a learning sample storage process performed by the identification apparatus 100 according to the present embodiment. The learning sample storage process may be performed during the identification process of FIG. 8 or may be performed separately from the identification process of FIG.

まず、ステップS300〜S306までの処理は、図8のフローチャートのステップS100〜S106までの処理と同様である。   First, the processing from step S300 to S306 is the same as the processing from step S100 to S106 in the flowchart of FIG.

ステップS307では、特徴量計算部112は、計算した特徴量を学習サンプルとして学習サンプル記憶部124に格納する。   In step S307, the feature amount calculation unit 112 stores the calculated feature amount in the learning sample storage unit 124 as a learning sample.

図11は、本実施形態の識別装置100で行われる識別特徴量登録処理の手順の流れの一例を示すフローチャート図である。   FIG. 11 is a flowchart illustrating an example of a flow of identification feature amount registration processing performed by the identification device 100 according to the present embodiment.

まず、入力受付部104は、入力部102から、既知の船舶が含まれるISAR画像の入力を受け付ける(ステップS400)。   First, the input receiving unit 104 receives an input of an ISAR image including a known ship from the input unit 102 (step S400).

続いて、目標抽出部106は、入力受付部104により受け付けられたISAR画像から既知の船舶を抽出する(ステップS402)。   Subsequently, the target extraction unit 106 extracts a known ship from the ISAR image received by the input reception unit 104 (step S402).

続いて、特徴抽出部108は、入力受付部104により受け付けられたISAR画像から、目標抽出部106により抽出された既知の船舶の輪郭形状の特徴を表現する特徴ベクトル(輝度勾配方向の共起関係を用いたベクトル)を抽出する(ステップS404)。   Subsequently, the feature extraction unit 108 includes a feature vector (co-occurrence relationship of luminance gradient directions) expressing features of the contour shape of a known ship extracted by the target extraction unit 106 from the ISAR image received by the input reception unit 104. Vector) is extracted (step S404).

続いて、特徴量計算部112は、評価基準記憶部110に記憶されている評価基準を用いて、特徴抽出部108により抽出された特徴ベクトルの特徴量を計算する(ステップS406)。   Subsequently, the feature amount calculation unit 112 calculates the feature amount of the feature vector extracted by the feature extraction unit 108 using the evaluation criterion stored in the evaluation criterion storage unit 110 (step S406).

続いて、特徴量計算部112は、計算した特徴量を、既知の船舶が属するカテゴリの識別特徴量として、当該カテゴリに対応付けて識別テーブルに登録する(ステップS407)。   Subsequently, the feature amount calculation unit 112 registers the calculated feature amount in the identification table in association with the category as the identification feature amount of the category to which the known ship belongs (step S407).

図12は、本実施形態の識別装置100のハードウェア構成の一例を示すブロック図である。図12に示すように、本実施形態の識別装置100は、CPU902と、ISAR画像に含まれる未知の船舶を識別するための識別プログラムなどを記憶するROM904と、RAM906と、評価基準や識別テーブルなどを記憶するHDD908と、HDD908とのインタフェースであるI/F910と、ISAR画像入力用のインタフェースであるI/F912と、マウスやキーボードなどの入力装置914と、入力装置914とのインタフェースであるI/F916と、ディスプレイなどの表示装置918と、表示装置918とのインタフェースであるI/F920と、バス922とを、備えており、通常のコンピュータを利用したハードウェア構成となっている。なおCPU902、ROM904、RAM906、I/F910、I/F912、I/F916、及びI/F920は、バス922を介して互いに接続されている。   FIG. 12 is a block diagram illustrating an example of a hardware configuration of the identification device 100 according to the present embodiment. As shown in FIG. 12, the identification apparatus 100 of this embodiment includes a CPU 902, a ROM 904 that stores an identification program for identifying an unknown ship included in an ISAR image, a RAM 906, an evaluation criterion, an identification table, and the like. 908, an I / F 910 that is an interface with the HDD 908, an I / F 912 that is an interface for ISAR image input, an input device 914 such as a mouse or a keyboard, and an I / that is an interface with the input device 914 F916, a display device 918 such as a display, an I / F 920 that is an interface with the display device 918, and a bus 922 are provided, and a hardware configuration using a normal computer is provided. Note that the CPU 902, the ROM 904, the RAM 906, the I / F 910, the I / F 912, the I / F 916, and the I / F 920 are connected to each other via a bus 922.

識別装置100では、CPU902が、ROM904から識別プログラムをRAM906上に読み出して実行することにより、上記各部(入力受付部、目標抽出部、特徴抽出部、特徴量計算部、類似度計算部、識別部、出力制御部など)がコンピュータ上で実現され、HDD908に記憶されている評価基準や識別テーブルなどを用いて、I/F912から入力されるISAR画像に含まれる未知の船舶を識別する。   In the identification device 100, the CPU 902 reads out an identification program from the ROM 904 onto the RAM 906 and executes it, whereby the above-described units (input reception unit, target extraction unit, feature extraction unit, feature amount calculation unit, similarity calculation unit, identification unit) The output control unit is realized on a computer, and an unknown ship included in the ISAR image input from the I / F 912 is identified using an evaluation standard or an identification table stored in the HDD 908.

なお、識別プログラムはHDD908に記憶されていてもよい。また、識別プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供されるようにしてもよい。また、識別プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、識別プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、評価基準や識別テーブルは、ROM904に記憶されていてもよい。また、ISAR画像をHDD908に記憶しておき、I/F910からISAR画像を入力するようにしてもよい。   Note that the identification program may be stored in the HDD 908. The identification program is a file in an installable or executable format and is provided by being stored in a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD). You may be made to do. Further, the identification program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the identification program may be provided or distributed via a network such as the Internet. Further, the evaluation criteria and the identification table may be stored in the ROM 904. Further, the ISAR image may be stored in the HDD 908 and the ISAR image may be input from the I / F 910.

以上のように、本実施形態の識別装置100では、複数のグループ毎に、当該複数のグループを識別する識別基準、即ち各グループに含まれる学習サンプルのカテゴリ又はカテゴリの組み合わせをグループ間で識別する識別基準を学習する。そして本実施形態の識別装置100では、複数のグループの選択、即ち、各グループに含まれる学習サンプルのカテゴリ又はカテゴリの組み合わせの選択は、選択部126により自動的に行われる。このため、本実施形態の識別装置100によれば、人間が識別基準を教示する必要がなく、識別基準の学習に伴うコストを削減することができる。   As described above, in the identification device 100 of the present embodiment, for each of a plurality of groups, an identification criterion for identifying the plurality of groups, that is, a category of learning samples or a combination of categories included in each group is identified between the groups. Learn identification criteria. In the identification apparatus 100 according to the present embodiment, selection of a plurality of groups, that is, selection of a category of learning samples or a combination of categories included in each group is automatically performed by the selection unit 126. For this reason, according to the identification device 100 of the present embodiment, it is not necessary for a human to teach an identification criterion, and the cost associated with learning of the identification criterion can be reduced.

また本実施形態の識別装置100では、グループの組み合わせ数、即ち、グループに含まれる学習サンプルのカテゴリ又はカテゴリの組み合わせのグループ間の組み合わせ数は、膨大な数になる傾向にある。このため、本実施形態の識別装置100によれば、上限にとらわれず、必要なだけ識別基準を学習して、評価基準を生成することができる。また、多くの識別基準を用いることで、過学習が原因で発生する誤認識を分散させ、その影響を抑えることができる。特に本実施形態の識別装置100では、過学習が生じにくいサポートベクターマシンを用いて識別基準を学習する場合を例示しており、この場合、過学習が生じる可能性をより低くすることができる。   Further, in the identification apparatus 100 of the present embodiment, the number of combinations of groups, that is, the number of combinations of learning sample categories or category combinations included in a group tends to be enormous. For this reason, according to the identification device 100 of the present embodiment, it is possible to generate the evaluation standard by learning the identification standard as much as necessary without being limited by the upper limit. Also, by using many identification criteria, it is possible to disperse misrecognition caused by overlearning and suppress the influence. In particular, in the identification device 100 of the present embodiment, a case where an identification criterion is learned using a support vector machine that is less likely to overlearn is illustrated, and in this case, the possibility of overlearning can be further reduced.

また本実施形態の識別装置100では、選択部126は、選択する複数のグループのそれぞれに含まれる学習サンプルのカテゴリ数又はサンプル数のグループ間の差が予め定められた範囲内に収まるように、当該複数のグループを無作為に選択する。つまり本実施形態の識別装置100では、識別対象の複数のグループのそれぞれを無作為かつ均等な分布を有するように選択する。このようにして選択された複数のグループを識別するように学習された識別基準は、識別対象の目標の特徴量に対する評価値、即ち、学習に用いた複数のグループのいずれに属すると判定されるかが完全にランダムとなる。   Further, in the identification device 100 of the present embodiment, the selection unit 126 is configured so that the number of categories of learning samples included in each of the plurality of groups to be selected or the difference between the groups of the number of samples falls within a predetermined range. Randomly select the groups. That is, in the identification device 100 of this embodiment, each of the plurality of groups to be identified is selected so as to have a random and uniform distribution. The identification criterion learned to identify the plurality of groups selected in this way is determined to belong to any of the evaluation values for the target feature quantity to be identified, that is, any of the plurality of groups used for learning. Is completely random.

従って、例えば、2つの目標それぞれの特徴量に同一の識別基準を用いると、2つの目標が同一である場合は、評価値の値が同一となること、即ち、両目標が識別対象の複数のグループのうちのいずれかのグループに類似することが期待できる。一方、2つの目標が異なる場合は、評価値の値がどのような値となるかは不定、即ち、無相関となる。ここで、互いに異なる2つの目標それぞれの特徴量に対する評価値が無相関であるということは、例えば、目標識別を行う際の類似度計算に正規化相関などを利用した場合、類似度がゼロになるということを示す。   Thus, for example, if the same identification criterion is used for the feature quantities of the two targets, if the two targets are the same, the value of the evaluation value is the same, that is, both targets are a plurality of identification targets. It can be expected to be similar to any of the groups. On the other hand, when the two targets are different, the value of the evaluation value is undefined, that is, uncorrelated. Here, the evaluation value for each feature quantity of two different targets is uncorrelated. For example, when normalized correlation is used for similarity calculation when performing target identification, the similarity is zero. It shows that it becomes.

つまり、本実施形態の識別装置100では、選択する複数のグループのそれぞれに含まれる学習サンプルのカテゴリ数又はサンプル数のグループ間の差が予め定められた範囲内に収まるように、当該複数のグループを無作為に選択することにより、この複数のグループを識別する識別基準には、異なる目標の類似度を分離するような変換が、組み込まれているという特徴を持つ。   That is, in the identification device 100 of the present embodiment, the plurality of groups so that the category number of the learning samples included in each of the plurality of groups to be selected or the difference between the groups of the sample numbers is within a predetermined range. The identification criterion for identifying the plurality of groups by randomly selecting is characterized in that a conversion that separates similarities of different targets is incorporated.

従って、本実施形態の識別装置100によれば、画像に含まれる目標を識別するために有効、即ち、目標識別の識別精度において好適な識別基準を含む評価基準を学習サンプルから効率的かつ高速に学習することができる。   Therefore, according to the identification apparatus 100 of the present embodiment, an evaluation criterion that is effective for identifying a target included in an image, that is, including an identification criterion suitable for identification accuracy of target identification is efficiently and quickly obtained from a learning sample. Can learn.

そして本実施形態の識別装置100では、このような評価基準を用いて、ISAR画像に含まれる未知の船舶の輪郭形状の特徴を表現する特徴ベクトルを特徴量に変換するため、特徴ベクトルが輝度勾配方向の共起関係を用いたベクトルなど高次元のベクトルであったとしても、精度のよい特徴量に変換でき、目標の識別精度を高くすることができる。   In the identification apparatus 100 according to the present embodiment, using such an evaluation criterion, a feature vector representing a feature of an unknown ship contour shape included in an ISAR image is converted into a feature amount. Even if the vector is a high-dimensional vector such as a vector using the direction co-occurrence relationship, it can be converted into a highly accurate feature amount, and the target identification accuracy can be increased.

また本実施形態の識別装置100では、評価基準を効率的かつ高速に学習することができるため、評価基準を用いて計算した特徴量を更に学習サンプルとして用いて評価基準の学習を再帰的に行うことも容易に実現でき、評価基準の性能を更に高めることができる。   Further, since the identification apparatus 100 of the present embodiment can learn the evaluation criteria efficiently and at high speed, the evaluation criteria are recursively learned by further using the feature amount calculated using the evaluation criteria as a learning sample. This can be easily realized, and the performance of the evaluation standard can be further enhanced.

特に本実施形態では、ベクトルの次元の大きさではなくサンプル数に応じて学習にかかる時間が決まるサポートベクターマシンを用いて識別基準を学習しているため、評価基準をより高速に学習することができる。   In particular, in this embodiment, the identification criterion is learned using a support vector machine in which the time required for learning is determined according to the number of samples rather than the dimension of the vector, so that the evaluation criterion can be learned at a higher speed. it can.

以上のように本実施形態によれば、目標の識別精度を高くすることができる。   As described above, according to the present embodiment, the target identification accuracy can be increased.

なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。   It should be noted that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。   For example, as long as each step in the flowchart of the above embodiment is not contrary to its nature, the execution order may be changed, a plurality of steps may be performed simultaneously, or may be performed in a different order for each execution.

また例えば、上記実施形態では、識別装置が識別処理と学習処理の両処理を行う例について説明したが、識別処理、学習処理を、別々の装置で行うようにしてもよい。例えば、識別処理、学習処理を、それぞれ識別装置、学習装置が行うようにしてもよい。この場合、学習装置で生成した評価基準を識別装置に格納しておけばよい。   For example, in the above-described embodiment, an example in which the identification apparatus performs both the identification process and the learning process has been described. However, the identification process and the learning process may be performed by separate apparatuses. For example, the identification process and the learning process may be performed by the identification apparatus and the learning apparatus, respectively. In this case, the evaluation criteria generated by the learning device may be stored in the identification device.

また例えば、上記実施形態では、学習サンプルが、船舶の領域の輪郭形状の特徴を表現する特徴ベクトルの特徴量である場合を例に取り説明したが、学習サンプルは、船舶が含まれるISAR画像であってもよい。この場合、選択部が、選択したISAR画像を後に、選択したISAR画像に含まれる目標の特徴ベクトルを抽出し、抽出した特徴ベクトルを特徴量に変換し、学習部が、変換された特徴量を用いて学習すればよい。   Further, for example, in the above-described embodiment, the case where the learning sample is the feature amount of the feature vector expressing the feature of the contour shape of the ship region has been described as an example. However, the learning sample is an ISAR image including the ship. There may be. In this case, the selection unit extracts the target feature vector included in the selected ISAR image after the selected ISAR image, converts the extracted feature vector into a feature amount, and the learning unit converts the converted feature amount. Use it to learn.

100 識別装置
102 入力部
104 入力受付部
106 目標抽出部
108 特徴抽出部
110 評価基準記憶部
112 特徴量計算部
114 識別テーブル記憶部
116 類似度計算部
118 識別部
120 出力制御部
122 出力部
124 学習サンプル記憶部
126 選択部
128 学習部
902 CPU
904 ROM
906 RAM
908 HDD
910 I/F
912 I/F
914 入力装置
916 I/F
918 表示装置
920 I/F
922 バス
DESCRIPTION OF SYMBOLS 100 Identification apparatus 102 Input part 104 Input reception part 106 Target extraction part 108 Feature extraction part 110 Evaluation criteria memory | storage part 112 Feature quantity calculation part 114 Identification table memory | storage part 116 Similarity degree calculation part 118 Identification part 120 Output control part 122 Output part 124 Learning Sample storage unit 126 Selection unit 128 Learning unit 902 CPU
904 ROM
906 RAM
908 HDD
910 I / F
912 I / F
914 Input device 916 I / F
918 Display device 920 I / F
922 bus

Claims (9)

各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルを記憶する学習サンプル記憶部から学習サンプルを1以上含むグループを複数選択する選択処理を複数回行う選択部と、
選択された複数のグループ毎に当該複数のグループを識別する識別基準を学習し、学習した複数の識別基準を含む評価基準を生成する学習部と、
目標からのレーダエコーに基づく画像の入力を受け付ける入力受付部と、
前記画像から前記目標の輪郭形状の特徴を表現する特徴ベクトルを抽出する特徴抽出部と、
前記評価基準を用いて、前記特徴ベクトルの特徴量を計算する特徴量計算部と、
前記特徴量と識別基準となる識別特徴量との類似度を計算する類似度計算部と、
前記類似度を用いて、前記目標を識別する識別部と、
識別結果を出力部に出力させる出力制御部と、
を備えることを特徴とする識別装置。
A selection unit that performs a selection process for selecting a plurality of groups each including one or more learning samples from a learning sample storage unit that stores a plurality of learning samples in which each learning sample is classified into one of a plurality of categories;
A learning unit that learns an identification criterion for identifying the plurality of groups for each of the plurality of selected groups, and generates an evaluation criterion that includes the learned plurality of identification criteria;
An input receiving unit for receiving an input of an image based on a radar echo from a target;
A feature extraction unit for extracting a feature vector expressing the feature of the target contour shape from the image;
Using the evaluation criterion, a feature amount calculation unit that calculates a feature amount of the feature vector;
A similarity calculation unit for calculating the similarity between the feature quantity and the identification feature quantity serving as a discrimination reference;
An identification unit for identifying the target using the similarity;
An output control unit for outputting an identification result to the output unit;
An identification device comprising:
前記特徴ベクトルは、輝度勾配方向の共起関係を用いたベクトルであることを特徴とする請求項1に記載の識別装置。   The identification device according to claim 1, wherein the feature vector is a vector using a co-occurrence relationship in a luminance gradient direction. 前記学習部は、サポートベクターマシンにより前記識別基準を学習することを特徴とする請求項1又は2に記載の識別装置。   The identification device according to claim 1, wherein the learning unit learns the identification criterion using a support vector machine. 各識別特徴量にカテゴリを対応付けた識別テーブルを記憶する識別テーブル記憶部を更に備え、
前記類似度計算部は、前記特徴量と前記各識別特徴量との類似度を計算し、
前記識別部は、類似度の高い順に所定数の識別特徴量を選択し、選択した前記所定数の識別特徴量に対応するカテゴリの少なくともいずれかに前記目標が属すると識別することを特徴とする請求項1〜3のいずれか1つに記載の識別装置。
An identification table storage unit that stores an identification table in which a category is associated with each identification feature amount;
The similarity calculation unit calculates a similarity between the feature quantity and each identification feature quantity,
The identification unit selects a predetermined number of identification feature amounts in descending order of similarity, and identifies that the target belongs to at least one of the categories corresponding to the selected predetermined number of identification feature amounts. The identification device according to any one of claims 1 to 3.
前記画像から前記目標を抽出する目標抽出部を更に備えることを特徴とする請求項1〜4のいずれか1つに記載の識別装置。   The identification apparatus according to claim 1, further comprising a target extraction unit that extracts the target from the image. 目標からのレーダエコーに基づく画像の入力を受け付ける入力受付部と、
前記画像から前記目標の輪郭形状の特徴を表現する特徴ベクトルを抽出する特徴抽出部と、
各学習サンプルが複数のカテゴリのいずれかに分類される複数の学習サンプルから学習サンプルを1以上含むグループを複数選択する選択処理が複数回行われ、選択された複数のグループ毎に当該複数のグループを識別する識別基準が学習されることにより生成された複数の識別基準を含む評価基準を記憶する評価基準記憶部に記憶されている前記評価基準を用いて、前記特徴ベクトルの特徴量を計算する特徴量計算部と、
前記特徴量と識別基準となる識別特徴量との類似度を計算する類似度計算部と、
前記類似度を用いて、前記目標を識別する識別部と、
識別結果を出力部に出力させる出力制御部と、
を備えることを特徴とする識別装置。
An input receiving unit for receiving an input of an image based on a radar echo from a target;
A feature extraction unit for extracting a feature vector expressing the feature of the target contour shape from the image;
A selection process for selecting a plurality of groups including one or more learning samples from a plurality of learning samples in which each learning sample is classified into any of a plurality of categories is performed a plurality of times, and the plurality of groups for each of the selected groups The feature quantity of the feature vector is calculated using the evaluation criterion stored in the evaluation criterion storage unit that stores the evaluation criterion including a plurality of identification criteria generated by learning the identification criterion for identifying A feature amount calculation unit;
A similarity calculation unit for calculating the similarity between the feature quantity and the identification feature quantity serving as a discrimination reference;
An identification unit for identifying the target using the similarity;
An output control unit for outputting an identification result to the output unit;
An identification device comprising:
前記特徴ベクトルは、輝度勾配方向の共起関係を用いたベクトルであることを特徴とする請求項6に記載の識別装置。   The identification device according to claim 6, wherein the feature vector is a vector using a co-occurrence relationship in a luminance gradient direction. 各識別特徴量にカテゴリを対応付けた識別テーブルを記憶する識別テーブル記憶部を更に備え、
前記類似度計算部は、前記特徴量と前記各識別特徴量との類似度を計算し、
前記識別部は、類似度の高い順に所定数の識別特徴量を選択し、選択した前記所定数の識別特徴量に対応するカテゴリの少なくともいずれかに前記目標が属すると識別することを特徴とする請求項6又は7に記載の識別装置。
An identification table storage unit that stores an identification table in which a category is associated with each identification feature amount;
The similarity calculation unit calculates a similarity between the feature quantity and each identification feature quantity,
The identification unit selects a predetermined number of identification feature amounts in descending order of similarity, and identifies that the target belongs to at least one of the categories corresponding to the selected predetermined number of identification feature amounts. The identification device according to claim 6 or 7.
前記画像から前記目標を抽出する目標抽出部を更に備えることを特徴とする請求項6〜8のいずれか1つに記載の識別装置。   The identification apparatus according to claim 6, further comprising a target extraction unit that extracts the target from the image.
JP2010278018A 2010-12-14 2010-12-14 Identification device Active JP5214716B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278018A JP5214716B2 (en) 2010-12-14 2010-12-14 Identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278018A JP5214716B2 (en) 2010-12-14 2010-12-14 Identification device

Publications (2)

Publication Number Publication Date
JP2012128558A true JP2012128558A (en) 2012-07-05
JP5214716B2 JP5214716B2 (en) 2013-06-19

Family

ID=46645528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278018A Active JP5214716B2 (en) 2010-12-14 2010-12-14 Identification device

Country Status (1)

Country Link
JP (1) JP5214716B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device
US8805752B2 (en) 2011-03-23 2014-08-12 Kabushiki Kaisha Toshiba Learning device, learning method, and computer program product
JP2018048862A (en) * 2016-09-20 2018-03-29 株式会社東芝 Radar signal processor, radar signal processing method, and radar signal processing program
JP2018146354A (en) * 2017-03-03 2018-09-20 日本電気株式会社 Sonar image processor, sonar image processing method, and sonar image processing program
JP2019053012A (en) * 2017-09-19 2019-04-04 株式会社東芝 Radar signal processor, method for processing radar signal, and program
JP2019175142A (en) * 2018-03-28 2019-10-10 株式会社Ihi Vessel detection device and method
CN111626122A (en) * 2020-04-24 2020-09-04 贝壳技术有限公司 Synthetic aperture radar image identification method and device, electronic equipment and storage medium
CN111831703A (en) * 2019-03-29 2020-10-27 发那科株式会社 Display method, user interface, display device, and inspection device
JP2021110565A (en) * 2020-01-07 2021-08-02 株式会社東芝 Classification device and classification method
CN113687328A (en) * 2021-09-14 2021-11-23 上海无线电设备研究所 Missile-borne weapon ground target high-resolution one-dimensional distance image identification method
JP6989680B1 (en) * 2020-11-13 2022-01-05 株式会社東芝 Image learning equipment, radar equipment, image learning methods, and programs
WO2022014220A1 (en) * 2020-07-13 2022-01-20 古野電気株式会社 Training data collection system, training data collection method, data collection device, program, trained model generation method, training device, and inference device
JP7466418B2 (en) 2020-09-15 2024-04-12 三菱電機株式会社 ISAR image data learning device, target classification device and radar device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038713A (en) * 2002-07-05 2004-02-05 Toshiba Corp Object identification device, object identification method, dictionary creating device, and program
JP2010044439A (en) * 2008-08-08 2010-02-25 Toshiba Corp Feature value extraction device, feature value extraction method, image processor, and program
JP2010225107A (en) * 2009-03-25 2010-10-07 Toshiba Corp Device, method and program for extracting feature

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038713A (en) * 2002-07-05 2004-02-05 Toshiba Corp Object identification device, object identification method, dictionary creating device, and program
JP2010044439A (en) * 2008-08-08 2010-02-25 Toshiba Corp Feature value extraction device, feature value extraction method, image processor, and program
JP2010225107A (en) * 2009-03-25 2010-10-07 Toshiba Corp Device, method and program for extracting feature

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG201000905017; 浜田 祐一: 'ランダムフォレスト法を用いた動作検索' 電子情報通信学会論文誌 第J93-D巻 第11号, 20101101, p.2516-2524, 社団法人電子情報通信学会 *
JPN6013004768; 浜田 祐一: 'ランダムフォレスト法を用いた動作検索' 電子情報通信学会論文誌 第J93-D巻 第11号, 20101101, p.2516-2524, 社団法人電子情報通信学会 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8805752B2 (en) 2011-03-23 2014-08-12 Kabushiki Kaisha Toshiba Learning device, learning method, and computer program product
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device
JP2018048862A (en) * 2016-09-20 2018-03-29 株式会社東芝 Radar signal processor, radar signal processing method, and radar signal processing program
JP2018146354A (en) * 2017-03-03 2018-09-20 日本電気株式会社 Sonar image processor, sonar image processing method, and sonar image processing program
JP2019053012A (en) * 2017-09-19 2019-04-04 株式会社東芝 Radar signal processor, method for processing radar signal, and program
JP2019175142A (en) * 2018-03-28 2019-10-10 株式会社Ihi Vessel detection device and method
JP6991089B2 (en) 2018-03-28 2022-01-12 株式会社Ihi Ship detection device and method
CN111831703A (en) * 2019-03-29 2020-10-27 发那科株式会社 Display method, user interface, display device, and inspection device
JP2021110565A (en) * 2020-01-07 2021-08-02 株式会社東芝 Classification device and classification method
JP7527789B2 (en) 2020-01-07 2024-08-05 株式会社東芝 Sorting device and method
CN111626122A (en) * 2020-04-24 2020-09-04 贝壳技术有限公司 Synthetic aperture radar image identification method and device, electronic equipment and storage medium
CN111626122B (en) * 2020-04-24 2024-01-05 贝壳技术有限公司 Synthetic aperture radar image recognition method, apparatus, electronic device and storage medium
WO2022014220A1 (en) * 2020-07-13 2022-01-20 古野電気株式会社 Training data collection system, training data collection method, data collection device, program, trained model generation method, training device, and inference device
JP7466418B2 (en) 2020-09-15 2024-04-12 三菱電機株式会社 ISAR image data learning device, target classification device and radar device
JP6989680B1 (en) * 2020-11-13 2022-01-05 株式会社東芝 Image learning equipment, radar equipment, image learning methods, and programs
JP2022078753A (en) * 2020-11-13 2022-05-25 株式会社東芝 Image learning device, radar device, image learning method and program
CN113687328A (en) * 2021-09-14 2021-11-23 上海无线电设备研究所 Missile-borne weapon ground target high-resolution one-dimensional distance image identification method

Also Published As

Publication number Publication date
JP5214716B2 (en) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5214716B2 (en) Identification device
CN110619369B (en) Fine-grained image classification method based on feature pyramid and global average pooling
JP5214760B2 (en) Learning apparatus, method and program
CN109919252B (en) Method for generating classifier by using few labeled images
EP3065084A1 (en) Image recognition method, image recognition device, and recording medium
JP5214762B2 (en) Recognition device, method and program
US9684958B2 (en) Image processing device, program, image processing method, computer-readable medium, and image processing system
JP6692049B2 (en) Identification device and identification method
CN110909800A (en) Vehicle detection method based on fast R-CNN improved algorithm
Ismael et al. Medical image classification using different machine learning algorithms
JP6897749B2 (en) Learning methods, learning systems, and learning programs
JP2011013732A (en) Information processing apparatus, information processing method, and program
JP2017102906A (en) Information processing apparatus, information processing method, and program
JP5214679B2 (en) Learning apparatus, method and program
CN103793717A (en) Methods for determining image-subject significance and training image-subject significance determining classifier and systems for same
CN113158777B (en) Quality scoring method, training method of quality scoring model and related device
Arias et al. Classification of pollen grain images based on an ensemble of classifiers
CN106529490A (en) System and method for realizing handwriting identification based on sparse auto-encoding codebook
CN105975994A (en) SAR target discrimination method based on non-similarity transformation A-type SVM model
JP2016062249A (en) Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program
CN116958720A (en) Training method of target detection model, target detection method, device and equipment
CN114359606A (en) Deep learning-based student classroom behavior detection method, system and terminal
CN111127485B (en) Method, device and equipment for extracting target area in CT image
CN114708452A (en) Product image classification method and system based on deep learning
Gupta et al. Heterogeneous ensemble with information theoretic diversity measure for human epithelial cell image classification

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

R151 Written notification of patent or utility model registration

Ref document number: 5214716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3