JP2016057164A - Rader system, and target classification device - Google Patents
Rader system, and target classification device Download PDFInfo
- Publication number
- JP2016057164A JP2016057164A JP2014183585A JP2014183585A JP2016057164A JP 2016057164 A JP2016057164 A JP 2016057164A JP 2014183585 A JP2014183585 A JP 2014183585A JP 2014183585 A JP2014183585 A JP 2014183585A JP 2016057164 A JP2016057164 A JP 2016057164A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- ship
- region
- histogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、レーダ装置、及び目標類別装置に関する。 Embodiments described herein relate generally to a radar apparatus and a target classification apparatus.
従来より、逆合成開口レーダ(ISAR:Inverse Synthetic Aperture Radar)で取得した画像を用いて、船舶等の目標を類別するレーダ装置等が知られている。この種の装置においては、取得したISAR画像から目標の特徴を抽出し、これをあらかじめデータベース化された船舶等の特徴と比較することによって、目標を類別する。目標の特徴としては、例えば、船舶の全体の形状、ならびに設置された各種の構造物及びその設置位置等が該当する。これら特徴をISAR画像中から抽出する過程においては、画像中から目標の両端部、すなわち船首及び船尾を検出し、目標の全体像を特定した上で、各構造物等が設置された位置を全体像の中で特定する。 2. Description of the Related Art Conventionally, radar devices that classify targets such as ships using images acquired by an inverse synthetic aperture radar (ISAR) are known. In this type of apparatus, the target features are extracted from the acquired ISAR images, and the target features are classified by comparing them with features of a ship or the like that are stored in a database in advance. Examples of the target characteristics include the overall shape of the ship, various installed structures, and their installation positions. In the process of extracting these features from the ISAR image, both ends of the target, that is, the bow and stern are detected from the image, the overall image of the target is specified, and the position where each structure is installed is Identify in the image.
ISAR画像は、目標からのレーダエコーを合成処理して生成されるため、レーダ信号の伝搬状態によっては、必ずしも船舶全体の鮮明な画像が取得されるとは限らず、船首または船尾が低輝度でしか映らない不鮮明な画像になることもある。このため、不鮮明なISAR画像からでも目標の特徴を抽出するための各種の手法が開示されている。 Since the ISAR image is generated by synthesizing the radar echoes from the target, a clear image of the entire ship is not always acquired depending on the propagation state of the radar signal, and the bow or stern is low in brightness. It may be unclear images that only appear. For this reason, various methods for extracting a target feature even from a blurred ISAR image are disclosed.
また、ISAR画像は、それぞれに輝度レベルを有する画素が二次元に配列された、二次元画像として捉えることができる。そして、この二次元画像の輝度レベルに着目して、上記した目標の類別に必要な特徴を抽出することもできる。このときに、対象のISAR画像が不鮮明な場合には、その不鮮明さを補うために、例えばISAR画像を時間で積分した上で抽出処理を行うといった手法もある。 An ISAR image can be regarded as a two-dimensional image in which pixels each having a luminance level are two-dimensionally arranged. Then, paying attention to the luminance level of the two-dimensional image, it is possible to extract necessary features according to the above-mentioned target categories. At this time, if the target ISAR image is unclear, for example, there is a technique of performing extraction processing after integrating the ISAR image with time in order to compensate for the unclearness.
しかしながら、ISAR画像を時間で積分した場合は、その積分時間に応じて複数枚の画像が重畳されることになるので、見た目の不鮮明さ等は改善が見込まれる一方で、全体の形状は却ってぼやけてしまう。このため、構造物等の位置の特定が正確さを欠いたものとなって、目標の特徴抽出時の誤差が大きくなり、目標の類別精度が低下してしまうという課題があった。このため、ISAR画像を積分することなく、1枚の画像を用いて目標の船首及び船尾を確実に検出してその全体的な形状を特定しつつ、目標の特徴を抽出することが望まれていた。 However, when the ISAR image is integrated over time, a plurality of images are superimposed according to the integration time, so that the appearance blur is expected to be improved, but the overall shape is blurred. End up. For this reason, the position of a structure or the like is not accurately specified, and an error in extracting a target feature increases, resulting in a problem that target classification accuracy decreases. For this reason, it is desired to extract the target features while reliably detecting the target bow and stern using one image and specifying the overall shape without integrating the ISAR image. It was.
本発明の実施形態は、上述の事情を考慮してなされたものであり、取得されたISAR画像が不鮮明な場合でも、画像を時間軸で積分することなく、目標の全体形状を特定しつつ特徴を抽出し類別するレーダ装置、及び目標類別装置を提供することを目的とする。 The embodiment of the present invention has been made in consideration of the above-described circumstances, and is characterized by specifying the target overall shape without integrating the image on the time axis even when the acquired ISAR image is unclear. An object of the present invention is to provide a radar apparatus and target classification apparatus that extract and categorize the signals.
上記目的を達成するために、本実施形態のレーダ装置は、レーダエコーに基づいてISAR(Inverse Synthetic Aperture Radar)画像を生成するレーダ装置において、船舶を類別するための特徴情報をあらかじめ船舶毎に複数記憶する記憶部と、前記生成されたISAR画像から、類別対象の船舶を含む1枚の画像を選択する画像選択部と、前記選択されたISAR画像を所定の大きさの複数の領域に分割し、それぞれの領域において、その領域内のすべての画素の輝度レベルを画素単位で隣接画素と比較し、輝度レベルの差に基づき算出した輝度勾配ベクトルの方向を判別して、輝度勾配ベクトルの方向毎に判別された頻度を計数してヒストグラムを作成するとともに、これら領域毎に作成したヒストグラムにおける前記輝度勾配ベクトルの方向毎の頻度値の偏りに基づいて、当該領域が前記船舶の船首または船尾を含む領域であるかを特定する位置特定部と、前記船首または船尾の領域の特定結果に基づいて、前記船舶の特徴情報を抽出するとともに、これら抽出した特徴情報を前記記憶部の記憶内容と照合して前記船舶を類別する類別処理部と、前記類別処理部による類別結果を表示する表示部とを備えたことを特徴とする。 In order to achieve the above object, the radar apparatus according to the present embodiment generates a plurality of characteristic information for classifying ships in advance in a radar apparatus that generates an ISAR (Inverse Synthetic Aperture Radar) image based on radar echoes. A storage unit for storing, an image selection unit for selecting one image including a ship to be classified from the generated ISAR image, and the selected ISAR image is divided into a plurality of regions of a predetermined size. In each area, the brightness levels of all the pixels in the area are compared with adjacent pixels in units of pixels, the direction of the brightness gradient vector calculated based on the difference in brightness levels is determined, and each brightness gradient vector direction is determined. Histograms created for each of these areas are created. A position specifying unit for specifying whether the region is a region including the bow or stern of the ship based on the deviation of the frequency value for each direction of the brightness gradient vector in the system, and a result of specifying the bow or stern region And extracting the feature information of the ship, comparing the extracted feature information with the stored contents of the storage unit, and classifying the ship, and displaying the classification result by the classification processor And a display unit.
また、本実施形態の目標類別装置は、レーダエコーに基づいてISAR画像を生成するレーダ装置に用いられる目標類別装置において、船舶を類別するための特徴情報をあらかじめ船舶毎に複数記憶する記憶部と、前記生成されたISAR画像から、類別対象の船舶を含む1枚の画像を選択する画像選択部と、前記選択されたISAR画像を所定の大きさの複数の領域に分割し、それぞれの領域において、その領域内のすべての画素の輝度レベルを画素単位で隣接画素と比較し、輝度レベルの差に基づき算出した輝度勾配ベクトルの方向を判別して、輝度勾配ベクトルの方向毎に判別された頻度を計数してヒストグラムを作成するとともに、これら領域毎に作成したヒストグラムにおける前記輝度勾配ベクトルの方向毎の頻度値の偏りに基づいて、当該領域が前記船舶の船首または船尾を含む領域であるかを特定する位置特定部と、前記船首または船尾の領域の特定結果に基づいて、前記船舶の特徴情報を抽出するとともに、これら抽出した特徴情報を前記記憶部の記憶内容と照合して前記船舶を類別する類別処理部とを備えたことを特徴とする。 The target classification apparatus according to the present embodiment is a target classification apparatus used in a radar apparatus that generates an ISAR image based on radar echoes, and a storage unit that stores a plurality of pieces of feature information for classifying ships in advance. An image selection unit that selects one image including a ship to be classified from the generated ISAR image, and the selected ISAR image is divided into a plurality of regions of a predetermined size, and in each region , The brightness level of all pixels in the region is compared with neighboring pixels in pixel units, the direction of the brightness gradient vector calculated based on the difference in brightness level is determined, and the frequency determined for each direction of the brightness gradient vector And a histogram is created based on the frequency value bias for each direction of the luminance gradient vector in the histogram created for each region. And extracting the feature information of the ship based on the position specifying unit that specifies whether the area includes the bow or stern of the ship and the result of specifying the bow or stern area. And a classification processing unit that classifies the ship by comparing the characteristic information with the contents stored in the storage unit.
以下に、本実施形態に係るレーダ装置、及び目標類別装置を実施するための最良の形態について、図1〜図5を参照して説明する。 Hereinafter, the best mode for carrying out the radar device and the target classification device according to the present embodiment will be described with reference to FIGS.
図1は、本実施形態に係るレーダ装置の一実施例の構成を示すブロック図である。図1に例示したように、このレーダ装置1は、アンテナ10、サーキュレータ20、送信機30、受信機40、ISAR画像生成部50、目標類別部60、記憶部70、表示処理部80、表示器90、及び操作部100から構成されている。 FIG. 1 is a block diagram showing a configuration of an example of a radar apparatus according to the present embodiment. As illustrated in FIG. 1, the radar apparatus 1 includes an antenna 10, a circulator 20, a transmitter 30, a receiver 40, an ISAR image generation unit 50, a target classification unit 60, a storage unit 70, a display processing unit 80, and a display. 90 and the operation unit 100.
アンテナ10は、送信機30からのレーダ信号を放射するとともに、その反射波を受信して、受信機40に送出する。サーキュレータ20は、方向性を有する伝送線路であり、送信機30からのレーダ信号をアンテナ10に伝送するとともに、アンテナ10で受信されたレーダ信号の反射波を受信機40に伝送する。送信機30は、所定の周期のレーダ信号を生成し、アンテナ10に送出する。 The antenna 10 radiates the radar signal from the transmitter 30, receives the reflected wave, and sends it to the receiver 40. The circulator 20 is a transmission line having directionality, and transmits the radar signal from the transmitter 30 to the antenna 10 and transmits the reflected wave of the radar signal received by the antenna 10 to the receiver 40. The transmitter 30 generates a radar signal having a predetermined period and sends it to the antenna 10.
受信機40は、アンテナ10で受信されたレーダ信号の反射波に対して低雑音増幅や周波数変換、フィルタリング等の受信処理を施してISAR画像生成部50に送出する。ISAR画像生成部50は、この受信処理後の信号に対して合成処理等を行ってISAR画像を生成する。 The receiver 40 performs reception processing such as low noise amplification, frequency conversion, and filtering on the reflected wave of the radar signal received by the antenna 10, and sends it to the ISAR image generation unit 50. The ISAR image generation unit 50 generates an ISAR image by performing synthesis processing or the like on the signal after reception processing.
目標類別部60は、生成されたISAR画像から類別対象の船舶を含む1枚の画像を選択し、この画像中で船首または船尾の位置を特定するとともに、その特定結果に基づいて対象の船舶の特徴情報を抽出する。そして、抽出した特徴情報と記憶部70の記憶内容とを照合することによって対象の船舶を類別し、その結果を出力する。なお、目標類別部60の細部については、後段で詳述する。 The target classification unit 60 selects one image including the classification target ship from the generated ISAR image, specifies the position of the bow or stern in the image, and based on the identification result, the target classification of the target ship. Extract feature information. And the target ship is classified by collating the extracted feature information and the memory content of the memory | storage part 70, and the result is output. Details of the target classification unit 60 will be described in detail later.
記憶部70には、各種の船舶を類別するための特徴情報が、あらかじめ複数記憶されており、目標類別部60において対象の船舶を類別する際に参照される。船舶の特徴情報には、例えば、船舶の全長と、艦橋やマスト等の各種構造物の位置情報等、船舶の形状に関する特徴が含まれる。 A plurality of pieces of characteristic information for classifying various ships are stored in the storage unit 70 in advance, and are referred to when the target ships are classified by the target classification unit 60. The ship characteristic information includes, for example, characteristics related to the shape of the ship, such as the total length of the ship and position information of various structures such as a bridge and a mast.
表示処理部80は、目標類別部60での類別結果を表示するための表示データを編集するとともに、ISAR画像生成部50で生成されたISAR画像の表示や、後述の操作部100からの入力操作等に伴う表示等を行うための表示データ編集する。表示器90は、これら編集された表示データを画面に表示する。操作部100は、目標類別部60におけるISAR画像の選択操作を含む、操作員による入力操作を受け付けて、装置内の各部に転送する。なお、上述した目標類別部60、記憶部70、及び操作部100を用いて、目標類別装置を構成することができる。 The display processing unit 80 edits display data for displaying the classification result in the target classification unit 60, displays an ISAR image generated by the ISAR image generation unit 50, and performs an input operation from the operation unit 100 described later. Edit the display data for display etc. associated with etc. The display 90 displays the edited display data on the screen. The operation unit 100 accepts an input operation by an operator including an ISAR image selection operation in the target classification unit 60, and transfers it to each unit in the apparatus. The target classification device can be configured using the target classification unit 60, the storage unit 70, and the operation unit 100 described above.
次に、目標類別部60について詳述する。目標類別部60は、画像選択部61、位置特定部62、及び類別処理部63から構成されている。画像選択部61は、ISAR画像生成部50で生成された画像の中から、目標の類別に用いる1枚のISAR画像を選択する。本実施例においては、操作部100からの操作員等による選択操作によって、画像の選択を可能に構成している。位置特定部62は、選択されたISAR画像中で、類別対象の船舶の船首または船尾を特定する。 Next, the target classification unit 60 will be described in detail. The target classification unit 60 includes an image selection unit 61, a position specifying unit 62, and a classification processing unit 63. The image selection unit 61 selects one ISAR image to be used for each target category from the images generated by the ISAR image generation unit 50. In this embodiment, an image can be selected by a selection operation by an operator or the like from the operation unit 100. The position specifying unit 62 specifies the bow or stern of the classification target ship in the selected ISAR image.
ここに、位置特定部62は、画像分割部621、ヒストグラム生成部622、及び評価部623を備えている。画像分割部621は、画像選択部61で選択されたISAR画像を、あらかじめ設定された所定の大きさの複数の領域に分割する。ヒストグラム生成部622は、分割された各領域内のすべての画素の輝度レベルを、画素単位で隣接する画素と比較し、輝度レベルの差に基づき算出した輝度勾配ベクトルの方向を判別するとともに、方向毎に判別された頻度を計数してヒストグラムを作成する。評価部623は、分割した領域毎に作成されたヒストグラムにおける各方向毎の頻度値の偏りを評価し、船首、及び船尾の含まれる領域をそれぞれ特定する。 Here, the position specifying unit 62 includes an image dividing unit 621, a histogram generating unit 622, and an evaluating unit 623. The image dividing unit 621 divides the ISAR image selected by the image selecting unit 61 into a plurality of regions having a predetermined size set in advance. The histogram generation unit 622 compares the luminance levels of all the pixels in each divided area with adjacent pixels in units of pixels, determines the direction of the luminance gradient vector calculated based on the difference in luminance level, and The frequency determined for each time is counted to create a histogram. The evaluation unit 623 evaluates the deviation of the frequency values for each direction in the histogram created for each divided area, and specifies the areas including the bow and stern.
これら位置特定部62の各部について、図2〜図4を参照してさらに詳述する。これらの図2〜図4は、選択されたISAR画像に対して、位置特定部62内の各部で施される処理、及びその結果をモデル化して例示した説明図である。図2(a)は、画像選択部61で選択されたISAR画像の一例である。この画像は、それぞれに輝度レベルを有する単画素が二次元に配列された、二次元画像として捉えることができる。図2(b)は、このISAR画像を、画像分割部621においてあらかじめ設定された大きさの複数の領域に分割した事例である。この事例では、画像を縦方向の分割線により均等に4つの領域A〜Dに分割した場合を示している。 Each part of the position specifying part 62 will be further described in detail with reference to FIGS. FIGS. 2 to 4 are explanatory diagrams illustrating by modeling the processing performed by each unit in the position specifying unit 62 and the result of the selected ISAR image. FIG. 2A is an example of an ISAR image selected by the image selection unit 61. This image can be regarded as a two-dimensional image in which single pixels each having a luminance level are two-dimensionally arranged. FIG. 2B shows an example in which this ISAR image is divided into a plurality of areas having a size set in advance by the image dividing unit 621. In this example, an image is divided into four regions A to D evenly by a vertical dividing line.
ヒストグラム生成部622では、分割された領域毎に、すべての画素の輝度レベルが、隣接する画素と比較される。本実施例においては、図3(a)に例示したように、各画素(図中の丸)は、紙面上において上下左右の4つの方向にそれぞれ隣り合った画素と比較され、輝度レベル差が最も大きい隣接画素の方向(図中に三角形で示した上下左右のいずれか一方向)が判別される。そして、例えば上方向と判別されると、上方向の頻度が1カウント計数される。これらの判別によって頻度高く計数された方向が、画像中における輝度勾配の方向に相当する。ヒストグラム生成部622では、各領域内のすべての画素に対して上記した判別と計数が行われ、各領域毎に、隣接画素の方向対頻度のヒストグラムが作成される。このようにして作成されたヒストグラムの中で、領域Dに対して作成されたヒストグラムの一例を図3(b)に示す。 In the histogram generation unit 622, the luminance levels of all the pixels are compared with adjacent pixels for each divided region. In this embodiment, as illustrated in FIG. 3A, each pixel (circle in the figure) is compared with pixels adjacent to each other in four directions, up, down, left, and right on the paper surface, and the luminance level difference is The direction of the largest adjacent pixel (one of the top, bottom, left, and right directions indicated by a triangle in the figure) is determined. For example, when it is determined that the direction is upward, the frequency of the upward direction is counted by one count. The direction frequently counted by these determinations corresponds to the direction of the luminance gradient in the image. In the histogram generation unit 622, the above-described determination and counting are performed for all the pixels in each region, and a histogram of direction vs. frequency of adjacent pixels is created for each region. FIG. 3B shows an example of a histogram created for the region D among the histograms created in this way.
また、図4(a)は、図2(b)に例示したそれぞれの領域において、上記した判別を実施した場合に、頻度高く判定される方向(上下左右の4方向のいずれか)とその概略位置のみを、ISAR画像上にモデル化して例示したものである。船舶では、特に船体自体に直線状の構造部分が多いが、このような直線状の部位は、図2(a)のような画像の事例では、紙面の上下方向への強い輝度勾配として検出され、特に、目立った構造物等が他の部位より少ない船首や船尾等の端部付近では、図4(a)のように、この傾向が一層顕著となる。このため、このような端部に該当する領域、あるいは端部を含む領域のヒストグラム中では、輝度勾配ベクトルの方向(この事例では上下方向)に、頻度のピークが生じることになる。 FIG. 4A shows a direction (one of four directions, top, bottom, left, and right) that is frequently determined when the above-described determination is performed in each region illustrated in FIG. Only the position is modeled on the ISAR image. In a ship, in particular, the hull itself has many linear structures, but such a linear part is detected as a strong luminance gradient in the vertical direction on the paper surface in the case of the image as shown in FIG. In particular, this tendency becomes more prominent as shown in FIG. 4A in the vicinity of the ends of the bow, stern and the like where the number of conspicuous structures and the like is smaller than that of other parts. For this reason, in the histogram of the region corresponding to the end portion or the region including the end portion, a frequency peak occurs in the direction of the luminance gradient vector (in this example, the vertical direction).
これに対して、構造物等が多く配置された領域のヒストグラムでは、頻度のピークは顕著に表れず、また、目標が含まれない領域では、基本的に頻度のピークはないものと考えられる。そして、このときのヒストグラムにおけるピークの現れ方は、領域内の全画素数は一定数であることから、頻度の平均値に対して、いずれかの方向の頻度が増えれば他の方向が減ることになり、頻度に偏りを生じる。 On the other hand, in the histogram of the region where many structures and the like are arranged, the frequency peak does not appear remarkably, and in the region where the target is not included, it is considered that there is basically no frequency peak. And the way the peaks appear in the histogram at this time is that the total number of pixels in the region is a constant number, so if the frequency in either direction increases relative to the average value of the frequency, the other direction decreases. And the frequency is biased.
評価部623では、各領域に対して作成したヒストグラムにおいて、このようなピークに起因する有意な頻度の偏りを、しきい値との比較により評価し、端部の存在する領域を抽出している。図4(b)は、図3(b)に示した領域Dのヒストグラムにしきい値を適用して評価する場面を例示している。本実施例においては、このときのしきい値を、輝度比較の実行回数を隣接画素の方向数(図4(b)での方向数は、上下左右の4)で除した値、すなわち各方向に対する平均の頻度値を基に、所定の定数kを加えて設定し、この値を超えた頻度を有する場合は、有意な偏りがあるものと判定している。図4(b)の事例では、上下方向に有意な偏りがあると判定され、船舶の端部を含む領域であると判定される。これによって、例えば積分されたISAR画像等を用いることなく、1枚のISAR画像中において、船舶の全体形状を把握することができる。 In the histogram created for each region, the evaluation unit 623 evaluates a significant frequency deviation due to such a peak by comparing with a threshold value, and extracts a region where an edge exists. . FIG. 4B illustrates a scene where evaluation is performed by applying a threshold value to the histogram of the region D illustrated in FIG. In this embodiment, the threshold value at this time is the value obtained by dividing the number of executions of luminance comparison by the number of directions of adjacent pixels (the number of directions in FIG. A predetermined constant k is added based on the average frequency value for, and if the frequency exceeds this value, it is determined that there is a significant bias. In the case of FIG. 4B, it is determined that there is a significant bias in the vertical direction, and it is determined that the region includes the end of the ship. Thereby, for example, the entire shape of the ship can be grasped in one ISAR image without using an integrated ISAR image or the like.
なお、図2〜図4の事例の説明では、領域分割を縦方向の分割線による4領域としたが、分割数や分割線の方向、分割領域の形状を変えることによって、所望する分解能で端部を特定することができる。また、輝度勾配の方向も、上下左右の4方向としたが、比較する画素の方向にこれら以外の方向(例えば、斜め方向等)を加えて判定することにより、輝度勾配の偏りをより精細に判別することもできる。 In the description of the examples in FIG. 2 to FIG. 4, the area division is four areas by the vertical dividing lines. The part can be specified. In addition, although the direction of the luminance gradient is also four directions, up, down, left, and right, by adding a direction other than these (for example, an oblique direction) to the direction of the pixel to be compared, the luminance gradient can be biased more precisely. It can also be determined.
類別処理部63は、位置特定部62で特定されたISAR画像中における船首または船尾の特定結果に基づいて、さらに対象の船舶の特徴情報を抽出する。特徴情報としては、例えば、当該船舶上に設置された各種の構造物の位置等が含まれる。そして、例えばパターンマッチング等の手法により、記憶部70の記憶内容と照合して、ISAR画像中の船舶を類別するとともに、その結果を表示処理部80に送出する。 The classification processing unit 63 further extracts feature information of the target ship based on the bow or stern identification result in the ISAR image identified by the position identifying unit 62. The feature information includes, for example, positions of various structures installed on the ship. Then, for example, the contents of the storage unit 70 are collated by a method such as pattern matching to classify the ships in the ISAR image, and the result is sent to the display processing unit 80.
次に、前出の図1〜図4、ならびに図5のフローチャートを参照して、上述のように構成された本実施形態のレーダ装置1の動作について説明する。図5は、このレーダ装置1の動作を説明するためのフローチャートである。 Next, the operation of the radar apparatus 1 according to the present embodiment configured as described above will be described with reference to the above-described flowcharts of FIGS. FIG. 5 is a flowchart for explaining the operation of the radar apparatus 1.
まず、送信機30から発せられたレーダ波がアンテナ10から放射され、その反射波がアンテナ10で受信されて受信機40で受信処理後、ISAR画像生成部50に送られる。ISAR画像生成部50では、受信処理後の信号に対してさらに合成処理等を施して、順次、ISAR画像を生成する。生成された画像は、目標類別部60、及び表示処理部80に順次送出される(ST51)。 First, a radar wave emitted from the transmitter 30 is radiated from the antenna 10, and the reflected wave is received by the antenna 10, subjected to reception processing by the receiver 40, and sent to the ISAR image generation unit 50. The ISAR image generation unit 50 further performs synthesis processing and the like on the signal after reception processing, and sequentially generates ISAR images. The generated images are sequentially sent to the target classification unit 60 and the display processing unit 80 (ST51).
次いで、目標類別部60内の画像選択部61において、類別の対象の船舶を含む1枚のISAR画像が選択される。本実施例においては、順次生成された画像の中から、操作員等による操作部100からの選択操作によって、画像が選択されるものとしている。選択されたISAR画像の一例を、図2(a)に示す。このISAR画像は、位置特定部62に送出される(ST52)。 Next, in the image selection unit 61 in the target classification unit 60, one ISAR image including a target ship to be classified is selected. In this embodiment, an image is selected from among the sequentially generated images by a selection operation from the operation unit 100 by an operator or the like. An example of the selected ISAR image is shown in FIG. This ISAR image is sent to the position specifying unit 62 (ST52).
次いで、位置特定部62内の画像分割部621において、この選択された1枚のISAR画像は、あらかじめ設定された所定の大きさの複数の領域に分割される。分割の一事例を、図2(b)に示す。この図2(b)は、図2(a)の画像を縦方向の分割線により4つの領域A〜Dに分割した事例である(ST53)。 Next, in the image dividing unit 621 in the position specifying unit 62, the selected one ISAR image is divided into a plurality of regions having a predetermined size. An example of the division is shown in FIG. FIG. 2B shows an example in which the image of FIG. 2A is divided into four regions A to D by vertical dividing lines (ST53).
次いで、ヒストグラム生成部622において、分割されたそれぞれの領域毎に、輝度勾配のヒストグラムが作成される。すなわち、各領域内のすべての画素の輝度レベルが、図3(a)の説明図のように画素単位で隣接画素と比較され、輝度レベルの差が最も大きい隣接画素の方向が判別される。そして、方向毎に判別された頻度が計数されて、ヒストグラムが作成される。図3(b)は、このようにして図2(b)の領域Dに対して作成されたヒストグラムの一例である(ST54)。 Next, in the histogram generation unit 622, a histogram of luminance gradient is created for each of the divided areas. That is, the luminance levels of all the pixels in each region are compared with the adjacent pixels on a pixel basis as shown in the explanatory diagram of FIG. 3A, and the direction of the adjacent pixel having the largest difference in luminance level is determined. Then, the frequency determined for each direction is counted, and a histogram is created. FIG. 3B is an example of a histogram created for the region D in FIG. 2B in this way (ST54).
次いで、評価部623において、生成されたヒストグラムが評価され、船首及び船尾の含まれる領域が特定される。すなわち、画像中に船首や船尾等、直線状の構造部分が多い船体の端部を含む領域では、前述したように、輝度勾配のヒストグラムに頻度の偏りを生じるが、評価部623では、直前の動作ステップにて作成された各領域の輝度勾配のヒストグラム中に、有意な頻度の偏りがあるか否かが、頻度の平均値に基づき設定したしきい値との比較により判定される(ST55)。 Next, in the evaluation unit 623, the generated histogram is evaluated, and a region including the bow and stern is specified. That is, in the region including the end of the hull having many linear structures such as the bow and stern in the image, as described above, the frequency gradient is biased in the histogram of the luminance gradient. Whether or not there is a significant frequency bias in the histogram of the brightness gradient of each region created in the operation step is determined by comparison with a threshold set based on the average frequency (ST55). .
比較の結果、偏りありと判定された場合(ST55のY)、そのヒストグラムに対応する領域は、船舶の端部を含む領域として抽出される。これによって、1枚のISAR画像中で、対象の船舶の全体の形状を把握することができる。そして、その結果は類別処理部63に送出される(ST56)。一方、領域毎に作成したヒストグラムのいずれにも、有意な頻度の偏りがない場合には(ST55のN)、例えば、ST53の動作ステップにおける画像の分割の見直しや、ISAR画像の再選択等がなされた後に、上記の動作ステップが再試行される。 As a result of the comparison, if it is determined that there is a bias (Y in ST55), the region corresponding to the histogram is extracted as a region including the end of the ship. This makes it possible to grasp the overall shape of the target ship in one ISAR image. Then, the result is sent to the classification processing unit 63 (ST56). On the other hand, if there is no significant frequency bias in any of the histograms created for each region (N in ST55), for example, review of image division in the operation step of ST53, reselection of an ISAR image, and the like. After being made, the above operational steps are retried.
次いで、類別処理部63において、ISAR画像中の船舶が類別される。すなわち、類別処理部63では、位置特定部62から受け取ったISAR画像中における船首または船尾の特定結果に基づいて、さらに船舶に設置された各種の構造物の位置等、対象の船舶に関する各種の特徴情報が取得される。そして、取得された特徴情報が、記憶部70に記憶された、各種の船舶を類別するための特徴情報と照合され、ISAR画像中の船舶が類別される。類別結果は、表示処理部80に送出される(ST57)。 Next, the classification processing unit 63 classifies the ships in the ISAR image. That is, in the classification processing unit 63, based on the identification result of the bow or stern in the ISAR image received from the position specifying unit 62, various features related to the target ship such as the positions of various structures installed on the ship. Information is acquired. Then, the acquired feature information is collated with the feature information for classifying various ships stored in the storage unit 70, and the ships in the ISAR image are classified. The classification result is sent to the display processing unit 80 (ST57).
次いで、表示処理部80において、類別結果を表示するための表示画面データが編集される。表示器90には、例えばISAR画像や、操作部100の操作に伴うデータ等も表示されるが、表示処理部80では、類別結果を含み、これら各種の表示を行うための表示画面データが編集される。編集された表示画面データは、表示器90に送出され、表示器90には、船舶の類別結果を含む各種情報が表示される(ST58)。そして、その後は、装置の動作が指示されるまで、上記した動作ステップを繰り返す(ST59)。 Next, display screen data for displaying the classification result is edited in the display processing unit 80. The display 90 displays, for example, an ISAR image, data associated with the operation of the operation unit 100, and the display processing unit 80 edits display screen data for performing various displays including classification results. Is done. The edited display screen data is sent to the display 90, and various information including the vessel classification result is displayed on the display 90 (ST58). Thereafter, the above operation steps are repeated until the operation of the apparatus is instructed (ST59).
以上説明したように、本実施例においては、目標の船舶を含む1枚のISAR画像を複数の領域に分割し、それぞれの領域ごとに輝度勾配のヒストグラムを作成するとともに、これらヒストグラム中における輝度勾配の偏りに着目して、目標の船舶の船首または船尾が含まれる領域を特定している。これにより、例えば、ISAR画像に不鮮明さがある場合でも、画像中の曖昧さの増加要因につながるISAR画像の積分処理等を行うことなく、選択した1枚のISAR画像から目標の船舶の両端部を特定し、全体の形状を把握することができる。 As described above, in this embodiment, one ISAR image including the target ship is divided into a plurality of regions, and a histogram of the brightness gradient is created for each region, and the brightness gradient in these histograms is also created. The area including the bow or stern of the target ship is specified by paying attention to the bias. Thus, for example, even if the ISAR image is unclear, both ends of the target ship can be obtained from one selected ISAR image without performing integration processing of the ISAR image that leads to an increase in ambiguity in the image. Can be identified and the overall shape can be grasped.
また、船舶の両端部の特定結果に基づいて、当該船舶に設けられた各種の構造物の配置や位置等についても、より正確に特定することができるので、その特徴情報抽出時の誤差を低減することができ、特徴情報の照合による目標の類別時の精度を向上することができる。 In addition, since it is possible to more accurately identify the arrangement and position of various structures provided on the ship based on the identification results of both ends of the ship, the error in extracting the feature information is reduced. It is possible to improve accuracy when classifying targets by collating feature information.
従って、ISAR画像が不鮮明な場合でも、1枚の画像から目標の全体像を特定しつつ、良好な類別精度が確保されたレーダ装置、及び目標類別装置を得ることができる。 Therefore, even when the ISAR image is unclear, it is possible to obtain a radar device and a target classification device that ensure a good classification accuracy while specifying the entire target image from one image.
なお、いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 レーダ装置
10 アンテナ
20 サーキュレータ
30 送信機
40 受信機
50 ISAR画像生成部
60 目標類別部
61 画像選択部
62 位置特定部
63 類別処理部
70 記憶部
80 表示処理部
90 表示器
100 操作部
621 画像分割部
622 ヒストグラム生成部
623 評価部
DESCRIPTION OF SYMBOLS 1 Radar apparatus 10 Antenna 20 Circulator 30 Transmitter 40 Receiver 50 ISAR image generation part 60 Target classification part 61 Image selection part 62 Position specification part 63 Classification processing part 70 Storage part 80 Display processing part 90 Display unit 100 Operation part 621 Image division Unit 622 histogram generation unit 623 evaluation unit
Claims (8)
船舶を類別するための特徴情報をあらかじめ船舶毎に複数記憶する記憶部と、
前記生成されたISAR画像から、類別対象の船舶を含む1枚の画像を選択する画像選択部と、
前記選択されたISAR画像を所定の大きさの複数の領域に分割し、それぞれの領域において、その領域内のすべての画素の輝度レベルを画素単位で隣接画素と比較し、輝度レベルの差に基づき算出した輝度勾配ベクトルの方向を判別して、輝度勾配ベクトルの方向毎に判別された頻度を計数してヒストグラムを作成するとともに、これら領域毎に作成したヒストグラムにおける前記輝度勾配ベクトルの方向毎の頻度値の偏りに基づいて、当該領域が前記船舶の船首または船尾を含む領域であるかを特定する位置特定部と、
前記船首または船尾の領域の特定結果に基づいて、前記船舶の特徴情報を抽出するとともに、これら抽出した特徴情報を前記記憶部の記憶内容と照合して前記船舶を類別する類別処理部と、
前記類別処理部による類別結果を表示する表示部と
を備えたことを特徴とするレーダ装置。 In a radar apparatus that generates an ISAR (Inverse Synthetic Aperture Radar) image based on a radar echo,
A storage unit for storing a plurality of feature information for classifying ships in advance for each ship;
An image selection unit for selecting one image including a ship to be classified from the generated ISAR image;
The selected ISAR image is divided into a plurality of regions of a predetermined size, and in each region, the luminance levels of all the pixels in the region are compared with adjacent pixels in units of pixels, and based on the luminance level difference The direction of the calculated brightness gradient vector is determined, the frequency determined for each direction of the brightness gradient vector is counted to create a histogram, and the frequency for each direction of the brightness gradient vector in the histogram generated for each region A position identifying unit that identifies whether the region is a region including the bow or stern of the ship, based on the value bias;
Based on the identification result of the bow or stern area, the feature information of the ship is extracted, and a classification processing unit that classifies the ships by collating the extracted feature information with the storage content of the storage unit;
A radar apparatus comprising: a display unit for displaying a classification result by the classification processing unit.
船舶を類別するための特徴情報をあらかじめ船舶毎に複数記憶する記憶部と、
前記生成されたISAR画像から、類別対象の船舶を含む1枚の画像を選択する画像選択部と、
前記選択されたISAR画像を所定の大きさの複数の領域に分割し、それぞれの領域において、その領域内のすべての画素の輝度レベルを画素単位で隣接画素と比較し、輝度レベルの差に基づき算出した輝度勾配ベクトルの方向を判別して、輝度勾配ベクトルの方向毎に判別された頻度を計数してヒストグラムを作成するとともに、これら領域毎に作成したヒストグラムにおける前記輝度勾配ベクトルの方向毎の頻度値の偏りに基づいて、当該領域が前記船舶の船首または船尾を含む領域であるかを特定する位置特定部と、
前記船首または船尾の領域の特定結果に基づいて、前記船舶の特徴情報を抽出するとともに、これら抽出した特徴情報を前記記憶部の記憶内容と照合して前記船舶を類別する類別処理部と
を備えたことを特徴とする目標類別装置。 In a target classification apparatus used in a radar apparatus that generates an ISAR image based on a radar echo,
A storage unit for storing a plurality of feature information for classifying ships in advance for each ship;
An image selection unit for selecting one image including a ship to be classified from the generated ISAR image;
The selected ISAR image is divided into a plurality of regions of a predetermined size, and in each region, the luminance levels of all the pixels in the region are compared with adjacent pixels in units of pixels, and based on the luminance level difference The direction of the calculated brightness gradient vector is determined, the frequency determined for each direction of the brightness gradient vector is counted to create a histogram, and the frequency for each direction of the brightness gradient vector in the histogram generated for each region A position identifying unit that identifies whether the region is a region including the bow or stern of the ship, based on the value bias;
A classification processing unit that extracts feature information of the ship based on a result of specifying the bow or stern area, and classifies the ship by comparing the extracted feature information with the storage content of the storage unit; Target classification device characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014183585A JP2016057164A (en) | 2014-09-09 | 2014-09-09 | Rader system, and target classification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014183585A JP2016057164A (en) | 2014-09-09 | 2014-09-09 | Rader system, and target classification device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016057164A true JP2016057164A (en) | 2016-04-21 |
Family
ID=55758109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014183585A Pending JP2016057164A (en) | 2014-09-09 | 2014-09-09 | Rader system, and target classification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016057164A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019219339A (en) * | 2018-06-22 | 2019-12-26 | 株式会社東芝 | Radar signal processor |
JP2021110565A (en) * | 2020-01-07 | 2021-08-02 | 株式会社東芝 | Classification device and classification method |
-
2014
- 2014-09-09 JP JP2014183585A patent/JP2016057164A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019219339A (en) * | 2018-06-22 | 2019-12-26 | 株式会社東芝 | Radar signal processor |
JP7030629B2 (en) | 2018-06-22 | 2022-03-07 | 株式会社東芝 | Radar signal processing device |
JP2021110565A (en) * | 2020-01-07 | 2021-08-02 | 株式会社東芝 | Classification device and classification method |
JP7527789B2 (en) | 2020-01-07 | 2024-08-05 | 株式会社東芝 | Sorting device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240161265A1 (en) | Information processing device, information processing method, and storage medium | |
CN110678901B (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US10395136B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP4877374B2 (en) | Image processing apparatus and program | |
JP4937029B2 (en) | Object detection apparatus and program | |
US10438081B2 (en) | Automatic feature point detection for calibration of multi-camera systems | |
GB2498331A (en) | Method of classifying images of animals based on their taxonomic group | |
JP6084810B2 (en) | Tracking processing apparatus and tracking processing method | |
Chen et al. | Frequency-tuned taillight-based nighttime vehicle braking warning system | |
JP2020061020A (en) | Pedestrian crossing sign estimation device | |
Chen et al. | Frequency-tuned nighttime brake-light detection | |
JP2016057164A (en) | Rader system, and target classification device | |
CN111160260A (en) | SAR image target detection method and system | |
KR101556598B1 (en) | Apparatus and Method for object detection based on dominant pixel information | |
CN115439509B (en) | Multi-target tracking method and device, computer equipment and storage medium | |
CN110555344B (en) | Lane line recognition method, lane line recognition device, electronic device, and storage medium | |
US20190259168A1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN112101069A (en) | Method and device for determining driving area information | |
JP5979008B2 (en) | Image processing apparatus, image processing method, and program | |
JP6816386B2 (en) | Identification device | |
CN115482352A (en) | Method and apparatus for training machine learning algorithms | |
CN116413683A (en) | Laser radar, scanning method thereof and readable storage medium | |
JP6350018B2 (en) | Object detection device and element selection device | |
JP6354316B2 (en) | Image detection apparatus and program | |
JP6278757B2 (en) | Feature value generation device, feature value generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160422 |