JP2011158346A - Image processing device, radar device, image processing method, and image processing program - Google Patents
Image processing device, radar device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2011158346A JP2011158346A JP2010019916A JP2010019916A JP2011158346A JP 2011158346 A JP2011158346 A JP 2011158346A JP 2010019916 A JP2010019916 A JP 2010019916A JP 2010019916 A JP2010019916 A JP 2010019916A JP 2011158346 A JP2011158346 A JP 2011158346A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- template image
- resolution
- template
- coincidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
この発明は、入力された画像データの代表位置を決める画像処理装置に関するものである。 The present invention relates to an image processing apparatus that determines a representative position of input image data.
従来、レーダ装置等においては、測定した物標の画像(エコー画像)を画面表示する際に、例えば、図1(A)に示すように、エコー画像50の中から代表点501を決定し、その代表点501から物標の移動方向と移動量(速度)を示すベクトル画像502を表示することが行われている。 Conventionally, in a radar apparatus or the like, when displaying a measured target image (echo image) on the screen, for example, as shown in FIG. 1A, a representative point 501 is determined from the echo image 50, A vector image 502 indicating the moving direction and moving amount (speed) of the target from the representative point 501 is displayed.
代表点の決定手法は、例えば同図(A)に示すように、自船に最も近い位置を代表点とする手法や、同図(B)に示すように、重心位置を代表点とする手法も考えられる(例えば特許文献1参照)。 As a representative point determination method, for example, as shown in FIG. 5A, a method that uses the position closest to the ship as a representative point, or as shown in FIG. (For example, refer patent document 1).
しかし、通常、レーダ装置の使用者は、エコー画像の中心位置付近に船舶が存在すると考えるため、同図(A)のように最も距離が近い位置を代表点とすると、視覚的に違和感が生じる。 However, since the user of the radar apparatus normally thinks that the ship exists near the center position of the echo image, if the position closest to the distance as shown in FIG. .
また、航跡(ひき波)の大きいエコー画像の場合、同図(B)のように重心位置を算出すると、後ろ寄りに代表点が定められるため、やはり視覚的に違和感が生じる。 Further, in the case of an echo image with a large wake (swing wave), if the position of the center of gravity is calculated as shown in FIG.
そこで、この発明は、表示に視覚的な違和感が生じないように代表位置を決定する手法を実現した画像処理装置を提供することを目的とする。 Accordingly, an object of the present invention is to provide an image processing apparatus that realizes a technique for determining a representative position so that a visual discomfort does not occur in display.
本発明の画像処理装置は、記憶手段、選定手段、および設定手段を備えている。記憶手段は、複数のテンプレート画像データと、各テンプレート画像の代表位置を示した位置データとをそれぞれ対応付けて記憶している。選定手段は、入力された画像データと前記各テンプレート画像データとをそれぞれ比較して一致度を算出し、前記一致度が所定の条件を満たすテンプレート画像データを選定する。所定の条件は、例えば「最も一致度が高いもの」である。設定手段は、選定手段で選定されたテンプレート画像データに対応付けられている位置データに基づいて、入力された画像データの代表位置を出力する。各テンプレート画像データに対応付けられた代表位置を、例えばレーダ装置の使用者が経験的にその位置に船舶が存在すると判断する位置に設定しておくことで、視覚的な違和感が生じない位置に代表位置を設定することができる。 The image processing apparatus of the present invention includes storage means, selection means, and setting means. The storage means stores a plurality of template image data and position data indicating the representative position of each template image in association with each other. The selection unit compares the input image data with each of the template image data to calculate a degree of coincidence, and selects template image data in which the degree of coincidence satisfies a predetermined condition. The predetermined condition is, for example, “the one with the highest degree of matching”. The setting means outputs a representative position of the input image data based on the position data associated with the template image data selected by the selection means. For example, by setting the representative position associated with each template image data to a position where the user of the radar apparatus empirically determines that a ship is present at that position, a position where visual discomfort does not occur. A representative position can be set.
さらに、本発明の画像処理装置は、入力された画像データを、当該入力された画像データの解像度よりも低解像度に変換する変換手段を備えていてもよい。この場合、記憶手段は、複数のテンプレート画像データについて、それぞれ異なる解像度を有するテンプレート画像データを記憶しておく。選定手段は、変換手段で変換された低解像度の画像データと、低解像度のテンプレート画像データの一致度を算出してテンプレート画像を選定する低解像度選定処理と、低解像度選定処理において比較した画像データよりも高解像度の画像データと、低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データと、の一致度を算出して、低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データを選定する高解像度選定処理と、を行う。このように、まず低解像度に変換した画像データと複数の低解像度用テンプレート画像データとでマッチングを行い、低解像度用テンプレート画像データを選定してから、選定された低解像度用テンプレート画像データに対応する高解像度用テンプレート画像データとだけマッチングを行うことで、マッチングを行う高解像度用テンプレート画像データの数の絞り込みを行い、処理負荷の大きい高解像度のマッチング処理時間を低減する態様とすることも可能である。 Furthermore, the image processing apparatus of the present invention may include conversion means for converting input image data to a resolution lower than the resolution of the input image data. In this case, the storage unit stores template image data having different resolutions for the plurality of template image data. The selection means is a low-resolution selection process for selecting a template image by calculating the degree of coincidence between the low-resolution image data converted by the conversion means and the low-resolution template image data, and the image data compared in the low-resolution selection process The degree of coincidence between the higher resolution image data and the template image data higher than the template image data selected in the low resolution selection process is calculated to be higher than the template image data selected in the low resolution selection process. High resolution selection processing for selecting template image data of resolution. In this way, matching is first performed between the image data converted to low resolution and a plurality of low resolution template image data, and the low resolution template image data is selected, and then the selected low resolution template image data is supported. By matching only with the high-resolution template image data, it is possible to narrow down the number of high-resolution template image data to be matched and reduce the processing time for high-resolution matching processing with a large processing load. It is.
また、選定手段は、テンプレート画像データを複数選定し、設定手段は、選定手段で選定された複数のテンプレート画像データのそれぞれに対応付けられている位置データに基づいて、入力された画像データの代表位置を設定する態様であってもよい。例えば、テンプレート画像データを選定する所定の条件を「あるしきい値以上の一致度を有するもの」あるいは「一致度の高い上位2つ」等とし、選定された複数のテンプレート画像データに対応付けされているそれぞれの位置データを単純平均する。この態様では、どのテンプレート画像データにも完全に一致しない複雑な形状を有するエコー画像が検出された場合であっても、複数のテンプレート画像データを融合したような新たなテンプレート画像データの代表位置を算出する態様となり、記憶しておくテンプレート画像データの数を増やさなくとも高精度に代表位置を定めることができる。 The selection means selects a plurality of template image data, and the setting means represents the input image data based on the position data associated with each of the plurality of template image data selected by the selection means. The aspect which sets a position may be sufficient. For example, the predetermined condition for selecting the template image data is “having a matching degree equal to or higher than a certain threshold value” or “the top two having a high matching degree”, and is associated with a plurality of selected template image data. A simple average of each position data. In this aspect, even if an echo image having a complicated shape that does not completely match any template image data is detected, the representative position of the new template image data such as a fusion of a plurality of template image data is set. Thus, the representative position can be determined with high accuracy without increasing the number of template image data to be stored.
また、設定手段は、選定手段で選定された複数のテンプレート画像データのそれぞれの一致度を係数として、それぞれの位置データの代表位置の重み付け平均を算出することにより画像データの代表位置を設定する態様であってもよい。例えば、単純平均するのではなく、算出した一致度に応じて一致度が高いテンプレート画像の代表位置により近くなるように、代表位置を設定する。また、例えば、テンプレート画像を選定する所定の条件を「全ての値」とした場合、全てのテンプレート画像を選定することになるが、一致度に応じた重み付け平均を算出することにより、一致度の高いテンプレート画像の代表位置により近い位置が画像データの代表位置として設定される。殆ど一致しなかった(一致度の極めて低い)テンプレート画像は、代表位置の設定には殆ど寄与しない。 Further, the setting means sets the representative position of the image data by calculating a weighted average of the representative positions of the respective position data using the respective matching degrees of the plurality of template image data selected by the selecting means as coefficients. It may be. For example, instead of simply averaging, the representative position is set so as to be closer to the representative position of the template image having a high degree of matching according to the calculated degree of matching. For example, when the predetermined condition for selecting a template image is “all values”, all template images are selected. By calculating a weighted average according to the degree of coincidence, the degree of coincidence is calculated. A position closer to the representative position of the high template image is set as the representative position of the image data. Template images that hardly matched (very low matching) hardly contributed to the setting of the representative position.
なお、位置データには、画素1点を示す情報だけ含まれていてもよいし、複数画素からなるある領域を示す情報が含まれていてもよい。位置データが1点を示す情報である場合、代表位置は、ある画素1点を示すことになり、位置データが領域を示す情報である場合、ある領域が代表位置となる。 The position data may include only information indicating one pixel, or may include information indicating a certain area composed of a plurality of pixels. When the position data is information indicating one point, the representative position indicates one pixel, and when the position data is information indicating an area, a certain area is the representative position.
また、位置データが領域を示す情報であり、テンプレート画像データを複数選定した場合、各位置データで重複する領域を代表位置としてもよい。 Further, when the position data is information indicating a region, and a plurality of template image data are selected, a region overlapping with each position data may be set as the representative position.
この発明の画像処理装置によれば、表示に視覚的な違和感が生じないように代表位置を決定することができる。 According to the image processing apparatus of the present invention, the representative position can be determined so as not to cause a visual discomfort in the display.
図2は、本発明の画像処理装置を内蔵したレーダ装置の構成を示すブロック図である。レーダ装置は、例えば船舶に設置され、自船の周囲に電磁波を送受信し、他船等の物標を探知する装置である。 FIG. 2 is a block diagram showing a configuration of a radar apparatus incorporating the image processing apparatus of the present invention. The radar device is a device that is installed on a ship, for example, and transmits and receives electromagnetic waves around the ship to detect targets such as other ships.
同図において、レーダ装置は、アンテナ11、受信部12、A/D変換器13、スイープメモリ14、画像データ生成部15、画像メモリ16、画像処理部17、および表示器18を備えている。画像処理部17が本発明の画像処理装置に相当するものである。 In the figure, the radar apparatus includes an antenna 11, a receiving unit 12, an A / D converter 13, a sweep memory 14, an image data generating unit 15, an image memory 16, an image processing unit 17, and a display 18. The image processing unit 17 corresponds to the image processing apparatus of the present invention.
アンテナ11は、自船の周囲に電磁波を送受信し、受信部12は、アンテナ11の受信強度に応じた値をA/D変換器13に出力する。A/D変換器13は、入力されたアナログ値の受信強度をデジタル変換し、スイープメモリ14に出力する。 The antenna 11 transmits and receives electromagnetic waves around the ship, and the receiving unit 12 outputs a value corresponding to the reception intensity of the antenna 11 to the A / D converter 13. The A / D converter 13 digitally converts the received intensity of the input analog value and outputs it to the sweep memory 14.
スイープメモリ14は、測定1周期分(自船の周り360度分)の受信強度が記憶され、極座標系の座標と受信強度が対応付けて記憶されている。アンテナ11は、所定角度毎にパルス状に電磁波を送受信するため、スイープメモリ14には、アンテナ11の各送受信角度について、送信から受信までの時間差(距離)に応じた複数の受信強度の値が記憶される。 The sweep memory 14 stores the reception intensity for one measurement period (360 degrees around the ship), and the coordinates of the polar coordinate system and the reception intensity are stored in association with each other. Since the antenna 11 transmits and receives electromagnetic waves in pulses at every predetermined angle, the sweep memory 14 has a plurality of reception intensity values corresponding to the time difference (distance) from transmission to reception for each transmission / reception angle of the antenna 11. Remembered.
画像データ生成部15は、スイープメモリ14に記憶されている極座標系の各受信強度を自船の位置を原点とした直交座標系に変換して、各受信強度に応じた階調の画像輝度値として出力する。この直交座標系の各座標の画像輝度値が画像データとして画像メモリ16に記憶される。 The image data generation unit 15 converts each received intensity of the polar coordinate system stored in the sweep memory 14 into an orthogonal coordinate system with the position of the ship as the origin, and an image luminance value of a gradation corresponding to each received intensity Output as. The image brightness value of each coordinate in the orthogonal coordinate system is stored in the image memory 16 as image data.
表示器18では、画像メモリ16に記憶されている画像データがレーダ画像(エコー画像)としてユーザに表示される(図5を参照)。なお、本実施形態では、背景色が白で、画像輝度値が高い画素ほど黒く表示されるようにしているが、逆に、背景色が黒で、画像輝度値が高い画素ほど白く表示されるようにしてもよい。また、カラー画像として表示される態様であってもよい。 On the display 18, the image data stored in the image memory 16 is displayed to the user as a radar image (echo image) (see FIG. 5). In this embodiment, pixels with a white background color and a high image luminance value are displayed in black. Conversely, pixels with a black background color and a high image luminance value are displayed in white. You may do it. Moreover, the aspect displayed as a color image may be sufficient.
画像処理部17は、画像メモリ16から画像データを入力し、エコー画像の代表点を設定する処理を行う。以下、画像処理部17の処理内容について説明する。 The image processing unit 17 inputs image data from the image memory 16 and performs a process of setting a representative point of the echo image. Hereinafter, processing contents of the image processing unit 17 will be described.
図1において、画像処理部17は、目標切り出し部171、解像度変換部172、低解像度マッチング部173、高解像度マッチング部174、および代表点設定部175を備えている。 In FIG. 1, the image processing unit 17 includes a target cutout unit 171, a resolution conversion unit 172, a low resolution matching unit 173, a high resolution matching unit 174, and a representative point setting unit 175.
目標切り出し部171は、画像メモリ16に記憶されている画像データのうち、受信強度がしきい値以上、すなわち画像輝度値がしきい値以上である画素を抽出する。目標切り出し部171は、さらに、抽出された画素について、隣接している画素の1つの固まりを1つの物標であるとして、所定の矩形エリア(特定の領域)の画像データを切り出す。 The target cutout unit 171 extracts, from the image data stored in the image memory 16, pixels whose reception intensity is equal to or higher than a threshold value, that is, whose image luminance value is equal to or higher than the threshold value. The target cutout unit 171 further cuts out image data of a predetermined rectangular area (a specific region) by regarding one of the extracted pixels as one target with a group of adjacent pixels as one target.
切り出された画像データは、解像度変換部172に入力される。解像度変換部172は、入力された画像データを低解像度の画像データに変換する。例えば、512×512画素の画像データを32×32画素の画像データに変換する。変換した画像データは、低解像度マッチング部173に入力される。 The cut out image data is input to the resolution conversion unit 172. The resolution conversion unit 172 converts the input image data into low-resolution image data. For example, 512 × 512 pixel image data is converted into 32 × 32 pixel image data. The converted image data is input to the low resolution matching unit 173.
図3は、画像データとテンプレート画像データを示す図である。低解像度マッチング部173は、入力された低解像度の画像データと、予め記憶されている複数の低解像度用テンプレート画像データとを比較し、マッチングを行う。低解像度マッチング部173に記憶されている低解像度用テンプレート画像データは、解像度変換部172で変換される解像度と同じ解像度の画像データとして記憶されている。 FIG. 3 is a diagram showing image data and template image data. The low resolution matching unit 173 compares the input low resolution image data with a plurality of low resolution template image data stored in advance, and performs matching. The low resolution template image data stored in the low resolution matching unit 173 is stored as image data having the same resolution as the resolution converted by the resolution conversion unit 172.
マッチング手法はどの様なものであってもよい。例えば、以下の様なテンプレートマッチングを行う。すなわち、低解像度マッチング部173は、記憶されている低解像度用テンプレート画像データを拡大、縮小し、それぞれのテンプレート画像データと入力された画像データとの相互相関係数(一致度)を求める。なお、低解像度用テンプレート画像データは、所定の角度(例えば45度)刻みで回転して、回転角度毎の一致度を算出し、最も高い一致度をそのテンプレート画像データの一致度とする。回転の有無、およびその角度分解能は、テンプレート画像データを記憶するメモリ容量と、処理能力に応じて適宜決定する。処理能力が高ければ、テンプレート画像データの数は少なく、角度分解能を高くすればよい。メモリ容量が大きければ、予め回転したテンプレート画像データを別のテンプレート画像データとして記憶しておく。 Any matching method may be used. For example, the following template matching is performed. That is, the low resolution matching unit 173 enlarges or reduces the stored low resolution template image data, and obtains a cross-correlation coefficient (degree of coincidence) between each template image data and the input image data. Note that the low-resolution template image data is rotated by a predetermined angle (for example, 45 degrees), the degree of coincidence for each rotation angle is calculated, and the highest degree of coincidence is set as the degree of coincidence of the template image data. The presence / absence of rotation and its angular resolution are appropriately determined according to the memory capacity for storing the template image data and the processing capability. If the processing capability is high, the number of template image data is small, and the angular resolution may be increased. If the memory capacity is large, the rotated template image data is stored as another template image data.
そして、低解像度マッチング部173は、所定の条件を満たした低解像度用テンプレート画像データを選定し、高解像度マッチング部174に出力する。例えば、最も一致度の高い低解像度用テンプレート画像データを選定する。 Then, the low resolution matching unit 173 selects low resolution template image data that satisfies a predetermined condition, and outputs the template image data to the high resolution matching unit 174. For example, the template image data for low resolution having the highest degree of coincidence is selected.
高解像度マッチング部174は、低解像度マッチング部173から入力された低解像度用テンプレート画像データに対応する複数の高解像度用テンプレート画像データを記憶している。つまり、低解像度マッチング部173に記憶されている複数のテンプレート画像データは、それぞれさらに複数の高解像度のテンプレート画像データ(例えば512×512画素の画像データ)として高解像度マッチング部174に記憶されており、テンプレート画像データは、いわゆるツリー構造として記憶されている。 The high resolution matching unit 174 stores a plurality of high resolution template image data corresponding to the low resolution template image data input from the low resolution matching unit 173. In other words, the plurality of template image data stored in the low resolution matching unit 173 is further stored in the high resolution matching unit 174 as a plurality of high resolution template image data (for example, image data of 512 × 512 pixels). The template image data is stored as a so-called tree structure.
高解像度マッチング部174は、解像度変換部172から解像度変換前の画像データを入力して、低解像度マッチング部173から入力されたテンプレート画像データに対応する複数の高解像度用テンプレート画像とのマッチングを行う。マッチングの手法は、低解像度マッチング部173と同様である。 The high resolution matching unit 174 receives image data before resolution conversion from the resolution conversion unit 172, and performs matching with a plurality of high resolution template images corresponding to the template image data input from the low resolution matching unit 173. . The matching method is the same as that of the low resolution matching unit 173.
そして、高解像度マッチング部174は、最も一致度の高い高解像度用テンプレート画像データを選定し、代表点設定部175に出力する。 Then, the high resolution matching unit 174 selects the high resolution template image data having the highest degree of coincidence and outputs it to the representative point setting unit 175.
代表点設定部175は、入力された高解像度用テンプレート画像データに対応付けられている代表点の位置を示す位置データに基づいて、切り出した画像データの代表点を設定する。テンプレート画像データには、それぞれ代表点の位置(画像左端からの座標wと画像上端からの座標h)を示す位置データが対応付けて記憶されている。代表点は、各画像の特徴(画像表示した場合の形状)から、その位置に船舶が存在する可能性が高いと統計的に判断される位置に定められている。あるいはレーダ装置の使用者が経験的にその位置に船舶が存在すると判断する位置に(視覚的な違和感がない位置に)定められている。通常は、最も受信強度が強くなるような位置に定められている。 The representative point setting unit 175 sets the representative point of the cut out image data based on the position data indicating the position of the representative point associated with the input high-resolution template image data. In the template image data, position data indicating the positions of the representative points (the coordinates w from the left end of the image and the coordinates h from the upper end of the image) are stored in association with each other. The representative point is determined at a position that is statistically determined from the feature of each image (the shape when the image is displayed) that there is a high possibility that a ship exists at that position. Alternatively, the position is determined at a position where the user of the radar apparatus empirically determines that a ship is present at that position (a position where there is no visual discomfort). Usually, it is determined at a position where the reception intensity is strongest.
なお、位置データは、ある画素1点の座標を示す情報だけでなく、図6に示すように、複数画素からなるある領域(画像左端からの座標wと画素数wx、および画像上端からの座標hと画素数hy)を示す情報であってもよい。この場合、代表点は、当該位置データが示すある領域(代表位置)となる。 Note that the position data is not only information indicating the coordinates of a certain pixel, but also a certain area consisting of a plurality of pixels (coordinates w and the number of pixels wx from the left end of the image, and coordinates from the upper end of the image, as shown in FIG. Information indicating h and the number of pixels (hy) may be used. In this case, the representative point is a certain region (representative position) indicated by the position data.
図3の例では、代表点設定部175は、高解像度マッチング部174から入力したテンプレート画像データに対応付けられている代表点の位置を、切り出した画像データの代表点とみなして設定する。設定した代表点の位置は、画像メモリ16に出力され、表示器18においてレーダ画像(エコー画像)上に表示される。これにより、図5に示すような代表点501がエコー画像50上に表示される。そして、代表点501から物標の移動方向と移動量(速度)を示すベクトル画像502が表示される。本実施形態の代表点設定手法では、図1(A)に示した様な最も距離が近い位置を代表点と設定する手法や、図1(B)のような重心位置を代表点と設定する手法に比べ、一致度の高いテンプレート画像データに対応付けられている代表点によって物標の代表点が設定されるため、視覚的な違和感が生じることがない。 In the example of FIG. 3, the representative point setting unit 175 sets the position of the representative point associated with the template image data input from the high resolution matching unit 174 as the representative point of the cut out image data. The position of the set representative point is output to the image memory 16 and displayed on the radar image (echo image) on the display 18. Thereby, a representative point 501 as shown in FIG. 5 is displayed on the echo image 50. Then, a vector image 502 indicating the moving direction and moving amount (speed) of the target from the representative point 501 is displayed. In the representative point setting method of this embodiment, a method of setting the closest distance as shown in FIG. 1A as a representative point, or a center of gravity position as shown in FIG. 1B is set as a representative point. Compared with the technique, since the representative point of the target is set by the representative point associated with the template image data having a high degree of matching, there is no visual discomfort.
また、本実施形態の画像処理部17は、まず低解像度に変換した画像データと複数の低解像度用テンプレート画像データとでマッチングを行い、低解像度用テンプレート画像データを選定してから、選定された低解像度用テンプレート画像データに対応する高解像度用テンプレート画像データとだけマッチングを行うことで、マッチングを行う高解像度用テンプレート画像データの数の絞り込みを行い、処理負荷の大きい高解像度のマッチング処理時間を低減する態様としている。したがって、高速かつ高精度に代表点の位置を設定することができる。 In addition, the image processing unit 17 of the present embodiment first matches the image data converted into the low resolution with the plurality of low resolution template image data, selects the low resolution template image data, and then selects the selected image data. By matching only with the high-resolution template image data corresponding to the low-resolution template image data, the number of high-resolution template image data to be matched is narrowed down, and the high-resolution matching processing time with a large processing load is reduced. It is set as the aspect which reduces. Therefore, the position of the representative point can be set at high speed and with high accuracy.
なお、本実施形態では、低解像度用テンプレート画像データにも位置データが対応付けて記憶されており、例えば低解像度用テンプレート画像データとの一致度が非常に高い(一致度が1に近い)場合、高解像度用テンプレート画像データとのマッチングは行わずに、低解像度用テンプレート画像データに対応付けられている位置データに基づいて代表点の位置を設定し、切り出した画像データの代表点として出力するようにしてもよい。 In the present embodiment, the position data is also stored in association with the low resolution template image data. For example, the degree of coincidence with the low resolution template image data is very high (the degree of coincidence is close to 1). The position of the representative point is set based on the position data associated with the low-resolution template image data without matching with the high-resolution template image data, and is output as the representative point of the cut-out image data. You may do it.
また、低解像度、高解像度の2種類のマッチングに限らず、さらに複数段のツリー構造としてテンプレート画像データを記憶しておき、複数回のマッチングを行ってもよい。例えば、低解像度(32×32)、中解像度(128×128)、高解像度(512×512)の3段階にマッチングを行う態様であってもよい。 Further, the template image data is not limited to two types of matching of low resolution and high resolution, and template image data may be stored as a multi-stage tree structure, and matching may be performed a plurality of times. For example, the matching may be performed in three stages of low resolution (32 × 32), medium resolution (128 × 128), and high resolution (512 × 512).
また、許容される上限の処理時間(例えば自船の周り360度に電磁波を送受信する時間)と画像処理に要する時間に応じて、低解像度だけ、低解像度および高解像度、あるいは、低、中、高、全ての解像度についてマッチングを行うかを選択する態様としてもよい。例えば、複数の物標が存在して、複数の領域の画像データが切り出された場合、それぞれの画像データについて、まず低解像度のマッチングを行い、その後マッチング処理に要した時間が上限の処理時間に近い場合、低解像度用テンプレート画像データに対応付けられているそれぞれの位置データに基づいて、各画像データの代表点を設定する。あるいは、上限の処理時間に達した時点でマッチングを終了し、その時点で選定されているテンプレート画像データに対応付けられている位置データに基づいて、各画像データの代表点を設定する。つまり、高解像度のマッチングが終了している画像データは、高解像度用テンプレート画像データに対応付けられている位置データに基づいて代表点を設定し、低解像度のマッチングしか処理が行われていない画像データは、低解像度用テンプレート画像データに対応付けられている位置データに基づいて代表点を設定する。 Also, depending on the allowable upper limit processing time (for example, the time for transmitting and receiving electromagnetic waves around 360 degrees around the ship) and the time required for image processing, only low resolution, low resolution and high resolution, or low, medium, It is good also as a mode which selects whether matching is performed about high and all the resolutions. For example, when there are multiple targets and image data of multiple areas is cut out, low resolution matching is first performed for each image data, and then the time required for matching processing is set to the upper limit processing time. If they are close, the representative point of each image data is set based on the respective position data associated with the low resolution template image data. Alternatively, the matching is terminated when the upper limit processing time is reached, and the representative point of each image data is set based on the position data associated with the template image data selected at that time. In other words, for image data for which high-resolution matching has been completed, representative points are set based on position data associated with high-resolution template image data, and only low-resolution matching is processed. As the data, representative points are set based on position data associated with the low-resolution template image data.
なお、上記例では、画像データは、各画素毎に多値化された画像輝度値として入力される例を示しているが、画像データは2値化してからマッチングを行ってもよい。すなわち、目標切り出し部171は、画像輝度値がしきい値以上である画素を抽出するが、このしきい値以上の画素を全て1の値、他の値を0とする。この場合は、テンプレート画像データも画素毎に2値化されたデータとして記憶しておき、各画素の値の一致数が最も多いテンプレート画像データが最も一致度の高いテンプレート画像データに該当することになる。 In the above example, the image data is input as a multi-valued image luminance value for each pixel. However, matching may be performed after the image data is binarized. That is, the target cutout unit 171 extracts pixels whose image luminance value is equal to or greater than a threshold value, and sets all the pixels equal to or higher than the threshold value to 1 and sets the other values to 0. In this case, the template image data is also stored as binarized data for each pixel, and the template image data having the largest number of matching values of each pixel corresponds to the template image data having the highest degree of matching. Become.
上述の例では、最も一致度の高いテンプレート画像データを1つ選定する例を示したが、以下に示すような複数のテンプレート画像データを選定する態様も可能である。図4は、複数のテンプレート画像データを選定した場合の代表点の設定手法を示した図である。この例においては、テンプレート画像データを選定するための所定の条件として「一致度が所定のしきい値以上である」テンプレート画像データを全て選定する態様とし、高解像度マッチング部174が2つのテンプレート画像データを選定した場合について説明する。例えば、同図に示すように、切り出された画像データが航跡(ひき波)の大きいブーメラン状のエコー画像と、楕円状のエコー画像を融合したような形状の画像を示す場合である。 In the above-described example, an example in which one template image data with the highest degree of coincidence is selected has been described. However, a mode in which a plurality of template image data as described below is selected is also possible. FIG. 4 is a diagram showing a representative point setting method when a plurality of template image data is selected. In this example, as a predetermined condition for selecting template image data, all template image data “matching degree is equal to or higher than a predetermined threshold” are selected, and the high resolution matching unit 174 has two template images. The case where data is selected will be described. For example, as shown in the figure, the extracted image data is a case where an image having a shape such as a fusion of a boomerang-like echo image having a large wake (wave) and an elliptical echo image is shown.
代表点設定部175は、高解像度マッチング部174から入力された2つのテンプレート画像データについて、それぞれに対応付けされている位置データを平均化し、平均化した位置データの示す座標を、切り出した画像データの代表点の位置として設定する。つまり、2つのテンプレート画像データのそれぞれに対応付けられている位置データの座標が(w1,h1),(w2,h2)である場合、切り出した画像データの代表点を(w=(w1+w2)/2,h=(h1+h2)/2)として設定する。 The representative point setting unit 175 averages the position data associated with each of the two template image data input from the high resolution matching unit 174, and extracts the coordinates indicated by the averaged position data. Set as the representative point position. That is, when the coordinates of the position data associated with each of the two template image data are (w1, h1) and (w2, h2), the representative point of the cut-out image data is (w = (w1 + w2) / 2, h = (h1 + h2) / 2).
この例では、代表点設定部175は、選定された複数のテンプレート画像データに対応付けされている位置データを単純平均する態様であるが、高解像度マッチング部174で算出した一致度に応じて重み付け平均をとる態様であってもよい。つまり、2つのテンプレート画像データのそれぞれの一致度をLv1,Lv2とすると、切り出した画像データの代表点は、(w=(w1・Lv1+w2・Lv2)/(Lv1+Lv2),h=(h1・Lv1+h2・Lv2)/(Lv1+Lv2))として設定される。この場合、一致度が高いテンプレート画像データに対応付けされている代表点に近い位置に、切り出した画像データの代表点が設定されるようになる。 In this example, the representative point setting unit 175 is a mode in which the position data associated with the selected plurality of template image data is simply averaged, but weighted according to the degree of coincidence calculated by the high resolution matching unit 174. An aspect that takes an average may be used. In other words, if the matching degrees of the two template image data are Lv1 and Lv2, the representative points of the cut-out image data are (w = (w1 · Lv1 + w2 · Lv2) / (Lv1 + Lv2), h = (h1 · Lv1 + h2 · Lv2) / (Lv1 + Lv2)). In this case, the representative point of the cut-out image data is set at a position close to the representative point associated with the template image data having a high degree of coincidence.
このように、複数のテンプレート画像データを選定し、それぞれに対応付けされている代表点を平均化することで、同図に示したような、どのテンプレート画像データにも完全に一致しない複雑な形状を有するエコー画像が切り出しされた場合であっても、複数のテンプレート画像データを融合したような新たなテンプレート画像データの代表点を算出する態様となり、記憶しておくテンプレート画像データの数を増やさなくとも高精度に代表点を定めることができる。 In this way, by selecting a plurality of template image data and averaging the representative points associated with each, a complicated shape that does not completely match any template image data as shown in the figure Even when an echo image having a cut-out is cut out, a representative point of new template image data such as a fusion of a plurality of template image data is calculated, and the number of template image data to be stored is not increased. In both cases, the representative points can be determined with high accuracy.
なお、位置データが複数画素からなるある領域を示す情報である場合、図7に示すように、選定した複数のテンプレート画像データのそれぞれに対応付けられている位置データの重複位置を代表点(代表位置)とすることも可能である。例えば、一方の位置データが、画像左端からの座標w1と画素数wx1、および画像上端からの座標h1と画素数hy1を示し、他方の位置データが、画像左端からの座標w2と画素数wx2、および画像上端からの座標h2と画素数hy2を示す場合、切り出した画像データの代表位置を画面左端からの座標w2、画素数wx3(=w1+wx1−w2)、画面上端からの座標h1、画素数hy3(=h2+hx2−h1)として設定する。 When the position data is information indicating a certain area composed of a plurality of pixels, as shown in FIG. 7, the overlapping position of the position data associated with each of the selected plurality of template image data is represented by a representative point (representative). Position). For example, one position data indicates the coordinates w1 and the number of pixels wx1 from the left end of the image, and the coordinates h1 and the number of pixels hy1 from the upper end of the image, and the other position data includes the coordinates w2 and the number of pixels wx2 from the left end of the image. When the coordinates h2 from the upper end of the image and the number of pixels hy2 are shown, the representative position of the clipped image data is the coordinate w2 from the left end of the screen, the number of pixels wx3 (= w1 + wx1-w2), the coordinate h1 from the upper end of the screen, the number of pixels hy3. Set as (= h2 + hx2-h1).
なお、図4および図7に示した例では、所定の条件として、一致度がしきい値以上であるものを選定する例を示したが、例えば「一致度の高い上位2つ」を選定する等、他の条件を設定してもよい。また、選定するテンプレート画像データの数は2つに限らず、さらに複数のテンプレート画像データを選定してもよい。 In the example shown in FIG. 4 and FIG. 7, an example in which the degree of coincidence is equal to or higher than the threshold value is selected as the predetermined condition. For example, “the top two having the highest degree of coincidence” is selected. For example, other conditions may be set. Further, the number of template image data to be selected is not limited to two, and a plurality of template image data may be selected.
さらに、全てのテンプレート画像データを所定の条件を満たしたもの(つまり所定の条件を「全ての値」)として、全てのテンプレート画像データを選定する態様としてもよい。すなわち、高解像度マッチング部174は、マッチングを行う全てのテンプレート画像データについて一致度を算出しているため、全てのテンプレート画像データに対応付けされている代表点の位置の重み付け平均をとる手法である。この場合も、一致度の高いテンプレート画像データの代表点に近い位置が画像データの代表点として設定され、殆ど一致しなかった(一致度の極めて低い)テンプレート画像データは、代表点の位置設定には殆ど寄与しないため、高精度に代表点の位置を設定することができる。 Furthermore, all template image data may be selected by assuming that all template image data satisfy a predetermined condition (that is, the predetermined condition is “all values”). That is, since the high-resolution matching unit 174 calculates the degree of coincidence for all template image data to be matched, it is a method of taking a weighted average of the positions of representative points associated with all the template image data. . Also in this case, a position close to the representative point of the template image data having a high degree of coincidence is set as the representative point of the image data, and the template image data that hardly matched (the degree of coincidence is very low) is set to the position of the representative point. Can hardly set the position of the representative point with high accuracy.
11…アンテナ
12…受信部
13…A/D変換器
14…スイープメモリ
15…画像データ生成部
16…画像メモリ
17…画像処理部
171…目標切り出し部
172…解像度変換部
173…低解像度マッチング部
174…高解像度マッチング部
175…代表点設定部
18…表示器
DESCRIPTION OF SYMBOLS 11 ... Antenna 12 ... Reception part 13 ... A / D converter 14 ... Sweep memory 15 ... Image data generation part 16 ... Image memory 17 ... Image processing part 171 ... Target clipping part 172 ... Resolution conversion part 173 ... Low resolution matching part 174 ... High-resolution matching unit 175 ... Representative point setting unit 18 ... Display
Claims (12)
入力された画像データと前記各テンプレート画像データとをそれぞれ比較して一致度を算出し、前記一致度が所定の条件を満たすテンプレート画像データを選定する選定手段と、
前記選定手段で選定されたテンプレート画像データに対応付けられている位置データに基づいて、入力された画像データの代表位置を出力する設定手段と、
を備えた画像処理装置。 Storage means for storing a plurality of template image data and position data indicating representative positions of the template image data in association with each other;
A selection means for comparing the inputted image data with each of the template image data to calculate a degree of coincidence, and selecting template image data in which the degree of coincidence satisfies a predetermined condition;
Setting means for outputting a representative position of the input image data based on the position data associated with the template image data selected by the selection means;
An image processing apparatus.
前記記憶手段は、前記複数のテンプレート画像データについて、それぞれ異なる解像度を有するテンプレート画像データを記憶し、
前記選定手段は、前記変換手段で変換された低解像度の画像データと、低解像度のテンプレート画像データの一致度を算出してテンプレート画像データを選定する低解像度選定処理と、
前記低解像度選定処理において比較した画像データよりも高解像度の画像データと、前記低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データと、の一致度を算出して、前記低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データを選定する高解像度選定処理と、を行う請求項1に記載の画像処理装置。 Conversion means for converting the input image data to a lower resolution than the resolution of the input image data,
The storage means stores template image data having different resolutions for the plurality of template image data,
The selection means is a low resolution selection process for selecting the template image data by calculating the degree of coincidence between the low resolution image data converted by the conversion means and the low resolution template image data,
The degree of coincidence between the image data having a higher resolution than the image data compared in the low resolution selection process and the template image data having a higher resolution than the template image data selected in the low resolution selection process is calculated. The image processing apparatus according to claim 1, wherein high resolution selection processing is performed for selecting template image data having a higher resolution than the template image data selected in the resolution selection processing.
前記設定手段は、前記選定手段で選定された複数のテンプレート画像データのそれぞれに対応付けられている位置データに基づいて、入力された画像データの代表位置を設定する請求項1または請求項2に記載の画像処理装置。 The selecting means selects a plurality of template image data in which the degree of coincidence satisfies a predetermined condition,
The setting means sets a representative position of input image data based on position data associated with each of a plurality of template image data selected by the selection means. The image processing apparatus described.
前記選定手段は、前記多値化された各画素のデータを前記テンプレート画像データの各画素と比較することにより、前記一致度を算出する請求項1乃至請求項4のいずれかに記載の画像処理装置。 The image data is multi-valued data for each pixel,
The image processing according to any one of claims 1 to 4, wherein the selection unit calculates the degree of coincidence by comparing the data of each of the multivalued pixels with each pixel of the template image data. apparatus.
前記選定手段は、2値化された各画素の一致数に応じて一致度を算出する請求項1乃至請求項4のいずれかに記載の画像処理装置。 Binarizing means for binarizing each pixel of the image data;
5. The image processing apparatus according to claim 1, wherein the selection unit calculates the degree of coincidence according to the number of coincidence of each binarized pixel.
前記設定手段が設定した代表位置を入力する代表位置入力手段と、
前記画像データの対応する位置に前記代表位置入力手段から入力した代表位置を表示する表示手段と、を備えた画像表示装置。 An image processing apparatus according to any one of claims 1 to 6,
Representative position input means for inputting the representative position set by the setting means;
An image display device comprising: display means for displaying a representative position input from the representative position input means at a corresponding position of the image data.
送信した電磁波のエコー信号を受信して、受信強度に応じた画像データを前記選定手段に入力する物標探知手段と、
前記設定手段が設定した代表位置を入力する代表位置入力手段と、
前記画像データの対応する位置に前記代表位置入力手段から入力した代表位置を表示する表示手段と、を備えたレーダ装置。 An image processing apparatus according to any one of claims 1 to 6,
A target detection means for receiving an echo signal of the transmitted electromagnetic wave and inputting image data corresponding to the received intensity to the selection means;
Representative position input means for inputting the representative position set by the setting means;
A radar apparatus comprising: display means for displaying a representative position input from the representative position input means at a position corresponding to the image data.
入力された画像データと前記各テンプレート画像データとをそれぞれ比較して一致度を算出し、前記一致度が所定の条件を満たすテンプレート画像データを選定する選定ステップと、
前記選定ステップで選定されたテンプレート画像データに対応付けられている位置データに基づいて、入力された画像データの代表位置を出力する代表位置設定ステップと、
を備えた画像処理方法。 A storage step of storing a plurality of template image data and position data indicating representative positions of the template image data in association with each other;
A selection step of comparing the input image data with each of the template image data to calculate a degree of coincidence, and selecting template image data in which the degree of coincidence satisfies a predetermined condition;
A representative position setting step for outputting a representative position of the input image data based on the position data associated with the template image data selected in the selection step;
An image processing method comprising:
前記記憶ステップは、前記複数のテンプレート画像データについて、それぞれ異なる解像度を有するテンプレート画像データを記憶し、
前記選定ステップは、前記変換ステップで変換された低解像度の画像データと、低解像度のテンプレート画像データの一致度を算出してテンプレート画像データを選定する低解像度選定ステップと、
前記低解像度選定ステップにおいて比較した画像データよりも高解像度の画像データと、前記低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データと、の一致度を算出して、前記低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データを選定する高解像度選定ステップと、を行う請求項10に記載の画像処理方法。 The selection step includes a conversion step of converting the input image data to a lower resolution than the resolution of the input image data,
The storing step stores template image data having different resolutions for the plurality of template image data,
The selecting step calculates the degree of coincidence between the low-resolution image data converted in the converting step and the low-resolution template image data, and selects the template image data; and
The degree of coincidence between the image data having a higher resolution than the image data compared in the low resolution selection step and the template image data having a higher resolution than the template image data selected in the low resolution selection process is calculated. The image processing method according to claim 10, wherein a high resolution selection step of selecting template image data having a higher resolution than the template image data selected in the resolution selection process is performed.
入力された画像データと前記各テンプレート画像データとをそれぞれ比較して一致度を算出し、前記一致度が所定の条件を満たすテンプレート画像データを選定する選定ステップと、
前記選定ステップで選定されたテンプレート画像データに対応付けられている位置データに基づいて、入力された画像データの代表位置を出力する代表位置設定ステップと、
を画像処理装置に実行させる画像処理プログラム。 A storage step of storing a plurality of template image data and position data indicating representative positions of the template image data in association with each other;
A selection step of comparing the input image data with each of the template image data to calculate a degree of coincidence, and selecting template image data in which the degree of coincidence satisfies a predetermined condition;
A representative position setting step for outputting a representative position of the input image data based on the position data associated with the template image data selected in the selection step;
An image processing program for causing an image processing apparatus to execute the above.
前記記憶ステップは、前記複数のテンプレート画像データについて、それぞれ異なる解像度を有するテンプレート画像データを記憶し、
前記選定ステップは、前記変換ステップで変換された低解像度の画像データと、低解像度のテンプレート画像データの一致度を算出してテンプレート画像データを選定する低解像度選定ステップと、
前記低解像度選定ステップにおいて比較した画像データよりも高解像度の画像データと、前記低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データと、の一致度を算出して、前記低解像度選定処理において選定したテンプレート画像データよりも高解像度のテンプレート画像データを選定する高解像度選定ステップと、を行う請求項11に記載の画像処理プログラム。 The selection step includes a conversion step of converting the input image data to a lower resolution than the resolution of the input image data,
The storing step stores template image data having different resolutions for the plurality of template image data,
The selecting step calculates the degree of coincidence between the low-resolution image data converted in the converting step and the low-resolution template image data, and selects the template image data; and
The degree of coincidence between the image data having a higher resolution than the image data compared in the low resolution selection step and the template image data having a higher resolution than the template image data selected in the low resolution selection process is calculated. The image processing program according to claim 11, wherein a high resolution selection step of selecting template image data having a higher resolution than the template image data selected in the resolution selection process is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010019916A JP2011158346A (en) | 2010-02-01 | 2010-02-01 | Image processing device, radar device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010019916A JP2011158346A (en) | 2010-02-01 | 2010-02-01 | Image processing device, radar device, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011158346A true JP2011158346A (en) | 2011-08-18 |
Family
ID=44590417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010019916A Pending JP2011158346A (en) | 2010-02-01 | 2010-02-01 | Image processing device, radar device, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011158346A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019175451A (en) * | 2018-03-29 | 2019-10-10 | トヨタ自動車株式会社 | Real-time detection of traffic situation |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05281331A (en) * | 1992-03-31 | 1993-10-29 | Japan Radio Co Ltd | Track display device |
JPH05288846A (en) * | 1992-04-15 | 1993-11-05 | Japan Radio Co Ltd | Target tracking apparatus |
JPH06123769A (en) * | 1992-10-12 | 1994-05-06 | Japan Radio Co Ltd | Wake display |
JP2000215319A (en) * | 1999-01-22 | 2000-08-04 | Canon Inc | Method and device for extracting image, and storage medium |
JP2002107450A (en) * | 2000-09-28 | 2002-04-10 | Toshiba Corp | Radar system and radar signal processing device |
JP2003099775A (en) * | 2002-08-21 | 2003-04-04 | Mitsubishi Electric Corp | Image processor |
JP2003208614A (en) * | 2002-01-15 | 2003-07-25 | Fuji Photo Film Co Ltd | Image processing device and program |
JP2003337170A (en) * | 2002-03-14 | 2003-11-28 | Furuno Electric Co Ltd | Radar and radar signal processor |
JP2004362186A (en) * | 2003-06-04 | 2004-12-24 | Juki Corp | Template matching method and device |
JP2006153772A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Surveying equipment |
JP2007004522A (en) * | 2005-06-24 | 2007-01-11 | Renesas Technology Corp | Storage device |
JP2008151607A (en) * | 2006-12-15 | 2008-07-03 | Juki Corp | Method and apparatus for positioning mark using template matching |
JP2009146190A (en) * | 2007-12-14 | 2009-07-02 | Konica Minolta Holdings Inc | Image processor |
-
2010
- 2010-02-01 JP JP2010019916A patent/JP2011158346A/en active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05281331A (en) * | 1992-03-31 | 1993-10-29 | Japan Radio Co Ltd | Track display device |
JPH05288846A (en) * | 1992-04-15 | 1993-11-05 | Japan Radio Co Ltd | Target tracking apparatus |
JPH06123769A (en) * | 1992-10-12 | 1994-05-06 | Japan Radio Co Ltd | Wake display |
JP2000215319A (en) * | 1999-01-22 | 2000-08-04 | Canon Inc | Method and device for extracting image, and storage medium |
JP2002107450A (en) * | 2000-09-28 | 2002-04-10 | Toshiba Corp | Radar system and radar signal processing device |
JP2003208614A (en) * | 2002-01-15 | 2003-07-25 | Fuji Photo Film Co Ltd | Image processing device and program |
JP2003337170A (en) * | 2002-03-14 | 2003-11-28 | Furuno Electric Co Ltd | Radar and radar signal processor |
JP2003099775A (en) * | 2002-08-21 | 2003-04-04 | Mitsubishi Electric Corp | Image processor |
JP2004362186A (en) * | 2003-06-04 | 2004-12-24 | Juki Corp | Template matching method and device |
JP2006153772A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Surveying equipment |
JP2007004522A (en) * | 2005-06-24 | 2007-01-11 | Renesas Technology Corp | Storage device |
JP2008151607A (en) * | 2006-12-15 | 2008-07-03 | Juki Corp | Method and apparatus for positioning mark using template matching |
JP2009146190A (en) * | 2007-12-14 | 2009-07-02 | Konica Minolta Holdings Inc | Image processor |
Non-Patent Citations (1)
Title |
---|
青木 義満: "画像処理入門テキスト", 画像処理入門テキスト 〜マシンビジョンにおけるパターン検出手法〜, JPN6014034462, April 2008 (2008-04-01), JP, ISSN: 0002878263 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019175451A (en) * | 2018-03-29 | 2019-10-10 | トヨタ自動車株式会社 | Real-time detection of traffic situation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011145069A (en) | Method and device for reducing fake image, radar apparatus, and fake image reduction program | |
JP5731800B2 (en) | Target detection method, target detection program, target detection apparatus, and radar apparatus | |
CN102540149B (en) | Echo display device, echo display packing | |
JP2011095215A (en) | Signal processing device, radar device, and program and method for processing signal | |
US8593335B2 (en) | Method and device for processing echo signal, radar device and echo signal processing program | |
GB2467641A (en) | Rain or snow detection using radar | |
WO2013084866A1 (en) | Image processing apparatus, radar apparatus, image processing method, and image processing program | |
JP2012132687A (en) | Target detection method, target detection program, target detection device, and radar device | |
JP2009075093A (en) | Radar device | |
WO2019058836A1 (en) | Radar device and target tracking method | |
WO2014064967A1 (en) | Information processing device, information processing system, and program | |
JP2012112672A (en) | Signal processor, radar device, signal processing method and signal processing program | |
JP2010181985A (en) | Ship-loaded marine navigation support system | |
JP2012112671A (en) | Detection device, radar device, detection method and detection program | |
US10365360B2 (en) | Radar apparatus | |
JP5025415B2 (en) | Radar equipment | |
JP2011158346A (en) | Image processing device, radar device, image processing method, and image processing program | |
JP6526531B2 (en) | Radar equipment | |
JP6240671B2 (en) | Sensor information output device, sensor video display device, detection device, and sensor information output method | |
WO2016072208A1 (en) | Detection information display device, radar device, sonar device, fish detection device, and detection information display method | |
CN115439509A (en) | Multi-target tracking method and device, computer equipment and storage medium | |
US20070126624A1 (en) | Radar apparatus or like | |
JPWO2017163716A1 (en) | Radar device and wake display method | |
JP4347947B2 (en) | Radar equipment and similar equipment | |
JP6602606B2 (en) | Representative still image determining device for determining representative still image, program, radar device, and aircraft equipped with radar device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141111 |