WO2016084498A1 - 追尾処理装置及び追尾処理方法 - Google Patents

追尾処理装置及び追尾処理方法 Download PDF

Info

Publication number
WO2016084498A1
WO2016084498A1 PCT/JP2015/078625 JP2015078625W WO2016084498A1 WO 2016084498 A1 WO2016084498 A1 WO 2016084498A1 JP 2015078625 W JP2015078625 W JP 2015078625W WO 2016084498 A1 WO2016084498 A1 WO 2016084498A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking
target
congestion
echo
unit
Prior art date
Application number
PCT/JP2015/078625
Other languages
English (en)
French (fr)
Inventor
弘行 野村
中川 和也
Original Assignee
古野電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 古野電気株式会社 filed Critical 古野電気株式会社
Priority to US15/528,700 priority Critical patent/US10585184B2/en
Priority to EP15862592.1A priority patent/EP3226025A4/en
Priority to CN201580059386.6A priority patent/CN107110967B/zh
Priority to JP2016561449A priority patent/JP6334730B2/ja
Publication of WO2016084498A1 publication Critical patent/WO2016084498A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/44Monopulse radar, i.e. simultaneous lobing
    • G01S13/449Combined with MTI or Doppler processing circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/22Producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Definitions

  • the present invention relates to a tracking processing device and a tracking processing method for tracking a tracking target.
  • the motion state of a target as a tracking target is estimated, and the target is tracked based on the motion state.
  • the target to be tracked can be accurately detected from the plurality of targets.
  • the target to be tracked when the target to be tracked is tracked as described above, the target may not be accurately tracked depending on the environment around the target.
  • the present invention is for solving the above-mentioned problems, and its purpose is to accurately track the tracking target regardless of the surrounding environment.
  • a tracking processing device includes a tracking processing unit that performs processing for tracking a tracking target, and an object that is present in an area including the predicted position of the tracking target.
  • a congestion degree calculation unit that calculates a congestion degree that is a degree of congestion of the target, and the tracking processing unit tracks the tracking target according to the value of the congestion degree calculated by the congestion degree calculation unit. It is characterized in that the processing is performed.
  • the congestion degree calculation unit calculates the congestion degree based on a target number as the number of the target existing in the area.
  • the tracking processing device counts the target number present in each of a plurality of cells into which the area is divided, and the target number counted for each of the plurality of cells is Further comprising an echo distribution generation unit that stores data corresponding to each cell, and the congestion level calculation unit calculates the congestion level of the target existing in the cell including the predicted position of the tracking target. .
  • the congestion degree calculation unit calculates the congestion degree based on the target numbers at a plurality of timings.
  • the congestion degree calculation unit calculates a smooth congestion degree based on the congestion degree at a plurality of timings, and the tracking processing unit calculates the smooth congestion degree calculated by the congestion degree calculation unit. In accordance with the value of, the tracking target is tracked.
  • a gain used when tracking filter processing is performed on an observation position obtained by observing the tracking target is set according to the value of the congestion level.
  • the tracking processing unit includes a selection unit that specifies a selection region that is estimated to have an observation position obtained by observing the tracking target, and the tracking processing unit includes the selection region. Is set according to the value of the degree of congestion.
  • a tracking processing method includes a step of performing processing of tracking a tracking target, and a target existing in an area including the predicted position of the tracking target. Calculating the degree of congestion that is a degree of congestion, and performing the process of tracking the tracking target, performing a process of tracking the tracking target according to the value of the congestion level To do.
  • the tracking target can be accurately tracked regardless of the surrounding environment.
  • FIG. 1 is a block diagram of a radar apparatus including a tracking processing apparatus according to an embodiment of the present invention. It is a typical top view for demonstrating the relationship between the own ship and a target object echo image. It is a data list for demonstrating the data extracted regarding a target echo image (target). It is a typical top view which shows the target echo image detected by the echo detection part. It is a flowchart for demonstrating operation
  • tracking processing device 3 According to the present invention, an embodiment of the tracking processing device 3 according to the present invention will be described with reference to the drawings.
  • the present invention can be widely applied as a tracking processing apparatus that tracks a target selected as a tracking target.
  • a target set as a tracking target is referred to as a “tracking target”.
  • tracking target a target set as a tracking target.
  • FIG. 1 is a block diagram of a radar apparatus 1 including a tracking processing apparatus 3 according to an embodiment of the present invention.
  • the radar apparatus 1 according to the present embodiment is a marine radar provided in a vessel such as a fishing boat.
  • the radar apparatus 1 is mainly used for detecting a target such as another ship. Further, the radar apparatus 1 is configured to be able to track a target selected as a tracking target.
  • the radar apparatus 1 is configured to be able to track a plurality of tracking targets at the same time.
  • the radar apparatus 1 is configured to estimate the motion state of the tracking target.
  • the radar apparatus 1 calculates the smoothing speed of the tracking target as the motion state.
  • the smoothing speed is a vector indicating the traveling direction and the traveling speed estimated for the tracking target.
  • the radar apparatus 1 displays the smoothing speed of the tracking target on the screen.
  • a ship provided with the radar device 1 is referred to as “own ship”.
  • the radar device 1 includes an antenna unit 2, a tracking processing device 3, and a display 4.
  • the antenna unit 2 includes an antenna 5, a receiving unit 6, and an A / D conversion unit 7.
  • the antenna 5 is a radar antenna capable of transmitting a pulsed radio wave having strong directivity.
  • the antenna 5 is configured to receive an echo signal that is a reflected wave from a target. That is, the echo signal of the target is a reflected wave at the target with respect to the transmission signal from the antenna 5.
  • the radar apparatus 1 measures the time from when a pulsed radio wave is transmitted to when an echo signal is received. Thereby, the radar apparatus 1 can detect the distance r to the target.
  • the antenna 5 is configured to be able to rotate 360 ° on a horizontal plane.
  • the antenna 5 is configured to repeatedly transmit and receive radio waves while changing the transmission direction of pulsed radio waves (changing the antenna angle). With the above configuration, the radar apparatus 1 can detect a target on a plane around the ship over 360 °.
  • an operation from transmission of a pulsed radio wave to transmission of the next pulsed radio wave is referred to as “sweep”.
  • the operation of rotating the antenna 360 ° while transmitting / receiving radio waves is called “scan”.
  • a certain scan is referred to as an “n scan”
  • a scan immediately before the n scan is referred to as an “n ⁇ 1 scan”.
  • n is a natural number.
  • the operation of the radar apparatus 1 at the n-scan time point will be described unless the operation is particularly described.
  • the receiving unit 6 detects and amplifies the echo signal received by the antenna 5.
  • the reception unit 6 outputs the amplified echo signal to the A / D conversion unit 7.
  • the A / D converter 7 samples an analog echo signal and converts it into digital data (echo data) consisting of a plurality of bits.
  • the echo data includes data for specifying the intensity (signal level) of the echo signal received by the antenna 5.
  • the A / D converter 7 outputs the echo data to the tracking processing device 3.
  • the tracking processing device 3 identifies a target selected from a plurality of targets as a tracking target, and performs a tracking filter process on an observation position obtained by observing the tracking target, thereby tracking the target It is configured to perform a tracking process for tracking the target. More specifically, the tracking processing device 3 is configured to calculate the smoothing speed of the tracking target, the estimated position (smooth position) of the tracking target, and the like.
  • the tracking processing device 3 is configured using hardware including a CPU, a RAM, a ROM (not shown), and the like.
  • the tracking processing device 3 is configured by using software including a tracking processing program stored in the ROM.
  • the tracking processing program is a program for causing the tracking processing device 3 to execute the tracking processing method according to the present invention.
  • the hardware and software are configured to operate in cooperation. Thereby, the tracking processing device 3 can function as the signal processing unit 9, the echo detection unit 10, the tracking processing unit 11, and the like.
  • the tracking processing device 3 is configured to perform processing described below for each scan.
  • the tracking processing device 3 includes a signal processing unit 9, an echo detection unit (detection unit) 10, a tracking processing unit 11, and a congestion degree calculation processing unit 20.
  • the signal processor 9 removes interference components included in the echo data and unnecessary waveform data by performing filter processing or the like.
  • the signal processing unit 9 is configured to detect feature information of echo data related to the target echo image.
  • the signal processing unit 9 outputs the processed echo data to the echo detection unit 10.
  • the echo detection unit 10 is configured to detect a target echo image and detect feature information of echo data related to the target echo image. That is, the echo detection unit 10 includes a target echo image detection unit and a feature information extraction unit. The signal processing unit 9 and the echo detection unit 10 constitute a detection unit for detecting target feature information.
  • the echo detector 10 obtains the distance r to the position corresponding to the echo data based on the read address when the echo data is read from the signal processor 9. Further, data indicating which direction the antenna 5 is currently facing (antenna angle ⁇ ) is output from the antenna 5 to the echo detector 10. With the above configuration, when the echo detection unit 10 reads the echo data, the echo detection unit 10 can acquire the position corresponding to the echo data with polar coordinates of the distance r and the antenna angle ⁇ .
  • the echo detector 10 is configured to detect whether or not a target exists at a position corresponding to the echo data. For example, the echo detector 10 determines the signal level at the position corresponding to the echo data, that is, the signal intensity. The echo detector 10 determines that a target exists at a position where the signal level is equal to or higher than a predetermined threshold level value.
  • the echo detector 10 detects a range where the target is present. For example, the echo detection unit 10 detects a group of areas where the target is present as an area where the target echo image is present. In this way, the echo detector 10 detects the target echo image based on the echo data.
  • the outline shape of the target echo image substantially matches the outline shape of the target. However, due to noise included in the echo data, the outline shape of the target echo image is slightly different from the outline shape of the target.
  • the echo detector 10 extracts feature information related to the target echo image using the echo data.
  • FIG. 2 is a schematic plan view for explaining the relationship between the ship 100 and the target echo image 120.
  • the target echo image 120 is illustrated as a rectangular image.
  • a target 130 specified by the target echo image 120 is shown.
  • the outline shape of the target 130 is displayed in a state that matches the target echo image 120.
  • a straight line distance from the ship position M1 is indicated as a distance r with respect to the ship position M1 as the position of the ship 100. Is shown as an angle ⁇ .
  • the ship position M ⁇ b> 1 corresponds to the position of the antenna 5.
  • the echo detection unit 10 uses the partial image 110 of the ring-shaped portion centered on the ship position M1.
  • the image 110 is an image of a region surrounded by the first straight line 111, the second straight line 112, the first arc 113, and the second arc 114.
  • the first straight line 111 is a straight line passing through the point closest to the ship position M1 in the rear edge 120a of the target echo image 120 and the ship position M1.
  • the second straight line 112 is a straight line passing through the point closest to the ship position M1 in the front edge 120b of the target echo image 120 and the ship position M1.
  • the first arc 113 is an arc passing through the portion 120c closest to the ship position M1 in the target echo image 120.
  • the center of curvature of the first arc 113 is the ship position M1.
  • the second arc 114 is an arc passing through the portion 120d farthest from the ship position M1 in the target echo image 120.
  • the second arc 114 is concentric with the first arc 113.
  • FIG. 3 is a data list for explaining data extracted with respect to the target echo image 120 (target 130).
  • the signal processing unit 9 and the echo detection unit 10 cooperate with each other to obtain the following 12 pieces of data for the target echo image 120 (target 130): Extracted as feature information data. That is, the echo detector 10 extracts the following 12 pieces of text data based on the echo data and the image data of the target echo image 120.
  • the twelve text data are flag data 201, distance rp data 202, end angle ⁇ e data 203, angular width ⁇ w data 204, and leading edge distance rn data 205.
  • Data 206 of the last edge distance rf and area ar (shape information) Data 207, coordinate data 208 of the representative point P, echo level ec data 209, adjoining distance (information specifying the surrounding state of the target) ad data 210, Doppler shift amount ds data 211, , Data 212 at time tm.
  • the above flag is a flag for specifying whether or not the target echo image 120 is in a predetermined state, for example. This flag is configured to be set to “1” or “0”.
  • the distance rp is a linear distance from the ship position M1 to the representative point P of the target echo image 120.
  • the representative point P is the center point of the image 110.
  • the end angle ⁇ e is the antenna angle ⁇ described above at the time when the detection of the target echo image 120 is completed.
  • the angle width ⁇ w is the width of the target echo image 120 in the angular direction around the ship position M1.
  • the angle width ⁇ w is also an angle formed by the first straight line 111 and the second straight line 112.
  • the forefront edge distance rn is the distance between the portion 120c of the target echo image 120 and the ship position M1.
  • the last edge distance rf is the distance between the portion 120d of the target echo image 120 and the ship position M1.
  • the area ar is an area in the partially shaped image 110 of the ring-shaped portion, and is treated as the area of the target echo image 120 in the present embodiment.
  • the echo level ec indicates the intensity of the echo signal that identifies the target echo image 120.
  • This intensity may be a peak intensity of an echo signal specifying the target echo image 120, or may be an average value of the intensity of the echo signal.
  • the adjacent distance ad is, for example, a distance between two adjacent target echo images 120.
  • the Doppler shift amount ds is, for example, the difference between the frequency of the pulse signal radiated from the antenna 5 and the frequency of the echo signal reflected by the target 130 specified by the target echo image 120. Based on the Doppler shift amount ds, the relative speed between the target 130 specified by the target echo image 120 and the ship 100 can be obtained.
  • Time tm is the time when the target echo image 120 is detected.
  • the data of the echo image 120 may include a spare data area.
  • the signal processing unit 9 and the echo detection unit 10 extract the 12 pieces of feature information for each target echo image 120. These twelve pieces of feature information are information represented by numerical values.
  • FIG. 4 is a schematic plan view showing the target echo image 120 detected by the echo detector 10.
  • four target echo images 120 (121, 122, 123, 124) at the time of n scanning are shown.
  • the shape of the target echo image 120 (121, 122, 123, 124) matches the shape of the target 130 (131, 132, 133, 134), respectively.
  • the target 131 specified by the target echo image 121, the target 132 specified by the target echo image 122, and the target 133 specified by the target echo image 123 are, for example, small ships.
  • the target 134 specified by the target echo image 124 is, for example, a large ship.
  • the echo detection unit 10 includes the representative point P1 (n) of the target echo image 121, the representative point P2 (n) of the target echo image 122, and the target echo image 123 as the representative point P at the n scan time point.
  • the representative point P3 (n) and the representative point P4 (n) of the target echo image 124 are detected.
  • a case where the target 131 is the tracking target 140 will be described as an example.
  • the echo detector 10 outputs the feature information data 201 to 212 for each target echo image 120 to the tracking processor 11 and the congestion degree calculator 20.
  • FIG. 5 is a flowchart for explaining the operation of the congestion degree calculation processing unit 20.
  • the configuration and operation of the congestion degree calculation processing unit 20 will be described with reference to FIGS. 1 and 5 and the like.
  • the congestion degree calculation processing unit 20 is configured to calculate a degree of congestion (congestion degree) of a target existing around the predicted position Xp (n) of the tracking target 140.
  • the congestion level calculation processing unit 20 includes an echo distribution generation unit 21 and a congestion level calculation unit 22. As will be described later in detail, the congestion degree calculation processing unit 20 receives the predicted position Xp (n) at the time of n scans of the tracking target calculated by the tracking processing unit 11.
  • FIG. 6 is a diagram schematically showing the echo distribution generated by the echo distribution generation unit 21.
  • N the number of targets (target numbers) included in the cell B whose position on the xy coordinates shown in FIG. 6 is (x, y) during n scans
  • N the number of targets (target numbers) included in the cell B whose position on the xy coordinates shown in FIG. 6 is (x, y) during n scans
  • N the counted target numbers are illustrated by black dots.
  • the coordinate system is the xy coordinate
  • the present invention is not limited to this, and an r ⁇ coordinate system can also be used.
  • the echo distribution generation unit 21 generates a distribution of each target 130 detected by the echo detection unit 10. Specifically, in the echo distribution generation unit 21, referring to FIG. 6, the number of targets 130 existing in each of a plurality of cells B obtained by dividing a predetermined area A on the sea into a lattice shape is expressed as cell B. It is counted every time (step S1 in FIG. 5). At this time, when a smooth target (which will be described in detail later) is not stored corresponding to each cell B (No in step S2), the echo distribution generation unit 21 counts the target 130 counted for each cell B. Are stored in correspondence with each cell B as a smooth target (step S3).
  • the area A for example, a square area having a side of 64 miles can be cited as an example.
  • the cell B for example, a square region having a side of 0.5 mile can be cited as an example.
  • the example which counts the target number for every cell B is given and demonstrated, it is not restricted to this, For example, the value which totaled the area of the target contained in each cell B as an example May be used instead of the above-mentioned target numbers.
  • the echo distribution generation unit 21 stores the smooth target characteristic Ns (corresponding to each cell B). Based on x, y, n-1) and the latest target number N (x, y, n), a smooth target number Ns (x, y, n) is calculated (step S4). Specifically, the echo distribution generation unit 21 calculates a smooth target characteristic Ns (x, y, n) based on the following equation (1).
  • Ns (x, y, n) a 1 ⁇ N (x, y, n) + (1 ⁇ a 1 ) ⁇ Ns (x, y, n ⁇ 1) (1)
  • a 1 is a coefficient represented by 0 ⁇ a 1 ⁇ 1, for example 0.9 as an example.
  • the echo distribution generation unit 21 uses the smooth target characteristic Ns (x, x, y, n ⁇ 1) stored corresponding to each cell B so far as the latest smooth target characteristic Ns (x, y, n ⁇ 1). , Y, t) and stored (step S5).
  • the congestion degree calculation unit 22 calculates the degree of congestion C (n) using the smooth target characteristic Ns (x, y, n) of the cell B including the predicted position Xp (n) of the tracking target 140 (step) S6).
  • the congestion degree calculation unit 22 is a smoothness degree C stored in correspondence with the cell B, which is the degree of congestion of the cell B calculated in the past.
  • a smooth congestion degree Cs (n) is calculated (step S7). Specifically, the congestion degree calculation unit 22 calculates a smooth congestion degree Cs (n) based on the following equation (2). Then, the congestion degree calculation unit 22 replaces the previously stored smooth congestion degree Cs (n ⁇ 1) with the recently calculated smooth congestion degree Cs (n) (step S8).
  • a 2 is a coefficient represented by 0 ⁇ a 2 ⁇ 1, and is, for example, 0.9.
  • the smoothness congestion level Cs (n) calculated by the congestion level calculation unit 22 is notified to the tracking processing unit 11 (step S9).
  • the tracking processing unit 11 performs a tracking process according to the value of the smoothness congestion degree Cs (n) notified from the congestion degree calculation unit 22.
  • the tracking processing unit 11 is configured to identify the tracking target 140 from among the plurality of targets 130 and perform the tracking process of the tracking target 140.
  • the tracking target 140 is selected by the operator based on, for example, symbols indicating the plurality of targets 130 displayed on the display 4.
  • the selection command of the tracking target 140 by the operator is issued, for example, when the operator operates an operating device (not shown).
  • the tracking processing unit 11 is configured to perform processing based on the XY coordinate system unless otherwise specified.
  • the tracking processing unit 11 is configured to calculate the smoothing speed Vs (n) of the tracking target 140 at the n scanning time point (latest scanning time point).
  • the tracking processing unit 11 is configured to display the smoothing speed Vs (n) on the display 4.
  • the tracking processing unit 11 includes a feature information memory 12, a selection unit 13, an association unit 14, and a motion estimation unit 15.
  • the feature information memory 12 is configured to store data output from the signal processing unit 9 and the echo detection unit 10.
  • the feature information memory 12 stores feature information data 201 to 212 for all target echo images 120 at each time point from the (n ⁇ T) scan time point to the n scan time point.
  • the constant T is a preset value, for example, about several tens.
  • the sorting unit 13 is configured to perform an echo sorting process. Specifically, the selection unit 13 specifies an area where the observation position Xo (n) (the tracking representative point of the tracking target 140) is estimated to exist at the n scanning time point (latest scanning time point).
  • the selection unit 13 refers to the coordinate data of the predicted position Xp (n) calculated by the motion estimation unit 15 for the tracking target 140. That is, the selection unit 13 acquires the coordinate data of the predicted position Xp (n) where the tracking representative point P is estimated to exist at the n scan time point.
  • the selection unit 13 sets a selection region S (n) centered on the predicted position Xp (n).
  • the selection region S (n) is, for example, a circular region centered on the predicted position Xp (n).
  • the associating unit 14 searches the selection area S (n).
  • the selection unit 13 determines the range of the selection region S (n) according to the value of the smoothness congestion level Cs (n) calculated by the congestion level calculation unit 22. Specifically, sorting unit 13, for example, as an example, when smoothness congestion Cs (n) is a predetermined threshold value N 4 or less, to set the radius of the selection area S (n) as r1. On the other hand, selection unit 13, if the smoothness congestion degree Cs (n) exceeds a predetermined threshold value N 4, the radius of the selection area S (n), is set as r2 smaller than r1.
  • the associating unit 14 tracks the observed position Xo (n) of the tracking target 140 from the tracking representative points P of one or more target echo images existing in the selection area S (n). It is specified based on the likelihood of each tracking representative point P calculated from target information (echo area, position error, etc.).
  • the highest tracking representative point P is output to the motion estimation unit 15 as the observation position Xo (n) of the tracking target 140.
  • the likelihood Lh n described above is the degree that each tracking representative point P indicates the likelihood of being the tracking representative point P of the tracking target, and the tracking target feature amount and the selection area S (n ) Is calculated based on the feature amount of each target existing in parentheses.
  • An example of the feature amount here is an echo area of a target.
  • the association unit 14 determines the value of the threshold value Na n according to the value of the smoothness congestion Cs (n). Specifically, the associating unit 14, for example, when smoothness congestion Cs (n) is 5 or greater than a predetermined threshold value N, increase the value of the threshold Na n. On the other hand, if the smoothness congestion Cs (n) is smaller than the predetermined threshold value N 5, to lower the threshold value Na n.
  • the motion estimation unit 15 is configured to perform tracking processing of the tracking target 140 in the XY coordinate system.
  • the motion estimation unit 15 performs the tracking process of the tracking target 140 using a coordinate system in which the orientation with respect to the surface of the earth is constant.
  • the motion estimator 15 is provided for smoothing the influence of observation errors (errors caused by shake or the like that occurs when the antenna 5 rotates).
  • the motion estimation unit 15 performs ⁇ - ⁇ filter processing as tracking filter processing.
  • the motion estimation unit 15 is configured to calculate a predicted position Xp (n), a smooth position Xs (n), and a smooth speed Vs (n) of the tracking target 140.
  • the motion estimation unit 15 calculates the following formulas (3), (4), and (5).
  • Predicted position Xp (n) Xs (n ⁇ 1) + T ⁇ Vs (n ⁇ 1) (3)
  • Smooth position Xs (n) Xp (n) + ⁇ ⁇ Xo (n) ⁇ Xp (n) ⁇ (4)
  • Smoothing speed Vs (n) Vs (n ⁇ 1) + ( ⁇ / T) ⁇ Xo (n) ⁇ Xp (n) ⁇ (5)
  • the smooth position Xs (n) indicates a position associated with the predicted position Xp (n) and the observation position Xo (n) at the n-scan time point.
  • the smooth position Xs (n) indicates a position where the tracking representative point P1 of the tracking target 140 is estimated to have reached at the n scan time point.
  • the smoothing speed Vs (n) indicates the estimated speed of the tracking representative point P1 at the n scan time point.
  • T is the time elapsed from the time when the motion estimation unit 15 performs the previous smoothing process until the above smoothing process is performed, and corresponds to the time required for one scan.
  • is a gain used to calculate the smooth position Xs (n).
  • is a gain used to calculate the smoothing speed Vs (n).
  • the gain ⁇ has a component ⁇ x in the X-axis direction and a component ⁇ y in the Y-axis direction.
  • the gain ⁇ can also be expressed as a gain ⁇ ( ⁇ x, ⁇ y).
  • the component ⁇ x is used when calculating the component in the X-axis direction in the above equation (4).
  • the component ⁇ y is used when calculating the component in the Y-axis direction in the above equation (4).
  • the gain ⁇ has a component ⁇ x in the X-axis direction and a component ⁇ y in the Y-axis direction.
  • the gain ⁇ can also be expressed as a gain ⁇ ( ⁇ x, ⁇ y).
  • the component ⁇ x is used when calculating the component in the X-axis direction in the above equation (5).
  • the component ⁇ y is used when calculating the component in the Y-axis direction in the above equation (5).
  • the smooth position Xs (n) is located on a line segment LS1 connecting the predicted position Xp (n) and the observation position Xo (n).
  • the smoothed position Xs (n) is closer to the predicted position Xp (n) as the gain ⁇ is smaller. Further, the smaller the gain ⁇ , the smaller the amount of change in the smoothing speed Vs (n). For this reason, the degree of smoothing of the calculation result in the motion estimation unit 15 increases, and the amount of variation due to the observation error of the tracking target 140 decreases. However, the response at the time of reflecting the changing needle movement of the tracking representative point P1 of the tracking target 140 in the calculation result of the movement estimation unit 15 becomes slower as the gains ⁇ and ⁇ are smaller.
  • the motion estimation unit 15 can reflect the needle changing motion of the tracking representative point P1 of the tracking target 140 with high responsiveness in the tracking filter processing. For this reason, the motion estimation unit 15 can improve the followability of the tracking target 140 with respect to the needle changing motion.
  • the changing needle movement is a movement that changes the direction of the tracking target 140.
  • the larger the gains ⁇ and ⁇ the larger the amount of fluctuation at each scanning time with respect to the smooth position Xs (n) and the smooth speed Vs (n).
  • the motion estimation unit 15 sets the values of the gains ⁇ and ⁇ according to the value of the smoothness congestion level Cs (n) notified from the congestion level calculation unit 22.
  • the gains ⁇ and ⁇ are expressed as follows, for example, according to the relationship between the thresholds N 1 to N 3 (0 ⁇ N 3 ⁇ N 2 ⁇ N 1 ) and the smoothness congestion degree Cs (n). Can do.
  • ⁇ 1 and ⁇ 1 are predetermined constants.
  • the smoothness congestion level is very high (N 1 ⁇ Cs (n) in the case of the present embodiment), it is estimated that there are many targets near the predicted position of the tracking target.
  • the association process by the association unit 14 when the association process by the association unit 14 is performed, there is a high possibility that the tracking target will transfer from the target to be originally tracked to another target (so-called transfer may occur). Therefore, under such a situation where there is a high possibility of transfer, it is possible to prevent the transfer of the tracking target by setting the gains ⁇ and ⁇ to 0 and performing so-called predictive tracking.
  • the predicted tracking is tracking that calculates the predicted position Xp (n) as a smooth position without considering the observation position Xo (n) when calculating the smooth position Xs (n).
  • the values of the gains ⁇ and ⁇ are the balance of both the reduction of the risk of transfer of the tracking target and the securing of the tracking performance with respect to the tracking target.
  • the motion estimation unit 15 sends the data calculated using the gains ⁇ and ⁇ appropriately set according to the smoothness congestion level as described above to the selection unit 13, the congestion level calculation processing unit 20, and the display 4. Output. Specifically, the motion estimation unit 15 outputs the coordinate data of the predicted position Xp (n) to the selection unit 13 and the congestion degree calculation processing unit 20. In the sorting unit 13, the data is used for sorting processing at the (n + 1) scan time point. On the other hand, in the congestion degree calculation processing unit 20, the data is used to specify the cell B that is the calculation target of the congestion degree. Further, the motion estimation unit 15 outputs data specifying the smooth position Xs (n) and the smooth speed Vs (n) to the display 4.
  • the display 4 is a liquid crystal display capable of color display, for example.
  • the display 4 displays each target echo image 120 on the display screen using the image data of each target echo image 120. Further, the display 4 displays the smoothing speed Vs (n) as an image. As a result, an image indicating the smoothing speed Vs (n) is displayed on the display screen of the display 4 for the tracking target 140 (target echo image 121).
  • the operator of the radar apparatus 1 can confirm the motion state of the tracking target 140 by confirming the radar image displayed on the display 4.
  • the tracking processing unit exists in the area (cell B in the present embodiment) including the predicted position Xp (n) of the tracking target 140.
  • Tracking processing is performed according to the degree of congestion of the target (in the case of the present embodiment, smoothness congestion degree Cs (n)).
  • the predictive tracking is performed under a situation where the possibility of transfer is high, that is, a situation where the smoothness congestion level Cs (n) is high, it is possible to prevent the transfer.
  • the possibility of transfer is low
  • tracking processing with high followability with respect to the needle movement of the tracking target is performed.
  • the tracking target can be accurately tracked regardless of the surrounding environment.
  • the tracking processing device 3 calculates the congestion degree (smooth congestion degree Cs (n)) based on the target number of the target existing in the area including the predicted position Xp (n) of the tracking target 140. Therefore, the congestion degree can be calculated appropriately.
  • the degree of congestion can be calculated based on the target numbers at a plurality of timings.
  • the target number of the target whose echo intensity is around the threshold value calculated as the target is averaged over time, so the degree of congestion varies greatly from timing to timing. Can be suppressed.
  • the smoothness congestion degree can be calculated based on the congestion degree at a plurality of timings. In this way, as in the case described above, the congestion degree calculated based on the target number of the target whose echo intensity is around the threshold value calculated as the target is averaged over time. It is possible to suppress the degree of congestion from fluctuating greatly at each timing.
  • the gains ⁇ and ⁇ used when the tracking filter processing is performed are set according to the value of the smoothness congestion level Cs (n). Specifically, when the possibility of transfer is high (when the smoothness congestion level Cs (n) is high), the gains ⁇ and ⁇ are set to low values. Thereby, since so-called predictive tracking is performed, it is possible to reduce the possibility that the tracking target is transferred from the target to be originally tracked to another target. On the other hand, when the possibility of transfer is low (when the smoothness congestion level Cs (n) is low), the gains ⁇ and ⁇ are set to high values. As a result, it is possible to perform a tracking process with high followability with respect to the changing needle movement of the tracking target.
  • the area of the selection region S (n) is set according to the value of the smoothness congestion level Cs (n). Specifically, when the possibility of transfer is high (when the smoothness congestion level Cs (n) is high), the area of the selection region S (n) is set small. Thereby, since the candidate of the target which can become a tracking object can be narrowed down, the danger of transfer can be reduced. On the other hand, when the possibility of transfer is low (when the smoothness congestion Cs (n) is low), the area of the selection region S (n) is set large. As a result, even a tracking target that has changed significantly can be set as a candidate for a target that can be a tracking target, so that tracking processing with high tracking ability with respect to the changing movement of the tracking target can be performed.
  • the tracking processing unit 3, the value of the threshold Na n used in the associating unit 14 is set according to the value of the smoothness congestion Cs (n).
  • the threshold value Na n is set larger.
  • the threshold value Na n is set smaller.
  • the target number counted during a certain scan is the target number corresponding to each scan, but is not limited thereto.
  • a target value corresponding to each scan may be a value obtained by averaging the target count counted at each scan and the target count counted at other scans before and after the scan. .
  • the values of the gains ⁇ and ⁇ are set stepwise according to the relationship between the value of the smoothness congestion level Cs (n) and the values of the thresholds N 1 to N 3.
  • the values of the gains ⁇ and ⁇ may be set so that the values of the gains ⁇ and ⁇ change linearly according to the value of the smoothness congestion degree Cs (n).
  • the values of the gains ⁇ and ⁇ can be expressed as follows, for example.
  • Gain alpha by setting using the formula described above the beta, the gain alpha, beta value when the value of the smoothness congestion Cs (n) is the N 1 or more, the value of the smoothness congestion Cs (n) It can be changed linearly accordingly. Thereby, the gains ⁇ and ⁇ values can be set more appropriately according to the value of the smoothness congestion level Cs (n).
  • the range of the selection area S (n) was set stepwise in accordance with the relationship between the value and the threshold value N 4 of smoothness congestion Cs (n), this shall not apply. Specifically, as in the case described above, the range of the selection region S (n) so that the range of the selection region S (n) changes linearly according to the value of the smoothness congestion degree Cs (n). May be set.
  • FIG. 7 is a schematic diagram for explaining a congestion degree calculation method calculated by the congestion degree calculation unit 22 of the tracking processing device according to the modification.
  • FIG. 7 shows a cell B near the predicted position Xp (n) of the tracking target among the plurality of cells B (see FIG. 6).
  • the smooth target number Ns (n) in the cell B including the predicted position Xp (n) of the tracking target is calculated as the congestion degree C (n).
  • the present invention is not limited to this.
  • the degree of congestion C (n) is calculated using linear interpolation.
  • the congestion degree calculation unit 22 calculates the congestion degree C (n)
  • the following conditions among the smooth target characteristics Ns (n) stored corresponding to the plurality of cells B are satisfied.
  • the smooth target characteristic Ns (n) of the cell B to be filled is used.
  • the congestion degree C (n) is determined based on four cells B in which the predicted position Xp (n) is included in a square area surrounded by the center points CP 1 to CP 4.
  • the smooth target characteristic Ns (n) (Ns 1 (n) to Ns 4 (n) in FIG. 7) stored corresponding to each of (in FIG. 7, B 1 to B 4 ) (6).
  • the congestion degree calculation unit 22 of the present modification uses the smoothness congestion degree C (n ⁇ 1) stored so far as the smoothness congestion degree C (n) calculated most recently. Replace and remember.
  • Ns ′ (n) Ns 1 (n) ⁇ (1 ⁇ x) + Ns 2 (n) ⁇ ⁇ x
  • Ns ′′ (n) Ns 3 (n) ⁇ (1 ⁇ x) + Ns 4 (n) ⁇
  • ⁇ x is the x-axis direction component of the distance from CP 1 to Xp (n) with respect to the distance from CP 1 to CP 2 (ie, the distance from CP 3 to CP 4 ) (ie, (X-axis direction component of the distance from CP 3 to Xp (n))
  • ⁇ y is the CP to the distance from CP 1 to CP 3 (ie, the distance from CP 2 to CP 4 ).
  • 3 is the ratio of the y-axis direction component of the distance from 3 to Xp (n) (that is, the y-axis direction component of the distance from CP 4 to Xp (n)).
  • the smoothness degree C (n) calculated as described above is notified to the tracking processing unit 11 as in the case of the above embodiment. And the tracking process part 11 performs the tracking process according to the value of the smooth congestion degree C (n) similarly to the case of the said embodiment.
  • the tracking target can be accurately tracked regardless of the surrounding environment, as in the case of the tracking processing device according to the above-described embodiment.
  • the degree of congestion is calculated using linear interpolation, so the degree of congestion of the target can be calculated more accurately.
  • the smooth target characteristic Ns (x, y, n) in the cell B including the predicted position Xp (n) of the tracking target is calculated as the congestion degree C (n).
  • the target number N (x, y, n) at the time of n scans may be calculated as the congestion degree C (n) without calculating the smooth target number.
  • the range of selection area S (n), the gain alpha has been controlled value of beta, and the threshold value Na n
  • the present invention is not limited to this, and at least one of them may be controlled as a variable according to the degree of congestion.

Abstract

【課題】周囲の環境によらず、追尾対象を正確に追尾する。 【解決手段】追尾対象を追尾する処理を行う追尾処理部11と、追尾対象の予測位置が含まれるエリア内に存在する物標の混雑の度合いである混雑度を算出する混雑度算出部22と、を備えた追尾処理装置3を構成する。追尾処理部11は、混雑度算出部22によって算出された混雑度の値に応じて、追尾対象を追尾する処理を行う。

Description

追尾処理装置及び追尾処理方法
 本発明は、追尾対象を追尾する追尾処理装置及び追尾処理方法に関する。
 従来から知られている追尾処理装置として、例えば特許文献1に開示される追尾処理装置では、追尾対象としてのターゲットの運動状態が推定され、当該運動状態に基づいてターゲットが追尾される。これにより、複数の物標の中から、追尾したい物標を精度よく検出することができる。
特開2014-89056号公報
 ところで、上述のように追尾対象となるターゲットを追尾する場合、ターゲットの周囲の環境によっては、ターゲットを正確に追尾できない場合がある。
 本発明は、上記課題を解決するためのものであり、その目的は、周囲の環境によらず、追尾対象を正確に追尾することである。
 (1)上記課題を解決するため、本発明のある局面に係る追尾処理装置は、追尾対象を追尾する処理を行う追尾処理部と、前記追尾対象の予測位置が含まれるエリア内に存在する物標の混雑の度合いである混雑度を算出する混雑度算出部と、を備え、前記追尾処理部は、前記混雑度算出部によって算出された前記混雑度の値に応じて、前記追尾対象を追尾する処理を行うことを特徴とする。
 (2)好ましくは、前記混雑度算出部は、前記エリア内に存在する前記物標の数としての物標数に基づいて前記混雑度を算出する。
 (3)更に好ましくは、前記追尾処理装置は、前記エリアが分割された複数のセルのそれぞれに存在する前記物標数をカウントし、前記複数のセル毎にカウントされた前記物標数を、各前記セルに対応させて記憶するエコー分布生成部を更に備え、前記混雑度算出部は、前記追尾対象の前記予測位置が含まれる前記セル内に存在する前記物標の前記混雑度を算出する。
 (4)好ましくは、前記混雑度算出部は、複数のタイミングでの前記物標数に基づいて前記混雑度を算出する。
 (5)好ましくは、前記混雑度算出部は、複数のタイミングでの前記混雑度に基づいて平滑混雑度を算出し、前記追尾処理部は、前記混雑度算出部によって算出された前記平滑混雑度の値に応じて、前記追尾対象を追尾する処理を行う。
 (6)好ましくは、前記追尾処理部では、前記追尾対象を観測して得られた観測位置に追尾フィルタ処理を施す際に用いられるゲインが、前記混雑度の値に応じて設定される。
 (7)好ましくは、前記追尾処理部は、前記追尾対象を観測して得られた観測位置が存在すると推定される選別領域を特定する選別部を有し、前記追尾処理部では、前記選別領域の面積が、前記混雑度の値に応じて設定される。
 (8)上記課題を解決するため、本発明のある局面に係る追尾処理方法は、追尾対象を追尾する処理を行うステップと、前記追尾対象の予測位置が含まれるエリア内に存在する物標の混雑の度合いである混雑度を算出するステップと、を含み、前記追尾対象を追尾する処理を行うステップでは、前記混雑度の値に応じて、該追尾対象を追尾する処理を行うことを特徴とする。
 本発明によれば、周囲の環境によらず、追尾対象を正確に追尾することができる。
本発明の実施形態に係る追尾処理装置を含むレーダ装置のブロック図である。 自船と、物標エコー像との関係を説明するための模式的な平面図である。 物標エコー像(物標)に関して抽出されるデータを説明するためのデータ一覧表である。 エコー検出部で検出された物標エコー像を示す模式的な平面図である。 混雑度算出処理部の動作を説明するためのフローチャートである。 エコー分布生成部によって生成されたエコー分布を模式的に示す図である。 変形例に係る追尾処理装置の混雑度算出部によって算出される混雑度の算出方法について説明するための模式図である。
 以下、本発明に係る追尾処理装置3の実施形態について図面を参照しつつ説明する。本発明は、追尾対象として選択された物標を追尾する、追尾処理装置として広く適用することができる。以下では、追尾対象として設定されたターゲットを「追尾物標」という。また、以下では、図中同一または相当部分には、同一符号を付してその説明は繰り返さない。
 図1は、本発明の実施形態に係る追尾処理装置3を含む、レーダ装置1のブロック図である。本実施形態のレーダ装置1は、例えば、漁船等の船舶に備えられる舶用レーダである。レーダ装置1は、主に他船等の物標の探知に用いられる。また、レーダ装置1は、追尾物標として選択された物標を追尾することが可能に構成されている。レーダ装置1は、複数の追尾物標を、同時に追尾可能に構成されている。レーダ装置1は、追尾物標の運動状態を推定するように構成されている。本実施形態では、レーダ装置1は、上記運動状態として、追尾物標の平滑速度を算出する。平滑速度とは、追尾物標について推定される、進行方向及び進行速度を示すベクトルである。レーダ装置1は、追尾物標の平滑速度を、画面に表示する。尚、以下では、レーダ装置1が備えられている船舶を「自船」という。
 図1に示すように、レーダ装置1は、アンテナユニット2と、追尾処理装置3と、表示器4と、を備えている。
 アンテナユニット2は、アンテナ5と、受信部6と、A/D変換部7と、を含んでいる。
 アンテナ5は、指向性の強いパルス状電波を送信可能なレーダアンテナである。また、アンテナ5は、物標からの反射波であるエコー信号を受信するように構成されている。即
ち、物標のエコー信号は、アンテナ5からの送信信号に対する、物標での反射波である。レーダ装置1は、パルス状電波を送信してからエコー信号を受信するまでの時間を測定する。これにより、レーダ装置1は、物標までの距離rを検出することができる。アンテナ5は、水平面上で360°回転可能に構成されている。アンテナ5は、パルス状電波の送信方向を変えながら(アンテナ角度を変えながら)、電波の送受信を繰り返し行うように構成されている。以上の構成で、レーダ装置1は、自船周囲の平面上の物標を、360°にわたり探知することができる。
 なお、以下の説明では、パルス状電波を送信してから次のパルス状電波を送信するまでの動作を「スイープ」という。また、電波の送受信を行いながらアンテナを360°回転させる動作を「スキャン」と呼ぶ。以下では、あるスキャンのことを、「nスキャン」といい、nスキャンから1個前のスキャンのことを、「n-1スキャン」という。尚、nは自然数である。また、以下では、動作について特に説明なき場合、nスキャン時点におけるレーダ装置1の動作を説明する。
 受信部6は、アンテナ5で受信したエコー信号を検波して増幅する。受信部6は、増幅したエコー信号を、A/D変換部7へ出力する。A/D変換部7は、アナログ形式のエコー信号をサンプリングし、複数ビットからなるデジタルデータ(エコーデータ)に変換する。ここで、上記エコーデータは、アンテナ5が受信したエコー信号の強度(信号レベル)を特定するデータを含んでいる。A/D変換部7は、エコーデータを、追尾処理装置3へ出力する。
 追尾処理装置3は、複数の物標の中から選択された物標を追尾物標として特定し、当該追尾物標を観測して得られた観測位置に追尾フィルタ処理を施すことで、追尾物標を追尾する追尾処理を行うように構成されている。より具体的には、追尾処理装置3は、追尾物標の平滑速度、及び追尾物標の推定位置(平滑位置)等を算出するように構成されている。
 追尾処理装置3は、CPU、RAM及びROM(図示せず)等を含むハードウェアを用いて構成されている。また、追尾処理装置3は、ROMに記憶された追尾処理プログラムを含む、ソフトウェアを用いて構成されている。
 上記追尾処理プログラムは、本発明に係る追尾処理方法を、追尾処理装置3に実行させるためのプログラムである。上記ハードウェアとソフトウェアとは、協働して動作するように構成されている。これにより、追尾処理装置3を、信号処理部9、エコー検出部10、及び追尾処理部11等として機能させることができる。追尾処理装置3は、1スキャン毎に、以下に説明する処理を行うように構成されている。
 追尾処理装置3は、信号処理部9と、エコー検出部(検出部)10と、追尾処理部11と、混雑度算出処理部20と、を有している。
 信号処理部9は、フィルタ処理等を施すことにより、エコーデータに含まれる干渉成分と、不要な波形データとを除去する。また、信号処理部9は、物標エコー像に関するエコーデータの特徴情報の検出を行うように構成されている。信号処理部9は、処理したエコーデータをエコー検出部10へ出力する。
 エコー検出部10は、物標エコー像の検出と、物標エコー像に関するエコーデータの特徴情報の検出とを行うように構成されている。即ち、エコー検出部10は、物標エコー像検出部と、特徴情報抽出部とを含んでいる。信号処理部9及びエコー検出部10によって、物標の特徴情報を検出するための検出部が構成されている。
 エコー検出部10は、信号処理部9からエコーデータを読み出すときの読出しアドレスに基づいて、当該エコーデータに対応する位置までの距離rを求める。また、アンテナ5からエコー検出部10へは、当該アンテナ5が現在どの方向を向いているか(アンテナ角度θ)を示すデータが出力されている。以上の構成で、エコー検出部10は、エコーデータを読み出す際には、当該エコーデータに対応する位置を、距離rとアンテナ角度θとの極座標で取得することができる。
 エコー検出部10は、エコーデータに対応する位置に物標が存在するか否かを検出するように構成されている。エコー検出部10は、例えば、エコーデータに対応する位置の信号レベル、即ち、信号強度を判別する。エコー検出部10は、信号レベルが所定のしきいレベル値以上である位置には、物標が存在していると判別する。
 次いで、エコー検出部10は、物標が存在している範囲を検出する。エコー検出部10は、例えば、物標が存在している一まとまりの領域を、物標エコー像が存在している領域として検出する。このようにして、エコー検出部10は、エコーデータを基に、物標エコー像を検出する。この物標エコー像の外郭形状は、物標の外郭形状と略合致する。但し、エコーデータに含まれるノイズ等に起因して、この物標エコー像の外郭形状と、物標の外郭形状とは、わずかに異なる。次に、エコー検出部10は、エコーデータを用いて、物標エコー像に関連する特徴情報を抽出する。
 図2は、自船100と、物標エコー像120との関係を説明するための模式的な平面図である。図2では、物標エコー像120は、矩形の像として例示されている。また、図2では、物標エコー像120によって特定される物標130が示されている。図2では、物標130の外郭形状は、物標エコー像120と合致した状態で表示されている。
 図1及び図2に示すように、極座標系では、自船100の位置としての自船位置M1を基準として、自船位置M1からの直線距離が、距離rとして示され、自船位置M1周りの角度が、角度θとして示される。本実施形態では、自船位置M1は、アンテナ5の位置に相当する。エコー検出部10は、物標エコー像120の代表点Pの抽出に際しては、自船位置M1を中心とする、リング状部分の一部形状の像110を用いる。この像110は、第1直線111、第2直線112、第1円弧113、及び第2円弧114によって囲まれた領域の像である。
 第1直線111は、物標エコー像120の後縁120aのうち自船位置M1に最も近い点と、自船位置M1と、を通る直線である。第2直線112は、物標エコー像120の前縁120bのうち自船位置M1に最も近い点と、自船位置M1と、を通る直線である。第1円弧113は、物標エコー像120のうち自船位置M1から最も近い部分120cを通る円弧である。第1円弧113の曲率中心点は、自船位置M1である。第2円弧114は、物標エコー像120のうち自船位置M1から最も遠い部分120dを通る円弧である。第2円弧114は、第1円弧113と同心である。
 図3は、物標エコー像120(物標130)に関して抽出されるデータを説明するためのデータ一覧表である。図2及び図3に示すように、本実施形態では、信号処理部9及びエコー検出部10は、協働して、物標エコー像120(物標130)について、下記12個のデータを、特徴情報データとして抽出する。即ち、エコー検出部10は、エコーデータ、及び物標エコー像120の画像データを基に、下記12個のテキストデータを抽出する。本実施形態では、12個のテキストデータとは、フラグのデータ201と、距離rpのデータ202と、終了角度θeのデータ203と、角度幅θwのデータ204と、最前縁距離rnのデータ205と、最後縁距離rfのデータ206と、面積ar(形状情報)
のデータ207と、代表点Pの座標データ208と、エコーレベルecのデータ209と、隣接距離(物標の周囲の状態を特定する情報)adのデータ210と、ドップラーシフト量dsのデータ211と、時刻tmのデータ212と、である。
 上記のフラグは、例えば、物標エコー像120について、所定の状態であるか否か、等を特定するフラグである。このフラグは、「1」又は「0」等に設定されるように構成されている。
 距離rpは、自船位置M1から物標エコー像120の代表点Pまでの直線距離である。本実施形態では、代表点Pは、像110の中心点である。終了角度θeは、物標エコー像120の検出が終わった時点における、前述のアンテナ角度θである。角度幅θwは、物標エコー像120について、自船位置M1回りの角度方向の幅である。角度幅θwは、第1直線111と第2直線112とがなす角度でもある。最前縁距離rnは、物標エコー像120の部分120cと、自船位置M1との距離である。最後縁距離rfは、物標エコー像120の部分120dと、自船位置M1との距離である。面積arは、リング状部分の一部形状の像110における面積であり、本実施形態では、物標エコー像120の面積として扱われる。
 エコーレベルecは、物標エコー像120を特定するエコー信号の、強度を示している。この強度は、物標エコー像120を特定するエコー信号のピーク強度であってもよいし、当該エコー信号の強度の平均値であってもよい。本実施形態では、隣接距離adは、例えば、隣接する2つの物標エコー像120間の距離である。ドップラーシフト量dsは、例えば、アンテナ5から放射されたパルス信号の周波数と、物標エコー像120によって特定される物標130で反射したエコー信号の周波数と、の差である。ドップラーシフト量dsを基に、物標エコー像120によって特定される物標130と、自船100との相対速度を求めることが可能である。時刻tmは、物標エコー像120を検出した時点の時刻である。尚、エコー像120のデータは、予備のデータ領域を含んでいてもよい。本実施形態では、信号処理部9及びエコー検出部10は、各物標エコー像120について、上記12個の特徴情報を抽出する。これら12個の特徴情報は、何れも、数値によって表される情報である。
 エコー検出部10で検出された複数の物標エコー像120の一例を、図4に示している。図4は、エコー検出部10で検出された、物標エコー像120を示す模式的な平面図である。図4では、一例として、nスキャン時点における4つの物標エコー像120(121,122,123,124)を示している。図4では、物標エコー像120(121,122,123,124)の形状は、それぞれ、物標130(131,132,133,134)の形状と合致している。
 物標エコー像121によって特定される物標131,物標エコー像122によって特定される物標132,及び物標エコー像123によって特定される物標133は、例えば、小型船舶である。物標エコー像124によって特定される物標134は、例えば、大型船舶である。エコー検出部10は、nスキャン時点において、代表点Pとして、物標エコー像121の代表点P1(n)と、物標エコー像122の代表点P2(n)と、物標エコー像123の代表点P3(n)と、物標エコー像124の代表点P4(n)と、を検出している。以下では、物標131が、追尾物標140である場合を例に説明する。
 図1~図4に示すように、エコー検出部10は、各物標エコー像120についての特徴情報データ201~212を、追尾処理部11及び混雑度算出処理部20へ出力する。
 [混雑度算出処理部の構成]
 図5は、混雑度算出処理部20の動作を説明するためのフローチャートである。以下では、図1及び図5等を参照しながら、混雑度算出処理部20の構成及び動作を説明する。
 混雑度算出処理部20は、追尾物標140の予測位置Xp(n)周辺に存在する物標の混雑の度合い(混雑度)を算出するように構成されている。混雑度算出処理部20は、エコー分布生成部21と、混雑度算出部22と、を有している。混雑度算出処理部20には、詳しくは後述するように追尾処理部11によって算出された追尾物標のnスキャン時における予測位置Xp(n)が入力される。
 図6は、エコー分布生成部21によって生成されたエコー分布を模式的に示す図である。以下では、図6に示すxy座標上における位置が(x,y)であるセルBにnスキャン時に含まれる物標の数(物標数)を、N(x,y,n)として説明する。例えば、図6を参照して、N(1,5,n)=3である。なお、図6では、カウントされた物標数を、黒のドットで図示している。また、以下では、座標系がxy座標である例を挙げて説明するが、これに限らず、rθ座標系を用いることもできる。
 エコー分布生成部21は、エコー検出部10によって検出された各物標130の分布を生成する。具体的には、エコー分布生成部21では、図6を参照して、海上における所定のエリアAが格子状に分割された複数のセルBのそれぞれに存在する物標130の数が、セルB毎にカウントされる(図5のステップS1)。このとき、各セルBに対応して平滑物標数(詳しくは後述する)が記憶されていない場合(ステップS2のNo)、エコー分布生成部21は、セルB毎にカウントされた物標130の物標数を、平滑物標数として各セルBに対応させて記憶する(ステップS3)。なお、エリアAとしては、例えば一例として、一辺が64マイルの正方形状の領域を挙げることができる。また、セルBとしては、例えば一例として、一辺が0.5マイルの正方形状の領域を挙げることができる。なお、本実施形態では、セルB毎に物標数をカウントする例を挙げて説明しているが、これに限らず、例えば一例として、各セルBに含まれる物標の面積を合計した値を、上述した物標数の代わりに用いてもよい。
 一方、各セルBに対応して平滑物標数が記憶されている場合(ステップS2のYes)、エコー分布生成部21は、各セルBに対応して記憶されている平滑物標数Ns(x,y,n-1)と、直近の物標数N(x,y,n)とに基づいて、平滑物標数Ns(x,y,n)を算出する(ステップS4)。具体的には、エコー分布生成部21は、以下で示す式(1)に基づいて、平滑物標数Ns(x,y,n)を算出する。
 Ns(x,y,n)=a・N(x,y,n)+(1-a)・Ns(x,y,n-1)…(1)
 なお、aは、0<a≦1で表される係数であり、例えば一例として0.9である。
 そして、エコー分布生成部21は、それまでに各セルBに対応して記憶されていた平滑物標数Ns(x,y,n-1)を、直近で算出した平滑物標数Ns(x,y,t)に置き換えて記憶する(ステップS5)。
 混雑度算出部22は、追尾物標140の予測位置Xp(n)が含まれるセルBの平滑物標数Ns(x,y,n)を用い、混雑度C(n)を算出する(ステップS6)。混雑度C(n)は、平滑物標数Ns(x,y,n)を変数とする任意の関数、すなわち、C(n)=f(Ns(x,y,n))と表すことができる。この式の一例として、例えば、C(n)=Ns(x,y,n)、を挙げることができる。そして、混雑度算出部22は、過去に算出された上記セルBの混雑度であって該セルBに対応して記憶されている平滑混雑度C
s(n-1)と、直近で算出した混雑度C(n)とに基づいて、平滑混雑度Cs(n)を算出する(ステップS7)。具体的には、混雑度算出部22は、以下の式(2)に基づいて、平滑混雑度Cs(n)を算出する。そして、混雑度算出部22は、それまで記憶されていた平滑混雑度Cs(n-1)を、直近で算出した平滑混雑度Cs(n)に置き換えて記憶する(ステップS8)。
 Cs(n)=a・C(n)+(1-a)・Cs(n-1)-1…(2)
 但し、この式の算出結果が0未満となる場合には、Cs(n)の値は0として設定される。また、aは、0<a≦1で表される係数であり、例えば一例として0.9である。
 混雑度算出部22で算出された平滑混雑度Cs(n)は、追尾処理部11に通知される(ステップS9)。追尾処理部11は、詳しくは後述するが、混雑度算出部22から通知された平滑混雑度Cs(n)の値に応じた追尾処理を行う。
 追尾処理部11は、複数の物標130のなかから、追尾物標140を特定し、且つ、当該追尾物標140の追尾処理を行うように構成されている。追尾物標140は、例えば、表示器4に表示された、複数の物標130を示すシンボル等を基に、オペレータによって選択される。オペレータによる、追尾物標140の選択指令は、例えば、オペレータが操作装置(図示せず)を操作することにより、発せられる。本実施形態では、追尾処理部11は、特に説明無き限り、X-Y座標系を基準に、処理を行うように構成されている。
 追尾処理部11は、nスキャン時点(最新のスキャン時点)における、追尾物標140の平滑速度Vs(n)を算出するように構成されている。また、追尾処理部11は、平滑速度Vs(n)を表示器4に表示させるように、構成されている。
 追尾処理部11は、特徴情報メモリ12と、選別部13と、関連付け部14と、運動推定部15と、を有している。
 特徴情報メモリ12は、信号処理部9及びエコー検出部10から出力されたデータを蓄積するように構成されている。特徴情報メモリ12は、(n-T)スキャン時点から、nスキャン時点までの各時点における、全ての物標エコー像120について、特徴情報データ201~212を蓄積している。尚、定数Tは、予め設定されている値であり、例えば、数十程度である。
 選別部13は、エコー選別処理を行うように構成されている。具体的には、選別部13は、nスキャン時点(最新のスキャン時点)において、観測位置Xo(n)(追尾物標140の追尾代表点)が存在すると推定される領域を特定する。
 具体的には、選別部13は、追尾物標140について、運動推定部15で算出された予測位置Xp(n)の座標データを参照する。即ち、選別部13は、nスキャン時点において、追尾代表点Pが存在していると推定される予測位置Xp(n)の座標データを取得する。選別部13は、当該予測位置Xp(n)を中心とする選別領域S(n)を設定する。この選別領域S(n)は、例えば、上記予測位置Xp(n)を中心とする円状の領域である。関連付け部14は、この選別領域S(n)内を検索する。
 ここで、選別部13は、混雑度算出部22によって算出された平滑混雑度Cs(n)の値に応じて、選別領域S(n)の範囲を決定する。具体的には、選別部13は、例えば一例として、平滑混雑度Cs(n)が所定の閾値N以下の場合、選別領域S(n)の半径
をr1として設定する。一方、選別部13は、平滑混雑度Cs(n)が所定の閾値Nを超える場合、選別領域S(n)の半径を、r1よりも小さいr2として設定する。
 関連付け部14は、上記選別領域S(n)内に存在する1つ又は複数の物標エコー像の追尾代表点Pのなかから、追尾物標140の観測位置Xo(n)を、過去の追尾ターゲット情報(エコー面積、位置誤差等)から算出される各追尾代表点Pの尤度に基づき特定する。
 具体的には、例えば、関連付け部14は、各追尾代表点Pについて複数の尤度Lh(n=1,2,…)を算出し、これらの尤度Lhを合成した結合尤度が最も高い追尾代表点Pを、追尾物標140の観測位置Xo(n)として運動推定部15へ出力している。なお、上述した尤度Lhとは、各追尾代表点Pが、追尾物標の追尾代表点Pである尤もらしさを示す度合いであって、追尾物標の特徴量と、選別領域S(n)内に存在する各物標の特徴量とに基づいて算出される。ここでの特徴量としては、例えば一例として、物標のエコー面積が挙げられる。
 関連付け部14では、各尤度Lhに対応して閾値Na(n=1,2,…)が設定されている。そして、関連付け部14は、追尾代表点Pの各尤度Lhを対応する閾値Naと比較し、その比較結果に応じて、その追尾代表点Pが、追尾物標の追尾代表点Pの候補となり得るか否かを判定する。具体的には、関連付け部14は、選別領域S(n)内に存在するある追尾代表点Pにおける尤度Lhが閾値Na以上の場合、当該追尾代表点Pを、追尾物標の追尾代表点Pの候補になり得る追尾代表点であると判定する。一方、前記ある追尾代表点Pにおける尤度Lhが閾値Na未満の場合、当該追尾代表点Pを、追尾物標の追尾代表点Pの候補から除外する。
 ここで、関連付け部14は、平滑混雑度Cs(n)の値に応じて上記閾値Naの値を決定する。具体的には、関連付け部14は、例えば、平滑混雑度Cs(n)が所定の閾値N以上の場合、閾値Naの値を高くする。一方、平滑混雑度Cs(n)が所定の閾値N未満の場合、閾値Naの値を低くする。
 運動推定部15は、X-Y座標系において、追尾物標140の追尾処理を行うように構成されている。本実施形態では、運動推定部15は、地球の表面に対する向きが一定である座標系を用いて、追尾物標140の追尾処理を行う。
 運動推定部15は、観測誤差(アンテナ5が回転する際に発生するぶれ等に起因する誤差)の影響を平滑化するために設けられている。本実施形態では、運動推定部15は、追尾フィルタ処理として、α-βフィルタ処理を行う。運動推定部15は、追尾物標140の予測位置Xp(n)と、平滑位置Xs(n)と、平滑速度Vs(n)と、を算出するように構成されている。
 具体的には、運動推定部15は、下記式(3)、(4)、(5)を演算する。
 予測位置Xp(n)=Xs(n-1)+T×Vs(n-1)…(3)
 平滑位置Xs(n)=Xp(n)+α{Xo(n)-Xp(n)}…(4)
 平滑速度Vs(n)=Vs(n-1)+(β/T){Xo(n)-Xp(n)}…(5)
 尚、平滑位置Xs(n)は、nスキャン時点における、予測位置Xp(n)と、観測位置Xo(n)とに関連付けられた位置を示す。平滑位置Xs(n)は、nスキャン時点において、追尾物標140の追尾代表点P1が到達していると推定される位置を示す。また、平滑速度Vs(n)は、nスキャン時点における、追尾代表点P1の推定速度を示して
いる。
 また、Tは、運動推定部15が前回の平滑処理を行ってから上記の平滑処理を行うまでに経過した時間であり、1スキャンに要する時間に相当する。また、αは、平滑位置Xs(n)を算出するために用いられるゲインである。βは、平滑速度Vs(n)を算出するために用いられるゲインである。
 ゲインαは、X軸方向の成分αx、及びY軸方向の成分αyを有している。ゲインαは、ゲインα(αx,αy)としても表現できる。成分αxは、上記式(4)において、X軸方向の成分を算出する際に用いられる。成分αyは、上記式(4)において、Y軸方向の成分を算出する際に用いられる。
 また、ゲインβは、X軸方向の成分βx、及びY軸方向の成分βyを有している。ゲインβは、ゲインβ(βx,βy)としても表現できる。成分βxは、上記式(5)において、X軸方向の成分を算出する際に用いられる。また、成分βyは、上記式(5)において、Y軸方向の成分を算出する際に用いられる。
 平滑位置Xs(n)は、予測位置Xp(n)と、観測位置Xo(n)と、を結ぶ線分LS1上に位置する。
 上記の構成によると、ゲインαが小さいほど、平滑位置Xs(n)は、予測位置Xp(n)に近くなる。また、ゲインβが小さいほど、平滑速度Vs(n)の変化量は、小さくなる。このため、運動推定部15での算出結果は、平滑化された度合いが大きくなり、追尾物標140の観測誤差に起因するばらつき量が小さくなる。但し、追尾物標140の追尾代表点P1の変針運動を、運動推定部15の演算結果に反映させる際の応答は、ゲインα,βが小さいほど、遅くなる。
 一方、ゲインαが大きいほど、平滑位置Xs(n)は、観測位置Xo(n)に近くなる。また、ゲインβが大きいほど、平滑速度Vs(n)を平滑化する度合いは、小さくなる。このため、運動推定部15は、追尾物標140の追尾代表点P1の変針運動を、追尾フィルタ処理において、応答性よく反映できる。このため、運動推定部15は、追尾物標140の変針運動に対する追従性を高めることができる。尚、変針運動とは、追尾物標140の向きを変える運動をいう。但し、ゲインα,βが大きいほど、平滑位置Xs(n)及び平滑速度Vs(n)について、スキャン時点毎の変動量が大きくなってしまう。
 そして、運動推定部15は、混雑度算出部22から通知された平滑混雑度Cs(n)の値に応じて、ゲインα,βの値を設定する。ゲインα,βは、閾値N~N(0<N<N<N)と平滑混雑度Cs(n)との関係性に応じて、例えば一例として、以下のように表すことができる。
 α=β=0(N<Cs(n)の場合)
 α=0.5α、β=0.5β(N<Cs(n)≦Nの場合)
 α=α、β=β(N<Cs(n)≦Nの場合)
 α=1.5α、β=1.5β(Cs(n)≦Nの場合)
 但し、α及びβは、所定の定数である。
 上述のように、平滑混雑度Cs(n)に応じてゲインα,βの値を設定することにより、以下のような効果を得ることができる。
 平滑混雑度が非常に高い場合(本実施形態の場合、N<Cs(n))、追尾物標の予
測位置付近に多数の物標が存在すると推測される。この場合、関連付け部14による関連付け処理を行う際に、追尾対象が、本来追尾したい物標から他の物標に乗り移ってしまう可能性(いわゆる乗り移りが生じる可能性)が高くなる。よって、このように乗り移りの可能性が高い状況下においては、ゲインα及びβを0に設定していわゆる予測追尾を行うことにより、追尾対象の乗り移りを防止できる。なお、予測追尾とは、平滑位置Xs(n)を算出する際に観測位置Xo(n)を考慮せず、予測位置Xp(n)を平滑位置として算出する追尾のことである。
 平滑混雑度がやや高い場合(本実施形態の場合、N<Cs(n)≦N)、追尾物標の予測位置付近には比較的多数の物標が存在すると推測される。この場合、関連付け部14による関連付け処理を行う際に、乗り移りが生じる可能性がやや高くなる。よって、このように乗り移りの可能性がやや高い状況下においては、ゲインα及びβをやや低い値(本実施形態の場合、α=0.5α、β=0.5β)に設定して、いわゆる予測追尾に近い追尾処理を行うことにより、追尾対象の乗り移りの可能性を抑えつつ、追尾物標の変針運動にもある程度対応可能な追尾処理を行うことができる。
 一方、平滑混雑度が0に近い値の場合(本実施形態の場合、Cs(n)≦N)、追尾物標の予測位置付近にはほとんど物標が存在していない、又は追尾物標の予測位置付近には物標が存在していないと推測される。この場合には、上述のような乗り移りの危険性が非常に低いため、ゲインα及びβの値を通常時よりも大きな値(α=1.5α、β=1.5β)に設定することにより、追尾物標の変針運動に対する追従性を高める追尾処理を行うことができる。
 なお、平滑混雑度がN<Cs(n)≦Nの場合、ゲインα及びβの値は、追尾対象の乗り移りのリスク低減、及び追尾物標に対する追従性の確保、の双方のバランスのとれた値(α=α、β=β)に設定される。
 運動推定部15は、上述のように平滑混雑度に応じて適切に設定されたゲインα,βを用いて算出した各データを、選別部13、混雑度算出処理部20、及び表示器4へ出力する。具体的には、運動推定部15は、予測位置Xp(n)の座標データを、選別部13及び混雑度算出処理部20へ出力する。選別部13では、当該データは、(n+1)スキャン時点における選別処理に用いられる。一方、混雑度算出処理部20では、当該データは、混雑度の算出対象となるセルBを特定するために用いられる。また、運動推定部15は、平滑位置Xs(n)、及び平滑速度Vs(n)を特定するデータを、表示器4へ出力する。
 表示器4は、例えばカラー表示可能な液晶ディスプレイである。表示器4は、各物標エコー像120の画像データを用いて、表示画面に、各物標エコー像120を表示する。また、表示器4は、平滑速度Vs(n)を、画像として表示する。これにより、表示器4の表示画面には、追尾物標140(物標エコー像121)について、平滑速度Vs(n)を示す画像が表示される。レーダ装置1のオペレータは、表示器4に表示されたレーダ映像を確認することにより、追尾物標140の運動状態を確認することができる。
 [効果]
 以上のように、本実施形態に係る追尾処理装置3では、追尾処理部が、追尾物標140の予測位置Xp(n)が含まれるエリア(本実施形態の場合、セルB)内に存在する物標の混雑度(本実施形態の場合、平滑混雑度Cs(n))に応じて、追尾処理を行っている。こうすると、追尾対象が本来追尾したい物標から他の物標に乗り移ってしまう可能性(乗り移りの可能性)に応じて、追尾処理を適切に制御することができる。具体的には、本実施形態の場合、乗り移りの可能性が高い状況下、すなわち平滑混雑度Cs(n)が高い
状況下においては予測追尾を行っているため、乗り移りを防止することができる。一方、乗り移りの可能性が低い状況下、すなわち平滑混雑度Cs(n)が低い状況下においては、追尾物標の変針運動に対する追従性が高い追尾処理を行っている。
 従って、追尾処理装置3によれば、周囲の環境によらず、追尾対象を正確に追尾できる。
 また、追尾処理装置3では、追尾物標140の予測位置Xp(n)が含まれるエリア内に存在する物標の物標数に基づいて混雑度(平滑混雑度Cs(n))を算出しているため、混雑度を適切に算出することができる。
 また、追尾処理装置3では、所定のエリアAが分割された複数のセルBのうち、追尾対象の予測位置Xp(n)が含まれるセルBの混雑度(平滑混雑度Cs(n))が算出されている。これにより、追尾対象が含まれる比較的限られた領域を対象として算出された混雑度に基づいて追尾対象の追尾が行われるため、より正確に追尾対象を追尾できる。
 また、追尾処理装置3によれば、複数のタイミングでの物標数に基づいて混雑度を算出することができる。こうすると、例えば一例として、そのエコー強度が物標として算出される閾値前後となるような物標、の物標数が時間的に平均化されるため、混雑度がタイミング毎に大きく変動してしまうことを抑制できる。
 また、追尾処理装置3によれば、複数のタイミングでの混雑度に基づいて平滑混雑度を算出することができる。こうすると、上述の場合と同様、そのエコー強度が物標として算出される閾値前後となるような物標、の物標数に基づいて算出される混雑度が時間的に平均化されるため、混雑度がタイミング毎に大きく変動してしまうことを抑制できる。
 また、追尾処理装置3では、追尾フィルタ処理を施す際に用いられるゲインα及びβが、平滑混雑度Cs(n)の値に応じて設定されている。具体的には、乗り移りが発生する可能性が高い場合(平滑混雑度Cs(n)が高い場合)には、ゲインα及びβが低い値に設定される。これにより、いわゆる予測追尾が行われるため、追尾対象が本来追尾したい物標から他の物標に乗り移ってしまう可能性を低減できる。一方、乗り移りが発生する可能性が低い場合(平滑混雑度Cs(n)が低い場合)には、ゲインα及びβが高い値に設定される。これにより、追尾物標の変針運動に対する追従性が高い追尾処理を行うことができる。
 また、追尾処理装置3では、選別領域S(n)の面積が、平滑混雑度Cs(n)の値に応じて設定される。具体的には、乗り移りが発生する可能性が高い場合(平滑混雑度Cs(n)が高い場合)には、選別領域S(n)の面積が小さく設定される。これにより、追尾対象となり得る物標の候補を絞り込むことができるため、乗り移りの危険性を低減できる。一方、乗り移りが発生する可能性が低い場合(平滑混雑度Cs(n)が低い場合)には、選別領域S(n)の面積が大きく設定される。これにより、大きく変針した追尾物標についても追尾対象となり得る物標の候補とすることができるため、追尾物標の変針運動に対する追従性が高い追尾処理を行うことができる。
 また、追尾処理装置3では、関連付け部14で用いられる閾値Naの値が、平滑混雑度Cs(n)の値に応じて設定される。乗り移りが発生する可能性が高い場合(平滑混雑度Cs(n)が高い場合)には、閾値Naの値が大きく設定される。これにより、追尾対象となり得る物標の候補を絞り込むことができるため、乗り移りの危険性を低減できる。一方、乗り移りが発生する可能性が低い場合(平滑混雑度Cs(n)が低い場合)には、閾値Naの値が小さく設定される。これにより、大きく変針した追尾物標についても
追尾対象となり得る物標の候補とすることができるため、追尾物標の変針運動に対する追従性が高い追尾処理を行うことができる。
 [変形例]
 以上、本発明の実施形態について説明したが、本発明はこれらに限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
 (1)上記実施形態では、あるスキャン時にカウントされた物標数を、各スキャンに対応する物標数としているが、これに限らない。具体的には、各スキャン時にカウントされた物標数と、当該スキャン前後の他のスキャン時にカウントされた物標数とを平均化した値を、前記各スキャンに対応する物標数としてもよい。
 (2)上記実施形態では、ゲインα,βの値を、平滑混雑度Cs(n)の値と閾値N~Nの値との関係性に応じて段階的に設定したが、この限りでない。具体的には、ゲインα,βの値が平滑混雑度Cs(n)の値に応じて線形的に変化するように、ゲインα,βの値を設定してもよい。ゲインα,βの値は、例えば一例として、以下のように表すことができる。
 α=ν・α
 β=ν・β
 但し、N<Cs(n)の場合、ν=0であり、N≧Cs(n)の場合ν=1-(Cs(n)-N)/(N-N)である。また、α及びβは、所定の定数である。
 ゲインα,βを上述した式を用いて設定することにより、平滑混雑度Cs(n)の値がN以上となる場合におけるゲインα,β値を、平滑混雑度Cs(n)の値に応じて線形的に変化させることができる。これにより、ゲインα,β値を、平滑混雑度Cs(n)の値に応じてより適切に設定することができる。
 また、上記実施形態では、選別領域S(n)の範囲を、平滑混雑度Cs(n)の値と閾値Nとの関係性に応じて段階的に設定したが、この限りでない。具体的には、上述した場合と同じように、選別領域S(n)の範囲が平滑混雑度Cs(n)の値に応じて線形的に変化するように、選別領域S(n)の範囲を設定してもよい。
 (3)図7は、変形例に係る追尾処理装置の混雑度算出部22によって算出される混雑度の算出方法について説明するための模式図である。図7では、複数のセルB(図6参照)のうち、追尾物標の予測位置Xp(n)付近のセルBを示している。上記実施形態では、追尾物標の予測位置Xp(n)が含まれるセルBにおける平滑物標数Ns(n)を、混雑度C(n)として算出したが、これに限らない。本変形例では、混雑度C(n)を、線形補完を用いて算出している。
 本変形例では、混雑度算出部22が混雑度C(n)を算出する際、複数のセルBに対応して記憶されている平滑物標数Ns(n)のうち、以下に示す条件を満たすセルBの平滑物標数Ns(n)が用いられる。具体的には、混雑度C(n)は、図7を参照して、各中心点CP~CPで囲まれる正方形状の領域内に予測位置Xp(n)が含まれる4つのセルB(図7では、B~B)のそれぞれに対応して記憶される平滑物標数Ns(n)(図7では、Ns(n)~Ns(n))を用いて、以下の式(6)によって算出される。そして、本変形例の混雑度算出部22は、上記実施形態の場合と同様、それまで記憶されていた平滑混雑度C(n-1)を、直近で算出した平滑混雑度C(n)に置き換えて記憶する。
 C(n)=Ns'(n)・ωy+Ns"(n)・(1-ωy)…(6)
 但し、Ns'(n)=Ns(n)・(1-ωx)+Ns(n)・ωx、Ns"(n)=Ns(n)・(1-ωx)+Ns(n)・ωx、である。なお、ωxは、CPからCPまでの距離(すなわち、CPからCPまでの距離)に対する、CPからXp(n)までの距離のx軸方向成分(すなわち、CPからXp(n)までの距離のx軸方向成分)の比、である。また、ωyは、CPからCPまでの距離(すなわち、CPからCPまでの距離)に対する、CPからXp(n)までの距離のy軸方向成分(すなわち、CPからXp(n)までの距離のy軸方向成分)の比、である。
 上述のように算出された平滑混雑度C(n)は、上記実施形態の場合と同様、追尾処理部11に通知される。そして、追尾処理部11は、上記実施形態の場合と同様、平滑混雑度C(n)の値に応じた追尾処理を行う。
 以上のように、本変形例に係る追尾処理装置によれば、上述した実施形態に係る追尾処理装置の場合と同様、周囲の環境によらず、追尾対象を正確に追尾できる。
 そして、本変形例に係る追尾処理装置によれば、線形補完を用いて混雑度を算出しているため、物標の混雑度をより正確に算出することができる。
 (4)上記実施形態では、追尾物標の予測位置Xp(n)が含まれるセルBにおける平滑物標数Ns(x,y,n)を、混雑度C(n)として算出したが、これに限らない。具体的には、平滑物標数を算出せずに、nスキャン時における物標数N(x,y,n)を、混雑度C(n)として算出してもよい。
 (5)上記実施形態及び変形例では、平滑混雑度(又は混雑度)に応じて、選別領域S(n)の範囲、ゲインα,βの値、及び閾値Naの値を制御していたが、これに限らず、これらのうちの少なくとも1つが、混雑度に応じた変数として制御されればよい。
 1       レーダ装置
 3       追尾処理装置
 11      追尾処理部
 22      混雑度算出部

Claims (8)

  1.  追尾対象を追尾する処理を行う追尾処理部と、
     前記追尾対象の予測位置が含まれるエリア内に存在する物標の混雑の度合いである混雑度を算出する混雑度算出部と、
     を備え、
     前記追尾処理部は、前記混雑度算出部によって算出された前記混雑度の値に応じて、前記追尾対象を追尾する処理を行うことを特徴とする、追尾処理装置。
  2.  請求項1に記載の追尾処理装置において、
     前記混雑度算出部は、前記エリア内に存在する前記物標の数としての物標数に基づいて前記混雑度を算出することを特徴とする、追尾処理装置。
  3.  請求項2に記載の追尾処理装置において、
     前記エリアが分割された複数のセルのそれぞれに存在する前記物標数をカウントし、前記複数のセル毎にカウントされた前記物標数を、各前記セルに対応させて記憶するエコー分布生成部を更に備え、
     前記混雑度算出部は、前記追尾対象の前記予測位置が含まれる前記セル内に存在する前記物標の前記混雑度を算出することを特徴とする、追尾処理装置。
  4.  請求項2又は請求項3に記載の追尾処理装置において、
     前記混雑度算出部は、複数のタイミングでの前記物標数に基づいて前記混雑度を算出することを特徴とする、追尾処理装置。
  5.  請求項1から請求項4のいずれか1項に記載の追尾処理装置において、
     前記混雑度算出部は、複数のタイミングでの前記混雑度に基づいて平滑混雑度を算出し、
     前記追尾処理部は、前記混雑度算出部によって算出された前記平滑混雑度の値に応じて、前記追尾対象を追尾する処理を行うことを特徴とする、追尾処理装置。
  6.  請求項1から請求項5のいずれか1項に記載の追尾処理装置において、
     前記追尾処理部では、前記追尾対象を観測して得られた観測位置に追尾フィルタ処理を施す際に用いられるゲインが、前記混雑度の値に応じて設定されることを特徴とする、追尾処理装置。
  7.  請求項1から請求項6のいずれか1項に記載の追尾処理装置において、
     前記追尾処理部は、前記追尾対象を観測して得られた観測位置が存在すると推定される選別領域を特定する選別部を有し、
     前記追尾処理部では、前記選別領域の面積が、前記混雑度の値に応じて設定されることを特徴とする、追尾処理装置。
  8.  追尾対象を追尾する処理を行うステップと、
     前記追尾対象の予測位置が含まれるエリア内に存在する物標の混雑の度合いである混雑度を算出するステップと、を含み、
     前記追尾対象を追尾する処理を行うステップでは、前記混雑度の値に応じて、該追尾対象を追尾する処理を行うことを特徴とする、追尾処理方法。
PCT/JP2015/078625 2014-11-28 2015-10-08 追尾処理装置及び追尾処理方法 WO2016084498A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/528,700 US10585184B2 (en) 2014-11-28 2015-10-08 Tracking processor and method of tracking processing
EP15862592.1A EP3226025A4 (en) 2014-11-28 2015-10-08 Tracking processing device and tracking processing method
CN201580059386.6A CN107110967B (zh) 2014-11-28 2015-10-08 追踪处理装置及追踪处理方法
JP2016561449A JP6334730B2 (ja) 2014-11-28 2015-10-08 追尾処理装置及び追尾処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-241908 2014-11-28
JP2014241908 2014-11-28

Publications (1)

Publication Number Publication Date
WO2016084498A1 true WO2016084498A1 (ja) 2016-06-02

Family

ID=56074076

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/078625 WO2016084498A1 (ja) 2014-11-28 2015-10-08 追尾処理装置及び追尾処理方法

Country Status (5)

Country Link
US (1) US10585184B2 (ja)
EP (1) EP3226025A4 (ja)
JP (2) JP6334730B2 (ja)
CN (1) CN107110967B (ja)
WO (1) WO2016084498A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058836A1 (ja) * 2017-09-22 2019-03-28 古野電気株式会社 レーダ装置及び物標追尾方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10399650B2 (en) * 2017-01-17 2019-09-03 Harris Corporation System for monitoring marine vessels and determining rendezvouses therebetween and related methods
US10302769B2 (en) 2017-01-17 2019-05-28 Harris Corporation System for monitoring marine vessels using fractal processing of aerial imagery and related methods
US10200113B2 (en) 2017-01-17 2019-02-05 Harris Corporation System for monitoring marine vessels providing expected passenger determination features and related methods
AU2020205850A1 (en) * 2019-01-11 2021-08-26 Maerospace Corporation System and method for tracking vessels
KR102205478B1 (ko) * 2019-09-30 2021-01-20 엘아이지넥스원 주식회사 탐지 영역 스캔 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009052940A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 移動物体検出装置および自律移動物体
WO2013128852A1 (ja) * 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム
JP2014102256A (ja) * 2014-02-03 2014-06-05 Tokyo Keiki Inc 目標追尾装置及び目標追尾方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5400264A (en) 1993-04-29 1995-03-21 International Business Machines Corporation Suboptimal joint probabilistic data association
JP2001242242A (ja) 2000-02-29 2001-09-07 Hitachi Ltd 検知性能向上機能を備えたミリ波レーダ装置
JP4014785B2 (ja) 2000-04-12 2007-11-28 三菱電機株式会社 資源管理装置
DK1735638T3 (da) * 2004-03-15 2009-02-23 Kongsberg Seatex As Fremgangsmåde og system til positionsbestemmelse af sögående fartöjer og lignende objekter
JP4594197B2 (ja) 2005-09-01 2010-12-08 パナソニック株式会社 自動追尾装置
US8665113B2 (en) 2005-10-31 2014-03-04 Wavetronix Llc Detecting roadway targets across beams including filtering computed positions
JP4802112B2 (ja) * 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
JP5122536B2 (ja) 2009-08-17 2013-01-16 三菱電機株式会社 レーダ装置
US8836570B2 (en) * 2011-10-26 2014-09-16 Raytheon Canada Limited Systems and methods for extending maritime domain awareness by sharing radar tracks between vessels
CN102393901B (zh) 2011-11-18 2013-10-30 东南大学 基于混杂特征的交通流信息感知方法及系统
JP6192151B2 (ja) 2012-01-25 2017-09-06 古野電気株式会社 信号選別装置、信号選別方法、及びレーダ装置。
JP6192915B2 (ja) 2012-10-25 2017-09-06 古野電気株式会社 ゲイン設定方法、ゲイン設定プログラム、及びゲイン設定装置
JP6084812B2 (ja) * 2012-10-29 2017-02-22 古野電気株式会社 追尾処理装置、及び追尾処理方法
JP6084810B2 (ja) 2012-10-29 2017-02-22 古野電気株式会社 追尾処理装置、及び追尾処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009052940A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 移動物体検出装置および自律移動物体
WO2013128852A1 (ja) * 2012-02-29 2013-09-06 日本電気株式会社 動線情報生成システム、動線情報生成方法および動線情報生成プログラム
JP2014102256A (ja) * 2014-02-03 2014-06-05 Tokyo Keiki Inc 目標追尾装置及び目標追尾方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3226025A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019058836A1 (ja) * 2017-09-22 2019-03-28 古野電気株式会社 レーダ装置及び物標追尾方法
US20200292693A1 (en) * 2017-09-22 2020-09-17 Furuno Electric Co., Ltd. Radar device and target tracking method
JPWO2019058836A1 (ja) * 2017-09-22 2020-11-05 古野電気株式会社 レーダ装置及び物標追尾方法
US11500085B2 (en) 2017-09-22 2022-11-15 Furuno Electric Co., Ltd. Radar device and target tracking method

Also Published As

Publication number Publication date
US20170261608A1 (en) 2017-09-14
JP6334730B2 (ja) 2018-05-30
US10585184B2 (en) 2020-03-10
EP3226025A1 (en) 2017-10-04
JPWO2016084498A1 (ja) 2017-09-07
EP3226025A4 (en) 2018-07-18
CN107110967A (zh) 2017-08-29
JP6554205B2 (ja) 2019-07-31
CN107110967B (zh) 2020-10-16
JP2018136337A (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6554205B2 (ja) 追尾処理装置及び追尾処理方法
JP5658871B2 (ja) 信号処理装置、レーダ装置、信号処理プログラム及び信号処理方法
JP5697910B2 (ja) 閾値設定方法、物標探知方法、閾値設定装置、物標探知装置、閾値設定プログラム、および物標探知プログラム
JP6084812B2 (ja) 追尾処理装置、及び追尾処理方法
JP6084810B2 (ja) 追尾処理装置、及び追尾処理方法
JP5398195B2 (ja) レーダ装置
JP2008164545A (ja) 移動目標検出装置、移動目標検出方法および移動目標検出プログラム
JP6762726B2 (ja) レーダ装置及び物標追尾方法
WO2019058836A1 (ja) レーダ装置及び物標追尾方法
JP5074718B2 (ja) 船舶用レーダ
JP2011242253A (ja) エコー信号処理装置、レーダ装置、エコー信号処理プログラム及びエコー信号処理方法
JP6084811B2 (ja) 追尾処理装置、及び追尾処理方法
JP6466702B2 (ja) 追尾処理装置、レーダ装置、および、追尾処理方法
JP6180004B2 (ja) 追尾処理装置、及び追尾処理方法
JP6192915B2 (ja) ゲイン設定方法、ゲイン設定プログラム、及びゲイン設定装置
JP2010145224A (ja) スキャニングソナー装置
CN112285708A (zh) 一种船载x波段雷达海浪反演区域处理方法及系统
JP6339074B2 (ja) 海象検出装置、レーダ装置、海象検出方法、および、プログラム
JP6235557B2 (ja) レーダー装置
JP6466768B2 (ja) レーダ装置
JP6138430B2 (ja) 危険物標検出装置
JP5730080B2 (ja) レーダ信号処理装置、レーダ装置、レーダ信号処理プログラム及びレーダ信号処理方法
JP6084813B2 (ja) エコー信号処理装置、レーダ装置、エコー信号処理方法、及びエコー信号処理プログラム
JP7023633B2 (ja) レーダ受信信号処理装置、プログラム及び方法
JP2701673B2 (ja) 合成開口レーダ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15862592

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016561449

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15528700

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015862592

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE