JP7419086B2 - Underwater detection device and how to display underwater detection images - Google Patents

Underwater detection device and how to display underwater detection images Download PDF

Info

Publication number
JP7419086B2
JP7419086B2 JP2020012837A JP2020012837A JP7419086B2 JP 7419086 B2 JP7419086 B2 JP 7419086B2 JP 2020012837 A JP2020012837 A JP 2020012837A JP 2020012837 A JP2020012837 A JP 2020012837A JP 7419086 B2 JP7419086 B2 JP 7419086B2
Authority
JP
Japan
Prior art keywords
detection device
underwater detection
image
cross
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020012837A
Other languages
Japanese (ja)
Other versions
JP2021117204A (en
Inventor
政浩 西坂
一浩 葛原
勇輝 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2020012837A priority Critical patent/JP7419086B2/en
Publication of JP2021117204A publication Critical patent/JP2021117204A/en
Application granted granted Critical
Publication of JP7419086B2 publication Critical patent/JP7419086B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、水中に音波を送波し、その反射波に基づいて、水中の状態を探知する水中探知装置、および、上記反射波の信号強度に基づく画像をディスプレイに表示させる水中探知画像の表示方法に関する。 The present invention relates to an underwater detection device that transmits sound waves underwater and detects underwater conditions based on the reflected waves, and an underwater detection image display that displays an image on a display based on the signal strength of the reflected waves. Regarding the method.

従来、水中に音波を送波し、その反射波に基づいて、水中の状態を探知する水中探知装置が知られている。この種の装置では、たとえば、超音波を送受信するための送波器および受波器が船底に設置され、3次元状の探知範囲について、反射波の信号強度(ボリュームデータ)が取得される。そして、取得されたボリュームデータに基づいて、信号強度の表面画像(3次元画像)が生成され、生成された表面画像が当該探知範囲の探知画像としてモニタ等に表示される。使用者は、表示された探知画像を参照することにより、水中に存在する魚群や沈船等の物標の状況を把握できる。 2. Description of the Related Art Conventionally, underwater detection devices are known that transmit sound waves underwater and detect underwater conditions based on the reflected waves. In this type of device, for example, a transmitter and a receiver for transmitting and receiving ultrasonic waves are installed on the bottom of a ship, and the signal strength (volume data) of reflected waves is acquired in a three-dimensional detection range. Then, a surface image (three-dimensional image) of signal strength is generated based on the acquired volume data, and the generated surface image is displayed on a monitor or the like as a detection image of the detection range. By referring to the displayed detection images, the user can grasp the status of underwater targets such as schools of fish and shipwrecks.

ここで、ボリュームデータは、種々の方法により取得され得る。たとえば、船底の真下に向けて扁平な扇形の送信ビームを送波して反射波の強度データを取得し、取得した強度データを時系列に集積することにより、ボリュームデータが取得される。この構成では、所定期間において集積されたボリュームデータを用いて水中の状態を3次元表示できる。 Here, volume data can be obtained by various methods. For example, volume data is acquired by transmitting a flat, fan-shaped transmission beam directly below the bottom of the ship, acquiring intensity data of reflected waves, and accumulating the acquired intensity data in time series. With this configuration, underwater conditions can be displayed three-dimensionally using volume data accumulated over a predetermined period of time.

以下の特許文献1には、この種の水中探知装置が記載されている。 Patent Document 1 below describes this type of underwater detection device.

米国特許出願公開第2016/0018515号明細書US Patent Application Publication No. 2016/0018515

上記のような水中探知装置では、探知範囲に存在する物標表面の信号強度を、所定の視点において3次元表示させ得るものの、物標内部の密度(信号強度の分布)や、物標の奥方に隠れる他の物標の強度分布を表示画像から容易に把握することはできない。 Although underwater detection devices such as those described above can display the signal strength of the target object surface existing in the detection range in three dimensions from a predetermined viewpoint, the density inside the target object (signal strength distribution) and the distance It is not easy to understand the intensity distribution of other targets hidden in the displayed image.

かかる課題に鑑み、本発明は、ボリュームデータにより生成される画像から物標内部の強度分布や奥方に隠れる他の物標の強度分布を容易に把握することが可能な水中探知装置および水中探知画像の表示方法を提供することを目的とする。 In view of such problems, the present invention provides an underwater detection device and an underwater detection image that can easily grasp the intensity distribution inside the target object and the intensity distribution of other targets hidden in the back from images generated by volume data. The purpose is to provide a display method for

本発明の第1の態様は水中探知装置に関する。この態様に係る水中探知装置は、3次元状の探知範囲における反射波の信号強度の分布を示すボリュームデータを操作部に対する操作に応じたスライス面でスライスし、スライス面上におけるボリュームデータに基づいて、信号強度の分布を示す断面画像を表示部に表示させる信号処理部を備える。 A first aspect of the present invention relates to an underwater detection device. The underwater detection device according to this aspect slices volume data indicating the distribution of signal strength of reflected waves in a three-dimensional detection range on a slice plane according to an operation on the operation unit, and slices volume data indicating the distribution of signal intensity of reflected waves in a three-dimensional detection range, and based on the volume data on the slice plane. , a signal processing section that causes a display section to display a cross-sectional image showing a distribution of signal intensity.

本態様に係る水中探知装置によれば、使用者は、断面画像を参照することにより、スライス位置(スライス面上)における信号強度を把握できる。また、使用者は、操作部に対する操作に応じて断面画像のスライス位置を移動させることができる。使用者は、このように断面画像のスライス位置を移動させることによって、物標内部の強度分布や、物標の奥方に隠れる他の物標の内部の強度分布を容易に把握できる。 According to the underwater detection device according to this aspect, the user can grasp the signal strength at the slice position (on the slice plane) by referring to the cross-sectional image. Further, the user can move the slice position of the cross-sectional image according to the operation on the operation unit. By moving the slice position of the cross-sectional image in this way, the user can easily grasp the intensity distribution inside the target object and the intensity distribution inside other targets hidden behind the target object.

本態様に係る水中探知装置において、信号処理部は、ボリュームデータに基づいて、所定の視点から見たときの信号強度の分布を示す探知画像を生成し、生成した探知画像を表示部に表示させるよう構成され得る。 In the underwater detection device according to this aspect, the signal processing unit generates a detection image indicating the distribution of signal strength when viewed from a predetermined viewpoint based on the volume data, and causes the display unit to display the generated detection image. It can be configured as follows.

この構成によれば、使用者は、断面画像により所定のスライス位置における信号強度の分布を把握できるとともに、探知画像により探知範囲全体の信号強度の分布を把握できる。 According to this configuration, the user can understand the distribution of signal intensity at a predetermined slice position using the cross-sectional image, and can also understand the distribution of signal intensity over the entire detection range using the detection image.

この場合、信号処理部は、探知画像に断面画像を重ねて表示させるよう構成され得る。 In this case, the signal processing unit may be configured to display the cross-sectional image superimposed on the detection image.

この構成によれば、使用者は、断面位置の信号強度を断面画像で把握しつつ、断面位置以外の信号強度を探知画像により把握できる。よって、使用者は、断面画像以外に位置にも魚群等の物標がさらに存在するか否かを併せて把握でき、確認すべき魚群を円滑に見つけ出すことができる。 According to this configuration, the user can grasp the signal strength at the cross-sectional position using the cross-sectional image, and at the same time grasp the signal strength at positions other than the cross-sectional position using the detection image. Therefore, the user can also grasp whether there are other targets such as a school of fish at a location other than the cross-sectional image, and can smoothly find the school of fish to be confirmed.

この場合、信号処理部は、断面画像のスライス面よりも視点側の探知画像を非表示に設定するよう構成され得る。 In this case, the signal processing unit may be configured to set the detected image closer to the viewpoint than the slice plane of the cross-sectional image to non-display.

この構成によれば、断面画像より視点側の探知画像によって断面画像が見えにくくなることを抑制できる。よって、使用者は、より明瞭に断面画像を確認できる。 According to this configuration, it is possible to prevent the cross-sectional image from becoming difficult to see due to the detected image on the viewpoint side of the cross-sectional image. Therefore, the user can confirm the cross-sectional image more clearly.

あるいは、信号処理部は、断面画像のスライス面よりも視点側の探知画像を透過表示に設定するように構成されてもよい。 Alternatively, the signal processing unit may be configured to set the detected image closer to the viewpoint than the slice plane of the cross-sectional image to transparent display.

この構成によれば、使用者は、断面画像における信号強度を確認しつつ、断面画像よりも視点側の探知画像における信号強度も確認することができる。 According to this configuration, the user can check the signal strength in the cross-sectional image and also check the signal strength in the detection image on the viewpoint side than the cross-sectional image.

本態様に係る水中探知装置において、信号処理部は、探知画像とは別に断面画像を表示部に表示させてもよい。 In the underwater detection device according to this aspect, the signal processing section may display the cross-sectional image on the display section separately from the detection image.

この構成によれば、使用者は、断面画像とともに、探知画像の全体を、良好に把握できる。 According to this configuration, the user can satisfactorily understand the entire detected image as well as the cross-sectional image.

本態様に係る水中探知装置において、信号処理部は、操作部を介して、前記スライス面の移動方向の選択を受け付けるよう構成され得る。 In the underwater detection device according to this aspect, the signal processing section may be configured to accept selection of the moving direction of the slice plane via the operation section.

この構成によれば、使用者が所望する方向に断面画像の移動方向を変更できる。よって、使用者は、信号強度の確認作業をより効率的に進めることができる。 According to this configuration, the moving direction of the cross-sectional image can be changed in a direction desired by the user. Therefore, the user can proceed with the signal strength confirmation work more efficiently.

ここで、前記スライス面の移動方向は、鉛直方向を含むことが好ましい。 Here, it is preferable that the moving direction of the slice plane includes a vertical direction.

この場合、使用者は、水深方向に断面画像を移動させることができ、これにより、所定の水深に群がる魚群等を円滑に確認できる。 In this case, the user can move the cross-sectional image in the direction of water depth, thereby smoothly confirming schools of fish etc. that gather at a predetermined water depth.

あるいは、前記スライス面の移動方向は、視線方向を含んでもよい。 Alternatively, the moving direction of the slice plane may include the viewing direction.

この場合、使用者が探知画像を参照する方向と、操作に応じて断面画像が移動する方向とを一致させることができる。これにより、使用者は、断面画像の移動を直感的にイメージでき、断面画像の移動および魚群等の確認作業を円滑に進めることができる。 In this case, the direction in which the user refers to the detected image can be matched with the direction in which the cross-sectional image moves in response to the operation. As a result, the user can intuitively visualize the movement of the cross-sectional image, and can smoothly move the cross-sectional image and confirm the school of fish.

この他、前記スライス面の移動方向は、水平方向等の他の方向を含んでいてもよい。 In addition, the moving direction of the slice plane may include other directions such as a horizontal direction.

本態様に係る水中探知装置において、信号処理部は、前記操作部に対する操作に応じて、前記断面画像上に信号強度の計測位置を設定するよう構成され得る。 In the underwater detection device according to this aspect, the signal processing section may be configured to set a signal intensity measurement position on the cross-sectional image in response to an operation on the operation section.

この構成によれば、使用者は、たとえば、断面画像上において信号強度が高い位置を計測位置に容易に指定できる。 According to this configuration, the user can easily specify, for example, a position where the signal intensity is high on the cross-sectional image as the measurement position.

この場合、信号処理部は、計測位置を含む所定の3次元範囲を信号強度の計測範囲に設定するよう構成され得る。 In this case, the signal processing unit may be configured to set a predetermined three-dimensional range including the measurement position as the signal strength measurement range.

この構成によれば、当該計測範囲に含まれる魚群等の物標の信号強度を円滑に抽出して計測できる。 According to this configuration, the signal strength of a target object such as a school of fish included in the measurement range can be smoothly extracted and measured.

この場合、信号処理部は、探知画像上に計測範囲を表示させ、操作部に対する操作に応じて、計測範囲の大きさを変更するよう構成され得る。 In this case, the signal processing section may be configured to display the measurement range on the detection image and change the size of the measurement range in accordance with an operation on the operation section.

この構成によれば、使用者は、たとえば、探知画像および計測範囲の表示を参照しつつ、魚群等の範囲に計測範囲を円滑に調整できる。これにより、使用者は、計測対象物標の信号強度を適正に計測できる。 According to this configuration, the user can smoothly adjust the measurement range to the range of the school of fish, etc., while referring to the detection image and the display of the measurement range, for example. Thereby, the user can appropriately measure the signal strength of the measurement target.

上記構成において、信号処理部は、計測範囲に含まれる信号強度のヒストグラムを表示部に表示させるよう構成され得る。 In the above configuration, the signal processing section may be configured to display a histogram of signal intensities included in the measurement range on the display section.

あるいは、信号処理部は、計測範囲に含まれる信号強度に基づいて、当該計測範囲に含まれる魚量に関する情報を表示部に表示させるよう構成され得る。 Alternatively, the signal processing unit may be configured to display information regarding the amount of fish included in the measurement range on the display unit based on the signal strength included in the measurement range.

これらの構成によれば、使用者は、魚群の密集度や当該魚群の総魚量を容易に把握できる。 According to these configurations, the user can easily grasp the density of the fish school and the total amount of fish in the fish school.

本発明の第2の態様は、水中探知画像の表示方法に関する。この態様に係る水中探知画像の表示方法は、3次元状の探知範囲における反射波の信号強度の分布を示すボリュームデータを操作部に対する操作に応じたスライス面でスライスし、スライス面上におけるボリュームデータに基づいて、信号強度の分布を示す断面画像を表示部に表示させる。 A second aspect of the present invention relates to a method for displaying underwater detection images. The method for displaying an underwater detection image according to this aspect is to slice volume data indicating the distribution of signal strength of reflected waves in a three-dimensional detection range on a slice plane according to an operation on the operation unit, and display the volume data on the slice plane. A cross-sectional image showing the distribution of signal intensity is displayed on the display unit based on the cross-sectional image.

本態様に係る水中探知画像の表示方法によれば、上記第1の態様と同様の効果が奏され得る。 According to the underwater detection image display method according to this aspect, the same effects as in the first aspect can be achieved.

以上のとおり、本発明によれば、ボリュームデータにより生成される画像から物標内部の強度分布や奥方に隠れる他の物標の強度分布を容易に把握することが可能な水中探知装置および水中探知画像の表示方法を提供することができる。 As described above, according to the present invention, an underwater detection device and an underwater detection device are capable of easily grasping the intensity distribution inside a target object and the intensity distribution of other targets hidden in the background from an image generated by volume data. A method for displaying images can be provided.

本発明の効果ないし意義は、以下に示す実施形態の説明により更に明らかとなろう。ただし、以下に示す実施形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施形態に記載されたものに何ら制限されるものではない。 The effects and significance of the present invention will become clearer from the following description of the embodiments. However, the embodiment shown below is merely one example of implementing the present invention, and the present invention is not limited to what is described in the embodiment below.

図1は、実施形態に係る、水中探知装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an underwater detection device according to an embodiment. 図2は、実施形態に係る、ボクセルの設定方法を模式的に示す図である。FIG. 2 is a diagram schematically showing a voxel setting method according to the embodiment. 図3は、実施形態に係る、ボリュームデータとスライス面との関係を模式的に示す図である。FIG. 3 is a diagram schematically showing the relationship between volume data and slice planes according to the embodiment. 図4は、実施形態に係る、探知画像および断面画像を用いて魚量等の計測を行うための処理を示すフローチャートである。FIG. 4 is a flowchart illustrating processing for measuring the amount of fish and the like using detected images and cross-sectional images, according to the embodiment. 図5は、実施形態に係る、探知画像および断面画像を用いて魚量等の計測を行うための処理を示すフローチャートである。FIG. 5 is a flowchart illustrating processing for measuring the amount of fish and the like using detected images and cross-sectional images, according to the embodiment. 図6は、実施形態に係る、計測処理において表示部に表示される画面を示す図である。FIG. 6 is a diagram showing a screen displayed on the display unit during measurement processing according to the embodiment. 図7は、実施形態に係る、計測処理において表示部に表示される画面を示す図である。FIG. 7 is a diagram showing a screen displayed on the display unit during measurement processing according to the embodiment. 図8は、実施形態に係る、計測処理において表示部に表示される画面を示す図である。FIG. 8 is a diagram showing a screen displayed on the display unit during measurement processing according to the embodiment. 図9は、実施形態に係る、計測処理において表示部に表示される画面を示す図である。FIG. 9 is a diagram showing a screen displayed on the display unit during measurement processing according to the embodiment. 図10は、実施形態に係る、計測処理において表示部に表示される画面を示す図である。FIG. 10 is a diagram showing a screen displayed on the display unit during measurement processing according to the embodiment. 図11(a)は、実施形態に係る、断面画像の表示処理において実行されるサブルーチンを示す図である。図11(b)は、変更例1に係る、断面画像の表示処理において実行されるサブルーチンを示す図である。FIG. 11A is a diagram showing a subroutine executed in cross-sectional image display processing according to the embodiment. FIG. 11(b) is a diagram illustrating a subroutine executed in a cross-sectional image display process according to modification example 1. 図12(a)、図12(b)は、それぞれ、変更例2に係る、スライス面を水平方向に移動させる場合の、ボリュームデータとスライス面との関係を模式的に示す図である。FIGS. 12(a) and 12(b) are diagrams each schematically showing the relationship between the volume data and the slice plane when the slice plane is moved in the horizontal direction according to Modification Example 2. 図13は、変更例2に係る、スライス面を視線方向に移動させる場合の、ボリュームデータとスライス面との関係を模式的に示す図である。FIG. 13 is a diagram schematically showing the relationship between the volume data and the slice plane when the slice plane is moved in the viewing direction according to Modification Example 2. 図14は、変更例2に係る、計測処理において表示部に表示される画面を示す図である。FIG. 14 is a diagram showing a screen displayed on the display unit in measurement processing according to modification example 2. 図15は、変更例3に係る、計測処理において表示部に表示される画面の構成を示す図である。FIG. 15 is a diagram showing the configuration of a screen displayed on the display unit in measurement processing according to modification example 3.

以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1は、水中探知装置10の構成を示すブロック図である。 FIG. 1 is a block diagram showing the configuration of an underwater detection device 10. As shown in FIG.

水中探知装置10は、送波器11と受波器12とを備える。送波器11と受波器12は、水中に向くようにして、船底に設置される、送波器11と受波器12がユニット化されて船底に設置されてもよい。 The underwater detection device 10 includes a wave transmitter 11 and a wave receiver 12. The wave transmitter 11 and the wave receiver 12 may be installed on the bottom of the ship so as to face underwater, or the wave transmitter 11 and the wave receiver 12 may be installed as a unit on the bottom of the ship.

送波器11および受波器12は、たとえば、超音波振動子である。たとえば、送波器11は、複数の超音波振動子が1列に並ぶ構成を備える。各超音波振動子に正弦波状の送信信号が印加される。これにより、各超音波振動子から超音波が送波される。各超音波振動子に印加される送信信号の位相を制御することにより、所定厚みの送信ビームが形成される。送信ビームは、厚み方向に見て、所定の角度(たとえば、120°)の頂角で扇形に広がる。本実施形態では、送信ビームは、鉛直下向きに送波される。すなわち、送信ビームの扇形の頂角を2等分する直線が鉛直方向に平行となるように、送信ビームが水中に送波される。 The transmitter 11 and the receiver 12 are, for example, ultrasonic transducers. For example, the transmitter 11 has a configuration in which a plurality of ultrasonic transducers are lined up in a row. A sinusoidal transmission signal is applied to each ultrasonic transducer. As a result, ultrasonic waves are transmitted from each ultrasonic transducer. By controlling the phase of the transmission signal applied to each ultrasonic transducer, a transmission beam with a predetermined thickness is formed. The transmitted beam spreads out in a fan shape with a predetermined apex angle (eg, 120°) when viewed in the thickness direction. In this embodiment, the transmission beam is transmitted vertically downward. That is, the transmission beam is transmitted into the water so that the straight line that bisects the apex angle of the fan shape of the transmission beam is parallel to the vertical direction.

受波器12は、たとえば、複数の超音波振動子が1列に並ぶ構成を備える。たとえば、受波器12の超音波振動子の並び方向は、送波器11の超音波振動子の並び方向に垂直である。すなわち、受波器12の超音波振動子は、送信ビームの広がり方向(扇形の広がり方向)に並ぶ。送波器11および受波器12の超音波振動子の並び方向は、必ずしも垂直でなくてもよく、互いに交差する方向であればよい。 The receiver 12 has, for example, a configuration in which a plurality of ultrasonic transducers are arranged in a row. For example, the direction in which the ultrasonic transducers of the receiver 12 are arranged is perpendicular to the direction in which the ultrasonic transducers of the transmitter 11 are arranged. That is, the ultrasonic transducers of the receiver 12 are aligned in the direction in which the transmission beam spreads (in the direction in which the fan shape spreads). The directions in which the ultrasonic transducers of the transmitter 11 and the receiver 12 are arranged do not necessarily have to be perpendicular, but may be directions that intersect with each other.

受波器12の各超音波振動子によって、送波器11から送波された超音波の反射波が受波される。受波器12の各超音波振動子は、反射波の強度に応じた大きさの受信信号を出力する。受信信号に対して位相制御(ビームフォーミング)を行うことにより、送信ビームの広がり角(扇形の頂角)の方向に並ぶ複数の受信ビームが形成される。これにより、受信ビームごとに、すなわち、送信ビームの広がり角(扇形の頂角)の方向において所定の角度ごとに、反射波の受信信号が生成される。受信ビームのピッチを小さくして受信ビームの数を増加させるほど、送信ビームの広がり角(扇形の頂角)の方向における水中探知の分解能が増加する。 The reflected waves of the ultrasonic waves transmitted from the wave transmitter 11 are received by each ultrasonic transducer of the wave receiver 12 . Each ultrasonic transducer of the wave receiver 12 outputs a received signal of a magnitude corresponding to the intensity of the reflected wave. By performing phase control (beamforming) on the received signal, a plurality of receiving beams are formed that are aligned in the direction of the spread angle (the apex angle of the sector) of the transmitted beam. Thereby, a received signal of a reflected wave is generated for each receiving beam, that is, for each predetermined angle in the direction of the spread angle (vertical angle of the sector) of the transmitting beam. As the pitch of the receive beams is reduced and the number of receive beams is increased, the resolution of underwater detection in the direction of the spread angle (vertical fan angle) of the transmit beams increases.

回転駆動部13は、送波器11および受波器12を鉛直方向に平行な軸について一体的に回転させる。これにより、上述の送信ビームおよび受信ビームが上記軸について一体的に回転する。このように、各ビームが回転することにより、船を中心に水平方向に全周に亘って、受信信号を取得でき、全周に亘って水中の状態を探知できる。回転駆動部13は、駆動源であるモータと、回転位置を検出するためのロータリーエンコーダとを備える。ロータリーエンコーダの検出信号は、随意、信号処理部17に入力される。 The rotation drive unit 13 rotates the wave transmitter 11 and the wave receiver 12 integrally about an axis parallel to the vertical direction. Thereby, the above-mentioned transmitting beam and receiving beam rotate integrally about the above-mentioned axis. In this way, by rotating each beam, it is possible to obtain received signals all around the ship in the horizontal direction, and to detect underwater conditions all around the ship. The rotation drive unit 13 includes a motor as a drive source and a rotary encoder for detecting a rotational position. The detection signal of the rotary encoder is optionally input to the signal processing section 17.

さらに、水中探知装置10は、送信制御部14と、受信ビーム形成部15と、駆動制御部16と、信号処理部17と、操作部18と、表示部19とを備える。送信制御部14、受信ビーム形成部15、駆動制御部16、信号処理部17、操作部18および表示部19は、船の操舵室等に設置される。これらの構成要素が、1つの筐体にユニット化されてもよく、あるいは、表示部19等の一部の構成要素が別体とされてもよい。送信制御部14、受信ビーム形成部15および駆動制御部16は、それぞれ、信号ケーブルによって、送波器11、受波器12および駆動制御部16に通信可能に接続される。 Further, the underwater detection device 10 includes a transmission control section 14 , a reception beam forming section 15 , a drive control section 16 , a signal processing section 17 , an operation section 18 , and a display section 19 . The transmission control section 14, reception beam forming section 15, drive control section 16, signal processing section 17, operation section 18, and display section 19 are installed in a ship's wheelhouse or the like. These components may be unitized into one housing, or some components such as the display section 19 may be separated. The transmission control section 14, reception beam forming section 15, and drive control section 16 are communicably connected to the wave transmitter 11, the wave receiver 12, and the drive control section 16, respectively, by signal cables.

送信制御部14は、信号処理部17からの制御により、送波器11に送信信号を出力する。送信制御部14は、上記のように、扇形に広がる扁平な送信ビームが形成されるように、送波器11の超音波振動子に送信信号を供給する。 The transmission control section 14 outputs a transmission signal to the transmitter 11 under control from the signal processing section 17 . As described above, the transmission control unit 14 supplies a transmission signal to the ultrasonic transducer of the wave transmitter 11 so that a flat transmission beam that spreads in a fan shape is formed.

受信ビーム形成部15は、上記のように、受波器12の各超音波振動子から入力される受信信号にビームフォーミングの処理を適用して、送信ビームの扇型の頂角の角度方向に並ぶ複数の受信ビームを形成する。そして、受信ビーム形成部15は、受信ビームごとに受信信号を信号処理部17に出力する。 As described above, the reception beam forming unit 15 applies beamforming processing to the reception signals inputted from each ultrasonic transducer of the wave receiver 12, and converts the transmission beam in the angular direction of the fan-shaped apex angle. Forms multiple receive beams lined up. Then, the reception beam forming section 15 outputs the reception signal to the signal processing section 17 for each reception beam.

駆動制御部16は、信号処理部17からの制御により、回転駆動部13を制御する。これにより、上記のように、送波器11と受波器12が一体的に回転し、これに伴い、送信ビームと受信ビームが一体的に回転する。 The drive control section 16 controls the rotation drive section 13 under control from the signal processing section 17 . As a result, as described above, the transmitter 11 and the receiver 12 rotate integrally, and accordingly, the transmitting beam and the receiving beam rotate integrally.

信号処理部17は、予め保持したプログラムに従って各部を制御する。また、信号処理部17は、受信ビーム形成部15から入力される受信信号を処理して、探知範囲(送信ビームが1回転する範囲)の画像を生成し、表示部19に表示させる。信号処理部17は、CPU(Central Processing Unit)等の演算処理回路と、ROM(ReadOnly Memory)、RAM(Random Access Memory)や、ハードディスク等の記憶媒体とを備える。記憶媒体に上記ブログラムが保持されている。信号処理部17が、FPGA(Field-Programmable Gate Array)等の集積回路で構成されてもよい。 The signal processing section 17 controls each section according to a pre-held program. Further, the signal processing unit 17 processes the reception signal input from the reception beam forming unit 15 to generate an image of the detection range (the range in which the transmission beam rotates once), and causes the display unit 19 to display the image. The signal processing unit 17 includes an arithmetic processing circuit such as a CPU (Central Processing Unit), and a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The above program is held in a storage medium. The signal processing unit 17 may be configured with an integrated circuit such as an FPGA (Field-Programmable Gate Array).

なお、信号処理部17は、必ずしも、1つの集積回路で構成されなくてもよく、複数の集積回路や演算処理回路が組み合わされて構成されてもよい。たとえば、信号処理部17は、送波器11および回転駆動部13を制御するための演算処理回路と、受信ビーム形成部15から入力される受信信号を処理して探知画像を生成するための演算処理回路とを、個別に備えていてもよい。 Note that the signal processing section 17 does not necessarily have to be composed of one integrated circuit, and may be composed of a combination of a plurality of integrated circuits or arithmetic processing circuits. For example, the signal processing unit 17 includes an arithmetic processing circuit for controlling the transmitter 11 and the rotation drive unit 13, and an arithmetic processing circuit for processing the received signal input from the receiving beam forming unit 15 to generate a detection image. A processing circuit may be provided separately.

操作部18は、使用者からの入力を受け付けるユーザインタフェースである。操作部18は、マウスやキーボード等の入力手段を備える。操作部18が、表示部19に一体化されたタッチパネルを備えていてもよい。本実施形態では、操作部18がマウス100を備えており、後述のように、マウス100によって探知画像および断面画像に対する操作入力が行われる。マウス100の上面には、ホイール101と、左クリック用の操作子102および右クリック用の操作子103とが配置されている。この他、マウス100の下面には、マウス100の移動を検出するためのセンサが配置されている。 The operation unit 18 is a user interface that accepts input from the user. The operation unit 18 includes input means such as a mouse and a keyboard. The operation unit 18 may include a touch panel integrated into the display unit 19. In this embodiment, the operation unit 18 includes a mouse 100, and as described later, the mouse 100 is used to input operations on the detected image and the cross-sectional image. A wheel 101, a left-click operator 102, and a right-click operator 103 are arranged on the top surface of the mouse 100. In addition, a sensor for detecting movement of the mouse 100 is arranged on the bottom surface of the mouse 100.

表示部19は、信号処理部17によって生成された画像を表示する。表示部19はモニタや液晶パネル等の表示器を備える。後述のように、表示部19には、探知画像や断面画像が表示される。この他、水中探知装置10は、方位および位置を検出するための構成、たとえば、GPS(Global Positioning System)等を備える。 The display unit 19 displays the image generated by the signal processing unit 17. The display unit 19 includes a display such as a monitor or a liquid crystal panel. As described later, a detected image and a cross-sectional image are displayed on the display unit 19. In addition, the underwater detection device 10 includes a configuration for detecting direction and position, such as GPS (Global Positioning System).

信号処理部17は、送信ビームが旋回する3次元状の探知範囲について、反射波の信号強度(ボリュームデータ)を取得する。具体的には、信号処理部17は、扇形形状の送信ビームを頂角の角度方向に所定の分解能で区分した角度範囲(受信ビーム形成部15で形成される各受信ビームの角度範囲)ごとに、受信信号を参照する。ここで、送信ビームを送波したタイミングから反射波を受波するタイミングまでの時間差の半分の時間が、当該反射波を反射した物標までの距離に相当する。信号処理部17は、送信ビームを送波したタイミングからの経過時間と、受信信号の強度とを、受信ビームごとに対応づける。すなわち、信号処理部17は、送信ビームを送波したタイミングから一定の時間間隔で受信信号の強度を取得する。 The signal processing unit 17 acquires the signal strength (volume data) of the reflected waves for the three-dimensional detection range in which the transmission beam rotates. Specifically, the signal processing unit 17 divides the fan-shaped transmission beam into each angular range (angular range of each receiving beam formed by the receiving beam forming unit 15) with a predetermined resolution in the angular direction of the apex angle. , refer to the received signal. Here, half of the time difference between the timing of transmitting the transmission beam and the timing of receiving the reflected wave corresponds to the distance to the target object that reflected the reflected wave. The signal processing unit 17 associates the elapsed time from the timing of transmitting the transmission beam with the strength of the reception signal for each reception beam. That is, the signal processing unit 17 acquires the strength of the received signal at regular time intervals from the timing at which the transmission beam is transmitted.

こうして、各受信ビームの角度範囲ごとに、経過時間(距離)と受信信号の強度とを対応づけたデータ群が取得される。信号処理部17は、送信ビームが水平方向に1回転する間に、所定の回転角ごとに上記処理を繰り返し実行する。これにより、船の全周に亘る探知範囲全体について、経過時間(距離)と受信信号の強度とを対応づけたデータ群が取得される。信号処理部17は、この処理により取得したデータ群を、予め規定されているボクセルに、線形補間処理により、マッピングする。 In this way, a data group is obtained that associates the elapsed time (distance) with the strength of the received signal for each angular range of each received beam. The signal processing unit 17 repeatedly performs the above processing at every predetermined rotation angle while the transmission beam makes one rotation in the horizontal direction. As a result, a data group is acquired that associates elapsed time (distance) with received signal strength for the entire detection range surrounding the entire circumference of the ship. The signal processing unit 17 maps the data group obtained through this processing to predefined voxels by linear interpolation processing.

図2は、ボクセルB1の設定方法を模式的に示す図である。便宜上、図2には、互いに直交するXYZ軸が付記されている。X-Y平面は、水平面に平行である。Y軸正方向は船20の進行方向であり、Z軸正方向は水深方向である。 FIG. 2 is a diagram schematically showing a method of setting voxel B1. For convenience, XYZ axes that are orthogonal to each other are shown in FIG. The XY plane is parallel to the horizontal plane. The Y-axis positive direction is the traveling direction of the ship 20, and the Z-axis positive direction is the water depth direction.

図2に示すように、船20の真下(送波器11および受波器12の真下)に直方体の領域(ボリュームデータVDを取得する全体の領域)が設定され、この領域が、XYZ軸方向に均等に区分されて1つのボクセルB1が設定される。ボクセルB1は、立方体の形状である。ボリュームデータVDの範囲を規定する直方体の領域およびボクセルの細かさは、説明の便宜上、図2のように設定されているが、この設定方法に限られるものではない。XYZ軸方向における直方体の領域のサイズは、図2のサイズより大きくてもよい。直方体の領域は、船20が浮かぶ海面付近まで伸びていてもよい。また、XYZ軸方向におけるボクセルB1のサイズは、実際は、図2のサイズよりもさらに細かい。 As shown in FIG. 2, a rectangular parallelepiped area (the entire area from which volume data VD is acquired) is set directly below the ship 20 (directly below the transmitter 11 and receiver 12), and this area is One voxel B1 is set evenly divided into the following. Voxel B1 has a cubic shape. For convenience of explanation, the rectangular parallelepiped area and the fineness of the voxels that define the range of the volume data VD are set as shown in FIG. 2, but the setting method is not limited to this. The size of the rectangular parallelepiped area in the XYZ axis directions may be larger than the size shown in FIG. 2 . The rectangular parallelepiped region may extend to near the sea surface where the ship 20 floats. Furthermore, the size of the voxel B1 in the XYZ axis directions is actually smaller than the size shown in FIG.

信号処理部17は、上記の処理により取得した船20の全周の信号強度のデータを、線形補間処理により、各ボクセルB1にマッピングする。これにより、直方体の領域に設定された全てのボクセルB1に受信信号の強度を示すデータがマッピングされ、当該領域全体のボリュームデータVDが取得される。ボリュームデータVDは、送信ビームの回転の伴い随時更新される。こうして、船20の進行に伴い最新のボリュームデータVDが取得される。 The signal processing unit 17 maps the signal strength data around the entire circumference of the ship 20 obtained through the above processing to each voxel B1 by linear interpolation processing. As a result, data indicating the strength of the received signal is mapped to all voxels B1 set in the rectangular parallelepiped area, and volume data VD of the entire area is acquired. The volume data VD is updated as needed as the transmission beam rotates. In this way, the latest volume data VD is acquired as the ship 20 advances.

図1に戻り、信号処理部17は、上記の処理により取得したボリュームデータVDに基づいて、探知画像を生成し、表示部19に表示させる。たとえば、信号処理部17は、ボリュームデータVDにボリュームレンダリング等の処理を施して、所定の視点から探知範囲を参照したときの信号強度の分布を示す3次元画像(探知画像)を生成する。探知画像は、反射波の信号強度に応じて色付けされる。水底には、信号強度に応じた色とは別の色が付されてもよい。操作部18に対する操作によって、探知画像の視点が変更可能であってもよい。 Returning to FIG. 1, the signal processing unit 17 generates a detection image based on the volume data VD acquired through the above processing, and causes the display unit 19 to display the detected image. For example, the signal processing unit 17 performs processing such as volume rendering on the volume data VD to generate a three-dimensional image (detection image) showing the distribution of signal strength when the detection range is referred to from a predetermined viewpoint. The detection image is colored according to the signal strength of the reflected waves. The bottom of the water may be given a color different from the color corresponding to the signal strength. The viewpoint of the detected image may be changeable by operating the operating unit 18.

さらに、本実施形態では、探知画像を水平面に平行なスライス面でスライスした断面画像が表示される。スライス面は、操作部18(マウス100)に対する操作により鉛直方向に移動可能である。断面画像には、当該断面における反射波の信号強度の分布が表示される。 Furthermore, in this embodiment, a cross-sectional image obtained by slicing the detected image along a slice plane parallel to the horizontal plane is displayed. The slice plane can be moved in the vertical direction by operating the operating unit 18 (mouse 100). The cross-sectional image displays the distribution of signal intensity of reflected waves in the cross-section.

図3は、ボリュームデータVDとスライス面S1との関係を模式的に示す図である。 FIG. 3 is a diagram schematically showing the relationship between the volume data VD and the slice plane S1.

上記のように、スライス面S1は、水平面(X-Y平面)に平行である。断面画像は、スライス面S1に交差するボクセルB1(図2参照)の信号強度が反映される。スライス面S1は、操作部18(マウス100)に対する操作により鉛直方向D1に移動可能である。したがって、使用者は、操作部18(マウス100)に対する操作により、鉛直方向D1に変化する断面の断面画像を参照できる。 As described above, the slice plane S1 is parallel to the horizontal plane (XY plane). The cross-sectional image reflects the signal intensity of the voxel B1 (see FIG. 2) that intersects the slice plane S1. The slice plane S1 can be moved in the vertical direction D1 by operating the operating unit 18 (mouse 100). Therefore, the user can refer to a cross-sectional image of a cross-section that changes in the vertical direction D1 by operating the operation unit 18 (mouse 100).

この他、本実施形態では、探知範囲中に計測範囲を設定して、当該計測範囲に含まれる魚量等を計測できる。使用者は、断面画像を参照しながら、所望の位置に計測範囲を設定できる。また、使用者は、計測範囲のサイズを任意に調整できる。本実施形態では、計測範囲は、立方体の形状である。ただし、計測範囲の形状は、立方体に限らず、球形や直方体形状等の他の形状であってもよい。 In addition, in this embodiment, a measurement range can be set within the detection range, and the amount of fish included in the measurement range can be measured. The user can set the measurement range at a desired position while referring to the cross-sectional image. Furthermore, the user can arbitrarily adjust the size of the measurement range. In this embodiment, the measurement range has a cubic shape. However, the shape of the measurement range is not limited to a cube, and may be other shapes such as a sphere or a rectangular parallelepiped.

図4および図5は、それぞれ、探知画像および断面画像を用いて魚量等の計測を行うための処理を示すフローチャートである。また、図6~図10は、当該計測処理において表示部19に表示される画面を示す図である。 FIGS. 4 and 5 are flowcharts showing processing for measuring the amount of fish and the like using a detection image and a cross-sectional image, respectively. Further, FIGS. 6 to 10 are diagrams showing screens displayed on the display unit 19 during the measurement process.

まず、図6を参照して、信号処理部17は、ボリュームデータVDに基づいて生成した探知画像31を含む画面30を表示させる。上記のように、探知画像31は、所定の視点から探知範囲を参照したときの信号強度の分布を示す3次元画像である。画面30には、探知画像31の他、船画像32および船の船首船尾オブジェクト33と、操作領域34とが含まれている。操作領域34には、魚量の計測を行うための項目34aが含まれている。使用者がマウス100を介して項目34aを操作することにより、図4の計測処理が開始される。 First, referring to FIG. 6, the signal processing unit 17 displays a screen 30 including a detection image 31 generated based on the volume data VD. As described above, the detection image 31 is a three-dimensional image that shows the distribution of signal strength when the detection range is referred to from a predetermined viewpoint. In addition to the detection image 31 , the screen 30 includes a ship image 32 , a ship's bow and stern object 33 , and an operation area 34 . The operation area 34 includes an item 34a for measuring the amount of fish. When the user operates the item 34a via the mouse 100, the measurement process shown in FIG. 4 is started.

図4を参照して、信号処理部17は、探知画像の視線方向をスライス面S1の移動方向に変更して、探知画像を表示させる(S101)。また、信号処理部17は、スライス面S1を初期位置(たとえば、水面位置)に設定する(S102)。これにより、図6の画面30に代えて、図7の画面40が表示される。ここでは、図4のステップS101の処理により、視線方向が鉛直下向きである場合の探知画像41が画面40に含まれる。 Referring to FIG. 4, the signal processing unit 17 changes the viewing direction of the detected image to the moving direction of the slice plane S1 and displays the detected image (S101). Further, the signal processing unit 17 sets the slice plane S1 to an initial position (eg, water surface position) (S102). As a result, the screen 40 in FIG. 7 is displayed instead of the screen 30 in FIG. 6. Here, as a result of the process in step S101 in FIG. 4, the screen 40 includes a detected image 41 when the viewing direction is vertically downward.

また、画面40には、船画像42およびスライス面の位置を示す領域43が含まれる。領域43には、スライス面を水平方向に見たときの画像が示される。領域43には、スライス面の位置を示すバー43aと、船画像43bと、スライス面の水深情報43cと、計測枠43dとが含まれる。ここでは、図4のステップS102の処理によりスライス面が水面位置に設定されるため、バー43aおよび水深情報43cが、それぞれ、水面位置に対応する位置および情報に設定されている。この他、画面40には、図6の画面30と同様、操作領域44と項目44aが含まれる。 The screen 40 also includes a ship image 42 and an area 43 indicating the position of the slice plane. In area 43, an image of the slice plane viewed in the horizontal direction is shown. The area 43 includes a bar 43a indicating the position of the slice plane, a ship image 43b, water depth information 43c of the slice plane, and a measurement frame 43d. Here, since the slice surface is set to the water surface position by the process of step S102 in FIG. 4, the bar 43a and the water depth information 43c are set to positions and information corresponding to the water surface position, respectively. In addition, the screen 40 includes an operation area 44 and an item 44a, similar to the screen 30 of FIG.

図4に戻り、信号処理部17は、マウス100のホイール101に対して操作がなされると、ホイール101の回転方向および回転量に応じてスライス面S1を鉛直方向D1に移動させ、断面画像を画面40に表示させる(S103)。また、信号処理部17は、載置面に対するマウス100の移動によりカーソルが探知範囲に重なると、カーソルの位置に、計測範囲を示す計測枠を表示させる(S104)。 Returning to FIG. 4, when the wheel 101 of the mouse 100 is operated, the signal processing unit 17 moves the slice plane S1 in the vertical direction D1 according to the rotation direction and rotation amount of the wheel 101, and converts the cross-sectional image into a cross-sectional image. It is displayed on the screen 40 (S103). Further, when the cursor overlaps the detection range due to movement of the mouse 100 with respect to the mounting surface, the signal processing unit 17 displays a measurement frame indicating the measurement range at the cursor position (S104).

こうして、図4のステップS103、S104が実行されることにより、図7の画面40は、たとえば、図8のように変化する。すなわち、ホイール101の操作によるスライス面S1の移動に伴い、領域43のバー43aと水深情報43cが変化する。ここでは、スライス面S1が水深78mの位置に移動したことが示されている。さらに、領域43中の計測枠43dが、マウス100の移動に応じたスライス面S1上の位置に位置付けられている。この他、領域43には水底を示す画像43eが含まれている。 In this way, by executing steps S103 and S104 in FIG. 4, the screen 40 in FIG. 7 changes as shown in FIG. 8, for example. That is, as the slice plane S1 moves by operating the wheel 101, the bar 43a of the region 43 and the water depth information 43c change. Here, it is shown that the slice plane S1 has moved to a position at a depth of 78 m. Furthermore, the measurement frame 43d in the area 43 is positioned at a position on the slice plane S1 according to the movement of the mouse 100. In addition, the area 43 includes an image 43e showing the bottom of the water.

また、信号処理部17は、図4のステップS103の処理により、スライス面S1でスライスされたボリュームデータVDの断面画像45を、探知画像41に重ねて表示させる。 Further, the signal processing unit 17 causes the cross-sectional image 45 of the volume data VD sliced at the slice plane S1 to be displayed superimposed on the detection image 41 through the process of step S103 in FIG.

本実施形態では、スライス面S1よりも視点側(鉛直上側)の探知画像41が非表示に設定される。また、スライス面S1上のボリュームデータVDのうち、信号強度が表示色を付するレベルよりも低いボクセルB1の位置には、鮮明度を低下させるメッシュが付された状態で、探知画像41が表示される。すなわち、スライス面S1上のボリュームデータVDのうち、信号強度が表示色を付する下限レベル以上のボクセルB1の位置に信号強度に応じた表示色が付されて、断面画像45が構成される。断面画像45以外の範囲には、鮮明度を低下させるメッシュが付された状態で、探知画像41が表示される。これにより、探知画像41に比べて断面画像45がより鮮明に表示される。使用者は、鮮明さの違いにより、断面画像45と探知画像41とを容易に区別できる。 In this embodiment, the detected image 41 on the viewpoint side (vertically above) the slice plane S1 is set to be hidden. Furthermore, in the volume data VD on the slice plane S1, the detection image 41 is displayed with a mesh that reduces the clarity attached to the position of the voxel B1 whose signal strength is lower than the level at which the display color is applied. be done. That is, in the volume data VD on the slice plane S1, a display color corresponding to the signal strength is assigned to the position of the voxel B1 whose signal strength is equal to or higher than the lower limit level to which the display color is assigned, thereby forming the cross-sectional image 45. The detection image 41 is displayed in a range other than the cross-sectional image 45 with a mesh that reduces the clarity attached. As a result, the cross-sectional image 45 is displayed more clearly than the detected image 41. The user can easily distinguish between the cross-sectional image 45 and the detected image 41 due to the difference in sharpness.

さらに、信号処理部17は、図4のステップS104の処理により、図8に示すように、探知画像41および断面画像45に重ねて計測枠46を表示させる。計測枠46は、マウス100の移動に伴い、スライス面S1上を移動する。 Furthermore, the signal processing unit 17 displays the measurement frame 46 superimposed on the detection image 41 and the cross-sectional image 45, as shown in FIG. 8, through the process of step S104 in FIG. The measurement frame 46 moves on the slice plane S1 as the mouse 100 moves.

図4に戻り、信号処理部17は、マウス100を介して使用者が決定操作(S105)または終了操作(S106)を行うまで、ステップS103、S104の処理を繰り返す。ここで、決定操作(S105)は、マウス100に対して左クリックを行う操作(図1の操作子102を押す操作)である。また、終了操作(S106)は、使用者が図8の項目44aを操作して項目44aを計測OFFに切り替える操作である。終了操作が行われると(S106:YES)、信号処理部17は、図4の処理を終了して、画面を図6の画面30に戻す。 Returning to FIG. 4, the signal processing unit 17 repeats the processing of steps S103 and S104 until the user performs a decision operation (S105) or an end operation (S106) via the mouse 100. Here, the decision operation (S105) is an operation of left-clicking the mouse 100 (an operation of pressing the operator 102 in FIG. 1). Further, the termination operation (S106) is an operation in which the user operates item 44a in FIG. 8 to switch item 44a to measurement OFF. When the termination operation is performed (S106: YES), the signal processing unit 17 terminates the process of FIG. 4 and returns the screen to the screen 30 of FIG. 6.

使用者は、マウス100のホイール101を操作して、各水深の断面画像45を参照し、魚群等の存在を確認する。そして、使用者は、魚群を含む所望の断面画像45を表示させた状態で、マウス100を移動させ、計測枠46を当該断面画像45上の魚群の位置に位置付ける。その後、使用者は、マウス100の操作子102を操作して(左クリック)、計測枠46の位置を決定する。 The user operates the wheel 101 of the mouse 100 to refer to the cross-sectional images 45 at each water depth and confirm the presence of schools of fish and the like. Then, the user moves the mouse 100 while displaying a desired cross-sectional image 45 including a school of fish, and positions the measurement frame 46 at the position of the school of fish on the cross-sectional image 45. Thereafter, the user operates the operator 102 of the mouse 100 (left click) to determine the position of the measurement frame 46.

こうして使用者により決定操作が行われると(S105:YES)、信号処理部17は、処理を図5のステップS107に進める。信号処理部17は、断面画像45の表示処理を終了させ(S107)、通常表示時の視点で探知画像を表示部19に表示させる(S108)。そして、信号処理部17は、図4のステップS105において決定された計測枠46の水深位置および水平位置に、3次元の計測枠を表示させる(S109)。さらに、信号処理部17は、3次元の計測枠内に含まれるボクセルB1の信号強度に基づいて、計測枠内に含まれる魚群の総魚量等を計測し、計測結果を表示部19に表示させる(S110)。 When the user performs the determination operation (S105: YES), the signal processing unit 17 advances the process to step S107 in FIG. 5. The signal processing unit 17 ends the display processing of the cross-sectional image 45 (S107), and displays the detected image on the display unit 19 from the normal display viewpoint (S108). Then, the signal processing unit 17 displays a three-dimensional measurement frame at the water depth position and horizontal position of the measurement frame 46 determined in step S105 of FIG. 4 (S109). Further, the signal processing unit 17 measures the total amount of fish in the school of fish included in the measurement frame based on the signal strength of voxel B1 included in the three-dimensional measurement frame, and displays the measurement result on the display unit 19. (S110).

図5のステップS107~S110によって、たとえば、図9の画面50が表示される。 Through steps S107 to S110 in FIG. 5, for example, the screen 50 in FIG. 9 is displayed.

画面50は、図6の画面30と同様、探知画像51と、船画像52と、船首船尾オブジェクト53と、操作領域54と、項目54aとを含んでいる。探知画像51の視線方向は、図6の場合と同様である。さらに、画面50は、3次元の計測枠55と、計測結果を示す領域56とを含んでいる。上記のように、計測枠55は、図4のステップS105において決定された計測枠46の水深位置および水平位置に表示される。計測枠55は、デフォルトで設定されたサイズで表示される。 The screen 50, like the screen 30 in FIG. 6, includes a detection image 51, a ship image 52, a bow and stern object 53, an operation area 54, and an item 54a. The line of sight direction of the detection image 51 is the same as in the case of FIG. Furthermore, the screen 50 includes a three-dimensional measurement frame 55 and an area 56 showing measurement results. As described above, the measurement frame 55 is displayed at the water depth position and horizontal position of the measurement frame 46 determined in step S105 of FIG. 4. The measurement frame 55 is displayed in a size set by default.

領域56には、計測枠55に含まれる魚群の魚量56aがトン表示で表示される。信号処理部17は、計測枠55に含まれるボクセルB1の信号強度ごとの体積の合計値に信号強度ごとの所定の係数を乗じて、魚量56aを算出する。この係数は、魚の種類等に応じて選択可能である。また、領域56には、計測枠55の縦、横および高さの寸法と、計測枠55の水深位置とを含む枠情報56bが表示される。さらに、領域56には、計測枠55に含まれるボクセルB1の信号強度の頻度分布を示すヒストグラム56cが表示される。使用者は、ヒストグラム56cを参照することにより、計測枠55に含まれる魚群の密集度を大まかに把握できる。使用者は、マウス100のホイール101を操作することにより、計測枠55のサイズを変更できる。 In the area 56, the fish amount 56a of the school of fish included in the measurement frame 55 is displayed in tons. The signal processing unit 17 calculates the fish amount 56a by multiplying the total volume of each signal strength of voxel B1 included in the measurement frame 55 by a predetermined coefficient for each signal strength. This coefficient can be selected depending on the type of fish, etc. Further, in the area 56, frame information 56b including the length, width, and height dimensions of the measurement frame 55 and the water depth position of the measurement frame 55 is displayed. Further, in the area 56, a histogram 56c indicating the frequency distribution of the signal intensity of the voxel B1 included in the measurement frame 55 is displayed. The user can roughly grasp the density of the fish school included in the measurement frame 55 by referring to the histogram 56c. The user can change the size of the measurement frame 55 by operating the wheel 101 of the mouse 100.

図5に戻り、使用者がマウス100のホイール101を操作すると、信号処理部17は、ホイール101の回転方向および回転量に応じて、計測枠55を相似的に大小させる(S111)。すなわち、ホイール101が一の方向に回転すると計測枠55が回転量に応じて大きくなり、ホイール101が他の方向に回転すると計測枠55が回転量に応じて小さくなる。計測枠55は、予め設定された最大サイズと最小サイズとの間で変更可能である。 Returning to FIG. 5, when the user operates the wheel 101 of the mouse 100, the signal processing unit 17 similarly increases or decreases the measurement frame 55 according to the rotation direction and rotation amount of the wheel 101 (S111). That is, when the wheel 101 rotates in one direction, the measurement frame 55 becomes larger according to the amount of rotation, and when the wheel 101 rotates in the other direction, the measurement frame 55 becomes smaller depending on the amount of rotation. The measurement frame 55 can be changed between a preset maximum size and a preset minimum size.

図10は、ホイール101に対する操作により、計測枠55が、図9の状態から大きくなった場合の画面50を示している。計測枠55のサイズ変更に伴い、領域56における魚量56a、枠情報56bおよびヒストグラム56cが変化する。使用者は、計測枠55を所望のサイズに調節して、当該計測枠55に含まれる魚量を確認することができる。 FIG. 10 shows the screen 50 when the measurement frame 55 becomes larger from the state shown in FIG. 9 due to the operation on the wheel 101. As the size of the measurement frame 55 changes, the amount of fish 56a in the area 56, the frame information 56b, and the histogram 56c change. The user can adjust the measurement frame 55 to a desired size and check the amount of fish included in the measurement frame 55.

図5に戻り、信号処理部17は、マウス100を介して使用者が取消操作(S112)または終了操作(S113)を行うまで、ステップS110、S111の処理を繰り返す。ここで、取消操作(S112)は、マウス100に対して右クリックを行う操作(図1の操作子103を押す操作)である。また、終了操作(S113)は、使用者が図9および図10の項目54aを操作して項目54aを計測OFFに切り替える操作である。終了操作が行われると(S113:YES)、信号処理部17は、図5の処理を終了して、画面を図6の画面30に戻す。 Returning to FIG. 5, the signal processing unit 17 repeats the processing of steps S110 and S111 until the user performs a cancel operation (S112) or an end operation (S113) via the mouse 100. Here, the cancellation operation (S112) is an operation of right-clicking the mouse 100 (an operation of pressing the operator 103 in FIG. 1). Further, the end operation (S113) is an operation in which the user operates the item 54a in FIGS. 9 and 10 to switch the item 54a to measurement OFF. When the end operation is performed (S113: YES), the signal processing unit 17 ends the process of FIG. 5 and returns the screen to the screen 30 of FIG. 6.

使用者は、図9および図10における計測結果を参照した後、他の水深における魚群を計測する場合、マウス100を介して取消操作(右クリック)を行う。これにより、信号処理部17は、図5のステップS112の判定をYESとして、処理を、図4のステップS103に戻す。これにより、画面が図8の画面に戻される。その後、使用者は、上記と同様、ホイール101を操作して、所望の水深の断面画像45を表示させる。そして、使用者は、マウス100を移動させて、断面画像45上の魚群の位置に計測枠46を位置づけて、マウス100に対し左クリックの操作(決定操作)を行う。これにより、当該魚群の位置に図9と同様の計測枠55が設定され、魚群の計測が行われる。これにより、当該魚群に関する情報が領域56に表示される。こうして、使用者は、他の魚群に対する情報を円滑に取得できる。 After referring to the measurement results in FIGS. 9 and 10, the user performs a cancellation operation (right-click) using the mouse 100 when measuring schools of fish at other water depths. Thereby, the signal processing unit 17 makes the determination in step S112 of FIG. 5 YES, and returns the process to step S103 of FIG. 4. This returns the screen to the screen shown in FIG. Thereafter, the user operates the wheel 101 in the same manner as described above to display the cross-sectional image 45 at the desired water depth. Then, the user moves the mouse 100, positions the measurement frame 46 at the position of the school of fish on the cross-sectional image 45, and performs a left-click operation (decision operation) on the mouse 100. As a result, a measurement frame 55 similar to that shown in FIG. 9 is set at the position of the school of fish, and the school of fish is measured. As a result, information regarding the school of fish is displayed in the area 56. In this way, the user can smoothly obtain information regarding other fish schools.

<実施形態の効果>
上記実施形態によれば、以下の効果が奏され得る。
<Effects of embodiment>
According to the above embodiment, the following effects can be achieved.

使用者は、図8に示した断面画像45を参照することにより、断面位置における信号強度を把握できる。また、使用者は、操作部18(マウス100)に対する操作に応じて断面画像45のスライス位置を鉛直方向D1に移動させることができる。使用者は、このように断面画像45を移動させることによって、物標内部の強度分布や、物標の奥方に隠れる他の物標の内部の強度分布を容易に把握できる。 The user can understand the signal intensity at the cross-sectional position by referring to the cross-sectional image 45 shown in FIG. Further, the user can move the slice position of the cross-sectional image 45 in the vertical direction D1 according to an operation on the operation unit 18 (mouse 100). By moving the cross-sectional image 45 in this manner, the user can easily grasp the intensity distribution inside the target object and the intensity distribution inside other targets hidden behind the target object.

また、信号処理部17は、さらに、探知画像41を表示部19に表示させる。これにより、使用者は、断面画像45により所定のスライス位置における信号強度の分布を把握できるとともに、探知画像41により探知範囲全体の信号強度の分布を把握できる。 Further, the signal processing unit 17 further displays the detected image 41 on the display unit 19. Thereby, the user can understand the distribution of signal intensity at a predetermined slice position using the cross-sectional image 45, and can also understand the distribution of signal intensity in the entire detection range using the detection image 41.

図8に示したように、信号処理部17は、探知画像41に断面画像45を重ねて表示させる。これにより、使用者は、断面位置の信号強度を断面画像45で把握しつつ、断面位置より奥方の信号強度を探知画像41により把握できる。よって、使用者は、断面位置よりも奥方に魚群等の物標がさらに存在するかを併せて把握でき、計測すべき魚群を円滑に見つけ出すことができる。 As shown in FIG. 8, the signal processing unit 17 displays the cross-sectional image 45 superimposed on the detection image 41. As a result, the user can grasp the signal strength at the cross-sectional position using the cross-sectional image 45 and the signal strength farther from the cross-sectional position using the detection image 41. Therefore, the user can also know whether there are further targets such as a school of fish behind the cross-sectional position, and can smoothly find the school of fish to be measured.

また、本実施形態では、図8に示したように、断面画像45のスライス面よりも視点側の探知画像41が非表示に設定されている。これにより、断面画像45より視点側の探知画像41によって断面画像45が見えにくくなることを抑制できる。よって、使用者は、より明瞭に断面画像45を確認できる。 Furthermore, in this embodiment, as shown in FIG. 8, the detection image 41 on the viewpoint side of the slice plane of the cross-sectional image 45 is set to be hidden. This can prevent the cross-sectional image 45 from becoming difficult to see due to the detection image 41 located closer to the viewpoint than the cross-sectional image 45. Therefore, the user can see the cross-sectional image 45 more clearly.

また、図3に示したように、本実施形態では、操作部18(マウス100)の操作に応じて、スライス面S1を鉛直方向D1に移動させて、断面画像45が生成される。これにより、使用者は、水深方向に断面画像45を移動させることができ、所定の水深に群がる魚群等を円滑に確認できる。 Further, as shown in FIG. 3, in this embodiment, the slice plane S1 is moved in the vertical direction D1 in response to the operation of the operation unit 18 (mouse 100), and the cross-sectional image 45 is generated. Thereby, the user can move the cross-sectional image 45 in the water depth direction, and can smoothly confirm schools of fish etc. that gather at a predetermined water depth.

また、図8に示したように、信号処理部17は、操作部18(マウス100)に対する操作に応じて、断面画像45上に信号強度の計測位置(計測枠46)を設定する。これにより、使用者は、たとえば、断面画像45上において信号強度が高い位置(魚群の位置)を計測位置に容易に指定できる。 Further, as shown in FIG. 8, the signal processing unit 17 sets a signal intensity measurement position (measurement frame 46) on the cross-sectional image 45 in response to an operation on the operation unit 18 (mouse 100). Thereby, the user can easily specify, for example, a position with high signal strength (position of a school of fish) on the cross-sectional image 45 as a measurement position.

また、図9に示したように、信号処理部17は、図8の画面40で設定した計測位置(計測枠46)を含む所定の3次元範囲(計測枠55)を信号強度の計測範囲に設定する。これにより、当該計測範囲(計測枠55)に含まれる魚群等の物標の信号強度を円滑に抽出して計測できる。 Further, as shown in FIG. 9, the signal processing unit 17 sets a predetermined three-dimensional range (measurement frame 55) including the measurement position (measurement frame 46) set on the screen 40 of FIG. Set. Thereby, the signal strength of a target object such as a school of fish included in the measurement range (measurement frame 55) can be smoothly extracted and measured.

また、図9および図10に示したように、信号処理部17は、探知画像51上に計測範囲(計測枠55)を表示させ、操作部18(マウス100)に対する操作に応じて、計測範囲(計測枠55)の大きさを変更する。これにより、使用者は、探知画像51および計測範囲(計測枠55)の表示を参照しつつ、魚群等の範囲に計測範囲(計測枠55)を円滑に調整できる。これにより、使用者は、計測対象物標の信号強度を適正に計測できる。 Further, as shown in FIGS. 9 and 10, the signal processing unit 17 displays the measurement range (measurement frame 55) on the detection image 51, and displays the measurement range in accordance with the operation on the operation unit 18 (mouse 100). Change the size of (measurement frame 55). Thereby, the user can smoothly adjust the measurement range (measurement frame 55) to a range such as a school of fish while referring to the display of the detection image 51 and the measurement range (measurement frame 55). Thereby, the user can appropriately measure the signal strength of the measurement target.

また、図9および図10に示したように、信号処理部17は、計測範囲(計測枠55)に含まれる信号強度のヒストグラム56cを表示部19に表示させ、さらに、計測範囲(計測枠55)に含まれる信号強度に基づいて、当該計測範囲(計測枠55)に含まれる魚量に関する情報(魚量56a)を表示部19に表示させる。これらの表示により、使用者は、魚群の密集度や当該魚群の総魚量を容易に把握できる。 Further, as shown in FIGS. 9 and 10, the signal processing unit 17 causes the display unit 19 to display a histogram 56c of the signal strength included in the measurement range (measurement frame 55), and further displays the histogram 56c of the signal strength included in the measurement range (measurement frame 55). ), information regarding the amount of fish (amount of fish 56a) included in the measurement range (measurement frame 55) is displayed on the display unit 19. These displays allow the user to easily grasp the density of the fish school and the total amount of fish in the fish school.

<変更例1>
本発明は、上記実施形態に制限されるものではない。また、本発明の実施形態は、上記構成の他に種々の変更が可能である。
<Change example 1>
The present invention is not limited to the above embodiments. Furthermore, the embodiments of the present invention can be modified in various ways in addition to the above configuration.

たとえば、上記実施形態では、図4のステップS103において、スライス面S1よりも視点側の探知画像41が非表示に設定されたが、スライス面S1よりも視点側の探知画像41が透過表示に設定されてもよい。 For example, in the above embodiment, in step S103 in FIG. 4, the detected image 41 on the viewpoint side of the slice plane S1 is set to be hidden, but the detected image 41 on the viewpoint side of the slice plane S1 is set to be transparently displayed. may be done.

図11(a)は、上記実施形態に係る、図4のステップS103における処理を示すサブルーチンであり、図11(b)は、変更例1に係る、図4のステップS103における処理を示すサブルーチンである。 11(a) is a subroutine showing the process in step S103 of FIG. 4 according to the above embodiment, and FIG. 11(b) is a subroutine showing the process in step S103 of FIG. 4 according to modification example 1. be.

まず、図11(a)を参照して、上記実施形態における処理を説明する。図4のステップS103において、信号処理部17は、スライス面S1に含まれるボクセルB1のうち、信号強度が表示色を付する下限レベル以上のボクセルB1の位置に信号強度に応じた表示色を付して、断面画像45を表示させる(S201)。ここで、信号処理部17は、スライス面S1に含まれるその他のボクセルB1を表示対象から除外する。また、信号処理部17は、スライス面S1よりも視点側の探知画像41を非表示に設定し(S202)、スライス面より奥側の探知画像41の領域のうち断面画像45以外の領域に、鮮明度を低下させるメッシュ処理を適用して、この領域の探知画像41を表示させる(S203)。ここで、信号処理部17は、スライス面より奥側の探知画像41の領域のうち断面画像45に重なる領域は、探知画像41を非表示に設定する。 First, the processing in the above embodiment will be described with reference to FIG. 11(a). In step S103 of FIG. 4, the signal processing unit 17 assigns a display color corresponding to the signal strength to the position of the voxel B1 whose signal strength is equal to or higher than the lower limit level for assigning a display color, among the voxels B1 included in the slice plane S1. Then, the cross-sectional image 45 is displayed (S201). Here, the signal processing unit 17 excludes other voxels B1 included in the slice plane S1 from the display target. In addition, the signal processing unit 17 sets the detection image 41 on the viewpoint side of the slice plane S1 to be hidden (S202), and displays the area other than the cross-sectional image 45 in the area of the detection image 41 on the back side of the slice plane. The detected image 41 of this area is displayed by applying mesh processing to reduce the clarity (S203). Here, the signal processing unit 17 sets the detected image 41 to be hidden in the area that overlaps the cross-sectional image 45 among the areas of the detected image 41 on the back side of the slice plane.

次に、図11(b)を参照して、変更例1における処理を説明する。図4のステップS103において、信号処理部17は、図11(a)と同様、ステップ201の処理により、断面画像を表示させる。そして、信号処理部17は、スライス面S1よりも視点側の探知画像41を透過表示に設定し(S211)、スライス面より奥側の探知画像41の領域のうち断面画像45以外の領域に、鮮明度を低下させるメッシュ処理を適用して、この領域の探知画像41を表示させる(S203)。ステップS211において、信号処理部17は、映像信号のうち、透過度を規定するパラメータαを所定の値に設定することにより、探知画像41を透過表示に設定する。これにより、視点側の探知画像41を薄く表示させながら断面画像45を表示させ得る。 Next, processing in modification example 1 will be described with reference to FIG. 11(b). In step S103 of FIG. 4, the signal processing unit 17 displays a cross-sectional image through the process of step 201, as in FIG. 11(a). Then, the signal processing unit 17 sets the detection image 41 on the viewpoint side of the slice plane S1 to transparent display (S211), and displays the area other than the cross-sectional image 45 in the area of the detection image 41 on the back side of the slice plane. The detected image 41 of this area is displayed by applying mesh processing to reduce the clarity (S203). In step S211, the signal processing unit 17 sets the detected image 41 to be transparently displayed by setting the parameter α that defines the degree of transparency in the video signal to a predetermined value. Thereby, the cross-sectional image 45 can be displayed while the detection image 41 on the viewpoint side is displayed faintly.

変更例1の処理によれば、断面画像45のスライス面S1よりも視点側の探知画像41が透過表示に設定されるため、上記実施形態(図11(a)の処理)に比べて断面画像45がやや見えにくくなるものの、使用者は、断面画像45における信号強度を確認しつつ、断面画像45よりも視点側の探知画像41における信号強度も確認できる。よって、使用者は、断面画像45の手前にも魚群等の物標がさらに存在するか否かを併せて把握でき、確認すべき魚群を円滑に確認することができる。 According to the process of modification example 1, since the detected image 41 on the viewpoint side of the slice plane S1 of the cross-sectional image 45 is set to transparent display, the cross-sectional image 45 becomes somewhat difficult to see, the user can check the signal strength in the cross-sectional image 45 and also check the signal strength in the detection image 41 on the viewpoint side of the cross-sectional image 45. Therefore, the user can also grasp whether there are any other targets such as a school of fish in front of the cross-sectional image 45, and can smoothly confirm the school of fish to be confirmed.

<変更例2>
上記実施形態では、スライス面S1の移動方向は、鉛直方向D1のみであった。これに対し、変更例2では、スライス面の移動方向が複数準備され、使用者において所望の移動方向が選択可能となっている。
<Change example 2>
In the embodiment described above, the moving direction of the slice surface S1 was only the vertical direction D1. In contrast, in Modification Example 2, a plurality of directions of movement of the slice plane are prepared, and the user can select a desired direction of movement.

図12(a)、図12(b)は、それぞれ、変更例2に係る、スライス面S2、S3を水平方向に移動させる場合の、ボリュームデータVDとスライス面S2、S3との関係を模式的に示す図である。 12(a) and 12(b) schematically show the relationship between the volume data VD and the slice planes S2 and S3 when the slice planes S2 and S3 are moved in the horizontal direction, respectively, according to modification example 2. FIG.

図12(a)の場合、スライス面S2は、鉛直面(Y-Z平面)に平行である。断面画像には、スライス面S2に交差するボクセルB1(図2参照)の信号強度が反映される。スライス面S2は、操作部18(マウス100)に対する操作によりX軸に平行な水平方向D2に移動する。したがって、使用者は、操作部18(マウス100)に対する操作により、水平方向D2に変化する断面の断面画像を参照できる。 In the case of FIG. 12(a), the slice plane S2 is parallel to the vertical plane (YZ plane). The cross-sectional image reflects the signal intensity of the voxel B1 (see FIG. 2) that intersects the slice plane S2. The slice plane S2 is moved in a horizontal direction D2 parallel to the X-axis by an operation on the operation unit 18 (mouse 100). Therefore, the user can refer to a cross-sectional image of a cross-section that changes in the horizontal direction D2 by operating the operation unit 18 (mouse 100).

図12(b)の場合、スライス面S3は、鉛直面(X-Z平面)に平行である。断面画像には、スライス面S3に交差するボクセルB1(図2参照)の信号強度が反映される。スライス面S3は、操作部18(マウス100)に対する操作によりY軸に平行な水平方向D3に移動する。したがって、使用者は、操作部18(マウス100)に対する操作により、水平方向D3に変化する断面の断面画像を参照できる。 In the case of FIG. 12(b), the slice plane S3 is parallel to the vertical plane (XZ plane). The cross-sectional image reflects the signal intensity of the voxel B1 (see FIG. 2) that intersects the slice plane S3. The slice plane S3 is moved in the horizontal direction D3 parallel to the Y axis by operation on the operation unit 18 (mouse 100). Therefore, the user can refer to a cross-sectional image of a cross-section that changes in the horizontal direction D3 by operating the operation unit 18 (mouse 100).

図13は、変更例2に係る、スライス面S4を視線方向に移動させる場合の、ボリュームデータVDとスライス面S4との関係を模式的に示す図である。 FIG. 13 is a diagram schematically showing the relationship between the volume data VD and the slice plane S4 when the slice plane S4 is moved in the viewing direction according to modification example 2.

図13において、視線方向は、破線矢印で示されている。P1は仮想的に設定された視点位置である。視線方向は、たとえば、図6に示した探知画像31に対する視線方向と同じである。 In FIG. 13, the viewing direction is indicated by a dashed arrow. P1 is a virtually set viewpoint position. The viewing direction is, for example, the same as the viewing direction for the detected image 31 shown in FIG.

図13の場合、スライス面S4は、視線方向に垂直である。断面画像には、スライス面S4に交差するボクセルB1(図2参照)の信号強度が反映される。スライス面S4は、操作部18(マウス100)に対する操作により視線方向D4に移動する。したがって、使用者は、操作部18(マウス100)に対する操作により、視線方向D4に変化する断面の断面画像を参照できる。 In the case of FIG. 13, the slice plane S4 is perpendicular to the viewing direction. The cross-sectional image reflects the signal intensity of the voxel B1 (see FIG. 2) that intersects the slice plane S4. The slice plane S4 is moved in the line-of-sight direction D4 by operating the operation unit 18 (mouse 100). Therefore, the user can refer to a cross-sectional image of a cross-section that changes in the line-of-sight direction D4 by operating the operation unit 18 (mouse 100).

図14は、変更例2に係る、画面40を示す図である。 FIG. 14 is a diagram showing a screen 40 according to modification example 2.

図14の画面40は、図6の画面30において、使用者が項目34aを操作して計測処理が開始された直後に表示される画面である。ここでは、デフォルトの画面として、図7と同様、スライス面S1を鉛直方向に移動させる場合の画面40が表示される。画面40の操作領域44には、断面(スライス面)の移動方向を変更するための項目44bが含まれている。使用者は、項目44bを操作することにより、断面の移動方向を、図14に示す鉛直方向から、図12(a)、図12(b)の水平方向および図13の視線方向に、任意に切り替えることができる。 Screen 40 in FIG. 14 is a screen that is displayed immediately after the user operates item 34a on screen 30 in FIG. 6 and measurement processing is started. Here, the screen 40 for moving the slice plane S1 in the vertical direction is displayed as the default screen, similar to FIG. 7. The operation area 44 of the screen 40 includes an item 44b for changing the moving direction of the cross section (slice plane). By operating item 44b, the user can arbitrarily change the moving direction of the cross section from the vertical direction shown in FIG. 14 to the horizontal direction shown in FIGS. Can be switched.

断面の移動方向が変更されると、探知画像41が、変更後の移動方向に見たときの探知画像に変更される。これに伴い、船画像42の表示形態も変更される。さらに、領域43に表示されるバー43aの向きと、船画像43bの向きが、断面の移動方向に応じた向きに変更される。また、バー43a上における計測枠43dの位置が、マウス100の移動に伴い移動する。 When the moving direction of the cross section is changed, the detected image 41 is changed to the detected image when viewed in the changed moving direction. Along with this, the display form of the ship image 42 is also changed. Further, the orientation of the bar 43a and the orientation of the ship image 43b displayed in the area 43 are changed to correspond to the moving direction of the cross section. Furthermore, the position of the measurement frame 43d on the bar 43a moves as the mouse 100 moves.

断面の移動方向が変更された後の処理は、各スライス面の移動方向および画面の表示形態が上記実施形態と異なるのみであり、処理の内容自体は、図4および図5の処理と同様である。計測枠43dを移動させた後に、項目44bの操作に応じて、断面画像の方向が切り替えられてもよい。 The processing after the cross-section moving direction is changed differs from the above embodiment only in the moving direction of each slice plane and the screen display format, and the processing content itself is the same as the processing in FIGS. 4 and 5. be. After moving the measurement frame 43d, the direction of the cross-sectional image may be switched according to the operation of the item 44b.

変更例2の構成によれば、使用者が所望する方向に断面画像の移動方向を変更できる。よって、使用者は、信号強度の確認作業をより効率的に進めることができる。 According to the configuration of Modification Example 2, the moving direction of the cross-sectional image can be changed in a direction desired by the user. Therefore, the user can proceed with the signal strength confirmation work more efficiently.

また、図13に示すように、断面画像の移動方向に視線方向を含めることにより、探知画像を参照する方向と、操作に応じて断面画像が移動する方向とを一致させることができる。これにより、使用者は、断面画像の移動を直感的にイメージでき、断面画像の移動および魚群等の確認作業を円滑に進めることができる。 Furthermore, as shown in FIG. 13, by including the line of sight direction in the moving direction of the cross-sectional image, the direction in which the detected image is referred to can be matched with the direction in which the cross-sectional image moves in accordance with the operation. As a result, the user can intuitively visualize the movement of the cross-sectional image, and can smoothly move the cross-sectional image and confirm the school of fish.

なお、選択可能な断面画像の移動方向(スライス面の移動方向)は、図3、図12(a)、図12(b)および図13の移動方向に限られるものではない。たとえば、視線方向を任意に設定可能として、設定した視線方向に断面画像(スライス面)を移動させ得るようにしてもよい。また、スライス面の水平移動の方向も、X軸方向およびY軸方向から傾いた方向であってもよい。 Note that the selectable movement direction of the cross-sectional image (the movement direction of the slice plane) is not limited to the movement directions of FIGS. 3, 12(a), 12(b), and 13. For example, the line-of-sight direction may be arbitrarily set, and the cross-sectional image (slice plane) may be moved in the set line-of-sight direction. Further, the direction of horizontal movement of the slice plane may also be a direction inclined from the X-axis direction and the Y-axis direction.

<変更例3>
上記実施形態では、探知画像41に断面画像45が重ねて表示されたが、断面画像45が探知画像41とは別に表示されてもよい。
<Change example 3>
In the above embodiment, the cross-sectional image 45 is displayed superimposed on the detected image 41, but the cross-sectional image 45 may be displayed separately from the detected image 41.

図15は、変更例3に係る、画面40の構成を示す図である。 FIG. 15 is a diagram showing the configuration of the screen 40 according to modification example 3.

図15の表示形態では、探知画像41とは別に、断面画像の表示領域47が設定される。表示領域47には、断面画像47aと、船画像47bと、水深情報47cが含まれる。水深情報47cは、スライス面の水深位置を示している。上記実施形態と同様、使用者は、マウス100のホイール101を操作することにより、スライス面S1の水深位置を変更できる。 In the display form of FIG. 15, a cross-sectional image display area 47 is set apart from the detected image 41. The display area 47 includes a cross-sectional image 47a, a ship image 47b, and water depth information 47c. Water depth information 47c indicates the water depth position of the slice surface. As in the above embodiment, the user can change the water depth position of the slice surface S1 by operating the wheel 101 of the mouse 100.

この表示形態では、計測枠が表示領域47に表示される。探知画像41は、必ずしも、鉛直下方向に見た探知画像でなくてもよく、図6と同様、通常の視線方向に見たときの探知画像であってもよい。 In this display form, a measurement frame is displayed in the display area 47. The detection image 41 does not necessarily have to be a detection image viewed vertically downward, but may be a detection image viewed in the normal line of sight direction as in FIG. 6.

変更例3によれば、探知画像41に非表示の領域や透過領域が設定されないため、使用者は、断面画像47aとともに、探知画像41の全体を良好に確認できる。 According to modification example 3, since no hidden area or transparent area is set in the detected image 41, the user can clearly see the entire detected image 41 along with the cross-sectional image 47a.

<その他の変更例>
上記実施形態では、計測処理の際に、マウス100によって、各種の操作入力が行われたが、操作入力の方法はこれに限られるものではない。たとえば、表示部19の画面に対する入力をタッチパネルにより受け付ける構成の場合、画面に対する操作によって、計測処理の際の操作入力が受け付けられてもよい。たとえば、画面に対するドラッグ操作によって、図8に示した計測枠46が移動されてもよく、計測枠46に対するタップ操作によって、計測枠46の位置が決定されてもよい。
<Other change examples>
In the embodiment described above, various operation inputs are performed using the mouse 100 during measurement processing, but the method of operation input is not limited to this. For example, in the case of a configuration in which inputs to the screen of the display unit 19 are accepted by a touch panel, operation inputs during measurement processing may be received by operations on the screen. For example, the measurement frame 46 shown in FIG. 8 may be moved by a drag operation on the screen, and the position of the measurement frame 46 may be determined by a tap operation on the measurement frame 46.

また、各画面のレイアウトは、上記実施形態において示したレイアウトに限られるものではなく、探知画像と断面画像が適正に表示される限りにおいて、他のレイアウトが用いられてもよい。 Further, the layout of each screen is not limited to the layout shown in the above embodiment, and other layouts may be used as long as the detected image and the cross-sectional image are appropriately displayed.

また、ボリュームデータVDを取得する方法も、上記実施形態の方法に限られるものではなく、他の方法が用いられてもよい。たとえば、扁平かつ扇形形状の送信ビームを船の進行方向に垂直に広がるように送波させた状態で、船舶の移動に伴い時系列に受信信号を集積することにより、ボリュームデータVDを取得する方法が用いられてもよい。また、上記実施形態と同様の扁平かつ扇形の送信ビームを仰俯角方向に走査させることによりボリュームデータVDが取得されてもよい。あるいは、傘状の送信ビームを船の全周に亘って送波して、ボリュームデータVDが取得されてもよい。 Further, the method of acquiring the volume data VD is not limited to the method of the above embodiment, and other methods may be used. For example, a method of acquiring volume data VD by transmitting a flat, fan-shaped transmission beam so as to spread perpendicularly to the ship's traveling direction, and integrating received signals in time series as the ship moves. may be used. Further, the volume data VD may be acquired by scanning a flat fan-shaped transmission beam similar to the above embodiment in the elevation/depression angle direction. Alternatively, the volume data VD may be acquired by transmitting an umbrella-shaped transmission beam all around the ship.

また、上記実施形態では、計測枠55が相似的にサイズ変更されたが、計測枠55の縦横比等、計測枠55の形状自体が操作に応じて変更されてもよい。たとえば、計測枠55の頂点をクリックした状態でマウス100を移動させることにより、計測枠55の形状をマウス100の移動方向に引き伸ばすように変化させてもよい。 Further, in the above embodiment, the size of the measurement frame 55 is changed in a similar manner, but the shape of the measurement frame 55 itself, such as the aspect ratio of the measurement frame 55, may be changed according to the operation. For example, by moving the mouse 100 while clicking on the vertex of the measurement frame 55, the shape of the measurement frame 55 may be changed so as to stretch in the direction of movement of the mouse 100.

また、計測枠55に対する計測方法も上記実施形態に限定されるものではなく、計測枠55に含まれる魚群の密集度、数に関する情報を適正に示し得る他の計測方法が用いられてもよい。魚群に対して取得される情報も適宜変更可能である。 Further, the measurement method for the measurement frame 55 is not limited to the above embodiment, and other measurement methods that can appropriately indicate information regarding the density and number of fish schools included in the measurement frame 55 may be used. Information acquired for a school of fish can also be changed as appropriate.

また、上記実施形態および変更例3では、断面画像の表示画面において、断面画像を移動させる方向に見たときの探知画像が表示されたが、当該画面に表示される探知画像は、断面画像の移動方向に見たときの探知画像でなくてもよく、たとえば、図6に示すような通常視点の探知画像であってもよい。 Further, in the above embodiment and modification example 3, the detection image when viewed in the direction in which the cross-sectional image is moved is displayed on the cross-sectional image display screen, but the detected image displayed on the screen is the cross-sectional image. The detection image does not have to be a detection image when viewed in the moving direction, and may be a detection image from a normal viewpoint as shown in FIG. 6, for example.

また、断面画像は、必ずしも、探知画像と同時に表示されなくてもよく、たとえば、断面画像のみが表示部19に表示されてもよい。 Further, the cross-sectional image does not necessarily have to be displayed at the same time as the detected image; for example, only the cross-sectional image may be displayed on the display unit 19.

この他、本発明の実施形態は、特許請求の範囲に記載の範囲で適宜種々の変更可能である。 In addition, the embodiments of the present invention can be modified in various ways within the scope of the claims.

10 水中探知装置
17 信号処理部
18 操作部
19 表示部
31、41、51 探知画像
45、47a 断面画像
46 計測枠(計測位置)
55 計測枠(計測範囲)
56a 魚量(魚量に関する情報)
56c ヒストグラム
100 マウス
S1~S4 スライス面
VB ボリュームデータ
10 Underwater detection device 17 Signal processing section 18 Operation section 19 Display section 31, 41, 51 Detection image 45, 47a Cross-sectional image 46 Measurement frame (measurement position)
55 Measurement frame (measurement range)
56a Fish amount (information regarding fish amount)
56c Histogram 100 Mouse S1~S4 Slice plane VB Volume data

Claims (16)

3次元状の探知範囲における反射波の信号強度の分布を示すボリュームデータを操作部に対する操作に応じたスライス面でスライスし、前記スライス面上における前記ボリュームデータに基づいて、前記信号強度の分布を示す断面画像を表示部に表示させる信号処理部を備える、
ことを特徴とする水中探知装置。
Volume data indicating the distribution of signal strength of reflected waves in a three-dimensional detection range is sliced on a slice plane according to an operation on the operation unit, and the distribution of the signal strength is determined based on the volume data on the slice plane. a signal processing unit that causes a display unit to display a cross-sectional image shown in FIG.
An underwater detection device characterized by:
請求項1に記載の水中探知装置において、
前記信号処理部は、前記ボリュームデータに基づいて、所定の視点から見たときの前記信号強度の分布を示す探知画像を生成し、生成した前記探知画像を前記表示部に表示させる、水中探知装置。
The underwater detection device according to claim 1,
The signal processing unit generates a detection image showing the distribution of the signal intensity when viewed from a predetermined viewpoint based on the volume data, and displays the generated detection image on the display unit. .
請求項2に記載の水中探知装置において、
前記信号処理部は、前記探知画像に前記断面画像を重ねて表示させる、水中探知装置。
The underwater detection device according to claim 2,
The signal processing unit is an underwater detection device that displays the cross-sectional image superimposed on the detection image.
請求項3に記載の水中探知装置において、
前記信号処理部は、前記断面画像のスライス面よりも前記視点側の前記探知画像を非表示に設定する、水中探知装置。
The underwater detection device according to claim 3,
In the underwater detection device, the signal processing unit sets the detection image closer to the viewpoint than the slice plane of the cross-sectional image to non-display.
請求項3に記載の水中探知装置において、
前記信号処理部は、前記断面画像のスライス面よりも前記視点側の前記探知画像を透過表示に設定する、水中探知装置。
The underwater detection device according to claim 3,
In the underwater detection device, the signal processing unit sets the detection image closer to the viewpoint than the slice plane of the cross-sectional image to a transparent display.
請求項2に記載の水中探知装置において、
前記信号処理部は、前記探知画像とは別に前記断面画像を前記表示部に表示させる、水中探知装置。
The underwater detection device according to claim 2,
In the underwater detection device, the signal processing section causes the display section to display the cross-sectional image separately from the detection image.
請求項1ないし6の何れか一項に記載の水中探知装置において、
前記信号処理部は、前記操作部を介して、前記スライス面の移動方向の選択を受け付ける、水中探知装置。
The underwater detection device according to any one of claims 1 to 6,
The signal processing unit is an underwater detection device that receives a selection of a moving direction of the slice plane via the operation unit.
請求項1ないし7の何れか一項に記載の水中探知装置において、
前記スライス面の移動方向は、鉛直方向を含む、水中探知装置。
The underwater detection device according to any one of claims 1 to 7,
In the underwater detection device, the moving direction of the slice plane includes a vertical direction.
請求項1ないし8の何れか一項に記載の水中探知装置において、
前記スライス面の移動方向は、視線方向を含む、水中探知装置。
The underwater detection device according to any one of claims 1 to 8,
The moving direction of the slice plane includes the line-of-sight direction.
請求項1ないし9の何れか一項に記載の水中探知装置において、
前記スライス面の移動方向は、水平方向を含む、水中探知装置。
The underwater detection device according to any one of claims 1 to 9,
In the underwater detection device, the moving direction of the slice plane includes a horizontal direction.
請求項1ないし10の何れか一項に記載の水中探知装置において、
前記信号処理部は、前記操作部に対する操作に応じて、前記断面画像上に信号強度の計測位置を設定する、水中探知装置。
The underwater detection device according to any one of claims 1 to 10,
In the underwater detection device, the signal processing section sets a signal strength measurement position on the cross-sectional image in response to an operation on the operation section.
請求項11に記載の水中探知装置において、
前記信号処理部は、前記計測位置を含む所定の3次元範囲を信号強度の計測範囲に設定する、水中探知装置。
The underwater detection device according to claim 11,
In the underwater detection device, the signal processing unit sets a predetermined three-dimensional range including the measurement position as a signal strength measurement range.
請求項12に記載の水中探知装置において、
前記信号処理部は、前記ボリュームデータに基づいて、所定の視点から見たときの前記信号強度の分布を示す探知画像を生成し、生成した前記探知画像上に前記計測範囲を表示させ、前記操作部に対する操作に応じて、前記計測範囲の大きさを変更する、水中探知装置。
The underwater detection device according to claim 12,
The signal processing unit generates a detection image showing the distribution of the signal strength when viewed from a predetermined viewpoint based on the volume data, displays the measurement range on the generated detection image, and performs the operation. An underwater detection device that changes the size of the measurement range according to an operation on the part.
請求項12または13に記載の水中探知装置において、
前記信号処理部は、前記計測範囲に含まれる前記信号強度のヒストグラムを前記表示部に表示させる、水中探知装置。
The underwater detection device according to claim 12 or 13,
In the underwater detection device, the signal processing section causes the display section to display a histogram of the signal strength included in the measurement range.
請求項12ないし14の何れか一項に記載の水中探知装置において、
前記信号処理部は、前記計測範囲に含まれる前記信号強度に基づいて、当該計測範囲に含まれる魚量に関する情報を前記表示部に表示させる、水中探知装置。
The underwater detection device according to any one of claims 12 to 14,
In the underwater detection device, the signal processing section causes the display section to display information regarding the amount of fish included in the measurement range based on the signal strength included in the measurement range.
3次元状の探知範囲における反射波の信号強度の分布を示すボリュームデータを操作部に対する操作に応じたスライス面でスライスし、
前記スライス面上における前記ボリュームデータに基づいて、前記信号強度の分布を示す断面画像を表示部に表示させる、水中探知画像の表示方法
Volume data indicating the distribution of signal strength of reflected waves in a three-dimensional detection range is sliced at slice planes according to operations on the operation unit,
A method for displaying an underwater detection image, comprising displaying a cross-sectional image showing the distribution of the signal intensity on a display unit based on the volume data on the slice plane.
JP2020012837A 2020-01-29 2020-01-29 Underwater detection device and how to display underwater detection images Active JP7419086B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012837A JP7419086B2 (en) 2020-01-29 2020-01-29 Underwater detection device and how to display underwater detection images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012837A JP7419086B2 (en) 2020-01-29 2020-01-29 Underwater detection device and how to display underwater detection images

Publications (2)

Publication Number Publication Date
JP2021117204A JP2021117204A (en) 2021-08-10
JP7419086B2 true JP7419086B2 (en) 2024-01-22

Family

ID=77174672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012837A Active JP7419086B2 (en) 2020-01-29 2020-01-29 Underwater detection device and how to display underwater detection images

Country Status (1)

Country Link
JP (1) JP7419086B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023012925A (en) * 2021-07-14 2023-01-26 古野電気株式会社 Target object detection device and target object detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003215242A (en) 2002-01-28 2003-07-30 Koden Electronics Co Ltd Ultrasonic prospecting device
JP2007024548A (en) 2005-07-12 2007-02-01 Furuno Electric Co Ltd Underwater detection unit
WO2012056778A1 (en) 2010-10-28 2012-05-03 株式会社 日立メディコ Ultrasound diagnostic apparatus and ultrasound image display method
US20180100922A1 (en) 2016-10-12 2018-04-12 Garmin Switzerland Gmbh Frequency steered sonar array orientation
WO2019003759A1 (en) 2017-06-30 2019-01-03 古野電気株式会社 Fish school finding device, fish length measuring device, fish school finding method, and fish school finding program
WO2019138758A1 (en) 2018-01-11 2019-07-18 古野電気株式会社 Radar device
JP2020008519A (en) 2018-07-12 2020-01-16 古野電気株式会社 Underwater detection device and underwater detection method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003215242A (en) 2002-01-28 2003-07-30 Koden Electronics Co Ltd Ultrasonic prospecting device
JP2007024548A (en) 2005-07-12 2007-02-01 Furuno Electric Co Ltd Underwater detection unit
WO2012056778A1 (en) 2010-10-28 2012-05-03 株式会社 日立メディコ Ultrasound diagnostic apparatus and ultrasound image display method
US20180100922A1 (en) 2016-10-12 2018-04-12 Garmin Switzerland Gmbh Frequency steered sonar array orientation
WO2019003759A1 (en) 2017-06-30 2019-01-03 古野電気株式会社 Fish school finding device, fish length measuring device, fish school finding method, and fish school finding program
WO2019138758A1 (en) 2018-01-11 2019-07-18 古野電気株式会社 Radar device
JP2020008519A (en) 2018-07-12 2020-01-16 古野電気株式会社 Underwater detection device and underwater detection method

Also Published As

Publication number Publication date
JP2021117204A (en) 2021-08-10

Similar Documents

Publication Publication Date Title
AU2016201371B2 (en) Systems and associated methods for producing a 3d sonar image
US10024961B2 (en) Sonar imaging techniques for objects in an underwater environment
US20160377716A1 (en) Sonar transducer assembly
KR20000069171A (en) Enhanced image processing for a three-dimensional imaging system
US11467280B2 (en) Underwater detection apparatus and underwater detection method
EP3368920B1 (en) Computer system and method for generating attribute renderings from a seismic data volume
EP3170019B1 (en) Depth display using sonar data
JP7262298B2 (en) UNDERWATER DETECTION DEVICE AND UNDERWATER DETECTION METHOD
US20110098571A1 (en) Scan line display apparatus and method
JP5401330B2 (en) Ultrasonic flaw detection apparatus and ultrasonic flaw detection method
JP6887449B2 (en) Systems and methods for illuminating rendered images
JP7419086B2 (en) Underwater detection device and how to display underwater detection images
CN107544071B (en) Water detection system
EP3064958A1 (en) Systems and associated methods for producing a 3d sonar image
AU2014298574B2 (en) Device for assisting in the detection of objects placed on the ground from images of the ground taken by a wave reflection imaging device
JP6185866B2 (en) Position detecting device and position detecting method for underwater moving body
JP6815761B2 (en) 3D display device, 3D display method and program applied to the 3D display device
JP7155231B2 (en) Display device, display method and program applied to the display device
JP2015137968A (en) System and method for detecting position of underwater vehicle
JP2021096184A (en) Display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150