JP2023025072A - データ処理装置、データ処理方法、およびプログラム - Google Patents

データ処理装置、データ処理方法、およびプログラム Download PDF

Info

Publication number
JP2023025072A
JP2023025072A JP2022184557A JP2022184557A JP2023025072A JP 2023025072 A JP2023025072 A JP 2023025072A JP 2022184557 A JP2022184557 A JP 2022184557A JP 2022184557 A JP2022184557 A JP 2022184557A JP 2023025072 A JP2023025072 A JP 2023025072A
Authority
JP
Japan
Prior art keywords
view
views
instruction
target
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022184557A
Other languages
English (en)
Inventor
早苗 永井
Sanae Nagai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2022184557A priority Critical patent/JP2023025072A/ja
Publication of JP2023025072A publication Critical patent/JP2023025072A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/96Sonar systems specially adapted for specific applications for locating fish
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6218Cathode-ray tube displays providing two-dimensional coordinated display of distance and direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6272Cathode-ray tube displays producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6281Composite displays, e.g. split-screen, multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/937Radar or analogous systems specially adapted for specific applications for anti-collision purposes of marine craft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/10Providing two-dimensional and co-ordinated display of distance and direction
    • G01S7/12Plan-position indicators, i.e. P.P.I.
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/22Producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

【課題】複数の領域の中からジェスチャの対象領域をより適切に決定するデータ処理装置、方法及びプログラムを提供する。【解決手段】水中探知装置(データ処理装置)1は、魚群等のターゲットに関して検出装置(スキャニングソナー10等)によって検出されたデータセット(魚群データ等)を取得し、当該データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成する。複数のビューのそれぞれは、複数の画素を含み、当該複数のビューに含まれる各画素は、画面上に表示される第1の情報と、当該複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。【選択図】図1

Description

本発明は、データ処理装置およびそれに関連する技術に関し、特に、検出装置によって検出されたデータセットに基づくレンダリング処理を実行する技術に関する。
ターゲット(魚群等)に関して検出装置(送受波装置等)によって検出されたデータセット(魚群データ等)を取得し、当該データセットに基づくレンダリング処理を実行し、レンダリング処理によって生成された画像を表示画面内に表示する技術が存在する。また、表示画面内に設けられた複数の矩形領域(分割領域)において、互いに異なるデータに基づく互いに異なる画像(具体的には、航法映像、レーダ映像、水中探知映像)をそれぞれ表示し、複数の矩形領域のそれぞれにおいて、タッチジェスチャによる移動(スクロール)あるいは拡縮(拡大/縮小)等の指示を受け付ける技術が存在する(たとえば、特許文献1参照)。当該技術においては、タッチジェスチャの操作位置がいずれの分割領域に属するかが判定され、その判定結果に基づいてタッチジェスチャの対象領域(対象画像)が特定される。そして、特定された分割領域(当該タッチジェスチャに対応する領域)内でのスクロール処理あるいは拡縮処理(変倍処理)等が行われる。
米国特許出願公開第2015/0035772号明細書
上述のような従来技術においては、タッチジェスチャの操作位置が複数の分割領域(矩形領域)のうちの何れの領域に属しているかに応じて、タッチジェスチャの対象領域が決定されている。
ところで、複数の領域の配置の自由度を向上させたいという要望が存在する。このような要望に応じて複数の領域が配置される場合には、たとえば、隣接する複数の矩形領域が部分的に重複して配置される可能性がある。
しかしながら、複数の矩形領域が部分的に重複して配置される場合等においては、タッチジェスチャの対象領域を適切に決定することは必ずしも容易ではない。
そこで、本発明は、複数の領域の中からジェスチャの対象領域をより適切に決定することが可能な技術を提供することを課題とする。
(1)上記課題を解決するため、本発明の或る局面に係るデータ処理装置は、ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、を備え、前記複数のビューのそれぞれは、複数の画素を含み、前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。
(2)前記データ処理装置は、前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、をさらに備えてもよい。
(3)前記複数のビューは、透視ビューとサイドビューとトップビューとのうちの少なくとも2つを含む場合がある。
(4)前記複数のビューは、透視ビューを含み、前記ビュー修正部は、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記透視ビューにおいて前記画面内の前記垂直方向に対応づけられている第1の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成してもよい。
(5)前記複数のビューは、透視ビューを含み、前記ビュー修正部は、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記データセットに関する3次元空間における第2の軸であって前記透視ビューにおいて前記画面内の前記水平方向に対応づけられている第2の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成してもよい。
(6)前記複数のビューは、サイドビューを含み、前記ビュー修正部は、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記サイドビューにおいて前記画面内の前記垂直方向に対応づけられている第1の軸周りに前記サイドビューの視点を回転させたビュー画像を新たなサイドビューとして生成してもよい。
(7)前記複数のビューは、サイドビューを含み、前記ビュー修正部は、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記サイドビューの視点を回転しなくてもよい。
(8)前記複数のビューは、トップビューを含み、前記ビュー修正部は、前記操作対象ビューが前記トップビューであり且つ、前記指示ジェスチャに基づき前記画面内の水平方向または垂直方向における移動指示が付与された場合、前記データセットに関する3次元空間における第1の軸であって前記トップビューにおいて前記画面に垂直な方向に対応づけられている第1の軸周りに前記トップビューの視点を回転させたビュー画像を新たなトップビューとして生成してもよい。
(9)前記ビュー修正部は、前記操作対象ビューに対する前記ビュー修正指示が付与された場合、前記複数のビューのうち前記操作対象ビュー以外の少なくとも1つのビューをも修正してもよい。
(10)前記複数のビューは、透視ビューとサイドビューとトップビューとのいずれかである第1のビューと、前記透視ビューと前記サイドビューと前記トップビューとのうち前記第1のビュー以外のビューである第2のビューとを含み、前記ビュー修正部は、前記操作対象ビューが前記第1のビューであり、且つ、前記第1のビューに対して前記ビュー修正指示が付与され前記データセットに関する3次元空間における第1の軸周りに前記第1のビューの視点が回転されて前記第1のビューが更新される場合、前記第1の軸周りに前記第2のビューの視点を回転させて前記第2のビューをも更新してもよい。
(11)前記データ処理装置は、送信波を送信する送信部と、前記ターゲットでの前記送信波の反射を含む受信波を受信し、前記受信波に基づき受信信号を生成する受信部と、前記受信信号に基づき前記データセットを生成するデータ生成部と、をさらに備え、前記受信波は、前記受信部から外側に広がる3次元空間から受信されてもよい。
(12)上記課題を解決するため、本発明の或る局面に係るデータ処理方法は、ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、前記複数のビューのそれぞれは、複数の画素を含み、前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。
(13)上記課題を解決するため、本発明の或る局面に係るプログラムは、コンピュータに、a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、を実行させるためのプログラムであって、前記複数のビューのそれぞれは、複数の画素を含み、前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。
本発明によれば、複数のビューに含まれる各画素は、複数のビューのうち当該各画素の所属先のビューを示す第2の情報を含む複数の情報に対応づけられているので、当該第2の情報に基づいて当該各画素の所属先のビューに関する情報を容易に取得することが可能である。ひいては、複数のビューにそれぞれ対応する複数の領域の中からジェスチャの対象領域をより適切に決定することが可能である。
水中探知装置(データ処理装置)の構成を示すブロック図である。 情報処理装置の機能構成を示すブロック図である。 送受波器によって送信波が送信される送信空間及び送受波器によって受信波が受信される複数の受信空間を模式的に示す図である。 表示部に表示される表示画面を示す図である。 水中探知装置の動作を示すフローチャートである。 ドラッグ操作の移動ベクトルを示す図である。 透視ビューに対して右向きのドラッグ操作が行われる様子を示す図である。 変更後の透視ビューを示す図である。 透視ビューに対して下向きのドラッグ操作が行われる様子を示す図である。 変更後の透視ビューを示す図である。 サイドビューに対して右向きのドラッグ操作が行われる様子を示す図である。 変更後のサイドビューを示す図である。 サイドビューに対して下向きのドラッグ操作が行われる様子を示す図である。 トップビューに対してドラッグ操作が行われる様子を示す図である。 トップビューに対してドラッグ操作が行われる様子を示す図である。 トップビューに対してドラッグ操作が行われる様子を示す図である。 変更後のトップビューを示す図である。 複数のビューが連動して変更された状態を示す図である。 等深度線がドラッグされる様子を示す図である。 等深度線が移動された後の透視ビューを示す図である。 トップビューが移動された後の表示画面を示す図である。 透視ビューが拡大された後の表示画面を示す図である。 各ビューが移動および拡大された後の表示画面を示す図である。 表示画面内の或る画素が第1の情報および第2の情報に対応づけられている様子を示す概念図である。
以下、本発明の実施形態を図面に基づいて説明する。
<1.第1実施形態>
<1-1.水中探知装置の全体構成>
図1は、本発明に係るデータ処理装置(ここでは水中探知装置1)の構成を示すブロック図である。本実施形態の水中探知装置1は、例えば、漁船などの船舶において使用される。
水中探知装置1(環境探知装置とも称される)は、図1に示すように、スキャニングソナー10と情報処理装置20とを備えている。水中探知装置1は、一般的に知られているスキャニングソナー10に、例えば、情報処理装置20が外付けされた構成を備えている。尚、水中探知装置1は、情報処理装置20がスキャニングソナー10に対して外付けではなくスキャニングソナー10に搭載された構成を備えていてもよい。また、情報処理装置20には、ディスプレイ等の表示装置として構成される表示部31が外付けされている。また、水中探知装置1には、マウス等のポインティングデバイスとして構成される操作入力部33が外付けされている。表示部31および操作入力部33は、ユーザインターフェイス部として機能する。
スキャニングソナー10は、送受波器2と、送受信機3とを備えている。
<1-2.送受波器の構成>
送受波器2は、超音波を送受信する機能を有し、船舶Sの船底に取り付けられている。例えば一例として、送受波器2は、略球形の形状に形成されている。
詳細には、送受波器2は、略球形形状の筐体と、この筐体の外周面に取り付けられた複数の送受波素子としての超音波振動子(図示省略)とを有している。超音波振動子は、超音波を水中の送信空間に送信波として送信するとともに、水中のターゲットでの送信波の反射を含む反射波としての受信波を受信し、この受信波を電気信号に変換することで受信した受信波から受信信号を生成して送受信機3へ出力する。即ち、送受波器2は、水中に送信波を送信する送信部(送信トランスデューサとも称する)として構成されているとともに、水中のターゲットでの送信波の反射を含む受信波を受信し、受信した受信波から受信信号を生成する受信部(受信トランスデューサとも称する)として構成されている。送受波器2から送信された送信波が反射する水中のターゲットとしては、魚群等が挙げられる。
なお、本実施形態においては、送受波器2として、筐体が球形の場合を例示したが、形状は特に限定されるものではなく、例えば、略円筒形状等のように他の形状であってもよい。送受波器2の筐体が略円筒形状である場合は、送受波器2は、その軸方向が鉛直方向に沿い、半径方向が水平方向に沿うように配置される。
図3は、送受波器2によって送信波が送信される送信空間TS及び送受波器2によって受信波が受信される複数の受信空間RSを模式的に示す図である。船舶Sに搭載された送受波器2から送信される送信波は、送受波器2から船舶Sを中心とする水中の全方位へ向けて一斉に送信され、例えば、半球状の送信ビームが形成される。半球状の送信ビームが形成された場合は、送信波が送信される送信空間TSは、半球状の空間として構成される。尚、送信ビームの形状は、半球状に限らず、送受波器2の形状、或いは、送受波器2の各送受波素子に入力する電気信号の振幅及び位相によって、種々の異なる形状に形成される。
また、送受波器2は、当該送受波器2から外側に広がる3次元空間からの受信波を受信する。詳細には、送受波器2は、送信ビーム送信後、送信空間TS内において、周方向に(図3にて矢印で示す方位角θの方向に)スキャンする複数の受信ビームを一斉に形成する。即ち、送受波器2による一度の受信タイミングで、全ての受信ビームが形成される。そして、水中の魚群等のターゲットで反射した受信波が、送信空間TSの周方向に沿って(即ち、方位角θの方向に沿って)並んで配置された複数の受信空間RSのそれぞれ(即ち、受信ビームが形成される各空間)において受信される。
<1-3.送受信機の構成>
送受信機3は、送受切替部3aと、送信回路部6と、受信回路部7とを備えている(図1参照)。
送受切替部3aは、送受波器2に対する信号の送信と受信とを切り替えるためのものである。具体的には、送受切替部3aは、送受波器2を駆動させるための駆動信号を送受波器2へ送信するときは、送信回路部6が出力する駆動信号を送受波器2へ出力する。一方、送受切替部3aは、受信信号を送受波器2から受信したときは、送受波器2から受信した受信信号を受信回路部7へ出力する。
送信回路部6は、送受波器2から送信される送信波の基となる駆動信号を生成する。より具体的には、送信回路部6は、各超音波振動子に対応して設けられている送信回路(図示省略)を有し、各送信回路が駆動信号を生成する。
受信回路部7は、アナログ部7aと、A/D変換部7bと、を有している。アナログ部7a及びA/D変換部7bは、各超音波振動子に対応して設けられている受信回路であって、受信した受信波から生成された受信信号を処理する受信回路(図示省略)を備えて構成されている。そして、アナログ部7aは、送受波器2が受信波から生成して出力する電気信号としての受信信号を増幅するとともに、その帯域を制限することで不要な周波数成分を除去する。A/D変換部7bは、アナログ部7aで増幅された受信信号を、デジタル信号としての受信信号に変換する。そして、受信回路部7は、A/D変換部7bにてデジタル信号に変換した受信信号を情報処理装置20へ出力する。
<1-4.表示部の構成>
表示部31は、ディスプレイ等の表示装置として構成されている。表示部31は、情報処理装置20から出力された映像信号に応じた映像(画像)を表示画面に表示する。表示部31は、例えば、船舶Sの下方における海中の状態を3次元的に表示する。表示部31における表示画面には、後に詳述するように、複数のビュー(ビュー画像)51,52,53が表示される(図4等参照)。なお、水中探知装置1のユーザは、当該表示画面を見て、船舶Sの下方における海中の状態(例えば、魚群、海底の起伏、人工漁礁のような構造物の有無および位置)を推測することができる。
<1-5.情報処理装置の構成>
図2は、情報処理装置20の機能構成を示すブロック図である。図1及び図2に示されるように、情報処理装置20は、受信回路部7から出力される受信信号を処理し、ターゲットのエコー信号を生成するとともに、ターゲットのエコーを表示部31に表示させるためのエコー映像信号を生成する処理等を行う。なお、情報処理装置20は、レンダリング機能を有していることから、レンダリング装置あるいは表示制御装置などとも称される。
情報処理装置20は、データ生成部21、データ取得部22、レンダリング部23、ビュー特定部24、ジェスチャ検出部25、およびビュー修正部26等を備える。
情報処理装置20は、スキャニングソナー10の送受信機3とケーブル等により接続された機器であって、例えばPC(パーソナルコンピュータ)として構成される。情報処理装置20は、ハードウェアプロセッサ(例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等)、ならびに各種メモリ(揮発性メモリおよび不揮発性メモリ)等のデバイスを備える。
ハードウェアプロセッサにおいて、不揮発性メモリ内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理部が実現される。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて情報処理装置20にインストールされるようにしてもよい。あるいは、当該プログラムは、ネットワークを経由してダウンロードされて情報処理装置20にインストールされるようにしてもよい。
ハードウエアプロセッサにおいて当該プログラムが実行されることによって、データ生成部21、データ取得部22、レンダリング部23、ビュー特定部24、ジェスチャ検出部25、およびビュー修正部26等を含む各種の処理部が実現される。
データ生成部21は、送受信機3において生成された受信信号に基づきデータセット(エコーデータ等)を生成する処理部である。データ生成部21は、送受信機3から受信した受信信号に基づいて複数の受信空間RSのそれぞれについてビームフォーミング処理を行うことで、当該データセットを生成する。尚、当該データセットは、ターゲット(魚群等)に関して検出装置によって検出された一群のデータである。たとえば、当該データセットは、水中環境内の各3次元位置(X,Y,Z)におけるエコー強度(魚群等からの反射波の強度)等に関するデータを備えて構成される。当該データセットは、揮発性メモリ(あるいは不揮発性メモリ)等に一旦格納される。
データ取得部22は、ターゲット(魚群等)に関して検出装置(スキャニングソナー10等)によって検出されたデータセット(魚群データ等)を取得する処理部である。データ取得部22は、たとえば、ターゲット(魚群等)に関して送受波器2および送受信機3によって検出されてメモリに格納されているエコーデータを、当該メモリから抽出して取得する。
レンダリング部23は、データセットに基づくレンダリング処理を実行する処理部である。レンダリング部23は、表示部31の表示画面内に配置される複数のビュー(ビュー画像とも称する)(後述)を生成する。
ビュー特定部24は、ユーザによる操作の対象画素に対応づけられている第2の情報F2(後述)を取得し、操作対象ビュー(当該操作の対象ビュー)を第2の情報F2に基づいて特定する処理部である。換言すれば、ビュー特定部24は、複数のビュー画像にそれぞれ対応する複数の領域の中からジェスチャの対象領域を特定する処理部である。第2の情報F2を用いることによれば、操作対象ビューを容易に特定することが可能である。
ジェスチャ検出部25は、ユーザ操作に伴うジェスチャを指示ジェスチャ(操作指示情報)として検出する処理部である。ユーザは、複数のビューのうちの任意の1つのビューに対する操作をユーザインターフェイス部を介して行うことができる。ユーザによる「ジェスチャ」は、ユーザインターフェイス部(たとえば、マウスなどのポインティングデバイス)によって受け付けられる。
「ジェスチャ」は、たとえば、ユーザのマウス操作を介して受け付けられる。換言すれば、マウスに対する各種操作(クリック操作、ドラッグ操作、マウスホイールの回転操作等)が「ジェスチャ」として受け付けられる。なお、これに限定されず、「ジェスチャ」は、タッチパネル(タッチスクリーン)などの他のユーザインターフェイス部によって受け付けられてもよい。たとえば、画面に対する直接的なタッチ操作(ドラッグ操作、ピンチイン操作、ピンチアウト操作等)が「ジェスチャ」として受け付けられてもよい。この第1実施形態では、マウスを用いてジェスチャが受け付けられる態様について主に説明する。第2実施形態では、タッチパネルを用いてジェスチャが受け付けられる態様について主に説明する。
ビュー修正部26は、レンダリング部23と協働して、ビューを修正する処理部である。ビュー修正部26は、指示ジェスチャがビュー修正指示である場合、ビュー修正指示に基づき操作対象ビュー(操作対象のビュー画像)を修正する。
<1-6.動作>
<初期動作>
図5は、水中探知装置1(主に情報処理装置20)の動作を示すフローチャートである。以下、図5等を参照しつつ、水中探知装置1の動作について説明する。
まず、ステップS11において、水中探知装置1の情報処理装置20(詳細にはデータ取得部22)は、水中のターゲット(魚群等)に関して水中環境から検出されたデータセットを取得する。詳細には、スキャニングソナー10等によって検出されたエコーデータ(船舶Sの下方側に広がる半球状の環境空間から得られたエコーに関するデータ群)が、当該データセットとして取得される。
そして、ステップS12において、情報処理装置20(詳細にはレンダリング部23)は、当該データセットに基づくレンダリング処理を実行し、表示部31の表示画面200内に配置される複数のビュー50を生成する。そして、情報処理装置20は、当該複数のビューのそれぞれを表示画面200内の各初期位置に配置する。
<複数のビュー>
図4は、表示部31に表示される表示画面200を示す図である。表示画面200には、同じデータセットに基づく複数のビュー(ビュー画像とも称する)が表示される。
図4に示されるように、複数のビュー50は、ここでは、透視ビュー51とサイドビュー52とトップビュー53との3つのビューを含む。ただし、これに限定されず、たとえば、透視ビュー51とサイドビュー52とトップビュー53とのうちのいずれか2つのみが複数のビュー50として描画されてもよい。あるいは、透視ビュー51とサイドビュー52とトップビュー53とのうちの少なくとも2つ(又は少なくとも1つ)と他の種類のビューとが複数のビュー50に含まれてもよい。なお、「透視ビュー」は、遠近ビュー、3Dビュー、透視画像、あるいは遠近視画像などとも称され、サイドビューは、側面ビューあるいは側面視画像などとも称され、トップビューは、平面ビュー、上面ビュー、平面視画像あるいは上面視画像などとも称される。
各ビューは、ここでは、半球形状(お椀形状あるいは下半球形状とも称される)のデータセット表示空間を表示対象としている。
透視ビュー(3Dビュー)51は、データセット表示空間(データセットを表示する3次元空間)を透視図法で立体的に(3次元的に)描画したビュー画像である。透視ビュー51は、ここでは、表示画面200内において、謂わば、お椀を斜め上方(手前側上方)から見た外形形状を有している。詳細には、透視ビュー51は、2つの楕円(長軸方向(左右方向)に同じ軸長を有し且つ短軸方向(上下方向)に異なる軸長を有する2つの楕円)のうちの一方の上半分と他方の下半分とが上下に組み合わせられた形状、を有している。立体的に描画された透視ビュー(3Dビュー)51を視認することによれば、ユーザは全体像を容易に把握することが可能である。
また、サイドビュー52は、当該データセット表示空間を真横から見たビュー画像である。サイドビュー52は、表示画面200内において、ここでは半円形状(下半円形状)を有している。
また、トップビュー53は、当該データセット表示空間を真上から見たビュー画像である。トップビュー53は、表示画面200内において、ここでは円形状を有している。
<データ構造>
複数のビュー51,52,53のそれぞれは、複数の画素を含む。また、図24の概念図に示されるように、複数のビューに含まれる各画素68は、表示画面200上に表示される第1の情報F1と複数のビューのうち当該各画素の所属先のビューを示す第2の情報F2とを含む複数の情報にそれぞれ対応づけられている。なお、図24は、表示画面200内(詳細には、透視ビュー51内)の或る画素68が複数の情報(第1の情報F1と第2の情報F2とを含む)に対応づけられている様子を概念的に示す図である。表示画面200内の他の各画素(透視ビュー51内の他の画素、ならびにサイドビュー52およびトップビュー53内の各画素等)に対しても、同様に、第1の情報F1および第2の情報F2等がそれぞれ対応づけられている。
上述のように、データセットは、水中環境内の複数の3次元位置(X,Y,Z)における各エコー強度(魚群等からの反射波の強度)に関するデータを備えて構成される。換言すれば、当該データセットには、各ターゲットの3次元位置(X,Y,Z)と当該3次元位置の各ターゲットからの受信信号の信号強度とが含まれる。
各ビュー51,52,53内においては、各3次元位置におけるエコー強度等の情報が色で区別して表示される。具体的には、3次元位置(X,Y,Z)を2次元に変換した各画素(ピクセル)に対して、赤色、黄色、青色などの色情報(エコー強度を複数の段階に区分するとともに当該複数の段階を色で区別した情報)が付与される。たとえば、各ビューの各画素に対応する所定の視線上にて所定程度以上のエコー強度を有する3次元位置であって各ビューの所定の視点から見て最も手前側の3次元位置のエコー情報(エコー強度に応じた色情報等)が、表示画面200(2次元平面)内の各画素の第1の情報F1として付与される。あるいは、各ビューの各画素に対応する所定の視線上にて最も高いレベルのエコー強度を有する3次元位置であって各ビューの所定の視点から見て最も手前側の3次元位置のエコー情報等が、表示画面(2次元平面)内の各画素の第1の情報F1として付与されてもよい。
図4の表示画面200の各ビュー51,52,53においては、各魚群71,72のエコーデータを示す画素群のうち、赤色の画素群(最も大きな信号強度レベルを有していることを示す画素群)に対して斜めハッチングが付されて示されている。また、黄色の画素群(赤色の画素群の次に大きな信号強度レベルを有していることを示す画素群)に対して砂地ハッチングが付されて示されている。
このように各ビュー内の各画素に対して第1の情報F1が対応づけられる。なお、第1の情報F1は、エコー強度に基づく色情報であってもよく、エコー強度の段階値あるいはエコー強度値(検出値)自体等であってもよい。
また、各ビュー内の各画素には、第2の情報F2も対応づけられている。各画素の第2の情報F2は、複数のビュー50(51,52,53)のうち当該各画素の所属先のビューを示す情報である。各画素の第2の情報F2は、当該各画素がそれぞれ複数のビュー51,52,53のいずれに属するかを示す情報であり、ビュー識別情報とも称される。
たとえば、透視ビュー51内の各画素には、当該各画素が透視ビュー51に属する旨が第2の情報F2として対応付けられている。同様に、サイドビュー52内の各画素には、当該各画素がサイドビュー52に属する旨が第2の情報F2として対応付けられている。同様に、トップビュー53内の各画素には、当該各画素がトップビュー53に属する旨が第2の情報F2として対応付けられている。
なお、ここでは、表示画面200内の画素のうち、複数のビュー51,52,53のいずれにも属さない画素には、第2の情報F2自体が対応付けられていない。ただし、これに限定されず、表示画面200の画素のうち、何れのビュー51,52,53にも属さない画素には、その旨(何れのビュー51,52,53にも属さない旨)を示す情報(「0」等)が第2の情報F2として対応付けられてもよい。
また、隣接する2つのビューが互いに(見かけ上)重複する場合、重複領域内の各画素は上側(上層側)のビューに所属している旨が、第2の情報F2として記録される。たとえば、図23(後述)に示されるように、サイドビュー52とトップビュー53との重複部分(トップビュー53の左端側付近にてサイドビュー52の右上端付近を覆っている領域)の各画素は上側のトップビュー53に所属している旨が、当該各画素の第2の情報F2として記録される。
<ユーザ操作に応じた各ビューの変更の概要>
次のステップS13では、情報処理装置20(詳細にはジェスチャ検出部25)は、ユーザ操作に伴うジェスチャが検出されたか否かを判定する。ここでは、ジェスチャとして、マウスによるジェスチャ(マウスによるドラッグ操作等)が検出されるものとする。
ステップS13でジェスチャが検出されない場合には、ステップS17に進み、終了の是非を判定する。ステップS17では、次のデータセット(次のエコーデータ等)の取得タイミングの到来など、図5の処理を一旦終了すべき条件が成立したか否か判定される。当該条件が未だ成立していないと判定される場合には、再びステップS13に戻る。これに対して、当該条件が成立したと判定される場合には、図5の処理を一旦終了する。なお、その後、次のデータセットの取得タイミングの到来に応じて図5の処理が再開される。
一方、ステップS13においてジェスチャが検出されると、ステップS14に進む。
ステップS14では、ビュー修正指示が受け付けられたことに応答して、まず、当該ジェスチャにおける操作対象ビューが特定される。より詳細には、情報処理装置20(ビュー特定部24)は、ドラッグ操作の操作開始位置の画素に対応付けられている第2の情報F2を取得する。そして、取得された当該第2の情報F2に基づき、操作対象ビューが特定される。さらに、ステップS15において、操作対象ビューに対する指示ジェスチャの指示内容(修正指示内容)が特定されるとともに、当該指示内容に基づく視点変更処理(視点回転処理)がビュー修正部26によって実行される。より詳細には、ユーザによるジェスチャ(指示ジェスチャ)がビュー修正指示であることが(ジェスチャ検出部25およびビュー修正部26によって)判定される場合に、ビュー修正指示に応じた変更後の視点が決定される。さらに、ステップS16においては、変更後の視点に基づくレンダリング処理(データセットに関するオブジェクトのレンダリング処理)がレンダリング部23およびビュー修正部26によって実行され、操作対象ビューが修正される。
<透視ビュー51の視点変更>
透視ビュー51上にマウスカーソル65が存在する状態からユーザが表示画面200上でマウスのドラッグ操作(指示ジェスチャ)を行う場合(図7および図9参照)には、次のような処理が実行される。
この場合、まず、当該ドラッグ操作の操作開始位置の画素に対応付けられている第2の情報F2が取得され、当該第2の情報F2に基づき、当該画素が透視ビュー51に対応づけられていることが判定される。この判定結果に基づき、ビュー特定部24は、操作対象ビューが透視ビュー51である旨を更に判定する(ステップS14)。
つぎに、ドラッグ操作(指示ジェスチャ)の方向成分値ΔU,ΔV(図6参照)が比較されることによって、画面200内における水平方向(U方向)と垂直方向(V方向)とのいずれの方向の移動指示が付与されたかが特定される(ステップS15)。なお、図6においては、ドラッグ操作の移動ベクトルが白矢印で示されているとともに、当該移動ベクトル(白矢印)の水平方向成分ΔU(マウスの水平方向における移動量)と垂直方向成分ΔV(マウスの垂直方向における移動量)とが示されている。
そして、画面200内の水平方向における指示移動量ΔUと画面200内の垂直方向における指示移動量ΔVとの比較結果に応じて、指示ジェスチャの指示内容が特定される(ステップS15)。これによれば、ドラッグ操作が画面内において斜め方向においてなされた場合をも含めて、ドラッグ操作の主方向、ひいては指示ジェスチャの指示内容が特定される。
具体的には、指示移動量ΔUが指示移動量ΔVよりも大きい場合、「鉛直軸AX1周りの回転指示」が操作対象ビュー51に対する指示ジェスチャの指示内容として特定される。換言すれば、視点に関する方位角の変更指示が指示内容として特定される。なお、鉛直軸AX1は、3次元空間(実空間)において、船舶(自船)Sから海底へと鉛直方向に伸延する軸である。
一方、指示移動量ΔUが指示移動量ΔVよりも小さい場合、「水平軸AX2周りの回転指示」が操作対象ビュー51に対する指示ジェスチャの指示内容として特定される。換言すれば、視点に関する仰角の変更指示が指示内容として特定される。
このようにして、視点の回転方向が決定される。具体的には、指示移動量ΔUと指示移動量ΔVとの大小関係に応じて、視点の回転方向が変更される。
さらに、ステップS15では、ドラッグ操作の移動量に応じて、視点の回転量(移動量)が決定される。
このようにして、指示ジェスチャの指示内容(視点の回転方向(移動方向)および回転量)が決定されると、次のステップS16において、指示内容に応じた変更後の視点に基づくレンダリング処理が実行され、ビューが修正される。具体的には、変更後の視点からの新たなビュー画像が生成され、当該新たな透視ビューに基づき透視ビューが更新される。
より具体的には、指示移動量ΔUが指示移動量ΔVよりも大きい場合、3次元空間における鉛直軸(Z軸)AX1であって透視ビュー51において画面200内の垂直方向に対応づけられている鉛直軸AX1周りに当該透視ビューの視点を回転させたビュー画像が新たな透視ビューとして生成される。
たとえば、図7に示されるように、透視ビュー51上にマウスカーソル65が存在する状態からユーザが(表示画面200内にて)水平方向右向きのドラッグ操作(指示ジェスチャ)を行うと、情報処理装置20は、透視ビュー51に関して、実空間での鉛直軸(Z軸)(且つ画面上での垂直軸(V軸))AX1周りの回転操作指示がユーザから付与された旨を判定する。そして、図8に示されるように、変更前の透視ビュー51に代えて、変更後の透視ビュー51(新たな透視ビュー)が表示される。図8においては、その視点を鉛直軸AX1周りに(時計回りに約90度)回転させた新たな透視ビューが示されている。当該新たな透視ビュー51は、元のビュー画像を鉛直軸AX1周りに(反時計回りに約90度)回転した画像である、とも表現される。なお、左向きのドラッグ操作が行われる場合には、AX1周りに逆向きに回転された透視ビュー51が表示される。
一方、指示移動量ΔUが指示移動量ΔVよりも小さい場合、3次元空間における水平軸AX2であって透視ビュー51において画面200内の水平方向に対応づけられている水平軸AX2周りに当該透視ビューの視点を回転させたビュー画像が新たな透視ビューとして生成される。
たとえば、図9に示されるように、透視ビュー51上にマウスカーソル65が存在する状態からユーザが(表示画面200内にて)垂直方向下向きのドラッグ操作を行うと、情報処理装置20は、透視ビュー51に関して、実空間での水平軸(且つ画面上での水平軸(U軸))AX2周りの回転操作指示がユーザから付与された旨を判定する。そして、図10に示されるように、変更前の透視ビュー51に代えて、変更後の透視ビュー51(水平軸AX2周りに視点を回転させた新たな透視ビュー)が表示される。図10と図9とを比較すると判るように、図10においては、より大きな仰角を有する視点からの透視ビューが表示されている。なお、上向きのドラッグ操作が行われる場合には、AX2周りに逆向きに回転された透視ビュー51が表示される。
<サイドビュー52の視点変更>
また、図11(あるいは図13)に示されるように、サイドビュー52上にマウスカーソル65が存在する状態からユーザがドラッグ操作(マウスによるドラッグ操作)を行う場合には、次のような処理が実行される。
この場合、まず、当該ドラッグ操作の操作開始位置の画素がサイドビュー52に対応づけられていることが、当該画素の第2の情報F2に基づいて判定され、ビュー特定部24は、操作対象ビューがサイドビュー52である旨を判定する(ステップS14)。
つぎに、指示移動量ΔUと指示移動量ΔV(図6参照)との比較結果に応じて指示ジェスチャの指示内容が特定され(ステップS15)、指示ジェスチャの指示内容に基づいて必要に応じてビューが修正される(ステップS16)。具体的には、指示移動量ΔUと指示移動量ΔVとの大小関係に応じて、ビューの修正の有無等が変更される。
具体的には、指示移動量ΔUが指示移動量ΔVよりも大きい場合(図11参照)には、「鉛直軸AX1周りの回転指示」が操作対象ビュー52に対する指示ジェスチャの指示内容として特定される。そして、上述の鉛直軸AX1周りに当該サイドビュー52の視点を回転させたビュー画像が新たなサイドビュー52として生成され、当該新たなサイドビュー52が元のサイドビュー52に代えて画面200に表示される(図12参照)。なお、左向きのドラッグ操作が行われる場合には、AX1周りに逆向きに回転されたサイドビュー52が表示される。
一方、指示移動量ΔUが指示移動量ΔVよりも小さい場合(図13参照)には、指示ジェスチャはビュー修正指示ではないと判定される。換言すれば、「視点を回転(変更)しないこと」が操作対象ビュー52に対する指示ジェスチャの指示内容として特定される。この場合、サイドビュー52の修正処理は行われない(図4参照)。
<トップビュー53の視点変更>
また、図14~図16に示されるように、トップビュー53上にマウスカーソル65が存在する状態からユーザがドラッグ操作(指示ジェスチャ)を行う場合には、次のような処理が実行される。なお、図14では右向きのドラッグ操作が行われ、図15では上向きのドラッグ操作が行われ、図16では左上向きのドラッグ操作が行われている。
この場合、まず、ドラッグ操作の操作開始位置の画素がトップビュー53に対応づけられていることが当該画素の第2の情報F2に基づいて判定され、ビュー特定部24は、操作対象ビューがトップビュー53である旨を判定する(ステップS14)。
つぎに、指示移動量ΔUと指示移動量ΔV(図6参照)との大小関係にかかわらず、指示ジェスチャの指示内容が特定される。具体的には、3次元空間における鉛直軸AX1周りにトップビュー53の視点を回転させる指示が付与された旨が特定される(ステップS15)。そして、当該指示ジェスチャの指示内容に基づいて、3次元空間における鉛直軸AX1周りにトップビュー53の視点を回転させたビュー画像が新たなトップビューとして生成される(ステップS16)。そして、当該新たなトップビュー53が元のトップビュー53に代えて画面200に表示される(図17参照)。なお、トップビュー53において、3次元空間における鉛直軸AX1は、画面200(紙面)に対して垂直な方向に伸びている。なお、トップビュー53の中心軸に関して逆向きの回転操作が行われる場合には、AX1周りに逆向きに回転されたトップビュー53が表示される。
<ドラッグ操作における例外処理>
複数のビューのいずれかに対するドラッグ操作が行われる場合において、所定のマーク(等深度線等)以外の位置を始点とするドラッグ操作が行われるときには、上述のような処理が行われる。
一方、複数のビューのいずれかに対するドラッグ操作が行われる場合であっても、所定のマーク(等深度線等)を始点とするドラッグ操作が行われる場合には、次のような例外的な処理が行われる。
たとえば、図19に示されるように、透視ビュー51内にて等深度線(水中の深さ方向における同じ深さ位置を示す曲線)63(63a)上の位置から垂直方向(たとえば下向き)のドラッグ操作が行われる場合には、透視ビュー51にて等深度線63を移動させる処理が行われる。図20においては、変更後の画面200において、等深度線63(63a)が下向きに移動されている様子が示されている。
<移動操作および拡縮操作>
画面200にはモード遷移ボタン69(図4等参照)が設けられている。このモード遷移ボタン69が押下されるごとに、「回転モード」と「配置変更モード」との間で動作モードが切り替えられる。「回転モード」は、上述のような動作(各ビュー51,52,53の回転動作)(図4~図20参照)を実現するモードであり、「配置変更モード」は、画面200内における各ビュー51,52,53の配置等を変更すること(図21等参照)が可能なモードである。
画面200内のモード遷移ボタン69が押下されて動作モードが「配置変更モード」に遷移すると、次のような動作が行われる。
具体的には、操作対象ビューに対するドラッグ操作に応じて、画面200内における当該各操作対象ビューの位置が変更される。たとえば、トップビュー53に対する左下向きのドラッグ操作に応じて、図21に示されるように、画面200内でのトップビュー53の位置が左下側に変更される。図21では、トップビュー53が透視ビュー51の右下近傍位置且つサイドビュー52の右上近傍位置に移動されている。
さらに、マウスカーソルが操作対象ビューに存在する状態でマウスのホイール操作が行われると、当該ホイール操作に応じて、画面200内における当該各操作対象ビュー自体の大きさが変更される。たとえば、図22に示されるように、透視ビュー51上にマウスカーソル65が存在する状態でマウスホイールが奥側に回転されると、透視ビュー51の拡大指示が付与された旨が判定され、透視ビュー51が拡大される。換言すれば、画面200内に占める透視ビュー51の割合が大きくなる。逆に、逆向きのマウスホイール操作(手前側への回転操作)が行われると、透視ビュー51が縮小される。また、他のビュー52,53についても同様である。
各ビューは、マウスカーソル65の位置を中心に拡縮(拡大および/または縮小)される。ただし、これに限定されず、所定の基準位置(たとえば船舶Sの位置)を中心に拡縮(変倍)されてもよい。
ユーザは、上述のような移動操作と拡縮操作とを組み合わせることによって、各ビューの大きさと位置とを自在に変更することが可能である(図23参照)。換言すれば、ユーザは、表示画面200内において各ビューを任意の位置に任意の大きさで配置することが可能である。なお、図23は、操作対象ビュー51,52に対する移動操作および拡縮操作とトップビュー53に対する移動操作とに基づいて各ビューの大きさと位置とが変更された状態を示している。
また、ユーザは、「配置変更モード」における操作と「回転モード」における操作とを組み合わせることによって、各ビューの大きさと位置とを自在に変更し、且つ、視点を自在に変更した各ビュー画像をユーザに見せること(透視ビュー51を軸AX1まわりに回転させること等)が可能である。
また、ユーザは、同様の操作によって、装置再起動直後の状態(初期状態)における各ビューの表示位置および表示大きさを指定することも可能である。
<1-7.第1実施形態の効果>
上述のように、複数のビュー50(51,52,53)に含まれる各画素は、画面200上に表示される第1の情報F1と当該複数のビュー50のうち当該各画素の所属先のビューを示す第2の情報F2とを含む複数の情報に対応づけられている。したがって、第2の情報F2に基づき、当該各画素の所属先のビューに関する情報を容易に取得することが可能である。ひいては、複数のビューにそれぞれ対応する複数の領域の中からジェスチャの対象領域をより適切に決定することが可能である。より詳細には、ユーザによる操作の対象画素に対応づけられている第2の情報F2に基づき、操作の対象ビューである操作対象ビューが特定されることによって、複数のビューにそれぞれ対応する複数の領域の中からジェスチャの対象領域をより適切に決定することが可能である。
特に、隣接する2つのビューが互いに(見かけ上)重複する場合(図23参照)においても、重複領域内の各画素の第2の情報F2を用いることによって、各画素の所属先のビューが適切に判定される。したがって、ユーザによる操作の対象画素が当該重複領域内の画素である場合にも、当該対象画素に対応づけられている第2の情報F2に基づき、操作の対象ビューである操作対象ビュー(ジェスチャの対象領域)をより適切に決定することが可能である。
また、上述のように、各ビューは、矩形以外の様々な形状(2つの楕円の半分ずつが上下に組み合わせられた形状、下半円形状、円形状等)を有し得る。すなわち、形状の自由度を向上させることが可能である。さらに、上述のように第2の情報F2(ビュー識別情報)が各画素ごとに対応づけられて格納されているので、形状の自由度を向上させた上で、操作対象ビューを容易に識別することが可能である。
このように、各ビューの形状の自由度と各ビューの配置の自由度とを向上させつつ、操作対象ビュー(ジェスチャの対象領域)をより適切に決定することが可能である。
また、上記実施形態においては、マウスカーソルの位置に応じて操作対象ビューが自動的に特定されるので、ユーザは、操作対象ビューを切り替えるために所定ボタン(操作対象ビュー切替用ボタン)を押下する操作を行うことを要しない。したがって、ユーザは、操作対象ビューを容易に指定することが可能である。
また、上記実施形態においては、マウスカーソルの位置に応じて操作対象ビューが特定されるとともに、マウス操作に対する動作が当該操作対象ビューに応じて自動的に変更される。たとえば、同様の下向きドラッグ操作が透視ビュー51とトップビュー53とのいずれになされたかに応じて、視点変更動作(オブジェクトの回転動作)の内容が変更される。詳細には、下向きドラッグ操作が透視ビュー51に対して行われた場合には軸AX2周りの視点回転動作が行われ、下向きドラッグ操作がトップビュー53に対して行われた場合には、軸AX1周りの視点回転動作が行われる。このように、ビューに応じた適切な動作が自動的に実行され得る。
<1-8.第1実施形態に係る変形例>
なお、上記第1実施形態では、操作対象ビューのみに関してビュー(ビュー画像)の修正処理が実行され、操作対象ビュー以外のビューに関してはビューの修正処理は変更されない。しかしながら、本発明は、これに限定されない。
具体的には、操作対象ビューに対するビュー修正指示が付与された場合、操作対象ビューが修正されるだけでなく、複数のビューのうち操作対象ビュー以外の少なくとも1つのビューもが修正されてもよい。換言すれば、操作対象ビューに対する操作指示に連動して、操作対象ビュー以外のビューに関するビュー修正処理もが施されてもよい。
たとえば、操作対象ビューが透視ビュー51であり、且つ、透視ビュー51に対してビュー修正指示が付与され軸AX1周りに透視ビュー51の視点が回転されて透視ビュー51が更新される場合(図7参照)、図18に示されるように画面200が変更されてもよい。具体的には、軸AX1(図7等参照)周りに透視ビュー51の視点を回転させて透視ビュー51を更新するともに、軸AX1(図11等参照)周りにサイドビュー52の視点を回転させてサイドビュー52をも更新してもよい(図18参照)。さらに、軸AX1(図14等参照)周りにトップビュー53を回転させてトップビュー53をも更新してもよい(図18参照)。
<2.第2実施形態>
第2実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
第2実施形態においては、表示部31としてタッチパネル式の表示装置(以下、単にタッチパネルとも称する)が設けられ、当該タッチパネルを用いたジェスチャ(タッチジェスチャとも称する)が受け付けられる態様について説明する。第2実施形態においては、タッチパネルが、ユーザインターフェイス部として設けられる。換言すれば、当該タッチパネルは、表示部として機能するとともに操作入力部としても機能する。
第2実施形態では、タッチジェスチャにおける1本指のドラッグ操作によって、第1実施形態のマウスジェスチャにおけるドラッグ操作による指示と同様の指示が付与される。
また、第2実施形態においては、タッチジェスチャにおける2本指の操作(同時に2本指で行われる操作(マルチタッチ操作とも称する))もが受け付けられる。当該2本指の操作は、ピンチイン操作、ピンチアウト操作、2本指のドラッグ操作、2本指の回転操作を含む。
ピンチイン操作は、画面上での2本指の相互間の間隔を狭める操作であり、ピンチアウト操作は、画面上での2本指の相互間の間隔を広げる操作である。2本指のドラッグ操作(スライド操作あるいはスワイプ操作とも称する)は、2本指を画面上にて或る方向(互いに同じ方向)へと同時に移動する操作である。また、2本指の回転操作は、2本指の移動(画面上の或る位置を中心に当該2本指を互いに逆方向に移動すること等)に応じて、画面に対する2本指の接触位置を互いに結ぶ方向を変更する操作である。
第2実施形態においては、複数のジェスチャのうち、マルチタッチジェスチャ(具体的には、ピンチイン操作、ピンチアウト操作、2本指のドラッグ操作)を利用することによって、「回転モード」と「配置変更モード」との間での動作モードの切替を行わずとも、操作対象ビューの位置変更および変倍率変更を実現することが可能である。
詳細には、2本指のドラッグ操作が操作対象ビューに対して行われると、操作対象ビューに対する移動指示(画面内での表示位置変更指示)が付与されたと判定される。そして、操作対象ビュー(たとえばトップビュー53)は、当該移動指示に応じてユーザの所望の位置に移動される(図21参照)。なお、2本指のドラッグ操作は、操作対象ビューの種類にかかわらず、操作対象ビューを画面内にて移動する移動指示操作として特定される。
また、2本指のピンチ操作(ピンチイン操作/ピンチアウト操作)が操作対象ビューに対して行われると、操作対象ビューに対する変倍指示(画面内での表示大きさ(表示面積)の変更指示)が付与されたと判定される。そして、当該変倍指示に応じて操作対象ビューの大きさが変更される。詳細には、ピンチアウト操作は操作対象ビューに対する拡大指示であると判定され、操作対象ビュー(たとえば透視ビュー51)はピンチアウト操作に応じて拡大される(図22参照)。一方、ピンチイン操作は操作対象ビューに対する縮小指示であると判定され、操作対象ビューはピンチイン操作に応じて縮小される。なお、2本指のピンチ操作は、操作対象ビューの種類にかかわらず、当該操作対象ビューを画面内にて変倍する変倍指示操作として特定される。
また、2本指の回転操作は、操作対象ビューの種類にかかわらず、「鉛直軸AX1周りの回転指示」を付与する操作として特定される。すなわち、2本指の回転操作の操作対象ビューが透視ビュー51とサイドビュー52とトップビュー53とのうちのいずれであっても、当該2本指の回転操作は、「鉛直軸AX1周りの回転指示」操作である、と判定される。
また、各操作対象ビューに対する1本指のドラッグ操作が付与された場合には、「回転モード」におけるマウスのドラッグ操作と同様の指示が付与されたものとして判定される。
詳細には、透視ビュー51に対するタッチ操作として1本指のドラッグ操作が行われる場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも大きいときには、「鉛直軸AX1周りの回転指示」が指示ジェスチャの指示内容として特定される(図7および図8参照)。同様の場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも小さい場合には、「水平軸AX2周りの回転指示」が指示ジェスチャの指示内容として特定される(図9および図10参照)。
また、サイドビュー52に対するタッチ操作として1本指のドラッグ操作が行われる場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも大きい場合には、「鉛直軸AX1周りの回転指示」が指示ジェスチャの指示内容として特定される(図11および図12参照)。同様の場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも小さい場合(図13参照)には、「視点を変更しないこと」が指示ジェスチャの指示内容として特定される。
また、トップビュー53に対するタッチ操作として1本指のドラッグ操作が行われる場合には、当該ドラッグ操作における指示移動量ΔUと指示移動量ΔVとの大小関係にかかわらず、「鉛直軸AX1周りの回転指示」が指示ジェスチャの指示内容として特定される(図14~図17参照)。
このような第2実施形態によっても第1実施形態と同様の効果を得ることができる。
また、第2実施形態においては、タッチジェスチャにおけるタッチ開始位置に応じて操作対象ビューが自動的に特定される。より詳細には、タッチ開始位置の画素に対応づけられた第2の情報F2に基づいて、操作対象ビューが自動的に特定される。それ故、ユーザは、操作対象ビューを切り替えるごとに所定ボタンを押下する操作を行うことを要しない。したがって、ユーザは、操作対象ビューを容易に指定することが可能である。
また、第2実施形態においては、2本指操作(マルチタッチ操作)と1本指操作(シングルタッチ操作)とに対して、互いに異なる指示内容が割り当てられる。そして、複数の種類のタッチ操作が適宜に使い分けられることによって多数の指示内容が互いに区別して付与される。したがって、モード遷移ボタン69の押下等によるモード変更操作を行うことを要しない。詳細には、各ビューの視点変更動作(回転動作)、ならびに各ビューの移動動作および/または変倍動作が、タッチ操作のみによって実現され得る。
<3.変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
たとえば、上記第1実施形態等においては、操作対象ビューの移動および/または変倍指示を、マウス操作以外の操作(具体的には、モード遷移ボタン69の押下操作)を伴って行う態様が例示されているが、これに限定されず、マウスのボタン操作とマウスの移動操作とマウスホイール操作との組合せで操作対象ビューの移動および/または変倍指示が区別されてもよい。詳細には、マウスの左右両ボタンを押下しつつマウスを移動する操作によって「ビューの移動」が指示され、マウスの左ボタンを押下しつつマウスホイールを回転させる操作によって「ビューの変倍(拡大および縮小)」が指示されてもよい。これによっても、モード遷移ボタン69の押下を伴うことなく、様々な種類の指示が付与され得る。
また、上記各実施形態等においては、送信部として機能するとともに受信部としても機能する送受波器を備えた水中探知装置が主に例示されているが、これに限定されず、水中探知装置は、送信部と受信部とを別体でそれぞれ備えて構成されてもよい。
また、上記各実施形態等においては、船舶を中心とする水中の全方位へ向けて一斉に送信ビームを形成するスキャニングソナーを用いてデータセットが取得されているが、これに限定されない。たとえば、送信ビームと受信ビームとを回転させるサーチライトソナー(PPIソナー)を備えた水中探知装置を用いてデータセットが取得されてもよい。
また、上記各実施形態等においては、水中のターゲット(魚群等)に関して水中環境から検出されたデータセット(魚群データ等)が取得される態様が例示されているが、これに限定されない。たとえば、空中のターゲット(水蒸気等)に関して空中環境から検出されたデータセット(気象データ等)が取得されてもよい。あるいは、人体内のターゲット(臓器等)に関して体内環境から検出されたデータセット(医療データ等)が取得されてもよい。
1 水中探知装置(データ処理装置)
10 スキャニングソナー
31 表示部
33 操作入力部
51 透視ビュー
52 サイドビュー
53 トップビュー
63 等深度線
65 マウスカーソル
68 画素
69 モード遷移ボタン
200 表示画面
AX1 鉛直軸
AX2 水平軸
F1 第1の情報
F2 第2の情報

Claims (8)

  1. データ処理装置であって、
    ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、
    前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、
    を備え、
    前記複数のビューのそれぞれは、複数の画素を含み、
    前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられていることを特徴とするデータ処理装置。
  2. 請求項1に記載のデータ処理装置において、
    前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、
    前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、
    前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、
    前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、
    をさらに備えることを特徴とするデータ処理装置。
  3. 請求項1または請求項2に記載のデータ処理装置において、
    前記複数のビューは、透視ビューとサイドビューとトップビューとのうちの少なくとも2つを含むことを特徴とするデータ処理装置。
  4. 請求項2に記載のデータ処理装置において、
    前記ビュー修正部は、前記操作対象ビューに対する前記ビュー修正指示が付与された場合、前記複数のビューのうち前記操作対象ビュー以外の少なくとも1つのビューをも修正することを特徴とするデータ処理装置。
  5. 請求項に記載のデータ処理装置において、
    前記複数のビューは、透視ビューとサイドビューとトップビューとのいずれかである第1のビューと、前記透視ビューと前記サイドビューと前記トップビューとのうち前記第1のビュー以外のビューである第2のビューとを含み、
    前記ビュー修正部は、前記操作対象ビューが前記第1のビューであり、且つ、前記第1のビューに対して前記ビュー修正指示が付与され前記データセットに関する3次元空間における第1の軸周りに前記第1のビューの視点が回転されて前記第1のビューが更新される場合、前記第1の軸周りに前記第2のビューの視点を回転させて前記第2のビューをも更新することを特徴とするデータ処理装置。
  6. 請求項1から請求項のいずれかに記載のデータ処理装置において、
    送信波を送信する送信部と、
    前記ターゲットでの前記送信波の反射を含む受信波を受信し、前記受信波に基づき受信信号を生成する受信部と、
    前記受信信号に基づき前記データセットを生成するデータ生成部と、
    をさらに備え、
    前記受信波は、前記受信部から外側に広がる3次元空間から受信されることを特徴とするデータ処理装置。
  7. ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、
    前記複数のビューのそれぞれは、複数の画素を含み、
    前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられていることを特徴とするデータ処理方法。
  8. コンピュータに、
    a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、
    b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、
    を実行させるためのプログラムであって、
    前記複数のビューのそれぞれは、複数の画素を含み、
    前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられていることを特徴とするプログラム。
JP2022184557A 2019-05-14 2022-11-18 データ処理装置、データ処理方法、およびプログラム Pending JP2023025072A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022184557A JP2023025072A (ja) 2019-05-14 2022-11-18 データ処理装置、データ処理方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019091605A JP7216610B2 (ja) 2019-05-14 2019-05-14 データ処理装置、データ処理方法、およびプログラム
JP2022184557A JP2023025072A (ja) 2019-05-14 2022-11-18 データ処理装置、データ処理方法、およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019091605A Division JP7216610B2 (ja) 2019-05-14 2019-05-14 データ処理装置、データ処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2023025072A true JP2023025072A (ja) 2023-02-21

Family

ID=73222832

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019091605A Active JP7216610B2 (ja) 2019-05-14 2019-05-14 データ処理装置、データ処理方法、およびプログラム
JP2022184557A Pending JP2023025072A (ja) 2019-05-14 2022-11-18 データ処理装置、データ処理方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019091605A Active JP7216610B2 (ja) 2019-05-14 2019-05-14 データ処理装置、データ処理方法、およびプログラム

Country Status (2)

Country Link
US (3) US10996829B2 (ja)
JP (2) JP7216610B2 (ja)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2892423B2 (ja) * 1990-02-28 1999-05-17 株式会社日立製作所 画像表示装置及び画像表示方法
JPH07141530A (ja) * 1993-11-18 1995-06-02 Hitachi Ltd 図面編集装置および図面編集方法
JP5013699B2 (ja) 2005-10-21 2012-08-29 株式会社キーエンス 3次元加工データ設定装置、3次元加工データ設定方法、3次元加工データ設定プログラム、コンピュータで読み取り可能な記録媒体及び記録した機器並びにレーザ加工装置
TWI493500B (zh) * 2009-06-18 2015-07-21 Mstar Semiconductor Inc 使二維影像呈現出三維效果之影像處理方法及相關影像處理裝置
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
EP2765075B1 (en) 2011-10-03 2020-07-22 Furuno Electric Co., Ltd. Display device, display program, and display method
US9196091B2 (en) * 2012-01-24 2015-11-24 Kabushiki Kaisha Toshiba Image processing method and system
US9367959B2 (en) * 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US10082584B2 (en) 2012-06-21 2018-09-25 Microsoft Technology Licensing, Llc Hybrid device location determination system
US9606584B1 (en) * 2014-07-01 2017-03-28 D.R. Systems, Inc. Systems and user interfaces for dynamic interaction with two- and three-dimensional medical image data using hand gestures
US20200042156A1 (en) * 2018-08-01 2020-02-06 Sap Se Interactive multi-value rotational object

Also Published As

Publication number Publication date
US20220404936A1 (en) 2022-12-22
US10996829B2 (en) 2021-05-04
JP7216610B2 (ja) 2023-02-01
US11609687B2 (en) 2023-03-21
JP2020187545A (ja) 2020-11-19
US11494059B2 (en) 2022-11-08
US20200363922A1 (en) 2020-11-19
US20210216180A1 (en) 2021-07-15

Similar Documents

Publication Publication Date Title
JP7093284B2 (ja) 水中探知装置、および、水中探知方法
WO2013051047A1 (ja) 表示装置、表示プログラム、及び表示方法
US10456106B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method
US20150025718A1 (en) Device and method for displaying information
CN101209210B (zh) 超声波图像取得装置
JP5401330B2 (ja) 超音波探傷装置及び超音波探傷方法
JP7262298B2 (ja) 水中探知装置、および、水中探知方法
JP2011145069A (ja) 偽像低減装置、レーダ装置、偽像低減方法、および偽像低減プログラム
JP2010221011A (ja) 超音波撮影装置、画像処理装置、画像処理方法及びコンピュータプログラムプロダクト
JP2009058512A (ja) レーダ装置および類似装置、画像表示方法
CN107544071B (zh) 水中探测系统
JP2012247320A (ja) 映像表示装置及びレーダ装置
JP7048256B2 (ja) 船舶情報表示装置及び船舶情報表示方法
JP7216610B2 (ja) データ処理装置、データ処理方法、およびプログラム
US11073984B2 (en) Device and method for displaying information
JP7021025B2 (ja) エコー信号処理装置、エコー信号処理システム、及びエコー信号処理方法
US10884124B2 (en) Method and ultrasound imaging system for adjusting a value of an ultrasound parameter
US20200018851A1 (en) Underwater detection apparatus and underwater detection method
JP2010131384A (ja) Ohビュー提供方法およびそのための超音波システム
JP2020016635A (ja) 水中探知装置及び水中探知方法
JP6982138B2 (ja) 水中探知装置
JP4931429B2 (ja) 移動航跡表示装置
JP2018059857A (ja) 水中探知信号処理装置、水中探知装置、及び水中探知信号処理方法
CN114027877A (zh) 一种超声设备及超声图像的测量标尺生成方法
CN114280621A (zh) 一种凹型探头回波图像的成像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240423