JP7216610B2 - DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM - Google Patents

DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7216610B2
JP7216610B2 JP2019091605A JP2019091605A JP7216610B2 JP 7216610 B2 JP7216610 B2 JP 7216610B2 JP 2019091605 A JP2019091605 A JP 2019091605A JP 2019091605 A JP2019091605 A JP 2019091605A JP 7216610 B2 JP7216610 B2 JP 7216610B2
Authority
JP
Japan
Prior art keywords
view
views
gesture
target
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019091605A
Other languages
Japanese (ja)
Other versions
JP2020187545A (en
Inventor
早苗 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furuno Electric Co Ltd
Original Assignee
Furuno Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furuno Electric Co Ltd filed Critical Furuno Electric Co Ltd
Priority to JP2019091605A priority Critical patent/JP7216610B2/en
Priority to US16/846,013 priority patent/US10996829B2/en
Publication of JP2020187545A publication Critical patent/JP2020187545A/en
Priority to US17/219,426 priority patent/US11494059B2/en
Priority to US17/822,041 priority patent/US11609687B2/en
Priority to JP2022184557A priority patent/JP2023025072A/en
Application granted granted Critical
Publication of JP7216610B2 publication Critical patent/JP7216610B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/96Sonar systems specially adapted for specific applications for locating fish
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6218Cathode-ray tube displays providing two-dimensional coordinated display of distance and direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6272Cathode-ray tube displays producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6281Composite displays, e.g. split-screen, multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/937Radar or analogous systems specially adapted for specific applications for anti-collision purposes of marine craft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/10Providing two-dimensional and co-ordinated display of distance and direction
    • G01S7/12Plan-position indicators, i.e. P.P.I.
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/22Producing cursor lines and indicia by electronic means
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Description

本発明は、データ処理装置およびそれに関連する技術に関し、特に、検出装置によって検出されたデータセットに基づくレンダリング処理を実行する技術に関する。 TECHNICAL FIELD The present invention relates to a data processing device and related technology, and more particularly to technology for executing rendering processing based on a data set detected by a detection device.

ターゲット(魚群等)に関して検出装置(送受波装置等)によって検出されたデータセット(魚群データ等)を取得し、当該データセットに基づくレンダリング処理を実行し、レンダリング処理によって生成された画像を表示画面内に表示する技術が存在する。また、表示画面内に設けられた複数の矩形領域(分割領域)において、互いに異なるデータに基づく互いに異なる画像(具体的には、航法映像、レーダ映像、水中探知映像)をそれぞれ表示し、複数の矩形領域のそれぞれにおいて、タッチジェスチャによる移動(スクロール)あるいは拡縮(拡大/縮小)等の指示を受け付ける技術が存在する(たとえば、特許文献1参照)。当該技術においては、タッチジェスチャの操作位置がいずれの分割領域に属するかが判定され、その判定結果に基づいてタッチジェスチャの対象領域(対象画像)が特定される。そして、特定された分割領域(当該タッチジェスチャに対応する領域)内でのスクロール処理あるいは拡縮処理(変倍処理)等が行われる。 Acquire a data set (fish school data, etc.) detected by a detection device (transceiver device, etc.) for a target (fish school, etc.), execute rendering processing based on the data set, and display the image generated by the rendering processing on the screen. There is technology to display within. Further, different images (specifically, navigation images, radar images, and underwater detection images) based on different data are displayed in a plurality of rectangular areas (divided areas) provided in the display screen. There is a technique for receiving an instruction such as movement (scrolling) or scaling (enlargement/reduction) by a touch gesture in each rectangular area (see, for example, Patent Document 1). In this technique, it is determined to which divided area the operation position of the touch gesture belongs, and the target area (target image) of the touch gesture is specified based on the determination result. Then, a scrolling process, an enlarging/reducing process (variable magnification process), or the like is performed within the specified divided area (area corresponding to the touch gesture).

米国特許出願公開第2015/0035772号明細書U.S. Patent Application Publication No. 2015/0035772

上述のような従来技術においては、タッチジェスチャの操作位置が複数の分割領域(矩形領域)のうちの何れの領域に属しているかに応じて、タッチジェスチャの対象領域が決定されている。 In the related art as described above, the target area of the touch gesture is determined according to which of the plurality of divided areas (rectangular areas) the operation position of the touch gesture belongs to.

ところで、複数の領域の配置の自由度を向上させたいという要望が存在する。このような要望に応じて複数の領域が配置される場合には、たとえば、隣接する複数の矩形領域が部分的に重複して配置される可能性がある。 By the way, there is a demand for improving the degree of freedom in arranging a plurality of regions. When a plurality of areas are arranged according to such a request, for example, a plurality of adjacent rectangular areas may be arranged so as to partially overlap.

しかしながら、複数の矩形領域が部分的に重複して配置される場合等においては、タッチジェスチャの対象領域を適切に決定することは必ずしも容易ではない。 However, it is not necessarily easy to appropriately determine the target area of the touch gesture when a plurality of rectangular areas are partially overlapped.

そこで、本発明は、複数の領域の中からジェスチャの対象領域をより適切に決定することが可能な技術を提供することを課題とする。 Accordingly, it is an object of the present invention to provide a technology capable of more appropriately determining a gesture target area from among a plurality of areas.

(1)上記課題を解決するため、本発明の或る局面に係るデータ処理装置は、ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、を備え、前記複数のビューのそれぞれは、複数の画素を含み、前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。 (1) In order to solve the above problems, a data processing device according to one aspect of the present invention includes a data acquisition unit that acquires a data set detected by a detection device with respect to a target, and a rendering process based on the data set. and a rendering unit that generates a plurality of views arranged in a screen, each of the plurality of views including a plurality of pixels, each pixel included in the plurality of views being displayed on the screen. A plurality of pieces of information including first information to be displayed and second information indicating a view to which each pixel belongs among the plurality of views are associated with each other.

(2)前記データ処理装置は、前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、をさらに備えてもよい。 (2) The data processing device includes a user interface unit that receives an operation by a user on the plurality of views, and acquires the second information associated with the target pixel of the operation by the user, and performs the operation. A view identification unit that identifies an operation target view that is a target view based on the second information of the target pixel, a gesture detection unit that detects a gesture related to the operation as an instruction gesture, and the instruction gesture is a view correction instruction. In some cases, the method may further include a view modification unit that modifies the operation target view based on the pointing gesture.

(3)前記複数のビューは、透視ビューとサイドビューとトップビューとのうちの少なくとも2つを含む場合がある。 (3) The plurality of views may include at least two of a perspective view, a side view and a top view.

(4)前記複数のビューは、透視ビューを含み、前記ビュー修正部は、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記透視ビューにおいて前記画面内の前記垂直方向に対応づけられている第1の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成してもよい。 (4) The plurality of views include a perspective view, and the view modification unit determines that the operation target view is the perspective view, and that the amount of movement of the instruction gesture in the horizontal direction within the screen is within the screen. is greater than the amount of movement of the pointing gesture in the vertical direction of the first A view image obtained by rotating the viewpoint of the perspective view around an axis may be generated as a new perspective view.

(5)前記複数のビューは、透視ビューを含み、前記ビュー修正部は、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記データセットに関する3次元空間における第2の軸であって前記透視ビューにおいて前記画面内の前記水平方向に対応づけられている第2の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成してもよい。 (5) The plurality of views include a perspective view, and the view modification unit determines that the operation target view is the perspective view, and the amount of movement of the instruction gesture in the horizontal direction within the screen is within the screen. a second axis in the three-dimensional space for the dataset that corresponds to the horizontal direction in the screen in the perspective view, if less than the movement of the pointing gesture in the vertical direction of A view image obtained by rotating the viewpoint of the perspective view around an axis may be generated as a new perspective view.

(6)前記複数のビューは、サイドビューを含み、前記ビュー修正部は、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記サイドビューにおいて前記画面内の前記垂直方向に対応づけられている第1の軸周りに前記サイドビューの視点を回転させたビュー画像を新たなサイドビューとして生成してもよい。 (6) The plurality of views include a side view, and the view modification unit determines that the operation target view is the side view, and that the amount of movement of the instruction gesture in the horizontal direction within the screen is within the screen. is greater than the amount of movement of the pointing gesture in the vertical direction of the first A view image obtained by rotating the viewpoint of the side view around an axis may be generated as a new side view.

(7)前記複数のビューは、サイドビューを含み、前記ビュー修正部は、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記サイドビューの視点を回転しなくてもよい。 (7) The plurality of views include a side view, and the view modification unit determines that the operation target view is the side view, and the amount of movement of the instruction gesture in the horizontal direction within the screen is within the screen. is less than the amount of movement of the pointing gesture in the vertical direction, the side-view viewpoint may not be rotated.

(8)前記複数のビューは、トップビューを含み、前記ビュー修正部は、前記操作対象ビューが前記トップビューであり且つ、前記指示ジェスチャに基づき前記画面内の水平方向または垂直方向における移動指示が付与された場合、前記データセットに関する3次元空間における第1の軸であって前記トップビューにおいて前記画面に垂直な方向に対応づけられている第1の軸周りに前記トップビューの視点を回転させたビュー画像を新たなトップビューとして生成してもよい。 (8) The plurality of views include a top view, and the view modification unit determines that the view to be operated is the top view, and an instruction to move in the horizontal direction or the vertical direction within the screen is given based on the instruction gesture. If given, rotate the top-view point of view about a first axis in the three-dimensional space for the dataset that corresponds to a direction perpendicular to the screen in the top-view. A new view image may be generated as a new top view.

(9)前記ビュー修正部は、前記操作対象ビューに対する前記ビュー修正指示が付与された場合、前記複数のビューのうち前記操作対象ビュー以外の少なくとも1つのビューをも修正してもよい。 (9) The view modification unit may modify at least one view other than the operation target view among the plurality of views when the view modification instruction for the operation target view is given.

(10)前記複数のビューは、透視ビューとサイドビューとトップビューとのいずれかである第1のビューと、前記透視ビューと前記サイドビューと前記トップビューとのうち前記第1のビュー以外のビューである第2のビューとを含み、前記ビュー修正部は、前記操作対象ビューが前記第1のビューであり、且つ、前記第1のビューに対して前記ビュー修正指示が付与され前記データセットに関する3次元空間における第1の軸周りに前記第1のビューの視点が回転されて前記第1のビューが更新される場合、前記第1の軸周りに前記第2のビューの視点を回転させて前記第2のビューをも更新してもよい。 (10) The plurality of views include a first view that is one of a perspective view, a side view, and a top view, and one of the perspective view, the side view, and the top view other than the first view. and a second view that is a view, wherein the view modification unit is configured such that the operation target view is the first view, and the view modification instruction is given to the first view, and the data set If the first view viewpoint is rotated about a first axis in the three-dimensional space of to update the first view, then rotate the second view viewpoint about the first axis may also update the second view.

(11)前記データ処理装置は、送信波を送信する送信部と、前記ターゲットでの前記送信波の反射を含む受信波を受信し、前記受信波に基づき受信信号を生成する受信部と、前記受信信号に基づき前記データセットを生成するデータ生成部と、をさらに備え、前記受信波は、前記受信部から外側に広がる3次元空間から受信されてもよい。 (11) The data processing device includes a transmitting unit that transmits a transmitted wave, a receiving unit that receives a received wave including the reflection of the transmitted wave from the target, and generates a received signal based on the received wave, a data generator that generates the data set based on the received signal, wherein the received wave is received from a three-dimensional space extending outward from the receiver.

(12)上記課題を解決するため、本発明の或る局面に係るデータ処理方法は、ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、前記複数のビューのそれぞれは、複数の画素を含み、前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。 (12) In order to solve the above problems, a data processing method according to one aspect of the present invention obtains a data set detected by a detection device with respect to a target, executes rendering processing based on the data set, wherein each of said plurality of views comprises a plurality of pixels, each pixel included in said plurality of views comprising a first piece of information displayed on said screen. and second information indicating the view to which each pixel belongs among the plurality of views.

(13)上記課題を解決するため、本発明の或る局面に係るプログラムは、コンピュータに、a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、を実行させるためのプログラムであって、前記複数のビューのそれぞれは、複数の画素を含み、前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられている。 (13) In order to solve the above problems, a program according to an aspect of the present invention provides a computer with a) acquiring a dataset detected by a detection device with respect to a target; b) rendering based on the dataset; and performing processing to generate a plurality of views in a screen, each of the plurality of views comprising a plurality of pixels, each pixel included in the plurality of views is associated with a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views.

本発明によれば、複数のビューに含まれる各画素は、複数のビューのうち当該各画素の所属先のビューを示す第2の情報を含む複数の情報に対応づけられているので、当該第2の情報に基づいて当該各画素の所属先のビューに関する情報を容易に取得することが可能である。ひいては、複数のビューにそれぞれ対応する複数の領域の中からジェスチャの対象領域をより適切に決定することが可能である。 According to the present invention, each pixel included in a plurality of views is associated with a plurality of pieces of information including the second information indicating the view to which the pixel belongs among the plurality of views. 2, it is possible to easily obtain information about the view to which each pixel belongs. As a result, it is possible to more appropriately determine the gesture target area from among the plurality of areas respectively corresponding to the plurality of views.

水中探知装置(データ処理装置)の構成を示すブロック図である。1 is a block diagram showing the configuration of an underwater detection device (data processing device); FIG. 情報処理装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of an information processing apparatus. 送受波器によって送信波が送信される送信空間及び送受波器によって受信波が受信される複数の受信空間を模式的に示す図である。FIG. 2 is a diagram schematically showing a transmission space in which transmission waves are transmitted by a transducer and a plurality of reception spaces in which reception waves are received by the transducer; 表示部に表示される表示画面を示す図である。It is a figure which shows the display screen displayed on a display part. 水中探知装置の動作を示すフローチャートである。4 is a flow chart showing the operation of the underwater detection device; ドラッグ操作の移動ベクトルを示す図である。FIG. 10 is a diagram showing a movement vector of a drag operation; FIG. 透視ビューに対して右向きのドラッグ操作が行われる様子を示す図である。FIG. 10 is a diagram showing a state in which a rightward drag operation is performed on a perspective view; 変更後の透視ビューを示す図である。FIG. 11 is a diagram showing a perspective view after change; 透視ビューに対して下向きのドラッグ操作が行われる様子を示す図である。FIG. 10 is a diagram showing how a downward drag operation is performed on a perspective view; 変更後の透視ビューを示す図である。FIG. 11 is a diagram showing a perspective view after change; サイドビューに対して右向きのドラッグ操作が行われる様子を示す図である。FIG. 11 is a diagram showing a state in which a rightward drag operation is performed on a side view; 変更後のサイドビューを示す図である。It is a figure which shows the side view after a change. サイドビューに対して下向きのドラッグ操作が行われる様子を示す図である。FIG. 10 is a diagram showing a state in which a downward drag operation is performed on the side view; トップビューに対してドラッグ操作が行われる様子を示す図である。FIG. 10 is a diagram showing how a drag operation is performed on the top view; トップビューに対してドラッグ操作が行われる様子を示す図である。FIG. 10 is a diagram showing how a drag operation is performed on the top view; トップビューに対してドラッグ操作が行われる様子を示す図である。FIG. 10 is a diagram showing how a drag operation is performed on the top view; 変更後のトップビューを示す図である。It is a figure which shows the top view after a change. 複数のビューが連動して変更された状態を示す図である。FIG. 10 is a diagram showing a state in which a plurality of views are linked and changed; 等深度線がドラッグされる様子を示す図である。It is a figure which shows a mode that an isodepths line is dragged. 等深度線が移動された後の透視ビューを示す図である。FIG. 11 shows a perspective view after the depth contours have been moved; トップビューが移動された後の表示画面を示す図である。FIG. 10 is a diagram showing the display screen after the top view has been moved; 透視ビューが拡大された後の表示画面を示す図である。FIG. 10 is a diagram showing a display screen after the fluoroscopic view is enlarged; 各ビューが移動および拡大された後の表示画面を示す図である。FIG. 10 is a diagram showing a display screen after each view has been moved and enlarged; 表示画面内の或る画素が第1の情報および第2の情報に対応づけられている様子を示す概念図である。FIG. 2 is a conceptual diagram showing how a certain pixel within a display screen is associated with first information and second information;

以下、本発明の実施形態を図面に基づいて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings.

<1.第1実施形態>
<1-1.水中探知装置の全体構成>
図1は、本発明に係るデータ処理装置(ここでは水中探知装置1)の構成を示すブロック図である。本実施形態の水中探知装置1は、例えば、漁船などの船舶において使用される。
<1. First Embodiment>
<1-1. Overall Configuration of Underwater Detector>
FIG. 1 is a block diagram showing the configuration of a data processing device (here, an underwater detection device 1) according to the present invention. The underwater detection device 1 of this embodiment is used, for example, in a vessel such as a fishing boat.

水中探知装置1(環境探知装置とも称される)は、図1に示すように、スキャニングソナー10と情報処理装置20とを備えている。水中探知装置1は、一般的に知られているスキャニングソナー10に、例えば、情報処理装置20が外付けされた構成を備えている。尚、水中探知装置1は、情報処理装置20がスキャニングソナー10に対して外付けではなくスキャニングソナー10に搭載された構成を備えていてもよい。また、情報処理装置20には、ディスプレイ等の表示装置として構成される表示部31が外付けされている。また、水中探知装置1には、マウス等のポインティングデバイスとして構成される操作入力部33が外付けされている。表示部31および操作入力部33は、ユーザインターフェイス部として機能する。 An underwater detection device 1 (also called an environment detection device) includes a scanning sonar 10 and an information processing device 20, as shown in FIG. The underwater detection device 1 has a configuration in which, for example, an information processing device 20 is externally attached to a generally known scanning sonar 10 . The underwater detection device 1 may have a configuration in which the information processing device 20 is mounted on the scanning sonar 10 instead of being externally attached to the scanning sonar 10 . A display unit 31 configured as a display device such as a display is externally attached to the information processing device 20 . Further, the underwater detection device 1 is externally provided with an operation input section 33 configured as a pointing device such as a mouse. The display section 31 and the operation input section 33 function as a user interface section.

スキャニングソナー10は、送受波器2と、送受信機3とを備えている。 A scanning sonar 10 includes a transducer 2 and a transmitter/receiver 3 .

<1-2.送受波器の構成>
送受波器2は、超音波を送受信する機能を有し、船舶Sの船底に取り付けられている。例えば一例として、送受波器2は、略球形の形状に形成されている。
<1-2. Configuration of transducer>
The transducer 2 has a function of transmitting and receiving ultrasonic waves, and is attached to the bottom of the ship S. For example, as an example, the transducer 2 is formed in a substantially spherical shape.

詳細には、送受波器2は、略球形形状の筐体と、この筐体の外周面に取り付けられた複数の送受波素子としての超音波振動子(図示省略)とを有している。超音波振動子は、超音波を水中の送信空間に送信波として送信するとともに、水中のターゲットでの送信波の反射を含む反射波としての受信波を受信し、この受信波を電気信号に変換することで受信した受信波から受信信号を生成して送受信機3へ出力する。即ち、送受波器2は、水中に送信波を送信する送信部(送信トランスデューサとも称する)として構成されているとともに、水中のターゲットでの送信波の反射を含む受信波を受信し、受信した受信波から受信信号を生成する受信部(受信トランスデューサとも称する)として構成されている。送受波器2から送信された送信波が反射する水中のターゲットとしては、魚群等が挙げられる。 Specifically, the transducer 2 has a substantially spherical housing and ultrasonic transducers (not shown) as a plurality of transducer elements attached to the outer peripheral surface of the housing. The ultrasonic transducer transmits ultrasonic waves to an underwater transmission space as transmitted waves, receives received waves as reflected waves including the reflection of the transmitted waves from targets in the water, and converts the received waves into electrical signals. By doing so, a received signal is generated from the received wave and output to the transmitter/receiver 3 . That is, the wave transducer 2 is configured as a transmission section (also referred to as a transmission transducer) that transmits transmission waves underwater, receives reception waves including reflection of the transmission waves at targets in water, and receives received waves. It is configured as a receiving section (also called a receiving transducer) that generates a received signal from waves. A school of fish or the like is an underwater target on which the transmission wave transmitted from the transducer 2 is reflected.

なお、本実施形態においては、送受波器2として、筐体が球形の場合を例示したが、形状は特に限定されるものではなく、例えば、略円筒形状等のように他の形状であってもよい。送受波器2の筐体が略円筒形状である場合は、送受波器2は、その軸方向が鉛直方向に沿い、半径方向が水平方向に沿うように配置される。 In this embodiment, the transducer 2 has a spherical case, but the shape is not particularly limited, and other shapes such as a substantially cylindrical shape may be used. good too. When the housing of the transducer 2 has a substantially cylindrical shape, the transducer 2 is arranged so that its axial direction is along the vertical direction and its radial direction is along the horizontal direction.

図3は、送受波器2によって送信波が送信される送信空間TS及び送受波器2によって受信波が受信される複数の受信空間RSを模式的に示す図である。船舶Sに搭載された送受波器2から送信される送信波は、送受波器2から船舶Sを中心とする水中の全方位へ向けて一斉に送信され、例えば、半球状の送信ビームが形成される。半球状の送信ビームが形成された場合は、送信波が送信される送信空間TSは、半球状の空間として構成される。尚、送信ビームの形状は、半球状に限らず、送受波器2の形状、或いは、送受波器2の各送受波素子に入力する電気信号の振幅及び位相によって、種々の異なる形状に形成される。 FIG. 3 is a diagram schematically showing a transmission space TS in which transmission waves are transmitted by the transducer 2 and a plurality of reception spaces RS in which reception waves are received by the transducer 2. As shown in FIG. The transmission waves transmitted from the transducer 2 mounted on the ship S are simultaneously transmitted from the transducer 2 in all directions in the water around the ship S, forming, for example, a hemispherical transmission beam. be done. When a hemispherical transmission beam is formed, the transmission space TS through which the transmission wave is transmitted is configured as a hemispherical space. The shape of the transmission beam is not limited to a hemispherical shape, and can be formed in various different shapes depending on the shape of the transducer 2 or the amplitude and phase of the electrical signal input to each transducer element of the transducer 2. be.

また、送受波器2は、当該送受波器2から外側に広がる3次元空間からの受信波を受信する。詳細には、送受波器2は、送信ビーム送信後、送信空間TS内において、周方向に(図3にて矢印で示す方位角θの方向に)スキャンする複数の受信ビームを一斉に形成する。即ち、送受波器2による一度の受信タイミングで、全ての受信ビームが形成される。そして、水中の魚群等のターゲットで反射した受信波が、送信空間TSの周方向に沿って(即ち、方位角θの方向に沿って)並んで配置された複数の受信空間RSのそれぞれ(即ち、受信ビームが形成される各空間)において受信される。 Further, the transducer 2 receives received waves from a three-dimensional space extending outward from the transducer 2 . Specifically, after transmitting the transmission beam, the transducer 2 simultaneously forms a plurality of reception beams that scan in the circumferential direction (in the direction of the azimuth angle θ indicated by the arrow in FIG. 3) in the transmission space TS. . That is, all reception beams are formed at one reception timing by the transducer 2 . Then, received waves reflected by targets such as schools of fish in water are arranged in each of a plurality of receiving spaces RS (that is, , in each space in which the receive beams are formed).

<1-3.送受信機の構成>
送受信機3は、送受切替部3aと、送信回路部6と、受信回路部7とを備えている(図1参照)。
<1-3. Configuration of Transmitter/Receiver>
The transceiver 3 includes a transmission/reception switching section 3a, a transmission circuit section 6, and a reception circuit section 7 (see FIG. 1).

送受切替部3aは、送受波器2に対する信号の送信と受信とを切り替えるためのものである。具体的には、送受切替部3aは、送受波器2を駆動させるための駆動信号を送受波器2へ送信するときは、送信回路部6が出力する駆動信号を送受波器2へ出力する。一方、送受切替部3aは、受信信号を送受波器2から受信したときは、送受波器2から受信した受信信号を受信回路部7へ出力する。 The transmission/reception switching unit 3 a is for switching between transmission and reception of a signal to the transducer 2 . Specifically, when transmitting a drive signal for driving the transducer 2 to the transducer 2, the transmission/reception switching unit 3a outputs the drive signal output by the transmission circuit unit 6 to the transducer 2. . On the other hand, when receiving a reception signal from the transducer 2 , the transmission/reception switching unit 3 a outputs the reception signal received from the transducer 2 to the reception circuit unit 7 .

送信回路部6は、送受波器2から送信される送信波の基となる駆動信号を生成する。より具体的には、送信回路部6は、各超音波振動子に対応して設けられている送信回路(図示省略)を有し、各送信回路が駆動信号を生成する。 The transmission circuit section 6 generates a drive signal that is the basis of transmission waves transmitted from the transducer 2 . More specifically, the transmission circuit section 6 has a transmission circuit (not shown) provided corresponding to each ultrasonic transducer, and each transmission circuit generates a drive signal.

受信回路部7は、アナログ部7aと、A/D変換部7bと、を有している。アナログ部7a及びA/D変換部7bは、各超音波振動子に対応して設けられている受信回路であって、受信した受信波から生成された受信信号を処理する受信回路(図示省略)を備えて構成されている。そして、アナログ部7aは、送受波器2が受信波から生成して出力する電気信号としての受信信号を増幅するとともに、その帯域を制限することで不要な周波数成分を除去する。A/D変換部7bは、アナログ部7aで増幅された受信信号を、デジタル信号としての受信信号に変換する。そして、受信回路部7は、A/D変換部7bにてデジタル信号に変換した受信信号を情報処理装置20へ出力する。 The receiving circuit section 7 has an analog section 7a and an A/D conversion section 7b. The analog unit 7a and the A/D conversion unit 7b are reception circuits provided corresponding to each ultrasonic transducer, and are reception circuits (not shown) that process reception signals generated from received reception waves. is configured with The analog section 7a amplifies the received signal as an electrical signal generated from the received wave by the transducer 2 and outputs the received signal, and limits the band of the received signal to remove unnecessary frequency components. The A/D conversion section 7b converts the received signal amplified by the analog section 7a into a received signal as a digital signal. Then, the receiving circuit section 7 outputs the received signal converted into a digital signal by the A/D converting section 7 b to the information processing device 20 .

<1-4.表示部の構成>
表示部31は、ディスプレイ等の表示装置として構成されている。表示部31は、情報処理装置20から出力された映像信号に応じた映像(画像)を表示画面に表示する。表示部31は、例えば、船舶Sの下方における海中の状態を3次元的に表示する。表示部31における表示画面には、後に詳述するように、複数のビュー(ビュー画像)51,52,53が表示される(図4等参照)。なお、水中探知装置1のユーザは、当該表示画面を見て、船舶Sの下方における海中の状態(例えば、魚群、海底の起伏、人工漁礁のような構造物の有無および位置)を推測することができる。
<1-4. Configuration of Display Unit>
The display unit 31 is configured as a display device such as a display. The display unit 31 displays a video (image) corresponding to the video signal output from the information processing device 20 on the display screen. The display unit 31 displays, for example, the underwater state below the ship S three-dimensionally. A plurality of views (view images) 51, 52, and 53 are displayed on the display screen of the display unit 31 (see FIG. 4, etc.), as will be described in detail later. Note that the user of the underwater detection device 1 can see the display screen and guess the state of the sea below the ship S (for example, the presence or absence and position of structures such as schools of fish, undulations of the seabed, and artificial reefs). can be done.

<1-5.情報処理装置の構成>
図2は、情報処理装置20の機能構成を示すブロック図である。図1及び図2に示されるように、情報処理装置20は、受信回路部7から出力される受信信号を処理し、ターゲットのエコー信号を生成するとともに、ターゲットのエコーを表示部31に表示させるためのエコー映像信号を生成する処理等を行う。なお、情報処理装置20は、レンダリング機能を有していることから、レンダリング装置あるいは表示制御装置などとも称される。
<1-5. Configuration of Information Processing Device>
FIG. 2 is a block diagram showing the functional configuration of the information processing device 20. As shown in FIG. As shown in FIGS. 1 and 2, the information processing device 20 processes the received signal output from the receiving circuit section 7, generates a target echo signal, and causes the display section 31 to display the target echo signal. processing to generate an echo video signal for the purpose. Since the information processing device 20 has a rendering function, it is also called a rendering device or a display control device.

情報処理装置20は、データ生成部21、データ取得部22、レンダリング部23、ビュー特定部24、ジェスチャ検出部25、およびビュー修正部26等を備える。 The information processing device 20 includes a data generation unit 21, a data acquisition unit 22, a rendering unit 23, a view identification unit 24, a gesture detection unit 25, a view correction unit 26, and the like.

情報処理装置20は、スキャニングソナー10の送受信機3とケーブル等により接続された機器であって、例えばPC(パーソナルコンピュータ)として構成される。情報処理装置20は、ハードウェアプロセッサ(例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array)等)、ならびに各種メモリ(揮発性メモリおよび不揮発性メモリ)等のデバイスを備える。 The information processing device 20 is a device connected to the transmitter/receiver 3 of the scanning sonar 10 by a cable or the like, and configured as, for example, a PC (personal computer). The information processing device 20 includes a hardware processor (eg, CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (field-programmable gate array), etc.), various memories (volatile memory and non-volatile memory), etc. device.

ハードウェアプロセッサにおいて、不揮発性メモリ内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理部が実現される。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて情報処理装置20にインストールされるようにしてもよい。あるいは、当該プログラムは、ネットワークを経由してダウンロードされて情報処理装置20にインストールされるようにしてもよい。 Various processing units are realized by executing a predetermined software program (hereinafter simply referred to as a program) stored in a non-volatile memory in the hardware processor. The program (specifically, the program module group) may be recorded in a portable recording medium such as a USB memory, read out from the recording medium, and installed in the information processing apparatus 20 . Alternatively, the program may be downloaded via a network and installed in the information processing device 20 .

ハードウエアプロセッサにおいて当該プログラムが実行されることによって、データ生成部21、データ取得部22、レンダリング部23、ビュー特定部24、ジェスチャ検出部25、およびビュー修正部26等を含む各種の処理部が実現される。 Various processing units including the data generation unit 21, the data acquisition unit 22, the rendering unit 23, the view identification unit 24, the gesture detection unit 25, and the view correction unit 26 are executed by executing the program in the hardware processor. Realized.

データ生成部21は、送受信機3において生成された受信信号に基づきデータセット(エコーデータ等)を生成する処理部である。データ生成部21は、送受信機3から受信した受信信号に基づいて複数の受信空間RSのそれぞれについてビームフォーミング処理を行うことで、当該データセットを生成する。尚、当該データセットは、ターゲット(魚群等)に関して検出装置によって検出された一群のデータである。たとえば、当該データセットは、水中環境内の各3次元位置(X,Y,Z)におけるエコー強度(魚群等からの反射波の強度)等に関するデータを備えて構成される。当該データセットは、揮発性メモリ(あるいは不揮発性メモリ)等に一旦格納される。 The data generator 21 is a processor that generates a data set (echo data, etc.) based on the received signal generated by the transmitter/receiver 3 . The data generation unit 21 generates the data set by performing beamforming processing on each of the plurality of reception spatial RSs based on the received signal received from the transceiver 3 . The data set is a group of data detected by the detection device with respect to a target (school of fish, etc.). For example, the data set includes data on echo intensity (intensity of reflected waves from a school of fish, etc.) at each three-dimensional position (X, Y, Z) in the underwater environment. The data set is temporarily stored in a volatile memory (or non-volatile memory) or the like.

データ取得部22は、ターゲット(魚群等)に関して検出装置(スキャニングソナー10等)によって検出されたデータセット(魚群データ等)を取得する処理部である。データ取得部22は、たとえば、ターゲット(魚群等)に関して送受波器2および送受信機3によって検出されてメモリに格納されているエコーデータを、当該メモリから抽出して取得する。 The data acquisition unit 22 is a processing unit that acquires a data set (fish school data, etc.) detected by a detection device (scanning sonar 10, etc.) with respect to a target (fish school, etc.). The data acquisition unit 22 acquires, for example, echo data detected by the transducer 2 and the transmitter/receiver 3 with respect to a target (such as a school of fish) and stored in the memory by extracting from the memory.

レンダリング部23は、データセットに基づくレンダリング処理を実行する処理部である。レンダリング部23は、表示部31の表示画面内に配置される複数のビュー(ビュー画像とも称する)(後述)を生成する。 The rendering unit 23 is a processing unit that executes rendering processing based on data sets. The rendering unit 23 generates a plurality of views (also referred to as view images) (described later) arranged within the display screen of the display unit 31 .

ビュー特定部24は、ユーザによる操作の対象画素に対応づけられている第2の情報F2(後述)を取得し、操作対象ビュー(当該操作の対象ビュー)を第2の情報F2に基づいて特定する処理部である。換言すれば、ビュー特定部24は、複数のビュー画像にそれぞれ対応する複数の領域の中からジェスチャの対象領域を特定する処理部である。第2の情報F2を用いることによれば、操作対象ビューを容易に特定することが可能である。 The view identification unit 24 acquires second information F2 (described later) associated with the target pixel of the user's operation, and identifies the operation target view (the target view of the operation) based on the second information F2. It is a processing unit that In other words, the view identifying unit 24 is a processing unit that identifies a gesture target area from among a plurality of areas respectively corresponding to a plurality of view images. By using the second information F2, it is possible to easily identify the view to be operated.

ジェスチャ検出部25は、ユーザ操作に伴うジェスチャを指示ジェスチャ(操作指示情報)として検出する処理部である。ユーザは、複数のビューのうちの任意の1つのビューに対する操作をユーザインターフェイス部を介して行うことができる。ユーザによる「ジェスチャ」は、ユーザインターフェイス部(たとえば、マウスなどのポインティングデバイス)によって受け付けられる。 The gesture detection unit 25 is a processing unit that detects a gesture accompanying a user operation as an instruction gesture (operation instruction information). A user can operate any one of the plurality of views through the user interface unit. A "gesture" by the user is accepted by a user interface unit (eg, a pointing device such as a mouse).

「ジェスチャ」は、たとえば、ユーザのマウス操作を介して受け付けられる。換言すれば、マウスに対する各種操作(クリック操作、ドラッグ操作、マウスホイールの回転操作等)が「ジェスチャ」として受け付けられる。なお、これに限定されず、「ジェスチャ」は、タッチパネル(タッチスクリーン)などの他のユーザインターフェイス部によって受け付けられてもよい。たとえば、画面に対する直接的なタッチ操作(ドラッグ操作、ピンチイン操作、ピンチアウト操作等)が「ジェスチャ」として受け付けられてもよい。この第1実施形態では、マウスを用いてジェスチャが受け付けられる態様について主に説明する。第2実施形態では、タッチパネルを用いてジェスチャが受け付けられる態様について主に説明する。 A "gesture" is accepted, for example, through a user's mouse operation. In other words, various mouse operations (clicking, dragging, rotating the mouse wheel, etc.) are accepted as "gestures." Note that the "gesture" is not limited to this, and may be received by another user interface unit such as a touch panel (touch screen). For example, a direct touch operation (drag operation, pinch-in operation, pinch-out operation, etc.) on the screen may be accepted as a "gesture". In this first embodiment, a manner in which gestures are accepted using a mouse will be mainly described. In the second embodiment, a manner in which a gesture is accepted using a touch panel will be mainly described.

ビュー修正部26は、レンダリング部23と協働して、ビューを修正する処理部である。ビュー修正部26は、指示ジェスチャがビュー修正指示である場合、ビュー修正指示に基づき操作対象ビュー(操作対象のビュー画像)を修正する。 The view correction unit 26 is a processing unit that cooperates with the rendering unit 23 to correct the view. When the instruction gesture is a view correction instruction, the view correction unit 26 corrects the operation target view (operation target view image) based on the view correction instruction.

<1-6.動作>
<初期動作>
図5は、水中探知装置1(主に情報処理装置20)の動作を示すフローチャートである。以下、図5等を参照しつつ、水中探知装置1の動作について説明する。
<1-6. Operation>
<Initial operation>
FIG. 5 is a flow chart showing the operation of the underwater detection device 1 (mainly the information processing device 20). The operation of the underwater detection device 1 will be described below with reference to FIG. 5 and the like.

まず、ステップS11において、水中探知装置1の情報処理装置20(詳細にはデータ取得部22)は、水中のターゲット(魚群等)に関して水中環境から検出されたデータセットを取得する。詳細には、スキャニングソナー10等によって検出されたエコーデータ(船舶Sの下方側に広がる半球状の環境空間から得られたエコーに関するデータ群)が、当該データセットとして取得される。 First, in step S11, the information processing device 20 (specifically, the data acquisition unit 22) of the underwater detection device 1 acquires a data set detected from the underwater environment regarding an underwater target (such as a school of fish). Specifically, echo data detected by the scanning sonar 10 or the like (a group of echo data obtained from a hemispherical environmental space extending below the ship S) is acquired as the data set.

そして、ステップS12において、情報処理装置20(詳細にはレンダリング部23)は、当該データセットに基づくレンダリング処理を実行し、表示部31の表示画面200内に配置される複数のビュー50を生成する。そして、情報処理装置20は、当該複数のビューのそれぞれを表示画面200内の各初期位置に配置する。 Then, in step S<b>12 , the information processing device 20 (more specifically, the rendering unit 23 ) executes rendering processing based on the data set, and generates a plurality of views 50 arranged within the display screen 200 of the display unit 31 . . Then, the information processing apparatus 20 arranges each of the plurality of views at each initial position within the display screen 200 .

<複数のビュー>
図4は、表示部31に表示される表示画面200を示す図である。表示画面200には、同じデータセットに基づく複数のビュー(ビュー画像とも称する)が表示される。
<Multiple views>
FIG. 4 is a diagram showing a display screen 200 displayed on the display unit 31. As shown in FIG. Display screen 200 displays multiple views (also referred to as view images) based on the same data set.

図4に示されるように、複数のビュー50は、ここでは、透視ビュー51とサイドビュー52とトップビュー53との3つのビューを含む。ただし、これに限定されず、たとえば、透視ビュー51とサイドビュー52とトップビュー53とのうちのいずれか2つのみが複数のビュー50として描画されてもよい。あるいは、透視ビュー51とサイドビュー52とトップビュー53とのうちの少なくとも2つ(又は少なくとも1つ)と他の種類のビューとが複数のビュー50に含まれてもよい。なお、「透視ビュー」は、遠近ビュー、3Dビュー、透視画像、あるいは遠近視画像などとも称され、サイドビューは、側面ビューあるいは側面視画像などとも称され、トップビューは、平面ビュー、上面ビュー、平面視画像あるいは上面視画像などとも称される。 As shown in FIG. 4, the multiple views 50 here include three views, a perspective view 51 , a side view 52 and a top view 53 . However, it is not limited to this, and for example, only any two of the perspective view 51 , the side view 52 and the top view 53 may be rendered as the multiple views 50 . Alternatively, at least two (or at least one) of perspective view 51 , side view 52 and top view 53 and other types of views may be included in multiple views 50 . Note that the "perspective view" is also called a perspective view, a 3D view, a perspective image, a perspective image, or the like, a side view is also called a side view, a side view image, or the like, and a top view is a plan view or a top view. , a plan view image, a top view image, or the like.

各ビューは、ここでは、半球形状(お椀形状あるいは下半球形状とも称される)のデータセット表示空間を表示対象としている。 Each view has a hemispherical (also referred to as bowl-shaped or lower hemispherical) data set display space as a display object.

透視ビュー(3Dビュー)51は、データセット表示空間(データセットを表示する3次元空間)を透視図法で立体的に(3次元的に)描画したビュー画像である。透視ビュー51は、ここでは、表示画面200内において、謂わば、お椀を斜め上方(手前側上方)から見た外形形状を有している。詳細には、透視ビュー51は、2つの楕円(長軸方向(左右方向)に同じ軸長を有し且つ短軸方向(上下方向)に異なる軸長を有する2つの楕円)のうちの一方の上半分と他方の下半分とが上下に組み合わせられた形状、を有している。立体的に描画された透視ビュー(3Dビュー)51を視認することによれば、ユーザは全体像を容易に把握することが可能である。 A perspective view (3D view) 51 is a view image obtained by stereoscopically (three-dimensionally) rendering a data set display space (three-dimensional space for displaying a data set) using a perspective drawing method. The see-through view 51 here has, so to speak, the outer shape of the bowl as viewed obliquely from above (upper front side) in the display screen 200 . Specifically, the perspective view 51 is one of two ellipses (two ellipses having the same axial length in the major axis direction (horizontal direction) and different axial lengths in the minor axis direction (vertical direction)). It has a shape in which an upper half and the other lower half are combined vertically. By visually recognizing the stereoscopically drawn perspective view (3D view) 51, the user can easily grasp the overall image.

また、サイドビュー52は、当該データセット表示空間を真横から見たビュー画像である。サイドビュー52は、表示画面200内において、ここでは半円形状(下半円形状)を有している。 A side view 52 is a view image of the data set display space viewed from the side. The side view 52 has a semicircular shape (lower semicircular shape) in the display screen 200 here.

また、トップビュー53は、当該データセット表示空間を真上から見たビュー画像である。トップビュー53は、表示画面200内において、ここでは円形状を有している。 A top view 53 is a view image of the data set display space viewed from directly above. The top view 53 has a circular shape in the display screen 200 here.

<データ構造>
複数のビュー51,52,53のそれぞれは、複数の画素を含む。また、図24の概念図に示されるように、複数のビューに含まれる各画素68は、表示画面200上に表示される第1の情報F1と複数のビューのうち当該各画素の所属先のビューを示す第2の情報F2とを含む複数の情報にそれぞれ対応づけられている。なお、図24は、表示画面200内(詳細には、透視ビュー51内)の或る画素68が複数の情報(第1の情報F1と第2の情報F2とを含む)に対応づけられている様子を概念的に示す図である。表示画面200内の他の各画素(透視ビュー51内の他の画素、ならびにサイドビュー52およびトップビュー53内の各画素等)に対しても、同様に、第1の情報F1および第2の情報F2等がそれぞれ対応づけられている。
<Data structure>
Each of the multiple views 51, 52, 53 includes multiple pixels. Further, as shown in the conceptual diagram of FIG. 24, each pixel 68 included in a plurality of views is associated with the first information F1 displayed on the display screen 200 and the destination of each pixel among the plurality of views. Each is associated with a plurality of pieces of information including second information F2 indicating a view. 24, a certain pixel 68 within the display screen 200 (more specifically, within the perspective view 51) is associated with a plurality of pieces of information (including the first information F1 and the second information F2). FIG. 2 is a diagram conceptually showing a state in which Similarly, for each other pixel in the display screen 200 (other pixels in perspective view 51, each pixel in side view 52 and top view 53, etc.), first information F1 and second information Information F2 and the like are associated with each other.

上述のように、データセットは、水中環境内の複数の3次元位置(X,Y,Z)における各エコー強度(魚群等からの反射波の強度)に関するデータを備えて構成される。換言すれば、当該データセットには、各ターゲットの3次元位置(X,Y,Z)と当該3次元位置の各ターゲットからの受信信号の信号強度とが含まれる。 As described above, the data set comprises data for each echo intensity (intensity of reflected waves from a school of fish, etc.) at multiple three-dimensional locations (X, Y, Z) within the underwater environment. In other words, the data set includes the three-dimensional position (X, Y, Z) of each target and the signal strength of the received signal from each target at that three-dimensional position.

各ビュー51,52,53内においては、各3次元位置におけるエコー強度等の情報が色で区別して表示される。具体的には、3次元位置(X,Y,Z)を2次元に変換した各画素(ピクセル)に対して、赤色、黄色、青色などの色情報(エコー強度を複数の段階に区分するとともに当該複数の段階を色で区別した情報)が付与される。たとえば、各ビューの各画素に対応する所定の視線上にて所定程度以上のエコー強度を有する3次元位置であって各ビューの所定の視点から見て最も手前側の3次元位置のエコー情報(エコー強度に応じた色情報等)が、表示画面200(2次元平面)内の各画素の第1の情報F1として付与される。あるいは、各ビューの各画素に対応する所定の視線上にて最も高いレベルのエコー強度を有する3次元位置であって各ビューの所定の視点から見て最も手前側の3次元位置のエコー情報等が、表示画面(2次元平面)内の各画素の第1の情報F1として付与されてもよい。 In each of the views 51, 52, 53, information such as echo intensity at each three-dimensional position is distinguished by color and displayed. Specifically, color information such as red, yellow, and blue (echo intensity is divided into a plurality of stages and information in which the plurality of stages are distinguished by color) is given. For example, echo information ( color information according to the echo intensity) is given as the first information F1 for each pixel in the display screen 200 (two-dimensional plane). Alternatively, the echo information of the three-dimensional position having the highest level of echo intensity on a predetermined line of sight corresponding to each pixel of each view and the frontmost three-dimensional position when viewed from a predetermined viewpoint of each view. may be given as the first information F1 of each pixel in the display screen (two-dimensional plane).

図4の表示画面200の各ビュー51,52,53においては、各魚群71,72のエコーデータを示す画素群のうち、赤色の画素群(最も大きな信号強度レベルを有していることを示す画素群)に対して斜めハッチングが付されて示されている。また、黄色の画素群(赤色の画素群の次に大きな信号強度レベルを有していることを示す画素群)に対して砂地ハッチングが付されて示されている。 In each view 51, 52, 53 of the display screen 200 of FIG. 4, among the pixel groups showing the echo data of each fish school 71, 72, the red pixel group (indicating having the highest signal intensity level) pixel group) are shown with diagonal hatching. In addition, the yellow pixel group (the pixel group having the next highest signal intensity level after the red pixel group) is indicated by sand hatching.

このように各ビュー内の各画素に対して第1の情報F1が対応づけられる。なお、第1の情報F1は、エコー強度に基づく色情報であってもよく、エコー強度の段階値あるいはエコー強度値(検出値)自体等であってもよい。 Thus, the first information F1 is associated with each pixel in each view. Note that the first information F1 may be color information based on the echo intensity, or may be an echo intensity step value, an echo intensity value (detected value) itself, or the like.

また、各ビュー内の各画素には、第2の情報F2も対応づけられている。各画素の第2の情報F2は、複数のビュー50(51,52,53)のうち当該各画素の所属先のビューを示す情報である。各画素の第2の情報F2は、当該各画素がそれぞれ複数のビュー51,52,53のいずれに属するかを示す情報であり、ビュー識別情報とも称される。 Second information F2 is also associated with each pixel in each view. The second information F2 of each pixel is information indicating the view to which each pixel belongs among the plurality of views 50 (51, 52, 53). The second information F2 of each pixel is information indicating to which of the plurality of views 51, 52, 53 each pixel belongs, and is also called view identification information.

たとえば、透視ビュー51内の各画素には、当該各画素が透視ビュー51に属する旨が第2の情報F2として対応付けられている。同様に、サイドビュー52内の各画素には、当該各画素がサイドビュー52に属する旨が第2の情報F2として対応付けられている。同様に、トップビュー53内の各画素には、当該各画素がトップビュー53に属する旨が第2の情報F2として対応付けられている。 For example, each pixel in the perspective view 51 is associated with the fact that each pixel belongs to the perspective view 51 as the second information F2. Similarly, each pixel in the side view 52 is associated with second information F2 indicating that each pixel belongs to the side view 52 . Similarly, each pixel in the top view 53 is associated with second information F2 indicating that each pixel belongs to the top view 53 .

なお、ここでは、表示画面200内の画素のうち、複数のビュー51,52,53のいずれにも属さない画素には、第2の情報F2自体が対応付けられていない。ただし、これに限定されず、表示画面200の画素のうち、何れのビュー51,52,53にも属さない画素には、その旨(何れのビュー51,52,53にも属さない旨)を示す情報(「0」等)が第2の情報F2として対応付けられてもよい。 Note that here, among the pixels in the display screen 200, pixels that do not belong to any of the plurality of views 51, 52, and 53 are not associated with the second information F2 itself. However, the present invention is not limited to this, and among the pixels of the display screen 200, pixels that do not belong to any of the views 51, 52, and 53 are indicated to that effect (that they do not belong to any of the views 51, 52, and 53). The indicating information (“0” or the like) may be associated as the second information F2.

また、隣接する2つのビューが互いに(見かけ上)重複する場合、重複領域内の各画素は上側(上層側)のビューに所属している旨が、第2の情報F2として記録される。たとえば、図23(後述)に示されるように、サイドビュー52とトップビュー53との重複部分(トップビュー53の左端側付近にてサイドビュー52の右上端付近を覆っている領域)の各画素は上側のトップビュー53に所属している旨が、当該各画素の第2の情報F2として記録される。 Also, when two adjacent views overlap each other (apparently), the fact that each pixel in the overlapping area belongs to the upper (upper layer) view is recorded as the second information F2. For example, as shown in FIG. 23 (described later), each pixel in the overlapping portion between the side view 52 and the top view 53 (the area near the left end of the top view 53 and covering the vicinity of the upper right end of the side view 52) belongs to the upper top view 53 is recorded as the second information F2 of each pixel.

<ユーザ操作に応じた各ビューの変更の概要>
次のステップS13では、情報処理装置20(詳細にはジェスチャ検出部25)は、ユーザ操作に伴うジェスチャが検出されたか否かを判定する。ここでは、ジェスチャとして、マウスによるジェスチャ(マウスによるドラッグ操作等)が検出されるものとする。
<Overview of changes in each view according to user operations>
In the next step S13, the information processing device 20 (more specifically, the gesture detection unit 25) determines whether or not a gesture associated with user operation has been detected. Here, it is assumed that a gesture using a mouse (drag operation using a mouse, etc.) is detected as the gesture.

ステップS13でジェスチャが検出されない場合には、ステップS17に進み、終了の是非を判定する。ステップS17では、次のデータセット(次のエコーデータ等)の取得タイミングの到来など、図5の処理を一旦終了すべき条件が成立したか否か判定される。当該条件が未だ成立していないと判定される場合には、再びステップS13に戻る。これに対して、当該条件が成立したと判定される場合には、図5の処理を一旦終了する。なお、その後、次のデータセットの取得タイミングの到来に応じて図5の処理が再開される。 If the gesture is not detected in step S13, the process proceeds to step S17 to determine whether or not to terminate. In step S17, it is determined whether or not a condition for temporarily ending the processing of FIG. 5, such as the arrival of the acquisition timing of the next data set (next echo data, etc.), has been met. If it is determined that the condition is not satisfied yet, the process returns to step S13. On the other hand, if it is determined that the condition is met, the process of FIG. 5 is once terminated. After that, the processing in FIG. 5 is resumed when the next data set acquisition timing arrives.

一方、ステップS13においてジェスチャが検出されると、ステップS14に進む。 On the other hand, if a gesture is detected in step S13, the process proceeds to step S14.

ステップS14では、ビュー修正指示が受け付けられたことに応答して、まず、当該ジェスチャにおける操作対象ビューが特定される。より詳細には、情報処理装置20(ビュー特定部24)は、ドラッグ操作の操作開始位置の画素に対応付けられている第2の情報F2を取得する。そして、取得された当該第2の情報F2に基づき、操作対象ビューが特定される。さらに、ステップS15において、操作対象ビューに対する指示ジェスチャの指示内容(修正指示内容)が特定されるとともに、当該指示内容に基づく視点変更処理(視点回転処理)がビュー修正部26によって実行される。より詳細には、ユーザによるジェスチャ(指示ジェスチャ)がビュー修正指示であることが(ジェスチャ検出部25およびビュー修正部26によって)判定される場合に、ビュー修正指示に応じた変更後の視点が決定される。さらに、ステップS16においては、変更後の視点に基づくレンダリング処理(データセットに関するオブジェクトのレンダリング処理)がレンダリング部23およびビュー修正部26によって実行され、操作対象ビューが修正される。 In step S14, in response to the reception of the view correction instruction, first, the operation target view for the gesture is specified. More specifically, the information processing device 20 (view specifying unit 24) acquires the second information F2 associated with the pixel at the operation start position of the drag operation. Then, the operation target view is specified based on the acquired second information F2. Further, in step S<b>15 , the instruction content (correction instruction content) of the instruction gesture for the operation target view is specified, and the view correction unit 26 executes viewpoint change processing (viewpoint rotation processing) based on the instruction content. More specifically, when it is determined (by the gesture detection unit 25 and the view correction unit 26) that the user's gesture (instruction gesture) is a view correction instruction, the viewpoint after change according to the view correction instruction is determined. be done. Further, in step S16, rendering processing based on the changed viewpoint (rendering processing of objects related to the data set) is performed by the rendering unit 23 and the view correction unit 26, and the operation target view is corrected.

<透視ビュー51の視点変更>
透視ビュー51上にマウスカーソル65が存在する状態からユーザが表示画面200上でマウスのドラッグ操作(指示ジェスチャ)を行う場合(図7および図9参照)には、次のような処理が実行される。
<Change of Viewpoint of Perspective View 51>
When the user performs a mouse drag operation (instruction gesture) on the display screen 200 while the mouse cursor 65 is present on the perspective view 51 (see FIGS. 7 and 9), the following processing is executed. be.

この場合、まず、当該ドラッグ操作の操作開始位置の画素に対応付けられている第2の情報F2が取得され、当該第2の情報F2に基づき、当該画素が透視ビュー51に対応づけられていることが判定される。この判定結果に基づき、ビュー特定部24は、操作対象ビューが透視ビュー51である旨を更に判定する(ステップS14)。 In this case, first, the second information F2 associated with the pixel at the operation start position of the drag operation is obtained, and the pixel is associated with the perspective view 51 based on the second information F2. is determined. Based on this determination result, the view specifying unit 24 further determines that the view to be operated is the perspective view 51 (step S14).

つぎに、ドラッグ操作(指示ジェスチャ)の方向成分値ΔU,ΔV(図6参照)が比較されることによって、画面200内における水平方向(U方向)と垂直方向(V方向)とのいずれの方向の移動指示が付与されたかが特定される(ステップS15)。なお、図6においては、ドラッグ操作の移動ベクトルが白矢印で示されているとともに、当該移動ベクトル(白矢印)の水平方向成分ΔU(マウスの水平方向における移動量)と垂直方向成分ΔV(マウスの垂直方向における移動量)とが示されている。 Next, by comparing the direction component values ΔU and ΔV (see FIG. 6) of the drag operation (instruction gesture), it is determined whether the horizontal direction (U direction) or vertical direction (V direction) in the screen 200 is determined. is given (step S15). In FIG. 6, the movement vector of the drag operation is indicated by a white arrow, and the horizontal component ΔU (the amount of movement of the mouse in the horizontal direction) and the vertical component ΔV (the amount of movement of the mouse) of the movement vector (white arrow) ) are shown.

そして、画面200内の水平方向における指示移動量ΔUと画面200内の垂直方向における指示移動量ΔVとの比較結果に応じて、指示ジェスチャの指示内容が特定される(ステップS15)。これによれば、ドラッグ操作が画面内において斜め方向においてなされた場合をも含めて、ドラッグ操作の主方向、ひいては指示ジェスチャの指示内容が特定される。 Then, the instruction content of the instruction gesture is identified according to the comparison result between the instruction movement amount ΔU in the horizontal direction within the screen 200 and the instruction movement amount ΔV in the vertical direction within the screen 200 (step S15). According to this, the main direction of the drag operation, including the case where the drag operation is performed in an oblique direction within the screen, and thus the instruction content of the instruction gesture are specified.

具体的には、指示移動量ΔUが指示移動量ΔVよりも大きい場合、「鉛直軸AX1周りの回転指示」が操作対象ビュー51に対する指示ジェスチャの指示内容として特定される。換言すれば、視点に関する方位角の変更指示が指示内容として特定される。なお、鉛直軸AX1は、3次元空間(実空間)において、船舶(自船)Sから海底へと鉛直方向に伸延する軸である。 Specifically, when the instruction movement amount ΔU is larger than the instruction movement amount ΔV, the “rotation instruction about the vertical axis AX1” is specified as the instruction content of the instruction gesture for the operation target view 51 . In other words, an instruction to change the azimuth angle with respect to the viewpoint is specified as the instruction content. The vertical axis AX1 is an axis extending vertically from the ship (own ship) S to the seabed in a three-dimensional space (real space).

一方、指示移動量ΔUが指示移動量ΔVよりも小さい場合、「水平軸AX2周りの回転指示」が操作対象ビュー51に対する指示ジェスチャの指示内容として特定される。換言すれば、視点に関する仰角の変更指示が指示内容として特定される。 On the other hand, when the instruction movement amount ΔU is smaller than the instruction movement amount ΔV, the “rotation instruction about the horizontal axis AX2” is specified as the instruction content of the instruction gesture for the operation target view 51 . In other words, an instruction to change the elevation angle with respect to the viewpoint is specified as the instruction content.

このようにして、視点の回転方向が決定される。具体的には、指示移動量ΔUと指示移動量ΔVとの大小関係に応じて、視点の回転方向が変更される。 Thus, the rotation direction of the viewpoint is determined. Specifically, the rotation direction of the viewpoint is changed according to the magnitude relationship between the instruction movement amount ΔU and the instruction movement amount ΔV.

さらに、ステップS15では、ドラッグ操作の移動量に応じて、視点の回転量(移動量)が決定される。 Further, in step S15, the rotation amount (movement amount) of the viewpoint is determined according to the movement amount of the drag operation.

このようにして、指示ジェスチャの指示内容(視点の回転方向(移動方向)および回転量)が決定されると、次のステップS16において、指示内容に応じた変更後の視点に基づくレンダリング処理が実行され、ビューが修正される。具体的には、変更後の視点からの新たなビュー画像が生成され、当該新たな透視ビューに基づき透視ビューが更新される。 When the instruction content of the instruction gesture (rotation direction (moving direction) and amount of rotation of the viewpoint) is determined in this manner, rendering processing based on the changed viewpoint corresponding to the instruction content is executed in the next step S16. and the view is modified. Specifically, a new view image from the changed viewpoint is generated, and the perspective view is updated based on the new perspective view.

より具体的には、指示移動量ΔUが指示移動量ΔVよりも大きい場合、3次元空間における鉛直軸(Z軸)AX1であって透視ビュー51において画面200内の垂直方向に対応づけられている鉛直軸AX1周りに当該透視ビューの視点を回転させたビュー画像が新たな透視ビューとして生成される。 More specifically, when the instruction movement amount ΔU is larger than the instruction movement amount ΔV, it corresponds to the vertical axis (Z-axis) AX1 in the three-dimensional space and the vertical direction in the screen 200 in the perspective view 51. A view image obtained by rotating the viewpoint of the perspective view about the vertical axis AX1 is generated as a new perspective view.

たとえば、図7に示されるように、透視ビュー51上にマウスカーソル65が存在する状態からユーザが(表示画面200内にて)水平方向右向きのドラッグ操作(指示ジェスチャ)を行うと、情報処理装置20は、透視ビュー51に関して、実空間での鉛直軸(Z軸)(且つ画面上での垂直軸(V軸))AX1周りの回転操作指示がユーザから付与された旨を判定する。そして、図8に示されるように、変更前の透視ビュー51に代えて、変更後の透視ビュー51(新たな透視ビュー)が表示される。図8においては、その視点を鉛直軸AX1周りに(時計回りに約90度)回転させた新たな透視ビューが示されている。当該新たな透視ビュー51は、元のビュー画像を鉛直軸AX1周りに(反時計回りに約90度)回転した画像である、とも表現される。なお、左向きのドラッグ操作が行われる場合には、AX1周りに逆向きに回転された透視ビュー51が表示される。 For example, as shown in FIG. 7, when the user performs a horizontal rightward drag operation (instruction gesture) (within the display screen 200) in a state where the mouse cursor 65 exists on the perspective view 51, the information processing apparatus 20 determines that the user has given a rotation operation instruction for the perspective view 51 about the vertical axis (Z-axis) in the real space (and the vertical axis (V-axis) on the screen) AX1. Then, as shown in FIG. 8, instead of the perspective view 51 before change, a perspective view 51 after change (a new perspective view) is displayed. FIG. 8 shows a new perspective view with its viewpoint rotated around the vertical axis AX1 (about 90 degrees clockwise). The new perspective view 51 is also expressed as an image obtained by rotating the original view image around the vertical axis AX1 (about 90 degrees counterclockwise). Note that when a leftward drag operation is performed, the perspective view 51 rotated in the opposite direction around AX1 is displayed.

一方、指示移動量ΔUが指示移動量ΔVよりも小さい場合、3次元空間における水平軸AX2であって透視ビュー51において画面200内の水平方向に対応づけられている水平軸AX2周りに当該透視ビューの視点を回転させたビュー画像が新たな透視ビューとして生成される。 On the other hand, when the instruction movement amount ΔU is smaller than the instruction movement amount ΔV, the perspective view is rotated around the horizontal axis AX2 in the three-dimensional space and corresponding to the horizontal direction in the screen 200 in the perspective view 51 . A view image obtained by rotating the viewpoint of is generated as a new perspective view.

たとえば、図9に示されるように、透視ビュー51上にマウスカーソル65が存在する状態からユーザが(表示画面200内にて)垂直方向下向きのドラッグ操作を行うと、情報処理装置20は、透視ビュー51に関して、実空間での水平軸(且つ画面上での水平軸(U軸))AX2周りの回転操作指示がユーザから付与された旨を判定する。そして、図10に示されるように、変更前の透視ビュー51に代えて、変更後の透視ビュー51(水平軸AX2周りに視点を回転させた新たな透視ビュー)が表示される。図10と図9とを比較すると判るように、図10においては、より大きな仰角を有する視点からの透視ビューが表示されている。なお、上向きのドラッグ操作が行われる場合には、AX2周りに逆向きに回転された透視ビュー51が表示される。 For example, as shown in FIG. 9, when the user performs a vertical downward drag operation (within the display screen 200) in a state where the mouse cursor 65 exists on the perspective view 51, the information processing apparatus 20 performs a perspective Regarding the view 51, it is determined that the user has given a rotational operation instruction about the horizontal axis in the real space (and the horizontal axis (U-axis) on the screen) AX2. Then, as shown in FIG. 10, instead of the perspective view 51 before change, a perspective view 51 after change (a new perspective view in which the viewpoint is rotated around the horizontal axis AX2) is displayed. As can be seen by comparing FIG. 10 and FIG. 9, in FIG. 10 a perspective view is displayed from a viewpoint with a greater elevation angle. Note that when an upward drag operation is performed, the perspective view 51 rotated in the opposite direction around AX2 is displayed.

<サイドビュー52の視点変更>
また、図11(あるいは図13)に示されるように、サイドビュー52上にマウスカーソル65が存在する状態からユーザがドラッグ操作(マウスによるドラッグ操作)を行う場合には、次のような処理が実行される。
<Change of Viewpoint of Side View 52>
Also, as shown in FIG. 11 (or FIG. 13), when the user performs a drag operation (drag operation using a mouse) from the state where the mouse cursor 65 exists on the side view 52, the following processing is performed. executed.

この場合、まず、当該ドラッグ操作の操作開始位置の画素がサイドビュー52に対応づけられていることが、当該画素の第2の情報F2に基づいて判定され、ビュー特定部24は、操作対象ビューがサイドビュー52である旨を判定する(ステップS14)。 In this case, first, it is determined based on the second information F2 of the pixel that the pixel at the operation start position of the drag operation is associated with the side view 52, and the view specifying unit 24 selects the operation target view. is the side view 52 (step S14).

つぎに、指示移動量ΔUと指示移動量ΔV(図6参照)との比較結果に応じて指示ジェスチャの指示内容が特定され(ステップS15)、指示ジェスチャの指示内容に基づいて必要に応じてビューが修正される(ステップS16)。具体的には、指示移動量ΔUと指示移動量ΔVとの大小関係に応じて、ビューの修正の有無等が変更される。 Next, the instruction content of the instruction gesture is specified according to the comparison result between the instruction movement amount ΔU and the instruction movement amount ΔV (see FIG. 6) (step S15), and the view is displayed as necessary based on the instruction content of the instruction gesture. is corrected (step S16). Specifically, whether or not to modify the view is changed according to the magnitude relationship between the instruction movement amount ΔU and the instruction movement amount ΔV.

具体的には、指示移動量ΔUが指示移動量ΔVよりも大きい場合(図11参照)には、「鉛直軸AX1周りの回転指示」が操作対象ビュー52に対する指示ジェスチャの指示内容として特定される。そして、上述の鉛直軸AX1周りに当該サイドビュー52の視点を回転させたビュー画像が新たなサイドビュー52として生成され、当該新たなサイドビュー52が元のサイドビュー52に代えて画面200に表示される(図12参照)。なお、左向きのドラッグ操作が行われる場合には、AX1周りに逆向きに回転されたサイドビュー52が表示される。 Specifically, when the instruction movement amount ΔU is larger than the instruction movement amount ΔV (see FIG. 11), “rotation instruction about the vertical axis AX1” is specified as the instruction content of the instruction gesture for the operation target view 52. . Then, a view image obtained by rotating the viewpoint of the side view 52 about the vertical axis AX1 is generated as a new side view 52, and the new side view 52 is displayed on the screen 200 instead of the original side view 52. (see FIG. 12). Note that when a leftward drag operation is performed, the side view 52 rotated in the opposite direction around AX1 is displayed.

一方、指示移動量ΔUが指示移動量ΔVよりも小さい場合(図13参照)には、指示ジェスチャはビュー修正指示ではないと判定される。換言すれば、「視点を回転(変更)しないこと」が操作対象ビュー52に対する指示ジェスチャの指示内容として特定される。この場合、サイドビュー52の修正処理は行われない(図4参照)。 On the other hand, when the instruction movement amount ΔU is smaller than the instruction movement amount ΔV (see FIG. 13), it is determined that the instruction gesture is not a view correction instruction. In other words, “do not rotate (change) the viewpoint” is specified as the instruction content of the instruction gesture for the operation target view 52 . In this case, correction processing of the side view 52 is not performed (see FIG. 4).

<トップビュー53の視点変更>
また、図14~図16に示されるように、トップビュー53上にマウスカーソル65が存在する状態からユーザがドラッグ操作(指示ジェスチャ)を行う場合には、次のような処理が実行される。なお、図14では右向きのドラッグ操作が行われ、図15では上向きのドラッグ操作が行われ、図16では左上向きのドラッグ操作が行われている。
<Change of Viewpoint of Top View 53>
Further, as shown in FIGS. 14 to 16, when the user performs a drag operation (instruction gesture) from the state where the mouse cursor 65 exists on the top view 53, the following processing is executed. Note that a rightward drag operation is performed in FIG. 14 , an upward drag operation is performed in FIG. 15 , and an upper left drag operation is performed in FIG. 16 .

この場合、まず、ドラッグ操作の操作開始位置の画素がトップビュー53に対応づけられていることが当該画素の第2の情報F2に基づいて判定され、ビュー特定部24は、操作対象ビューがトップビュー53である旨を判定する(ステップS14)。 In this case, first, it is determined based on the second information F2 of the pixel that the pixel at the operation start position of the drag operation is associated with the top view 53, and the view specifying unit 24 determines that the operation target view is the top view. It is determined that it is the view 53 (step S14).

つぎに、指示移動量ΔUと指示移動量ΔV(図6参照)との大小関係にかかわらず、指示ジェスチャの指示内容が特定される。具体的には、3次元空間における鉛直軸AX1周りにトップビュー53の視点を回転させる指示が付与された旨が特定される(ステップS15)。そして、当該指示ジェスチャの指示内容に基づいて、3次元空間における鉛直軸AX1周りにトップビュー53の視点を回転させたビュー画像が新たなトップビューとして生成される(ステップS16)。そして、当該新たなトップビュー53が元のトップビュー53に代えて画面200に表示される(図17参照)。なお、トップビュー53において、3次元空間における鉛直軸AX1は、画面200(紙面)に対して垂直な方向に伸びている。なお、トップビュー53の中心軸に関して逆向きの回転操作が行われる場合には、AX1周りに逆向きに回転されたトップビュー53が表示される。 Next, the instruction content of the instruction gesture is identified regardless of the magnitude relationship between the instruction movement amount ΔU and the instruction movement amount ΔV (see FIG. 6). Specifically, it is specified that an instruction to rotate the viewpoint of the top view 53 around the vertical axis AX1 in the three-dimensional space has been given (step S15). Then, a view image obtained by rotating the viewpoint of the top view 53 around the vertical axis AX1 in the three-dimensional space is generated as a new top view based on the instruction content of the instruction gesture (step S16). Then, the new top view 53 is displayed on the screen 200 in place of the original top view 53 (see FIG. 17). In the top view 53, the vertical axis AX1 in the three-dimensional space extends in a direction perpendicular to the screen 200 (paper surface). Note that when a reverse rotation operation is performed with respect to the central axis of the top view 53, the top view 53 rotated in the reverse direction around AX1 is displayed.

<ドラッグ操作における例外処理>
複数のビューのいずれかに対するドラッグ操作が行われる場合において、所定のマーク(等深度線等)以外の位置を始点とするドラッグ操作が行われるときには、上述のような処理が行われる。
<Exception handling in drag operation>
When a drag operation is performed on one of a plurality of views and the drag operation is performed with a starting point other than a predetermined mark (e.g., isodepth line), the above-described processing is performed.

一方、複数のビューのいずれかに対するドラッグ操作が行われる場合であっても、所定のマーク(等深度線等)を始点とするドラッグ操作が行われる場合には、次のような例外的な処理が行われる。 On the other hand, even when a drag operation is performed on one of a plurality of views, if the drag operation is performed with a predetermined mark (e.g. depth contour) as the starting point, the following exceptional processing is performed. is done.

たとえば、図19に示されるように、透視ビュー51内にて等深度線(水中の深さ方向における同じ深さ位置を示す曲線)63(63a)上の位置から垂直方向(たとえば下向き)のドラッグ操作が行われる場合には、透視ビュー51にて等深度線63を移動させる処理が行われる。図20においては、変更後の画面200において、等深度線63(63a)が下向きに移動されている様子が示されている。 For example, as shown in FIG. 19, a vertical (eg, downward) drag from a position on a contour line (curve indicating the same depth position in the depth direction in water) 63 (63a) in perspective view 51. When an operation is performed, processing is performed to move the contour lines 63 in the fluoroscopic view 51 . FIG. 20 shows how the contour lines 63 (63a) are moved downward on the screen 200 after the change.

<移動操作および拡縮操作>
画面200にはモード遷移ボタン69(図4等参照)が設けられている。このモード遷移ボタン69が押下されるごとに、「回転モード」と「配置変更モード」との間で動作モードが切り替えられる。「回転モード」は、上述のような動作(各ビュー51,52,53の回転動作)(図4~図20参照)を実現するモードであり、「配置変更モード」は、画面200内における各ビュー51,52,53の配置等を変更すること(図21等参照)が可能なモードである。
<Moving operation and resizing operation>
The screen 200 is provided with a mode transition button 69 (see FIG. 4, etc.). Each time the mode transition button 69 is pressed, the operation mode is switched between the "rotation mode" and the "arrangement change mode". The "rotation mode" is a mode for realizing the above-described operations (rotating operations of the respective views 51, 52, 53) (see FIGS. 4 to 20). In this mode, it is possible to change the arrangement of the views 51, 52, 53 (see FIG. 21, etc.).

画面200内のモード遷移ボタン69が押下されて動作モードが「配置変更モード」に遷移すると、次のような動作が行われる。 When the mode transition button 69 in the screen 200 is pressed and the operation mode transitions to the "arrangement change mode", the following operations are performed.

具体的には、操作対象ビューに対するドラッグ操作に応じて、画面200内における当該各操作対象ビューの位置が変更される。たとえば、トップビュー53に対する左下向きのドラッグ操作に応じて、図21に示されるように、画面200内でのトップビュー53の位置が左下側に変更される。図21では、トップビュー53が透視ビュー51の右下近傍位置且つサイドビュー52の右上近傍位置に移動されている。 Specifically, the position of each operation target view within the screen 200 is changed according to the drag operation on the operation target view. For example, as shown in FIG. 21, the position of the top view 53 within the screen 200 is changed to the lower left side in response to the downward left drag operation on the top view 53 . In FIG. 21 , the top view 53 has been moved to a position near the lower right of the fluoroscopic view 51 and near the upper right of the side view 52 .

さらに、マウスカーソルが操作対象ビューに存在する状態でマウスのホイール操作が行われると、当該ホイール操作に応じて、画面200内における当該各操作対象ビュー自体の大きさが変更される。たとえば、図22に示されるように、透視ビュー51上にマウスカーソル65が存在する状態でマウスホイールが奥側に回転されると、透視ビュー51の拡大指示が付与された旨が判定され、透視ビュー51が拡大される。換言すれば、画面200内に占める透視ビュー51の割合が大きくなる。逆に、逆向きのマウスホイール操作(手前側への回転操作)が行われると、透視ビュー51が縮小される。また、他のビュー52,53についても同様である。 Furthermore, when a mouse wheel operation is performed while the mouse cursor is in the operation target view, the size of each operation target view itself within the screen 200 is changed according to the wheel operation. For example, as shown in FIG. 22, when the mouse wheel is rotated with the mouse cursor 65 on the fluoroscopic view 51, it is determined that an instruction to enlarge the fluoroscopic view 51 has been given. View 51 is enlarged. In other words, the proportion of the perspective view 51 within the screen 200 is increased. Conversely, when the mouse wheel operation is performed in the opposite direction (rotation operation to the near side), the fluoroscopic view 51 is reduced. The same applies to other views 52 and 53 as well.

各ビューは、マウスカーソル65の位置を中心に拡縮(拡大および/または縮小)される。ただし、これに限定されず、所定の基準位置(たとえば船舶Sの位置)を中心に拡縮(変倍)されてもよい。 Each view is scaled (enlarged and/or reduced) around the position of the mouse cursor 65 . However, it is not limited to this, and may be scaled (magnified) around a predetermined reference position (for example, the position of the ship S).

ユーザは、上述のような移動操作と拡縮操作とを組み合わせることによって、各ビューの大きさと位置とを自在に変更することが可能である(図23参照)。換言すれば、ユーザは、表示画面200内において各ビューを任意の位置に任意の大きさで配置することが可能である。なお、図23は、操作対象ビュー51,52に対する移動操作および拡縮操作とトップビュー53に対する移動操作とに基づいて各ビューの大きさと位置とが変更された状態を示している。 The user can freely change the size and position of each view by combining the above-described movement operation and enlargement/reduction operation (see FIG. 23). In other words, the user can arrange each view in any position and any size within the display screen 200 . Note that FIG. 23 shows a state in which the size and position of each view are changed based on a move operation and an enlargement/reduction operation on the operation target views 51 and 52 and a move operation on the top view 53 .

また、ユーザは、「配置変更モード」における操作と「回転モード」における操作とを組み合わせることによって、各ビューの大きさと位置とを自在に変更し、且つ、視点を自在に変更した各ビュー画像をユーザに見せること(透視ビュー51を軸AX1まわりに回転させること等)が可能である。 In addition, the user can freely change the size and position of each view by combining the operation in the "arrangement change mode" and the operation in the "rotation mode", and can freely change the viewpoint of each view image. It is possible to show it to the user (such as rotating the perspective view 51 around the axis AX1).

また、ユーザは、同様の操作によって、装置再起動直後の状態(初期状態)における各ビューの表示位置および表示大きさを指定することも可能である。 The user can also specify the display position and display size of each view in the state immediately after restarting the device (initial state) by a similar operation.

<1-7.第1実施形態の効果>
上述のように、複数のビュー50(51,52,53)に含まれる各画素は、画面200上に表示される第1の情報F1と当該複数のビュー50のうち当該各画素の所属先のビューを示す第2の情報F2とを含む複数の情報に対応づけられている。したがって、第2の情報F2に基づき、当該各画素の所属先のビューに関する情報を容易に取得することが可能である。ひいては、複数のビューにそれぞれ対応する複数の領域の中からジェスチャの対象領域をより適切に決定することが可能である。より詳細には、ユーザによる操作の対象画素に対応づけられている第2の情報F2に基づき、操作の対象ビューである操作対象ビューが特定されることによって、複数のビューにそれぞれ対応する複数の領域の中からジェスチャの対象領域をより適切に決定することが可能である。
<1-7. Effects of First Embodiment>
As described above, each pixel included in the plurality of views 50 (51, 52, 53) is associated with the first information F1 displayed on the screen 200 and the destination of each pixel among the plurality of views 50. It is associated with a plurality of information including second information F2 indicating the view. Therefore, based on the second information F2, it is possible to easily obtain information about the view to which each pixel belongs. As a result, it is possible to more appropriately determine the gesture target area from among the plurality of areas respectively corresponding to the plurality of views. More specifically, the operation target view, which is the operation target view, is specified based on the second information F2 associated with the target pixel of the operation by the user, thereby obtaining a plurality of views corresponding to the plurality of views. It is possible to better determine the target area of the gesture from within the area.

特に、隣接する2つのビューが互いに(見かけ上)重複する場合(図23参照)においても、重複領域内の各画素の第2の情報F2を用いることによって、各画素の所属先のビューが適切に判定される。したがって、ユーザによる操作の対象画素が当該重複領域内の画素である場合にも、当該対象画素に対応づけられている第2の情報F2に基づき、操作の対象ビューである操作対象ビュー(ジェスチャの対象領域)をより適切に決定することが可能である。 In particular, even when two adjacent views (apparently) overlap each other (see FIG. 23), the view to which each pixel belongs can be determined appropriately by using the second information F2 of each pixel in the overlap region. is determined to Therefore, even when the target pixel of the user's operation is a pixel within the overlapping region, the operation target view (gesture's view) is based on the second information F2 associated with the target pixel. region of interest) can be determined better.

また、上述のように、各ビューは、矩形以外の様々な形状(2つの楕円の半分ずつが上下に組み合わせられた形状、下半円形状、円形状等)を有し得る。すなわち、形状の自由度を向上させることが可能である。さらに、上述のように第2の情報F2(ビュー識別情報)が各画素ごとに対応づけられて格納されているので、形状の自由度を向上させた上で、操作対象ビューを容易に識別することが可能である。 Also, as described above, each view can have various shapes other than a rectangle (a shape in which two halves of an ellipse are combined vertically, a lower semi-circular shape, a circular shape, etc.). That is, it is possible to improve the flexibility of the shape. Furthermore, as described above, the second information F2 (view identification information) is associated with each pixel and stored, so that the view to be operated can be easily identified while improving the degree of freedom in shape. Is possible.

このように、各ビューの形状の自由度と各ビューの配置の自由度とを向上させつつ、操作対象ビュー(ジェスチャの対象領域)をより適切に決定することが可能である。 In this way, it is possible to more appropriately determine the operation target view (gesture target area) while improving the degree of freedom in the shape of each view and the degree of freedom in arrangement of each view.

また、上記実施形態においては、マウスカーソルの位置に応じて操作対象ビューが自動的に特定されるので、ユーザは、操作対象ビューを切り替えるために所定ボタン(操作対象ビュー切替用ボタン)を押下する操作を行うことを要しない。したがって、ユーザは、操作対象ビューを容易に指定することが可能である。 Further, in the above embodiment, the view to be operated is automatically specified according to the position of the mouse cursor, so the user presses a predetermined button (button for switching view to be operated) to switch the view to be operated. No action required. Therefore, the user can easily specify the view to be operated.

また、上記実施形態においては、マウスカーソルの位置に応じて操作対象ビューが特定されるとともに、マウス操作に対する動作が当該操作対象ビューに応じて自動的に変更される。たとえば、同様の下向きドラッグ操作が透視ビュー51とトップビュー53とのいずれになされたかに応じて、視点変更動作(オブジェクトの回転動作)の内容が変更される。詳細には、下向きドラッグ操作が透視ビュー51に対して行われた場合には軸AX2周りの視点回転動作が行われ、下向きドラッグ操作がトップビュー53に対して行われた場合には、軸AX1周りの視点回転動作が行われる。このように、ビューに応じた適切な動作が自動的に実行され得る。 In addition, in the above-described embodiment, the view to be operated is specified according to the position of the mouse cursor, and the action in response to the mouse operation is automatically changed according to the view to be operated. For example, the content of the viewpoint change operation (object rotation operation) is changed depending on whether the same downward drag operation is performed on the perspective view 51 or the top view 53 . Specifically, when the downward drag operation is performed on the perspective view 51, the viewpoint is rotated around the axis AX2, and when the downward drag operation is performed on the top view 53, the axis AX1 is rotated. A viewpoint rotation operation is performed around. In this way, appropriate actions can be automatically performed depending on the view.

<1-8.第1実施形態に係る変形例>
なお、上記第1実施形態では、操作対象ビューのみに関してビュー(ビュー画像)の修正処理が実行され、操作対象ビュー以外のビューに関してはビューの修正処理は変更されない。しかしながら、本発明は、これに限定されない。
<1-8. Modified example according to the first embodiment>
In the first embodiment described above, the view (view image) correction processing is executed only for the operation target view, and the view correction processing is not changed for views other than the operation target view. However, the invention is not so limited.

具体的には、操作対象ビューに対するビュー修正指示が付与された場合、操作対象ビューが修正されるだけでなく、複数のビューのうち操作対象ビュー以外の少なくとも1つのビューもが修正されてもよい。換言すれば、操作対象ビューに対する操作指示に連動して、操作対象ビュー以外のビューに関するビュー修正処理もが施されてもよい。 Specifically, when a view modification instruction is given to a manipulation target view, not only the manipulation target view but also at least one of the plurality of views other than the manipulation target view may be modified. . In other words, view correction processing may be performed on views other than the operation target view in conjunction with an operation instruction for the operation target view.

たとえば、操作対象ビューが透視ビュー51であり、且つ、透視ビュー51に対してビュー修正指示が付与され軸AX1周りに透視ビュー51の視点が回転されて透視ビュー51が更新される場合(図7参照)、図18に示されるように画面200が変更されてもよい。具体的には、軸AX1(図7等参照)周りに透視ビュー51の視点を回転させて透視ビュー51を更新するともに、軸AX1(図11等参照)周りにサイドビュー52の視点を回転させてサイドビュー52をも更新してもよい(図18参照)。さらに、軸AX1(図14等参照)周りにトップビュー53を回転させてトップビュー53をも更新してもよい(図18参照)。 For example, when the view to be operated is the perspective view 51, and a view correction instruction is given to the perspective view 51 to rotate the viewpoint of the perspective view 51 around the axis AX1 and the perspective view 51 is updated (FIG. 7 ), the screen 200 may be modified as shown in FIG. Specifically, the viewpoint of the perspective view 51 is rotated around the axis AX1 (see FIG. 7 etc.) to update the perspective view 51, and the viewpoint of the side view 52 is rotated around the axis AX1 (see FIG. 11 etc.). may also update the side view 52 (see FIG. 18). Furthermore, the top view 53 may also be updated by rotating the top view 53 around the axis AX1 (see FIG. 14, etc.) (see FIG. 18).

<2.第2実施形態>
第2実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
<2. Second Embodiment>
The second embodiment is a modification of the first embodiment. Below, it demonstrates centering around difference with 1st Embodiment.

第2実施形態においては、表示部31としてタッチパネル式の表示装置(以下、単にタッチパネルとも称する)が設けられ、当該タッチパネルを用いたジェスチャ(タッチジェスチャとも称する)が受け付けられる態様について説明する。第2実施形態においては、タッチパネルが、ユーザインターフェイス部として設けられる。換言すれば、当該タッチパネルは、表示部として機能するとともに操作入力部としても機能する。 In the second embodiment, a touch panel type display device (hereinafter simply referred to as a touch panel) is provided as the display unit 31, and a gesture (also referred to as a touch gesture) using the touch panel is accepted. In the second embodiment, a touch panel is provided as the user interface section. In other words, the touch panel functions as a display unit and also as an operation input unit.

第2実施形態では、タッチジェスチャにおける1本指のドラッグ操作によって、第1実施形態のマウスジェスチャにおけるドラッグ操作による指示と同様の指示が付与される。 In the second embodiment, a one-finger drag operation in the touch gesture gives an instruction similar to the instruction by the drag operation in the mouse gesture of the first embodiment.

また、第2実施形態においては、タッチジェスチャにおける2本指の操作(同時に2本指で行われる操作(マルチタッチ操作とも称する))もが受け付けられる。当該2本指の操作は、ピンチイン操作、ピンチアウト操作、2本指のドラッグ操作、2本指の回転操作を含む。 In addition, in the second embodiment, a two-finger operation (an operation performed with two fingers at the same time (also referred to as a multi-touch operation)) in touch gestures is also accepted. The two-finger operation includes a pinch-in operation, a pinch-out operation, a two-finger drag operation, and a two-finger rotation operation.

ピンチイン操作は、画面上での2本指の相互間の間隔を狭める操作であり、ピンチアウト操作は、画面上での2本指の相互間の間隔を広げる操作である。2本指のドラッグ操作(スライド操作あるいはスワイプ操作とも称する)は、2本指を画面上にて或る方向(互いに同じ方向)へと同時に移動する操作である。また、2本指の回転操作は、2本指の移動(画面上の或る位置を中心に当該2本指を互いに逆方向に移動すること等)に応じて、画面に対する2本指の接触位置を互いに結ぶ方向を変更する操作である。 A pinch-in operation is an operation to narrow the distance between two fingers on the screen, and a pinch-out operation is an operation to widen the distance between two fingers on the screen. A two-finger drag operation (also referred to as a slide operation or a swipe operation) is an operation in which two fingers are simultaneously moved in a certain direction (the same direction) on the screen. In addition, the two-finger rotation operation can be performed by moving the two fingers on the screen in accordance with the movement of the two fingers (moving the two fingers in opposite directions around a certain position on the screen, etc.). This is an operation to change the direction in which positions are connected to each other.

第2実施形態においては、複数のジェスチャのうち、マルチタッチジェスチャ(具体的には、ピンチイン操作、ピンチアウト操作、2本指のドラッグ操作)を利用することによって、「回転モード」と「配置変更モード」との間での動作モードの切替を行わずとも、操作対象ビューの位置変更および変倍率変更を実現することが可能である。 In the second embodiment, among a plurality of gestures, a multi-touch gesture (specifically, a pinch-in operation, a pinch-out operation, and a two-finger drag operation) is used to achieve the "rotation mode" and the "arrangement change". It is possible to change the position of the view to be operated and change the scaling ratio without switching the operation mode.

詳細には、2本指のドラッグ操作が操作対象ビューに対して行われると、操作対象ビューに対する移動指示(画面内での表示位置変更指示)が付与されたと判定される。そして、操作対象ビュー(たとえばトップビュー53)は、当該移動指示に応じてユーザの所望の位置に移動される(図21参照)。なお、2本指のドラッグ操作は、操作対象ビューの種類にかかわらず、操作対象ビューを画面内にて移動する移動指示操作として特定される。 Specifically, when a two-finger drag operation is performed on the operation target view, it is determined that an instruction to move the operation target view (an instruction to change the display position within the screen) has been given. Then, the operation target view (for example, the top view 53) is moved to the position desired by the user according to the movement instruction (see FIG. 21). Note that the two-finger drag operation is identified as a move instruction operation for moving the operation target view within the screen regardless of the type of the operation target view.

また、2本指のピンチ操作(ピンチイン操作/ピンチアウト操作)が操作対象ビューに対して行われると、操作対象ビューに対する変倍指示(画面内での表示大きさ(表示面積)の変更指示)が付与されたと判定される。そして、当該変倍指示に応じて操作対象ビューの大きさが変更される。詳細には、ピンチアウト操作は操作対象ビューに対する拡大指示であると判定され、操作対象ビュー(たとえば透視ビュー51)はピンチアウト操作に応じて拡大される(図22参照)。一方、ピンチイン操作は操作対象ビューに対する縮小指示であると判定され、操作対象ビューはピンチイン操作に応じて縮小される。なお、2本指のピンチ操作は、操作対象ビューの種類にかかわらず、当該操作対象ビューを画面内にて変倍する変倍指示操作として特定される。 Further, when a two-finger pinch operation (pinch-in operation/pinch-out operation) is performed on the operation target view, an instruction to change the magnification of the operation target view (an instruction to change the display size (display area) within the screen) is performed. is determined to have been given. Then, the size of the operation target view is changed according to the scaling instruction. Specifically, the pinch-out operation is determined to be an instruction to enlarge the view to be operated, and the view to be operated (for example, perspective view 51) is enlarged according to the pinch-out operation (see FIG. 22). On the other hand, the pinch-in operation is determined to be an instruction to reduce the view to be operated, and the view to be operated is reduced according to the pinch-in operation. It should be noted that the two-finger pinch operation is specified as a zoom instruction operation for zooming the operation target view within the screen regardless of the type of the operation target view.

また、2本指の回転操作は、操作対象ビューの種類にかかわらず、「鉛直軸AX1周りの回転指示」を付与する操作として特定される。すなわち、2本指の回転操作の操作対象ビューが透視ビュー51とサイドビュー52とトップビュー53とのうちのいずれであっても、当該2本指の回転操作は、「鉛直軸AX1周りの回転指示」操作である、と判定される。 In addition, a two-finger rotation operation is specified as an operation of giving a “rotation instruction about the vertical axis AX1” regardless of the type of the operation target view. That is, even if the operation target view of the two-finger rotation operation is any one of the perspective view 51, the side view 52, and the top view 53, the two-finger rotation operation is a "rotation about the vertical axis AX1". It is determined that it is an "instruction" operation.

また、各操作対象ビューに対する1本指のドラッグ操作が付与された場合には、「回転モード」におけるマウスのドラッグ操作と同様の指示が付与されたものとして判定される。 Further, when a one-finger drag operation is applied to each operation target view, it is determined that an instruction similar to the mouse drag operation in the "rotation mode" is applied.

詳細には、透視ビュー51に対するタッチ操作として1本指のドラッグ操作が行われる場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも大きいときには、「鉛直軸AX1周りの回転指示」が指示ジェスチャの指示内容として特定される(図7および図8参照)。同様の場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも小さい場合には、「水平軸AX2周りの回転指示」が指示ジェスチャの指示内容として特定される(図9および図10参照)。 Specifically, when a one-finger drag operation is performed as a touch operation on the perspective view 51, and the instruction movement amount ΔU in the drag operation is larger than the instruction movement amount ΔV, the "rotation instruction about the vertical axis AX1" is specified as the instruction content of the instruction gesture (see FIGS. 7 and 8). In a similar case, when the instruction movement amount ΔU in the drag operation is smaller than the instruction movement amount ΔV, "rotation instruction about the horizontal axis AX2" is specified as the instruction content of the instruction gesture (FIGS. 9 and 10). reference).

また、サイドビュー52に対するタッチ操作として1本指のドラッグ操作が行われる場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも大きい場合には、「鉛直軸AX1周りの回転指示」が指示ジェスチャの指示内容として特定される(図11および図12参照)。同様の場合において、当該ドラッグ操作における指示移動量ΔUが指示移動量ΔVよりも小さい場合(図13参照)には、「視点を変更しないこと」が指示ジェスチャの指示内容として特定される。 Further, when a one-finger drag operation is performed as a touch operation on the side view 52, and the instruction movement amount ΔU in the drag operation is larger than the instruction movement amount ΔV, "rotation instruction about the vertical axis AX1" is performed. is specified as the instruction content of the instruction gesture (see FIGS. 11 and 12). In a similar case, when the instruction movement amount ΔU in the drag operation is smaller than the instruction movement amount ΔV (see FIG. 13), "not to change the viewpoint" is specified as the instruction content of the instruction gesture.

また、トップビュー53に対するタッチ操作として1本指のドラッグ操作が行われる場合には、当該ドラッグ操作における指示移動量ΔUと指示移動量ΔVとの大小関係にかかわらず、「鉛直軸AX1周りの回転指示」が指示ジェスチャの指示内容として特定される(図14~図17参照)。 Further, when a one-finger drag operation is performed as a touch operation on the top view 53, regardless of the magnitude relationship between the instruction movement amount ΔU and the instruction movement amount ΔV in the drag operation, the "rotation about the vertical axis AX1 "instruction" is specified as the instruction content of the pointing gesture (see FIGS. 14 to 17).

このような第2実施形態によっても第1実施形態と同様の効果を得ることができる。 Effects similar to those of the first embodiment can be obtained by such a second embodiment.

また、第2実施形態においては、タッチジェスチャにおけるタッチ開始位置に応じて操作対象ビューが自動的に特定される。より詳細には、タッチ開始位置の画素に対応づけられた第2の情報F2に基づいて、操作対象ビューが自動的に特定される。それ故、ユーザは、操作対象ビューを切り替えるごとに所定ボタンを押下する操作を行うことを要しない。したがって、ユーザは、操作対象ビューを容易に指定することが可能である。 Further, in the second embodiment, the operation target view is automatically specified according to the touch start position of the touch gesture. More specifically, the operation target view is automatically identified based on the second information F2 associated with the pixel of the touch start position. Therefore, the user does not need to press the predetermined button each time the view to be operated is switched. Therefore, the user can easily specify the view to be operated.

また、第2実施形態においては、2本指操作(マルチタッチ操作)と1本指操作(シングルタッチ操作)とに対して、互いに異なる指示内容が割り当てられる。そして、複数の種類のタッチ操作が適宜に使い分けられることによって多数の指示内容が互いに区別して付与される。したがって、モード遷移ボタン69の押下等によるモード変更操作を行うことを要しない。詳細には、各ビューの視点変更動作(回転動作)、ならびに各ビューの移動動作および/または変倍動作が、タッチ操作のみによって実現され得る。 In addition, in the second embodiment, different instruction contents are assigned to two-finger operation (multi-touch operation) and one-finger operation (single-touch operation). Then, by properly using a plurality of types of touch operations, a large number of instruction contents are imparted while being distinguished from each other. Therefore, it is not necessary to perform a mode change operation by pressing the mode transition button 69 or the like. Specifically, the viewpoint change operation (rotation operation) of each view, and the movement operation and/or magnification change operation of each view can be realized only by touch operations.

<3.変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<3. Modifications, etc.>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

たとえば、上記第1実施形態等においては、操作対象ビューの移動および/または変倍指示を、マウス操作以外の操作(具体的には、モード遷移ボタン69の押下操作)を伴って行う態様が例示されているが、これに限定されず、マウスのボタン操作とマウスの移動操作とマウスホイール操作との組合せで操作対象ビューの移動および/または変倍指示が区別されてもよい。詳細には、マウスの左右両ボタンを押下しつつマウスを移動する操作によって「ビューの移動」が指示され、マウスの左ボタンを押下しつつマウスホイールを回転させる操作によって「ビューの変倍(拡大および縮小)」が指示されてもよい。これによっても、モード遷移ボタン69の押下を伴うことなく、様々な種類の指示が付与され得る。 For example, in the above-described first embodiment and the like, there is illustrated a mode in which the movement and/or magnification instruction of the operation target view is accompanied by an operation other than the mouse operation (specifically, the operation of pressing the mode transition button 69). However, it is not limited to this, and a combination of a mouse button operation, a mouse movement operation, and a mouse wheel operation may be used to distinguish the operation target view movement and/or scaling instruction. In detail, "moving the view" is instructed by moving the mouse while pressing both the left and right mouse buttons, and "zooming (magnifying) the view" is performed by rotating the mouse wheel while pressing the left mouse button. and reduction)" may be indicated. This also allows various kinds of instructions to be given without pressing the mode transition button 69 .

また、上記各実施形態等においては、送信部として機能するとともに受信部としても機能する送受波器を備えた水中探知装置が主に例示されているが、これに限定されず、水中探知装置は、送信部と受信部とを別体でそれぞれ備えて構成されてもよい。 Further, in each of the above-described embodiments and the like, an underwater detection device having a transducer that functions as a transmitter and a receiver is mainly exemplified, but the underwater detection device is not limited to this. , the transmitting unit and the receiving unit may be separately provided.

また、上記各実施形態等においては、船舶を中心とする水中の全方位へ向けて一斉に送信ビームを形成するスキャニングソナーを用いてデータセットが取得されているが、これに限定されない。たとえば、送信ビームと受信ビームとを回転させるサーチライトソナー(PPIソナー)を備えた水中探知装置を用いてデータセットが取得されてもよい。 In each of the above-described embodiments and the like, a data set is acquired using a scanning sonar that simultaneously forms transmission beams in all directions underwater centering on the ship, but the present invention is not limited to this. For example, the dataset may be acquired using an underwater sounding device with a searchlight sonar (PPI sonar) that rotates the transmit and receive beams.

また、上記各実施形態等においては、水中のターゲット(魚群等)に関して水中環境から検出されたデータセット(魚群データ等)が取得される態様が例示されているが、これに限定されない。たとえば、空中のターゲット(水蒸気等)に関して空中環境から検出されたデータセット(気象データ等)が取得されてもよい。あるいは、人体内のターゲット(臓器等)に関して体内環境から検出されたデータセット(医療データ等)が取得されてもよい。 In addition, in each of the above-described embodiments and the like, a mode in which a data set (fish school data, etc.) detected from the underwater environment regarding an underwater target (fish school, etc.) is acquired is illustrated, but the present invention is not limited to this. For example, a sensed data set (such as meteorological data) from the airborne environment may be obtained for an airborne target (such as water vapor). Alternatively, a data set (such as medical data) detected from the internal environment for a target (such as an organ) within the human body may be obtained.

1 水中探知装置(データ処理装置)
10 スキャニングソナー
31 表示部
33 操作入力部
51 透視ビュー
52 サイドビュー
53 トップビュー
63 等深度線
65 マウスカーソル
68 画素
69 モード遷移ボタン
200 表示画面
AX1 鉛直軸
AX2 水平軸
F1 第1の情報
F2 第2の情報
1 Underwater detection device (data processing device)
10 scanning sonar 31 display unit 33 operation input unit 51 fluoroscopic view 52 side view 53 top view 63 contour lines 65 mouse cursor 68 pixels 69 mode transition button 200 display screen AX1 vertical axis AX2 horizontal axis F1 first information F2 second information

Claims (15)

データ処理装置であって、
ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、
前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、
を備え、
前記複数のビューのそれぞれは、複数の画素を含み、
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、
前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、
前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、
をさらに備え、
前記複数のビューは、透視ビューを含み、
前記ビュー修正部は、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記透視ビューにおいて前記画面内の前記垂直方向に対応づけられている前記第1の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成することを特徴とするデータ処理装置。
A data processing device,
a data acquisition unit for acquiring a data set detected by the detection device for the target;
a rendering unit that executes rendering processing based on the data set and generates a plurality of views arranged within a screen;
with
each of the plurality of views includes a plurality of pixels;
Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
a user interface unit that receives a user's operation on the plurality of views;
View identification for acquiring the second information associated with the target pixel of the operation by the user and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel. Department and
a gesture detection unit that detects a gesture related to the operation as an instruction gesture;
a view correction unit that corrects the operation target view based on the instruction gesture when the instruction gesture is a view correction instruction;
further comprising
wherein the plurality of views includes perspective views;
When the operation target view is the perspective view and the amount of movement of the instruction gesture in the horizontal direction within the screen is larger than the amount of movement of the instruction gesture in the vertical direction within the screen , a rotated view of the perspective view about the first axis in the three-dimensional space for the data set, which in the perspective view corresponds to the vertical direction in the screen. A data processing device for generating an image as a new perspective view.
データ処理装置であって、
ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、
前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、
を備え、
前記複数のビューのそれぞれは、複数の画素を含み、
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、
前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、
前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、
をさらに備え、
前記複数のビューは、透視ビューを含み、
前記ビュー修正部は、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記データセットに関する3次元空間における第2の軸であって前記透視ビューにおいて前記画面内の前記水平方向に対応づけられている前記第2の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成することを特徴とするデータ処理装置。
A data processing device,
a data acquisition unit for acquiring a data set detected by the detection device for the target;
a rendering unit that executes rendering processing based on the data set and generates a plurality of views arranged within a screen;
with
each of the plurality of views includes a plurality of pixels;
Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
a user interface unit that receives a user's operation on the plurality of views;
View identification for acquiring the second information associated with the target pixel of the operation by the user and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel. Department and
a gesture detection unit that detects a gesture related to the operation as an instruction gesture;
a view correction unit that corrects the operation target view based on the instruction gesture when the instruction gesture is a view correction instruction;
further comprising
wherein the plurality of views includes perspective views;
When the operation target view is the perspective view and the movement amount of the instruction gesture in the horizontal direction within the screen is smaller than the movement amount of the instruction gesture in the vertical direction within the screen , a rotated view of the perspective view about the second axis in the three-dimensional space for the data set, which in the perspective view corresponds to the horizontal direction in the screen. A data processing device for generating an image as a new perspective view.
データ処理装置であって、
ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、
前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、
を備え、
前記複数のビューのそれぞれは、複数の画素を含み、
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、
前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、
前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、
をさらに備え、
前記複数のビューは、サイドビューを含み、
前記ビュー修正部は、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記サイドビューにおいて前記画面内の前記垂直方向に対応づけられている前記第1の軸周りに前記サイドビューの視点を回転させたビュー画像を新たなサイドビューとして生成することを特徴とするデータ処理装置。
A data processing device,
a data acquisition unit for acquiring a data set detected by the detection device for the target;
a rendering unit that executes rendering processing based on the data set and generates a plurality of views arranged within a screen;
with
each of the plurality of views includes a plurality of pixels;
Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
a user interface unit that receives a user's operation on the plurality of views;
View identification for acquiring the second information associated with the target pixel of the operation by the user and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel. Department and
a gesture detection unit that detects a gesture related to the operation as an instruction gesture;
a view correction unit that corrects the operation target view based on the instruction gesture when the instruction gesture is a view correction instruction;
further comprising
the plurality of views includes a side view;
When the operation target view is the side view and the movement amount of the instruction gesture in the horizontal direction within the screen is larger than the movement amount of the instruction gesture in the vertical direction within the screen , a view obtained by rotating the viewpoint of the side view about the first axis that is the first axis in the three-dimensional space for the data set and that corresponds to the vertical direction in the screen in the side view. A data processing device characterized by generating an image as a new side view.
データ処理装置であって、
ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、
前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、
を備え、
前記複数のビューのそれぞれは、複数の画素を含み、
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、
前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、
前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、
をさらに備え、
前記複数のビューは、サイドビューを含み、
前記ビュー修正部は、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記サイドビューの視点を回転しないことを特徴とするデータ処理装置。
A data processing device,
a data acquisition unit for acquiring a data set detected by the detection device for the target;
a rendering unit that executes rendering processing based on the data set and generates a plurality of views arranged within a screen;
with
each of the plurality of views includes a plurality of pixels;
Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
a user interface unit that receives a user's operation on the plurality of views;
View identification for acquiring the second information associated with the target pixel of the operation by the user and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel. Department and
a gesture detection unit that detects a gesture related to the operation as an instruction gesture;
a view correction unit that corrects the operation target view based on the instruction gesture when the instruction gesture is a view correction instruction;
further comprising
the plurality of views includes a side view;
When the operation target view is the side view and the movement amount of the instruction gesture in the horizontal direction within the screen is smaller than the movement amount of the instruction gesture in the vertical direction within the screen , the data processing device, wherein the viewpoint of the side view is not rotated.
データ処理装置であって、
ターゲットに関して検出装置によって検出されたデータセットを取得するデータ取得部と、
前記データセットに基づくレンダリング処理を実行し、画面内に配置される複数のビューを生成するレンダリング部と、
を備え、
前記複数のビューのそれぞれは、複数の画素を含み、
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、
前記複数のビューに対するユーザによる操作を受け付けるユーザインターフェイス部と、
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するビュー特定部と、
前記操作に関するジェスチャを指示ジェスチャとして検出するジェスチャ検出部と、
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するビュー修正部と、
をさらに備え、
前記複数のビューは、トップビューを含み、
前記ビュー修正部は、前記操作対象ビューが前記トップビューであり且つ、前記指示ジェスチャに基づき前記画面内の水平方向または垂直方向における移動指示が付与された場合、前記データセットに関する3次元空間における第1の軸であって前記トップビューにおいて前記画面に垂直な方向に対応づけられている前記第1の軸周りに前記トップビューの視点を回転させたビュー画像を新たなトップビューとして生成することを特徴とするデータ処理装置。
A data processing device,
a data acquisition unit for acquiring a data set detected by the detection device for the target;
a rendering unit that executes rendering processing based on the data set and generates a plurality of views arranged within a screen;
with
each of the plurality of views includes a plurality of pixels;
Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
a user interface unit that receives a user's operation on the plurality of views;
View identification for acquiring the second information associated with the target pixel of the operation by the user and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel. Department and
a gesture detection unit that detects a gesture related to the operation as an instruction gesture;
a view correction unit that corrects the operation target view based on the instruction gesture when the instruction gesture is a view correction instruction;
further comprising
the plurality of views includes a top view;
When the operation target view is the top view and an instruction to move in the horizontal direction or the vertical direction within the screen is given based on the instruction gesture, the view modification unit performs a movement instruction in a three-dimensional space related to the data set. generating, as a new top view, a view image in which the viewpoint of the top view is rotated around the first axis which is the first axis and corresponds to the direction perpendicular to the screen in the top view. A data processing device characterized by:
ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、A data processing method for obtaining a data set detected by a detection device about a target and performing a rendering process based on the data set to generate a plurality of views in a screen, comprising:
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記複数のビューに対するユーザによる操作を受け付けて、Receiving a user's operation on the plurality of views,
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定し、obtaining the second information associated with the target pixel of the operation by the user, and identifying the operation target view, which is the target view of the operation, based on the second information of the target pixel;
前記操作に関するジェスチャを指示ジェスチャとして検出し、detecting a gesture related to the operation as a pointing gesture;
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正し、if the instruction gesture is a view modification instruction, modifying the operation target view based on the instruction gesture;
前記複数のビューは、透視ビューを含み、wherein the plurality of views includes perspective views;
前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記透視ビューにおいて前記画面内の前記垂直方向に対応づけられている前記第1の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成することを特徴とするデータ処理方法。When the operation target view is the perspective view and the amount of movement of the instruction gesture in the horizontal direction within the screen is larger than the amount of movement of the instruction gesture in the vertical direction within the screen, 3 regarding the data set A view image obtained by rotating the viewpoint of the perspective view around the first axis which is the first axis in the dimensional space and which corresponds to the vertical direction in the screen in the perspective view is used as a new perspective view. A data processing method characterized by generating as
ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、A data processing method for obtaining a data set detected by a detection device about a target and performing a rendering process based on the data set to generate a plurality of views in a screen, comprising:
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記複数のビューに対するユーザによる操作を受け付けて、Receiving a user's operation on the plurality of views,
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定し、obtaining the second information associated with the target pixel of the operation by the user, and identifying the operation target view, which is the target view of the operation, based on the second information of the target pixel;
前記操作に関するジェスチャを指示ジェスチャとして検出し、detecting a gesture related to the operation as a pointing gesture;
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正し、if the instruction gesture is a view modification instruction, modifying the operation target view based on the instruction gesture;
前記複数のビューは、透視ビューを含み、wherein the plurality of views includes perspective views;
前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記データセットに関する3次元空間における第2の軸であって前記透視ビューにおいて前記画面内の前記水平方向に対応づけられている前記第2の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成することを特徴とするデータ処理方法。When the operation target view is the perspective view and the amount of movement of the pointing gesture in the horizontal direction within the screen is smaller than the amount of movement of the pointing gesture in the vertical direction within the screen, 3 regarding the data set A view image obtained by rotating the viewpoint of the perspective view around the second axis which is a second axis in the dimensional space and which corresponds to the horizontal direction in the screen in the perspective view is added to a new perspective view. A data processing method characterized by generating as
ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、A data processing method for obtaining a data set detected by a detection device about a target and performing a rendering process based on the data set to generate a plurality of views in a screen, comprising:
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記複数のビューに対するユーザによる操作を受け付けて、Receiving a user's operation on the plurality of views,
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定し、obtaining the second information associated with the target pixel of the operation by the user, and identifying the operation target view, which is the target view of the operation, based on the second information of the target pixel;
前記操作に関するジェスチャを指示ジェスチャとして検出し、detecting a gesture related to the operation as a pointing gesture;
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正し、if the instruction gesture is a view modification instruction, modifying the operation target view based on the instruction gesture;
前記複数のビューは、サイドビューを含み、the plurality of views includes a side view;
前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記サイドビューにおいて前記画面内の前記垂直方向に対応づけられている前記第1の軸周りに前記サイドビューの視点を回転させたビュー画像を新たなサイドビューとして生成することを特徴とするデータ処理方法。When the operation target view is the side view and the amount of movement of the pointing gesture in the horizontal direction within the screen is larger than the amount of movement of the pointing gesture in the vertical direction within the screen, 3 A view image obtained by rotating the viewpoint of the side view around the first axis which is the first axis in the dimensional space and which corresponds to the vertical direction in the screen in the side view is provided as a new side view. A data processing method characterized by generating as
ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、A data processing method for obtaining a data set detected by a detection device about a target and performing a rendering process based on the data set to generate a plurality of views in a screen, comprising:
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記複数のビューに対するユーザによる操作を受け付けて、Receiving a user's operation on the plurality of views,
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定し、obtaining the second information associated with the target pixel of the operation by the user, and identifying the operation target view, which is the target view of the operation, based on the second information of the target pixel;
前記操作に関するジェスチャを指示ジェスチャとして検出し、detecting a gesture related to the operation as a pointing gesture;
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正し、if the instruction gesture is a view modification instruction, modifying the operation target view based on the instruction gesture;
前記複数のビューは、サイドビューを含み、the plurality of views includes a side view;
前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記サイドビューの視点を回転しないことを特徴とするデータ処理方法。When the operation target view is the side view and the amount of movement of the pointing gesture in the horizontal direction within the screen is smaller than the amount of movement of the pointing gesture in the vertical direction within the screen, the viewpoint of the side view is not rotated.
ターゲットに関して検出装置によって検出されたデータセットを取得し、前記データセットに基づくレンダリング処理を実行して画面内に複数のビューを生成するデータ処理方法であって、A data processing method for obtaining a data set detected by a detection device about a target and performing a rendering process based on the data set to generate a plurality of views in a screen, comprising:
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記複数のビューに対するユーザによる操作を受け付けて、Receiving a user's operation on the plurality of views,
前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定し、obtaining the second information associated with the target pixel of the operation by the user, and identifying the operation target view, which is the target view of the operation, based on the second information of the target pixel;
前記操作に関するジェスチャを指示ジェスチャとして検出し、detecting a gesture related to the operation as a pointing gesture;
前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正し、if the instruction gesture is a view modification instruction, modifying the operation target view based on the instruction gesture;
前記複数のビューは、トップビューを含み、the plurality of views includes a top view;
前記操作対象ビューが前記トップビューであり且つ、前記指示ジェスチャに基づき前記画面内の水平方向または垂直方向における移動指示が付与された場合、前記データセットに関する3次元空間における第1の軸であって前記トップビューにおいて前記画面に垂直な方向に対応づけられている前記第1の軸周りに前記トップビューの視点を回転させたビュー画像を新たなトップビューとして生成することを特徴とするデータ処理方法。When the operation target view is the top view and an instruction to move in the horizontal direction or the vertical direction within the screen is given based on the pointing gesture, the first axis in the three-dimensional space related to the data set A data processing method comprising: generating, as a new top view, a view image obtained by rotating the viewpoint of the top view about the first axis associated with the direction perpendicular to the screen in the top view. .
コンピュータに、to the computer,
a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、a) acquiring a data set detected by a detection device for a target;
b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、b) performing a rendering process based on said dataset to generate multiple views within a screen;
を実行させるためのプログラムであって、A program for executing
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記コンピュータに、to the computer;
c)前記複数のビューに対するユーザによる操作を受け付けるステップと、c) accepting user manipulation of the plurality of views;
d)前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するステップと、d) obtaining the second information associated with the target pixel of the operation by the user, and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel; a step;
e)前記操作に関するジェスチャを指示ジェスチャとして検出するステップと、e) detecting a gesture relating to said operation as a pointing gesture;
f)前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するステップと、f) if the pointing gesture is a view modifying instruction, modifying the operated view based on the pointing gesture;
をさらに実行させ、further execute
前記複数のビューは、透視ビューを含み、wherein the plurality of views includes perspective views;
前記操作対象ビューを修正するステップにおいて、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記透視ビューにおいて前記画面内の前記垂直方向に対応づけられている前記第1の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成することを特徴とするプログラム。In the step of correcting the operation target view, the operation target view is the perspective view, and the amount of movement of the pointing gesture in the horizontal direction within the screen is the amount of movement of the pointing gesture in the vertical direction within the screen. If greater than A program characterized by generating a rotated view image as a new perspective view.
コンピュータに、to the computer,
a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、a) acquiring a data set detected by a detection device for a target;
b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、b) performing a rendering process based on said dataset to generate multiple views within a screen;
を実行させるためのプログラムであって、A program for executing
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記コンピュータに、to the computer;
c)前記複数のビューに対するユーザによる操作を受け付けるステップと、c) accepting user manipulation of the plurality of views;
d)前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するステップと、d) obtaining the second information associated with the target pixel of the operation by the user, and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel; a step;
e)前記操作に関するジェスチャを指示ジェスチャとして検出するステップと、e) detecting a gesture relating to said operation as a pointing gesture;
f)前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するステップと、f) if the pointing gesture is a view modifying instruction, modifying the operated view based on the pointing gesture;
をさらに実行させ、further execute
前記複数のビューは、透視ビューを含み、wherein the plurality of views includes perspective views;
前記操作対象ビューを修正するステップにおいて、前記操作対象ビューが前記透視ビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記データセットに関する3次元空間における第2の軸であって前記透視ビューにおいて前記画面内の前記水平方向に対応づけられている前記第2の軸周りに前記透視ビューの視点を回転させたビュー画像を新たな透視ビューとして生成することを特徴とするプログラム。In the step of correcting the operation target view, the operation target view is the perspective view, and the amount of movement of the pointing gesture in the horizontal direction within the screen is the amount of movement of the pointing gesture in the vertical direction within the screen. If less than A program characterized by generating a rotated view image as a new perspective view.
コンピュータに、to the computer,
a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、a) acquiring a data set detected by a detection device for a target;
b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、b) performing a rendering process based on said dataset to generate multiple views within a screen;
を実行させるためのプログラムであって、A program for executing
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記コンピュータに、to the computer;
c)前記複数のビューに対するユーザによる操作を受け付けるステップと、c) accepting user manipulation of the plurality of views;
d)前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するステップと、d) obtaining the second information associated with the target pixel of the operation by the user, and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel; a step;
e)前記操作に関するジェスチャを指示ジェスチャとして検出するステップと、e) detecting a gesture relating to said operation as a pointing gesture;
f)前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するステップと、f) if the pointing gesture is a view modifying instruction, modifying the operated view based on the pointing gesture;
をさらに実行させ、further execute
前記複数のビューは、サイドビューを含み、the plurality of views includes a side view;
前記操作対象ビューを修正するステップにおいて、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも大きい場合、前記データセットに関する3次元空間における第1の軸であって前記サイドビューにおいて前記画面内の前記垂直方向に対応づけられている前記第1の軸周りに前記サイドビューの視点を回転させたビュー画像を新たなサイドビューとして生成することを特徴とするプログラム。In the step of correcting the operation target view, the operation target view is the side view, and the amount of movement of the pointing gesture in the horizontal direction within the screen is the amount of movement of the pointing gesture in the vertical direction within the screen. If greater than A program characterized by generating a rotated view image as a new side view.
コンピュータに、to the computer,
a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、a) acquiring a data set detected by a detection device for a target;
b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、b) performing a rendering process based on said dataset to generate multiple views within a screen;
を実行させるためのプログラムであって、A program for executing
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記コンピュータに、to the computer;
c)前記複数のビューに対するユーザによる操作を受け付けるステップと、c) accepting user manipulation of the plurality of views;
d)前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するステップと、d) obtaining the second information associated with the target pixel of the operation by the user, and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel; a step;
e)前記操作に関するジェスチャを指示ジェスチャとして検出するステップと、e) detecting a gesture relating to said operation as a pointing gesture;
f)前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するステップと、f) if the pointing gesture is a view modifying instruction, modifying the operated view based on the pointing gesture;
をさらに実行させ、further execute
前記複数のビューは、サイドビューを含み、the plurality of views includes a side view;
前記操作対象ビューを修正するステップにおいて、前記操作対象ビューが前記サイドビューであり、且つ、前記画面内の水平方向における前記指示ジェスチャの移動量が前記画面内の垂直方向における前記指示ジェスチャの移動量よりも小さい場合、前記サイドビューの視点を回転しないことを特徴とするプログラム。In the step of correcting the operation target view, the operation target view is the side view, and the amount of movement of the pointing gesture in the horizontal direction within the screen is the amount of movement of the pointing gesture in the vertical direction within the screen. , wherein the side view viewpoint is not rotated if less than .
コンピュータに、to the computer,
a)ターゲットに関して検出装置によって検出されたデータセットを取得するステップと、a) acquiring a data set detected by a detection device for a target;
b)前記データセットに基づくレンダリング処理を実行し、画面内に複数のビューを生成するステップと、b) performing a rendering process based on said dataset to generate multiple views within a screen;
を実行させるためのプログラムであって、A program for executing
前記複数のビューのそれぞれは、複数の画素を含み、each of the plurality of views includes a plurality of pixels;
前記複数のビューに含まれる各画素は、前記画面上に表示される第1の情報と、前記複数のビューのうち当該各画素の所属先のビューを示す第2の情報とを含む複数の情報に対応づけられており、Each pixel included in the plurality of views is a plurality of pieces of information including first information displayed on the screen and second information indicating a view to which each pixel belongs among the plurality of views. is mapped to
前記コンピュータに、to the computer;
c)前記複数のビューに対するユーザによる操作を受け付けるステップと、c) accepting user manipulation of the plurality of views;
d)前記ユーザによる前記操作の対象画素に対応づけられている前記第2の情報を取得し、前記操作の対象ビューである操作対象ビューを前記対象画素の前記第2の情報に基づいて特定するステップと、d) obtaining the second information associated with the target pixel of the operation by the user, and specifying the operation target view, which is the target view of the operation, based on the second information of the target pixel; a step;
e)前記操作に関するジェスチャを指示ジェスチャとして検出するステップと、e) detecting a gesture relating to said operation as a pointing gesture;
f)前記指示ジェスチャがビュー修正指示である場合、前記指示ジェスチャに基づき前記操作対象ビューを修正するステップと、f) if the pointing gesture is a view modifying instruction, modifying the operated view based on the pointing gesture;
をさらに実行させ、further execute
前記複数のビューは、トップビューを含み、the plurality of views includes a top view;
前記操作対象ビューを修正するステップにおいて、前記操作対象ビューが前記トップビューであり且つ、前記指示ジェスチャに基づき前記画面内の水平方向または垂直方向における移動指示が付与された場合、前記データセットに関する3次元空間における第1の軸であって前記トップビューにおいて前記画面に垂直な方向に対応づけられている前記第1の軸周りに前記トップビューの視点を回転させたビュー画像を新たなトップビューとして生成することを特徴とするプログラム。In the step of correcting the operation target view, when the operation target view is the top view and an instruction to move in the horizontal direction or the vertical direction within the screen is given based on the pointing gesture, 3 regarding the data set: A view image obtained by rotating the viewpoint of the top view around the first axis that is the first axis in the dimensional space and corresponds to the direction perpendicular to the screen in the top view is used as a new top view. A program characterized by generating
JP2019091605A 2019-05-14 2019-05-14 DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM Active JP7216610B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019091605A JP7216610B2 (en) 2019-05-14 2019-05-14 DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM
US16/846,013 US10996829B2 (en) 2019-05-14 2020-04-10 Apparatus, method and program for processing data
US17/219,426 US11494059B2 (en) 2019-05-14 2021-03-31 Apparatus, method and program for processing data
US17/822,041 US11609687B2 (en) 2019-05-14 2022-08-24 Apparatus, method and program for processing data
JP2022184557A JP2023025072A (en) 2019-05-14 2022-11-18 Data processing apparatus, data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019091605A JP7216610B2 (en) 2019-05-14 2019-05-14 DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022184557A Division JP2023025072A (en) 2019-05-14 2022-11-18 Data processing apparatus, data processing method, and program

Publications (2)

Publication Number Publication Date
JP2020187545A JP2020187545A (en) 2020-11-19
JP7216610B2 true JP7216610B2 (en) 2023-02-01

Family

ID=73222832

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019091605A Active JP7216610B2 (en) 2019-05-14 2019-05-14 DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM
JP2022184557A Pending JP2023025072A (en) 2019-05-14 2022-11-18 Data processing apparatus, data processing method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022184557A Pending JP2023025072A (en) 2019-05-14 2022-11-18 Data processing apparatus, data processing method, and program

Country Status (2)

Country Link
US (3) US10996829B2 (en)
JP (2) JP7216610B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007111763A (en) 2005-10-21 2007-05-10 Keyence Corp Device, method and program for setting three-dimensional machining data, recording medium readable by computer, apparatus recorded with the program, and laser beam machining device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2892423B2 (en) * 1990-02-28 1999-05-17 株式会社日立製作所 Image display device and image display method
JPH07141530A (en) * 1993-11-18 1995-06-02 Hitachi Ltd Device and method for editing drawing
TWI493500B (en) * 2009-06-18 2015-07-21 Mstar Semiconductor Inc Image processing method and related apparatus for rendering two-dimensional image to show three-dimensional effect
US8819591B2 (en) * 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
EP2765075B1 (en) 2011-10-03 2020-07-22 Furuno Electric Co., Ltd. Display device, display program, and display method
US9196091B2 (en) * 2012-01-24 2015-11-24 Kabushiki Kaisha Toshiba Image processing method and system
US9367959B2 (en) * 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US10082584B2 (en) 2012-06-21 2018-09-25 Microsoft Technology Licensing, Llc Hybrid device location determination system
US9606584B1 (en) * 2014-07-01 2017-03-28 D.R. Systems, Inc. Systems and user interfaces for dynamic interaction with two- and three-dimensional medical image data using hand gestures
US20200042156A1 (en) * 2018-08-01 2020-02-06 Sap Se Interactive multi-value rotational object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007111763A (en) 2005-10-21 2007-05-10 Keyence Corp Device, method and program for setting three-dimensional machining data, recording medium readable by computer, apparatus recorded with the program, and laser beam machining device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
物体を丸ごとスキャンする驚愕のiPadアプリ,online,2017年01月18日,https://www.innovation.sugitec.net/32270/

Also Published As

Publication number Publication date
JP2023025072A (en) 2023-02-21
US20200363922A1 (en) 2020-11-19
US20210216180A1 (en) 2021-07-15
US11494059B2 (en) 2022-11-08
JP2020187545A (en) 2020-11-19
US10996829B2 (en) 2021-05-04
US11609687B2 (en) 2023-03-21
US20220404936A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
CN104080407B (en) The M-mode ultra sonic imaging of free routing
JP7093284B2 (en) Underwater detector and underwater detection method
US10456106B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method
CN101209210B (en) Ultrasonic imaging apparatus
WO2013051047A1 (en) Display device, display program, and display method
JP5401330B2 (en) Ultrasonic flaw detection apparatus and ultrasonic flaw detection method
JP7262298B2 (en) UNDERWATER DETECTION DEVICE AND UNDERWATER DETECTION METHOD
JP2010221011A (en) Ultrasonic imaging apparatus, image processor, image processing method and computer program product
JP5416935B2 (en) Radar device, similar device, and image display method
JP2011145069A (en) Method and device for reducing fake image, radar apparatus, and fake image reduction program
CN107544071B (en) Water detection system
JP2012247320A (en) Video display device and radar device
JP7048256B2 (en) Ship information display device and ship information display method
JP7216610B2 (en) DATA PROCESSING APPARATUS, DATA PROCESSING METHOD, AND PROGRAM
US11073984B2 (en) Device and method for displaying information
US10884124B2 (en) Method and ultrasound imaging system for adjusting a value of an ultrasound parameter
JP7021025B2 (en) Echo signal processing device, echo signal processing system, and echo signal processing method
JP2010131384A (en) Oh view providing method and ultrasonic system therefor
JP2020016635A (en) Underwater detection device and underwater detection method
JP2010286359A (en) Signal processor, radar device including the signal processor, and method of detecting pixel omission of the signal processor
JP6982138B2 (en) Underwater detector
JP4931429B2 (en) Mobile track display device
JP2018059857A (en) Underwater detection signal processing device, underwater detection device, and underwater detection signal processing method
JP2004358219A (en) Ultrasonic diagnostic equipment
JP2013141569A (en) Ultrasonic diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230120

R150 Certificate of patent or registration of utility model

Ref document number: 7216610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150