WO2011122394A1 - カーソルの表示方法およびカーソルの表示プログラム - Google Patents

カーソルの表示方法およびカーソルの表示プログラム Download PDF

Info

Publication number
WO2011122394A1
WO2011122394A1 PCT/JP2011/056746 JP2011056746W WO2011122394A1 WO 2011122394 A1 WO2011122394 A1 WO 2011122394A1 JP 2011056746 W JP2011056746 W JP 2011056746W WO 2011122394 A1 WO2011122394 A1 WO 2011122394A1
Authority
WO
WIPO (PCT)
Prior art keywords
cursor
display
dimensional
laser point
cloud data
Prior art date
Application number
PCT/JP2011/056746
Other languages
English (en)
French (fr)
Inventor
西村修
平尾公孝
Original Assignee
株式会社パスコ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社パスコ filed Critical 株式会社パスコ
Priority to EP11762626.7A priority Critical patent/EP2555167B1/en
Priority to US13/582,977 priority patent/US9092113B2/en
Publication of WO2011122394A1 publication Critical patent/WO2011122394A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels

Definitions

  • the present invention relates to a cursor display method.
  • Patent Document 1 When the laser point cloud data distributed on the three-dimensional coordinates is displayed in a pseudo three-dimensional manner in the two-dimensional image of the display, it becomes a problem to grasp and indicate the position of the two-dimensional image in the depth direction.
  • a captured image of a camera is superimposed and displayed on the laser point cloud data so that the position in the depth direction is sensed, and a two-dimensional image is displayed by an arrow-shaped cursor based on the captured image. It is described that a measurement image point is designated in the image, and laser point group data at nearby coordinates is detected as a corresponding point based on the coordinates of the measurement image point.
  • the captured image of the camera is indispensable for grasping the position of the two-dimensional image in the depth direction, so the captured image of the camera is matched to the three-dimensional display of the laser point cloud data in the two-dimensional image. If there is no such photographed image, the position in the depth direction cannot be grasped.
  • the present invention has been made to solve the above-described drawbacks, and an object of the present invention is to provide a cursor display method for displaying a cursor capable of grasping and instructing the position of a two-dimensional image in the depth direction. Another object of the present invention is to provide a cursor display program for displaying a cursor capable of grasping and instructing a position in the depth direction of a two-dimensional image.
  • the object is A cursor display method for displaying a cursor 2 for indicating a point of interest in a freely movable manner in a two-dimensional image in which laser point cloud data 1 distributed on three-dimensional coordinates is indicated by a predetermined viewpoint position, A corresponding position on the three-dimensional coordinate of the point of interest in the two-dimensional image is calculated, and a predetermined planar figure region 3 including this corresponding position and orthogonal to the viewpoint position direction is calculated based on the corresponding position.
  • the planar figure region 3 is defined on the three-dimensional coordinate based on the corresponding position on the three-dimensional coordinate of the cursor 2 displayed in the two-dimensional image, and either one before or after the viewpoint position direction of this region is defined.
  • the laser point cloud data 1 arranged in is hidden. Therefore, even in the laser point cloud data 1 which is configured as a point rather than a wide surface capable of expressing perspective, etc., and it is difficult to recognize a stereoscopic effect even when a plurality of the points are arranged according to three-dimensional coordinates,
  • the position of the cursor 2 in the depth direction of the two-dimensional image can be specified by the display / non-display boundary of the laser point cloud data 1.
  • the laser point cloud data 1 can be sequentially displayed anew or hidden according to the arrangement in the viewpoint position direction. By observing this change, it is possible to easily grasp the distribution of the laser point cloud data 1 in the depth direction of the two-dimensional image, that is, the shape indicated by the laser point cloud data 1.
  • the position corresponding to the cursor 2 on the above-described three-dimensional coordinate is processed opposite to this geometric processing in accordance with the conversion of the three-dimensional coordinate system into the two-dimensional coordinate system of the two-dimensional image shown on the display, so-called geometry processing. Specifically, it can be calculated using the viewpoint position, viewpoint direction, and viewing angle of the three-dimensional coordinate system shown in the two-dimensional image.
  • the shape and size of the planar figure region 3 can be determined in consideration of the ease of visually specifying the three-dimensional coordinates of the laser point cloud data 1 described above.
  • a rectangular shape in front view can be formed with the attention point indicated by the cursor 2 as the centroid, and the length of one side is about several times the arrangement interval of the laser point group data 1 Can be.
  • the non-display processing of the laser point cloud data 1 based on the planar figure region 3 can be performed by the same method as the hidden surface processing. For example, the distance from the viewpoint position for each pixel as in the Z buffer method. Referring to FIG. 5, only the laser point cloud data 1 that is closer or farther than the planar graphic region 3 is drawn, or the planar graphic region 3 is included in the depth direction in the two-dimensional image as in the Z sort method. Or drawing in order.
  • the laser point group is difficult to grasp sensibly because of the discrete arrangement.
  • the state of the gap between the data 1 can be recognized based on the captured image 4, and the overall shape indicated by the large number of laser point cloud data 1 can be grasped intuitively.
  • This also makes it possible to recognize the planar graphic region 3 as representing a cross-sectional shape.
  • one or both of the captured image 4 and the laser point cloud data 1 are half displayed. This can be done with a transparent display.
  • the cursor 2 it is desirable for the cursor 2 to display including the mark 5 that directly indicates the point of interest for accurate specification of the position.
  • the movement operation of the mark 5 on the three-dimensional coordinates is as follows:
  • a general-purpose input device for a two-dimensional coordinate system such as a mouse can be obtained by separately performing a movement operation in the direction of one or two specific coordinate axes on a three-dimensional coordinate and a movement operation in the direction of the remaining coordinate axes. It becomes possible to use.
  • the above-described mark 5 can be appropriately configured such as a dot shape or a cross mark.
  • the above-described planar figure region 3 is defined as a posture orthogonal to the viewpoint position direction, for example, a posture parallel to the coordinate plane of the two-dimensional coordinates, or a posture in which the surface normal from the centroid passes the viewpoint position.
  • This makes it easy to grasp the position in the depth direction of the two-dimensional image sensuously, but if this posture can be changed and manipulated, the distribution of the laser point cloud data 1 has a specific directionality. Sometimes, the position can be efficiently grasped and indicated.
  • the posture of the planar graphic area 3 can be changed and manipulated in this way, for example, when superimposed on the above-described captured image 4, it should be difficult to catch due to an obstacle from the viewpoint of the captured position in the captured image 4.
  • the distribution of the laser point cloud data 1 can be known.
  • the arrangement in the two-dimensional image can be easily grasped intuitively.
  • the frame line on the outer edge it is also possible to color the whole.
  • the laser point cloud data 1 distribution before and after the planar figure region 3 is displayed by translucent display. Can also grasp.
  • a fine laser is displayed when the planar graphic region 3 is enlarged and displayed in another window (enlarged display window 7). It becomes possible to grasp the point cloud data 1 well. If a window (planar display window 8) for displaying a captured image in plan view is provided, and the position of the planar figure region 3 on the plane coordinates is displayed as a cursor 9 separate from the cursor 2, the planar shape is displayed. The position of the graphic area 3 can be easily grasped.
  • a computer To cause a computer to function as a cursor display means for displaying a cursor 2 for indicating a point of interest in a two-dimensional image in which laser point cloud data 1 distributed on three-dimensional coordinates is indicated by a predetermined viewpoint position.
  • Cursor display program Corresponding position calculation means 10 for calculating a corresponding position on the three-dimensional coordinate of the point of interest in the two-dimensional image;
  • Graphic definition means 11 for defining a predetermined planar graphic region 3 including the corresponding position and orthogonal to the viewpoint position direction on a three-dimensional coordinate with reference to the corresponding position;
  • a non-display process that divides a visual field region passing through the planar graphic region 3 from the viewpoint position with reference to the planar graphic region 3 and performs non-display processing on the laser point cloud data 1 arranged in any of the divided regions Means 12, It can be realized by executing a cursor display program characterized by functioning as a computer and causing the computer to function as a cursor display device.
  • the present invention it is possible to satisfactorily use the cursor to grasp and indicate the position in the depth direction in the two-dimensional image of the laser point cloud data distributed on the three-dimensional coordinates. Therefore, it is possible to improve the working efficiency of laser surveying, for example.
  • the laser point cloud data display device A includes a laser point cloud data 1 obtained by laser measurement of a road from an automobile and a captured image 4 taken by a camera as in the conventional example described above for the purpose of creating a road ledger. Superimposed display.
  • This laser point cloud data display device A is composed of a computer in which software for superimposing and displaying the laser point cloud data 1 and the captured image 4 is installed, and is composed of three-dimensional coordinate measurement points specified by laser measurement.
  • the input unit 23 is provided.
  • the orientation data is configured as a shooting position, shooting direction, and focal length on the three-dimensional coordinates of the camera.
  • the data input from the input unit 23 is simulated on the display in accordance with the three-dimensional display processing means 25 of the calculation unit 24, that is, calculation processing by software for displaying the laser point cloud data 1 superimposed on the captured image 4 as described above.
  • the two-dimensional image can be displayed by outputting it from the output unit 26 to a display outside the figure.
  • the arithmetic processing by the three-dimensional display processing means 25 displays the photographed image 4 input from the photographed image input means 21 and also from the photographed image orientation data input means 22 as corresponding to the photographed image 4.
  • the laser point group data 1 on the three-dimensional coordinates is subjected to projection calculation processing, that is, converted into the viewpoint coordinate system, and this is superimposed on the above-described captured image 4 Displayed and configured.
  • the laser point cloud data 1 is displayed on the captured image 4 and the captured image 4 is hidden behind the laser point cloud data 1 and the display of the laser point cloud data 1 is made translucent. It is also possible to display the captured image 4 behind the screen in a translucent manner.
  • the laser point cloud data 1 in the viewpoint coordinate system described above is finally converted into a screen coordinate system in accordance with the display screen.
  • the above three-dimensional display processing means 25 sets a plurality of windows in the display image on the display, and then applies the laser described above to one of the windows (upper left portion in FIG. 3).
  • a photographed image of a road taken from an airplane flying in the sky in one of the other windows (upper right part in FIG. 3).
  • a flat display window 8 for displaying 4 ' is set, and a cross-sectional dimension display window 27 for displaying a cross-sectional dimension at the position of the cursor 2 described later is displayed on one of the other windows (lower right part in FIG.
  • the three-dimensional display processing unit 25 includes a window layout unit, a plane display processing unit, a cross-sectional dimension display processing unit, and a viewpoint position / direction switching display processing unit (not shown).
  • two types of viewpoint position / direction switching windows 28 are formed by switching the viewpoint position to the X-axis direction and the Y-axis direction of the three-dimensional coordinate system.
  • the photographed image input means 21 inputs a photographed image 4 ′ obtained by photographing the road from an airplane flying over the road, Similarly, orientation data such as the shooting position on the airplane is input from the photographed image orientation data input means 22, and these data are appropriately coded so that it can be seen that they are each processing target by the above-described plane display processing unit. Or the like, it is identified as a captured image 4 or the like superimposed on the laser point cloud data 1.
  • 34 is a road
  • 35 is a road marking indicating an intersection.
  • the laser point cloud data display device A is connected to an input device 29 composed of a mouse, a keyboard and the like, and the arithmetic unit 24 described above displays a two-dimensional image on the display according to the operation of the input device 29.
  • the cursor 2 movably, it has a corresponding position calculation means 10, a figure definition means 11, a cursor drawing means 30, and a non-display processing means 12.
  • the input device 29 detects the amount and direction of movement of the mouse, and outputs it to the laser point cloud data display device A as the amount of movement data of the cursor 2 on the two-dimensional image on the display.
  • Cursor operation means 31 is provided.
  • the corresponding position calculation means 10 specifies the two-dimensional coordinates of the point indicated by the cursor 2 on the two-dimensional image of the display in accordance with the movement amount data of the cursor 2 acquired from the cursor operation means 31, the two-dimensional coordinates That is, the viewpoint coordinates described above are acquired based on the screen coordinates.
  • the viewpoint coordinates can be obtained by calculation from the screen coordinates by performing a conversion opposite to the above-described conversion from the viewpoint coordinate system to the screen coordinate system.
  • the graphic definition means 11 defines a predetermined planar graphic area 3 set in advance on the viewpoint coordinate system in accordance with the viewpoint coordinates acquired by the corresponding position calculation means 10, and in this embodiment, the viewpoint coordinates
  • a predetermined planar figure region 3 is defined with centroid as the centroid.
  • the planar figure region 3 is rectangular and its thickness is extremely thin. For example, one side is set as a square or a rectangle having an interval of 5 to 10 times the arrangement interval of the laser point cloud data 1 as shown in FIG.
  • the cursor drawing means 30 draws a mark 5 directly indicating the designated point on the screen coordinates of the designated point of the cursor 2 described above, and draws an indication line 32 extending in the elevation direction through this mark 5.
  • the background plate 33 is drawn in the above-described planar graphic region 3 attached to the mark 5.
  • a pattern such as a cylindrical perspective view is set in advance as the mark 5 described above, and the background plate 33 is made opaque so that the photographed image 4 is displayed. For example, it is colored purple so that it can be easily distinguished even if it is overlapped.
  • the cursor drawing means 30 can not draw the cursor 2 in addition to drawing the cursor 2 according to the display / non-display mode selection of the cursor 2 input via the input device 29 described above.
  • the non-display processing unit 12 performs non-display processing on the laser point cloud data 1 that is hidden from the viewpoint position behind the mark 5 and the background plate 33 drawn by the cursor drawing unit 30. Then, so-called hidden surface processing is performed on the laser point cloud data 1 based on the viewpoint position. Specifically, for example, following the Z sort method, after obtaining the distance between the viewpoint position and all the laser point group data 1 and the background plate 33 (planar graphic area 3), drawing is performed in order of increasing distance from the viewpoint. As a result, the laser point cloud data 1 hidden behind the background plate 33 is hidden.
  • step S1 the display processing of the laser point cloud data 1 and the captured image 4 is performed by the three-dimensional display processing means 25
  • the corresponding position calculation means 10 obtains the viewpoint coordinates of the cursor 2 from the screen coordinates of the cursor 2 (step S2), and the figure definition means 11 defines the planar figure area 3 based on the viewpoint coordinates (step S2). S3).
  • step S4 the display of the cursor 2 in the cursor drawing means 30 and the selection of the non-display mode are confirmed (step S4).
  • the display operation is completed.
  • the cursor 2 that is, the mark 5 indicating the indication point and the background plate 33 are drawn by the cursor drawing unit 30, and the mark 5 and the background plate 33 are drawn by the non-display processing unit 12.
  • the laser point cloud data 1 hidden behind is hidden (step S5).
  • the laser point cloud data display apparatus A moves the cursor 2 to a point of interest on the two-dimensional image as shown in FIG. 3, the laser point cloud data for the position in the depth direction in the two-dimensional image is displayed. 1 and the background plate 33 can be grasped by the display boundary. Further, as shown in FIG. 4A, the position of the background plate 33 can be sensed from the distribution pattern of the laser point cloud data 1 even when the captured image 4 is not superimposed and displayed.
  • Step S2 and the subsequent steps are repeated every time the cursor 2 is moved. Therefore, the operator of the laser point cloud data display device A operates the mouse to check the distribution state of the laser point cloud data 1 in the display depth direction. Can be confirmed.
  • the superimposed display of the laser point group data 1 and the captured image 4 is performed in a separate window as shown in FIG.
  • the above-described plane display processing means displays the captured image 4 ′ of the road from the plane
  • the section direction dimension display processing means displays the section direction dimension display in the planar graphic region 3
  • the viewpoint position direction switching display processing means displays the cursor 2
  • the viewpoint switching display in which the viewpoint position is switched around the designated point is performed.
  • the plane display processing means selects a photographed image 4 ′ from an airplane on the basis of the photographing position of the photographed image 4 superimposed on the laser point cloud data 1, and the above-described image is displayed on the photographed image 4 ′.
  • a separate cursor 9 is displayed with the plane coordinates corresponding to the plane coordinates of the cursor 2 and the plane graphic area 3 is displayed in a line with the plane coordinates corresponding to the plane coordinates of the plane figure area 3 described above.
  • the cross-sectional dimension display processing means displays the coordinates of the elevation values and the like with the orthogonal coordinate axes of the planar graphic region 3 as vertical and horizontal axes, and within the predetermined range in the front-rear direction of the planar graphic region 3 or in one direction thereof.
  • the distributed laser point cloud data 1 is projected on the cross-sectional dimension display window 27 to display altitude data.
  • the viewpoint position direction switching display processing means switches the viewpoint position in the vicinity of the indication point of the cursor 2 when the viewpoint position is switched in the X-axis direction in the superimposed display, and similarly the viewpoint position is switched in the Y-axis direction.
  • the laser point cloud data 1 at this time is displayed, and these are enlarged and displayed.
  • the movement of the cursor 2 in the pseudo three-dimensional display window 6 that superimposes the laser point cloud data 1 and the photographed image 4 is operated only in the altitude direction by inputting either the cursor movement key of a keyboard (not shown) or the up and down direction by the mouse wheel.
  • the movement operation on the plane coordinates is realized by operating another cursor 9 displayed in the above-described plane display window 8 with the mouse to follow the plane coordinates of the cursor 9.
  • the movement coordinate axis direction is set for each of the mouse and the cursor movement key, and the position of the cursor 2 on the three-dimensional coordinates based on the cursor movement amount data output from these is calculated.
  • the above can be realized by reflecting the display in the respective windows 6 and 8.
  • FIG. 4B shows a modification of the present invention. Note that in this modified example and in the embodiments described later, the same components as those in the above-described embodiments are denoted by the same reference numerals in the drawings, and description thereof is omitted.
  • the cursor drawing means 30 sets the background plate 33 to be semi-transparent, and visualizes the laser point cloud data 1 hidden behind the background plate 33 by semi-transparent display. Therefore, in this modification, the laser point cloud data 1 distribution behind the background plate 33 can also be grasped, and the position of the background plate 33 can be grasped more accurately.
  • FIG. 5 and 6 show another embodiment of the present invention.
  • This embodiment shows a plotting processing apparatus B, and is constructed by adding a drafting means 35 to the calculation unit 24 with respect to the laser point group data display apparatus A described above.
  • the plotting processing device B is configured by incorporating the laser point cloud data display device A described above into a CAD device, for example.
  • FIG. 6 36 is a drawing window, and 37 is a tool palette of the CAD device.
  • a predetermined drawing command can be executed in response to a click operation on an icon or the like.
  • the background plate 33 can be rotated around an arbitrary orthogonal coordinate axis on the plane.
  • the graphic definition means 11 defines the planar graphic area 3 with a predetermined rotational attitude in accordance with the input operation of the rotational attitude of the background board 33 from the input device 29, and the cursor drawing means 30 responds to this rotational attitude with the background drawing 33.
  • the non-display processing means 12 performs the non-display processing of the laser point cloud data 1 according to the viewpoint coordinates.
  • the background plate 33 can be placed in a posture facing the different viewpoint positions with respect to the viewpoint position where the laser point cloud data 1 and the captured image 4 are displayed in a superimposed manner, and hidden behind that position.
  • Laser point cloud data 1 can be identified.
  • the side edge of the road extending in the direction intersecting the viewpoint direction can be easily grasped.
  • an enlarged display window 7 for enlarging and displaying the vicinity of the point indicated by the cursor 2 is set by the 3D display processing means 25 on the display screen of the display.
  • the laser point cloud data 1 acquired using an automobile is a display target.
  • various laser point cloud data 1 such as data acquired using an aircraft or the like can be targeted.
  • the rotation operation function of the background plate 33 and the setting of the enlarged display window 7 for enlarging and displaying the vicinity of the indication point of the cursor 2 may be added to the laser point group data display device A instead of the plotting processing device B Well, this makes it easier to see the laser point cloud data 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

【課題】二次元画像の奥行き方向における位置の把握や指示をすることができるカーソルを表示するカーソルの表示方法、およびカーソルの表示プログラムの提供を目的とする。 【解決手段】三次元座標上に分布するレーザ点群データ1を所定の視点位置により示した二次元画像内において移動操作自在に注目点を指示するカーソル2を表示するカーソルの表示方法であって、 前記二次元画像内の注目点の三次元座標上における対応位置を演算し、この対応位置を含み、視点位置方向に対して直交する所定の平面状図形領域3を前記対応位置を基準にして三次元座標上に定義し、 前記視点位置から平面状図形領域3内を通過する視野領域を平面状図形領域3を基準に分割し、いずれかの分割領域内に配置されたレーザ点群データ1を非表示処理してカーソルの表示方法を構成する。

Description

カーソルの表示方法およびカーソルの表示プログラム
 本発明はカーソルの表示方法に関するものである。
 三次元座標上に分布するレーザ点群データをディスプレイの二次元画像内に擬似的に三次元表示させた場合、二次元画像の奥行き方向における位置の把握や指示が問題となる。この点、特許文献1には、レーザ点群データにカメラの撮影画像を重ね合わせて表示して奥行き方向の位置を感覚的に把握させ、この撮影画像に基づいて矢印形状のカーソルによって二次元画像内で計測画像点を指定し、この計測画像点の座標に基づいて、近傍の座標のレーザ点群データを対応点として検出することが記載されている。
特許第4344869号公報
 しかしながら上述した従来例は、融通性が低いという欠点がある。
 すなわち、従来例は、二次元画像の奥行き方向における位置の把握等にカメラの撮影画像を必須とすることから、二次元画像内でのレーザ点群データの三次元表示に合わせてカメラの撮影画像を取得しなければならない上に、このような撮影画像がない場合には奥行き方向の位置の把握等をすることができなくなってしまう。
 本発明は以上の欠点を解消すべくなされたものであって二次元画像の奥行き方向における位置の把握や指示をすることができるカーソルを表示するカーソルの表示方法の提供を目的とする。また、本願発明の他の目的は、二次元画像の奥行き方向の位置の把握や指示をすることができるカーソルを表示するカーソルの表示プログラムの提供にある。
 本発明によれば上記目的は、
 三次元座標上に分布するレーザ点群データ1を所定の視点位置により示した二次元画像内において移動操作自在に注目点を指示するカーソル2を表示するカーソルの表示方法であって、
 前記二次元画像内の注目点の三次元座標上における対応位置を演算し、この対応位置を含み、視点位置方向に対して直交する所定の平面状図形領域3を前記対応位置を基準にして三次元座標上に定義し、
 前記視点位置から平面状図形領域3内を通過する視野領域を平面状図形領域3を基準に分割し、いずれかの分割領域内に配置されたレーザ点群データ1を非表示処理するカーソルの表示方法を提供することにより達成される。
 本発明によれば、二次元画像内に表示されるカーソル2の三次元座標上における対応位置に基づいて三次元座標上に平面状図形領域3が定義され、この領域の視点位置方向前後いずれかに配置されるレーザ点群データ1が非表示にされる。したがって、遠近法等を表現可能な広さのある面ではなく点として構成され、その複数を三次元座標に従って配置したときにも立体感を認識させることが困難なレーザ点群データ1においても、二次元画像の奥行き方向におけるカーソル2の位置をレーザ点群データ1の表示・非表示の境界により特定することができる。また、カーソル2を視点位置方向に沿って移動操作したときには、レーザ点群データ1を視点位置方向における配置に従って順次新たに表示させたり、あるいは非表示にさせたりすることができ、このような表示の変化を観察することによって、二次元画像の奥行き方向におけるレーザ点群データ1の分布、すなわちレーザ点群データ1が示す形状を容易に把握することも可能となる。
 上述した三次元座標上のカーソル2に対応する位置は、ディスプレイに示す二次元画像の二次元座標系への三次元座標系の変換、いわゆるジオメトリ処理に応じ、このジオメトリ処理と反対の処理をすることにより得ることができ、具体的には、二次元画像内に示される三次元座標系の視点位置や視点方向、視野角を利用して演算することができる。
 また、平面状図形領域3は、上述したレーザ点群データ1の三次元座標の視覚的な特定のしやすさを考慮してその形状や大きさを決定することが可能で、例えば、後述する実施の形態に示すように、カーソル2が指示する注目点を図心とする正面視矩形形状にすることができ、その一辺の長さについてレーザ点群データ1の配置間隔の数倍程度のものにすることができる。
 平面状図形領域3を基準にしたレーザ点群データ1の非表示処理は、隠面処理と同様の手法により行うことが可能で、例えばZバッファ法のように各画素についての視点位置からの距離を参照して平面状図形領域3よりも近い、または遠いレーザ点群データ1だけを描画するようにしたり、あるいはZソート法のように二次元画像内の奥行き方向に平面状図形領域3を含めて順番に描画したりして行うことが可能である。
 また、以上のレーザ点群データ1の表示に対し、上述した従来例におけるように撮影画像4を重畳表示すれば、離散的に配置されるために全体形状が感覚的に把握しづらいレーザ点群データ1間の隙間の状態を撮影画像4に基づいて認識させることができ、多数のレーザ点群データ1により示される全体形状を直感的に把握することができる。また、これにより平面状図形領域3は、断面形状を表すものとして認識することも可能になる。レーザ点群データ1と撮影画像4の重畳表示は、撮影画像4をいわゆる壁紙のようにレーザ点群データ1の背後に表示するほか、撮影画像4やレーザ点群データ1の一方あるいは双方を半透過表示して行うことができる。
 さらに、カーソル2は、注目点を直接的に指示する印5を含めて表示することが位置の正確な特定のためにも望ましく、この場合、印5の三次元座標上での移動操作は、三次元座標上の特定の一または二の座標軸方向の移動操作と、残余の座標軸方向への移動操作とを別個に行えるようにすることにより、マウスなどの二次元座標系に対する汎用の入力装置を利用することが可能になる。この場合、一方の移動操作により指定された座標を保持して他方の移動操作に従って印5を移動させることにより、特定の座標軸上でのレーザ点群データ1の分布を効率的に把握することができる。なお、上述した印5は、点状やクロスマークなど適宜に構成することが可能である。
 加えて、上述した平面状図形領域3は、視点位置方向に対して直交する姿勢、例えば、二次元座標の座標面に並行な姿勢、あるいは図心からの面法線が視点位置を通る姿勢に定義することにより、二次元画像の奥行き方向の位置を感覚的に把握しやすくされるが、この姿勢を変更操作自在にすれば、レーザ点群データ1の分布などが特定の方向性を持っているときに、その位置を効率的に把握、指示することができる。また、このように平面状図形領域3の姿勢を変更操作自在にすれば、例えば上述した撮影画像4に重ねたときに、撮影画像4での撮影位置からの視点では障害物などにより捉えにくいはずのレーザ点群データ1の分布を知ることができる。
 また、平面状図形領域3の少なくとも外縁部を識別可能に表示すれば、二次元画像内における配置を直感的に把握しやすくすることができる。具体的には、外縁部に枠線を配置して構成するほか、その全体を着色することによっても可能である。また、平面状図形領域3を半透明にすることで上述した非表示処理に代えることも可能で、この場合には半透過表示によって平面状図形領域3の前後でのレーザ点群データ1分布をも把握することができる。
 さらに、以上のレーザ点群データ1をディスプレイ上で表示する疑似三次元表示ウィンドウ6に加えて、平面状図形領域3内を別のウィンドウ(拡大表示ウィンドウ7)で拡大表示したときには、微細なレーザ点群データ1を良好に把握することが可能になる。また、平面視の撮影画像を表示するウィンドウ(平面表示ウィンドウ8)を設け、平面状図形領域3の平面座標上における位置を以上のカーソル2とは別個のカーソル9として表示させれば、平面状図形領域3の位置を把握しやすくすることができる。
 以上のカーソルの表示方法は、
 コンピュータを、三次元座標上に分布するレーザ点群データ1を所定の視点位置により示した二次元画像内において移動操作自在に注目点を指示するカーソル2を表示するカーソルの表示手段として機能させるためのカーソルの表示プログラムであって、
 前記二次元画像内の注目点の三次元座標上における対応位置を演算する対応位置演算手段10、
 前記対応位置を含み、視点位置方向に対して直交する所定の平面状図形領域3を前記対応位置を基準にして三次元座標上に定義する図形定義手段11、
 前記視点位置から平面状図形領域3内を通過する視野領域を平面状図形領域3を基準に分割し、いずれかの分割領域内に配置されたレーザ点群データ1を非表示処理する非表示処理手段12、
 として機能させることを特徴とするカーソルの表示プログラムをコンピュータ上で実行し、コンピュータをカーソル表示装置として機能させることにより実現することができる。
 以上の説明から明らかなように、本発明によれば、三次元座標上に分布するレーザ点群データの二次元画像内における奥行き方向の位置の把握や指示をカーソルを用いて良好に実現することができるために、例えばレーザ測量の作業効率を向上させることも可能になる。
本発明に係るカーソル表示を行うレーザ点群データ表示装置のハードウェア構成図である。 本発明に係るカーソル表示のフローチャートを示す図である。 ディスプレイにおける表示画像を示す図である。 カーソルの表示状態を説明する要部拡大図である。 変形例および他の実施の形態を示す図である。 変形例および他の実施の形態でのディスプレイにおける表示画像を示す図である。
 図1ないし図4にレーザ点群データ1をカメラにより撮影した撮影画像4と重ね合わせて表示するレーザ点群データ表示装置Aに対して、本発明を適用した実施の形態を示す。この実施の形態においてレーザ点群データ表示装置Aは、道路台帳の作成を目的として、上述した従来例のように自動車から道路をレーザ計測したレーザ点群データ1とカメラ撮影した撮影画像4とを重畳表示する。
 このレーザ点群データ表示装置Aは、レーザ点群データ1を撮影画像4と重畳表示するソフトウェアをインストールしたコンピュータにより構成されるもので、レーザ計測で特定された三次元座標計測点により構成されるレーザ点群データ1を入力するレーザ点群データ入力手段20と、カメラによる撮影画像4を入力する撮影画像入力手段21と、この撮影画像4の標定データを入力する撮影画像標定データ入力手段22とを有する入力部23を備える。上記標定データは具体的には、カメラの三次元座標上の撮影位置や撮影方向、焦点距離として構成される。
 以上の入力部23から入力されたデータは、演算部24の三次元表示処理手段25、すなわち上述したようにレーザ点群データ1を撮影画像4と重畳表示するソフトウェアによる演算処理に従ってディスプレイ上に疑似的に三次元表示される二次元画像を出力可能で、この実施の形態においては二次元画像を出力部26から図外のディスプレイに出力させることにより表示することができるようにされる。三次元表示処理手段25による演算処理は、具体的には、撮影画像入力手段21から入力された撮影画像4を表示するとともに、この撮影画像4に対応するものとして撮影画像標定データ入力手段22から入力された標定データに対応する視点位置、視点方向、視野角に従って三次元座標上のレーザ点群データ1を投影演算処理、すなわち視点座標系に変換処理し、これを上述した撮影画像4に重畳表示させて構成される。この重畳表示は、例えば撮影画像4上にレーザ点群データ1を表示させ、レーザ点群データ1の背後に撮影画像4を隠れるように配置するほか、レーザ点群データ1の表示を半透明にして背後の撮影画像4を半透過表示させることも可能である。なお、上述した視点座標系のレーザ点群データ1は、ディスプレイの画面に合わせて最終的にはスクリーン座標系に変換される。
 また、以上の三次元表示処理手段25は、図3に示すように、ディスプレイの表示画像内に複数のウィンドウを設定した上で、そのウィンドウの一つ(図3において左上部分)に上述したレーザ点群データ1と撮影画像4を重畳表示する疑似三次元表示ウィンドウ6を設定する以外に、他のウィンドウの一つ(図3において右上部分)に上空を飛行する飛行機から道路を撮影した撮影画像4’を表示する平面表示ウィンドウ8を設定したり、また他のウィンドウの一つ(図3において右下部分)に後述するカーソル2位置での断面方向寸法を表示する断面方向寸法表示ウィンドウ27を設定したり、さらに他のウィンドウ(図3において左下部分)にカーソル2位置を基準にして視点位置方向を三次元座標軸方向に切り替えて表示する視点位置方向切替ウィンドウ28を設定するなどの付加機能を備える。これらの付加機能に応じて、三次元表示処理手段25は、図示しないウィンドウレイアウト手段や平面表示処理手段、断面方向寸法表示処理手段、視点位置方向切替表示処理手段を備えて構成される。
 なお、図3において視点位置方向切替ウィンドウ28は、視点位置を三次元座標系のX軸方向、およびY軸方向に切り替えた2種が形成される。また、上述した平面表示ウィンドウ8での撮影画像4’の表示のために、上述した撮影画像入力手段21からは、道路上空を飛行する飛行機から道路をカメラ撮影した撮影画像4’が入力され、同様に撮影画像標定データ入力手段22からは、この飛行機での撮影位置などの標定データが入力され、これらのデータはそれぞれ上述した平面表示処理部による処理対象であることが分かるように適宜のコードを付されることなどによりレーザ点群データ1と重畳表示される撮影画像4等と識別される。加えて、図3において34は道路、35は交差点を示す道路標示である。
 さらに、レーザ点群データ表示装置Aには、マウスやキーボードなどで構成される入力装置29が接続されるとともに、上述した演算部24は、上記入力装置29の操作に従ってディスプレイの二次元画像上にカーソル2を移動自在に表示させるために、対応位置演算手段10、図形定義手段11、カーソル描画手段30、非表示処理手段12を有する。上記入力装置29は、例えばマウスが移動操作されたときにその移動量や移動方向を検出し、ディスプレイの二次元画像上におけるカーソル2の移動量データ等としてレーザ点群データ表示装置Aに出力するカーソル操作手段31を有する。
 また、対応位置演算手段10は、カーソル操作手段31から取得したカーソル2の移動量データ等に従ってディスプレイの二次元画像上におけるカーソル2による指示点の二次元座標が特定されると、この二次元座標、すなわちスクリーン座標に基づいて上述した視点座標を取得する。この視点座標は、上述した視点座標系からスクリーン座標系への変換とは逆の変換をすることにより、スクリーン座標から演算により取得することができる。
 図形定義手段11は、対応位置演算手段10により取得された視点座標に従い、予め設定された所定の平面状図形領域3を視点座標系上に定義するもので、この実施の形態においては、視点座標を図心とする所定の平面状図形領域3が定義される。この平面状図形領域3は、矩形で、その厚さは極めて薄く、図4に示すように例えば一辺がレーザ点群データ1の配置間隔の5ないし10倍程度の正方形あるいは長方形として設定される。
 カーソル描画手段30は、上述したカーソル2の指示点のスクリーン座標に指示点を直接的に示す印5を描画し、かつ、この印5を通って標高方向に延びる指示線32を描画するとともに、印5に付帯して背景板33を上述した平面状図形領域3に描画する。この実施の形態においては図4(a)に示すように、上述した印5としては円柱の斜視図のような図柄が予め設定され、また、背景板33は不透過にされ、撮影画像4に重ねても見分けやすいように、例えば紫色などに着色される。また、このカーソル描画手段30は、上述した入力装置29を介して入力されるカーソル2の表示、非表示のモード選択に従い、カーソル2を描画する以外に、描画しないことも可能にされる。
 非表示処理手段12は、この実施の形態においてはカーソル描画手段30により描画された印5や背景板33の陰になって視点位置からは見えないレーザ点群データ1を非表示処理するもので、レーザ点群データ1にその視点位置に基づいていわゆる隠面処理を行う。具体的には、例えばZソート法にならい、視点位置と全てのレーザ点群データ1および背景板33(平面状図形領域3)との距離を求めた後、視点からの距離が遠い順に描画することにより、背景板33の背後に隠れるレーザ点群データ1を非表示にする。
 以上のレーザ点群データ表示装置Aによる表示動作を図2を用いて以下に説明する。先ず、入力部23からレーザ点群データ1、撮影画像4、撮影画像4の標定データが入力されると、三次元表示処理手段25によりレーザ点群データ1と撮影画像4の表示処理がなされ(ステップS1)、これによりディスプレイにレーザ点群データ1と撮影画像4とが重畳表示される。次に、対応位置演算手段10によりカーソル2のスクリーン座標からカーソル2の視点座標が求められ(ステップS2)、この視点座標に基づいて図形定義手段11により平面状図形領域3が定義される(ステップS3)。この後、カーソル描画手段30におけるカーソル2の表示、非表示モードの選択を確認し(ステップS4)、非表示モードが選択されているときには、これで表示動作が完了する。一方、表示モードが選択されている場合には、カーソル描画手段30によりカーソル2、すなわち指示点を示す印5と背景板33が描画されるとともに、非表示処理手段12により印5や背景板33の背後に隠れるレーザ点群データ1が非表示処理される(ステップS5)。
 したがってレーザ点群データ表示装置Aの操作者は、図3に示すように、二次元画像上の注目点にカーソル2を合わせると、二次元画像内の奥行き方向におけるその位置について、レーザ点群データ1と背景板33との表示の境界により把握することができる。また、図4(a)に示すように、撮影画像4を重畳表示しない場合においても、背景板33の位置をレーザ点群データ1の分布パターンから感覚的に把握することができる。
 また、上述したステップS2以降は、カーソル2の移動毎に繰り返され、したがってレーザ点群データ表示装置Aの操作者は、マウスを操作してレーザ点群データ1のディスプレイ奥行き方向への分布状況を確認することができる。
 さらに、上述したレーザ点群データ1と撮影画像4の表示処理(ステップS1)においては、図3に示すように、以上のレーザ点群データ1と撮影画像4の重畳表示とは別ウィンドウにて、上述した平面表示処理手段により飛行機からの道路の撮影画像4’表示が、断面方向寸法表示処理手段により平面状図形領域3での断面方向寸法表示が、視点位置方向切替表示処理手段によりカーソル2の指示点を中心にして視点位置を切り替えた視点切り替え表示が行われる。なお、平面表示処理手段は、レーザ点群データ1と重畳表示される撮影画像4の撮影位置などを基準にして飛行機からの撮影画像4’を選定し、また、この撮影画像4’上に上述したカーソル2の平面座標に対応する平面座標で別個のカーソル9を表示するとともに、上述した平面状図形領域3の平面座標に対応する平面座標で平面状図形領域3を線状に表示する。また、断面方向寸法表示処理手段は、平面状図形領域3の直交座標軸を縦横軸にして標高値等の目盛りとともに表示するとともに、平面状図形領域3の前後方向あるいはその一方向における所定範囲内に分布するレーザ点群データ1を断面方向寸法表示ウィンドウ27に投影し、標高データを表示する。加えて、視点位置方向切替表示処理手段は、重畳表示におけるX軸方向に視点位置を切り替えたときのカーソル2の指示点近傍のレーザ点群データ1や、同様にY軸方向に視点位置を切り替えたときのレーザ点群データ1を表示するもので、またこれらを拡大して表示する。
 レーザ点群データ1と撮影画像4を重畳表示する疑似三次元表示ウィンドウ6内におけるカーソル2の移動は、図示しないキーボードのカーソル移動キーやマウスホイールによる上下方向いずれかの入力により標高方向についてのみ操作可能にされ、平面座標上での移動操作については、上述した平面表示ウィンドウ8内に表示される別のカーソル9をマウスで操作することにより、このカーソル9の平面座標に追随することで実現される。このようなカーソル2の移動は、例えば、マウスとカーソル移動キーにそれぞれ移動座標軸方向を設定しておき、これらから出力されるカーソル移動量データに基づくカーソル2の三次元座標上の位置を演算した上で、それぞれのウィンドウ6、8内でその表示に反映させることにより実現することができる。
 なお、以上の実施の形態においてはカーソル2の表示、非表示モードの確認を平面状図形領域3の定義後に行う場合を示したが、視点座標を求める前に行うことも可能で、この場合には本来不要な視点座標の演算などを省くことができる。
 図4(b)に本発明の変形例を示す。なお、この変形例、および後述する実施の形態において、上述した実施の形態と同一の構成要素は図中に同一の符号を付して説明を省略する。この変形例において、カーソル描画手段30は、背景板33を半透明に設定し、背景板33の背後に隠れるレーザ点群データ1を半透過表示により可視化する。したがってこの変形例においては、背景板33の背後におけるレーザ点群データ1分布をも把握することができ、背景板33の位置をより正確に把握することが可能となる。
 図5および図6に本発明の他の実施の形態を示す。この実施の形態は図化処理装置Bを示すもので、上述したレーザ点群データ表示装置Aに対して演算部24に製図手段35を加えて構成される。この図化処理装置Bは、例えばCAD装置に上述したレーザ点群データ表示装置Aを組み込むことにより構成される。
 したがって操作者はレーザ点群データ1の配置に応じて道路などを描画することができる。なお、図6において36は作図ウィンドウ、37はCAD装置のツールパレットであり、所定の描画コマンドをアイコン等へのクリック操作に応じて実行することができる。
 また、この実施の形態において、背景板33は、その平面上の任意の直交座標軸回りに回転操作可能にされる。図形定義手段11は入力装置29からの背景板33の回転姿勢の入力操作に応じて平面状図形領域3を所定の回転姿勢で定義し、この回転姿勢に応じてカーソル描画手段30が背景板33を視点座標上に描画し、その視点座標に応じて非表示処理手段12がレーザ点群データ1を非表示処理する。
 したがって図6に示すように、レーザ点群データ1と撮影画像4を重畳表示する視点位置に対し、背景板33を異なる視点位置に正対する姿勢に配置することができ、その姿勢において背後に隠れるレーザ点群データ1を識別することができる。これにより例えば図6に示すように、視点方向に対して交差する方向に延びる道路の側縁を容易に把握することができる。
 さらに、この実施の形態においては、ディスプレイの表示画面にはカーソル2の指示点周辺を拡大表示する拡大表示ウィンドウ7が三次元表示処理手段25により設定される。これにより操作者は撮影画像4に重畳表示される微細なレーザ点群データ1の分布を明確に把握することができる。上述したように背景板33を回転させた場合においても、拡大表示を視点位置に直交する向きに設定すれば、撮影画像4との重合表示を見やすくすることができる。
 なお、以上においては自動車を利用して取得したレーザ点群データ1を表示対象としたが、航空機等を利用して取得したものなど様々なレーザ点群データ1を対象にすることが可能である。また、背景板33の回転操作機能や、カーソル2の指示点周辺を拡大表示する拡大表示ウィンドウ7の設定は、図化処理装置Bではなくレーザ点群データ表示装置Aに対しても加えてもよく、これによりレーザ点群データ1をより見やすくすることができる。
  1  レーザ点群データ
  2  カーソル
  3  平面状図形領域
  4  撮影画像
  5  印
  6  疑似三次元表示ウィンドウ
  7  拡大表示ウィンドウ
  8  平面表示ウィンドウ
  9  他のカーソル
 10  対応位置演算手段
 11  図形定義手段
 12  非表示処理手段

Claims (8)

  1.  三次元座標上に分布するレーザ点群データを所定の視点位置により示した二次元画像内において移動操作自在に注目点を指示するカーソルを表示するカーソルの表示方法であって、
     前記二次元画像内の注目点の三次元座標上における対応位置を演算し、この対応位置を含み、視点位置方向に対して直交する平面状図形領域を前記対応位置を基準にして三次元座標上に定義し、
     前記視点位置から平面状図形領域内を通過する視野領域を平面状図形領域を基準に分割し、いずれかの分割領域内に配置されたレーザ点群データを非表示処理するカーソルの表示方法。
  2.  前記二次元画像上には、レーザ点群データが示す対象を前記視点位置を撮影位置にして撮影した撮影画像が、レーザ点群データに重畳して表示される請求項1記載のカーソルの表示方法。
  3.  前記二次元画像内には、三次元座標上の特定の一または二の座標軸方向の座標を保持して残余の座標軸方向に移動操作自在に注目点を指示する印が表示される請求項1記載のカーソルの表示方法。
  4.  前記平面状図形領域を三次元座標の座標軸周りに回転操作自在にした請求項1記載のカーソルの表示方法。
  5.  前記平面状図形領域を半透明に設定し、視点位置から見て平面状図形領域の背後に隠れる分割領域内に配置されたレーザ点群データを非表示処理に代えて半透過表示した請求項1記載のカーソルの表示方法。
  6.  前記二次元画像内には、三次元座標上に分布するレーザ点群データを所定の視点位置により表示する疑似三次元表示ウィンドウに加え、
     前記平面状図形領域内を拡大表示する拡大表示ウィンドウが設定される請求項1記載のカーソルの表示方法。
  7.  前記二次元画像内には、平面視の撮影画像を表示する平面表示ウィンドウが設定され、
     該平面表示ウィンドウ内に平面座標に基づいて平面状図形領域の位置を示す他のカーソルが表示される請求項6記載のカーソルの表示方法。
  8.  コンピュータを、三次元座標上に分布するレーザ点群データを所定の視点位置により示した二次元画像内において移動操作自在に注目点を指示するカーソルを表示するカーソルの表示手段として機能させるためのカーソルの表示プログラムであって、
     前記二次元画像内の注目点の三次元座標上における対応位置を演算する対応位置演算手段、
     前記対応位置を含み、視点位置方向に対して直交する所定の平面状図形領域を前記対応位置を基準にして三次元座標上に定義する図形定義手段、
     前記視点位置から平面状図形領域内を通過する視野領域を平面状図形領域を基準に分割し、いずれかの分割領域内に配置されたレーザ点群データを非表示処理する非表示処理手段、
     として機能させることを特徴とするカーソルの表示プログラム。
PCT/JP2011/056746 2010-03-31 2011-03-22 カーソルの表示方法およびカーソルの表示プログラム WO2011122394A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP11762626.7A EP2555167B1 (en) 2010-03-31 2011-03-22 Display method of cursor and display program of the cursor
US13/582,977 US9092113B2 (en) 2010-03-31 2011-03-22 Cursor display method and cursor display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-084360 2010-03-31
JP2010084360A JP4796194B1 (ja) 2010-03-31 2010-03-31 カーソルの表示方法およびカーソルの表示プログラム

Publications (1)

Publication Number Publication Date
WO2011122394A1 true WO2011122394A1 (ja) 2011-10-06

Family

ID=44712104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/056746 WO2011122394A1 (ja) 2010-03-31 2011-03-22 カーソルの表示方法およびカーソルの表示プログラム

Country Status (4)

Country Link
US (1) US9092113B2 (ja)
EP (1) EP2555167B1 (ja)
JP (1) JP4796194B1 (ja)
WO (1) WO2011122394A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976614A (zh) * 2019-03-28 2019-07-05 广州视源电子科技股份有限公司 一种立体图形的标注方法、装置、设备及介质
WO2021095624A1 (ja) * 2019-11-13 2021-05-20 株式会社カシカ プログラム及び情報処理装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10162471B1 (en) * 2012-09-28 2018-12-25 Bentley Systems, Incorporated Technique to dynamically enhance the visualization of 3-D point clouds
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
DE102014013677B4 (de) * 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9671221B2 (en) 2014-09-10 2017-06-06 Faro Technologies, Inc. Portable device for optically measuring three-dimensional coordinates
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
WO2016063258A1 (en) * 2014-10-24 2016-04-28 Realitygate (Pty) Ltd Target-directed movement in a user interface
JP6615545B2 (ja) * 2015-09-15 2019-12-04 株式会社トプコン 画像処理装置、画像処理方法および画像処理用プログラム
US10121249B2 (en) * 2016-04-01 2018-11-06 Baja Education, Inc. Enhanced visualization of areas of interest in image data
JP2019100995A (ja) * 2017-12-08 2019-06-24 株式会社トプコン 測量画像表示制御装置、測量画像表示制御方法および測量画像表示制御用プログラム
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
US10353073B1 (en) 2019-01-11 2019-07-16 Nurulize, Inc. Point cloud colorization system with real-time 3D visualization
US10937202B2 (en) * 2019-07-22 2021-03-02 Scale AI, Inc. Intensity data visualization
JP7448029B2 (ja) 2020-10-06 2024-03-12 日本電気株式会社 処理装置、処理システム、処理方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134520A (ja) * 1997-11-04 1999-05-21 Minolta Co Ltd 3次元形状データ処理装置
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6208347B1 (en) * 1997-06-23 2001-03-27 Real-Time Geometry Corporation System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture
FR2846122B1 (fr) * 2002-10-22 2005-04-15 Eric Piccuezzu Procede et dispositif de construction et de visualisation de l'image d'un modele informatique
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US8042056B2 (en) * 2004-03-16 2011-10-18 Leica Geosystems Ag Browsers for large geometric data visualization
WO2008003331A1 (en) 2006-07-06 2008-01-10 Cherif Atia Algreatly 3d mouse and method
US8745536B1 (en) * 2008-11-25 2014-06-03 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134520A (ja) * 1997-11-04 1999-05-21 Minolta Co Ltd 3次元形状データ処理装置
WO2008099915A1 (ja) * 2007-02-16 2008-08-21 Mitsubishi Electric Corporation 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
JP4344869B2 (ja) 2007-02-16 2009-10-14 三菱電機株式会社 計測装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2555167A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109976614A (zh) * 2019-03-28 2019-07-05 广州视源电子科技股份有限公司 一种立体图形的标注方法、装置、设备及介质
WO2021095624A1 (ja) * 2019-11-13 2021-05-20 株式会社カシカ プログラム及び情報処理装置

Also Published As

Publication number Publication date
JP4796194B1 (ja) 2011-10-19
EP2555167A1 (en) 2013-02-06
EP2555167A4 (en) 2014-01-22
US20120327083A1 (en) 2012-12-27
US9092113B2 (en) 2015-07-28
EP2555167B1 (en) 2017-02-08
JP2011215956A (ja) 2011-10-27

Similar Documents

Publication Publication Date Title
JP4796194B1 (ja) カーソルの表示方法およびカーソルの表示プログラム
KR102521978B1 (ko) 증강 현실 플랫폼들의 물리적 환경에 가상 콘텐츠를 공간적으로 등록하기 위한 시스템들, 방법들 및 툴들
US10956739B2 (en) Augmented reality robotic system visualization
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
TWI469622B (zh) Information processing devices, information processing methods, and program products
CA2651318A1 (en) Geographic information system (gis) for displaying 3d geospatial images with reference markers and related methods
RU2616884C2 (ru) Выбор объектов в трехмерном виртуальном динамическом отображении
TWI546772B (zh) 影像疊層處理方法與系統
US20180068492A1 (en) Image processing device, image processing method, and image processing program
US20180082472A1 (en) Image processing device, image processing method, and image processing program
EP3077846B1 (en) Method and system for displaying an area
JP2018055246A (ja) 画像処理装置、画像処理方法および画像処理用プログラム
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
JP2020126208A5 (ja)
CN105427371B (zh) 一种三维透视投影场景中保持图形对象等像素面积显示的方法
JP7112908B2 (ja) 三次元点群データの断面図を作成するための測量データ処理装置および断面図作成方法
JP7431220B2 (ja) 基準位置設定方法及び操作検出装置
JP5594088B2 (ja) 製造ラインの検討システム
JP2005165665A (ja) 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
JP4383247B2 (ja) 衝突検知方法及び衝突検知装置
JP2008040265A (ja) 画像の表示方法及び表示装置
Huang et al. Teleoperate system of underwater cleaning robot based on HUD
JP2010134793A (ja) 表示調整装置、表示調整方法及びコンピュータプログラム
JPH09258954A (ja) 3次元表示用カーソル
JPH08248938A (ja) ポインティング装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11762626

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2011762626

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011762626

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13582977

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE