JP2012038132A - Coverage display device, coverage display system and coverage display program - Google Patents

Coverage display device, coverage display system and coverage display program Download PDF

Info

Publication number
JP2012038132A
JP2012038132A JP2010178456A JP2010178456A JP2012038132A JP 2012038132 A JP2012038132 A JP 2012038132A JP 2010178456 A JP2010178456 A JP 2010178456A JP 2010178456 A JP2010178456 A JP 2010178456A JP 2012038132 A JP2012038132 A JP 2012038132A
Authority
JP
Japan
Prior art keywords
cover area
distance
hidden
dimensional
coverage display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010178456A
Other languages
Japanese (ja)
Inventor
Masahito Matsushita
雅仁 松下
Toshihiko Hata
淑彦 秦
J Azarbayejani Ali
ジェイ アザルバイェジャニ アリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010178456A priority Critical patent/JP2012038132A/en
Publication of JP2012038132A publication Critical patent/JP2012038132A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coverage display device which visualizes a cover area in the case in which its transmission is interrupted by an object existing in a three-dimensional space so that a user can accurately grasp the cover area for a short period of time, and to provide a coverage display system and a coverage display program.SOLUTION: The coverage display device includes: a distance calculating section 8 scanning a cover area of a device object 20, determining a distance A from the device object 20 to a concealing object 21 which is the closest to the device object 20 in each scanning direction and generating a distance map 9; and a cover area drawing section 11 determining a distance B from the device object 20 to an arbitrary portion of the cover area. In the case of B≤A, the cover area drawing section determines that the portion is not concealed with the concealing object 21 and draws graphics in a non-concealing color. In the case of B>A, the cover area drawing section determines that the portion is concealed with the concealing object 21 and draws graphics in a concealing color.

Description

この発明は、仮想3次元空間に配置したカメラ等の装置がカバーする空間(カバレージまたはカバーエリア)を視覚化するカバレージ表示装置、カバレージ表示システムおよびカバレージ表示プログラムに関するものである。   The present invention relates to a coverage display device, a coverage display system, and a coverage display program for visualizing a space (coverage or cover area) covered by a device such as a camera arranged in a virtual three-dimensional space.

カバレージ表示システムの従来例として、カメラの配置設計を支援するCAD(Computer Aided Design)システムがある。このシステムでは、カメラをモデル化したカメラオブジェクトと、被写体をモデル化した被写体オブジェクトとを仮想の3次元空間に配置し、カメラの撮像範囲および被写体の写り具合等をグラフィカルに表示することにより、目的に応じたカメラの最適な配置決めを支援する(例えば、非特許文献1,2参照)。   As a conventional example of a coverage display system, there is a CAD (Computer Aided Design) system that supports camera layout design. In this system, a camera object that models a camera and a subject object that models a subject are placed in a virtual three-dimensional space, and the imaging range of the camera and the image of the subject are displayed graphically. To determine the optimal arrangement of the cameras according to the situation (for example, see Non-Patent Documents 1 and 2).

非特許文献1では、3次元空間に配置したカメラオブジェクトに対してパン、チルト、ズームといったカメラ制御をユーザとシステムの間で対話的に行い、そのカメラ制御に連動してカメラオブジェクトの画角および方向を計算し、3次元空間内にカメラのカバーエリアを四角錐または四角錐台の形状で表す。また、このシステムはカメラオブジェクトから撮像したシーンをユーザに表示し、ユーザは被写体がどのように写るかを観察することができる。   In Non-Patent Document 1, camera control such as panning, tilting, and zooming is performed interactively between a user and a system on a camera object arranged in a three-dimensional space. The direction is calculated, and the camera cover area is represented by a quadrangular pyramid or a truncated pyramid shape in a three-dimensional space. This system also displays a scene captured from the camera object to the user, and the user can observe how the subject is captured.

非特許文献2では、カメラオブジェクトと被写体オブジェクトとを配置した3次元空間に、さらにカメラのカバーエリアに対応した光源を設定し、投影テクスチャマッピングにより、3次元空間に配置された被写体オブジェクトのどの部分がどのような解像度で撮像されるかを再現したシーンを表示する。また、このシステムではシャドウマッピングにより、カメラオブジェクトにより近い位置に配置された被写体オブジェクトにより遮られる隠蔽部分を影として表示する。   In Non-Patent Document 2, a light source corresponding to a camera cover area is set in a three-dimensional space in which a camera object and a subject object are arranged, and any portion of the subject object arranged in the three-dimensional space by projection texture mapping The scene that reproduces what resolution is taken is displayed. Also, in this system, shadow mapping displays a concealed portion that is obstructed by a subject object arranged at a position closer to the camera object as a shadow.

Stanislav Utochkin, "The principles of CCTV design in VideoCAD", CCTV focus Issue 36, 2006Stanislav Utochkin, "The principles of CCTV design in VideoCAD", CCTV focus Issue 36, 2006 Andrei State, Greg Welch, and Adrian Ilie, "An Interactive Camera Placement and Visibility Simulator for Image-Based VR Applications", Proceedings of the Engineering Reality of Virtual Reality 2006Andrei State, Greg Welch, and Adrian Ilie, "An Interactive Camera Placement and Visibility Simulator for Image-Based VR Applications", Proceedings of the Engineering Reality of Virtual Reality 2006

従来のカバレージ表示システムは以上のように構成されているので、ユーザは、カメラのカバーエリア、および撮像される被写体の部分と他の被写体により遮られる隠蔽部分を含む被写体の写り具合とを視覚的に確認することができる。しかしながら、カバーエリアを隠蔽部分と非隠蔽部分とに視覚的に区別して表示することができないので、ユーザは例えば壁または柱によってできる死角エリアを正確に把握することができず、また、おおよそであっても把握するのに時間を要するため、正確かつ短時間に配置設計することができないというという課題があった。   Since the conventional coverage display system is configured as described above, the user can visually recognize the coverage area of the camera and the state of the subject including the portion of the subject to be imaged and the concealed portion that is blocked by other subjects. Can be confirmed. However, since it is not possible to visually distinguish and display the cover area between the concealed part and the non-concealed part, the user cannot accurately grasp the blind spot area formed by, for example, a wall or a pillar, and is approximate. However, since it takes time to grasp, there is a problem that the layout design cannot be performed accurately and in a short time.

この発明は、上記のような課題を解決するためになされたもので、仮想3次元空間において、直線的伝播特性を有する電磁波、ビームなどの波動を検知または照射するカメラ、焦電型赤外センサ、照明装置といった装置のカバーエリアを表示する際、この3次元空間に存在する物体により伝播が遮られる場合のカバーエリアをユーザが正確かつ短時間に把握できるよう視覚化するカバレージ表示装置、カバレージ表示システムおよびカバレージ表示プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and a camera and pyroelectric infrared sensor for detecting or irradiating waves such as electromagnetic waves and beams having linear propagation characteristics in a virtual three-dimensional space. When displaying the cover area of a device such as a lighting device, a coverage display device and a coverage display for visualizing the cover area when the propagation is blocked by an object existing in this three-dimensional space so that the user can accurately and quickly grasp the cover area The purpose is to obtain a system and a coverage display program.

この発明に係るカバレージ表示装置は、直線的伝播特性を有する波動を検知または照射する装置をモデル化した装置オブジェクト、および当該波動の伝播を遮る物体をモデル化した隠蔽オブジェクトを仮想の3次元空間に配置するオブジェクト配置部と、3次元空間において、装置オブジェクトが検知または照射するカバーエリアをスキャンし、各スキャン方向で装置オブジェクトに最も近い隠蔽オブジェクトまでの第1距離を計算して距離マップを生成する距離計算部と、3次元空間にカバーエリアを示す3次元図形を描画するときに、装置オブジェクトから当該3次元図形の任意部分までの第2距離を計算し、距離マップ内の対応する第1距離との比較結果に基づいて、当該3次元図形の隠蔽オブジェクトに遮られる隠蔽部分と遮られない非隠蔽部分とを視覚的に区別して描画するカバーエリア描画部と、任意位置に設定される視点から見た3次元空間を示す画像データを生成する図形描画部とを備えるものである。   The coverage display device according to the present invention includes a device object that models a device that detects or irradiates a wave having linear propagation characteristics, and a hidden object that models an object that blocks propagation of the wave in a virtual three-dimensional space. In the three-dimensional space, the object placement unit to be placed and the cover area detected or irradiated by the device object are scanned, and a first distance to the hidden object closest to the device object in each scan direction is calculated to generate a distance map. When drawing a three-dimensional figure indicating a cover area in the three-dimensional space with the distance calculation unit, the second distance from the device object to an arbitrary part of the three-dimensional figure is calculated, and the corresponding first distance in the distance map Based on the comparison result, the concealed part obstructed by the concealed object of the three-dimensional figure is not obstructed. And coverage area drawing unit for drawing the unmasked portion is visually distinguished, in which and a drawing section for generating image data representing a three-dimensional space viewed from the viewpoint is set to an arbitrary position.

この発明に係るカバレージ表示システムは、画像データを表示するディスプレイと、ユーザの指示を受け付ける対話装置と、装置オブジェクトのカバーエリアを示す3次元図形を、対話装置が受け付ける指示に従って対話形式に描画して画像データを生成し、ディスプレイに表示させるものである。   The coverage display system according to the present invention draws a display for displaying image data, a dialog device for receiving a user instruction, and a three-dimensional figure indicating a cover area of the device object in an interactive format in accordance with the instruction received by the dialog device. Image data is generated and displayed on a display.

この発明に係るカバレージ表示プログラムは、直線的伝播特性を有する波動を検知または照射する装置をモデル化した装置オブジェクト、および当該波動の伝播を遮る物体をモデル化した隠蔽オブジェクトを仮想の3次元空間に配置するオブジェクト配置手順と、3次元空間において、装置オブジェクトが検知または照射するカバーエリアをスキャンし、各スキャン方向で装置オブジェクトに最も近い隠蔽オブジェクトまでの第1距離を計算して距離マップを生成する距離計算手順と、3次元空間にカバーエリアを示す3次元図形を描画するときに、装置オブジェクトから当該3次元図形の任意部分までの第2距離を計算し、距離マップ内の対応する第1距離との比較結果に基づいて、当該3次元図形の隠蔽オブジェクトに遮られる隠蔽部分と遮られない非隠蔽部分とを視覚的に区別して描画するカバーエリア描画手順と、任意位置に設定される視点から見た3次元空間を示す画像データを生成する図形描画手順とをコンピュータに実行させるものである。   The coverage display program according to the present invention includes a device object that models a device that detects or irradiates a wave having a linear propagation characteristic, and a hidden object that models an object that blocks the propagation of the wave in a virtual three-dimensional space. The object placement procedure to be placed and the cover area detected or irradiated by the device object in the three-dimensional space are scanned, and a first distance to the hidden object closest to the device object in each scan direction is calculated to generate a distance map. When a distance calculation procedure and a three-dimensional figure showing a cover area in a three-dimensional space are drawn, a second distance from the device object to an arbitrary part of the three-dimensional figure is calculated, and the corresponding first distance in the distance map Concealed part obstructed by concealed object of 3D figure based on comparison result with A computer executes a cover area drawing procedure for visually distinguishing and drawing a non-hidden portion that is not obstructed, and a graphic drawing procedure for generating image data indicating a three-dimensional space viewed from a viewpoint set at an arbitrary position. Is.

この発明によれば、装置オブジェクトとカバーエリアとの間に隠蔽オブジェクトが存在するか否かを判定し、カバーエリアを示す3次元図形を隠蔽部分と非隠蔽部分とに視覚的に区別して描画するようにしたので、仮想3次元空間において、直線的伝播特性を有する電磁波、ビームなどの波動を検知または照射するカメラ、焦電型赤外センサ、照明装置といった装置のカバーエリアを表示する際、この3次元空間に存在する物体により伝播が遮られる場合のカバーエリアをユーザが正確かつ短時間に把握できるよう視覚化するカバレージ表示装置およびカバレージ表示プログラムを得ることができる。   According to the present invention, it is determined whether or not there is a hidden object between the device object and the cover area, and a three-dimensional figure indicating the cover area is visually distinguished and drawn into a hidden part and a non-hidden part. As a result, in the virtual three-dimensional space, when displaying the cover area of a device such as a camera, a pyroelectric infrared sensor, or a lighting device that detects or irradiates waves such as electromagnetic waves and beams having linear propagation characteristics, It is possible to obtain a coverage display device and a coverage display program that can be visualized so that a user can accurately and quickly understand a cover area when propagation is blocked by an object existing in a three-dimensional space.

また、この発明によれば、カバレージ表示装置が対話形式でカバーエリアの3次元図形を描画して表示するようにしたので、ユーザがディスプレイに表示されたカバーエリアを確認しながら装置オブジェクトの配置設計ができるカバレージ表示システムを得ることができる。   Further, according to the present invention, the coverage display device draws and displays the three-dimensional figure of the cover area in an interactive manner, so that the user can confirm the cover area displayed on the display while designing the arrangement of the device objects. It is possible to obtain a coverage display system capable of

この発明の実施の形態1に係るカバレージ表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the coverage display system which concerns on Embodiment 1 of this invention. 装置オブジェクト(カメラ)のカバーエリアを説明する図である。It is a figure explaining the cover area of a device object (camera). 装置オブジェクト(焦電型赤外センサまたはスポット照明)のカバーエリアを説明する図である。It is a figure explaining the cover area of an apparatus object (pyroelectric infrared sensor or spot illumination). 装置オブジェクトのカバーエリアの隠蔽を説明する図である。It is a figure explaining concealment of the cover area of a device object. 図4に示すカバーエリアの表示例を説明する図である。It is a figure explaining the example of a display of the cover area shown in FIG. 図4に示すカバーエリアの別の表示例を説明する図である。It is a figure explaining another example of a display of the cover area shown in FIG. 図4に示すカバーエリアの別の表示例を説明する図である。It is a figure explaining another example of a display of the cover area shown in FIG. 実施の形態1に係るカバレージ表示システムの動作を説明するフローチャートである。4 is a flowchart for explaining the operation of the coverage display system according to the first embodiment. オブジェクトのデータ構造を示す図である。It is a figure which shows the data structure of an object. 距離計算部が行うZバッファ方式の隠面消去処理を説明する図である。It is a figure explaining the hidden surface removal process of the Z buffer system which a distance calculation part performs. 図8に示す動作のうち、距離Aの計算処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the calculation process of the distance A among the operations shown in FIG. 図8に示す動作のうち、オブジェクト描画処理の流れを示すフローチャートである。9 is a flowchart showing the flow of object drawing processing among the operations shown in FIG. 8. 図8に示す動作のうち、カバーエリア描画処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing a flow of a cover area drawing process among the operations shown in FIG. 8. カバーエリアの隠蔽判定を説明する図である。It is a figure explaining concealment determination of a cover area. 装置オブジェクトのカバーエリアを示す表示例である。It is a display example which shows the cover area of a device object. 装置オブジェクトのカバーエリアに設定する平面およびカバーエリア表示例を説明する図である。It is a figure explaining the plane set to the cover area of a device object, and a cover area display example. 装置オブジェクトのカバーエリアに設定する平面およびカバーエリア表示例を説明する図である。It is a figure explaining the plane set to the cover area of a device object, and a cover area display example. 装置オブジェクトのカバーエリアに設定する平面の別の例およびカバーエリア表示例を説明する図である。It is a figure explaining another example of the plane set to the cover area of a device object, and a cover area display example. 装置オブジェクトのカバーエリアに設定する平面の別の例およびカバーエリア表示例を説明する図である。It is a figure explaining another example of the plane set to the cover area of a device object, and a cover area display example. 装置オブジェクトのカバーエリアに設定する多面体およびカバーエリア表示例を説明する図である。It is a figure explaining the polyhedron set to the cover area of a device object, and the example of a cover area display.

実施の形態1.
図1に示すカバレージ表示システム1は、カバレージ表示装置2にディスプレイ3と、キーボードおよびマウス等で構成する対話装置4とが接続されてなる。このカバレージ表示装置2は、CPU(Central Processing Unit)、メモリ、HDD(Hard Disk Drive)等を有するパーソナルコンピュータ等のコンピュータで構成される。このコンピュータは、ユーザによるカバーエリアの視覚確認を含む対話的な作業をレスポンス良く行うために、3次元グラフィックスを高速に描画するグラフィックプロセッサ(GPU:Graphics Processing Unit)を備えたものが好ましい。
Embodiment 1 FIG.
A coverage display system 1 shown in FIG. 1 is configured by connecting a display 3 and an interactive device 4 composed of a keyboard and a mouse to a coverage display device 2. The coverage display device 2 is configured by a computer such as a personal computer having a CPU (Central Processing Unit), a memory, an HDD (Hard Disk Drive), and the like. This computer is preferably equipped with a graphics processor (GPU) that draws three-dimensional graphics at high speed in order to perform interactive work including visual confirmation of a cover area by a user with good response.

カバレージ表示装置2において、対話制御部5は対話装置4を介してユーザからの操作要求を受け付け、該当する処理部に処理指示を行う。オブジェクト配置部6は、対話制御部5から指示されるユーザの操作要求に従い、モデル化したオブジェクトを3次元空間(コンピュータ内の仮想空間)に配置する。オブジェクトとしては、直線的伝播特性を有する波動(例えば電磁波、ビーム)を検知または照射する装置(例えばカメラ、焦電型赤外センサ、照明装置)をモデル化した装置オブジェクト20と、この装置オブジェクト20からの伝播を遮る物体をモデル化した隠蔽オブジェクト21とがある。3次元空間のデータはグラフィックメモリ7にて保持する。   In the coverage display device 2, the dialogue control unit 5 receives an operation request from the user via the dialogue device 4 and gives a processing instruction to the corresponding processing unit. The object placement unit 6 places the modeled object in a three-dimensional space (virtual space in the computer) in accordance with a user operation request instructed by the dialogue control unit 5. As an object, a device object 20 that models a device (for example, a camera, a pyroelectric infrared sensor, or an illumination device) that detects or irradiates a wave (for example, electromagnetic wave or beam) having a linear propagation characteristic, and the device object 20 There is a hidden object 21 that models an object that blocks propagation from the object. Three-dimensional space data is held in the graphic memory 7.

距離計算部8は、3次元空間において装置オブジェクト20がカバーするエリアをスキャンし、各スキャン方向で最も近い隠蔽オブジェクト21の装置オブジェクト20までの距離A(第1距離)を計算し、距離マップ9として保持する。   The distance calculation unit 8 scans the area covered by the device object 20 in the three-dimensional space, calculates the distance A (first distance) from the nearest concealed object 21 to the device object 20 in each scanning direction, and the distance map 9 Hold as.

オブジェクト描画部10は、グラフィックメモリ7を参照して、装置オブジェクト20および隠蔽オブジェクト21を3次元空間に描画する。カバーエリア描画部11は、グラフィックメモリ7を参照して、装置オブジェクト20のカバーエリアを示す3次元図形を3次元空間に描画する。図形描画部12がカバーエリアを描画する際、カバーエリアの描画部分と装置オブジェクト20との距離B(第2距離)を計算し、距離マップ内の対応する距離Aとの比較結果に基づいて、カバーエリア図形のうち隠蔽オブジェクト21に遮られる隠蔽部分と遮られない非隠蔽部分とを視覚的に区別して描画する。   The object drawing unit 10 refers to the graphic memory 7 and draws the device object 20 and the hidden object 21 in a three-dimensional space. The cover area drawing unit 11 refers to the graphic memory 7 and draws a three-dimensional figure indicating the cover area of the device object 20 in the three-dimensional space. When the figure drawing unit 12 draws the cover area, the distance B (second distance) between the drawing portion of the cover area and the device object 20 is calculated, and based on the comparison result with the corresponding distance A in the distance map, In the cover area graphic, the concealed portion that is obstructed by the concealed object 21 and the non-obscured portion that is not obstructed are visually distinguished and drawn.

図形描画部12は、対話制御部5から指示されるユーザの操作要求に従って3次元空間の任意位置にユーザ視点を設定し、このユーザ視点から装置オブジェクト20のカバーエリアを観察した様子を、フレームメモリ13に書き込んで、2次元の画像データを作成する。表示部14はフレームメモリ13に書き込まれた画像データをディスプレイ3に表示する。図1に示すディスプレイ3の画面には、装置オブジェクト20と隠蔽オブジェクト21が配置された3次元空間をユーザ視点から見た状態の画像データがディスプレイ2に表示されており、装置オブジェクト20のカバーエリア22のうち、隠蔽オブジェクト21で隠蔽される隠蔽部分23と隠蔽されない非隠蔽部分24とが視覚的に区別されている。   The graphic drawing unit 12 sets a user viewpoint at an arbitrary position in the three-dimensional space in accordance with a user operation request instructed by the dialogue control unit 5, and shows a state in which the cover area of the device object 20 is observed from the user viewpoint. 13 to create two-dimensional image data. The display unit 14 displays the image data written in the frame memory 13 on the display 3. On the screen of the display 3 shown in FIG. 1, image data in a state where the three-dimensional space where the device object 20 and the hidden object 21 are arranged is viewed from the user's viewpoint is displayed on the display 2. 22, the concealment part 23 concealed by the concealment object 21 and the non-concealment part 24 not concealed are visually distinguished.

図2は、装置オブジェクト20のカバーエリア22を説明する図であり、図2(a)はユーザ視点が真横方向にある場合のビュー、図2(b)は斜め方向のビューである。装置オブジェクト20としてカメラ20aを用いる場合、このカメラ20aのカバーエリア22の3次元図形は画角θ、近端距離Ln、遠端距離Lfで決まる四角錐台として定義される。正確には、画角は焦点距離と撮像素子のサイズで定義され、縦方向と横方向があるが、ここでは説明を簡単にするため画角θのみで表す。   2A and 2B are diagrams for explaining the cover area 22 of the device object 20. FIG. 2A is a view when the user viewpoint is in the horizontal direction, and FIG. 2B is an oblique view. When the camera 20a is used as the device object 20, the three-dimensional figure in the cover area 22 of the camera 20a is defined as a quadrangular frustum determined by the field angle θ, the near end distance Ln, and the far end distance Lf. To be precise, the angle of view is defined by the focal length and the size of the image sensor, and there are a vertical direction and a horizontal direction.

図3は、装置オブジェクト20のカバーエリア22を説明する別の図であり、ユーザ視点が斜め方向にある場合のビューである。装置オブジェクト20として楕円形状の集光レンズを有する焦電型赤外センサ(またはスポットライトのような照明)20bを用いる場合、そのカバーエリア22の3次元図形は、集光または照射方向の角度、近端距離Ln、遠端距離Lfで決まる円錐台として定義される。   FIG. 3 is another view for explaining the cover area 22 of the device object 20 and is a view when the user viewpoint is in an oblique direction. When a pyroelectric infrared sensor (or illumination such as a spotlight) 20b having an elliptical condensing lens is used as the device object 20, the three-dimensional figure of the cover area 22 is an angle of the condensing or irradiation direction, It is defined as a truncated cone determined by the near end distance Ln and the far end distance Lf.

図4は、装置オブジェクト20のカバーエリア22の隠蔽を説明する図であり、図5〜図7は、図4に示すカバーエリア22の表示例を説明する図である。各図とも(a)はユーザ視点が斜め方向にある場合のビュー、(b)は真横方向のビュー、(c)は真上方向のビューである。図中、装置オブジェクト20の一例としてカメラを用い、このカメラの撮像範囲がカバーエリア22となる。また、仮想の3次元空間において、床25の上に隠蔽オブジェクト21が配置され、それを斜め上から撮影するよう装置オブジェクト20が配置されている。   4 is a diagram for explaining the concealment of the cover area 22 of the device object 20, and FIGS. 5 to 7 are diagrams for explaining display examples of the cover area 22 shown in FIG. In each figure, (a) is a view when the user viewpoint is in an oblique direction, (b) is a view in the right lateral direction, and (c) is a view in the right upward direction. In the figure, a camera is used as an example of the device object 20, and the imaging range of this camera is the cover area 22. Further, in the virtual three-dimensional space, the concealment object 21 is arranged on the floor 25, and the device object 20 is arranged so as to photograph it from obliquely above.

装置オブジェクト20のカバーエリア22(近端距離=0とする)は、図4(a)に破線で示す四角錐、および図4(b),(c)に点線で示す三角形となる。図4に示す状態の3次元空間を任意のユーザ視点から描画して2次元の画像データにした場合に、図5では、床25より上にあるカバーエリア22に対し、その輪郭を実線で表示し、境界面を透明色(半透明)で表示している。ただし、図面上では透明色の透明度をグレースケールで表す。以下の図でも同様とする。図5の表示例は、先立って説明した特許文献1の表示方法であり、カバーエリア22の隠蔽部分/非隠蔽部分が区別なく描画されている。   The cover area 22 of the device object 20 (near end distance = 0) is a quadrangular pyramid indicated by a broken line in FIG. 4A and a triangle indicated by a dotted line in FIGS. 4B and 4C. When the three-dimensional space in the state shown in FIG. 4 is drawn from an arbitrary user viewpoint and converted into two-dimensional image data, the outline of the cover area 22 above the floor 25 is displayed as a solid line in FIG. The boundary surface is displayed in a transparent color (translucent). However, the transparency of the transparent color is expressed in gray scale on the drawing. The same applies to the following figures. The display example of FIG. 5 is the display method of Patent Document 1 described above, and the concealed portion / non-hidden portion of the cover area 22 is drawn without distinction.

一方、図6および図7の表示例は本実施の形態1による表示方法であり、床25より上にあるカバーエリア22の輪郭を実線で表示し、境界面のうち隠蔽オブジェクト21により遮られない非隠蔽部分24を透明色(半透明)で表示し、隠蔽オブジェクト21により遮られる隠蔽部分23を完全な透明色(描画しないと同意)で表示している。なお、図6は隠蔽オブジェクト21として背の高い壁等を用いる場合、図7は隠蔽オブジェクト21として背の低いパーティション等を用いる場合の表示例である。   On the other hand, the display examples of FIGS. 6 and 7 are the display method according to the first embodiment, in which the outline of the cover area 22 above the floor 25 is displayed with a solid line and is not obstructed by the hidden object 21 in the boundary surface. The non-hiding portion 24 is displayed in a transparent color (semi-transparent), and the hiding portion 23 that is blocked by the hiding object 21 is displayed in a completely transparent color (agree not to draw). 6 is a display example when a tall wall or the like is used as the hidden object 21, and FIG. 7 is a display example when a short partition or the like is used as the hidden object 21.

このように、従来の表示方法(図5)では、隠蔽オブジェクト21がカバーエリア22に存在するか否か、即ち物体が他の物体に隠蔽される様子は分かるが、カバーエリア22のどこが隠蔽部分23でどこが非隠蔽部分24かを直感的に短時間に把握することができない。これに対し、本実施の形態1の表示方法(図6および図7)では、従来の表示方法と同様に物体が他の物体に隠蔽される様子が分かる効果に加えて、カバーエリア22自身の隠蔽の様子が容易に把握できる効果がある。   Thus, in the conventional display method (FIG. 5), it can be seen whether or not the concealed object 21 exists in the cover area 22, that is, how the object is concealed by another object. 23, it is impossible to intuitively grasp where the non-hidden portion 24 is. On the other hand, in the display method of the first embodiment (FIGS. 6 and 7), in addition to the effect of knowing that the object is hidden by other objects as in the conventional display method, the cover area 22 itself There is an effect that the state of concealment can be easily grasped.

次に、カバレージ表示システム1の動作を説明する。
図8は、カバレージ表示システム1の動作を示すフローチャートである。ステップST1〜ST3ではカバレージ表示装置2の対話制御部5が、ユーザが対話装置4を操作して入力する要求の有無をチェックしている。先ずステップST1において、対話制御部5がオブジェクトの配置変更の要求をチェックし、要求がなければ(ステップST1“NO”)、続くステップST2においてオブジェクトおよびカバーエリアを観察するためのユーザ視点の変更要求をチェックする。対話制御部5は、変更要求がなければ(ステップST2“NO”)、続くステップST3において表示処理の終了要求をチェックする。そして、終了要求があれば(ステップST3“YES”)、一連の表示処理を終了し、終了要求がなければ(ステップST3“NO”)、ステップST1に戻る。
Next, the operation of the coverage display system 1 will be described.
FIG. 8 is a flowchart showing the operation of the coverage display system 1. In steps ST <b> 1 to ST <b> 3, the dialogue control unit 5 of the coverage display device 2 checks whether there is a request that the user operates and inputs the dialogue device 4. First, in step ST1, the dialog control unit 5 checks a request for changing the arrangement of the object. If there is no request (step ST1 “NO”), a request to change the user viewpoint for observing the object and the cover area in the subsequent step ST2. Check. If there is no change request (step ST2 “NO”), the dialogue control unit 5 checks a display processing end request in the subsequent step ST3. Then, if there is an end request (step ST3 “YES”), the series of display processing ends, and if there is no end request (step ST3 “NO”), the process returns to step ST1.

ステップST1にてオブジェクトの配置変更の要求があると(ステップST1“YES”)、対話制御部5がオブジェクト配置部6へ指示を出し、ステップST4にてオブジェクト配置部6が仮想の3次元空間内で装置オブジェクト20と隠蔽オブジェクト21の配置を変更する処理を行い、ステップST5にて距離計算部8が装置オブジェクト20に最も近い隠蔽オブジェクト21までの距離Aを計算し、距離マップ9に保持する。   If there is a request for changing the arrangement of the object in step ST1 (step ST1 “YES”), the dialogue control unit 5 issues an instruction to the object arrangement unit 6, and the object arrangement unit 6 is in the virtual three-dimensional space in step ST4. In step ST5, the distance calculation unit 8 calculates the distance A to the concealed object 21 closest to the device object 20 and stores it in the distance map 9.

その後、ステップST6においてオブジェクト描画部10がユーザ視点から装置オブジェクト20と隠蔽オブジェクト21とを描画し、ステップST7においてカバーエリア描画部11がユーザ視点からカバーエリア22を隠蔽部分23と非隠蔽部分24に区別して描画して、ステップST1に戻る。   Thereafter, in step ST6, the object drawing unit 10 draws the device object 20 and the hidden object 21 from the user viewpoint, and in step ST7, the cover area drawing unit 11 changes the cover area 22 from the user viewpoint to the hidden portion 23 and the non-hidden portion 24. The distinction is drawn and the process returns to step ST1.

ステップST2にてユーザ視点変更の要求があると(ステップST2“YES”)、続くステップST8において対話制御部5を通じて3次元空間におけるユーザ視点の位置、方向、画角等が対話的に変更される。そして、ステップST6にて装置オブジェクト20と隠蔽オブジェクト21が再描画され、ステップST7にてカバーエリア22が再描画される。   When there is a request for changing the user viewpoint in step ST2 (step ST2 “YES”), the position, direction, angle of view, etc. of the user viewpoint in the three-dimensional space are interactively changed through the dialogue control unit 5 in the subsequent step ST8. . In step ST6, the device object 20 and the hidden object 21 are redrawn, and in step ST7, the cover area 22 is redrawn.

ここで、ステップST4におけるオブジェクト配置変更処理の詳細を説明する。
図9は、オブジェクトのデータ構造を示す図である。装置オブジェクト20と隠蔽オブジェクト21に共通のオブジェクトデータとして、ID番号、名称、種類など、オブジェクトを識別する識別情報と、オブジェクトの3次元空間における位置、方向、大きさなどの空間情報と、オブジェクトの形状、色などの図形情報とが定義される。また、装置オブジェクト20は装置の種類に応じたカバーエリアに関する情報が定義され、装置オブジェクト20がカメラであればカバー情報として画角、近端距離、遠端距離などが定義され、焦電型赤外センサであれば集光エリア、近端距離、遠端距離など、スポット照明であれば照射エリア、近端距離、遠端距離などが定義される。これらのオブジェクトデータは、オブジェクトの種類に応じて予めデータ構造を定義した雛型が用意され、オブジェクト配置部6がユーザの指示に従って新たなオブジェクトを作成し配置する際に、適切な雛型を選択し各データに値を代入する。オブジェクトの配置/変更操作はユーザがディスプレイ3の3次元空間に表示されたオブジェクトを直接マウスで移動したり、ダイアログウインドウに表示された数値をキーボードから入力するなど、対話形式で行われる。
Here, the details of the object arrangement changing process in step ST4 will be described.
FIG. 9 is a diagram illustrating a data structure of an object. As object data common to the device object 20 and the concealment object 21, identification information for identifying the object such as an ID number, a name, and a type, spatial information such as the position, direction, and size of the object in the three-dimensional space, and the object data Graphic information such as shape and color is defined. The device object 20 defines information related to the cover area according to the type of device. If the device object 20 is a camera, the field angle, near end distance, far end distance, etc. are defined as cover information. In the case of an outside sensor, a light collection area, a near end distance, a far end distance, etc. are defined. These object data are prepared in advance with a template in which the data structure is defined according to the type of the object. When the object placement unit 6 creates and places a new object in accordance with a user instruction, an appropriate template is selected. Then, assign a value to each data. The object placement / change operation is performed in an interactive manner such that the user directly moves an object displayed in the three-dimensional space of the display 3 with a mouse or inputs a numerical value displayed in a dialog window from a keyboard.

次に、ステップST5における距離計算処理の詳細を説明する。
ステップST5では、距離計算部8が仮想の3次元空間において装置オブジェクト20のカバー情報に基づくカバーエリアをスキャンし、各スキャン方向で装置オブジェクト20に最も近い隠蔽オブジェクト21までの距離Aを計算して、距離マップ9に保存する。装置オブジェクト20がカメラであれば投影面上の矩形エリアでスキャンし、焦電型赤外センサまたはスポット照明であれば楕円エリアでスキャンし、無指向性のセンサまたは照明であれば球面でスキャンする。距離Aを求めるには、スキャン方向の直線と隠蔽オブジェクト21を構成する面との交差判定により交点座標を求め、装置オブジェクト20の座標から交点座標までの距離を計算すればよい。この方法は、グラフィックス技術分野ではZバッファ、レイトレーシング、スキャンライン方式などの隠面消去処理において行われ計算処理であり、公知技術である。以下では、代表してZバッファ方式を説明するが、これに限定されるものではない。
Next, details of the distance calculation process in step ST5 will be described.
In step ST5, the distance calculation unit 8 scans the cover area based on the cover information of the device object 20 in the virtual three-dimensional space, and calculates the distance A to the hidden object 21 closest to the device object 20 in each scan direction. And stored in the distance map 9. If the device object 20 is a camera, it scans in a rectangular area on the projection plane. If it is a pyroelectric infrared sensor or spot illumination, it scans in an elliptical area. If it is an omnidirectional sensor or illumination, it scans in a spherical surface. . In order to obtain the distance A, it is only necessary to obtain the intersection coordinates by determining the intersection between the straight line in the scanning direction and the surface constituting the concealed object 21, and calculate the distance from the coordinates of the device object 20 to the intersection coordinates. This method is a calculation process performed in a hidden surface removal process such as a Z buffer, ray tracing, and a scan line method in the graphics technical field, and is a known technique. In the following, the Z buffer method will be described as a representative, but the present invention is not limited to this.

図10は、Zバッファ方式の隠面消去処理を説明する図であり、この隠面消去処理に用いるZバッファ13bおよび距離マップ9も図示している。仮想の3次元空間において、任意の位置に装置オブジェクト20が配置され、この装置オブジェクト20を視点に見立てた場合の視線方向に直交する位置に投影面(矩形エリア)26を配置する。距離計算部8がZバッファ方式を採用した場合、M×N画素からなる投影面26にオブジェクトを投影変換する際に、画素27単位に色情報を書き込むフレームバッファ13aに加え、画素27単位に奥行き情報(投影変換後のZ値)を書き込むZバッファ13bを用いる。このフレームバッファ13aおよびZバッファ13bは、フレームメモリ13のメモリ領域を割り当てたものとする。   FIG. 10 is a diagram for explaining the Z-buffer type hidden surface removal process, and also shows the Z buffer 13b and the distance map 9 used for the hidden surface removal process. In the virtual three-dimensional space, the device object 20 is arranged at an arbitrary position, and the projection plane (rectangular area) 26 is arranged at a position orthogonal to the line-of-sight direction when the device object 20 is regarded as a viewpoint. When the distance calculation unit 8 adopts the Z buffer method, when projecting an object onto the projection plane 26 composed of M × N pixels, in addition to the frame buffer 13a that writes color information in units of pixels 27, the depth in units of pixels 27 A Z buffer 13b for writing information (Z value after projection conversion) is used. It is assumed that the frame buffer 13a and the Z buffer 13b are allocated memory areas of the frame memory 13.

透視投影の場合、距離計算部8は、視点となる装置オブジェクト20と投影面26の各画素27とを結ぶ直線方向に存在するオブジェクトについて、装置オブジェクト20からこのオブジェクトの面(フラグメントと称する)までの距離を計算し、Zバッファ13bに記録されているそれ以前に求めたフラグメントの最短距離と比較してフラグメント同士の奥行き判定を行う。そして、距離計算部8は新たに計算した距離の方が小さければ、この距離をZバッファ13bに書き込み、このフラグメントの色情報をフレームバッファ13aに書き込む。   In the case of perspective projection, the distance calculation unit 8 for the object existing in the linear direction connecting the device object 20 as the viewpoint and each pixel 27 of the projection surface 26 from the device object 20 to the surface of this object (referred to as a fragment). And the depth of each fragment is determined by comparing with the shortest distance of fragments obtained before that recorded in the Z buffer 13b. If the newly calculated distance is smaller, the distance calculation unit 8 writes this distance into the Z buffer 13b and writes the color information of this fragment into the frame buffer 13a.

例えば図10において、装置オブジェクト20から隠蔽オブジェクト21のフラグメントP2までの距離が先に計算されZバッファ13bに記録されているとき、距離計算部8は続いて装置オブジェクト20からフラグメントP1までの距離を計算し、Zバッファ13bに記録されているフラグメントP2の距離と比較する。この例ではフラグメントP1までの距離の方が小さいので、距離計算部8はこのフラグメントP1までの距離をZバッファ13bに上書きし、さらにフラグメントP1の色情報をフレームバッファ13aに上書きする。
一方、フラグメントP1までの距離の方が大きければ、距離計算部8は、フレームバッファ13aおよびZバッファ13bには何も書き込まない。
For example, in FIG. 10, when the distance from the device object 20 to the fragment P2 of the concealment object 21 is calculated in advance and recorded in the Z buffer 13b, the distance calculation unit 8 subsequently calculates the distance from the device object 20 to the fragment P1. It is calculated and compared with the distance of the fragment P2 recorded in the Z buffer 13b. In this example, since the distance to the fragment P1 is smaller, the distance calculation unit 8 overwrites the distance to the fragment P1 in the Z buffer 13b, and further overwrites the color information of the fragment P1 in the frame buffer 13a.
On the other hand, if the distance to the fragment P1 is larger, the distance calculation unit 8 writes nothing in the frame buffer 13a and the Z buffer 13b.

また例えば図10において、装置オブジェクト20から隠蔽オブジェクト21のフラグメントP1までの距離が先に計算されZバッファ13bに記録されているとき、距離計算部8は続いて装置オブジェクト20からフラグメントP2までの距離を計算し、Zバッファ13bに記録されているフラグメントP1の距離と比較する。比較の結果、フラグメントP2までの距離の方が大きいので、フラグメントP2の情報はフレームバッファ13aとZバッファ13bに書き込まれず、先に記録されていたフラグメントP1までの距離と色情報が保持される。   Further, for example, in FIG. 10, when the distance from the device object 20 to the fragment P1 of the hidden object 21 is calculated in advance and recorded in the Z buffer 13b, the distance calculation unit 8 continues the distance from the device object 20 to the fragment P2. Is calculated and compared with the distance of the fragment P1 recorded in the Z buffer 13b. As a result of the comparison, since the distance to the fragment P2 is larger, the information on the fragment P2 is not written to the frame buffer 13a and the Z buffer 13b, and the previously recorded distance and color information to the fragment P1 are retained.

オブジェクトの描画が終了すればZバッファ13bには装置オブジェクト20から最も近いフラグメントP1の距離情報が書き込まれており、矩形エリアである投影面26をスキャンして最も近い隠蔽オブジェクト21の距離Aを計算したことになる。また、カバーエリアのスキャン面が矩形でなくても、平面であれば、このスキャン面に含まれる画素のZ値を利用して上記同様に距離Aを計算できる。他方、スキャン面が曲面の場合は、スキャン面を細かく分割して小さな平面(パッチ面)の集合に近似して、パッチ面毎にZバッファ方式の隠面消去処理を複数回繰り返せばよい。   When the drawing of the object is completed, the distance information of the nearest fragment P1 from the device object 20 is written in the Z buffer 13b, and the distance A of the nearest hidden object 21 is calculated by scanning the projection plane 26 which is a rectangular area. It will be done. Further, even if the scan surface of the cover area is not rectangular, the distance A can be calculated in the same manner as described above using the Z value of the pixels included in the scan surface as long as it is a plane. On the other hand, if the scan surface is a curved surface, the scan surface is finely divided and approximated to a set of small planes (patch surfaces), and the Z-buffer hidden surface removal process is repeated a plurality of times for each patch surface.

以上説明したZバッファ方式は、アルゴリズムが比較的簡単でハードウェア化しやすいため、多くの3次元グラフィックプロセッサ(GPU)に採用されている。従って、図形描画部12をグラフィックプロセッサで構成して、距離計算にグラフィックプロセッサが提供するZバッファ方式の隠面消去処理を用いることにより、処理の記述が簡単になると共に高速な計算処理が可能となる。以下に、距離計算部8がグラフィックプロセッサの隠面消去処理を利用する場合の、距離Aの計算処理を説明する。   The Z buffer method described above is used in many three-dimensional graphic processors (GPUs) because the algorithm is relatively simple and easy to implement in hardware. Therefore, by configuring the graphic drawing unit 12 with a graphic processor and using the Z-buffer hidden surface removal processing provided by the graphic processor for distance calculation, the processing description can be simplified and high-speed calculation processing can be performed. Become. The distance A calculation process when the distance calculation unit 8 uses the hidden surface removal process of the graphic processor will be described below.

図11は、距離Aの計算処理の流れを示すフローチャートであり、図8のステップST5を詳細に説明するものである。
ステップST5−1において、距離計算部8が視点および描画モードの設定を行う。具体的には、オブジェクトデータ中に設定された位置、方向、カバーエリア情報に基づいて、距離計算部8が装置オブジェクト20を視点に設定し、その投影面を設定する。また、距離計算部8は、フレームメモリ13の表示モードをオフにして、図形描画部12が処理中にフレームメモリ13に書き込むデータがディスプレイ3に表示されないような描画モードに設定する。
FIG. 11 is a flowchart showing the flow of the distance A calculation process, and details step ST5 of FIG.
In step ST5-1, the distance calculation unit 8 sets the viewpoint and the drawing mode. Specifically, based on the position, direction, and cover area information set in the object data, the distance calculation unit 8 sets the apparatus object 20 as a viewpoint and sets its projection plane. In addition, the distance calculation unit 8 turns off the display mode of the frame memory 13 and sets the drawing mode such that data to be written to the frame memory 13 during the processing of the graphic drawing unit 12 is not displayed on the display 3.

ステップST5−2において、距離計算部8から装置オブジェクト20の視点情報を受けて、図形描画部12が、装置オブジェクト20の投影面に隠蔽オブジェクト21を隠面消去しながら描画し、データをフレームメモリ13に書き込む。
ステップST5−3において、図形描画部12が描画した隠蔽オブジェクト21のZバッファの値を距離マップ9にコピーする。図10に示すように、距離マップ9はZバッファ13bに対応してメモリ上に確保された2次元配列である。3次元グラフィックス環境(ハードウェアとソフトウェアとで実現する)ではテクスチャマッピング用のテクスチャ画像を記録するテクスチャマップが提供されており、このテクスチャマップにはテクスチャ画像だけでなく奥行き情報も保存できるので、これを距離マップとして利用してもよい。テクスチャマップを使用すれば、各種座標変換および値比較など有用な機能が高速に実行できる。
In step ST5-2, upon receiving the viewpoint information of the device object 20 from the distance calculation unit 8, the graphic drawing unit 12 draws the hidden object 21 on the projection surface of the device object 20 while erasing the hidden surface, and the data is stored in the frame memory. 13 is written.
In step ST5-3, the value of the Z buffer of the hidden object 21 drawn by the graphic drawing unit 12 is copied to the distance map 9. As shown in FIG. 10, the distance map 9 is a two-dimensional array secured on the memory corresponding to the Z buffer 13b. In the 3D graphics environment (implemented with hardware and software), a texture map that records texture images for texture mapping is provided. In addition to texture images, depth information can be stored in this texture map. This may be used as a distance map. If a texture map is used, useful functions such as various coordinate transformations and value comparisons can be executed at high speed.

次に、ステップST6におけるオブジェクト描画処理の詳細を説明する。
図12は、オブジェクト描画処理の流れを示すフローチャートであり、図8のステップST6を詳細に説明するものである。
ステップST6−1において、オブジェクト描画部10が視点および描画モードの設定を行う。具体的には、ユーザがカバーエリアを観察するために仮想の3次元空間に設定するユーザ視点の情報を対話装置4を用いて入力し、対話制御部5から視点情報を受け付けたオブジェクト描画部10が3次元空間にユーザ視点を設定し、その投影面を設定する。また、オブジェクト描画部10は、距離Aの計算に用いたフレームバッファ13aとZバッファ13bをクリアし、フレームメモリ13の表示モードをオンにして、図形描画部12が処理中にフレームメモリ13に書き込むデータがディスプレイ3に表示されるような描画モードに設定する。
Next, the details of the object drawing process in step ST6 will be described.
FIG. 12 is a flowchart showing the flow of the object drawing process, and describes step ST6 in FIG. 8 in detail.
In step ST6-1, the object drawing unit 10 sets a viewpoint and a drawing mode. Specifically, the object drawing unit 10 that inputs information on the user viewpoint set in the virtual three-dimensional space for the user to observe the cover area using the dialogue device 4 and receives the viewpoint information from the dialogue control unit 5. Sets the user viewpoint in the three-dimensional space and sets the projection plane. Further, the object drawing unit 10 clears the frame buffer 13a and the Z buffer 13b used for calculating the distance A, turns on the display mode of the frame memory 13, and the graphic drawing unit 12 writes the frame memory 13 during processing. The drawing mode is set so that data is displayed on the display 3.

ステップST6−2において、オブジェクト描画部10の指示を受けて、図形描画部12がユーザ視点の投影面に装置オブジェクト20および隠蔽オブジェクト21を隠面消去しながら描画し、画像データをフレームメモリ13に書き込む。
ステップST6−3において、表示部14がフレームメモリ13の画像フレームをディスプレイ3に表示する。
In step ST6-2, in response to an instruction from the object drawing unit 10, the graphic drawing unit 12 draws the device object 20 and the hidden object 21 on the projection surface at the user viewpoint while erasing the hidden surface, and the image data is stored in the frame memory 13. Write.
In step ST6-3, the display unit 14 displays the image frame in the frame memory 13 on the display 3.

次に、ステップST7におけるカバーエリア描画処理の詳細を説明する。
図13は、カバーエリア描画処理の流れを示すフローチャートであり、図8のステップST7を詳細に説明するものである。
ステップST7−1において、カバーエリア描画部11が装置オブジェクト20のカバーエリア22を示す3次元図形の図形情報(図2および図3参照)を、装置オブジェクト20のオブジェクトデータ(図9参照)に応じて作成する。装置オブジェクト20がカメラであればそのカバーエリア図形は、画角、近端距離および遠端距離に基づき、4個の頂点座標と6個の面情報から構成される四角錐台となる。
Next, details of the cover area drawing process in step ST7 will be described.
FIG. 13 is a flowchart showing the flow of the cover area drawing process, and describes step ST7 in FIG. 8 in detail.
In step ST7-1, the cover area drawing unit 11 uses the three-dimensional graphic information (see FIGS. 2 and 3) indicating the cover area 22 of the device object 20 according to the object data (see FIG. 9) of the device object 20. Create. If the device object 20 is a camera, its cover area figure is a quadrangular frustum composed of four vertex coordinates and six pieces of plane information based on the angle of view, near end distance, and far end distance.

ステップST7−2において、カバーエリア描画部11はフレームバッファ13aとZバッファ13bをクリアせず、また、フレームメモリ13の表示モードをオンにして、図形描画部12が処理中にフレームメモリ13に書き込む画像データがディスプレイ3に表示されるような描画モードに設定する。これは、ステップST6において描画したオブジェクトに加えて(表示を消さずに)、カバーエリア図形を表示するためである。   In step ST7-2, the cover area drawing unit 11 does not clear the frame buffer 13a and the Z buffer 13b, and turns on the display mode of the frame memory 13, and the figure drawing unit 12 writes the frame memory 13 during processing. The drawing mode is set so that the image data is displayed on the display 3. This is to display the cover area graphic in addition to the object drawn in step ST6 (without erasing the display).

続くステップST7−3〜ST7−9において、カバーエリア描画部11の指示を受けて、図形描画部12がカバーエリア図形を描画する。このカバーエリア図形描画処理はステップST7−3のパイプライン前段処理と、ステップST7−3〜ST7−9のパイプライン後段処理(フラグメント描画処理)に大別される。通常のグラフィックプロセッサでは3次元図形描画をパイプライン処理しており、パイプライン前段では3次元空間とオブジェクトを定義するシーングラフ処理、オブジェクトの頂点単位の座標変換処理、および照光計算処理が行われる(ステップST7−3)。パイプライン後段では、オブジェクトの頂点座標を元に画素間の塗りつぶしが行われ、ラスタライズ処理およびテクスチャ合成を行うフラグメント生成と、画素単位で特殊効果付与および選別を行うフラグメント処理とが行われる。ステップST7−4〜ST7−9は、このパイプライン後段において、特にカバーエリア22の隠蔽部分23と非隠蔽部分24とを描画する処理を示している。   In subsequent steps ST7-3 to ST7-9, in response to an instruction from the cover area drawing unit 11, the figure drawing unit 12 draws a cover area figure. This cover area graphic drawing process is roughly divided into a pipeline pre-stage process in step ST7-3 and a pipeline post-stage process (fragment drawing process) in steps ST7-3 to ST7-9. A normal graphic processor pipelines three-dimensional graphics drawing, and in the previous stage of the pipeline, scene graph processing for defining a three-dimensional space and an object, coordinate conversion processing for each vertex of the object, and illumination calculation processing are performed ( Step ST7-3). In the latter part of the pipeline, pixel-to-pixel filling is performed based on the vertex coordinates of the object, and fragment generation for performing rasterization processing and texture synthesis and fragment processing for applying and selecting special effects in units of pixels are performed. Steps ST7-4 to ST7-9 show processing for drawing the concealed portion 23 and the non-hidden portion 24 of the cover area 22 in the latter part of the pipeline.

ステップST7−4〜ST7−9において、カバーエリア描画部11は、ユーザ視点の投影面をスキャンし、投影面の画素単位にフラグメントの処理を行う。この処理は、図10に示すZバッファ方式の隠面消去処理と同様に行えばよく、装置オブジェクト20から隠蔽オブジェクト21までの最短距離になるZ値(距離A)を求める代わりに、ユーザ視点からカバーエリア22の判定対象のフラグメントまでの最短距離になるZ値を求める。ステップST7−4において、カバーエリア描画部11は、ユーザ視点から判定対象となるフラグメントまでの距離を表すZ値(以下、距離Zと称す)と、Zバッファ13bに先に記録されたZ値(以下、距離Zminと称す)とを比較する。   In steps ST7-4 to ST7-9, the cover area drawing unit 11 scans the projection plane of the user viewpoint and performs fragment processing for each pixel of the projection plane. This process may be performed in the same manner as the Z-buffer hidden surface removal process shown in FIG. 10, instead of obtaining the Z value (distance A) that is the shortest distance from the device object 20 to the hidden object 21 from the user's viewpoint. The Z value that is the shortest distance to the determination target fragment in the cover area 22 is obtained. In step ST7-4, the cover area drawing unit 11 uses a Z value (hereinafter referred to as a distance Z) representing the distance from the user viewpoint to the fragment to be determined, and the Z value previously recorded in the Z buffer 13b ( Hereinafter, distance Zmin) is compared.

Z≧Zminであれば(ステップST7−4“NO”)、判定対象のフラグメントがユーザ視点から見て隠蔽オブジェクト21より遠くに位置するので表示する必要がなく、カバーエリア描画部11はステップST7−9へ進む。
一方、Z<Zminであれば(ステップST7−4“YES”)、判定対象のフラグメントがユーザ視点から見て隠蔽オブジェクト21より近くに位置し表示する必要があるため、ステップST7−5へ進む。このフラグメントは、カバーエリア図形の描画部分であり、描画するに際し隠蔽部分か非隠蔽部分かを判定するために、カバーエリア描画部11が以下のステップST7−5,ST7−6を実施する。
If Z ≧ Zmin (“NO” in step ST7-4), the determination target fragment is located farther from the hidden object 21 when viewed from the user's viewpoint, so there is no need to display it, and the cover area drawing unit 11 performs step ST7−. Proceed to step 9.
On the other hand, if Z <Zmin (step ST7-4 “YES”), since the fragment to be determined needs to be positioned closer to the hidden object 21 when viewed from the user viewpoint, the process proceeds to step ST7-5. This fragment is a drawing portion of the cover area graphic, and the cover area drawing unit 11 performs the following steps ST7-5 and ST7-6 in order to determine whether it is a hidden portion or a non-hidden portion when drawing.

カバーエリア描画部11は、ステップST7−5において装置オブジェクト20から判定対象のフラグメント(カバーエリア図形の描画部分)までの距離B(第2距離)を計算し、ステップST7−6において距離Bと距離マップ9に保持されている対応する距離Aとを比較する。B≦Aであれば(ステップST7−6“YES”)、カバーエリア描画部11はカバーエリア22の判定対象のフラグメントが隠蔽オブジェクト21に隠蔽されない非隠蔽部分24であると判定し、非隠蔽部分24の設定色を図形描画部12に指示する。図形描画部12は、非隠蔽部分24の設定色をフレームバッファ13aに書き込む(ステップST7−7)。非隠蔽部分24の設定色は、図6および図7の例であれば半透明である。   In step ST7-5, the cover area drawing unit 11 calculates a distance B (second distance) from the device object 20 to the determination target fragment (drawing portion of the cover area graphic), and in step ST7-6, the distance B and the distance are calculated. The corresponding distance A held in the map 9 is compared. If B ≦ A (step ST7-6 “YES”), the cover area drawing unit 11 determines that the determination target fragment of the cover area 22 is the non-hidden portion 24 that is not hidden by the hidden object 21, and the non-hidden portion. The figure drawing unit 12 is instructed to set 24 colors. The graphic drawing unit 12 writes the set color of the non-hidden portion 24 in the frame buffer 13a (step ST7-7). In the example of FIGS. 6 and 7, the set color of the non-hiding portion 24 is translucent.

一方、B>Aであれば(ステップST7−6“NO”)、カバーエリア描画部11はカバーエリア22の判定対象のフラグメントが隠蔽オブジェクト21に隠蔽される隠蔽部分23であると判定し、隠蔽部分23の設定色を図形描画部12に指示し、図形描画部12がフレームバッファ13aに書き込む(ステップST7−8)。隠蔽部分23の設定色は、図6および図7の例であれば完全透明で、フレームバッファ13aに書き込まないことになる。   On the other hand, if B> A (step ST7-6 “NO”), the cover area drawing unit 11 determines that the fragment to be determined in the cover area 22 is the concealment portion 23 concealed by the concealment object 21, and conceals it. The graphic drawing unit 12 is instructed to set the color of the portion 23, and the graphic drawing unit 12 writes it in the frame buffer 13a (step ST7-8). In the example of FIGS. 6 and 7, the set color of the concealment portion 23 is completely transparent, and is not written in the frame buffer 13a.

なお、カバーエリア22を示す3次元図形の境界面に透明色を用いる場合、境界面同士の奥行き判定を考慮したカバーエリア描画処理が必要となる。即ち、ユーザ視点から見て隠蔽オブジェクト21より近くの位置に複数の境界面に対応する複数のフラグメントが存在する場合、より近くのフラグメントを先に処理し、Zバッファ13bにそのフラグメントの距離Zを書き込んでしまうと、その後で処理される遠い位置のフラグメントの距離ZがZバッファ13bに書き込まれない。そのため、近いフラグメントの透明色に対し、このフラグメントに重なる遠いフラグメントの透明色が加算されず、境界面の重なり具合を表現することができない。このような場合には、オブジェクトが描画されたZバッファ13bとの奥行き判定は行うが、カバーエリア22のフラグメントのZ値は書き込まないようにしたり、予め面単位に境界面の奥行き判定を行って、遠くに存在する境界面から先に描画したりといった方法を適用する。このような方法は公知技術であり、本実施の形態の本質的なところではないので、詳細な説明は省略する。   In addition, when using a transparent color for the boundary surface of the three-dimensional figure indicating the cover area 22, a cover area drawing process in consideration of the depth determination between the boundary surfaces is required. That is, when there are a plurality of fragments corresponding to a plurality of boundary surfaces at positions closer to the concealed object 21 as viewed from the user's viewpoint, the closer fragments are processed first, and the distance Z of the fragments is stored in the Z buffer 13b. If written, the distance Z of the distant fragment to be processed thereafter is not written into the Z buffer 13b. Therefore, the transparent color of a distant fragment that overlaps this fragment is not added to the transparent color of a near fragment, and the degree of overlap of the boundary surface cannot be expressed. In such a case, the depth of the Z buffer 13b on which the object is drawn is determined, but the Z value of the fragment in the cover area 22 is not written, or the depth of the boundary surface is determined in advance for each surface. Apply a method such as drawing from a boundary surface that exists far away. Since such a method is a known technique and is not an essential part of the present embodiment, detailed description thereof will be omitted.

続くステップST7−9において、カバーエリア描画部11はカバーエリア図形の全てのフラグメントについて判定処理が終了したかをチェックし、終了していなければ(ステップST7−9“NO”)、再びステップST7−4に戻る。終了していれば(ステップST7−9“YES”)、ステップST7−10において表示部14がフレームメモリ13の画像データをディスプレイ3に表示する。   In subsequent step ST7-9, the cover area drawing unit 11 checks whether or not the determination process has been completed for all the fragments of the cover area graphic, and if not completed (step ST7-9 "NO"), the step ST7- is again performed. Return to 4. If completed (step ST7-9 “YES”), the display unit 14 displays the image data in the frame memory 13 on the display 3 in step ST7-10.

図14は、カバーエリア22の隠蔽判定を説明する図である。仮想の3次元空間において、装置オブジェクト20が位置Pdに配置されると共に隠蔽オブジェクト21が配置され、また、位置Peにユーザ視点28とその投影面29とが設定されている。ここで、装置オブジェクト20からのスキャンライン(破線で示す)上に、カバーエリア図形(不図示)のフラグメントP3,P4と、隠蔽オブジェクト21との交点Poを考える。ここでは、距離マップ9に保持されている距離AはPdPoとなる。カバーエリアに存在するフラグメントP3は、隠蔽オブジェクト21より装置オブジェクト20に近いので隠蔽されず、距離B1=PdP3と対応する距離A=PdPoとの比較結果はPdP3≦PdPoとなる。一方、カバーエリアに存在するフラグメントP4は、装置オブジェクト20との間に隠蔽オブジェクト21が存在するため隠蔽され、距離B2=PdP4と対応する距離A=PdPoとの比較結果はPdP4>PdPoとなる。よって、フラグメントP3は非隠蔽部分、フラグメントP4は隠蔽部分と判定される。   FIG. 14 is a diagram for explaining the cover area 22 concealment determination. In the virtual three-dimensional space, the device object 20 is arranged at the position Pd and the hidden object 21 is arranged, and the user viewpoint 28 and the projection plane 29 are set at the position Pe. Here, an intersection Po between a cover area figure (not shown) fragments P3 and P4 and a hidden object 21 on a scan line (shown by a broken line) from the device object 20 is considered. Here, the distance A held in the distance map 9 is PdPo. The fragment P3 present in the cover area is not concealed because it is closer to the device object 20 than the concealment object 21, and the comparison result between the distance B1 = PdP3 and the corresponding distance A = PdPo is PdP3 ≦ PdPo. On the other hand, the fragment P4 existing in the cover area is concealed because the concealment object 21 exists between the device object 20 and the comparison result between the distance B2 = PdP4 and the corresponding distance A = PdPo is PdP4> PdPo. Therefore, it is determined that the fragment P3 is a non-hiding part and the fragment P4 is a hiding part.

ステップST7−5における距離Bは種々の方法で計算できるが、グラフィックプロセッサが提供するZバッファ方式の隠面消去処理にて得られるZ値を利用すれば効率よく計算できる。パイプライン後段処理において、カバーエリア描画部11がグラフィックプロセッサが提供する座標変換機能を利用して、カバーエリアのローカル座標系をユーザ視点の視点座標系に投影変換し、視点座標系におけるカバーエリアのフラグメントの座標(Xvs,Yvs,Zvs)を表す。(Xvs,Yvs)はスキャンする投影面上の画素の座標であり、ZvsはZバッファ13bに保持されるフラグメントの距離Zである。そして、この座標(Xvs,Yvs,Zvs)にユーザ視点からの視点座標変換および投影変換の逆変換を施すと、3次元空間のワールド座標系におけるフラグメントの座標(Xw,Yw,Zw)が得られる。   The distance B in step ST7-5 can be calculated by various methods, but can be efficiently calculated by using the Z value obtained by the Z-buffer hidden surface removal process provided by the graphic processor. In the post-pipeline processing, the cover area drawing unit 11 uses the coordinate conversion function provided by the graphic processor to project and convert the local coordinate system of the cover area to the viewpoint coordinate system of the user viewpoint, and It represents the coordinates (Xvs, Yvs, Zvs) of the fragment. (Xvs, Yvs) is the coordinates of the pixel on the projection plane to be scanned, and Zvs is the fragment distance Z held in the Z buffer 13b. Then, when the coordinates of the coordinates (Xvs, Yvs, Zvs) are subjected to the viewpoint coordinate transformation from the user viewpoint and the inverse transformation of the projection transformation, the coordinates (Xw, Yw, Zw) of the fragment in the world coordinate system of the three-dimensional space are obtained. .

さらに、Zバッファ方式の隠面消去処理により距離Aを計算した手順(図11に示す)と同様に、カバーエリア描画部11が、装置オブジェクト20を視点とした場合の視点座標変換と投影変換をフラグメントの座標(Xw,Yw,Zw)に施すと、装置オブジェクト20の視点から投影変換したフラグメントの座標(Xds,Yds,Zds)が計算できる。このZdsが装置オブジェクト20からフラグメントまでの距離Bになり、距離マップ9に既に記憶されている座標(Xds,Yds)の距離Zdsがこのフラグメントと比較すべき距離Aになる。   Further, similarly to the procedure for calculating the distance A by the Z buffer hidden surface removal process (shown in FIG. 11), the cover area drawing unit 11 performs viewpoint coordinate conversion and projection conversion when the device object 20 is the viewpoint. When applied to the coordinates (Xw, Yw, Zw) of the fragment, the coordinates (Xds, Yds, Zds) of the fragment obtained by projection conversion from the viewpoint of the device object 20 can be calculated. This Zds becomes the distance B from the device object 20 to the fragment, and the distance Zds of the coordinates (Xds, Yds) already stored in the distance map 9 becomes the distance A to be compared with this fragment.

以上より、実施の形態1に係るカバレージ表示装置2は、直線的伝播特性を有する波動を検知または照射する装置をモデル化した装置オブジェクト20、および当該波動の伝播を遮る物体をモデル化した隠蔽オブジェクト21を仮想の3次元空間に配置するオブジェクト配置部6と、3次元空間において、装置オブジェクト20が検知または照射するカバーエリア22をスキャンし、各スキャン方向で装置オブジェクト20に最も近い隠蔽オブジェクト21までの距離Aを計算して距離マップ9を生成する距離計算部8と、3次元空間にカバーエリア22を示す3次元図形を描画するときに、装置オブジェクト20から当該3次元図形の任意部分までの距離Bを計算し、距離マップ9内の対応する距離Aとの比較結果に基づいて、当該3次元図形の隠蔽オブジェクト21に遮られる隠蔽部分23と遮られない非隠蔽部分24とを視覚的に区別して描画するカバーエリア描画部11と、任意位置に設定されるユーザ視点から見た3次元空間を示す画像データを生成する図形描画部12とを備えるように構成した。このため、カバーエリア22の隠蔽部分23と非隠蔽部分24を視覚的に区別してユーザに提示することができ、ユーザがカバーエリアの伝播遮蔽を正確かつ短時間に把握できるカバレージ表示装置2を提供することができる。   As described above, the coverage display device 2 according to Embodiment 1 includes the device object 20 that models a device that detects or irradiates a wave having a linear propagation characteristic, and the hidden object that models an object that blocks the propagation of the wave. The object placement unit 6 that places 21 in the virtual three-dimensional space and the cover area 22 that is detected or irradiated by the device object 20 in the three-dimensional space are scanned, and the hidden object 21 that is closest to the device object 20 in each scan direction. The distance calculation unit 8 that calculates the distance A of the object and generates a distance map 9, and when drawing a three-dimensional figure showing the cover area 22 in the three-dimensional space, from the device object 20 to an arbitrary part of the three-dimensional figure The distance B is calculated, and based on the comparison result with the corresponding distance A in the distance map 9, the three-dimensional A cover area drawing unit 11 for visually distinguishing a non-hidden portion 24 that is blocked by a shape-hiding object 21 and a non-hidden portion 24 that is not blocked, and a three-dimensional space viewed from a user viewpoint set at an arbitrary position And a graphic drawing unit 12 that generates image data to be shown. For this reason, the coverage display device 2 that can visually distinguish the concealed portion 23 and the non-hidden portion 24 of the cover area 22 and present them to the user, and enables the user to accurately and quickly grasp the propagation shielding of the cover area is provided. can do.

また、実施の形態1によれば、カバーエリア描画部11は、3次元空間の任意位置に設定されるユーザ視点から見たカバーエリアの3次元図形を隠面消去して描画し、当該隠面消去処理で得られる描画部分の3次元座標を用いて距離Bを計算するように構成した。このように描画処理と距離計算処理とを合わせて行うことにより、描画処理と別に距離計算する場合に比べて処理が簡略化され、高速に画面表示することができる。   Further, according to the first embodiment, the cover area drawing unit 11 draws the hidden area by drawing the 3D figure of the cover area viewed from the user viewpoint set at an arbitrary position in the 3D space. The distance B is calculated using the three-dimensional coordinates of the drawing portion obtained by the erasing process. By performing the drawing process and the distance calculation process in this way, the process is simplified compared to the case of calculating the distance separately from the drawing process, and the screen can be displayed at high speed.

また、実施の形態1によれば、カバーエリア描画部11は、3次元空間の任意位置に設定される視点から見たカバーエリアの3次元図形をZバッファ法により隠面消去して描画し、当該視点を基準にした座標系で表される描画部分の3次元座標を、装置オブジェクト20を基準にした座標系に変換して距離Bを計算するように構成した。このため、グラフィックプロセッサが有する座標変換機能を利用して、高速に、装置オブジェクト20からカバーエリア22の描画部分までの距離Bを計算することができる。   Further, according to the first embodiment, the cover area drawing unit 11 draws the 3D figure of the cover area viewed from the viewpoint set at an arbitrary position in the 3D space by removing the hidden surface using the Z buffer method, The distance B is calculated by converting the three-dimensional coordinates of the drawing portion expressed in the coordinate system based on the viewpoint to the coordinate system based on the device object 20. Therefore, the distance B from the device object 20 to the drawing portion of the cover area 22 can be calculated at high speed using the coordinate conversion function of the graphic processor.

また、実施の形態1によれば、距離計算部8は、装置オブジェクト20を視点に用いて、当該視点から見た隠蔽オブジェクト21を隠面消去して描画し、装置オブジェクト20から当該隠面消去処理で得られる隠蔽オブジェクト21の描画部分までの距離を距離Aとするように構成した。このため、グラフィックプロセッサが有する隠面消去機能を利用して計算される視点からオブジェクト描画部分までの距離を、装置オブジェクト20から隠蔽オブジェクト21の描画部分までの距離Aとして用いるため、高速に距離計算することができる。   Further, according to the first embodiment, the distance calculation unit 8 uses the device object 20 as a viewpoint, draws the hidden object 21 viewed from the viewpoint, and removes the hidden surface from the device object 20. The distance to the drawing portion of the hidden object 21 obtained by the processing is set as the distance A. Therefore, since the distance from the viewpoint calculated using the hidden surface removal function of the graphic processor to the object drawing portion is used as the distance A from the device object 20 to the drawing portion of the hidden object 21, the distance calculation is performed at high speed. can do.

また、実施の形態1によれば、カバーエリア描画部11は、カバーエリア22を示す3次元図形として当該カバーエリア22の境界面を描画するように構成したので、描画するための計算処理が境界面だけと少なくてすみ、高速に描画できる。   Further, according to the first embodiment, the cover area drawing unit 11 is configured to draw the boundary surface of the cover area 22 as a three-dimensional figure indicating the cover area 22, so that the calculation process for drawing is a boundary. It can be drawn at high speed with only a surface.

また、実施の形態1に係るカバレージ表示システム1は、画像データを表示するディスプレイ3と、ユーザの指示を受け付ける対話装置4と、装置オブジェクト20のカバーエリア22を示す3次元図形を、対話装置4が受け付ける指示に従って対話形式に描画して画像データを生成し、ディスプレイ3に表示させるカバレージ表示装置2とを備えるように構成した。このため、ユーザがディスプレイ3に表示されたカバーエリア22を確認しながら装置オブジェクト20の配置設計ができ、例えばユーザ視点を変更した場合でも常にカバーエリア22の隠蔽状況を把握できるようになる。   In addition, the coverage display system 1 according to the first embodiment includes a display 3 that displays image data, a dialog device 4 that receives user instructions, and a three-dimensional figure that indicates a cover area 22 of the device object 20. Is provided with a coverage display device 2 that generates image data by drawing in an interactive format in accordance with an instruction received by the display 3 and displays the image data on the display 3. For this reason, the user can design the arrangement of the device object 20 while confirming the cover area 22 displayed on the display 3. For example, even when the user's viewpoint is changed, the concealment state of the cover area 22 can be always grasped.

実施の形態2.
上記実施の形態1では、カバーエリアの境界面を描画するようにしたので、ユーザ視点から見て、隠蔽オブジェクトがカバーエリア境界面を遮れば隠蔽部分が識別しやすいが、遮らないと隠蔽部分が識別しにくい場合がある。例えば図15はカバレージ表示装置2が生成する画像データを示し、図15(a)はユーザ視点が斜め方向にある場合のビュー、図15(b)は真横方向のビュー、図15(c)は真上方向のビューである。なお、図15において図6と同一または相当の部分については同一の符号を付し説明を省略する。装置オブジェクト20のカバーエリア22内に隠蔽オブジェクト21全体が存在する場合、カバーエリア22の境界面のみ描画すると、図15(a)のようにカバーエリア22内部の隠蔽部分23を把握することができない。しかし実際には、図15(b),(c)に破線で示すように隠蔽部分23が存在する。そこで、本実施の形態2では、カバーエリア22内に存在する一つ以上の平面をカバーエリア図形として描画する。
Embodiment 2. FIG.
In the first embodiment, since the boundary surface of the cover area is drawn, it is easy to identify the concealed portion if the concealed object obstructs the cover area boundary surface from the viewpoint of the user. May be difficult to identify. For example, FIG. 15 shows image data generated by the coverage display device 2, FIG. 15A is a view when the user viewpoint is in an oblique direction, FIG. 15B is a view in a lateral direction, and FIG. This is a view directly above. 15 that are the same as or equivalent to those in FIG. 6 are given the same reference numerals, and descriptions thereof are omitted. When the entire hidden object 21 exists in the cover area 22 of the device object 20, if only the boundary surface of the cover area 22 is drawn, the hidden portion 23 inside the cover area 22 cannot be grasped as shown in FIG. . However, in practice, there is a concealment portion 23 as shown by broken lines in FIGS. 15 (b) and 15 (c). Therefore, in the second embodiment, one or more planes existing in the cover area 22 are drawn as a cover area graphic.

本実施の形態2に係るカバレージ表示システム1は、図1に示すカバレージ表示システム1と図面上では同様の構成であるので、以下では図1を援用する。そして、図13のフローチャートを援用して、上記実施の形態1とは異なる動作を中心に説明する。   Since the coverage display system 1 according to the second embodiment has the same configuration as the coverage display system 1 shown in FIG. 1 on the drawing, FIG. 1 is used below. Then, the operation different from that of the first embodiment will be mainly described with reference to the flowchart of FIG.

図16および図17は、床25に平行、かつ、カバーエリア22内に存在する3つの平面30〜32と、カバーエリア22の輪郭線とをカバーエリア図形として描画する例を示し、各図とも(a)は真横方向のビュー、(b)は斜め方向のビュー、(c)は真上方向のビュー、(d)は斜め方向のビューである。ステップST7−1にてカバーエリア描画部11がカバーエリア22の図形を描画する際、図16(a),(b)および図17(a),(b)に示すように、床25に平行かつカバーエリア図形内に存在する複数の平面(フラグメント)30〜32を設定する。   FIGS. 16 and 17 show examples in which three planes 30 to 32 that are parallel to the floor 25 and exist in the cover area 22 and the outline of the cover area 22 are drawn as cover area figures. (A) is a lateral view, (b) is an oblique view, (c) is an upward view, and (d) is an oblique view. When the cover area drawing unit 11 draws the figure of the cover area 22 in step ST7-1, it is parallel to the floor 25 as shown in FIGS. 16 (a) and 16 (b) and FIGS. 17 (a) and 17 (b). A plurality of planes (fragments) 30 to 32 existing in the cover area figure are set.

図13のフラグメント描画処理(ステップST7−4〜ST7−9)において、カバーエリア22の輪郭線を実線で描画すると共に、非隠蔽部分24を半透明で描画し、隠蔽部分23は完全透明(全透明)で描画するので、図10で説明した境界面同士の奥行き判定を考慮した処理により、ユーザ視点から見て平面30〜32が重なる部分は透明色が加算され濃く表示される(図16(c),(d)および図17(c),(d))。   In the fragment drawing process of FIG. 13 (steps ST7-4 to ST7-9), the outline of the cover area 22 is drawn with a solid line, the non-hidden part 24 is drawn semi-transparently, and the hidden part 23 is completely transparent (all Since drawing is performed in a transparent manner, a portion where the planes 30 to 32 overlap from the viewpoint of the user is added with a transparent color and displayed darkly by the processing considering the depth determination between the boundary surfaces described in FIG. c), (d) and FIGS. 17 (c), (d)).

特に、図17に示す背の低い隠蔽オブジェクト21の場合、カバーエリア22の上部の境界面を遮らないが、床25付近の2つの平面31,32を遮るため、図17(c)に示すようにユーザ視点が真上に位置する場合にも透明度の違いにより隠蔽部分を容易に把握することができる。これに対し、図16に示す背の高い隠蔽オブジェクト21の場合、床25より上の3つの平面30〜32を遮るため、図16(c)に示すように隠蔽部分23が完全透明になる。   In particular, in the case of the short concealed object 21 shown in FIG. 17, the upper boundary surface of the cover area 22 is not obstructed, but the two planes 31 and 32 in the vicinity of the floor 25 are obstructed, so as shown in FIG. Even when the user viewpoint is located directly above, the concealed portion can be easily grasped by the difference in transparency. On the other hand, in the case of the tall concealed object 21 shown in FIG. 16, since the three planes 30 to 32 above the floor 25 are obstructed, the concealed portion 23 becomes completely transparent as shown in FIG.

さらに、カバーエリア22内に存在する平面30〜32の数を多く設定したり、平面30〜32の配置間隔を小さく設定したりすれば、隠蔽部分の有無だけでなく、ユーザ視点から見た隠蔽部分/非隠蔽部分の奥行き(厚さ)も直感的に掴むことができる。   Furthermore, if the number of the planes 30 to 32 existing in the cover area 22 is set to be large or the arrangement interval of the planes 30 to 32 is set to be small, not only the presence / absence of the concealment portion but also the concealment seen from the user viewpoint. The depth (thickness) of the part / non-hidden part can also be grasped intuitively.

別の表示例を図18に示す。図18(a)は真上方向のビュー、図18(b)は斜め方向のビュー、図18(c)は真横方向のビュー、図18(d)は斜め方向のビューである。図18の例では、床25に垂直、かつ、カバーエリア22内に存在する3つの平面33〜35を設定している。この場合、図18(c)に示すように、ユーザ視点が真横に位置する場合に、透明度の違いにより隠蔽部分23を把握することができる。   Another display example is shown in FIG. 18A is a view in the upward direction, FIG. 18B is a view in the oblique direction, FIG. 18C is a view in the lateral direction, and FIG. 18D is a view in the oblique direction. In the example of FIG. 18, three planes 33 to 35 that are perpendicular to the floor 25 and exist in the cover area 22 are set. In this case, as shown in FIG. 18C, when the user viewpoint is located directly beside, the concealed portion 23 can be grasped by the difference in transparency.

図16〜図18に示したように、ユーザ視点の位置によって、カバーエリア22の隠蔽部分23を把握しやすい、または把握可能な平面30〜35の向きが異なる。そこで、さらに別の表示例を図19に示す。図19(a),(b)とも斜め方向のビューである。図19の例では、ユーザ視点からの視線方向に垂直、かつ、カバーエリア22内に存在する3つの平面36〜38とカバーエリア22の輪郭線とをカバーエリア図形として描画する。この場合、ステップST7−1にてカバーエリア描画部11がカバーエリア22の図形を描画する際、ユーザ視点の配置変更に応じて平面36〜38の向きを動的に変更する構成にする。これにより、ユーザがユーザ視点を真横、真上、斜め方向等さまざまな位置に変更しても、カバーエリア22の隠蔽部分23をより容易に把握することができる。   As shown in FIGS. 16 to 18, the orientations of the planes 30 to 35 in which the concealed portion 23 of the cover area 22 can be easily grasped or grasped differ depending on the position of the user viewpoint. FIG. 19 shows still another display example. FIGS. 19A and 19B are oblique views. In the example of FIG. 19, three planes 36 to 38 that are perpendicular to the line-of-sight direction from the user's viewpoint and exist in the cover area 22 and the outline of the cover area 22 are drawn as a cover area graphic. In this case, when the cover area drawing unit 11 draws the figure of the cover area 22 in step ST7-1, the orientation of the planes 36 to 38 is dynamically changed according to the change in the arrangement of the user viewpoint. Thereby, even if a user changes a user viewpoint to various positions, such as right side, right above, and a diagonal direction, the concealment part 23 of the cover area 22 can be grasped | ascertained more easily.

さらに、ユーザが対話的に平面の数、間隔、および表示するときの透明色の透明度等を変更できるように構成すれば、カバーエリア22の隠蔽の状況、およびユーザの観察目的に応じてより適した表示が可能となる。例えば、平面の間隔、透明度等を対話装置4が有するマウスホイールで変更する構成にすれば、ユーザはディスプレイ3に画面表示されるカバーエリアから目を離さずに最適な設定を選択できる。また、隠蔽オブジェクトと交差する平面の数を多くするか、または間隔を狭くすれば、非隠蔽部分の平面の重なりが増え(即ち透明色の加算数が増えて表示色が濃くなり)、隠蔽部分をよりはっきりと視覚的に区別して表示できる。なお、平面の設定数が増えても、公知技術である3次元図形と平面の交差判定処理により、容易に隠蔽オブジェクト21と交差する平面を求めることができ、カバレージ表示装置2の計算処理負担はわずかで足りる。   Further, if the configuration is such that the user can interactively change the number of planes, the spacing, and the transparency of the transparent color when displayed, it is more suitable according to the concealment situation of the cover area 22 and the observation purpose of the user. Display is possible. For example, if the configuration is such that the spacing between planes, transparency, etc. are changed with the mouse wheel of the dialogue device 4, the user can select the optimum setting without taking his eyes off the cover area displayed on the screen of the display 3. In addition, if the number of planes intersecting the hidden object is increased or the interval is reduced, the overlap of the planes of the non-hidden part increases (that is, the number of transparent colors added increases and the display color becomes darker), and the hidden part. Can be displayed more clearly and visually. Even if the number of planes to be set increases, a plane that intersects the hidden object 21 can be easily obtained by the intersection determination process between a three-dimensional figure and a plane, which is a known technique, and the calculation processing burden of the coverage display device 2 is reduced. Just enough.

上記例ではカバーエリア内に平面を設定して隠蔽部分と非隠蔽部分を視覚的に表示したが、形状は平面に限定されるものではなく、例えば図20に示すような多面体22aにしてもよい。図20(a)は真横方向のビュー、図20(b)は斜め方向のビュー、図20(c)は真横方向のビュー、図20(d)は真上方向のビュー、図20(e)は斜め方向のビューである。図20の例では、対話制御部5からカバーエリア描画部11に対して床25からの高さを示す上端距離39と下端距離40の条件が与えられたとき、カバーエリア22内で下端距離40以上かつ上端距離39以下の空間の境界面から構成される多面体22aをカバーエリア図形として作成し描画する構成にする。例えば、監視カメラで歩行者の上半身を撮像可能な範囲を確認したい場合、ユーザは、装置オブジェクト20のカバーエリア22を監視カメラの撮像範囲に見立て、対話装置4を操作して上端距離39を2m、下端距離40を0.5mに設定すればよい。なお、カバーエリア図形を示す多面体22aは、カバーエリア22を床25に対して水平に輪切りにした形状(図20)以外であってもよく、その他、床25に対して垂直に輪切りにした形状、ユーザ視点からの視線方向に対して垂直に輪切りにした形状など任意に設定すればよい。
このように、装置オブジェクト20そのもののカバーエリア22と空間を規定する他の条件とを組み合わせたカバーエリアを定義して視覚化することにより、種々の条件を加味したカバーエリアの確認およびカメラ等の装置の配置設計が可能となる。
In the above example, a flat surface is set in the cover area and the concealed portion and the non-hidden portion are visually displayed. However, the shape is not limited to the flat surface, and may be a polyhedron 22a as shown in FIG. . 20 (a) is a lateral view, FIG. 20 (b) is an oblique view, FIG. 20 (c) is a lateral view, FIG. 20 (d) is an upward view, and FIG. 20 (e). Is a diagonal view. In the example of FIG. 20, when the dialogue control unit 5 gives the cover area drawing unit 11 the conditions of the upper end distance 39 and the lower end distance 40 indicating the height from the floor 25, the lower end distance 40 within the cover area 22. The polyhedron 22a composed of the boundary surface of the space having the upper end distance of 39 or less is created and drawn as a cover area graphic. For example, when the user wants to confirm the range in which the upper body of the pedestrian can be imaged with the monitoring camera, the user assumes the cover area 22 of the device object 20 as the imaging range of the monitoring camera and operates the interactive device 4 to set the upper end distance 39 to 2 m. The lower end distance 40 may be set to 0.5 m. In addition, the polyhedron 22a indicating the cover area figure may have a shape other than the shape in which the cover area 22 is horizontally cut with respect to the floor 25 (FIG. 20). Any shape such as a round shape perpendicular to the line-of-sight direction from the user's viewpoint may be set.
In this way, by defining and visualizing a cover area that combines the cover area 22 of the device object 20 itself with other conditions that define the space, it is possible to check the cover area taking into account various conditions, Device layout design is possible.

以上のように、実施の形態2によれば、カバーエリア描画部11は、カバーエリア22を示す3次元図形としてカバーエリア内に設定する一つ以上の平面30〜38を描画するように構成したので、上記実施の形態1と同様の方法によりカバーエリア22の隠蔽部分23と非隠蔽部分24とを視覚的に区別して描画することができる。よって、隠蔽オブジェクト21がカバーエリア22の境界面を遮らないような形状および配置の場合でも、ユーザはカバーエリア内部の隠蔽状況を把握することができる。   As described above, according to the second embodiment, the cover area drawing unit 11 is configured to draw one or more planes 30 to 38 set in the cover area as a three-dimensional figure indicating the cover area 22. Therefore, the concealed portion 23 and the non-hidden portion 24 of the cover area 22 can be visually distinguished and drawn by the same method as in the first embodiment. Therefore, even when the shape and arrangement are such that the hidden object 21 does not block the boundary surface of the cover area 22, the user can grasp the hidden state inside the cover area.

また、実施の形態2によれば、カバーエリア22を示す3次元図形として当該カバーエリア内に設定する多面体22aを描画するように構成したので、カバーエリア22の特定部分について、隠蔽部分23と非隠蔽部分24とを視覚的に区別して描画することができ、種々の条件を加味したカバーエリアの確認およびカメラ等の装置の配置設計が可能となる。   Further, according to the second embodiment, since the polyhedron 22a to be set in the cover area is drawn as a three-dimensional figure showing the cover area 22, the specific part of the cover area 22 is not compared with the concealed part 23. The concealed portion 24 can be visually distinguished and drawn, so that it is possible to check the cover area and design the arrangement of devices such as a camera in consideration of various conditions.

また、実施の形態2によれば、平面30〜38のうち少なくとも一面または多面体22aを、隠蔽オブジェクト21と交差する平面または多面体にするようにしたので、隠蔽オブジェクト21がカバーエリア22の境界面を遮らないような形状および配置の場合でも、ユーザはカバーエリア内部の隠蔽状況をより良く把握することができる。   According to the second embodiment, at least one of the planes 30 to 38 or the polyhedron 22a is made to be a plane or polyhedron that intersects with the hidden object 21, so that the hidden object 21 defines the boundary surface of the cover area 22. Even in the case of a shape and arrangement that does not obstruct, the user can better understand the concealment situation inside the cover area.

また、実施の形態2によれば、カバーエリア描画部11は、ユーザ視点の設定位置に応じて平面36〜38または多面体22aの位置を変更するように構成したので、ユーザはユーザ視点を変更しても常に隠蔽状況を把握することができる。   In addition, according to the second embodiment, the cover area drawing unit 11 is configured to change the position of the planes 36 to 38 or the polyhedron 22a according to the set position of the user viewpoint, so the user changes the user viewpoint. But you can always grasp the concealment situation.

なお、上記実施の形態2では、カバーエリア22の輪郭線を実線で描画し、平面30〜38または多面体22aを隠蔽部分23と非隠蔽部分24とに区別して透明色で描画する構成にしたが、これに加えてカバーエリア22の境界面を隠蔽部分23と非隠蔽部分24とに区別して透明色で描画する構成にしてもよい。境界面の描画については上記実施の形態1で説明した通りである。   In the second embodiment, the outline of the cover area 22 is drawn with a solid line, and the planes 30 to 38 or the polyhedron 22a are drawn in a transparent color by distinguishing them from the hidden portion 23 and the non-hidden portion 24. In addition to this, the boundary surface of the cover area 22 may be divided into a concealed portion 23 and a non-hidden portion 24 and drawn in a transparent color. The drawing of the boundary surface is as described in the first embodiment.

実施の形態3.
上記実施の形態1ではカバーエリアの境界面を、上記実施の形態2ではカバーエリア内部に設定した平面または多面体をカバーエリア図形として表示するためにサーフェスレンダリング手法を用いたが、本実施の形態3ではカバーエリア内部をボクセルで記述するボリュームレンダリング手法を用いてカバーエリア図形を表示する構成にする。
Embodiment 3 FIG.
In the first embodiment, the surface rendering method is used to display the boundary surface of the cover area, and in the second embodiment, the plane or polyhedron set in the cover area is displayed as the cover area graphic. Then, it is configured to display the cover area figure using a volume rendering method in which the inside of the cover area is described by voxels.

本実施の形態3に係るカバレージ表示装置2の構成および基本的な動作は上記実施の形態1と同様であり、カバーエリア図形とその描画方法が異なる。そのため、以下では図1、図13を援用して、異なる部分を中心に本実施の形態3のカバレージ表示装置2を説明する。   The configuration and basic operation of the coverage display device 2 according to the third embodiment are the same as those in the first embodiment, and the cover area figure and its drawing method are different. Therefore, hereinafter, the coverage display device 2 according to the third embodiment will be described with a focus on different portions with reference to FIGS. 1 and 13.

リアリティのある3次元物体を描画する方法として、上記実施の形態1のように物体の表面を描画するサーフェスレンダリングが一般的であるが、CTスキャンした体内の様子を視覚化する場合などは3次元物体の内部の色情報等をボクセル単位で記述し描画するボリュームレンダリングが利用される。ボクセルとは2次元画像の要素であるピクセルに相当する3次元空間の体積の要素であり、3次元空間での正規格子単位の値を表す。ボリュームレンダリングについては公知技術のためこれ以上の説明は省略する。   As a method for drawing a realistic three-dimensional object, surface rendering that draws the surface of the object is generally used as in the first embodiment. Volume rendering is used in which color information and the like inside an object is described and drawn in units of voxels. A voxel is an element of a volume in a three-dimensional space corresponding to a pixel that is an element of a two-dimensional image, and represents a value of a regular lattice unit in the three-dimensional space. Since volume rendering is a known technique, further description is omitted.

本実施の形態3では、図13に示すカバーエリア描画処理のフローチャートにおいて、ステップST7−1では、カバーエリア描画部11がボクセル記述されたカバーエリア図形を生成する。例えば、カバーエリア描画部11は、装置オブジェクト20およびカバーエリア22を含む仮想の3次元空間をL×M×Nの正規格子でサンプリングし、L×M×Nのボクセル配列を生成する。これらのボクセル配列のうち、カバーエリア22を構成する(カバーエリア22の位置に存在する)ボクセルに透明度の情報を含むカバーエリアの色情報を設定し、他のボクセルはオブジェクトが存在しないことを示す情報を設定する。   In the third embodiment, in the flowchart of the cover area drawing process shown in FIG. 13, in step ST7-1, the cover area drawing unit 11 generates a cover area graphic in which voxel description is performed. For example, the cover area drawing unit 11 samples a virtual three-dimensional space including the device object 20 and the cover area 22 with an L × M × N regular lattice, and generates an L × M × N voxel array. Among these voxel arrangements, the color information of the cover area including transparency information is set in the voxels constituting the cover area 22 (existing at the position of the cover area 22), and the other voxels indicate that no object exists. Set the information.

また、ステップST7−4〜ST7−9のフラグメント描画処理では、本来フラグメントが描画単位であるが、本実施の形態3ではボクセルを描画単位にする。そして、カバーエリア描画部11は、カバーエリア22の内部にある全てのボクセルに対してステップST7−4〜ST7−9の処理を実施する。   In the fragment drawing processing in steps ST7-4 to ST7-9, the fragment is originally a drawing unit, but in the third embodiment, the voxel is used as a drawing unit. Then, the cover area drawing unit 11 performs the processes of steps ST7-4 to ST7-9 on all the voxels inside the cover area 22.

先ず、カバーエリア描画部11がボクセル配列を順番に走査して、対象ボクセルがカバーエリア22内部のボクセルであればステップST7−5にて装置オブジェクト20から対象ボクセルまでの距離Bを計算する。具体的には、ボクセル配列における装置オブジェクト20およびカバーエリア22内部のボクセルのXYZ座標から、装置オブジェクト20と各ボクセルとの間の距離Bを容易に計算することができる。   First, the cover area drawing unit 11 sequentially scans the voxel array, and if the target voxel is a voxel in the cover area 22, the distance B from the device object 20 to the target voxel is calculated in step ST7-5. Specifically, the distance B between the device object 20 and each voxel can be easily calculated from the XYZ coordinates of the device object 20 in the voxel array and the voxel inside the cover area 22.

続くステップST7−6において、カバーエリア描画部11は距離マップ9のうちから対象ボクセルに対応する距離Aを距離Bと大小比較し、隠蔽判定を行い、透明度を有する隠蔽色または非隠蔽色を対象ボクセルに設定する(ステップST7−7,ST7−8)。   In subsequent step ST7-6, the cover area drawing unit 11 compares the distance A corresponding to the target voxel from the distance map 9 with the distance B, performs a concealment determination, and targets a concealed color or a non-hidden color having transparency. Set to voxel (steps ST7-7, ST7-8).

全てのボクセルについて描画が終了すれば(ステップST7−9“YES”)、続くステップST7−10において図形描画部12がそのボクセル配列をフレームメモリ13内のフレームバッファ13aに描画し、表示部14がフレームバッファ13aの画像データをディスプレイ3に表示する。   If drawing is completed for all voxels (“YES” in step ST7-9), the graphic drawing unit 12 draws the voxel array in the frame buffer 13a in the frame memory 13 in the subsequent step ST7-10, and the display unit 14 The image data of the frame buffer 13a is displayed on the display 3.

以上より、実施の形態3によれば、カバーエリア描画部11は、カバーエリア22を示す3次元図形をボクセル配列にして描画するときに、当該カバーエリア22の隠蔽部分23に相当する各ボクセルと非隠蔽部分24に相当する各ボクセルとを視覚的に区別して描画するように構成した。このため、カバーエリア22の内部の隠蔽の様子を滑らかに、かつ、きめ細かく表示することができるようになり、ユーザはカバーエリアの伝播遮蔽を正確かつ短時間に把握することができる。   As described above, according to the third embodiment, when the cover area drawing unit 11 draws a three-dimensional figure indicating the cover area 22 in a voxel array, each voxel corresponding to the concealed portion 23 of the cover area 22 Each voxel corresponding to the non-hidden portion 24 is drawn so as to be visually distinguished. For this reason, the state of concealment inside the cover area 22 can be displayed smoothly and finely, and the user can grasp the propagation shield of the cover area accurately and in a short time.

なお、上記実施の形態1〜3では装置オブジェクト20、隠蔽オブジェクト21およびカバーエリア22を描画して、ディスプレイ3に画面表示するようにしたが、これに限定されるものではなく、例えばカバーエリア22のみを描画して画面表示してもよい。その場合には、例えば図13に示すステップST7−2において、カバーエリア描画部11がフレームバッファ13aとZバッファ13bをクリアすることにより、図8のステップST6にてオブジェクト描画部10が先に描画しておいた装置オブジェクト20と隠蔽オブジェクト21の表示を消せばよい。   In the first to third embodiments, the device object 20, the hidden object 21, and the cover area 22 are drawn and displayed on the display 3. However, the present invention is not limited to this. May be drawn and displayed on the screen. In this case, for example, in step ST7-2 shown in FIG. 13, the cover area drawing unit 11 clears the frame buffer 13a and the Z buffer 13b, so that the object drawing unit 10 draws first in step ST6 in FIG. It is only necessary to erase the display of the device object 20 and the hidden object 21 that have been stored.

1 カバレージ表示システム、2 カバレージ表示装置、3 ディスプレイ、4 対話装置、5 対話制御部、6 オブジェクト配置部、7 グラフィックメモリ、8 距離計算部、13a フレームバッファ、13b Zバッファ、9 距離マップ、10 オブジェクト描画部、11 カバーエリア描画部、12 図形描画部、13 フレームメモリ、
14 表示部、20 装置オブジェクト、20a カメラ、20b 焦電型赤外センサ、21 隠蔽オブジェクト、22 カバーエリア、23 隠蔽部分、24 非隠蔽部分、25 床、26 投影面、27 画素、28 ユーザ視点、29 投影面。
1 Coverage Display System, 2 Coverage Display Device, 3 Display, 4 Dialogue Device, 5 Dialogue Control Unit, 6 Object Placement Unit, 7 Graphic Memory, 8 Distance Calculation Unit, 13a Frame Buffer, 13b Z Buffer, 9 Distance Map, 10 Object Drawing unit, 11 Cover area drawing unit, 12 Graphic drawing unit, 13 Frame memory,
14 Display unit, 20 Device object, 20a Camera, 20b Pyroelectric infrared sensor, 21 Hidden object, 22 Cover area, 23 Hidden part, 24 Non-hidden part, 25 Floor, 26 Projection plane, 27 pixels, 28 User viewpoint, 29 Projection plane.

Claims (12)

直線的伝播特性を有する波動を検知または照射する装置をモデル化した装置オブジェクト、および当該波動の伝播を遮る物体をモデル化した隠蔽オブジェクトを仮想の3次元空間に配置するオブジェクト配置部と、
前記3次元空間において、前記装置オブジェクトが検知または照射するカバーエリアをスキャンし、各スキャン方向で前記装置オブジェクトに最も近い隠蔽オブジェクトまでの第1距離を計算して距離マップを生成する距離計算部と、
前記3次元空間に前記カバーエリアを示す3次元図形を描画するときに、前記装置オブジェクトから当該3次元図形の任意部分までの第2距離を計算し、前記距離マップ内の対応する第1距離との比較結果に基づいて、当該3次元図形の前記隠蔽オブジェクトに遮られる隠蔽部分と遮られない非隠蔽部分とを視覚的に区別して描画するカバーエリア描画部と、
任意位置に設定される視点から見た前記3次元空間を示す画像データを生成する図形描画部とを備えるカバレージ表示装置。
An object placement unit that places a device object that models a device that detects or irradiates a wave having linear propagation characteristics, and a hidden object that models an object that blocks propagation of the wave in a virtual three-dimensional space;
A distance calculation unit that scans a cover area detected or irradiated by the device object in the three-dimensional space, calculates a first distance to a hidden object closest to the device object in each scan direction, and generates a distance map; ,
Calculating a second distance from the device object to an arbitrary part of the three-dimensional graphic when drawing a three-dimensional graphic indicating the cover area in the three-dimensional space, and a corresponding first distance in the distance map; Based on the comparison result, a cover area drawing unit for visually distinguishing a non-hidden part and a non-hidden part that is blocked by the hidden object of the three-dimensional figure,
A coverage display device comprising: a graphic drawing unit that generates image data representing the three-dimensional space viewed from a viewpoint set at an arbitrary position.
前記カバーエリア描画部は、3次元空間の任意位置に設定される視点から見たカバーエリアの3次元図形を隠面消去して描画し、当該隠面消去処理で得られる描画部分の3次元座標を用いて第2距離を計算することを特徴とする請求項1記載のカバレージ表示装置。   The cover area drawing unit draws the 3D figure of the cover area viewed from the viewpoint set at an arbitrary position in the 3D space by removing the hidden surface, and 3D coordinates of the drawing portion obtained by the hidden surface removal process The coverage display apparatus according to claim 1, wherein the second distance is calculated by using. 前記カバーエリア描画部は、3次元空間の任意位置に設定される視点から見たカバーエリアの3次元図形をZバッファ法により隠面消去して描画し、当該視点を基準にした座標系で表される描画部分の3次元座標を、装置オブジェクトを基準にした座標系に変換して第2距離を計算することを特徴とする請求項1記載のカバレージ表示装置。   The cover area drawing unit draws a three-dimensional figure of the cover area viewed from a viewpoint set at an arbitrary position in the three-dimensional space by erasing the hidden surface using the Z buffer method, and displays the figure in a coordinate system based on the viewpoint. The coverage display apparatus according to claim 1, wherein the second distance is calculated by converting the three-dimensional coordinates of the rendered portion into a coordinate system based on the apparatus object. 前記距離計算部は、装置オブジェクトを視点に用いて、当該視点から見た隠蔽オブジェクトを隠面消去して描画し、前記装置オブジェクトから当該隠面消去処理で得られる前記隠面オブジェクトの描画部分までの距離を第1距離とする請求項1記載のカバレージ表示装置。   The distance calculation unit draws the hidden object viewed from the viewpoint by using the device object as a viewpoint, erases the hidden surface, and draws the hidden surface object obtained from the device object by the hidden surface removal process. The coverage display apparatus according to claim 1, wherein the distance is a first distance. 前記カバーエリア描画部は、カバーエリアを示す3次元図形として当該カバーエリアの境界面を描画することを特徴とする請求項1記載のカバレージ表示装置。   The coverage display apparatus according to claim 1, wherein the cover area drawing unit draws a boundary surface of the cover area as a three-dimensional figure indicating the cover area. 前記カバーエリア描画部は、カバーエリアを示す3次元図形として当該カバーエリア内に設定する一つ以上の平面を描画することを特徴とする請求項1記載のカバレージ表示装置。   The coverage display apparatus according to claim 1, wherein the cover area drawing unit draws one or more planes set in the cover area as a three-dimensional figure indicating the cover area. 前記カバーエリア描画部は、カバーエリアを示す3次元図形として当該カバーエリア内に設定する多面体を描画することを特徴とする請求項1記載のカバレージ表示装置。   The coverage display apparatus according to claim 1, wherein the cover area drawing unit draws a polyhedron set in the cover area as a three-dimensional figure indicating the cover area. 前記平面または多面体は、隠蔽オブジェクトと交差する平面または多面体であることを特徴とする請求項6または請求項7記載のカバレージ表示装置。   8. The coverage display apparatus according to claim 6, wherein the plane or polyhedron is a plane or polyhedron that intersects with a hidden object. 前記カバーエリア描画部は、視点の設定位置に応じて前記平面または多面体の位置を変更することを特徴とする請求項6または請求項7記載のカバレージ表示装置。   The coverage display device according to claim 6 or 7, wherein the cover area drawing unit changes a position of the plane or polyhedron according to a set position of a viewpoint. 前記カバーエリア描画部は、カバーエリアを示す3次元図形をボクセル配列として描画するときに、当該カバーエリアの隠蔽部分に相当する各ボクセルと非隠蔽部分に相当する各ボクセルとを視覚的に区別して描画することを特徴とする請求項1記載のカバレージ表示装置。   The cover area drawing unit visually distinguishes each voxel corresponding to a concealed portion of the cover area and each voxel corresponding to a non-hidden portion when drawing a three-dimensional figure indicating the cover area as a voxel array. The coverage display apparatus according to claim 1, wherein the coverage display apparatus draws. 画像データを表示するディスプレイと、
ユーザの指示を受け付ける対話装置と、
装置オブジェクトのカバーエリアを示す3次元図形を、前記対話装置が受け付ける指示に従って対話形式に描画して画像データを生成し、前記ディスプレイに表示させる請求項1から請求項10のうちのいずれか1項記載のカバレージ表示装置とを備えるカバレージ表示システム。
A display for displaying image data;
An interactive device that accepts user instructions;
11. The apparatus according to claim 1, wherein a three-dimensional figure indicating a cover area of a device object is drawn in an interactive format in accordance with an instruction received by the interactive device, image data is generated, and displayed on the display. A coverage display system comprising the described coverage display device.
直線的伝播特性を有する波動を検知または照射する装置をモデル化した装置オブジェクト、および当該波動の伝播を遮る物体をモデル化した隠蔽オブジェクトを仮想の3次元空間に配置するオブジェクト配置手順と、
前記3次元空間において、前記装置オブジェクトが検知または照射するカバーエリアをスキャンし、各スキャン方向で前記装置オブジェクトに最も近い隠蔽オブジェクトまでの第1距離を計算して距離マップを生成する距離計算手順と、
前記3次元空間に前記カバーエリアを示す3次元図形を描画するときに、前記装置オブジェクトから当該3次元図形の任意部分までの第2距離を計算し、前記距離マップ内の対応する第1距離との比較結果に基づいて、当該3次元図形の前記隠蔽オブジェクトに遮られる隠蔽部分と遮られない非隠蔽部分とを視覚的に区別して描画するカバーエリア描画手順と、
任意位置に設定される視点から見た前記3次元空間を示す画像データを生成する図形描画手順とをコンピュータに実行させるためのカバレージ表示プログラム。
An object placement procedure for placing in a virtual three-dimensional space a device object that models a device that detects or irradiates a wave having linear propagation characteristics, and a hidden object that models an object that blocks the propagation of the wave;
A distance calculation procedure for generating a distance map by scanning a cover area detected or irradiated by the device object in the three-dimensional space and calculating a first distance to a concealed object closest to the device object in each scan direction; ,
Calculating a second distance from the device object to an arbitrary part of the three-dimensional graphic when drawing a three-dimensional graphic indicating the cover area in the three-dimensional space, and a corresponding first distance in the distance map; Based on the comparison result, a cover area drawing procedure for drawing the three-dimensional figure by visually distinguishing between a hidden part blocked by the hidden object and a non-hidden part not blocked,
A coverage display program for causing a computer to execute a graphic drawing procedure for generating image data indicating the three-dimensional space viewed from a viewpoint set at an arbitrary position.
JP2010178456A 2010-08-09 2010-08-09 Coverage display device, coverage display system and coverage display program Pending JP2012038132A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010178456A JP2012038132A (en) 2010-08-09 2010-08-09 Coverage display device, coverage display system and coverage display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010178456A JP2012038132A (en) 2010-08-09 2010-08-09 Coverage display device, coverage display system and coverage display program

Publications (1)

Publication Number Publication Date
JP2012038132A true JP2012038132A (en) 2012-02-23

Family

ID=45850062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010178456A Pending JP2012038132A (en) 2010-08-09 2010-08-09 Coverage display device, coverage display system and coverage display program

Country Status (1)

Country Link
JP (1) JP2012038132A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741158B2 (en) 2013-05-24 2017-08-22 Samsung Electronics Co., Ltd. Graphic processing unit and tile-based rendering method
JP2022037047A (en) * 2019-05-24 2022-03-08 株式会社カプコン Game program and game device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741158B2 (en) 2013-05-24 2017-08-22 Samsung Electronics Co., Ltd. Graphic processing unit and tile-based rendering method
JP2022037047A (en) * 2019-05-24 2022-03-08 株式会社カプコン Game program and game device

Similar Documents

Publication Publication Date Title
JP4975673B2 (en) Camera installation simulator program
US8970586B2 (en) Building controllable clairvoyance device in virtual world
US7739623B2 (en) Interactive 3D data editing via 2D graphical drawing tools
US20130300740A1 (en) System and Method for Displaying Data Having Spatial Coordinates
JP4764305B2 (en) Stereoscopic image generating apparatus, method and program
CN109313821B (en) Three-dimensional object scan feedback
US10911645B2 (en) Image processing device, image processing method, and recording medium
US20120194425A1 (en) Interactive selection of a region of interest in an image
JP2017505471A (en) Image rendering of laser scan data
JP4142065B2 (en) Reduced Z-buffer generation method, hidden surface removal method, and occlusion culling method
AU2017279678A1 (en) Fast rendering of quadrics
CN111862333A (en) Content processing method and device based on augmented reality, terminal equipment and storage medium
EP3246881B1 (en) Layered lightfields for occlusion handling
JP2007310797A (en) Occlusion culling method and plotting processor
JP4885042B2 (en) Image processing method, apparatus, and program
JP2008259699A (en) Image processing method and apparatus, and program
KR20120104071A (en) 3d image visual effect processing method
CN116485984A (en) Global illumination simulation method, device, equipment and medium for panoramic image vehicle model
JP2023527438A (en) Geometry Recognition Augmented Reality Effect Using Real-time Depth Map
JP2012038132A (en) Coverage display device, coverage display system and coverage display program
Dong et al. Resolving incorrect visual occlusion in outdoor augmented reality using TOF camera and OpenGL frame buffer
JP5593911B2 (en) Video generation apparatus, video generation program, and video generation method
JP6859763B2 (en) Program, information processing device
JP6526605B2 (en) Virtual camera image generating device
JP2005310188A (en) Image generation device