JP4616167B2 - Drawing method, image data generation system, CAD system, and viewer system - Google Patents

Drawing method, image data generation system, CAD system, and viewer system Download PDF

Info

Publication number
JP4616167B2
JP4616167B2 JP2005379748A JP2005379748A JP4616167B2 JP 4616167 B2 JP4616167 B2 JP 4616167B2 JP 2005379748 A JP2005379748 A JP 2005379748A JP 2005379748 A JP2005379748 A JP 2005379748A JP 4616167 B2 JP4616167 B2 JP 4616167B2
Authority
JP
Japan
Prior art keywords
line
image
dimensional
dimensional object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005379748A
Other languages
Japanese (ja)
Other versions
JP2007179461A (en
Inventor
士郎 野中
勝也 古川
唯史 久保
健一 通澤
忠 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005379748A priority Critical patent/JP4616167B2/en
Publication of JP2007179461A publication Critical patent/JP2007179461A/en
Application granted granted Critical
Publication of JP4616167B2 publication Critical patent/JP4616167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、3次元物体の2次元画像出力に係り、その3次元形状の把握を容易にするための輪郭線,稜線,及び/又は相貫線の描画方法、並びに当該描画方法を用いた画像データ生成システム、CADシステム、及びビューワシステムに関するものである。   The present invention relates to a two-dimensional image output of a three-dimensional object, a method for drawing a contour line, a ridge line, and / or an interphase line for facilitating understanding of the three-dimensional shape, and an image using the drawing method. The present invention relates to a data generation system, a CAD system, and a viewer system.

本発明は、特に、3次元CAD(Computer Aided Design)で生成された、複雑かつ高密度或いは大規模に配置された3次元物体の形状の把握に使用して好適な、輪郭線,稜線,及び/又は相貫線の描画方法に関するものである。   The present invention is particularly suitable for use in grasping the shape of a complex, high-density or large-scale arranged three-dimensional object generated by three-dimensional CAD (Computer Aided Design). The present invention relates to a method for drawing an interphase line.

従来、3次元物体の2次元画像出力では、その3次元形状の把握を容易にするため、物体の輪郭線,稜線,及び/又は相貫線について視点からの可視部分だけを線画として表示する隠線処理や、物体の形状面について視点からの可視部分だけを画像として表示する隠面処理が広く用いられている。   Conventionally, in the 2D image output of a 3D object, in order to make it easy to grasp the 3D shape, the hidden line that displays only the visible part from the viewpoint of the outline, ridgeline, and / or interphase line of the object is displayed. Line processing and hidden surface processing that displays only the visible part from the viewpoint of the shape surface of an object as an image are widely used.

ここで、輪郭線とは、3次元物体の可視面と不可視面との境界線を意味し、稜線とは、3次元物体の可視面と可視面との接線不連続の境界線を意味し、相貫線とは、異なる3次元物体間の面が交わる境界線を意味するものである。   Here, the contour line means the boundary line between the visible surface and the invisible surface of the three-dimensional object, and the ridge line means the boundary line of the tangent discontinuity between the visible surface and the visible surface of the three-dimensional object, An interphase line means a boundary line where planes between different three-dimensional objects intersect.

GWS(Graphics Work Station)やグラフィック機能を備えたPC(Personal Computer)では、その内蔵されたハードウェア機能による高速な隠面処理と光の当たり具合によって色調が変化する状態を表示するシェーディング(shading)処理とにより、3次元物体の形状の把握を容易にすることが広く行われている。   In the case of GWS (Graphics Work Station) and PC (Personal Computer) equipped with graphic functions, shading is used to display a state in which the color tone changes depending on the high-speed hidden surface processing and the light hitting state using the built-in hardware functions. By processing, it is widely performed to easily grasp the shape of a three-dimensional object.

これら隠面処理,シェーディング処理については、非特許文献1の画像処理ハンドブック編集委員会編「画像処理ハンドブック」(昭晃堂 1986年)に具体的に記載されている。
さらに、上述した隠線処理の線画、及び隠面処理における画像の距離情報を利用して作成した輪郭線や稜線の画像を、シェーディング処理した結果と組み合わせることで、エッジを強調した画像を生成し、3次元物体の形状の把握を容易にすることも行われている。
これについては、特許文献1の特開平3−123985号公報に記載されている。
These hidden surface processing and shading processing are specifically described in “Image Processing Handbook” (Shododo 1986) edited by the Image Processing Handbook Editorial Committee of Non-Patent Document 1.
Furthermore, by combining the line drawing of the above-mentioned hidden line processing and the image of the contour line and ridge line created using the distance information of the image in the hidden surface processing with the result of the shading process, an image with enhanced edges is generated. It has also been made easier to grasp the shape of a three-dimensional object.
This is described in Japanese Patent Laid-Open No. 3-123985 of Patent Document 1.

特開平3−123985号公報JP-A-3-123985 画像処理ハンドブック編集委員会編 「画像処理ハンドブック」(昭晃堂 1986年)Image Processing Handbook Editorial Committee “Image Processing Handbook” (Shododo 1986)

しかしながら、隠線処理を用いて3次元物体の形状を把握し易くする方法は、3次元物体の輪郭線を計算する必要があり、時間を要するという問題点がある。この隠線処理を用いる方法では、その輪郭線や稜線が他の面によって視点から遮られるか否かを判定し、必要に応じては本来1本の輪郭線や稜線を複数に分割する必要があるため、基本的に面の数の二乗のオーダーの処理時間がかかる。そのため、特に面の数が多い3次元物体の形状を描画する場合は、非常に多大な計算時間を要するという問題点がある。   However, the method of making it easy to grasp the shape of a three-dimensional object using hidden line processing has a problem in that it requires time to calculate the contour line of the three-dimensional object and takes time. In the method using the hidden line processing, it is necessary to determine whether or not the contour line or the ridge line is obstructed from the viewpoint by another surface, and if necessary, it is necessary to divide the single contour line or the ridge line into a plurality of pieces. For this reason, processing time for the order of the square of the number of faces is basically required. For this reason, there is a problem that a very long calculation time is required particularly when drawing the shape of a three-dimensional object having a large number of surfaces.

また、隠線処理を用いる方法は、輪郭線の生成や、輪郭線や稜線の分割の際に、計算誤差の影響を受け易く、本来見えるべき線が見えなくなってしまったり、逆に見えない線が見えてしまったりすることが起こり易いという問題点もある。   Also, the method using hidden line processing is easily affected by calculation errors when generating contour lines and dividing contour lines and ridge lines. There is also a problem that it is easy to happen.

一方、隠面処理とシェーディング処理とを組み合わせて3次元物体の形状を把握し易くする方法は、GWSやPCに内蔵されているハードウェアの機能を用いることで隠面処理やシェーディング処理を高速に行うことができる。しかし、この方法では、ユーザは2次元画像出力における色調の変化を認識して3次元物体の形状を把握することになるため、特に同じような色の面が数多く存在する3次元物体の場合は輪郭がはっきりせず、その形状の把握が困難又は不可能になる場合が生じるという問題点がある。さらに、通常、紙面に印刷する場合は、出力装置の画面のハードコピーを取得することによって行われるが、特に複雑かつ大規模高密度或いは大規模に配置された3次元物体の形状全体を印刷する場合は、出力装置の画面画素数では解像度が不足し、細かなところまで描画できないという問題点がある。   On the other hand, a method that makes it easy to grasp the shape of a three-dimensional object by combining hidden surface processing and shading processing is to speed up hidden surface processing and shading processing by using hardware functions built in GWS and PC. It can be carried out. However, in this method, since the user recognizes the change in color tone in the output of the two-dimensional image and grasps the shape of the three-dimensional object, particularly in the case of a three-dimensional object having many similar color surfaces. There is a problem that the outline is not clear and it is difficult or impossible to grasp the shape. In addition, printing on paper is usually performed by obtaining a hard copy of the screen of the output device. In particular, the entire shape of a complicated and large-scale high-density or large-scale arranged three-dimensional object is printed. In this case, there is a problem in that the resolution is insufficient with the number of screen pixels of the output device, and it is not possible to draw a fine part.

そこで、隠面処理とシェーディング処理との組み合わせによって、面内部を物体の面の色で塗り、面の境界線を例えば黒で塗ることによって、3次元物体におけるエッジを強調したような画像を生成することも可能である。しかし、この方法では、例えば、円柱を表示のためにN角柱(Nは整数)に分割するように、一の面が表示のために複数の面に分割されている場合に、それらの分割された面の境界も黒く塗られるという問題点がある。また、従来の隠面処理とシェーディング処理との組み合わせによってエッジを強調した画像を生成する方法では、このエッジの生成に隠線処理を用いることになってしまい、前述の隠線処理の説明で述べた問題点を再び考慮せざるを得ない。   Therefore, by combining the hidden surface processing and the shading processing, the interior of the surface is painted with the color of the surface of the object, and the boundary line of the surface is painted with, for example, black, thereby generating an image that emphasizes the edge of the three-dimensional object. It is also possible. However, in this method, for example, when one surface is divided into a plurality of surfaces for display such that a cylinder is divided into N prisms (N is an integer) for display, these are divided. There is a problem that the boundary of the surface is painted black. In addition, in the conventional method of generating an image in which an edge is enhanced by a combination of hidden surface processing and shading processing, the hidden line processing is used to generate the edge, and is described in the explanation of the hidden line processing described above. I have to consider the problem again.

また、特許文献1に記載されているような、隠面処理における画像の距離情報を利用して輪郭線や稜線の画像を生成する場合は、画像の距離情報が不連続に変化する1次微分画像(1次微分のピーク値)、及び画像の距離情報の1次微分が不連続に変化する2次微分画像(2次微分のピーク値)をそれぞれ抽出し、輪郭線はこの1次微分画像を基にして、また稜線はこの2次微分画像を基にして作成される。また、その作成では、注目する画像(画素)の周辺の画像(画素)を1次微分して導出した1次微分最大画像や1次微分最小画像を用い、不具合をなくすための補正をかけて作成するようになっている。   In addition, when an image of a contour line or a ridge line is generated using the image distance information in the hidden surface processing as described in Patent Document 1, the first-order differential in which the image distance information changes discontinuously. The image (the peak value of the first derivative) and the second derivative image (the peak value of the second derivative) in which the first derivative of the distance information of the image changes discontinuously are extracted, and the contour line is the first derivative image. And a ridge line is created based on this second-order differential image. Further, in the creation, correction is performed using a first-order differential maximum image or a first-order differential minimum image derived by first-order differentiation of an image (pixel) around the image (pixel) of interest, and correcting the problem. It is designed to create.

しかし、このようにして隠面処理における画像の距離情報を利用して輪郭線や稜線の画像を生成する場合、その周辺の画像には、注目する画像と同じ面や異なる面の画像が含まれていることから、誤差を生じ易いという問題がある。また、その補正には適切な定数を用いる必要があるが、その適正な値を定めることが、対象形状や描画目的に依存しており、かつ定めることが難しいという問題点がある。   However, when the image of the contour line or the ridge line is generated in this way by using the distance information of the image in the hidden surface processing, the peripheral image includes an image of the same or different surface as the image of interest. Therefore, there is a problem that an error is likely to occur. Moreover, although it is necessary to use an appropriate constant for the correction, there is a problem that it is difficult to determine an appropriate value because it depends on a target shape and a drawing purpose.

さらに、この方法は、コンピュータグラフィックスによる描画を主対象としているため、画像の輝度を変化させることでエッジを視覚的に強調することから、輪郭線や稜線だけを抽出するいわゆる隠線処理と同様の画像は、生成が困難であるという問題点がある。   Furthermore, since this method is mainly drawn by computer graphics, the edges are visually emphasized by changing the brightness of the image, so it is the same as the so-called hidden line processing that extracts only the contour lines and ridge lines. This image has a problem that it is difficult to generate the image.

本発明の目的は、上記問題点を解決し、3次元物体の形状の把握が容易な、輪郭線,稜線,及び/又は相貫線の描画方法、加えて当該描画方法を用いた画像データ生成システム、及びビューワシステムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems and to easily understand the shape of a three-dimensional object, and to generate a contour line, a ridge line, and / or an interstitial line, and to generate image data using the drawing method. To provide a system and a viewer system.

本発明の描画方法及び画像データ生成システムは、上述した課題を解決するために、描画する3次元物体の各面にそれぞれ異なる面識別情報としての面ID(Identification)を付与し、その上でそれぞれ異なる面IDが付与された3次元物体の形状情報に対して隠
面処理を施して、3次元物体の画像情報を生成した上で、この画像情報における画素の面IDを判断の材料として、この3次元物体の輪郭線,稜線及び/又は相貫線を表す画像情報を生成することを特徴とする。
In order to solve the above-described problems, the drawing method and the image data generation system of the present invention assign surface IDs (Identification) as different surface identification information to the respective surfaces of the three-dimensional object to be drawn, and then each of them. A hidden surface process is performed on the shape information of a three-dimensional object to which a different surface ID is assigned to generate image information of the three-dimensional object, and the surface ID of the pixel in the image information is used as a determination material. Image information representing a contour line, a ridge line, and / or an interphase line of a three-dimensional object is generated.

そのために、本発明の描画方法は、3次元物体の輪郭線,稜線,及び/又は相貫線のうち、可視であるものを2次元画像として出力する輪郭線,稜線,及び/又は相貫線の描画方法であって、描画する3次元物体の各面にそれぞれ異なる面識別情報を付与する面識別情報付与工程、この面識別情報付与工程によって面識別情報が付与された3次元物体の形状情報に対して隠面処理を施して3次元物体の画像情報を生成する隠面処理工程、この隠面処理工程で生成された3次元物体の画像情報のそれぞれ画素について、隣り合う画素同士の面識別情報の相違に基づいて、輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する線画画像生成工程を有し、この線画画像生成工程は、隠面処理工程で生成された3次元物体の画像情報の互いに隣り合う4つの画素それぞれに関しての面識別情報の中で、少なくともいずれかの画素の面識別情報が残りの画素の面識別情報と相違する場合に、輪郭線,稜線,及び/又は相貫線を表す画像情報を形成する1つの画素を、当該4つの画素の中心位置に対応するように生成することを特徴とする。 For this purpose, the drawing method of the present invention provides a contour line, a ridge line, and / or an interphase line that outputs a visible one of the contour line, ridge line, and / or interphase line of a three-dimensional object as a two-dimensional image. In this drawing method, a surface identification information adding step for assigning different surface identification information to each surface of a three-dimensional object to be drawn, and shape information of the three-dimensional object to which surface identification information is given by the surface identification information giving step A hidden surface processing step of generating image information of a three-dimensional object by performing hidden surface processing on the surface, and for identifying each pixel of the image information of the three-dimensional object generated in the hidden surface processing step, surface identification between adjacent pixels based on the difference information, contour, have a line drawing image generation step of generating image information representing a ridge line, and / or phase transmural lines, the line drawing image generation step, 3-dimensional generated in hidden surface processing step Next to each other image information of the object In the surface identification information for each of the four matching pixels, when the surface identification information of at least one of the pixels is different from the surface identification information of the remaining pixels, the contour line, the edge line, and / or the interphase line are represented. One pixel forming image information is generated so as to correspond to the center position of the four pixels .

また、本発明の描画方法は、3次元物体の輪郭線,稜線,及び/又は相貫線のうち、可視であるものを2次元画像として出力する輪郭線,稜線,及び/又は相貫線の描画方法であって、描画する3次元物体の各面にそれぞれ異なる面識別情報を付与する面識別情報付与工程、この面識別情報付与工程によって面識別情報が付与された3次元物体の形状情報に対して隠面処理を施して3次元物体の画像情報を生成するとともに、当該画像情報のそれぞれ画素の視点からの距離情報を準備する隠面処理工程、この隠面処理工程で生成された3次元物体の画像情報のそれぞれ画素について、隣り合う画素同士の面識別情報の相違、及び視点からの距離情報の差に基づいて、輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する線画画像生成工程を有し、この線画画像生成工程は、輪郭線,稜線,及び/又は相貫線を表す画像情報を形成する1つの画素を、隠面処理工程で生成された3次元物体の画像情報の互いに隣り合う4つの画素に関しての面識別情報の相違と、当該4つの画素における2画素間の視点からの距離情報の差に関しての基準値に対する比較とに基づいて生成することを特徴とする。 In addition, the drawing method of the present invention provides a contour line, ridge line, and / or interphase line that outputs a visible image as a two-dimensional image out of the contour line, ridge line, and / or phase line of the three-dimensional object. A drawing method, a surface identification information adding step for assigning different surface identification information to each surface of a three-dimensional object to be drawn, and shape information of the three-dimensional object to which the surface identification information is given by the surface identification information adding step. A hidden surface process is performed to generate image information of a three-dimensional object, and distance information from the viewpoint of each pixel of the image information is prepared, and the 3D generated in the hidden surface process step For each pixel of the image information of the object, image information representing a contour line, a ridge line, and / or a continuous line is generated based on a difference in surface identification information between adjacent pixels and a difference in distance information from the viewpoint. Line drawing image generator Have a, the line drawing image generation step, contour, ridge, and / or a pixel that forms an image information representing a phase transmural lines, each other image information of a three-dimensional object generated by the hidden surface processing step It generates based on the difference with respect to the surface identification information regarding four adjacent pixels, and the comparison with respect to the reference value regarding the difference of the distance information from the viewpoint between two pixels in the four pixels .

また、本発明の画像データ生成システムは、上述した輪郭線,稜線,及び/又は相貫線の描画方法を用いて、画像データを生成することを特徴とする。   The image data generation system of the present invention is characterized in that image data is generated using the above-described drawing method for contour lines, ridge lines, and / or interphase lines.

また、本発明のCADシステム及びビューワシステムは、上述した輪郭線,稜線,及び/又は相貫線の描画方法を用いて、描画画像データを生成することを特徴とする。   The CAD system and the viewer system of the present invention are characterized in that drawing image data is generated using the above-described drawing method of contour lines, ridge lines, and / or interphase lines.

本発明によれば、隠面消去処理を利用し、画像の画素の面IDの違いにより、輪郭線,稜線,及び/又は相貫線の線画画像を生成するため、高速で精度の良い輪郭線,稜線,及び/又は相貫線を有した3次元物体の2次元画像を出力できる。   According to the present invention, a line drawing image of a contour line, a ridge line, and / or an interstitial line is generated by using a hidden surface erasure process and a difference in the surface ID of the pixel of the image. , Ridge lines, and / or two-dimensional images of three-dimensional objects having interpenetrating lines.

また、本発明によれば、複数の画像に分割し各々で生成した画像を組み合わせることで、必要な精度(画素数)の画像を生成できる。   Further, according to the present invention, it is possible to generate an image with necessary accuracy (number of pixels) by combining images generated by dividing into a plurality of images.

また、本発明よれば、高速で精度の良い輪郭線,稜線,及び/又は相貫線の描画を、3次元CADのデータを表示できるPCやGWSを使用し、特別なハードウェアを必要とせず、簡単なシステムで高速に実現することができる。   In addition, according to the present invention, high-speed and high-precision contour lines, ridge lines, and / or interphase lines can be drawn using a PC or GWS that can display three-dimensional CAD data, and no special hardware is required. It can be realized at high speed with a simple system.

以下、本発明の実施の形態について、図面とともに説明する。
[第1の実施の形態]
本発明の第1の実施の形態として、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像を生成するための描画方法について、図面に基づいて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
As a first embodiment of the present invention, a drawing method for generating a black-and-white line drawing image of a three-dimensional object in which contour lines, ridge lines, and / or interphase lines are described will be described with reference to the drawings.

図1は、本発明の第1の実施の形態による描画方法を採用した3次元物体の画像生成システムの一実施例を示す機能ブロック図である。   FIG. 1 is a functional block diagram showing an example of a three-dimensional object image generation system employing the drawing method according to the first embodiment of the present invention.

画像生成システムは、第1のデータ記憶手段11,第2のデータ記憶手段12,第3のデータ記憶手段13,入出力手段21,ID付与手段31,隠面処理手段32,画像生成手段33,制御手段41を備えて構成されている。   The image generation system includes a first data storage unit 11, a second data storage unit 12, a third data storage unit 13, an input / output unit 21, an ID assigning unit 31, a hidden surface processing unit 32, an image generation unit 33, A control means 41 is provided.

入出力手段21は、図示せぬ外部機器と第1のデータ記憶手段11,第2のデータ記憶手段12,第3のデータ記憶手段13それぞれとの間で、データの入出力を行う。外部機器は、例えば、3次元物体の形状情報を作成・出力するCAD,3次元物体の形状情報を読み取る情報読取機器等といった入力機器や、画像を表示するための表示器,画像を印刷出力するためのプリンタ等といった出力機器が該当する。   The input / output unit 21 inputs and outputs data between an external device (not shown) and the first data storage unit 11, the second data storage unit 12, and the third data storage unit 13. The external device is, for example, an input device such as a CAD for creating and outputting shape information of a three-dimensional object, an information reading device for reading the shape information of a three-dimensional object, a display for displaying an image, and printing out an image. This corresponds to an output device such as a printer.

第1のデータ記憶手段11は、入出力手段21を介して外部機器から供給される3次元物体の形状情報や、外部機器等によって設定されたその表示条件(例えば、視点の位置情報,光原情報)、等を記憶する。   The first data storage unit 11 includes shape information of a three-dimensional object supplied from an external device via the input / output unit 21 and display conditions set by the external device or the like (for example, position information of the viewpoint, light source) Information), etc.

第2のデータ記憶手段12は、後述する隠面処理手段32によって隠面処理が施された3次元物体の画像情報、等を記憶する。   The second data storage unit 12 stores image information of the three-dimensional object that has been subjected to the hidden surface processing by the hidden surface processing unit 32 described later.

第3のデータ記憶手段13は、外部機器に対して表示・印刷出力するための3次元物体の2次元出力画像情報、等を記憶する。   The third data storage unit 13 stores two-dimensional output image information of a three-dimensional object for display / print output to an external device, and the like.

ID付与手段31は、第1のデータ記憶手段11に記憶された3次元物体の形状情報によって描画される3次元物体の各構成面(以下、単に面と称す)に、それぞれを識別するための面識別情報として、異なる面IDを付与する。ID付与手段31は、この面IDを、3次元物体の形状情報における面の色情報を利用して付与する。   The ID assigning unit 31 identifies each component surface (hereinafter simply referred to as a surface) of the three-dimensional object drawn by the shape information of the three-dimensional object stored in the first data storage unit 11. Different surface IDs are assigned as surface identification information. The ID assigning unit 31 assigns the surface ID using surface color information in the shape information of the three-dimensional object.

具体的には、3次元物体の形状情報には、3次元物体の形状を画像表示するために面の色情報が含まれている。この画像表示のための面の色情報は、R(赤),G(緑),B(青)の色要素それぞれを各8ビット(すなわち256レベル)のデータで表したもので、1670万色以上の面の色を表現できる。そこで、3次元物体の形状情報における面の色情報を面IDとして利用すれば、3次元物体の1670万以上の面をそれぞれ識別することが可能になる。ID付与手段31は、3次元物体の形状情報における3次元物体の面それぞれを画像表示するための本来の面の色情報に代えて、各面毎に面を識別するための色情報を付与することによって、3次元物体の形状情報の面の色情報で3次元物体の各面を識別できるようにする。   Specifically, the shape information of the three-dimensional object includes surface color information for displaying an image of the shape of the three-dimensional object. The color information of the surface for image display represents each of R (red), G (green), and B (blue) color elements as data of 8 bits (that is, 256 levels), and 16.7 million colors. The color of the above surface can be expressed. Therefore, if surface color information in the shape information of the three-dimensional object is used as a surface ID, it is possible to identify more than 16.7 million surfaces of the three-dimensional object. The ID assigning means 31 assigns color information for identifying each surface in place of the original surface color information for displaying each image of the three-dimensional object in the shape information of the three-dimensional object. Thus, each surface of the three-dimensional object can be identified by the color information of the surface of the shape information of the three-dimensional object.

隠面処理手段32は、3次元物体の形状情報と、その表示条件として記憶されている視点の位置情報等とを基に、3次元物体を形成する各面のうち、視点からは別の面や物体の陰になって見えない面部分を描画しないように隠面消去処理して、3次元物体の画像情報を生成する。隠面処理手段32は、具体的には、Zバッファ法,レイトレーシング法等を用い、3次元物体の形状情報に基づき描画される3次元物体の面の各画素について陰面処理を行う。この隠面処理手段32が行う隠面処理について、Zバッファ法を例に説明すれば、3次元物体の形状情報に基づき描画される3次元物体の面の各画素に視点からの距離情報(奥行き情報)を持たせ、同じ座標上に描画される異なる面の画素同士のそれぞれ奥行き情報を比較して、最も手前の視点寄りにある面の画素の情報を、3次元物体の画像情報として記憶するようになっている。隠面処理手段32によって隠面処理された3次元物体の画像情報は、第2のデータ記憶手段12に記憶される。   The hidden surface processing means 32 is a surface different from the viewpoint among the surfaces forming the three-dimensional object based on the shape information of the three-dimensional object and the position information of the viewpoint stored as the display condition. Then, hidden surface removal processing is performed so as not to draw a surface portion that cannot be seen behind the object, and image information of the three-dimensional object is generated. Specifically, the hidden surface processing means 32 performs hidden surface processing on each pixel of the surface of the three-dimensional object drawn based on the shape information of the three-dimensional object, using a Z buffer method, a ray tracing method, or the like. The hidden surface processing performed by the hidden surface processing means 32 will be described by taking the Z buffer method as an example. Distance information (depth) from the viewpoint of each pixel of the surface of the three-dimensional object rendered based on the shape information of the three-dimensional object. Information), the depth information of pixels on different surfaces drawn on the same coordinates are compared, and the pixel information on the surface closest to the viewpoint is stored as image information of the three-dimensional object. It is like that. The image information of the three-dimensional object subjected to the hidden surface processing by the hidden surface processing means 32 is stored in the second data storage means 12.

画像生成手段33は、第2のデータ記憶手段12に記憶されている隠面処理された3次元物体の画像情報に基づいて、その画像情報における各画素の面IDを用いて、輪郭線,
稜線,及び/又は相貫線を表す画像情報を、後述するようにして生成する。画像生成手段33は、生成した3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報を、第3のデータ記憶手段13に記憶する。
Based on the image information of the hidden surface processed three-dimensional object stored in the second data storage unit 12, the image generation unit 33 uses the surface ID of each pixel in the image information to generate a contour line,
Image information representing a ridge line and / or an interphase line is generated as described later. The image generation unit 33 stores image information representing the generated contour line, ridge line, and / or phase line of the generated three-dimensional object in the third data storage unit 13.

制御手段41は、入出力手段21,各記憶手段11〜13,ID付与手段31や隠面処理手段32等といった情報処理手段,といった画像生成システムの各部を制御する。
図2は、図1に示した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像を生成する処理の流れを説明したフローチャートである。
The control means 41 controls each part of the image generation system such as the input / output means 21, the storage means 11 to 13, and information processing means such as the ID assigning means 31 and the hidden surface processing means 32.
FIG. 2 is a flowchart for explaining a flow of processing for generating a black and white line drawing image of a three-dimensional object in which an outline, a ridgeline, and / or an inset line are described by the three-dimensional object image generation system shown in FIG. It is.

まず、図2のステップS101で、制御手段41は、図1に示した入出力手段21によって、例えば外部機器のCADシステムによって生成された3次元物体の形状情報や、この3次元物体の形状情報を画像表示するにあたって設定された表示条件の供給を受けると、これらを第1のデータ記憶手段11に記憶する。   First, in step S101 of FIG. 2, the control unit 41 uses the input / output unit 21 shown in FIG. 1 to generate, for example, the shape information of the three-dimensional object generated by the CAD system of the external device, or the shape information of the three-dimensional object. When the display conditions set in displaying the image are received, they are stored in the first data storage means 11.

次に、制御手段41は、ステップS102で、第1のデータ記憶手段11に記憶されている3次元物体の形状情報を、ID付与手段31に読み込ませる。ID付与手段31は、3次元物体の形状情報に基づいて描画される面それぞれに、画像表示するための面の本来の色情報に代えて、面毎に互いに異なる色情報からなる面IDを付与する。   Next, the control means 41 causes the ID provision means 31 to read the shape information of the three-dimensional object stored in the first data storage means 11 in step S102. The ID assigning means 31 assigns a surface ID composed of different color information for each surface, instead of the original color information of the surface for image display, to each surface rendered based on the shape information of the three-dimensional object. To do.

この場合、ID付与手段31は、面IDを、3次元物体の形状情報が表す3次元物体の各面に、“1”からの一貫した通し番号データで与え、各面が他の面に対して識別できるようにしている。そして、この一貫した通し番号データの付与には、画像表示のために3次元物体の各面の色を、R(赤),G(緑),B(青)の色要素それぞれを各8ビット(すなわち256レベル)で表現している面の本来の色情報を利用する。そのため、面IDは、面の色情報に1:1に対応する。したがって、ID付与手段31は、3次元物体の形状情報の本来の画像表示のため面の色情報に代えて、面毎に異なる色情報を面IDとして、上述したように“1”からの一貫した通し番号データで、面の本来の色とは関係なく機械的に付与する。   In this case, the ID assigning means 31 gives the surface ID to each surface of the three-dimensional object represented by the shape information of the three-dimensional object with consistent serial number data from “1”, and each surface is relative to the other surface. It can be identified. For the consistent serial number data assignment, the color of each surface of the three-dimensional object is set to 8 bits (R (red), G (green), and B (blue) color elements) for image display. That is, the original color information of the surface expressed by 256 levels) is used. Therefore, the surface ID corresponds to the surface color information 1: 1. Accordingly, the ID assigning means 31 uses the color information different for each surface as the surface ID instead of the surface color information for displaying the original image of the shape information of the three-dimensional object, and as described above, consistently from “1”. The serial number data is mechanically assigned regardless of the original color of the surface.

また、ID付与手段31は、上述のようにして3次元物体の各面に面IDを付与するにあたって、1つの面が事前に複数の面領域に分割され、この分割面領域の複合によって近似されて表されているときには、これら領域分割された分割面領域それぞれに対して、同一の面IDを付与する構成になっている。例えば、円柱を多角柱で近似しているような場合、その円柱の周面は多角柱の複数の外周平坦面によって領域分割されて表されることになるが、このような場合は、ID付与手段31は、この多角柱の複数の外周平坦面それぞれに同一の面IDを付与する構成になっている。   In addition, when the surface ID is assigned to each surface of the three-dimensional object as described above, one surface is divided into a plurality of surface regions in advance and approximated by a combination of the divided surface regions. The same surface ID is assigned to each of the divided surface regions divided into these regions. For example, when a cylinder is approximated by a polygonal cylinder, the peripheral surface of the cylinder is represented by a region divided by a plurality of outer peripheral flat surfaces of the polygonal column. The means 31 is configured to give the same surface ID to each of the plurality of outer peripheral flat surfaces of the polygonal column.

そして、ID付与手段31によって本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体の形状情報は、制御手段41によって第1のデータ記憶手段11に記憶される。   Then, the shape information of the three-dimensional object to which the color information indicating the surface ID is assigned instead of the original surface color information by the ID assigning means 31 is stored in the first data storage means 11 by the control means 41. .

次に、制御手段41は、ステップS103で、ID付与手段31によって生成され、第1のデータ記憶手段11に記憶されている、面IDを示す色情報が付与されている3次元物体の形状情報とその表示条件とを、隠面処理手段32に読み込ませる。そして、3次元物体を形成する各面のうち、視点からは別の面や物体の陰になって見えない面部分を描画しないようにする隠面処理(隠面消去処理)を、隠面処理手段32によって施す。隠面処理手段32によって、隠面処理して生成され、その画素毎に面IDを示す色情報が付与されている3次元物体の画像情報は、第2のデータ記憶手段12に記憶される。   Next, in step S103, the control means 41 is generated by the ID assigning means 31 and stored in the first data storage means 11, and the shape information of the three-dimensional object to which the color information indicating the surface ID is assigned. And the display condition thereof are read by the hidden surface processing means 32. Hidden surface processing (hidden surface erasure processing) is performed so as not to draw a surface that is not visible from the viewpoint or is hidden behind the object among the surfaces forming the three-dimensional object. By means 32. The image information of the three-dimensional object generated by the hidden surface processing unit 32 and subjected to the hidden surface processing and provided with color information indicating the surface ID for each pixel is stored in the second data storage unit 12.

次に、制御手段41は、ステップS104で、第2のデータ記憶手段12に記憶されているその画素毎に面IDを示す色情報が付与されている3次元物体の画像情報を、画像生成手段33に読み込ませる。そして、画像生成手段33によって、その画像情報の面IDを示す色情報を用いて、3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報(線画画像情報)を生成させる。画像生成手段33によって生成された3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報は、3次元物体の2次元出力画像情報として、第3のデータ記憶手段13に記憶される。   Next, in step S104, the control unit 41 converts the image information of the three-dimensional object to which the color information indicating the surface ID is assigned for each pixel stored in the second data storage unit 12 into the image generation unit. 33 is read. Then, the image generation means 33 generates image information (line drawing image information) representing the contour line, ridge line, and / or interphase line of the three-dimensional object using the color information indicating the surface ID of the image information. Image information representing the contour line, ridge line, and / or phase line of the three-dimensional object generated by the image generation unit 33 is stored in the third data storage unit 13 as two-dimensional output image information of the three-dimensional object. The

ここで、ステップS104に示した画像生成手段33による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成処理の詳細について、図3により説明する。なお、説明にあたって、前述のステップS103で、隠面処理手段32によって隠面処理が施されて生成された、その画素毎に面IDを示す色情報が付与されている3次元物体の画像情報の画素数を、m×n(個)として説明する。   Here, the details of the generation processing of the image information representing the contour line, the ridge line, and / or the interphase line of the three-dimensional object by the image generation unit 33 shown in step S104 will be described with reference to FIG. In the description, the image information of the three-dimensional object to which the color information indicating the surface ID is assigned for each pixel generated by the hidden surface processing unit 32 in step S103 described above is given. The number of pixels is described as m × n (number).

図3は、画像生成手段による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成処理の詳細を説明したPAD(Problem Analysis Diagram)である。   FIG. 3 is a PAD (Problem Analysis Diagram) illustrating details of processing for generating image information representing the contour line, edge line, and / or phase line of a three-dimensional object by the image generation means.

画像生成手段33は、まず、ステップS111,S112で、その画素毎に面IDを示す色情報が付与されている3次元物体の画像情報において、画素P(i,j)を特定する変数i,jを当該画像情報の画素数範囲1〜m,1〜nでそれぞれ変化させて、ステップS113で、面IDを示す色情報が付与されている3次元物体の画像情報で画像表示される全ての画素Pの面IDを示した色情報を取り込む。   First, in steps S111 and S112, the image generating means 33 uses variables i, i, which specify the pixel P (i, j) in the image information of the three-dimensional object to which color information indicating the surface ID is assigned for each pixel. j is changed in each of the pixel number ranges 1 to m and 1 to n of the image information, and in step S113, all the images displayed with the image information of the three-dimensional object to which the color information indicating the surface ID is assigned Color information indicating the surface ID of the pixel P is captured.

画像生成手段33は、この全ての画素P(i,j)の面IDを示した色情報の取り込みに並行して、ステップS114,S115で、取り込んだ画素P(i,j)それぞれに関して、画素P(i,j)を特定する変数i,jを1〜m−1,1〜n−1の範囲で順次変更して、輪郭線,稜線,及び/又は相貫線についての判定対象とする対象画素P(i,j)を順次変更しながら、ステップS116で、対象画素P(i,j)毎に、対象画素P(i,j)を含む互いに隣り合う4つの画素、例えばP(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)それぞれの面IDを示した色情報を比較する。   In parallel with the capturing of the color information indicating the surface IDs of all the pixels P (i, j), the image generating means 33 performs pixel processing for each of the captured pixels P (i, j) in steps S114 and S115. Variables i and j that specify P (i, j) are sequentially changed in the range of 1 to m−1 and 1 to n−1, and are set as determination targets for contour lines, ridge lines, and / or interphase lines. While sequentially changing the target pixel P (i, j), in step S116, for each target pixel P (i, j), four adjacent pixels including the target pixel P (i, j), for example, P (i , j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) are compared with the color information indicating the surface ID.

その上で、画像生成手段33は、互いに隣り合う4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中の1つでも色情報が異なる場合には、ステップS117で、この4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)で表される3次元物体の画像部分には輪郭線,稜線,及び/又は相貫線があると判断して、対象画素P(i,j)に対応させて輪郭線,稜線,及び/又は相貫線を形成するための1つの画素Q (i,j)新たに生成する。具体的には、画像生成手段33は、対象画素P(i,j) に対応させて、例えば輪郭線,稜線,及び/又は相貫線を形成していることを示す色情報として黒色の色情報を付与した、輪郭線,稜線,及び/又は相貫線を表す画素Q (i,j)を生成する。 In addition, the image generation means 33 may use any one of the four pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) adjacent to each other as color information. Are different, in step S117, the image portion of the three-dimensional object represented by the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1). Is determined to have a contour line, a ridge line, and / or an interpenet line, and one of the contour line, the ridge line, and / or the interpenet line is formed corresponding to the target pixel P (i, j). A new pixel Q (i, j) is generated. Specifically, the image generation means 33 corresponds to the target pixel P (i, j), for example, a black color as color information indicating that a contour line, a ridge line, and / or a continuous line is formed. A pixel Q (i, j) that represents the contour line, the edge line, and / or the interphase line to which the information is added is generated.

これに対して、画像生成手段33は、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)全ての色情報が同じである場合には、ステップS118で、この4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)で表される3次元物体の画像部分には輪郭線,稜線,及び/又は相貫線はないと判断して、対象画素P(i,j)に対応させて面を形成するための1つの画素Q (i,j)を新たに生成する。具体的には、画像生成手段33は、対象画素P(i,j) に対応させて、例えば面を形成していることを示す色情報として白色の色情報を付与した、面を表す画素Q (i,j) を生成する。   On the other hand, the image generating means 33 has the same color information for all four adjacent pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1). If there is, in step S118, the image portion of the three-dimensional object represented by the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1) is added. Determines that there is no contour line, ridge line, and / or interphase line, and newly generates one pixel Q (i, j) for forming a surface corresponding to the target pixel P (i, j) To do. Specifically, the image generation unit 33 associates the target pixel P (i, j) with, for example, a pixel Q representing a surface to which white color information is added as color information indicating that the surface is formed. (i, j) is generated.

そして、画像生成手段33は、ステップS119で、この新たに生成した画素Q (i,j)を、第3のデータ記憶手段13に記憶蓄積する。したがって、画像生成手段33により、画素P(1,1)〜P(m−1,n−1)全てについて、新たな画素Q(1,1)〜Q(m−1,n−1)に変換された3次元物体の画像情報が、第3のデータ記憶手段13に、3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報として記憶されることになる。   In step S119, the image generation unit 33 stores and accumulates the newly generated pixel Q (i, j) in the third data storage unit 13. Therefore, the image generation means 33 converts all the pixels P (1,1) to P (m−1, n−1) to new pixels Q (1,1) to Q (m−1, n−1). The converted image information of the three-dimensional object is stored in the third data storage unit 13 as image information representing the contour line, the ridge line, and / or the intermittence line of the three-dimensional object.

ここで、隠面処理手段32により隠面処理されて生成された、面IDを示す色情報がその画素毎に付与されている3次元物体の画像情報の画素P(1,1)〜P(m,n)と、この画像生成手段33に生成された3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の画素Q(1,1)〜Q(m−1,n−1)との対応関係について、図4及び図5により説明する。   Here, the pixels P (1, 1) to P (3) of the image information of the three-dimensional object to which the color information indicating the surface ID generated by the hidden surface processing means 32 is given for each pixel. m, n) and pixels Q (1,1) to Q (m-1, n) of the image information representing the contour line, ridge line, and / or phase line of the three-dimensional object generated by the image generation means 33 -1) will be described with reference to FIGS. 4 and 5. FIG.

図4は、画像生成手段によって生成される画素と隠面処理手段によって生成された画素との対応関係の説明図である。   FIG. 4 is an explanatory diagram of the correspondence between the pixels generated by the image generation unit and the pixels generated by the hidden surface processing unit.

図4において、画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)は、画素P(i,j)を対象画素とした場合の、輪郭線,稜線,及び/又は相貫線についての判定対象になる、互いに隣り合う4つの画素を図示した例である。なお、図4におけるP(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)それぞれの相互配置は便宜的なものであって、3次元物体の画像情報の画素配列等に応じて変わるものである。   In FIG. 4, pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) are contours when the pixel P (i, j) is the target pixel. It is the example which illustrated four pixels adjacent to each other as a determination target for a line, a ridge line, and / or an interphase line. Note that the mutual arrangement of P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) in FIG. 4 is convenient, and an image of a three-dimensional object. It varies depending on the pixel arrangement of information.

この場合、画像生成手段33は、上述したステップS114〜S118の処理を行って、この4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)それぞれの面IDを示す色情報を用いて、対象画素P(i,j)に対応させた画素Q (i,j)を新たに生成する。   In this case, the image generation means 33 performs the above-described processing of steps S114 to S118, and the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1) ) A pixel Q (i, j) corresponding to the target pixel P (i, j) is newly generated using the color information indicating each surface ID.

その際、画像生成手段33は、この対象画素P(i,j)に対応させて新たに生成する画素Q (i,j)は、当該画素Q (i,j)の比較対象の元になった4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中心位置に対応するように生成する。   At that time, the image generating means 33 newly generates a pixel Q (i, j) corresponding to the target pixel P (i, j) as a comparison target of the pixel Q (i, j). The four pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) are generated so as to correspond to the center position.

ここで、この生成する画素Q (i,j)と比較対照の元の画素4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)との画像上における配置関係について詳述する。   Here, the generated pixel Q (i, j) and the comparison original pixel 4 pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1) and The arrangement relationship on the image will be described in detail.

その説明にあたって、画素P(i,j)の画像上における座標値を、画素の中心位置で代表させて[X(i,j), Y(i,j)]で表すとともに、画像上のX,Y方向の画素の画像のピッチを各々Δx,Δyとする。   In the description, the coordinate value of the pixel P (i, j) on the image is represented by [X (i, j), Y (i, j)], which is represented by the center position of the pixel, and X on the image. , Y and Y direction pixel image pitches are Δx and Δy, respectively.

このような場合にあっては、比較対照の元となった4画素の中のP(i,j+1),P(i+1,j),P(i+1,j+1)は、次のようになる。
P(i,j+1)=[X(i,j+1), Y(i,j+1)]
=[X(i,j) +Δx, Y(i,j)]
P(i+1,j)=[X(i+1,j), Y(i+1,j)]
=[X(i,j), Y(i,j) +Δy]
P(i+1,j+1)=[X(i+1,j+1), Y(i+1,j+1)]
=[X(i,j) +Δx, Y(i,j) +Δy]
In such a case, P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) among the four pixels that are the basis of comparison are as follows.
P (i, j + 1) = [X (i, j + 1), Y (i, j + 1)]
= [X (i, j) + Δx, Y (i, j)]
P (i + 1, j) = [X (i + 1, j), Y (i + 1, j)]
= [X (i, j), Y (i, j) + Δy]
P (i + 1, j + 1) = [X (i + 1, j + 1), Y (i + 1, j + 1)]
= [X (i, j) + Δx, Y (i, j) + Δy]

ここで、画素Q (i,j)の座標値は、比較対照の元となった4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)それぞれによる座標値の平均値となっており、このような配置位置を、「4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中心位置」と称している。   Here, the coordinate values of the pixel Q (i, j) are the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1) that are the basis of comparison. ) Is an average value of coordinate values by each, and such an arrangement position is expressed by “4 pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1)”. It is called “the center position of”.

これにより、画素Q (i,j)の座標値は、
Q (i,j)=(P(i,j)+P(i,j+1)+P(i+1,j)+P(i+1,j+1))/4
=(X(i,j)+Δx/2, Y(i,j) +Δy/2)
となり、周りの4画素を平等に評価するという位置関係になる。
Thus, the coordinate value of the pixel Q (i, j) is
Q (i, j) = (P (i, j) + P (i, j + 1) + P (i + 1, j) + P (i + 1, j + 1)) / 4
= (X (i, j) + Δx / 2, Y (i, j) + Δy / 2)
Thus, the positional relationship is such that the surrounding four pixels are evaluated equally.

なお、この場合における生成する画像の解像度(画素のピッチ)は、比較対照の画像の解像度(画素のピッチ)と同じになる。   In this case, the resolution (pixel pitch) of the generated image is the same as the resolution (pixel pitch) of the comparison image.

したがって、隠面処理手段32により隠面処理された3次元物体の画像情報の画素数がm×n(個)の場合は、画像生成手段33により生成された3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の画素数は(m-1)×(n-1)(個)となり、輪郭線,稜線,及び/又は相貫線の生成前と生成後とでは、それぞれの画像領域の大きさが異なる。   Therefore, when the number of pixels of the image information of the three-dimensional object subjected to the hidden surface processing by the hidden surface processing means 32 is m × n (pieces), the contour line, the ridge line of the three-dimensional object generated by the image generating means 33, And / or the number of pixels of the image information representing the intermittence line is (m−1) × (n−1) (number), and before and after the generation of the contour line, the ridgeline, and / or the intermittence line, Each image area has a different size.

そのため、生成したい3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像の画像領域に対して、隠面処理手段32により隠面処理を施して生成する3次元物体の面IDを示す色情報が付与してある画像の画像領域を広げておく必要がある。そのため、本実施の形態では、例えば、生成したい3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像の水平及び垂直画素数をm×n(個)と表示条件等によって指定されている場合には、隠面処理を施して生成する3次元物体の面IDを示す色情報が付与してある画像の水平及び垂直画素数が、それぞれ1画素分だけ多い(m+1)×(n+1)(個)になるように、制御手段41はそのID付与手段31,隠面処理手段32を制御して、隠面処理を施す画像領域を自動的に広げておく構成になっている。   Therefore, the surface ID of the three-dimensional object generated by performing the hidden surface processing by the hidden surface processing means 32 on the image region of the image representing the contour line, the ridge line, and / or the interphase line of the three-dimensional object to be generated. It is necessary to widen the image area of the image to which the color information shown is given. Therefore, in the present embodiment, for example, the horizontal and vertical pixel numbers of the image representing the contour line, ridge line, and / or interphase line of the three-dimensional object to be generated are designated by m × n (pieces) and display conditions. The number of horizontal and vertical pixels of the image to which the color information indicating the surface ID of the three-dimensional object generated by performing the hidden surface processing is added is increased by one pixel (m + 1) × The control means 41 is configured to automatically expand the image area to be subjected to the hidden surface processing by controlling the ID assigning means 31 and the hidden surface processing means 32 so as to be (n + 1) (pieces). ing.

図5は、図1乃至図4で説明した本実施の形態による描画方法を採用した3次元物体の画像生成システムによる3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成例を示した図である。   FIG. 5 shows image information representing contour lines, ridge lines, and / or interphase lines of a three-dimensional object by the three-dimensional object image generation system employing the drawing method according to the present embodiment described in FIGS. It is the figure which showed the example of a production | generation.

図5(A)は、隠面処理手段32によって隠面処理を施された3次元物体の画像情報201を表している。   FIG. 5A shows image information 201 of a three-dimensional object that has been subjected to hidden surface processing by the hidden surface processing means 32.

図中、内部に数字番号が記入された矩形部分が、3次元物体の隠面処理手段32によって隠面処理を施された画像情報201の個別画素Pを表し、その数字番号が個別画素Pの
面IDを示した色情報に該当する。
In the figure, a rectangular portion in which a numeric number is entered represents an individual pixel P of the image information 201 that has been subjected to the hidden surface processing by the hidden surface processing means 32 of the three-dimensional object, and the numerical number of the individual pixel P is This corresponds to the color information indicating the surface ID.

図5(A)では、3次元物体の隠面処理された画像情報201は、面IDを示した色情報が“1”の左右逆の“コ”字状に現れている面202と、面IDを示した色情報が“2” の “コ”字状の面202の凹部に嵌合しているように現れている矩形状の面203と、この矩形状の面203の凹部からの突出側部分を挟むように配置されて現れている面IDを示した色情報がそれぞれ“3”,“4”の矩形状の面204,205とからなる面構成によって表されている。   In FIG. 5A, the image information 201 subjected to the hidden surface processing of the three-dimensional object includes a surface 202 in which color information indicating the surface ID appears in a reverse “U” shape of “1”. A rectangular surface 203 in which color information indicating an ID appears to be fitted into a concave portion of a “U” -shaped surface 202 of “2”, and a protrusion of the rectangular surface 203 from the concave portion The color information indicating the surface IDs arranged so as to sandwich the side portion is represented by a surface configuration including rectangular surfaces 204 and 205 of “3” and “4”, respectively.

図5(B)は、画像生成手段33によって、図5(A)に示した3次元物体の隠面処理された画像情報201の各画素Pの面IDを示した色情報(1,2,…)から、輪郭線,稜線,及び/又は相貫線を生成するための対応する個別画素Qを生成したときの状態を表したものである。   FIG. 5B shows color information (1, 2, 2) indicating the surface ID of each pixel P of the image information 201 subjected to the hidden surface processing of the three-dimensional object shown in FIG. ...) represents a state when the corresponding individual pixel Q for generating the contour line, the ridge line, and / or the interphase line is generated.

図5(B)においては、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の面IDを示した色情報が全て同じで、その色情報が面を表す白色の色情報になっている画素Q(i,j)を白塗りの丸記号で、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の面IDを示した色情報全てが同じではなく、その色情報が輪郭線,稜線,及び/又は相貫線を表す黒色の色情報になっている画素Q(i,j)を黒塗りの丸記号で、それぞれ表している。   In FIG. 5B, all the color information indicating the surface IDs of the four pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) adjacent to each other. Similarly, a pixel Q (i, j) whose color information is white color information representing a surface is indicated by a white circle symbol, and four adjacent pixels P (i, j) and P (i, j + 1). ), P (i + 1, j), and P (i + 1, j + 1) are not all the same color information indicating the surface ID, and the color information is black color information indicating a contour line, a ridgeline, and / or an intermittence line. Each pixel Q (i, j) is represented by a black circle symbol.

図5(C)は、第3のデータ記憶手段に2次元出力画像情報として記憶蓄積された3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報である。   FIG. 5C shows image information representing contour lines, ridge lines, and / or interphase lines of a three-dimensional object stored and stored as two-dimensional output image information in the third data storage means.

図5(C)は、図5(B)で説明した各画素Qを取り出したもので、図5(A)に示した面202〜205相互の境界部分に、輪郭線,稜線,及び/又は相貫線を表すための黒色の色情報を有する画素Qが生成され、その他の部分は面を表すための白色の色情報を有する画素Qが生成されている2次元出力画像情報206であることを表している。   FIG. 5C shows the respective pixels Q described with reference to FIG. 5B, and a contour line, a ridge line, and / or a boundary portion between the surfaces 202 to 205 shown in FIG. The two-dimensional output image information 206 is generated in which a pixel Q having black color information for representing a continuous line is generated and a pixel Q having white color information for representing a surface is generated in the other part. Represents.

以上説明した本実施の形態の輪郭線,稜線,及び/又は相貫線の描画方法によれば、3次元物体の形状情報から、その色情報を面IDに利用して、隠面消去処理した3次元物体の画像情報における画素毎の面IDを示した色情報の相違に基づいて、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像を容易に取得することができる。   According to the contour line, ridge line, and / or interphase line drawing method of the present embodiment described above, hidden surface erasure processing is performed using the color information from the shape information of the three-dimensional object as the surface ID. Based on the difference in color information indicating the surface ID for each pixel in the image information of the three-dimensional object, a black-and-white line drawing image of the three-dimensional object in which the contour line, the ridge line, and / or the interphase line is described is easily acquired. be able to.

また、その取得も、本実施の形態では、3次元物体の形状情報の面の色情報を、その本来の面の色情報に代えて、面毎に異なる色情報を面IDとして付与しただけであるから、GWSやPCの画像処理用のハードウェアを利用して、特別なハードウェアを必要とせず、隠面処理した画像情報の画素それぞれの色情報を取得するだけで、画素それぞれの面IDを収集できる。   In addition, in this embodiment, the color information of the surface of the shape information of the three-dimensional object is replaced with the color information of the original surface, and different color information for each surface is assigned as the surface ID. Therefore, by using the hardware for image processing of GWS and PC, no special hardware is required, and the surface ID of each pixel can be obtained by only obtaining the color information of each pixel of the image information subjected to the hidden surface processing. Can be collected.

さらに、輪郭線,稜線,及び/又は相貫線を表す画像情報の生成も、隠面処理した画像情報の画素それぞれについて、互いに隣り合う画素同士の色情報の相違を判定することだけで容易に生成することができるので、簡単なシステムで高速に実現することができる。   Furthermore, image information representing contour lines, ridge lines, and / or interphase lines can be easily generated by simply determining the difference in color information between adjacent pixels for each pixel of image information subjected to hidden surface processing. Since it can be generated, it can be realized at high speed with a simple system.

[第2の実施の形態]
本発明の第2の実施の形態として、3次元物体の輪郭線,稜線,及び/又は相貫線が記載された白黒線画画像を生成するための描画方法について、図面に基づいて説明する。
[Second Embodiment]
As a second embodiment of the present invention, a drawing method for generating a monochrome line drawing image in which a contour line, a ridge line, and / or an interphase line of a three-dimensional object are described will be described based on the drawings.

本実施の形態による輪郭線,稜線,及び/又は相貫線の描画方法は、トーラス面や自由曲面等が原因となって生じる、面の一部が同じ面の他部を隠すように重合して視点から見
える部分を有した3次元物体であっても、その重合部分に輪郭線及び稜線を書き込んだ白黒線画画像を取得できるものである。
The contour line, ridge line, and / or phase line drawing method according to the present embodiment overlaps so that a part of the surface is hidden due to a torus surface or a free-form surface. Even a three-dimensional object having a portion that can be seen from the viewpoint can acquire a monochrome line drawing image in which a contour line and a ridge line are written in the overlapped portion.

本実施の形態による輪郭線,稜線,及び/又は相貫線の描画方法を採用した3次元物体の画像生成システムは、図1に示した第1の実施の形態による描画方法を採用した3次元物体の画像生成システムと、隠面処理手段32及び画像生成手段33の内部構成が異なる以外は変わりない。そこで、そのシステム構成については説明を省略し、同一構成要素については、図1に示した同じ名称,符号を用いて説明する。   The three-dimensional object image generation system employing the contour line, ridge line, and / or phase line drawing method according to the present embodiment is a three-dimensional image employing the drawing method according to the first embodiment shown in FIG. The object image generation system is the same except that the internal configuration of the hidden surface processing means 32 and the image generation means 33 is different. Therefore, the description of the system configuration will be omitted, and the same components will be described using the same names and symbols shown in FIG.

図6は、本実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像を生成する方法の処理の流れを説明したフローチャートである。   FIG. 6 shows a method of generating a monochrome line drawing image of a three-dimensional object in which contour lines, ridge lines, and / or interphase lines are described by the three-dimensional object image generation system employing the drawing method according to the present embodiment. It is a flowchart explaining the flow of processing.

まず、図6のステップS121で、制御手段41は、図2に示したステップS101と同様にして、入出力手段21によって、外部機器から3次元物体の形状情報と表示条件との供給を受けると、第1のデータ記憶手段11に記憶する。   First, in step S121 of FIG. 6, when the control means 41 receives the supply of the shape information and display conditions of the three-dimensional object from the external device by the input / output means 21, in the same manner as in step S101 shown in FIG. And stored in the first data storage means 11.

次に、制御手段41は、ステップS122で、図2に示したステップS102と同様にして、第1のデータ記憶手段11から3次元物体の形状情報をID付与手段31に読み込ませ、3次元物体の形状情報に、各面の本来の画像表示のための色情報に代えて、面IDを示す色情報を付与する。制御手段41は、ID付与手段31によってそれぞれの面IDを示す色情報が付与された3次元物体の形状情報を、第1のデータ記憶手段11に記憶させる。   Next, in step S122, the control means 41 reads the shape information of the three-dimensional object from the first data storage means 11 into the ID assigning means 31 in the same manner as in step S102 shown in FIG. Instead of the color information for displaying the original image on each surface, color information indicating the surface ID is added to the shape information. The control unit 41 causes the first data storage unit 11 to store the shape information of the three-dimensional object to which the color information indicating each surface ID is added by the ID providing unit 31.

次に、制御手段41は、ステップS123で、図2に示したステップS103と同様にして、第1のデータ記憶手段11から面IDを示す色情報が付与された3次元物体の形状情報と表示条件とを隠面処理手段32に読み込ませて、隠面処理を施す。制御手段41は、面IDを示す色情報が付与された3次元物体の形状情報に隠面処理手段32によって隠面処理を施し、生成した3次元物体の画像情報を第2のデータ記憶手段12に記憶する。本実施の形態の場合は、第2のデータ記憶手段12に記憶される3次元物体の画像情報の中には、隠面処理手段32が隠面処理を行う際に用いた面の画素毎の視点からの奥行きに関する情報(奥行き情報)も含まれている。   Next, in step S123, the control means 41 displays the shape information and display of the three-dimensional object to which the color information indicating the surface ID is given from the first data storage means 11 in the same manner as in step S103 shown in FIG. The condition is read by the hidden surface processing means 32 to perform the hidden surface processing. The control unit 41 performs hidden surface processing by the hidden surface processing unit 32 on the shape information of the three-dimensional object to which the color information indicating the surface ID is given, and the generated image information of the three-dimensional object is stored in the second data storage unit 12. To remember. In the case of the present embodiment, the image information of the three-dimensional object stored in the second data storage unit 12 includes, for each pixel of the surface used when the hidden surface processing unit 32 performs the hidden surface processing. Information about depth from the viewpoint (depth information) is also included.

次に、制御手段41は、ステップS124で、図2に示したステップS104と同様にして、隠面処理手段32により隠面処理され、第2のデータ記憶手段12に記憶されている3次元物体の画像情報を画像生成手段33に読み込ませて、画像生成手段33によって、その画像情報の面IDを示す色情報、及びを面の画素毎の奥行き情報を用いて、3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する。そして、画像生成手段33によって生成した3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報は、3次元物体の2次元出力画像情報として、第3のデータ記憶手段13に記憶される。   Next, in step S124, the control means 41 performs the hidden surface processing by the hidden surface processing means 32 and stores the three-dimensional object stored in the second data storage means 12 in the same manner as in step S104 shown in FIG. The image generation unit 33 reads the image information, and the image generation unit 33 uses the color information indicating the surface ID of the image information and the depth information for each pixel of the surface, Image information representing a ridge line and / or an interphase line is generated. Then, the image information representing the contour line, ridge line, and / or interphase line generated by the image generation unit 33 is stored in the third data storage unit 13 as the two-dimensional output image information of the three-dimensional object. Is done.

ここで、ステップS124に示した画像生成手段33による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成処理の詳細について、図7により説明する。なお、その説明にあたっては、前述のステップS123で、隠面処理手段32によって隠面処理が施されて生成された、面IDを示す色情報が付与されかつ面の画素毎の奥行き情報が付加されている3次元物体の画像情報の画素数を、m×n(個)として説明する。   Details of the process of generating image information representing the contour line, ridge line, and / or phase line of the three-dimensional object by the image generation means 33 shown in step S124 will be described with reference to FIG. In the description, in step S123 described above, the color information indicating the surface ID, which is generated by performing the hidden surface processing by the hidden surface processing unit 32, is added, and depth information for each pixel of the surface is added. The number of pixels of the image information of the three-dimensional object is described as m × n (pieces).

図7は、図6で説明した画像生成手段による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成処理の詳細を示したPADである。   FIG. 7 is a PAD showing details of a process of generating image information representing the contour line, ridge line, and / or interphase line of the three-dimensional object by the image generation means described in FIG.

なお、図7に示したステップS131〜S135までの画像生成手段33による処理は、図3
により既に説明したステップS111〜S115までの画像生成手段33による処理とほぼ同様である。その違いは、図3のステップS113に対応するステップS133に示した第2のデータ記憶手段12からの、隠面処理手段32により隠面処理を施して生成した3次元物体の画像情報の取り込み処理で、3次元物体の画像情報の全ての画素Pそれぞれの面IDを示した色情報に加え、全ての画素Pそれぞれの奥行き情報も取得することが異なるだけで、他は同様である。
Note that the processing by the image generation means 33 in steps S131 to S135 shown in FIG.
Is substantially the same as the processing by the image generation means 33 in steps S111 to S115 already described. The difference is that the image information of the three-dimensional object generated by performing the hidden surface processing by the hidden surface processing means 32 from the second data storage means 12 shown in step S133 corresponding to step S113 in FIG. In addition to the color information indicating the surface IDs of all the pixels P of the image information of the three-dimensional object, the only difference is that the depth information of all of the pixels P is acquired, and the others are the same.

ここでは、図7に示したステップS136以下の、第2のデータ記憶手段12から取り込んだ3次元物体の画像情報の画素P(i,j)から3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の画素Q(i,j)を生成する処理について詳述する。   Here, from the pixel P (i, j) of the image information of the three-dimensional object captured from the second data storage means 12 after step S136 shown in FIG. A process for generating the pixel Q (i, j) of the image information representing the interphase line will be described in detail.

画像生成手段33は、ステップS131〜S133に示した、3次元物体の画像情報における全ての画素P(i,j)それぞれの面IDを示した色情報及び奥行き情報の取り込みと並行して、ステップS134,S135で、輪郭線,稜線,及び/又は相貫線の存在判定の対象になる対象画素P(i,j)を順次変更しながら、ステップS136で、対象画素P(i,j)毎に、対象画素P(i,j)を含む互いに隣り合う4つの画素、例えばP(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)それぞれの面IDを示す色情報を比較する。   In parallel with the capture of color information and depth information indicating the surface IDs of all the pixels P (i, j) in the image information of the three-dimensional object shown in steps S131 to S133, the image generation means 33 performs steps While sequentially changing the target pixel P (i, j) that is the target of the presence determination of the contour line, the ridge line, and / or the interphase line in S134 and S135, in step S136, for each target pixel P (i, j) Each of four adjacent pixels including the target pixel P (i, j), for example, P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) The color information indicating the ID is compared.

その上で、画像生成手段33は、互いに隣り合う4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中の1つでも色情報が異なる場合には、ステップS137で、この4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)で表される3次元物体の画像部分に輪郭線,稜線,及び/又は相貫線があると判断して、対象画素P(i,j)に対応して輪郭線,稜線,及び/又は相貫線を表す1つの画素Q (i,j)を新たに生成する。具体的には、画像生成手段33は、対象画素P(i,j) に対応させて、例えば輪郭線,稜線,及び/又は相貫線を形成していることを示す色情報として黒色の色情報を付与した、輪郭線,稜線,及び/又は相貫線を表す画素Q (i,j)を生成する。   In addition, the image generation means 33 may use any one of the four pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1) adjacent to each other as color information. Are different, in step S137, the image portion of the three-dimensional object represented by the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1). Is determined to have a contour line, a ridge line, and / or an interpenet line, and one pixel Q (i representing the contour line, the ridge line, and / or the interpenet line corresponding to the target pixel P (i, j). , j) is newly generated. Specifically, the image generation means 33 corresponds to the target pixel P (i, j), for example, a black color as color information indicating that a contour line, a ridge line, and / or a continuous line is formed. A pixel Q (i, j) that represents the contour line, the edge line, and / or the interphase line to which the information is added is generated.

これに対して、画像生成手段33は、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)全ての色情報が同じである場合には、ステップS138で、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中の、隣接する2画素の奥行き情報の差の最大値を、予め設定されている基準値に対して比較する。この基準値は、トーラス面や自由曲面等が原因となって生じる同一面上の奥行きの段差に基づいて設定されている。   On the other hand, the image generating means 33 has the same color information for all four adjacent pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1). If there is, in step S138, two adjacent pixels among the four adjacent pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1) The maximum depth information difference is compared with a preset reference value. This reference value is set based on a step in the depth on the same plane caused by a torus surface, a free-form surface, or the like.

そして、画像生成手段33は、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中の、隣接する2画素の奥行き情報の差の最大値が基準値以上である場合には、ステップS139で、この4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)で表される3次元物体の画像部分に輪郭線及び稜線があると判断して、対象画素P(i,j)に対応して輪郭線及び稜線を表す1つの画素Q (i,j)を新たに生成する。具体的には、画像生成手段33は、この場合も本実施の形態では、対象画素P(i,j) に対応させて、例えば輪郭線,稜線,及び/又は相貫線を形成していることを示す色情報として黒色の色情報を付与した、輪郭線,稜線,及び/又は相貫線を表す画素Q (i,j)を生成する。   Then, the image generation means 33 calculates the depth of two adjacent pixels among the four adjacent pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1). If the maximum value of the information difference is greater than or equal to the reference value, in step S139, the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1, j + 1) It is determined that there is a contour line and a ridge line in the image portion of the three-dimensional object represented by (1), and one pixel Q (i, j) representing the contour line and the ridge line corresponding to the target pixel P (i, j) is obtained. Create a new one. Specifically, in this embodiment, the image generation unit 33 also forms, for example, a contour line, a ridge line, and / or an intermeshing line corresponding to the target pixel P (i, j) in this embodiment. A pixel Q (i, j) representing a contour line, a ridge line, and / or an interstitial line, to which black color information is added as color information indicating this, is generated.

これに対して、画像生成手段33は、互いに隣接する4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中の、隣接する2画素の奥行き情報の差の最大値が基準値よりも小さい場合には、ステップS140で、この4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)で表される3次元物体の画像部分には輪郭線,稜線,及び/又は相貫線はないと判断して、対象画素P(i,j)に対応して面を表す1つの画素Q (i,j)を新たに生成する。具体的には、画像生成手段33は、対象画素P(i,j) に対応させて、例えば面を形成していることを示す色情報として白色の色情報を付与した、面を表す画素Q (i,j)を生成する。   On the other hand, the image generation means 33 has two adjacent pixels among the four adjacent pixels P (i, j), P (i, j + 1), P (i + 1, j), and P (i + 1, j + 1). If the maximum difference in pixel depth information is smaller than the reference value, the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i + 1) are determined in step S140. , j + 1) is determined to have no contour line, ridge line, and / or interstitial line in the image portion of the three-dimensional object represented by one, and represents one surface corresponding to the target pixel P (i, j). A new pixel Q (i, j) is generated. Specifically, the image generation unit 33 associates the target pixel P (i, j) with, for example, a pixel Q representing a surface to which white color information is added as color information indicating that the surface is formed. (i, j) is generated.

なお、上述のようにして、画像生成手段33が、この対象画素P(i,j)に対応させて新たに画素Q (i,j)を生成する場合は、第1の実施の形態でも説明したように、いずれの場合も、当該画素Q (i,j)の比較対象の元になった4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中心位置に対応するように生成する。   As described above, the case where the image generation unit 33 newly generates the pixel Q (i, j) corresponding to the target pixel P (i, j) is also described in the first embodiment. As described above, in any case, the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (from which the pixel Q (i, j) is compared are based. It is generated so as to correspond to the center position of i + 1, j + 1).

そして、画像生成手段33は、ステップS140で、図3により既に説明したステップS119と同様にして、この新たに生成した画素Q (i,j)を、第3のデータ記憶手段13に記憶蓄積する。したがって、画像生成手段33により、画素P(1,1)〜P(m−1,n−1)全てについて、新たな画素Q(1,1)〜Q(m−1,n−1)に変換された3次元物体の画像情報が、第3のデータ記憶手段13に、3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報として記憶されることになる。   In step S140, the image generation unit 33 stores and accumulates the newly generated pixel Q (i, j) in the third data storage unit 13 in the same manner as in step S119 already described with reference to FIG. . Therefore, the image generation means 33 converts all the pixels P (1,1) to P (m−1, n−1) to new pixels Q (1,1) to Q (m−1, n−1). The converted image information of the three-dimensional object is stored in the third data storage unit 13 as image information representing the contour line, the ridge line, and / or the intermittence line of the three-dimensional object.

この際も、上述したように、全ての画素Q (i,j)について、比較対象の元になった4画素P(i,j),P(i,j+1),P(i+1,j),P(i+1,j+1)の中心位置に対応するように生成しているため、ステップS137,ステップS139でそれぞれ生成された線を表す画素を組み合わせる場合でも、その組み合わせによって新たな特殊の視覚効果を生じさせることなく、3次元物体の正確な描画像を生成できる。   At this time, as described above, for all the pixels Q (i, j), the four pixels P (i, j), P (i, j + 1), P (i + 1, j), P (i, j), Since the pixel is generated so as to correspond to the center position of P (i + 1, j + 1), even when the pixels representing the lines generated in steps S137 and S139 are combined, a new special visual effect is generated by the combination. It is possible to generate an accurate drawing image of a three-dimensional object without doing so.

以上、説明した本実施の形態の輪郭線,稜線,及び/又は相貫線の白黒線画画像を生成するための描画方法によれば、トーラス面や自由曲面等が原因となって生じる、面の一部が同一面の他部を隠すように重合して視点から見える部分を有した3次元物体であっても、その重合部分に輪郭線及び稜線を書き込んだ白黒画像を取得できる。   As described above, according to the drawing method for generating the monochrome line drawing image of the contour line, the ridge line, and / or the interphase line according to the present embodiment described above, the surface of the surface caused by the torus surface, the free-form surface, or the like is generated. Even for a three-dimensional object having a portion that is partially overlapped so as to hide other portions of the same surface and visible from the viewpoint, a black and white image in which a contour line and a ridge line are written in the overlapped portion can be acquired.

なお、本実施の形態では、画像生成手段33は、ステップS139の処理における、面の一部が同一面の他部を隠すように重合して視点から見える部分の輪郭線及び稜線を表す画素Qの色情報は、ステップS137の処理における、3次元物体のそれ以外の輪郭線,稜線,及び/又は相貫線を表す画素Qの色情報と同じ黒色にしたが、両者の色情報を異ならせて、白黒線画画像でその輪郭線及び稜線の濃淡によって、その線の両側の面が同一面であるか否かを区別できるようにすることも可能である。   In the present embodiment, the image generating unit 33 superimposes a part of the surface so as to hide the other part of the same surface in the process of step S139, and expresses the pixel Q that represents the contour line and the edge line of the part that can be seen from the viewpoint. The color information of the pixel Q is set to the same black color as the color information of the pixel Q representing the other contour line, ridge line, and / or interphase line of the three-dimensional object in the process of step S137, but the color information of the two is different. Thus, it is possible to distinguish whether or not the surfaces on both sides of the line are the same by the density of the contour line and the edge line in the monochrome line drawing image.

[第3の実施の形態]
次に、本発明の第3の実施の形態として、3次元物体の輪郭線,稜線,及び/又は相貫線を強調したカラー画像を生成するための描画方法について、図面に基づいて説明する。
[Third Embodiment]
Next, as a third embodiment of the present invention, a drawing method for generating a color image in which a contour line, a ridge line, and / or an interphase line of a three-dimensional object are emphasized will be described with reference to the drawings.

本実施の形態による輪郭線,稜線,及び/又は相貫線の描画方法を採用した3次元物体の画像生成システムは、図1に示した第1の実施の形態による描画方法を採用した3次元物体の画像生成システムと、隠面処理手段32が隠面処理に加えてシェーディング処理も行うようになっており、また第3のデータ記憶手段13には、一の画像情報に別の画像情報(輪郭線,稜線,及び/又は相貫線を表す画像情報)を上書きする画像重畳手段34がさらに接続されている以外は同様である。そこで、そのシステム構成については詳細な説明は省略し、同一構成要素については、図1に示した同じ名称,符号を用いて説明する。   The three-dimensional object image generation system employing the contour line, ridge line, and / or phase line drawing method according to the present embodiment is a three-dimensional image employing the drawing method according to the first embodiment shown in FIG. The object image generation system and the hidden surface processing unit 32 perform shading processing in addition to the hidden surface processing, and the third data storage unit 13 stores another image information (one image information ( This is the same except that the image superimposing means 34 for overwriting the image information representing the contour line, the ridge line, and / or the interphase line is further connected. Therefore, detailed description of the system configuration is omitted, and the same components will be described using the same names and symbols shown in FIG.

図8は、本実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線を強調した3次元物体のカラー画像を生成する方法の処理の流れを説明したフローチャートである。   FIG. 8 shows the processing of the method of generating a color image of a three-dimensional object with an emphasized outline, ridgeline, and / or interphase line by the three-dimensional object image generation system employing the drawing method according to the present embodiment. It is the flowchart explaining the flow.

まず、制御手段41は、ステップS151で、入出力手段21によって、外部機器から3次元物体の形状情報と表示条件との供給を受けると、第1のデータ記憶手段11に記憶する。   First, in step S151, the control means 41 stores the first data storage means 11 when the input / output means 21 receives the shape information and display conditions of the three-dimensional object from the external device.

次に、制御手段41は、ステップS152で、第1のデータ記憶手段11から3次元物体の本来の面の色情報が付与されている形状情報と表示条件とを隠面処理手段32に読み込ませ、隠面処理手段32により隠面処理及びシェーディング処理を施す。制御手段41は、隠面処理手段32による隠面処理及びシェーディング処理によって得られた3次元物体の本来の面の色情報が反映された画像情報を、輪郭線,稜線,及び/又は相貫線を強調した3次元物体のカラー画像のベース画像となる2次元カラー画像情報として、第2のデータ記憶手段12に記憶する。すなわち、この2次元カラー画像情報の各画素の色情報は、当該画素が表す3次元物体の面部分の本来の色の色情報になっている。   Next, in step S152, the control unit 41 causes the hidden surface processing unit 32 to read the shape information to which the color information of the original surface of the three-dimensional object is added from the first data storage unit 11 and the display conditions. The hidden surface processing means 32 performs hidden surface processing and shading processing. The control means 41 converts the image information reflecting the original surface color information of the three-dimensional object obtained by the hidden surface processing and the shading processing by the hidden surface processing means 32 into contour lines, ridge lines, and / or interphase lines. Is stored in the second data storage unit 12 as two-dimensional color image information that serves as a base image of a color image of a three-dimensional object. That is, the color information of each pixel of the two-dimensional color image information is the color information of the original color of the surface portion of the three-dimensional object represented by the pixel.

次に、制御手段41は、ステップS153で、第1のデータ記憶手段11から3次元物体の形状情報をID付与手段31に読み込ませ、3次元物体の各面に、それぞれ異なる面IDとしての面の色情報を付与する。   Next, in step S153, the control unit 41 reads the shape information of the three-dimensional object from the first data storage unit 11 into the ID assigning unit 31, and causes each surface of the three-dimensional object to have a surface as a different surface ID. Color information is assigned.

この場合、ID付与手段31は、第1の実施の形態で図2のステップS102で説明したように、3次元物体の形状情報に基づいて描画される面それぞれの本来の色情報に代えて
例えば“1”からの一貫した通し番号を与え、3次元物体の形状情報に基づいて描画される面それぞれに、面毎に互いに異なる色情報からなる面IDを付与し、各面を識別できるようにする。したがって、このID付与手段31によって生成された本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体の形状情報では、その面の色情報は本来の面の色を表すものではなく、面の識別を表すための便宜的なものである。制御手段41は、ID付与手段31によって得られた面IDを示す色情報が付与された3次元物体の形状情報を、第1のデータ記憶手段11に記憶する。
In this case, as described in step S102 of FIG. 2 in the first embodiment, the ID assigning unit 31 replaces the original color information of each surface drawn based on the shape information of the three-dimensional object, for example, A consistent serial number from “1” is given, and a surface ID composed of different color information is assigned to each surface to be drawn based on the shape information of the three-dimensional object so that each surface can be identified. . Therefore, in the shape information of the three-dimensional object to which the color information indicating the surface ID is assigned instead of the color information of the original surface generated by the ID assigning means 31, the color information of the surface is the color of the original surface. It is not a representation but a convenience for representing the identification of the surface. The control means 41 stores in the first data storage means 11 the shape information of the three-dimensional object to which the color information indicating the surface ID obtained by the ID assignment means 31 is assigned.

次に、制御手段41は、ステップS154で、図2に示したステップS103と同様にして、第1のデータ記憶手段11からID付与手段31によって面IDを示す色情報が付与された3次元物体の形状情報と表示条件とを隠面処理手段32に読み込ませて、隠面処理を施す。隠面処理手段32は、上述した3次元物体の本来の面の色情報が反映された画像情報の生成の場合と同様にして、この本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体の形状情報についても隠面処理及びシェーディング処理を施し、その画素毎に面IDを示す色情報が付与されている3次元物体の画像情報を生成する。制御手段41は、この隠面処理手段32によって生成した面IDを示す色情報が付与されている3次元物体の画像情報のベース画像となる面識別用の画像情報として、第2のデータ記憶手段12に記憶する。   Next, in step S154, the control means 41 is the same as step S103 shown in FIG. 2, and the three-dimensional object to which the color information indicating the surface ID is assigned from the first data storage means 11 by the ID assigning means 31. The shape information and the display conditions are read into the hidden surface processing means 32 to perform the hidden surface processing. The hidden surface processing means 32 performs color information indicating the surface ID instead of the original surface color information in the same manner as the generation of the image information reflecting the original surface color information of the three-dimensional object. The hidden surface process and the shading process are also performed on the shape information of the three-dimensional object to which image information is assigned, and image information of the three-dimensional object to which color information indicating the face ID is assigned for each pixel is generated. The control means 41 uses the second data storage means as the image information for surface identification that becomes the base image of the image information of the three-dimensional object to which the color information indicating the surface ID generated by the hidden surface processing means 32 is given. 12 to store.

したがって、第2のデータ記憶手段12には、前述した2次元カラー画像情報としての3次元物体の本来の面の色情報が反映された3次元物体の画像情報と、面識別用の面IDを示す色情報が付与されている3次元物体の画像情報とが記憶されていることになる。   Therefore, the second data storage unit 12 stores the image information of the three-dimensional object reflecting the original color information of the three-dimensional object as the above-described two-dimensional color image information and the surface ID for surface identification. The image information of the three-dimensional object to which the color information shown is given is stored.

次に、制御手段41は、ステップS155で、面識別用の面IDを示す色情報が付与されている3次元物体の画像情報を画像生成手段33に読み込ませて、画像生成手段33によって、3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する。この画像生成手段33による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成方法は、図2に示したステップS104又は図6に示したステップS124の方法を用いる。なお、この場合、図3又は図7に示したその生成処理の詳細において、図3のステップS117又は図7のステップS139で、輪郭線,稜線,及び/又は相貫線を表す画素Q (i,j)を生成する場合は、色情報として黒色の色情報を付与した画素Q (i,j)を生成するのに対し、図3のステップS118又は図7のステップS140で、面を表す画素Q (i,j) を生成する場合は、色情報を付与せず、無着色状態にしておくようになっている。 Next, in step S155, the control unit 41 causes the image generation unit 33 to read the image information of the three-dimensional object to which the color information indicating the surface ID for surface identification is added. Image information representing a contour line, a ridge line, and / or an interphase line of a three-dimensional object is generated. As a method for generating image information representing the contour line, ridge line, and / or interphase line of the three-dimensional object by the image generating means 33, the method of step S104 shown in FIG. 2 or step S124 shown in FIG. 6 is used. In this case, in the details of the generation process shown in FIG . 3 or FIG. 7 , in step S117 of FIG. 3 or step S139 of FIG. , j) is generated, a pixel Q (i, j) to which black color information is added as color information is generated, whereas a pixel representing a surface in step S118 of FIG. 3 or step S140 of FIG. When Q (i, j) is generated, no color information is given, and the color is not colored.

この画像生成手段33によって生成した3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報は、線画画像情報として、第3のデータ記憶手段13に記憶される。   Image information representing the contour line, ridge line, and / or interphase line of the three-dimensional object generated by the image generation unit 33 is stored in the third data storage unit 13 as line drawing image information.

次に、制御手段41は、ステップS156で、第2のデータ記憶手段12に記憶されている3次元物体の本来の面の色情報が反映された3次元物体の画像情報である2次元カラー画像情報と、第3のデータ記憶手段13に記憶されている画像生成手段33によって生成された3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報である線画画像情報とを画像重畳手段34に読み込ませて、両画像情報の重畳処理を行わせる。   Next, in step S156, the control means 41 is a two-dimensional color image which is image information of the three-dimensional object reflecting the original surface color information of the three-dimensional object stored in the second data storage means 12. Information and line drawing image information which is image information representing the contour line, ridge line, and / or interphase line of the three-dimensional object generated by the image generation unit 33 stored in the third data storage unit 13 The image data is read by the superimposing unit 34 and the both image information is superimposed.

画像重畳手段34は、両画像情報を読み込み、3次元物体の2次元カラー画像情報に3次元物体の輪郭線,稜線,及び/又は相貫線を表す線画画像情報を上書きして,最終的な2次元カラー出力画像情報を生成する。この生成された2次元カラー出力画像情報は、第3のデータ記憶手段13に記憶される。   The image superimposing means 34 reads both pieces of image information, overwrites the two-dimensional color image information of the three-dimensional object with the line drawing image information representing the contour line, ridge line, and / or interphase line of the three-dimensional object, and finally Two-dimensional color output image information is generated. The generated two-dimensional color output image information is stored in the third data storage unit 13.

この結果、第3のデータ記憶手段13に記憶された2次元カラー出力画像情報による出力画像は、3次元物体の隠面処理/シェーディング処理された2次元カラー画像のエッジが輪郭線,稜線,及び/又は相貫線の記入によってさらに強調された画像となっており、3次元物体の把握がさらに容易になる。   As a result, the output image based on the two-dimensional color output image information stored in the third data storage unit 13 has an edge of the two-dimensional color image that has been subjected to the hidden surface processing / shading processing of the three-dimensional object. The image is further emphasized by the entry of the intermittence line, and it becomes easier to grasp the three-dimensional object.

図9は、本実施の形態による描画方法を採用した3次元物体の画像生成システムによる3次元物体の輪郭線,稜線,及び/又は相貫線を強調した2次元カラー出力画像情報の生成例を示した図である。   FIG. 9 shows an example of generating two-dimensional color output image information in which a contour line, a ridge line, and / or an interphase line of a three-dimensional object are emphasized by a three-dimensional object image generation system employing the drawing method according to the present embodiment. FIG.

画像情報211は、3次元物体の本来の面の色情報が付与されている形状情報に隠面処理手段32によって隠面処理及びシェーディング処理を施して生成される、3次元物体の本来の面の色情報が反映された3次元物体の画像情報である2次元カラー画像情報である。図中、内部に数字番号が記入された矩形部分が、この3次元物体の2次元カラー画像情報211における個別画素Pを表し、その数字番号が3次元物体の本来の面の色情報に該当するものである。   The image information 211 is generated by performing hidden surface processing and shading processing by the hidden surface processing means 32 on the shape information to which the color information of the original surface of the three-dimensional object is added. This is two-dimensional color image information that is image information of a three-dimensional object in which color information is reflected. In the figure, a rectangular portion in which a numeric number is entered represents an individual pixel P in the two-dimensional color image information 211 of the three-dimensional object, and the numeric number corresponds to the color information of the original surface of the three-dimensional object. Is.

図示の場合、3次元物体の2次元カラー画像情報211は、面ID(色情報)が“5”の左右逆の“コ”字状に現れている面212と、面ID(色情報)が“6”の “コ”字状の面212の凹部に嵌合して現れている矩形状の面213と、この矩形状の面203の凹部からの突出側部分を挟むように配置されている面ID(色情報)がそれぞれ“8”,“9”の矩形状の面214,215とからなる面構成になっている。   In the illustrated case, the two-dimensional color image information 211 of the three-dimensional object includes a surface 212 appearing in a reverse “U” shape whose surface ID (color information) is “5”, and a surface ID (color information). The rectangular surface 213 that appears by fitting into the concave portion of the “6” “U” -shaped surface 212 and the protruding side portion of the rectangular surface 203 from the concave portion are arranged to be sandwiched therebetween. A surface configuration is formed of rectangular surfaces 214 and 215 having surface IDs (color information) of “8” and “9”, respectively.

一方、画像情報216は、ID付与手段31によって生成された本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体の形状情報に隠面処理手段32によって隠面処理及びシェーディング処理を施して生成される、3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報である。図中、黒塗りの丸記号が付された矩形部分が、輪郭線,稜線,及び/又は相貫線を形成する個別画素Pに対応した個別画素Qを示している。これに対して、白塗りの丸記号が付された矩形部分は、面を形成する個別画素Pに対応した個別画素Qを示している。   On the other hand, the image information 216 is obtained by the hidden surface processing unit 32 from the shape information of the three-dimensional object to which the color information indicating the surface ID is added instead of the original surface color information generated by the ID providing unit 31. This is image information representing a contour line, a ridge line, and / or an interphase line of a three-dimensional object generated by performing processing and shading processing. In the drawing, a rectangular portion with a black circle symbol indicates an individual pixel Q corresponding to an individual pixel P that forms a contour line, a ridge line, and / or an interstitial line. On the other hand, a rectangular portion with a white circle symbol indicates an individual pixel Q corresponding to the individual pixel P forming the surface.

画像情報217は、画像重畳手段34により、3次元物体の本来の面の色情報が反映された3次元物体の画像情報である2次元カラー画像情報211に、3次元物体の輪郭線,稜線,及び/又は相貫線を表す線画画像情報216を上書きして生成される、輪郭線,稜線,及び/又は相貫線を強調した3次元物体のカラー画像の画像情報(2次元カラー出力画像情報)である。   The image information 217 is added to the two-dimensional color image information 211, which is the image information of the three-dimensional object in which the color information of the original surface of the three-dimensional object is reflected, by the image superimposing unit 34. And / or image information (two-dimensional color output image information) of a color image of a three-dimensional object generated by overwriting the line drawing image information 216 representing the interpenet line and emphasizing the contour line, the ridge line, and / or the interpenet line. ).

したがって、本実施の形態の描画方法によれば、3次元物体の輪郭線,稜線,及び/又は相貫線を強調したカラー画像を取得することができる。   Therefore, according to the drawing method of the present embodiment, it is possible to acquire a color image in which the contour line, ridge line, and / or interphase line of a three-dimensional object are emphasized.

[第4の実施の形態]
次に、本発明の第4の実施の形態として、3次元物体の輪郭線,稜線,及び/又は相貫線を強調するとともに半透明表示を含むカラー画像を生成するための描画方法について、図面に基づいて説明する。
[Fourth Embodiment]
Next, as a fourth embodiment of the present invention, a drawing method for enhancing a contour line, a ridge line, and / or an interstitial line of a three-dimensional object and generating a color image including a translucent display will be described. Based on

本実施の形態による輪郭線,稜線,及び/又は相貫線の描画方法を採用した3次元物体の画像生成システムは、図1に示した第1の実施の形態による描画方法を採用した3次元
物体の画像生成システムと、隠面処理手段32が隠面処理に加えてシェーディング処理も行うようになっており、第1のデータ記憶手段11及び第3のデータ記憶手段13には、隠面処理と画像の色のブレンディング処理を施して半透明画像を生成する半透明画像生成手段37が接続され、第3のデータ記憶手段13には、画像重畳手段34が接続されて設けられている以外の構成は同様である。
The three-dimensional object image generation system employing the contour line, ridge line, and / or phase line drawing method according to the present embodiment is a three-dimensional image employing the drawing method according to the first embodiment shown in FIG. The object image generation system and the hidden surface processing unit 32 perform shading processing in addition to the hidden surface processing, and the first data storage unit 11 and the third data storage unit 13 include the hidden surface processing. A semi-transparent image generating means 37 for generating a semi-transparent image by performing blending processing of the image color is connected, and the third data storage means 13 is provided with an image superimposing means 34 connected thereto. The configuration is the same.

そこで、本実施の形態についても、システム構成についての詳細な説明は省略し、同一構成要素については、図1に示した同じ名称,符号を用いて説明する。   Therefore, the detailed description of the system configuration is also omitted in this embodiment, and the same components will be described using the same names and symbols shown in FIG.

図10は、本実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線の画像を生成する方法の処理の流れを説明したフローチャートである。   FIG. 10 is a flowchart illustrating a processing flow of a method for generating an image of a contour line, a ridge line, and / or an interpenetration line by the three-dimensional object image generation system employing the drawing method according to the present embodiment. .

まず、制御手段41は、ステップS161で、入出力手段21によって、3次元物体の半透明表示する3次元形状と半透明表示しない3次元形状とが指示された3次元物体の本来の面の色情報が付与されている3次元形状情報と、その表示条件との供給を受けると、これらを第1のデータ記憶手段11に記憶する。   First, in step S161, the control unit 41 uses the input / output unit 21 to specify the color of the original surface of the three-dimensional object in which the three-dimensional shape of the three-dimensional object that is displayed semi-transparently and the three-dimensional shape that is not displayed semi-transparently are indicated. When the supply of the three-dimensional shape information to which the information is given and the display conditions are received, these are stored in the first data storage means 11.

次に、制御手段41は、ステップS162で、第1のデータ記憶手段11から3次元物体の半透明表示しない3次元形状の本来の面の色情報が付与されている形状情報と表示条件とを隠面処理手段32に読み込ませる。隠面処理手段32は、3次元物体の半透明表示しない3次元形状の本来の面の色情報が付与されている形状情報に隠面処理及びシェーディング処理を施し、3次元物体の半透明表示しない3次元形状についての2次元カラー画像情報を生成する。制御手段41は、隠面処理手段32による3次元物体の半透明表示しない3次元形状の2次元カラー画像情報を、画像情報1として、第2のデータ記憶手段12に記憶する。   Next, in step S162, the control means 41 obtains the shape information to which the color information of the original surface of the three-dimensional shape that is not translucently displayed of the three-dimensional object from the first data storage means 11 and the display conditions. The hidden surface processing means 32 is read. The hidden surface processing means 32 performs hidden surface processing and shading processing on the shape information to which the color information of the original surface of the three-dimensional shape that is not semi-transparently displayed of the three-dimensional object is applied, and does not display the semi-transparent of the three-dimensional object. Two-dimensional color image information about a three-dimensional shape is generated. The control unit 41 stores the two-dimensional color image information of the three-dimensional shape that is not translucently displayed by the hidden surface processing unit 32 in the second data storage unit 12 as the image information 1.

すなわち、この3次元物体の半透明表示しない3次元形状の2次元カラー画像情報(画像情報1)における各画素の色情報は、当該画素が表す3次元物体の半透明表示しない3次元形状の面部分の本来の色を示した色情報になっている。   That is, the color information of each pixel in the three-dimensional shape two-dimensional color image information (image information 1) of the three-dimensional object that is not translucently displayed is the three-dimensional surface of the three-dimensional object that the pixel represents that is not translucently displayed. The color information indicates the original color of the part.

次に、制御手段41は、ステップS163で、第1のデータ記憶手段11から3次元物体の半透明表示しない3次元形状の本来の面の色情報が付与されている形状情報と表示条件とをID付与手段31に読み込ませて、3次元物体の半透明表示しない3次元形状の各面に、それぞれ異なる面IDとしての面の色情報を付与する。   Next, in step S163, the control unit 41 obtains shape information and display conditions to which the color information of the original surface of the three-dimensional shape that is not translucently displayed of the three-dimensional object is added from the first data storage unit 11. The ID assigning unit 31 reads the information and assigns color information of a surface as a different surface ID to each surface of the three-dimensional object that is not semi-transparently displayed.

この場合、ID付与手段31は、第1の実施の形態で図2のステップS102で説明したように、3次元物体の半透明表示しない3次元形状の形状情報に基づいて描画される面それぞれの本来の色情報に代えて、3次元物体の半透明表示しない3次元形状の形状情報に基づいて描画される面それぞれに、面毎に互いに異なる色情報からなる面IDを付与し、各面を識別できるようにする。したがって、このID付与手段31によって生成された本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体の半透明表示しない3次元形状の形状情報では、その面の色情報は本来の面の色を表すものではなく、面の識別を表すための便宜的なものである。制御手段41は、ID付与手段31によって得られた面IDを示す色情報が付与された3次元物体の半透明表示しない3次元形状の形状情報を、第1のデータ記憶手段11に記憶する。   In this case, as described in step S102 of FIG. 2 in the first embodiment, the ID assigning unit 31 performs each surface rendered based on the shape information of the three-dimensional shape that is not translucently displayed on the three-dimensional object. Instead of the original color information, a surface ID composed of different color information is assigned to each surface to be drawn based on the shape information of the three-dimensional shape of the three-dimensional object that is not translucently displayed. Make it identifiable. Therefore, in the shape information of the three-dimensional shape that is not translucently displayed of the three-dimensional object to which the color information indicating the surface ID is assigned instead of the color information of the original surface generated by the ID assigning unit 31, the surface information The color information does not represent the color of the original surface, but is convenient for identifying the surface. The control unit 41 stores, in the first data storage unit 11, the shape information of the three-dimensional shape that is not translucently displayed on the three-dimensional object to which the color information indicating the surface ID obtained by the ID providing unit 31 is added.

次に、制御手段41は、ステップS164で、図2に示したステップS103と同様にして、第1のデータ記憶手段11からID付与手段31によって面IDを示す色情報が付与された3次元物体の半透明表示しない3次元形状の形状情報と表示条件とを隠面処理手段32
に読み込ませて、隠面処理を施す。
Next, in step S164, the control means 41 is the same as step S103 shown in FIG. 2, and the three-dimensional object to which the color information indicating the surface ID is assigned from the first data storage means 11 by the ID assigning means 31. The hidden surface processing means 32 displays the shape information and display conditions of the three-dimensional shape that is not translucently displayed.
To read and apply hidden surface processing.

隠面処理手段32は、この本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体の半透明表示しない3次元形状の形状情報について隠面処理及びシェーディング処理を施し、その画素毎に面IDを示す色情報が付与されている3次元物体の半透明表示しない3次元形状の画像情報(画像情報2)を生成する。制御手段41は、上述した3次元物体の半透明表示しない3次元形状の2次元カラー画像情報(画像情報1)とは別に、この隠面処理手段32によって生成した面IDを示す色情報が付与されている3次元物体の半透明表示しない3次元形状の画像情報(画像情報2)も、3次元物体の半透明表示しない3次元形状の面識別用の画像情報として、第2のデータ記憶手段12に記憶する。   The hidden surface processing means 32 performs hidden surface processing and shading processing on the shape information of the three-dimensional shape that is not semi-transparently displayed for the three-dimensional object to which the color information indicating the surface ID is assigned instead of the original surface color information. Then, three-dimensional image information (image information 2) of the three-dimensional object to which color information indicating the surface ID is assigned for each pixel and not translucently displayed is generated. The control means 41 is provided with color information indicating the surface ID generated by the hidden surface processing means 32, in addition to the above-described three-dimensional shape two-dimensional color image information (image information 1) that is not semi-transparently displayed on the three-dimensional object. The image information (image information 2) of the three-dimensional object that is not semi-transparently displayed on the three-dimensional object that is displayed is also used as the second data storage means as image information for identifying the surface of the three-dimensional object that is not semi-transparently displayed. 12 to store.

次に、制御手段41は、ステップS165で、面IDを示す色情報が付与されている3次元物体の半透明表示しない3次元形状の面識別用の画像情報(画像情報2)を画像生成手段33に読み込ませて、画像生成手段33によって、3次元物体の半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報(画像情報3)を生成する。   Next, in step S165, the control means 41 generates image information (image information 2) for identifying a three-dimensional surface of the three-dimensional object to which the color information indicating the surface ID is not translucently displayed. The image generation means 33 generates image information (image information 3) representing a three-dimensional contour line, ridge line, and / or interphase line that is not translucently displayed on the three-dimensional object.

この画像生成手段33による3次元物体の半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成方法は、図2に示したステップS104又は図6に示したステップS124の方法を用いる。   A method of generating image information representing a three-dimensional contour line, ridge line, and / or interphase line that is not semi-transparently displayed on the three-dimensional object by the image generation means 33 is shown in step S104 shown in FIG. 2 or FIG. The method of step S124 is used.

この画像生成手段33によって生成した3次元物体の半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報は、画像情報3として、第3のデータ記憶手段13に記憶される。   The image information representing the contour line, ridge line, and / or interphase line of the three-dimensional object that is generated by the image generation unit 33 and is not translucently displayed is stored in the third data storage unit 13 as image information 3. Remembered.

次に、制御手段41は、ステップS166で、第2のデータ記憶手段12に記憶されている3次元物体の本来の面の色情報が反映された3次元物体の半透明表示しない3次元形状の画像情報である2次元カラー画像情報(画像情報1)と、第3のデータ記憶手段13に記憶されている画像生成手段33によって生成された3次元物体の半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報である線画画像情報(画像情報3)とを、画像重畳手段34に読み込ませて、両画像情報の重畳処理を行わせる。   Next, in step S166, the control means 41 changes the three-dimensional shape of the three-dimensional object that is not translucently displayed, reflecting the color information of the original surface of the three-dimensional object stored in the second data storage means 12. Two-dimensional color image information (image information 1) which is image information, and a three-dimensional contour line which is not translucently displayed of the three-dimensional object generated by the image generation unit 33 stored in the third data storage unit 13 , Ridge lines, and / or line drawing image information (image information 3), which is image information representing the interpenetrating line, is read by the image superimposing means 34 to perform the superimposing process of both image information.

画像重畳手段34は、両画像情報を読み込み、3次元物体の半透明表示しない3次元形状の2次元カラー画像情報(画像情報1)に、3次元物体の半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す線画画像情報(画像情報3)を上書きして,3次元物体の半透明表示しない3次元形状の2次元カラー出力画像情報(画像情報4)を生成する。この生成された2次元カラー出力画像情報(画像情報4)は、3次元物体の半透明表示しない3次元形状の2次元カラー画像(画像情報1)のエッジが輪郭線,稜線,及び/又は相貫線を表す線画画像情報(画像情報3)の記入によってさらに強調されたもので、第3のデータ記憶手段13に記憶される。   The image superimposing means 34 reads both pieces of image information, and adds a three-dimensional outline of the three-dimensional object not displayed semi-transparently to the two-dimensional color image information (image information 1) of the three-dimensional object not displayed semi-transparently. , Edge line and / or line drawing image information (image information 3) representing a line of intersection is overwritten to generate two-dimensional color output image information (image information 4) of a three-dimensional shape that does not translucently display a three-dimensional object. . The generated two-dimensional color output image information (image information 4) includes a three-dimensional shape of a two-dimensional color image (image information 1) that is not translucently displayed as an edge, an edge, and / or a phase. This is further emphasized by the entry of line drawing image information (image information 3) representing a penetration line, and is stored in the third data storage means 13.

次に、制御手段41は、ステップS167で、第3のデータ記憶手段13に記憶されている輪郭線,稜線,及び/又は相貫線が記入されている3次元物体の半透明表示しない3次元形状の2次元出力画像情報(画像情報4)を半透明画像生成手段37に読み込ませるとともに、第1のデータ記憶手段11から3次元物体の半透明表示する3次元形状の本来の面の色情報が付与されている形状情報と表示条件とを半透明画像生成手段37に読み込ませる。   Next, in step S167, the control unit 41 does not display the three-dimensional object in which the contour line, the ridge line, and / or the interphase line stored in the third data storage unit 13 are translucently displayed. The shape information of the two-dimensional output image (image information 4) is read by the semi-transparent image generation means 37, and the color information of the original surface of the three-dimensional shape to be displayed semi-transparently from the first data storage means 11 is displayed. The semi-transparent image generation means 37 reads the shape information and the display conditions to which the

半透明画像生成手段37は、3次元物体の半透明表示しない3次元形状についての輪郭線,稜線,及び/又は相貫線が記入されている2次元出力画像情報(画像情報4)に対し
て、3次元物体の半透明表示する3次元形状の本来の面の色情報が付与されている形状情報を隠面処理して、3次元物体の形状全体について、半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない2次元カラー画像情報(画像情報5)を生成する。
The translucent image generating means 37 is for 2-dimensional output image information (image information 4) in which contour lines, ridge lines, and / or interphase lines are entered for a three-dimensional shape of a three-dimensional object that is not translucently displayed. Only the 3D object to be displayed semi-transparently for the entire shape of the 3D object by performing the hidden surface processing on the shape information to which the color information of the original surface of the 3D object to be displayed translucently of the 3D object is provided. Two-dimensional color image information (image information 5) in which no contour lines, ridge lines, and / or interphase lines are written is generated.

この場合、半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の2次元カラー画像情報(画像情報5)は、半透明表示する3次元形状の面が半透明表示しない3次元形状の面に対して視点近く(すなわち、前方)にある場合には、半透明表示する3次元形状の面は半透明表示しない3次元形状の面によって隠面消去されることなく表れる。また、反対に、半透明表示する3次元形状の面よりも半透明表示しない3次元形状の面が視点近く(すなわち、前方)にある場合は、半透明表示する3次元形状の面は半透明表示しない3次元形状の面によって隠面消去されて表れない。   In this case, the two-dimensional color image information (image information 5) of the entire three-dimensional shape of the three-dimensional object in which the contour line, the ridge line, and / or the interpenetration line are not entered only for the three-dimensional shape to be translucently displayed is semi-transparent. If the surface of the three-dimensional shape to be transparently displayed is close to the viewpoint (that is, the front) with respect to the surface of the three-dimensional shape not to be semitransparently displayed, that is, the surface of the three-dimensional shape to be semitransparently displayed is not three-dimensionally displayed. It appears without being erased by the surface of the shape. On the other hand, when the surface of the three-dimensional shape that is not semitransparently displayed is closer to the viewpoint (that is, in front) than the surface of the three-dimensional shape that is semitransparently displayed, the surface of the three-dimensional shape that is semitransparently displayed is semitransparent. The hidden surface is erased by the surface of the three-dimensional shape that is not displayed and does not appear.

そこで、半透明画像生成手段37は、半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の2次元カラー画像情報(画像情報5)を生成する際に、半透明表示する3次元形状の面の色に関して、次のような処理を施している。   Therefore, the semi-transparent image generating means 37 provides two-dimensional color image information of the entire three-dimensional shape of the three-dimensional object in which no contour line, ridge line, and / or interphase line are entered only for the three-dimensional shape to be displayed semi-transparently. When the image information 5) is generated, the following processing is performed on the color of the surface of the three-dimensional shape to be translucently displayed.

半透明画像生成手段37は、隠面処理された3次元物体の形状全体の各面について、半透明表示する3次元形状についての面が、前述した画像情報4による半透明表示しない3次元形状の面よりも視点に近ければ、半透明表示しない3次元形状の面の本来の画素の色と、半透明表示する3次元形状の面の本来の画素の色とを用いて、半透明表示する3次元形状の面のうち、半透明表示しない3次元形状の面と互いに重なり合っている面部分(すなわち、隠面消去面部分)の本来の画素の色を、所定の方法により変更決定することによって、3次元物体の半透明表示する3次元形状の面のうちのこの半透明部分についてのみ、面の本来の画素の色に変更を施している。   The semi-transparent image generating means 37 has a three-dimensional shape that is not translucently displayed by the image information 4 described above for each surface of the entire shape of the three-dimensional object subjected to the hidden surface processing. If it is closer to the viewpoint than the surface, the original pixel color of the three-dimensional shape surface that is not semi-transparently displayed and the original pixel color of the three-dimensional shape surface that is semi-transparently displayed are displayed 3 By changing and determining the original pixel color of the surface portion (that is, the hidden surface erasure surface portion) that overlaps the surface of the three-dimensional shape that is not translucently displayed among the three-dimensional surfaces, by a predetermined method, Only for this semi-transparent portion of the three-dimensional surface of the three-dimensional object to be displayed semi-transparently, the original pixel color of the surface is changed.

ここで所定の方法とは、例えば、互いに重なり合っている半透明表示しない3次元形状の面の本来の画素の色と半透明表示する3次元形状の面の本来の画素の色とを、一定の割合で混合する所謂ブレンディング処理を用いて決定している。なお、このブレンディング処理で用いる半透明表示する3次元形状の面の本来の画素の色は、3次元物体の半透明表示する3次元形状の3次元形状情報に付与されている本来の面の色情報である。   Here, the predetermined method means, for example, that the original pixel color of the surface of the three-dimensional shape not overlappingly displaying the semi-transparent display and the original pixel color of the surface of the three-dimensional shape displaying semi-transparent are set to be constant. It is determined by using a so-called blending process of mixing at a ratio. The original pixel color of the three-dimensional shape surface to be displayed semi-transparently used in this blending process is the original surface color given to the three-dimensional shape information of the three-dimensional shape to be displayed semi-transparently of the three-dimensional object. Information.

そして、制御手段41は、このようにして半透明画像生成手段37により生成した半透明表示しない3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の2次元カラー画像情報(画像情報5)を、第3のデータ記憶手段13に記憶する。   Then, the control unit 41 3 of the three-dimensional object in which the contour line, the ridge line, and / or the interlace line are not entered only for the three-dimensional shape that is generated by the semi-transparent image generation unit 37 and is not translucently displayed. Two-dimensional color image information (image information 5) of the entire three-dimensional shape is stored in the third data storage means 13.

次に、制御手段41は、ステップS168で、第1のデータ記憶手段11から3次元物体の半透明表示しない3次元形状の本来の面の色情報が付与されている形状情報と、半透明表示する3次元形状の本来の面の色情報が付与されている形状情報とからなる3次元物体全体の本来の面の色情報が付与されている形状情報を、ID付与手段31に読み込ませる。   Next, in step S168, the control unit 41 adds shape information to which the color information of the original surface of the three-dimensional shape that is not translucently displayed of the three-dimensional object is added from the first data storage unit 11, and the translucent display. The shape information to which the color information of the original surface of the entire three-dimensional object, which is formed from the shape information to which the color information of the original surface of the three-dimensional shape is added, is read by the ID assigning means 31.

ID付与手段31は、図2のステップS102で説明したように、3次元物体全体の形状情報、すなわち半透明表示しない3次元形状と半透明表示する3次元形状とのそれぞれに基づいて描画される面それぞれの本来の色情報に代えて 例えば“1”からの一貫した通し番号を与え、3次元物体全体の形状情報に基づいて描画される面それぞれに、面毎に互いに異なる色情報からなる面IDを付与し、各面を識別できるようにする。制御手段41
は、ID付与手段31によって得られた面IDを示す色情報が付与された3次元物体全体の形状情報を、第1のデータ記憶手段11に記憶する。
As described in step S102 of FIG. 2, the ID assigning means 31 is drawn based on the shape information of the entire three-dimensional object, that is, the three-dimensional shape that is not displayed semi-transparently and the three-dimensional shape that is displayed semi-transparently. Instead of the original color information of each surface, for example, a consistent serial number from “1” is given, and each surface that is drawn based on the shape information of the entire three-dimensional object has a surface ID composed of different color information for each surface. Is added so that each surface can be identified. Control means 41
Stores the shape information of the entire three-dimensional object to which the color information indicating the surface ID obtained by the ID providing unit 31 is added in the first data storage unit 11.

次に、制御手段41は、ステップS169で、図2に示したステップS103と同様にして、第1のデータ記憶手段11からID付与手段31によって面IDを示す色情報が付与された3次元物体全体の形状情報と表示条件とを隠面処理手段32に読み込ませて、隠面処理を施す。隠面処理手段32は、この本来の面の色情報に代えて面IDを示す色情報が付与されている3次元物体全体の形状情報についても隠面処理及びシェーディング処理を施し、その画素毎に面IDを示す色情報が付与されている3次元物体全体の画像情報を生成する。制御手段41は、この隠面処理手段32によって隠面処理を施して生成した面IDを示す色情報が付与されている3次元物体全体の画像情報を、3次元物体全体の画像情報のベース画像となる面識別用の画像情報(画像情報6)として、第2のデータ記憶手段12に記憶する。   Next, in step S169, the control means 41 is the same as step S103 shown in FIG. 2, and the three-dimensional object to which the color information indicating the surface ID is assigned from the first data storage means 11 by the ID assigning means 31. The entire shape information and display conditions are read by the hidden surface processing means 32 to perform the hidden surface processing. The hidden surface processing means 32 performs hidden surface processing and shading processing on the shape information of the entire three-dimensional object to which color information indicating the surface ID is given instead of the original surface color information, and for each pixel. Image information of the entire three-dimensional object to which color information indicating the surface ID is assigned is generated. The control means 41 obtains the image information of the entire 3D object to which the color information indicating the surface ID generated by performing the hidden surface processing by the hidden surface processing means 32 is added, and the base image of the image information of the entire 3D object. Is stored in the second data storage means 12 as image information for image identification (image information 6).

次に、制御手段41は、ステップS170で、第2のデータ記憶手段12に記憶されている3次元物体の3次元形状全体についての隠面処理が施された面IDを示す色情報が付与されている画像情報(画像情報6)を画像生成手段33に読み込ませて、画像生成手段33によって、3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報(画像情報7)を生成する。   Next, in step S170, the control unit 41 is given color information indicating the surface ID on which the hidden surface processing has been performed on the entire three-dimensional shape of the three-dimensional object stored in the second data storage unit 12. Image information (image information 6) is read by the image generation unit 33, and the image generation unit 33 displays image information representing contour lines, ridge lines, and / or interphase lines for the entire three-dimensional shape of the three-dimensional object. (Image information 7) is generated.

この画像生成手段33による3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報の生成方法は、図2に示したステップS104又は図6に示したステップS124の方法、すなわち図8のステップS155で説明した方法を用いている。   The method of generating image information representing the contour line, the ridge line, and / or the interpenetration line for the entire three-dimensional shape of the three-dimensional object by the image generating means 33 is the step shown in step S104 shown in FIG. 2 or the step shown in FIG. The method of S124, that is, the method described in step S155 of FIG. 8 is used.

この画像生成手段33によって生成した3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報(画像情報7)は、3次元物体の3次元形状全体の線画画像情報として、第3のデータ記憶手段13に記憶される。   The image information (image information 7) representing the contour line, the ridge line, and / or the interphase line for the entire three-dimensional shape of the three-dimensional object generated by the image generating means 33 is a line drawing of the entire three-dimensional shape of the three-dimensional object. The image information is stored in the third data storage unit 13.

次に、制御手段41は、ステップS171で、先のステップS167で生成した第3のデータ記憶手段13に記憶されている半透明表示しない3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の2次元カラー画像情報(画像情報5)と、先のステップS170で生成した同じく第3のデータ記憶手段13に記憶されている3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す線画画像情報(画像情報7)とを画像重畳手段34に読み込ませる。   Next, in step S171, the control means 41 performs contour lines, ridge lines, and / or inconsistency only for the three-dimensional shape not translucently displayed that is stored in the third data storage means 13 generated in the previous step S167. Two-dimensional color image information (image information 5) of the entire three-dimensional shape of the three-dimensional object in which no line is written, and the three-dimensional object stored in the third data storage means 13 generated in the previous step S170. The image superimposing means 34 reads the line drawing image information (image information 7) representing the contour line, the ridge line, and / or the interpenetration line for the entire three-dimensional shape.

画像重畳手段34は、半透明表示しない3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の2次元カラー画像情報(画像情報5)に、3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す線画画像情報(画像情報7)を上書きして、3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を強調するとともに半透明表示を含む2次元カラー出力画像情報(画像情報8)を生成する。この生成された2次元カラー出力画像情報は、第3のデータ記憶手段13に記憶される。   The image superimposing means 34 performs two-dimensional color image information (image information 5) of the entire three-dimensional shape of a three-dimensional object in which no contour line, ridge line, and / or interphase line are entered only for the three-dimensional shape that is not translucently displayed. In addition, the line drawing image information (image information 7) representing the contour line, the edge line, and / or the interpenetration line for the entire three-dimensional shape of the three-dimensional object is overwritten, and the contour line for the entire three-dimensional shape of the three-dimensional object 2D color output image information (image information 8) including a translucent display while emphasizing the ridge line and / or the interphase line is generated. The generated two-dimensional color output image information is stored in the third data storage unit 13.

したがって、本実施の形態の描画方法によれば、3次元物体の輪郭線,稜線,及び/又は相貫線を強調するとともに半透明表示を含むカラー画像を、容易に生成することができる。   Therefore, according to the drawing method of the present embodiment, it is possible to easily generate a color image including a translucent display while enhancing a contour line, a ridge line, and / or an interphase line of a three-dimensional object.

[第5の実施の形態]
次に、本発明の第5の実施の形態として、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像又はカラー画像を生成するための描画方法において、生成したい画像の画素数がPCやGWSで処理できる画像の画素数より大きい場合の画像生成に
おける描画方法について、図面に基づいて説明する。
[Fifth Embodiment]
Next, as a fifth embodiment of the present invention, a drawing method for generating a monochrome line drawing image or a color image of a three-dimensional object in which contour lines, ridge lines, and / or interphase lines are described is desired to be generated. A drawing method in image generation when the number of pixels of an image is larger than the number of pixels of an image that can be processed by a PC or GWS will be described with reference to the drawings.

本実施の形態による輪郭線,稜線,及び/又は相貫線の描画方法を採用した3次元物体の画像生成システムは、図1に示した第1の実施の形態による描画方法を採用した3次元物体の画像生成システム、又は上述した第2〜第4いずれかの実施の形態による描画方法を採用した3次元物体の画像生成システムに対して、生成したい画像の領域を分割する領域分割手段35と、分割された画像を統合する画像統合手段36とがさらに設けられている構成になっている。そのため、本実施の形態についても、それ以外の構成は同様であるので、システム構成についての詳細な説明は省略し、同一構成要素については、図1に示した同じ名称,符号を用いて説明する。   The three-dimensional object image generation system employing the contour line, ridge line, and / or phase line drawing method according to the present embodiment is a three-dimensional image employing the drawing method according to the first embodiment shown in FIG. An area dividing unit 35 for dividing an area of an image to be generated with respect to the object image generating system or the three-dimensional object image generating system adopting the drawing method according to any one of the second to fourth embodiments described above. The image integration means 36 for integrating the divided images is further provided. Therefore, since the other configurations are the same in the present embodiment, detailed description of the system configuration is omitted, and the same components are described using the same names and symbols shown in FIG. .

図11は、本実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の画像を生成する方法の処理の流れを説明したフローチャートである。   FIG. 11 shows the processing of the method for generating an image of a three-dimensional object in which contour lines, ridge lines, and / or interpenetrating lines are described by the three-dimensional object image generation system employing the drawing method according to the present embodiment. It is the flowchart explaining the flow.

まず、制御手段41は、入出力手段21によって、3次元物体の形状情報と表示条件との供給を受け、これらを第1のデータ記憶手段11に記憶するに際して、予め、生成したい画像の画素数とPCやGWSの画面の画素数とからなる領域分割条件があれば、入出力手段21を介して、この生成したい画像の画素数とPCやGWSの画面の画素数との供給を受け、これらを領域分割条件として第1のデータ記憶手段11に記憶しておく。   First, the control means 41 is supplied with the shape information and display conditions of the three-dimensional object by the input / output means 21 and stores them in the first data storage means 11 in advance. If there is an area division condition consisting of the number of pixels on the screen of PC and GWS, the number of pixels of the image to be generated and the number of pixels of the screen of PC or GWS are supplied via the input / output means 21. Is stored in the first data storage means 11 as an area division condition.

そして、制御手段41は、入出力手段21によって、3次元物体の形状情報と表示条件との供給を受けると、これらを第1のデータ記憶手段11に記憶するとともに、上述した生成したい画像の画素数とPCやGWSの画面の画素数とからなる領域分割条件が予め設定されている場合には、ステップS181で、この領域分割条件と、入出力手段21から供給を受けた3次元物体の形状情報及び表示条件とを、領域分割手段35に読み込ませる。   When the input / output means 21 supplies the shape information and the display conditions of the three-dimensional object, the control means 41 stores them in the first data storage means 11 and the above-described pixel of the image to be generated. If the area division condition consisting of the number of pixels and the number of pixels of the PC or GWS screen is preset, in step S181, the area division condition and the shape of the three-dimensional object supplied from the input / output means 21 are obtained. Information and display conditions are read by the area dividing means 35.

領域分割手段35は、領域分割条件としての生成したい画像の画素数とPCやGWSの画面の画素数との関係から適宜複数の分割画像領域に分割し、表示条件としての視点位置から眺めた場合の画像領域に対応させた3次元物体の形状情報を、その分割画像領域毎に対応させて分割し、3次元物体の形状情報の分割情報を生成する。   The area dividing unit 35 appropriately divides the image into a plurality of divided image areas based on the relationship between the number of pixels of the image to be generated as the area dividing condition and the number of pixels of the PC or GWS screen, and viewing from the viewpoint position as the display condition The shape information of the three-dimensional object corresponding to each of the image regions is divided for each of the divided image regions to generate division information of the shape information of the three-dimensional object.

制御手段41は、この生成された分割情報を表示条件として第1のデータ記憶手段11に記憶する。   The control means 41 stores the generated division information in the first data storage means 11 as a display condition.

次に、制御手段41は、ステップS182で、第1のデータ記憶手段11から3次元物体の形状情報と表示条件としての分割情報とを隠面処理手段32や必要に応じて半透明画像生成手段37に読み込ませ、その後は第1〜第4の実施の形態で説明した処理を各部に行わせ,その表示条件としての分割情報にしたがって全ての分割された分割画像領域それぞれに対して画像生成を行い、全ての分割された分割画像領域それぞれの2次元出力画像情報を第3のデータ記憶手段13に記憶する。   Next, in step S182, the control means 41 obtains the shape information of the three-dimensional object and the division information as the display condition from the first data storage means 11 as the hidden surface processing means 32 and, if necessary, the semitransparent image generation means. 37, after which the processing described in the first to fourth embodiments is performed by each unit, and image generation is performed for each of the divided divided image areas according to the division information as the display condition. 2D output image information of each divided image area is stored in the third data storage means 13.

そして、制御手段41は、ステップS183で、第3のデータ記憶手段13に記憶されている全ての分割された分割画像領域それぞれの2次元出力画像情報を、画像統合手段36に読み込ませる。これに基づき、画像統合手段36は、分割画像領域それぞれの2次元出力画像情報を統合して1つの2次元出力画像情報を生成し、この生成した2次元出力画像情報を2次元出力統合画像情報としてデータ記憶手段13に記憶する。   In step S183, the control unit 41 causes the image integration unit 36 to read the two-dimensional output image information of each of the divided divided image areas stored in the third data storage unit 13. Based on this, the image integration means 36 integrates the two-dimensional output image information of each of the divided image areas to generate one two-dimensional output image information, and uses the generated two-dimensional output image information as the two-dimensional output integrated image information. Is stored in the data storage means 13.

本実施の形態による3次元物体の画像生成システムによれば、例えば、プリンタの解像度がPCやGWSの画面の画素数よりも高い場合等、プリンタの解像度を最大限に生かせ
るという効果がある。すなわち、PCやGWSの画面の制限に束縛されず、高解像度の画像も生成可能となる。
According to the three-dimensional object image generation system according to the present embodiment, for example, when the resolution of the printer is higher than the number of pixels on the screen of the PC or GWS, there is an effect that the resolution of the printer can be maximized. That is, it is possible to generate a high-resolution image without being restricted by the limitation of the PC or GWS screen.

例えば、A4サイズの紙に印刷する場合にプリンタの解像度を200dpiとすると約2300×1600の画素数が必要であり、PCやGWSの画面の画素数を1280×1024とすると、生成したい画像の画素数を2300×1600とし、PCやGWSの画面の画素数を1280×1024とする領域分割条件を設定しておくことにより、領域分割手段35により、表示条件としての視点位置から眺めた場合の3次元物体の形状情報による画像領域を4分割して、画素数が1150×800の分割画像領域毎の2次元出力画像情報を各々生成し、その上で、画像統合手段36により、各分割画像領域毎の2次元出力画像情報を統合することにより、プリンタに対しての出力用の画素数が2300×1600の3次元物体全体の画像を生成することができる。   For example, when printing on A4 size paper, if the resolution of the printer is 200 dpi, the number of pixels of about 2300 × 1600 is required, and if the number of pixels on the PC or GWS screen is 1280 × 1024, the pixels of the image to be generated By setting the area division condition such that the number of pixels is 2300 × 1600 and the number of pixels of the PC or GWS screen is 1280 × 1024, the area division unit 35 can display 3 as viewed from the viewpoint position as the display condition. The image area based on the shape information of the three-dimensional object is divided into four parts to generate two-dimensional output image information for each of the divided image areas having the number of pixels of 1150 × 800. By integrating the two-dimensional output image information for each, an image of the entire three-dimensional object having 2300 × 1600 pixels for output to the printer is generated. Door can be.

本発明による輪郭線,稜線,及び/又は相貫線の描画方法、並びに当該描画方法を用いた画像データ生成システムの実施の形態は、以上説明したとおりであるが、その具体的な手順及び構成は、上記説明した実施の形態に限定されるものではない。   The embodiment of the contour line, ridge line, and / or phase line drawing method and the image data generation system using the drawing method according to the present invention is as described above, but its specific procedure and configuration. Is not limited to the embodiment described above.

例えば、本発明のよる輪郭線,稜線,及び/又は相貫線の描画方法、並びに当該描画方法を用いた画像データ生成システムは、比較対照になる画素があってそこから輪郭線の画像を生成する場合に限らず、例えば解像度の関係でこれとは反対に、まず、生成する画像の描画領域/解像度を決めてから画像生成に必要となる比較対照の画像を生成し、それを元に描画する場合であっても、もちろん適用可能である。なお、後者の場合は、ユーザが低解像度でよいと思えば、比較対照の画像も低解像度で生成し、結果生成される画像も低解像度となる一方、高解像度も同様に実現可能である。   For example, the contour line, ridge line, and / or phase line drawing method according to the present invention, and the image data generation system using the drawing method include a pixel to be compared and generates a contour image therefrom. In contrast to this, for example, on the contrary due to the relationship of resolution, first, after determining the drawing area / resolution of the image to be generated, a comparison image required for image generation is generated, and drawing is performed based on that Even if it is, it is of course applicable. In the latter case, if the user thinks that a low resolution is sufficient, the comparative image is also generated at a low resolution, and the resulting image is also a low resolution, while a high resolution can be realized in the same manner.

また、上記説明した実施の形態の輪郭線,稜線,及び/又は相貫線の描画方法、並びに画像データ生成システムを、3次元物体の形状情報を生成する3次元CADや3次元物体の形状を確認するビューワシステムに適用し、3次元CADシステムや3次元物体のビューワシステムを構成することも可能である。   Also, the contour line, ridge line, and / or interphase line drawing method and image data generation system according to the above-described embodiment can be used to generate a three-dimensional object shape information and a three-dimensional object shape information. It is also possible to configure a 3D CAD system or a 3D object viewer system by applying to a viewer system to be confirmed.

本発明によれば、画像生成に必要な機能の一部をハードウェア化することで、より高速な画像生成システムを構築することができる。
また、生成された画像データを基に、画像の編集機能を付加することで、高精度のCG(Computer Graphics)やアニメーション作成システムにも適用できる。
According to the present invention, it is possible to construct a higher-speed image generation system by implementing a part of functions necessary for image generation as hardware.
Further, by adding an image editing function based on the generated image data, it can be applied to a high-precision CG (Computer Graphics) and animation creation system.

本発明の第1の実施の形態による描画方法を採用した3次元物体の画像生成システムの一実施例を示す機能ブロック図である。It is a functional block diagram which shows one Example of the image generation system of the three-dimensional object which employ | adopted the drawing method by the 1st Embodiment of this invention. 図1に示した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像を生成する処理の流れを説明したフローチャートである。2 is a flowchart illustrating a flow of processing for generating a black and white line drawing image of a three-dimensional object in which contour lines, ridge lines, and / or interphase lines are described by the three-dimensional object image generation system illustrated in FIG. 1. 図2で説明した画像生成手段による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成処理の詳細を示したPADである。FIG. 3 is a PAD showing details of processing for generating image information representing the contour line, ridge line, and / or interphase line of a three-dimensional object by the image generation means described in FIG. 2. FIG. 図3で説明した画像生成手段によって生成される画素と隠面処理手段によって生成された画素との位置関係の説明図である。It is explanatory drawing of the positional relationship of the pixel produced | generated by the image production | generation means demonstrated in FIG. 3, and the pixel produced | generated by the hidden surface process means. 本実施の形態による描画方法を採用した3次元物体の画像生成システムによる3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成例を示した図である。It is the figure which showed the example of a production | generation of the image information showing the outline of a three-dimensional object, the ridgeline, and / or an interpenetration line by the three-dimensional object image generation system which employ | adopted the drawing method by this Embodiment. 本発明の第2の実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の白黒線画画像を生成する方法の処理の流れを説明したフローチャートである。A method for generating a monochrome line drawing image of a three-dimensional object in which a contour line, a ridgeline, and / or an interphase line are described by an image generation system of the three-dimensional object employing the drawing method according to the second embodiment of the present invention It is the flowchart explaining the flow of the process of. 図6で説明した画像生成手段による3次元物体の輪郭線,稜線,及び/又は相貫線を表す画像情報の生成処理の詳細を示したPADである。FIG. 7 is a PAD showing details of processing for generating image information representing the contour line, ridge line, and / or interphase line of a three-dimensional object by the image generation means described in FIG. 6. FIG. 本発明の第3の実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線を強調した3次元物体のカラー画像を生成する方法の処理の流れを説明したフローチャートである。Processing of a method for generating a color image of a three-dimensional object in which a contour line, a ridge line, and / or an interphase line are emphasized by an image generation system of the three-dimensional object employing a drawing method according to the third embodiment of the present invention It is the flowchart explaining the flow. 本実施の形態による描画方法を採用した3次元物体の画像生成システムによる2次元カラー出力画像情報の生成例を示した図である。It is the figure which showed the example of a production | generation of the two-dimensional color output image information by the image production | generation system of the three-dimensional object which employ | adopted the drawing method by this Embodiment. 本発明の第4の実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線の画像を生成する方法の処理の流れを説明したフローチャートである。The flowchart explaining the flow of the process of the method of producing | generating the image of a contour line, a ridgeline, and / or an incoherent line by the image generation system of the three-dimensional object which employ | adopted the drawing method by the 4th Embodiment of this invention. is there. 本発明の第5の実施の形態による描画方法を採用した3次元物体の画像生成システムにより、輪郭線,稜線,及び/又は相貫線が記載された3次元物体の画像を生成する方法の処理の流れを説明したフローチャートである。Processing of a method for generating an image of a three-dimensional object in which a contour line, a ridge line, and / or an interphase line are described by an image generation system of a three-dimensional object employing a drawing method according to a fifth embodiment of the present invention It is the flowchart explaining the flow.

符号の説明Explanation of symbols

11 第1のデータ記憶手段
12 第2のデータ記憶手段
13 第3のデータ記憶手段
21 入出力手段
31 ID付与手段
32 隠面処理手段
33 画像生成手段
34 画像重畳手段
35 領域分割手段
36 画像統合手段
37 半透明画像生成手段
DESCRIPTION OF SYMBOLS 11 1st data storage means 12 2nd data storage means 13 3rd data storage means 21 Input / output means 31 ID provision means 32 Hidden surface processing means 33 Image generation means 34 Image superimposition means 35 Area division means 36 Image integration means 37 Translucent image generating means

Claims (11)

3次元物体の輪郭線,稜線,及び/又は相貫線のうち、可視であるものを2次元画像として出力する輪郭線,稜線,及び/又は相貫線の描画方法であって、
描画する3次元物体の各面にそれぞれ異なる面識別情報を付与する面識別情報付与工程、
該面識別情報付与工程によって面識別情報が付与された3次元物体の形状情報に対して隠面処理を施して3次元物体の画像情報を生成する隠面処理工程、
該隠面処理工程で生成された3次元物体の画像情報のそれぞれ画素について、隣り合う画素同士の面識別情報の相違に基づいて、輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する線画画像生成工程
を有し、
前記線画画像生成工程は、
前記隠面処理工程で生成された3次元物体の画像情報の互いに隣り合う4つの画素それぞれに関しての面識別情報の中で、少なくともいずれかの画素の面識別情報が残りの画素の面識別情報と相違する場合に、輪郭線,稜線,及び/又は相貫線を表す画像情報を形成する1つの画素を、当該4つの画素の中心位置に対応するように生成する
ことを特徴とする描画方法。
A method for drawing a contour line, a ridge line, and / or an interpenet line that outputs a visible one of a contour line, a ridge line, and / or an interpenet line of a three-dimensional object as a two-dimensional image,
A surface identification information providing step of giving different surface identification information to each surface of the three-dimensional object to be drawn;
A hidden surface processing step of generating image information of the three-dimensional object by performing a hidden surface process on the shape information of the three-dimensional object to which the surface identification information is added in the surface identification information adding step;
For each pixel of the image information of the three-dimensional object generated in the hidden surface processing step, image information representing a contour line, a ridge line, and / or an interstitial line is obtained based on a difference in surface identification information between adjacent pixels. have a resulting line drawing image generation step,
The line drawing image generation step includes:
Among the surface identification information for each of the four adjacent pixels of the image information of the three-dimensional object generated in the hidden surface processing step, the surface identification information of at least one pixel is the surface identification information of the remaining pixels. If different, one pixel forming image information representing a contour line, a ridge line, and / or a continuous line is generated so as to correspond to the center position of the four pixels. How to draw.
3次元物体の輪郭線,稜線,及び/又は相貫線のうち、可視であるものを2次元画像として出力する輪郭線,稜線,及び/又は相貫線の描画方法であって、
描画する3次元物体の各面にそれぞれ異なる面識別情報を付与する面識別情報付与工程、
該面識別情報付与工程によって面識別情報が付与された3次元物体の形状情報に対して隠面処理を施して3次元物体の画像情報を生成するとともに、当該画像情報のそれぞれ画素の視点からの距離情報を準備する隠面処理工程、
該隠面処理工程で生成された3次元物体の画像情報のそれぞれ画素について、隣り合う画素同士の面識別情報の相違、及び視点からの距離情報の差に基づいて、輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する線画画像生成工程、
を有し、
前記線画画像生成工程は、
輪郭線,稜線,及び/又は相貫線を表す画像情報を形成する1つの画素を、該隠面処理工程で生成された3次元物体の画像情報の互いに隣り合う4つの画素に関しての面識別情報の相違と、当該4つの画素における2画素間の視点からの距離情報の差に関しての基準値に対する比較とに基づいて生成する
ことを特徴とする描画方法。
A method for drawing a contour line, a ridge line, and / or an interpenet line that outputs a visible one of a contour line, a ridge line, and / or an interpenet line of a three-dimensional object as a two-dimensional image,
A surface identification information providing step of giving different surface identification information to each surface of the three-dimensional object to be drawn;
The hidden surface processing is performed on the shape information of the three-dimensional object to which the surface identification information is added in the surface identification information adding step to generate image information of the three-dimensional object, and the image information from the viewpoint of each pixel is generated. Hidden surface process to prepare distance information,
For each pixel of the image information of the three-dimensional object generated in the hidden surface processing step, a contour line, a ridge line, and / or a difference based on a difference in surface identification information between adjacent pixels and a difference in distance information from the viewpoint. Alternatively, a line drawing image generation step for generating image information representing an interphase line,
I have a,
The line drawing image generation step includes:
Surface identification information regarding four pixels adjacent to each other in the image information of the three-dimensional object generated in the hidden surface processing step is defined as one pixel forming image information representing a contour line, a ridge line, and / or an interstitial line. And a comparison with respect to a reference value regarding a difference in distance information from the viewpoint between the two pixels in the four pixels .
前記面識別情報付与工程は、
3次元物体における一の面を複数の近似面で複合して表した場合は、当該複数の近似面それぞれに対して同じ面識別情報を付与する
ことを特徴とする請求項1又は2記載の描画方法。
The surface identification information providing step includes
When expressed in combination with one face a plurality of approximate surface in the three-dimensional object drawing according to claim 1, wherein applying the same surface identification information to the plurality of approximate surface respectively Method.
前記面識別情報付与工程は、
面識別情報を面の色情報として付与し、
前記線画画像生成工程は、
面識別情報を画素の色情報として取得する
ことを特徴とする請求項1〜3いずれかに記載の描画方法。
The surface identification information providing step includes
Surface identification information is given as surface color information,
The line drawing image generation step includes:
Drawing method according to any one of claims 1 to 3, characterized in that to obtain the surface identification information as the color information of the pixel.
前記線画画像生成工程により生成された輪郭線,稜線,及び/又は相貫線を表す画像情報を、本来の色情報が付与された3次元物体の形状情報に対して隠面処理を施して生成した3次元物体本来の画像情報に上書きする画像重畳工程
をさらに有することを特徴とする請求項1〜4いずれかに記載の描画方法。
Generates image information representing contour lines, ridge lines, and / or interphase lines generated by the line drawing image generation process by performing hidden surface processing on the shape information of the three-dimensional object to which the original color information is added. 5. The drawing method according to claim 1, further comprising an image superimposing step of overwriting the original image information of the three-dimensional object.
生成しようとする画像の領域を複数の画像領域に分割する分割工程を有し、
該分割工程により分割された複数の画像領域それぞれについて、前記隠面処理工程及び前記線画画像生成工程が実行され、
前記複数の画像領域それぞれの、前記線画画像生成工程により生成された輪郭線,稜線,及び/又は相貫線を表す画像情報を統合する画像統合工程
をさらに有していることを特徴とする請求項1〜5いずれかに記載の描画方法。
A division step of dividing an image area to be generated into a plurality of image areas;
The hidden surface processing step and the line drawing image generation step are executed for each of the plurality of image regions divided by the division step,
An image integration step of integrating image information representing contour lines, ridge lines, and / or interphase lines generated by the line drawing image generation step for each of the plurality of image regions. Item 6. The drawing method according to any one of Items 1 to 5 .
請求項1〜6いずれかに記載の輪郭線,稜線,及び/又は相貫線の描画方法を用いて3次元物体の画像データを生成すること
を特徴とする画像データ生成システム。
Image data generation system and generating an image data of a three-dimensional object using the preceding claims outline according to any ridgeline, and / or interpenetrating wire drawing process.
3次元物体のうちの半透明表示しない3次元形状の形状情報に対して隠面処理を施して、当該3次元物体のうちの半透明表示しない3次元形状についての画像情報を生成する手段と、
3次元物体のうちの半透明表示しない3次元形状の形状情報に対して、前記請求項1記載の描画方法を用いて、当該半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する手段と、
前記3次元物体のうちの半透明表示しない3次元形状についての画像情報に、前記半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報を重畳して、
3次元物体のうちの半透明表示しない3次元形状についての重畳画像情報を生成する手段と、
該3次元物体のうちの半透明表示しない3次元形状についての重畳画像情報に対して、3次元物体のうちの半透明表示する3次元形状を隠面処理するとともに、その際、該半透明表示しない3次元形状についての重畳画像情報に対して視点寄りにある3次元物体のうちの半透明表示する3次元形状の面のうち、当該半透明表示しない3次元形状についての重畳画像情報と重なり合う面部分の画素本来の色を、当該半透明表示しない3次元形状についての重畳画像情報による色に基づいて変更して、半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の画像情報を生成する手段と、
3次元物体の3次元形状全体に対して、前記請求項1記載の描画方法を用いて、3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する手段と、
前記半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の画像情報に、該3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報を重畳して、3次元物体の3次元形状全体についての重畳画像情報を生成する手段と、
を備えていることを特徴とする画像データ生成システム。
Means for performing hidden surface processing on shape information of a three-dimensional shape not translucently displayed among the three-dimensional objects, and generating image information about a three-dimensional shape not translucently displayed among the three-dimensional objects;
Using the drawing method according to claim 1 for the shape information of a three-dimensional shape that is not semi-transparently displayed among three-dimensional objects, the contour line, ridge line, and / or phase of the three-dimensional shape that is not semi-transparently displayed. Means for generating image information representing a penetration line;
The image information about the three-dimensional shape that is not translucently displayed among the three-dimensional objects is superimposed on the image information that represents the contour line, the ridge line, and / or the interphase line of the three-dimensional shape that is not translucently displayed.
Means for generating superimposed image information about a three-dimensional shape of a three-dimensional object that is not semi-transparently displayed;
The three-dimensional shape of the three-dimensional object to be displayed semi-transparently is subjected to hidden surface processing on the superimposed image information of the three-dimensional shape of the three-dimensional object not to be displayed semi-transparently. Of the three-dimensional surface to be displayed semi-transparently among the three-dimensional objects closer to the viewpoint with respect to the superimposed image information about the three-dimensional shape not to be overlapped, the surface overlapping the superimposed image information about the three-dimensional shape not to be semi-transparently displayed The original color of the pixel of the part is changed based on the color based on the superimposed image information for the three-dimensional shape that is not translucently displayed, and only the three-dimensional shape that is semitransparently displayed is a contour line, a ridgeline, and / or an interphase line Means for generating image information of the entire three-dimensional shape of a three-dimensional object not filled with
Using the drawing method according to claim 1, image information representing contour lines, ridge lines, and / or interphase lines for the entire three-dimensional shape of the three-dimensional object is used for the entire three-dimensional shape of the three-dimensional object. Means for generating;
Only for the three-dimensional shape to be displayed semi-transparently, the image information of the entire three-dimensional shape of the three-dimensional object in which no contour line, ridge line, and / or interphase line is entered is added to the three-dimensional shape of the three-dimensional object. Means for superimposing image information representing contour lines, ridge lines, and / or interphase lines, and generating superimposed image information about the entire three-dimensional shape of the three-dimensional object;
An image data generation system comprising:
3次元物体のうちの半透明表示しない3次元形状の形状情報に対して隠面処理を施して、当該3次元物体のうちの半透明表示しない3次元形状についての画像情報を生成する手段と、Means for performing hidden surface processing on shape information of a three-dimensional shape not translucently displayed among the three-dimensional objects, and generating image information about a three-dimensional shape not translucently displayed among the three-dimensional objects;
3次元物体のうちの半透明表示しない3次元形状の形状情報に対して、前記請求項2記載の描画方法を用いて、当該半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する手段と、Using the drawing method according to claim 2 for the shape information of a three-dimensional shape that is not semi-transparently displayed among three-dimensional objects, the contour line, ridge line, and / or phase of the three-dimensional shape that is not semi-transparently displayed. Means for generating image information representing a penetration line;
前記3次元物体のうちの半透明表示しない3次元形状についての画像情報に、前記半透明表示しない3次元形状の輪郭線,稜線,及び/又は相貫線を表す画像情報を重畳して、Superimposing image information representing a contour line, a ridge line, and / or an interphase line of the three-dimensional shape not displayed semi-transparently on the image information about the three-dimensional shape not displayed semi-transparently of the three-dimensional object,
3次元物体のうちの半透明表示しない3次元形状についての重畳画像情報を生成する手段と、Means for generating superimposed image information for a three-dimensional shape of a three-dimensional object that is not semi-transparently displayed;
該3次元物体のうちの半透明表示しない3次元形状についての重畳画像情報に対して、3次元物体のうちの半透明表示する3次元形状を隠面処理するとともに、その際、該半透明表示しない3次元形状についての重畳画像情報に対して視点寄りにある3次元物体のうちの半透明表示する3次元形状の面のうち、当該半透明表示しない3次元形状についての重畳画像情報と重なり合う面部分の画素本来の色を、当該半透明表示しない3次元形状についての重畳画像情報による色に基づいて変更して、半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の画像情報を生成する手段と、The three-dimensional shape of the three-dimensional object to be displayed semi-transparently is subjected to hidden surface processing on the superimposed image information of the three-dimensional shape of the three-dimensional object not to be displayed semi-transparently. Of the three-dimensional surface to be displayed semi-transparently among the three-dimensional objects closer to the viewpoint with respect to the superimposed image information about the three-dimensional shape not to be overlapped, the surface overlapping the superimposed image information about the three-dimensional shape not to be semi-transparently displayed The original color of the pixel of the part is changed based on the color based on the superimposed image information for the three-dimensional shape that is not translucently displayed, and only the three-dimensional shape that is semitransparently displayed is a contour line, a ridge line, and / or an interphase line. Means for generating image information of the entire three-dimensional shape of a three-dimensional object not filled with
3次元物体の3次元形状全体に対して、前記請求項2記載の描画方法を用いて、3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報を生成する手段と、Using the drawing method according to claim 2, image information representing contour lines, ridge lines, and / or interphase lines for the entire three-dimensional shape of the three-dimensional object is applied to the entire three-dimensional shape of the three-dimensional object. Means for generating;
前記半透明表示する3次元形状についてのみ輪郭線,稜線,及び/又は相貫線が記入されていない3次元物体の3次元形状全体の画像情報に、該3次元物体の3次元形状全体についての輪郭線,稜線,及び/又は相貫線を表す画像情報を重畳して、3次元物体の3次元形状全体についての重畳画像情報を生成する手段と、Only for the three-dimensional shape to be displayed semi-transparently, the image information of the entire three-dimensional shape of the three-dimensional object in which no contour line, ridge line, and / or interphase line are entered is added to the three-dimensional shape of the three-dimensional object. Means for superimposing image information representing contour lines, ridge lines, and / or interphase lines, and generating superimposed image information about the entire three-dimensional shape of the three-dimensional object;
を備えていることを特徴とする画像データ生成システム。An image data generation system comprising:
請求項1〜6いずれかに記載の描画方法を用いて、描画画像データを生成する
ことを特徴とする3次元CADシステム。
Using the method of drawing according to any one of claims 1 to 6, the three-dimensional CAD system and generates a drawing image data.
請求項1〜6いずれかに記載の描画方法を用いて、描画画像データを生成する
ことを特徴とするビューワシステム。
Using the method of drawing according to any one of claims 1 to 6, viewer system and generates a drawing image data.
JP2005379748A 2005-12-28 2005-12-28 Drawing method, image data generation system, CAD system, and viewer system Active JP4616167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005379748A JP4616167B2 (en) 2005-12-28 2005-12-28 Drawing method, image data generation system, CAD system, and viewer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005379748A JP4616167B2 (en) 2005-12-28 2005-12-28 Drawing method, image data generation system, CAD system, and viewer system

Publications (2)

Publication Number Publication Date
JP2007179461A JP2007179461A (en) 2007-07-12
JP4616167B2 true JP4616167B2 (en) 2011-01-19

Family

ID=38304558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005379748A Active JP4616167B2 (en) 2005-12-28 2005-12-28 Drawing method, image data generation system, CAD system, and viewer system

Country Status (1)

Country Link
JP (1) JP4616167B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6962242B2 (en) * 2018-03-07 2021-11-05 富士通株式会社 Information processing device, superimposition display program, superimposition display method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03123985A (en) * 1989-10-06 1991-05-27 Nippon Telegr & Teleph Corp <Ntt> Plotting method for contour line and/or ridgeline
JPH07271847A (en) * 1994-04-01 1995-10-20 Hitachi Ltd Method and device for modeling formation ground
JPH1011610A (en) * 1996-06-19 1998-01-16 Sony Computer Entertainment:Kk Device and method for plotting
JP2002074385A (en) * 2000-08-23 2002-03-15 Nintendo Co Ltd Method and device for providing logic coupling for operating n alphas inside graphic system
JP2004013510A (en) * 2002-06-06 2004-01-15 Sony Computer Entertainment Inc Plotting processing program, storage medium having the same stored thereon, plotting processing apparatus and method therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03123985A (en) * 1989-10-06 1991-05-27 Nippon Telegr & Teleph Corp <Ntt> Plotting method for contour line and/or ridgeline
JPH07271847A (en) * 1994-04-01 1995-10-20 Hitachi Ltd Method and device for modeling formation ground
JPH1011610A (en) * 1996-06-19 1998-01-16 Sony Computer Entertainment:Kk Device and method for plotting
JP2002074385A (en) * 2000-08-23 2002-03-15 Nintendo Co Ltd Method and device for providing logic coupling for operating n alphas inside graphic system
JP2004013510A (en) * 2002-06-06 2004-01-15 Sony Computer Entertainment Inc Plotting processing program, storage medium having the same stored thereon, plotting processing apparatus and method therefor

Also Published As

Publication number Publication date
JP2007179461A (en) 2007-07-12

Similar Documents

Publication Publication Date Title
US9282321B2 (en) 3D model multi-reviewer system
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
Goesele et al. Ambient point clouds for view interpolation
JP5299173B2 (en) Image processing apparatus, image processing method, and program
US20020085001A1 (en) Image processing apparatus
JPH06507743A (en) Image synthesis and processing
US7620234B2 (en) Image processing apparatus and method for generating a three-dimensional model of an object from a collection of images of the object recorded at different viewpoints and segmented using semi-automatic segmentation techniques
US10475230B2 (en) Surface material pattern finish simulation device and surface material pattern finish simulation method
JP4616167B2 (en) Drawing method, image data generation system, CAD system, and viewer system
JPH0997344A (en) Method and system for texture generation
JP2003216973A (en) Method, program, device and system for processing three- dimensional image
JP5807569B2 (en) Image processing apparatus, image processing method, and image processing program
KR20050013511A (en) A process for providing a vector image with removed hidden lines
Huang et al. Generation of stereo oil paintings from RGBD images
KR102331952B1 (en) 2D Rendering Device and Its Method according to 3D Data Viewport
US11967081B2 (en) Information processing apparatus, non-transitory computer-readable storage medium, and information processing method
JP6843319B2 (en) Information processing equipment, programs and information processing methods
JP6962242B2 (en) Information processing device, superimposition display program, superimposition display method
JP5887966B2 (en) Image processing apparatus, image processing method, and image processing program
US20030081849A1 (en) Method and system for creating seamless textured three dimensional models of objects
WO2019188315A1 (en) Image processing device, image processing method, and program
JP5782761B2 (en) Parallax image generation device, parallax image generation method, program, and storage medium
JP6720523B2 (en) Surface material finish simulation system and surface material finish simulation method
WO2023102637A1 (en) Interactive visualizations for industrial inspections
JP2021093712A (en) Imaging control device, evaluation system, imaging control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101021

R151 Written notification of patent or utility model registration

Ref document number: 4616167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3