JPH0877228A - Graphic processor - Google Patents

Graphic processor

Info

Publication number
JPH0877228A
JPH0877228A JP6209683A JP20968394A JPH0877228A JP H0877228 A JPH0877228 A JP H0877228A JP 6209683 A JP6209683 A JP 6209683A JP 20968394 A JP20968394 A JP 20968394A JP H0877228 A JPH0877228 A JP H0877228A
Authority
JP
Japan
Prior art keywords
dimensional space
function
blurring
depth direction
vignetting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6209683A
Other languages
Japanese (ja)
Inventor
Hiroshige Kamine
広茂 加峰
Michimasa Aramaki
道昌 荒巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP6209683A priority Critical patent/JPH0877228A/en
Publication of JPH0877228A publication Critical patent/JPH0877228A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE: To provide the graphic processor which gives a depth feeling to an operator to enable visual position recognition in a three-dimensional space, and can be improved in operation efficiency. CONSTITUTION: The graphic processor consists of a central processing unit 1, a display device 2, an input device 3, a main storage device 4 which stores a program, etc., and a secondary storage device 5 which stores inputted figures, etc. A focus function consists of a focus position information management part 6 which has focus position information, a view direction information management part 7 which has information on a view direction, an illuminance calculation part 8 which finds illuminance by elements at the time of shading, a vignetting arithmetic part 9 which calculates the vignetting width of a body, and a vignetting illuminance calculation part 10 which calculates illuminance for a vignetting; and the vignetting is performed at the time of the shading processing to give the operator a depth feeling, and thus the visual position recognition in a three-dimensional space is enabled to improve the operation efficiency of a CAD system.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、特にCAD(Comp
uter Aided Design)システムなどの
図形処理装置に関するものである。
The present invention is particularly applicable to CAD (Comp
The present invention relates to a graphic processing device such as a uter Aided Design system.

【0002】[0002]

【従来の技術】近年、複雑な形状の設計に伴い、CAD
による作業が普及しており、三次元グラフィックスシス
テムにおいて、三次元モデルを対象とした機能に関して
は、CADシステムそのものの操作性を示すものとなっ
ている。
2. Description of the Related Art In recent years, with the design of complicated shapes, CAD
Has spread, and in the three-dimensional graphics system, the operability of the CAD system itself has been demonstrated with respect to the function for the three-dimensional model.

【0003】作業者は、三次元グラフィックスシステム
において、三次元空間上に物体を作成することで設計を
進めていく。設計作業中の三次元空間上におけるワイヤ
ーフレームモデルやサーフェスモデル、ソリッドモデル
等の物体の形状の判別はシェーディング処理を用いるこ
とで可能である。しかし、作業者がワイヤーフレーム状
態で三次元空間上に配置される物体をみる場合、その奥
行き方向の位置関係を視覚的に認識することは困難であ
る。また、オペレーション課程で奥行き方向の位置情報
が必要とされたときや、作業中の平面、いわゆる作業平
面上にない要素の選択をしたいときなどは、実際に座標
をしらべて入力する、作業平面をオペレーション前に変
更しておく等の作業が必要となり、図面編集の効率を下
げていた。以下に従来の画像処理装置について説明す
る。
A worker advances a design by creating an object in a three-dimensional space in a three-dimensional graphics system. The shape of an object such as a wire frame model, a surface model, or a solid model in a three-dimensional space during design work can be discriminated by using shading processing. However, when an operator looks at an object arranged in a three-dimensional space in a wire frame state, it is difficult to visually recognize the positional relationship in the depth direction. Also, when the position information in the depth direction is needed in the operation process, or when you want to select a plane that is currently being worked, that is, an element that is not on the so-called work plane, you can actually enter the coordinates by checking the coordinates. Work such as making changes before the operation was required, which reduced the efficiency of drawing editing. The conventional image processing apparatus will be described below.

【0004】図6は従来の図形処理装置のブロック図で
ある。図6において1は要求された情報を処理する中央
処理装置、2はウインドウ、図形要素、文字などを表示
する表示装置、3は文字、数値、位置などデータを入力
するキーボード、タブレット、マウス等の入力装置、4
はオペレーティングシステム、ウインドウシステムなど
実行中のプログラムを記憶する主記憶装置である。5は
二次記憶装置であって、作業者が三次元空間にある各要
素をどの方向から見ているのかというビュー方向の情報
をもつビュー方向情報管理部7、シェーディング時に各
要素毎の輝度を求める輝度計算部8を備えている。
FIG. 6 is a block diagram of a conventional graphic processing apparatus. In FIG. 6, 1 is a central processing unit for processing requested information, 2 is a display device for displaying windows, graphic elements, characters, etc., 3 is a keyboard, tablet, mouse, etc. for inputting data such as characters, numerical values, and positions. Input device, 4
Is a main storage device for storing running programs such as an operating system and a window system. A secondary storage device 5 includes a view direction information management unit 7 having information on a view direction from which direction an operator views each element in a three-dimensional space, and a brightness of each element during shading. The brightness calculation unit 8 is provided.

【0005】図7は従来の図形処理装置における処理フ
ローチャートである。まず、三次元空間上に配置された
描画要素をどの方向から見ているのかというビュー方向
の情報を参照する(STEP1)。次に輝度計算部8に
て、描画要素ごとにビュー方向から可視な要素に対して
シェーディングの光源との輝度計算および要素間の色補
間を行う(STEP2)。次に予め定められた光源から
のシェーディング描画処理を行う(STEP3)。
FIG. 7 is a processing flowchart in the conventional graphic processing apparatus. First, reference is made to view direction information indicating from which direction the drawing elements arranged in the three-dimensional space are viewed (STEP 1). Next, the brightness calculation unit 8 calculates the brightness with respect to the element visible from the view direction with respect to the shading light source for each drawing element and performs color interpolation between the elements (STEP 2). Next, shading drawing processing from a predetermined light source is performed (STEP 3).

【0006】このように、従来のシェーディングはその
基準点を光源の一点としているので、ひとつの要素に関
しての三次元的な形状はシェーディング処理後の配色状
態で確認することができる。だが、いくつかの要素に対
してこの処理を行った際に、各要間の相対的な奥行き方
向の位置関係を確認することは困難であり、その位置関
係を見るにはビュー方向の変更を余儀なくされた。
As described above, in the conventional shading, the reference point is one point of the light source, so that the three-dimensional shape of one element can be confirmed in the color arrangement state after the shading processing. However, when this process is performed on some elements, it is difficult to confirm the relative positional relationship in the depth direction between each element, and to see the positional relationship, change the view direction. I was forced.

【0007】また、奥行き方向の位置の確認に関して
は、ビュー方向の位置変更で可能であったとしても、そ
の座標が必要である場合やその位置に配置された描画要
素を選択したい場合などは、その位置を確認し、そこに
マウスで選択可能な作業平面を移動させる作業を行わな
ければならなかった。
Regarding the confirmation of the position in the depth direction, even if it is possible to change the position in the view direction, if the coordinates are necessary or if the drawing element arranged at that position is selected, It was necessary to confirm the position and move the work plane selectable with the mouse to the position.

【0008】[0008]

【発明が解決しようとする課題】上記従来の方法では、
単一の描画要素に対してその形状を確認するためには有
効であるが、設計図等に作成される図面には、複雑な形
状が多数配置され、作業者が各要素が形成する全体的な
構成を視覚的に確認するには各要素の奥行き方向の位置
関係が明確になる必要があり、従来のシェーディング処
理だけでは不十分であった。また、奥行き方向に関して
の位置指定は、位置指定の前に作業平面を移動するため
の要素選択や座標入力が必要であり、図面編集の作業効
率が低いという問題点があった。
In the above conventional method,
Although it is effective for confirming the shape of a single drawing element, many complicated shapes are placed in drawings created in design drawings, etc. It is necessary to clarify the positional relationship of each element in the depth direction in order to visually confirm such a configuration, and conventional shading processing was not sufficient. Further, the position designation in the depth direction requires the element selection and the coordinate input for moving the work plane before the position designation, which causes a problem that the work efficiency of the drawing edit is low.

【0009】そこで本発明は、作業者に奥行き感を与
え、三次元空間の視覚的な位置認識を可能にして作業効
率の向上を図れる図形処理装置を提供することを目的と
する。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a graphic processing apparatus that gives a worker a sense of depth and enables visual position recognition in a three-dimensional space to improve work efficiency.

【0010】[0010]

【課題を解決するための手段】このために本発明の図形
処理装置は、三次元空間上に配置された物体にシェーデ
ィング処理を施す際に、予め定められた焦点位置を基準
として、その位置からの距離により物体にぼかしを入
れ、作業者に奥行き方向の位置認識を視覚的に与える機
能を有するものである。
To this end, the graphic processing apparatus of the present invention uses a predetermined focus position as a reference when performing shading processing on an object arranged in a three-dimensional space. The object has a function of visually blurring the position recognition in the depth direction by blurring the object depending on the distance.

【0011】[0011]

【作用】上記構成によれば、作業者に奥行き方向の位置
関係を視覚的に確認可能とし、基準面の移動をマウスな
どの入力装置で行うことによって、Z軸方向の指定をマ
ウスなどの入力装置により可能とする。
With the above arrangement, the operator can visually confirm the positional relationship in the depth direction, and the reference plane is moved by an input device such as a mouse, so that the Z-axis direction can be designated by a mouse or the like. It is possible depending on the device.

【0012】[0012]

【実施例】以下、本発明の一実施例を図面を参照して説
明する。図1は本発明の一実施例における図形処理装置
のブロック図である。この図形処理装置は、中央処理装
置1と、表示装置2と、文字及び数値などを入力する入
力装置3と、実行中のプログラム等を記憶しておく主記
憶装置4と、入力された図形等を記憶しておく二次記憶
装置5で構成されている。またフォーカス機能は、焦点
情報を持つ焦点位置情報管理部6、ビュー方向の情報を
持つビュー方向情報管理部7、シェーディング時に各要
素毎の輝度を求める輝度計算部8、作業者が入力するぼ
かし係数を用い物体のぼかし幅を計算するぼかし処理演
算部9、ぼかし処理を施すための輝度を計算するぼかし
処理輝度計算部10から構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a graphic processing apparatus according to an embodiment of the present invention. This graphic processing device includes a central processing unit 1, a display device 2, an input device 3 for inputting characters and numerical values, a main storage device 4 for storing a program being executed, an input graphic, etc. Is configured by the secondary storage device 5. Further, the focus function includes a focus position information management unit 6 having focus information, a view direction information management unit 7 having view direction information, a brightness calculation unit 8 for obtaining brightness for each element during shading, and a blurring coefficient input by an operator. It is composed of a blurring processing calculation unit 9 for calculating a blurring width of an object by using, and a blurring processing brightness calculation unit 10 for calculating a brightness for performing a blurring process.

【0013】図2は本発明の一実施例における図形処理
装置のフローチャートである。以下に基準面、すなわち
焦点位置からの奥行き方向によるぼかし処理を施すフォ
ーカス機能について説明する。まず、作業者により三次
元空間上に配置された要素は三次元座標の位置情報を持
つ(STEP11)。図3は本発明の一実施例における
ぼかし処理の描画例を示した図であって、ぼかし処理が
施された物体が実際にどのようにみえるのかを示す。
FIG. 2 is a flow chart of the graphic processing apparatus in one embodiment of the present invention. The focus function for performing blurring processing in the depth direction from the reference plane, that is, the focus position will be described below. First, the element placed in the three-dimensional space by the operator has position information of three-dimensional coordinates (STEP 11). FIG. 3 is a diagram showing a drawing example of the blurring process according to the embodiment of the present invention, and shows how an object subjected to the blurring process actually looks.

【0014】作業者は、ぼかし処理を要素に施す場合の
ぼかし幅を指定するためにぼかし係数とぼかし幅の上限
値MAXを設定する(STEP12)。図4は本発明の
一実施例におけるぼかし係数の特性と焦点位置とぼかし
幅、ぼかし幅の上限値MAXの関係を示した図であっ
て、(a)に物体のZ軸座標、ぼかし幅、ぼかし係数、
ぼかし幅の上限値MAXの関係を示した図である。同一
の物体にぼかし処理を施す場合、ぼかし係数を大きくす
れば、実際にぼかしがかかる幅の長さはZ軸方向の位置
の相違に対して、より大きく変化する。そのぼかし幅が
作業者が指定したぼかし幅の上限値MAXに達すると、
その位置よりZ方向に存在する要素はすべてぼかし幅の
上限値でぼかしが入れられる。
The operator sets the blurring coefficient and the upper limit value MAX of the blurring width in order to specify the blurring width when the blurring process is performed on the element (STEP 12). FIG. 4 is a diagram showing the relationship between the characteristic of the blurring coefficient, the focus position, the blurring width, and the upper limit value MAX of the blurring width in one embodiment of the present invention. Blur factor,
It is a figure showing the relation of the upper limit MAX of the blurring width. When the blurring process is performed on the same object, if the blurring coefficient is increased, the length of the width that is actually blurred changes more greatly with respect to the difference in the position in the Z-axis direction. When the blur width reaches the upper limit MAX of the blur width specified by the operator,
All the elements existing in the Z direction from that position are blurred with the upper limit value of the blur width.

【0015】次に作業者が三次元空間上に配置された物
体をどの方向からみているのかというビュー方向情報を
参照する(STEP13)。次にマウスに連動した焦点
位置移動機能により、焦点位置、基準面を定め(STE
P14)、この焦点位置指定により焦点位置の情報を得
る(STEP15)。
Next, the view direction information indicating from which direction the worker is looking at the object arranged in the three-dimensional space is referred to (STEP 13). Next, the focus position and reference plane are determined by the focus position movement function linked to the mouse (STE
P14), the focus position information is obtained by this focus position designation (STEP 15).

【0016】次に予め定められた光源の座標、ビュー方
向情報を用い、既存のシェーディング処理に伴う輝度計
算を行う(STEP16)。次に作業者が入力したぼか
し係数、ぼかし幅の上限値MAX、設定済みの焦点位置
情報を用い、実際に物体にぼかしをかける部分の座標を
計算する(STEP17)。次にSTEP16で行われ
た輝度計算結果とSTEP17でのぼかし部分の座標情
報を参照し、色補間の修正を行う座標計算を行う(ST
EP18)。次にSTEP18で計算された最終結果に
従い、シェーディング描画処理を行う(STEP1
9)。
Next, using the predetermined coordinates of the light source and the view direction information, the brightness calculation associated with the existing shading processing is performed (STEP 16). Next, using the blurring coefficient input by the operator, the upper limit MAX of the blurring width, and the focus position information that has been set, the coordinates of the portion where the blur is actually applied to the object are calculated (STEP 17). Next, referring to the brightness calculation result performed in STEP 16 and the coordinate information of the blurred portion in STEP 17, coordinate calculation for correcting the color interpolation is performed (ST
EP18). Next, shading drawing processing is performed according to the final result calculated in STEP 18 (STEP 1
9).

【0017】次に上記の処理を施された物体に対して、
マウスにより奥行き方向の位置情報をとる処理につい
て、図4の(b),(c)、図5を用いて説明する。図
5は本発明の一実施例におけるマウスの焦点位置機能を
示す図である。
Next, with respect to the object subjected to the above processing,
The process of obtaining position information in the depth direction with a mouse will be described with reference to FIGS. 4B, 4C, and 5. FIG. 5 is a diagram showing a focus position function of a mouse in one embodiment of the present invention.

【0018】基準面、すなわち焦点位置が移動するに従
い、ぼかしがかけられる部分は図4の(b)から(c)
のように変化する。この焦点位置移動の機能を図5の
(a)のように奥行き方向をZ方向とすると、−Z方向
に焦点位置を移動させるボタン、+Z方向に焦点位置を
移動させるボタンをマウスに配置し、作業者はこの二つ
のボタンにより、視覚的にぼかし部分が変動されていく
のを確認でき、ぼかしが消えた部分の奥行き方向は、ぼ
かしが消された要素のZ座標にマウスが移動しているこ
とになり、マウスにより二次元的な指定に加えて、奥行
き方向の位置の指定も行えることになる。
The reference plane, that is, the portion that is blurred as the focal point moves is shown in FIGS. 4B to 4C.
It changes like. If the depth direction is the Z direction as shown in FIG. 5A for the function of moving the focus position, a button for moving the focus position in the −Z direction and a button for moving the focus position in the + Z direction are arranged on the mouse. The operator can visually confirm that the blurred portion is changed by these two buttons, and in the depth direction of the portion where the blurred portion disappears, the mouse moves to the Z coordinate of the element where the blurred portion disappears. Therefore, in addition to the two-dimensional designation with the mouse, the position in the depth direction can be designated.

【0019】この機能を図5の(b)にて具体的に説明
する。今、三次元空間上にボックスが配置され、その構
成要素である平面α、平面βはそれぞれZ座標A,Bに
位置しているものとする。焦点位置がAにあるとき、物
体は平面αから平面βにかけてぼかしがかかっている。
マウスのボタンにより+Z方向に焦点位置を移動させ、
平面βのぼかしが消えた時点での焦点位置はZ軸座標B
に来ていることになり、Z軸座標Bに位置する平面βの
位置情報をマウスにより取れることになる。
This function will be specifically described with reference to FIG. Now, it is assumed that the boxes are arranged in the three-dimensional space, and the planes α and β, which are the components thereof, are located at the Z coordinates A and B, respectively. When the focus position is at A, the object is blurred from the plane α to the plane β.
Move the focus position in the + Z direction with the mouse button,
The focus position when the blur of the plane β disappears is the Z-axis coordinate B.
Therefore, the position information of the plane β located on the Z-axis coordinate B can be obtained by the mouse.

【0020】[0020]

【発明の効果】以上説明したように本発明は、三次元空
間に配置された物体に対して作業者の定める焦点位置を
基準として、ぼかし処理を行うことで三次元的な位置関
係が視覚的に確認できるとともに、マウスなどの入力装
置に焦点移動機能を持たせることによって、入力装置に
より奥行き方向の位置情報を得ることができ、したがっ
て図面編集時の作業効率が著しく向上する。
As described above, according to the present invention, the blurring process is performed on the object arranged in the three-dimensional space with the focus position determined by the operator as a reference, so that the three-dimensional positional relationship can be visually recognized. In addition, by providing an input device such as a mouse with a focus movement function, position information in the depth direction can be obtained by the input device, and thus work efficiency during drawing editing is significantly improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における図形処理装置のブロ
ック図
FIG. 1 is a block diagram of a graphic processing device according to an embodiment of the present invention.

【図2】本発明の一実施例における図形処理装置の処理
フローチャート
FIG. 2 is a processing flowchart of a graphic processing apparatus according to an embodiment of the present invention.

【図3】本発明の一実施例におけるぼかし処理の描画例
を示した図
FIG. 3 is a diagram showing a drawing example of blurring processing according to an embodiment of the present invention.

【図4】本発明の一実施例におけるぼかし係数の特性と
焦点位置とぼかし幅、ぼかし幅の上限値MAXの関係を
示した図
FIG. 4 is a diagram showing a relationship between a characteristic of a blurring coefficient, a focus position, a blurring width, and an upper limit value MAX of the blurring width according to an embodiment of the present invention.

【図5】本発明の一実施例におけるマウスの焦点位置機
能を示す図
FIG. 5 is a diagram showing a focus position function of a mouse in one embodiment of the present invention.

【図6】従来の図形処理装置のブロック図FIG. 6 is a block diagram of a conventional graphic processing device.

【図7】従来の図形処理装置における処理フローチャー
FIG. 7 is a processing flowchart in a conventional graphic processing apparatus.

【符号の説明】[Explanation of symbols]

1 中央処理装置 2 表示装置 3 入力装置 4 主記憶装置 5 二次記憶装置 6 焦点位置情報管理部 7 ビュー方向情報管理部 8 輝度計算部 9 ぼかし処理演算部 10 ぼかし処理輝度計算部 1 Central Processing Unit 2 Display Device 3 Input Device 4 Main Storage Device 5 Secondary Storage Device 6 Focus Position Information Management Unit 7 View Direction Information Management Unit 8 Luminance Calculation Unit 9 Blur Processing Computation Unit 10 Blur Processing Luminance Calculation Unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】要求された情報を処理する中央処理装置
と、ウインドウ、図形要素、文字などを表示する表示装
置と、文字、数値、位置などのデータを入力する入力装
置と、実行中のプログラムを記憶するための主記憶装置
と、形状データベース、保存領域等を記憶するための二
次記憶装置とを備えた図形処理装置であって、三次元空
間上に配置された物体にシェーディング処理を施す際
に、予め定められた焦点位置を基準として、その位置か
らの距離により物体にぼかしを入れ、作業者に奥行き方
向の位置認識を視覚的に与える機能を有することを特徴
とする図形処理装置。
1. A central processing unit for processing requested information, a display device for displaying windows, graphic elements, characters and the like, an input device for inputting data such as characters, numerical values and positions, and a program being executed. A graphic processing device including a main storage device for storing a shape, a secondary storage device for storing a shape database, a storage area, and the like, and performing shading processing on an object arranged in a three-dimensional space. In this case, the figure processing device has a function of blurring an object according to a distance from the predetermined focus position as a reference and visually giving a worker position recognition in the depth direction.
【請求項2】前記機能が、三次元空間上の物体に施され
ている状態で、CADシステムの入力装置であるマウス
に焦点位置の基準面を奥行き方向に移動させる動作機能
を有し、マウスで指定可能の作業平面上にないぼかし処
理の施された物体に対して、マウスで基準面を移動さ
せ、物体にぼかしが消える位置を認識させることで、マ
ウスにより作業平面上にない物体の選択、またZ方向の
位置指定を可能とすることを特徴とする請求項1記載の
図形処理装置。
2. A mouse, which is an input device of a CAD system, has an operation function of moving a reference plane of a focus position in a depth direction while the function is applied to an object in a three-dimensional space. Select an object that is not on the work plane by moving the reference plane with the mouse and recognizing the position where the blur disappears. The graphic processing apparatus according to claim 1, wherein the Z-direction position can be designated.
【請求項3】前記機能が、三次元空間上の物体に施され
ている状態で、奥行き方向の距離に比例するぼかし幅に
対して、ぼかし幅の上限値を指定することで、ぼかし幅
がその上限値に達する位置より奥行き方向に存在する全
ての要素はぼかし幅の上限値でぼかしが入れられる機能
を有することを特徴とする請求項1記載の図形処理装
置。
3. The blur width can be reduced by designating the upper limit value of the blur width with respect to the blur width proportional to the distance in the depth direction when the function is applied to an object in a three-dimensional space. 2. The graphic processing apparatus according to claim 1, wherein all the elements existing in the depth direction from the position where the upper limit value is reached have a function of blurring at the upper limit value of the blur width.
JP6209683A 1994-09-02 1994-09-02 Graphic processor Pending JPH0877228A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6209683A JPH0877228A (en) 1994-09-02 1994-09-02 Graphic processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6209683A JPH0877228A (en) 1994-09-02 1994-09-02 Graphic processor

Publications (1)

Publication Number Publication Date
JPH0877228A true JPH0877228A (en) 1996-03-22

Family

ID=16576899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6209683A Pending JPH0877228A (en) 1994-09-02 1994-09-02 Graphic processor

Country Status (1)

Country Link
JP (1) JPH0877228A (en)

Similar Documents

Publication Publication Date Title
EP0640943B1 (en) Shape modeling apparatus and method
US6025847A (en) Three dimensional modeling system with visual feedback
US6046745A (en) Three-dimensional model making device and its method
EP0172920A1 (en) Picture display method
JP2853355B2 (en) 3D graphic data generator
US7567850B2 (en) Method and system for creating a product parts catalog
US5852442A (en) Method of drawing a three-dimensional object
US20080165189A1 (en) Method and system for automatically generating process animations
JPH0877228A (en) Graphic processor
US6282329B1 (en) Pattern editing system
JPH0660164A (en) Three-dimensional shape processing system
CN115048008B (en) Method and equipment for visualizing objects in HMI (human machine interface) picture
JP3977458B2 (en) Interactive automatic programming device
JP2854174B2 (en) Enlargement drawing method in numerical controller
EP0439333A2 (en) Electronic image modification
JP2637923B2 (en) Method for correcting stripe pattern direction data and information processing apparatus for executing the same, and method for correcting stripe pattern pitch data and information processing apparatus for executing the same
JP3263196B2 (en) Model estimation device and model estimation method
JP3615230B2 (en) CAD system
EP0620530A2 (en) Method of and apparatus for editing two-dimensional data for generating three-dimensional data
JPH08166978A (en) Graphic processor and graphic position recognition method
JP2636014B2 (en) Figure connection control method
JP2723058B2 (en) Line-symmetric figure input device
JPH06301751A (en) Editing and display method for preparing three-dimensional data and device therefor
JP2664903B2 (en) Graphic system
JP2642167B2 (en) How to create numerical control data