JPH1020914A - Simulated working method/device - Google Patents

Simulated working method/device

Info

Publication number
JPH1020914A
JPH1020914A JP8178126A JP17812696A JPH1020914A JP H1020914 A JPH1020914 A JP H1020914A JP 8178126 A JP8178126 A JP 8178126A JP 17812696 A JP17812696 A JP 17812696A JP H1020914 A JPH1020914 A JP H1020914A
Authority
JP
Japan
Prior art keywords
image
operator
dimensional
displayed
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8178126A
Other languages
Japanese (ja)
Other versions
JP2837393B2 (en
Inventor
Yoshio Nagamatsu
宣雄 永松
Soko Taketomi
壮行 武富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP8178126A priority Critical patent/JP2837393B2/en
Publication of JPH1020914A publication Critical patent/JPH1020914A/en
Application granted granted Critical
Publication of JP2837393B2 publication Critical patent/JP2837393B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

PROBLEM TO BE SOLVED: To provide a simulated molding system and to eliminate the need of actually manufacturing a model. SOLUTION: An object protruding from the two-dimensional display face 3 of a liquid crystal or cathode ray tube to this side of an operator-side is three-dimensionally displayed. An operator makes the simulated work tool 7 to touch the stereoscopic picture or makes it intrude into it by using the tool 7. The position of the simulated work tool 7 is detected, the part to which the picture 5 that is stereoscopically displayed touches or into which the picture invades is deformed and it is corrected into the picture after work so as to display it.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、いわゆるコンピュ
ータグラフィックス(略称CG)技術を適用して仮想上
の物体に模擬加工工具を用いて空間上で直接造形を施
し、3次元的にリアルタイムに視覚に訴える形で表示す
ることができるいわゆるバーチャル(virtual)造形を行
う模擬加工方法および装置に関し、さらにこれによって
実際に物体を加工する方法に関する。
BACKGROUND OF THE INVENTION The present invention relates to a so-called computer graphics (abbreviated as CG) technique, in which a virtual object is directly modeled in space using a simulated machining tool, and three-dimensionally visualized in real time. TECHNICAL FIELD The present invention relates to a simulation processing method and apparatus for performing so-called virtual modeling that can be displayed in a form that appeals to a user, and further relates to a method of actually processing an object using the simulation processing method and apparatus.

【0002】[0002]

【従来の技術】典型的な先行技術としては、いわゆるモ
ックアップと呼ばれる模型製作による意匠設計である。
この先行技術では、たとえば自動車の外観形状ならびに
2輪自動車のオイルタンクおよびマフラの形状の設計を
行う際に、模型を実際に製作して意匠設計の検討を行
う。この先行技術では、実際に模型を製作するので、時
間と費用がかかり、また一旦製作した模型を変形するこ
とができず、やり直しがきかない。なお、特開平6−2
0011には、コンピュータグラフィックスを用いた3
次元形状加工装置が開示されているが、仮想空間と実空
間を直接重ねて被加工物の形状加工を行うという技術は
開示されていない。
2. Description of the Related Art A typical prior art is a design design by so-called mock-up, which is a model production.
In this prior art, for example, when designing the external shape of an automobile and the shape of an oil tank and a muffler of a two-wheeled automobile, a model is actually manufactured to examine a design design. In this prior art, since a model is actually manufactured, it takes time and money, and the model once manufactured cannot be deformed and cannot be redone. It should be noted that JP-A-6-2
0011 includes 3 using computer graphics.
Although a three-dimensional shape processing apparatus is disclosed, there is no disclosure of a technique of directly superimposing a virtual space and a real space and processing the shape of a workpiece.

【0003】[0003]

【発明が解決しようとする課題】本発明の目的は、実際
に模型を製作することなく、製品などの物体を3次元的
にリアルタイムに視覚に訴えることができるようにした
模擬加工方法および装置、ならびに物体の加工方法を提
供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for simulating an object such as a product which can be visually recognized in three dimensions in real time without actually manufacturing a model. As well as a method of processing an object.

【0004】[0004]

【課題を解決するための手段】本発明は、2次元表示面
に、物体の画像を、操作者による3次元立体視ができる
ように表示し、操作者が把持した模擬加工工具が、立体
視されている画像に、空間上で直接接触または侵入した
とき、前記表示面に表示される画像の前記接触または侵
入した部分を変形して、加工後の画像に補正して表示す
ることを特徴とする模擬加工方法である。 また本発明は、2次元表示面に、物体の画像を、操作者
による3次元立体視ができるように表示し、操作者が把
持した模擬加工工具が、立体視されている画像に、空間
上で直接接触または侵入したとき、前記表示面に表示さ
れる画像の前記接触または侵入した部分を変形して、加
工後の画像に補正して表示し、物体の補正して得られた
3次元画像のデータをメモリにストアしておき、このス
トアされたデータによって、加工工具と物体とを3次元
で相対的に変位駆動して、物体を加工する物体の加工方
法である。 また本発明は、2次元表示面に物体の画像を表示するこ
とによって操作者による立体視画像を形成する仮想空間
と、操作者が把持した加工工具によって物体を加工する
実空間とを、同じ空間内に直接重ねて実現し、立体視画
像を、操作者が把持した模擬加工工具によって空間上で
直接造形することを特徴とする模擬加工方法である。 また本発明は、模擬加工されるべき物体の外形の3次元
画像データをストアするメモリと、2次元表示面を有
し、メモリにストアされたデータを読出して、この表示
面に、操作者の右目と左目とによって見た物体の画像を
交互に表示する表示手段と、操作者によって装着され、
右目と左目との前方にそれぞれ配置される遮光手段であ
って、表示手段によって右目による画像が表示されてい
るとき、右目の遮光手段を透光性としかつ左目の遮光手
段を遮光性とし、表示手段によって左目による画像が表
示されているとき、右目の遮光手段を遮光性としかつ左
目の遮光手段を透光性とする遮光手段と、操作者によっ
て把持される模擬加工工具とからなる3次元形状模擬加
工装置において、模擬加工工具の位置を検出する位置検
出手段と、位置検出手段の出力に応答し、立体視されて
いる画像に、模擬加工工具が、空間上で直接接触または
侵入したことを検出する接触/侵入検出手段と、接触/
侵入検出手段の出力に応答し、画像の前記接触または侵
入した部分が変形するように、メモリにストアされてい
るデータを補正する画像データ補正手段とを含むことを
特徴とする模擬加工装置である。 また本発明は、模擬加工工具は、相互に直交する3つの
各軸線まわりに角変位可能に設けられ、各軸線まわりの
操作者による力を検出する手段と、各軸線まわりの制動
力を発生する制動手段と、力検出手段の出力に応答し、
模擬加工工具が立体視されている画像に前記接触または
侵入したとき、制動手段によって実際の加工工具が物体
に接触または侵入したときとほぼ同一の反力が実際とほ
ぼ同一方向に発生するように、各軸線まわりの制動手段
による制動力を発生して制御する手段とを含むことを特
徴とする。 また本発明は、操作者に装着され、操作者の視点を表す
信号を導出する視点検出手段と、視点検出手段の出力に
応答し、メモリにストアされている3次元画像データを
補正して操作者の視点位置から見た立体視画像を表示手
段によって表示させる立体視画像補正手段とを含むこと
を特徴とする。
SUMMARY OF THE INVENTION According to the present invention, an image of an object is displayed on a two-dimensional display surface so that an operator can perform three-dimensional stereoscopic viewing. When directly touching or invading the image that has been made in space, the touched or invaded portion of the image displayed on the display surface is deformed, and the corrected image is displayed after being processed. This is a simulation processing method. In addition, the present invention displays an image of an object on a two-dimensional display surface so that the operator can perform three-dimensional stereoscopic viewing, and a simulation processing tool held by the operator is displayed on an image stereoscopically viewed in space. 3D image obtained by deforming the touched or intruded portion of the image displayed on the display surface when the touched or intruded portion is displayed on the display surface, correcting and displaying the processed image, and correcting the object. Is stored in a memory, and the processing tool and the object are relatively displaced and driven three-dimensionally by the stored data to process the object. The present invention also provides a virtual space in which a stereoscopic image is formed by an operator by displaying an image of an object on a two-dimensional display surface, and a real space in which the object is processed by a processing tool held by the operator in the same space. This is a simulation processing method characterized in that the stereoscopic image is directly formed in a space by a simulation processing tool held by an operator. Further, the present invention has a memory for storing three-dimensional image data of the outer shape of the object to be simulated and a two-dimensional display surface, reads out the data stored in the memory, and displays the data of the operator on this display surface. Display means for alternately displaying an image of the object viewed by the right eye and the left eye; and
A light-shielding unit disposed in front of the right eye and the left eye, and when an image is displayed by the right eye on the display unit, the right-eye light-shielding unit is translucent and the left-eye light-shielding unit is light-shielding, When the image is displayed by the left eye by the means, a three-dimensional shape including a light-shielding means that makes the right-eye light-shielding means light-shielding and the left-eye light-shielding means light-transmitting, and a simulation processing tool that is gripped by the operator In the simulation processing device, in response to the position detection means for detecting the position of the simulation processing tool and the output of the position detection means, the fact that the simulation processing tool has directly contacted or invaded the space in a stereoscopically viewed image. Contact / intrusion detection means for detecting
An image data correcting means for correcting data stored in a memory so as to deform the contacted or intruded portion of the image in response to an output of the intrusion detecting means. . Further, according to the present invention, the simulated machining tool is provided so as to be angularly displaceable around three mutually orthogonal axes, means for detecting a force by an operator about each axis, and a braking force around each axis. In response to the output of the braking means and the force detecting means,
When the simulated processing tool comes into contact with or intrudes into the stereoscopically-viewed image, the same reaction force as when the actual processing tool comes into contact with or enters the object by the braking means is generated in substantially the same direction as the actual one. Means for generating and controlling the braking force by the braking means around each axis. Also, the present invention provides a viewpoint detection unit which is attached to an operator and derives a signal representing the viewpoint of the operator, and responds to an output of the viewpoint detection unit to correct three-dimensional image data stored in a memory for operation. Stereoscopic image correction means for displaying a stereoscopic image viewed from the viewpoint position of the user on the display means.

【0005】本発明に従えば、液晶または陰極線管など
の2次元表示面に物体の画像を表示して画像空間に立体
視画像を形成し、操作者は、模擬加工工具を把持し、立
体視されている画像に接触し、またはその模擬加工工具
を空間上で直接画像に侵入し、これによって実際の加工
工具によって物体を加工する実空間を、前記仮想空間と
同一空間内に直接重ねて実現し、立体視されている画像
の模擬加工工具が接触または侵入した部分を、実際と同
じように変形して、その加工後の画像に補正して表示
し、こうして模擬造形、すなわち模擬加工を行うことが
できる。加工とは、切削、変形、付加などを全て含む。 2次元表示面に物体を3次元立体視ができるように表示
するにあたっては、表示手段の表示面に、操作者の右目
と左目とによって見た物体の各画像を交互に表示し、操
作者の右目と左目との前方にそれぞれ配置される遮光手
段を透光性と遮光性とに交互に動作させ、たとえば表示
面に右目による画像が表示されているときには、右目の
遮光手段を透光性として右目で見ることができるように
し、表示面に左目による画像が表示されているときには
左目の遮光手段を透光性として左目で見ることができる
ようにする。このような遮光手段による透光性と遮光性
との交互の切換え動作を、操作者の人間の残像時間以下
の短時間で繰返す。これによって、人間の目の残像効果
を利用し、表示面から操作者側へ手前に物体が仮想的に
突出した状態の視覚を形成することができる。 操作者は、このようにして立体視画像を見ながら、模擬
加工工具を把持してその立体視されている画像に模擬加
工工具を空間上で直接接触または侵入させ、この模擬加
工工具の位置の検出によって前記接触/侵入を検出し、
立体視されている画像の前記接触または侵入した部分が
変形するように、メモリにストアされている3次元画像
データを補正する。こうしていわゆるバーチャル造形を
行うことができる。 操作者が模擬加工工具を把持して物体を加工する際に、
XYZ直交座標系における相互に直交する3つの各軸線
まわりに模擬加工工具を角変位可能に設けて、操作者に
よる力を検出し、制動手段によってその軸線まわりの制
動力を、模擬加工工具が、立体視されている画像に前記
接触または侵入したときに、発生して、実際の加工工具
が物体に接触または侵入したときとほぼ同一の反力が、
その実際とほぼ同一方向に発生するように、制御する。
これによって操作者による模擬加工工具を用いる仮想的
な物体の加工作業を、さらに一層現実に近い感覚とする
ことができる。 さらに本発明に従えば、ジャイロセンサなどによって実
現される視点検出手段を用いて、操作者の視点、すなわ
ち左右の目の各視線の位置したがって視点から表示面ま
での距離、方向および角度などを検出し、これによって
操作者が動いた場合でも整合性のとれた立体視画像が得
られるように、メモリにストアされている3次元データ
を補正する。 こうして得られたメモリにストアされている物体の加工
後の3次元データを用いて、たとえばNC(数値制御)
加工装置を動作させて、希望する実際の形状を有する模
型などの物体を製作することが可能である。
According to the present invention, an image of an object is displayed on a two-dimensional display surface such as a liquid crystal display or a cathode ray tube to form a stereoscopic image in an image space. A real space in which an object is processed by an actual processing tool by directly touching the image or a simulated processing tool invading the image directly in the space, thereby realizing the real space by directly overlapping the virtual space in the same space. Then, the part of the stereoscopic image where the simulation processing tool has contacted or penetrated is deformed in the same manner as the actual one, corrected and displayed on the image after the processing, and the simulation modeling, that is, the simulation processing is performed. be able to. Processing includes all of cutting, deformation, addition, and the like. When displaying an object on the two-dimensional display surface so that three-dimensional stereoscopic viewing is possible, images of the object viewed by the operator's right and left eyes are alternately displayed on the display surface of the display means, and the operator's image is displayed. The light blocking means arranged in front of the right eye and the left eye are alternately operated to be light-transmitting and light-blocking. For example, when an image by the right eye is displayed on the display surface, the light blocking means for the right eye is set to be light-transmitting. The image can be seen by the right eye, and when an image by the left eye is displayed on the display surface, the light shielding means of the left eye is made translucent so that the image can be seen by the left eye. Such an alternate switching operation between the light-transmitting property and the light-shielding property by the light-shielding means is repeated in a short time not more than the afterimage time of the human operator. This makes it possible to use the afterimage effect of the human eye to form a visual sense of an object virtually protruding from the display surface toward the operator. The operator grasps the simulated processing tool while viewing the stereoscopic image in this way, and causes the simulated processing tool to directly contact or invade the stereoscopically viewed image in space, and to determine the position of the simulated processing tool. Detecting the contact / intrusion by detecting,
The three-dimensional image data stored in the memory is corrected so that the touched or intruded portion of the stereoscopically viewed image is deformed. Thus, so-called virtual modeling can be performed. When the operator grips the simulation processing tool and processes the object,
A simulation processing tool is provided so as to be angularly displaceable around each of three mutually orthogonal axes in the XYZ orthogonal coordinate system, a force by an operator is detected, and a braking force around the axis is detected by a braking means. When the above-mentioned contact or intrusion into the stereoscopic image occurs, the same reaction force as when the actual processing tool contacts or intrudes into the object occurs,
The control is performed so that it occurs almost in the same direction as the actual one.
This makes it possible for the operator to work on a virtual object using the simulation processing tool with a feeling closer to reality. Furthermore, according to the present invention, the viewpoint of the operator, that is, the position of each line of sight of the left and right eyes, that is, the distance, direction, angle, and the like from the viewpoint to the display surface are detected using the viewpoint detection means realized by a gyro sensor or the like. Then, the three-dimensional data stored in the memory is corrected so that a consistent stereoscopic image can be obtained even when the operator moves. Using the obtained three-dimensional data of the object stored in the memory thus obtained, for example, NC (numerical control)
By operating the processing device, it is possible to produce an object such as a model having a desired actual shape.

【0006】[0006]

【発明の実施の形態】図1は、本発明の実施の一形態の
模擬加工装置を簡略化して示す斜視図である。ステレオ
対応グラフィックワークステーション1に備えられてい
る液晶または陰極線管などによって実現される表示手段
2の2次元表示面3によって、操作者4は3次元立体視
表示された物体の画像5を見ることができる。この立体
視画像5は、表示面3から手前である操作者4側へ、す
なわち図1の左方へ突出した視覚を実現することができ
る。
FIG. 1 is a simplified perspective view showing a simulation processing apparatus according to an embodiment of the present invention. An operator 4 can view an image 5 of an object displayed three-dimensionally by a two-dimensional display surface 3 of a display means 2 realized by a liquid crystal or a cathode ray tube provided in a stereo-compatible graphic workstation 1. it can. This stereoscopic image 5 can realize a visual sense protruding from the display surface 3 to the operator 4 side in front, that is, to the left in FIG. 1.

【0007】操作者4は、その手6によって模擬加工工
具7を把持し、その加工片8を立体視画像5に、空間上
で直接接触または侵入させる。これによって模擬加工工
具7の加工片8が立体視画像5に接触または侵入した部
分9が変形され、その仮想上の加工後の画像が立体視表
示される。こうして2次元表示面3に物体の画像5を表
示することによって、操作者4による立体視画像5を仮
想空間に形成するとともに、この仮想空間を、操作者4
が把持した実際の加工工具によって実際の物体を加工す
る実空間と同じ空間内に実現することによって、立体視
画像5を、操作者4が把持した模擬加工工具7によって
造形することができる。こうしてバーチャル造形システ
ムが実現される。
The operator 4 holds the simulation processing tool 7 with his / her hand 6 and causes the processing piece 8 to directly contact or invade the stereoscopic image 5 in space. As a result, the portion 9 in which the processing piece 8 of the simulation processing tool 7 has contacted or entered the stereoscopic image 5 is deformed, and the virtual processed image is stereoscopically displayed. By displaying the image 5 of the object on the two-dimensional display surface 3 in this way, the stereoscopic image 5 by the operator 4 is formed in the virtual space, and this virtual space is
The stereoscopic image 5 can be formed by the simulation processing tool 7 gripped by the operator 4 by realizing the stereoscopic image 5 in the same space as the real space where the actual object is processed by the actual processing tool gripped by the operator 4. Thus, a virtual molding system is realized.

【0008】図2は、模擬加工工具7を把持して立体視
画像5を加工する際に、加工片8が立体視画像5に接触
または侵入する際の反力を発生させて、操作者4の手6
にさらに現実に近似した感覚を与えるための構成を簡略
化して示す斜視図である。固定位置にはベース11が設
けられ、そのベース11の端部に、第1軸12のまわり
に角変位可能にアーム13の一端部が角変位可能に設け
られる。このアーム13の他端部は、第2軸14によっ
てもう1つのアーム15の端部が設けられる。アーム1
5の他端部は、第3軸16によって保持具17に連結さ
れる。保持具17は、模擬加工工具7に着脱可能に装着
される。第1軸12、第2軸14および第3軸16は、
XYZ座標系の相互に直交する3つの各軸線を有し、そ
れらの各軸線まわりに角変位可能な構成となっている。
FIG. 2 shows that when the processing tool 8 grips the simulation processing tool 7 and processes the stereoscopic image 5, a reaction force is generated when the work piece 8 comes into contact with or enters the stereoscopic image 5. Hand 6
FIG. 2 is a simplified perspective view showing a configuration for giving a feeling more similar to reality. A base 11 is provided at a fixed position, and one end of an arm 13 is provided at one end of the base 11 so as to be angularly displaceable around the first shaft 12. The other end of the arm 13 is provided with an end of another arm 15 by the second shaft 14. Arm 1
The other end of 5 is connected to holder 17 by third shaft 16. The holder 17 is detachably attached to the simulation processing tool 7. The first shaft 12, the second shaft 14, and the third shaft 16
It has three mutually orthogonal axes of the XYZ coordinate system, and is configured to be capable of angular displacement about each of these axes.

【0009】第1〜第3軸12,14,16に関連し
て、これらの各軸線まわりの操作者4の手6による操作
力を検出するために、図3に示される力検出素子18〜
20が各軸12,14,16にそれぞれ個別的に対応し
て設けられる。マイクロコンピュータによって実現され
る処理回路21は、これらの力検出素子18〜20の出
力に応答し、各軸12,14,16毎に設けられている
制動手段22〜24を動作させる。各軸12,14,1
6の軸線まわりの制動手段による制動力を処理回路21
によって制御する。これによって実際の加工工具が物体
に接触または侵入したときとほぼ同一の反力が、その実
際とほぼ同一方向に発生するようにする。したがって仮
想空間における模擬加工工具7の操作時に、実際に操作
者が加工工具によって物体を加工する実空間とほぼ同一
の感覚を操作者に与えることができる。
In relation to the first to third shafts 12, 14 and 16, the force detecting elements 18 to 18 shown in FIG.
20 are provided corresponding to the respective shafts 12, 14, 16 individually. A processing circuit 21 realized by a microcomputer operates braking means 22 to 24 provided for each of the shafts 12, 14, and 16 in response to the outputs of the force detecting elements 18 to 20. Each axis 12, 14, 1
The processing circuit 21 applies the braking force generated by the braking means around the axis 6 of FIG.
Controlled by. Thus, the same reaction force as when the actual machining tool contacts or enters the object is generated in substantially the same direction as the actual reaction force. Therefore, when operating the simulation processing tool 7 in the virtual space, it is possible to give the operator almost the same feeling as in the real space where the operator actually processes an object with the processing tool.

【0010】図4は、本発明の上述の実施の一形態のバ
ーチャル造形の原理を説明するための簡略化した平面図
である。表示手段2の表示面3には、右目で見たときの
物体の画像27と、左目で見たときの物体の画像28と
が、交互に表示される。右目25の視野θ25は、右目
による画像27を見る視野θ25aと模擬加工工具7を
見る視野θ25bとから成る。左目の視野θ26は、左
目による画像28を見る視野θ26aと、模擬加工工具
7を見る視野θ26bとから成る。右目25と左目26
とによって各画像27,28を交互に見ることによっ
て、仮想空間29には、操作者4による立体視画像30
が形成される。視野θ25b,θ26bによる実空間3
1では、操作者4の手6によって把持された模擬加工工
具7を右目と左目とで前記遮光手段を介して実際に見る
ことができる。こうして立体視による仮想空間29にお
ける表示と、実空間31における模擬加工工具7による
造形とを、同じ空間32内に実現することによって、現
実に存在しない仮想造形物である物体30を、模擬加工
工具7を把持した現実の造形動作の感覚で、造形して加
工することができるようになる。
FIG. 4 is a simplified plan view for explaining the principle of the virtual molding according to the embodiment of the present invention. On the display surface 3 of the display means 2, an image 27 of the object when viewed with the right eye and an image 28 of the object when viewed with the left eye are alternately displayed. The visual field θ25 of the right eye 25 includes a visual field θ25a for viewing the image 27 by the right eye and a visual field θ25b for watching the simulation processing tool 7. The left-eye field of view θ26 includes a field of view θ26a for viewing the image 28 by the left eye and a field of view θ26b for viewing the simulation processing tool 7. Right eye 25 and Left eye 26
By viewing the images 27 and 28 alternately, a stereoscopic image 30 by the operator 4 is stored in the virtual space 29.
Is formed. Real space 3 with visual fields θ25b and θ26b
In 1, the simulation processing tool 7 held by the hand 6 of the operator 4 can be actually seen by the right eye and the left eye via the light shielding means. By realizing the display in the virtual space 29 by the stereoscopic vision and the modeling by the simulation processing tool 7 in the real space 31 in the same space 32, the object 30 which is a virtual modeling object which does not actually exist can be converted into the simulation processing tool. It becomes possible to form and work with the feeling of the actual forming operation holding the 7.

【0011】実空間における造形と、本発明に従うコン
ピュータグラフィック技法による仮想空間での造形と
を、透視変換法からバーチャル造形の原理を次に説明す
る。先ず実空間における造形に関して、図5を参照し
て、現実の世界である実空間32において、操作者4は
手6に実際の加工工具33を把持し、実際の物体34を
加工して造形作業を行う。操作者4は、物体4と加工工
具33とを両眼25,26で見て、それらの位置関係の
視覚的な認識を元に、工具33を動かして造形動作を行
っている。
The principle of virtual modeling based on a perspective transformation method will be described below for modeling in a real space and modeling in a virtual space by the computer graphic technique according to the present invention. First, with respect to modeling in a real space, referring to FIG. 5, in a real space 32 in the real world, an operator 4 holds an actual processing tool 33 with a hand 6 and processes an actual object 34 to perform a modeling operation. I do. The operator 4 looks at the object 4 and the processing tool 33 with both eyes 25 and 26, and performs the modeling operation by moving the tool 33 based on the visual recognition of their positional relationship.

【0012】次に図6を参照して、コンピュータグラフ
ィックシステムの世界である仮想空間の世界を説明す
る。この仮想空間29の世界において、3次元の物体3
5を、表示手段2の表示面3に表示するために、この図
6に示される透視変換法が採用される。上述の図5にお
ける実空間32における右目25または左目26である
視点に対応してカメラ36が用いられ、表示面3に対応
する投影面に、3次元物体35の投影像37を造り、こ
の投影像を表示手段2によって表示面3に表示する。
Next, the world of the virtual space, which is the world of the computer graphic system, will be described with reference to FIG. In the world of the virtual space 29, a three-dimensional object 3
In order to display 5 on the display surface 3 of the display means 2, the perspective transformation method shown in FIG. 6 is employed. A camera 36 is used corresponding to a viewpoint that is the right eye 25 or the left eye 26 in the real space 32 in FIG. 5 described above, and a projection image 37 of a three-dimensional object 35 is formed on a projection surface corresponding to the display surface 3. The image is displayed on the display surface 3 by the display means 2.

【0013】図7を参照して、立体視の原理を説明す
る。仮想空間29の世界における表示手段2の表示面3
への表示法を、操作者4の右目25と左目26との両眼
に対応して、カメラ37,38をそれぞれ配置して、3
次元物体35を撮像することによって、立体画像を得る
ことができる。ステレオ対応のシステムでは、カメラ3
7,38によって得られた2枚の各立体視画像を、表示
面3に交互に表示する機能を有する。
Referring to FIG. 7, the principle of stereoscopic vision will be described. Display surface 3 of display means 2 in the world of virtual space 29
The camera 37 and 38 are arranged in correspondence with the right eye 25 and the left eye 26 of the operator 4 in accordance with
By imaging the three-dimensional object 35, a three-dimensional image can be obtained. For systems that support stereo, camera 3
It has a function of alternately displaying two stereoscopic images obtained by 7 and 38 on the display surface 3.

【0014】操作者4は、次の図8に示されるように右
目25と左目26との前方にそれぞれ配置された遮光手
段39,40を選択的に透光性および遮光性に制御する
ことによって、右目25によって、表示面3上の右目に
よる画像27を遮光手段39を介して見ることができ、
右目25によって遮光手段39を介して画像27を見て
いるとき、遮光手段40は遮光した状態となっている。
また左目26は、遮光手段40を介して左目による画像
28を分離して見ることができ、左目26によって画像
28を見ているときには遮光手段39は遮光状態となっ
ている。
The operator 4 selectively controls the light-shielding means 39 and 40 disposed in front of the right eye 25 and the left eye 26 as shown in FIG. , The right eye 25 allows the image 27 of the right eye on the display surface 3 to be seen through the light blocking means 39,
When the image 27 is viewed by the right eye 25 via the light shielding means 39, the light shielding means 40 is in a light-shielded state.
Further, the left eye 26 can separate and view the image 28 by the left eye via the light shielding means 40. When the image 28 is viewed by the left eye 26, the light shielding means 39 is in a light shielding state.

【0015】この図8におけるメモリM1には、カメラ
37,38によって撮像された3次元物体35の3次元
画像データがストアされる。このメモリM1からの画像
データは、右目用と左目用との各画像データを作成する
ために用いられ、表示のためにメモリM2に転送され、
右目用の画像を得るためにそのデータが圧縮画像メモリ
M3において右目用ストア領域41にストアされ、表示
手段2によって表示面3に右目による画像27が表示さ
れる。また同様に左目用画像の表示のために、そのデー
タがメモリM3のストア領域42にストアされ、表示手
段2によって表示面3に画像28が表示される。
The memory M1 in FIG. 8 stores three-dimensional image data of the three-dimensional object 35 captured by the cameras 37 and 38. The image data from the memory M1 is used to create each image data for the right eye and the left eye, and is transferred to the memory M2 for display.
In order to obtain a right-eye image, the data is stored in the right-eye storage area 41 in the compressed image memory M3, and the display means 2 displays the right-eye image 27 on the display surface 3. Similarly, for displaying the left-eye image, the data is stored in the storage area 42 of the memory M3, and the image 28 is displayed on the display surface 3 by the display means 2.

【0016】メモリM3では、表示面3の画像の上下方
向を1/2に圧縮し、1画面に2画像分のデータを格納
する。こうしてメモリM3にストアされた圧縮画像は、
上述のように表示手段2に転送され、その表示手段2に
よって元の画像に復元され、立体視ができるように、交
互に表示される。
The memory M3 compresses the image on the display surface 3 in the vertical direction to half, and stores data for two images on one screen. The compressed image stored in the memory M3 in this manner is
As described above, the image is transferred to the display means 2, restored to the original image by the display means 2, and alternately displayed so as to enable stereoscopic viewing.

【0017】図9は、表示手段2と遮光手段39,40
の動作を説明するための図である。図9(1)に示され
るように表示手段2はメモリM3のストア内容を読出し
て各表示期間W1において右目25による画像27を表
示し、このとき右目25のための遮光手段39は図9
(2)に示されるように開いており、すなわち透光性で
あり、左目26の遮光手段40は図9(3)に示される
ように遮光性となっている。次の表示期間W2では、表
示面3には左目26による画像28が表示され、このと
き遮光手段39は遮光性となっており、遮光手段40は
透光性となっている。このような表示期間W1,W2が
繰返して交互に表示されることによって、操作者4は立
体視画像5を見ることができる。たとえばW1=W2=
25msecであって、人間の残像効果を得ることがで
きる時間以下の短時間に選ばれる。
FIG. 9 shows the display means 2 and the light shielding means 39 and 40.
It is a figure for explaining operation of. As shown in FIG. 9 (1), the display means 2 reads the stored contents of the memory M3 and displays the image 27 by the right eye 25 in each display period W1.
It is open as shown in (2), that is, it is translucent, and the light blocking means 40 of the left eye 26 is light blocking as shown in FIG. 9 (3). In the next display period W2, the image 28 by the left eye 26 is displayed on the display surface 3, and at this time, the light shielding means 39 is light shielding, and the light shielding means 40 is light transmissive. The operator 4 can view the stereoscopic image 5 by displaying the display periods W1 and W2 repeatedly and alternately. For example, W1 = W2 =
The time is selected to be 25 msec, which is shorter than the time during which a human afterimage effect can be obtained.

【0018】遮光手段39,40は、一対の透光性を有
するガラスまたは合成樹脂などから成る基板の相互に対
向する表面に形成された透光性電極間に、液晶が介在さ
れた構成を有し、電極を立体視制御手段43によって図
9(2)および図9(3)のように制御される。遮光手
段39,40は、前述の図1に示されるめがねフレーム
44に右目25と左目26とにそれぞれ対応して装着さ
れる。
The light-shielding means 39 and 40 have a structure in which liquid crystal is interposed between light-transmitting electrodes formed on mutually facing surfaces of a pair of substrates made of light-transmitting glass or synthetic resin. Then, the electrodes are controlled by the stereoscopic vision control means 43 as shown in FIGS. 9 (2) and 9 (3). The light shielding means 39 and 40 are mounted on the glasses frame 44 shown in FIG. 1 corresponding to the right eye 25 and the left eye 26, respectively.

【0019】図10は、図1〜図9に示される本発明の
実施の一形態の電気的構成を示すブロック図である。ス
テレオ対応グラフィックワークステーション1における
マイクロコンピュータなどによって実現される処理回路
45は、メモリM1にストアされた物体35の3次元の
外形の形状データに基づき、立体画像を作成するために
右目に対する透視変換を行い、表示手段2の表示面3に
表示し、また左目に対する透視変換を行い表示面3に表
示する。これらの透視変換によって得られた各画像2
7,28のデータはメモリM2にストアされ、メモリM
3を用いて表示が行われる。
FIG. 10 is a block diagram showing an electrical configuration of the embodiment of the present invention shown in FIGS. A processing circuit 45 implemented by a microcomputer or the like in the stereo-compatible graphic workstation 1 performs a perspective transformation for the right eye to create a stereoscopic image based on the three-dimensional outer shape data of the object 35 stored in the memory M1. Then, the image is displayed on the display surface 3 of the display means 2, and the left eye is perspective-transformed and displayed on the display surface 3. Each image 2 obtained by these perspective transformations
7, 28 are stored in the memory M2,
3 is displayed.

【0020】立体視のための同期信号発信器46は、図
9に関連して述べたように表示期間W1,W2に同期し
た光または超音波などの電磁波を出力し、遮光制御手段
43に与える。遮光制御手段43は、前述のように右目
25と左目26とに対応する遮光手段39,40を、前
述のように透光性/遮光性に制御する。こうして操作者
4は、めがねフレーム44を装着して、遮光手段39,
40を介して立体視画像5を見て、模擬加工工具7を用
いて造形を行うことができる。
The synchronizing signal transmitter 46 for stereoscopic vision outputs electromagnetic waves such as light or ultrasonic waves synchronized with the display periods W1 and W2 as described with reference to FIG. . The light-shielding control unit 43 controls the light-shielding units 39 and 40 corresponding to the right eye 25 and the left eye 26 to be translucent / light-shielding as described above. The operator 4 wears the glasses frame 44 in this manner, and
By seeing the stereoscopic image 5 via 40, modeling can be performed using the simulation processing tool 7.

【0021】操作者4が実空間において手6に持って把
持して操作する模擬加工工具7、したがってその加工片
8の位置および姿勢は、位置検出手段47によって検出
される。この加工工具7の加工片8には、その加工片8
の3次元の位置と姿勢を表す信号を超音波または電波な
どの電磁波によって発信する発信器48が内蔵されて組
込まれている。位置検出手段47は、この発信器48か
らの信号を受信し、上述のように加工片8の3次元の位
置と姿勢を検出し、処理回路45に与える。
The simulated machining tool 7 which the operator 4 holds and operates with the hand 6 in the real space, that is, the position and orientation of the work piece 8 are detected by the position detecting means 47. The work piece 8 of the working tool 7 includes the work piece 8
A transmitter 48 for transmitting a signal representing the three-dimensional position and orientation of the above by electromagnetic waves such as ultrasonic waves or radio waves is built in and incorporated. The position detecting means 47 receives the signal from the transmitter 48, detects the three-dimensional position and orientation of the workpiece 8 as described above, and supplies the detected position and orientation to the processing circuit 45.

【0022】操作者4のめがねフレーム44には、また
視点発信器49が装着される。この視点発信器49は、
ジャイロセンサ50と送信手段51とを有する。ジャイ
ロセンサ50の働きによって、右目25と左目26との
視点である3次元実空間の位置、視線の方向を表す信号
電波または超音波などによって発生し、この信号は固定
位置に設けられた視点受信器52によって受信される。
その受信信号は処理回路45に与えられる。こうして処
理回路45では、操作者4の視点である3次元座標位
置、視線の方向および各目25,26と表示面3との間
の距離などを検出する。これに応じて、前述の透視変換
を時々刻々変更して、仮想物体5と模擬加工工具7の加
工片8との位置関係の整合をとる。
A viewpoint transmitter 49 is mounted on the glasses frame 44 of the operator 4. This viewpoint transmitter 49
A gyro sensor 50 and a transmission unit 51 are provided. By the function of the gyro sensor 50, a signal representing the position of the three-dimensional real space which is the viewpoint of the right eye 25 and the left eye 26 and the direction of the line of sight is generated by radio waves or ultrasonic waves. Received by the device 52.
The received signal is provided to the processing circuit 45. In this way, the processing circuit 45 detects the three-dimensional coordinate position as the viewpoint of the operator 4, the direction of the line of sight, the distance between each eye 25, 26 and the display surface 3, and the like. In accordance with this, the above-mentioned perspective transformation is changed from time to time, and the positional relationship between the virtual object 5 and the work piece 8 of the simulation processing tool 7 is matched.

【0023】図11は、処理回路45の動作を説明する
ためのフローチャートである。ステップa1からステッ
プa2に移り、視点発信器49からの信号を受信する視
点受信器52によって視点の3次元座標位置、視線の方
向および目25,26と表示面3との間の距離などを検
出する。ステップa3では、表示面3に表示すべき画像
27,28をメモリM3から読出して表示手段2によっ
て立体画像の表示を行う。ステップa4では、模擬加工
工具7の加工片8に内蔵された発信器48の出力を受信
する受信器47の出力によって、模擬加工工具7の加工
片8の3次元実空間の座標位置および姿勢を検出する。
FIG. 11 is a flowchart for explaining the operation of the processing circuit 45. From step a1 to step a2, the viewpoint receiver 52 that receives the signal from the viewpoint transmitter 49 detects the three-dimensional coordinate position of the viewpoint, the direction of the line of sight, the distance between the eyes 25 and 26 and the display surface 3, and the like. I do. In step a3, the images 27 and 28 to be displayed on the display surface 3 are read from the memory M3, and the display means 2 displays a stereoscopic image. In step a4, the coordinate position and orientation of the work piece 8 of the simulation processing tool 7 in the three-dimensional real space are determined by the output of the receiver 47 that receives the output of the transmitter 48 incorporated in the work piece 8 of the simulation processing tool 7. To detect.

【0024】ステップa5では、模擬加工工具7の操作
による各軸12,14,16の力を検出器18,19,
20から検出し、これに基づき処理回路21は制動手段
22,23,24の制動力を制御する。処理回路45
は、前述の図3に示される処理回路21を含む。この制
動手段22,23,24の働きによって軸12,14,
16に反力が発生し、操作者4は模擬加工工具7を把持
して操作するとき、その加工片8が立体視画像5に接触
または侵入したときの反力を得ることができる。
In step a5, the forces of the respective axes 12, 14, 16 due to the operation of the simulation machining tool 7 are detected by detectors 18, 19,
20, the processing circuit 21 controls the braking force of the braking means 22, 23, 24 based on this. Processing circuit 45
Includes the processing circuit 21 shown in FIG. By the action of the braking means 22, 23, 24, the shafts 12, 14,
When a reaction force is generated at 16 and the operator 4 grips and operates the simulation processing tool 7, the reaction force when the work piece 8 comes into contact with or enters the stereoscopic image 5 can be obtained.

【0025】ステップa6において模擬加工工具7の加
工片8によって切削加工を行うことが設定されていると
きには、加工片8による立体視画像が加工片8の接触ま
たは侵入によって切削されて削り取られるように補正
し、その3次元画像データをメモリM1にストアする。
When it is set in step a6 that cutting is performed by the work piece 8 of the simulated working tool 7, the stereoscopic image by the work piece 8 is cut and cut off by the contact or intrusion of the work piece 8. After the correction, the three-dimensional image data is stored in the memory M1.

【0026】ステップa9において模擬加工工具7によ
って立体視画像5の変形が行われるときには、ステップ
a10に移り、立体視画像5の変形が行われるように画
像27,28を補正し、その3次元画像データをメモリ
M1においてストアする。さらにステップa11におい
て立体視画像5にたとえば溶接ビードなどのように突起
が付加されることが判断されたときには、そのような突
起が立体視画像5に表示されるように3次元画像データ
を補正してメモリM1にストアする。模擬加工工具7に
よって予め加工されることができないときには、ステッ
プa13でエラー出力をする。
When the stereoscopic image 5 is deformed by the simulation machining tool 7 in step a9, the process proceeds to step a10, where the images 27 and 28 are corrected so that the stereoscopic image 5 is deformed, and the three-dimensional image is corrected. The data is stored in the memory M1. Further, when it is determined in step a11 that a projection such as a weld bead is added to the stereoscopic image 5, the three-dimensional image data is corrected so that such a projection is displayed in the stereoscopic image 5. And store it in the memory M1. If it cannot be machined beforehand by the simulated machining tool 7, an error is output in step a13.

【0027】図12は、模擬加工工具7による立体視画
像の形状変更モデルを示す。図12(1)は模擬加工工
具7を用いて切削するときを示し、図12(2)は変形
するときの画像を示し、図12(3)は突起などを付加
するときの立体視画像を示す。図12(1)〜図12
(3)の左方にそれぞれ示される加工前の立体視画像
は、切削、変形および付加によって、右方にそれぞれ示
される立体視画像に補正される。この補正後の3次元画
像データは、前述の図11のステップa8においてメモ
リM1にストアされる。変形というのは、模擬加工工具
7の加工片8の刃の形状を転写するがごとき変形を行う
動作である。本発明の実施の他の形態では、バーチャル
造形の種類としてたとえば切断および接合がある。この
切断というのは、原素材からおおまかな形状をした素材
を造形する動作である。接合は、棒状または板状などの
材料などを素材の表面に貼り付ける動作をいう。
FIG. 12 shows a model for changing the shape of a stereoscopic image by the simulation processing tool 7. FIG. 12A shows a case where cutting is performed using the simulation processing tool 7, FIG. 12B shows an image when deformed, and FIG. 12C shows a stereoscopic image when a projection or the like is added. Show. 12 (1) to 12
The stereoscopic image before processing shown on the left side of (3) is corrected to the stereoscopic image shown on the right side by cutting, deformation, and addition. The corrected three-dimensional image data is stored in the memory M1 in step a8 in FIG. The deformation is an operation of transferring the shape of the blade of the work piece 8 of the simulation processing tool 7 and performing a deformation like the transfer. In another embodiment of the present invention, types of virtual modeling include, for example, cutting and joining. The cutting is an operation of forming a roughly shaped material from the original material. Joining refers to an operation of sticking a rod-shaped or plate-shaped material or the like to the surface of the material.

【0028】図13は、図11のステップa7における
立体視画像の切削時の形状変形のアルゴリズムを説明す
るための図である。仮想物体30の断面形状が図13に
おいてハッチングを施して示される。加工前の仮想物体
30の格子点Pが模擬加工工具7の加工片8によって加
工後にその仮想物体30の格子点P1に変形するよう
に、処理回路45において立体視画像5の補正が行われ
る。加工量は、参照符54で示される。変形の方向は、
たとえば模擬加工工具7の加工片8の表面の法線ベクト
ルの方向であってもよく、または加工量54が得られる
座標軸の方向であってもよく、この変形の方向は、仮想
物体30の完成品の形状から最適な手法を選択すればよ
い。
FIG. 13 is a diagram for explaining an algorithm of shape deformation at the time of cutting a stereoscopic image in step a7 of FIG. The cross-sectional shape of the virtual object 30 is shown by hatching in FIG. The processing circuit 45 corrects the stereoscopic image 5 so that the lattice point P of the virtual object 30 before processing is transformed into the lattice point P1 of the virtual object 30 after processing by the processing piece 8 of the simulation processing tool 7. The amount of processing is indicated by reference numeral 54. The direction of the deformation is
For example, the direction may be the direction of a normal vector of the surface of the work piece 8 of the simulation processing tool 7 or the direction of a coordinate axis at which the machining amount 54 is obtained. What is necessary is just to select the optimal method from the shape of the product.

【0029】本発明の他の考え方に従えば、仮想空間内
で造形された物体の寸法を計るバーチャルメジャー機能
を、処理回路45によって実現するようにしてもよい。
これによって造形物の任意の断面の寸法計測を行うこと
ができる。さらに曲線補間およびフェアリング機能など
のように、商業的に入手可能なCADツールが有する基
本的な機能であるCAD基本要素技術を達成するように
してもよい。
According to another concept of the present invention, the processing circuit 45 may realize a virtual measure function for measuring the size of an object formed in a virtual space.
As a result, it is possible to measure the dimensions of an arbitrary cross section of the modeled object. Further, a CAD basic element technology, which is a basic function of a commercially available CAD tool, such as a curve interpolation and fairing function, may be achieved.

【0030】メモリM1にストアされた完成品の3次元
画像データを、たとえばフロッピーなどの携帯形のメモ
リに転送してストアし、このメモリを、たとえばNC機
械装置に装着して、完成品を自動的に製造することがで
きる。
The three-dimensional image data of the finished product stored in the memory M1 is transferred to a portable memory such as a floppy disk and stored, and this memory is mounted on, for example, an NC machine, and the finished product is automatically stored. It can be manufactured in a special way.

【0031】[0031]

【発明の効果】本発明によれば、前述の先行技術に関連
して述べた実際の模型製作を行う必要がなくなり、した
がって製品の意匠設計の過程における模型製作の仕損じ
を軽減することができ、時間と労力を大幅に節減するこ
とができる。
According to the present invention, it is not necessary to perform the actual model production described in relation to the above-mentioned prior art, and therefore, it is possible to reduce the failure of the model production in the process of designing the product. , Saves a lot of time and effort.

【0032】また本発明によれば、模型製作の仕損じが
軽減されるので、製品の意匠設計に要する時間を短縮す
ることができる。
Further, according to the present invention, the time required for designing a product can be shortened because the failure in model production is reduced.

【0033】本発明によれば、模擬加工を行うにあた
り、熟練した技能を必要とせず、意匠設計を容易に行う
ことができ、訓練が少ない人であっても、意匠設計を容
易に行うことができる。
According to the present invention, it is possible to easily perform a design design without performing a skill in performing the simulated processing, and it is possible to easily perform the design design even for a person with little training. it can.

【0034】本発明によれば、2次元表示面に、3次元
立体視表示が行われるので、機械装置類の設計段階での
完成品を想定したイメージと実際に製作した実物とのく
い違いをできるだけ少なくすることができる。
According to the present invention, since three-dimensional stereoscopic display is performed on the two-dimensional display surface, a difference between an image assuming a completed product at the design stage of mechanical devices and an actual product actually manufactured is obtained. It can be as small as possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態の模擬加工装置を簡略化
して示す斜視図である。
FIG. 1 is a simplified perspective view showing a simulation processing apparatus according to an embodiment of the present invention.

【図2】模擬加工工具7を把持して立体視画像5を加工
する際に、加工片8が立体視画像5に接触または侵入す
る際の反力を発生させて、操作者4の手6にさらに現実
に近似した感覚を与えるための構成を簡略化して示す斜
視図である。
FIG. 2 shows a reaction force generated when a workpiece 8 contacts or intrudes into the stereoscopic image 5 when the stereoscopic image 5 is processed by gripping the simulation processing tool 7 and the hand 6 of the operator 4; FIG. 2 is a simplified perspective view showing a configuration for giving a feeling more similar to reality.

【図3】図2に示される各軸12,14,16毎に制動
力を発生するための電気的構成を示すブロック図であ
る。
FIG. 3 is a block diagram showing an electrical configuration for generating a braking force for each shaft 12, 14, 16 shown in FIG.

【図4】本発明の上述の実施の一形態のバーチャル造形
の原理を説明するための簡略化した平面図である。
FIG. 4 is a simplified plan view for explaining the principle of virtual modeling according to the embodiment of the present invention.

【図5】実空間32で物体34を加工工具33で加工す
る状態を示す図である。
FIG. 5 is a diagram showing a state in which an object is machined in a real space by a machining tool.

【図6】コンピュータグラフィックシステムの世界であ
る仮想空間の世界を説明する図である。
FIG. 6 is a diagram illustrating the world of a virtual space, which is the world of a computer graphic system.

【図7】立体視の原理を説明する図である。FIG. 7 is a diagram illustrating the principle of stereoscopic vision.

【図8】立体視を実現する電気的構成を示す簡略化した
ブロック図である。
FIG. 8 is a simplified block diagram showing an electrical configuration for realizing stereoscopic vision.

【図9】表示手段2と遮光手段39,40の動作を説明
するための図である。
FIG. 9 is a diagram for explaining the operation of the display unit 2 and the light shielding units 39 and 40.

【図10】図1〜図9に示される本発明の実施の一形態
の電気的構成を示すブロック図である。
FIG. 10 is a block diagram showing an electrical configuration of the embodiment of the present invention shown in FIGS. 1 to 9;

【図11】処理回路45の動作を説明するためのフロー
チャートである。
FIG. 11 is a flowchart for explaining the operation of the processing circuit 45;

【図12】模擬加工工具7による立体視画像の形状変更
モデルを示す図である。
FIG. 12 is a view showing a shape change model of a stereoscopic image by the simulation processing tool 7;

【図13】物体30を模擬加工工具7で切削加工する状
態を示す断面図である。
FIG. 13 is a cross-sectional view showing a state where the object 30 is cut by the simulation processing tool 7;

【符号の説明】 1 ステレオ対応グラフィックワークステーション 2 表示手段 3 2次元表示面 4 操作者 5 画像 7 模擬加工工具 8 加工片 9 接触または侵入した部分 12 第1軸 13 アーム 14 第2軸 15 アーム 16 第3軸 18〜20 力検出素子 21 処理回路 22〜24 制動手段 25 右目 26 左目 29 仮想空間 31 実空間 32 空間 39,40 遮光手段 44 めがねフレーム 47 位置検出手段 49 視点発信器 50 ジャイロセンサ 51 視点受信器 M1,M2,M3 メモリ[Description of Signs] 1 Stereo compatible graphic workstation 2 Display means 3 2D display surface 4 Operator 5 Image 7 Simulated processing tool 8 Work piece 9 Contacted or invaded part 12 First axis 13 Arm 14 Second axis 15 Arm 16 Third axis 18-20 Force detection element 21 Processing circuit 22-24 Braking means 25 Right eye 26 Left eye 29 Virtual space 31 Real space 32 Space 39,40 Light shielding means 44 Glasses frame 47 Position detecting means 49 Viewpoint transmitter 50 Gyro sensor 51 View point Receiver M1, M2, M3 Memory

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 2次元表示面に、物体の画像を、操作者
による3次元立体視ができるように表示し、 操作者が把持した模擬加工工具が、立体視されている画
像に、空間上で直接接触または侵入したとき、前記表示
面に表示される画像の前記接触または侵入した部分を変
形して、加工後の画像に補正して表示することを特徴と
する模擬加工方法。
1. An image of an object is displayed on a two-dimensional display surface so that an operator can perform three-dimensional stereoscopic viewing, and a simulated machining tool held by the operator is displayed on a three-dimensional image in space. A touching or intruding portion of the image displayed on the display surface, the touching or intruding portion of the image is deformed, corrected to a processed image, and displayed.
【請求項2】 2次元表示面に、物体の画像を、操作者
による3次元立体視ができるように表示し、 操作者が把持した模擬加工工具が、立体視されている画
像に、空間上で直接接触または侵入したとき、前記表示
面に表示される画像の前記接触または侵入した部分を変
形して、加工後の画像に補正して表示し、 物体の補正して得られた3次元画像のデータをメモリに
ストアしておき、 このストアされたデータによって、加工工具と物体とを
3次元で相対的に変位駆動して、物体を加工する物体の
加工方法。
2. An image of an object is displayed on a two-dimensional display surface so that an operator can perform three-dimensional stereoscopic viewing, and a simulated machining tool held by the operator is displayed on a three-dimensional image in space. 3D image obtained by deforming the touched or intruded portion of the image displayed on the display surface, correcting and displaying the processed image, Is stored in a memory, and the stored data is used to relatively displace and drive the processing tool and the object in three dimensions to process the object.
【請求項3】 2次元表示面に物体の画像を表示するこ
とによって操作者による立体視画像を形成する仮想空間
と、 操作者が把持した加工工具によって物体を加工する実空
間とを、 同じ空間内に直接重ねて実現し、 立体視画像を、操作者が把持した模擬加工工具によって
空間上で直接造形することを特徴とする模擬加工方法。
3. A virtual space in which an image of an object is displayed on a two-dimensional display surface to form a stereoscopic image by an operator, and a real space in which an object is processed by a processing tool held by the operator is the same space. A simulation processing method characterized in that a stereoscopic image is directly formed in a space by a simulation processing tool held by an operator, which is realized by being directly superimposed on the inside.
【請求項4】 模擬加工されるべき物体の外形の3次元
画像データをストアするメモリと、 2次元表示面を有し、メモリにストアされたデータを読
出して、この表示面に、操作者の右目と左目とによって
見た物体の画像を交互に表示する表示手段と、操作者に
よって装着され、右目と左目との前方にそれぞれ配置さ
れる遮光手段であって、表示手段によって右目による画
像が表示されているとき、右目の遮光手段を透光性とし
かつ左目の遮光手段を遮光性とし、表示手段によって左
目による画像が表示されているとき、右目の遮光手段を
遮光性としかつ左目の遮光手段を透光性とする遮光手段
と、 操作者によって把持される模擬加工工具とからなる3次
元形状模擬加工装置において、 模擬加工工具の位置を検出する位置検出手段と、 位置検出手段の出力に応答し、立体視されている画像
に、模擬加工工具が、空間上で直接接触または侵入した
ことを検出する接触/侵入検出手段と、 接触/侵入検出手段の出力に応答し、画像の前記接触ま
たは侵入した部分が変形するように、メモリにストアさ
れているデータを補正する画像データ補正手段とを含む
ことを特徴とする模擬加工装置。
4. A memory for storing three-dimensional image data of an outer shape of an object to be simulated, and a two-dimensional display surface, wherein data stored in the memory is read out, and an operator's Display means for alternately displaying an image of the object viewed by the right eye and the left eye, and light shielding means mounted by the operator and arranged in front of the right and left eyes, respectively, and the display means displays an image by the right eye. When the right eye light blocking means is translucent and the left eye light blocking means is light blocking property, when the image by the left eye is displayed by the display means, the right eye light blocking means is left light blocking and the left eye light blocking means. A three-dimensional shape simulation processing apparatus comprising: a light-shielding means for transmitting light; and a simulation processing tool gripped by an operator; a position detection means for detecting a position of the simulation processing tool; Responding to the output of the means, contact / intrusion detecting means for detecting that the simulated machining tool has directly contacted or invaded the space in the stereoscopic image, and responding to the output of the contact / intrusion detecting means; An image data correcting means for correcting data stored in a memory so that the touched or intruded portion of the image is deformed.
【請求項5】 模擬加工工具は、相互に直交する3つの
各軸線まわりに角変位可能に設けられ、 各軸線まわりの操作者による力を検出する手段と、 各軸線まわりの制動力を発生する制動手段と、 力検出手段の出力に応答し、模擬加工工具が立体視され
ている画像に前記接触または侵入したとき、制動手段に
よって実際の加工工具が物体に接触または侵入したとき
とほぼ同一の反力が実際とほぼ同一方向に発生するよう
に、各軸線まわりの制動手段による制動力を発生して制
御する手段とを含むことを特徴とする請求項4記載の模
擬加工装置。
5. A simulated machining tool is provided so as to be angularly displaceable around three mutually orthogonal axes, means for detecting a force by an operator about each of the axes, and generates a braking force around each of the axes. Braking means, in response to the output of the force detecting means, when the simulated machining tool contacts or invades the stereoscopically-viewed image, the braking means is substantially the same as when the actual machining tool contacts or invades the object. 5. The simulation processing apparatus according to claim 4, further comprising means for generating and controlling a braking force by a braking means around each axis so that the reaction force is generated in substantially the same direction as the actual one.
【請求項6】 操作者に装着され、操作者の視点を表す
信号を導出する視点検出手段と、 視点検出手段の出力に応答し、メモリにストアされてい
る3次元画像データを補正して操作者の視点位置から見
た立体視画像を表示手段によって表示させる立体視画像
補正手段とを含むことを特徴とする請求項4または5記
載の模擬加工装置。
6. A viewpoint detecting means mounted on an operator for deriving a signal representing the viewpoint of the operator, and responding to an output of the viewpoint detecting means for correcting and operating three-dimensional image data stored in a memory. The simulation processing device according to claim 4, further comprising: a stereoscopic image correction unit that causes a display unit to display a stereoscopic image viewed from a user's viewpoint position.
JP8178126A 1996-07-08 1996-07-08 Object processing method and apparatus Expired - Fee Related JP2837393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8178126A JP2837393B2 (en) 1996-07-08 1996-07-08 Object processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8178126A JP2837393B2 (en) 1996-07-08 1996-07-08 Object processing method and apparatus

Publications (2)

Publication Number Publication Date
JPH1020914A true JPH1020914A (en) 1998-01-23
JP2837393B2 JP2837393B2 (en) 1998-12-16

Family

ID=16043117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8178126A Expired - Fee Related JP2837393B2 (en) 1996-07-08 1996-07-08 Object processing method and apparatus

Country Status (1)

Country Link
JP (1) JP2837393B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001080188A1 (en) * 2000-04-19 2001-10-25 Sony Corporation Three-dimensional model processing device, three-dimensional model processing method, program providing medium
WO2003019423A1 (en) * 2001-08-28 2003-03-06 Volume Interactions Pte Ltd Methods and systems for interaction with three-dimensional computer models
JP2007048083A (en) * 2005-08-10 2007-02-22 Univ Of Electro-Communications Machining simulation device and machining simulation method
JP2009175777A (en) * 2008-01-21 2009-08-06 Canon Inc Information processing apparatus and method
JP2012208705A (en) * 2011-03-29 2012-10-25 Nec Casio Mobile Communications Ltd Image operation apparatus, image operation method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10354642A1 (en) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Apparatus and method for programming an industrial robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001080188A1 (en) * 2000-04-19 2001-10-25 Sony Corporation Three-dimensional model processing device, three-dimensional model processing method, program providing medium
US7023436B2 (en) 2000-04-19 2006-04-04 Sony Corporation Three-dimensional model processing device, three-dimensional model processing method, program providing medium
WO2003019423A1 (en) * 2001-08-28 2003-03-06 Volume Interactions Pte Ltd Methods and systems for interaction with three-dimensional computer models
JP2007048083A (en) * 2005-08-10 2007-02-22 Univ Of Electro-Communications Machining simulation device and machining simulation method
JP2009175777A (en) * 2008-01-21 2009-08-06 Canon Inc Information processing apparatus and method
JP2012208705A (en) * 2011-03-29 2012-10-25 Nec Casio Mobile Communications Ltd Image operation apparatus, image operation method and program

Also Published As

Publication number Publication date
JP2837393B2 (en) 1998-12-16

Similar Documents

Publication Publication Date Title
US4884219A (en) Method and apparatus for the perception of computer-generated imagery
JP5160741B2 (en) 3D graphic processing apparatus and stereoscopic image display apparatus using the same
US5446834A (en) Method and apparatus for high resolution virtual reality systems using head tracked display
JP3575622B2 (en) Apparatus and method for generating accurate stereoscopic three-dimensional images
CN106454311A (en) LED three-dimensional imaging system and method
US20170295360A1 (en) Head-mounted display device and computer program
JP3504111B2 (en) Stereoscopic system, stereoscopic method, and storage medium for storing computer program for displaying a pair of images viewed from two different viewpoints in a stereoscopic manner
JPH075978A (en) Input device
JP6589604B2 (en) Teaching result display system
JP5059986B2 (en) Image generation method, image generation program, and image projection apparatus
EP1533683A2 (en) Mixed reality simulation system
JP2016110177A (en) Three-dimensional input device and input system
JP2837393B2 (en) Object processing method and apparatus
Ferre et al. Stereoscopic human interfaces
JPH06131442A (en) Three-dimensional virtual image modeling device
JPH0421105A (en) Stereoscopic teaching device for manipulator
EP3422151A1 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
CN115514885B (en) Remote augmented reality follow-up sensing system and method based on monocular and binocular fusion
CN113544766A (en) Registering local content between first and second augmented reality viewers
JP3955497B2 (en) 3D image display apparatus and 3D image display method
JPH0628452A (en) Three-dimensional image processor
KR101807512B1 (en) Apparatus and Method for 3 Dimentional Interaction based on Mapping type
Rezeck et al. An immersion enhancing robotic head-like device for teleoperation
JP4144981B2 (en) Stereoscopic image display device
JP2005011275A (en) System and program for displaying stereoscopic image

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees