JPH08185545A - Method and device for generating image - Google Patents

Method and device for generating image

Info

Publication number
JPH08185545A
JPH08185545A JP33873994A JP33873994A JPH08185545A JP H08185545 A JPH08185545 A JP H08185545A JP 33873994 A JP33873994 A JP 33873994A JP 33873994 A JP33873994 A JP 33873994A JP H08185545 A JPH08185545 A JP H08185545A
Authority
JP
Japan
Prior art keywords
information
image
work environment
projection
interference information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP33873994A
Other languages
Japanese (ja)
Inventor
Akio Fujinaga
昭雄 藤永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP33873994A priority Critical patent/JPH08185545A/en
Publication of JPH08185545A publication Critical patent/JPH08185545A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE: To improve the workability by converting image of distance from a desired object surface to display interference information to an object to be the object of interference information into a texture image and displaying the interference information on the object surface as texture. CONSTITUTION: After work environment information inputted from a data file 110 or the like was stored in a storage means 103 as initial data, the desired object surface to display the interference information and the object to be the object of desired interference information to be calculated to that object surface are respectively set with an input means 108 such as a mouse. A work environment information updating means 101 updates the work environment information in terms of time and a distance image generating means 102 generates the distance image based on the updated work environment information by performing projecting processing with the desired object surface to display the interference information as the projecting plane and with the desired object to calculate the interference information as the projecting object. Then, an image data converting means 105 generates the texture image from this distance image. A scene plotting means 104 displays the interference information on the object surface as the texture.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像生成方法及び装置に
関し、特に、産業用ロボット等の動作シミュレーション
を行うロボットシミュレータにおいて使用される3次元
コンピュータグラフィックス表示において、物体どうし
の衝突、接近等の干渉情報をリアルタイムに詳細に表示
させる方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image generating method and apparatus, and more particularly, to a three-dimensional computer graphics display used in a robot simulator for simulating the motion of an industrial robot, etc. The present invention relates to a method and apparatus for displaying interference information in real time in detail.

【0002】[0002]

【従来の技術】従来のロボットシミュレータにおける干
渉情報の表示方法の概要について図11を用いて説明す
る。ここでいうところのロボットシミュレータとは、ロ
ボット及びロボットが動作する作業環境の計算機モデル
を持ち、ロボットの作業を計算機上でシミュレートし、
その動作状況をコンピュータグラフィックスを用いて表
示する装置を指す。
2. Description of the Related Art An outline of a method of displaying interference information in a conventional robot simulator will be described with reference to FIG. The so-called robot simulator here has a computer model of the robot and the work environment in which the robot operates, and simulates the work of the robot on a computer,
This refers to a device that displays its operating status using computer graphics.

【0003】通常、ロボットシミュレータにおいては、
作業環境に関する情報として物体情報、視点情報、照明
情報等を持つ。物体情報は、例えばサーフェイスモデル
によって多面体表現された形状情報、位置及び姿勢情
報、色情報、拘束条件情報等を持つ。ここで拘束条件情
報とは、ロボットのリンク情報等を指す。これらの作業
環境情報は、ロボットシミュレータの起動時にデータフ
ァイルから入力される(ステップS1)。
Usually, in a robot simulator,
It has object information, viewpoint information, lighting information, etc. as information about the work environment. The object information has, for example, shape information expressed in a polyhedron by a surface model, position and orientation information, color information, constraint condition information, and the like. Here, the constraint condition information refers to robot link information and the like. The work environment information is input from the data file when the robot simulator is activated (step S1).

【0004】初期化後、ロボットシミュレータはメイン
ループに入る。メインループでは、以下に述べるステッ
プS2〜S4の処理を繰り返し行う。
After initialization, the robot simulator enters the main loop. In the main loop, the processes of steps S2 to S4 described below are repeated.

【0005】まず、作業環境情報のうち時間変化のあっ
た情報に対して更新を行う(ステップS2)。この作業
環境情報の更新の最も典型的な例としては、物体の移動
がある。ロボットがその作業計画に従い動作した時に
は、そのロボットを構成する各リンクの位置及び姿勢情
報が更新される。また、ロボットがその動作によって物
体を動かした場合には、その物体の位置及び姿勢情報が
更新される。
First, of the work environment information, information that has changed over time is updated (step S2). The most typical example of updating this work environment information is movement of an object. When the robot operates according to the work plan, the position and orientation information of each link that constitutes the robot is updated. Further, when the robot moves the object by the motion, the position and orientation information of the object is updated.

【0006】次に、物体どうしの衝突、接近等の干渉の
検出が行われる(ステップS3)。この物体どうしの干
渉は、ロボットシミュレータが持つ作業環境情報中の全
物体の組合せについて、2つの多面体の干渉判定として
処理される。即ち、物体形状そのものに対して厳密に干
渉を判定するのは処理量が大き過ぎるため、複雑な物体
形状そのものではなく、物体形状をそれを包含する直方
体、円筒、球等の単純な形状で近似し、この外接近似形
状どうしでの干渉判定を行うことが多い。その際、静止
した物体どうし、ロボットの隣あうリンク、明らかに遠
く離れている物体どうし等は干渉判定を行う必要はな
い。この干渉の検出結果は、干渉した物体のID(iden
tification data (識別名):ロボットシミュレータが
その作業環境情報中に存在する物体に与えた通し番号)
として得られ、次に述べるシーンの描画で用いられる。
Next, interference such as collision and approach of objects is detected (step S3). The interference between the objects is processed as an interference determination of two polyhedrons for a combination of all objects in the work environment information that the robot simulator has. That is, since the amount of processing is too large to determine the interference strictly with respect to the object shape itself, the object shape is approximated not by the complicated object shape itself but by a simple shape such as a rectangular parallelepiped, a cylinder or a sphere that includes the object shape. However, interference determination is often performed between the circumscribed approximate shapes. At that time, it is not necessary to perform the collision determination on the stationary objects, the link next to the robot, or the objects clearly distant from each other. The detection result of this interference is the ID (iden) of the interfering object.
tification data (identification name): Serial number given to an object existing in the work environment information by the robot simulator)
And is used in the drawing of the scene described below.

【0007】最後に、シーンの描画によってコンピュー
タグラフィックス画像が生成され、オペレータにロボッ
トの動作の様子が示される(ステップS4)。この時、
上述した干渉の検出(ステップS3)によって干渉した
と判定された物体については、作業環境情報中にあるそ
の物体本来の色情報に代えて赤色等の特定色でその物体
全体を表示する。従って、オペレータはどの物体が干渉
してしまったかを視覚的に容易に判断することができ
る。
Finally, a computer graphics image is generated by drawing the scene, and the operator is shown the behavior of the robot (step S4). This time,
For the object determined to have interfered by the above-described detection of interference (step S3), the entire object is displayed in a specific color such as red instead of the original color information of the object in the work environment information. Therefore, the operator can easily visually determine which object has interfered.

【0008】[0008]

【発明が解決しようとする課題】上述した従来の干渉情
報の表示方法では、ある物体とある物体とがぶつかった
かどうか(或いは、接近したかどうか)という1ビット
の情報が表示されるのみであった。
In the above-mentioned conventional display method of interference information, only 1-bit information indicating whether or not an object and an object have collided (or approached) is displayed. It was

【0009】そのため、物体どうしの接近の度合が定量
的に分からず、オペレータは、ロボットがぶつからない
ようにするためには、ロボットをゆっくりと動作させな
ければならなかった。
Therefore, the degree of approach between the objects cannot be quantitatively known, and the operator has to slowly move the robot in order to prevent the robot from colliding.

【0010】また、物体どうしのどの部位とどの部位と
がぶつかった(或いは、接近した)のかが表示されなか
ったため、物体どうしの位置関係を認知しにくかった。
Further, it is difficult to recognize the positional relationship between the objects because it is not displayed which part of the object collides with (or approaches) which part.

【0011】そこで本発明の目的は、物体どうしの干渉
に関するより詳細な情報を表示させることで、ロボット
シミュレータの作業性を向上させることのできる画像生
成方法及び装置を提供することである。
Therefore, an object of the present invention is to provide an image generating method and apparatus capable of improving the workability of a robot simulator by displaying more detailed information on the interference between objects.

【0012】[0012]

【課題を解決するための手段】上記目的を達成する本発
明の画像生成方法は、物体間の干渉情報を含む3次元コ
ンピュータグラフィックス画像を生成する方法であっ
て、前記干渉情報を表示させたい物体表面及びその物体
表面に対して前記干渉情報の対象となる物体を夫々設定
し、前記物体表面を投影面、前記物体を投影物体とする
投影処理により、前記物体表面から前記物体までの距離
画像を求め、前記距離画像をテクスチャ画像に変換し、
シーンの描画の際に前記テクスチャ画像を前記物体表面
にテクスチャマッピングすることにより、前記干渉情報
をテクスチャとして前記物体表面に表示させる。
The image generation method of the present invention for achieving the above object is a method of generating a three-dimensional computer graphics image including interference information between objects, and it is desired to display the interference information. A distance image from the object surface to the object by a projection process in which the object surface and the object to be the target of the interference information are set for the object surface, and the object surface is the projection surface and the object is the projection object. And convert the distance image into a texture image,
When the scene is drawn, the texture image is texture-mapped on the object surface, so that the interference information is displayed as a texture on the object surface.

【0013】本発明の一態様では、前記距離画像を求め
る際、1つ前の時刻で求めた距離画像のデータをそのま
ま次の時刻での計算の初期値データとして用いることに
より、ある時刻T1 からある時刻T2 までの最小距離画
像を求める。
According to one aspect of the present invention, when the distance image is obtained, the data of the distance image obtained at the immediately preceding time is used as it is as the initial value data for the calculation at the next time, so that a certain time T 1 can be obtained. The minimum distance image from a certain time to T 2 is obtained.

【0014】また、本発明の画像生成装置は、物体間の
干渉情報を含む3次元コンピュータグラフィックス画像
を生成する装置であって、前記干渉情報を表示させたい
物体表面及びその物体表面に対して前記干渉情報の対象
となる物体を夫々設定するための入力手段と、少なくと
も前記物体表面及び前記物体の形状情報、位置情報並び
に姿勢情報を含む作業環境情報を記憶する作業環境情報
記憶手段と、前記作業環境情報記憶手段に記憶されてい
る前記作業環境情報を時間的に更新する作業環境情報更
新手段と、前記作業環境情報更新手段で更新された前記
作業環境情報に基づき、前記物体表面を投影面、前記物
体を投影物体とする投影処理により、前記物体表面から
前記物体までの距離画像を求める距離画像生成手段と、
距離画像をテクスチャ画像に変換するためのルックアッ
プテーブルを記憶するルックアップテーブル記憶手段
と、前記ルックアップテーブル記憶手段に記憶された前
記ルックアップテーブルに基づき、前記距離画像生成手
段で求められた前記距離画像をテクスチャ画像に変換す
る画像データ変換手段と、前記作業環境情報更新手段で
更新された前記作業環境情報に基づき、且つ、前記画像
データ変換手段から得られた前記テクスチャ画像を前記
物体表面にテクスチャマッピングした状態で、シーンを
描画するシーン描画手段と、描画された前記シーンを表
示するグラフィックス表示手段とを有する。
Further, the image generating apparatus of the present invention is an apparatus for generating a three-dimensional computer graphics image including interference information between objects, the object surface on which the interference information is desired to be displayed and the object surface. Inputting means for setting respective objects to be the target of the interference information, work environment information storing means for storing work environment information including at least the shape information of the object surface and the object, position information and posture information, and A work environment information updating means for temporally updating the work environment information stored in the work environment information storage means, and a projection plane for the object surface based on the work environment information updated by the work environment information updating means. A distance image generation unit that obtains a distance image from the object surface to the object by a projection process using the object as a projection object,
Look-up table storage means for storing a look-up table for converting the distance image into a texture image; and the distance image generation means based on the look-up table stored in the look-up table storage means. Image data conversion means for converting a distance image into a texture image, and based on the work environment information updated by the work environment information update means, and the texture image obtained from the image data conversion means on the object surface. It has a scene drawing means for drawing a scene in a texture-mapped state, and a graphics display means for displaying the drawn scene.

【0015】[0015]

【作用】図1及び図2を用いて本発明の作用を説明す
る。なお、図1は本発明による画像生成方法の流れを示
すフローチャート、図2は図1の方法を実施する画像生
成装置の概要である。
The operation of the present invention will be described with reference to FIGS. 1 is a flow chart showing the flow of the image generating method according to the present invention, and FIG. 2 is an outline of the image generating apparatus for implementing the method of FIG.

【0016】まず、例えば、データファイル110等か
ら作業環境情報を入力する(ステップS1)。この作業
環境情報は、少なくとも各物体の形状情報、位置情報並
びに姿勢情報を含む。実際には、既述した従来の場合と
同様、物体の色情報、視点情報、照明情報、拘束条件情
報等をも含む。ここで入力された作業環境情報は初期デ
ータとして作業環境情報記憶手段103に記憶される。
First, for example, work environment information is input from the data file 110 or the like (step S1). This work environment information includes at least shape information, position information, and posture information of each object. Actually, like the conventional case described above, it also includes the color information of the object, the viewpoint information, the illumination information, the constraint condition information, and the like. The work environment information input here is stored in the work environment information storage means 103 as initial data.

【0017】次に、例えば、マウス、キーボード、ライ
トペン、ジョイスティック、トラックボール等の入力手
段108を使って、干渉情報を表示させたい物体表面及
びその物体表面に対して計算したい干渉情報の対象とな
る物体を夫々設定する(ステップS2)。この時、干渉
情報を表示させたい1つ物体表面に対して複数の対象物
体を設定して良い。また、干渉情報を表示させたい物体
表面も複数設定して良い。具体的には、例えば、グラフ
ィックス・ユーザ・インタフェース(GUI)109等
により対話的に設定するのが便利である。
Next, using the input means 108 such as a mouse, a keyboard, a light pen, a joystick, a trackball, etc., the object surface for which the interference information is to be displayed and the object of the interference information to be calculated for the object surface The respective objects are set (step S2). At this time, a plurality of target objects may be set for one object surface for which interference information is to be displayed. Also, a plurality of object surfaces for which interference information is desired to be displayed may be set. Specifically, for example, it is convenient to interactively set using the graphics user interface (GUI) 109 or the like.

【0018】また、別の設定方法として、現在行ってい
る作業情報(ロボットがどの物体を掴みにいっているか
等)や物体相互の接近状態(どの物体とどの物体とがぶ
つかりそうになっているか)等に応じて自動的に設定す
る方法もある。但し、この方法では、干渉情報を表示し
たい物体表面と干渉情報を計算したい物体の設定は、後
述するメインループの中で作業環境情報の更新(ステッ
プS3)の直後に行われる必要がある。例えば、前者の
場合、干渉情報の表示が必要な物体表面及び干渉情報の
計算が必要な物体を夫々作業の種類に応じて予め決めて
おき、ロボットシミュレータが行う作業状態の変化に応
じて、それらのうちから必要なものを自動的に選択して
設定する。また、後者の場合には、例えば、干渉情報の
表示が必要となる可能性のある物体表面及び干渉情報の
計算が必要となる可能性のある物体のすべての組み合わ
せに対して大まかな距離関係(例えば、中心間距離等)
を計算し、その距離が所定値よりも小さくなった組み合
わせに対してのみ、以下に述べる詳細な干渉情報の計算
及び表示を行わせる。
Further, as another setting method, work information (currently, which object is being grasped by the robot, etc.) currently being performed and the approaching state of the objects (which object is likely to collide with which object). ) There is also a method to automatically set according to. However, in this method, the setting of the object surface for which the interference information is to be displayed and the object for which the interference information is to be calculated must be set immediately after the update of the work environment information (step S3) in the main loop described later. For example, in the case of the former, the object surface for which interference information needs to be displayed and the object for which interference information needs to be calculated are determined in advance according to the type of work, respectively, in accordance with changes in the work state performed by the robot simulator, Automatically select and set the required one. Further, in the latter case, for example, a rough distance relationship (for all combinations of the object surface that may require display of interference information and the object that may require calculation of interference information) (For example, center distance)
Is calculated, and detailed interference information described below is calculated and displayed only for a combination in which the distance is smaller than a predetermined value.

【0019】更に、この干渉情報を表示したい物体表面
と干渉情報を計算したい物体の設定を、ロボットの作業
状態の変化や物体相互の接近状態の変化に応じてオペレ
ータが随時行えるようにすることもできる。この場合に
は、オペレータによる外部割り込みで設定が行われる。
Further, the operator can set the surface of the object for which the interference information is to be displayed and the object for which the interference information is to be calculated, at any time according to the change of the working state of the robot or the change of the approaching state of the objects. it can. In this case, the setting is made by an external interrupt by the operator.

【0020】次に、メインループでは、まず、作業環境
情報更新手段101において作業環境情報の時間的な更
新を行う(ステップS3)。即ち、作業環境情報更新手
段101は、作業環境情報記憶手段103から読み出し
た作業環境情報のうち時間的な変化があったものを更新
する。更新された作業環境情報は、再び作業環境情報記
憶手段103に記憶される。
Next, in the main loop, first, the work environment information updating means 101 updates the work environment information with time (step S3). That is, the work environment information updating unit 101 updates the work environment information read from the work environment information storage unit 103 that has changed with time. The updated work environment information is stored in the work environment information storage unit 103 again.

【0021】次に、上の作業環境情報更新手段101で
更新された作業環境情報に基づき、距離画像生成手段1
02において投影処理による距離画像の生成を行う(ス
テップS4)。この時、ステップS2で設定した干渉情
報を表示させたい物体表面を投影面とし、干渉情報を計
算したい物体を投影物体として投影処理を行う。投影方
法としては、例えば平行投影や透視投影を用いる。この
時、Z−バッファ法を用いると簡便である。この投影処
理は、例えばグラフィックス・アクセラレータにおいて
高速に行うことができる。ここで得られる距離画像の画
素値は、整数値で表現された距離情報である。
Next, based on the work environment information updated by the work environment information updating means 101, the distance image generating means 1
In 02, a distance image is generated by a projection process (step S4). At this time, the projection processing is performed by using the object surface for which the interference information set in step S2 is to be displayed as the projection surface and the object for which the interference information is to be calculated as the projection object. As the projection method, for example, parallel projection or perspective projection is used. At this time, it is convenient to use the Z-buffer method. This projection process can be performed at high speed in a graphics accelerator, for example. The pixel value of the distance image obtained here is distance information represented by an integer value.

【0022】次に、画像データ変換手段105において
画像データの変換を行い、距離画像生成手段102で得
られた距離画像からテクスチャ画像を生成する(ステッ
プS5)。距離画像をテクスチャ画像に変換するには、
ルックアップテーブル(LUT)を用いる。このルック
アップテーブルは、予めルックアップテーブル記憶手段
106に準備しておく。これにより、干渉情報の計算結
果は、干渉情報を表示させたい面のID(ロボットシミ
ュレータが自動的に割り振る通し番号)とその面に対応
するテクスチャ画像の組として得られ、次に述べるシー
ンの描画で用いられる。
Next, the image data converting means 105 converts the image data, and a texture image is generated from the distance image obtained by the distance image generating means 102 (step S5). To convert a range image to a texture image,
A look-up table (LUT) is used. This lookup table is prepared in the lookup table storage means 106 in advance. As a result, the calculation result of the interference information is obtained as a set of the ID (serial number automatically assigned by the robot simulator) of the surface on which the interference information is to be displayed and the texture image corresponding to the surface, and can be drawn in the scene described below. Used.

【0023】次に、シーン描画手段104でのシーンの
描画によりコンピュータグラフィックス画像が生成さ
れ、その画像がCRT表示装置等のグラフィックス表示
手段107に表示されて、オペレータにロボットの動作
の様子が示される(ステップS6)。この時、干渉情報
を表示させたい面として設定された面については、画像
データ変換手段105から得られたテクスチャ画像をテ
クスチャマッピングすることにより、物体どうしの干渉
に関する詳細な情報をテクスチャとして表示させること
ができる。
Next, a computer graphics image is generated by drawing the scene by the scene drawing means 104, and the image is displayed on the graphics display means 107 such as a CRT display device so that the operator can see how the robot is operating. Is shown (step S6). At this time, for the surface set as the surface for which the interference information is to be displayed, the texture image obtained from the image data conversion unit 105 is texture-mapped to display detailed information about the interference between the objects as a texture. You can

【0024】ステップS7では、作業時間の終了を判定
する。
In step S7, the end of the working time is determined.

【0025】[0025]

【実施例】以下、本発明を具体的な作業例につき詳細に
説明する。
The present invention will be described in detail below with reference to concrete working examples.

【0026】まず、図3〜図7を参照して、机の上に置
かれた部品をロボットハンドで把持する作業をロボット
シミュレータ上で行う第1の実施例を説明する(簡単の
ため、ロボット本体部は図中では省略している。)。本
実施例では、干渉情報の表示方法として、距離に応じた
色表示を行う。
First, with reference to FIGS. 3 to 7, a description will be given of a first embodiment in which a robot simulator grasps a component placed on a desk with a robot hand (for simplicity, a robot will be described). The main body is omitted in the figure.). In this embodiment, as a method of displaying the interference information, color display is performed according to the distance.

【0027】まず、各物体の形状情報、位置情報、姿勢
情報及び色情報、更に、視点情報、照明情報、拘束条件
情報等を含む作業環境情報の入力を行った後、干渉情報
を表示させたい物体表面と干渉情報を計算したい物体を
夫々設定する。ここでは、 (1)ハンド20が部品30を掴みに行く際に、ハンド
20(特にその指部21)が机(特にその上面10)に
ぶつかってはならない。 (2)ハンド20は部品30にぶつからないように正し
い把持位置に移動し、指部21を充分開いた後に部品3
0を把持しなければならない。 ことを考慮し、干渉情報を表示させたい1つの物体表面
(投影面)として机の上面10を、それに対して干渉情
報を計算したい物体(投影物体)としてハンド20の2
つの指部21を夫々設定する。更に、干渉情報を表示さ
せたい別の物体表面(投影面)として部品30の6つの
面を夫々設定し、夫々の面に対して干渉情報を計算した
い物体(投影物体)としてハンド20の2つの指部21
を夫々設定する。
First, after inputting the work environment information including the shape information, the position information, the posture information and the color information of each object, the viewpoint information, the illumination information, the constraint condition information, etc., it is desired to display the interference information. The object whose interference is to be calculated with the surface of the object is set respectively. Here, (1) When the hand 20 goes to grip the component 30, the hand 20 (particularly its finger portion 21) should not hit the desk (particularly its upper surface 10). (2) The hand 20 moves to the correct gripping position so as not to hit the component 30, and after the fingers 21 are fully opened, the component 3
You have to grab 0. In consideration of this, the top surface 10 of the desk is used as one object surface (projection surface) for which interference information is to be displayed, and the hand 20 is used as an object (projection object) for which interference information is to be calculated.
The two fingers 21 are set respectively. Further, six surfaces of the component 30 are respectively set as different object surfaces (projection surfaces) for which interference information is to be displayed, and two surfaces of the hand 20 are set as objects (projection objects) for which interference information is to be calculated for the respective surfaces. Finger 21
Are set respectively.

【0028】また、この投影面の設定時に、視点位置、
投影方法、更に、距離とテクスチャに使う色情報との対
応もあわせて設定しておく。例えば、机の上面10につ
いては視点位置は無限遠、投影方法は平行投影とし、部
品30の6つの面については視点位置は部品中心、投影
方法は透視投影とする。平行投影を用いる場合には、投
影物体(ハンドの指部21)と投影面(机の上面10)
との位置関係を直観的に理解し易いという長所がある。
一方、部品30の6つの面(例えば、側面30a〜30
d)に対して夫々平行投影を用いると、図5(a)に示
すように、ハンド20が図中の斜線部分から接近した場
合には、その接近情報を計算及び表示することができな
い。この場合、図5(b)に示すように、部品中心に視
点Eを置いた透視投影によって投影すると、死角をなく
すことができる。しかしながら、一般的には、透視投影
においては、投影面からの距離ではなく視点からの距離
が用いられることにより人間の直観との差異が生じる等
の問題点があるので、投影方法及び視点は、場合に応じ
て最適なものを選定しなければならない。
When setting the projection plane, the viewpoint position,
The projection method and the correspondence between the distance and the color information used for the texture are also set. For example, for the top surface 10 of the desk, the viewpoint position is infinity, the projection method is parallel projection, and for the six surfaces of the component 30, the viewpoint position is component center and the projection method is perspective projection. When using parallel projection, the projection object (finger portion 21 of the hand) and the projection surface (top surface 10 of the desk)
It has the advantage of being easy to intuitively understand the positional relationship with.
On the other hand, six faces of the component 30 (for example, the side faces 30a to 30)
If parallel projection is used for each of d), as shown in FIG. 5A, when the hand 20 approaches from the hatched portion in the figure, the approach information cannot be calculated and displayed. In this case, as shown in FIG. 5B, the blind spot can be eliminated by projecting by perspective projection with the viewpoint E placed at the center of the component. However, in perspective projection, in general, there is a problem in that the distance from the viewpoint is used instead of the distance from the projection surface, which causes a difference from human intuition. The optimum one must be selected according to the case.

【0029】また、上述の距離と色情報の対応とは、 (1)視点又は投影面からみてどの距離からどの距離の
範囲を干渉情報として色表示するかの設定。 (2)上記距離範囲を夫々何色で表示するかの設定。 (3)色変換のためのLUTの設定。 を指す。一般に精密な作業においては、投影面のごく近
傍の距離範囲のみで干渉情報を色表示すれば良く、一
方、大きく運動する作業においては、投影面から遠い距
離までの干渉情報を色表示する必要がある。また、LU
Tには、衝突していれば赤色、近ければ黄色、遠ければ
青色のように、オペレータが直観的に距離を認知し易い
ように色を設定しておくと良い。
Correspondence between the distance and the color information is as follows: (1) Setting of which distance range from which distance from the viewpoint or projection plane is displayed as interference information in color. (2) Setting of which color to display each of the distance ranges. (3) LUT setting for color conversion. Refers to. Generally, in precision work, it is sufficient to display interference information in color only in a distance range very close to the projection surface, while in large movement work, it is necessary to display interference information in color far from the projection surface. is there. Also, LU
It is advisable to set a color for T such as red for a collision, yellow for a near distance, and blue for a far distance so that the operator can intuitively recognize the distance intuitively.

【0030】上述のようにして、干渉情報を表示させた
い物体表面と干渉情報を計算したい物体を夫々設定した
後、メインループに入る。
As described above, after setting the surface of the object for which interference information is to be displayed and the object for which interference information is to be calculated, the main loop is entered.

【0031】メインループでは、作業環境情報の更新を
行った後、投影処理による距離画像の生成を行う。ここ
では、机の上面10を投影面とする投影処理について説
明する。このとき、投影物体はハンド20の2つの指部
21である。これは、机の上面10に対してぶつかる危
険性のある物体がハンド20の2つの指部21のみだか
らである。
In the main loop, after the work environment information is updated, the distance image is generated by the projection process. Here, a projection process in which the top surface 10 of the desk is the projection surface will be described. At this time, the projection object is the two finger portions 21 of the hand 20. This is because the only object that has a risk of hitting the top surface 10 of the desk is the two finger portions 21 of the hand 20.

【0032】今、作業環境の状態が図3(a)の時の投
影面(机の上面10)と投影物体(ハンド20の指部2
1)の様子を図3(b)に示す。また、この時、Z−バ
ッファ法を用いて描画を行った際の深度バッファの様子
を図3(c)に示す。Z−バッファ法における深度バッ
ファには距離画像が得られ、その画素値は整数値で表現
された距離情報である(図中に各画素値に対応して描か
れている模様(テクスチャ)は図示のための便宜上のも
のである。)。図3(c)の例では距離情報を4ビット
(16値)で表現し、視点(投影面)に近いほど小さな
値をとっている(但し、図中では画素値“0”〜
“2”、“13”〜“14”に対応する距離範囲には物
体(指部21)が現れていない。)。
Now, when the state of the work environment is as shown in FIG. 3A, the projection surface (the top surface 10 of the desk) and the projection object (the finger 2 of the hand 20).
The state of 1) is shown in FIG. Further, at this time, the state of the depth buffer when drawing is performed using the Z-buffer method is shown in FIG. A distance image is obtained in the depth buffer in the Z-buffer method, and its pixel value is distance information expressed by an integer value (the pattern (texture) drawn corresponding to each pixel value in the figure is shown. For convenience only.). In the example of FIG. 3C, the distance information is represented by 4 bits (16 values), and takes a smaller value as it gets closer to the viewpoint (projection surface) (however, in the figure, pixel value “0” to
The object (finger portion 21) does not appear in the distance range corresponding to “2” and “13” to “14”. ).

【0033】次に、図3(c)で得られた距離画像を、
LUT変換によって、色表示によるテクスチャ画像に変
換する。図4(a)に、変換に用いるLUTの例を示
す。この例では、距離画像の画素値が0の時、投影物体
は投影面に接触しており、LUTの出力値は濃赤色であ
る。そして、投影物体との距離が遠くなるに従い、出力
値は赤色、淡赤色、橙色、黄色、黄緑色、…のように設
定される。そして、投影物体が充分遠くにある場合に
は、距離画像の画素値は“15”となり、出力値は“投
影面本来の色(机の上面10の本来の色)”となる。色
の表現方法としては、例えばRGB値で表現される。こ
のテクスチャ画像は、後のシーンの描画において用いら
れる。
Next, the range image obtained in FIG.
It is converted into a texture image by color display by LUT conversion. FIG. 4A shows an example of the LUT used for conversion. In this example, when the pixel value of the distance image is 0, the projection object is in contact with the projection surface, and the output value of the LUT is dark red. Then, as the distance to the projection object increases, the output value is set to red, light red, orange, yellow, yellow green, .... Then, when the projection object is sufficiently far, the pixel value of the distance image is "15", and the output value is "the original color of the projection surface (the original color of the upper surface 10 of the desk)". As a color expression method, for example, RGB values are used. This texture image will be used in the subsequent rendering of the scene.

【0034】同様にして、部品30の6つの面を投影面
とする場合にも、夫々の投影面に対して図3(c)に示
すような距離画像を求めるが、上述の処理との差異は透
視投影を用いることである。また、6つの面のうちの3
つは投影面そのものが描画されないため、投影処理によ
る距離画像の生成を行わなくても良い。
Similarly, when the six planes of the component 30 are used as the projection planes, distance images as shown in FIG. 3C are obtained for the respective projection planes, but this is different from the above processing. Is to use perspective projection. Also, 3 out of 6 faces
In other words, since the projection surface itself is not drawn, it is not necessary to generate the distance image by the projection process.

【0035】次に、シーンの描画によってコンピュータ
グラフィックス画像が生成され、オペレータにロボット
の動作の様子が表示される。この時、干渉情報を表示さ
せたい面として設定された面については、作業環境情報
中にあるその物体本来の色情報に代えて、上述のように
して生成されたテクスチャ画像をテクスチャマッピング
して表示する。この時、テクスチャ画像は、そのテクス
チャ画像を生成する時に用いた干渉情報を表示させたい
面(投影面)を描画する時に正しく用いられなければな
らない。図3(c)で得られた距離画像を、図4(a)
のLUTを用いてテクスチャ画像に変換して表示させた
例を図4(b)に示す(図中に便宜的に描かれている模
様(テクスチャ)が各色を表している。)。
Next, a computer graphics image is generated by drawing the scene, and the state of the motion of the robot is displayed to the operator. At this time, for the surface set as the surface for which interference information is to be displayed, the texture image generated as described above is texture-mapped and displayed instead of the original color information of the object in the work environment information. To do. At this time, the texture image must be correctly used when drawing the surface (projection surface) on which the interference information used when generating the texture image is desired to be displayed. The range image obtained in FIG. 3C is shown in FIG.
FIG. 4B shows an example in which the texture image is converted and displayed using the LUT of FIG. 4B (the pattern (texture) drawn for convenience in the drawing represents each color).

【0036】図6に、ロボットが様々な位置にある時の
コンピュータグラフィックス画像の生成例を示す。図6
(a)は、ロボットのハンド20が机からも部品30か
らも遠く離れている状態であり、すべての物体はその物
体本来の色で表示されている。図6(b)では、ロボッ
トのハンド20が机に接近したため、机の上面10にロ
ボットのハンド20の指部21が投影されている。そし
て、そのテクスチャの色情報から接近の度合が、投影パ
ターンからどのような姿勢で接近しているのかが分か
る。即ち、本実施例では、ロボットのハンド20が机に
ぶつかってしまうより前に、その接近度合に応じて距離
情報が色表示されるため、オペレータは安心してロボッ
トハンドを動かすことができて、作業能率が向上する。
FIG. 6 shows an example of generating computer graphics images when the robot is at various positions. Figure 6
In (a), the robot's hand 20 is far away from the desk and the component 30, and all objects are displayed in the original color of the object. In FIG. 6B, since the robot hand 20 has approached the desk, the finger portion 21 of the robot hand 20 is projected on the top surface 10 of the desk. Then, from the color information of the texture, the degree of approach can be known from the projection pattern in which posture the approach is made. That is, in the present embodiment, since the distance information is displayed in color according to the degree of approach before the robot's hand 20 hits the desk, the operator can move the robot hand with peace of mind. Efficiency improves.

【0037】図7(a)(b)(c)は、ロボットハン
ド20の指部21が部品30に接近した時の拡大図であ
る。簡単のため、部品30とハンド20の指部21のみ
図示した。図7(a)では、ロボットハンド20の2つ
の指部21が部品30の正しい把持位置からずれた位置
にあり、図7(b)では、ロボットハンド20の2つの
指部21が部品30の向きとずれた向きにあり、図7
(c)では、ロボットハンド20の2つの指部21が部
品30の正しい把持位置にある。このように、ロボット
ハンド20の接近の様子が部品30上にテクスチャマッ
ピングされているため、ロボットハンド20と部品30
との位置関係が容易に把握できる。
FIGS. 7A, 7B and 7C are enlarged views when the finger portion 21 of the robot hand 20 approaches the component 30. For simplicity, only the component 30 and the fingers 21 of the hand 20 are shown. In FIG. 7A, the two finger portions 21 of the robot hand 20 are displaced from the correct gripping position of the component 30, and in FIG. 7B, the two finger portions 21 of the robot hand 20 are of the component 30. It is out of alignment,
In (c), the two fingers 21 of the robot hand 20 are in the correct gripping position of the component 30. In this way, since the approaching state of the robot hand 20 is texture-mapped on the component 30, the robot hand 20 and the component 30 are
The positional relationship with can be easily grasped.

【0038】なお、本実施例では、投影面として単純な
平面について述べたが、物体形状が複雑な場合には、本
来の物体形状に代えて、物体形状を単純な形状に近似
し、その近似形状における面を投影面として用いること
もできる。また投影物体についても本来の物体形状に代
えて近似形状を用いることができる。
In this embodiment, a simple plane is described as the projection surface. However, when the object shape is complicated, the object shape is approximated to a simple shape instead of the original object shape, and the approximation is performed. The surface in the shape can also be used as the projection surface. Also, for the projected object, an approximate shape can be used instead of the original object shape.

【0039】次に、図8を参照して、本発明の第2の実
施例を説明する。
Next, a second embodiment of the present invention will be described with reference to FIG.

【0040】上述の第1の実施例では、投影処理がZ−
バッファ法を用いた描画により実現されるため、投影面
は平面でなければならないが、一般に、ロボットシミュ
レータでは最終的に物体形状は多面体表現されて表示さ
れるため、干渉情報を表示させたい面が曲面であった場
合でも、その干渉情報を表示させたい曲面を複数の平面
で近似し、夫々の平面を投影面として投影処理による距
離画像の生成処理を施せば、曲面上にも干渉情報を表示
させることができる。例えば、円筒を10角柱で近似し
た場合には、円筒面に対する投影処理は、10個の平面
に対する投影処理に置き換えて実行することができる。
In the above-described first embodiment, the projection process is Z-
Since it is realized by drawing using the buffer method, the projection surface must be a plane, but generally, in the robot simulator, the object shape is finally displayed as a polyhedron, so the surface on which you want to display interference information is Even if it is a curved surface, if you approximate the curved surface for which you want to display the interference information with multiple planes and perform distance image generation processing by projection processing with each plane as the projection surface, you can also display the interference information on the curved surface. Can be made. For example, when a cylinder is approximated by a 10-sided prism, the projection process on the cylindrical surface can be replaced with the projection process on 10 planes.

【0041】これに対し、この第2の実施例では、干渉
情報を表示させたい面が幾何学的に単純な曲面である場
合の別の投影方法について説明する。
On the other hand, in the second embodiment, another projection method in the case where the surface on which the interference information is to be displayed is a geometrically simple curved surface will be described.

【0042】図8(a)は、円筒形状物体40をロボッ
トハンド20で掴む作業例である。干渉情報を表示させ
たい面は円筒形状物体40の側面である円筒面であり、
干渉情報を計算したい物体はロボットハンド20の2つ
の指部である。
FIG. 8A shows an example of the work of gripping the cylindrical object 40 with the robot hand 20. The surface on which the interference information is to be displayed is the cylindrical surface that is the side surface of the cylindrical object 40,
The objects whose interference information is to be calculated are the two fingers of the robot hand 20.

【0043】以下、第1の実施例との差異についてのみ
説明する。
Only the differences from the first embodiment will be described below.

【0044】本実施例においては、作業環境情報の更新
を行った後、干渉情報を表示させたい面である円筒側面
を平面として扱うためのパラメータ変換を行う。即ち、
図8(a)に示すようにデカルト座標系で表現されてい
る円筒側面及び投影物体(ロボットハンド20の指部)
を、図8(b)に示すような円筒座標系(R−θ−Z
系)で表現し直す。この時、干渉情報を表示させたい面
である円筒側面上の各点ではRが一定であるため、R−
θ−Zパラメータ空間では、図8(b)に示すように円
筒側面は平面で表現され、一方、投影物体は歪んだ形状
となる。
In this embodiment, after the work environment information is updated, parameter conversion is performed to treat the cylindrical side surface, which is the surface on which the interference information is to be displayed, as a flat surface. That is,
As shown in FIG. 8A, the cylindrical side surface and the projection object (finger part of the robot hand 20) expressed in a Cartesian coordinate system.
In a cylindrical coordinate system (R-θ-Z
System) to re-express it. At this time, since R is constant at each point on the side surface of the cylinder that is the surface on which interference information is to be displayed, R-
In the θ-Z parameter space, the cylindrical side surface is represented by a plane as shown in FIG. 8B, while the projection object has a distorted shape.

【0045】そして、投影処理による距離画像の生成に
おいて、投影処理を、図8(a)に示したデカルト座標
系上で行うことに代えて、図8(b)に示したR−θ−
Zパラメータ空間での平行投影によって行うことによ
り、一度の投影処理によって円筒面に対する投影処理を
行うことができる。図8(c)に円筒面上に干渉情報が
表示された様子を示す。
Then, in the generation of the range image by the projection processing, instead of performing the projection processing on the Cartesian coordinate system shown in FIG. 8A, R-.theta.- shown in FIG. 8B is used.
By performing the parallel projection in the Z parameter space, it is possible to perform the projection process on the cylindrical surface by one projection process. FIG. 8C shows how interference information is displayed on the cylindrical surface.

【0046】一般に、デカルト座標系において表現され
た曲面をパラメータ変換することで平面に変換可能であ
るような曲面においては、上と同様にして、パラメータ
変換により、その曲面を1つの投影面として処理するこ
とが可能である。
Generally, in the case of a curved surface which can be converted into a plane by converting the curved surface expressed in the Cartesian coordinate system into parameters, the curved surface is processed as one projection surface by the parameter conversion in the same manner as above. It is possible to

【0047】次に、図9及び図10を参照して、本発明
の第3の実施例を説明する。
Next, a third embodiment of the present invention will be described with reference to FIGS.

【0048】本実施例は、平面板にグラインダをかける
作業例である。
The present embodiment is an example of a work for applying a grinder to a flat plate.

【0049】図9(a)及び(b)に、作業環境の斜視
図及び側面図を夫々示す。干渉情報を表示させたい面は
平面板60の上面であり、干渉情報を計算したい物体は
グラインダ50の円盤形状の砥石51の部分である。
9 (a) and 9 (b) show a perspective view and a side view of the working environment, respectively. The surface for which the interference information is to be displayed is the upper surface of the plane plate 60, and the object for which the interference information is to be calculated is the disk-shaped grindstone 51 of the grinder 50.

【0050】以下、第1の実施例との差異についてのみ
説明する。
Only the differences from the first embodiment will be described below.

【0051】まず、本実施例では、図9(b)に示す距
離範囲Lについての干渉情報を色表示することを特徴と
する。即ち、投影物体(砥石51)が投影面(平面板6
0の上面)よりも視点E側にある時に干渉情報を色表示
し、投影物体が視点Eから見て投影面よりも遠くにある
時には色表示しない(物体本来の色で表示する)。この
ことにより、上述した第1の実施例では物体どうしの接
近の度合を干渉情報として色表示したのに対し、本実施
例ではグラインダの加工深さの度合を干渉情報として色
表示することができる。
First, the present embodiment is characterized in that the interference information for the distance range L shown in FIG. 9B is displayed in color. That is, the projection object (grinding stone 51) is projected onto the projection surface (flat plate 6
The interference information is displayed in color when it is closer to the viewpoint E than the upper surface (0), and is not displayed in color when the projection object is farther from the projection surface when viewed from the viewpoint E (displayed in the original color of the object). As a result, in the first embodiment described above, the degree of approach between the objects is displayed in color as interference information, whereas in the present embodiment, the degree of the working depth of the grinder can be displayed in color as interference information. .

【0052】図10に、ある時刻t=T1 における作業
の様子(左図上段)と平面板上面にテクスチャマッピン
グされる距離画像の様子(左図下段)を夫々示す。
FIG. 10 shows a state of work at a certain time t = T 1 (upper stage of the left diagram) and a state of a distance image texture-mapped on the upper surface of the plane plate (lower stage of the left diagram).

【0053】次に、グラインダ作業が進み(砥石51
は、図中、右側へ平行に動く)、時刻t=T1 +Δt
(ここで、Δtはロボットシミュレータの描画サイク
ル)において、再び投影処理による距離画像の生成を行
う際、Z−バッファ法の深度バッファの初期化(深度バ
ッファ中のすべての画素に最遠点に対応する画素値を与
える)処理を省き、時刻t=T1 で求めた距離画像を初
期値として投影処理を行う。Z−バッファ法による描画
においては、深度バッファ中のそれまでに書き込まれた
画素値よりも視点に近い書き込みのみが実行されるた
め、上記処理は、即ち、t=T1 〜T1 +Δtでの最小
距離画像を生成することに相当する。そこで、グライン
ダ作業開始時(t=T1 )の一度だけ深度バッファの初
期化を行い、以降は、前回求めた最小距離画像を初期値
として投影処理を行うことにより、時刻t=T2 (T2
>T1 )には、右図下段に示すような距離画像が平面板
60の上面にテクスチャマッピングされることになる。
Next, the grinder work progresses (grinding stone 51
Moves in parallel to the right in the figure), time t = T 1 + Δt
In the drawing cycle of the robot simulator (where Δt is the drawing cycle of the robot simulator), when the distance image is generated again by the projection process, the depth buffer of the Z-buffer method is initialized (all pixels in the depth buffer correspond to the farthest point). The process of giving the pixel value to be performed) is omitted, and the projection process is performed using the distance image obtained at time t = T 1 as an initial value. In the drawing by the Z-buffer method, only the writing closer to the viewpoint than the pixel values written in the depth buffer so far is executed, so the above processing is performed at t = T 1 to T 1 + Δt. This is equivalent to generating a minimum distance image. Therefore, the depth buffer is initialized only once at the start of the grinder work (t = T 1 ), and thereafter, the projection process is performed by using the previously obtained minimum distance image as the initial value, so that the time t = T 2 (T 2
At> T 1 ), a distance image as shown in the lower right diagram is texture-mapped on the upper surface of the plane plate 60.

【0054】なお、上の説明は、Δt がグラインダの動
きに対して充分小さい場合であるが、ロボットシミュレ
ータの描画サイクルΔt に対してグラインダの動きが速
過ぎる場合には、適当にΔt を内挿して、投影物体(砥
石51)を何度も投影処理するか、或いは、図9(c)
に示すように、時刻t=T1 での投影物体(砥石51)
と時刻t=T1 +Δtでの投影物体(砥石51)とから
包絡多面体等を生成し、時刻t=T1 +Δtでは、本来
の砥石形状に代えて、この包絡多面体等を投影処理する
ようにすれば良い。
The above explanation is for the case where Δt is sufficiently small with respect to the movement of the grinder. However, when the movement of the grinder is too fast for the drawing cycle Δt of the robot simulator, Δt is appropriately interpolated. The projection object (grinding stone 51) many times, or
As shown in, the projection object (grinding stone 51) at time t = T 1
Since and the projection object at time t = T 1 + Δt (grinding stone 51) generates envelope polyhedral, etc., at time t = T 1 + Δt, instead of the original grindstone shape to project process the envelope polyhedral, etc. Just do it.

【0055】また、本実施例では、単純な形状の砥石5
1が単純な加工動作をする場合について説明したが、複
雑な形状の工具が複雑な加工動作をする場合にも、殆ど
同様の処理によって、簡便且つ高速に加工深さ情報を表
示させることができる。
Further, in this embodiment, the grindstone 5 having a simple shape is used.
Although 1 has described the case where a simple machining operation is performed, even when a tool having a complicated shape performs a complicated machining operation, the machining depth information can be displayed easily and at high speed by almost the same processing. .

【0056】[0056]

【発明の効果】本発明によれば、例えば、ロボットシミ
ュレータのコンピュータグラフィックス画像において、
物体どうしの接近、衝突等の干渉情報を詳細且つ定量的
にカラー画像等として物体表面上にテクスチャマッピン
グしてリアルタイムで表示させることができるので、オ
ペレータが、作業環境中にある物体の接近の度合を認知
し易くすることができ、また、接近した物体どうしの位
置関係を把握し易くできて、作業効率を向上させること
ができる。また、グラインダ等の加工作業のシミュレー
ションに適用する場合、その加工深さ情報を例えば色情
報として表示することにより、加工深さの認知をたやす
く行うことができて、作業効率を向上させることができ
る。
According to the present invention, for example, in a computer graphics image of a robot simulator,
Since interference information such as approach and collision between objects can be displayed in detail and quantitatively as a color image on the surface of the object by texture mapping and displayed in real time, the operator can measure the degree of approach of objects in the work environment. Can be easily recognized, and the positional relationship between the approaching objects can be easily grasped, and the work efficiency can be improved. In addition, when applied to a simulation of a machining operation such as a grinder, by displaying the machining depth information as color information, for example, the machining depth can be easily recognized, and work efficiency can be improved. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像生成方法のフローチャートであ
る。
FIG. 1 is a flowchart of an image generation method of the present invention.

【図2】本発明の画像生成方法を実施する装置の概略構
成を示すブロック図である。
FIG. 2 is a block diagram showing a schematic configuration of an apparatus for implementing the image generation method of the present invention.

【図3】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
FIG. 3 is a conceptual diagram for explaining the first embodiment of the image generation method of the present invention.

【図4】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
FIG. 4 is a conceptual diagram for explaining the first embodiment of the image generation method of the present invention.

【図5】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
FIG. 5 is a conceptual diagram for explaining the first embodiment of the image generation method of the present invention.

【図6】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
FIG. 6 is a conceptual diagram for explaining the first embodiment of the image generation method of the present invention.

【図7】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
FIG. 7 is a conceptual diagram for explaining the first embodiment of the image generation method of the present invention.

【図8】本発明の画像生成方法の第2の実施例を説明す
るための概念図である。
FIG. 8 is a conceptual diagram for explaining a second embodiment of the image generation method of the present invention.

【図9】本発明の画像生成方法の第3の実施例を説明す
るための概念図である。
FIG. 9 is a conceptual diagram for explaining a third embodiment of the image generation method of the present invention.

【図10】本発明の画像生成方法の第3の実施例を説明
するための概念図である。
FIG. 10 is a conceptual diagram for explaining a third embodiment of the image generation method of the present invention.

【図11】従来の画像生成方法のフローチャートであ
る。
FIG. 11 is a flowchart of a conventional image generation method.

【符号の説明】[Explanation of symbols]

10 机の上面 20 ロボットハンド 21 指部 30 物体 40 円筒形状物体 50 グラインダ 51 砥石 60 平面板 101 作業環境情報更新手段 102 距離画像生成手段 103 作業環境情報記憶手段 104 シーン描画手段 105 画像データ変換手段 106 ルックアップテーブル(LUT)記憶手段 107 グラフィックス表示手段 108 入力手段 109 グラフィックス・ユーザ・インタフェース(G
UI) 110 データファイル
10 Desk Top 20 Robot Hand 21 Finger 30 Object 40 Cylindrical Object 50 Grinder 51 Grinding Stone 60 Plane 101 Work Environment Information Updating Means 102 Distance Image Generating Means 103 Work Environment Information Storage Means 104 Scene Drawing Means 105 Image Data Converting Means 106 Look-up table (LUT) storage means 107 Graphics display means 108 Input means 109 Graphics user interface (G
UI) 110 data files

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 物体間の干渉情報を含む3次元コンピュ
ータグラフィックス画像を生成する方法であって、 前記干渉情報を表示させたい物体表面及びその物体表面
に対して前記干渉情報の対象となる物体を夫々設定し、 前記物体表面を投影面、前記物体を投影物体とする投影
処理により、前記物体表面から前記物体までの距離画像
を求め、 前記距離画像をテクスチャ画像に変換し、 シーンの描画の際に前記テクスチャ画像を前記物体表面
にテクスチャマッピングすることにより、前記干渉情報
をテクスチャとして前記物体表面に表示させることを特
徴とする画像生成方法。
1. A method for generating a three-dimensional computer graphics image including interference information between objects, comprising: an object surface on which the interference information is desired to be displayed and an object which is the object of the interference information with respect to the object surface. , Respectively, by the projection process with the object surface as the projection surface and the object as the projection object, obtain the distance image from the object surface to the object, convert the distance image into a texture image, and draw the scene. At this time, the interference information is displayed as a texture on the surface of the object by texture mapping the texture image on the surface of the object.
【請求項2】 前記距離画像を求める際、1つ前の時刻
で求めた距離画像のデータをそのまま次の時刻での計算
の初期値データとして用いることにより、ある時刻T1
からある時刻T2 までの最小距離画像を求めることを特
徴とする請求項1に記載の画像生成方法。
2. When obtaining the distance image, the data of the distance image obtained at the immediately preceding time is used as it is as the initial value data for the calculation at the next time, whereby a certain time T 1
The image generating method according to claim 1, wherein a minimum distance image from a time point to a certain time T 2 is obtained.
【請求項3】 物体間の干渉情報を含む3次元コンピュ
ータグラフィックス画像を生成する装置であって、 前記干渉情報を表示させたい物体表面及びその物体表面
に対して前記干渉情報の対象となる物体を夫々設定する
ための入力手段と、 少なくとも前記物体表面及び前記物体の形状情報、位置
情報並びに姿勢情報を含む作業環境情報を記憶する作業
環境情報記憶手段と、 前記作業環境情報記憶手段に記憶されている前記作業環
境情報を時間的に更新する作業環境情報更新手段と、 前記作業環境情報更新手段で更新された前記作業環境情
報に基づき、前記物体表面を投影面、前記物体を投影物
体とする投影処理により、前記物体表面から前記物体ま
での距離画像を求める距離画像生成手段と、 距離画像をテクスチャ画像に変換するためのルックアッ
プテーブルを記憶するルックアップテーブル記憶手段
と、 前記ルックアップテーブル記憶手段に記憶された前記ル
ックアップテーブルに基づき、前記距離画像生成手段で
求められた前記距離画像をテクスチャ画像に変換する画
像データ変換手段と、 前記作業環境情報更新手段で更新された前記作業環境情
報に基づき、且つ、前記画像データ変換手段から得られ
た前記テクスチャ画像を前記物体表面にテクスチャマッ
ピングした状態で、シーンを描画するシーン描画手段
と、 描画された前記シーンを表示するグラフィックス表示手
段とを有することを特徴とする画像生成装置。
3. An apparatus for generating a three-dimensional computer graphics image including interference information between objects, comprising: an object surface on which the interference information is desired to be displayed and an object which is the target of the interference information with respect to the object surface. Input means for respectively setting the work environment information storage means for storing work environment information including at least the shape information, position information and posture information of the object surface and the object, and stored in the work environment information storage means. The work environment information updating means for temporally updating the work environment information, and based on the work environment information updated by the work environment information updating means, the object surface is a projection surface and the object is a projection object. Distance image generation means for obtaining a distance image from the object surface to the object by projection processing, and a rule for converting the distance image into a texture image. Lookup table storage means for storing a lookup table, and image data conversion for converting the distance image obtained by the distance image generation means into a texture image based on the lookup table stored in the lookup table storage means. Means and a scene for drawing a scene based on the work environment information updated by the work environment information updating means, and in a state where the texture image obtained from the image data converting means is texture-mapped on the object surface. An image generating apparatus comprising: drawing means and graphics display means for displaying the drawn scene.
JP33873994A 1994-12-28 1994-12-28 Method and device for generating image Withdrawn JPH08185545A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33873994A JPH08185545A (en) 1994-12-28 1994-12-28 Method and device for generating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33873994A JPH08185545A (en) 1994-12-28 1994-12-28 Method and device for generating image

Publications (1)

Publication Number Publication Date
JPH08185545A true JPH08185545A (en) 1996-07-16

Family

ID=18321008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33873994A Withdrawn JPH08185545A (en) 1994-12-28 1994-12-28 Method and device for generating image

Country Status (1)

Country Link
JP (1) JPH08185545A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000076720A1 (en) * 1999-06-14 2000-12-21 Idec Izumi Corporation Assembling device and tray system therefor, and design-assisting device
JP2007018145A (en) * 2005-07-06 2007-01-25 Jtekt Corp Interference checking device for machine tool
JP2007148804A (en) * 2005-11-28 2007-06-14 Dainippon Printing Co Ltd Normal direction change method for face data, normal direction change device for face data, and processing program or the like
JP2009545075A (en) * 2006-07-28 2009-12-17 インテル コーポレイション Real-time multi-resolution 3D collision detection using cube maps
JP2011112402A (en) * 2009-11-24 2011-06-09 Omron Corp Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP2015143976A (en) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 Information processing device, method for controlling the same, and program
JP2016103265A (en) * 2014-10-23 2016-06-02 株式会社東芝 Method and systems for generating three-dimensional model of subject

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000076720A1 (en) * 1999-06-14 2000-12-21 Idec Izumi Corporation Assembling device and tray system therefor, and design-assisting device
US6415204B1 (en) 1999-06-14 2002-07-02 Idec Izumi Corporation Assembling device and tray system used therein, and design assisting device
JP2007018145A (en) * 2005-07-06 2007-01-25 Jtekt Corp Interference checking device for machine tool
JP2007148804A (en) * 2005-11-28 2007-06-14 Dainippon Printing Co Ltd Normal direction change method for face data, normal direction change device for face data, and processing program or the like
JP2009545075A (en) * 2006-07-28 2009-12-17 インテル コーポレイション Real-time multi-resolution 3D collision detection using cube maps
JP4842379B2 (en) * 2006-07-28 2011-12-21 インテル コーポレイション Real-time multi-resolution 3D collision detection using cube maps
JP2011112402A (en) * 2009-11-24 2011-06-09 Omron Corp Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP2015143976A (en) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 Information processing device, method for controlling the same, and program
JP2016103265A (en) * 2014-10-23 2016-06-02 株式会社東芝 Method and systems for generating three-dimensional model of subject
US9905047B2 (en) 2014-10-23 2018-02-27 Kabushiki Kaisha Toshiba Method and systems for generating a three dimensional model of a subject by iteratively generating meshes

Similar Documents

Publication Publication Date Title
CN104249371B (en) Information processor and information processing method
US6868359B2 (en) Method and system for CAD engine independence
JP2019171501A (en) Robot interference determination device, robot interference determination method and program
CA2246076C (en) Off-line teaching apparatus
JPH08185545A (en) Method and device for generating image
JPS63231520A (en) Coordinate input device
JP2907105B2 (en) 3D display device
JP3501456B2 (en) 3D figure editing device
JPWO2019064919A1 (en) Robot teaching device
JP4769942B2 (en) 3D design support system and 3D design support method
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
US20040200955A1 (en) Position detection of a light source
CA2496773A1 (en) Interaction with a three-dimensional computer model
JP2660707B2 (en) How to pick 3D figures
JP2001291119A (en) Device and method for controlling user interface and program providing medium
CN111612874B (en) 3D drawing board for drawing complex model
EP4302938A1 (en) Display system and teaching system
EP4382266A1 (en) Holding parameter estimation device and holding parameter estimation method
JP2988936B2 (en) 3D graphics processing unit
JPH07175944A (en) Method for arranging three-dimensional model
JP2019171499A (en) Robot interference determination device, robot interference determination method and program
JP2024004619A (en) Method, system, and computer program for evaluating object recognition using camera
JPH10340157A (en) Coordinate designating device
JP2019171500A (en) Robot interference determination device, robot interference determination method and program
JPH0218670A (en) Cad device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020305