JP2011161549A - Device for displaying robot movement track - Google Patents

Device for displaying robot movement track Download PDF

Info

Publication number
JP2011161549A
JP2011161549A JP2010025366A JP2010025366A JP2011161549A JP 2011161549 A JP2011161549 A JP 2011161549A JP 2010025366 A JP2010025366 A JP 2010025366A JP 2010025366 A JP2010025366 A JP 2010025366A JP 2011161549 A JP2011161549 A JP 2011161549A
Authority
JP
Japan
Prior art keywords
approach
robot
point
object surface
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010025366A
Other languages
Japanese (ja)
Other versions
JP5445191B2 (en
Inventor
Tomoya Yamamoto
智哉 山本
Shigenori Kozuka
重徳 小塚
Minoru Takahashi
稔 高橋
Shinji Iida
慎二 飯田
Shogo Kabetani
昇吾 壁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2010025366A priority Critical patent/JP5445191B2/en
Publication of JP2011161549A publication Critical patent/JP2011161549A/en
Application granted granted Critical
Publication of JP5445191B2 publication Critical patent/JP5445191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To find such a location that a movement track of a hand of a robot approaches a surface of an object possibly interfering with robot movement while an operator can know the movement track of the hand of the robot. <P>SOLUTION: While the movement track 24 of the hand of the robot is displayed in a conventional display format without any change from conventional devices, approach regions 31 and 32 containing approaching points are displayed distinctively from a region not containing the approaching point for surface figures 22 and 23 of the object, if the approaching point at a predetermined distance or shorter from the movement track 24 of the hand of the robot is present. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、ロボットの周囲に存在する例えば設備機器やワーク等の物体の物体表面図形と、ロボットの例えば手先等の特定箇所の動作軌跡とを同一画面上で表示するロボットの動作軌跡表示装置に関する。   The present invention relates to a robot motion trajectory display device that displays on the same screen an object surface figure of an object such as equipment or a workpiece existing around a robot and a motion trajectory of a specific location such as a hand of the robot on the same screen. .

従来より、ロボットの例えば手先等の特定箇所の動作軌跡を表示する構成がある。ところで、従来は単にロボットの特定箇所の動作軌跡を表示するだけである。そのため、例えばロボットの動作領域の周囲に設備機器が固定的に設置されていたりロボットの動作によりワークが移動されたりする構成では、それら設備機器やワーク(以下、物体と称する)がロボットの動作を妨げ得る位置に存在していたとしても、ロボットの特定箇所の動作軌跡と物体との相対的な位置関係を報知することはなかった。そのため、ロボットの特定箇所が物体に接触するトラブルを回避するための安全管理は作業者の判断に委ねられていた。このよう事情から、ロボットの特定箇所の動作軌跡と物体との相対的な位置関係を報知し、作業者が安全管理を容易に行う構成が望まれている。   2. Description of the Related Art Conventionally, there is a configuration for displaying an operation trajectory of a specific portion such as a hand of a robot. By the way, conventionally, the operation locus of a specific part of the robot is simply displayed. Therefore, for example, in a configuration in which equipment is fixedly installed around the operation area of the robot or the workpiece is moved by the movement of the robot, the equipment or the work (hereinafter referred to as an object) performs the operation of the robot. Even if it exists at a position where it can be obstructed, the relative positional relationship between the movement locus of the specific part of the robot and the object is not notified. Therefore, the safety management for avoiding the trouble that the specific part of the robot touches the object is left to the judgment of the operator. Under such circumstances, a configuration is desired in which the relative positional relationship between the motion locus of a specific portion of the robot and the object is notified, and the worker can easily perform safety management.

一方、動作軌跡と物体との相対的な位置関係を報知する技術として、車両の任意の高さ(例えばバンパーの高さ)の動作軌跡を車載カメラにて撮影された画像に重畳表示することで、車両の任意の高さの動作軌跡と物体(例えば他の車両や壁等)との相対的な位置関係を報知する構成が開示されている(例えば特許文献1参照)。   On the other hand, as a technique for notifying the relative positional relationship between the motion trajectory and the object, the motion trajectory at an arbitrary height of the vehicle (for example, the height of the bumper) is superimposed and displayed on the image captured by the in-vehicle camera. A configuration is disclosed in which a relative positional relationship between an operation locus of an arbitrary height of a vehicle and an object (for example, another vehicle or a wall) is notified (see, for example, Patent Document 1).

特開2002−314991公報JP 2002-314991 A

ロボットの特定箇所の動作軌跡を表示する構成に、特許文献1に開示されている車両の任意の高さの動作軌跡と物体との相対的な位置関係を報知する技術を適用すれば、ロボットの特定箇所の動作軌跡と物体との相対的な位置関係を報知することが可能になると考えられる。   If the technology for notifying the relative positional relationship between the motion trajectory of an arbitrary height of the vehicle and the object disclosed in Patent Document 1 is applied to the configuration that displays the motion trajectory of a specific location of the robot, It is considered that it is possible to notify the relative positional relationship between the motion locus of the specific location and the object.

この場合、ロボットの特定箇所の動作軌跡が物体に接近する箇所を作業者が容易に判別可能となるようにロボットの特定箇所の動作軌跡を太くすることが想定される。ところが、ロボットの特定箇所の動作軌跡が1箇所だけでなく複数箇所で物体に接近したり、ロボットの特定箇所の動作軌跡が物体に接近する箇所が重複したりすること等が十分に予想されることから、そのような場合にロボットの特定箇所の動作軌跡が太く表示されていると、作業者が確認したい動作軌跡が物体に接近する箇所だけでなく接近しない箇所までも太く表示され、しかも、どの方向から見ても一様に太く表示されるので、動作軌跡が重複することで見難くなる。   In this case, it is assumed that the motion trajectory of the specific part of the robot is made thick so that the operator can easily determine the part where the motion trajectory of the specific part of the robot approaches the object. However, it is sufficiently anticipated that the movement locus of a specific part of the robot will approach the object at a plurality of places as well as one place, or that the movement locus of the specific part of the robot will approach the object. Therefore, in such a case, if the motion trajectory of a specific part of the robot is displayed thick, not only the part where the operator wants to confirm the motion trajectory approaches the object but also the part where it does not approach, Since it is displayed uniformly thick even when viewed from any direction, it becomes difficult to see due to overlapping motion trajectories.

又、ロボットの特定箇所の動作軌跡を幾つかの区間に区切って色を変えることが想定されるが、見易い色で表示される区間が増えると、当然色数には限界があるので、類似した色(同系色)で表示せざるを得ず、区間を区別し難くなる。即ち、ロボットの特定箇所の動作軌跡が車両の動作軌跡に比べて極めて複雑であるという事情から、ロボットの特定箇所の動作軌跡を太くしたり色を変えたりしたとしても、ロボットの特定箇所の動作軌跡が物体の何れの箇所に接近するかが判然としない画面を表示し得るに過ぎない。又、動作軌跡を太くしたり色を変えたりすることで本来の動作軌跡が見難くなってしまう虞もある。   In addition, it is assumed that the movement locus of a specific part of the robot is divided into several sections and the color is changed. However, as the number of sections that are displayed in easy-to-see colors increases, there is naturally a limit to the number of colors. It must be displayed in color (similar colors), making it difficult to distinguish sections. In other words, due to the fact that the motion trajectory of a specific location of the robot is extremely complex compared to the motion trajectory of the vehicle, even if the motion trajectory of the specific location of the robot is thickened or the color is changed, the motion of the specific location of the robot It is only possible to display a screen in which it is not clear which part of the object the locus approaches. Moreover, there is a possibility that the original operation locus becomes difficult to see by thickening the operation locus or changing the color.

本発明は、上記した事情に鑑みてなされたものであり、その目的は、作業者がロボットの特定箇所の動作軌跡を把握することができながら、しかも、ロボットの特定箇所の動作軌跡がロボットの動作を妨げ得る物体表面に接近する箇所を把握することができ、安全管理を容易に行うことを可能とするロボットの動作軌跡表示装置を提供することにある。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to allow an operator to grasp the motion locus of a specific portion of the robot while the motion locus of the specific portion of the robot is An object of the present invention is to provide a robot motion trajectory display device capable of grasping a location approaching the surface of an object that can hinder the motion and easily performing safety management.

請求項1に記載した発明によれば、表示制御手段は、動作軌跡データ記憶手段に記憶されている動作軌跡データにより特定されるロボットの特定箇所の動作軌跡と、物体表面図形データ記憶手段に記憶されている物体表面図形データにより特定される物体表面図形とを同一画面上に含む動作軌跡表示画面を表示手段に表示させる。ベクトル生成手段は、ロボットの特定箇所の動作軌跡上において一定時間間隔で取得されるサンプリング点毎に、各サンプリング点を基点として当該サンプリング点から当該動作軌跡と直交する面方向に一定距離に延びるベクトルを周方向に一定角度で段階的に進めて放射状に複数生成し、接近判定手段は、ベクトル生成手段により生成されたベクトルと、物体表面図形データ記憶手段に記憶されている物体表面図形データとを照合し、ベクトルと物体表面とが交差するか否かを判定し、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近するか否かを判定する。接近点特定手段は、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近すると接近判定手段により判定されると、ロボットの特定箇所の動作軌跡からの距離が一定距離以下である物体表面上の点を接近点として特定し、接近サンプリング点特定手段は、接近点特定手段により接近点が特定されたサンプリング点を接近サンプリング点として特定する。そして、表示制御手段は、物体表面図形にて接近点特定手段により特定された接近点が含まれる領域である接近領域と当該接近点が含まれない領域である非接近領域とを区分して動作軌跡表示画面に表示させる。   According to the first aspect of the present invention, the display control means stores the movement locus of the specific part of the robot specified by the movement locus data stored in the movement locus data storage means and the object surface graphic data storage means. An operation locus display screen including the object surface graphic specified by the object surface graphic data being displayed on the same screen is displayed on the display means. The vector generating means is a vector extending from the sampling point to a certain distance in a plane direction orthogonal to the motion trajectory from each sampling point for each sampling point acquired at regular time intervals on the motion trajectory of a specific location of the robot. Are generated stepwise in the circumferential direction at a certain angle to generate a plurality of radial shapes, and the approach determining means generates the vector generated by the vector generating means and the object surface graphic data stored in the object surface graphic data storing means. Collation is performed to determine whether or not the vector and the object surface intersect, and it is determined whether or not the motion trajectory of the specific portion of the robot approaches a certain distance or less to the object surface. The approach point specifying unit is configured such that when the movement trajectory of the specific part of the robot approaches a certain distance or less to the object surface, the object surface whose distance from the movement trajectory of the specific part of the robot is equal to or less than the predetermined distance The upper point is specified as the approach point, and the approach sampling point specifying means specifies the sampling point whose approach point is specified by the approach point specifying means as the approach sampling point. The display control means operates by classifying an approach area that is an area including the approach point specified by the approach point specifying means on the object surface graphic and a non-access area that is an area not including the approach point. Display on the track display screen.

これにより、ロボットの特定箇所の動作軌跡については、従来から何ら変更することなく従来通りの表示態様で表示することで、作業者はロボットの特定箇所の動作軌跡を従来と同様の感覚で把握することができる。又、物体表面図形については、ロボットの特定箇所の動作軌跡から一定距離以下である接近点が存在すると、接近点が含まれる接近領域と接近点が含まれない非接近領域とを区分して表示することで、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所を把握することができる。   As a result, the operation locus of the specific location of the robot is displayed in the conventional display form without any change, so that the operator can grasp the operation locus of the specific location of the robot with the same feeling as before. be able to. For object surface graphics, if there is an approach point that is less than a certain distance from the motion trajectory of a specific part of the robot, the approach area that includes the approach point and the non-access area that does not include the approach point are displayed separately. By doing so, the operator can grasp the location where the motion locus of the specific location of the robot approaches the object surface within a certain distance or less.

この場合、物体表面図形を面として表示するのに対し、ロボットの特定箇所の動作軌跡を線として表示し、即ち、物体表面図形をロボットの特定箇所の動作軌跡よりも十分に大きな領域で表示するので、作業者はロボットの特定箇所の動作軌跡が物体表面に接近する領域を線ではなく面として把握することができ、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所をより確実に把握することができる。その結果、作業者は安全管理を容易に行うことができる。   In this case, the object surface graphic is displayed as a plane, whereas the motion trajectory of a specific part of the robot is displayed as a line, that is, the object surface graphic is displayed in an area sufficiently larger than the motion trajectory of the specific part of the robot. Therefore, the operator can grasp the region where the motion trajectory of the specific location of the robot approaches the object surface as a surface instead of a line, and the location where the motion trajectory of the specific location of the robot approaches a certain distance or less to the object surface. It is possible to grasp more reliably. As a result, the worker can easily perform safety management.

請求項2に記載した発明によれば、最接近点特定手段は、接近点特定手段により複数の接近点が特定されると、複数の接近点のうち接近サンプリング点からの距離が最短である接近点を最接近点として特定し、最接近サンプリング点特定手段は、最接近点特定手段により最接近点が特定された接近サンプリング点を最接近サンプリング点として特定する。そして、表示制御手段は、物体表面図形にて最接近サンプリング点特定手段により特定された最接近サンプリング点から最接近点特定手段により特定された最接近点までの距離及び方向を特定する指標を動作軌跡表示画面に表示させる。   According to the second aspect of the present invention, the closest approach point specifying means, when a plurality of approach points are specified by the approach point specifying means, is the approach that has the shortest distance from the approach sampling point among the plurality of approach points. The point is specified as the closest point, and the closest sampling point specifying unit specifies the approach sampling point whose closest point is specified by the closest point specifying unit as the closest sampling point. The display control means operates an index that specifies the distance and direction from the closest sampling point specified by the closest sampling point specifying means to the closest point specified by the closest approach point specifying means on the object surface graphic. Display on the track display screen.

これにより、作業者はロボットの特定箇所の動作軌跡が物体表面に最接近している距離及び方向をも把握することができる。即ち、最接近サンプリング点から最接近点までの距離及び方向を特定する指標は1箇所だけで表示することになるので、視点変更することでロボットの特定箇所の動作軌跡と指標とが重ならない視点方向(角度)を得ることで、作業者はロボットの特定箇所の動作軌跡が物体表面に最接近している箇所を直感的に把握することができる。   Thereby, the operator can also grasp the distance and direction in which the motion locus of the specific part of the robot is closest to the object surface. In other words, since the index for specifying the distance and direction from the closest sampling point to the closest point is displayed in only one place, the viewpoint in which the movement locus of the specific place of the robot and the index do not overlap by changing the viewpoint. By obtaining the direction (angle), the operator can intuitively grasp the location where the motion locus of the specific location of the robot is closest to the object surface.

請求項3に記載した発明によれば、グループ化手段は、接近点特定手段により複数の接近点が特定されると、複数の接近点のうち隣り合う接近点同士を同一グループとする一方で隣り合わない接近点同士を別グループとするようにグループ化する。そして、表示制御手段は、複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が別グループとされるようにグループ化手段によりグループ化されて複数のグループが生成されると、物体表面図形にて複数のグループのうち一のグループに属する接近点が含まれる領域である一の接近領域と他のグループに属する接近点が含まれる領域である他の接近領域とを区分して動作軌跡表示画面に表示させる。   According to the invention described in claim 3, when the plurality of approach points are specified by the approach point specifying means, the grouping means sets adjacent approach points among the plurality of approach points as the same group while adjacent to each other. Group the approach points that do not match into different groups. Then, the display control means is grouped by the grouping means so that the adjacent approach points among the plurality of approach points are made into the same group while the approach points that are not adjacent to each other are made into different groups. When a group is generated, one surface area that includes an approach point belonging to one group among a plurality of groups in the object surface graphic and another area that includes an approach point belonging to another group The approaching area is divided and displayed on the motion trajectory display screen.

これにより、例えばロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に近づく区間と物体から遠ざかる区間とを交互に繰り返す波形状であり、ロボットの特定箇所の動作軌跡が物体表面まで断続的に接近するような場合であっても、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所を区間毎に区別した上で把握することができる。   As a result, for example, the motion trajectory of a specific part of the robot has a wave shape that alternately repeats a section close to a certain distance to the object surface and a section away from the object, and the motion trajectory of the specific part of the robot intermittently reaches the object surface. Even in the case of approaching, the operator can grasp the movement locus of a specific portion of the robot by distinguishing the portion where the movement locus approaches a certain distance or less to the object surface for each section.

請求項4に記載した発明によれば、重複判定手段は、複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が同一グループとされないようにグループ化手段によりグループ化されて複数のグループが生成されると、複数のグループに跨って重複する接近点が存在するか否かを判定する。そして、表示制御手段は、複数のグループに跨って重複する接近点が存在すると重複判定手段により判定されると、重複する接近点が含まれる領域と重複する接近点が含まれない領域とを区分して動作軌跡表示画面に表示させる。   According to the invention described in claim 4, the duplication determination means is grouped so that adjacent approach points among a plurality of approach points are made into the same group, but non-adjacent approach points are not made into the same group. When a plurality of groups are generated by grouping by means, it is determined whether or not there is an approaching point that overlaps across the plurality of groups. The display control means distinguishes between the area including the overlapping approach points and the area not including the overlapping approach points when it is determined by the overlap determination means that there are overlapping approach points across a plurality of groups. To display it on the motion trajectory display screen.

これにより、例えばロボットの特定箇所の動作軌跡がループする等して重複する(一度通過した地点を再度通過して交差する)ような場合であっても、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所が重複しているか否かを把握することができる。   Thus, for example, even when the motion trajectory of a specific location of the robot overlaps by looping or the like (passes once through a location that has passed once), the operator can trace the motion trajectory of the specific location of the robot. It can be ascertained whether or not there are overlapping points that approach the object surface within a certain distance.

請求項5に記載した発明によれば、跨り判定手段は、接近点特定手段により特定された隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在するか否かを判定する。そして、表示制御手段は、隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在すると跨り判定手段により判定されると、隣り合う接近点同士が含まれる領域を一の表面上と他の表面上とに跨って動作軌跡表示画面に表示させる。   According to the invention described in claim 5, the straddling determination unit is configured such that adjacent approach points specified by the approach point specifying unit straddle between one surface and another surface with the same object surface graphic. Determine if it exists. The display control means determines that the adjacent approach points are adjacent to each other when the adjacent determination points determine that the adjacent approach points exist on one surface and the other surface in the same object surface graphic. The included region is displayed on the motion trajectory display screen across one surface and the other surface.

これにより、ロボットの特定箇所の動作軌跡が複数の表面上に跨って接近するような場合であっても、作業者はロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近する箇所を複数の表面上に跨って把握することができる。   As a result, even if the motion trajectory of the specific location of the robot approaches across multiple surfaces, the operator can identify the location where the motion trajectory of the specific location of the robot approaches a certain distance or less to the object surface. It is possible to grasp over a plurality of surfaces.

請求項6に記載した発明によれば、表示手段は、ロボットの特定箇所の動作軌跡と物体表面図形とを同一画面上に含む動作軌跡表示画面と、ロボットの特定箇所の動作軌跡を動画再生する動画再生表示画面とを同時に表示可能に構成され、再生区間設定手段は、接近点特定手段により特定された接近点が含まれる領域である接近領域のうち動作軌跡表示画面の最も中央側で且つ光軸の最も手前側に表示されている接近領域に対応するロボットの特定箇所の動作軌跡を再生区間として設定する。動画拡縮率設定手段は、動画再生表示画面に表示されている動画の拡縮率を設定し、再生速度設定手段は、動画拡縮率設定手段により設定された拡縮率に反比例するように動画の再生速度を設定する。そして、表示制御手段は、再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、動画拡縮率設定手段により設定された拡縮率に反比例するように再生速度設定手段により設定された再生速度で動画再生表示画面に表示させる。   According to the sixth aspect of the present invention, the display means reproduces the motion trajectory display screen including the motion trajectory of the specific location of the robot and the object surface graphic on the same screen, and the motion trajectory of the specific location of the robot as a moving image. The playback section setting means is configured to display the moving image playback display screen at the same time, and the playback section setting means is a light source located on the most central side of the motion trajectory display screen in the approach area that includes the approach point specified by the approach point specifying means. The motion trajectory of a specific part of the robot corresponding to the approach area displayed on the most front side of the axis is set as a playback section. The video enlargement / reduction ratio setting means sets the enlargement / reduction ratio of the video displayed on the video playback display screen, and the playback speed setting means sets the video playback speed so that it is inversely proportional to the enlargement / reduction ratio set by the video enlargement / reduction ratio setting means. Set. Then, the display control means uses the playback speed setting means so that the motion trajectory of the specific part of the robot set as the playback section by the playback section setting means is inversely proportional to the scaling ratio set by the video scaling ratio setting means. Display on the video playback display screen at the set playback speed.

これにより、動作軌跡表示画面の最も中央側で且つ光軸の最も手前側に表示されている接近領域に対応するロボットの特定箇所の動作軌跡を動画により表示することで、作業者はロボットの特定箇所の動作軌跡が動作軌跡表示画面の最も中央側で且つ光軸の最も手前側の接近領域にどのように接近するかを一連の動作により把握することができる。すなわち、動作軌跡表示画面に複数の接近領域が表示されている状況では、作業者は動画を表示させたい接近領域を動作軌跡表示画面の中央側で且つ光軸の手前側(物体の表面側)に表示させるように視点を変更するのが一般的である(わざわざ動作軌跡表示画面の端側や光軸の奥側(物体の裏面側)に表示させるように視点を変更することはない)ことを鑑みると、作業者は所望とする接近領域にどのように接近するかを容易に把握することができる。又、この場合、作業者がロボットの特定箇所の動作軌跡がどのように接近するかを確実に把握するために動画を拡大することを想定すると、その動画を拡大したことと反比例して動画の再生速度を遅くすることで、ロボットの特定箇所の動作軌跡が接近する箇所を精密に視認したいという作業者の意思に沿った再生速度で動画を表示することができ、作業者は精密に視認したい箇所を意思通りに精密に視認することができる。   This allows the operator to identify the robot by displaying the motion trajectory of the specific part of the robot corresponding to the approach area displayed on the most central side of the motion trajectory display screen and on the most front side of the optical axis. It can be grasped by a series of operations how the motion trajectory of the location approaches the approach area closest to the center of the motion trajectory display screen and closest to the optical axis. That is, in a situation where a plurality of approach areas are displayed on the motion trajectory display screen, the operator selects the approach area on which the moving image is to be displayed on the center side of the motion trajectory display screen and on the near side of the optical axis (the object surface side). It is common to change the viewpoint so that it is displayed on the screen (the purpose is not to change the viewpoint so that it is displayed on the end side of the motion trajectory display screen or on the back side of the optical axis (the back side of the object)). In view of the above, the operator can easily grasp how to approach the desired approach area. In this case, if it is assumed that the operator enlarges the movie in order to ascertain how the movement locus of a specific part of the robot approaches, the animation will be inversely proportional to the enlargement of the movie. By slowing down the playback speed, it is possible to display a video at a playback speed that is in line with the operator's intention to precisely view the location where the robot's specific movement is approaching. You can see the location precisely as you wish.

請求項7に記載した発明によれば、表示制御手段は、再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、動作軌跡表示画面の光軸と同一の光軸を有する視点、接近領域と直交する光軸を有する視点、接近領域と平行で且つ動作軌跡と当該接近領域との中間に位置する光軸を有する視点の順序にしたがって動画再生表示画面に表示させる。   According to the seventh aspect of the present invention, the display control means displays the motion trajectory moving image of the specific part of the robot set as the playback section by the playback section setting means with the same optical axis as the optical axis of the motion trajectory display screen. And a viewpoint having an optical axis perpendicular to the approach area, a viewpoint parallel to the approach area, and a viewpoint having an optical axis located in the middle of the motion trajectory and the approach area.

これにより、作業者は最初にロボットの特定箇所の動作を大まかに把握することができ、続いてロボットの特定箇所がどのように接近するかを接近領域からの視点で把握することができ、続いてロボットの特定箇所と接近領域との距離感を把握することができ、このように視点を順次切替えても違和感を生じることなく、ロボットの特定箇所がどのように接近するかを容易に把握することができる。   As a result, the worker can first roughly grasp the movement of the specific part of the robot, and then can grasp how the specific part of the robot approaches from the viewpoint of the approaching area. The distance between the specific part of the robot and the approach area can be grasped, and it is easy to grasp how the specific part of the robot approaches without causing a sense of incongruity even if the viewpoints are sequentially switched in this way. be able to.

本発明の第1の実施形態を示す全体構成図1 is an overall configuration diagram showing a first embodiment of the present invention. 機能ブロック図Functional block diagram XY平面からの方向に視点変更した図Figure with the viewpoint changed in the direction from the XY plane ZX平面からの方向に視点変更した図Figure with the viewpoint changed in the direction from the ZX plane YZ平面からの方向に視点変更した図Figure with the viewpoint changed in the direction from the YZ plane 図3相当図3 equivalent figure 図4相当図4 equivalent diagram 図5相当図Figure equivalent to FIG. フローチャートflowchart 図9相当図Fig. 9 equivalent 図9相当図Fig. 9 equivalent 図9相当図Fig. 9 equivalent 接近点のグループを特定する態様を示す図The figure which shows the aspect which identifies the group of an approach point ロボットの手先の動作軌跡及び接近判定領域を示す図The figure which shows the movement locus | trajectory and approach determination area | region of the hand of a robot 接近領域が表示される態様を示す図The figure which shows the aspect by which an approach area | region is displayed 接近領域及び矢印が表示される態様を示す斜視図The perspective view which shows the aspect by which an approach area | region and an arrow are displayed 図16相当図16 equivalent diagram 図16相当図16 equivalent diagram サンプリング時間と角度との関係を示す図Diagram showing the relationship between sampling time and angle ロボットの手先の動作軌跡と物体との関係を示す図The figure which shows the relation between the movement locus of the hand of the robot and the object 図20相当図FIG. 20 equivalent diagram 図20相当図FIG. 20 equivalent diagram 接近領域及び矢印が表示される態様を示す平面図The top view which shows the aspect by which an approach area | region and an arrow are displayed 図3相当図3 equivalent figure 図4相当図4 equivalent diagram 図5相当図Figure equivalent to FIG. 本発明の第2の実施形態を示す機能ブロック図Functional block diagram showing a second embodiment of the present invention 全体ビューウィンドウ及び動画ビューウィンドウが表示される態様を示す図The figure which shows the aspect by which a whole view window and a moving image view window are displayed 図9相当図Fig. 9 equivalent 動画が表示される態様を示す図The figure which shows the mode where the animated picture is displayed 図30相当図30 equivalent diagram 図30相当図30 equivalent diagram 図30相当図30 equivalent diagram

(第1の実施形態)
以下、本発明の第1の実施形態について図1乃至図26を参照して説明する。尚、本実施形態では特定箇所の動作軌跡を表示する対象を例えば6軸の垂直多関節型ロボットとして説明するが、別型のロボットであっても良い。ロボットの動作軌跡表示装置としてのシミュレータは、図1に示すように、パーソナルコンピュータ(以下、パソコンと称する)1を主体として構成されている。パソコン1は、パソコン本体2に、出力装置としての例えば3次元のグラフィック表示が可能な液晶ディスプレイ装置からなる表示装置3(本発明でいう表示手段)が接続されていると共に、入力装置としての例えばキーボード4及びマウス5が接続されて構成されている。
(First embodiment)
A first embodiment of the present invention will be described below with reference to FIGS. In the present embodiment, the target for displaying the motion trajectory at a specific location is described as, for example, a six-axis vertical articulated robot, but another type of robot may be used. As shown in FIG. 1, a simulator as a robot motion trajectory display device is mainly composed of a personal computer (hereinafter referred to as a personal computer) 1. The personal computer 1 is connected to a personal computer main body 2 with a display device 3 (display means in the present invention) composed of a liquid crystal display device capable of three-dimensional graphic display as an output device. A keyboard 4 and a mouse 5 are connected.

パソコン本体2は、図2に示すように、CPU6(本発明でいう表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段)、ROM7、RAM8、大容量記憶装置としてのハードディスク(HDD:Hard Disk Drive)9(本発明でいう動作軌跡データ記憶手段、物体表面図形データ記憶手段)及びインタフェース(I/F)10等を備えて構成され、インタフェース10に上記した表示装置3、キーボード4及びマウス5が接続されている。尚、入力装置としてキーボード4やマウス5に代えてタッチパネルやタッチペンが採用されても良い。   As shown in FIG. 2, the personal computer main body 2 includes a CPU 6 (display control means, vector generation means, approach determination means, approach point specifying means, approach sampling point specifying means, closest approach point specifying means, closest approach sampling, as referred to in the present invention. Point identification means, grouping means, duplication judgment means, straddle judgment means), ROM 7, RAM 8, hard disk drive (HDD: Hard Disk Drive) 9 as mass storage device (operation trajectory data storage means in the present invention, object surface figure) Data storage means), an interface (I / F) 10 and the like, and the display device 3, the keyboard 4 and the mouse 5 are connected to the interface 10. Note that a touch panel or a touch pen may be employed as the input device instead of the keyboard 4 and the mouse 5.

ハードディスク9には各種データを記憶するデータ記憶領域9aと各種プログラムを記憶するプログラム記憶領域9bとが設けられている。データ記憶領域9aには、動作軌跡の表示対象であるロボットの位置及び形状を特定するロボット図形データ10aと、ロボットの手先(本発明でいう特定箇所)の動作軌跡を特定する動作軌跡データ10bと、物体表面の位置及び形状を特定する物体表面図形データ10cとが記憶されている。ここでいう物体とはロボットの動作領域の周囲に固定的に設置されている設備機器やロボットの動作により移動されるワーク等である。   The hard disk 9 is provided with a data storage area 9a for storing various data and a program storage area 9b for storing various programs. In the data storage area 9a, robot graphic data 10a for specifying the position and shape of the robot that is the display target of the operation locus, and operation locus data 10b for specifying the operation locus of the hand of the robot (specific portion in the present invention) The object surface graphic data 10c for specifying the position and shape of the object surface are stored. The term “object” as used herein refers to equipment that is fixedly installed around the operation area of the robot, a work that is moved by the operation of the robot, or the like.

プログラム記憶領域9bには、ロボットの位置及び形状を特定するロボット図形を表示(描画)するためのロボット図形表示プログラム11aと、ロボットの手先の動作軌跡を表示するための動作軌跡表示プログラム11bと、物体表面の位置及び形状を特定する物体表面図形を表示するための物体表面図形表示プログラム11cとが記憶されており、更に本発明の特徴であるロボットの手先の動作軌跡が物体表面まで一定距離以下に接近するか否かを判定するための接近判定プログラム11dが記憶されている。尚、プログラム記憶領域9bには、上記したプログラムの他に、ティーチングを行うためのティーチングプログラムや、ロボットを設計するための3次元CADプログラム等が記憶されていても良い。   In the program storage area 9b, a robot graphic display program 11a for displaying (drawing) a robot graphic for specifying the position and shape of the robot, an operation trajectory display program 11b for displaying an operation trajectory of the hand of the robot, An object surface graphic display program 11c for displaying an object surface graphic for specifying the position and shape of the object surface is stored, and the motion trajectory of the robot hand, which is a feature of the present invention, is less than a certain distance to the object surface. An approach determination program 11d for determining whether or not the vehicle approaches is stored. In addition to the above-described programs, the program storage area 9b may store a teaching program for performing teaching, a three-dimensional CAD program for designing a robot, and the like.

CPU6は、作業者がキーボード4やマウス5にて表示指令操作を行ったと判定すると、データ記憶領域9aからロボット図形データ10aを読出し、プログラム記憶領域9bに記憶されているロボット図形表示プログラム11aを実行することでロボットの位置及び形状を特定するロボット図形を含む表示画面を表示させ、データ記憶領域9aから動作軌跡データ10bを読出し、プログラム記憶領域9bに記憶されている動作軌跡表示プログラム11bを実行することでロボットの手先の動作軌跡を含む表示画面を表示させ、データ記憶領域9aから物体表面図形データ10cを読出し、プログラム記憶領域9bに記憶されている物体表面図形表示プログラム11cを実行することで物体表面の位置及び形状を特定する物体表面図形を含む表示画面を表示させる。   When the CPU 6 determines that the operator has performed a display command operation with the keyboard 4 or the mouse 5, the CPU 6 reads the robot graphic data 10a from the data storage area 9a and executes the robot graphic display program 11a stored in the program storage area 9b. As a result, a display screen including a robot figure for specifying the position and shape of the robot is displayed, the operation locus data 10b is read from the data storage area 9a, and the operation locus display program 11b stored in the program storage area 9b is executed. By displaying the display screen including the movement locus of the robot's hand, the object surface graphic data 10c is read from the data storage area 9a, and the object surface graphic display program 11c stored in the program storage area 9b is executed. Includes object surface graphics that identify the position and shape of the surface. To display the display screen.

CPU6は、初期状態(作業者がキーボード4やマウス5にて表示指令操作を行った直後の状態)では上記したロボット図形と物体表面図形とを適当な視点から見た3次元画像として斜視図的に表示させる。ここで、CPU6は、作業者がキーボード4やマウス5にてXY平面で表示するように視点を変更する視点変更操作を行ったと判定すると、図3に示すようにロボット図形21と物体表面図形22、23とをXY平面からの方向に視点変更して表示させ、作業者がキーボード4やマウス5にて例えばZX平面で表示するように視点を変更する視点変更操作を行ったと判定すると、図4に示すようにロボット図形21と物体表面図形22、23とをZX平面からの方向に視点変更して表示させ、作業者がキーボード4やマウス5にて例えばYZ平面で表示するように視点を変更する視点変更操作を行ったと判定すると、図5に示すようにロボット図形21と物体表面図形22、23とをYZ平面からの方向に視点変更して表示させる。   In an initial state (a state immediately after the operator performs a display command operation with the keyboard 4 or the mouse 5), the CPU 6 is a perspective view as a three-dimensional image obtained by viewing the robot figure and the object surface figure from an appropriate viewpoint. To display. If the CPU 6 determines that the operator has performed a viewpoint changing operation to change the viewpoint so that the keyboard 4 or the mouse 5 displays on the XY plane, the robot figure 21 and the object surface figure 22 are shown in FIG. , 23 are displayed with the viewpoint changed in the direction from the XY plane, and it is determined that the operator has performed a viewpoint change operation for changing the viewpoint so that the keyboard 4 or the mouse 5 displays it on the ZX plane, for example. The robot figure 21 and the object surface figures 22 and 23 are displayed with the viewpoint changed in the direction from the ZX plane, and the viewpoint is changed so that the operator can display on the YZ plane with the keyboard 4 or the mouse 5, for example. If it is determined that the viewpoint changing operation is performed, the robot figure 21 and the object surface figures 22 and 23 are displayed with the viewpoint changed in the direction from the YZ plane as shown in FIG.

尚、上記した図3乃至図5はロボットが動作開始時の姿勢であり、ロボットの手先の動作軌跡が表示されていない状態を示しているが、CPU6は、ロボットが動作中の姿勢であれば動作開始時からの動作軌跡が存在することになるので、図6乃至図8に示すようにロボット図形21と物体表面図形22、23とに加えてロボットの手先の動作軌跡24をも表示させる。尚、ロボットの手先の動作軌跡24の表示態様(線の太さ、色、種別等)は作業者が任意に設定可能(選択可能)となっている。尚、物体表面図形22、23とロボットの手先の動作軌跡24とが同一画面上で表示される画面が動作軌跡表示画面である。   Note that FIGS. 3 to 5 are postures when the robot starts to move, and the movement locus of the robot's hand is not displayed. However, the CPU 6 is in a posture where the robot is moving. Since there is an operation locus from the start of the operation, the operation locus 24 of the hand of the robot is displayed in addition to the robot graphic 21 and the object surface graphics 22 and 23 as shown in FIGS. Note that the display mode (line thickness, color, type, etc.) of the motion locus 24 of the robot hand can be arbitrarily set (selectable) by the operator. A screen on which the object surface graphics 22 and 23 and the motion locus 24 of the hand of the robot are displayed on the same screen is the motion locus display screen.

次に、上記した構成の作用として、CPU6が上記した接近判定プログラムを実行することで本発明の特徴である接近判定処理を行う場合について、図9乃至図26を参照して説明する。図9乃至図12はCPU6が行う接近判定処理をフローチャートにより示している。   Next, as an operation of the above-described configuration, a case where the CPU 6 executes the above-described approach determination program to perform an approach determination process that is a feature of the present invention will be described with reference to FIGS. 9 to 26. 9 to 12 show the approach determination process performed by the CPU 6 in a flowchart.

CPU6は、例えば作業者がキーボード4やマウス5にて接近判定指令操作を行ったと判定すると、接近判定プログラム11dを実行して接近判定処理を開始する。尚、本実施形態のように作業者が接近判定指令操作を行ったことを契機として接近判定プログラム11dを実行しても良いし、上記したように動作軌跡表示プログラムを実行する同時に接近判定プログラム11dを自動的に実行しても良く、即ち、ロボットの手先の動作軌跡を表示させると同時に接近判定処理を必然的に実行しても良い。   For example, when the CPU 6 determines that the operator has performed an approach determination command operation with the keyboard 4 or the mouse 5, the CPU 6 executes the approach determination program 11d and starts the approach determination process. Note that the approach determination program 11d may be executed in response to the operator performing an approach determination command operation as in the present embodiment, or at the same time as the operation locus display program is executed as described above. May be automatically executed, that is, the approach determination process may be necessarily executed at the same time as displaying the movement locus of the hand of the robot.

CPU6は、接近判定処理を開始すると、最初に物体表面上にロボットの手先の動作軌跡からの距離が一定距離以下である接近点が存在するか否かを判定する接近点存在判定処理を実行する(ステップS1)。ここで、CPU6は、接近点存在判定処理を実行したことで物体表面上に接近点が存在すると判定すると(ステップS2にて「YES」)、物体表面図形に当該接近点が含まれる接近領域を表示させる接近領域表示処理を実行し(ステップS3)、更にロボットの手先の動作軌跡からの距離が最短である最接近点まで矢印(本発明でいう指標)を接近領域上に重畳表示させる矢印表示処理を実行し(ステップS4)、接近判定処理を終了する。一方、CPU6は、接近点存在判定処理を実行したが、物体表面上に接近点が存在しないと判定すると(ステップS2にて「NO」)、接近領域表示処理及び矢印表示処理を実行することなく接近判定処理を終了する。以下、これら接近点存在判定処理、接近領域表示処理及び矢印表示処理について順次説明する。   When starting the approach determination process, the CPU 6 first executes an approach point presence determination process for determining whether or not there is an approach point whose distance from the movement locus of the hand of the robot is equal to or less than a certain distance on the object surface. (Step S1). If the CPU 6 determines that an approach point exists on the object surface by executing the approach point presence determination process (“YES” in step S2), the CPU 6 determines an approach region in which the approach point is included in the object surface graphic. The approach area display process to be displayed is executed (step S3), and an arrow (an index referred to in the present invention) is displayed on the approach area so as to be superimposed on the closest point where the distance from the movement locus of the robot's hand is the shortest. A process is performed (step S4) and an approach determination process is complete | finished. On the other hand, when the CPU 6 has executed the approach point presence determination process, but determines that there is no approach point on the object surface (“NO” in step S2), the CPU 6 does not execute the approach region display process and the arrow display process. The approach determination process ends. Hereinafter, the approach point presence determination process, the approach area display process, and the arrow display process will be sequentially described.

(1)接近点存在判定処理
CPU6は、接近判定処理から移行して接近点存在判定処理を開始すると、ロボットの動作開始から動作終了までに追従したロボットの手先の動作軌跡の始点から終点までを接近判定対象区間として設定し、一定時間間隔(サンプリング間隔)であるサンプリング点毎に物体表面までの距離が一定距離以下である接近点が存在するか否かを判定する処理を開始する(ステップS11)。尚、サンプリング間隔は作業者が任意に設定可能(選択可能)となっている。
(1) Approaching point presence determination process When the CPU 6 shifts from the approaching determination process and starts the approaching point presence determination process, the CPU 6 determines from the start point to the end point of the motion trajectory of the hand of the robot that has followed the robot from the start to the end of the operation. A process is set as an approach determination target section, and a process for determining whether or not there is an approach point having a distance to the object surface equal to or less than a certain distance for each sampling point having a certain time interval (sampling interval) is started (step S11). ). The sampling interval can be arbitrarily set (selected) by the operator.

CPU6は、最初にロボットの動作開始位置(始点)側のサンプリング点を判定対象として設定し(ステップS12)、その判定対象として設定したサンプリング点の位置を特定する動作軌跡データをデータ記憶領域9aから読出して取得すると共に、その時点での物体表面の位置及び形状を特定する物体表面図形データをデータ記憶領域9aから読出して取得する(ステップS13)。この場合、CPU6は、ロボットの周囲に複数の物体が存在する場合であれば、それら複数の物体の全てについて物体表面図形データをデータ記憶領域9aから読出して取得する。   The CPU 6 first sets a sampling point on the robot motion start position (starting point) side as a determination target (step S12), and acquires motion trajectory data for specifying the position of the sampling point set as the determination target from the data storage area 9a. In addition to reading and acquiring, object surface graphic data for specifying the position and shape of the object surface at that time is read and acquired from the data storage area 9a (step S13). In this case, if there are a plurality of objects around the robot, the CPU 6 reads and acquires object surface graphic data from all of the plurality of objects from the data storage area 9a.

次いで、CPU6は、判定対象として設定したサンプリング点にロボットの手先の動作軌跡と直交する面方向に角度を設定し、角度毎に接近点が存在するか否かを判定する処理を開始する(ステップS14)。CPU6は、ロボットの手先の動作軌跡と直交する面方向のうち何れかの角度を判定対象として設定し(ステップS15)、その判定対象として設定した角度の方向に一定距離に延びるベクトルを生成し、その生成したベクトルと物体表面図形データとを照合する(ステップS16)。ベクトルの一定距離も作業者が任意に設定可能(選択可能)となっている。即ち、作業者は、ロボットの手先の動作軌跡から近い位置で接近判定を実施したい場合であれば、ベクトルの一定距離として短い距離を設定すれば良く、一方、ロボットの手先の動作軌跡から遠い位置で接近判定を実施したい場合であれば、ベクトルの一定距離として長い距離を設定すれば良い。次いで、CPU6は、ベクトルと物体表面とが交差するか否かを判定し、物体表面上にロボットの特定箇所の動作軌跡からの距離が一定距離以下である点(領域)が存在するか否かを判定する(ステップS17)。   Next, the CPU 6 sets an angle in the surface direction orthogonal to the motion trajectory of the robot's hand at the sampling point set as the determination target, and starts a process of determining whether or not there is an approach point for each angle (step) S14). The CPU 6 sets any one of the surface directions orthogonal to the motion trajectory of the hand of the robot as a determination target (step S15), generates a vector extending a certain distance in the direction of the angle set as the determination target, The generated vector is collated with the object surface graphic data (step S16). The constant distance of the vector can also be arbitrarily set (selected) by the operator. In other words, if the operator wants to perform an approach determination at a position close to the motion locus of the robot's hand, a short distance may be set as a constant vector distance, while a position far from the motion locus of the robot's hand. If it is desired to carry out the approach determination, a long distance may be set as the constant distance of the vector. Next, the CPU 6 determines whether or not the vector and the object surface intersect, and whether or not there is a point (region) on the object surface whose distance from the motion locus of the specific location of the robot is equal to or less than a certain distance. Is determined (step S17).

ここで、CPU6は、ベクトルと物体表面とが交差すると判定し、物体表面上にロボットの特定箇所の動作軌跡からの距離が一定距離以下である点が存在すると判定すると(ステップS17にて「YES」)、物体表面上にロボットの特定箇所の動作軌跡からの距離が一定距離以下である点を接近点として特定し、その時点で判定対象として設定しているサンプリング点を接近サンプリング点として特定する(ステップS18)。次いで、CPU6は、その接近点が存在する物体を特定可能な物体情報、その時点で判定対象として設定しているサンプリング点、その時点で判定対象として設定している角度、その時点で判定対象として設定しているサンプリング点から接近点までの距離を含むデータを接近点データとして保存し、その時点でのサンプリング点を接近サンプリング点として特定する(ステップS19)。   Here, the CPU 6 determines that the vector and the object surface intersect, and determines that there is a point on the object surface whose distance from the motion locus of the specific location of the robot is equal to or less than a certain distance (“YES” in step S17). ]), A point on the object surface where the distance from the motion trajectory of a specific part of the robot is a certain distance or less is specified as an approach point, and a sampling point set as a determination target at that time is specified as an approach sampling point (Step S18). Next, the CPU 6 detects the object information that can identify the object where the approach point exists, the sampling point set as the determination target at that time, the angle set as the determination target at that time, and the determination target at that time Data including the distance from the set sampling point to the approach point is stored as approach point data, and the sampling point at that time is specified as the approach sampling point (step S19).

次いで、CPU6は、判定対象とする角度を予め設定されている設定角度分だけ進め(ステップS20)、次の角度を新たな判定対象として設定し、上記したステップS16〜S19までの処理を繰返して実行する。設定角度も作業者が任意に設定可能(選択可能)となっている。即ち、作業者は、1つのサンプリング点で細かく(密に)接近判定を実施したい場合であれば、設定角度を狭く設定すれば良く、一方、例えば処理負荷に考慮した上で1つのサンプリング点で粗く(疎に)接近判定を実施したい場合であれば、設定角度を広く設定すれば良い。   Next, the CPU 6 advances the angle to be determined by a preset set angle (step S20), sets the next angle as a new determination target, and repeats the above-described steps S16 to S19. Execute. The setting angle can be arbitrarily set (selectable) by the operator. In other words, if the operator wants to make a close (fine) approach determination at one sampling point, the setting angle may be set narrower. On the other hand, at one sampling point, for example, considering the processing load. If it is desired to perform rough (sparse) approach determination, the set angle may be set wide.

次いで、CPU6は、判定対象として設定したサンプリング点について全ての角度を対象として接近点が存在するか否かを判定する処理を終了したと判定すると(ステップS21)、判定対象とするサンプリング点を進め(ステップS22)、次のサンプリング点を新たな判定対象として設定し、上記したステップS13〜S21までの処理を繰返して実行する。   Next, when the CPU 6 determines that the process for determining whether or not there is an approach point for all angles with respect to the sampling point set as the determination target (step S21), the sampling point to be determined is advanced. (Step S22), the next sampling point is set as a new determination target, and the above-described steps S13 to S21 are repeatedly executed.

そして、CPU6は、全てのサンプリング点を判定対象として接近点が存在するか否かを判定する処理を終了したと判定すると(ステップS23)、接近点存在判定処理を終了して接近判定処理に戻る。即ち、CPU6は、接近点存在判定処理を実行することにより、ロボットの手先の動作軌跡の始点から終点までの全てのサンプリング点のうち接近点が存在すると判定した接近サンプリング毎に何れの角度が接近しているかを示す接近点データを保存する。   When the CPU 6 determines that the process of determining whether or not there is an approach point with all sampling points as determination targets is completed (step S23), the CPU 6 ends the approach point presence determination process and returns to the approach determination process. . In other words, the CPU 6 executes the approach point presence determination process, so that any angle approaches each approach sampling determined that the approach point exists among all the sampling points from the start point to the end point of the movement locus of the robot hand. Save the approach point data indicating whether or not

(2)接近領域表示処理
CPU6は、接近点存在判定処理を実行したことで物体表面上に接近点が存在すると判定し、接近判定処理から移行して接近領域表示処理を開始すると、接近点存在判定処理にて保存した接近点データに基づいて物体表面図形に接近領域を表示させる処理を開始する(ステップS31)。CPU6は、最初に接近点存在判定処理にて特定した接近サンプリング点のうちロボットの動作開始位置(始点)側の接近サンプリング点を判定対象として設定し(ステップS32)、その判定対象として設定した接近サンプリング点にて保存されている接近点データを取得する(ステップS33)。
(2) Approaching area display process When the CPU 6 determines that an approaching point exists on the object surface by executing the approaching point presence determination process, and shifts from the approaching determination process to start the approaching area display process, the approaching point presence process Based on the approach point data stored in the determination process, a process for displaying the approach area on the object surface graphic is started (step S31). The CPU 6 sets the approach sampling point on the operation start position (start point) side of the robot among the approach sampling points specified in the approach point presence determination process first (step S32), and the approach set as the determination target. The approach point data stored at the sampling point is acquired (step S33).

次いで、CPU6は、今回(図13では「n」にて示す)の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前(図13では「n−1」にて示す)の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点が存在するか否かを判定する(ステップS34)。   Next, the CPU 6 immediately before all of the approach points formed by the approach sampling points that are the determination targets of this time (indicated by “n” in FIG. 13) (indicated by “n−1” in FIG. 13). It is determined whether or not there is an approach point adjacent to any one of the approach points formed by the approach sampling points as the determination target (step S34).

ここで、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点が存在すると判定すると(ステップS34にて「YES」)、その該当する接近点(今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点)と連続する接近点が存在するか否かを判定する(ステップS35)。   Here, the CPU 6 is adjacent to any one of the approach points formed by the approach sampling point that is the previous determination target among all the approach points that are formed by the approach sampling point that is the current determination target. Is determined to be present ("YES" in step S34), the corresponding approach point (approach sampling as the determination target immediately before of all the approach points formed by the approach sampling points as the determination target this time) It is determined whether or not there is an approach point that is continuous with any approach point formed by the points) (step S35).

CPU6は、その該当する接近点と連続する接近点が存在すると判定すると(ステップS35にて「YES」)、連続する接近点も含めて該当する接近点を1つ前の判定対象とした接近サンプリング点で形成された接近点と同一グループ(同一領域)として特定する(ステップS36)(図13では接近点a、b、c、dが対応する)。そして、CPU6は、物体表面図形に、連続する接近点も含めて該当する接近点が含まれる領域の色を1つ前の判定対象とした接近サンプリング点で形成された接近点が含まれる領域の色と同じとした上で、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。   When the CPU 6 determines that there is an approach point that is continuous with the corresponding approach point (“YES” in step S35), the approach sampling with the corresponding approach point including the consecutive approach point as the previous determination target. It identifies as the same group (same area | region) as the approach point formed by the point (step S36) (In FIG. 13, the approach points a, b, c, and d correspond). And CPU6 of the area | region where the approach point formed by the approach sampling point which made the color of the area | region in which an object surface figure also includes a corresponding approach point including a continuous approach point the 1st previous judgment object is contained The color is the same as that of the region that does not include the approach points, and is displayed separately.

又、CPU6は、その該当する接近点と連続する接近点が存在しないと判定すると(ステップS35にて「NO」)、該当する接近点のみを1つ前の判定対象とした接近サンプリング点で形成された接近点と同一グループ(同一領域)として特定する(ステップS37)(図13では接近点eが対応する)。そして、CPU6は、この場合も、物体表面図形に、該当する接近点が含まれる領域の色を1つ前の判定対象とした接近サンプリング点で形成された接近点が含まれる領域の色と同じとした上で、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。   If the CPU 6 determines that there is no approach point that is continuous with the corresponding approach point (“NO” in step S35), the CPU 6 forms only the corresponding approach point as an approach sampling point that is the previous determination target. It identifies as the same group (same area | region) as the approach point made (step S37) (The approach point e respond | corresponds in FIG. 13). In this case, the CPU 6 also has the same color as that of the area including the approach point formed by the approach sampling point in which the color of the area including the corresponding approach point is the previous determination target in the object surface graphic. After that, the colors of the areas not including the approaching points are made different from each other to be displayed separately.

一方、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち1つ前の判定対象とした接近サンプリング点で形成された何れかの接近点と隣り合う接近点が存在しないと判定すると(ステップS34にて「NO」)、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合う接近点が存在するか否かを判定する(ステップS38)。CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合う接近点が存在すると判定すると(ステップS38にて「YES」)、それら隣り合う接近点を同一グループ(同一領域)として特定する(ステップS39)(図13では接近点f、g、hが対応する)。そして、CPU6は、物体表面図形に、隣り合う接近点が含まれる領域の色を、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。   On the other hand, the CPU 6 determines that an approach point adjacent to any one approach point formed by the approach sampling point that is the previous determination target among all the approach points formed by the approach sampling point that is the determination target this time. If it is determined that it does not exist (“NO” in step S34), it is determined whether or not there is an adjacent approach point among all the approach points formed by the approach sampling points that are the current determination targets (step S38). ). If the CPU 6 determines that there is an adjacent approach point among all the approach points formed by the approach sampling points as the determination target this time (“YES” in step S38), the adjacent approach points are set to the same group ( (Same area) (step S39) (the approach points f, g, and h correspond in FIG. 13). Then, the CPU 6 displays the object surface graphic by distinguishing the colors of the areas including adjacent approach points from the colors of the areas not including these approach points.

又、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合う接近点が存在しないと判定すると(ステップS38にて「NO」)、今回の判定対象とした接近サンプリング点で形成された全ての接近点のうち隣り合わない接近点を別々のグループとして特定する(ステップS40)(図13では接近点iが対応する)。そして、CPU6は、物体表面図形に、隣り合わない接近点が含まれる領域の色を、それら接近点が含まれない領域の色と異ならせることで、それらを区分して表示させる。   Further, when the CPU 6 determines that there is no adjacent approach point among all the approach points formed by the approach sampling points set as the determination target (“NO” in step S38), the CPU 6 sets the determination target. Of all the approach points formed by the approach sampling points, approach points that are not adjacent to each other are specified as separate groups (step S40) (the approach point i corresponds in FIG. 13). Then, the CPU 6 displays the object surface graphic by distinguishing the color of the area including the approach points not adjacent to each other from the color of the area not including the approach points.

CPU6は、上記した手順にしたがって接近点が属するグループを特定すると、グループを特定した接近点を判定対象から除外し(ステップS41)、今回の判定対象とした接近サンプリング点で形成された全ての接近点についてグループを特定したか否かを判定する(ステップS42)。CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点についてグループを特定していない、即ち、グループを特定していない接近点が存在すると判定すると(ステップS42にて「NO」)、上記したステップS34に戻り、上記したステップS34〜S41までの処理を繰返して実行する。   When the CPU 6 specifies the group to which the approach point belongs according to the above-described procedure, the approach point specifying the group is excluded from the determination target (step S41), and all the approaches formed by the approach sampling points set as the current determination target. It is determined whether a group has been specified for the point (step S42). If the CPU 6 determines that the group is not specified for all the approach points formed by the approach sampling points that are the determination targets this time, that is, if there is an approach point that does not specify the group (NO in step S42). ”), The process returns to the above-described step S34, and the above-described steps S34 to S41 are repeatedly executed.

一方、CPU6は、今回の判定対象とした接近サンプリング点で形成された全ての接近点についてグループを特定したと判定すると(ステップS42にて「YES」)、判定対象とする接近サンプリング点を進め(ステップS43)、次の接近サンプリング点を新たな判定対象として設定し、上記したステップS33〜S42までの処理を繰返して実行する。そして、CPU6は、全ての接近サンプリング点を判定対象として接近点存在判定処理にて保存した接近点データに基づいて接近領域を表示させる処理を終了したと判定すると(ステップS44)、接近領域表示処理を終了して接近判定処理に戻る。   On the other hand, if the CPU 6 determines that the group has been specified for all the approach points formed by the approach sampling points that are the current determination targets ("YES" in step S42), the CPU 6 advances the approach sampling points that are the determination targets ( In step S43), the next approach sampling point is set as a new determination target, and the above-described processing from steps S33 to S42 is repeated. Then, when the CPU 6 determines that the process of displaying the approach area based on the approach point data stored in the approach point presence determination process with all approach sampling points as determination targets is finished (step S44), the approach area display process To return to the approach determination process.

(3)矢印表示処理
CPU6は、接近判定処理から移行して矢印表示処理を開始すると、物体表面図形に矢印を表示させる処理を開始する(ステップS51)。CPU6は、接近領域表示処理にて特定した何れかのグループを判定対象として設定し(ステップS52)、判定対象として設定したグループに存在する接近点のうちサンプリング点からの距離が最短である接近点を最接近点として特定し、その特定した最接近点に対応するサンプリング点を最接近サンプリングとして特定する(ステップS53)。次いで、CPU6は、物体表面図形に最接近サンプリングから最接近点まで矢印を表示させる。次いで、CPU6は、今回の判定対象としたグループで形成された接近領域が他のグループで形成された接近領域と重複するか否かを判定する(ステップS54)。
(3) Arrow display process When the CPU 6 shifts from the approach determination process and starts the arrow display process, the CPU 6 starts a process of displaying an arrow on the object surface graphic (step S51). The CPU 6 sets any group specified in the approach area display process as a determination target (step S52), and the approach point having the shortest distance from the sampling point among the approach points existing in the group set as the determination target. Is identified as the closest point, and the sampling point corresponding to the identified closest point is identified as the closest point sampling (step S53). Next, the CPU 6 displays an arrow from the closest sampling to the closest point on the object surface graphic. Next, the CPU 6 determines whether or not the approach area formed by the group to be determined this time overlaps with the approach area formed by another group (step S54).

ここで、CPU6は、今回の判定対象としたグループで形成された接近領域が他のグループで形成された接近領域と重複すると判定すると(ステップS54にて「YES」)、接近領域が重複する領域の色を変更する(ステップS55)。次いで、CPU6は、判定対象とするグループを進め(ステップS56)、次のグループを新たな判定対象として設定し、上記したステップS53〜S55までの処理を繰返して実行する。そして、CPU6は、全てのグループを判定対象として矢印を表示させる処理を終了したと判定すると(ステップS57)、矢印表示処理を終了して接近判定処理に戻る。   Here, if the CPU 6 determines that the approach area formed in the group to be determined this time overlaps with the approach area formed in another group ("YES" in step S54), the area in which the approach areas overlap. Is changed (step S55). Next, the CPU 6 advances the group to be determined (step S56), sets the next group as a new determination target, and repeatedly executes the above-described processing from steps S53 to S55. If the CPU 6 determines that the process of displaying an arrow for all groups as a determination target has ended (step S57), the CPU 6 ends the arrow display process and returns to the approach determination process.

図14乃至図23はCPU6が上記した接近点判定処理を実行することで物体表面図形に接近領域及び矢印を表示させる形態を概略的に示している。CPU6は、図14に示すように、ロボットの手先の動作軌跡において例えばサンプリング点1〜4毎に当該動作軌跡と直交する面方向に一定距離に延びるベクトルを周方向に一定角度で段階的に進めて放射状に複数生成することで接近判定領域を形成する。   14 to 23 schematically show a form in which the approach region and the arrow are displayed on the object surface graphic by the CPU 6 executing the approach point determination process described above. As shown in FIG. 14, the CPU 6 advances a vector extending at a certain distance in the circumferential direction at a certain angle in the circumferential direction, for example, at every sampling point 1 to 4 in the movement locus of the hand of the robot. Thus, an approach determination region is formed by generating a plurality of radial shapes.

ここで、CPU6は、図15に示すように、例えばサンプリング点1及びサンプリング点2では接近点が存在しないと判定したが、サンプリング点3及びサンプリング点4では接近点が存在し、それら接近サンプリング点4により形成された接近点と1つ前である接近サンプリング点3により形成された接近点とが隣り合うと判定すると、接近サンプリング点4により形成された接近点と1つ前である接近サンプリング点3により形成された接近点とを同一グループ(同一領域)として特定し、それらサンプリング点4により形成された接近点とサンプリング点3により形成された接近点とが含まれる領域の色を、それら接近点が含まれない領域の色と異ならせて表示させる。例えば接近点が含まれる領域を赤色で表示させ、接近点が含まれない領域を緑色(元々の物体表面図形の色)で表示させる。即ち、作業者は、緑色で表示されている領域はロボットの手先の動作軌跡から一定距離を越えて離れている領域であり、赤色で表示されている領域はロボットの手先の動作軌跡から一定距離以下に接近している領域であると把握することが可能である。   Here, as shown in FIG. 15, for example, the CPU 6 determines that there are no approach points at the sampling points 1 and 2, but there are approach points at the sampling points 3 and 4. If it is determined that the approach point formed by 4 is adjacent to the approach point formed by the approach sampling point 3 that is one before, the approach sampling point that is one before and the approach point formed by the approach sampling point 4 3 is specified as the same group (same area), and the color of the area including the approach point formed by the sampling point 4 and the approach point formed by the sampling point 3 It is displayed differently from the color of the area that does not contain dots. For example, an area including the approach point is displayed in red, and an area not including the approach point is displayed in green (original object surface graphic color). In other words, the area displayed in green is an area away from the movement locus of the robot's hand by a certain distance, and the area displayed in red is a certain distance from the movement locus of the robot's hand. It is possible to grasp that the area is close to the following.

又、CPU6は、図16に示すように、例えばサンプリング点3及びサンプリング点4のうちサンプリング点4を最接近サンプリング点として特定すると、それらサンプリング点4により形成された接近点とサンプリング点3により形成された接近点とが含まれる領域の色を、それら接近点が含まれない領域の色と異ならせて表示させると共に、最接近サンプリング点として特定したサンプリング点4から最接近点まで矢印を表示させる。尚、矢印の表示態様(線の太さ、色、種別等)も作業者が任意に設定可能(選択可能)となっている。この場合、矢印の色として進出色や膨張色を設定することで接近領域から際立つ色を設定することが望ましい。又、矢印も線であることから、ロボットの手先の動作軌跡との混同を避けるために、ロボットの手先の動作軌跡で設定した色とは異なる色を設定することが望ましい。   Further, as shown in FIG. 16, for example, when the sampling point 4 is specified as the closest sampling point among the sampling points 3 and 4, the CPU 6 is formed by the approach point formed by these sampling points 4 and the sampling point 3. The color of the area including the approach point is displayed differently from the color of the area not including the approach point, and an arrow is displayed from the sampling point 4 specified as the closest sampling point to the closest point. . Note that the display mode of arrows (line thickness, color, type, etc.) can also be arbitrarily set (selected) by the operator. In this case, it is desirable to set a color that stands out from the approaching region by setting the advance color or the expansion color as the color of the arrow. In addition, since the arrow is also a line, it is desirable to set a color different from the color set with the motion locus of the robot hand in order to avoid confusion with the motion locus of the robot hand.

又、CPU6は、図17に示すように、例えばサンプリング点3及びサンプリング点4の双方を最接近サンプリング点として特定すると、それらサンプリング点4により形成された接近点とサンプリング点3により形成された接近点とが含まれる領域の色を、それら接近点が含まれない領域の色と異ならせて表示させると共に、最接近サンプリング点として特定したサンプリング点3及びサンプリング点4のうちサンプリング時間が早い(始点に近い)方のサンプリング点3から最接近点まで矢印を表示させる。更に、CPU6は、図18に示すように、例えば1つのサンプリング点3で2つの最接近点が形成されたと判定すると、サンプリング点3から2つの最接近点の中間に位置する接近点まで矢印を表示させる。   In addition, as shown in FIG. 17, for example, when the CPU 6 specifies both the sampling point 3 and the sampling point 4 as the closest sampling points, the approaching point formed by the sampling points 4 and the approaching point formed by the sampling points 3. The color of the area including the point is displayed differently from the color of the area not including the approach point, and the sampling time is early among the sampling points 3 and 4 specified as the closest sampling point (starting point) An arrow is displayed from the sampling point 3 closer to the closest point. Furthermore, as shown in FIG. 18, when the CPU 6 determines that two closest points are formed at one sampling point 3, for example, the CPU 6 moves an arrow from the sampling point 3 to an approach point located in the middle of the two closest points. Display.

図19はCPU6が接近点の存在を判定する場合のサンプリング時間と角度との関係を示しており、サンプリング時間を横軸として進め、角度を縦軸として進めることで、接近点の存在を判定する。尚、図19ではサンプリング間隔を一定として示しているが、動作軌跡が直線となる箇所では動作速度が速くなるのでサンプリング間隔は長くなり、動作軌跡が曲線となる箇所では動作速度が遅くなるのでサンプリング間隔は短くなる。   FIG. 19 shows the relationship between the sampling time and the angle when the CPU 6 determines the presence of the approach point. The sampling time is advanced on the horizontal axis, and the angle is advanced on the vertical axis to determine the presence of the approach point. . Although the sampling interval is shown as constant in FIG. 19, the operation speed is increased at a location where the motion trajectory is a straight line, so the sampling interval is longer, and the operation speed is slower at a location where the motion trajectory is a curve. The interval is shortened.

図20はロボットの手先の動作軌跡が物体表面まで一定距離以下に近づく区間と物体から遠ざかる区間とを交互に繰り返す波形状である場合を示しており、この場合、CPU6は、接近点が含まれる領域が隣り合わないと判定し、複数のグループとしてグループ1とグループ2とを特定し、グループ1に属する接近点が含まれる領域とグループ2に属する接近点が含まれる領域とを区分した上で、それら接近点が含まれない領域と区分して表示させる。尚、グループ1に属する接近点が含まれる領域の色とグループ2に属する接近点が含まれる領域の色とを同じとしても良いし異ならせても良い。   FIG. 20 shows a case where the movement locus of the robot hand has a wave shape that alternately repeats a section that approaches a certain distance or less to the object surface and a section that moves away from the object. In this case, the CPU 6 includes an approach point. It is determined that the areas are not adjacent to each other, group 1 and group 2 are identified as a plurality of groups, and an area including an approach point belonging to group 1 is distinguished from an area including an approach point belonging to group 2 These are displayed separately from areas not including the approach points. It should be noted that the color of the area including the approach point belonging to group 1 may be the same as or different from the color of the area including the approach point belonging to group 2.

図21はロボットの手先の動作軌跡がループする場合を示しており、この場合、CPU6は、グループ1とグループ2とが重複する領域を特定し、グループ1に属する接近点が含まれる領域とグループ2に属する接近点が含まれる領域とを区分した上で、それら接近点が含まれない領域と区分して表示させるだけでなく、グループ1だけに属する接近点が含まれる領域、グループ2だけに属する接近点が含まれる領域、グループ1及びグループ2の双方に属する接近点が含まれる領域とを区分して表示させる。   FIG. 21 shows a case where the movement locus of the robot's hand loops. In this case, the CPU 6 specifies an area where the group 1 and the group 2 overlap, and the area and group including the approach points belonging to the group 1. In addition to separating the area containing the approaching points belonging to 2 and displaying them separately from the area not containing these approaching points, only the area containing the approaching points belonging only to group 1, group 2 only The area including the approach points belonging to the area and the area including the approach points belonging to both the group 1 and the group 2 are displayed separately.

図22は、ロボットの手先の動作軌跡が複数の表面上に跨って物体表面まで一定距離以下に近づく場合を示しており、この場合、CPU6は、グループを複数の表面のうち表面1上と表面2上とに跨って特定し、その表面1上と表面2上とに跨ったグループに属する接近点が含まれる領域を、それら接近点が含まれない領域と区分して表示させる。   FIG. 22 shows a case where the motion trajectory of the hand of the robot straddles a plurality of surfaces and approaches a certain distance or less to the object surface. In this case, the CPU 6 divides the group onto the surface 1 and the surface of the plurality of surfaces. The region including the approach points belonging to the group straddling the surface 1 and the surface 2 is displayed separately from the region not including these approach points.

CPU6は、以上に説明した処理を行うことで、図23に示すように、物体表面図形にロボットの手先の動作軌跡から一定距離以下に接近する領域を接近領域として表示させると共に、ロボットの手先の動作軌跡から最接近する距離及び方向を示す矢印を表示させる。即ち、本実施形態によれば、CPU6は、図24乃至図26に示すように、物体表面図形22については接近領域31を表示させると共に矢印32を表示させ、物体表面図形23については接近領域33を表示させると共に矢印34を表示させる。これにより、上記した図6乃至図8に示した従来とは異なり、ロボットの手先の動作軌跡から一定距離以下に接近する領域を作業者に提示することが可能となり、ロボットの手先の動作軌跡から最接近する距離及び方向を作業者に提示することが可能となる。   By performing the above-described processing, the CPU 6 displays an area that approaches a certain distance or less from the movement locus of the hand of the robot on the object surface graphic as an approach area as shown in FIG. An arrow indicating the closest distance and direction from the motion trajectory is displayed. That is, according to the present embodiment, as shown in FIGS. 24 to 26, the CPU 6 displays the approach area 31 and the arrow 32 for the object surface graphic 22 and displays the approach area 33 for the object surface graphic 23. And an arrow 34 are displayed. Thus, unlike the prior art shown in FIGS. 6 to 8 described above, it is possible to present to the worker an area approaching a certain distance or less from the motion locus of the robot hand, and from the motion locus of the robot hand. It is possible to present the closest distance and direction to the operator.

以上に説明したように第1の実施形態によれば、ロボットの手先の動作軌跡24については、従来から何ら変更することなく従来通りの表示態様で表示するように構成したので、作業者はロボットの手先の動作軌跡24を従来と同様の感覚で把握することができ、又、物体表面図形22、23については、ロボットの手先の動作軌跡24から一定距離以下である接近点が存在すると、接近点が含まれる領域を接近領域31、33とし、それら接近領域31、33を接近点が含まれない領域と区分して表示するように構成したので、作業者はロボットの手先の動作軌跡24が物体表面に接近する箇所を把握することができる。   As described above, according to the first embodiment, the movement locus 24 of the hand of the robot is configured to be displayed in the conventional display mode without any change, so that the worker can Can be grasped with the same feeling as in the past, and the object surface figures 22 and 23 can be approached if there is an approach point that is less than a certain distance from the motion locus 24 of the robot hand. Since the area including the points is set as the approach areas 31 and 33, and the approach areas 31 and 33 are displayed separately from the areas not including the approach points, the operator has the motion locus 24 of the hand of the robot. The location approaching the object surface can be grasped.

即ち、3次元的に形成された動作軌跡を2次元平面で表示させざるを得ない、ロボットの動作開始から動作終了までの一連の動作に追従して始点から終点までの動作軌跡の全てをロボットの動作領域である狭くて限られた空間内に表示させざるを得ない、という課題を解決した上で、作業者はロボットの手先の動作軌跡24が物体表面に接近する箇所を把握することができる。   That is, the motion trajectory formed three-dimensionally must be displayed on a two-dimensional plane, and the robot follows all the motion trajectories from the start point to the end point following a series of motions from the start to the end of the robot motion. After solving the problem of having to display in a narrow and limited space that is the motion area of the robot, the worker can grasp the location where the motion trajectory 24 of the robot's hand approaches the object surface. it can.

この場合、物体表面図形22、23を面として表示するのに対し、ロボットの手先の動作軌跡24を線として表示し、即ち、物体表面図形22、23をロボットの手先の動作軌跡24よりも十分に大きな領域で表示するので、作業者はロボットの手先の動作軌跡24が物体表面まで一定距離以下に接近する領域を線ではなく面として把握することができ、ロボットの手先の動作軌跡24が物体表面まで一定距離以下に接近する箇所をより確実に把握することができる。   In this case, the object surface graphics 22 and 23 are displayed as planes, whereas the robot's hand movement trajectory 24 is displayed as a line, that is, the object surface graphics 22 and 23 are more sufficient than the robot's hand movement trajectory 24. Therefore, the operator can grasp the area where the robot's hand movement locus 24 approaches a certain distance or less to the object surface as a surface instead of a line. It is possible to more surely grasp a location approaching a certain distance or less to the surface.

又、ロボットの手先の動作軌跡24から最接近点までの距離及び方向を特定する矢印32、34を表示するように構成したので、作業者はロボットの手先の動作軌跡24が物体表面まで最接近している距離及び方向をも把握することができる。即ち、ロボットの手先の動作軌跡24から最接近点までの距離及び方向を特定する矢印32、34は接近領域毎に1箇所だけで表示することになるので、視点変更することでロボットの手先の動作軌跡24と矢印とが重ならない視点方向(角度)を得ることができ、作業者はロボットの手先の動作軌跡24が物体表面まで最接近している箇所を直感的に把握することができる。   In addition, since the arrows 32 and 34 for specifying the distance and direction from the motion locus 24 of the robot hand to the closest point are displayed, the operator can make the motion locus 24 of the robot hand closest to the object surface. It is also possible to grasp the distance and direction that is being performed. That is, since the arrows 32 and 34 for specifying the distance and direction from the movement locus 24 of the robot hand to the closest point are displayed at only one place for each approach region, the robot hand can be changed by changing the viewpoint. A viewpoint direction (angle) where the motion trajectory 24 and the arrow do not overlap can be obtained, and the operator can intuitively grasp the location where the motion trajectory 24 of the hand of the robot is closest to the object surface.

(第2の実施形態)
次に、本発明の第2の実施形態について、図27乃至図33を参照して説明する。尚、第1の実施形態と同一部分については説明を省略して異なる部分について説明する。第2の実施形態はロボットの手先の動作軌跡を動画により表示することを特徴とする。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIGS. Note that description of the same parts as those of the first embodiment will be omitted, and different parts will be described. The second embodiment is characterized in that the motion trajectory of the hand of the robot is displayed as a moving image.

ロボットの動作軌跡表示装置としてのシミュレータであるパソコンのパソコン本体41は、図27に示すように、CPU42(本発明でいう表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段、再生区間設定手段、動画拡縮率設定手段、再生速度設定手段)、ROM7、RAM8、大容量記憶装置としてのハードディスク43(本発明でいう動作軌跡データ記憶手段、物体表面図形データ記憶手段)及びインタフェース(I/F)10等を備えて構成され、インタフェース10に上記した表示装置3、キーボード4及びマウス5が接続されている。   As shown in FIG. 27, a personal computer main body 41 of a personal computer, which is a simulator as a robot motion trajectory display device, has a CPU 42 (display control means, vector generation means, approach determination means, approach point specifying means, approach sampling, and so on in the present invention. Point specifying means, closest approach point specifying means, closest approach sampling point specifying means, grouping means, overlap determination means, straddle determination means, playback section setting means, moving picture scaling ratio setting means, playback speed setting means), ROM 7, RAM 8, The hard disk 43 (the operation trajectory data storage means and the object surface graphic data storage means referred to in the present invention) and the interface (I / F) 10 and the like as a large-capacity storage device are configured. A keyboard 4 and a mouse 5 are connected.

ハードディスク43には各種データを記憶するデータ記憶領域43aと各種プログラムを記憶するプログラム記憶領域43bとが設けられ、プログラム記憶領域43bには、第1の実施形態で説明したロボット図形表示プログラム11aと動作軌跡表示プログラム11bと物体表面図形表示プログラム11cと接近判定プログラム11dとが記憶されていることに加えて、ロボットの手先の動作軌跡を動画により表示するための動画再生表示プログラム44が記憶されている。   The hard disk 43 is provided with a data storage area 43a for storing various data and a program storage area 43b for storing various programs. The program storage area 43b operates with the robot graphic display program 11a described in the first embodiment. In addition to storing the trajectory display program 11b, the object surface graphic display program 11c, and the approach determination program 11d, a moving image reproduction display program 44 for displaying the motion trajectory of the hand of the robot as a moving image is stored. .

CPU42は、図28に示すように、全体ビューウィンドウ45(本発明でいう動作軌跡表示画面)と動画ビューウィンドウ46(本発明でいう動画再生表示画面)とを並べて表示装置3に表示可能である。全体ビューウィンドウ45はロボットの手先の動作軌跡47と物体表面図形48、49とを静止画により表示するウィンドウであり、動画ビューウィンドウ46はロボット図形50を表示すると共にロボットの手先の動作軌跡47を動画により表示するウィンドウである。作業者はキーボード4やマウス5を操作することで全体ビューウィンドウ45の視点を変更することが可能である。尚、CPU42は、第1の実施形態で説明した接近判定プログラムを実行したことで、物体表面図形48に接近領域51を表示させ、物体表面図形49に接近領域52を表示させている。   As shown in FIG. 28, the CPU 42 can display the entire view window 45 (the operation trajectory display screen according to the present invention) and the moving image view window 46 (the moving image reproduction display screen according to the present invention) side by side on the display device 3. . The whole view window 45 is a window for displaying the motion locus 47 of the robot hand and the object surface graphics 48 and 49 as still images, and the moving image view window 46 displays the robot graphics 50 and the motion locus 47 of the robot hand. This is a window displayed by a moving image. The operator can change the viewpoint of the entire view window 45 by operating the keyboard 4 and the mouse 5. The CPU 42 displays the approach area 51 on the object surface graphic 48 and displays the approach area 52 on the object surface graphic 49 by executing the approach determination program described in the first embodiment.

次に、CPU42が上記した動画再生表示プログラム44を実行することで本発明の特徴である動画再生表示処理を行う場合について、図29乃至図33を参照して説明する。図29はCPU42が行う動画再生表示処理をフローチャートにより示している。この場合、作業者は、動画を表示させたい接近領域を動作軌跡表示画面45の中央側で且つ光軸の手前側(物体の表面側)に表示させるように視点を変更する視点変更操作をキーボード4やマウス5にて行い、続いて動画を表示させる動画表示指令操作をキーボード4やマウス5にて行う。図28では作業者が動画を表示させたい接近領域は物体表面図形49に表示されている接近領域52である。   Next, a case where the CPU 42 executes the above-described moving image reproduction display program 44 to perform the moving image reproduction display processing, which is a feature of the present invention, will be described with reference to FIGS. FIG. 29 is a flowchart showing the moving image reproduction display process performed by the CPU. In this case, the operator performs a viewpoint changing operation for changing the viewpoint so that the approaching area in which the moving image is to be displayed is displayed on the center side of the motion trajectory display screen 45 and on the front side of the optical axis (the surface side of the object). 4 and the mouse 5, and then a moving image display command operation for displaying a moving image is performed with the keyboard 4 and the mouse 5. In FIG. 28, the approach region that the operator wants to display a moving image is the approach region 52 displayed on the object surface graphic 49.

CPU42は、作業者がキーボード4やマウス5にて動画表示指令操作を行ったと判定すると、動画再生表示プログラム44を実行して動画再生表示処理を開始する。尚、本実施形態のように作業者が動画表示指令操作を行ったことを契機として動画再生表示プログラム44を実行しても良いし、上記した接近判定プログラム11dを実行した後に自動的に動画再生表示プログラム44を実行しても良い。   When the CPU 42 determines that the operator has performed a moving image display command operation with the keyboard 4 or the mouse 5, the CPU 42 executes the moving image reproduction display program 44 to start the moving image reproduction display process. Note that the moving image reproduction display program 44 may be executed when the operator performs a moving image display command operation as in the present embodiment, or the moving image reproduction is automatically performed after the above-described approach determination program 11d is executed. The display program 44 may be executed.

CPU42は、動画再生表示処理を開始すると、全体ビューウィンドウ45で表示されている接近領域のうち最も中央側で且つ光軸の最も手前側に表示されている接近領域を特定し(ステップS61)、その特定した接近領域に対応するロボットの手先の動作軌跡47を再生区間として設定する(ステップS62)。図28に示す場合であれば、CPU42は、物体表面図形48に表示されている接近領域51を特定し、その特定した接近領域51に対応するロボットの手先の動作軌跡47を再生区間として設定する。   When starting the moving image reproduction display process, the CPU 42 specifies the approach area displayed on the most central side and the front side of the optical axis among the approach areas displayed in the entire view window 45 (step S61). The motion locus 47 of the hand of the robot corresponding to the specified approach area is set as a playback section (step S62). In the case shown in FIG. 28, the CPU 42 specifies the approach area 51 displayed on the object surface graphic 48, and sets the motion trajectory 47 of the robot hand corresponding to the specified approach area 51 as a playback section. .

次いで、CPU42は、図30に示すように、ロボットの手先の動作軌跡47の動画を全体ビューウィンドウ45の光軸(現在の光軸)と同一の光軸を有する視点で動画再生して動画ビューウィンドウ46に表示させる(ステップS63)。図30(a)〜(c)はロボットの手先の動作軌跡47が時間経過にしたがって接近領域51に接近して離間していく態様を、全体ビューウィンドウ45の光軸と同一の光軸を有する視点で表している。尚、図30に示すロボットの手先の動作軌跡47の動画を動画ビューウィンドウ46に表示させるタイミングでの全体ビューウィンドウ45の光軸は、図28に示した全体ビューウィンドウ45の光軸から変更されている。   Next, as shown in FIG. 30, the CPU 42 reproduces the moving image of the motion trajectory 47 of the robot's hand from a viewpoint having the same optical axis as the optical axis (current optical axis) of the entire view window 45 and displays the moving image view. It is displayed on the window 46 (step S63). 30 (a) to 30 (c) show an aspect in which the movement locus 47 of the hand of the robot approaches and moves away from the approach region 51 as time elapses, and has the same optical axis as the optical axis of the entire view window 45. Expressed in perspective. 30 is changed from the optical axis of the entire view window 45 shown in FIG. 28 at the timing at which the moving image of the movement locus 47 of the hand of the robot shown in FIG. ing.

次いで、CPU42は、全体ビューウィンドウ45の光軸と同一の光軸を有する視点での動画再生を終了すると、続いて、図31に示すように、ロボットの手先の動作軌跡47の動画を接近領域51と直交する光軸を有する視点で動画再生することで動画ビューウィンドウ46に表示させる(ステップS64)。図31(a)〜(c)はロボットの手先の動作軌跡47が時間経過にしたがって接近領域51に接近して離間していく態様を、接近領域51と直交する光軸を有する視点で表している。   Next, when the CPU 42 finishes reproducing the moving image at the viewpoint having the same optical axis as the optical axis of the entire view window 45, the CPU 42 subsequently displays the moving image of the motion locus 47 of the robot hand as shown in FIG. The moving image is reproduced from a viewpoint having an optical axis orthogonal to 51 to be displayed on the moving image view window 46 (step S64). FIGS. 31A to 31C show the manner in which the movement locus 47 of the robot hand approaches and approaches the approaching region 51 as time elapses, with a viewpoint having an optical axis perpendicular to the approaching region 51. Yes.

次いで、CPU42は、接近領域51と直交する光軸を有する視点での動画再生を終了すると、続いて、図32に示すように、ロボットの手先の動作軌跡47の動画を接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点で動画再生することで動画ビューウィンドウ46に表示させる(ステップS65)。図32(a)〜(c)はロボットの手先の動作軌跡47が時間経過にしたがって接近領域51に接近して離間していく態様を、接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点で表している。   Next, when the CPU 42 finishes reproducing the moving image at a viewpoint having an optical axis orthogonal to the approaching region 51, subsequently, the moving image of the motion locus 47 of the robot hand is parallel to the approaching region 51, as shown in FIG. 32. In addition, the moving image is reproduced from a viewpoint having an optical axis located between the movement locus 47 and the approaching region 51 to be displayed on the moving image view window 46 (step S65). 32 (a) to 32 (c) show a state in which the motion trajectory 47 of the robot's hand approaches and approaches the approach region 51 as time elapses, and is parallel to the approach region 51 and the motion trajectory 47 and the approach region 51. And a viewpoint having an optical axis located in the middle.

そして、CPU42は、このようにロボットの手先の動作軌跡47の動画を再生している途中で作業者がキーボード4やマウス5にて再生停止指令操作を行ったか否かを判定し(ステップS66)、作業者がキーボード4やマウス5にて再生停止指令操作を行っていないと判定すると(ステップS66にて「NO」)、上記したステップS63に戻り、ステップS63以降の処理を繰返して実行する。即ち、CPU42は、作業者がキーボード4やマウス5にて再生停止指令操作を行わない間は、全体ビューウィンドウ45の光軸と同一の光軸を有する視点での動画再生、接近領域51と直交する光軸を有する視点での動画再生、接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点での動画再生を繰返して実行する。一方、CPU42は、作業者がキーボード4やマウス5にて再生停止指令操作を行ったと判定すると(ステップS66にて「NO」)、動画再生を終了して動画再生表示処理を終了する。   Then, the CPU 42 determines whether or not the operator has performed a reproduction stop command operation with the keyboard 4 or the mouse 5 during the reproduction of the moving locus 47 of the robot hand (step S66). If it is determined that the operator has not performed the playback stop command operation with the keyboard 4 or the mouse 5 (“NO” in step S66), the process returns to step S63 described above, and the processes after step S63 are repeated. That is, the CPU 42 reproduces the moving image from the viewpoint having the same optical axis as the optical axis of the entire view window 45 and is orthogonal to the approach area 51 while the operator does not perform the reproduction stop command operation with the keyboard 4 or the mouse 5. The moving image reproduction at the viewpoint having the optical axis and the moving image reproduction at the viewpoint having the optical axis that is parallel to the approaching region 51 and located between the motion locus 47 and the approaching region 51 are repeatedly executed. On the other hand, if CPU 42 determines that the operator has performed a playback stop command operation with keyboard 4 or mouse 5 ("NO" in step S66), video playback ends and video playback display processing ends.

又、CPU42は、作業者がキーボード4やマウス5にて拡縮率変更指令操作を行ったと判定すると、図33に示すように、動画ビューウィンドウ46に表示させているロボットの手先の動作軌跡47の動画を作業者が指定した拡縮率に変更する。即ち、CPU42は、ロボットの手先の動作軌跡47の動画を図33(a)に示すような基準倍率(表示倍率=100%)で表示させている状態から作業者がキーボード4やマウス5にて倍率を2倍(表示倍率=200%)に変更する拡縮率変更指令操作を行ったと判定すると、図33(b)に示すように、基準倍率である動画を4倍(縦横それぞれ2倍)に拡大して表示させる。この場合、CPU42は、再生速度を基準倍率のときの再生速度である基準再生速度の1/2倍に変更する。   Further, when the CPU 42 determines that the operator has performed an enlargement / reduction ratio change command operation with the keyboard 4 or the mouse 5, as shown in FIG. 33, an operation locus 47 of the robot hand displayed on the moving image view window 46 is displayed. Change the video to the enlargement / reduction ratio specified by the operator. That is, the CPU 42 uses the keyboard 4 and the mouse 5 from the state in which the moving locus 47 of the robot hand is displayed at the reference magnification (display magnification = 100%) as shown in FIG. If it is determined that an enlargement / reduction ratio change command operation for changing the magnification to 2 times (display magnification = 200%) has been performed, as shown in FIG. 33B, the moving image that is the reference magnification is 4 times (vertically and horizontally 2 times each). Enlarge and display. In this case, the CPU 42 changes the playback speed to ½ times the reference playback speed that is the playback speed at the reference magnification.

又、CPU42は、ロボットの手先の動作軌跡47の動画を図33(a)に示すような基準倍率で表示させている状態から作業者がキーボード4やマウス5にて倍率を4倍(表示倍率=400%)に変更する拡縮率変更指令操作を行ったと判定すると、図33(c)に示すように、基準倍率である動画を16倍(縦横それぞれ4倍)に拡大して表示させる。この場合、CPU42は、再生速度を基準倍率のときの再生速度である基準再生速度の1/4倍に変更する。尚、CPU42は、動画を拡大して表示させたことに応じて動画ビューウィンドウ46から外れた部分を再生することなく、即ち、作業者が精密に確認したいという意思をもって拡大させた部分だけを再生することになる。   Further, the CPU 42 displays the moving locus 47 of the robot's hand at a reference magnification as shown in FIG. 33A, and the operator uses the keyboard 4 and the mouse 5 to increase the magnification by 4 (display magnification). If it is determined that the enlargement / reduction ratio change command operation to change to (= 400%) has been performed, as shown in FIG. 33 (c), the moving image which is the reference magnification is enlarged and displayed by 16 times (vertically and horizontally 4 times each). In this case, the CPU 42 changes the playback speed to 1/4 times the reference playback speed, which is the playback speed at the reference magnification. Note that the CPU 42 reproduces only the enlarged portion with the intention that the operator wants to check precisely without reproducing the portion outside the moving image view window 46 when the moving image is enlarged and displayed. Will do.

上記した再生速度と表示倍率との関係を演算式として表記すると、
再生速度=基準再生速度/(表示倍率/100)
となり、このように再生速度と表示倍率とが反比例する演算式によれば、拡縮率を変更する前でのロボットが画面に現れてから消えるまでの時間と、拡縮率を変更した後でのロボットが画面に現れてから消えるまでの時間とが略同じになるので、拡縮率を変更したとしても作業者が確認に要する時間が変わることがなく、作業性を高めることができる。
When the relationship between the above playback speed and display magnification is expressed as an arithmetic expression,
Playback speed = Reference playback speed / (Display magnification / 100)
Thus, according to the arithmetic expression in which the playback speed and the display magnification are inversely proportional, the time from when the robot appears on the screen until it disappears until it disappears, and the robot after the enlargement / reduction ratio is changed Since the time from when it appears on the screen until it disappears is substantially the same, even if the enlargement / reduction ratio is changed, the time required for confirmation by the operator does not change, and workability can be improved.

以上に説明したように第2の実施形態によれば全体ビューウィンドウ45の最も中央側で且つ光軸の最も手前側に表示されている接近領域51に対応するロボットの手先の動作軌跡47を動画により表示するように構成したので、作業者はロボットの手先の動作軌跡47が接近領域51にどのように接近するかを一連の動作により把握することができる。又、この場合、作業者がロボットの手先の動作軌跡47がどのように接近するかを確実に把握するために動画を拡大した場合であっても、その動画を拡大したことと反比例して動画の再生速度を遅くするように構成したので、ロボットの手先の動作軌跡47が接近する箇所を精密に視認したいという作業者の意思に沿った再生速度で動画を表示することができ、作業者は精密に視認したい箇所を意思通りに精密に視認することができる。   As described above, according to the second embodiment, the motion trajectory 47 of the hand of the robot corresponding to the approach area 51 displayed on the most center side of the entire view window 45 and on the most front side of the optical axis is displayed as a moving image. Therefore, the operator can grasp how the movement locus 47 of the robot's hand approaches the approach area 51 by a series of movements. Further, in this case, even when the movie is enlarged to surely grasp how the movement locus 47 of the robot's hand approaches, the movie is inversely proportional to the enlarged movie. Since the playback speed is reduced, the moving image 47 can be displayed at a playback speed in line with the operator's intention to precisely see the location where the motion locus 47 of the robot's hand approaches. You can see exactly where you want to see precisely.

更に、ロボットの手先の動作軌跡47の動画を、全体ビューウィンドウ45の光軸と同一の光軸を有する視点、接近領域51と直交する光軸を有する視点、接近領域51と平行で且つ動作軌跡47と接近領域51との中間に位置する光軸を有する視点の順序にしたがって表示するように構成したので、作業者は最初にロボットの手先の動作を大まかに把握することができ、続いてロボットの手先がどのように接近するかを接近領域51からの視点で把握することができ、続いてロボットの手先と接近領域51との距離感を把握することができ、このように視点を順次切替えても違和感を生じることなく、ロボットの手先がどのように接近するかを容易に把握することができる。   Furthermore, the moving image of the motion locus 47 of the hand of the robot is converted into a viewpoint having the same optical axis as the optical axis of the entire view window 45, a viewpoint having an optical axis orthogonal to the approach area 51, and parallel to the approach area 51. 47 and the approach area 51 are displayed according to the order of viewpoints having an optical axis, so that the worker can first roughly grasp the movement of the hand of the robot, and then the robot It is possible to grasp how the hand of the hand approaches from the viewpoint from the approaching area 51, and then it is possible to grasp the sense of distance between the hand of the robot and the approaching area 51. However, it is possible to easily grasp how the hand of the robot approaches without causing discomfort.

(その他の実施形態)
本発明は、上記した実施形態にのみ限定されるものではなく、以下のように変形又は拡張することができる。
動作軌跡を表示する部位はロボットの手先に限らず関節等であっても良い。
最接近サンプリング点から最接近点まで矢印を表示させる処理は必要に応じて実行しても良い。
物体表面図形に接近点が含まれる領域と接近点が含まれない領域とを区分する方法として、両者の色を異ならせることに限らず、接近点が含まれる領域だけを例えば点滅表示させる等しても良く、別の方法を用いても良い。
接近判定処理プログラムをCD−ROM、DVD−ROM、DVD−RAM、USBメモリ等の記録媒体に記録させ、それらの記録媒体からパソコン1が接近判定処理プログラムを読出して実行するようにしても良い。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and can be modified or expanded as follows.
The part for displaying the motion trajectory is not limited to the hand of the robot but may be a joint or the like.
The process of displaying an arrow from the closest sampling point to the closest point may be executed as necessary.
As a method of distinguishing an area where an approach point is included in an object surface figure from an area where an approach point is not included, the color of both is not limited, and only an area including an approach point is blinked, for example. Alternatively, another method may be used.
The approach determination processing program may be recorded on a recording medium such as a CD-ROM, DVD-ROM, DVD-RAM, or USB memory, and the personal computer 1 may read the execution determination processing program from the recording medium and execute it.

図面中、1はパソコン(ロボットの動作軌跡表示装置)、3は表示装置(表示手段)、
6はCPU(表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段)、9はハードディスク(動作軌跡データ記憶手段、物体表面図形データ記憶手段)、42はCPU(表示制御手段、ベクトル生成手段、接近判定手段、接近点特定手段、接近サンプリング点特定手段、最接近点特定手段、最接近サンプリング点特定手段、グループ化手段、重複判定手段、跨り判定手段、再生区間設定手段、動画拡縮率設定手段、再生速度設定手段)、43はハードディスク(動作軌跡データ記憶手段、物体表面図形データ記憶手段)、45は全体ビューウィンドウ(動作軌跡表示画面)、46は動画ビューウィンドウ(動画再生表示画面)である。
In the drawings, 1 is a personal computer (robot movement locus display device), 3 is a display device (display means),
6 is a CPU (display control means, vector generation means, approach determination means, approach point specification means, approach sampling point specification means, closest approach point specification means, closest approach sampling point specification means, grouping means, overlap determination means, straddle determination Means), 9 is a hard disk (motion trajectory data storage means, object surface graphic data storage means), 42 is a CPU (display control means, vector generation means, approach determination means, approach point specifying means, approach sampling point specifying means, closest approach Point specifying means, closest sampling point specifying means, grouping means, overlap determination means, straddle determination means, playback section setting means, moving picture scaling ratio setting means, playback speed setting means), 43 is a hard disk (motion trajectory data storage means, (Object surface graphic data storage means), 45 is an entire view window (motion trajectory display screen), and 46 is a movie view window. It is a window (video playback display screen).

Claims (7)

ロボットの特定箇所の動作軌跡を特定可能な動作軌跡データを記憶可能な動作軌跡データ記憶手段と、
ロボットの動作を妨げ得る物体表面の位置及び形状を特定する物体表面図形を特定可能な物体表面図形データを記憶可能な物体表面図形データ記憶手段と、
前記動作軌跡データ記憶手段に記憶されている動作軌跡データにより特定されるロボットの特定箇所の動作軌跡と、前記物体表面図形データ記憶手段に記憶されている物体表面図形データにより特定される物体表面図形とを同一画面上に含む動作軌跡表示画面を表示手段に表示させる表示制御手段と、
ロボットの特定箇所の動作軌跡上において一定時間間隔で取得されるサンプリング点毎に、各サンプリング点を基点として当該サンプリング点から当該動作軌跡と直交する面方向に一定距離に延びるベクトルを周方向に一定角度で段階的に進めて放射状に複数生成するベクトル生成手段と、
前記ベクトル生成手段により生成されたベクトルと、前記物体表面図形データ記憶手段に記憶されている物体表面図形データとを照合し、ベクトルと物体表面とが交差するか否かを判定し、ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近するか否かを判定する接近判定手段と、
ロボットの特定箇所の動作軌跡が物体表面まで一定距離以下に接近すると前記接近判定手段により判定された場合に、ロボットの特定箇所の動作軌跡からの距離が一定距離以下である物体表面上の点を接近点として特定する接近点特定手段と、
前記接近点特定手段により接近点が特定されたサンプリング点を接近サンプリング点として特定する接近サンプリング点特定手段と、を備え、
前記表示制御手段は、物体表面図形にて前記接近点特定手段により特定された接近点が含まれる領域である接近領域と当該接近点が含まれない領域である非接近領域とを区分して前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
Motion trajectory data storage means capable of storing motion trajectory data capable of specifying the motion trajectory of a specific location of the robot;
An object surface graphic data storage means capable of storing object surface graphic data capable of specifying an object surface graphic for specifying the position and shape of the object surface that can hinder the operation of the robot;
The motion trajectory of a specific part of the robot specified by the motion trajectory data stored in the motion trajectory data storage means and the object surface graphic specified by the object surface graphic data stored in the object surface graphic data storage means Display control means for causing the display means to display an operation trajectory display screen including the same on the same screen;
For each sampling point acquired at a certain time interval on the motion trajectory of a specific location of the robot, a vector extending from the sampling point to the surface direction orthogonal to the motion trajectory from the sampling point as a base point is constant in the circumferential direction. A vector generation means for generating a plurality of radial patterns by stepping in angles;
The vector generated by the vector generation means and the object surface graphic data stored in the object surface graphic data storage means are collated, and it is determined whether the vector and the object surface intersect to specify the robot. An approach determination means for determining whether or not the movement trajectory of the location approaches a certain distance or less to the object surface;
When the approach determination means determines that the motion trajectory of the specific location of the robot approaches a certain distance or less to the object surface, a point on the object surface whose distance from the motion trajectory of the specific location of the robot is equal to or less than a certain distance is determined. An approach point specifying means for specifying as an approach point;
An approach sampling point specifying means for specifying a sampling point whose approach point is specified by the approach point specifying means as an approach sampling point; and
The display control means classifies an approach area that is an area that includes an approach point specified by the approach point specifying means in an object surface graphic and a non-access area that is an area that does not include the approach point. An operation trajectory display device for a robot, characterized by being displayed on an operation trajectory display screen.
請求項1に記載したロボットの動作軌跡表示装置において、
前記接近点特定手段により複数の接近点が特定された場合に、複数の接近点のうち接近サンプリング点からの距離が最短である接近点を最接近点として特定する最接近点特定手段と、
前記最接近点特定手段により最接近点が特定された接近サンプリング点を最接近サンプリング点として特定する最接近サンプリング点特定手段と、を備え、
前記表示制御手段は、物体表面図形にて前記最接近サンプリング点特定手段により特定された最接近サンプリング点から前記最接近点特定手段により特定された最接近点までの距離及び方向を特定する指標を前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
The robot movement trajectory display device according to claim 1,
When a plurality of approach points are specified by the approach point specifying means, the closest approach point specifying means for specifying the approach point having the shortest distance from the approach sampling point among the plurality of approach points as the closest approach point;
The closest sampling point specifying means for specifying the closest sampling point as the closest sampling point specified by the closest approach point specifying means,
The display control means includes an index for specifying the distance and direction from the closest sampling point specified by the closest sampling point specifying means to the closest point specified by the closest approach point specifying means on the object surface graphic. An operation trajectory display device for a robot, characterized by being displayed on the operation trajectory display screen.
請求項1又は2に記載したロボットの動作軌跡表示装置において、
前記接近点特定手段により複数の接近点が特定された場合に、複数の接近点のうち隣り合う接近点同士を同一グループとする一方で隣り合わない接近点同士を別グループとするようにグループ化するグループ化手段を備え、
前記表示制御手段は、複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が別グループとされるように前記グループ化手段によりグループ化されて複数のグループが生成された場合に、物体表面図形にて前記複数のグループのうち一のグループに属する接近点が含まれる領域である一の接近領域と他のグループに属する接近点が含まれる領域である他の接近領域とを区分して前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
In the robot movement trajectory display device according to claim 1 or 2,
When a plurality of approach points are specified by the approach point specifying unit, adjacent approach points among a plurality of approach points are grouped together, while non-adjacent approach points are grouped together. Grouping means to
The display control means is grouped by the grouping means so that adjacent approach points among a plurality of approach points are made into the same group while approach points that are not adjacent to each other are made into different groups. When a group is generated, an object surface figure is an area including an approach point belonging to one group of the plurality of groups and an approach point belonging to another group. An operation locus display apparatus for a robot, characterized in that it is displayed on the operation locus display screen while being distinguished from other approach areas.
請求項3に記載したロボットの動作軌跡表示装置において、
複数の接近点のうち隣り合う接近点同士が同一グループとされる一方で隣り合わない接近点同士が別グループとされるように前記グループ化手段によりグループ化されて複数のグループが生成された場合に、複数のグループに跨って重複する接近点が存在するか否かを判定する重複判定手段を備え、
前記表示制御手段は、複数のグループに跨って重複する接近点が存在すると前記重複判定手段により判定された場合に、重複する接近点が含まれる領域と重複する接近点が含まれない領域とを区分して前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
In the robot movement locus display device according to claim 3,
When a plurality of proximity points are grouped by the grouping means so that adjacent proximity points among the plurality of proximity points are made into the same group while proximity points that are not adjacent to each other are made into different groups. In addition, it is provided with a duplication judgment means for judging whether or not there is an approach point that overlaps across a plurality of groups,
The display control means, when it is determined by the overlap determination means that there are overlapping approach points across a plurality of groups, an area including overlapping approach points and an area not including overlapping approach points. A robot motion trajectory display device, characterized by being displayed on the motion trajectory display screen.
請求項1乃至4の何れかに記載したロボットの動作軌跡表示装置において、
前記接近点特定手段により特定された隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在するか否かを判定する跨り判定手段を備え、
前記表示制御手段は、隣り合う接近点同士が同一の物体表面図形にて一の表面上と他の表面上とに跨って存在すると前記跨り判定手段により判定された場合に、隣り合う接近点同士が含まれる領域を一の表面上と他の表面上とに跨って前記動作軌跡表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
The robot movement locus display device according to any one of claims 1 to 4,
A straddling determination means for determining whether adjacent approach points specified by the approach point specifying means exist on one surface and another surface in the same object surface graphic,
The display control means determines whether adjacent approach points are adjacent to each other when the stride determination means determines that the adjacent approach points exist on one surface and another surface in the same object surface graphic. A motion trajectory display device for a robot, characterized in that a region including the image is displayed on the motion trajectory display screen across one surface and another surface.
請求項1乃至5の何れかに記載したロボットの動作軌跡表示装置において、
前記表示手段は、ロボットの特定箇所の動作軌跡と物体表面図形とを同一画面上に含む動作軌跡表示画面と、ロボットの特定箇所の動作軌跡を動画再生する動画再生表示画面とを同時に表示可能に構成され、
前記接近点特定手段により特定された接近点が含まれる領域である接近領域のうち前記動作軌跡表示画面の最も中央側で且つ光軸の最も手前側に表示されている接近領域に対応するロボットの特定箇所の動作軌跡を再生区間として設定する再生区間設定手段と、
前記動画再生表示画面に表示されている動画の拡縮率を設定する動画拡縮率設定手段と、
前記動画拡縮率設定手段により設定された拡縮率に反比例するように動画の再生速度を設定する再生速度設定手段とを備え、
前記表示制御手段は、前記再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、前記動画拡縮率設定手段により設定された拡縮率に反比例するように前記再生速度設定手段により設定された再生速度で前記動画再生表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
The robot movement locus display device according to any one of claims 1 to 5,
The display means can simultaneously display an operation trajectory display screen including an operation trajectory of a specific part of a robot and an object surface graphic on the same screen and a moving image playback display screen for reproducing a motion trajectory of the specific part of the robot. Configured,
The robot corresponding to the approach area displayed on the most center side of the motion trajectory display screen and on the most front side of the optical axis in the approach area that is the area including the approach point specified by the approach point specifying means. A playback section setting means for setting a motion locus of a specific location as a playback section;
Video scaling ratio setting means for setting a scaling ratio of the video displayed on the video playback display screen;
Replay speed setting means for setting the replay speed of the moving image so as to be inversely proportional to the enlargement / reduction ratio set by the moving image enlargement / reduction ratio setting means,
The display control means sets the playback speed so that the moving image of the motion locus of the specific part of the robot set as the playback section by the playback section setting means is inversely proportional to the scaling ratio set by the moving picture scaling ratio setting means. An operation trajectory display device for a robot, wherein the moving image is displayed on the moving image reproduction display screen at a reproduction speed set by the means.
請求項6に記載したロボットの動作軌跡表示装置において、
前記表示制御手段は、前記再生区間設定手段により再生区間として設定されたロボットの特定箇所の動作軌跡の動画を、前記動作軌跡表示画面の光軸と同一の光軸を有する視点、前記接領域と直交する光軸を有する視点、前記接近領域と平行で且つ動作軌跡と当該接近領域との中間に位置する光軸を有する視点の順序にしたがって前記動画再生表示画面に表示させることを特徴とするロボットの動作軌跡表示装置。
The robot movement locus display device according to claim 6,
The display control means is configured to display a motion trajectory of a specific part of the robot set as a playback section by the playback section setting means, a viewpoint having the same optical axis as the optical axis of the operation trajectory display screen, and the contact area. A robot having a viewpoint having an optical axis orthogonal to each other, and displaying on the moving image reproduction display screen according to a sequence of viewpoints having an optical axis that is parallel to the approach area and located between the movement locus and the approach area. Motion trajectory display device.
JP2010025366A 2010-02-08 2010-02-08 Robot trajectory display device Active JP5445191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010025366A JP5445191B2 (en) 2010-02-08 2010-02-08 Robot trajectory display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010025366A JP5445191B2 (en) 2010-02-08 2010-02-08 Robot trajectory display device

Publications (2)

Publication Number Publication Date
JP2011161549A true JP2011161549A (en) 2011-08-25
JP5445191B2 JP5445191B2 (en) 2014-03-19

Family

ID=44592847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025366A Active JP5445191B2 (en) 2010-02-08 2010-02-08 Robot trajectory display device

Country Status (1)

Country Link
JP (1) JP5445191B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425053A (en) * 2012-05-18 2013-12-04 发那科株式会社 Operation simulation apparatus of robot system
JP2015092332A (en) * 2013-09-30 2015-05-14 キヤノンマーケティングジャパン株式会社 Information processing device, control method thereof, and program
JP2016013579A (en) * 2014-06-30 2016-01-28 株式会社安川電機 Robot simulator, and file producing method of robot simulator
DE102012021374B4 (en) * 2011-11-08 2016-02-04 Fanuc Corporation Robot programming device
JP2017100234A (en) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ Teaching result display system
WO2017103997A1 (en) * 2015-12-15 2017-06-22 株式会社安川電機 Robot simulation device, robot simulation method, robot simulation program, and robot
JP2017177283A (en) * 2016-03-30 2017-10-05 セイコーエプソン株式会社 Robot control device, robot, and simulation device
JP2020069573A (en) * 2018-10-31 2020-05-07 ファナック株式会社 Automatic program correction device, method, and automatic path generator

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01224811A (en) * 1988-03-04 1989-09-07 Fanuc Ltd Method for checking interference of robot
JPH0511843A (en) * 1991-07-05 1993-01-22 Fujitsu Ltd Track generating method for robot
JPH08108383A (en) * 1994-10-05 1996-04-30 Fujitsu Ltd Manipulator control device
JP2003103491A (en) * 2001-09-28 2003-04-08 Honda Motor Co Ltd Mutual interference verification method and mutual interference verification display pattern for robot
JP2004082313A (en) * 2002-08-29 2004-03-18 Nachi Fujikoshi Corp Device for making simulation model of robot's movement
JP2005081445A (en) * 2003-09-04 2005-03-31 Fanuc Ltd Interference region confirmation device of robot
JP2006190228A (en) * 2005-01-07 2006-07-20 Kobe Steel Ltd Operation program creating method
JP2009190113A (en) * 2008-02-13 2009-08-27 Fanuc Ltd Robot simulation device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01224811A (en) * 1988-03-04 1989-09-07 Fanuc Ltd Method for checking interference of robot
JPH0511843A (en) * 1991-07-05 1993-01-22 Fujitsu Ltd Track generating method for robot
JPH08108383A (en) * 1994-10-05 1996-04-30 Fujitsu Ltd Manipulator control device
JP2003103491A (en) * 2001-09-28 2003-04-08 Honda Motor Co Ltd Mutual interference verification method and mutual interference verification display pattern for robot
JP2004082313A (en) * 2002-08-29 2004-03-18 Nachi Fujikoshi Corp Device for making simulation model of robot's movement
JP2005081445A (en) * 2003-09-04 2005-03-31 Fanuc Ltd Interference region confirmation device of robot
JP2006190228A (en) * 2005-01-07 2006-07-20 Kobe Steel Ltd Operation program creating method
JP2009190113A (en) * 2008-02-13 2009-08-27 Fanuc Ltd Robot simulation device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012021374B4 (en) * 2011-11-08 2016-02-04 Fanuc Corporation Robot programming device
JP2013240849A (en) * 2012-05-18 2013-12-05 Fanuc Ltd Operation simulation system of robot system
CN103425053B (en) * 2012-05-18 2016-01-20 发那科株式会社 The action emulation device of robot system
CN103425053A (en) * 2012-05-18 2013-12-04 发那科株式会社 Operation simulation apparatus of robot system
US9418394B2 (en) 2012-05-18 2016-08-16 Fanuc Corporation Operation simulation system of robot system
JP2018113057A (en) * 2013-09-30 2018-07-19 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method thereof, and program
JP2015092332A (en) * 2013-09-30 2015-05-14 キヤノンマーケティングジャパン株式会社 Information processing device, control method thereof, and program
JP2017004574A (en) * 2013-09-30 2017-01-05 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method thereof, and program
JP2019109931A (en) * 2013-09-30 2019-07-04 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method thereof, and program
JP2016013579A (en) * 2014-06-30 2016-01-28 株式会社安川電機 Robot simulator, and file producing method of robot simulator
US10521522B2 (en) 2014-06-30 2019-12-31 Kabushiki Kaisha Yaskawa Denki Robot simulator and file generation method for robot simulator
JP2017100234A (en) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ Teaching result display system
WO2017103997A1 (en) * 2015-12-15 2017-06-22 株式会社安川電機 Robot simulation device, robot simulation method, robot simulation program, and robot
JP2017177283A (en) * 2016-03-30 2017-10-05 セイコーエプソン株式会社 Robot control device, robot, and simulation device
JP2020069573A (en) * 2018-10-31 2020-05-07 ファナック株式会社 Automatic program correction device, method, and automatic path generator
US11579587B2 (en) 2018-10-31 2023-02-14 Fanuc Corporation Automatic program-correction device, automatic program-correction method, and automatic path-generation device

Also Published As

Publication number Publication date
JP5445191B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5445191B2 (en) Robot trajectory display device
JP5087532B2 (en) Terminal device, display control method, and display control program
JP5429060B2 (en) Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded
US10747389B2 (en) Display of three-dimensional model information in virtual reality
JP6303772B2 (en) INPUT CONTROL DEVICE, CONTROL METHOD, AND CONTROL PROGRAM
CN101887344A (en) Messaging device and information processing method
CN104070265A (en) Welding seam information setting device, program, automatic teaching system and welding seam information setting method
US11070724B2 (en) Image processing apparatus and method
JP2012022632A (en) Information processing apparatus and control method thereof
JP4756899B2 (en) Information processing apparatus and information processing method
JP5134409B2 (en) Presentation system
US6346941B1 (en) Interference check result displaying method and interference check result displaying apparatus as well as computer-readable recording medium having interference check result displaying program recorded thereon
JP4458886B2 (en) Mixed reality image recording apparatus and recording method
JP2003256025A (en) Robot motion teaching method and device
JP6373710B2 (en) Graphic processing apparatus and graphic processing program
KR19980080597A (en) Information processing device
JP6526851B2 (en) Graphic processing apparatus and graphic processing program
US11308670B2 (en) Image processing apparatus and method
JP6972647B2 (en) 3D shape data editing device and 3D shape data editing program
JP5247398B2 (en) Display adjustment device, display adjustment method, and computer program
JP3591876B2 (en) Graphic processing apparatus and method
JP4200960B2 (en) Editing apparatus, editing method, and program
JP3732174B2 (en) Three-dimensional configuration editing method and three-dimensional configuration editing apparatus
JP2005099977A (en) Sign language editing method and device
JP2012014391A (en) Comic-picture creation support apparatus, comic-picture creation support method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R150 Certificate of patent or registration of utility model

Ref document number: 5445191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250