JP2017113815A - Image display method of robot system that holds object using robot - Google Patents

Image display method of robot system that holds object using robot Download PDF

Info

Publication number
JP2017113815A
JP2017113815A JP2015249152A JP2015249152A JP2017113815A JP 2017113815 A JP2017113815 A JP 2017113815A JP 2015249152 A JP2015249152 A JP 2015249152A JP 2015249152 A JP2015249152 A JP 2015249152A JP 2017113815 A JP2017113815 A JP 2017113815A
Authority
JP
Japan
Prior art keywords
image
display
robot
robot system
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015249152A
Other languages
Japanese (ja)
Inventor
裕人 吉井
Hiroto Yoshii
裕人 吉井
弘 松浦
Hiroshi Matsuura
弘 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015249152A priority Critical patent/JP2017113815A/en
Publication of JP2017113815A publication Critical patent/JP2017113815A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information display device that is configured to display an image suitable for visually recognizing a work environment so as to allow a visual burden of a user to be reduced, regardless of a direction in which an imaging device is installed and a position where a display monitor is installed.SOLUTION: The robot system, which is configured to hold an object using a robot, comprises: an imaging camera or a measuring sensor for recognizing the object; display means that displays on a monitor information imaged by the camera or information measured by the sensor; converting means that converts uniformly an orientation of information to be displayed by the display means; and designating means that designates a parameter for the converting means. The converting means executes a rotational conversion or a reverse conversion or both conversions according to the parameter.SELECTED DRAWING: Figure 6

Description

本発明は、撮像装置によって対象物の位置・姿勢を計測し、その情報を基にロボットを用いて部品を把持し、部品の供給・搬送・組立・組み付けなどを行うロボットシステムの画像表示装置、及びプログラムに関する。   The present invention relates to an image display device for a robot system that measures the position / posture of an object using an imaging device, grips a component using a robot based on the information, and supplies, conveys, assembles, and assembles the component, And programs.

近年、工場などの製造現場において、ロボットアームなどを備えたロボットシステムが人間の代わりに組立や搬送を行うことが多くなっている。例えば、撮像カメラを用いて、製造部品やその部品を格納するトレイ等の撮像画像を取得し、当該撮像画像を画像解析することにより、ロボットアームを製造部品の把持に適した位置に移動させることが出来る。   In recent years, in a manufacturing site such as a factory, a robot system including a robot arm or the like is often assembled and transported instead of a human. For example, a captured image of a manufactured part or a tray for storing the part is acquired using an imaging camera, and the robot arm is moved to a position suitable for gripping the manufactured part by analyzing the captured image. I can do it.

また、特許文献1において開示されているように、製造部品の位置や姿勢(方位)の認識精度を向上させ、ロボットが精密に製造部品を把持できるように、製造部品やロボットアームなどの複数の姿勢を事前に撮像し、その解析結果を把持姿勢情報としてフィードバックするようなセットアップ過程を含むロボットシステムがある。   Further, as disclosed in Patent Document 1, a plurality of manufacturing parts, robot arms, and the like are provided so that the recognition accuracy of the position and orientation (orientation) of the manufacturing parts can be improved and the robot can accurately hold the manufacturing parts. There is a robot system including a setup process in which a posture is imaged in advance and an analysis result is fed back as gripping posture information.

特開2012−101320号公報JP2012-101320A

このような撮像画像を基にしてロボットを制御するロボットシステムを構築する場面や、そのシステムが正しく稼働していることを確認する場面において、作業者は撮像結果を表示モニタ上で参照し、同時にロボットシステムの現状の作業環境を視認しながら行うのが一般的である。   In a scene where a robot system that controls a robot based on such a captured image is constructed, or in a scene where the system is confirmed to be operating correctly, the operator refers to the imaging result on the display monitor and simultaneously It is common to perform this while visually checking the current working environment of the robot system.

また、システム構築の完了後、第三者に対してロボットシステムの稼働状況を周知したりする場合も表示モニタに映された各種画像と作業環境を比較しながら視認することが効果的である。   Further, after the system construction is completed, it is effective to visually recognize the operation status of the robot system to a third party by comparing various images displayed on the display monitor with the work environment.

しかしながら、撮像装置の取り付ける方向や表示モニタを設置する位置、作業者や観測者を含む使用者が直接視認した作業環境の方位は視認する方向によってまちまちで、撮像装置が生成した画像の方位と視認した作業環境の方位が一致しないことも多く、その場合はロボットシステムの視認が複雑になり、使用者の負担が増加する。   However, the mounting direction of the imaging device, the position where the display monitor is installed, and the orientation of the work environment directly viewed by the user including the worker and the observer vary depending on the viewing direction, and the orientation and visual recognition of the image generated by the imaging device. In many cases, the orientations of the work environments do not match, which complicates the visual recognition of the robot system and increases the burden on the user.

上記の課題を解決するために、本発明に係るロボットシステムは、
対象物体をロボットを用いて把持するロボットシステムにおいて、
前記システムは前記対象物体を認識するための撮影カメラまたは計測センサーと、
前記カメラが撮影した情報または前記センサーで計測した情報をモニタに表示する表示手段と、
前記表示手段に表示される情報の方位を一律に変換する変換手段と、
前記変換手段のパラメータを指定する指定手段とを備え、
前記変換手段は前記パラメータに従って回転変換もしくは反転変換もしくはその両方を施す変換であることを特徴とする。
In order to solve the above problems, a robot system according to the present invention includes:
In a robot system that grips a target object using a robot,
The system includes a photographing camera or a measurement sensor for recognizing the target object,
Display means for displaying information taken by the camera or information measured by the sensor on a monitor;
Conversion means for uniformly converting the orientation of information displayed on the display means;
Specifying means for specifying parameters of the conversion means,
The conversion means is a conversion that performs rotation conversion and / or inversion conversion according to the parameter.

本発明に係るロボットシステムによれば、ロボットシステムの複雑な作業手順調整を視認する際の使用者の負担を軽減し、また稼働中のロボットシステムシステムの動作確認の視認性を向上させる効果が得られる。   According to the robot system of the present invention, it is possible to reduce the burden on the user when visually recognizing the complicated work procedure adjustment of the robot system and to improve the visibility of the operation confirmation of the operating robot system system. It is done.

第一の実施形態におけるロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system in 1st embodiment. 第一の実施形態に適用されるロボットシステムの情報処理を示す図である。It is a figure which shows the information processing of the robot system applied to 1st embodiment. 本発明にかかるロボットシステムの画像表示方位の設定画面の例である。It is an example of the setting screen of the image display azimuth | direction of the robot system concerning this invention. 本発明にかかる画像表示方位の設定方法を例示した図である。It is the figure which illustrated the setting method of the image display direction concerning this invention. 対象物画像の生成・更新処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the production | generation / update process of a target object image. 第ニの実施形態に適用されるロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system applied to 2nd embodiment. 第三の実施形態に適用されるロボットシステムの構成を示す図である。It is a figure which shows the structure of the robot system applied to 3rd embodiment. 作業環境の見かけの方位が反転した時の方位調整方法を説明する図である。It is a figure explaining the azimuth | direction adjustment method when the apparent azimuth | direction of a work environment is reversed.

以下、本発明を実施するための形態を図面に基づいて説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

<第1実施形態>
第1の実施形態における好適なロボットシステムの装置構成を各種図面を参照しながら説明する。なお、図面に記載の同一部材・工程には同一の記号を付記し、既に説明した記号については再度の説明を省略することもある。
<First Embodiment>
An apparatus configuration of a suitable robot system in the first embodiment will be described with reference to various drawings. In addition, the same symbol is appended to the same member / process described in the drawings, and the re-explanation of the symbol already described may be omitted.

図1は本実施形態におけるロボットシステム(対象物把持システム)の構成を示す図である。図1(A)はロボットシステムの構成を上方から見た図であり、図1(B)は図1(A)記載の構成を横から見た図である。   FIG. 1 is a diagram showing a configuration of a robot system (object gripping system) in the present embodiment. 1A is a view of the configuration of the robot system as viewed from above, and FIG. 1B is a view of the configuration of FIG. 1A as viewed from the side.

100はロボットシステムが製造部品の組立・搬送をするための状態や空間領域を示す作業環境100である。ロボットシステムは、ロボットアーム11と、撮像装置13と、コントローラー14とを備える。   Reference numeral 100 denotes a work environment 100 indicating a state and a space area for the robot system to assemble and transport manufactured parts. The robot system includes a robot arm 11, an imaging device 13, and a controller 14.

ロボットアーム11は、6軸自由度のアームであり、エンドエフェクタとして二指ハンド機構(以下、「ハンド12」と称する)を備える。ハンド12は、部品16を把持できるような構造となっている。なお、ロボットとハンドの組み合わせは把持対象物体の形状特性に合わせて設計するべきものであり、ここに示した6軸ロボットと2指ハンド機構に限ったものではない。   The robot arm 11 is an arm having six degrees of freedom and includes a two-finger hand mechanism (hereinafter referred to as “hand 12”) as an end effector. The hand 12 has a structure that can grip the component 16. The combination of the robot and the hand should be designed in accordance with the shape characteristics of the object to be grasped, and is not limited to the 6-axis robot and the two-finger hand mechanism shown here.

また、部品16は、図1ではアイボルトを例示したが、ネジなどのそのほかの部品でもよい。部品16は、はじめ部品トレイ15にばらばらの姿勢で積載されており、位置及び姿勢の計測によって把持が可能と判断された部品16はロボットアーム11によって把持される。さらに部品16は組立・搬送・加工を行うための作業台17にコントローラー14が指示した位置・姿勢(方位)に並べられたり、そのほかの機構に組み付けられたりする。作業台17に並べられた部品16の配置例は図1に破線で示してある。なお、部品トレイ15の中に部品16が整列されて置かれており、それをロボットとハンドを用いて把持しても構わない。   Moreover, although the component 16 illustrated the eyebolt in FIG. 1, other components, such as a screw, may be sufficient. The components 16 are initially loaded in a disjointed posture on the component tray 15, and the components 16 determined to be grippable by measuring the position and orientation are gripped by the robot arm 11. Furthermore, the parts 16 are arranged in the position / orientation (orientation) designated by the controller 14 on the work table 17 for assembling, transporting, and processing, or assembled in other mechanisms. An example of the arrangement of the components 16 arranged on the workbench 17 is indicated by a broken line in FIG. In addition, the components 16 may be arranged and placed in the component tray 15 and may be held using a robot and a hand.

撮像装置13は、カメラである。撮像装置13は部品16を撮像したり、格納物である部品トレイ15を撮像したりして部品の位置を計測するための画像データを取得するものである。この撮像装置は2次元センサアレイによる一括情報取得方式でもよく、またスキャン方式でもよい。計測によって得られる情報は光軸に対して垂直方向に広がる2次元の輝度分布情報であったり、あるいは、三角測量法を応用してパターン化された照明ごとに計測結果を収集し、解析処理によって生成した3次元的な対象物の座標の情報であっても良い。また、光学系のデフォーカス特性を参照して得られた3次元的な対象物の座標情報であっても良い。   The imaging device 13 is a camera. The imaging device 13 acquires image data for measuring the position of the component by imaging the component 16 or imaging the component tray 15 which is a stored item. This imaging apparatus may be a collective information acquisition method using a two-dimensional sensor array or may be a scan method. The information obtained by the measurement is two-dimensional luminance distribution information that extends in the direction perpendicular to the optical axis, or the measurement results are collected for each illumination that is patterned by applying the triangulation method. Information on the coordinates of the generated three-dimensional object may be used. Further, it may be coordinate information of a three-dimensional object obtained by referring to the defocus characteristic of the optical system.

フレーム18は、撮像装置13を固定的に取り付ける為の構造物である。フレーム18は撮像の対象物によっては天井や床、壁などでもよい。   The frame 18 is a structure for fixedly mounting the imaging device 13. The frame 18 may be a ceiling, a floor, a wall or the like depending on an object to be imaged.

コントローラー14は、ロボットアーム11、ハンド12、及びカメラ13を制御して、各機構の動作を制御する。ここでコントローラー14は、一般的にコンピュータから構成されるが、本実施形態はその構成を限定するものではない。部品トレイ15には、組立や搬送のための部品16が積載されている。   The controller 14 controls the operation of each mechanism by controlling the robot arm 11, the hand 12, and the camera 13. Here, the controller 14 is generally configured by a computer, but the present embodiment does not limit the configuration. A component tray 15 is loaded with components 16 for assembly and conveyance.

ロボットシステムの構成中や稼働中に得られた撮像結果としての画像、もしくはその画像の解析結果としての分布データ(今後、単にまとめて「画像」と表現する)は表示モニタ19に映し出される。表示モニタ19は図1に付記した矢印の方向を向いている。作業者20は表示モニタ19及び作業エリア100を図中記載の方向を向きながら確認し、ロボットシステムの設定や操作を行う。   An image as an imaging result obtained during the configuration or operation of the robot system, or distribution data as an analysis result of the image (hereinafter simply referred to as “image”) is displayed on the display monitor 19. The display monitor 19 is directed in the direction of the arrow added in FIG. The operator 20 confirms the display monitor 19 and the work area 100 in the direction shown in the figure, and performs setting and operation of the robot system.

図2はコントローラー14の概略構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of a schematic configuration of the controller 14.

バス200には、CPU201、ROM202、RAM203、画像処理回路204、不揮発性大容量メモリ205、撮像制御部(I/F)206、画像入力部(I/F)207、およびロボット制御部(I/F)208、画像出力部(I/F)209、の各部が接続されている。ROM202には、CPU201のブートプログラムや定数パラメータ等が記憶されている。RAM203は、CPU201の作業領域や、撮像装置13により撮像された画像を一時的に記憶する保存領域として用いられる。   The bus 200 includes a CPU 201, a ROM 202, a RAM 203, an image processing circuit 204, a nonvolatile large-capacity memory 205, an imaging control unit (I / F) 206, an image input unit (I / F) 207, and a robot control unit (I / F) 208 and image output unit (I / F) 209 are connected. The ROM 202 stores a boot program for the CPU 201, constant parameters, and the like. The RAM 203 is used as a work area for the CPU 201 and a storage area for temporarily storing images picked up by the image pickup device 13.

画像処理回路204は、ロボットアーム11が部品16を把持する際に参照する画像生成処理や、部品を搭載した部品トレイ15を撮像した画像から対象物の位置と姿勢を推定する姿勢パターン検出処理、および、それらに必要な前処理の少なくとも一部を処理する専用ハードウェア回路である。なお、システムにおいて特に画像処理回路部204を備えずCPU201で動作させるプログラムにより全ての画像処理を行う構成とすることも可能である。このようにすると、通常は、コストは低減できるが処理速度は遅くなる。   The image processing circuit 204 performs image generation processing to be referred to when the robot arm 11 grips the component 16, posture pattern detection processing for estimating the position and posture of the object from an image obtained by capturing the component tray 15 on which the component is mounted, And a dedicated hardware circuit for processing at least a part of the preprocessing necessary for them. Note that the image processing circuit unit 204 is not particularly provided in the system, and all image processing can be performed by a program operated by the CPU 201. In this case, normally, the cost can be reduced, but the processing speed becomes slow.

不揮発性大容量メモリ205は、例えばHDD装置であり、CPU201で動作させるプログラムや、システムのパラメータ、生成した対象物の画像を記憶する。   The nonvolatile large-capacity memory 205 is, for example, an HDD device, and stores a program operated by the CPU 201, system parameters, and an image of the generated object.

撮像制御部206は、撮像装置13に接続して撮像タイミングの通知等の撮像制御を行う専用I/Fを備える。   The imaging control unit 206 includes a dedicated I / F that is connected to the imaging device 13 and performs imaging control such as notification of imaging timing.

画像入力部207は、コントローラー14の出力部(不図示)に接続され、撮像した画像データをコントローラー内に取り込む。   The image input unit 207 is connected to an output unit (not shown) of the controller 14 and takes captured image data into the controller.

ロボット制御部208は、ロボットアーム11及びハンド12に接続され、所望の動作制御を行うためのI/Fを備える。   The robot control unit 208 is connected to the robot arm 11 and the hand 12 and includes an I / F for performing desired operation control.

画像出力部209は、表示モニタ19の入力部(不図示)に接続され、撮像・解析して得られた画像およびパラメータを表示モニタ19に映し出す。   The image output unit 209 is connected to an input unit (not shown) of the display monitor 19 and displays an image and parameters obtained by imaging and analysis on the display monitor 19.

次に、図3および図4を用いて本実施形態における表示モニタ上の画像と作業環境100の作業者20の見え方(方位)を合致させる方法を説明する。   Next, a method for matching the image on the display monitor and the appearance (orientation) of the worker 20 in the work environment 100 in this embodiment will be described with reference to FIGS.

図3は作業者20が表示モニタ19上で参照することのできるUI(ユーザーインターフフェース)の表示方位設定画面300であり、指定された角度だけ画像301の方位を回転させることができる。   FIG. 3 is a UI (user interface) display orientation setting screen 300 that can be referred to on the display monitor 19 by the operator 20, and the orientation of the image 301 can be rotated by a specified angle.

表示方位設定画面300はコントローラー14の操作環境設定画面から遷移することができる。表示方位設定画面300には撮像装置13が取得した画像301が示されている。画像302の方位の初期値はコントローラー14が内部で保持している画像の方位のままとする。また画像301の回転は、方位規定手段302によって随時変更することができる。   The display orientation setting screen 300 can transition from the operation environment setting screen of the controller 14. The display orientation setting screen 300 shows an image 301 acquired by the imaging device 13. The initial value of the orientation of the image 302 remains the orientation of the image held inside the controller 14. The rotation of the image 301 can be changed at any time by the direction defining means 302.

方位規定手段302には左90度回転ボタン302−A、右90度回転ボタン302−B、方位入力ボックス302−Cが配置されている。最初の2つのボタンを押すと画像301は即座にそれぞれのボタンが示すとおりに画像を回転させて表示を更新する。また、画像301をマウスでドラッグすると、その動作に連動して画像301が表示画面内で回転し、その時点の方位が方位入力ボックス302−Cに反映される。また、ダイレクトに方位入力ボックス302−Cに数値(角度)を入力して画像を回転させることも可能である。ダイレクトに入力した数値(回転角)は、「適用」ボタン303を押すことで2次元画像の画面回転角として反映される。   The azimuth defining means 302 includes a left 90 degree rotation button 302-A, a right 90 degree rotation button 302-B, and an azimuth input box 302-C. When the first two buttons are pressed, the image 301 immediately updates the display by rotating the image as indicated by each button. When the image 301 is dragged with the mouse, the image 301 is rotated in the display screen in conjunction with the operation, and the azimuth at that time is reflected in the azimuth input box 302-C. It is also possible to directly input a numerical value (angle) in the azimuth input box 302-C and rotate the image. The numerical value (rotation angle) directly input is reflected as the screen rotation angle of the two-dimensional image by pressing the “apply” button 303.

画像301にはその方位を示すための軸(+x軸、+y軸)が重ねて示されており、その方位の変更に合わせてこれらの軸の方位も画面回転時に更新される。   In the image 301, the axes (+ x axis, + y axis) for indicating the orientation are shown superimposed, and the orientation of these axes is also updated when the screen is rotated in accordance with the change of the orientation.

表示方位設定画面300で変更した画面の回転を反映するためには、「適用」ボタン304、「OK」ボタン305、「デフォルト」ボタン306、「キャンセル」ボタン307、を使用する。   In order to reflect the rotation of the screen changed on the display orientation setting screen 300, an “apply” button 304, an “OK” button 305, a “default” button 306, and a “cancel” button 307 are used.

「適用」ボタン304を押すと、ロボットシステムの方位表示設定を保存し、「OK」ボタンを押すと、「適用」305ボタンの機能に加えて、表示方位設定画面300から抜ける。「デフォルト」ボタン306を押すと、方位表示設定の変更を破棄し、初期状態に戻る。「キャンセル」ボタンを307を押すと、方位表示設定の変更を行わず、表示方位設定画面300から抜ける。   When the “apply” button 304 is pressed, the orientation display setting of the robot system is saved, and when the “OK” button is pressed, the display orientation setting screen 300 is exited in addition to the function of the “apply” 305 button. When the “default” button 306 is pressed, the change in the azimuth display setting is discarded and the initial state is restored. When the “Cancel” button 307 is pressed, the display direction setting screen 300 is exited without changing the direction display setting.

表示方位が更新された場合、コントローラー14は表示モニタ19にロボットシステムが保持する画像を、その都度コントローラー14が保持している方位から指定値だけ回転した画像を表示するようにプログラムされている。   When the display orientation is updated, the controller 14 is programmed to display an image held by the robot system on the display monitor 19 and an image rotated by a specified value from the orientation held by the controller 14 each time.

以上、UIを用いた方位の規定・反映方法を説明したが、もちろんそれらの方式はここに記載したものに限定されず様々な形式をとりうる。   The method for defining and reflecting the direction using the UI has been described above. Of course, these methods are not limited to those described here, and can take various forms.

なお、画像301が例えば撮像対象の表面の3次元座標を示すデータで、射影によって2次元表示をしているものであったとき、画面回転の方位はデフォルトの2次元表示画面301の全域をそのまま回転させたものとなる。上記の3次元座標を示すデータは、例えば表示中にマウスなどのドラッグで観測視点を3次元的に回転させることが可能なので、画像の方位の設定を変更しても3次元座標データを観測できる視点のバリエーションが増えるわけではないが、作業者20が所望の観測視点にたどり着くまでの操作量を低減させる効果がある。   Note that when the image 301 is, for example, data indicating the three-dimensional coordinates of the surface of the imaging target and two-dimensional display is performed by projection, the orientation of the screen rotation remains as it is in the entire area of the default two-dimensional display screen 301. It will be rotated. Since the data indicating the above three-dimensional coordinates can be rotated three-dimensionally by dragging the mouse or the like during display, for example, the three-dimensional coordinate data can be observed even if the setting of the image orientation is changed. Although the viewpoint variation does not increase, there is an effect of reducing the amount of operation until the operator 20 reaches the desired observation viewpoint.

図4は図3に示したUIを用いて作業者20が参照する表示モニタ19と作業環境100の視点を図示したものである。撮像装置13の撮像範囲に部品トレイ15が存在する時、その表示モニタ19上の配置と、作業環境100のうち、部品トレイ15やそこに配置されている部品16の配置などを比較する。   FIG. 4 illustrates the viewpoint of the display monitor 19 and the work environment 100 that the operator 20 refers to using the UI shown in FIG. When the component tray 15 exists in the imaging range of the imaging device 13, the arrangement on the display monitor 19 is compared with the arrangement of the component tray 15 and the component 16 arranged in the work environment 100.

図4(A)は作業環境100の一部として作業者20が部品トレイ15及びそこに配置されている部品16を直接視認した時の様子である。図4(B)は図4(A)の観察対象に対応した表示方位設定画面300に映った画像301である。作業者20はこれら2つの配置を比較し、回転の方位が一致するように画像302の方位を修正する。修正の角度は例えば円の破線で囲った部品16が画面の下部に来るようになるような角度であるので、画像301を紙面上で左に90度回転すればよい。図4(C)は画像を回転し、方位を設定した後の画像301の様子である。   FIG. 4A shows a state in which the worker 20 directly visually recognizes the component tray 15 and the component 16 arranged there as a part of the work environment 100. FIG. 4B is an image 301 shown on the display orientation setting screen 300 corresponding to the observation target in FIG. The operator 20 compares these two arrangements and corrects the orientation of the image 302 so that the orientations of rotation match. The correction angle is such that, for example, the part 16 surrounded by the broken line of the circle comes to the lower part of the screen, so the image 301 may be rotated 90 degrees to the left on the paper. FIG. 4C shows the state of the image 301 after rotating the image and setting the azimuth.

最後に、作業者20が設定した画像表示方位の回転指示量を正しく反映させるためにコントローラー14が制御する処理フローを図5記載の各ステップ番号を用いて説明する(Sはステップを示す)。   Finally, the processing flow controlled by the controller 14 to correctly reflect the rotation instruction amount of the image display orientation set by the operator 20 will be described using each step number shown in FIG. 5 (S indicates a step).

ステップS501では、画像203の表示の命令を受信した時点か事前に、方位の設定値を取得しておく。   In step S501, the setting value of the azimuth is acquired in advance when the command for displaying the image 203 is received.

これ以降のステップは、コントローラー14の画像203の表示要求があればその都度実行される。   The subsequent steps are executed whenever there is a display request for the image 203 of the controller 14.

ステップS502では、表示すべき対象の画像203の情報を回転を考慮せずに保持する。   In step S502, the information of the target image 203 to be displayed is held without considering the rotation.

ステップS503では、ステップS502で取得した画像をステップS501もしくは後述するステップS505で得た方位に基づいて回転させ、表示モニタ19に表示する。   In step S503, the image acquired in step S502 is rotated based on the orientation obtained in step S501 or step S505 described later, and displayed on the display monitor 19.

ステップS504は作業者20が表示された画像203と作業者20が作業環境を見た時の方位が合致しているかの判断を委ねるステップである。作業者20が方位の修正をUIで指示したならば、図3(A)で例示したような設定画面を開き、ステップS505において方位を修正する。   Step S504 is a step of entrusting a determination as to whether the image 203 on which the worker 20 is displayed matches the orientation when the worker 20 looks at the work environment. If the operator 20 instructs the correction of the direction with the UI, a setting screen as illustrated in FIG. 3A is opened, and the direction is corrected in step S505.

ステップS506では作業者20が画像203の種別変更を指示する、ステップS507ではその要求を反映する。この時、元の画像203と回転方位は同じままとする。   In step S506, the operator 20 instructs to change the type of the image 203. In step S507, the request is reflected. At this time, the original image 203 and the rotation direction remain the same.

ここまでがコントローラー14による画像203の表示に関する処理フローである。このフローは作業者20が画像203の表示終了を指示するステップS508に進むまで継続する。   This is the processing flow related to the display of the image 203 by the controller 14. This flow continues until the operator 20 proceeds to step S508 instructing to end the display of the image 203.

ステップS508の指示をコントローラー14が受け付け、ステップS509に進むと、コントローラー14は現在の方位の設定を保存する。最後にステップS510で画像203の表示を終了する。   When the controller 14 accepts the instruction in step S508 and proceeds to step S509, the controller 14 stores the current orientation setting. Finally, the display of the image 203 is terminated in step S510.

<第2実施形態>
第2の実施形態における好適なロボットシステムの装置構成を各種図面を参照しながら説明する。
Second Embodiment
An apparatus configuration of a suitable robot system in the second embodiment will be described with reference to various drawings.

本実施形態が第1の実施形態と異なる点は、ロボットシステムを視認する人間が複数おり、それぞれ作業環境を視認する方位が異なる点である。   The difference between the present embodiment and the first embodiment is that there are a plurality of humans who visually recognize the robot system, and the azimuths for visually recognizing the work environment are different.

図6は第2の実施形態におけるロボットシステムの装置構成を上から見た図であり、第1の実施形態のロボットシステムに対して、下記の変更がある。すなわち、作業者20が作業環境100を視認する時の視線Aとは異なった視点から作業環境100を視線Bの方向に視認する観測者22と、第二の画像表示装置として、観測者22が撮像装置13が取得した画像を参照するための表示モニタ21が存在する点が異なる。表示モニタ21に表示される操作画面のシステムは、表示モニタ19に表示されるシステムと同等である。また、観測者21が撮像装置13の撮像範囲を参照できるよう、フレームやコントローラー14のレイアウトは異なっているが、撮像装置13やフレーム18の果たす機能は同等である。また、コントローラー14に備わっている画像出力部209は2つの表示モニタすなわち表示モニタ19と表示モニタ21にそれぞれ画像を出力できる構成となっている。   FIG. 6 is a view of the apparatus configuration of the robot system according to the second embodiment as viewed from above. The robot system according to the first embodiment has the following changes. That is, the observer 22 who visually recognizes the work environment 100 in the direction of the line of sight B from a viewpoint different from the line of sight A when the worker 20 visually recognizes the work environment 100, and the observer 22 as a second image display device The difference is that there is a display monitor 21 for referring to an image acquired by the imaging device 13. The system of the operation screen displayed on the display monitor 21 is the same as the system displayed on the display monitor 19. Further, the layout of the frame and the controller 14 is different so that the observer 21 can refer to the imaging range of the imaging device 13, but the functions performed by the imaging device 13 and the frame 18 are the same. The image output unit 209 provided in the controller 14 is configured to output images to two display monitors, that is, the display monitor 19 and the display monitor 21.

作業者20はロボットシステムの構築もしくはそのシステムの稼働状態を容易に視認できるように、視線Aに対応する表示モニタ19上の画像301の方位と、視線Bに対応する表示モニタ21上の画像301の方位をそれぞれ設定、保存する。このとき、視線Aと視線Bの方向は異なるので、それぞれの視線に対応する画像301の方位の設定値は異なる。   The operator 20 can easily view the construction of the robot system or the operating state of the system, and the orientation of the image 301 on the display monitor 19 corresponding to the line of sight A and the image 301 on the display monitor 21 corresponding to the line of sight B. Set and save each direction. At this time, since the directions of the line of sight A and the line of sight B are different, the set values of the orientations of the images 301 corresponding to the respective lines of sight are different.

このように上記2つの表示モニタが各種画像を回転させる方位を別々に規定すると、例えば、視線Aの方向から作業者20がロボットシステムを観察しつつ、別の視線Bの方向から別の人間、すなわち観測者22もロボットシステムを容易に視認することができる。   In this way, if the two display monitors separately specify the directions in which various images are rotated, for example, the operator 20 observes the robot system from the direction of the line of sight A, and another person from the direction of the other line of sight B, That is, the observer 22 can also easily see the robot system.

以上、本実施形態では、異なる人間がそれぞれ異なる視点からロボットシステムを視認するための手法を説明したが、本実施形態は、複数の表示モニタによって複数の視点で作業環境を視認しやすくなる手法を説明している。従って、少なくとも2人の人間、すなわち作業者20と観測者22に相当する人間の区別は実際にはしなくとも良い。   As described above, in this embodiment, the method for different humans to visually recognize the robot system from different viewpoints has been described. However, in the present embodiment, a method that makes it easy to visually recognize the work environment from a plurality of viewpoints using a plurality of display monitors. Explains. Therefore, it is not necessary to actually distinguish at least two persons, that is, persons corresponding to the worker 20 and the observer 22.

例えば、観測者22は、作業者20と同じくロボットシステムの設定を調整する者でもよいし、また、ロボットシステムが稼働できる状態になれば、作業者20は実質観測者22としてロボットシステムを視認することになる。   For example, the observer 22 may be a person who adjusts the setting of the robot system, like the operator 20, and the operator 20 visually recognizes the robot system as the real observer 22 when the robot system is ready for operation. It will be.

さらに、作業者20と観測者22は1人の人間でも良く、1人の人間が作業者20の位置や観測者22の位置に移動し、視点を変更しながらロボットシステムの構築や稼働をそれぞれの位置にある表示モニタを参照しながら実施することも可能である。   Furthermore, the worker 20 and the observer 22 may be one person, and one person moves to the position of the worker 20 or the position of the observer 22, and constructs and operates the robot system while changing the viewpoint. It is also possible to carry out with reference to the display monitor at the position.

勿論、表示モニタは3台以上用意し、それぞれの表示モニタはそれぞれ異なった方向から作業環境100を視認できる位置に配置しても良い。   Of course, three or more display monitors may be prepared, and each display monitor may be arranged at a position where the work environment 100 can be viewed from different directions.

<第3実施形態>
第3の実施形態における好適なロボットシステムの構成を各種図面を参照しながら説明する。
<Third Embodiment>
A configuration of a preferred robot system in the third embodiment will be described with reference to various drawings.

図7は本実施形態におけるロボットシステムの装置構成を示す図である。   FIG. 7 is a diagram showing a device configuration of the robot system in the present embodiment.

この構成は、ロボットアームなどから使用者を保護する不透明で板状の防護柵23及びミラー24が追加されている以外は図1記載の構成と同じである。   This configuration is the same as that shown in FIG. 1 except that an opaque plate-like protective fence 23 and a mirror 24 are added to protect the user from a robot arm or the like.

ロボットの防護柵23が必要で、作業環境100を作業者20が直接視認することが困難な場合、ロボットシステムの視認にミラー24を用いて間接的に視認する必要がある。ミラー24の鏡面は平面あるいは曲面で構成され、ロボットシステムで視認すべき範囲をカバーできるようにスキャン機構が備わっていることもある。   If the robot's protective fence 23 is necessary and it is difficult for the operator 20 to visually recognize the work environment 100 directly, it is necessary to visually inspect the robot system indirectly using the mirror 24. The mirror surface of the mirror 24 may be a flat surface or a curved surface, and may be equipped with a scanning mechanism so as to cover a range to be visually recognized by the robot system.

図3のように間接的に作業環境100を視認する場合は、直接視認する場合の見え方に対して上下、左右、もしくは斜めに反転した像を参照することがよくある。   When indirectly viewing the work environment 100 as shown in FIG. 3, it is often the case that an image that is inverted vertically, horizontally, or diagonally with respect to the appearance of direct viewing is referred to.

図8は図7で示したように間接的に視認した作業環境100の像が、直接視認した場合の像に対して反転した場合に画像301と作業環境100の作業者20の両者の見え方(方位)を合致させる方法を説明する為の図である。   FIG. 8 shows how the image 301 and the worker 20 in the work environment 100 are seen when the image of the work environment 100 visually recognized as shown in FIG. It is a figure for demonstrating the method to match (azimuth | direction).

図8(A)は作業環境100の一部として作業者20が部品トレイ15及びそこに配置されている部品16を間接的に視認した時の様子である。この方位は、図4(A)で示したミラー24が無い時の配置と比較すると、部品16の見かけ上の配置がミラー24によって上下に座標が反転している。すなわち作業環境100の見かけ上の方位が上下反転している。   FIG. 8A shows a situation when the worker 20 indirectly visually recognizes the component tray 15 and the components 16 arranged there as a part of the work environment 100. In this orientation, the coordinates of the apparent arrangement of the component 16 are inverted up and down by the mirror 24 as compared with the arrangement when the mirror 24 is not shown in FIG. That is, the apparent orientation of the work environment 100 is inverted upside down.

図8(B)は上記の視認によって得られた作業環境100の方位を表示方位設定画面300によって調整した結果である。図8(B)の様子は図4(C)を比較すると、y軸の方向は同じで、x軸の正負のみが反転して表示されている。言い換えると、画像301の方位は、画面の座標回転と特定方向(例えばx軸)の座標反転の組み合わせで調整することができる。   FIG. 8B shows a result of adjusting the orientation of the work environment 100 obtained by the above visual recognition using the display orientation setting screen 300. In FIG. 8B, the direction of the y-axis is the same, and only the positive / negative of the x-axis is inverted when compared with FIG. 4C. In other words, the orientation of the image 301 can be adjusted by a combination of coordinate rotation of the screen and coordinate inversion in a specific direction (for example, the x axis).

従って、本実施形態の表示方位設定画面300のUIは、例えばx軸の方向のみ座標を反転させるボタンが第1の実施例で例示したUIの構成と共に追加されているものを用いる。   Accordingly, as the UI of the display orientation setting screen 300 of this embodiment, for example, a button in which a button for inverting the coordinates only in the x-axis direction is added together with the UI configuration exemplified in the first example is used.

座標反転させる方位は、x軸である必要はなく、x軸に対して角度をもった方位であっても良い。反転の方位が異なったUIを用たとしても必ず同一の方位変換となるような回転角度が存在する。また、座標反転と回転の順番はどちらが先でも良い(ただし回転角はその順番に依存する)。   The direction for reversing the coordinates does not have to be the x-axis, and may be a direction having an angle with respect to the x-axis. Even if UIs having different inversion directions are used, there is a rotation angle that always results in the same direction conversion. In addition, the order of the coordinate inversion and rotation may be first (however, the rotation angle depends on the order).

以上に説明したように、作業者20は、画像301の方位の回転や反転を設定することで、表示モニタ19と見かけ上の作業環境100の方位を一致させることができ、ロボットシステムの操作や視認が容易になる。   As described above, the operator 20 can match the orientation of the display monitor 19 and the apparent work environment 100 by setting the rotation or inversion of the orientation of the image 301, Visual recognition becomes easy.

本発明は、撮像装置によって対象物の位置・姿勢を計測し、その情報を基にロボットを用いて部品を把持し、部品の供給・搬送・組立・組み付けなどを行うロボットシステム、とりわけ製造部品の組み立てや搬送を目的とした部品ピッキングシステムに適用可能である。   The present invention is a robot system that measures the position / posture of an object with an imaging device, grips a part using a robot based on the information, and supplies, conveys, assembles, and assembles the part, particularly a manufactured part. The present invention can be applied to a component picking system for the purpose of assembly and transportation.

100 作業環境、11 ロボットアーム、12 ハンド、13 撮像装置、
14 コントローラー、15 部品トレイ、16 部品、17 作業台、
18 フレーム、19 表示モニタ、20 作業者、21 表示モニタ、22 観測者、
200 バス、201 CPU、202 ROM、203 RAM、
204 画像処理回路、205 不揮発性大容量メモリ、
206 撮像制御部(I/F)、207 画像入力部(I/F)、
208 ロボット制御部(I/F)、209 画像出力部(I/F)、
300 表示方位設定画面、301 画像、302 方位規定手段、
302−A 左90度回転ボタン、302−B 右90度回転ボタン、
302−C 方位入力ボックス、303 適用ボタン、
304 設定更新ボタン
100 working environment, 11 robot arm, 12 hand, 13 imaging device,
14 controller, 15 parts tray, 16 parts, 17 workbench,
18 frames, 19 display monitors, 20 workers, 21 display monitors, 22 observers,
200 bus, 201 CPU, 202 ROM, 203 RAM,
204 image processing circuit, 205 non-volatile large-capacity memory,
206 Imaging control unit (I / F), 207 Image input unit (I / F),
208 Robot control unit (I / F), 209 Image output unit (I / F),
300 display orientation setting screen, 301 image, 302 orientation defining means,
302-A Left 90 degree rotation button, 302-B Right 90 degree rotation button,
302-C Direction input box, 303 Apply button,
304 Setting update button

Claims (1)

対象物体をロボットを用いて把持、ピッキングするロボットシステムにおいて、
前記システムは前記対象物体を認識するための撮影カメラまたは計測センサーと、
前記カメラが撮影した情報または前記センサーで計測した情報をモニタに表示する表示手段と、
前記表示手段に表示される情報の方位を一律に変換する変換手段と、
前記変換手段のパラメータを指定する指定手段とを備え、
前記変換手段は前記パラメータに従って回転変換もしくは反転変換もしくはその両方を施す変換である
ことを特徴とするロボットシステム。
In a robot system that grips and picks a target object using a robot,
The system includes a photographing camera or a measurement sensor for recognizing the target object,
Display means for displaying information taken by the camera or information measured by the sensor on a monitor;
Conversion means for uniformly converting the orientation of information displayed on the display means;
Specifying means for specifying parameters of the conversion means,
The robot system according to claim 1, wherein the conversion means is a conversion that performs rotation conversion and / or reverse conversion according to the parameter.
JP2015249152A 2015-12-22 2015-12-22 Image display method of robot system that holds object using robot Pending JP2017113815A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015249152A JP2017113815A (en) 2015-12-22 2015-12-22 Image display method of robot system that holds object using robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015249152A JP2017113815A (en) 2015-12-22 2015-12-22 Image display method of robot system that holds object using robot

Publications (1)

Publication Number Publication Date
JP2017113815A true JP2017113815A (en) 2017-06-29

Family

ID=59233061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015249152A Pending JP2017113815A (en) 2015-12-22 2015-12-22 Image display method of robot system that holds object using robot

Country Status (1)

Country Link
JP (1) JP2017113815A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110653823A (en) * 2019-10-12 2020-01-07 四川长虹电器股份有限公司 Hand-eye calibration result visualization method based on data inversion
CN114281044A (en) * 2021-12-24 2022-04-05 工业云制造(四川)创新中心有限公司 Industrial robot remote monitoring method and system based on cloud manufacturing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110653823A (en) * 2019-10-12 2020-01-07 四川长虹电器股份有限公司 Hand-eye calibration result visualization method based on data inversion
CN114281044A (en) * 2021-12-24 2022-04-05 工业云制造(四川)创新中心有限公司 Industrial robot remote monitoring method and system based on cloud manufacturing

Similar Documents

Publication Publication Date Title
JP6966582B2 (en) Systems and methods for automatic hand-eye calibration of vision systems for robot motion
JP6795471B2 (en) Robot system
JP4844453B2 (en) Robot teaching apparatus and teaching method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP5310130B2 (en) Display method of recognition result by three-dimensional visual sensor and three-dimensional visual sensor
JP5471355B2 (en) 3D visual sensor
JP5850962B2 (en) Robot system using visual feedback
JP6734253B2 (en) Imaging device including a visual sensor for imaging a workpiece
US20080013825A1 (en) Simulation device of robot system
JP2016107379A (en) Robot system including augmented reality corresponding display
WO2017146202A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
JP2019115974A (en) Calibration and operation of vision-based manipulation systems
US10724963B2 (en) Device and method for calculating area to be out of inspection target of inspection system
JP2009214212A (en) Action teaching system, and action teaching method
US20190255706A1 (en) Simulation device that simulates operation of robot
JP2009269134A (en) Simulation device in visual inspection apparatus
JP2017113815A (en) Image display method of robot system that holds object using robot
JP5573537B2 (en) Robot teaching system
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
JP7366264B2 (en) Robot teaching method and robot working method
CN110900606B (en) Hand-eye linkage system based on small mechanical arm and control method thereof
JP6343930B2 (en) Robot system, robot control apparatus, and robot control method
JP5862382B2 (en) Work support device
JP2019115950A (en) Robot control device, robot, and robot system
TW202333920A (en) Device for acquiring position of workpiece, control device, robot system, and method