JP6042291B2 - Robot, robot control method, and robot control program - Google Patents

Robot, robot control method, and robot control program Download PDF

Info

Publication number
JP6042291B2
JP6042291B2 JP2013175762A JP2013175762A JP6042291B2 JP 6042291 B2 JP6042291 B2 JP 6042291B2 JP 2013175762 A JP2013175762 A JP 2013175762A JP 2013175762 A JP2013175762 A JP 2013175762A JP 6042291 B2 JP6042291 B2 JP 6042291B2
Authority
JP
Japan
Prior art keywords
work
workpiece
image
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013175762A
Other languages
Japanese (ja)
Other versions
JP2015044257A (en
Inventor
雄介 関川
雄介 関川
弘利 岩崎
弘利 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2013175762A priority Critical patent/JP6042291B2/en
Publication of JP2015044257A publication Critical patent/JP2015044257A/en
Application granted granted Critical
Publication of JP6042291B2 publication Critical patent/JP6042291B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ワークに対して作業を行うロボット、ロボット制御方法、及びロボット制御プログラムに関するものである。   The present invention relates to a robot that performs work on a workpiece, a robot control method, and a robot control program.

ロボットが行うべき作業をロボットに簡単に教示する手法として、ロボットの動作部材(アーム等)をユーザが直接動かして作業を教示するダイレクト教示が実用化されている(例えば、特許文献1参照)。ダイレクト教示は、ロボットが行うべき作業のプログラムをコンピュータ上でユーザが作成する等の手法と比較して、教示が簡単であり、工場などの小ロット作業で作業効率改善の効果を上げている。   As a method for easily teaching a robot the work to be performed by the robot, a direct teaching in which a user directly moves a moving member (such as an arm) of the robot to teach the work has been put into practical use (for example, see Patent Document 1). Direct teaching is simpler compared with a method in which a user creates a program of work to be performed by a robot on a computer, and has an effect of improving work efficiency in small lot work in a factory or the like.

特開2006−346827号公報JP 2006-346827 A

しかしながら、この教示手法を一般家庭で簡単なタスクの代行をする等の用途のロボットに適用すると、教示に要する時間がかかるだけでなく、わざわざロボットのアームを動かすという手間が問題になる。   However, when this teaching method is applied to a robot for a purpose such as substituting a simple task in a general home, not only does it take time to teach, but also the trouble of moving the robot arm bothersomely becomes a problem.

本発明は、上記の問題に鑑みてなされたものであり、より短時間で身体的な負荷を少なくして作業内容の教示を行うことができるロボット、ロボット制御方法、及びロボット制御プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides a robot, a robot control method, and a robot control program capable of teaching work contents while reducing physical load in a shorter time. For the purpose.

本発明のロボットは、ワークに対して作業をするロボットであって、撮影によって撮影画像を生成するカメラと、ワークに対して作業を行う作業部と、作業教示工程において、ワークの画像を含む撮影画像に基づいて、ユーザによるワークに対する作業内容を認識し、作業実施工程において、前記作業内容を行うように前記作業部を制御する制御部とを備えた構成を有する。   The robot according to the present invention is a robot that works on a work, and includes a camera that generates a picked-up image by photographing, a working unit that performs work on the work, and photographing that includes an image of the work in the work teaching process. Based on the image, it has a configuration including a control unit that recognizes the work content of the work by the user and controls the work unit so as to perform the work content in the work execution process.

この構成により、ユーザによるワークに対する作業内容をカメラで撮影して、その撮影画像を用いて作業内容がロボットに教示されるので、より短時間で、ユーザの身体的な負荷を少なくして、作業内容をロボットに教示できる。   With this configuration, the work content for the work by the user is photographed by the camera, and the work content is taught to the robot using the photographed image, so that the physical load on the user can be reduced in a shorter time. The contents can be taught to the robot.

前記制御部は、前記作業実施工程において、ワークの画像を含む撮影画像に基づいて、ワークを認識し、認識されたワークに対応する前記作業内容を行うように前記作業部を制御してよい。   In the work execution step, the control unit may recognize the work based on a photographed image including the image of the work, and may control the work unit so as to perform the work content corresponding to the recognized work.

この構成により、作業実施工程において、作業の対象とすべきワークを特定して、必要な作業を行うことができる。   With this configuration, the work to be performed can be specified and the necessary work can be performed in the work execution process.

前記制御部は、更に、ワーク教示工程において、ワークを認識し、前記作業実施工程において、前記ワーク教示工程で認識したワークと前記作業実施工程における前記撮影画像に含まれるワークの画像とを比較することにより、ワークを認識してよい。   The control unit further recognizes the workpiece in the workpiece teaching step, and compares the workpiece recognized in the workpiece teaching step with the workpiece image included in the photographed image in the operation performing step in the operation performing step. Thus, the workpiece may be recognized.

この構成により、作業実施工程においてワークが任意の位置及び姿勢でおかれている場合にも、ワーク教示工程で教示したワークを認識して、そのワークに必要な作業を行うことができる。   With this configuration, even when the work is placed at an arbitrary position and posture in the work execution process, the work taught in the work teaching process can be recognized and the work necessary for the work can be performed.

前記作業部は、ワークを移動させることが可能であってよく、前記作業内容は、ワークを移動させることであってよい。   The working unit may be capable of moving a workpiece, and the work content may be to move the workpiece.

この構成により、ワークを移動させる作業を、より短時間で、ユーザの身体的な負荷を少なくして、ロボットに教示できる。   With this configuration, the robot can be instructed to move the workpiece in a shorter time with less physical load on the user.

前記制御部は、前記作業実施工程において、複数のワークを、互いの位置及び姿勢の関係が所定の位置及び姿勢となるよう移動させる作業を行うように前記作業部を制御し、前記作業教示工程において、ユーザがワークを移動した後のワークの移動先の位置及び姿勢を認識してよい。そして、前記移動先の位置及び姿勢は、既に移動された他のワークを基準とする位置及び姿勢であってよい。   The control unit controls the working unit to perform a work of moving a plurality of workpieces so that a relationship between the positions and postures of the workpieces is a predetermined position and posture in the work performing step, and the work teaching step. The position and orientation of the work destination after the user has moved the work may be recognized. The position and posture of the movement destination may be a position and posture with reference to another workpiece that has already been moved.

例えば、複数のワークを組み合わせて組み合せ物を完成させる過程において、それまでに出来上がっている組み合せ物(完成途中の組み合せ物)の位置や姿勢が変更された場合に、そのような変更後の、完成途中の組み合わせ物のロボットに対する位置及び姿勢をロボットにて認識できるのであれば、この構成により、そのような完成途中の組み合せ物の位置や姿勢の変更は許容される。   For example, in the process of completing a combination by combining multiple workpieces, if the position and orientation of the combination that has been completed so far (combination in the process of completion) are changed, the completion after such change is completed. If the robot can recognize the position and posture of the intermediate combination with respect to the robot, this configuration allows the change of the position and posture of the combination in the middle of completion.

前記作業部は、ワークを持ち上げて移動させることが可能であってよく、前記作業内容は、ワークを持ち上げて移動させることであってよい。   The working unit may be able to lift and move the work, and the work content may be to lift and move the work.

この構成により、ワークを持ち上げて移動させる作業を、より短時間で、ユーザの身体的な負荷を少なくして、ロボットに教示できる。   With this configuration, the work of lifting and moving the workpiece can be taught to the robot in a shorter time and with less physical load on the user.

前記作業部は、ワークを把持して移動させることが可能であってよく、前記作業内容は、ワークを把持して移動させることであってよい。   The working unit may be capable of gripping and moving a workpiece, and the work content may be gripping and moving the workpiece.

この構成により、ワークを把持して移動させる作業を、より短時間で、ユーザの身体的な負荷を少なくして、ロボットに教示できる。   With this configuration, it is possible to teach the robot the work of gripping and moving the workpiece in a shorter time and with less physical load on the user.

前記作業部は、ワークを把持することが可能であってよく、前記制御部は、前記作業実施工程において、ユーザの指によるワークの把持位置を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持するよう前記作業部を制御してよい。   The working unit may be capable of gripping a workpiece, and the control unit recognizes a gripping position of the workpiece by a user's finger in the work execution step, and in the work execution step, the work unit The working unit may be controlled to grip the workpiece at the gripping position.

この構成により、ユーザがワークを把持した際の把持位置でワークを把持するように作業部を制御できる。   With this configuration, the working unit can be controlled so as to grip the workpiece at the gripping position when the user grips the workpiece.

前記作業部は、2つのフィンガ部材を備え、前記2つのフィンガ部材の間の距離を変化させることで、ワークを把持するフィンガ部であってよく、前記制御部は、前記作業教示工程において、ユーザの2本の指によるワークの把持位置を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持するよう前記作業部を制御してよい。   The working unit may include two finger members, and may be a finger unit that grips a workpiece by changing a distance between the two finger members. The control unit may be a user in the work teaching step. The gripping position of the workpiece by the two fingers may be recognized, and the working unit may be controlled so that the working unit grips the workpiece at the gripping position in the work execution step.

この構成により、ユーザが2本の指でワークを把持した際の把持位置でワークを把持するように作業部を制御できる。   With this configuration, the working unit can be controlled so as to grip the workpiece at the gripping position when the user grips the workpiece with two fingers.

前記制御部は、前記作業教示工程において、ユーザの指によるワークの把持位置、ユーザがワークの把持を解除したときのワークの移動先の位置及び姿勢を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持し、ワークを前記移動先の位置まで移動させ、前記移動先の位置及び姿勢でワークの把持を解除するよう前記作業部を制御してよい。   The control unit recognizes the gripping position of the workpiece by the user's finger in the work teaching step, and the position and orientation of the workpiece movement destination when the user releases the gripping of the workpiece. The work part may be controlled such that the part grips the work at the gripping position, moves the work to the position of the movement destination, and releases the gripping of the work at the position and posture of the movement destination.

この構成により、ユーザがワークを把持して所望の移動先に移動させる作業を教示し、作業部がその作業を再現できる。   With this configuration, the user can teach the work of gripping the work and moving it to a desired destination, and the working unit can reproduce the work.

本発明のロボット制御方法は、ワークに対して作業をするロボット制御方法であって、撮影によって撮影画像を生成する撮影工程と、前記ワークの画像を含む撮影画像に基づいて、ユーザによるワークに対する作業内容を認識する作業教示工程と、前記作業内容を行うように前記作業部を制御する作業実施工程とを含む構成を有している。   The robot control method of the present invention is a robot control method for working on a workpiece, and includes a shooting process for generating a shot image by shooting, and a user's work on the workpiece based on the shot image including the image of the workpiece. It has a configuration including a work teaching process for recognizing contents and a work execution process for controlling the working unit to perform the work contents.

この構成により、ユーザによるワークに対する作業内容を撮影して、その撮影画像を用いて作業内容がロボットに教示されるので、より短時間で、ユーザの身体的な負荷を少なくして、作業内容をロボットに教示できる。   With this configuration, since the work content of the work by the user is photographed, and the work content is taught to the robot using the photographed image, the physical burden on the user can be reduced in a shorter time, and the work content can be reduced. Can teach robots.

本発明のロボット制御プログラムは、撮影によって撮影画像を生成するカメラと、ワークに対して作業を行う作業部とを備え、ワークに対して作業をするロボットのコンピュータを、作業教示工程において、前記ワークの画像を含む撮影画像に基づいて、ユーザによるワークに対する作業内容を認識し、作業実施工程において、前記作業内容を行うように前記作業部を制御する制御部として機能させる。   A robot control program according to the present invention includes a camera that generates a captured image by photographing and a working unit that performs work on a work. The user recognizes the work content of the work on the work based on the captured image including the image, and functions as a control unit that controls the work unit so as to perform the work content in the work execution process.

この構成により、ユーザによるワークに対する作業内容をカメラで撮影して、その撮影画像を用いて作業内容がロボットに教示されるので、より短時間で、ユーザの身体的な負荷を少なくして、作業内容をロボットに教示できる。   With this configuration, the work content for the work by the user is photographed by the camera, and the work content is taught to the robot using the photographed image, so that the physical load on the user can be reduced in a shorter time. The contents can be taught to the robot.

本発明によれば、ユーザによるワークに対する作業内容をカメラで撮影して、その撮影画像を用いて作業内容がロボットに教示されるので、より短時間で、ユーザの身体的な負荷を少なくして、作業内容をロボットに教示できる。   According to the present invention, since the work content of the work by the user is photographed by the camera, and the work content is taught to the robot using the photographed image, the physical load on the user can be reduced in a shorter time. Can teach robots the work content.

本発明の実施の形態におけるアーム型ロボットの構成を示す外観図FIG. 1 is an external view showing a configuration of an arm type robot in an embodiment of the present invention. 本発明の実施の形態におけるアーム型ロボットの構成を示すブロック図The block diagram which shows the structure of the arm type robot in embodiment of this invention 本発明の実施の形態における作業教示工程のフロー図The flowchart of the work teaching process in embodiment of this invention 本発明の実施の形態における作業実施工程のフロー図The flowchart of the work implementation process in embodiment of this invention (a)本発明の実施の形態における記憶部にDB画像が記憶されたワークおよびその座標系の一例を示す図 (b)本発明の実施の形態における記憶部に記憶されたデータの例を示す図(A) The figure which shows an example of the workpiece | work which DB image was memorize | stored in the memory | storage part in embodiment of this invention, and its coordinate system (b) The example of the data memorize | stored in the memory | storage part in embodiment of this invention is shown Figure 本発明の第1の実施の形態における姿勢推定装置の構成を示すブロック図The block diagram which shows the structure of the attitude | position estimation apparatus in the 1st Embodiment of this invention (a)本発明の実施の形態における物体の撮影方向の一例を示す図 (b)本発明の実施の形態における物体の撮影方向の一例を示す図(A) The figure which shows an example of the imaging | photography direction of the object in embodiment of this invention (b) The figure which shows an example of the imaging | photography direction of the object in embodiment of this invention (a)本発明の実施の形態における第1の撮影方向から撮影したときの候補画像および第2の撮影方向から撮影したときの予測画像の例を示す図 (b)本発明の実施の形態における第1の撮影方向から撮影したときの候補画像および第2の撮影方向から撮影したときの予測画像の例を示す図(A) The figure which shows the example of the prediction image when it image | photographs from the candidate image when it image | photographs from the 1st imaging | photography direction and 2nd imaging | photography direction in embodiment of this invention. (B) In embodiment of this invention The figure which shows the example of the prediction image when it image | photographs from the candidate image when it image | photographs from the 1st imaging | photography direction and the 2nd imaging | photography direction. 本発明の第1の実施の形態における姿勢推定装置の動作を示す図The figure which shows operation | movement of the attitude | position estimation apparatus in the 1st Embodiment of this invention. 本発明の第2の実施の形態における姿勢推定装置の構成を示すブロック図The block diagram which shows the structure of the attitude | position estimation apparatus in the 2nd Embodiment of this invention. (a)カメラにて撮影した画像に映った物体の画像の例を示す図 (b)画像アに係る物体の候補画像と画像イに係る物体の候補画像の組合せ可能性を示す図(A) The figure which shows the example of the image of the object reflected in the image image | photographed with the camera (b) The figure which shows the combination possibility of the candidate image of the object which concerns on image a, and the candidate image of the object which concerns on image a 本発明の第1の実施の形態の指示対象物表示装置の構成を示す図The figure which shows the structure of the indication target object display apparatus of the 1st Embodiment of this invention. (a)本発明の実施の形態における指差し方向が交差する物体の例を示す図 (b)本発明の実施の形態における指差し方向が物体の拡張領域と交差する例を示す図(A) The figure which shows the example of the object in which the pointing direction in embodiment of this invention crosses (b) The figure which shows the example in which the pointing direction in embodiment of this invention cross | intersects the expansion area | region of an object 本発明の実施の形態における指差し方向に複数の物体がある場合の、指示対象物検出部による指示対象物検出について説明するための図The figure for demonstrating the instruction | indication target object detection by an instruction | indication target object detection part in case there exists a some object in the pointing direction in embodiment of this invention 本発明の実施の形態における指差し方向が交差する位置と、発光による照射位置との関係を示す図The figure which shows the relationship between the position where the pointing direction in the embodiment of this invention cross | intersects, and the irradiation position by light emission 本発明の第1の実施の形態の指示対象物表示装置の動作を示すフローチャートThe flowchart which shows operation | movement of the instruction | indication target object display apparatus of the 1st Embodiment of this invention. 本発明の第2の実施の形態の指示対象物表示装置の動作を示すフローチャートThe flowchart which shows operation | movement of the pointing object display apparatus of the 2nd Embodiment of this invention. 本発明の第3の実施の形態の指示対象物表示装置の動作を示すフローチャートThe flowchart which shows operation | movement of the instruction | indication target object display apparatus of the 3rd Embodiment of this invention.

以下、本発明の実施の形態のロボットについて、図面を参照しながら説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。   Hereinafter, a robot according to an embodiment of the present invention will be described with reference to the drawings. The embodiment described below shows an example when the present invention is implemented, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be adopted as appropriate.

図1は、本発明の実施の形態のアーム型ロボットの構成を示す外観図である。本実施の形態のアーム型ロボット(以下、単に「ロボット」という。)10は、ワークWに対して作業を行うロボットである。ロボット10は、設置面に設置されるベース11と、ベースに接続されるアーム部12と、アーム部12のベース11とは反対側の端に設けられたハンド部13と、ハンド部13のアーム部12とは反対側の端に設けられたフィンガ部14とを備えている。アーム部12は、第1アーム12A、及び第2アーム12Bを備えている。また、フィンガ部14は、互いの距離が可変な2つのフィンガ部材14A、14Bを備えている。   FIG. 1 is an external view showing a configuration of an arm type robot according to an embodiment of the present invention. An arm type robot (hereinafter simply referred to as “robot”) 10 of the present embodiment is a robot that performs work on a workpiece W. The robot 10 includes a base 11 installed on the installation surface, an arm unit 12 connected to the base, a hand unit 13 provided at an end of the arm unit 12 opposite to the base 11, and an arm of the hand unit 13. The finger part 14 provided in the end on the opposite side to the part 12 is provided. The arm unit 12 includes a first arm 12A and a second arm 12B. The finger portion 14 includes two finger members 14A and 14B whose distances are variable.

2つのフィンガ部材14A、14Bの少なくとも互いに対抗する面には、ワークを把持するための滑り止め部材が貼付されており、または、滑り止め加工がなされている。なお、アーム部12、ハンド部13、及びフィンガ部14は、「作業部」に相当する。   An anti-slip member for gripping a workpiece is affixed to at least the surfaces of the two finger members 14A and 14B facing each other, or anti-slip processing is performed. The arm unit 12, the hand unit 13, and the finger unit 14 correspond to a “working unit”.

ロボット10は、設置面に垂直な軸周りに回転する第1軸21と、第1アーム12Aを水平軸周りに回転する第2軸22と、第1アーム12Aを軸周りに回転する第3軸23、第1アーム12Aに固定され、第2アーム12Bを水平方向に回転する第4軸24と、第2アーム12Bの軸周りに回転する第5軸25、及び第2アーム12Bに固定され、ハンド部13を水平方向に回転する第6軸26を備える6軸制御のロボットである。   The robot 10 includes a first axis 21 that rotates around an axis perpendicular to the installation surface, a second axis 22 that rotates the first arm 12A around a horizontal axis, and a third axis that rotates the first arm 12A around the axis. 23, fixed to the first arm 12A, fixed to the fourth shaft 24 that rotates the second arm 12B in the horizontal direction, the fifth shaft 25 that rotates around the axis of the second arm 12B, and the second arm 12B, This is a 6-axis control robot including a sixth axis 26 that rotates the hand unit 13 in the horizontal direction.

ハンド部13には、光軸がハンド部13からフィンガ部14に向かう方向を向くようにカメラ15が設置されている。カメラ15は、単眼のカメラである。このように、ハンド部13にカメラ15を備えるロボット10は、ハンドアイロボットとも呼ばれる。なお、カメラ15は、第1アーム12A及び第2アーム12Bのいずれかに設けられていてもよいし、ロボット10に対する位置及び姿勢の関係が既知である位置及び姿勢で、ロボット10のアーム部12の動きとは独立して設けられていてもよく、そのようなカメラ15が複数設けられていてもよい。   A camera 15 is installed in the hand unit 13 so that the optical axis faces the direction from the hand unit 13 toward the finger unit 14. The camera 15 is a monocular camera. As described above, the robot 10 including the camera 15 in the hand unit 13 is also referred to as a hand-eye robot. The camera 15 may be provided on either the first arm 12A or the second arm 12B, or the arm unit 12 of the robot 10 at a position and posture where the relationship between the position and posture relative to the robot 10 is known. The camera 15 may be provided independently of the movement, or a plurality of such cameras 15 may be provided.

以下、図2も参照して、本実施の形態のロボット10を更に説明する。図2は、本実施の形態のロボットの構成を示すブロック図である。図2に示すように、アーム部12及びハンド部13には、それぞれの軸を駆動するためのアクチュエータ121、131が設けられている。また、フィンガ部14には、フィンガ部材14A、14Bを駆動するアクチュエータ132が設けられており、フィンガ部材14Aとフィンガ部材14Bとの間の距離を変化させることで、ワーク(作業対象物体)を把持し、その把持を解除する。カメラ15は、カメラ制御部151の制御に従って、静止画像を撮影可能であり、動画像(連続的な静止画像)も撮影可能である。   Hereinafter, the robot 10 of the present embodiment will be further described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the robot according to the present embodiment. As shown in FIG. 2, the arm part 12 and the hand part 13 are provided with actuators 121 and 131 for driving the respective axes. In addition, the finger unit 14 is provided with an actuator 132 for driving the finger members 14A and 14B, and grips a workpiece (work target object) by changing the distance between the finger member 14A and the finger member 14B. And release the grip. The camera 15 can capture still images and can also capture moving images (continuous still images) under the control of the camera control unit 151.

アーム部12及びハンド部13には、それぞれ、駆動状態(各軸の回転角)を検出するためのアームセンサ122及びハンドセンサ132が設けられている。アームセンサ122及びハンドセンサ132は、アーム部12及びハンド部13にかかるトルクを検出するためのトルクセンサも含む。   Each of the arm unit 12 and the hand unit 13 is provided with an arm sensor 122 and a hand sensor 132 for detecting a driving state (a rotation angle of each axis). The arm sensor 122 and the hand sensor 132 also include a torque sensor for detecting torque applied to the arm unit 12 and the hand unit 13.

ロボット10は、更に制御部16及び記憶部17を備えている。アーム部12、ハンド部13、フィンガ部14、及びカメラ15は、制御部16からの指令に従って動作を行う。すなわち、制御部16は、アクチュエータ121、131、及び142に駆動を指示する信号を送ることで、これらのアクチュエータを動作させて、アーム部12、ハンド部13、及びフィンガ部14を駆動し、カメラ制御部151に撮影及び画像送信を指示する信号を送ることで、カメラ制御部151にカメラ15を制御させて、カメラ15に撮影及び画像送信を行わせる。カメラ15で撮影された画像は、カメラ制御部151を介して制御部16に送られる。アームセンサ122、ハンドセンサ132、フィンガセンサ142の検出値も制御部16に送られる。   The robot 10 further includes a control unit 16 and a storage unit 17. The arm unit 12, the hand unit 13, the finger unit 14, and the camera 15 operate according to instructions from the control unit 16. That is, the control unit 16 operates the actuators 121, 131, and 142 to drive the arm unit 12, the hand unit 13, and the finger unit 14 by operating the actuators 121, 131, and 142. By sending a signal instructing photographing and image transmission to the control unit 151, the camera control unit 151 controls the camera 15 to cause the camera 15 to perform photographing and image transmission. An image captured by the camera 15 is sent to the control unit 16 via the camera control unit 151. Detection values of the arm sensor 122, hand sensor 132, and finger sensor 142 are also sent to the control unit 16.

制御部16は、コンピュータからなり、所定の制御プログラムに従って、カメラ15からの撮影画像、並びにアームセンサ122、ハンドセンサ132、及びフィンガセンサ142の検出値に基づいて、アーム部12、ハンド部13、フィンガ部14の制御を行う。記憶部17は、以下に説明する動作に必要な情報を記憶している。特に、記憶部17は、以下に説明するワーク教示工程において教示されたワークの情報、及び作業教示工程において教示された作業の内容を記憶している。   The control unit 16 includes a computer, and, based on a photographed image from the camera 15 and detection values of the arm sensor 122, hand sensor 132, and finger sensor 142, according to a predetermined control program, the arm unit 12, the hand unit 13, The finger unit 14 is controlled. The storage unit 17 stores information necessary for the operation described below. In particular, the storage unit 17 stores information on the work taught in the work teaching process described below and the contents of the work taught in the work teaching process.

以下、ロボット10にワークを教示する工程(ワーク教示工程)、ワークに対する作業を教示する工程(作業教示工程)、ワーク対する作業を実施する工程(作業実施工程)について説明する。本実施の形態では、特定の形状を有するワークを把持して、それを所定の場所に移動する作業を例に説明する。   Hereinafter, a process of teaching a work to the robot 10 (work teaching process), a process of teaching work on the work (work teaching process), and a process of performing work on the work (work execution process) will be described. In the present embodiment, an example will be described in which a work having a specific shape is gripped and moved to a predetermined place.

(ワーク教示工程)
本実施の形態において、ワークの教示とは、作業の対象となるワークの情報として、ワークの立体形状を教示することである。なお、ワークの教示において、ワークの情報として、更にワーク表面のテクスチャや、ワーク表面の色を教示してもよい。
(Work teaching process)
In the present embodiment, the teaching of a workpiece is to teach a three-dimensional shape of the workpiece as information on the workpiece to be worked. In the teaching of the workpiece, the workpiece surface texture and the workpiece surface color may be further taught as workpiece information.

ロボット10にワークを教示させる方法として、種々の既知の方法を採用できる。例えば、教示すべきワークの形状情報を3次元CADデータ等でロボット10に取り込んでよい。この場合、ロボット10は、この3次元CADデータをワークの情報として記憶部17に記憶する。また、ワークに対して立体形状の計測を行って、この計測によって得られた立体形状データをロボット10に取り込んでもよい。この場合、ロボット10は、この立体形状データをワークの情報として記憶部17に記憶する。   Various known methods can be adopted as a method for teaching the workpiece to the robot 10. For example, the shape information of the work to be taught may be taken into the robot 10 using 3D CAD data or the like. In this case, the robot 10 stores the three-dimensional CAD data in the storage unit 17 as work information. Alternatively, a solid shape may be measured on the workpiece, and the solid shape data obtained by the measurement may be taken into the robot 10. In this case, the robot 10 stores the solid shape data in the storage unit 17 as work information.

本実施の形態のロボット10は、ハンド部13にカメラ15を備えているので、このカメラ15を利用して、以下のようにしてワークの教示を行う。まず、ユーザは、教示すべきワークをロボット10が認識できる位置に置く。ロボット10は、制御部16の制御によってアーム部12、ハンド部13、及びカメラ15を駆動して、カメラ15にこのワークを複数の方向からそれぞれ撮影させる。   Since the robot 10 according to the present embodiment includes the camera 15 in the hand unit 13, the robot 15 is used to teach a workpiece as follows. First, the user places a work to be taught at a position where the robot 10 can recognize. The robot 10 drives the arm unit 12, the hand unit 13, and the camera 15 under the control of the control unit 16, and causes the camera 15 to photograph the workpiece from a plurality of directions.

制御部16は、撮影画像からワークを認識して、そのワークの画像(DB画像)をそのときのアーム部12の姿勢とともに記憶部17に記憶する。なお、制御部16は、認識されたワークの画像そのものを記憶してもよいが、認識されたワークの局所特徴量をDB画像として記憶してもよい。以上により、ロボット10では、当該ワークについて、どの方向から撮影したときにどのようなワークの画像が得られるか(すなわち、どの方向から見たときにワークがどのように見えるか)という情報が得られることになる。すなわち、記憶部17には、ワークを各方向から撮影して得られた撮影画像が、撮影方向、および、撮影時のカメラ15の回転角度に対応付けて記憶されている。   The control unit 16 recognizes the workpiece from the captured image, and stores the image (DB image) of the workpiece in the storage unit 17 together with the posture of the arm unit 12 at that time. The control unit 16 may store the recognized workpiece image itself, but may store the recognized local feature amount of the workpiece as a DB image. As described above, the robot 10 obtains information on what kind of work image can be obtained from which direction the work is taken (that is, how the work looks when viewed from which direction). Will be. That is, the storage unit 17 stores captured images obtained by capturing the workpiece from each direction in association with the capturing direction and the rotation angle of the camera 15 at the time of capturing.

ロボット10には、上記のようにして複数のワークを教示することができる。複数のワークを教示する場合には、記憶部17にはワークごとにDB画像が記憶される。   A plurality of workpieces can be taught to the robot 10 as described above. When teaching a plurality of workpieces, the storage unit 17 stores a DB image for each workpiece.

(作業教示工程)
図3は、本実施の形態における作業教示工程のフロー図である。ユーザは、ワークに対する作業の教示を行う場合には、まず、カメラ15に向かって指を開いて手を振る。ロボット10では、カメラ15がこのユーザの手の動作を撮影して、制御部16が、撮影画像を解析して、ユーザがワークに対する作業の教示の開始を指示したことを認識する。
(Work teaching process)
FIG. 3 is a flowchart of the work teaching process in the present embodiment. In order to teach a work on a work, the user first opens his finger toward the camera 15 and shakes his hand. In the robot 10, the camera 15 captures the movement of the user's hand, and the control unit 16 analyzes the captured image to recognize that the user has instructed the start of work teaching for the workpiece.

ロボット10は、ワークに対する作業教示工程を開始すると、まず、カメラ15によってワーク及びその位置・姿勢を認識する(ステップS31)。このために、ロボット10は、アーム部12及びハンド部13を駆動しながらカメラ15でワークを複数の方向から撮影する。カメラ15は、各方向からワークの静止画像を撮影する。制御部16は、撮影画像と、予め記憶部17に記憶されているワークのDB画像とを比較することで、撮影されたのがどのワークであるかを認識する。なお、DB画像が局所特徴量である場合は、制御部16は撮影画像から局所特徴量を抽出して、それをDB画像と比較することで、ワークを認識する。   When the robot 10 starts the work teaching process for the workpiece, the robot 10 first recognizes the workpiece and its position / posture by the camera 15 (step S31). For this purpose, the robot 10 photographs the workpiece from a plurality of directions with the camera 15 while driving the arm unit 12 and the hand unit 13. The camera 15 captures a still image of the work from each direction. The control unit 16 recognizes which work is photographed by comparing the photographed image with the DB image of the work stored in the storage unit 17 in advance. When the DB image is a local feature amount, the control unit 16 recognizes the work by extracting the local feature amount from the captured image and comparing it with the DB image.

また、制御部16は、撮影画像とそのときのアーム部12の姿勢に基づいて、ワークの位置及び姿勢を認識する。このとき、制御部16は、ロボット10が設置された空間の座標系(ロボット座標系)におけるワークの位置及び姿勢を認識する。制御部16がワーク(以下、「物体」ともいう。)の位置及び姿勢を認識(推定)する技術については、後述する。   Further, the control unit 16 recognizes the position and posture of the workpiece based on the captured image and the posture of the arm unit 12 at that time. At this time, the control unit 16 recognizes the position and orientation of the workpiece in the coordinate system (robot coordinate system) of the space where the robot 10 is installed. A technique in which the control unit 16 recognizes (estimates) the position and orientation of a workpiece (hereinafter also referred to as “object”) will be described later.

ロボット10がワークを認識し、その位置及び姿勢を認識すると、ユーザは、2本の指を利用してワークを把持し、ワークを所望の位置まで移動させる。この作業がロボット10に教示すべき作業となる。このために、ロボット10の制御部16は、まず、ユーザの指を認識し、それを追跡する(ステップS32)。このとき、制御部16は、カメラ15で生成された撮影画像に基づいて、ロボット座標系における指の位置を認識する。ユーザの指の認識には、既知の手法(例えば、Leap Motion(登録商標))を採用できる。   When the robot 10 recognizes the workpiece and recognizes its position and posture, the user grasps the workpiece using two fingers and moves the workpiece to a desired position. This work is a work to be taught to the robot 10. For this purpose, the control unit 16 of the robot 10 first recognizes the user's finger and tracks it (step S32). At this time, the control unit 16 recognizes the position of the finger in the robot coordinate system based on the captured image generated by the camera 15. A known method (for example, Leap Motion (registered trademark)) can be used for recognizing the user's finger.

制御部16は、ユーザの2本の指(以下、ユーザ(人)の指を「指」と称し、ロボット10のフィンガ部14ないしフィンガ部材14A、14Bと区別する。)がワークを把持したと認識した時に、その指のワーク座標系における位置を認識する(ステップS33)。すなわち、制御部16は、指の位置及びワークの位置から指がワークを把持したことを認識するとともに、そのときの指の位置をワーク座標系に変換する。制御部16は、このときのワーク座標系における位置を把持位置情報として記憶部17に記憶する。   The control unit 16 assumes that the user's two fingers (hereinafter, the user's (human) finger is referred to as a “finger” and distinguished from the finger unit 14 or the finger members 14A and 14B of the robot 10) grips the workpiece. When recognized, the position of the finger in the work coordinate system is recognized (step S33). That is, the control unit 16 recognizes that the finger has gripped the workpiece from the finger position and the workpiece position, and converts the finger position at that time to the workpiece coordinate system. The control unit 16 stores the position in the workpiece coordinate system at this time in the storage unit 17 as gripping position information.

次に、ワークを2本の指で把持したユーザは、ワークを所望の箇所に移動させて、ワークの把持を解除する(ワークから指を離す)。制御部16は、カメラ15からの画像に基づいて指がワークから離れたことを認識し、そのときのワークのロボット座標系における位置及び姿勢をワークの移動先の位置及び姿勢として認識し、これを記憶する(ステップS34)。以上の動作により、制御部16には、ワーク座標系でのワークの把持位置及びロボット座標系でのワークの移動先の位置及び姿勢の情報が記憶される。これによって、ワークに対して作業を指示してロボット10にワークに対する作業を行ってもらう準備が整ったことになる。   Next, the user holding the workpiece with two fingers moves the workpiece to a desired location and releases the workpiece (releases the finger from the workpiece). The control unit 16 recognizes that the finger has moved away from the workpiece based on the image from the camera 15, recognizes the position and posture of the workpiece in the robot coordinate system at that time as the position and posture of the movement destination of the workpiece, Is stored (step S34). With the above operation, the control unit 16 stores information on the position of the workpiece in the workpiece coordinate system and the position and posture of the workpiece in the robot coordinate system. As a result, preparation for instructing the work to be performed on the work and having the robot 10 perform the work on the work is completed.

なお、ワークの移動先の位置及び姿勢は、撮影画像に基づいてワークの移動が所定時間以上停止したと認識したときのワークの位置及び姿勢をもって認識してもよい。また、上記の実施の形態では、ワークを把持する際の把持位置をもってワークの把持位置を決定したが、ワークを移動先に移動した後の指の把持位置をもってワークの把持位置としてもよい。この場合には、制御部16は、移動先におけるワークの位置及び姿勢と、指の位置から、ユーザがワークを離す直前のワーク座標系におけるワークの把持位置を認識する。ワークを把持してから移動先に置くまでワークを離さなかった場合には、把持位置を認識するのがワークの把持時でもワークを離す直前でも同じ結果となるが、ユーザが移動先にワークを置く前にワークを持ち替えた場合には、持ち替えた後の把持位置が認識されることになる。ユーザは、ワークを移動先付近まで運ぶ際には、ワークを2本指で摘まみ上げる必要はなく、任意の手の動作によって持ち上げてよい。そして、所望の場所に置く際にワークを2本指で把持するように持ち替えれば、所望の場所に置くために、ワークのどこを把持すればよいのかを教示することができる。   Note that the position and orientation of the movement destination of the workpiece may be recognized based on the position and orientation of the workpiece when it is recognized that the movement of the workpiece has stopped for a predetermined time or more based on the captured image. In the above embodiment, the gripping position of the workpiece is determined based on the gripping position when gripping the workpiece. However, the gripping position of the finger after moving the workpiece to the movement destination may be used as the gripping position of the workpiece. In this case, the control unit 16 recognizes the gripping position of the workpiece in the workpiece coordinate system immediately before the user releases the workpiece from the position and posture of the workpiece at the movement destination and the position of the finger. If the workpiece is not released until it is placed on the destination after gripping the workpiece, the gripping position is recognized either when holding the workpiece or just before releasing the workpiece, but the user places the workpiece on the destination. When the work is changed before placing, the gripping position after the change is recognized. When the user carries the workpiece to the vicinity of the destination, the user does not need to pick up the workpiece with two fingers, and may lift it by an arbitrary hand movement. If the workpiece is held so as to be gripped with two fingers when placed at a desired location, it can be taught where to grip the workpiece to place it at the desired location.

また、上記のステップS34では、ロボット座標系におけるワークの位置及び姿勢をワークの移動先の位置及び姿勢として認識したが、後述する作業実施工程において、複数のワークを、互いの位置及び姿勢の関係が所定の位置及び姿勢となるよう移動させる作業を行う場合、例えば、複数のワークを組み合わせて組み合せ物を完成させるという作業を行う場合には、移動先の位置及び姿勢は、既に移動された他のワークを基準とする位置及び姿勢、例えば、複数のワークを組み合わせて組み合せ物を構成する場合における、それまでに出来上がっている組み合せ物(完成途中の組み合わせ物)を基準とする座標系(組み合わせ物座標系)で、移動先のワークの位置及び姿勢であってよい。このようにすることで、例えば、完成途中の組み合わせ物の位置や姿勢が変更されたとしても、変更後の完成途中の組み合わせ物の、ロボット10に対する位置及び姿勢を認識できれば、完成途中の組み合わせ物の所定の位置に所定の姿勢でワークを移動させる作業を行うことが可能となる。   In step S34, the position and posture of the workpiece in the robot coordinate system are recognized as the position and posture of the movement destination of the workpiece. However, in the work execution process described later, a plurality of workpieces are related to each other in position and posture. When moving to a predetermined position and orientation, for example, when performing a task of completing a combination by combining a plurality of workpieces, the position and orientation of the destination are the same as those already moved. Coordinate system (combination product) with reference to the combination (finished product) that has been completed so far, for example, in the case of composing a product by combining multiple workpieces. In the coordinate system, it may be the position and posture of the workpiece to be moved. By doing in this way, for example, even if the position and posture of the combination in the middle of completion are changed, the combination in the middle of completion can be recognized if the position and posture of the combination in the middle of completion after the change can be recognized. It is possible to perform an operation of moving the workpiece to a predetermined position in a predetermined posture.

以上の作業教示工程によって、ワークの把持位置の情報(ワーク座標系)、及び移動先の位置及び姿勢の情報が取得され、これらの情報が互いに関連付けられて、作業教示情報として制御部16に記憶される。   Through the work teaching process described above, information on the gripping position of the work (work coordinate system) and information on the position and orientation of the movement destination are acquired, and these pieces of information are associated with each other and stored in the control unit 16 as work teaching information. Is done.

なお、ロボットに教示する作業として、材料箱に入った多数のワークから、所定のワークを取り出して、作業台に運び、作業台において、ワークを組み立てる作業を行う等の場合には、上記の各ワークについての作業のほかに、どのワークに対してどの順番で作業を行うか(組み立てプログラム)をロボットに教示する必要がある。   In addition, as a work to teach the robot, when a predetermined work is taken out from a large number of work pieces contained in the material box and carried to a workbench, and a work is assembled on the workbench, In addition to work on the work, it is necessary to teach the robot which work is to be done in what order (assembly program).

(作業実施工程)
作業実施工程では、ユーザは、作業をしてもらいたいワークをロボット10に指示して、作業を行ってもらう。このために、ユーザは、まず、作業を行ってもらいたいワークをロボット10に対して指示する。このとき、ユーザは、自らの1本の指を使って、まず、カメラ15に向かってこの指を振ることで、ロボット10に対してワークへの作業指示を行うことを認識させる。ロボット10がワークへの作業指示の開始が指示されたことを認識したら、ユーザは、作業を行ってもらいたいワークを1本の指で指し示すことで、作業を行ってもらいたいワークを指示する。
(Work implementation process)
In the work execution process, the user instructs the robot 10 to perform a work to be worked on, and asks the robot 10 to perform the work. For this purpose, the user first instructs the robot 10 on a work to be performed. At this time, the user uses his / her one finger to first sway this finger toward the camera 15 to cause the robot 10 to recognize that the work instruction to the workpiece is to be performed. When the robot 10 recognizes that the start of the work instruction to the work has been instructed, the user indicates the work to be performed by pointing the work desired to be performed with one finger.

図4は、ロボット10における作業実施工程のフロー図である。カメラ15は、ユーザの指(まっすぐ伸びた1本の指)を撮影し、カメラ制御部151を介して撮影画像を制御部16に送る。制御部16は、この撮影画像に基づいて、上述の指認識の技術を用いて、ユーザがワークへの作業の指示をしようとしていること、及びロボット座標系における指の位置及び指が差している方向を認識する。制御部16は、指が指す先にカメラ15を向けるようにアーム部12の動作を制御し、カメラ15にワークを撮影させる。   FIG. 4 is a flowchart of the work execution process in the robot 10. The camera 15 captures the user's finger (one finger that extends straight) and sends the captured image to the control unit 16 via the camera control unit 151. Based on this photographed image, the control unit 16 uses the above-described finger recognition technology to indicate that the user is instructing a work to be performed on the workpiece, and the finger position and the finger are pointing in the robot coordinate system. Recognize direction. The control unit 16 controls the operation of the arm unit 12 so that the camera 15 is directed toward the tip of the finger, and causes the camera 15 to photograph the workpiece.

制御部16は、ワークを撮影した撮影画像を画像DBと照合することにより、指が指し示す方向にあるワークを特定し、撮影画像とそのときのアーム部12の姿勢から、ワーク及びワークのロボット座標系における位置及び姿勢を認識する(ステップS41)。なお、1つのワークに対して複数の作業が教示されている場合には、このステップS41の後に、作業内容の指示も行う。ワークの特定やそれに対する作業の指示は、現実の空間におけるユーザの指差しのみならず、例えば、スマートホン等における仮想空間を利用したGUIを利用して行ってよく、リストアップされたワークや作業をユーザが選択するものであってもよく、ユーザの音声を認識するものであってもよい。この指差し方向にあるワークを認識するための技術については、後述する。   The control unit 16 identifies a workpiece in the direction indicated by the finger by collating a captured image obtained by capturing the workpiece with the image DB, and determines the robot coordinates of the workpiece and the workpiece from the captured image and the posture of the arm unit 12 at that time. The position and orientation in the system are recognized (step S41). When a plurality of works are taught for one work, the work contents are also instructed after step S41. The work is specified and the work instruction is not limited to the user's pointing in the real space, but may be performed using, for example, a GUI using a virtual space in a smart phone or the like. May be selected by the user, or the user's voice may be recognized. A technique for recognizing the workpiece in the pointing direction will be described later.

ワークの位置及び姿勢が認識できたら、制御部16は、アーム部12、ハンド部13、及びフィンガ部14を制御して、フィンガ部14にワークを把持させる(ステップS42)。このとき、制御部16は、記憶されているワークの把持位置にてワークを把持するようにアーム部12、ハンド部13、及びフィンガ部14を制御する。   If the position and orientation of the workpiece can be recognized, the control unit 16 controls the arm unit 12, the hand unit 13, and the finger unit 14 to cause the finger unit 14 to grip the workpiece (step S42). At this time, the control unit 16 controls the arm unit 12, the hand unit 13, and the finger unit 14 so as to grip the workpiece at the stored workpiece gripping position.

フィンガ部14がワークを把持すると、制御部16は、ワークが予め教示された移動先に移動して予め教示された姿勢になるように、アーム部12及びハンド部13を制御する。アーム部12及びハンド部13は、制御部16の制御によって駆動され、予め教示された姿勢となるようにワークを教示された移動先に移動させる(ステップS43)。制御部16は、ワークが所定の位置及び姿勢となったら、フィンガ部14をフィンガ部材14A、14Bの間の距離が遠くなるように駆動して、ワークの把持を解除する(ワークをリリースする)(ステップS44)。   When the finger unit 14 grips the workpiece, the control unit 16 controls the arm unit 12 and the hand unit 13 so that the workpiece moves to the movement destination taught in advance and assumes the posture taught in advance. The arm unit 12 and the hand unit 13 are driven by the control of the control unit 16 and move the workpiece to the taught destination so that the posture is taught in advance (step S43). When the workpiece reaches a predetermined position and posture, the control unit 16 drives the finger unit 14 so that the distance between the finger members 14A and 14B is increased, and releases the workpiece (releases the workpiece). (Step S44).

なお、複数種類のワークを組み立てる作業を行う等の場合には、ユーザは、各ワークについて上記のように作業の指示をするのではなく、ロボット10は、組み立てプログラムに従って自動的に、順にワークを認識して、必要な作業を行ってよい。   In the case of performing an operation of assembling a plurality of types of workpieces, the user does not instruct the operation for each workpiece as described above, but the robot 10 automatically and sequentially performs the workpieces according to the assembly program. Recognize and do the necessary work.

以上のように、本実施の形態のロボット及びロボット制御方法によれば、ユーザが実際に指を使ってワークに対する作業をすることで、ロボット10にワークに対する作業を教示することができるので、ユーザがプログラミングをする必要はなく、また、何らかのGUIを利用してコンピュータに入力する必要すらなく、さらに、ユーザがロボット10のアーム部12、ハンド部13、及びフィンガ部14を直接操作する必要もなく、簡単かつ直感的な方法でロボット10にワークに対する作業を教示できる。   As described above, according to the robot and the robot control method of the present embodiment, the user can teach the robot 10 the work on the work by actually performing the work on the work using the finger. Does not need to be programmed, does not need to input to a computer using any GUI, and does not require the user to directly operate the arm unit 12, the hand unit 13, and the finger unit 14 of the robot 10. The robot 10 can be instructed to work on the workpiece by a simple and intuitive method.

さらに、本実施の形態では、把持の作業を教示する際に、ワーク系座標における把持位置を記憶するので、実際に作業の指示をする際には、作業対象となるワークの位置及び姿勢が、教示した際と異なる任意の位置及び姿勢であっても、そのワークの位置と姿勢が認識できれば、教示したときと同じワークの位置をフィンガ部材14A、14Bで把持できる。   Furthermore, in the present embodiment, when teaching the gripping work, the gripping position in the work system coordinates is stored, so when actually instructing the work, the position and posture of the work to be worked are: If the position and posture of the workpiece can be recognized even if the position and posture are different from those taught, the same workpiece position as that taught can be gripped by the finger members 14A and 14B.

また、フィンガ部材14A、14Bを2つとし、作業の教示の際にもユーザには2本の指を使ってワークを把持させるので、3本以上のフィンガ部材及び指を使用する場合と比較して、干渉等を避けるための演算処理負荷が小さくて済む。   Also, since there are two finger members 14A and 14B and the user grips the workpiece using two fingers when teaching work, it is compared with the case of using three or more finger members and fingers. Thus, the processing load for avoiding interference and the like can be reduced.

なお、上記の実施の形態では、所望のワークを所望の位置及び姿勢に移動させる作業を行う例を説明したが、本発明のロボット及びロボット制御方法の作業内容は上記の例に限られず、例えば、作業教示工程では、ユーザはワークの把持位置のみをロボットに教示するともに、作業実施工程において、ユーザがワークの移動先を指で指し示すことで、移動先が確定されてもよい。この場合に、必要であれば更に何らかの指示工程でのユーザの指示に従った姿勢となるようにワークを移動させて把持を解除してよい。   In the above embodiment, the example of performing the work of moving the desired workpiece to the desired position and posture has been described. However, the work content of the robot and the robot control method of the present invention is not limited to the above example, In the work teaching step, the user may teach the robot only the workpiece gripping position, and in the work execution step, the user may determine the movement destination by pointing the movement destination of the workpiece with a finger. In this case, if necessary, the workpiece may be moved so as to be in a posture according to the user's instruction in some instruction process to release the grip.

また、作業内容は、所望のワークを認識して把持し、所望の位置まで移動させて所望の姿勢とするように把持したままとする(リリースしない)作業であってよく、所望のワークを認識して把持し、ワークを把持したまま所定の空間内でワークに正方向及び負方向の速度を繰り返し持たせ、又は正方向及び負方向の加速度を繰り返し加える(シェイクする)作業であってもよい。   The work content may be a work that recognizes and grips a desired workpiece, moves to a desired position, and keeps it held in a desired posture (does not release), and recognizes the desired workpiece. The workpiece may be gripped, and the workpiece may be repeatedly given positive and negative speeds in a predetermined space, or the positive and negative accelerations may be repeatedly applied (shake). .

さらに、上記の実施の形態では、ハンド部13の先端に2つの距離可変なフィンガ部材14A、14Bを含むフィンガ部14でワークを把持したが、これに限られず、ハンド部13の先端に台が設けられて、作業内容は、その台にワークを載せる作業であってよく、または、ハンド部13の先端にフックが設けられて、作業内容は、そのフックにワークを引っ掛ける作業であってよい。これらのいずれの場合にも、作業内容は台に乗せたワークやフックに掛けたワークを移動させる作業を伴ってよい。   Further, in the above-described embodiment, the workpiece is gripped by the finger portion 14 including the finger members 14A and 14B having two variable distances at the tip of the hand portion 13. However, the present invention is not limited to this, and a platform is provided at the tip of the hand portion 13. The work content provided may be a work of placing a work on the table, or a hook may be provided at the tip of the hand unit 13, and the work content may be a work of hooking the work on the hook. In any of these cases, the work content may involve a work of moving a work placed on a table or a work hung on a hook.

さらに、上記の実施の形態では、ロボット10がワークを持ち上げて移動させたが、本発明のロボットはこれに限らず、例えば、ワークの所定の箇所を所定の方向に押すことにより、ワークが乗せられている台の上でワークを滑らせながら移動させるものであってもよい。   Furthermore, in the above embodiment, the robot 10 lifts and moves the workpiece. However, the robot of the present invention is not limited to this. For example, the workpiece is placed by pressing a predetermined portion of the workpiece in a predetermined direction. It is also possible to move the work while sliding it on the platform.

なお、上記の実施の形態では、ユーザがワークを実際に指で摘まみ上げることで、ワークに対する作業を教示するが、これをロボット10で再現した際に、ロボット10のフィンガ部14におけるフィンガ部材14A、14B同士を近づける方向のトルクが足りず、及び/又はフィンガ部材14A、14Bとワークとの間の摩擦係数が小さく、重力の大きいワークを持ち上げられないことがある。この場合には、制御部16は、指示の際にエラーとして検出する。   In the above embodiment, the user teaches the work on the work by actually picking up the work with a finger, but when this is reproduced by the robot 10, the finger member in the finger portion 14 of the robot 10 is taught. The torque in the direction in which 14A and 14B are brought close to each other is insufficient, and / or the friction coefficient between the finger members 14A and 14B and the workpiece is small, and the workpiece having a large gravity may not be lifted. In this case, the control unit 16 detects an error when instructing.

具体的には、フィンガ部材14A、14Bがワークの把持位置の間の距離より小さくなっている場合に、制御部16は、フィンガセンサ133からその旨の情報を受けて、フィンガ部14がワークを把持できていないと判断することができる。また、制御部16は、把持してワークを持ち上げた直後にカメラ15でフィンガ部14付近を撮影し、把持後の移動が開始された後のアーム部12やハンド部13の駆動とワークの移動とが一致しないことを検知して、フィンガ部14がワークを把持できていないと判断することもできる。   Specifically, when the finger members 14 </ b> A and 14 </ b> B are smaller than the distance between the gripping positions of the workpiece, the control unit 16 receives information from the finger sensor 133 and the finger unit 14 moves the workpiece. It can be determined that it is not gripped. Further, immediately after gripping and lifting the workpiece, the control unit 16 takes an image of the vicinity of the finger portion 14 with the camera 15 and drives the arm unit 12 and the hand unit 13 and moves the workpiece after the movement after gripping is started. Can be determined as not being able to grip the workpiece.

なお、上記の実施の形態では、ロボット10は、ワークの把持位置及びワークの移動先の位置及び姿勢のみを教示情報として記憶しておいたが、ワークに対する作業内容を教示する際にユーザの腕の位置及び延伸方向を更に記憶して、指示を受けた場合に、アーム部12は、教示の際のユーザの腕の位置及び延伸方向と一致するアプローチで先端に把持されたワークを移動先に移動させてよい。これにより、ワークの周囲の他のものとアーム部12との干渉を避けてワークを所望の位置まで所望の姿勢となるように移動させることができる。   In the above embodiment, the robot 10 stores only the gripping position of the workpiece and the position and posture of the workpiece movement destination as teaching information. However, when teaching the work content for the workpiece, the robot 10 When the position and the stretching direction are further memorized and an instruction is received, the arm unit 12 sets the work held at the tip by the approach that matches the position and the stretching direction of the user's arm when teaching to the destination. You may move it. Thereby, the workpiece can be moved to a desired position in a desired posture while avoiding interference between the other parts around the workpiece and the arm portion 12.

また、上記の実施の形態では、ロボット10にワークの把持位置を教示する際に、ユーザが2本の指でワークを把持したときの把持位置を検出して教示情報としたが、本発明は、これに限られない。ユーザがワークを2本指でピックアップした後に、ワークとそれを把持している指との位置及び姿勢をカメラ15で撮影し、その撮影画像に基づいて、ユーザに把持されているワークの把持位置を求めてもよい。   In the above embodiment, when teaching the grip position of the workpiece to the robot 10, the grip position when the user grips the workpiece with two fingers is detected and used as teaching information. Not limited to this. After the user picks up the workpiece with two fingers, the camera 15 captures the position and posture of the workpiece and the finger holding the workpiece, and based on the captured image, the gripping position of the workpiece held by the user You may ask for.

本発明のロボットは、様々な実施の形態に応用できる。本発明のロボットは、例えば、所望の物品をユーザの手元まで移動させるためのロボットであってよい。この場合には、制御部16は、アームセンサ122、ハンドセンサ132、フィンガセンサ142のいずれかのトルクセンサで検知したときに、ユーザが当該物品をキャッチしたと判断して、フィンガ部14による把持を解除してよい。また、本発明のロボットは、所望の部品を組み付けることにより製品を完成させるロボットであってよく、タブレット端末を把持してユーザに向くように保持するロボットであってもよい。   The robot of the present invention can be applied to various embodiments. The robot of the present invention may be, for example, a robot for moving a desired article to the user's hand. In this case, the control unit 16 determines that the user has caught the article when detected by any of the torque sensors of the arm sensor 122, the hand sensor 132, and the finger sensor 142, and holds the grip by the finger unit 14. May be canceled. The robot of the present invention may be a robot that completes a product by assembling desired parts, or may be a robot that holds a tablet terminal and holds it toward the user.

(位置姿勢推定装置)
次に、制御部16がワーク(以下、「物体」ともいう。)の位置及び姿勢を認識(推定)する技術について、第1及び第2の実施の形態を説明する。図5(a)は記憶部17にDB画像が記憶されたワークおよびその座標系の一例を示し、図5(b)は記憶部17に記憶されたワークの情報の例を示す図である。図5(a)に示すような三角柱形状を有する物体をワークの例として説明する。この物体には、物体固有の座標系が設定されている。この物体固有の座標系が基準となる座標系(例えば、ロボット装置が規定する座標系)に対してどの方向にどの程度が傾いているかによって物体の姿勢を定義することができる。
(Position and orientation estimation device)
Next, first and second embodiments will be described for a technique in which the control unit 16 recognizes (estimates) the position and orientation of a workpiece (hereinafter also referred to as “object”). FIG. 5A shows an example of a workpiece whose DB image is stored in the storage unit 17 and its coordinate system, and FIG. 5B is a diagram showing an example of workpiece information stored in the storage unit 17. An object having a triangular prism shape as shown in FIG. 5A will be described as an example of a workpiece. For this object, a coordinate system unique to the object is set. The posture of the object can be defined depending on which direction and how much the object is tilted with respect to a reference coordinate system (for example, a coordinate system defined by the robot apparatus).

図5(a)に見られるように、物体を(1,0,0)方向に向かって撮影すると長方形の画像となり、(−1,0,0)方向に向かって撮影すると同じく長方形の画像となる。また、(0,1,0)方向に向かって撮影すると、右下に直角の頂点がくる直角三角形の画像となり、(0、−1,0)方向に向かって撮影すると、左下に直角の頂点がくる直角三角形の画像となり、(0,0,1)方向および(0,0、−1)方向に向かって撮影すると長方形の画像となる。   As seen in FIG. 5A, when an object is photographed in the (1, 0, 0) direction, a rectangular image is obtained, and when an object is photographed in the (-1, 0, 0) direction, a rectangular image is obtained. Become. When shooting in the (0, 1, 0) direction, a right-angled triangle image is formed with a right vertex at the lower right. When shooting in the (0, -1, 0) direction, a right vertex at the lower left. When the image is taken in the (0, 0, 1) direction and (0, 0, -1) direction, the image becomes a rectangular image.

図5(b)に示すように、記憶部17は、物体の撮影画像とそれを撮影した撮影方向のデータを対応付けて記憶している。図5(b)では、簡単のため、6つの撮影方向からの画像を示したが、実際には、全方位から撮影した多数の画像データを記憶している。また、撮影時のカメラ15の回転角度についても、0度の場合のみを示しているが、実際には、それぞれの撮影方向について、カメラ15の回転角度を変えたときの撮影画像が記憶されている。   As shown in FIG. 5B, the storage unit 17 stores a captured image of an object and data of a shooting direction in which the captured image is captured in association with each other. In FIG. 5B, for simplicity, images from six shooting directions are shown, but in reality, a large number of image data shot from all directions is stored. In addition, the rotation angle of the camera 15 at the time of shooting is shown only in the case of 0 degrees, but actually, a captured image when the rotation angle of the camera 15 is changed is stored for each shooting direction. Yes.

制御部16は、カメラ15にて撮影した物体の画像と記憶部17に記憶されたDB画像とを照合して、ワークの位置及び姿勢を求める位置姿勢推定装置160としての機能を有している。図6は、位置姿勢推定装置160として機能する制御部16の構成を示すブロック図である。位置姿勢推定装置160は、図6に示すように、撮影画像取得部161と、マッチング部162と、予測画像抽出部163と、撮影方向決定部164と、位置姿勢計算部165の機能を有している。   The control unit 16 has a function as a position / orientation estimation device 160 that collates an object image captured by the camera 15 with a DB image stored in the storage unit 17 to obtain the position and orientation of the workpiece. . FIG. 6 is a block diagram illustrating a configuration of the control unit 16 that functions as the position / orientation estimation apparatus 160. As shown in FIG. 6, the position / orientation estimation apparatus 160 has functions of a captured image acquisition unit 161, a matching unit 162, a predicted image extraction unit 163, an imaging direction determination unit 164, and a position / orientation calculation unit 165. ing.

撮影画像取得部161は、カメラ15に対して撮影指示を出し、カメラ15にて撮影された画像を受信して取得する機能を有する。なお、撮影画像取得部161からカメラ15に対して出す撮影指示には、撮影方向やカメラの回転角度の指示も含まれる。マッチング部162は、カメラ15での撮影画像と記憶部17に記憶された画像との類似度を求め、類似度が所定の閾値以上の画像を抽出する機能を有する。画像どうしの類似度を求める方法としては、輝度勾配方向を用いたテンプレートマッチング等の公知の方法を採用することができる。   The shot image acquisition unit 161 has a function of issuing a shooting instruction to the camera 15 and receiving and acquiring an image shot by the camera 15. Note that the shooting instruction issued from the captured image acquisition unit 161 to the camera 15 includes an instruction for a shooting direction and a rotation angle of the camera. The matching unit 162 has a function of obtaining the similarity between the image captured by the camera 15 and the image stored in the storage unit 17 and extracting an image having a similarity greater than or equal to a predetermined threshold. As a method for obtaining the similarity between images, a known method such as template matching using a luminance gradient direction can be employed.

また、マッチング部162は、撮影画像と記憶部17に記憶された画像とのマッチングを行う際の両画像の撮影条件とを同一にすべく、撮影時におけるカメラ15から物体までの距離に基づいて撮影画像の大きさを正規化することが望ましい。例えば、記憶部17に記憶された画像がカメラ15から物体までの距離が10cmで撮影され、姿勢推定時にはカメラ15から物体までの距離が20cmで撮影された場合、撮影画像における物体の大きさを2倍に拡大し、マッチングを適切に行えるようにする。なお、カメラ15から物体までの距離を求める方法としては、光波や電波等を用いた公知の測距技術を採用することができる。また、例えば、物体が、カメラ15との位置関係が既知の作業台に載置されている場合には、作業台の中心位置までの距離を物体までの距離とすることができる。この際に、物体が作業台上のどこにあるかを求め、作業台上の物体の位置によって距離を補正することとしてもよく、これにより、より正確な距離を求めることができる。   In addition, the matching unit 162 is based on the distance from the camera 15 to the object at the time of shooting so that the shooting conditions of both images when matching the shot image and the image stored in the storage unit 17 are the same. It is desirable to normalize the size of the captured image. For example, when the image stored in the storage unit 17 is photographed at a distance of 10 cm from the camera 15 to the object, and when the posture is estimated and the distance from the camera 15 to the object is photographed at 20 cm, the size of the object in the photographed image is set. Enlarging to 2x to ensure proper matching. As a method for obtaining the distance from the camera 15 to the object, a known distance measuring technique using light waves or radio waves can be employed. Further, for example, when the object is placed on a work table whose positional relationship with the camera 15 is known, the distance to the center position of the work table can be set as the distance to the object. At this time, it is possible to determine where the object is on the workbench and correct the distance according to the position of the object on the workbench, thereby obtaining a more accurate distance.

予測画像抽出部163は、次の撮影方向(第2の撮影方向)から物体を撮影したときに得られるであろう予測画像を、記憶部17から抽出する機能を有する。具体的には、マッチング部162にて、第1の撮影方向から撮影した画像に対する類似度が所定の閾値以上の複数の画像を候補画像として求める。予測画像抽出部163は、候補画像のそれぞれに対応付けられた撮影方向に、第1の撮影方向から第2の撮影方向への相対的な移動量を加えた撮影方向を求め、当該撮影方向に対応付けられた画像を記憶部17から読み出す。   The predicted image extraction unit 163 has a function of extracting, from the storage unit 17, a predicted image that will be obtained when an object is shot from the next shooting direction (second shooting direction). Specifically, the matching unit 162 obtains, as candidate images, a plurality of images whose similarity to an image taken from the first shooting direction is a predetermined threshold value or more. The predicted image extraction unit 163 obtains a shooting direction obtained by adding a relative movement amount from the first shooting direction to the second shooting direction to the shooting direction associated with each of the candidate images. The associated image is read from the storage unit 17.

ここで、予測画像抽出部163の機能について、具体例を挙げて説明する。記憶部17には、物体の画像がその撮影方向に関連付けて記憶されているので、現在の撮影方向(第1の撮影方向)から次の撮影方向(第2の撮影方向)への移動方向および移動角度が決まれば、候補画像に対する予測画像の撮影方向を特定することができる。   Here, the function of the predicted image extraction unit 163 will be described with a specific example. Since the image of the object is stored in the storage unit 17 in association with the shooting direction, the moving direction from the current shooting direction (first shooting direction) to the next shooting direction (second shooting direction) and If the moving angle is determined, the shooting direction of the predicted image with respect to the candidate image can be specified.

図7(a)及び図7(b)は、物体の撮影方向の一例を示す図である。第1の撮影方向から物体を撮影したときに、縦長の長方形の画像が撮影されたとする。この場合、マッチング部162によって、図5(b)に示す記憶部17に記憶された画像データとのマッチングを行うと、類似度の高い画像として、(1,0,0)方向または(−1,0,0)方向から撮影した画像が抽出され、これらが候補画像となる。つまり、縦長の長方形の画像は、図7(a)および図7(b)に示すいずれかの方向から撮影した画像であると予想される。   FIGS. 7A and 7B are diagrams illustrating an example of the shooting direction of an object. It is assumed that a vertically long rectangular image is captured when an object is captured from the first capturing direction. In this case, when matching with the image data stored in the storage unit 17 shown in FIG. 5B is performed by the matching unit 162, an image with a high degree of similarity is displayed in the (1, 0, 0) direction or (−1. , 0, 0) directions are extracted, and these are candidate images. That is, a vertically long rectangular image is expected to be an image taken from either direction shown in FIGS. 7 (a) and 7 (b).

次に、第2の撮影方向を第1の撮影方向に向かって右側からとする(つまり、撮影方向を水平に90度回転させる)と、第1の撮影方向が図7(a)に示すように(1,0,0)方向であった場合には、第2の撮影方向は(1,0,0)方向となり、記憶部17に記憶されたデータによれば、予測画像として右下を直角の頂点とする直角三角形が抽出される(図8(a)参照)。第1の撮影方向が図7(b)に示すように(−1,0,0)方向であった場合には、第2の撮影方向は(0,−1,0)方向となり、記憶部17に記憶されたデータによれば、予測画像として左下を直角の頂点とする直角三角形が抽出される(図8(b)参照)。このように、予測画像抽出部163は、候補画像の撮影方向が正しいとした場合の予測画像を抽出する。   Next, assuming that the second shooting direction is from the right side in the first shooting direction (that is, the shooting direction is rotated 90 degrees horizontally), the first shooting direction is as shown in FIG. (1, 0, 0) direction, the second shooting direction is the (1, 0, 0) direction, and according to the data stored in the storage unit 17, the lower right is displayed as the predicted image. A right triangle having a right vertex is extracted (see FIG. 8A). When the first shooting direction is the (-1, 0, 0) direction as shown in FIG. 7B, the second shooting direction is the (0, -1, 0) direction, and the storage unit According to the data stored in 17, a right triangle having a lower left corner as a predicted image is extracted as a predicted image (see FIG. 8B). In this manner, the predicted image extraction unit 163 extracts a predicted image when the shooting direction of the candidate image is correct.

撮影方向決定部164は、複数の候補画像のそれぞれに対する予測画像どうしの類似度が低くなる撮影方向を第2の撮影方向として決定する。上に示した例では、図8(a)と図8(b)に示す予測画像は直角三角形の向きが逆であり、類似度が低いので、このような撮影方向を第2の撮影方向とする。   The shooting direction determination unit 164 determines the shooting direction in which the similarity between predicted images for each of the plurality of candidate images is low as the second shooting direction. In the example shown above, since the predicted images shown in FIGS. 8A and 8B have the opposite directions of the right triangle and the degree of similarity is low, such a shooting direction is set as the second shooting direction. To do.

もし、図7(a)及び図7(b)に示すような候補画像がある場合に、例えば、第2の撮影方向を上から下への方向とすると、いずれの候補画像に対する予測画像も長方形形状の画像となり、類似度が高い画像となる。撮影方向決定部164は、このように予測画像の類似度が高くなるような撮影方向を第2の撮影方向として決定しないようにする。予測画像どうしの類似度が高いと、第2の撮影方向から撮影された画像と、予測画像とのマッチング結果は似たような値になり、撮影方向の候補を絞り込むことができないからである。   If there are candidate images as shown in FIGS. 7A and 7B, for example, if the second shooting direction is a direction from top to bottom, the predicted image for any candidate image is rectangular. It becomes a shape image and an image with high similarity. The shooting direction determination unit 164 does not determine the shooting direction in which the similarity of the predicted image is increased as described above as the second shooting direction. This is because if the similarity between the predicted images is high, the matching result between the image captured from the second imaging direction and the predicted image has a similar value, and the candidates for the imaging direction cannot be narrowed down.

図6に戻って、位置姿勢推定装置160の構成について説明する。位置姿勢計算部165は、撮影画像から物体の撮影方向を求め、求めた撮影方向とカメラ15の向きとから、物体の姿勢(物体の座標系の傾き)を計算する機能を有する。   Returning to FIG. 6, the configuration of the position / orientation estimation apparatus 160 will be described. The position / orientation calculation unit 165 has a function of obtaining the object photographing direction from the photographed image and calculating the object posture (the inclination of the object coordinate system) from the obtained photographing direction and the direction of the camera 15.

図9は、第1の実施の形態の位置姿勢推定装置160の動作を示すフローチャートである。位置姿勢推定装置160は、まず、推定対象の物体をカメラ15にて撮影する(ステップS91)。具体的には、制御部16の撮影画像取得部161がカメラ15に対して撮影指示を行い、撮影された画像を取得する。なお、このときの撮影方向が第1の撮影方向である。   FIG. 9 is a flowchart illustrating the operation of the position / orientation estimation apparatus 160 according to the first embodiment. First, the position / orientation estimation apparatus 160 captures an object to be estimated with the camera 15 (step S91). Specifically, the captured image acquisition unit 161 of the control unit 16 instructs the camera 15 to acquire a captured image. Note that the shooting direction at this time is the first shooting direction.

次に、位置姿勢推定装置160のマッチング部162は、撮影画像と、記憶部17に記憶された画像とのマッチングを行い、類似度が所定の閾値以上の画像と、その撮影方向およびカメラ15の回転角度を記憶部17から抽出する(ステップS92)。ここでは、記憶部17に記憶された全ての画像とのマッチングを行い、類似度が所定の閾値以上の全ての画像を抽出する。ここで抽出される多数の画像の中に、真の撮影方向に相当する撮影方向に対応付けられた画像が含まれているが、この時点では、通常は一つの画像(及びその撮影方向)に絞り込めない。ここで抽出された画像を、候補画像という。   Next, the matching unit 162 of the position / orientation estimation device 160 performs matching between the captured image and the image stored in the storage unit 17, an image whose similarity is equal to or greater than a predetermined threshold, the shooting direction, and the camera 15. The rotation angle is extracted from the storage unit 17 (step S92). Here, matching with all images stored in the storage unit 17 is performed, and all images having a similarity equal to or higher than a predetermined threshold are extracted. Among the many images extracted here, an image associated with the shooting direction corresponding to the true shooting direction is included, but at this point, usually one image (and its shooting direction) is included. I cannot narrow down. The image extracted here is called a candidate image.

続いて、位置姿勢推定装置160の撮影方向決定部164は、次の撮影方向(第2の撮影方向)を決定する(ステップS93)。この際、撮影方向決定部164は、予測画像抽出部163と連携して撮影方向を決定する。すなわち、予測画像抽出部163にて、第1の撮影方向から第2の撮影方向への移動方向及び移動角度に基づいて、それぞれの候補画像に対する予測画像を求め、撮影方向決定部164は、予測画像どうしの類似度が所定の閾値以下になる方向を第2の撮影方向として決定する。   Subsequently, the shooting direction determination unit 164 of the position / orientation estimation apparatus 160 determines the next shooting direction (second shooting direction) (step S93). At this time, the shooting direction determination unit 164 determines the shooting direction in cooperation with the predicted image extraction unit 163. That is, the predicted image extraction unit 163 obtains a predicted image for each candidate image based on the moving direction and the moving angle from the first shooting direction to the second shooting direction, and the shooting direction determination unit 164 A direction in which the similarity between images is equal to or less than a predetermined threshold is determined as the second imaging direction.

位置姿勢推定装置160は、推定対象の物体を第2の撮影方向から撮影する(ステップS94)。具体的には、制御部16の撮影画像取得部161がカメラ15に対して、カメラ15の移動方向および移動角度を指示するとともに撮影指示を行い、撮影された画像を取得する。   The position / orientation estimation apparatus 160 images the object to be estimated from the second imaging direction (step S94). Specifically, the captured image acquisition unit 161 of the control unit 16 instructs the camera 15 about the moving direction and the moving angle of the camera 15 and also instructs the shooting to acquire a captured image.

次に、位置姿勢推定装置160は、撮影画像と、予測画像とのマッチングを行う(ステップS95)。予測画像は、ステップS2で求めた候補画像のそれぞれに対応するものである。したがって、このステップでは、記憶部17に記憶されている全ての画像とのマッチングを行うわけではない。撮影画像と複数の予測画像との類似度を求めた結果、類似度が他の予測画像の類似度よりも所定の閾値以上高い予測画像があるか否か、つまり、他よりも突出して類似度の高い予測画像があるか否かを判定する(ステップS96)。類似度が他の予測画像の類似度よりも所定の閾値以上高い予測画像がある場合には(ステップS96でYES)、位置姿勢推定装置160の位置姿勢計算部165は、当該予測画像に対応付けられた撮影方向と、カメラ15の向きとに基づいて、物体の姿勢を計算し、計算して求めた物体の姿勢のデータを出力する(ステップS98)。   Next, the position / orientation estimation apparatus 160 performs matching between the captured image and the predicted image (step S95). The predicted image corresponds to each of the candidate images obtained in step S2. Accordingly, in this step, matching with all images stored in the storage unit 17 is not performed. As a result of obtaining the similarity between the captured image and the plurality of predicted images, whether or not there is a predicted image whose similarity is higher than the similarity of the other predicted images by a predetermined threshold or more, that is, the similarity is prominent than others. It is determined whether or not there is a predicted image with a high (step S96). When there is a predicted image whose similarity is higher than the similarity of another predicted image by a predetermined threshold or more (YES in step S96), the position / orientation calculation unit 165 of the position / orientation estimation apparatus 160 associates the predicted image with the predicted image. Based on the obtained shooting direction and the orientation of the camera 15, the posture of the object is calculated, and data of the posture of the object obtained by calculation is output (step S98).

第2の撮影方向から撮影した画像と予測画像とのマッチングの結果、類似度が他の予測画像の類似度よりも所定の閾値以上高い予測画像がない場合には(ステップS96でNO)、類似度が所定の閾値以上の予測画像を候補画像として(ステップS97)、さらに別の撮影方向(別の第2の撮影方向)を決定して物体を撮影し、予測画像とのマッチングを行って候補画像の絞り込みを行う(ステップS93〜ステップS96)。そして、類似度が他の予測画像の類似度よりも所定の閾値以上高い予測画像があるか否かを判定し(ステップS96)、他よりも類似度が突出して高い予測画像が見つかるまで、撮影方向を変えて繰り返し処理を行う。以上、第1の実施の形態の姿勢推定装置1の構成および動作について説明した。   As a result of matching between the image captured from the second image capturing direction and the predicted image, if there is no predicted image whose similarity is higher than the similarity of other predicted images by a predetermined threshold or more (NO in step S96), similar A predicted image having a degree equal to or greater than a predetermined threshold is set as a candidate image (step S97), another shooting direction (another second shooting direction) is determined, an object is shot, and matching with the predicted image is performed to obtain a candidate. The image is narrowed down (steps S93 to S96). Then, it is determined whether or not there is a predicted image whose similarity is higher than the similarity of other predicted images by a predetermined threshold or more (step S96), and photographing is performed until a predicted image having a higher similarity than the other predicted images is found. Repeat the process by changing the direction. The configuration and operation of the posture estimation apparatus 1 according to the first embodiment have been described above.

第1の実施の形態の位置姿勢推定装置160は、第1の撮影方向から撮影した画像と記憶部17に記憶された画像とのマッチングにより複数の候補画像を抽出した後、それぞれの候補画像について、所定の移動方向に所定の移動角度だけ撮影方向を変えた第2の撮影方向からの撮影で得られる予測画像を求め、予測画像と撮影画像とのマッチングを行うので、効率的に候補画像の絞り込みを行い、撮影方向を決定することができる。   The position / orientation estimation apparatus 160 according to the first embodiment extracts a plurality of candidate images by matching an image photographed from the first photographing direction with an image stored in the storage unit 17, and then extracts each candidate image. Since a predicted image obtained by shooting from the second shooting direction obtained by changing the shooting direction by a predetermined moving angle in the predetermined moving direction is obtained and matching between the predicted image and the shot image is performed, the candidate image is efficiently It is possible to narrow down and determine the shooting direction.

また、本実施の形態では、第2の撮影方向を決定する際に、予測画像どうしの類似度が低くなるように決定しているので、予測画像と撮影画像とのマッチング結果に有意差が生じ、少ない撮影回数で撮影方向を絞り込むことができる。   Further, in the present embodiment, when determining the second shooting direction, since the similarity between the predicted images is determined to be low, a significant difference occurs in the matching result between the predicted image and the shot image. The shooting direction can be narrowed down with a small number of shots.

[第2の実施の形態]
図10は、第2の実施の形態の位置姿勢推定装置260の構成を示すブロック図である。第2の実施の形態の位置姿勢推定装置260の基本的な構成は、第1の実施の形態と同じであるが、制御部16が、候補画像を絞り込む制候補画像絞込部266を有している点が異なる。
[Second Embodiment]
FIG. 10 is a block diagram illustrating a configuration of the position / orientation estimation apparatus 260 according to the second embodiment. The basic configuration of the position / orientation estimation apparatus 260 of the second embodiment is the same as that of the first embodiment, but the control unit 16 includes a control candidate image narrowing unit 266 that narrows down candidate images. Is different.

制候補画像絞込部266は、撮影された画像に複数の物体が映っている場合に、それらの位置関係に基づいて、同時に存在し得る物体の組合せかどうかを判断することで、候補画像を絞り込む機能を有している。簡単な例を挙げると、例えば、撮影された画像に2つの物体が映っている場合に、それぞれの画像を個別に見た場合には、各辺の長さが100mmの立方体が候補として挙げられたとする。しかし、映っている画像から判断して、2つの物体の画像の距離が100mm未満である場合には、両方ともが各辺の長さが100mmの立方体であることはあり得ず、いずれか一方または両方の候補が誤りであると分かる。制候補画像絞込部266は、こうした制約条件を利用して候補画像を絞り込む機能を有する。   When a plurality of objects appear in the captured image, the control candidate image narrowing-down unit 266 determines whether the candidate images are a combination of objects that can exist at the same time based on the positional relationship between them. Has a function to narrow down. To give a simple example, for example, when two objects are shown in a photographed image, if each image is viewed separately, a cube whose length of each side is 100 mm is listed as a candidate. Suppose. However, if the distance between the images of the two objects is less than 100 mm, judging from the image being shown, both cannot be a cube with a side length of 100 mm. Or it turns out that both candidates are wrong. The control candidate image narrowing-down unit 266 has a function of narrowing down candidate images using such constraint conditions.

図11(a)は、カメラにて撮影した画像に映った物体の画像の例を示す図である。図11(a)に示す例では、画像アにかかる物体と、画像イにかかる物体とが映っている。図11(b)は、画像アに係る物体の候補画像と画像イに係る物体の候補画像の組合せ可能性を示す図である。図11(b)に示す表において、縦方向には、画像アと類似度の高い候補画像に係る物体とその撮影方向とを記載している。なお、ここでは、簡単のため撮影方向を「下方向」「右方向」等と記載しているが、実際には、上述したとおり、撮影方向はベクトル等によって規定される。   FIG. 11A is a diagram illustrating an example of an image of an object shown in an image captured by a camera. In the example shown in FIG. 11A, an object related to image A and an object related to image A are shown. FIG. 11B is a diagram illustrating the possibility of combining the candidate image of the object related to image a and the candidate image of the object related to image a. In the table shown in FIG. 11B, in the vertical direction, an object related to a candidate image having a high degree of similarity to the image A and its shooting direction are described. Here, for the sake of simplicity, the shooting direction is described as “downward”, “rightward” or the like, but actually, as described above, the shooting direction is defined by a vector or the like.

図11(b)に示す例では、画像アの候補としては、(i)「物体A」を「下方向」
に見た画像、(ii)「物体A」を「上方向」に見た画像、(iii)「物体B」を「右方向」に見た画像、(iv)「物体F」を「右下方向」に見た画像、(v)「物体H」を「左方向」に見た画像、という5つの可能性がある。画像イの候補としては、(i)「物体A」を「右方向」に見た画像、(ii)「物体C」を「右方向」に見た画像、(iii)「物体D」を「左上方向」に見た画像、(iv)「物体G」を「上方向」に見た画像、という4つの可能性がある。図11(b)に示すように、画像ア、画像イを個別に分析すると、画像アについて5つ、画像イについて4つの候補が存在する。
In the example shown in FIG. 11B, (i) “object A” is “downward” as a candidate for image a.
(Ii) An image of “object A” viewed “upward”, (iii) An image of “object B” viewed “rightward”, and (iv) “object F” “lower right” There are five possibilities: an image viewed in the “direction” and (v) an image viewed in the “left direction” of the “object H”. As candidates for image a, (i) an image of “object A” viewed “right”, (ii) an image of “object C” viewed “right”, and (iii) “object D” “ There are four possibilities: an image viewed in the “upper left direction”, and (iv) an image viewed in the “upward direction” of “object G”. As shown in FIG. 11B, when image a and image a are individually analyzed, there are five candidates for image a and four candidates for image a.

制候補画像絞込部266は、画像ア、イから求めた各候補画像が、同時に存在し得るものかどうかを判定する。例えば、画像アが「物体A」を「下方向」から撮影したものであり、画像イが「物体A」を「右方向」から撮影したものであったとした場合、図11(a)に示す画像ア、イの位置関係から見て両者が同時に存在し得るか否か、つまり、上に述べたように、画像アにかかる物体Aと、画像イにかかる物体Aとが干渉してしまうような場合には、同時に存在し得ないと判定する。図11(b)に示す例では、このような組合せは存在しないとして「×」が記載されている。なお、存在可能な組合せには「○」を記載している。制候補画像絞込部266は、候補画像どうしの各組合せについて、図8(b)に示すように、その存在可能性を求める。なお、この組合せの存在可能性の判断は、最初に撮影を行って、候補画像を求めたときに行えばよい。撮影方向を変えて、第2の撮影方向から撮影して予測画像とのマッチングを行う際には、最初に求めた候補画像の範囲内でマッチングを行うから、新たな候補画像は出てこないからである。   The candidate image narrowing-down unit 266 determines whether the candidate images obtained from the images a and a can exist simultaneously. For example, in the case where the image A is obtained by photographing the “object A” from the “downward direction” and the image a is obtained by photographing the “object A” from the “rightward direction”, it is illustrated in FIG. Whether or not both of them can exist at the same time in view of the positional relationship between images a and a, that is, as described above, the object A on image a and the object A on image a interfere with each other. In such a case, it is determined that they cannot exist at the same time. In the example shown in FIG. 11B, “x” is described as such a combination does not exist. In addition, “◯” is described in the possible combinations. The candidate image narrowing-down unit 266 obtains the possibility of existence of each combination of candidate images as shown in FIG. Note that the possibility of the combination being present may be determined when a candidate image is obtained by first photographing. When matching the predicted image by changing the shooting direction and shooting from the second shooting direction, matching is performed within the range of the candidate image obtained first, so no new candidate image appears. It is.

図11(b)に示す例では、画像アに係る候補の一つである「物体B」は、画像イのいずれの候補画像とも組合せ可能性がない。このような場合には、画像アが「物体B」であるとすると、画像イに対応する物体が存在しないことになってしまうので、制候補画像絞込部266は、画像アは「物体B」ではないと判断し、これを候補画像から除外する。同様に、画像イに係る候補の一つである「物体G」も候補画像から除外する。   In the example shown in FIG. 11B, “object B”, which is one of the candidates for image a, has no possibility of being combined with any candidate image of image a. In such a case, if the image a is “object B”, the object corresponding to the image a does not exist. Therefore, the candidate image narrowing unit 266 determines that the image a is “object B”. Is not determined, and is excluded from the candidate images. Similarly, “object G” which is one of the candidates related to the image a is also excluded from the candidate images.

また、例えば、画像アに係る物体について、第1の実施の形態と同様に、第2の方向から撮影した画像を取得してマッチングを行い、画像アに係る物体が「物体F」であると確定したとすると、「物体F」と両立し得る画像イに係る物体は「物体C」しかないので、画像候補絞込部19は、画像イに係る物体が「物体C」であると判断する。この場合、画像イについては、別方向から撮影した画像のマッチングを行う必要がなくなる。   Further, for example, as in the first embodiment, the object related to the image A is acquired by matching the image taken from the second direction, and the object related to the image A is “object F”. If it is determined that the object related to the image a that can be compatible with the “object F” is only “object C”, the image candidate narrowing-down unit 19 determines that the object related to the image a is “object C”. . In this case, with respect to the image a, it is not necessary to perform matching of images taken from different directions.

以上のように、第2の実施の形態の姿勢検出装置は、制候補画像絞込部266によって候補画像を絞り込むことにより、マッチングを行う回数を減らし、画像マッチングに必要な計算処理負担を軽減することができる。   As described above, the posture detection apparatus according to the second embodiment reduces the number of matching operations by narrowing down the candidate images by the control candidate image narrowing unit 266, thereby reducing the calculation processing load necessary for image matching. be able to.

なお、第2の実施の形態では、2つの画像の同時存在可能性を例として説明したが、撮影された画像中に3つ以上の物体の画像が映っている場合には、それらの画像に係る物体の同時存在可能性に基づいて、候補画像を絞り込んでもよい。   In the second embodiment, the possibility of the simultaneous existence of two images has been described as an example. However, when images of three or more objects are shown in the captured image, these images are included in the images. The candidate images may be narrowed down based on the possibility of simultaneous existence of such objects.

以上、本発明の姿勢推定装置および姿勢推定方法について、実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。   The posture estimation apparatus and the posture estimation method according to the present invention have been described in detail with reference to the embodiments. However, the present invention is not limited to the above-described embodiments.

上記した実施の形態では、撮影方向決定部164は、複数の候補画像に対する予測画像どうしの類似度を考慮して第2の撮影方向を決定する例について説明したが、第2の撮影方向は、ランダムに決定してもよい。また、推定対象となる物体の形状の特徴に応じて決定することとしてもよい。例えば、90度回転対象の物体の場合には、90度より小さい角度だけ移動する等である。   In the above-described embodiment, the example in which the shooting direction determination unit 164 determines the second shooting direction in consideration of the similarity between predicted images for a plurality of candidate images has been described. It may be determined at random. Further, it may be determined according to the feature of the shape of the object to be estimated. For example, in the case of an object to be rotated by 90 degrees, the object is moved by an angle smaller than 90 degrees.

上記した実施の形態においては、第2の撮影方向からの撮影画像と予測画像との類似度を求めた結果、他よりも突出して高い類似度を有する予測画像が見つかるまで、撮影方向を変えて絞り込みを行う例について説明したが、ステップS96の判定処理を行わず、第2の撮影方向からの画像との類似度が最も高い予測画像に基づいて撮影方向を決定することとしてもよい。この場合も、第1の撮影方向および第2の撮影方向からの撮影画像に基づいて物体の姿勢の推定の精度を高めることができる。   In the above-described embodiment, as a result of obtaining the similarity between the captured image from the second imaging direction and the predicted image, the imaging direction is changed until a predicted image having a higher similarity than the other is found. Although the example of performing the narrowing down has been described, the shooting direction may be determined based on the predicted image having the highest degree of similarity with the image from the second shooting direction without performing the determination process in step S96. Also in this case, the accuracy of the estimation of the posture of the object can be improved based on the captured images from the first shooting direction and the second shooting direction.

上記した実施の形態において、記憶部17には、物体の撮影画像とそれを撮影した撮影方向のデータを対応付けて記憶している例について説明したが、物体のCADデータ等がある場合には、物体を実際に撮影しなくても、物体を回転させたデータを計算して、記憶しておいてもよい。   In the above-described embodiment, the example in which the storage unit 17 stores the captured image of the object in association with the data of the imaging direction in which the image is captured has been described. Even if the object is not actually photographed, data obtained by rotating the object may be calculated and stored.

上記した実施の形態において、記憶部17に、複数の物体の画像データを記憶することとしてもよい。この構成により、位置姿勢推定装置160は、複数の物体の姿勢を推定することができる。   In the above-described embodiment, the storage unit 17 may store image data of a plurality of objects. With this configuration, the position / orientation estimation apparatus 160 can estimate the orientations of a plurality of objects.

(指示対象物表示装置)
次に、作業実施工程のステップS41における指差し方向にあるワークを認識するための技術について詳細に説明する。以下では、ユーザが指を指している対象にレーザ光を照射することで、ユーザ自身がどこを指しているかを認識できる指示対象物表示装置について、第1〜第3の実施の形態を説明する。この指示対象物表示装置100は、上記のロボット10において構成されてもよいし、ロボット10とは別の装置として構成されてもよい。以下では、指示対象物表示装置100がロボット10において構成される例を説明する。
(Indicator object display device)
Next, a technique for recognizing a work in the pointing direction in step S41 of the work execution process will be described in detail. Below, 1st-3rd embodiment is described about the indication target object display apparatus which can recognize where the user himself is pointing by irradiating the laser beam to the object to which the user is pointing. . The pointing object display device 100 may be configured in the robot 10 described above or may be configured as a device different from the robot 10. Hereinafter, an example in which the pointing object display device 100 is configured in the robot 10 will be described.

[第1の実施の形態]
図12は、実施の形態の指示対象物表示装置100の構成を示す図である。指示対象物表示装置100は、カメラ15と、制御部16と、記憶部17と、発光部18とを有している。即ち、上記のロボット10に発光部18を追加することで指示対象物表示装置100が構成される。
[First Embodiment]
FIG. 12 is a diagram illustrating a configuration of the pointing object display device 100 according to the embodiment. The instruction target display device 100 includes a camera 15, a control unit 16, a storage unit 17, and a light emitting unit 18. That is, the pointing object display device 100 is configured by adding the light emitting unit 18 to the robot 10.

記憶部17には、ユーザがいる環境、すなわち、ユーザの周囲にある物体、当該物体のある位置および姿勢などのデータを記憶する。記憶部17に記憶するデータは、ユーザの周囲の物体が静的なもの(例えば、壁、天井、キッチン、食器棚、エアコン等)の場合にはあらかじめデータを取得して記憶しておいてもよい。ユーザの周囲にある物体が移動可能なもの(リモコン、本、コップ等)の場合には、指示対象物の表示を行う際に、カメラ15にてユーザの周囲の環境を撮影し、撮影した画像を解析することによって物体のデータを取得して記憶することとしてもよい。また、ユーザの周囲の物体が静的なものと動的なものの組合せの場合、静的なものについてはあらかじめ記憶部17に記憶しておき、動的なものは指示対象物の表示を行う際に記憶することとしてもよい。   The storage unit 17 stores data such as an environment in which the user is present, that is, an object around the user, a position and posture of the object, and the like. The data stored in the storage unit 17 may be acquired and stored in advance if the objects around the user are static (for example, walls, ceilings, kitchens, cupboards, air conditioners, etc.). Good. When the object around the user is movable (remote controller, book, glass, etc.), the camera 15 captures the environment around the user when displaying the target object, and the captured image It is good also as acquiring and memorize | storing the data of an object by analyzing. When the objects around the user are a combination of a static object and a dynamic object, the static object is stored in the storage unit 17 in advance, and the dynamic object is used for displaying the pointing object. It is good also as memorizing.

カメラ15は、撮影した画像からユーザの指差し方向を検出するため、複数の方向から物体を撮影する。複数の方向から物体を撮影するために、複数台のカメラ15を備えることとしてもよいし、カメラ15を移動体に搭載し、カメラ15を移動して複数の方向から撮影することとしてもよい。   The camera 15 captures an object from a plurality of directions in order to detect the pointing direction of the user from the captured image. In order to photograph an object from a plurality of directions, a plurality of cameras 15 may be provided, or the camera 15 may be mounted on a moving body, and the camera 15 may be moved to photograph from a plurality of directions.

発光部18は、光を照射する機能を有する。発光部18は、例えば、レーザダイオードであり、照射方向を変更可能な構成を有している。また、発光部18は、移動体に搭載されており、その発光の起点を変えることができる。   The light emitting unit 18 has a function of irradiating light. The light emitting unit 18 is, for example, a laser diode, and has a configuration capable of changing the irradiation direction. Moreover, the light emission part 18 is mounted in the moving body, and can change the starting point of the light emission.

制御部16は、カメラ15にて撮影した画像を取得する撮影画像取得部166と、撮影画像からユーザの指差し方向を求め、ユーザの指差し方向にある物体(つまり、指差し方向の延長線上にある物体)を指示対象物として検出する指示対象物検出部167と、指示対象物に光を照射するように発光部18を制御する発光制御部168を有している。   The control unit 16 obtains a captured image acquisition unit 166 that acquires an image captured by the camera 15, and obtains the pointing direction of the user from the captured image, and an object in the pointing direction of the user (that is, on an extension line in the pointing direction). A target object detection unit 167 that detects the target object) as a target object, and a light emission control unit 168 that controls the light emitting unit 18 to irradiate the target target with light.

指示対象物検出部167は、まず、撮影画像を解析してユーザの指差し方向を求める。具体的には、ユーザの指先が空間座標内のどこにあって、どの方向を向いているかを計算する。撮影画像からユーザの指差し方向を求める方法としては、例えば、特開2009−151419号公報に記載された方法や、Kaoning Hu, et al. "Hand Pointing Estimation for Human Computer Interaction Based on Two Orthogonal-Views" ICPR '10 Proceeding of the 2010 20th International Conference on Pattern Recognitionに記載された方法等の公知の方法を採用することができる。   The instruction target detection unit 167 first analyzes the captured image to obtain the pointing direction of the user. Specifically, it is calculated where and where the user's fingertip is in the spatial coordinates. As a method for obtaining the pointing direction of the user from the photographed image, for example, a method described in Japanese Patent Laid-Open No. 2009-151419, Kaoning Hu, et al. “Hand Pointing Estimation for Human Computer Interaction Based on Two Orthogonal-Views” A known method such as the method described in ICPR '10 Proceeding of the 2010 20th International Conference on Pattern Recognition can be adopted.

指示対象物検出部167は、記憶部17から物体に関するデータを読み出し、ユーザの指差し方向と交差する物体を求め、当該物体を指示対象物として検出する。図13(a)は、指差し方向が交差する物体の例を示す図である。このように指差し方向が物体に交差する場合に、その物体が指示対象物となる。   The instruction target detection unit 167 reads data related to the object from the storage unit 17, obtains an object that intersects the user's pointing direction, and detects the object as the instruction target. FIG. 13A is a diagram illustrating an example of an object in which the pointing directions intersect. In this way, when the pointing direction intersects an object, the object becomes an instruction target.

指示対象物検出部167は、指差し方向が物体の近傍を通る場合にも、当該物体を指示対象物として検出する機能を有する。指示対象物検出部167は、物体に対して、その物体の実際の大きさよりも大きい拡張領域を設定する。拡張領域の大きさは、例えば、物体の実際の大きさに対して所定の倍率(例えば、1.5倍)を乗じた大きさとすることができる。拡張領域と物体の存在領域を合わせた領域が、本発明の「物体を含む所定の領域」に相当する。   The pointing object detection unit 167 has a function of detecting the object as the pointing object even when the pointing direction passes near the object. The instruction target detection unit 167 sets an extended region for the object that is larger than the actual size of the object. The size of the extended region can be set to a size obtained by multiplying the actual size of the object by a predetermined magnification (for example, 1.5 times), for example. A region obtained by combining the extension region and the existence region of the object corresponds to the “predetermined region including the object” of the present invention.

図13(b)は、指差し方向が物体の拡張領域と交差する例を示す図である。図13(b)に示すように指差し方向が物体の拡張領域と交差する場合にも、指示対象物検出部167は、当該物体を指示対象物として検出する。   FIG. 13B is a diagram illustrating an example in which the pointing direction intersects the extended region of the object. As shown in FIG. 13B, the pointing object detection unit 167 also detects the object as the pointing object even when the pointing direction intersects the extended region of the object.

また、指示対象物検出部167は、指差し方向に複数の物体がある場合には、指差し方向との交差位置が最も中心近くにある物体を指示対象物として検出する。図14に示すように指差し方向に物体Aと物体Bがあり、ユーザの指差し方向の延長線が物体Aの拡張領域と交差し、物体Bの存在領域と交差しているとする。図14を参照すると、それぞれの交差位置と物体中心との距離を見ると、物体Bとの交差位置の方が物体Aとの交差位置よりも、物体中心に近い。このような場合には、指示対象物検出部167は、物体Bを指示対象物として検出する。これにより、複数の物体がある場合に、ユーザの意図に合った物体を指示対象物として検出することができる。   In addition, when there are a plurality of objects in the pointing direction, the pointing object detection unit 167 detects an object whose intersection with the pointing direction is closest to the center as the pointing object. As shown in FIG. 14, it is assumed that there are an object A and an object B in the pointing direction, and an extension line in the pointing direction of the user intersects with the extension area of the object A and intersects with the existence area of the object B. Referring to FIG. 14, when the distance between each intersection position and the object center is viewed, the intersection position with the object B is closer to the object center than the intersection position with the object A. In such a case, the pointing object detection unit 167 detects the object B as the pointing object. Thereby, when there are a plurality of objects, an object suitable for the user's intention can be detected as an instruction target.

発光制御部168は、指示対象物として検出された物体に対して光を照射するように、発光部18の発光方向を制御する機能を有する。発光制御部168は、指示対象物である物体の表面の視認しやすい位置に光を照射する。本実施の形態では、発光制御部168は、指差し方向と物体(またはその拡張領域)との交差位置に対して照射するのではなく、交差位置から物体の中心に寄った位置に対して光を照射する。これにより、ユーザは、物体を見たときに光が照射されているかどうかを容易に判断することができる。   The light emission control unit 168 has a function of controlling the light emitting direction of the light emitting unit 18 so as to irradiate the object detected as the pointing object. The light emission control unit 168 irradiates light at a position where the surface of the object that is the pointing target is easily visible. In the present embodiment, the light emission control unit 168 does not irradiate the intersection position between the pointing direction and the object (or its extended region), but emits light to a position near the center of the object from the intersection position. Irradiate. Thereby, the user can easily determine whether or not light is irradiated when the object is viewed.

図15は、指差し方向が交差する位置と、発光による照射位置との関係を示す図である。図15の左側の図は拡張領域を含む所定の領域の座標系を示し、右側の図は物体の座標系を示す図である。なお、図15では、簡単のため2次元座標で説明しているが、実際には3次元座標である。発光制御部168は、照射位置を物体の中心(座標系の原点)に寄せるため、指差し方向の交差位置の座標値に2/3を乗じて、照射位置の座標を計算する。本実施の形態の指示対象物表示装置100の記憶部17には、交差位置の座標を照射位置の座標に変換するためのテーブルが記憶されている。   FIG. 15 is a diagram illustrating a relationship between a position where the pointing directions intersect and an irradiation position by light emission. The diagram on the left side of FIG. 15 shows the coordinate system of a predetermined area including the extension area, and the diagram on the right side shows the coordinate system of the object. In FIG. 15, for the sake of simplicity, the description is made with two-dimensional coordinates. The light emission control unit 168 calculates the coordinates of the irradiation position by multiplying the coordinate value of the intersection position in the pointing direction by 2/3 in order to bring the irradiation position to the center of the object (the origin of the coordinate system). The storage unit 17 of the pointing object display device 100 according to the present embodiment stores a table for converting the coordinates of the intersection position into the coordinates of the irradiation position.

図16は、実施の形態の指示対象物表示装置100の動作を示すフローチャートである。指示対象物表示装置100は、まず、カメラ15にてユーザを撮影し(ステップS161)、指示対象物検出部167にて、撮影した画像からユーザの指差し方向を検出する(ステップS162)。続いて、指示対象物検出部167は、記憶部17からユーザの周囲にある物体に関するデータを読み出し、物体に対して定めた所定の領域がユーザの指差し方向と交差する物体を指示対象物として求める(ステップS163)。次に、指示対象物表示装置100の発光制御部168は、指差し方向と物体との交差位置から物体への照射位置を計算し(ステップS164)、発光部18を制御して照射位置に向けて発光する(ステップS165)。指示対象物表示装置100は、以上の処理を繰り返し行う。   FIG. 16 is a flowchart illustrating the operation of the pointing object display device 100 according to the embodiment. First, the indication object display device 100 images the user with the camera 15 (step S161), and the indication object detection unit 167 detects the pointing direction of the user from the captured image (step S162). Subsequently, the instruction target detection unit 167 reads out data related to an object around the user from the storage unit 17, and uses an object whose predetermined area defined for the object intersects the user's pointing direction as the instruction target. Obtained (step S163). Next, the light emission control unit 168 of the pointing object display device 100 calculates the irradiation position on the object from the crossing position of the pointing direction and the object (step S164), and controls the light emitting unit 18 to face the irradiation position. To emit light (step S165). The instruction target object display device 100 repeatedly performs the above processing.

これにより、ユーザが指差し方向を動かした場合には、指示対象物表示装置100は、ユーザの指差し方向に基づいて物体を検出し、その物体への照射位置を求めて照射を行うので、ユーザの指差し方向の変化に応じて、物体への照射位置も変化していく。したがって、ユーザは照射位置を見ながら、指差し方向を変えることによって、所望の物体を適切に指示することができる。   Thereby, when the user moves the pointing direction, the pointing object display device 100 detects an object based on the pointing direction of the user, and performs irradiation by obtaining an irradiation position on the object. As the user's pointing direction changes, the irradiation position on the object also changes. Therefore, the user can appropriately indicate a desired object by changing the pointing direction while viewing the irradiation position.

また、図14を用いて説明した内容から分かるように、本実施の形態では、物体の近傍の領域を指差すことにより物体の表面上に光が照射されるので、物体を指示するために指差し方向を動かしていくと、指差し方向が物体に近づいたときに照射位置が物体に吸いつくような動きをする。ユーザは、指差し方向を厳密に物体の方向に向けなくてもよいので、簡単に所望の物体を指示することができる。   Further, as can be seen from the content described with reference to FIG. 14, in this embodiment, light is irradiated on the surface of the object by pointing to the area near the object. As the pointing direction is moved, the irradiation position moves toward the object when the pointing direction approaches the object. Since the user does not have to point the pointing direction strictly toward the object, the user can easily indicate a desired object.

[第2の実施の形態]
次に、第2の実施の形態の指示対象物表示装置について説明する。第2の実施の形態の指示対象物表示装置の基本的な構成は、第1の実施の形態の指示対象物表示装置100と同じであるが、第2の実施の形態では、ユーザの指先の震えによって照射位置が震えないような工夫を行った点が異なる。
[Second Embodiment]
Next, the pointing object display device according to the second embodiment will be described. The basic configuration of the pointing object display device of the second embodiment is the same as that of the pointing object display device 100 of the first embodiment. However, in the second embodiment, the fingertip of the user's fingertip is the same. The difference is that the irradiation position is not shaken by the tremor.

図17は、第2の実施の形態の指示対象物表示装置の動作を示すフローチャートである。指示対象物表示装置は、まず、カメラ15にてユーザを撮影し(ステップS171)、指示対象物検出部167にて、撮影した画像からユーザの指差し方向を検出し(ステップS172)、求めた指差し方向のデータを記憶部17に記憶する(ステップS173)。   FIG. 17 is a flowchart illustrating the operation of the pointing object display device according to the second embodiment. First, the pointing object display device captures the user with the camera 15 (step S171), and the pointing object detection unit 167 detects the pointing direction of the user from the captured image (step S172). Data in the pointing direction is stored in the storage unit 17 (step S173).

次に、第2の実施の形態の指示対象物表示装置は、直前の所定時間(例えば、0.3秒)内における指差し方向のデータを記憶部17から読み出し、指差し方向の動きの量が所定の閾値(例えば、1度)より大きいか否かを判定する(ステップS174)。その結果、指差しの動きの量が所定の閾値以内である場合には(ステップS174でNO)、ユーザを撮影して(ステップS171)、ユーザの指差し方向を検出する処理(ステップS172)に戻る。   Next, the pointing object display device according to the second embodiment reads the data in the pointing direction within the predetermined time immediately before (for example, 0.3 seconds) from the storage unit 17, and the amount of movement in the pointing direction Is greater than a predetermined threshold (for example, 1 degree) (step S174). As a result, when the amount of pointing motion is within a predetermined threshold (NO in step S174), the user is photographed (step S171), and the process of detecting the pointing direction of the user (step S172) is performed. Return.

指差しの動きの量が所定の閾値より大きい場合(ステップS174でYES)、指示対象物検出部167は、記憶部17からユーザの周囲にある物体に関するデータを読み出し、物体に対して定めた所定の領域がユーザの指差し方向と交差する物体を指示対象物として求める(ステップS175)。次に、指示対象物表示装置の発光制御部168は、指差し方向と物体との交差位置から物体への照射位置を計算し(ステップS176)、発光部18を制御して照射位置に向けて発光する(ステップS177)。指示対象物表示装置は、以上の処理を繰り返し行う。   When the amount of pointing motion is greater than the predetermined threshold (YES in step S174), the pointing object detection unit 167 reads data related to the object around the user from the storage unit 17, and determines the predetermined value determined for the object. An object whose area intersects with the user's pointing direction is obtained as an instruction target (step S175). Next, the light emission control unit 168 of the pointing object display device calculates the irradiation position on the object from the crossing position of the pointing direction and the object (step S176), and controls the light emitting unit 18 toward the irradiation position. Light is emitted (step S177). The instruction object display device repeats the above processing.

ユーザの指先の震えは無意識に起こってしまう現象であり、この現象はユーザが物体を指示しようとしているものではない。第2の実施の形態では、所定の時間内における所定の閾値より小さい細かい動きを照射位置に反映しないようにすることにより、ユーザの意図に合った物体の指示を実現することができる。   The trembling of the user's fingertip is a phenomenon that occurs unconsciously, and this phenomenon is not intended to indicate an object by the user. In the second embodiment, it is possible to realize an instruction of an object that matches the user's intention by not reflecting in the irradiation position a fine movement smaller than a predetermined threshold within a predetermined time.

[第3の実施の形態]
次に、第3の実施の形態の指示対象物表示装置について説明する。第3の実施の形態の指示対象物表示装置の基本的な構成は、第1の実施の形態の指示対象物表示装置と同じであるが、第3の実施の形態では、ユーザが指先を素早く動かして指差し方向を変えたときには、その移動の過程においては、指差し方向と物体の拡張領域との交差位置を検出しないようにしている点が異なる。
[Third Embodiment]
Next, an indication object display device according to a third embodiment will be described. The basic configuration of the pointing object display device according to the third embodiment is the same as that of the pointing object display device according to the first embodiment. However, in the third embodiment, the user can quickly move the fingertip. When moving and changing the pointing direction, the difference is that the crossing position between the pointing direction and the extended area of the object is not detected in the movement process.

図18は、第3の実施の形態の指示対象物表示装置の動作を示すフローチャートである。指示対象物表示装置は、まず、カメラ15にてユーザを撮影し(ステップS181)、指示対象物検出部167にて、撮影した画像からユーザの指差し方向を検出する(ステップS182)。続いて、指示対象物検出部167は、指差し方向の移動速度を計算する(ステップS183)。移動速度の計算は、第2の実施の形態にて説明したのと同様に、求めた指差し方向のデータを記憶部17に記憶しておき、記憶部17に記憶された時系列データを用いて速度を計算することによって行う。   FIG. 18 is a flowchart illustrating the operation of the pointing object display device according to the third embodiment. First, the pointing object display device captures the user with the camera 15 (step S181), and the pointing object detection unit 167 detects the pointing direction of the user from the captured image (step S182). Subsequently, the pointing object detection unit 167 calculates the moving speed in the pointing direction (step S183). As in the case of the second embodiment, the moving speed is calculated by storing the obtained pointing direction data in the storage unit 17 and using the time series data stored in the storage unit 17. By calculating the speed.

指示対象物表示装置は、移動速度が所定の閾値以下か否かを判定する(ステップS184)。この結果、移動速度が所定の閾値以下の場合には(ステップS184でYES)、第1の実施の形態と同様の処理を行う。すなわち、指示対象物表示装置は、記憶部17からユーザの周囲にある物体に関するデータを読み出し、物体に対して定めた所定の領域がユーザの指差し方向と交差する物体を指示対象物として求める(ステップS185)。次に、指示対象物表示装置の発光制御部168は、指差し方向と物体との交差位置から物体への照射位置を計算し(ステップS186)、発光部18を制御して照射位置に向けて発光する(ステップS187)。   The instruction target display device determines whether or not the moving speed is equal to or less than a predetermined threshold (step S184). As a result, when the moving speed is equal to or lower than the predetermined threshold (YES in step S184), the same processing as in the first embodiment is performed. That is, the indication target object display device reads out data related to an object around the user from the storage unit 17 and obtains an object whose predetermined area defined for the object intersects the user's pointing direction as the indication object ( Step S185). Next, the light emission control unit 168 of the pointing object display device calculates the irradiation position on the object from the crossing position of the pointing direction and the object (step S186), and controls the light emitting unit 18 toward the irradiation position. Light is emitted (step S187).

一方、ユーザの指先の移動速度が所定の閾値より大きい場合には(ステップS184でNO)、指示対象物表示装置は、指差し方向と物体が交差する位置を求める(ステップS188)。このステップでは、物体に拡張領域を設定せず、物体と指差し方向とが交差する位置を求める。そして、発光部18は、求めた交差位置に向けて発光する(ステップS189)。   On the other hand, when the moving speed of the user's fingertip is greater than the predetermined threshold (NO in step S184), the pointing object display device obtains a position where the pointing direction and the object intersect (step S188). In this step, an extended region is not set for the object, and a position where the object and the pointing direction intersect is obtained. And the light emission part 18 light-emits toward the calculated | required crossing position (step S189).

本実施の形態によれば、指差し方向が所定の閾値以下の速度で移動している場合には、移動中の照射位置は、第1の実施の形態で説明したように、物体に吸いつくような動きをするので、ユーザがその途中にある物体を指示することが容易である。指差し方向が所定の閾値より大きい速度で移動している場合には、照射位置は指差し方向をそのまま示し、滑らかな動きをする。指差し方向を素早く動かしている場合には、所望の物体に向けて指差し方向を移動しており、その間にある物体を指示する意図がないと考えられるから、物体に吸いつくような動き方をしないのがユーザの意図に適う。   According to the present embodiment, when the pointing direction is moving at a speed equal to or lower than a predetermined threshold, the irradiation position during movement sticks to the object as described in the first embodiment. Since it moves like this, it is easy for the user to point to an object on the way. When the pointing direction is moving at a speed greater than a predetermined threshold, the irradiation position indicates the pointing direction as it is and moves smoothly. When moving the pointing direction quickly, the pointing direction is moving toward the desired object, and it is considered that there is no intention to point to an object in between. It is suitable for the user's intention not to do this.

なお、本実施の形態では、指差し方向の移動速度が所定の閾値以下か否かにより、照射位置の求め方を変える例について説明したが、指差し方向の移動加速度に基づいて判断してもよいし、移動速度と移動加速度の両方を用いてもよい。   In the present embodiment, an example in which the method of obtaining the irradiation position is changed depending on whether or not the moving speed in the pointing direction is equal to or less than a predetermined threshold has been described, but the determination may be made based on the moving acceleration in the pointing direction. Alternatively, both the moving speed and the moving acceleration may be used.

また、本実施の形態では、指差し方向の移動速度が所定の閾値より大きい場合には、指差し方向をそのまま照射する例について説明したが、指差し方向の移動速度が所定の閾値より大きい場合には、指差し方向を照射するのを停止してもよい。上述したように、指差し方向を素早く動かしているときには物体を指示する意図がないと考えられるので、照射しなくても問題はなく、かつ、物体との交差位置を求める処理が不要になるので、処理が簡単になる。   Further, in this embodiment, an example in which the pointing direction is irradiated as it is when the moving speed in the pointing direction is larger than the predetermined threshold has been described. However, the moving speed in the pointing direction is larger than the predetermined threshold. Alternatively, the irradiation in the pointing direction may be stopped. As mentioned above, it is thought that there is no intention to indicate the object when moving quickly in the pointing direction, so there is no problem even if it does not irradiate, and the process of obtaining the intersection position with the object is unnecessary. , The process becomes simple.

上記した第1〜第3の実施の形態において、物体の近傍を指したときにも物体を検出できるように物体に対して拡張領域を設定する例について説明したが、拡張領域を設定する物体とそうでない物体とを設けてもよい。例えば、大きさが所定の閾値以下の物体に対しては拡張領域を設定し、所定の閾値より大きい物体には拡張領域を設定しない構成とすることもできる。小さい物体を正確に指し示すのは難しいので拡張領域を設定することにより、小さい物体を容易に指示できるようにできる。逆に大きい物体については、拡張領域がなくとも指し示すのが簡単であるし、逆に、大きい物体に拡張領域を設定すると、他の物体を指示したいのに、大きい物体が邪魔になるような事態も考えられる。   In the first to third embodiments described above, the example in which the extension area is set for the object so that the object can be detected even when the vicinity of the object is pointed is described. Other objects may be provided. For example, an extension area may be set for an object having a size equal to or smaller than a predetermined threshold, and no extension area may be set for an object larger than the predetermined threshold. Since it is difficult to point a small object accurately, it is possible to easily indicate a small object by setting an extended area. Conversely, for large objects, it is easy to point without an extended area. Conversely, when an extended area is set for a large object, a large object is in the way even though you want to point to another object. Is also possible.

また、移動可能な物体に拡張領域を設定し、静的な物体に対しては拡張領域を設定しない構成とすることもできる。例えば、ロボットに対して指示を行う場合には、物を持って来させたり、片づけさせたりといったように、物体の移動を伴うことが多いので、動的な物体を指し示す場合が多く、壁や天井などの静的なものを指示することは少ないと考えられる。そこで、動的な物体には拡張領域を設定して、物体の指示を容易にすることが実用的である。   Further, an extension area may be set for a movable object, and an extension area may not be set for a static object. For example, when an instruction is given to a robot, it often involves moving an object, such as bringing an object or putting it away. It is considered that there is little indication of static things such as the ceiling. Therefore, it is practical to set an extension area for a dynamic object to facilitate the instruction of the object.

また、拡張領域を設定する際には、物体の全周にわたって、均一に拡大した領域である必要はなく、例えば、鉛直方向より水平方向に大きく拡大した拡張領域を設定してもよい。人間は指差し方向を水平に動かす場合が多いので、拡張領域を水平方向に大きくすることにより、指差し方向にある物体を適切に捉えることができる。また、拡張領域の形状は、ユーザの指差しの癖を学習して、ユーザに合った形状としてもよい。例えば、物体の実際の位置よりも右側を指してしまいがちなユーザに対しては、右側が大きい拡張領域とすることにより、物体の指示を容易に行えるようになる。   Further, when setting the extension area, it is not necessary to be an area that is uniformly enlarged over the entire circumference of the object. For example, an extension area that is greatly enlarged in the horizontal direction from the vertical direction may be set. Since humans often move the pointing direction horizontally, it is possible to appropriately capture an object in the pointing direction by enlarging the extended area in the horizontal direction. Further, the shape of the extended region may be a shape suitable for the user by learning the habit of pointing at the user. For example, for a user who tends to point to the right side of the actual position of the object, it is possible to easily indicate the object by setting an extended area on the right side.

上記した第1〜第3の実施の形態では、複数の物体を検出した際には、複数の物体の中で最も中心に近いところが指示された物体を指示対象物とする例について説明したが(図14参照)、複数の物体のうち、ユーザに最も近い物体を指示対象物としてもよい。   In the first to third embodiments described above, an example has been described in which when a plurality of objects are detected, an object that is instructed to be the closest to the center among the plurality of objects is used as an instruction target ( 14), the object closest to the user among the plurality of objects may be used as the instruction target.

また、別の態様として、撮影画像から指差しを行っている方のユーザの肘の角度を求め、肘が伸びている場合には、遠くにある物体を指示対象物とし、肘が曲がっている場合には近くにある物体を指示対象物としてもよい。これにより、ユーザの意図を推定して適切に指示対象物を照射することができる。   Further, as another aspect, the elbow angle of the user who is pointing from the captured image is obtained, and when the elbow is stretched, the distant object is used as the pointing object, and the elbow is bent In some cases, a nearby object may be used as the instruction target. Thereby, a user's intention can be estimated and an indication subject can be irradiated appropriately.

また、指差し方向の移動を検出したときに、その指先の移動軌跡の曲率半径に基づいてユーザの意図を推定して、指示対象物を決定してもよい。例えば、指先の移動軌跡の曲率半径が大きいときには、肘や手首を回すのではなく、肩を回すことによって指差し方向を変えていると考えられるので、この場合は遠くの物体を指示対象物とする意図であると推定できる。この場合は、移動後の指差し方向にある物体のうちで、遠くにある物体を指示対象物として検出する。   Further, when the movement in the pointing direction is detected, the intent of the user may be estimated based on the radius of curvature of the movement locus of the fingertip, and the pointing object may be determined. For example, when the radius of curvature of the movement trajectory of the fingertip is large, it is considered that the pointing direction is changed by turning the shoulder instead of turning the elbow or wrist. It can be presumed that this is the intention. In this case, among the objects in the pointing direction after movement, an object far away is detected as the pointing object.

上記した第1〜第3の実施の形態においては、交差位置から照射位置を求める際に、指差し方向の交差位置の座標値に2/3を乗じて、照射位置の座標を計算する例について説明したが、交差位置から照射位置への変換方法(変換テーブル)は必ずしも等倍である必要はなく、様々なバリエーションが考えられる。例えば、拡張領域を含む所定の領域を物体の中心付近か否かで2つの領域に分け、交差位置が中心付近の領域に入っているときにはその交差位置をそのまま照射位置とし、交差位置が外側の領域に入っているときには、照射位置が中心付近の領域に入るように座標変換してもよい。また、交差位置にかかわらず、物体の中心を照射位置とするようにしてもよい。   In the first to third embodiments described above, when obtaining the irradiation position from the intersection position, the coordinate value of the irradiation position is calculated by multiplying the coordinate value of the intersection position in the pointing direction by 2/3. As described above, the conversion method (conversion table) from the intersection position to the irradiation position does not necessarily have to be the same magnification, and various variations are conceivable. For example, a predetermined area including an extended area is divided into two areas depending on whether or not the object is in the vicinity of the center of the object. When entering the area, coordinate conversion may be performed so that the irradiation position enters the area near the center. Further, the center of the object may be set as the irradiation position regardless of the intersection position.

本発明は、簡単かつ直感的な方法でロボットにワークに対する作業を教示できるという効果を有し、ワークに対して作業を行うロボット及びロボット制御方法等として有用である。   INDUSTRIAL APPLICABILITY The present invention has an effect that a robot can be instructed to work on a work by a simple and intuitive method, and is useful as a robot that performs work on a work, a robot control method, and the like.

10 アーム型ロボット
11 ベース
12 アーム部
12A 第1アーム
12B 第2アーム
13 ハンド部
14 フィンガ部
14A、14B フィンガ部材
15 カメラ
16 制御部
17 記憶部
18 発光部
21 第1軸
22 第2軸
23 第3軸
24 第4軸
25 第5軸
26 第6軸
121 アクチュエータ
122 アームセンサ
131 アクチュエータ
132 ハンドセンサ
141 アクチュエータ
142 フィンガセンサ
151 カメラ制御部
160 位置姿勢推定装置
161 撮影画像取得部
162 マッチング部
163 予測画像抽出部
164 撮影方向決定部
165 位置姿勢計算部
166 撮影画像取得部
167 指示対象物検出部
168 発光制御部
266 制候補画像絞込部
DESCRIPTION OF SYMBOLS 10 Arm type robot 11 Base 12 Arm part 12A 1st arm 12B 2nd arm 13 Hand part 14 Finger part 14A, 14B Finger member 15 Camera 16 Control part 17 Storage part 18 Light emitting part 21 1st axis 22 2nd axis 23 3rd Axis 24 Fourth Axis 25 Fifth Axis 26 Sixth Axis 121 Actuator 122 Arm Sensor 131 Actuator 132 Hand Sensor 141 Actuator 142 Finger Sensor 151 Camera Control Unit 160 Position / Orientation Estimation Device 161 Captured Image Acquisition Unit 162 Matching Unit 163 Predictive Image Extraction Unit 164 Shooting direction determination unit 165 Position and orientation calculation unit 166 Shooting image acquisition unit 167 Pointed object detection unit 168 Light emission control unit 266 Control candidate image narrowing unit

Claims (11)

ワークに対して作業をするロボットであって、
撮影によって撮影画像を生成するカメラと、
ワークに対して作業を行う作業部と、
作業教示工程において、ワークの画像を含む撮影画像に基づいて、ユーザによるワークに対する作業内容を認識し、作業実施工程において、前記作業内容を行うように前記作業部を制御する制御部と、
を備え
前記作業部は、ワークを把持することが可能であり、
前記制御部は、前記作業教示工程において、ユーザの指によるワークの把持位置を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持するよう前記作業部を制御することを特徴とするロボット。
A robot that works on workpieces,
A camera that generates a shot image by shooting;
A working unit that performs work on the workpiece;
A control unit for recognizing a work content for a work by a user based on a photographed image including an image of the work in the work teaching step, and controlling the work unit so as to perform the work content in the work execution step;
Equipped with a,
The working unit is capable of gripping a workpiece,
The control unit recognizes a work gripping position by a user's finger in the work teaching process, and controls the work part so that the work part grips the work at the gripping position in the work execution process. Robot characterized by.
前記制御部は、前記作業実施工程において、ワークの画像を含む撮影画像に基づいて、ワークを認識し、認識されたワークに対応する前記作業内容を行うように前記作業部を制御することを特徴とする請求項1に記載のロボット。   In the work execution step, the control unit recognizes a work based on a photographed image including an image of the work, and controls the work unit so as to perform the work content corresponding to the recognized work. The robot according to claim 1. 前記制御部は、更に、ワーク教示工程において、ワークを認識し、前記作業実施工程において、前記ワーク教示工程で認識したワークと前記作業実施工程における前記撮影画像に含まれるワークの画像とを比較することにより、ワークを認識することを特徴とする請求項2に記載のロボット。   The control unit further recognizes the workpiece in the workpiece teaching step, and compares the workpiece recognized in the workpiece teaching step with the workpiece image included in the photographed image in the operation performing step in the operation performing step. The robot according to claim 2, wherein the robot recognizes a workpiece. 前記作業部は、ワークを移動させることが可能であり、
前記作業内容は、ワークを移動させることである
ことを特徴とする請求項1に記載のロボット。
The working unit is capable of moving a workpiece,
The robot according to claim 1, wherein the work content is to move a workpiece.
前記制御部は、前記作業実施工程において、複数のワークを、互いの位置及び姿勢の関係が所定の位置及び姿勢となるよう移動させる作業を行うように前記作業部を制御し、前記作業教示工程において、ユーザがワークを移動した後のワークの移動先の位置及び姿勢を認識し、前記移動先の位置及び姿勢は、既に移動された他のワークを基準とする位置及び姿勢であることを特徴とする請求項4に記載のロボット。   The control unit controls the working unit to perform a work of moving a plurality of workpieces so that a relationship between the positions and postures of the workpieces is a predetermined position and posture in the work performing step, and the work teaching step. The position and orientation of the work destination after the user has moved the work, and the position and orientation of the move destination are positions and orientations with reference to another work that has already been moved. The robot according to claim 4. 前記作業部は、ワークを持ち上げて移動させることが可能であり、
前記作業内容は、ワークを持ち上げて移動させることである
ことを特徴とする請求項1に記載のロボット。
The working unit can lift and move the workpiece,
The robot according to claim 1, wherein the work content is lifting and moving a workpiece.
記作業内容は、ワークを把持して移動させることである
ことを特徴とする請求項1に記載のロボット。
Before SL work, the robot according to claim 1, characterized in that by moving grips the workpiece.
前記作業部は、2つのフィンガ部材を備え、前記2つのフィンガ部材の間の距離を変化させることで、ワークを把持するフィンガ部であり、
前記制御部は、前記作業教示工程において、ユーザの2本の指によるワークの把持位置を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持するよう前記作業部を制御することを特徴とする請求項1に記載のロボット。
The working portion includes two finger members, and is a finger portion that grips a workpiece by changing a distance between the two finger members.
The control unit recognizes a gripping position of a workpiece by a user's two fingers in the work teaching step, and in the work execution step, the control unit controls the working unit to grip the workpiece at the gripping position. The robot according to claim 1, wherein the robot is controlled.
前記制御部は、前記作業教示工程において、ユーザの指によるワークの把持位置、ユーザがワークの把持を解除したときのワークの移動先の位置及び姿勢を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持し、ワークを前記移動先の位置まで移動させ、前記移動先の位置及び姿勢でワークの把持を解除するよう前記作業部を制御することを特徴とする請求項7に記載のロボット。   The control unit recognizes the gripping position of the workpiece by the user's finger in the work teaching step, and the position and orientation of the workpiece movement destination when the user releases the gripping of the workpiece. A part grips the work at the gripping position, moves the work to the position of the movement destination, and controls the working unit to release the gripping of the work at the position and posture of the movement destination. Item 8. The robot according to Item 7. ワークに対して作業をする作業部を備えたロボットを制御するロボット制御方法であって、
撮影によって撮影画像を生成する撮影工程と、
前記ワークの画像を含む撮影画像に基づいて、ユーザによるワークに対する作業内容を認識する作業教示工程と、
前記作業内容を行うように前記作業部を制御する作業実施工程と、
を含み、
前記作業部は、ワークを把持することが可能であり、
前記作業教示工程は、ユーザの指によるワークの把持位置を認識し、
前記作業実施工程は、前記作業部が前記把持位置にてワークを把持するよう前記作業部を制御することを特徴とするロボット制御方法。
A robot control method for controlling a robot having a working unit for working on a workpiece,
A shooting process for generating a shot image by shooting;
A work teaching step for recognizing the work content for the work by the user based on a photographed image including the image of the work;
A work execution step of controlling the working unit to perform the work content;
Only including,
The working unit is capable of gripping a workpiece,
The work teaching step recognizes a gripping position of a work by a user's finger,
The robot control method characterized in that the work execution step controls the work part so that the work part grips a workpiece at the gripping position .
撮影によって撮影画像を生成するカメラと、ワークに対して作業を行う作業部とを備え、ワークに対して作業をするロボットのコンピュータを、
作業教示工程において、前記ワークの画像を含む撮影画像に基づいて、ユーザによるワークに対する作業内容を認識し、作業実施工程において、前記作業内容を行うように前記作業部を制御する制御部
として機能させ
前記作業部は、ワークを把持することが可能であり、
前記制御部は、前記作業教示工程において、ユーザの指によるワークの把持位置を認識し、前記作業実施工程において、前記作業部が前記把持位置にてワークを把持するよう前記作業部を制御することを特徴とするロボット制御プログラム。
A robot computer that has a camera that generates a photographed image by photographing and a working unit that performs work on the work,
In the work teaching step, based on a photographed image including the image of the work, the user recognizes the work content for the work, and in the work execution step, functions as a control unit that controls the work unit to perform the work content. ,
The working unit is capable of gripping a workpiece,
Wherein, in the work teaching process, to recognize the gripping position of the workpiece by the user's finger, in the work carried out step, that controls the working unit so that the working unit grips the workpiece by the gripping position A robot control program characterized by that.
JP2013175762A 2013-08-27 2013-08-27 Robot, robot control method, and robot control program Expired - Fee Related JP6042291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013175762A JP6042291B2 (en) 2013-08-27 2013-08-27 Robot, robot control method, and robot control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013175762A JP6042291B2 (en) 2013-08-27 2013-08-27 Robot, robot control method, and robot control program

Publications (2)

Publication Number Publication Date
JP2015044257A JP2015044257A (en) 2015-03-12
JP6042291B2 true JP6042291B2 (en) 2016-12-14

Family

ID=52670255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013175762A Expired - Fee Related JP6042291B2 (en) 2013-08-27 2013-08-27 Robot, robot control method, and robot control program

Country Status (1)

Country Link
JP (1) JP6042291B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106607874A (en) * 2015-10-26 2017-05-03 广明光电股份有限公司 Device and method for capturing image through machine arm
JP2017087357A (en) * 2015-11-11 2017-05-25 ファナック株式会社 Automatic position adjustment system for installation object
JP6748299B2 (en) * 2016-08-30 2020-08-26 マコー サージカル コーポレイション System and method for intraoperative pelvic registration
CN107598920A (en) * 2017-08-23 2018-01-19 深圳果力智能科技有限公司 A kind of manipulator of view-based access control model control
JP6916157B2 (en) * 2018-10-23 2021-08-11 ファナック株式会社 Robot systems that collaborate with people and robot control methods
US11813749B2 (en) * 2020-04-08 2023-11-14 Fanuc Corporation Robot teaching by human demonstration
CN114378825B (en) * 2022-01-21 2023-05-12 四川长虹智能制造技术有限公司 Multi-camera visual positioning method and system and electronic equipment
CN116551654A (en) * 2022-01-28 2023-08-08 腾讯科技(深圳)有限公司 Mechanical arm, mechanical arm control method, mechanical arm control device, robot and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH091482A (en) * 1995-06-14 1997-01-07 Nippon Telegr & Teleph Corp <Ntt> Robot work teaching-action playback device
JP2000094375A (en) * 1998-09-19 2000-04-04 Fukui Prefecture Block Kyodo Kumiai Method for stacking block by mobile manipulator
JP4572497B2 (en) * 2001-09-14 2010-11-04 株式会社安川電機 Robot controller
CN100445948C (en) * 2001-09-29 2008-12-24 张晓林 Automatic cooking method and system
CN101890720B (en) * 2004-07-13 2012-01-11 松下电器产业株式会社 Article holding system, robot, and method of controlling robot
JP4976883B2 (en) * 2007-02-23 2012-07-18 パナソニック株式会社 Manipulator system
JP2011110620A (en) * 2009-11-24 2011-06-09 Toyota Industries Corp Method of controlling action of robot, and robot system

Also Published As

Publication number Publication date
JP2015044257A (en) 2015-03-12

Similar Documents

Publication Publication Date Title
JP6042291B2 (en) Robot, robot control method, and robot control program
US11691273B2 (en) Generating a model for an object encountered by a robot
TWI620627B (en) Robots and methods for localization of the robots
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP6744709B2 (en) Information processing device and information processing method
JP2019508273A (en) Deep-layer machine learning method and apparatus for grasping a robot
EP3587050A1 (en) Method and system to generate a 3d model for a robot scene
KR20130102080A (en) Work pick-up apparatus
JP2004295223A (en) Image processing apparatus and robot system
CN113492393A (en) Robot teaching demonstration by human
JP2012101320A (en) Image generation apparatus, image generation method and program
JPWO2009028489A1 (en) Object detection method, object detection apparatus, and robot system
CN112775959A (en) Method and system for determining grabbing pose of manipulator and storage medium
CN109648568B (en) Robot control method, system and storage medium
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
JP2019188477A (en) Robot motion teaching device, robot system, and robot control device
JP2020121352A (en) Object gripping system
JP2008168372A (en) Robot device and shape recognition method
CN114670189B (en) Storage medium, and method and system for generating control program of robot
JP6237122B2 (en) Robot, image processing method and robot system
WO2016151667A1 (en) Teaching device and method for generating control information
CN116152335A (en) Apparatus and method for training machine learning model to generate descriptor images
TWI734237B (en) Automatic control method and automatic control device
WO2023243051A1 (en) Workpiece retrieval system
JP2015041325A (en) Device, method and program of designation object display

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161109

R150 Certificate of patent or registration of utility model

Ref document number: 6042291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees