JP2010162638A - Robot hand - Google Patents

Robot hand Download PDF

Info

Publication number
JP2010162638A
JP2010162638A JP2009006121A JP2009006121A JP2010162638A JP 2010162638 A JP2010162638 A JP 2010162638A JP 2009006121 A JP2009006121 A JP 2009006121A JP 2009006121 A JP2009006121 A JP 2009006121A JP 2010162638 A JP2010162638 A JP 2010162638A
Authority
JP
Japan
Prior art keywords
light
image
robot hand
imaging device
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009006121A
Other languages
Japanese (ja)
Inventor
Atsushi Sugawara
淳 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009006121A priority Critical patent/JP2010162638A/en
Publication of JP2010162638A publication Critical patent/JP2010162638A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately select an object and hold the object. <P>SOLUTION: A robot hand includes: a support part 40; first and second holding parts 110 oppositely arranged at the support part 40 and holding the object 100; first and second light sources 90 oppositely arranged at the first and second holding parts 110 respectively and irradiating light to the object 100; an imaging device 50 being arranged at a support part 40, being arranged at an area sandwiched by planes including the first and second holding parts 110, and obtaining the image of the object 100 by imaging the object 100 irradiated by light; and an image processing device connected with the imaging device 50 and processing the image obtained by the imaging device 50. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ロボットハンドに係り、特に散積みの中から精度良く物体を選別し、物体を把持することができるロボットハンドに関する。   The present invention relates to a robot hand, and more particularly to a robot hand that can accurately select an object from scattered objects and can grip the object.

オートメーション化が進展した現在、産業用ロボットを用いた合理的な作業が必要不可欠となっている。その中でも、散積みにされた、例えば箱状の物体をロボットハンドによって把持する技術が、盛んに研究されるようになってきた。   With the progress of automation, rational work using industrial robots is indispensable. Among them, techniques for gripping, for example, box-shaped objects with a robot hand have been actively studied.

従来のロボットハンドでは、指部に光学式の摺動検出器を設けて、その摺動検出器によって指部の把持力を自動的に決定する制御方法及び装置が発明されている(例えば、特許文献1参照)。   In a conventional robot hand, a control method and apparatus have been invented in which an optical sliding detector is provided on a finger and the gripping force of the finger is automatically determined by the sliding detector (for example, a patent) Reference 1).

特開2005−153114公報JP 2005-153114 A

しかしながら、上記特許文献1に記載のロボットハンドでは物体を把持することは可能であっても、散積みの中から適切に物体を選別することが困難であるという問題があった。   However, the robot hand described in Patent Document 1 has a problem that it is difficult to appropriately select an object from among scattered objects even though the object can be gripped.

本発明は上記問題点を解決するためになされたもので、精度よく物体を選別し、物体を把持することができるロボットハンドを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a robot hand that can accurately select an object and can grip the object.

上記目的を達成するために、本発明のロボットハンドは支持部と、前記支持部に設けられ、物体を把持するための対向する第1及び第2の把持部と、前記第1及び前記第2の把持部にそれぞれ設けられ、前記物体に光を照射するための対向する第1及び第2の光源と、
前記支持部に設けられ、且つ、前記第1及び前記第2の把持部を含む平面によって挟まれた領域に設けられ、且つ、前記光によって照射された前記物体を撮像して前記物体の画像を取得する撮像装置と、前記撮像装置に接続され、且つ、前記撮像装置で取得した前記画像を処理する画像処理装置とを備えたロボットハンドであることを特徴とする。
In order to achieve the above object, a robot hand according to the present invention is provided with a support portion, first and second gripping portions that are provided on the support portion and are opposed to grip an object, and the first and second First and second light sources facing each other for irradiating the object with light,
An image of the object is obtained by imaging the object that is provided in the support and provided in an area sandwiched between planes including the first and second gripping parts and irradiated with the light. The robot hand includes an imaging device to be acquired and an image processing device that is connected to the imaging device and processes the image acquired by the imaging device.

本発明によれば、散積みの中から精度良く物体を選別し、物体を把持することができる。   According to the present invention, it is possible to accurately select an object from among the scattered objects and hold the object.

本発明に係わるロボットハンドの第1の実施形態を示す図。The figure which shows 1st Embodiment of the robot hand concerning this invention. 第1の実施形態に係わるロボットハンドの図。The figure of the robot hand concerning a 1st embodiment. 第1の実施形態に係わる関節部の駆動機構を示す図。The figure which shows the drive mechanism of the joint part concerning 1st Embodiment. リング照明によって光を物体に照射したときの図。The figure when irradiating an object with light by ring illumination. 第1の実施形態に係わる物体の左横に光源を設置して、物体の上方に撮像装置を設置したときの構成図。The block diagram when installing a light source in the left side of the object concerning 1st Embodiment, and installing the imaging device above the object. 第1の実施形態に係わる物体の右横に光源を設置して、物体の上方に撮像装置を設置したときの構成図。The block diagram when installing a light source in the right side of the object concerning 1st Embodiment, and installing the imaging device above the object. 図4と図5の撮像で得たエッジ画像の重畳図。FIG. 6 is a superimposed diagram of edge images obtained by imaging in FIGS. 4 and 5. 第1の実施形態に係わる物体を撮像方法を説明する図。FIG. 5 is a diagram for explaining an object imaging method according to the first embodiment. 第2の実施形態に係わるロボットハンドの図。The figure of the robot hand concerning a 2nd embodiment. 第2の実施形態に係わるロボットハンドの図。The figure of the robot hand concerning a 2nd embodiment. 第2の実施形態に係わるロボットハンドの図。The figure of the robot hand concerning a 2nd embodiment. 第2の実施形態に係わるロボットハンドの回転・照射・撮像のフローチャート図。The flowchart of rotation, irradiation, and imaging of the robot hand concerning 2nd Embodiment. 第2の実施形態に係わる画像の微分処理を説明する図。The figure explaining the differentiation process of the image concerning 2nd Embodiment. 第2の実施形態に係わる画像の微分処理を説明する図。The figure explaining the differentiation process of the image concerning 2nd Embodiment. 第2の実施形態に係わる画像の微分処理を説明する図。The figure explaining the differentiation process of the image concerning 2nd Embodiment. 第2の実施形態に係わる画像の微分処理を説明する図。The figure explaining the differentiation process of the image concerning 2nd Embodiment. 第2の実施形態に係わる球体の認識時のフォトメトリックについての説明図。Explanatory drawing about the photometric at the time of recognition of the sphere concerning 2nd Embodiment. 第2の実施形態に係わる球体の認識時のフォトメトリックについての説明図。Explanatory drawing about the photometric at the time of recognition of the sphere concerning 2nd Embodiment. 物体の投影角を示す図。The figure which shows the projection angle of an object. 本発明を適用したロボットハンドの第3の実施形態を示す図。The figure which shows 3rd Embodiment of the robot hand to which this invention is applied. 第3の実施形態の第1の変形例を示す図。The figure which shows the 1st modification of 3rd Embodiment. 第3の実施形態の第2の変形例を示す図。The figure which shows the 2nd modification of 3rd Embodiment. 本発明に係わるロボットハンドの第4の実施形態を示す図。The figure which shows 4th Embodiment of the robot hand concerning this invention.

以下、図面を参照しつつ本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

また、以下説明する図面において、符号が一致するものは、同じものを示しており、重複した説明は省略する。   In the drawings to be described below, the same reference numerals indicate the same parts, and duplicate descriptions are omitted.

(第1の実施形態)
図1(a)は、本発明に係わるロボットハンドの第1の実施形態を示す図である。
(First embodiment)
FIG. 1A is a diagram showing a first embodiment of a robot hand according to the present invention.

本実施形態で示すロボットハンドは、関節部20を介してアーム部10と手首部30が接続されており、手首部30に棒状の支持部40が設けられている。   In the robot hand shown in this embodiment, the arm portion 10 and the wrist portion 30 are connected via the joint portion 20, and the rod-like support portion 40 is provided on the wrist portion 30.

支持部40には、2つの把持部110が設けられており、2つの把持部110はそれぞれが対向した位置関係に設けられている。また、支持部40には、物体100を検出するための撮像装置50が設けられている。アーム部10と手首部30は、関節部20によって把持部110をあらゆる方向に位置決めすることが可能なように、柔軟な動きをすることができる。   The support portion 40 is provided with two gripping portions 110, and the two gripping portions 110 are provided in a positional relationship in which they face each other. In addition, the support unit 40 is provided with an imaging device 50 for detecting the object 100. The arm part 10 and the wrist part 30 can move flexibly so that the grip part 110 can be positioned in any direction by the joint part 20.

更に、把持部110は、スライドガイド60、バネ70、棒状の指部80から構成されており、その先端部に物体100を照射するための光源90が設けられている。   Further, the gripping part 110 includes a slide guide 60, a spring 70, and a rod-like finger part 80, and a light source 90 for irradiating the object 100 is provided on the tip part.

また、把持部110は複数であってもよく、例えば、図1(b)のように把持部110を4つの構成にしても良い。図1(b)は、ロボットハンドを上方向から眺めた図を示しており、簡単のために、支持部40、光源90、把持部110以外は省略している。つまり、一方の把持部110に設けられた光源90の反対側に、他方の把持部110に設けられた光源90が設けられており、それぞれの光源90から物体100に向けて光を照射することができれば良い。   Also, there may be a plurality of gripping portions 110. For example, the gripping portion 110 may have four configurations as shown in FIG. FIG. 1B shows a view of the robot hand as viewed from above. For the sake of simplicity, components other than the support portion 40, the light source 90, and the grip portion 110 are omitted. That is, the light source 90 provided on the other gripping part 110 is provided on the opposite side of the light source 90 provided on one gripping part 110, and light is emitted from each light source 90 toward the object 100. I hope you can.

図2は、関節部20の駆動機構の一例を示す図である。図2に示すように、アーム部10に設けられたモータ11の駆動力を減速機12により減速し、その駆動力を関節部20に設けられた傘歯歯車21に伝えて回転させることにより、手首部30を動かすことができる。   FIG. 2 is a diagram illustrating an example of a drive mechanism of the joint unit 20. As shown in FIG. 2, the driving force of the motor 11 provided in the arm portion 10 is decelerated by the speed reducer 12, and the driving force is transmitted to the bevel gear 21 provided in the joint portion 20 and rotated. The wrist part 30 can be moved.

図1(a)の支持部40は、手首部30に固定されており、物体100を把持するための2つの把持部110を備えている。把持部110を開閉する機構(水平方向に移動する機構)は、例えば、支持部40中に横送りボールネジとステッピングモータを備えて、ステッピングモータの駆動により開閉操作を行えばよい。   The support part 40 in FIG. 1A is fixed to the wrist part 30 and includes two gripping parts 110 for gripping the object 100. The mechanism that opens and closes the gripping part 110 (the mechanism that moves in the horizontal direction) may include, for example, a laterally fed ball screw and a stepping motor in the support part 40, and may be opened and closed by driving the stepping motor.

更に、支持部40には、2つの対向する把持部110を含む平面によって挟まれた領域に、撮像装置50が取り付けられている。撮像装置50は、例えば、2つの把持部110の間であって、支持部40の中央に設けられることが望ましいが、物体100を撮像することが可能であれば支持部40のどこに設けて良い。また、各把持部110は、物体100を把持するために、スライドガイド60、バネ70、指部80等から構成されている。スライドガイド60は、支持部40に取り付けられており、内部にバネ70、指部80の一部を収納する。そして、指部80を摺動するときの移動方向(垂直方向)の案内ガイドの働きをする。また、物体100を把持する際には、指部80を用いて物体100を把持する動作を行う。   Further, the imaging device 50 is attached to the support portion 40 in a region sandwiched between planes including two opposing gripping portions 110. The imaging device 50 is preferably provided, for example, between the two gripping units 110 and in the center of the support unit 40, but may be provided anywhere on the support unit 40 as long as the object 100 can be imaged. . Each gripping part 110 includes a slide guide 60, a spring 70, a finger part 80, and the like in order to grip the object 100. The slide guide 60 is attached to the support portion 40 and houses a part of the spring 70 and the finger portion 80 therein. Then, it acts as a guide for the moving direction (vertical direction) when sliding the finger 80. Further, when the object 100 is gripped, an operation of gripping the object 100 using the finger unit 80 is performed.

バネ70は、スライドガイド60内の支持部40と指部80の間に設けられている。そして、指部80が物体100に接触したときの衝撃を吸収する働きをする。   The spring 70 is provided between the support part 40 and the finger part 80 in the slide guide 60. Then, it acts to absorb an impact when the finger 80 comes into contact with the object 100.

また、指部80の変位量を把握するために、このバネ70と並列に変位センサを備え付けて指部80の位置を制御してもよい。他にも、ON/OFFスイッチによってアーム部10の関節部20の角度から、手首部30の高さを求めるようにして、このON/OFFスイッチをモニタリングすることにより、指部80を制御してもよい。   Further, in order to grasp the amount of displacement of the finger 80, a displacement sensor may be provided in parallel with the spring 70 to control the position of the finger 80. In addition, the height of the wrist part 30 is obtained from the angle of the joint part 20 of the arm part 10 by the ON / OFF switch, and the finger part 80 is controlled by monitoring this ON / OFF switch. Also good.

更に、各指部80の先端部には、物体100を照らすための光源90を備えている。なお、光源90は物体100を照らすことが可能であれば、支持部40が自由に動き、様々な方向から物体100を照射することができるために、各指部80に少なくとも1つ設けられていればよい。光源90としては、例えば、発光ダイオードなどが挙げられる。   Furthermore, a light source 90 for illuminating the object 100 is provided at the tip of each finger unit 80. If the light source 90 can illuminate the object 100, at least one of the finger portions 80 is provided for the support unit 40 to freely move and irradiate the object 100 from various directions. Just do it. Examples of the light source 90 include a light emitting diode.

次に、ロボットハンドの動作原理について説明する。   Next, the operation principle of the robot hand will be described.

本実施形態のロボットハンドは図1(a)に示すように、物体100を認識するために、各指部80に設けられた光源90によって物体100を照らし、ロボットハンドの支持部40に設けられた撮像装置50によって物体100を撮像して画像を記憶するものである。   As shown in FIG. 1A, the robot hand according to the present embodiment illuminates the object 100 with the light source 90 provided on each finger unit 80 and recognizes the object 100, and is provided on the support unit 40 of the robot hand. The object 100 is captured by the imaging device 50 and the image is stored.

このとき、一般的に物体100に光を当てる構造としては、図3に示すように、物体100の上方から例えばリング照明120を用いて、全体的に影を作らないように物体100を照らすものであった。   At this time, as shown in FIG. 3, for example, as shown in FIG. 3, the structure that illuminates the object 100 from the upper side of the object 100 by using, for example, the ring illumination 120 so as not to make a shadow as a whole. Met.

しかしながら、この手法では、図3の右側の図に示すように、撮像装置50によって得られた画像には、物体100の輪郭エッジは鮮明な画像であるが、均等に上から物体100に対して光が照射されているために、内部エッジは不鮮明な画像となり、物体100の識別することができなくなることがあった。つまり、この手法では、全体的に影を作らないようにしているため、物体100の内部エッジ部の全てを抽出するには不向きである。   However, in this method, as shown in the right diagram of FIG. 3, the image obtained by the imaging device 50 has a sharp edge of the object 100 in the image obtained by the imaging device 50, but the image 100 is equally viewed from above. Since the light is irradiated, the inner edge becomes an unclear image, and the object 100 may not be identified. In other words, this method is not suitable for extracting all the inner edge portions of the object 100 because it does not make a shadow as a whole.

本実施形態では、2つのステップから物体を照射する方式とした。即ち、第1のステップでは、図4に示すように、物体100の例えば左側に設置した光源90から物体100に光を照射し、物体100の上方に設置した撮像装置50によって物体100を撮像する。これにより得られた画像は、図4の右側の図に示すように、光源90に近い側の内部エッジ100aは不鮮明な画像になり、光源90から離れた側の内部エッジ100bは鮮明な画像になる。これは、物体100の右側(光源90から遠い側)には光が当たりにくく、物体100の上面部と右側面部との明暗差がつくからである。一般的に画像処理において、エッジ抽出は輝度の微分によって行われ、明暗差が鮮明な場所のエッジは抽出し易い。   In the present embodiment, the object is irradiated from two steps. That is, in the first step, as shown in FIG. 4, the object 100 is irradiated with light from a light source 90 installed on the left side of the object 100, for example, and the object 100 is imaged by the imaging device 50 installed above the object 100. . As shown in the diagram on the right side of FIG. 4, the image obtained by this is a sharp image at the inner edge 100 a on the side close to the light source 90, and a clear image at the inner edge 100 b on the side away from the light source 90. Become. This is because light does not easily hit the right side (the side far from the light source 90) of the object 100, and there is a difference in brightness between the upper surface portion and the right side surface portion of the object 100. In general, in image processing, edge extraction is performed by luminance differentiation, and an edge at a place where the contrast is clear is easy to extract.

次に第2のステップでは、物体100の右側に設置した光源90から物体100に光を照射し、物体100の上方に設置した撮像装置50によって物体100を撮像する。この場合には、図5の右側の図に示すように、左側の内部エッジ100cは鮮明な画像が得られるが、右側の内部エッジ100dは不鮮明な画像が得られることになる。   Next, in the second step, the object 100 is irradiated with light from the light source 90 installed on the right side of the object 100, and the object 100 is imaged by the imaging device 50 installed above the object 100. In this case, as shown in the diagram on the right side of FIG. 5, a sharp image can be obtained with the left inner edge 100c, but a sharp image can be obtained with the right inner edge 100d.

そして、図6(a)に示すように、図4の第1のステップで得られた画像と、図5の第2のステップで得られた画像とを重畳することによって、内部エッジや輪郭エッジが鮮明な画像を得ることができることになる。   Then, as shown in FIG. 6 (a), by superimposing the image obtained in the first step of FIG. 4 and the image obtained in the second step of FIG. Therefore, a clear image can be obtained.

つまり、物体100に対して出射した光源90からの光の出射方向に対して上方から撮像装置50を用いて、物体100の画像を複数枚撮像して、それらの画像のエッジ画を抽出し、エッジ画像を合成する処理を実行すればよい。なお、撮像装置50は物体100に対して出射した光源90からの光の出射方向に対して上方から物体100を撮像すれば、鮮明な画像を得ることが可能である。しかしながら、この場合、より鮮明な画像を得るには、物体100に対して出射した光源90からの光の出射方向に対してその光の出射方向から、仰角及び俯角が45°程度以上の位置に撮像装置を設ければ、鮮明な画像を抽出することが可能である。この様子を図6(b)に示す。図6(b)は、光源90からの光の出射方向111(図6(b)で示した矢印)に対して鮮明な画像を抽出できる領域112(
出射方向111に対する仰角及び俯角が45°以上の領域)を示している。この領域112に撮像装置50を設ければ鮮明な画像を抽出することができる。
In other words, a plurality of images of the object 100 are captured using the imaging device 50 from above with respect to the emission direction of the light emitted from the light source 90 emitted to the object 100, and edge images of these images are extracted. What is necessary is just to perform the process which synthesize | combines an edge image. The imaging device 50 can obtain a clear image by imaging the object 100 from above with respect to the emission direction of the light from the light source 90 emitted to the object 100. However, in this case, in order to obtain a clearer image, the elevation angle and the depression angle are about 45 ° or more from the light emission direction from the light source 90 emitted to the object 100 from the light emission direction. If an imaging device is provided, a clear image can be extracted. This state is shown in FIG. FIG. 6B shows a region 112 in which a clear image can be extracted with respect to the emission direction 111 of light from the light source 90 (the arrow shown in FIG. 6B).
(A region where the elevation angle and depression angle with respect to the emission direction 111 are 45 ° or more). If the imaging device 50 is provided in this area 112, a clear image can be extracted.

(第2の実施形態)
図7〜図9には、アーム部10の支持部40を回転しながら、支持部40に設けられた2つの把持部110の各光源90から出射した光を物体100に照射し、上方の支持部40に設けられた撮像装置50により、各光源90から出射した光の方向に対して上方から画像を撮像する様子を示す。簡単のため、アーム部10から手首部30まで及び把持部110の細部については省略してある。
(Second Embodiment)
7 to 9, the object 100 is irradiated with light emitted from the light sources 90 of the two gripping units 110 provided on the support unit 40 while rotating the support unit 40 of the arm unit 10 to support the upper side. A state in which an image is picked up from above with respect to the direction of the light emitted from each light source 90 by the imaging device 50 provided in the unit 40 is shown. For simplicity, details of the arm portion 10 to the wrist portion 30 and the gripping portion 110 are omitted.

また、図8は図7の位置から支持部40を45°回転させた図を示し、図9は図7の位置から支持部40を90°回転させた図を示している。なお、図7〜図9の右側の図に上方向から眺めた図を示している。   8 shows a view in which the support portion 40 is rotated by 45 ° from the position of FIG. 7, and FIG. 9 shows a view in which the support portion 40 is rotated by 90 ° from the position of FIG. In addition, the figure seen from the upper direction is shown in the figure on the right side of FIGS.

図10は、本実施形態による物体100の撮像工程と、画像を取得するフローチャートを示す。   FIG. 10 shows an imaging process of the object 100 according to the present embodiment and a flowchart for acquiring an image.

まず、図7に示すように、撮像装置50を用いて画像を取得する際には、ロボットハンドのアーム部10が対象物体100に接近する(図10のステップS100)。次に、アーム部10の把持部110に設けられた光源90により物体100の第1の横方向から光を照射し、物体100の撮像画像を撮像装置50により取得する。その取得した画像に対して画像処理装置(図示せず)により、画像の微分処理を行うことによって、エッジを抽出する(図10のステップS110)。このエッジ画像をAとする。   First, as shown in FIG. 7, when an image is acquired using the imaging device 50, the arm unit 10 of the robot hand approaches the target object 100 (step S100 in FIG. 10). Next, light is emitted from the first lateral direction of the object 100 by the light source 90 provided in the gripping unit 110 of the arm unit 10, and a captured image of the object 100 is acquired by the imaging device 50. An edge is extracted by performing an image differentiation process on the acquired image by an image processing device (not shown) (step S110 in FIG. 10). Let this edge image be A.

なお、画像処理装置は撮像装置50内に内蔵してもよいし、ロボットハンドに外部接続するものであってもよい。また、撮像装置50は、支持部40における2つの把持部110の対向する面内であって、中央付近に備えられていれば、撮像した画像の座標変換処理を行う工程を省くことができるので好ましい。しかしながら、それ以外の位置、例えば、2つの把持部110を含む平面に対向した面内領域、若しくはそれ以外の位置に備えられていても、撮像装置50を座標変換処理によって軸合わせをすればよい。   The image processing apparatus may be built in the imaging apparatus 50 or may be externally connected to the robot hand. Moreover, if the imaging device 50 is provided in the plane where the two gripping portions 110 of the support portion 40 face each other and is provided in the vicinity of the center, the step of performing the coordinate conversion processing of the captured image can be omitted. preferable. However, even if it is provided at other positions, for example, an in-plane region facing the plane including the two gripping portions 110, or other positions, the imaging apparatus 50 may be aligned by coordinate conversion processing. .

画像の微分処理は、例えば、図11に示すように、灰色背景200の中央に白ウィンドウ300が表示されている場合、線分I―I’上の輝度をz軸(紙面に対して垂直方向)とし、画面横方向の座標をxとして、グラフを書くと図12のようになる。これをz=f(x)という関数とみなす。関数fは絵柄によって任意に変化する。   For example, as shown in FIG. 11, when the white window 300 is displayed at the center of the gray background 200, the image differentiation processing is performed by setting the luminance on the line segment II ′ to the z axis (in the direction perpendicular to the paper surface). ), The horizontal coordinate of the screen is x, and the graph is written as shown in FIG. This is regarded as a function z = f (x). The function f changes arbitrarily depending on the pattern.

そして、この関数z=f(x)をxに関して微分を行ったz’=f’(x)を描くと図13のようになり、画面としては図14のような映像が得られる。この微分処理により、画像のエッジ部を抽出することができる。   Then, when z ′ = f ′ (x) obtained by differentiating the function z = f (x) with respect to x is drawn as shown in FIG. 13, an image as shown in FIG. 14 is obtained as a screen. By this differentiation processing, the edge portion of the image can be extracted.

画像を微分してエッジを抽出する方法以外にも、フォトメトリック法を用いて物体の形状を把握することも可能である。   In addition to the method of extracting an edge by differentiating an image, it is possible to grasp the shape of an object using a photometric method.

例えば、図15のような球体120を認識する場合、固定された光源、固定された撮像装置だけでは、球体120の形状が不鮮明になる。そこで、図15の光源90の位置状態から、図16の位置に光源90を移動させることにより、球体120のテカリ位置(反射光の強い位置)が変化し、球体であることを容易に認識することができる。この手法は球体だけには限られず、楕円体、ひょうたん型等、任意の形状にも適用することができる。即ち、この方法は、暗闇の状態で物体に光を様々な方向から当てることにより、物体の形状を認識できるという技術に基づいている。   For example, when a sphere 120 as shown in FIG. 15 is recognized, the shape of the sphere 120 becomes unclear only with a fixed light source and a fixed imaging device. Accordingly, by moving the light source 90 from the position state of the light source 90 in FIG. 15 to the position in FIG. 16, the shine position of the sphere 120 (the position where the reflected light is strong) changes, and it is easily recognized that it is a sphere. be able to. This method is not limited to a sphere, but can be applied to an arbitrary shape such as an ellipsoid or a gourd. In other words, this method is based on a technique in which the shape of an object can be recognized by applying light to the object from various directions in the dark.

次に、図8に示すように、把持部110を図7の状態から45°回転させて、上記した方法と同様に第2の横方向から光を照射して、上方の撮像装置50から物体100の画像を取得する(図10のステップS120)。このエッジ画像をBとする。   Next, as shown in FIG. 8, the grip 110 is rotated 45 ° from the state of FIG. 7, and light is irradiated from the second lateral direction in the same manner as described above. 100 images are acquired (step S120 in FIG. 10). Let this edge image be B.

さらに、図9に示すように、把持部110を図7の状態から90°回転させて、上記した方法と同様に第3の横方向から光を照射して、上方の撮像装置50から物体100の画像を取得する(図10のステップS130)。この画像をCとする。更に、第4の角度に把持部110を回転したときの画像も上記した方法と同様の方法で取得して(図10のステップS140)、その画像をDとする。   Further, as shown in FIG. 9, the gripping part 110 is rotated 90 ° from the state of FIG. 7, and light is irradiated from the third lateral direction in the same manner as described above, and the object 100 from the upper imaging device 50 is irradiated. Is acquired (step S130 in FIG. 10). Let this image be C. Further, an image obtained when the gripping part 110 is rotated to the fourth angle is acquired by the same method as described above (step S140 in FIG. 10), and the image is set as D.

そして、これらの4つの画像A、B、C、Dを重畳させて、可能な限り多くの物体100のエッジを捉えた画像を形成する(図10のステップS150)。撮像する画像の枚数としては、撮像する物体の形状によるが、例えば、90°刻みで最低2枚あればよい。   Then, these four images A, B, C, and D are superimposed to form an image that captures as many edges of the object 100 as possible (step S150 in FIG. 10). The number of images to be picked up depends on the shape of the object to be picked up, but may be at least two in 90 ° increments, for example.

次に、あらかじめ撮像した物体100のモデル画像と実際に取得した画像とをマッチングさせ(図10のステップS160)、物体100を認識させることにより、物体100の位置・形状を算出する(図10のステップS170)。   Next, the model image of the object 100 captured in advance is matched with the actually acquired image (step S160 in FIG. 10), and the position and shape of the object 100 are calculated by recognizing the object 100 (in FIG. 10). Step S170).

マッチングの具体的方法は、例えば、図17のように、物体のある頂点の画面への投影角α、β、γがわかれば、物体とカメラの距離に依存せずに物体の三次元形状を算出することができる。これは、角度が距離に対して不変であるからである。形状が求まれば、物体の辺の長さを物体モデルと比較し、物体と撮像装置の距離を計算することができる。   For example, as shown in FIG. 17, if the projection angles α, β, γ on the screen of the object are known, the three-dimensional shape of the object can be determined without depending on the distance between the object and the camera. Can be calculated. This is because the angle is invariant with distance. Once the shape is obtained, the distance between the object and the imaging device can be calculated by comparing the length of the object side with the object model.

このようにして、様々な角度から物体100に光を照射し、光源90から出射した光の出射方向に対して上方から撮像装置50を用いて物体100を撮像することにより画像を取得し、それらの画像を重畳することにより、物体100の形状を精度よく認識することができる。   In this way, the object 100 is irradiated with light from various angles, and an image is acquired by imaging the object 100 from above with respect to the emission direction of the light emitted from the light source 90, and the images are acquired. By superimposing these images, the shape of the object 100 can be accurately recognized.

(第3の実施形態)
図18には、本発明の物体検出方法が適用されるロボットハンドの第3の実施形態を示す。
(Third embodiment)
FIG. 18 shows a third embodiment of a robot hand to which the object detection method of the present invention is applied.

第1の実施形態と異なる点は、第1の実施形態のロボットハンドで用いられていた指部80が導光部130になっている点が異なる。   The difference from the first embodiment is that the finger unit 80 used in the robot hand of the first embodiment is a light guide unit 130.

導光部130は透明材料からなり、その先端は光源90から出射した光が導光部130の先端で全反射して、物体100に照射するように加工されている。透明材料としては、例えば、アクリル、ガラス等の材料を用いることができ、その材料に応じて導光部130の先端部を加工する必要がある。例えば、アクリルを用いた場合、その屈折率は1.49で、スネルの法則により全反射角は42.1°となり、導光部130の先端を最低42.1°以上でカットすればよい。また、上記の透明材料を用いた場合、加工が容易であるめ、導光部130を細長く加工することが可能である。導光部130を細長く加工することによって、手先が軽くなるので、ロボットアームのモータを小型化でき、機敏な動きと狭い空間での作業効率の向上が望める。   The light guide unit 130 is made of a transparent material, and the tip thereof is processed so that light emitted from the light source 90 is totally reflected by the tip of the light guide unit 130 and is irradiated onto the object 100. As the transparent material, for example, a material such as acrylic or glass can be used, and it is necessary to process the tip of the light guide unit 130 according to the material. For example, when acrylic is used, the refractive index is 1.49, the total reflection angle is 42.1 ° according to Snell's law, and the tip of the light guide unit 130 may be cut at least 42.1 °. In addition, when the above transparent material is used, the light guide unit 130 can be processed to be elongated because the processing is easy. By processing the light guide section 130 to be elongated, the hand becomes lighter, so the motor of the robot arm can be miniaturized, and it is possible to expect agile movement and improved work efficiency in a narrow space.

図1(a)の指部80を導光部130とすることで、導光部130が透明なことにより、撮像装置50の視界を妨げないことにより、物体100をさらに精度よく選別することができるという特徴がある。なお、このとき、光源90は、導光部130が物体100を把持することによる衝撃が光源90に伝わらない位置に備え付けておけばよい。   By using the finger part 80 of FIG. 1A as the light guide part 130, the object 100 can be selected with higher accuracy by preventing the field of view of the imaging device 50 from being transparent because the light guide part 130 is transparent. There is a feature that can be done. At this time, the light source 90 may be provided at a position where an impact caused by the light guide 130 holding the object 100 is not transmitted to the light source 90.

また、本実施形態の第1の変形例として、図19に示すように導光部130の外周部を被覆部140によって覆った構成とするものである。これにより、導光部130を傷つけずに保護することができる。被覆部140としては、例えば、金属ケースや金属コートが挙げられる。このとき、導光部130の先端を覆っている被覆部140の光が出射する部分は開口しておく必要がある。   Further, as a first modification of the present embodiment, as shown in FIG. 19, the outer peripheral part of the light guide part 130 is covered with a covering part 140. Thereby, the light guide part 130 can be protected without being damaged. Examples of the covering portion 140 include a metal case and a metal coat. At this time, it is necessary to open the part where the light of the covering part 140 covering the tip of the light guide part 130 is emitted.

さらに、本実施形態の第3の変形例として、図20に示すように、導光部130の先端に透明の接触センサ150を設けてもよい。接触センサ150としては、例えば、抵抗型接触センサ、静電容量型接触センサ、又は圧電素子等を用いればよい。これにより、光の透過を遮らずに、物体100との接触を確認することができる。   Furthermore, as a third modification of the present embodiment, a transparent contact sensor 150 may be provided at the tip of the light guide unit 130 as shown in FIG. As the contact sensor 150, for example, a resistance contact sensor, a capacitance contact sensor, a piezoelectric element, or the like may be used. Thereby, contact with the object 100 can be confirmed without blocking light transmission.

(第4の実施形態)
図21に本発明が適用されるロボットハンドの第4の実施形態を示す。
(Fourth embodiment)
FIG. 21 shows a fourth embodiment of a robot hand to which the present invention is applied.

本実施形態のロボットハンドは、支持部40に設置されている2つの把持部110を含む複数の平面によって挟まれた領域に、物体100を把持するためのハンド160を設けている。ハンド160は、支持部40に取り付けられている。   The robot hand of the present embodiment is provided with a hand 160 for gripping the object 100 in a region sandwiched between a plurality of planes including the two gripping portions 110 installed on the support portion 40. The hand 160 is attached to the support unit 40.

本実施形態も上記した方法で物体100を検出する。この場合、把持部110は支持部40に固定されており、物体100を精度よく選別する。例えば、物体100が複数個あるとき、把持部100により、物体を選別し、選別した物体100をハンド160によって物体100を把持する。   Also in this embodiment, the object 100 is detected by the method described above. In this case, the grip part 110 is fixed to the support part 40, and sorts the object 100 with high accuracy. For example, when there are a plurality of objects 100, the object is selected by the holding unit 100, and the selected object 100 is held by the hand 160.

また、把持部110は支持部40に固定される必要はなく、状況に応じて、把持部110又はハンド160で物体100を把持する。例えば、物体100が複数個あるときで、把持部110で把持することのできない小さな物体100がある場合、把持部110である程度物体100をかき集め、その中からハンド160を用いて複数ある物体100の中から所望の物体100を把持する。また、ハンド160は、複数備えてもよい。なお、このハンド160は本発明に用いられるロボットハンドであってもよい。   Further, the grip portion 110 does not need to be fixed to the support portion 40, and the object 100 is gripped by the grip portion 110 or the hand 160 depending on the situation. For example, when there are a plurality of objects 100 and there is a small object 100 that cannot be grasped by the grasping unit 110, the object 100 is collected to some extent by the grasping unit 110, and a hand 160 is used to pick up the plurality of objects 100. A desired object 100 is gripped from the inside. A plurality of hands 160 may be provided. The hand 160 may be a robot hand used in the present invention.

本発明は、上述した実施形態に限定されることなく、発明の要旨を逸脱しない範囲において、適宜設計変更することができ、また上述した第1の実施形態乃至第4の実施形態およびその変形例を適宜組み合わせても良い。   The present invention is not limited to the above-described embodiment, and can be appropriately changed in design without departing from the gist of the invention. Also, the above-described first to fourth embodiments and modifications thereof are possible. May be combined as appropriate.

10 … アーム部
11 … モータ
12 … 減速機
20 … 関節部
21 … 傘歯歯車
30 … 手首部
40 … 支持部
50 … 撮像装置
60 … スライドガイド
70 … バネ
80 … 指部
90 … 光源
100 … 物体
100a … 内部エッジ
100b … 内部エッジ
100c … 内部エッジ
100d … 内部エッジ
110 … 把持部
111 … 出射方向
112 … 領域
120 … 球体
130 … 導光部
140 … 被服部
150 … 接触センサ
160 … ハンド
DESCRIPTION OF SYMBOLS 10 ... Arm part 11 ... Motor 12 ... Reduction gear 20 ... Joint part 21 ... Bevel gear 30 ... Wrist part 40 ... Support part 50 ... Imaging device 60 ... Slide guide 70 ... Spring 80 ... Finger part 90 ... Light source 100 ... Object 100a ... inner edge 100b ... inner edge 100c ... inner edge 100d ... inner edge 110 ... gripping part 111 ... emitting direction 112 ... region 120 ... sphere 130 ... light guide part 140 ... clothing part 150 ... contact sensor 160 ... hand

Claims (5)

支持部と、
前記支持部に設けられ、物体を把持するための対向する第1及び第2の把持部と、
前記第1及び前記第2の把持部にそれぞれ設けられ、前記物体に光を照射するための対向する第1及び第2の光源と、
前記支持部に設けられ、且つ、前記光によって照射された前記物体を撮像して前記物体の画像を取得する撮像装置と、
前記撮像装置に接続され、且つ、前記撮像装置で取得した前記画像を処理する画像処理装置とを備えたことを特徴とするロボットハンド。
A support part;
Opposing first and second gripping portions provided on the support portion for gripping an object;
First and second light sources provided on the first and second gripping units, respectively, for irradiating the object with light;
An imaging device that is provided in the support unit and captures the object irradiated with the light to obtain an image of the object;
A robot hand, comprising: an image processing device connected to the imaging device and processing the image acquired by the imaging device.
回転可能な支持部と、
前記支持部に設けられ、物体を把持するための対向する第1及び第2の把持部と、
前記第1及び前記第2の把持部の対向する面内の少なくとも一方に設けられ、且つ、前記支持部が回転した複数の位置で、前記物体に光を照射するための光源と、
前記支持部に設けられ、且つ、前記光によって照射された前記物体を撮像して前記物体の画像を取得する撮像装置と、
前記撮像装置に接続され、且つ、前記撮像装置で取得した前記画像を処理する画像処理装置とを備えたことを特徴とするロボットハンド。
A rotatable support, and
Opposing first and second gripping portions provided on the support portion for gripping an object;
A light source for irradiating the object with light at a plurality of positions provided on at least one of the opposing surfaces of the first and second gripping units and rotated by the support unit;
An imaging device that is provided in the support unit and captures the object irradiated with the light to obtain an image of the object;
A robot hand, comprising: an image processing device connected to the imaging device and processing the image acquired by the imaging device.
前記第1及び前記第2の把持部が透明な導光部で構成され、前記導光部の先端が前記第1及び前記第2の光源から出射した光を全反射する角度で加工されていることを特徴とする請求項1又は請求項2に記載のロボットハンド。   The first and second gripping portions are formed of a transparent light guide portion, and the tip of the light guide portion is processed at an angle that totally reflects light emitted from the first and second light sources. The robot hand according to claim 1, wherein the robot hand is a robot hand. 前記第1及び前記第2の把持部が前記第1及び前記第2の把持部の対向する内面に接触センサを備えたことを特徴とする請求項1又は請求項2に記載のロボットハンド。   The robot hand according to claim 1 or 2, wherein the first and second gripping portions are provided with contact sensors on the inner surfaces of the first and second gripping portions facing each other. 前記支持部が前記第1及び前記第2の把持部を含む平面によって挟まれた領域にハンドを備えたことを特徴とする請求項1又は請求項2に記載のロボットハンド。   3. The robot hand according to claim 1, wherein the support portion includes a hand in a region sandwiched between planes including the first and second gripping portions.
JP2009006121A 2009-01-14 2009-01-14 Robot hand Pending JP2010162638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009006121A JP2010162638A (en) 2009-01-14 2009-01-14 Robot hand

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009006121A JP2010162638A (en) 2009-01-14 2009-01-14 Robot hand

Publications (1)

Publication Number Publication Date
JP2010162638A true JP2010162638A (en) 2010-07-29

Family

ID=42579243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009006121A Pending JP2010162638A (en) 2009-01-14 2009-01-14 Robot hand

Country Status (1)

Country Link
JP (1) JP2010162638A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015160264A (en) * 2014-02-26 2015-09-07 株式会社Ihi gripping method and gripping device
JP2016120545A (en) * 2014-12-24 2016-07-07 株式会社ソフトサービス Handling device
JP2017104967A (en) * 2015-11-26 2017-06-15 グローリー株式会社 Robot hand and industrial robot
JP2018144152A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device
JP2018144219A (en) * 2017-03-09 2018-09-20 本田技研工業株式会社 End effector, hand device, and robot comprising the same
US10744653B2 (en) 2017-03-17 2020-08-18 Kabushiki Kaisha Toshiba Holding mechanism, transfer device, handling robot system, and robot handling method
JP2020146823A (en) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ Component picking system of robot
JP2021015600A (en) * 2019-07-15 2021-02-12 株式会社Mujin System and method of object detection based on image data
JP2021062457A (en) * 2019-10-16 2021-04-22 トヨタ紡織株式会社 Picking device
JP2021137910A (en) * 2020-03-04 2021-09-16 国立研究開発法人農業・食品産業技術総合研究機構 Crop transport device
WO2022097409A1 (en) * 2020-11-04 2022-05-12 川崎重工業株式会社 Hand, robot, robot system, and control method for hand
US20220219915A1 (en) * 2021-01-14 2022-07-14 Kabushiki Kaisha Toshiba Holding device, transporting device, and method for controlling holding device
JP2023017850A (en) * 2018-08-01 2023-02-07 株式会社ミクロブ gripper module

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58155192A (en) * 1982-03-11 1983-09-14 三菱電機株式会社 Robot hand
JPH04322981A (en) * 1991-04-17 1992-11-12 Takagi Ind Co Ltd Product conveyor
JPH0970786A (en) * 1995-09-06 1997-03-18 Ricoh Co Ltd Holding hand
JPH0979990A (en) * 1995-09-11 1997-03-28 Toshiba Corp Device and method for inspecting semiconductor device
JP2000298726A (en) * 1999-04-14 2000-10-24 Shimadzu Corp Appearance inspecting device
JP2003175481A (en) * 2001-12-11 2003-06-24 Ricoh Co Ltd Handling device
JP2008064630A (en) * 2006-09-07 2008-03-21 Hitachi Ltd Vehicle imager with deposit sensing function
JP2010058243A (en) * 2008-09-05 2010-03-18 Yaskawa Electric Corp Picking device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58155192A (en) * 1982-03-11 1983-09-14 三菱電機株式会社 Robot hand
JPH04322981A (en) * 1991-04-17 1992-11-12 Takagi Ind Co Ltd Product conveyor
JPH0970786A (en) * 1995-09-06 1997-03-18 Ricoh Co Ltd Holding hand
JPH0979990A (en) * 1995-09-11 1997-03-28 Toshiba Corp Device and method for inspecting semiconductor device
JP2000298726A (en) * 1999-04-14 2000-10-24 Shimadzu Corp Appearance inspecting device
JP2003175481A (en) * 2001-12-11 2003-06-24 Ricoh Co Ltd Handling device
JP2008064630A (en) * 2006-09-07 2008-03-21 Hitachi Ltd Vehicle imager with deposit sensing function
JP2010058243A (en) * 2008-09-05 2010-03-18 Yaskawa Electric Corp Picking device

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015160264A (en) * 2014-02-26 2015-09-07 株式会社Ihi gripping method and gripping device
JP2016120545A (en) * 2014-12-24 2016-07-07 株式会社ソフトサービス Handling device
JP2017104967A (en) * 2015-11-26 2017-06-15 グローリー株式会社 Robot hand and industrial robot
JP2018144152A (en) * 2017-03-03 2018-09-20 株式会社キーエンス Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device
JP2018144219A (en) * 2017-03-09 2018-09-20 本田技研工業株式会社 End effector, hand device, and robot comprising the same
US10933538B2 (en) 2017-03-09 2021-03-02 Honda Motor Co., Ltd. End effector, hand device and robot equipped with the same
US10744653B2 (en) 2017-03-17 2020-08-18 Kabushiki Kaisha Toshiba Holding mechanism, transfer device, handling robot system, and robot handling method
US11110613B2 (en) 2017-03-17 2021-09-07 Kabushiki Kaisha Toshiba Holding mechanism, transfer device, handling robot system, and robot handling method
JP7469823B2 (en) 2018-08-01 2024-04-17 株式会社ミクロブ Gripper Module
JP2023017850A (en) * 2018-08-01 2023-02-07 株式会社ミクロブ gripper module
JP2020146823A (en) * 2019-03-15 2020-09-17 株式会社デンソーウェーブ Component picking system of robot
JP7275688B2 (en) 2019-03-15 2023-05-18 株式会社デンソーウェーブ Robot parts picking system
US11288814B2 (en) 2019-07-15 2022-03-29 Mujin, Inc. System and method of object detection based on image data
CN114820772A (en) * 2019-07-15 2022-07-29 牧今科技 System and method for object detection based on image data
JP2021015600A (en) * 2019-07-15 2021-02-12 株式会社Mujin System and method of object detection based on image data
JP2021062457A (en) * 2019-10-16 2021-04-22 トヨタ紡織株式会社 Picking device
JP7289770B2 (en) 2019-10-16 2023-06-12 トヨタ紡織株式会社 picking device
JP2021137910A (en) * 2020-03-04 2021-09-16 国立研究開発法人農業・食品産業技術総合研究機構 Crop transport device
JP7480460B2 (en) 2020-03-04 2024-05-10 国立研究開発法人農業・食品産業技術総合研究機構 Crop transport equipment
WO2022097409A1 (en) * 2020-11-04 2022-05-12 川崎重工業株式会社 Hand, robot, robot system, and control method for hand
EP4241933A4 (en) * 2020-11-04 2024-06-05 Kawasaki Jukogyo Kabushiki Kaisha Hand, robot, robot system, and control method for hand
JP7557342B2 (en) 2020-11-04 2024-09-27 川崎重工業株式会社 Hand, robot, robot system, and hand control method
US20220219915A1 (en) * 2021-01-14 2022-07-14 Kabushiki Kaisha Toshiba Holding device, transporting device, and method for controlling holding device
JP7558819B2 (en) 2021-01-14 2024-10-01 株式会社東芝 Holding device, transport device, and method for controlling holding device

Similar Documents

Publication Publication Date Title
JP2010162638A (en) Robot hand
CN108290286A (en) Method for instructing industrial robot to pick up part
JP6499273B2 (en) Teaching apparatus and control information generation method
JP7481427B2 (en) Removal system and method
JP5729219B2 (en) Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium
Maldonado et al. Improving robot manipulation through fingertip perception
JPH0428518B2 (en)
JP2021532340A (en) Robot system for performing inspections based on pattern recognition of pharmaceutical containers
US8977378B2 (en) Systems and methods of using a hieroglyphic machine interface language for communication with auxiliary robotics in rapid fabrication environments
EP1594040A3 (en) Operation input device and method of operation input
SE529377C2 (en) Method and arrangement for locating and picking up items from a carrier
US20100200753A1 (en) Directable Light
JP6042291B2 (en) Robot, robot control method, and robot control program
JP2010058243A (en) Picking device
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
US20190197676A1 (en) Object inspection system and object inspection method
JP6660962B2 (en) Teaching device and control information generation method
RU2624288C1 (en) Method of sorting of waste
US11090812B2 (en) Inspection apparatus for optically inspecting an object, production facility equipped with the inspection apparatus, and method for optically inspecting the object using the inspection apparatus
CN117086873A (en) Refractory brick grabbing detection method and grabbing device based on combined segmentation model
EP3156761B1 (en) Image acquisition and processing
WO2016151667A1 (en) Teaching device and method for generating control information
Hasan et al. Model-free, vision-based object identification and contact force estimation with a hyper-adaptive robotic gripper
JP2015085434A (en) Robot, image processing method and robot system
JP2008026149A (en) Visual examination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130412