JP4578438B2 - Robot device - Google Patents

Robot device Download PDF

Info

Publication number
JP4578438B2
JP4578438B2 JP2006152385A JP2006152385A JP4578438B2 JP 4578438 B2 JP4578438 B2 JP 4578438B2 JP 2006152385 A JP2006152385 A JP 2006152385A JP 2006152385 A JP2006152385 A JP 2006152385A JP 4578438 B2 JP4578438 B2 JP 4578438B2
Authority
JP
Japan
Prior art keywords
hand
unit
arm
gripping
motion control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006152385A
Other languages
Japanese (ja)
Other versions
JP2007319973A (en
Inventor
善信 深野
淳一 玉本
祐司 細田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006152385A priority Critical patent/JP4578438B2/en
Publication of JP2007319973A publication Critical patent/JP2007319973A/en
Application granted granted Critical
Publication of JP4578438B2 publication Critical patent/JP4578438B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット装置に関し、特に対象物の把持作業を行えるようにされているロボット装置に関する。   The present invention relates to a robot apparatus, and more particularly to a robot apparatus configured to perform a gripping operation of an object.

最近はロボット(ロボット装置)の開発が急速に進んでおり、幅広い分野での応用が期待されるようになってきている。特に、人との共生を目的としたタイプで、「ヒューマノイド」という名称で分類されるロボットについて、人の行動を支援するなどの人との協調作業に関する開発が精力的に進められている。   Recently, the development of robots (robot devices) has been rapidly progressing, and applications in a wide range of fields are expected. In particular, for robots that are symbiotic with humans and classified under the name “humanoid”, development related to collaborative work with people, such as supporting human behavior, has been energetically promoted.

人との協調作業の例としては、荷物の持ち運びのような作業が代表的なものとして挙げられる。このような作業の場合、ロボットは、アーム部の先端に設けられているハンド部をアーム部の運動により対象物(荷物)の位置まで動かして対象物を把持する動作を行う。すなわちロボットは、対象物位置の認識、ハンド部の対象物位置への位置決め、ハンド部による対象物の把持という一連の認識処理や動作を行う必要がある。そのためにロボットには、把持対象物の位置を認識する能力やアーム部でハンド部を対象物の把持可能な位置に位置決めさせる能力などが必要となる。   A typical example of cooperative work with people is a work such as carrying luggage. In the case of such work, the robot performs an operation of moving the hand unit provided at the tip of the arm unit to the position of the target object (luggage) by the movement of the arm unit and gripping the target object. That is, the robot needs to perform a series of recognition processes and operations such as recognition of the object position, positioning of the hand unit at the object position, and gripping of the object by the hand unit. Therefore, the robot needs to have the ability to recognize the position of the object to be grasped and the ability to position the hand part at a position where the object can be grasped by the arm part.

把持対象物などの位置認識に関しては、立体視センシング(視覚センシング)と呼ばれる技術が知られている。立体視センシングは、カメラで撮影した画像を用いる画像計測技術であり、把持対象物などについて適切な視差(視差角)を得られるようにして撮影した複数の対象物画像から把持対象物などのロボットに対する位置を計測して認識する。又はハンド部の対象物への位置決めに関しては、視覚サーボ(又は視覚フィードバック)と呼ばれる技術が知られている。視覚サーボでは、立体視センシングで得られる対象物の位置データと同じく立体視センシングで得られるアーム部やハンド部の位置データに基づいたフィードバック制御でアーム部によりハンド部を移動させながら対象物に対してその把持が可能となる位置に位置決めさせる。こうしたロボット技術に関しては、例えば特許文献1〜3に開示の例がある。   A technique called stereoscopic sensing (visual sensing) is known for position recognition of a grasped object or the like. Stereoscopic sensing is an image measurement technique using an image captured by a camera, and a robot such as a gripping object from a plurality of target images captured so as to obtain an appropriate parallax (parallax angle) for the gripping object. Measure and recognize the position relative to. Alternatively, a technique called visual servo (or visual feedback) is known for positioning the hand unit on an object. In visual servoing, the position of the object obtained by stereoscopic sensing is the same as the position data of the arm and hand obtained by stereoscopic sensing, and feedback control based on the position data of the arm and hand is used to move the hand with the arm. And position it at a position where it can be gripped. For example, Patent Documents 1 to 3 disclose such robot technology.

特開2005−88175号公報JP 2005-88175 A 特開2003−311670号公報JP 2003-31670 A 特開2003−117867号公報JP 2003-117867 A

ロボットにおける対象物の把持動作、特に人との協調作業としての対象物把持作業については、人の自然な動作に近いようなスムース性をもって行えるようにすることが望まれる。このような観点において、立体視センシングやそれに基づく視覚サーボは、スムース性要求にそれなりに応えているものの、必ずしも十分といえず、さらに改善の余地がある。   It is desired that the object grasping operation in the robot, particularly the object grasping operation as a cooperative operation with a person, can be performed with smoothness similar to a natural operation of a person. From this point of view, stereoscopic sensing and visual servoing based on it have responded appropriately to the smoothness requirement, but are not necessarily sufficient, and there is room for further improvement.

また対象物に対して位置決めした後に必要となるハンド部による対象物の把持動作については、依然として問題が多い。ハンド部による対象物の把持では、把持を安定的に行えるようにするために、対象物に対して安定把持ポイントを探して把持を行う必要がある。そして安定把持ポイントを素早く特定するには、対象物の奥行き情報(奥行き方向のサイズ情報)が必要となる。しかるに、立体視センシングを用いただけの従来の技術では、対象物に対する直線的な運動により最短距離で対象物にアプローチする状態にあっては、十分な奥行き情報を取得することができない。そのため従来ではハンド部の把持動作を応力センシングで行わせるようにしている。応力センシングでは、ハンド部に応力センサが埋め込んであり、把持動作の開始にともなってハンド部にかかる応力状態を応力センサで検出し、その応力状態検出に基づいて試行錯誤的に安定把持ポイントを探して把持を行う。こうした応力センシング法では、安定把持ポイントの探索に時間がかかる。その結果、把持動作がぎこちないないものとなり、スムース性に劣ることになっていた。   Further, there are still many problems with the gripping operation of the object by the hand unit that is necessary after positioning with respect to the object. In grasping an object by the hand unit, it is necessary to find and grasp the object with a stable grasp point so that the object can be grasped stably. In order to quickly identify the stable gripping point, depth information (size information in the depth direction) of the object is required. However, with the conventional technology that only uses stereoscopic sensing, sufficient depth information cannot be acquired when the object is approached at the shortest distance by a linear motion with respect to the object. Therefore, conventionally, the gripping operation of the hand unit is performed by stress sensing. In stress sensing, a stress sensor is embedded in the hand part. The stress state applied to the hand part at the start of the gripping operation is detected by the stress sensor, and a stable gripping point is found by trial and error based on the detection of the stress state. To grip. In such a stress sensing method, it takes time to search for a stable gripping point. As a result, the gripping operation becomes awkward and the smoothness is inferior.

本発明は、以上のような事情を背景になされたものであり、対象物把持機能を有しているロボットについて、対象物のハンド部による把持動作をよりスムースに行えるようにすることを課題としている。 The present invention has been made against the background of the above circumstances, a robot having an object gripping function, a challenge to make it perform a gripping operation by the hand of the object more smoothly Yes.

本発明では上記課題を解決するために、アーム部と、該アーム部の先に設けられ対象物を把持する作業を行うハンド部と、前記対象物を撮影する視覚センサと、前記視覚センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する視覚センシング処理部と、該視覚センシング処理部で得られる前記対象物の位置情報に基づいて前記アーム部の運動を制御して前記ハンド部を前記対象物を把持する位置に位置決めするアーム運動制御部を備えてなるロボット装置において、前記ハンド部の前記対象物を把持する側に前記対象物を撮影するハンド部センサと、該ハンド部センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する手先センシング処理部とを設け、前記アーム運動制御部は、前記アーム部の運動を制御して前記ハンド部の位置を前記対象物を把持する位置に位置決めする過程で、前記視覚センシング処理部で得られる前記対象物の位置情報に基づいて、前記ハンド部と前記対象物との距離がしきい値以上の場合には、前記視覚センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動を制御し、前記ハンド部と前記対象物との距離がしきい値未満になった場合には、前記ハンド部センサによる前記手先センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動制御を行うことを特徴とするIn the present invention, in order to solve the above-described problem , an arm portion, a hand portion that is provided at the tip of the arm portion and performs an operation of gripping an object, a visual sensor that images the object, and an image captured by the visual sensor A visual sensing processing unit that acquires position information of the target object based on a plurality of target object images obtained by performing the movement of the arm unit based on the positional information of the target object obtained by the visual sensing processing unit. In a robot apparatus including an arm motion control unit that controls and positions the hand unit at a position for gripping the object, a hand unit sensor that images the object on the side of the hand unit that grips the object And a hand sensing processing unit that acquires position information of the object based on a plurality of object images obtained by photographing with the hand unit sensor, the arm motion control unit In the process of controlling the movement of the arm part and positioning the position of the hand part to a position for gripping the object, the hand part and the hand part based on the position information of the object obtained by the visual sensing processing part When the distance to the object is equal to or greater than a threshold value, the movement of the arm unit is controlled using the position information of the object obtained by the visual sensing processing unit, and the hand unit and the object When the distance is less than a threshold value, the movement control of the arm unit is performed using the position information of the object obtained by the hand sensing processing unit by the hand unit sensor .

このようなロボット装置では、ハンド部センサを用いた手先センシング処理部により対象物の側面情報として対象物の安定把持ポイントを求めることができる。そのため、上述した従来の応力センシングのように試行錯誤的に安定把持ポイントを探す必要がなくなり、安定把持ポイントをすばやく決めることができ、対象物の把持動作をよりスムースに行えるようになる。 In such a robot apparatus, a stable gripping point of an object can be obtained as side information of the object by a hand sensing processing unit using a hand part sensor . Therefore, there is no need to search for a stable gripping point by trial and error as in the conventional stress sensing described above, the stable gripping point can be determined quickly, and the gripping operation of the object can be performed more smoothly.

上記のようなロボット装置については、ハンド部センサを前記ハンド部の前記対象物を把持する側に設けるようにするのが好ましい。このようにすることで、ハンド部センサ手先センシング以外にも多様な機能を持たせることができ、機能性をより高めることができる。 In the robot apparatus as described above, it is preferable to provide a hand unit sensor on the side of the hand unit that holds the object . By doing in this way, a hand part sensor can be given various functions other than hand sensing , and functionality can be raised more.

また、本発明のロボット装置では、視覚センサによる視覚センシング処理部で得る対象物位置情報とハンド部センサによる手先センシング処理部で得る対象物位置情報をハンド部と対象物の距離に応じて使い分けることで、ハンド部の対象物に対する位置決めにけるアーム部の運動制御をより高精度で行うことができ、したがって把持動作に至るまでの対象物へのアプローチ動作をよりスムースに行えるようになる。 Further, in the robot apparatus of the present invention, the object position information obtained by the visual sensing processing unit by the visual sensor and the object position information obtained by the hand sensing processing unit by the hand part sensor are properly used according to the distance between the hand part and the object. Thus, the movement control of the arm part in positioning the hand part with respect to the object can be performed with higher accuracy, and therefore the approaching operation to the object until the gripping operation can be performed more smoothly.

本発明において、前記アーム運動制御部は、前記視覚センシング処理部で得られる対象物の位置情報を用いて、前記対象物が動きのある動的対象物であるか、静止している静的対象物であるかを判定し、動的対象物である場合には、前記視覚センシング処理部で用いる前記対象物画像を低解像度に、静的対象物である場合には、前記対象物画像として高解像度に切替えるようにすることができる。 In the present invention, the arm motion control unit uses the position information of the object obtained by the visual sensing processing unit, and the object is a dynamic object that moves or a static object that is stationary. When the object is a dynamic object, the object image used in the visual sensing processing unit has a low resolution. When the object image is a static object, the object image is a high object image. It is possible to switch to the resolution .

このようなロボット装置によれば、動的対象物については、対象物画像の解像度、つまり位置情報の精度よりも位置情報取得処理の速度を重視する低解像度処理を適用することで、動的対象物に対する把持作業、特に把持作業における対象物へのアプローチ動作をよりスムースに行えるようになる。その一方で、静的対象物については、位置情報取得処理の速度よりも位置情報の精度を重視する高像解度処理を適用することで、上記アプローチ動作をよりスムースに行えるようになる。   According to such a robot apparatus, for a dynamic object, by applying a low resolution process in which the resolution of the object image, that is, the speed of the position information acquisition process is more important than the accuracy of the position information, A gripping operation on an object, particularly an approach operation to an object in the gripping operation can be performed more smoothly. On the other hand, for static objects, the approach operation can be performed more smoothly by applying high image resolution processing that places greater importance on the accuracy of position information than the speed of position information acquisition processing.

また、本発明において、前記アーム運動制御部は、前記ハンド部センサにて前記対象物を撮影して得られる画像の明るさがしきい値以下になったことを条件にして、前記ハンド部が前記対象物に対して位置決め完了状態になったことを判定するようにすることができる。 Further, in the present invention, the arm motion control unit, before Symbol brightness of an image obtained by photographing the object at hand section sensor in the condition that falls below the threshold value, the hand portion is the It can be determined that the positioning has been completed with respect to the object .

こうしたロボット装置における位置決め完了状態判定は、対象物に対してハンド部が位置決め完了する状態になると、ハンド部センサが対象物で遮蔽されてハンド部センサによる画像が暗くなるという事象を利用することでなされる。このようなロボット装置によれば、位置決め完了状態の判定をより容易に行えるようになり、そのため、より高精度な位置決め完了状態をハンド部にとらせることを可能となり、ハンド部による把持作業、特に把持作業におけるハンド部の対象物への位置決め動作をよりスムースに行えるようになる。   Positioning completion status determination in such a robotic device is based on the fact that when the hand unit is positioned with respect to the target, the hand unit sensor is shielded by the target and the image of the hand unit sensor becomes dark. Made. According to such a robot apparatus, it becomes possible to more easily determine the positioning completion state. Therefore, it becomes possible to cause the hand unit to take a positioning completion state with higher accuracy. The positioning operation of the hand part on the object in the gripping work can be performed more smoothly.

また本発明では、前記アーム部と前記ハンド部は、それぞれ左右備えて構成し、前記アーム運動制御部は、前記左右のハンド部センサにて前記対象物を撮影して得られる画像に基づいて前記対象物のサイズを推定し、その推定サイズがしきい値以上の場合には、前記左右のハンド部の両方を使う把持として制御し、前記推定サイズが前記しきい値未満の場合には、前記左右のハンド部のいずれか片方を使う把持とて制御することができるWith this embodiment, the hand portion and the arm portion, and configured to include left and right, the arm motion control unit, based on an image obtained by photographing the object in front Symbol right and left hand portions sensor estimating the size of the object, if the estimated size is equal to or greater than the threshold value, and controls the gripping use both the right and left hand portions, if the estimated size is less than said threshold value The gripping using one of the left and right hand portions can be controlled .

このようなロボット装置によれば、対象物の大きさに応じた効率的な、つまり無駄のない把持作業を行うことができ、把持作業、特に把持作業における対象物へのアプローチ動作をよりスムースに行えるようになる。   According to such a robot apparatus, it is possible to perform an efficient, that is, wasteful gripping operation according to the size of the object, and smoother the approaching operation to the target object in the gripping work, particularly the gripping work. You can do it.

上記のようなロボット装置については、左右のハンド部のいずれか片方を使う把持の場合に、前記対象物の前記左右のハンド部に対する位置関係に基づいて、前記左右のハンド部のいずれを前記対象物の把持に使うかを決めることができるようにするとさらに好ましい。   For the robot apparatus as described above, in the case of gripping using either one of the left and right hand parts, based on the positional relationship of the object with respect to the left and right hand parts, any of the left and right hand parts is selected as the target. It is more preferable to be able to decide whether to use for gripping an object.

さらに、本発明は、過去に行った把持作業についての前記アーム部と前記ハンド部を含むアーム機構ユニットの運動制御に関するアーム運動制御データを蓄積できる作業履歴データベースを備えて構成することができる。この場合、前記アーム運動制御部は、新たな把持作業を行う際に、前記作業履歴データベースを検索し、新たに行おうとする把持作業に適用できるアーム運動制御データを抽出できた場合には、その抽出したアーム運動制御データに基づいて前記アーム機構ユニットの一連の運動の制御を行う構成とすることができる。 Furthermore, the present invention can be configured to include a work history database that can store arm motion control data related to motion control of an arm mechanism unit including the arm portion and the hand portion regarding a gripping work performed in the past . In this case, when performing a new gripping work , the arm motion control unit searches the work history database, and if arm motion control data applicable to the gripping work to be newly performed can be extracted, extracted control of a series of movements of the arm mechanism unit based on the arm motion control data can be configured intends row.

このように過去に行った把持作業における運動制御データを活用できるようにすることにより、運動制御における処理時間を短縮することができ、ハンド部による対象物の把持動作に至るまでの対象物へのアプローチ動作をよりスムースに行えるようになる。   Thus, by making it possible to utilize the motion control data in the gripping work performed in the past, the processing time in the motion control can be shortened, and the object up to the gripping operation of the target by the hand unit can be reduced. The approach operation can be performed more smoothly.

上記のようなロボット装置については、前記アーム運動制御データの適用可否を前記対象物の形状パターンに基づいて判定できるようにするのが、より効果的に判定できるという点で、好ましい。   For the robot apparatus as described above, it is preferable that the applicability of the arm motion control data can be determined based on the shape pattern of the object in terms of more effective determination.

以上のような本発明によれば、対象物把持機能を有しているロボットについて、対象物のハンド部による把持動作をよりスムースに行わせることが可能となる。また以上のような本発明によれば、ハンド部による把持動作に至るまでの対象物へのアプローチ動作をより高いスムース性をもって行えるようになる。   According to the present invention as described above, it is possible to more smoothly perform a gripping operation by a hand portion of an object with respect to a robot having an object gripping function. Further, according to the present invention as described above, the approaching operation to the object up to the gripping operation by the hand unit can be performed with higher smoothness.

以下、本発明を実施するための形態について説明する。図1に、第1の実施形態によるロボット装置1の全体的な外観構造を対象物2に対する把持作業状態に関して示す。ロボット装置1は、ヘッド機構ユニット11が上端に取り付けられた胴体ユニット12を備え、また胴体ユニット12の肩部に取り付けられた左右のアーム機構ユニット13L、13Rを備え、さらに胴体ユニット12の下端に取り付けられた走行ユニット14を備えている。そして人からの音声などによる指令を受けて、例えば対象物2に近づいてそれを把持して持ち運ぶなどの作業を行えるようにされている。なお、アーム機構ユニット13L、13Rのように左右で対になる要素は左右とも同一の構成を有する。そこで以下では、「アーム機構ユニット13」のように適宜にLやRを省略した記載とすることもある。   Hereinafter, modes for carrying out the present invention will be described. FIG. 1 shows an overall appearance structure of the robot apparatus 1 according to the first embodiment with respect to a gripping operation state for the object 2. The robot apparatus 1 includes a body unit 12 having a head mechanism unit 11 attached to the upper end, left and right arm mechanism units 13L and 13R attached to shoulders of the body unit 12, and further to the lower end of the body unit 12. An attached traveling unit 14 is provided. In response to a voice command from a person, for example, the user can approach the object 2 and hold it to carry it. The left and right elements such as the arm mechanism units 13L and 13R have the same configuration on the left and right. Therefore, in the following description, L and R may be appropriately omitted as in “arm mechanism unit 13”.

ヘッド機構ユニット11は、例えば首振りのような所定の動作を行えるようにされ、左右の視覚センサ21L、21Rが組み込まれている。視覚センサ21L、21Rは、視覚センシング(立体視センシング)のために用いられる。すなわち立体視を可能とする条件の下で、対象物2などの位置を認識するのに用いられる。立体視センシングは、上述のように、カメラで撮影した画像を用いる画像計測技術であり、例えば対象物2について適切な視差を得られるようにして撮影した複数の画像から対象物2のロボット装置1に対する位置を計測して認識する。したがって視覚センサ21にはデジタル式の撮影手段が用いられる。また2つの視覚センサ21L、21Rは、適切な視差が得られるような距離だけ離して設けられている。   The head mechanism unit 11 can perform a predetermined operation such as swinging and incorporates left and right visual sensors 21L and 21R. The visual sensors 21L and 21R are used for visual sensing (stereoscopic sensing). That is, it is used for recognizing the position of the object 2 or the like under conditions that enable stereoscopic viewing. As described above, stereoscopic sensing is an image measurement technique that uses an image captured by a camera. For example, the robot apparatus 1 of the object 2 from a plurality of images captured so as to obtain an appropriate parallax for the object 2. Measure and recognize the position relative to. Therefore, digital imaging means is used for the visual sensor 21. Further, the two visual sensors 21L and 21R are provided apart by a distance so that appropriate parallax can be obtained.

胴体ユニット12には、ロボット装置1の様々な動作などを制御するための後述のような制御システムなどが組み込まれている。   The body unit 12 incorporates a control system, which will be described later, for controlling various operations of the robot apparatus 1.

アーム機構ユニット13は、アーム部22(22L、22R)とその先端に接続されたハンド部23(23L、23R)からなり、例えば対象物2の把持作業の場合であれば、アーム部22の運動でハンド部23を対象物2に位置決めさせ、それからハンド部23で対象物2を把持するといった作業を行えるようにされている。   The arm mechanism unit 13 includes an arm part 22 (22L, 22R) and a hand part 23 (23L, 23R) connected to the tip thereof. For example, in the case of gripping work of the object 2, the movement of the arm part 22 is performed. Thus, the hand 23 is positioned on the object 2 and the hand 2 is then held by the hand 23 so that the work can be performed.

ハンド部23は、対象物2の持運び作業や例えばエレベータの操作ボタンの押下といったようなボタン押下作業などを行うのに適した構造に構成されている。このハンド部23には、ハンド部センサとして手先センサ24(24L、24R)が組み込まれている。手先センサ24は、左右対で設けられていることから、把持のような動作の場合に対象物2を近接位置で捉える近接視覚センシング(近接立体視センシング)のための近接視覚センサとして機能する。また手先センサ24は、対象物2をその側面から捉える側方視センシングのための側方視センサとして機能する。こうした手先センサ24は、デジタル式の撮影手段を用いて構成される。ここで、対象物2の側面とは、視覚センシングで捉える対象物2の方向を正面として、この正面に交差する面のことである。また側方視センシングとは、側方視センサ、具体的には手先センサ24で捉える対象物2の側面画像に基づいて対象物2の側面形状情報や奥行き情報あるいは対象物2の安定把持ポイントの情報などのような側面情報を取得する手法であり、本実施形態の場合、側方視センサとして手先センサ24を用いているので手先センシングと呼ぶこともできる。   The hand unit 23 is configured to have a structure suitable for carrying the object 2 or performing a button pressing operation such as pressing an operation button of an elevator. A hand sensor 24 (24L, 24R) is incorporated in the hand unit 23 as a hand unit sensor. Since the hand sensors 24 are provided in left and right pairs, they function as a proximity visual sensor for proximity visual sensing (proximity stereoscopic sensing) that captures the object 2 at a proximity position in the case of an operation such as gripping. The hand sensor 24 functions as a side-view sensor for side-view sensing that captures the object 2 from its side. Such a hand sensor 24 is configured by using digital photographing means. Here, the side surface of the object 2 is a surface that intersects the front surface with the direction of the object 2 captured by visual sensing as the front surface. Side-viewing sensing refers to side-view information, depth information, or stable gripping point of the object 2 based on the side-view image of the object 2 captured by the side-view sensor, specifically the hand sensor 24. This is a technique for acquiring side information such as information. In the case of this embodiment, the hand sensor 24 is used as a side-view sensor, and therefore it can also be called hand sensing.

走行ユニット14は、走行駆動部26とこれに接続された左右の走行車輪27(27L、27R)で構成され、ロボット装置1の移動運動のための走行を行わせるユニットであり、走行駆動部26で走行車輪27を回転駆動させてロボット装置1に走行移動を行わせる。   The traveling unit 14 includes a traveling drive unit 26 and left and right traveling wheels 27 (27L, 27R) connected to the traveling drive unit 26, and is a unit that performs traveling for moving motion of the robot apparatus 1. Then, the traveling wheel 27 is rotationally driven to cause the robot apparatus 1 to travel.

図2に、ロボット装置1の制御システムの構成を示す。本実施形態における制御システム30は、システム制御部31、運動統合制御部32、走行制御部33、アーム運動制御部34、ヘッド運動制御部35、視覚センシング情報処理部36、及び手先センシング情報処理部37を備えている。   FIG. 2 shows the configuration of the control system of the robot apparatus 1. The control system 30 in this embodiment includes a system control unit 31, a motion integrated control unit 32, a travel control unit 33, an arm motion control unit 34, a head motion control unit 35, a visual sensing information processing unit 36, and a hand sensing information processing unit. 37.

システム制御部31は、ロボット装置1が行う作業やそれに伴う運動などに関する全体的な制御を行う全体制御部である。その制御対象には、人からの音声指令に対する音声認識などにおける対話インターフェイスの制御、人からの指令などに基づく作業計画などの策定、バッテリ管理、機構系や電気系の制御などがある。   The system control unit 31 is an overall control unit that performs overall control related to work performed by the robot apparatus 1 and associated motion. Control targets include dialogue interface control in voice recognition for voice commands from humans, formulation of work plans based on commands from humans, battery management, control of mechanical systems and electrical systems, and the like.

運動統合制御部32は、システム制御部31で策定された作業計画の内容に応じて、ヘッド機構ユニット11、アーム機構ユニット13、走行ユニット14それぞれの動作計画を作成する。また運動統合制御部32は、作成した動作計画に基づきつつ、視覚センシング情報処理部36や手先センシング情報処理部37からの後述のような位置情報などのデータを用いて必要な制御データを所定のデータ形式で生成し、それを走行、アーム運動、ヘッド運動の各制御部33〜35に提供する。ここで、所定のデータ形式とは、走行、アーム運動、ヘッド運動の各制御部33〜35が必要な制御処理を実行できるようにしてデータ形式である。   The motion integrated control unit 32 creates an operation plan for each of the head mechanism unit 11, the arm mechanism unit 13, and the traveling unit 14 according to the contents of the work plan formulated by the system control unit 31. In addition, the motion integration control unit 32 uses the data such as the position information as described later from the visual sensing information processing unit 36 and the hand sensing information processing unit 37 to obtain necessary control data based on the created motion plan. It produces | generates in a data format and provides it to each control part 33-35 of driving | running | working, arm movement, and head movement. Here, the predetermined data format is a data format so that the control units 33 to 35 for running, arm motion, and head motion can execute necessary control processing.

走行、アーム運動、ヘッド運動の各制御部33〜35は、運動統合制御部32から受信した制御データを用いて対応する機能ユニット(ヘッド機構ユニット11、アーム機構ユニット13、走行ユニット14のいずれか)を駆動する。その結果として、ロボット装置1はシステム制御部31で計画された作業を実行することになる。   The travel, arm motion, and head motion control units 33 to 35 correspond to functional units (any one of the head mechanism unit 11, the arm mechanism unit 13, and the travel unit 14) using the control data received from the motion integrated control unit 32. Drive). As a result, the robot apparatus 1 performs the work planned by the system control unit 31.

視覚センシング情報処理部36と手先センシング情報処理部37は、システム制御部31で計画された作業の内容に応じたセンシング情報処理を行う。作業が対象物2の把持の場合、視覚センシング情報処理部36は、視覚センサ21を用いる視覚センシングにより、ロボット装置1と対象物2の位置関係や対象物2とハンド部23の位置関係を認識する処理を行い、それで得られる位置情報を運動統合制御部32に提供する。同じく作業が対象物2の把持の場合、手先センシング情報処理部37は、近接位置視覚センシングにより対象物2とハンド部23の位置関係を認識する処理を行い、また対象物2の側面側からの画像に基づく側方視センシングにより対象物2の側面形状や奥行きあるいは対象物2の安定把持ポイントを認識する処理を行い、それで得られる位置情報や奥行き情報などを側面情報として運動統合制御部32に提供する。そして運動統合制御部32が視覚センシング情報処理部36や手先センシング情報処理部37から提供された側面情報をアーム運動制御部34に提供し、これを受けてアーム運動制御部34がアーム部22の運動によるハンド部23の対象物2に対する位置決めやハンド部23による対象物2の把持動作を制御する。   The visual sensing information processing unit 36 and the hand sensing information processing unit 37 perform sensing information processing according to the content of the work planned by the system control unit 31. When the work is gripping the object 2, the visual sensing information processing unit 36 recognizes the positional relationship between the robot apparatus 1 and the object 2 and the positional relationship between the object 2 and the hand unit 23 by visual sensing using the visual sensor 21. The position information obtained thereby is provided to the motion integrated control unit 32. Similarly, when the work is gripping the object 2, the hand sensing information processing unit 37 performs processing for recognizing the positional relationship between the object 2 and the hand unit 23 by proximity position visual sensing, and from the side surface side of the object 2. Processing for recognizing the side shape and depth of the object 2 or the stable gripping point of the object 2 by side-viewing sensing based on the image is performed, and the position information and depth information obtained thereby are used as side information to the motion integration control unit 32. provide. Then, the motion integration control unit 32 provides the side information provided from the visual sensing information processing unit 36 and the hand sensing information processing unit 37 to the arm motion control unit 34, and the arm motion control unit 34 receives the information from the arm motion control unit 34. The positioning of the hand part 23 with respect to the object 2 by movement and the gripping operation of the object 2 by the hand part 23 are controlled.

図3に、視覚センシング情報処理部36による処理のようすをイメージ化して示す。2つの視覚センサ21(21L、21R)は、距離Lだけ離されており、ともに同じ焦点距離fを有している。この条件において、視覚センシング情報処理部36は、視覚センサ21で対象物2をその正面方向から撮影した画像(対象物正面画像)から対象物2上の点Pの3次元の座標(x、y、z)を求める。視覚センサ21の焦点距離fは対象物正面画像のZ軸方向の座標に相当することから、視覚センサ21Lによる対象物正面画像における点Pの座標は(x、y、f)となり、視覚センサ21Rによる対象物正面画像における点Pの座標は(x、y、f)となる。このとき、点Pは以下の(1)式で与えられる。 FIG. 3 shows an image of the processing performed by the visual sensing information processing unit 36. Two of the visual sensor 21 (21L, 21R) by a distance L 0 is isolated by, both have the same focal length f. Under this condition, the visual sensing information processing unit 36 uses the three-dimensional coordinates (x, y) of the point P on the object 2 from an image (object front image) obtained by photographing the object 2 from the front direction with the visual sensor 21. , Z). Since the focal distance f of the visual sensor 21 corresponds to the coordinate in the Z-axis direction of the object front image, the coordinates of the point P in the object front image by the visual sensor 21L are (x L , y L , f), and the visual The coordinates of the point P in the front image of the object by the sensor 21R are (x R , y R , f). At this time, the point P is given by the following equation (1).

Figure 0004578438
Figure 0004578438

視覚センシング情報処理部36は、画像処理部41、画像認識処理部42、及び位置情報出力部43を備えている。画像処理部41は、視覚センサ21の出力信号を取り込んで2次元の画像データ(対象物正面画像)を生成する。画像認識処理部42は、微分演算処理などのコンピュータプログラムを用い、対象物正面画像中の対象物2についてその特徴点を点Pとして抽出する。位置情報出力部43は、2つの視覚センサ21L、21Rそれぞれによる対象物正面画像から(1)式により特徴点Pの3次元座標(x、y、z)を求め、それを対象物2の位置情報として運動統合制御部32に送る。   The visual sensing information processing unit 36 includes an image processing unit 41, an image recognition processing unit 42, and a position information output unit 43. The image processing unit 41 takes in the output signal of the visual sensor 21 and generates two-dimensional image data (target object front image). The image recognition processing unit 42 extracts a feature point of the object 2 in the front image of the object as a point P using a computer program such as a differential calculation process. The position information output unit 43 obtains the three-dimensional coordinates (x, y, z) of the feature point P from the front image of the object by each of the two visual sensors 21L and 21R according to the expression (1), and uses it to determine the position of the object 2 Information is sent to the motion integrated control unit 32.

図4に、手先センシング情報処理部37による処理のようすをイメージ化して示す。手先センシング情報処理部37は、手先センサ24で撮影した対象物2の側面2sの画像(対象物側面画像)から対象物2の奥行き情報などの側面情報を生成する。そのために手先センシング情報処理部37は、画像処理部45、画像認識処理部46、及び出力データ生成部47を備えている。画像処理部45は、手先センサ24の出力信号を取り込んで2次元の画像データ(対象物側面画像)を生成する。画像認識処理部46は、対象物側面画像から対象物2の側面2sを抽出したり、その抽出した側面2sについて安定把持ポイントを抽出したりする。出力データ生成部47は、抽出された対象物2の側面2sについて、その奥行きを計測したり、抽出された安定把持ポイントの3次元座標を特徴点Pの3次元座標に基づいて求めたりし、それらを運動統合制御部32に送る。   FIG. 4 shows an image of processing performed by the hand sensing information processing unit 37. The hand sensing information processing unit 37 generates side information such as depth information of the object 2 from the image of the side surface 2s of the object 2 (object side image) taken by the hand sensor 24. For this purpose, the hand sensing information processing unit 37 includes an image processing unit 45, an image recognition processing unit 46, and an output data generation unit 47. The image processing unit 45 takes in the output signal of the hand sensor 24 and generates two-dimensional image data (object side image). The image recognition processing unit 46 extracts the side surface 2s of the target object 2 from the target side image or extracts a stable gripping point for the extracted side surface 2s. The output data generation unit 47 measures the depth of the side surface 2s of the extracted object 2 or calculates the three-dimensional coordinates of the extracted stable gripping point based on the three-dimensional coordinates of the feature point P. They are sent to the motion integrated control unit 32.

図5に、アーム機構ユニット13の具体的な構成の例をアーム運動制御部34の具体的な構成例と関係させて模式的に示すとともに、アーム機構ユニット13における駆動部の構成例を模式的に示す。アーム機構ユニット13は、駆動構造についてアーム部22とハンド部23が一体的に構成されている。すなわちアーム機構ユニット13は、アーム部22とハンド部23を駆動構造的に一体として、7つの回転型の駆動部51(51a〜51g)を備えており、これらの駆動部51の回転動が独立に制御されることで、アーム部22やハンド部23の複雑な運動や動作を実現できるようにされている。なお、図5の記号表示において、駆動部51a、51c、51eは、紙面に対して垂直な方向に回転し、駆動部51b、51d、51f、51gは、紙面に対して平行な方向な方向に回転することを意味している。   FIG. 5 schematically illustrates an example of a specific configuration of the arm mechanism unit 13 in association with a specific configuration example of the arm motion control unit 34, and also schematically illustrates a configuration example of a drive unit in the arm mechanism unit 13. Shown in In the arm mechanism unit 13, an arm portion 22 and a hand portion 23 are integrally configured with respect to the drive structure. That is, the arm mechanism unit 13 includes seven rotary type drive units 51 (51a to 51g) in which the arm unit 22 and the hand unit 23 are integrated in a drive structure, and the rotational movements of these drive units 51 are independent. Thus, complicated movements and operations of the arm unit 22 and the hand unit 23 can be realized. 5, the drive units 51a, 51c, and 51e rotate in a direction perpendicular to the paper surface, and the drive units 51b, 51d, 51f, and 51g are in a direction parallel to the paper surface. It means to rotate.

各駆動部51は、いずれも基本的に同一の構成とされている。具体的には、図5の(b)に示すように、モータ52の回転が駆動軸53を介してギア54に伝えられ、そのギア54の回転を受けて駆動部51が回転するようにされている。また駆動部51の回転量は、ギア54の回転量として、ギア54に噛合するギア55からギア軸56を介してエンコーダ57で検出できるようにされている。エンコーダ57の検出データは、アーム機構ユニット13に実装された配線(図示を省略)とコネクタ58を介してアーム運動制御部34に提供される。   Each drive unit 51 has basically the same configuration. Specifically, as shown in FIG. 5B, the rotation of the motor 52 is transmitted to the gear 54 through the drive shaft 53, and the drive unit 51 is rotated by receiving the rotation of the gear 54. ing. Further, the rotation amount of the drive unit 51 can be detected by the encoder 57 from the gear 55 meshing with the gear 54 via the gear shaft 56 as the rotation amount of the gear 54. Detection data of the encoder 57 is provided to the arm motion control unit 34 via wiring (not shown) mounted on the arm mechanism unit 13 and a connector 58.

アーム運動制御部34は、1つのアーム運動制御回路34aを備え、また7つの駆動部51a〜51gのそれぞれに対応させて設けられた7つのモータ駆動制御回路62(62a〜621g)を備えている。エンコーダ57からのデータはモータ駆動制御回路62に入力する。モータ駆動制御回路62は、アーム運動制御回路34aから予め与えられている駆動部51の回転量が実行されるまで、エンコーダ57からのデータをモニタしながら、モータ52に駆動信号を送る。アーム機構ユニット13は、こうした手順によりその動作を実行する。   The arm motion control unit 34 includes one arm motion control circuit 34a, and also includes seven motor drive control circuits 62 (62a to 621g) provided corresponding to the seven drive units 51a to 51g, respectively. . Data from the encoder 57 is input to the motor drive control circuit 62. The motor drive control circuit 62 sends a drive signal to the motor 52 while monitoring the data from the encoder 57 until the rotation amount of the drive unit 51 given in advance from the arm motion control circuit 34a is executed. The arm mechanism unit 13 performs its operation by such a procedure.

以上のようなアーム機構ユニット13の運動、例えば対象物2の把持のためにハンド部23を対象物2に位置決めする運動は、視覚センシング情報処理部36と手先センシング情報処理部37を併用して得られる手先位置情報つまりハンド部23と対象物2の位置関係情報に基づいて制御される。そのようなアーム機構ユニット13の運動制御についてのブロック線図を図6に示す。   The movement of the arm mechanism unit 13 as described above, for example, the movement of positioning the hand unit 23 on the object 2 for grasping the object 2 is performed by using the visual sensing information processing unit 36 and the hand sensing information processing unit 37 together. Control is based on the obtained hand position information, that is, the positional relationship information between the hand unit 23 and the object 2. FIG. 6 shows a block diagram for the motion control of such an arm mechanism unit 13.

対象物2の位置をハンド部23の移動先位置とした指令値が入力されると、その指令値をアーム機構ユニット13の駆動部51における回転角度に変換する処理つまり関節角度変換処理を経て、アーム運動制御ループが実行される。アーム運動制御ループによりアーム部22が運動を行った結果、ハンド部23の位置が変化する。ハンド部23の位置は、視覚センシング情報処理部36による視覚センシング処理と手先センシング情報処理部37による手先センシング処理でフィードバックされる。こうした手先位置情報処理においては、後述する手順で手先センシング処理による位置情報と視覚センシング処理による位置情報を組み合わせて用いる。そしてそうした位置情報による対象物2の位置(移動先位置)とハンド部23の位置の差分を算出しながら、その差分が0となるまで上述の処理を繰り返すことで、ハンド部23を対象物2の位置まで正確に移動させることができる。   When a command value with the position of the object 2 as the movement destination position of the hand unit 23 is input, the command value is converted into a rotation angle in the drive unit 51 of the arm mechanism unit 13, that is, through a joint angle conversion process. An arm motion control loop is executed. As a result of the movement of the arm part 22 by the arm movement control loop, the position of the hand part 23 changes. The position of the hand unit 23 is fed back by visual sensing processing by the visual sensing information processing unit 36 and hand sensing processing by the hand sensing information processing unit 37. In such hand position information processing, position information obtained by hand sensing processing and position information obtained by visual sensing processing are used in combination in a procedure described later. Then, while calculating the difference between the position of the object 2 (movement destination position) and the position of the hand unit 23 based on such position information, the above-described processing is repeated until the difference becomes 0, whereby the hand unit 23 is moved to the object 2. Can be accurately moved to the position.

図7に、アーム運動制御ループの具体的な構成例をブロック線図で示す。アーム運動制御部34では、アーム機構ユニット13における各駆動部51に必要な動作を行わせるについて、回転角度に加え、角速度と角加速度も用いる。この場合、指令する角速度や角加速度がモータの回転動作の許容値を超えないようにする必要があり、そのためにリミッタ処理を施す。図7の(b)に、関節角度の上限値と下限値に対する角速度の拘束条件を示してある。関節角度の上限値と下限値近傍の関節角度θにおける角速度ωは、下記の式(2)、(3)で与えられる。   FIG. 7 is a block diagram showing a specific configuration example of the arm motion control loop. The arm motion control unit 34 uses an angular velocity and an angular acceleration in addition to the rotation angle for causing each driving unit 51 in the arm mechanism unit 13 to perform a necessary operation. In this case, it is necessary to prevent the commanded angular velocity or angular acceleration from exceeding the allowable value of the rotational operation of the motor, and therefore limiter processing is performed. FIG. 7B shows the constraint condition of the angular velocity with respect to the upper limit value and the lower limit value of the joint angle. The angular velocity ω at the joint angle θ in the vicinity of the upper limit value and the lower limit value of the joint angle is given by the following equations (2) and (3).

ω=ωmax×sqrt{α×(θmax−θ)}…………(2)
ω=ωmin×sqrt{α×(θ−θmin)}…………(3)
ここで、ωmaxとωminは、それぞれ角速度の上限値と下限値であり、θmaxとθminは、それぞれ駆動部51の回転角度の上限値と下限値であり、αは定数としての減衰係数である。
ω = ωmax × sqrt {α × (θmax−θ)} ………… (2)
ω = ωmin × sqrt {α × (θ−θmin)} (3)
Here, ωmax and ωmin are respectively an upper limit value and a lower limit value of the angular velocity, θmax and θmin are respectively an upper limit value and a lower limit value of the rotation angle of the drive unit 51, and α is an attenuation coefficient as a constant.

図8に、以上のようなアーム運動制御ループにおける処理の流れを示す。駆動部51の回転角度(関節角度)の指令値θRefを読み込み、駆動部51の現在の回転角度θActと指令値θRefの差分Δθを求め、さらに差分Δθから角速度指令値ωRefを求める。角速度指令値ωRefが許容範囲を逸脱している場合には、角速度の上限値ωmaxと下限値ωminで制限をかける、つまりリミッタ処理を施す。それには、図7の(b)に示した駆動部51の回転角度と角速度の拘束関係を角速度指令値ωRefに適用する。次に、角速度指令値ωRefと現在の角速度ωActの差分Δωを求め、さらにその差分Δωから角加速度指令値βRefを求める。角加速度指令値βRefが許容範囲を逸脱している場合には、角加速度の上限値βmaxと下限値βminでリミッタ処理する。次に、リミッタ処理が施された角加速度指令値βRefを出力するとともに、制御の実行周期を積分することで角速度指令値ωRefを求めなおす。次に、角速度指令値ωRefを出力するとともに、駆動部51の回転角度の指令値θRefを計算する。そして最後に、指令値θRefを駆動部51の新しい回転角度として出力する。ここで、以上のような処理においては、角速度や角加速度にスムージング処理を施すと、最終段で出力される駆動部51の回転角度指令値θRefが本来の角度より変化が緩やかになって絶対値がずれる可能性がある。そこで、駆動部51の回転角度に誤差を生じないようにしるために、角加速度指令値βRefにオフセット処理を施すなどの補正処理を図7の(a)のアルゴリズムに加えるようにする。そのようにすることで、アーム機構ユニット13の動作時における高い位置精度を維持することができる。   FIG. 8 shows the flow of processing in the arm motion control loop as described above. The command value θRef of the rotation angle (joint angle) of the drive unit 51 is read, the difference Δθ between the current rotation angle θAct of the drive unit 51 and the command value θRef is obtained, and the angular velocity command value ωRef is obtained from the difference Δθ. When the angular velocity command value ωRef deviates from the allowable range, the angular velocity upper limit value ωmax and the lower limit value ωmin are limited, that is, limiter processing is performed. For this purpose, the constraint relationship between the rotation angle and the angular velocity of the drive unit 51 shown in FIG. 7B is applied to the angular velocity command value ωRef. Next, a difference Δω between the angular velocity command value ωRef and the current angular velocity ωAct is obtained, and an angular acceleration command value βRef is obtained from the difference Δω. When the angular acceleration command value βRef is out of the allowable range, limiter processing is performed with the upper limit value βmax and the lower limit value βmin of the angular acceleration. Next, the angular acceleration command value βRef subjected to the limiter process is output, and the angular velocity command value ωRef is obtained again by integrating the execution period of the control. Next, the angular velocity command value ωRef is output, and the command value θRef of the rotation angle of the drive unit 51 is calculated. Finally, the command value θRef is output as a new rotation angle of the drive unit 51. Here, in the processing as described above, when the smoothing process is performed on the angular velocity and the angular acceleration, the rotation angle command value θRef of the drive unit 51 output in the final stage becomes more gradually changed than the original angle and becomes an absolute value. May shift. Therefore, in order to prevent an error in the rotation angle of the drive unit 51, correction processing such as performing offset processing on the angular acceleration command value βRef is added to the algorithm shown in FIG. By doing so, high positional accuracy during operation of the arm mechanism unit 13 can be maintained.

以上のようなアーム機構ユニット13の運動制御は、対象物2に対してハンド部23を位置決めさせた後に対象物2を把持する作業である場合、図9に示す手順で行われる。まず、ステップ201において対象物2の位置情報を視覚センシング情報処理部36から取得する(対象物位置取得処理)。ステップ202では、対象物2の位置をハンド部23の移動先位置とした指令値が生成される(移動先指令値生成処理)。ステップ203では、ハンド部23の位置(手先位置)を視覚センシング情報処理部36から取得する(ハンド部位置取得処理)。ステップ204では、対象物位置とハンド部位置の距離Dを求める(距離算出処理)。ステップ205では距離Dが0であるかを判定する(第1の距離判定処理)。第1の距離判定の結果が否定的な場合にはステップ206の処理を行う。   The above-described motion control of the arm mechanism unit 13 is performed according to the procedure shown in FIG. 9 when the hand 2 is positioned with respect to the target 2 and then the target 2 is gripped. First, in step 201, the position information of the target object 2 is acquired from the visual sensing information processing unit 36 (target position acquisition process). In step 202, a command value with the position of the object 2 as the movement destination position of the hand unit 23 is generated (movement destination command value generation process). In step 203, the position (hand position) of the hand unit 23 is acquired from the visual sensing information processing unit 36 (hand unit position acquisition process). In step 204, a distance D between the object position and the hand portion position is obtained (distance calculation processing). In step 205, it is determined whether the distance D is 0 (first distance determination processing). If the result of the first distance determination is negative, step 206 is performed.

ステップ206では、距離Dが距離しきい値以下であるかを判定する(第2の距離判定処理)。第2の距離判定の結果が否定的な場合には、ステップ207として、視覚センシング情報処理部36による位置情報の下で、距離Dを0とするためのアーム機構ユニット13の関節回転角度を算出し(関節回転角度算出処理)、ステップ208として、算出した関節回転角度によりアーム機構ユニット13の運動を制御する(アーム運動制御処理)。一方、第2の距離判定の結果が肯定的な場合には、ステップ209の処理を行う。ステップ209では、手先センシング情報処理部37による対象物2の位置情報取得を開始する(手先センシングによる位置情報取得開始処理)。上述のように手先センシング情報処理部37は、対象物2を近接位置で捉える近接視覚センシングも行うようになっている。その近接視覚センシングは、視覚センサ21による視覚センシングよりも精度の高い位置情報を可能とする。ステップ210では、高精度な近接視覚センシングによる位置情報に基づいて対象物2の位置の補正を行う。つまり移動先指令値を補正する(移動先指令値補正処理)。移動先指令値が補正されると、以後はその補正移動先指令値に基づいてステップ207とステップ208の処理がなされる。以上のステップ203〜ステップ208の処理をステップ205における判定結果が肯定的になるまで繰り返すことで、ハンド部23を対象物2に対して位置決めさせる。   In step 206, it is determined whether the distance D is equal to or smaller than the distance threshold value (second distance determination process). When the result of the second distance determination is negative, in step 207, the joint rotation angle of the arm mechanism unit 13 for setting the distance D to 0 is calculated based on the position information by the visual sensing information processing unit 36. In step 208, the movement of the arm mechanism unit 13 is controlled based on the calculated joint rotation angle (arm movement control process). On the other hand, if the result of the second distance determination is affirmative, the process of step 209 is performed. In step 209, the acquisition of position information of the object 2 by the hand sensing information processing unit 37 is started (position information acquisition start processing by hand sensing). As described above, the hand sensing information processing unit 37 also performs proximity visual sensing that captures the object 2 at the proximity position. The proximity visual sensing enables position information with higher accuracy than visual sensing by the visual sensor 21. In step 210, the position of the object 2 is corrected based on position information obtained by high-precision proximity visual sensing. That is, the destination command value is corrected (destination command value correction process). When the destination command value is corrected, the processing of step 207 and step 208 is performed based on the corrected destination command value. By repeating the processing of step 203 to step 208 until the determination result in step 205 becomes affirmative, the hand unit 23 is positioned with respect to the object 2.

ステップ205における判定結果が肯定的であった場合には、位置決めが完了となるので、ステップ211とステップ212としてハンド部23による対象物2の把持を行う。ステップ211では、手先センシング(側方視センシング)により対象物2の側面情報(把持の場合は安定保持ポイントの情報)を取得する(対象物側面情報取得処理)。ステップ212では、ステップ211で取得した側面情報つまり安定保持ポイントに基づいて対象物2の把持を行う(把持処理)。   If the determination result in step 205 is affirmative, positioning is completed, and the object 2 is gripped by the hand unit 23 in steps 211 and 212. In step 211, side information of the object 2 (information on the stable holding point in the case of gripping) is acquired by hand sensing (side-viewing sensing) (object side information acquisition processing). In step 212, the object 2 is gripped based on the side information acquired in step 211, that is, the stable holding point (gripping process).

以上のように、手先センシングを用いる把持運動制御では、対象物2に対するハンド部23の距離に応じて視覚センシングによる位置情報と手先センシングによる位置情報を使い分けるようにしているので、ハンド部23の対象物2に対する位置決めまでのアプローチ運動におけるアーム機構ユニット13の運動制御をより高精度に行うことができ、それによりアプローチ運動をよりスムースなものとすることができる。また以上のような手先センシングを用いる把持運動制御によれば、対象物2の把持動作をよりスムースに行えるようになる。すなわち、手先センサ24を用いる手先センシングにより対象物2の側面情報として対象物2の安定把持ポイントを求めることができるため、上述した従来の応力センシングのように試行錯誤的に安定把持ポイントを探す必要がなくなって、安定把持ポイントをすばやく決めることができ、対象物2の把持動作をよりスムースに行えるようになる。   As described above, in the gripping motion control using hand sensing, the position information by visual sensing and the position information by hand sensing are selectively used according to the distance of the hand unit 23 with respect to the object 2. The movement control of the arm mechanism unit 13 in the approach movement up to the positioning with respect to the object 2 can be performed with higher accuracy, thereby making the approach movement smoother. In addition, according to the gripping motion control using the hand sensing as described above, the gripping operation of the object 2 can be performed more smoothly. That is, since the stable gripping point of the object 2 can be obtained as side information of the object 2 by hand sensing using the hand sensor 24, it is necessary to search for the stable gripping point by trial and error as in the conventional stress sensing described above. The stable gripping point can be determined quickly, and the gripping operation of the object 2 can be performed more smoothly.

なお、手先センシングにより求めた安定把持ポイントについては、その微調整を行うような処理を加えるようにしてもよい。すなわち手先センシングにより求めた安定把持ポイントで対象物2を把持した状態で、より安定的な把持を行えるようにする把持ポイントを上述の応力センシングで探すことにより、把持安定化の微調整を行うようにする処理である。   Note that a process for performing fine adjustment on the stable gripping point obtained by hand sensing may be added. That is, the gripping stabilization is finely adjusted by searching for the gripping point that enables more stable gripping in the state where the object 2 is gripped by the stable gripping point obtained by hand sensing, by the above-described stress sensing. It is a process to make.

ここで、ステップ206で用いる距離しきい値は、手先センシングによる位置情報の利用開始タイミングを決める基準となる。そのような距離しきい値は、一例として、視覚センシング誤差やアーム機構誤差と相関させて設定される。視覚センシング誤差は、視覚センサ21を用いた視覚センシングにおける位置計測誤差である。視覚センサ21を用いた視覚センシングには、視覚センサ21と対象物2の距離が大きいことなどに起因して、ある程度の計測誤差を避けられず、その計測誤差よりも小さい距離では高精度な制御が困難になる。そこで、距離Dが視覚センシングにおける計測誤差以下となったら、手先センシングによる位置情報を用いるようにするために、視覚センシング誤差に相関させて距離しきい値を設定する。アーム機構誤差は、アーム機構ユニット13の動作誤差である。アーム機構ユニット13の駆動部51は、上述のようにモータ52やギア54などを組み合わせて形成され、またその回転をエンコーダ57で検出するようにされている。こうしたアーム機構ユニット13では、モータ52とギア54の間の機械的なガタ、あるいはエンコーダ57の検出誤差や遅れにより、ある程度のアーム機構誤差を避けられない。そこで、こうしたアーム機構誤差も距離しきい値の設定において考慮することで、より高精度な制御を行えるようにする。   Here, the distance threshold value used in step 206 serves as a reference for determining the use start timing of the position information by hand sensing. As an example, such a distance threshold is set in correlation with a visual sensing error or an arm mechanism error. The visual sensing error is a position measurement error in visual sensing using the visual sensor 21. In visual sensing using the visual sensor 21, a certain amount of measurement error cannot be avoided due to a large distance between the visual sensor 21 and the object 2, and high-precision control is performed at a distance smaller than the measurement error. Becomes difficult. Therefore, when the distance D is equal to or smaller than the measurement error in visual sensing, a distance threshold is set in correlation with the visual sensing error in order to use position information by hand sensing. The arm mechanism error is an operation error of the arm mechanism unit 13. The drive unit 51 of the arm mechanism unit 13 is formed by combining the motor 52, the gear 54, and the like as described above, and the rotation thereof is detected by the encoder 57. In such an arm mechanism unit 13, a certain degree of arm mechanism error is unavoidable due to mechanical backlash between the motor 52 and the gear 54, or detection errors and delays of the encoder 57. In view of this, such an arm mechanism error is also taken into consideration in setting the distance threshold value, so that more accurate control can be performed.

以上は、距離しきい値で手先センシングによる位置情報の利用開始を決める場合であるが、この他に、視認性も手先センシング位置情報利用開始の基準とする形態が可能である。対象物2が小さい場合、接近したハンド部23で対象物2が視覚センサ21に対して隠される場合が生じる。そのような場合には視覚センサ21を用いた視覚センシングが使えなくなって視覚センサ21による視認を行えなくなる。そこで、そのような状態になったら手先センシングに切り替えるようにするのが視認性基準である。   The above is a case where the start of use of position information by hand sensing is determined by the distance threshold, but in addition to this, a form in which visibility is also used as a reference for starting use of hand sense position information is possible. When the target object 2 is small, the target object 2 may be hidden from the visual sensor 21 by the approaching hand unit 23. In such a case, visual sensing using the visual sensor 21 cannot be used, and visual recognition by the visual sensor 21 cannot be performed. Therefore, the visibility criterion is to switch to hand sensing when such a state occurs.

次に、第2の実施形態について説明する。本実施形態は、アーム機構ユニット13の運動制御に画像解像度の切替え処理を付加することを除いて第1の実施形態と同じである。したがって以下では、画像解像度の切替え処理についてだけ説明する。画像解像度の切替え処理は、対象物2にハンド部23を位置決めさせるためのアーム機構ユニット13の運動の制御に際して、作業対象、例えば対象物2が動いているか、静止しているのかを判断し、その判断に応じて視覚センシング情報処理部36の画像処理部41で生成する画像の解像度を切り替える処理である。   Next, a second embodiment will be described. This embodiment is the same as the first embodiment except that an image resolution switching process is added to the motion control of the arm mechanism unit 13. Therefore, only the image resolution switching process will be described below. In the image resolution switching process, when controlling the movement of the arm mechanism unit 13 for positioning the hand unit 23 on the object 2, it is determined whether the work object, for example, the object 2 is moving or stationary, This is a process of switching the resolution of an image generated by the image processing unit 41 of the visual sensing information processing unit 36 according to the determination.

図10に、画像解像度切替え処理における処理の流れを示す。画像解像度切替え処理では、まずステップ301として対象物2の初期位置Pを取得する(作業対象初期位置取得処理)。それからステップ302として、一定時間をおいた後の対象物2の位置Pを取得する(一定時間後作業対象位置取得処理)。そして、ステップ303として、PとPが同じかを判定する(位置同一性判定)。ステップ303で判定が肯定的な場合には対象物2は動いていないとし、画像解像度を高解像度とする。具体的には、視覚センサ21からのデータを間引かずに画像処理部41に転送するようにする(ステップ304:高解像度処理)。一方、ステップ303で判定が否定的な場合には対象物2は動いているものとし、画像解像度を低解像度とする。具体的には、視覚センサ21からのデータを所定の比率で間引いて画像処理部41に転送するようにする(ステップ305:低像解度処理)。 FIG. 10 shows a process flow in the image resolution switching process. In the image resolution switching process, the CPU obtains the initial position P 0 of the object 2 as step 301 (operation target initial position acquisition processing). Then, in step 302, the position P of the object 2 after a predetermined time is acquired (work target position acquisition process after a predetermined time). Then, in step 303, it determines (position sameness judging) whether P 0 and P are the same. If the determination in step 303 is affirmative, it is determined that the object 2 has not moved and the image resolution is set to a high resolution. Specifically, the data from the visual sensor 21 is transferred to the image processing unit 41 without thinning out (step 304: high resolution processing). On the other hand, if the determination in step 303 is negative, the object 2 is moving and the image resolution is set to a low resolution. Specifically, the data from the visual sensor 21 is thinned out at a predetermined ratio and transferred to the image processing unit 41 (step 305: low image resolution processing).

図11に、アーム機構ユニット13の運動制御ループにおけるタイミングチャートを示す。図の(a)は、低解像度処理の場合であり、(b)は高像解度処理の場合である。アーム機構ユニット13の運動制御では、上述のように、視覚センシング情報処理部36において画像処理により生成される対象物2の位置情報が運動統合制御部32に出力され、その位置情報に基づいて運動統合制御部32で生成された制御データ(軌道データ)に基づいてアーム運動制御部34がアーム機構ユニット13の各駆動部51を制御し、またその間に、アーム機構ユニット13の運動で変化するハンド部23の位置を視覚センシングや手先センシングで捉え、その位置情報をアーム機構ユニット13の運動制御にフィードバックすることが繰り返される。   FIG. 11 shows a timing chart in the motion control loop of the arm mechanism unit 13. (A) in the figure is a case of low resolution processing, and (b) is a case of high image resolution processing. In the motion control of the arm mechanism unit 13, as described above, the position information of the object 2 generated by the image processing in the visual sensing information processing unit 36 is output to the motion integrated control unit 32, and the motion is based on the position information. Based on the control data (trajectory data) generated by the integrated control unit 32, the arm motion control unit 34 controls each drive unit 51 of the arm mechanism unit 13, and in the meantime, a hand that changes due to the motion of the arm mechanism unit 13 is controlled. It is repeated that the position of the unit 23 is captured by visual sensing or hand sensing, and the position information is fed back to the motion control of the arm mechanism unit 13.

こうした運動制御ループにおいて、(a)の低解像度処理では、視覚センシング情報処理部36における処理時間が短くて済む。例えば、ロボット装置1が人の手から物品を受け取る場合、あるいはロボット装置1が把持した物品を人に手渡す場合などのように作業対象に動きがある場合、その動的な作業対象の動きに追随しながらその位置情報を取得する必要がある。このような場合には、画像の解像度、つまり位置情報の精度よりも視覚センシング情報処理部36での処理速度を重視する低解像度処理を適用することで、動的な作業対象に対する把持などの作業における作業対象へのアプローチ運動をよりスムースに行えるようになる。   In such a motion control loop, the low-resolution processing (a) requires a short processing time in the visual sensing information processing unit 36. For example, when the work target moves such as when the robot apparatus 1 receives an article from a human hand or when the article gripped by the robot apparatus 1 is handed to a person, the movement of the dynamic work target is followed. However, it is necessary to acquire the position information. In such a case, by applying low resolution processing in which the processing speed of the visual sensing information processing unit 36 is more important than the resolution of the image, that is, the accuracy of the position information, work such as gripping on a dynamic work target is performed. The approach movement to the work object in can be performed more smoothly.

一方、(b)の高像解度処理では、視覚センシング情報処理部36における処理時間が長くなる。ロボット装置1の作業対象が静止している場合、視覚センシング情報処理部36での処理には、動的な作業対象の場合のような高速性を必ずしも必要としない。このような場合には、視覚センシング情報処理部36での処理速度よりも位置情報の精度を重視する高像解度処理を適用することで、静的な作業対象に対する把持などの作業における作業対象へのアプローチ運動をよりスムースに行えるようになる。ここで、高像解度処理では、図の例のように、視覚センシング情報処理部36における処理時間が長くなることで、視覚センシング処理の周期とアーム運動制御の周期にずれを生じ、視覚センシング情報処理部36から新たな位置情報を得られない状態でアーム運動制御をなすような事態を生じることがある。このような場合には、新たな位置情報を得られない間、前回の位置情報でアーム運動制御を行わせるようにすることになる。   On the other hand, in the high image resolution processing of (b), the processing time in the visual sensing information processing unit 36 becomes long. When the work target of the robot apparatus 1 is stationary, the processing by the visual sensing information processing unit 36 does not necessarily require high speed as in the case of a dynamic work target. In such a case, by applying high-image resolution processing that places greater importance on the accuracy of position information than the processing speed in the visual sensing information processing unit 36, the work target in a work such as gripping a static work target The approach movement to can be performed more smoothly. Here, in the high image resolution processing, as shown in the example in the figure, the processing time in the visual sensing information processing unit 36 becomes long, thereby causing a shift between the period of the visual sensing process and the period of the arm motion control. There may be a situation in which arm motion control is performed in a state where new position information cannot be obtained from the information processing unit 36. In such a case, arm motion control is performed using the previous position information while new position information cannot be obtained.

次に、第3の実施形態について説明する。本実施形態は、対象物2の把持作業において対象物2に把持のための位置決めを完了して把持動作の開始をできるようになった状態を検出する手法に特徴があり、それを除いて第1の実施形態と同じである。したがって以下では、その位置決め完了状態検出法についてだけ説明する。   Next, a third embodiment will be described. The present embodiment is characterized in a method for detecting a state in which positioning for gripping the object 2 in the gripping operation of the object 2 and the start of the gripping operation can be started. This is the same as the first embodiment. Therefore, only the positioning completion state detection method will be described below.

ハンド部23が対象物2に対して把持動作開始可能な状態に位置決めすることは、ハンド部23が対象物2の側面に沿う状態になることである。この状態になると、ハンド部23の手のひら部分に組み込まれている手先センサ24は対象物2で遮蔽される状態になる。つまり手先センサ24で撮影される画像が全体的に暗くなる。したがって、手先センサ24による画像の明度(画像の明るさ)を判定することで、手先センサ24の遮蔽状態、つまり位置決め完了状態を検出することができる。本実施形態における位置決め完了状態検出法は、こうした原理によっている。   Positioning the hand unit 23 in a state in which a gripping operation can be started with respect to the object 2 means that the hand unit 23 is in a state along the side surface of the object 2. In this state, the hand sensor 24 incorporated in the palm portion of the hand portion 23 is shielded by the object 2. That is, the image photographed by the hand sensor 24 becomes dark overall. Accordingly, by determining the image brightness (image brightness) by the hand sensor 24, it is possible to detect the shielding state of the hand sensor 24, that is, the positioning completion state. The positioning completion state detection method in this embodiment is based on such a principle.

図12に、画像明るさ指標による位置決め完了状態検出法における処理の流れを示す。位置決め完了状態検出では、ステップ401として、作業対象の画像を取得し(作業対象画像取得処理)、ステップ402として、作業対象画像の明度データLを取得する(明度データ取得処理)。明度データLを取得したら、ステップ403として、明度データLを明度しきい値と比較する(明度判定処理)。図の例では明度しきい値として「0」を用いている。ステップ403の判定結果が否定的であれば、ステップ401に戻って処理を繰り返す。一方、ステップ403の判定結果が肯定的になったら、位置決め完了状態であるので、ステップ404として、アーム機構ユニット13の動作停止を指令する(動作停止指令処理)。   FIG. 12 shows a processing flow in the positioning completion state detection method based on the image brightness index. In the positioning completion state detection, an image of a work target is acquired as a step 401 (work target image acquisition process), and brightness data L of the work target image is acquired as a step 402 (lightness data acquisition process). When the brightness data L is acquired, in step 403, the brightness data L is compared with a brightness threshold value (lightness determination process). In the example shown in the figure, “0” is used as the brightness threshold value. If the determination result of step 403 is negative, the process returns to step 401 and is repeated. On the other hand, if the determination result in step 403 is affirmative, the positioning is complete, and therefore, in step 404, the arm mechanism unit 13 is commanded to stop operating (operation stop command processing).

以上のような位置決め完了状態検出法によれば、より高精度な位置決め完了状態をハンド部23にとらせることを可能となり、したがってハンド部23による作業をよりスムースに行えるようになる。また以上のような位置決め完了状態検出法によれば、手先センサ24を位置決め完了状態検出に兼用できるので、ロボット装置1におけるセンサ系の簡素化を図れる。   According to the positioning completion state detection method as described above, it is possible to cause the hand unit 23 to take a higher-accuracy positioning completion state, and thus the operation by the hand unit 23 can be performed more smoothly. Further, according to the positioning completion state detection method as described above, the hand sensor 24 can be used also for the positioning completion state detection, so that the sensor system in the robot apparatus 1 can be simplified.

次に、第4の実施形態について説明する。本実施形態は、対象物2の把持のような作業を行うに際してハンド部23の使分け制御を行えるようにしていることに特徴があり、それを除いて第1の実施形態と同じである。したがって以下では、そのハンド部使分け制御についてだけ説明する。   Next, a fourth embodiment will be described. The present embodiment is characterized in that the use control of the hand unit 23 can be performed when performing an operation such as gripping the target object 2 and is the same as the first embodiment except that. Therefore, only the hand portion use control will be described below.

把持作業対象の対象物2には様々な大きさがあり、それに応じて把持のために左右のハンド部23L、23Rの両方を使う「両手把持」とする必要のある場合と、左右のハンド部23L、23Rのいずれか片方による「片手把持」で済む場合がある。「片手把持」でよい場合には、「片手把持」とすることで、作業をよりスムースに行わせることができるようになる。また「片手把持」の場合、対象物2に状況に応じて左右のハンド部23L、23Rを使い分けることができるようにすることで、作業をよりスムースに行わせることができるようになる。   There are various sizes of the object 2 to be grasped, and there are cases where it is necessary to make “two-hand grasp” using both the left and right hand parts 23L and 23R for grasping, and the left and right hand parts There are cases where “one-handed gripping” with either one of 23L and 23R is sufficient. When “single-handed grip” is sufficient, “single-handed grip” can be used to make the operation smoother. In the case of “single-handed grip”, the left and right hand portions 23L and 23R can be used properly for the object 2 according to the situation, so that the work can be performed more smoothly.

こうした観点から、本実施形態ではハンド部使分け制御機能をロボット装置1に組み込むようにしている。図13に、ハンド部使分け制御における処理の流れを示す。ハンド部使分け制御では、ステップ501として、視覚センサ21で作業対象の画像を取得する(作業対象画像取得処理)。ステップ502では、取得した作業対象画像に基づいて作業対象のサイズを推定する(作業対象サイズ推定処理)。図の例では作業対象のサイズとして体積Vを用いるようにしている。作業対象の体積Vなどを推定する処理は、例えばエッジ検出などにより作業対象画像中で作業対象の領域を抽出し、その抽出した領域に基づいて体積Vなどを推定するといった一般的な画像処理の手法で行うことができる。   From this point of view, in the present embodiment, the hand unit separate control function is incorporated in the robot apparatus 1. FIG. 13 shows a flow of processing in the hand portion use control. In the hand portion use control, as step 501, an image of a work target is acquired by the visual sensor 21 (work target image acquisition process). In step 502, the size of the work target is estimated based on the acquired work target image (work target size estimation process). In the illustrated example, the volume V is used as the size of the work target. The process for estimating the volume V or the like of the work target is a general image processing such as extracting a work target area from the work target image by edge detection or the like and estimating the volume V or the like based on the extracted area. It can be done with a technique.

推定体積Vが得られたら、ステップ503として、その推定体積Vが体積積しきい値(サイズしきい値)以上かを判定する(サイズ判定処理)。ステップ503の判定結果が肯定的な場合には、「両手把持」となるので、ステップ504に進んで「両手把持」を指示する(両手把持指示処理)。具体的には、両方のアーム機構ユニット13L、13Rに把持作業の動作開始信号を送信する。一方、ステップ503の判定結果が否定的な場合には、「片手把持」となるので、ステップ505に進む。ステップ505では、左右の使分けについての判定、つまり左右のハンド部23L、23Rのいずれを使うかについての判定を行う(左右使分け判定処理)。図の例では左右使分け判定を作業対象物のロボット装置1に対する位置関係で行うようにしており、したがって位置関係判定処理となっている。位置関係の判定は、例えば作業対象画像から作業対象物の重心位置を求め、その重心位置が作業対象画像の中心に対して左右のいずれにあるかを判定することで行うことができる。ステップ505で左側を使うと判定されたら、ステップ506として、左側のアーム機構ユニット13Lに把持作業開始信号を送信する(左側片手把持指示処理)。一方、ステップ505で右側を使うと判定されたら、ステップ507として、右側のアーム機構ユニット13Rに把持作業開始信号を送信する(右側片手把持指示処理)。   When the estimated volume V is obtained, it is determined in step 503 whether the estimated volume V is equal to or greater than a volume product threshold value (size threshold value) (size determination process). If the determination result in step 503 is affirmative, it means “two-handed gripping”, and therefore the process proceeds to step 504 to instruct “two-handed gripping” (two-handed gripping instruction processing). Specifically, an operation start signal for gripping work is transmitted to both arm mechanism units 13L and 13R. On the other hand, if the determination result in step 503 is negative, “one-handed grip” is indicated, and the process proceeds to step 505. In step 505, the left / right usage determination, that is, which of the left / right hand portions 23L and 23R is used is determined (right / left usage determination processing). In the example of the figure, the right / left use determination is performed based on the positional relationship of the work object with respect to the robot apparatus 1, and thus the positional relationship determination processing is performed. The determination of the positional relationship can be performed, for example, by determining the position of the center of gravity of the work object from the work object image and determining whether the position of the center of gravity is on the left or right of the center of the work object image. If it is determined in step 505 that the left side is to be used, a gripping work start signal is transmitted to the left arm mechanism unit 13L in step 506 (left one-hand gripping instruction process). On the other hand, if it is determined in step 505 that the right side is to be used, in step 507, a gripping work start signal is transmitted to the right arm mechanism unit 13R (right one-handed gripping instruction process).

次に、第5の実施形態について説明する。本実施形態は、対象物2の把持のような作業を行うに際して過去の作業履歴を利用できるように制御システムを構成していることに特徴があり、それを除いて第1の実施形態と同じである。したがって以下では、その過去作業履歴利用の制御システムについてだけ説明する。   Next, a fifth embodiment will be described. The present embodiment is characterized in that the control system is configured so that past work history can be used when performing work such as gripping the object 2, and the same as the first embodiment except for that. It is. Accordingly, only the control system for using the past work history will be described below.

図14に、本実施形態による制御システム60の構成を示す。本実施形態の制御システム60は、第1の実施形態におけるのと同様なシステム制御部31、運動統合制御部32、走行制御部33、アーム運動制御部34、ヘッド運動制御部35、視覚センシング情報処理部36、及び手先センシング情報処理部37を備え、さらに作業履歴データベース61を備えている。この制御システム60は、図1のロボット装置1に実装して用いることができる。   FIG. 14 shows a configuration of the control system 60 according to the present embodiment. The control system 60 of the present embodiment is similar to the system control unit 31, the motion integrated control unit 32, the travel control unit 33, the arm motion control unit 34, the head motion control unit 35, and visual sensing information similar to those in the first embodiment. A processing unit 36 and a hand sensing information processing unit 37 are provided, and a work history database 61 is further provided. The control system 60 can be used by being mounted on the robot apparatus 1 of FIG.

作業履歴データベース61には、過去に行った作業についてのデータが蓄積される。作業履歴データは、例えば対象物2の把持作業であれば、アーム機構ユニット13の運動で対象物に対してハンド部23を位置決めさせ、それから対象物2を把持するまでを1つの作業単位とし、その作業単位における対象物2についてのデータとアーム機構ユニット13の運動制御についての実績データを組み合わせて構成される。   In the work history database 61, data on work performed in the past is accumulated. For example, if the work history data is a gripping operation of the target object 2, the hand unit 23 is positioned with respect to the target object by the movement of the arm mechanism unit 13, and then the object 2 is gripped as one work unit. It is configured by combining data on the object 2 in the unit of work and actual data on motion control of the arm mechanism unit 13.

図15に、作業履歴データベース61の具体的な構成例を示す。この例の作業履歴データベース61は、対象物形状パターン記憶領域62、アーム運動データ記憶領域63、相関データ記憶領域64、インタフェース制御部65、パターン認識処理部66、検索処理部67、及びアドレス管理部68を備えており、対象物2についてのデータとして対象物2の形状パターンを用いるようにされている。   FIG. 15 shows a specific configuration example of the work history database 61. The work history database 61 in this example includes an object shape pattern storage area 62, an arm motion data storage area 63, a correlation data storage area 64, an interface control unit 65, a pattern recognition processing unit 66, a search processing unit 67, and an address management unit. 68, and the shape pattern of the object 2 is used as data about the object 2.

対象物形状パターン記憶領域62には、過去の作業で扱った対象物の形状パターンが形状パターンデータ62Dとして格納される。アーム運動データ記憶領域63には、アーム機構ユニット13の運動制御についての過去の実績データがアーム運動制御データ63Dとして格納される。アーム運動制御データ63Dは、対象物形状パターン記憶領域62に格納される形状パターンデータ62Dに対応させて生成される。相関データ記憶領域64には、形状パターンデータ62Dとアーム運動制御データ63Dの対応付けに関するデータが相関データ64Dとして格納される。相関データ64Dは、形状パターンデータ62Dとアーム運動制御データ63Dそれぞれのアドレスで両データを対応付けるように構成される。インタフェース制御部65は、運動統合制御部32が作業履歴データベース61に蓄積のデータを参照する場合のインタフェースに機能する。パターン認識処理部66は、これから行うとする作業における対象物の形状パターン(新規作業対象物形状パターン)を認識する。検索処理部67は、パターン認識処理部66で認識した新規作業対象物形状パターンについて対象物形状パターン記憶領域62を検索する。アドレス管理部68は、対象物形状パターン、アーム運動データ、相関データの各記憶領域62、63、64のアドレス管理を行う。   In the object shape pattern storage area 62, the shape pattern of the object handled in the past work is stored as shape pattern data 62D. In the arm motion data storage area 63, past performance data regarding motion control of the arm mechanism unit 13 is stored as arm motion control data 63D. The arm motion control data 63D is generated in correspondence with the shape pattern data 62D stored in the object shape pattern storage area 62. In the correlation data storage area 64, data relating to the association between the shape pattern data 62D and the arm motion control data 63D is stored as correlation data 64D. The correlation data 64D is configured to associate both data with the addresses of the shape pattern data 62D and the arm motion control data 63D. The interface control unit 65 functions as an interface when the exercise integration control unit 32 refers to data stored in the work history database 61. The pattern recognition processing unit 66 recognizes the shape pattern (new work object shape pattern) of the object in the work to be performed. The search processing unit 67 searches the object shape pattern storage area 62 for the new work object shape pattern recognized by the pattern recognition processing unit 66. The address management unit 68 performs address management of the storage areas 62, 63, and 64 for the object shape pattern, arm motion data, and correlation data.

以下、作業履歴データベース61を活用したアーム機構ユニット13の運動制御の要点について説明する。システム制御部31から例えば対象物2の把持作業の作業計画が運動統合制御部32に与えられると、運動統合制御部32は、視覚センシング情報処理部36から対象物2の位置情報とともに対象物2の形状データを取得する。対象物2の形状データを取得した運動統合制御部32は、作業履歴データベース61にアクセスする。作業履歴データベース61へのアクセスは、対象物2の形状データをもって行われる。インタフェース制御部65を介して対象物2の形状データを受け取った作業履歴データベース61は、その形状データから新規作業対象物形状パターンをパターン認識処理部66で認識する。パターン認識処理部66が認識した新規作業対象物形状パターンは検索処理部67に渡され、これを受けて、検索処理部67は、対象物形状パターン記憶領域62にアクセスし、そこに格納の形状パターンデータ62Dから新規作業対象物形状パターンと同一(ないしほぼ同一)のものを検索する。形状パターンデータ62Dに新規作業対象物形状パターンと同一のものがなかった場合には、その結果を運動統合制御部32に伝える。この場合、運動統合制御部32は、新たに運動制御データを生成し、それをアーム運動制御部34に送る。その新たに生成の運動制御データは、作業履歴データベース61に送られ、作業履歴データとして登録される。   Hereinafter, the main points of the motion control of the arm mechanism unit 13 using the work history database 61 will be described. For example, when a work plan for gripping the object 2 is given from the system control unit 31 to the motion integrated control unit 32, the motion integrated control unit 32 sends the object 2 together with the position information of the target 2 from the visual sensing information processing unit 36. Get shape data. The motion integrated control unit 32 that has acquired the shape data of the object 2 accesses the work history database 61. Access to the work history database 61 is performed using the shape data of the object 2. The work history database 61 that has received the shape data of the object 2 via the interface control unit 65 recognizes a new work object shape pattern from the shape data by the pattern recognition processing unit 66. The new work object shape pattern recognized by the pattern recognition processing unit 66 is transferred to the search processing unit 67. In response to this, the search processing unit 67 accesses the object shape pattern storage area 62 and stores the shape stored therein. The pattern data 62D is searched for the same (or almost the same) as the new work object shape pattern. If the shape pattern data 62D is not identical to the new work object shape pattern, the result is transmitted to the motion integrated control unit 32. In this case, the motion integrated control unit 32 newly generates motion control data and sends it to the arm motion control unit 34. The newly generated motion control data is sent to the work history database 61 and registered as work history data.

一方、検索処理部67が新規作業対象物形状パターンと同一であるとして形状パターンデータ62Dを抽出した場合、検索処理部67は、抽出した形状パターンデータ62Dに対応するアーム運動制御データ63Dのアドレスを相関データ記憶領域64から検索し、そのアドレスからアドレス管理部68を通じて対応のアーム運動制御データ63Dを取り出す。こうして取り出されたアーム運動制御データ63Dは、インタフェース制御部65を介して運動統合制御部32に渡される。アーム運動制御データ63Dを受け取った運動統合制御部32は、このアーム運動制御データ63Dを対象物2の把持作業における運動制御データとしてアーム運動制御部34に送る。こうした作業履歴データベース61の参照によりアーム運動制御データ63Dを取り出す処理は、運動統合制御部32が新たに運動制御データを生成する処理に比べて、処理時間が短くて済む。したがって過去の作業履歴を利用できるようにした本実施形態によれば、ハンド部23による対象物2の把持動作に至るまでの対象物2へのアプローチ動作をよりスムースに行えるようになる。   On the other hand, when the search processing unit 67 extracts the shape pattern data 62D as being the same as the new work object shape pattern, the search processing unit 67 sets the address of the arm motion control data 63D corresponding to the extracted shape pattern data 62D. The correlation data storage area 64 is searched, and the corresponding arm motion control data 63D is extracted from the address through the address management unit 68. The arm motion control data 63 </ b> D thus taken out is transferred to the motion integrated control unit 32 via the interface control unit 65. The motion integrated control unit 32 that has received the arm motion control data 63D sends the arm motion control data 63D to the arm motion control unit 34 as motion control data in the gripping operation of the object 2. The processing for retrieving the arm motion control data 63D by referring to the work history database 61 requires a shorter processing time than the processing in which the motion integrated control unit 32 newly generates motion control data. Therefore, according to the present embodiment in which the past work history can be used, the approach operation to the object 2 up to the grasping operation of the object 2 by the hand unit 23 can be performed more smoothly.

以上、本発明を実施する形態のいくつかについて説明したが、本発明は、こられの実施形態に限られるものでなく、その趣旨を逸脱することのない範囲で様々な形態で実施することができる。例えば以上の各実施形態は、走行式で自律移動するロボット装置についてのものであったが、歩行式のロボット装置にも適用でき、また移動機能を有しないロボット装置にも適用することができる。   Although some of the embodiments for carrying out the present invention have been described above, the present invention is not limited to these embodiments, and can be implemented in various forms without departing from the spirit of the present invention. it can. For example, each of the embodiments described above is for a robot device that travels and autonomously moves, but can also be applied to a walking robot device, and can also be applied to a robot device that does not have a moving function.

第1の実施形態によるロボット装置の全体的な外観構造を示す図である。It is a figure which shows the whole external appearance structure of the robot apparatus by 1st Embodiment. 図1のロボット装置の制御システムの構成を示す図である。It is a figure which shows the structure of the control system of the robot apparatus of FIG. 視覚センシング情報処理部による処理のようすをイメージ化して示す図である。FIG. 6 is a diagram illustrating an image of a process performed by a visual sensing information processing unit. 手先センシング情報処理部による処理のようすをイメージ化して示す図である。It is a figure which makes the image of the process of a hand sensing information processing part into an image, and shows it. アーム機構ユニットの構成例と駆動部の構成例を模式的に示す図である。It is a figure which shows typically the structural example of an arm mechanism unit, and the structural example of a drive part. アーム機構ユニットの運動制御についてのブロック線図である。It is a block diagram about the motion control of an arm mechanism unit. アーム運動制御ループの構成例のブロック線図である。It is a block diagram of the structural example of an arm motion control loop. アーム運動制御ループにおける流れを示す図である。It is a figure which shows the flow in an arm motion control loop. アーム機構ユニットの運動制御処理の流れを示す図である。It is a figure which shows the flow of the motion control process of an arm mechanism unit. 画像解像度切替え処理における処理の流れを示す図である。It is a figure which shows the flow of a process in an image resolution switching process. アーム機構ユニットの運動制御ループにおけるタイミングチャートを示す図である。It is a figure which shows the timing chart in the motion control loop of an arm mechanism unit. 画像明るさ指標による位置決め完了状態検出法における処理の流れを示す図である。It is a figure which shows the flow of a process in the positioning completion state detection method by an image brightness parameter | index. ハンド部使分け制御における処理の流れを示す図である。It is a figure which shows the flow of the process in hand part separate control. 第5の実施形態によるロボット装置における制御システムの構成を示す図である。It is a figure which shows the structure of the control system in the robot apparatus by 5th Embodiment. 作業履歴データベースの構成例を示す図である。It is a figure which shows the structural example of a work history database.

符号の説明Explanation of symbols

1 ロボット装置
2 対象物
13 アーム機構ユニット
21 視覚センサ
22 アーム部
23 ハンド部
24 手先センサ(側方視センサ、ハンド部センサ)
36 視覚センシング情報処理部(立体視センシング情報処理部)
37 手先センシング情報処理部
61 作業履歴データベース
63D アーム運動制御データ
DESCRIPTION OF SYMBOLS 1 Robot apparatus 2 Object 13 Arm mechanism unit 21 Visual sensor 22 Arm part 23 Hand part 24 Hand sensor (side view sensor, hand part sensor)
36 Visual Sensing Information Processing Unit (Stereoscopic Sensing Information Processing Unit)
37 Hand Sensing Information Processing Unit 61 Work History Database 63D Arm Movement Control Data

Claims (7)

アーム部と、該アーム部の先に設けられ対象物を把持する作業を行うハンド部と、前記対象物を撮影する視覚センサと、前記視覚センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する視覚センシング処理部と、該視覚センシング処理部で得られる前記対象物の位置情報に基づいて前記アーム部の運動を制御して前記ハンド部を前記対象物を把持する位置に位置決めするアーム運動制御部を備えてなるロボット装置において、
前記ハンド部の前記対象物を把持する側に前記対象物を撮影するハンド部センサと、該ハンド部センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する手先センシング処理部とを設け、
前記アーム運動制御部は、前記アーム部の運動を制御して前記ハンド部の位置を前記対象物を把持する位置に位置決めする過程で、前記視覚センシング処理部で得られる前記対象物の位置情報に基づいて、前記ハンド部と前記対象物との距離がしきい値以上の場合には、前記視覚センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動を制御し、前記ハンド部と前記対象物との距離がしきい値未満になった場合には、前記ハンド部センサによる前記手先センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動制御を行うことを特徴とするロボット装置。
Based on an arm unit, a hand unit that is provided at the tip of the arm unit and performs an operation of gripping an object, a visual sensor that images the object, and a plurality of object images obtained by imaging with the visual sensor A visual sensing processing unit for acquiring position information of the object, and controlling the movement of the arm unit based on the position information of the object obtained by the visual sensing processing unit to In a robot apparatus including an arm motion control unit positioned at a gripping position ,
The position information of the object is acquired based on a hand part sensor that photographs the object on the side of the hand part that grips the object and a plurality of object images obtained by photographing with the hand part sensor. A hand sensing processing unit,
The arm movement control unit controls the movement of the arm unit to position the position of the hand unit at a position where the object is gripped, in the position information of the object obtained by the visual sensing processing unit. When the distance between the hand unit and the object is greater than or equal to a threshold value, the movement of the arm unit is controlled using the position information of the object obtained by the visual sensing processing unit, and the hand When the distance between the part and the object is less than a threshold value, the movement of the arm part is controlled using the position information of the object obtained by the hand sensing processing part by the hand part sensor. A robotic device characterized by
請求項1に記載のロボット装置において、
前記アーム運動制御部は、前記視覚センシング処理部で得られる対象物の位置情報を用いて、前記対象物が動きのある動的対象物であるか、静止している静的対象物であるかを判定し、動的対象物である場合には、前記視覚センシング処理部で用いる前記対象物画像を低解像度に、静的対象物である場合には、前記対象物画像として高解像度に切替えることを特徴とするロボット装置。
In the robot apparatus according to claim 1,
The arm motion control unit uses the position information of the object obtained by the visual sensing processing unit to determine whether the object is a moving dynamic object or a static object that is stationary. When the object is a dynamic object, the object image used in the visual sensing processing unit is switched to a low resolution , and when the object is a static object, the object image is switched to a high resolution. features and be Carlo bot device.
請求項1又は2に記載のロボット装置において、
前記アーム運動制御部は、前記ハンド部センサにて前記対象物を撮影して得られる画像の明るさがしきい値以下になったことを条件にして、前記ハンド部が前記対象物に対して位置決め完了状態になったことを判定することを特徴とするロボット装置。
The robot apparatus according to claim 1 or 2,
The arm motion control unit, the brightness of the image obtained by photographing the object in the previous SL hand section sensor in the condition that falls below the threshold value, positioning the hand unit with respect to the object features and to Carlo bot device to determine that it is now completed state.
請求項1乃至3のいずれかに記載のロボット装置において、
前記アーム部と前記ハンド部は、それぞれ左右備えられてなり、
前記アーム運動制御部は、前記左右のハンド部センサにて前記対象物を撮影して得られる画像に基づいて前記対象物のサイズを推定し、その推定サイズがしきい値以上の場合には、前記左右のハンド部の両方を使う把持として制御し、前記推定サイズが前記しきい値未満の場合には、前記左右のハンド部のいずれか片方を使う把持とて制御することを特徴とするロボット装置。
The robot apparatus according to any one of claims 1 to 3,
The arm part and the hand part are respectively provided on the left and right,
The arm motion controller estimates a size of the object based at previous SL right and left hand portions sensor image obtained by photographing the object, if the estimated size is equal to or greater than the threshold value controls as a gripping use both the right and left hand portions, wherein when the estimated size is less than said threshold value, characterized a control child with a grip to use either one of the left and right hand portions and to Carlo bot apparatus.
請求項4に記載のロボット装置において、
前記アーム運動制御部は、前記左右のハンド部のいずれか片方を使う把持の場合に、前記対象物の前記左右のハンド部に対する位置関係に基づいて、前記左右のハンド部のいずれを前記対象物の把持に使うかを決めることを特徴とするロボット装置。
The robot apparatus according to claim 4, wherein
In the case of gripping using either one of the left and right hand parts , the arm motion control unit determines which of the left and right hand parts is the object based on the positional relationship of the object with respect to the left and right hand parts. robot apparatus according to claim to decide whether to use the grip.
請求項1乃至5のいずれかに記載のロボット装置において、
さらに、過去に行った把持作業についての前記アーム部と前記ハンド部を含むアーム機構ユニットの運動制御に関するアーム運動制御データを蓄積できる作業履歴データベースを備えてなり
前記アーム運動制御部は、新たな把持作業を行う際に、前記作業履歴データベースを検索し、新たに行おうとする把持作業に適用できるアーム運動制御データを抽出できた場合には、その抽出したアーム運動制御データに基づいて前記アーム機構ユニットの一連の運動の制御を行うことを特徴とするロボット装置。
The robot apparatus according to any one of claims 1 to 5,
Furthermore, it includes a work history database capable of storing arm motion control data relating to exercise control of the arm mechanism unit including the hand portion and the arm portion for gripping the work performed in the past,
The arm motion control unit searches the work history database when performing a new gripping work, and when arm motion control data applicable to the gripping work to be newly performed can be extracted, the extracted arm set of motion features and to Carlo bot device rows Ukoto the control of the arm mechanism unit based on the motion control data.
請求項6に記載のロボット装置において、
前記アーム運動制御部は、前記アーム運動制御データの適用可否を前記対象物の形状パターンに基づいて判定することを特徴とするロボット装置。
The robot apparatus according to claim 6, wherein
The arm motion control unit, the arm motion control characteristics and to Carlo bot device and Turkey be determined on the basis of the shape pattern of the object on the applicability of the information of the data.
JP2006152385A 2006-05-31 2006-05-31 Robot device Expired - Fee Related JP4578438B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006152385A JP4578438B2 (en) 2006-05-31 2006-05-31 Robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006152385A JP4578438B2 (en) 2006-05-31 2006-05-31 Robot device

Publications (2)

Publication Number Publication Date
JP2007319973A JP2007319973A (en) 2007-12-13
JP4578438B2 true JP4578438B2 (en) 2010-11-10

Family

ID=38853189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006152385A Expired - Fee Related JP4578438B2 (en) 2006-05-31 2006-05-31 Robot device

Country Status (1)

Country Link
JP (1) JP4578438B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479232B1 (en) * 2008-05-13 2015-01-06 삼성전자 주식회사 Robot, robot hand and method of controlling robot hand
US20100179689A1 (en) * 2009-01-09 2010-07-15 National Taiwan University Of Science And Technology Method of teaching robotic system
JP5521330B2 (en) * 2009-01-16 2014-06-11 株式会社安川電機 Transport system
KR101151707B1 (en) * 2009-12-30 2012-06-15 한국기술교육대학교 산학협력단 Robot-system By Color tracking sensor
JP5423441B2 (en) * 2010-02-03 2014-02-19 株式会社安川電機 Work system, robot apparatus, and manufacturing method of machine product
CN107756417A (en) * 2017-11-21 2018-03-06 北方民族大学 The intelligent man-machine co-melting robot system of both arms security cooperation
JP7044047B2 (en) * 2018-12-14 2022-03-30 トヨタ自動車株式会社 robot
CN111359193B (en) * 2020-04-02 2021-02-09 秦皇岛职业技术学院 Fighting training robot
JP7537360B2 (en) 2021-05-18 2024-08-21 トヨタ自動車株式会社 ROBOT CONTROL SYSTEM, MOBILE ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
WO2023188001A1 (en) * 2022-03-29 2023-10-05 日本電気株式会社 Robot system, processing method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6039087A (en) * 1983-08-12 1985-02-28 ダイセル化学工業株式会社 Robot
JPS61182786A (en) * 1985-02-08 1986-08-15 株式会社日立製作所 Body automatic gripping system by parallel gripper
JPH0970786A (en) * 1995-09-06 1997-03-18 Ricoh Co Ltd Holding hand
JPH10230484A (en) * 1997-02-24 1998-09-02 Nec Corp Machining work robot
JP2005205519A (en) * 2004-01-21 2005-08-04 Mitsubishi Electric Engineering Co Ltd Robot hand device
JP2006021300A (en) * 2004-07-09 2006-01-26 Sharp Corp Predicting device and holding device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6039087A (en) * 1983-08-12 1985-02-28 ダイセル化学工業株式会社 Robot
JPS61182786A (en) * 1985-02-08 1986-08-15 株式会社日立製作所 Body automatic gripping system by parallel gripper
JPH0970786A (en) * 1995-09-06 1997-03-18 Ricoh Co Ltd Holding hand
JPH10230484A (en) * 1997-02-24 1998-09-02 Nec Corp Machining work robot
JP2005205519A (en) * 2004-01-21 2005-08-04 Mitsubishi Electric Engineering Co Ltd Robot hand device
JP2006021300A (en) * 2004-07-09 2006-01-26 Sharp Corp Predicting device and holding device

Also Published As

Publication number Publication date
JP2007319973A (en) 2007-12-13

Similar Documents

Publication Publication Date Title
JP4578438B2 (en) Robot device
CN113696186B (en) Mechanical arm autonomous moving and grabbing method based on visual-touch fusion under complex illumination condition
US11090814B2 (en) Robot control method
JP6180087B2 (en) Information processing apparatus and information processing method
JP6180086B2 (en) Information processing apparatus and information processing method
KR100922494B1 (en) Method for measuring pose of a mobile robot and method and apparatus for measuring position of the mobile robot using the method
Du et al. Human–manipulator interface based on multisensory process via Kalman filters
KR101234798B1 (en) Method and apparatus for measuring position of the mobile robot
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
KR100693262B1 (en) Image processing apparatus
WO2012153629A1 (en) Device and method for controlling prediction of motion
JP2022542241A (en) Systems and methods for augmenting visual output from robotic devices
CN112183133A (en) Aruco code guidance-based mobile robot autonomous charging method
JP2009107043A (en) Gripping device and method of controlling gripping device
JP2008055584A (en) Robot for holding object and holding method of object by robot
CN111319039B (en) Robot
JP2008023630A (en) Arm-guiding moving body and method for guiding arm
JP2020163502A (en) Object detection method, object detection device, and robot system
US20140094951A1 (en) Working unit control device, working robot, working unit control method, and working unit control program
Han et al. Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning
Olsson et al. Force control and visual servoing using planar surface identification
JP2017077600A (en) Manipulator device
Chung et al. An intelligent service robot for transporting object
Kao et al. Ball catching with omni-directional wheeled mobile robot and active stereo vision
JP2014188642A (en) Robot and robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100824

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4578438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees