JP4578438B2 - Robot device - Google Patents
Robot device Download PDFInfo
- Publication number
- JP4578438B2 JP4578438B2 JP2006152385A JP2006152385A JP4578438B2 JP 4578438 B2 JP4578438 B2 JP 4578438B2 JP 2006152385 A JP2006152385 A JP 2006152385A JP 2006152385 A JP2006152385 A JP 2006152385A JP 4578438 B2 JP4578438 B2 JP 4578438B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- unit
- arm
- gripping
- motion control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボット装置に関し、特に対象物の把持作業を行えるようにされているロボット装置に関する。 The present invention relates to a robot apparatus, and more particularly to a robot apparatus configured to perform a gripping operation of an object.
最近はロボット(ロボット装置)の開発が急速に進んでおり、幅広い分野での応用が期待されるようになってきている。特に、人との共生を目的としたタイプで、「ヒューマノイド」という名称で分類されるロボットについて、人の行動を支援するなどの人との協調作業に関する開発が精力的に進められている。 Recently, the development of robots (robot devices) has been rapidly progressing, and applications in a wide range of fields are expected. In particular, for robots that are symbiotic with humans and classified under the name “humanoid”, development related to collaborative work with people, such as supporting human behavior, has been energetically promoted.
人との協調作業の例としては、荷物の持ち運びのような作業が代表的なものとして挙げられる。このような作業の場合、ロボットは、アーム部の先端に設けられているハンド部をアーム部の運動により対象物(荷物)の位置まで動かして対象物を把持する動作を行う。すなわちロボットは、対象物位置の認識、ハンド部の対象物位置への位置決め、ハンド部による対象物の把持という一連の認識処理や動作を行う必要がある。そのためにロボットには、把持対象物の位置を認識する能力やアーム部でハンド部を対象物の把持可能な位置に位置決めさせる能力などが必要となる。 A typical example of cooperative work with people is a work such as carrying luggage. In the case of such work, the robot performs an operation of moving the hand unit provided at the tip of the arm unit to the position of the target object (luggage) by the movement of the arm unit and gripping the target object. That is, the robot needs to perform a series of recognition processes and operations such as recognition of the object position, positioning of the hand unit at the object position, and gripping of the object by the hand unit. Therefore, the robot needs to have the ability to recognize the position of the object to be grasped and the ability to position the hand part at a position where the object can be grasped by the arm part.
把持対象物などの位置認識に関しては、立体視センシング(視覚センシング)と呼ばれる技術が知られている。立体視センシングは、カメラで撮影した画像を用いる画像計測技術であり、把持対象物などについて適切な視差(視差角)を得られるようにして撮影した複数の対象物画像から把持対象物などのロボットに対する位置を計測して認識する。又はハンド部の対象物への位置決めに関しては、視覚サーボ(又は視覚フィードバック)と呼ばれる技術が知られている。視覚サーボでは、立体視センシングで得られる対象物の位置データと同じく立体視センシングで得られるアーム部やハンド部の位置データに基づいたフィードバック制御でアーム部によりハンド部を移動させながら対象物に対してその把持が可能となる位置に位置決めさせる。こうしたロボット技術に関しては、例えば特許文献1〜3に開示の例がある。
A technique called stereoscopic sensing (visual sensing) is known for position recognition of a grasped object or the like. Stereoscopic sensing is an image measurement technique using an image captured by a camera, and a robot such as a gripping object from a plurality of target images captured so as to obtain an appropriate parallax (parallax angle) for the gripping object. Measure and recognize the position relative to. Alternatively, a technique called visual servo (or visual feedback) is known for positioning the hand unit on an object. In visual servoing, the position of the object obtained by stereoscopic sensing is the same as the position data of the arm and hand obtained by stereoscopic sensing, and feedback control based on the position data of the arm and hand is used to move the hand with the arm. And position it at a position where it can be gripped. For example,
ロボットにおける対象物の把持動作、特に人との協調作業としての対象物把持作業については、人の自然な動作に近いようなスムース性をもって行えるようにすることが望まれる。このような観点において、立体視センシングやそれに基づく視覚サーボは、スムース性要求にそれなりに応えているものの、必ずしも十分といえず、さらに改善の余地がある。 It is desired that the object grasping operation in the robot, particularly the object grasping operation as a cooperative operation with a person, can be performed with smoothness similar to a natural operation of a person. From this point of view, stereoscopic sensing and visual servoing based on it have responded appropriately to the smoothness requirement, but are not necessarily sufficient, and there is room for further improvement.
また対象物に対して位置決めした後に必要となるハンド部による対象物の把持動作については、依然として問題が多い。ハンド部による対象物の把持では、把持を安定的に行えるようにするために、対象物に対して安定把持ポイントを探して把持を行う必要がある。そして安定把持ポイントを素早く特定するには、対象物の奥行き情報(奥行き方向のサイズ情報)が必要となる。しかるに、立体視センシングを用いただけの従来の技術では、対象物に対する直線的な運動により最短距離で対象物にアプローチする状態にあっては、十分な奥行き情報を取得することができない。そのため従来ではハンド部の把持動作を応力センシングで行わせるようにしている。応力センシングでは、ハンド部に応力センサが埋め込んであり、把持動作の開始にともなってハンド部にかかる応力状態を応力センサで検出し、その応力状態検出に基づいて試行錯誤的に安定把持ポイントを探して把持を行う。こうした応力センシング法では、安定把持ポイントの探索に時間がかかる。その結果、把持動作がぎこちないないものとなり、スムース性に劣ることになっていた。 Further, there are still many problems with the gripping operation of the object by the hand unit that is necessary after positioning with respect to the object. In grasping an object by the hand unit, it is necessary to find and grasp the object with a stable grasp point so that the object can be grasped stably. In order to quickly identify the stable gripping point, depth information (size information in the depth direction) of the object is required. However, with the conventional technology that only uses stereoscopic sensing, sufficient depth information cannot be acquired when the object is approached at the shortest distance by a linear motion with respect to the object. Therefore, conventionally, the gripping operation of the hand unit is performed by stress sensing. In stress sensing, a stress sensor is embedded in the hand part. The stress state applied to the hand part at the start of the gripping operation is detected by the stress sensor, and a stable gripping point is found by trial and error based on the detection of the stress state. To grip. In such a stress sensing method, it takes time to search for a stable gripping point. As a result, the gripping operation becomes awkward and the smoothness is inferior.
本発明は、以上のような事情を背景になされたものであり、対象物把持機能を有しているロボットについて、対象物のハンド部による把持動作をよりスムースに行えるようにすることを課題としている。 The present invention has been made against the background of the above circumstances, a robot having an object gripping function, a challenge to make it perform a gripping operation by the hand of the object more smoothly Yes.
本発明では上記課題を解決するために、アーム部と、該アーム部の先に設けられ対象物を把持する作業を行うハンド部と、前記対象物を撮影する視覚センサと、前記視覚センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する視覚センシング処理部と、該視覚センシング処理部で得られる前記対象物の位置情報に基づいて前記アーム部の運動を制御して前記ハンド部を前記対象物を把持する位置に位置決めするアーム運動制御部を備えてなるロボット装置において、前記ハンド部の前記対象物を把持する側に前記対象物を撮影するハンド部センサと、該ハンド部センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する手先センシング処理部とを設け、前記アーム運動制御部は、前記アーム部の運動を制御して前記ハンド部の位置を前記対象物を把持する位置に位置決めする過程で、前記視覚センシング処理部で得られる前記対象物の位置情報に基づいて、前記ハンド部と前記対象物との距離がしきい値以上の場合には、前記視覚センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動を制御し、前記ハンド部と前記対象物との距離がしきい値未満になった場合には、前記ハンド部センサによる前記手先センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動制御を行うことを特徴とする。 In the present invention, in order to solve the above-described problem , an arm portion, a hand portion that is provided at the tip of the arm portion and performs an operation of gripping an object, a visual sensor that images the object, and an image captured by the visual sensor A visual sensing processing unit that acquires position information of the target object based on a plurality of target object images obtained by performing the movement of the arm unit based on the positional information of the target object obtained by the visual sensing processing unit. In a robot apparatus including an arm motion control unit that controls and positions the hand unit at a position for gripping the object, a hand unit sensor that images the object on the side of the hand unit that grips the object And a hand sensing processing unit that acquires position information of the object based on a plurality of object images obtained by photographing with the hand unit sensor, the arm motion control unit In the process of controlling the movement of the arm part and positioning the position of the hand part to a position for gripping the object, the hand part and the hand part based on the position information of the object obtained by the visual sensing processing part When the distance to the object is equal to or greater than a threshold value, the movement of the arm unit is controlled using the position information of the object obtained by the visual sensing processing unit, and the hand unit and the object When the distance is less than a threshold value, the movement control of the arm unit is performed using the position information of the object obtained by the hand sensing processing unit by the hand unit sensor .
このようなロボット装置では、ハンド部センサを用いた手先センシング処理部により対象物の側面情報として対象物の安定把持ポイントを求めることができる。そのため、上述した従来の応力センシングのように試行錯誤的に安定把持ポイントを探す必要がなくなり、安定把持ポイントをすばやく決めることができ、対象物の把持動作をよりスムースに行えるようになる。 In such a robot apparatus, a stable gripping point of an object can be obtained as side information of the object by a hand sensing processing unit using a hand part sensor . Therefore, there is no need to search for a stable gripping point by trial and error as in the conventional stress sensing described above, the stable gripping point can be determined quickly, and the gripping operation of the object can be performed more smoothly.
上記のようなロボット装置については、ハンド部センサを前記ハンド部の前記対象物を把持する側に設けるようにするのが好ましい。このようにすることで、ハンド部センサに手先センシング以外にも多様な機能を持たせることができ、機能性をより高めることができる。 In the robot apparatus as described above, it is preferable to provide a hand unit sensor on the side of the hand unit that holds the object . By doing in this way, a hand part sensor can be given various functions other than hand sensing , and functionality can be raised more.
また、本発明のロボット装置では、視覚センサによる視覚センシング処理部で得る対象物位置情報とハンド部センサによる手先センシング処理部で得る対象物位置情報をハンド部と対象物の距離に応じて使い分けることで、ハンド部の対象物に対する位置決めにけるアーム部の運動制御をより高精度で行うことができ、したがって把持動作に至るまでの対象物へのアプローチ動作をよりスムースに行えるようになる。 Further, in the robot apparatus of the present invention, the object position information obtained by the visual sensing processing unit by the visual sensor and the object position information obtained by the hand sensing processing unit by the hand part sensor are properly used according to the distance between the hand part and the object. Thus, the movement control of the arm part in positioning the hand part with respect to the object can be performed with higher accuracy, and therefore the approaching operation to the object until the gripping operation can be performed more smoothly.
本発明において、前記アーム運動制御部は、前記視覚センシング処理部で得られる対象物の位置情報を用いて、前記対象物が動きのある動的対象物であるか、静止している静的対象物であるかを判定し、動的対象物である場合には、前記視覚センシング処理部で用いる前記対象物画像を低解像度に、静的対象物である場合には、前記対象物画像として高解像度に切替えるようにすることができる。 In the present invention, the arm motion control unit uses the position information of the object obtained by the visual sensing processing unit, and the object is a dynamic object that moves or a static object that is stationary. When the object is a dynamic object, the object image used in the visual sensing processing unit has a low resolution. When the object image is a static object, the object image is a high object image. It is possible to switch to the resolution .
このようなロボット装置によれば、動的対象物については、対象物画像の解像度、つまり位置情報の精度よりも位置情報取得処理の速度を重視する低解像度処理を適用することで、動的対象物に対する把持作業、特に把持作業における対象物へのアプローチ動作をよりスムースに行えるようになる。その一方で、静的対象物については、位置情報取得処理の速度よりも位置情報の精度を重視する高像解度処理を適用することで、上記アプローチ動作をよりスムースに行えるようになる。 According to such a robot apparatus, for a dynamic object, by applying a low resolution process in which the resolution of the object image, that is, the speed of the position information acquisition process is more important than the accuracy of the position information, A gripping operation on an object, particularly an approach operation to an object in the gripping operation can be performed more smoothly. On the other hand, for static objects, the approach operation can be performed more smoothly by applying high image resolution processing that places greater importance on the accuracy of position information than the speed of position information acquisition processing.
また、本発明において、前記アーム運動制御部は、前記ハンド部センサにて前記対象物を撮影して得られる画像の明るさがしきい値以下になったことを条件にして、前記ハンド部が前記対象物に対して位置決め完了状態になったことを判定するようにすることができる。 Further, in the present invention, the arm motion control unit, before Symbol brightness of an image obtained by photographing the object at hand section sensor in the condition that falls below the threshold value, the hand portion is the It can be determined that the positioning has been completed with respect to the object .
こうしたロボット装置における位置決め完了状態判定は、対象物に対してハンド部が位置決め完了する状態になると、ハンド部センサが対象物で遮蔽されてハンド部センサによる画像が暗くなるという事象を利用することでなされる。このようなロボット装置によれば、位置決め完了状態の判定をより容易に行えるようになり、そのため、より高精度な位置決め完了状態をハンド部にとらせることを可能となり、ハンド部による把持作業、特に把持作業におけるハンド部の対象物への位置決め動作をよりスムースに行えるようになる。 Positioning completion status determination in such a robotic device is based on the fact that when the hand unit is positioned with respect to the target, the hand unit sensor is shielded by the target and the image of the hand unit sensor becomes dark. Made. According to such a robot apparatus, it becomes possible to more easily determine the positioning completion state. Therefore, it becomes possible to cause the hand unit to take a positioning completion state with higher accuracy. The positioning operation of the hand part on the object in the gripping work can be performed more smoothly.
また本発明では、前記アーム部と前記ハンド部は、それぞれ左右備えて構成し、前記アーム運動制御部は、前記左右のハンド部センサにて前記対象物を撮影して得られる画像に基づいて前記対象物のサイズを推定し、その推定サイズがしきい値以上の場合には、前記左右のハンド部の両方を使う把持として制御し、前記推定サイズが前記しきい値未満の場合には、前記左右のハンド部のいずれか片方を使う把持とて制御することができる。 With this embodiment, the hand portion and the arm portion, and configured to include left and right, the arm motion control unit, based on an image obtained by photographing the object in front Symbol right and left hand portions sensor estimating the size of the object, if the estimated size is equal to or greater than the threshold value, and controls the gripping use both the right and left hand portions, if the estimated size is less than said threshold value The gripping using one of the left and right hand portions can be controlled .
このようなロボット装置によれば、対象物の大きさに応じた効率的な、つまり無駄のない把持作業を行うことができ、把持作業、特に把持作業における対象物へのアプローチ動作をよりスムースに行えるようになる。 According to such a robot apparatus, it is possible to perform an efficient, that is, wasteful gripping operation according to the size of the object, and smoother the approaching operation to the target object in the gripping work, particularly the gripping work. You can do it.
上記のようなロボット装置については、左右のハンド部のいずれか片方を使う把持の場合に、前記対象物の前記左右のハンド部に対する位置関係に基づいて、前記左右のハンド部のいずれを前記対象物の把持に使うかを決めることができるようにするとさらに好ましい。 For the robot apparatus as described above, in the case of gripping using either one of the left and right hand parts, based on the positional relationship of the object with respect to the left and right hand parts, any of the left and right hand parts is selected as the target. It is more preferable to be able to decide whether to use for gripping an object.
さらに、本発明は、過去に行った把持作業についての前記アーム部と前記ハンド部を含むアーム機構ユニットの運動制御に関するアーム運動制御データを蓄積できる作業履歴データベースを備えて構成することができる。この場合、前記アーム運動制御部は、新たな把持作業を行う際に、前記作業履歴データベースを検索し、新たに行おうとする把持作業に適用できるアーム運動制御データを抽出できた場合には、その抽出したアーム運動制御データに基づいて前記アーム機構ユニットの一連の運動の制御を行う構成とすることができる。 Furthermore, the present invention can be configured to include a work history database that can store arm motion control data related to motion control of an arm mechanism unit including the arm portion and the hand portion regarding a gripping work performed in the past . In this case, when performing a new gripping work , the arm motion control unit searches the work history database, and if arm motion control data applicable to the gripping work to be newly performed can be extracted, extracted control of a series of movements of the arm mechanism unit based on the arm motion control data can be configured intends row.
このように過去に行った把持作業における運動制御データを活用できるようにすることにより、運動制御における処理時間を短縮することができ、ハンド部による対象物の把持動作に至るまでの対象物へのアプローチ動作をよりスムースに行えるようになる。 Thus, by making it possible to utilize the motion control data in the gripping work performed in the past, the processing time in the motion control can be shortened, and the object up to the gripping operation of the target by the hand unit can be reduced. The approach operation can be performed more smoothly.
上記のようなロボット装置については、前記アーム運動制御データの適用可否を前記対象物の形状パターンに基づいて判定できるようにするのが、より効果的に判定できるという点で、好ましい。 For the robot apparatus as described above, it is preferable that the applicability of the arm motion control data can be determined based on the shape pattern of the object in terms of more effective determination.
以上のような本発明によれば、対象物把持機能を有しているロボットについて、対象物のハンド部による把持動作をよりスムースに行わせることが可能となる。また以上のような本発明によれば、ハンド部による把持動作に至るまでの対象物へのアプローチ動作をより高いスムース性をもって行えるようになる。 According to the present invention as described above, it is possible to more smoothly perform a gripping operation by a hand portion of an object with respect to a robot having an object gripping function. Further, according to the present invention as described above, the approaching operation to the object up to the gripping operation by the hand unit can be performed with higher smoothness.
以下、本発明を実施するための形態について説明する。図1に、第1の実施形態によるロボット装置1の全体的な外観構造を対象物2に対する把持作業状態に関して示す。ロボット装置1は、ヘッド機構ユニット11が上端に取り付けられた胴体ユニット12を備え、また胴体ユニット12の肩部に取り付けられた左右のアーム機構ユニット13L、13Rを備え、さらに胴体ユニット12の下端に取り付けられた走行ユニット14を備えている。そして人からの音声などによる指令を受けて、例えば対象物2に近づいてそれを把持して持ち運ぶなどの作業を行えるようにされている。なお、アーム機構ユニット13L、13Rのように左右で対になる要素は左右とも同一の構成を有する。そこで以下では、「アーム機構ユニット13」のように適宜にLやRを省略した記載とすることもある。
Hereinafter, modes for carrying out the present invention will be described. FIG. 1 shows an overall appearance structure of the
ヘッド機構ユニット11は、例えば首振りのような所定の動作を行えるようにされ、左右の視覚センサ21L、21Rが組み込まれている。視覚センサ21L、21Rは、視覚センシング(立体視センシング)のために用いられる。すなわち立体視を可能とする条件の下で、対象物2などの位置を認識するのに用いられる。立体視センシングは、上述のように、カメラで撮影した画像を用いる画像計測技術であり、例えば対象物2について適切な視差を得られるようにして撮影した複数の画像から対象物2のロボット装置1に対する位置を計測して認識する。したがって視覚センサ21にはデジタル式の撮影手段が用いられる。また2つの視覚センサ21L、21Rは、適切な視差が得られるような距離だけ離して設けられている。
The
胴体ユニット12には、ロボット装置1の様々な動作などを制御するための後述のような制御システムなどが組み込まれている。
The
アーム機構ユニット13は、アーム部22(22L、22R)とその先端に接続されたハンド部23(23L、23R)からなり、例えば対象物2の把持作業の場合であれば、アーム部22の運動でハンド部23を対象物2に位置決めさせ、それからハンド部23で対象物2を把持するといった作業を行えるようにされている。
The
ハンド部23は、対象物2の持運び作業や例えばエレベータの操作ボタンの押下といったようなボタン押下作業などを行うのに適した構造に構成されている。このハンド部23には、ハンド部センサとして手先センサ24(24L、24R)が組み込まれている。手先センサ24は、左右対で設けられていることから、把持のような動作の場合に対象物2を近接位置で捉える近接視覚センシング(近接立体視センシング)のための近接視覚センサとして機能する。また手先センサ24は、対象物2をその側面から捉える側方視センシングのための側方視センサとして機能する。こうした手先センサ24は、デジタル式の撮影手段を用いて構成される。ここで、対象物2の側面とは、視覚センシングで捉える対象物2の方向を正面として、この正面に交差する面のことである。また側方視センシングとは、側方視センサ、具体的には手先センサ24で捉える対象物2の側面画像に基づいて対象物2の側面形状情報や奥行き情報あるいは対象物2の安定把持ポイントの情報などのような側面情報を取得する手法であり、本実施形態の場合、側方視センサとして手先センサ24を用いているので手先センシングと呼ぶこともできる。
The hand unit 23 is configured to have a structure suitable for carrying the
走行ユニット14は、走行駆動部26とこれに接続された左右の走行車輪27(27L、27R)で構成され、ロボット装置1の移動運動のための走行を行わせるユニットであり、走行駆動部26で走行車輪27を回転駆動させてロボット装置1に走行移動を行わせる。
The traveling
図2に、ロボット装置1の制御システムの構成を示す。本実施形態における制御システム30は、システム制御部31、運動統合制御部32、走行制御部33、アーム運動制御部34、ヘッド運動制御部35、視覚センシング情報処理部36、及び手先センシング情報処理部37を備えている。
FIG. 2 shows the configuration of the control system of the
システム制御部31は、ロボット装置1が行う作業やそれに伴う運動などに関する全体的な制御を行う全体制御部である。その制御対象には、人からの音声指令に対する音声認識などにおける対話インターフェイスの制御、人からの指令などに基づく作業計画などの策定、バッテリ管理、機構系や電気系の制御などがある。
The
運動統合制御部32は、システム制御部31で策定された作業計画の内容に応じて、ヘッド機構ユニット11、アーム機構ユニット13、走行ユニット14それぞれの動作計画を作成する。また運動統合制御部32は、作成した動作計画に基づきつつ、視覚センシング情報処理部36や手先センシング情報処理部37からの後述のような位置情報などのデータを用いて必要な制御データを所定のデータ形式で生成し、それを走行、アーム運動、ヘッド運動の各制御部33〜35に提供する。ここで、所定のデータ形式とは、走行、アーム運動、ヘッド運動の各制御部33〜35が必要な制御処理を実行できるようにしてデータ形式である。
The motion integrated
走行、アーム運動、ヘッド運動の各制御部33〜35は、運動統合制御部32から受信した制御データを用いて対応する機能ユニット(ヘッド機構ユニット11、アーム機構ユニット13、走行ユニット14のいずれか)を駆動する。その結果として、ロボット装置1はシステム制御部31で計画された作業を実行することになる。
The travel, arm motion, and head
視覚センシング情報処理部36と手先センシング情報処理部37は、システム制御部31で計画された作業の内容に応じたセンシング情報処理を行う。作業が対象物2の把持の場合、視覚センシング情報処理部36は、視覚センサ21を用いる視覚センシングにより、ロボット装置1と対象物2の位置関係や対象物2とハンド部23の位置関係を認識する処理を行い、それで得られる位置情報を運動統合制御部32に提供する。同じく作業が対象物2の把持の場合、手先センシング情報処理部37は、近接位置視覚センシングにより対象物2とハンド部23の位置関係を認識する処理を行い、また対象物2の側面側からの画像に基づく側方視センシングにより対象物2の側面形状や奥行きあるいは対象物2の安定把持ポイントを認識する処理を行い、それで得られる位置情報や奥行き情報などを側面情報として運動統合制御部32に提供する。そして運動統合制御部32が視覚センシング情報処理部36や手先センシング情報処理部37から提供された側面情報をアーム運動制御部34に提供し、これを受けてアーム運動制御部34がアーム部22の運動によるハンド部23の対象物2に対する位置決めやハンド部23による対象物2の把持動作を制御する。
The visual sensing
図3に、視覚センシング情報処理部36による処理のようすをイメージ化して示す。2つの視覚センサ21(21L、21R)は、距離L0だけ離されており、ともに同じ焦点距離fを有している。この条件において、視覚センシング情報処理部36は、視覚センサ21で対象物2をその正面方向から撮影した画像(対象物正面画像)から対象物2上の点Pの3次元の座標(x、y、z)を求める。視覚センサ21の焦点距離fは対象物正面画像のZ軸方向の座標に相当することから、視覚センサ21Lによる対象物正面画像における点Pの座標は(xL、yL、f)となり、視覚センサ21Rによる対象物正面画像における点Pの座標は(xR、yR、f)となる。このとき、点Pは以下の(1)式で与えられる。
FIG. 3 shows an image of the processing performed by the visual sensing
視覚センシング情報処理部36は、画像処理部41、画像認識処理部42、及び位置情報出力部43を備えている。画像処理部41は、視覚センサ21の出力信号を取り込んで2次元の画像データ(対象物正面画像)を生成する。画像認識処理部42は、微分演算処理などのコンピュータプログラムを用い、対象物正面画像中の対象物2についてその特徴点を点Pとして抽出する。位置情報出力部43は、2つの視覚センサ21L、21Rそれぞれによる対象物正面画像から(1)式により特徴点Pの3次元座標(x、y、z)を求め、それを対象物2の位置情報として運動統合制御部32に送る。
The visual sensing
図4に、手先センシング情報処理部37による処理のようすをイメージ化して示す。手先センシング情報処理部37は、手先センサ24で撮影した対象物2の側面2sの画像(対象物側面画像)から対象物2の奥行き情報などの側面情報を生成する。そのために手先センシング情報処理部37は、画像処理部45、画像認識処理部46、及び出力データ生成部47を備えている。画像処理部45は、手先センサ24の出力信号を取り込んで2次元の画像データ(対象物側面画像)を生成する。画像認識処理部46は、対象物側面画像から対象物2の側面2sを抽出したり、その抽出した側面2sについて安定把持ポイントを抽出したりする。出力データ生成部47は、抽出された対象物2の側面2sについて、その奥行きを計測したり、抽出された安定把持ポイントの3次元座標を特徴点Pの3次元座標に基づいて求めたりし、それらを運動統合制御部32に送る。
FIG. 4 shows an image of processing performed by the hand sensing
図5に、アーム機構ユニット13の具体的な構成の例をアーム運動制御部34の具体的な構成例と関係させて模式的に示すとともに、アーム機構ユニット13における駆動部の構成例を模式的に示す。アーム機構ユニット13は、駆動構造についてアーム部22とハンド部23が一体的に構成されている。すなわちアーム機構ユニット13は、アーム部22とハンド部23を駆動構造的に一体として、7つの回転型の駆動部51(51a〜51g)を備えており、これらの駆動部51の回転動が独立に制御されることで、アーム部22やハンド部23の複雑な運動や動作を実現できるようにされている。なお、図5の記号表示において、駆動部51a、51c、51eは、紙面に対して垂直な方向に回転し、駆動部51b、51d、51f、51gは、紙面に対して平行な方向な方向に回転することを意味している。
FIG. 5 schematically illustrates an example of a specific configuration of the
各駆動部51は、いずれも基本的に同一の構成とされている。具体的には、図5の(b)に示すように、モータ52の回転が駆動軸53を介してギア54に伝えられ、そのギア54の回転を受けて駆動部51が回転するようにされている。また駆動部51の回転量は、ギア54の回転量として、ギア54に噛合するギア55からギア軸56を介してエンコーダ57で検出できるようにされている。エンコーダ57の検出データは、アーム機構ユニット13に実装された配線(図示を省略)とコネクタ58を介してアーム運動制御部34に提供される。
Each drive unit 51 has basically the same configuration. Specifically, as shown in FIG. 5B, the rotation of the
アーム運動制御部34は、1つのアーム運動制御回路34aを備え、また7つの駆動部51a〜51gのそれぞれに対応させて設けられた7つのモータ駆動制御回路62(62a〜621g)を備えている。エンコーダ57からのデータはモータ駆動制御回路62に入力する。モータ駆動制御回路62は、アーム運動制御回路34aから予め与えられている駆動部51の回転量が実行されるまで、エンコーダ57からのデータをモニタしながら、モータ52に駆動信号を送る。アーム機構ユニット13は、こうした手順によりその動作を実行する。
The arm
以上のようなアーム機構ユニット13の運動、例えば対象物2の把持のためにハンド部23を対象物2に位置決めする運動は、視覚センシング情報処理部36と手先センシング情報処理部37を併用して得られる手先位置情報つまりハンド部23と対象物2の位置関係情報に基づいて制御される。そのようなアーム機構ユニット13の運動制御についてのブロック線図を図6に示す。
The movement of the
対象物2の位置をハンド部23の移動先位置とした指令値が入力されると、その指令値をアーム機構ユニット13の駆動部51における回転角度に変換する処理つまり関節角度変換処理を経て、アーム運動制御ループが実行される。アーム運動制御ループによりアーム部22が運動を行った結果、ハンド部23の位置が変化する。ハンド部23の位置は、視覚センシング情報処理部36による視覚センシング処理と手先センシング情報処理部37による手先センシング処理でフィードバックされる。こうした手先位置情報処理においては、後述する手順で手先センシング処理による位置情報と視覚センシング処理による位置情報を組み合わせて用いる。そしてそうした位置情報による対象物2の位置(移動先位置)とハンド部23の位置の差分を算出しながら、その差分が0となるまで上述の処理を繰り返すことで、ハンド部23を対象物2の位置まで正確に移動させることができる。
When a command value with the position of the
図7に、アーム運動制御ループの具体的な構成例をブロック線図で示す。アーム運動制御部34では、アーム機構ユニット13における各駆動部51に必要な動作を行わせるについて、回転角度に加え、角速度と角加速度も用いる。この場合、指令する角速度や角加速度がモータの回転動作の許容値を超えないようにする必要があり、そのためにリミッタ処理を施す。図7の(b)に、関節角度の上限値と下限値に対する角速度の拘束条件を示してある。関節角度の上限値と下限値近傍の関節角度θにおける角速度ωは、下記の式(2)、(3)で与えられる。
FIG. 7 is a block diagram showing a specific configuration example of the arm motion control loop. The arm
ω=ωmax×sqrt{α×(θmax−θ)}…………(2)
ω=ωmin×sqrt{α×(θ−θmin)}…………(3)
ここで、ωmaxとωminは、それぞれ角速度の上限値と下限値であり、θmaxとθminは、それぞれ駆動部51の回転角度の上限値と下限値であり、αは定数としての減衰係数である。
ω = ωmax × sqrt {α × (θmax−θ)} ………… (2)
ω = ωmin × sqrt {α × (θ−θmin)} (3)
Here, ωmax and ωmin are respectively an upper limit value and a lower limit value of the angular velocity, θmax and θmin are respectively an upper limit value and a lower limit value of the rotation angle of the drive unit 51, and α is an attenuation coefficient as a constant.
図8に、以上のようなアーム運動制御ループにおける処理の流れを示す。駆動部51の回転角度(関節角度)の指令値θRefを読み込み、駆動部51の現在の回転角度θActと指令値θRefの差分Δθを求め、さらに差分Δθから角速度指令値ωRefを求める。角速度指令値ωRefが許容範囲を逸脱している場合には、角速度の上限値ωmaxと下限値ωminで制限をかける、つまりリミッタ処理を施す。それには、図7の(b)に示した駆動部51の回転角度と角速度の拘束関係を角速度指令値ωRefに適用する。次に、角速度指令値ωRefと現在の角速度ωActの差分Δωを求め、さらにその差分Δωから角加速度指令値βRefを求める。角加速度指令値βRefが許容範囲を逸脱している場合には、角加速度の上限値βmaxと下限値βminでリミッタ処理する。次に、リミッタ処理が施された角加速度指令値βRefを出力するとともに、制御の実行周期を積分することで角速度指令値ωRefを求めなおす。次に、角速度指令値ωRefを出力するとともに、駆動部51の回転角度の指令値θRefを計算する。そして最後に、指令値θRefを駆動部51の新しい回転角度として出力する。ここで、以上のような処理においては、角速度や角加速度にスムージング処理を施すと、最終段で出力される駆動部51の回転角度指令値θRefが本来の角度より変化が緩やかになって絶対値がずれる可能性がある。そこで、駆動部51の回転角度に誤差を生じないようにしるために、角加速度指令値βRefにオフセット処理を施すなどの補正処理を図7の(a)のアルゴリズムに加えるようにする。そのようにすることで、アーム機構ユニット13の動作時における高い位置精度を維持することができる。
FIG. 8 shows the flow of processing in the arm motion control loop as described above. The command value θRef of the rotation angle (joint angle) of the drive unit 51 is read, the difference Δθ between the current rotation angle θAct of the drive unit 51 and the command value θRef is obtained, and the angular velocity command value ωRef is obtained from the difference Δθ. When the angular velocity command value ωRef deviates from the allowable range, the angular velocity upper limit value ωmax and the lower limit value ωmin are limited, that is, limiter processing is performed. For this purpose, the constraint relationship between the rotation angle and the angular velocity of the drive unit 51 shown in FIG. 7B is applied to the angular velocity command value ωRef. Next, a difference Δω between the angular velocity command value ωRef and the current angular velocity ωAct is obtained, and an angular acceleration command value βRef is obtained from the difference Δω. When the angular acceleration command value βRef is out of the allowable range, limiter processing is performed with the upper limit value βmax and the lower limit value βmin of the angular acceleration. Next, the angular acceleration command value βRef subjected to the limiter process is output, and the angular velocity command value ωRef is obtained again by integrating the execution period of the control. Next, the angular velocity command value ωRef is output, and the command value θRef of the rotation angle of the drive unit 51 is calculated. Finally, the command value θRef is output as a new rotation angle of the drive unit 51. Here, in the processing as described above, when the smoothing process is performed on the angular velocity and the angular acceleration, the rotation angle command value θRef of the drive unit 51 output in the final stage becomes more gradually changed than the original angle and becomes an absolute value. May shift. Therefore, in order to prevent an error in the rotation angle of the drive unit 51, correction processing such as performing offset processing on the angular acceleration command value βRef is added to the algorithm shown in FIG. By doing so, high positional accuracy during operation of the
以上のようなアーム機構ユニット13の運動制御は、対象物2に対してハンド部23を位置決めさせた後に対象物2を把持する作業である場合、図9に示す手順で行われる。まず、ステップ201において対象物2の位置情報を視覚センシング情報処理部36から取得する(対象物位置取得処理)。ステップ202では、対象物2の位置をハンド部23の移動先位置とした指令値が生成される(移動先指令値生成処理)。ステップ203では、ハンド部23の位置(手先位置)を視覚センシング情報処理部36から取得する(ハンド部位置取得処理)。ステップ204では、対象物位置とハンド部位置の距離Dを求める(距離算出処理)。ステップ205では距離Dが0であるかを判定する(第1の距離判定処理)。第1の距離判定の結果が否定的な場合にはステップ206の処理を行う。
The above-described motion control of the
ステップ206では、距離Dが距離しきい値以下であるかを判定する(第2の距離判定処理)。第2の距離判定の結果が否定的な場合には、ステップ207として、視覚センシング情報処理部36による位置情報の下で、距離Dを0とするためのアーム機構ユニット13の関節回転角度を算出し(関節回転角度算出処理)、ステップ208として、算出した関節回転角度によりアーム機構ユニット13の運動を制御する(アーム運動制御処理)。一方、第2の距離判定の結果が肯定的な場合には、ステップ209の処理を行う。ステップ209では、手先センシング情報処理部37による対象物2の位置情報取得を開始する(手先センシングによる位置情報取得開始処理)。上述のように手先センシング情報処理部37は、対象物2を近接位置で捉える近接視覚センシングも行うようになっている。その近接視覚センシングは、視覚センサ21による視覚センシングよりも精度の高い位置情報を可能とする。ステップ210では、高精度な近接視覚センシングによる位置情報に基づいて対象物2の位置の補正を行う。つまり移動先指令値を補正する(移動先指令値補正処理)。移動先指令値が補正されると、以後はその補正移動先指令値に基づいてステップ207とステップ208の処理がなされる。以上のステップ203〜ステップ208の処理をステップ205における判定結果が肯定的になるまで繰り返すことで、ハンド部23を対象物2に対して位置決めさせる。
In
ステップ205における判定結果が肯定的であった場合には、位置決めが完了となるので、ステップ211とステップ212としてハンド部23による対象物2の把持を行う。ステップ211では、手先センシング(側方視センシング)により対象物2の側面情報(把持の場合は安定保持ポイントの情報)を取得する(対象物側面情報取得処理)。ステップ212では、ステップ211で取得した側面情報つまり安定保持ポイントに基づいて対象物2の把持を行う(把持処理)。
If the determination result in
以上のように、手先センシングを用いる把持運動制御では、対象物2に対するハンド部23の距離に応じて視覚センシングによる位置情報と手先センシングによる位置情報を使い分けるようにしているので、ハンド部23の対象物2に対する位置決めまでのアプローチ運動におけるアーム機構ユニット13の運動制御をより高精度に行うことができ、それによりアプローチ運動をよりスムースなものとすることができる。また以上のような手先センシングを用いる把持運動制御によれば、対象物2の把持動作をよりスムースに行えるようになる。すなわち、手先センサ24を用いる手先センシングにより対象物2の側面情報として対象物2の安定把持ポイントを求めることができるため、上述した従来の応力センシングのように試行錯誤的に安定把持ポイントを探す必要がなくなって、安定把持ポイントをすばやく決めることができ、対象物2の把持動作をよりスムースに行えるようになる。
As described above, in the gripping motion control using hand sensing, the position information by visual sensing and the position information by hand sensing are selectively used according to the distance of the hand unit 23 with respect to the
なお、手先センシングにより求めた安定把持ポイントについては、その微調整を行うような処理を加えるようにしてもよい。すなわち手先センシングにより求めた安定把持ポイントで対象物2を把持した状態で、より安定的な把持を行えるようにする把持ポイントを上述の応力センシングで探すことにより、把持安定化の微調整を行うようにする処理である。
Note that a process for performing fine adjustment on the stable gripping point obtained by hand sensing may be added. That is, the gripping stabilization is finely adjusted by searching for the gripping point that enables more stable gripping in the state where the
ここで、ステップ206で用いる距離しきい値は、手先センシングによる位置情報の利用開始タイミングを決める基準となる。そのような距離しきい値は、一例として、視覚センシング誤差やアーム機構誤差と相関させて設定される。視覚センシング誤差は、視覚センサ21を用いた視覚センシングにおける位置計測誤差である。視覚センサ21を用いた視覚センシングには、視覚センサ21と対象物2の距離が大きいことなどに起因して、ある程度の計測誤差を避けられず、その計測誤差よりも小さい距離では高精度な制御が困難になる。そこで、距離Dが視覚センシングにおける計測誤差以下となったら、手先センシングによる位置情報を用いるようにするために、視覚センシング誤差に相関させて距離しきい値を設定する。アーム機構誤差は、アーム機構ユニット13の動作誤差である。アーム機構ユニット13の駆動部51は、上述のようにモータ52やギア54などを組み合わせて形成され、またその回転をエンコーダ57で検出するようにされている。こうしたアーム機構ユニット13では、モータ52とギア54の間の機械的なガタ、あるいはエンコーダ57の検出誤差や遅れにより、ある程度のアーム機構誤差を避けられない。そこで、こうしたアーム機構誤差も距離しきい値の設定において考慮することで、より高精度な制御を行えるようにする。
Here, the distance threshold value used in
以上は、距離しきい値で手先センシングによる位置情報の利用開始を決める場合であるが、この他に、視認性も手先センシング位置情報利用開始の基準とする形態が可能である。対象物2が小さい場合、接近したハンド部23で対象物2が視覚センサ21に対して隠される場合が生じる。そのような場合には視覚センサ21を用いた視覚センシングが使えなくなって視覚センサ21による視認を行えなくなる。そこで、そのような状態になったら手先センシングに切り替えるようにするのが視認性基準である。
The above is a case where the start of use of position information by hand sensing is determined by the distance threshold, but in addition to this, a form in which visibility is also used as a reference for starting use of hand sense position information is possible. When the
次に、第2の実施形態について説明する。本実施形態は、アーム機構ユニット13の運動制御に画像解像度の切替え処理を付加することを除いて第1の実施形態と同じである。したがって以下では、画像解像度の切替え処理についてだけ説明する。画像解像度の切替え処理は、対象物2にハンド部23を位置決めさせるためのアーム機構ユニット13の運動の制御に際して、作業対象、例えば対象物2が動いているか、静止しているのかを判断し、その判断に応じて視覚センシング情報処理部36の画像処理部41で生成する画像の解像度を切り替える処理である。
Next, a second embodiment will be described. This embodiment is the same as the first embodiment except that an image resolution switching process is added to the motion control of the
図10に、画像解像度切替え処理における処理の流れを示す。画像解像度切替え処理では、まずステップ301として対象物2の初期位置P0を取得する(作業対象初期位置取得処理)。それからステップ302として、一定時間をおいた後の対象物2の位置Pを取得する(一定時間後作業対象位置取得処理)。そして、ステップ303として、P0とPが同じかを判定する(位置同一性判定)。ステップ303で判定が肯定的な場合には対象物2は動いていないとし、画像解像度を高解像度とする。具体的には、視覚センサ21からのデータを間引かずに画像処理部41に転送するようにする(ステップ304:高解像度処理)。一方、ステップ303で判定が否定的な場合には対象物2は動いているものとし、画像解像度を低解像度とする。具体的には、視覚センサ21からのデータを所定の比率で間引いて画像処理部41に転送するようにする(ステップ305:低像解度処理)。
FIG. 10 shows a process flow in the image resolution switching process. In the image resolution switching process, the CPU obtains the initial position P 0 of the
図11に、アーム機構ユニット13の運動制御ループにおけるタイミングチャートを示す。図の(a)は、低解像度処理の場合であり、(b)は高像解度処理の場合である。アーム機構ユニット13の運動制御では、上述のように、視覚センシング情報処理部36において画像処理により生成される対象物2の位置情報が運動統合制御部32に出力され、その位置情報に基づいて運動統合制御部32で生成された制御データ(軌道データ)に基づいてアーム運動制御部34がアーム機構ユニット13の各駆動部51を制御し、またその間に、アーム機構ユニット13の運動で変化するハンド部23の位置を視覚センシングや手先センシングで捉え、その位置情報をアーム機構ユニット13の運動制御にフィードバックすることが繰り返される。
FIG. 11 shows a timing chart in the motion control loop of the
こうした運動制御ループにおいて、(a)の低解像度処理では、視覚センシング情報処理部36における処理時間が短くて済む。例えば、ロボット装置1が人の手から物品を受け取る場合、あるいはロボット装置1が把持した物品を人に手渡す場合などのように作業対象に動きがある場合、その動的な作業対象の動きに追随しながらその位置情報を取得する必要がある。このような場合には、画像の解像度、つまり位置情報の精度よりも視覚センシング情報処理部36での処理速度を重視する低解像度処理を適用することで、動的な作業対象に対する把持などの作業における作業対象へのアプローチ運動をよりスムースに行えるようになる。
In such a motion control loop, the low-resolution processing (a) requires a short processing time in the visual sensing
一方、(b)の高像解度処理では、視覚センシング情報処理部36における処理時間が長くなる。ロボット装置1の作業対象が静止している場合、視覚センシング情報処理部36での処理には、動的な作業対象の場合のような高速性を必ずしも必要としない。このような場合には、視覚センシング情報処理部36での処理速度よりも位置情報の精度を重視する高像解度処理を適用することで、静的な作業対象に対する把持などの作業における作業対象へのアプローチ運動をよりスムースに行えるようになる。ここで、高像解度処理では、図の例のように、視覚センシング情報処理部36における処理時間が長くなることで、視覚センシング処理の周期とアーム運動制御の周期にずれを生じ、視覚センシング情報処理部36から新たな位置情報を得られない状態でアーム運動制御をなすような事態を生じることがある。このような場合には、新たな位置情報を得られない間、前回の位置情報でアーム運動制御を行わせるようにすることになる。
On the other hand, in the high image resolution processing of (b), the processing time in the visual sensing
次に、第3の実施形態について説明する。本実施形態は、対象物2の把持作業において対象物2に把持のための位置決めを完了して把持動作の開始をできるようになった状態を検出する手法に特徴があり、それを除いて第1の実施形態と同じである。したがって以下では、その位置決め完了状態検出法についてだけ説明する。
Next, a third embodiment will be described. The present embodiment is characterized in a method for detecting a state in which positioning for gripping the
ハンド部23が対象物2に対して把持動作開始可能な状態に位置決めすることは、ハンド部23が対象物2の側面に沿う状態になることである。この状態になると、ハンド部23の手のひら部分に組み込まれている手先センサ24は対象物2で遮蔽される状態になる。つまり手先センサ24で撮影される画像が全体的に暗くなる。したがって、手先センサ24による画像の明度(画像の明るさ)を判定することで、手先センサ24の遮蔽状態、つまり位置決め完了状態を検出することができる。本実施形態における位置決め完了状態検出法は、こうした原理によっている。
Positioning the hand unit 23 in a state in which a gripping operation can be started with respect to the
図12に、画像明るさ指標による位置決め完了状態検出法における処理の流れを示す。位置決め完了状態検出では、ステップ401として、作業対象の画像を取得し(作業対象画像取得処理)、ステップ402として、作業対象画像の明度データLを取得する(明度データ取得処理)。明度データLを取得したら、ステップ403として、明度データLを明度しきい値と比較する(明度判定処理)。図の例では明度しきい値として「0」を用いている。ステップ403の判定結果が否定的であれば、ステップ401に戻って処理を繰り返す。一方、ステップ403の判定結果が肯定的になったら、位置決め完了状態であるので、ステップ404として、アーム機構ユニット13の動作停止を指令する(動作停止指令処理)。
FIG. 12 shows a processing flow in the positioning completion state detection method based on the image brightness index. In the positioning completion state detection, an image of a work target is acquired as a step 401 (work target image acquisition process), and brightness data L of the work target image is acquired as a step 402 (lightness data acquisition process). When the brightness data L is acquired, in
以上のような位置決め完了状態検出法によれば、より高精度な位置決め完了状態をハンド部23にとらせることを可能となり、したがってハンド部23による作業をよりスムースに行えるようになる。また以上のような位置決め完了状態検出法によれば、手先センサ24を位置決め完了状態検出に兼用できるので、ロボット装置1におけるセンサ系の簡素化を図れる。
According to the positioning completion state detection method as described above, it is possible to cause the hand unit 23 to take a higher-accuracy positioning completion state, and thus the operation by the hand unit 23 can be performed more smoothly. Further, according to the positioning completion state detection method as described above, the
次に、第4の実施形態について説明する。本実施形態は、対象物2の把持のような作業を行うに際してハンド部23の使分け制御を行えるようにしていることに特徴があり、それを除いて第1の実施形態と同じである。したがって以下では、そのハンド部使分け制御についてだけ説明する。
Next, a fourth embodiment will be described. The present embodiment is characterized in that the use control of the hand unit 23 can be performed when performing an operation such as gripping the
把持作業対象の対象物2には様々な大きさがあり、それに応じて把持のために左右のハンド部23L、23Rの両方を使う「両手把持」とする必要のある場合と、左右のハンド部23L、23Rのいずれか片方による「片手把持」で済む場合がある。「片手把持」でよい場合には、「片手把持」とすることで、作業をよりスムースに行わせることができるようになる。また「片手把持」の場合、対象物2に状況に応じて左右のハンド部23L、23Rを使い分けることができるようにすることで、作業をよりスムースに行わせることができるようになる。
There are various sizes of the
こうした観点から、本実施形態ではハンド部使分け制御機能をロボット装置1に組み込むようにしている。図13に、ハンド部使分け制御における処理の流れを示す。ハンド部使分け制御では、ステップ501として、視覚センサ21で作業対象の画像を取得する(作業対象画像取得処理)。ステップ502では、取得した作業対象画像に基づいて作業対象のサイズを推定する(作業対象サイズ推定処理)。図の例では作業対象のサイズとして体積Vを用いるようにしている。作業対象の体積Vなどを推定する処理は、例えばエッジ検出などにより作業対象画像中で作業対象の領域を抽出し、その抽出した領域に基づいて体積Vなどを推定するといった一般的な画像処理の手法で行うことができる。
From this point of view, in the present embodiment, the hand unit separate control function is incorporated in the
推定体積Vが得られたら、ステップ503として、その推定体積Vが体積積しきい値(サイズしきい値)以上かを判定する(サイズ判定処理)。ステップ503の判定結果が肯定的な場合には、「両手把持」となるので、ステップ504に進んで「両手把持」を指示する(両手把持指示処理)。具体的には、両方のアーム機構ユニット13L、13Rに把持作業の動作開始信号を送信する。一方、ステップ503の判定結果が否定的な場合には、「片手把持」となるので、ステップ505に進む。ステップ505では、左右の使分けについての判定、つまり左右のハンド部23L、23Rのいずれを使うかについての判定を行う(左右使分け判定処理)。図の例では左右使分け判定を作業対象物のロボット装置1に対する位置関係で行うようにしており、したがって位置関係判定処理となっている。位置関係の判定は、例えば作業対象画像から作業対象物の重心位置を求め、その重心位置が作業対象画像の中心に対して左右のいずれにあるかを判定することで行うことができる。ステップ505で左側を使うと判定されたら、ステップ506として、左側のアーム機構ユニット13Lに把持作業開始信号を送信する(左側片手把持指示処理)。一方、ステップ505で右側を使うと判定されたら、ステップ507として、右側のアーム機構ユニット13Rに把持作業開始信号を送信する(右側片手把持指示処理)。
When the estimated volume V is obtained, it is determined in
次に、第5の実施形態について説明する。本実施形態は、対象物2の把持のような作業を行うに際して過去の作業履歴を利用できるように制御システムを構成していることに特徴があり、それを除いて第1の実施形態と同じである。したがって以下では、その過去作業履歴利用の制御システムについてだけ説明する。
Next, a fifth embodiment will be described. The present embodiment is characterized in that the control system is configured so that past work history can be used when performing work such as gripping the
図14に、本実施形態による制御システム60の構成を示す。本実施形態の制御システム60は、第1の実施形態におけるのと同様なシステム制御部31、運動統合制御部32、走行制御部33、アーム運動制御部34、ヘッド運動制御部35、視覚センシング情報処理部36、及び手先センシング情報処理部37を備え、さらに作業履歴データベース61を備えている。この制御システム60は、図1のロボット装置1に実装して用いることができる。
FIG. 14 shows a configuration of the
作業履歴データベース61には、過去に行った作業についてのデータが蓄積される。作業履歴データは、例えば対象物2の把持作業であれば、アーム機構ユニット13の運動で対象物に対してハンド部23を位置決めさせ、それから対象物2を把持するまでを1つの作業単位とし、その作業単位における対象物2についてのデータとアーム機構ユニット13の運動制御についての実績データを組み合わせて構成される。
In the
図15に、作業履歴データベース61の具体的な構成例を示す。この例の作業履歴データベース61は、対象物形状パターン記憶領域62、アーム運動データ記憶領域63、相関データ記憶領域64、インタフェース制御部65、パターン認識処理部66、検索処理部67、及びアドレス管理部68を備えており、対象物2についてのデータとして対象物2の形状パターンを用いるようにされている。
FIG. 15 shows a specific configuration example of the
対象物形状パターン記憶領域62には、過去の作業で扱った対象物の形状パターンが形状パターンデータ62Dとして格納される。アーム運動データ記憶領域63には、アーム機構ユニット13の運動制御についての過去の実績データがアーム運動制御データ63Dとして格納される。アーム運動制御データ63Dは、対象物形状パターン記憶領域62に格納される形状パターンデータ62Dに対応させて生成される。相関データ記憶領域64には、形状パターンデータ62Dとアーム運動制御データ63Dの対応付けに関するデータが相関データ64Dとして格納される。相関データ64Dは、形状パターンデータ62Dとアーム運動制御データ63Dそれぞれのアドレスで両データを対応付けるように構成される。インタフェース制御部65は、運動統合制御部32が作業履歴データベース61に蓄積のデータを参照する場合のインタフェースに機能する。パターン認識処理部66は、これから行うとする作業における対象物の形状パターン(新規作業対象物形状パターン)を認識する。検索処理部67は、パターン認識処理部66で認識した新規作業対象物形状パターンについて対象物形状パターン記憶領域62を検索する。アドレス管理部68は、対象物形状パターン、アーム運動データ、相関データの各記憶領域62、63、64のアドレス管理を行う。
In the object shape
以下、作業履歴データベース61を活用したアーム機構ユニット13の運動制御の要点について説明する。システム制御部31から例えば対象物2の把持作業の作業計画が運動統合制御部32に与えられると、運動統合制御部32は、視覚センシング情報処理部36から対象物2の位置情報とともに対象物2の形状データを取得する。対象物2の形状データを取得した運動統合制御部32は、作業履歴データベース61にアクセスする。作業履歴データベース61へのアクセスは、対象物2の形状データをもって行われる。インタフェース制御部65を介して対象物2の形状データを受け取った作業履歴データベース61は、その形状データから新規作業対象物形状パターンをパターン認識処理部66で認識する。パターン認識処理部66が認識した新規作業対象物形状パターンは検索処理部67に渡され、これを受けて、検索処理部67は、対象物形状パターン記憶領域62にアクセスし、そこに格納の形状パターンデータ62Dから新規作業対象物形状パターンと同一(ないしほぼ同一)のものを検索する。形状パターンデータ62Dに新規作業対象物形状パターンと同一のものがなかった場合には、その結果を運動統合制御部32に伝える。この場合、運動統合制御部32は、新たに運動制御データを生成し、それをアーム運動制御部34に送る。その新たに生成の運動制御データは、作業履歴データベース61に送られ、作業履歴データとして登録される。
Hereinafter, the main points of the motion control of the
一方、検索処理部67が新規作業対象物形状パターンと同一であるとして形状パターンデータ62Dを抽出した場合、検索処理部67は、抽出した形状パターンデータ62Dに対応するアーム運動制御データ63Dのアドレスを相関データ記憶領域64から検索し、そのアドレスからアドレス管理部68を通じて対応のアーム運動制御データ63Dを取り出す。こうして取り出されたアーム運動制御データ63Dは、インタフェース制御部65を介して運動統合制御部32に渡される。アーム運動制御データ63Dを受け取った運動統合制御部32は、このアーム運動制御データ63Dを対象物2の把持作業における運動制御データとしてアーム運動制御部34に送る。こうした作業履歴データベース61の参照によりアーム運動制御データ63Dを取り出す処理は、運動統合制御部32が新たに運動制御データを生成する処理に比べて、処理時間が短くて済む。したがって過去の作業履歴を利用できるようにした本実施形態によれば、ハンド部23による対象物2の把持動作に至るまでの対象物2へのアプローチ動作をよりスムースに行えるようになる。
On the other hand, when the
以上、本発明を実施する形態のいくつかについて説明したが、本発明は、こられの実施形態に限られるものでなく、その趣旨を逸脱することのない範囲で様々な形態で実施することができる。例えば以上の各実施形態は、走行式で自律移動するロボット装置についてのものであったが、歩行式のロボット装置にも適用でき、また移動機能を有しないロボット装置にも適用することができる。 Although some of the embodiments for carrying out the present invention have been described above, the present invention is not limited to these embodiments, and can be implemented in various forms without departing from the spirit of the present invention. it can. For example, each of the embodiments described above is for a robot device that travels and autonomously moves, but can also be applied to a walking robot device, and can also be applied to a robot device that does not have a moving function.
1 ロボット装置
2 対象物
13 アーム機構ユニット
21 視覚センサ
22 アーム部
23 ハンド部
24 手先センサ(側方視センサ、ハンド部センサ)
36 視覚センシング情報処理部(立体視センシング情報処理部)
37 手先センシング情報処理部
61 作業履歴データベース
63D アーム運動制御データ
DESCRIPTION OF
36 Visual Sensing Information Processing Unit (Stereoscopic Sensing Information Processing Unit)
37 Hand Sensing
Claims (7)
前記ハンド部の前記対象物を把持する側に前記対象物を撮影するハンド部センサと、該ハンド部センサで撮影して得られる複数の対象物画像に基づいて前記対象物の位置情報を取得する手先センシング処理部とを設け、
前記アーム運動制御部は、前記アーム部の運動を制御して前記ハンド部の位置を前記対象物を把持する位置に位置決めする過程で、前記視覚センシング処理部で得られる前記対象物の位置情報に基づいて、前記ハンド部と前記対象物との距離がしきい値以上の場合には、前記視覚センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動を制御し、前記ハンド部と前記対象物との距離がしきい値未満になった場合には、前記ハンド部センサによる前記手先センシング処理部で得られる対象物の位置情報を用いて前記アーム部の運動制御を行うことを特徴とするロボット装置。 Based on an arm unit, a hand unit that is provided at the tip of the arm unit and performs an operation of gripping an object, a visual sensor that images the object, and a plurality of object images obtained by imaging with the visual sensor A visual sensing processing unit for acquiring position information of the object, and controlling the movement of the arm unit based on the position information of the object obtained by the visual sensing processing unit to In a robot apparatus including an arm motion control unit positioned at a gripping position ,
The position information of the object is acquired based on a hand part sensor that photographs the object on the side of the hand part that grips the object and a plurality of object images obtained by photographing with the hand part sensor. A hand sensing processing unit,
The arm movement control unit controls the movement of the arm unit to position the position of the hand unit at a position where the object is gripped, in the position information of the object obtained by the visual sensing processing unit. When the distance between the hand unit and the object is greater than or equal to a threshold value, the movement of the arm unit is controlled using the position information of the object obtained by the visual sensing processing unit, and the hand When the distance between the part and the object is less than a threshold value, the movement of the arm part is controlled using the position information of the object obtained by the hand sensing processing part by the hand part sensor. A robotic device characterized by
前記アーム運動制御部は、前記視覚センシング処理部で得られる対象物の位置情報を用いて、前記対象物が動きのある動的対象物であるか、静止している静的対象物であるかを判定し、動的対象物である場合には、前記視覚センシング処理部で用いる前記対象物画像を低解像度に、静的対象物である場合には、前記対象物画像として高解像度に切替えることを特徴とするロボット装置。 In the robot apparatus according to claim 1,
The arm motion control unit uses the position information of the object obtained by the visual sensing processing unit to determine whether the object is a moving dynamic object or a static object that is stationary. When the object is a dynamic object, the object image used in the visual sensing processing unit is switched to a low resolution , and when the object is a static object, the object image is switched to a high resolution. features and be Carlo bot device.
前記アーム運動制御部は、前記ハンド部センサにて前記対象物を撮影して得られる画像の明るさがしきい値以下になったことを条件にして、前記ハンド部が前記対象物に対して位置決め完了状態になったことを判定することを特徴とするロボット装置。 The robot apparatus according to claim 1 or 2,
The arm motion control unit, the brightness of the image obtained by photographing the object in the previous SL hand section sensor in the condition that falls below the threshold value, positioning the hand unit with respect to the object features and to Carlo bot device to determine that it is now completed state.
前記アーム部と前記ハンド部は、それぞれ左右備えられてなり、
前記アーム運動制御部は、前記左右のハンド部センサにて前記対象物を撮影して得られる画像に基づいて前記対象物のサイズを推定し、その推定サイズがしきい値以上の場合には、前記左右のハンド部の両方を使う把持として制御し、前記推定サイズが前記しきい値未満の場合には、前記左右のハンド部のいずれか片方を使う把持とて制御することを特徴とするロボット装置。 The robot apparatus according to any one of claims 1 to 3,
The arm part and the hand part are respectively provided on the left and right,
The arm motion controller estimates a size of the object based at previous SL right and left hand portions sensor image obtained by photographing the object, if the estimated size is equal to or greater than the threshold value controls as a gripping use both the right and left hand portions, wherein when the estimated size is less than said threshold value, characterized a control child with a grip to use either one of the left and right hand portions and to Carlo bot apparatus.
前記アーム運動制御部は、前記左右のハンド部のいずれか片方を使う把持の場合に、前記対象物の前記左右のハンド部に対する位置関係に基づいて、前記左右のハンド部のいずれを前記対象物の把持に使うかを決めることを特徴とするロボット装置。 The robot apparatus according to claim 4, wherein
In the case of gripping using either one of the left and right hand parts , the arm motion control unit determines which of the left and right hand parts is the object based on the positional relationship of the object with respect to the left and right hand parts. robot apparatus according to claim to decide whether to use the grip.
さらに、過去に行った把持作業についての前記アーム部と前記ハンド部を含むアーム機構ユニットの運動制御に関するアーム運動制御データを蓄積できる作業履歴データベースを備えてなり、
前記アーム運動制御部は、新たな把持作業を行う際に、前記作業履歴データベースを検索し、新たに行おうとする把持作業に適用できるアーム運動制御データを抽出できた場合には、その抽出したアーム運動制御データに基づいて前記アーム機構ユニットの一連の運動の制御を行うことを特徴とするロボット装置。 The robot apparatus according to any one of claims 1 to 5,
Furthermore, it includes a work history database capable of storing arm motion control data relating to exercise control of the arm mechanism unit including the hand portion and the arm portion for gripping the work performed in the past,
The arm motion control unit searches the work history database when performing a new gripping work, and when arm motion control data applicable to the gripping work to be newly performed can be extracted, the extracted arm set of motion features and to Carlo bot device rows Ukoto the control of the arm mechanism unit based on the motion control data.
前記アーム運動制御部は、前記アーム運動制御データの適用可否を前記対象物の形状パターンに基づいて判定することを特徴とするロボット装置。 The robot apparatus according to claim 6, wherein
The arm motion control unit, the arm motion control characteristics and to Carlo bot device and Turkey be determined on the basis of the shape pattern of the object on the applicability of the information of the data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006152385A JP4578438B2 (en) | 2006-05-31 | 2006-05-31 | Robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006152385A JP4578438B2 (en) | 2006-05-31 | 2006-05-31 | Robot device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007319973A JP2007319973A (en) | 2007-12-13 |
JP4578438B2 true JP4578438B2 (en) | 2010-11-10 |
Family
ID=38853189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006152385A Expired - Fee Related JP4578438B2 (en) | 2006-05-31 | 2006-05-31 | Robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4578438B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101479232B1 (en) * | 2008-05-13 | 2015-01-06 | 삼성전자 주식회사 | Robot, robot hand and method of controlling robot hand |
US20100179689A1 (en) * | 2009-01-09 | 2010-07-15 | National Taiwan University Of Science And Technology | Method of teaching robotic system |
JP5521330B2 (en) * | 2009-01-16 | 2014-06-11 | 株式会社安川電機 | Transport system |
KR101151707B1 (en) * | 2009-12-30 | 2012-06-15 | 한국기술교육대학교 산학협력단 | Robot-system By Color tracking sensor |
JP5423441B2 (en) * | 2010-02-03 | 2014-02-19 | 株式会社安川電機 | Work system, robot apparatus, and manufacturing method of machine product |
CN107756417A (en) * | 2017-11-21 | 2018-03-06 | 北方民族大学 | The intelligent man-machine co-melting robot system of both arms security cooperation |
JP7044047B2 (en) * | 2018-12-14 | 2022-03-30 | トヨタ自動車株式会社 | robot |
CN111359193B (en) * | 2020-04-02 | 2021-02-09 | 秦皇岛职业技术学院 | Fighting training robot |
JP7537360B2 (en) | 2021-05-18 | 2024-08-21 | トヨタ自動車株式会社 | ROBOT CONTROL SYSTEM, MOBILE ROBOT, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM |
WO2023188001A1 (en) * | 2022-03-29 | 2023-10-05 | 日本電気株式会社 | Robot system, processing method, and recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6039087A (en) * | 1983-08-12 | 1985-02-28 | ダイセル化学工業株式会社 | Robot |
JPS61182786A (en) * | 1985-02-08 | 1986-08-15 | 株式会社日立製作所 | Body automatic gripping system by parallel gripper |
JPH0970786A (en) * | 1995-09-06 | 1997-03-18 | Ricoh Co Ltd | Holding hand |
JPH10230484A (en) * | 1997-02-24 | 1998-09-02 | Nec Corp | Machining work robot |
JP2005205519A (en) * | 2004-01-21 | 2005-08-04 | Mitsubishi Electric Engineering Co Ltd | Robot hand device |
JP2006021300A (en) * | 2004-07-09 | 2006-01-26 | Sharp Corp | Predicting device and holding device |
-
2006
- 2006-05-31 JP JP2006152385A patent/JP4578438B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6039087A (en) * | 1983-08-12 | 1985-02-28 | ダイセル化学工業株式会社 | Robot |
JPS61182786A (en) * | 1985-02-08 | 1986-08-15 | 株式会社日立製作所 | Body automatic gripping system by parallel gripper |
JPH0970786A (en) * | 1995-09-06 | 1997-03-18 | Ricoh Co Ltd | Holding hand |
JPH10230484A (en) * | 1997-02-24 | 1998-09-02 | Nec Corp | Machining work robot |
JP2005205519A (en) * | 2004-01-21 | 2005-08-04 | Mitsubishi Electric Engineering Co Ltd | Robot hand device |
JP2006021300A (en) * | 2004-07-09 | 2006-01-26 | Sharp Corp | Predicting device and holding device |
Also Published As
Publication number | Publication date |
---|---|
JP2007319973A (en) | 2007-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4578438B2 (en) | Robot device | |
CN113696186B (en) | Mechanical arm autonomous moving and grabbing method based on visual-touch fusion under complex illumination condition | |
US11090814B2 (en) | Robot control method | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
JP6180086B2 (en) | Information processing apparatus and information processing method | |
KR100922494B1 (en) | Method for measuring pose of a mobile robot and method and apparatus for measuring position of the mobile robot using the method | |
Du et al. | Human–manipulator interface based on multisensory process via Kalman filters | |
KR101234798B1 (en) | Method and apparatus for measuring position of the mobile robot | |
EP3222393B1 (en) | Automated guidance system and method for a coordinated movement machine | |
KR100693262B1 (en) | Image processing apparatus | |
WO2012153629A1 (en) | Device and method for controlling prediction of motion | |
JP2022542241A (en) | Systems and methods for augmenting visual output from robotic devices | |
CN112183133A (en) | Aruco code guidance-based mobile robot autonomous charging method | |
JP2009107043A (en) | Gripping device and method of controlling gripping device | |
JP2008055584A (en) | Robot for holding object and holding method of object by robot | |
CN111319039B (en) | Robot | |
JP2008023630A (en) | Arm-guiding moving body and method for guiding arm | |
JP2020163502A (en) | Object detection method, object detection device, and robot system | |
US20140094951A1 (en) | Working unit control device, working robot, working unit control method, and working unit control program | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
Olsson et al. | Force control and visual servoing using planar surface identification | |
JP2017077600A (en) | Manipulator device | |
Chung et al. | An intelligent service robot for transporting object | |
Kao et al. | Ball catching with omni-directional wheeled mobile robot and active stereo vision | |
JP2014188642A (en) | Robot and robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100511 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100803 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100824 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130903 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4578438 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |