JP2010244413A - Method for recognizing object gripped by grip means - Google Patents
Method for recognizing object gripped by grip means Download PDFInfo
- Publication number
- JP2010244413A JP2010244413A JP2009094175A JP2009094175A JP2010244413A JP 2010244413 A JP2010244413 A JP 2010244413A JP 2009094175 A JP2009094175 A JP 2009094175A JP 2009094175 A JP2009094175 A JP 2009094175A JP 2010244413 A JP2010244413 A JP 2010244413A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- information
- image
- gripping means
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、把持する手等により隠れた部位を有する、把持手段によって把持されている対象物の認識方法に関する。 The present invention relates to a method for recognizing an object that is held by a holding means and has a portion hidden by a holding hand or the like.
対象物を撮像した画像において、対象物には、対象物自体及び対象物上に存在する遮蔽物によって部分的に隠れてしまい画像上に描写されない部位が存在する。そして、このような部位を含めた対象物の全体形状を、隠れた部位を有する対象物を撮像した画像に基づき推定する方法や装置が提案されている。 In an image obtained by capturing an image of an object, the object includes a part that is partially hidden by the object itself and a shielding object present on the object and is not depicted on the image. And the method and apparatus which estimate the whole shape of the target object containing such a site | part based on the image which imaged the target object which has a hidden site | part are proposed.
例えば、特許文献1には、カメラから取得した画像から、部分的に隠れた対象物を認識する情報処理装置が記載されている。
特許文献1の情報処理装置は、予めカメラから供給された対象物自体の画像をモデル画像として蓄積しており、このモデル画像から、画像における位置の変化に対する画素値の変化の大きさの度合いを示すエッジ強度からなるエッジ強度画像を生成する。また、情報処理装置は、モデル画像から、画像の画素の画素値の閾値に対する大小の境界を示すエッジ画像を生成する。さらに、この情報処理装置は、生成したエッジ画像上の境界であるエッジに複数の特徴点を設定し、この特徴点の近傍に特徴量抽出領域を設定する。そして、情報処理装置は、エッジ強度画像を基に、各特徴点の特徴量抽出領域におけるエッジ強度をモデル特徴量として抽出し、モデル特徴量と各特徴点の位置関係とを関連づけてモデル画像毎にモデル辞書に登録する。
For example,
The information processing apparatus disclosed in
また、情報処理装置は、カメラから認識される実画像をターゲット画像とし、このターゲット画像からエッジ画像を生成して、生成したエッジ画像上に複数のエッジ点を設定する。さらに、情報処理装置は、各エッジ点におけるエッジ強度をターゲット特徴量として抽出する。
そこで、情報処理装置は、モデル辞書に登録されたモデル特徴量とターゲット特徴量とのマッチングを行い、モデル画像に含まれている対象物とターゲット画像に含まれている対象物とを同定し、ターゲット画像内の対象物を認識する。これにより、ターゲット画像内における対象物の隠れた領域を含む対象物の形状が特定される。
Further, the information processing apparatus uses a real image recognized by the camera as a target image, generates an edge image from the target image, and sets a plurality of edge points on the generated edge image. Furthermore, the information processing apparatus extracts the edge strength at each edge point as a target feature amount.
Therefore, the information processing apparatus performs matching between the model feature amount registered in the model dictionary and the target feature amount, and identifies the target object included in the model image and the target object included in the target image, Recognize objects in the target image. Thereby, the shape of the target object including the hidden region of the target object in the target image is specified.
しかしながら、特許文献1の情報処理装置では、モデル辞書に登録された、多量のモデル画像毎に設定されている複数の特徴点に対応するモデル特徴量の全てと、ターゲット画像に設定された複数の特徴点におけるターゲット特徴量とをマッチングさせて、モデル画像とターゲット画像との同定を行っている。このため、モデル特徴量とターゲット特徴量とのマッチングにおける処理量が多くなり、モデル画像とターゲット画像との同定に関する処理速度が低くなるという問題がある。さらに、モデル画像とターゲット画像との同定の精度を向上させるために各画像において設定する特徴点の数量を多くすると、処理量のさらなる増大によりマッチングに要する時間が増大し、モデル画像とターゲット画像との同定に関する処理速度がさらに低下するという問題がある。
However, in the information processing apparatus of
この発明は、このような問題点を解決するためになされたもので、隠れた部分を有する対象物の認識処理速度を向上することのできる把持手段によって把持されている対象物の認識方法を提供することを目的とする。 The present invention has been made to solve such problems, and provides a method for recognizing an object held by a grasping means capable of improving the recognition processing speed of an object having a hidden portion. The purpose is to do.
この発明に係る把持手段によって把持されている対象物の認識方法は、把持手段及び把持手段によって把持されている対象物を含む物体の画像を取得する画像取得ステップと、画像に写し出された物体を検知する物体検知ステップと、画像に写し出された把持手段を検知し、把持手段の把持姿勢を推定する把持手段検知ステップと、物体検知ステップにより検知された物体に関する情報及び把持手段検知ステップにより検知された把持手段に関する情報から、画像における対象物を特定し、特定された対象物の外観に関する情報及び把持手段検知ステップにより推定された把持手段の把持姿勢に関する情報から、対象物の全体形状を認識する対象物判定ステップとを備えることを特徴とするものである。 An object recognition method according to the present invention includes a grasping means and an image acquisition step for obtaining an image of an object including the object grasped by the grasping means, and an object projected on the image. Detected by an object detection step to be detected, a gripping means detection step for detecting a gripping means projected in an image and estimating a gripping posture of the gripping means, and information on an object detected by the object detection step and a gripping means detection step. The object in the image is identified from the information regarding the gripping means, and the overall shape of the object is recognized from the information regarding the appearance of the identified object and the information regarding the gripping posture of the gripping means estimated by the gripping means detection step. An object determination step.
これにより、画像に写し出される把持手段の画像から推定される把持姿勢から、把持手段の内側(把持側)に形成される空間範囲を算出することができる。そして、この空間範囲から、把持手段により隠れている対象物の取り得る領域が限定される。よって、対象物は、画像に写し出されている部位だけなく、把持手段により隠れている対象物の取り得る領域よってもその外観に関する要素が限定されて、対象物の全体形状が認識される。このため、対象物の認識に要する処理量が低減される。従って、把持手段によって把持されている対象物の認識方法は、対象物の認識に要する処理速度を向上させることができる。 Thereby, the spatial range formed inside the gripping means (grip side) can be calculated from the gripping posture estimated from the image of the gripping means projected on the image. And the area | region which the target object hidden by the holding means can take is limited from this space range. Therefore, not only the part projected in the image but also the area related to the appearance of the target object is limited by the region that can be taken by the target object hidden by the gripping means, and the entire shape of the target object is recognized. For this reason, the processing amount required for recognition of a target object is reduced. Therefore, the method for recognizing the object held by the holding means can improve the processing speed required for recognizing the object.
把持手段検知ステップは、推定された把持手段の把持姿勢に関する情報から、把持手段により囲まれる領域を算出し、把持手段により囲まれる領域から画像における把持手段によって隠れた部分を含む領域を特定することをさらに含んでもよい。
対象物判定ステップは、特定された対象物に上記特定された領域を結合し、結合された対象物から対象物の全体形状を認識することをさらに含んでもよい。これにより、把持手段によって隠れた把持手段により囲まれる領域及び画像に写し出されている対象物に関する情報を結合することにより、面積、外周長等の対象物全体の外観に関する要素の範囲が限定される。よって、対象物は、画像に写し出されている部位だけなく、対象物の外観に関する要素によっても限定されて、対象物の全体形状が認識される。
The grasping means detection step calculates an area surrounded by the grasping means from information on the estimated grasping posture of the grasping means, and specifies an area including a portion hidden by the grasping means in the image from the area surrounded by the grasping means. May further be included.
The object determination step may further include combining the specified area with the specified object and recognizing the entire shape of the object from the combined object. Thereby, the range of the elements related to the appearance of the entire object such as the area and the outer peripheral length is limited by combining the area surrounded by the grasping means hidden by the grasping means and the information on the object projected on the image. . Accordingly, the object is limited not only by the portion shown in the image but also by the elements related to the appearance of the object, and the entire shape of the object is recognized.
対象物判定ステップは、把持されている対象物に関する情報を含むデータベースにアクセスし、結合された対象物に関する情報をこの条件として条件を満たす範囲内のみでデータベースを検索し、データベースとのマッチングを行うことをさらに含んでもよい。これにより、結合された対象物に関する情報を条件としてその条件の範囲内にデータベースの検索範囲を限定することにより、検索に要する処理量が低減され、処理速度が向上する。 また、対象物判定ステップにおいて、結合された対象物に関する情報は、結合された対象物の面積及び外周長の少なくとも1つを含んでもよい。
物体検知ステップは、把持手段検知ステップにより検知された把持手段に関する情報に基づき、画像に写し出された物体から対象物を特定することをさらに含んでもよい。これにより、物体検知ステップは、把持手段の位置及び形状等に関する情報から、画像において把持手段付近から検索して把持手段の近傍における物体を検知し、さらに、検知した物体から対象物を特定する。よって、物体検知ステップ及び対象物判定ステップにおける処理量が低減され、把持手段によって把持されている対象物の認識に係わる処理速度を向上することができる。
In the object determination step, a database including information on the object being grasped is accessed, the database is searched only within a range that satisfies the condition using the information regarding the combined object as a condition, and matching with the database is performed. It may further include. Accordingly, by limiting the search range of the database within the range of the condition on the condition regarding the information on the combined objects, the processing amount required for the search is reduced and the processing speed is improved. In the object determination step, the information related to the combined object may include at least one of the area and the outer peripheral length of the combined object.
The object detection step may further include specifying the target object from the object imaged on the image based on the information on the grip means detected by the grip means detection step. Thereby, the object detection step searches from the information about the position and shape of the gripping means in the vicinity of the gripping means in the image to detect the object in the vicinity of the gripping means, and further identifies the target object from the detected object. Therefore, the processing amount in the object detection step and the object determination step is reduced, and the processing speed related to the recognition of the object held by the holding means can be improved.
物体検知ステップは、把持手段検知ステップにより推定された把持手段の把持姿勢に関する情報に基づき、画像に写し出された物体から対象物を特定することをさらに含んでもよい。これにより、物体検知ステップは、把持手段の把持姿勢に関する情報から、把持手段の把持可能な領域(把持側)のみを検索して画像の物体を検知し、さらに、検知した物体から対象物を特定する。よって、物体検知ステップ及び対象物判定ステップにおける処理量が低減され、把持手段によって把持されている対象物の認識に係わる処理速度を向上することができる。 The object detection step may further include specifying the target object from the object imaged on the image based on the information related to the holding posture of the holding means estimated by the holding means detection step. As a result, the object detection step detects only the region (grip side) that can be gripped by the gripping means from the information on the gripping posture of the gripping means, detects the object of the image, and further identifies the target from the detected object. To do. Therefore, the amount of processing in the object detection step and the object determination step is reduced, and the processing speed related to the recognition of the object held by the holding means can be improved.
物体検知ステップは、把持手段検知ステップにより検知された把持手段に関する情報、及び把持手段検知ステップにより推定された把持手段の把持姿勢に関する情報に基づき、画像に写し出された物体から対象物を特定することをさらに含んでもよい。これにより、物体検知ステップは、把持手段の把持姿勢に関する情報から、把持手段の把持可能な領域(把持側)のみに画像における物体の検索範囲を限定し、さらに、この検索範囲において、把持手段の位置等に関する情報から把持手段の付近から検索して把持手段の近傍における物体を検知する。そして、物体検知ステップは、検知した物体から対象物を特定する。よって、物体検知ステップ及び対象物判定ステップにおける処理量が低減され、把持手段によって把持されている対象物の認識に係わる処理速度を向上することができる。
また、この発明に係るプログラムは、上述の把持手段によって把持されている対象物の認識方法における各ステップを、コンピュータに実行させるためのプログラムであることを特徴とする。
In the object detection step, the object is identified from the object projected on the image based on the information on the gripping means detected in the gripping means detection step and the information on the gripping posture of the gripping means estimated in the gripping means detection step. May further be included. Thereby, the object detection step limits the search range of the object in the image to only the grippable area (grip side) of the gripping means from the information regarding the gripping posture of the gripping means, and further, in this search range, An object in the vicinity of the gripping means is detected by searching from the vicinity of the gripping means from information on the position and the like. In the object detection step, the target is specified from the detected object. Therefore, the amount of processing in the object detection step and the object determination step is reduced, and the processing speed related to the recognition of the object held by the holding means can be improved.
The program according to the present invention is a program for causing a computer to execute each step in the method for recognizing an object held by the holding means described above.
この発明によれば、把持手段によって把持されている対象物の認識方法は、隠れた部分を有する対象物の認識処理速度を向上することが可能になる。 According to the present invention, the method for recognizing an object held by the holding means can improve the recognition processing speed of an object having a hidden portion.
以下に、この発明の実施の形態について、添付図に基づいて説明する。
実施の形態1.
図1〜5を用いて、この発明の実施の形態1に係る把持手段によって把持されている対象物の認識装置101の構成及び動作を示す。なお、以下の実施形態では、対象物を人間の手で把持した場合における対象物の認識について記載する。さらに、認識装置101における処理は、認識装置101に組み込まれたプログラムによって実行されるものとする。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
The configuration and operation of the
まず、図1及び4を参照すると、認識装置101は、画像取得手段11、物体検知手段12a、手検知手段12b、対象物判定手段13、並びに、記憶手段である辞書15を含むように構成されている。画像取得手段11は、物体検知手段12a及び手検知手段12bへ情報を送信するようになっており、物体検知手段12a及び手検知手段12bはそれぞれ、対象物判定手段13へ情報を送信するようになっている。また、手検知手段12b及び対象物判定手段13は、辞書15へのアクセスが可能となっている。
また、手検知手段12bは、手検知部12b1、手形状推定部12b2及び限定条件生成部12b3によって構成され、手検知部12b1から手形状推定部12b2、及び、手形状推定部12b2から限定条件生成部12b3へ情報が送信されるようになっている。
さらに、対象物判定手段13は、情報結合部13a及び対象物認識部13bによって構成され、情報結合部13aから対象物認識部13bへ情報が送信されるようになっている。
First, referring to FIGS. 1 and 4, the
The
Furthermore, the object determination means 13 includes an information combination unit 13a and an
画像取得手段11は、外部の画像を取得するためのものであり、カメラ等によって構成されている。そして、画像取得手段11によって図1に示される二次元画像1が取得され、画像取得手段11は、取得した画像1を物体検知手段12a及び手検知手段12bの手検知部12b1に送る。
物体検知手段12aは、供給された画像1において特徴部を検出し、画像1上に写し出されている各物体の形状を検出するものである。なお、画像1における特徴部の検出は、例えば、画素の画素値が急激に変化する箇所であるエッジを検出することによって行われる。そして、物体検知手段12aは、画像1において検出した各物体の形状情報を、対象物判定手段13の情報結合部13aに送る。また、物体検知手段12aは、画像1における各物体の二次元位置も検出し、この位置情報を対象物判定手段13の情報結合部13aに送る。
The image acquisition means 11 is for acquiring an external image, and is constituted by a camera or the like. Then, the two-
The
手検知手段12bにおける手検知部12b1は、画像取得手段11から画像1の供給をうけ、供給された画像1において、把持手段である人の手2を検出し、さらに、手2の二次元位置を検出するものである。そして、手検知部12b1は、検出した手2の位置情報及び形状情報を、同じ手検知手段12b内の手形状推定部12b2に送る。
なお、手検知手段12bによる手2の検出の際、画像1内における肌色領域の抽出及び人の肌のテクスチャマッチングにより、手2自体が検知され、さらに、検知された手2と、辞書15内に予め登録された手形状のパターンとのマッチングにより手2の二次元形状が検出される。
The hand detection unit 12b1 in the
When the hand 2 is detected by the
手形状推定部12b2は、手検知部12b1により検出された二次元画像1上での手2の形状から、手の向き、手の傾斜角度、及び指の曲がり角度等の情報を含む手2の手指形状すなわち手2の把持姿勢を推定するものである。そして、手形状推定部12b2は、推定した手2の把持姿勢情報、並びに手検知部12b1より供給された手2の位置情報及び形状情報を、同じ手検知手段12b内の限定条件生成部12b3に送る。
なお、手2の把持姿勢の推定ついて、例えば、谷本らの研究(谷本貴頌他により2006年3月に作成され公知となった「ロボットハンド制御のための自己増殖型SOMを用いた画像データベースからの手指形状の実時間推定」と題する筑波大学大学院博士課程システム情報工学研究科修士論文)に記載される方法を使用することによって、手を撮像した一つの二次元画像から手の把持姿勢の推定を行うことができる。谷本らの研究では、予め、手の関節の角度情報と手画像とを同期させて取得し、画像における輪郭抽出と特徴量化を行い、この特徴量と角度とをデータとしてデータベースを構築している。そして、手の実画像について、データベースの構築時と同様の特徴量化を行い、得られた特徴量とデータベースの特徴量との比較を行うことで手の関節の角度を推定し、手の把持姿勢を推定している。
また、複数の画像取得手段11を使用し、これらの画像取得手段11により異なる方向から撮像した手2の画像から、手2を立体的に復元し、手2の把持姿勢を計測することもできる。
The hand shape estimation unit 12b2 includes information on the hand 2 including information such as the direction of the hand, the inclination angle of the hand, and the bending angle of the finger from the shape of the hand 2 on the two-
Regarding the estimation of the gripping posture of the hand 2, for example, a study by Tanimoto et al. ("Image database using self-propagating SOM for robot hand control" which was made public in March 2006 by Takaaki Tanimoto et al. Using the method described in the University of Tsukuba Graduate School of Information Science and Technology Master's thesis) Estimation can be performed. In the research of Tanimoto et al., The joint joint angle information and hand image are acquired in advance, contour extraction and feature quantification are performed in the image, and a database is constructed using this feature value and angle as data. . Then, the actual image of the hand is converted into the same feature as when the database was constructed, and the angle of the joint of the hand is estimated by comparing the obtained feature with the feature of the database. Is estimated.
Further, by using a plurality of image acquisition means 11, the hand 2 can be three-dimensionally restored from the image of the hand 2 captured from different directions by the image acquisition means 11, and the gripping posture of the hand 2 can be measured. .
限定条件生成部12b3は、手形状推定部12b2により推定された手2の把持姿勢情報から、対象物3を把持する側において手2の指及び掌等によって形成される空間の範囲を限定し、さらに、この空間の範囲の中で、画像1において手2によって隠れて写し出されていない領域を特定するものである。
The limiting condition generation unit 12b3 limits the range of the space formed by the finger, palm, and the like of the hand 2 on the side that holds the
そこで、限定条件生成部12b3は、手2によって形成される空間の範囲について画像1と平行な断面の内から、最大断面積を有する断面又は最大外周長を有する断面を求める。さらに、限定条件生成部12b3は、最大断面積を有する断面については、この断面を画像1に投影し、手2によって形成される空間の範囲が画像1の手2と重なる領域を特定し、その特定した領域の面積を算出する。なお、この最大断面積を有する断面における手2によって形成される空間の範囲と画像1の手2とが重なる領域は、図2及び図3の領域図(b)における領域Bにより示される。また、限定条件生成部12b3は、最大外周長を有する断面については、この断面を画像1に投影し、手2によって形成される空間の範囲が画像1の手2と重なる領域を特定し、その特定した領域の外周長を算出する。なお、この最大外周長を有する断面における手2によって形成される空間の範囲と画像1の手2とが重なる領域は、図2及び図3の領域図(b)における領域Bにより示され、この実施形態では、最大断面積を有する断面における手2によって形成される空間の範囲及び画像1の手2が重なる領域Bと同一となっている。
Therefore, the limiting condition generation unit 12b3 obtains a cross section having the maximum cross sectional area or a cross section having the maximum outer peripheral length from the cross sections parallel to the
また、領域Bの面積及び外周長は、画像1において対象物3における手2によって隠された部位の領域を限定するための限定条件となっている。
そして、限定条件生成部12b3は、図2及び図3の領域図(b)に示す領域Bの面積の値又は外周長の値を、対象物判定手段13の情報結合部13aに送る。また、限定条件生成部12b3は、手検知部12b1により検出されて手形状推定部12b2を介して送られた手2の位置情報及び形状情報も情報結合部13aに送る。
なお、手検知手段12bにおける処理動作と、物体検知手段12aにおける処理動作は並行して行われる。
Further, the area and the outer peripheral length of the region B are the limiting conditions for limiting the region of the part hidden in the
Then, the limiting condition generating unit 12b3 sends the area value or the outer peripheral length value of the region B shown in the region diagram (b) of FIGS. 2 and 3 to the information combining unit 13a of the
The processing operation in the
対象物判定手段13における情報結合部13aは、物体検知手段12aから送られた画像1における手2も含んだ各物体の位置情報及び形状情報と、限定条件生成部12b3から送られた、領域B[図2及び図3の領域図(b)参照]の面積の値又は外周長の値、並びに手2の位置情報及び形状情報とを結合するものである。
そこで、情報結合部13aは、画像1における各物体の位置情報及び形状情報と、手2の位置情報及び形状情報とに基づき、手2によって把持されている対象物3を、物体検知手段12aにより検出された各物体の内から特定する。このとき、情報結合部13aによって特定された対象物3の領域は、図2及び図3の領域図(a)の部分領域Aで示され、部分領域Aは画像1上に写し出されている対象物3を示す。
The information combining unit 13a in the
Therefore, the information combining unit 13a uses the
次に、情報結合部13aは、部分領域A[図2及び図3の領域図(a)参照]の面積の値又は外周長の値に、限定条件生成部12b3から送られた領域B[図2及び図3の領域図(b)参照]の面積の値又は外周長の値を結合する。
情報結合部13aは、部分領域Aの面積の値に領域Bの面積の値を結合する場合、領域Bの面積の値を部分領域Aの面積の値に加える。また、情報結合部13aは、部分領域Aの外周長の値に領域Bの外周長の値を結合する場合、領域Bの外周長の値を部分領域Aの外周長に加えたものから、部分領域A及び領域Bが互いに隣接する部位である外周部B1、B2、B3[図2及び図3の領域図(c)参照]の外周長の値の2倍の値を減じる。
Next, the information combining unit 13a sets the area B [see FIG. 2] sent from the limiting condition generating unit 12b3 to the area value or the outer peripheral length value of the partial area A [see the area diagrams (a) in FIGS. 2 and 3]. 2 and the region diagram (b) of FIG. 3] are combined.
When combining the value of the area of the region B with the value of the area of the partial region A, the information combining unit 13a adds the value of the area of the region B to the value of the area of the partial region A. In addition, when combining the value of the outer peripheral length of the region B with the value of the outer peripheral length of the partial region A, the information combining unit 13a adds the value of the outer peripheral length of the region B to the outer peripheral length of the partial region A. A value that is twice the value of the outer peripheral length of the outer peripheral portions B1, B2, and B3 (refer to the region diagrams (c) in FIGS. 2 and 3), which are regions adjacent to each other, is reduced.
これにより、画像1において手2によって隠された対象物3の部位を面積又は外周長により限定する限定条件を部分領域Aに結合して得られる、対象物3の仮想面積の値又は仮想外周長の値が算出される。そして、この算出された対象物3の仮想面積の値又は仮想外周長の値は、情報結合部13aによって、同じ対象物判定手段13内の対象物認識部13bに送られる。また、情報結合部13aは、対象物3における部分領域Aの形状情報も対象物認識部13bに送る。
Thereby, the value of the virtual area of the
対象物認識部13bは、情報結合部13aから送られた対象物3の仮想面積の値又は仮想外周長の値から、対象物3の全体形状を特定するものである。
そこで、対象物認識部13bは、辞書15に登録された図5に示されるデータベース15aにアクセスする。
データベース15aは、物品の名称、その物品の面積(投影面積)、その物品の外周長(投影面の外周長)、及びその物品の全体形状からなるセットを物品に関するデータとしてテーブル化し、多様な種類の物品に関するデータを含んでいる。そして、データベース15a内では、物品の面積又は外周長について昇順に、物品に関するデータが並べられている。
The
Therefore, the
The
対象物認識部13bは、情報結合部13aから対象物3の仮想面積の値が送られた場合、データベース15a内において、送られた対象物3の仮想面積の値以下となる面積を有する物品のみを検索範囲に含むように設定し、検索範囲内の物品の全体形状と情報結合部13aから送られた対象物3の部分領域A[図3の領域図(a)参照]の形状とのマッチングを行う。この際、対象物認識部13bは、対象物3の仮想面積に最も近い面積を有する物品から面積に関して降順に(面積が小さくなる方向に向かって)、検索範囲内の物品を検索し物品と対象物3とのマッチングを行う。
例えば、対象物3の仮想面積の値が7である場合、データベース15aにおいて面積が7以下である、バナナやイチゴ等の形状と部分領域Aの形状とのマッチングが行われる。
When the value of the virtual area of the
For example, when the value of the virtual area of the
また、対象物認識部13bは、情報結合部13aから対象物3の仮想外周長の値が送られた場合、データベース15a内において、送られた仮想外周長の値以下の外周長を有する物品のみを検索範囲に含むように設定し、検索範囲内の物品の全体形状と対象物3の部分領域Aの形状とのマッチングを、上述の面積を使用したマッチングと同様にして行う。
Further, when the value of the virtual outer circumference length of the
このマッチングの結果、対象物認識部13bは、対象物3の部分領域Aの形状と類似する形状を有する物品を、対象物3と認識する。これにより、画像1において隠れた部位を有する対象物3の全体形状が特定される。また、対象物認識部13bは、データベース15a内の物品の全体形状と対象物3の部分領域Aの形状とのマッチングの際、対象物3の向きや傾き等の把持姿勢を特定することもできる。
よって、認識装置101は、対象物3の部分領域Aの形状と辞書15内のデータベース15a内の物品の形状とのマッチングを行う際、対象物3及びデータベース15a内の物品間における面積の値又は外周長の値の比較によって、マッチングを行うデータベース15a内の物品を限定してその数量を低減しているため、マッチングに関する処理量が低減され、処理速度が向上する。
As a result of this matching, the
Therefore, when the
このように、実施の形態1に係る把持手段によって把持されている対象物の認識装置101によれば、手2及び手2によって把持されている対象物3を含む物体の画像1を取得する画像取得ステップと、画像1に写し出された物体を検知する物体検知ステップと、画像1に写し出された手2を検知し、手2の把持姿勢を推定する手検知ステップと、物体検知ステップにより検知された物体に関する情報及び手検知ステップにより検知された手2に関する情報から、画像1における対象物3(部分領域A)を特定し、特定された対象物3(部分領域A)の外観に関する情報及び手検知ステップにより推定された手2の把持姿勢に関する情報から、対象物3の全体形状を認識する対象物判定ステップとを行うことにより、対象物3を認識することができる。
As described above, according to the
これにより、画像1に写し出される手2の画像から推定される把持姿勢から、手2の内側(把持側)に形成される空間範囲を算出することができる。そして、この空間範囲から、手2により隠れている対象物3の取り得る領域が限定される。よって、対象物3は、画像1に写し出されている部位(部分領域A)だけなく、手2により隠れている対象物3の取り得る領域よってもその外観上の要素が限定されて、対象物3の全体形状が認識される。このため、対象物3の認識に要する処理量が低減される。従って、認識装置101によれば、対象物3の認識に要する処理速度を向上させることができる。
Thereby, the spatial range formed inside the hand 2 (gripping side) can be calculated from the gripping posture estimated from the image of the hand 2 projected on the
画像取得ステップ及び物体検知ステップはそれぞれ、画像取得手段11及び物体検知手段12aによって行われる。
また、手検知ステップは、手検知手段12bによって行われる。手検知手段12bは、推定された手2の把持姿勢に関する情報から、手2により囲まれる領域を算出し、手2により囲まれる領域から画像1における手2によって隠れた部分を含む領域(領域B)を特定することもできる。
The image acquisition step and the object detection step are respectively performed by the
The hand detection step is performed by the hand detection means 12b. The
また、対象物判定ステップは、対象物判定手段13によって行われる。対象物判定手段13は、特定された対象物3(部分領域A)に手2によって隠れた部分に相当する領域(領域B)を結合し、結合された対象物3から対象物3の全体形状を認識することもできる。このとき、手2によって隠れた部分に相当する領域(領域B)及び画像1に写し出されている対象物3(部分領域A)の外観に関する情報を結合することにより、面積、外周長等の対象物3全体の外観に関する要素の範囲が限定される。よって、対象物3は、画像1に写し出されている部位(部分領域A)だけなく、対象物3の外観に関する要素によっても限定されて、対象物3の全体形状が認識される。
Further, the object determining step is performed by the
また、対象物判定手段13は、把持されている対象物3に関する情報を含むデータベース15aにアクセスし、結合された対象物3に関する情報(対象物3の仮想面積又は仮想外周長)を条件としてこの条件を満たす範囲内のみでデータベースを検索し、データベースとのマッチングを行うこともできる。これにより、結合された対象物3に関する情報(対象物3の仮想面積又は仮想外周長)を条件としてその条件の範囲内にデータベース15aの検索範囲を限定することができるため、検索に要する処理量が低減され、処理速度が向上する。
Further, the object determination means 13 accesses the
また、画像取得手段11は、複数設けられていてもよい。複数の画像取得手段11によって複数の画像が供給される場合、物体検知手段12a及び手検知部12b1は、複数の画像に基づき、画像1に含まれる物体及び手2の三次元空間内での位置を検出することがきる。また、画像取得手段11は、ステレオカメラであってもよい。ステレオカメラによって撮像された画像では、画像1に含まれる物体及び手2における平面的な位置だけでなく遠近に関する距離も示すことができる、すなわち三次元位置を検出することがきる。これにより、対象物判定手段13の情報結合部13aにおいて、手2によって把持される対象物3を特定する際、手2と画像1内の物体との位置を三次元上で比較することができるため、対象物3の特定に要する処理量が低減され、処理速度を向上させることができる。
Further, a plurality of image acquisition means 11 may be provided. When a plurality of images are supplied by the plurality of
また、対象物判定手段13の対象物認識部13bにおいて、データベース15a内の物品の全体形状と対象物3の部分領域Aの形状とのマッチングの際、データベース15a内の物品の検索範囲を、対象物3の仮想面積及び仮想外周長の値の両方の値以下となる面積及び外周長を有する物品のみを含むように限定してもよい。これにより、マッチングに使用されるデータベース15a内のデータ量がさらに低減され、さらなる処理速度の向上を図ることができる。
In addition, in the
実施の形態2.
この発明の実施の形態2に係る把持手段によって把持されている対象物の認識装置102は、実施の形態1における認識装置101の手検知部12b1から物体検知手段12aに対して情報が送信されるように構成したものである。
なお、以下の実施の形態において、前出した図における参照符号と同一の符号は、同一または同様な構成要素であるので、その詳細な説明は省略する。
Embodiment 2. FIG.
The
In the following embodiments, the same reference numerals as those in the previous drawings are the same or similar components, and thus detailed description thereof is omitted.
図6を参照すると、認識装置102において、実施の形態1と同様にして、画像取得手段11から、物体検知手段22a、及び手検知手段22bの手検知部22b1へ情報が送信されるようになっている。
さらに、手検知部22b1から、手形状推定部22b2及び物体検知手段22aへ情報が送信されるようになっている。
このため、図1も合わせて参照すると、手検知部22b1は、画像取得手段11から画像1の供給をうけ、供給された画像1において検出した手2の位置情報及び形状情報を手形状推定部22b2及び物体検知手段22aに送る。
Referring to FIG. 6, in the
Further, information is transmitted from the hand detection unit 22b1 to the hand shape estimation unit 22b2 and the
Therefore, referring also to FIG. 1, the hand detection unit 22b1 receives the supply of the
物体検知手段22aは、画像取得手段11から供給された画像1における各物体の形状及び位置を検出するが、手検知部22b1から手2の位置情報が送られている。このため、物体検知手段22aは、この情報に基づき、手2の近傍から物体の検索を開始し、手2の近傍に位置する物体について、それらの位置及び形状を検出する。すなわち、物体検知手段22aは、手2の外側において、手2の周縁近くから検索範囲を拡げていき、手2の周縁の近くで検知される物体の位置及び形状を検出する。
さらに、物体検知手段22aは、検出した物体の位置情報及び形状情報と、手検知部22b1から送られた手2の位置情報及び形状情報とに基づき、手2によって把持されている対象物3を、検出した物体から特定する。そして、物体検知手段22aは、特定した対象物3の位置情報及び形状情報を対象物判定手段23の情報結合部23aに送る。
The
Further, the object detection means 22a detects the
手検知手段22bにおける手形状推定部22b2及び限定条件生成部22b3は、実施の形態1の手形状推定部12b2及び限定条件生成部12b3と同様に動作して、情報結合部23aに対して、図2及び図3の領域図(b)に示す領域Bの面積の値又は外周長の値、並びに手2の位置情報及び形状情報を送る。
対象物判定手段23における情報結合部23aは、物体検知手段22aから送られた対象物3の位置情報及び形状情報と、限定条件生成部22b3から送られた、領域B[図2及び図3の領域図(b)参照]の面積の値又は外周長の値とを結合する。
The hand shape estimation unit 22b2 and the limitation condition generation unit 22b3 in the
The
なお、本実施の形態2では既に対象物3が特定されているため、情報結合部23aは、対象物3の部分領域A[図2及び図3の領域図(a)参照]の面積の値又は外周長の値と、領域B[図2及び図3の領域図(b)参照]の面積の値又は外周長の値とを結合して、対象物3の仮想面積の値又は仮想外周長の値を算出し、この値を対象物認識部23bに送る。
また、この発明の実施の形態2に係る把持手段によって把持されている対象物の認識装置102のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
In the second embodiment, since the
Further, since the other configuration and operation of the
このように、実施の形態2における把持手段によって把持されている対象物の認識装置102によれば、上記実施の形態1の認識装置101と同様な効果が得られる。
また、認識装置102において、物体検知手段22aは、手検知手段22bの手検知部22b1により検出された手2に関する情報に基づき、画像1に写し出された物体から対象物3を特定することもできる。そこで、物体検知手段22aは、物体検知手段22aでの処理動作において、手2の位置及び形状等に関する情報から、画像1における物体の検索を手2の近傍から開始し、検出する物体を手2の近傍のものに限定して物体を検出し、さらに、検出した物体から対象物3を特定する。よって、物体検知手段22aは、物体の検索範囲及び検出する物体の数量を実施の形態1より低減している。このため、認識装置102は、物体検知手段22a及び情報結合部23aでの処理量が低減されるため、実施の形態1の認識装置101より処理速度が向上する。
Thus, according to the
In the
実施の形態3.
この発明の実施の形態3に係る把持手段によって把持されている対象物の認識装置103の構成は、実施の形態1における認識装置101の手形状推定部12b2から物体検知手段12aに対して情報が送信されるように構成したものである。
In the configuration of the
図7を参照すると、認識装置103において、実施の形態1と同様にして、画像取得手段11から、物体検知手段32a、及び手検知手段32bの手検知部32b1へ情報が送信されるようになっている。さらに、手検知部32b1から手形状推定部32b2へ情報が送信されるようになっている。
また、手形状推定部32b2から、限定条件生成部32b3及び物体検知手段32aへ情報が送信されるようになっている。
Referring to FIG. 7, in the
Information is transmitted from the hand shape estimation unit 32b2 to the limiting condition generation unit 32b3 and the
図1も合わせて参照すると、手形状推定部32b2は、実施の形態1と同様にして、手検知部32b1から、画像1において検出された手2の位置情報及び形状情報の供給をうけ、手2の形状情報から手2の把持姿勢を推定する。そして、手形状推定部32b2は、推定した手2の把持姿勢情報、並びに手2の位置情報及び形状情報を限定条件生成部32b3及び物体検知手段32aに送る。
限定条件生成部32b3は、手形状推定部32b2から送られた情報を基に、図2及び図3の領域図(b)に示す領域Bにおける面積の値又は外周長の値を算出し、この算出した値、並びに手2の位置情報及び形状情報を対象物判定手段33の情報結合部33aに送る。
Referring also to FIG. 1, the hand shape estimation unit 32b2 receives the position information and shape information of the hand 2 detected in the
Based on the information sent from the hand shape estimation unit 32b2, the limiting condition generation unit 32b3 calculates the area value or the outer circumference length value in the region B shown in the region diagram (b) of FIGS. The calculated value and the position information and shape information of the hand 2 are sent to the
また、物体検知手段32aは、画像取得手段11から供給された画像1における各物体の形状及び位置を検出する。しかしながら、物体検知手段32aには、手2の把持姿勢情報、並びに手2の位置情報及び形状情報が手形状推定部32b2により供給されている。このため、物体検知手段32aは、画像1における物体の形状及び位置を検出する場合、手2の位置情報から物体の検索を手2の近傍から開始することができ、さらに、手2の把持姿勢情報から手2の把持可能な領域(把持側領域)に限定して物体の検索を行うことができる。すなわち、物体検知手段32aは、手2の把持可能領域(把持側領域)における手2の近傍から物体の検索を開始し、手2の把持可能領域(把持側領域)であり且つ手2の近傍に位置する物体の位置及び形状を検出する。例えば、把持側領域には、手2における指及び掌の内側の領域が含まれ、手2の甲側の領域は含まれない。
In addition, the
さらに、物体検知手段32aは、検出した物体の位置及び形状と、手形状推定部32b2から送られた手2の位置情報及び形状情報とに基づき、手2によって把持されている対象物3を、検出した物体から特定する。そして、物体検知手段32aは、特定した対象物3の位置情報及び形状情報を対象物判定手段33の情報結合部33aに送る。
Furthermore, the
情報結合部33aは、物体検知手段32aから送られた対象物3の位置情報及び形状情報と、限定条件生成部32b3から送られた、領域B[図2及び図3の領域図(b)参照]の面積の値又は外周長の値とを、実施の形態2と同様にして結合して、対象物3の仮想面積の値又は仮想外周長の値を算出し、この値を対象物認識部33bに送る。
また、この発明の実施の形態3に係る把持手段によって把持されている対象物の認識装置103のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
The
Moreover, since the other structure and operation | movement of the
このように、実施の形態3における把持手段によって把持されている対象物の認識装置103によれば、上記実施の形態1の認識装置101と同様な効果が得られる。
また、認識装置103において、物体検知手段32aは、手検知手段32bの手検知部32b1により検出された手2の位置及び形状に関する情報、及び手形状推定部32b2により推定された手2の把持姿勢に関する情報に基づき、画像1に写し出された物体から対象物3を特定することもできる。そこで、物体検知手段32aでの処理動作において、画像1における物体の位置及び形状の検出は、手2の把持姿勢に関する情報及び手2の位置及び形状から、手2の把持可能領域(把持側領域)における手2の近傍から物体の検索を開始し、検出する物体を手2の把持可能領域(把持側領域)であり且つ手2の近傍に位置する物体に限定している。そして、物体検知手段32aは、検出した物体から対象物3を特定する。このため、物体の検索範囲及び検出する物体の数量が実施の形態2より低減されている。よって、認識装置103は、物体検知手段32aでの処理量が低減されるため、実施の形態2の認識装置102より処理速度が向上する。
Thus, according to the
In the
実施の形態4.
この発明の実施の形態4に係る把持手段によって把持されている対象物の認識装置104の構成は、実施の形態1における認識装置101の限定条件生成部12b3により算出される領域Bを変更したものであり、対象物3を把持する側において手2によって形成される空間の範囲自体の断面を領域Bとしたものである。
Embodiment 4 FIG.
The configuration of the
図9を参照すると、認識装置104は、実施の形態1と同様にして、画像取得手段11、物体検知手段42a、手検知手段42b、及び対象物判定手段43によって構成されている。
手検知手段42bの限定条件生成部42b3には、実施の形態1と同様にして、同じ手検知手段42bの手形状推定部42b2から、手検知部42b1により画像1(図1参照)において検出された手2(図1参照)の位置情報及び形状情報、並びに手形状推定部42b2により推定された手2の把持姿勢情報が送られる。
Referring to FIG. 9, the
Similarly to the first embodiment, the limited condition generating unit 42b3 of the
図8も合わせて参照すると、限定条件生成部42b3は、手2の把持姿勢情報から、対象物3を把持する側において手2によって形成される空間の範囲を限定する。さらに、限定条件生成部42b3は、手2によって形成される空間の範囲について画像1(図1参照)と平行な断面の内から、最大断面積を有する断面又は最大外周長を有する断面を求める。そこで、限定条件生成部42b3は、この求めた断面を画像1に投影し、この投影された領域は、図8の領域Bdのように示される。なお、本実施の形態4では、最大断面積を有する断面と最大外周長を有する断面とを同一としている。さらに、限定条件生成部42b3は、領域Bdの位置及び形状を検出すると共に、領域Bdの断面積の値又は外周長の値を算出し、これらの情報を対象物判定手段43の情報結合部43aに送る。また、同時に、限定条件生成部42b3は、手形状推定部42b2より送られた手2の位置情報及び形状情報を情報結合部43aに送る。
Referring also to FIG. 8, the limiting
情報結合部43aは、物体検知手段42aにより検出されて送られた画像1(図1参照)における各物体の位置情報及び形状情報と、手2の位置情報及び形状情報と、領域Bdの位置情報及び形状情報とに基づき、手2によって把持されている対象物3を、物体検知手段42aにより検出された各物体の内から特定する。さらに、情報結合部43aは、特定した対象物3の領域から領域Bdと重なる領域を除去した領域を特定し、この領域の位置及び形状を検出する。なお、情報結合部43aにより特定された、領域Bdと重なる領域を除去した対象物3の領域は、図8に示す部分領域Adとなる。
The
次に、情報結合部43aは、部分領域Adの面積の値又は外周長の値を算出し、この算出した部分領域Adの面積の値又は外周長の値と、限定条件生成部42b3から送られた領域Bdの面積の値又は外周長の値とを結合し、対象物3の仮想面積の値又は仮想外周長の値を算出する。すなわち、対象物3の仮想面積の値は、部分領域Ad及び領域Bdを結合した領域全体の面積の値であり、対象物3の仮想外周長の値は、部分領域Ad及び領域Bdを結合した領域全体における外周長の値である。
そして、情報結合部43aは、この算出された対象物3の仮想面積の値又は仮想外周長の値と、対象物3の部分領域Adの形状情報とを対象物認識部43bに送る。
Next, the
Then, the
また、この発明の実施の形態4に係る把持手段によって把持されている対象物の認識装置104のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
このように、実施の形態4における把持手段によって把持されている対象物の認識装置104によれば、上記実施の形態1の認識装置101と同様な効果が得られる。
また、認識装置104において、手検知手段42bの限定条件生成部42b3は、対象物3を把持する側において手2によって形成される空間の範囲の断面である領域Bdにおける面積又は外周長の値を算出し、この値を対象物3の全体形状を特定するための限定条件としている。これにより、限定条件生成部42b3は、手2と領域Bdとが重なる領域の算出や、領域Bdにおける手2の外周部の長さの算出のために手2の指のエッジ部分の長さの算出といった、細かい情報処理作業が低減されている。よって、認識装置104は、限定条件生成部42b3での処理量が低減されるため、実施の形態1の認識装置101より処理速度を向上させることができる。
Further, since the other configuration and operation of the
Thus, according to the
Further, in the
実施の形態5.
この発明の実施の形態5に係る把持手段によって把持されている対象物の認識装置105の構成は、実施の形態1における認識装置101の物体検知手段12aから限定条件生成部12b3に対して情報が送信されるように構成したものである。
Embodiment 5 FIG.
In the configuration of the
図11を参照すると、認識装置105において、実施の形態1と同様にして、画像取得手段11から、物体検知手段52a、及び手検知手段52bの手検知部52b1へ情報が送信されるようになっている。さらに、手検知部52b1から手形状推定部52b2へ、そして、手形状推定部52b2から限定条件生成部52b3へ情報が送信されるようになっている。また、物体検知手段52aからは、限定条件生成部52b3及び対象物判定手段53の情報結合部53aへ情報が送信されるようになっている。
そこで、手形状推定部52b2は、実施の形態1と同様にして、手検知部52b1により画像1(図1参照)において検出された手2(図1参照)の位置情報及び形状情報、並びに手形状推定部52b2が推定した手2の把持姿勢情報を限定条件生成部52b3に送る。また、物体検知手段52aは、画像1において検出した各物体の位置情報及び形状情報を、限定条件生成部52b3及び情報結合部53aに送る。
Referring to FIG. 11, in the
Accordingly, the hand shape estimation unit 52b2 performs position information and shape information of the hand 2 (see FIG. 1) detected in the image 1 (see FIG. 1) by the hand detection unit 52b1 as well as the first embodiment, and the hand. The holding posture information of the hand 2 estimated by the shape estimating unit 52b2 is sent to the limiting condition generating unit 52b3. Further, the object detection means 52a sends the position information and shape information of each object detected in the
図10も合わせて参照すると、限定条件生成部52b3は、実施の形態1と同様にして、物体検知手段52aから送られた画像1(図1参照)における各物体の位置情報及び形状情報と、手形状推定部52b2から送られた手2の位置情報及び形状情報とに基づき、手2によって把持されている対象物3を、物体検知手段52aにより検出された各物体の内から特定する。この特定された対象物3は、図10の部分領域Aによって示される。
さらに、限定条件生成部52b3は、手形状推定部52b2から送られた情報を基に、図10に示す領域Bを算出する。なお、領域Bは、実施の形態1における領域Bと同じである。
Referring to FIG. 10 as well, the limiting condition generation unit 52b3, as in the first embodiment, the position information and shape information of each object in the image 1 (see FIG. 1) sent from the
Further, the limiting condition generation unit 52b3 calculates a region B shown in FIG. 10 based on the information sent from the hand shape estimation unit 52b2. Region B is the same as region B in the first embodiment.
次に、限定条件生成部52b3は、部分領域A及び領域Bの位置及び形状を検出し、検出したこれらの位置情報及び形状情報に基づき、部分領域A(対象物3)及び領域Bによって囲まれる領域である図10に示す領域Cを特定する。
さらに、限定条件生成部52b3は、領域Cと部分領域Aとの境界線C1を検出する。そして、限定条件生成部52b3は、境界線C1の曲率に合わせて境界線C1の両端を領域Bの内部に向かって領域Bの外周部B4に到達するまで延長し、境界線C1の両端に延長線部C2及びC3を設定する。なお、延長線部C2及びC3は、境界線C1の接線方向に延びる直線であってもよい。
Next, the limiting condition generation unit 52b3 detects the positions and shapes of the partial areas A and B, and is surrounded by the partial areas A (target 3) and the areas B based on the detected position information and shape information. A region C shown in FIG. 10 which is a region is specified.
Further, the limiting condition generation unit 52b3 detects a boundary line C1 between the region C and the partial region A. Then, the limiting condition generation unit 52b3 extends both ends of the boundary line C1 toward the inside of the region B in accordance with the curvature of the boundary line C1 until reaching the outer peripheral portion B4 of the region B, and extends to both ends of the boundary line C1. Line parts C2 and C3 are set. Note that the extended line portions C2 and C3 may be straight lines extending in the tangential direction of the boundary line C1.
そこで、限定条件生成部52b3は、延長線部C2及びC3を境界として、領域Bにおける部分領域A(対象物3)側の領域のみを新しい領域Be1として採用し、延長線部C2及びC3を境界とした領域Bにおける部分領域A(対象物3)と反対側となる領域Be2を削除する。このため、領域Be1は、領域Bの一部分に限定したものとなっており、対象物3における手2によって隠れた実際の領域に対して領域Bより近い形状及び面積を有している。
さらに、限定条件生成部52b3は、領域Be1における面積の値又は外周長の値を算出し、この情報を対象物判定手段53の情報結合部53aに送る。また、同時に、限定条件生成部52b3は、部分領域Aの位置情報及び形状情報を情報結合部53aに送る。
Therefore, the limiting condition generation unit 52b3 adopts only the region on the partial region A (target 3) side in the region B as the new region Be1 with the extended line portions C2 and C3 as the boundary, and the extended line portions C2 and C3 as the boundary. The region Be2 on the opposite side to the partial region A (object 3) in the region B is deleted. For this reason, the region Be1 is limited to a part of the region B, and has a shape and area closer to those of the region B than the actual region hidden by the hand 2 in the
Further, the limiting
情報結合部53aは、限定条件生成部52b3から送られた部分領域Aの形状情報から、部分領域Aの面積の値又は外周長の値を算出し、部分領域Aの面積の値又は外周長の値と、限定条件生成部12b3から送られた領域Be1の面積の値又は外周長の値とを結合し、対象物3の仮想面積の値又は仮想外周長の値を算出する。すなわち、対象物3の仮想面積の値は、部分領域A及び領域Be1を結合した領域全体の面積の値であり、対象物3の仮想外周長の値は、部分領域A及び領域Be1を結合した領域全体における外周長の値である。なお、この算出された対象物3の仮想面積の値又は仮想外周長の値は、実施の形態1に示すような領域Bを使用して求めた対象物3の仮想面積の値又は仮想外周長の値より、実際の対象物3全体の面積の値又は外周長の値に近いものとなっている。
そして、この算出された対象物3の仮想面積の値又は仮想外周長の値は、対象物3の部分領域Aの形状情報と共に、情報結合部53aによって、対象物認識部53bに送られる。
The
Then, the calculated value of the virtual area of the
また、この発明の実施の形態5に係る把持手段によって把持されている対象物の認識装置105のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
このように、実施の形態5における把持手段によって把持されている対象物の認識装置105によれば、上記実施の形態1の認識装置101と同様な効果が得られる。
また、認識装置105における対象物3の仮想面積の値又は仮想外周長の値は、実施の形態1における領域Bをその一部分である領域Be1に限定して算出されているため、実施の形態1において算出される対象物3の仮想面積の値又は仮想外周長の値より、実際の対象物3全体の面積の値又は外周長の値に近いものとなっている。これにより、データベース15a(図5参照)内の物品の検索範囲が狭くなるため、対象物判定手段53の対象物認識部53bにおけるデータベース15aとのマッチングの際の処理量が低減される。よって、認識装置105は、実施の形態1の認識装置101より処理速度を向上させることができる。
Further, since the other configuration and operation of the
Thus, according to the
In addition, since the value of the virtual area or the virtual outer circumference length of the
実施の形態6.
この発明の実施の形態6に係る把持手段によって把持されている対象物の認識装置106の構成は、実施の形態1における認識装置101の限定条件生成部12b3が、領域Bの面積の値又は外周長の値を情報結合部13aに送っていたものを、領域Bの位置情報及び形状情報を送るようにしたものである。
Embodiment 6 FIG.
The configuration of the
図12を参照すると、認識装置106は、実施の形態1と同様にして、画像取得手段11、物体検知手段62a、手検知手段62b、及び対象物判定手段63によって構成されている。
手検知手段62bの限定条件生成部62b3には、手検知部62b1より検出された手2(図1参照)の位置情報及び形状情報、並びに、手形状推定部62b2により推定された手2の姿勢情報が送られる。
図2及び3を合わせて参照すると、限定条件生成部62b3は、実施の形態1と同様にして、送られた情報を基に、図2及び図3の領域図(b)に示す領域Bを算出する。さらに、限定条件生成部62b3は、領域Bの位置及び形状を検出し、この検出した位置情報及び形状情報を対象物判定手段63の情報結合部63aに送る。また、同時に、限定条件生成部62b3は、手2の位置情報及び形状情報を情報結合部63aに送る。
Referring to FIG. 12, the
The limited condition generation unit 62b3 of the
Referring to FIGS. 2 and 3 together, the limiting condition generation unit 62b3 creates the area B shown in the area diagram (b) of FIGS. 2 and 3 based on the sent information in the same manner as in the first embodiment. calculate. Further, the limiting condition generating unit 62b3 detects the position and shape of the region B, and sends the detected position information and shape information to the
情報結合部63aは、物体検知手段62aにより検出されて送られた画像1(図1参照)における各物体の位置情報及び形状情報と、限定条件生成部62b3から送られた手2の位置情報及び形状情報とに基づき、手2によって把持されている対象物3を、物体検知手段62aにより検出された各物体の内から特定する。なお、この特定された対象物3は、図2及び図3の領域図(a)の部分領域Aによって示される。
さらに、情報結合部63aは、部分領域A[図3の領域図(a)参照]と、限定条件生成部62b3から送られた領域B[図3の領域図(b)参照]とを、それらの位置情報及び形状情報に基づいて結合する(図2参照)。そして、情報結合部63aは、部分領域A及び領域Bを結合した領域における仮想面積の値又は仮想外周長の値を算出する。
算出された仮想面積の値又は仮想外周長の値は、情報結合部63aによって、対象物認識部63bに送られる。また、同時に、部分領域Aの形状情報も、情報結合部63aによって対象物認識部63bに送られる。
The
Further, the
The calculated value of the virtual area or the value of the virtual outer circumference length is sent to the
また、この発明の実施の形態6に係る把持手段によって把持されている対象物の認識装置106のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
このように、実施の形態6における把持手段によって把持されている対象物の認識装置106によれば、上記実施の形態1の認識装置101と同様な効果が得られる。
Further, since the other configuration and operation of the
Thus, according to the
また、実施の形態1〜6の対象物判定手段13〜63において、限定条件を対象物3の部分領域A及びAdに結合して得られる対象物3の仮想面積の値又は仮想外周長の値を使用して、データベース15a内の検索範囲を限定し、検索範囲内の物品の形状と対象物3の形状とのマッチングを行っていたがこれに限定されるものではない。データベース15aに物品の柔らかさ(触感)や物品の色に関する項目を追加し、対象物3から検出される柔らかさ(触感)、及び画像1から検出される対象物3の色によって、データベース15a内の物品の検索範囲をさらに限定してもよい。これにより、データベース15a内の物品の形状と対象物3の形状とのマッチングの際の処理量がさらに低減されるため、認識装置101〜106の処理速度を向上させることができる。
Moreover, in the object determination means 13-63 of Embodiments 1-6, the value of the virtual area of the
また、実施の形態1〜6の認識装置101〜106において、対象物3の把持手段を人の手2としていたがこれに限定されるものでなく、ロボットハンドであってもよい。
また、実施の形態1〜6において、手2すなわち把持手段によって、画像1における隠れた部分を有する対象物3の全体形状を認識していたが、これに限定されるものではない。対象物3を隠しているものが布などの把持手段以外のものであっても、認識装置101〜106による対象物3の認識方法を適用することができる。
In the
In the first to sixth embodiments, the entire shape of the
1 画像、2 手(把持手段)、3 対象物、11 画像取得手段、12a,22a,32a,42a,52a,62a 物体検知手段、12b,22b,32b,42b,52b,62b 手検知手段、13,23,33,43,53,63 対象物判定手段、15a データベース、101,102,103,104,105,106 把持手段によって把持されている対象物の認識装置。 1 image, 2 hands (gripping means), 3 object, 11 image acquisition means, 12a, 22a, 32a, 42a, 52a, 62a object detection means, 12b, 22b, 32b, 42b, 52b, 62b hand detection means, 13 , 23, 33, 43, 53, 63 Object determination means, 15a database, 101, 102, 103, 104, 105, 106 Recognizing apparatus for objects gripped by the gripping means.
Claims (9)
前記把持手段及び前記把持手段によって把持されている前記対象物を含む物体の画像を取得する画像取得ステップと、
前記画像に写し出された前記物体を検知する物体検知ステップと、
前記画像に写し出された前記把持手段を検知し、前記把持手段の把持姿勢を推定する把持手段検知ステップと、
前記物体検知ステップにより検知された前記物体に関する情報及び前記把持手段検知ステップにより検知された前記把持手段に関する情報から、前記画像における前記対象物を特定し、
前記特定された対象物の外観に関する情報及び前記把持手段検知ステップにより推定された前記把持手段の把持姿勢に関する情報から、前記対象物の全体形状を認識する対象物判定ステップと
を備える、把持手段によって把持されている対象物の認識方法。 A method for recognizing an object held by a holding means,
An image acquisition step of acquiring an image of an object including the object being gripped by the gripping means and the gripping means;
An object detection step of detecting the object projected in the image;
A gripping means detection step of detecting the gripping means projected in the image and estimating a gripping posture of the gripping means;
From the information related to the object detected in the object detection step and the information related to the gripping means detected in the gripping means detection step, the object in the image is identified.
A grasping means comprising: an object determination step for recognizing the overall shape of the object from information relating to the appearance of the identified object and information relating to a grasping posture of the grasping means estimated by the grasping means detection step. A method for recognizing a grasped object.
前記推定された把持手段の把持姿勢に関する情報から、前記把持手段により囲まれる領域を算出し、
前記把持手段により囲まれる領域から前記画像における前記把持手段によって隠れた部分を含む領域を特定することをさらに含む
請求項1に記載の把持手段によって把持されている対象物の認識方法。 The gripping means detection step includes
From the information about the estimated gripping posture of the gripping means, calculate a region surrounded by the gripping means,
The method for recognizing an object gripped by the gripping means according to claim 1, further comprising: specifying an area including a portion hidden by the gripping means in the image from an area surrounded by the gripping means.
前記特定された対象物に前記特定された領域を結合し、
前記結合された対象物から前記対象物の全体形状を認識することをさらに含む
請求項2に記載の把持手段によって把持されている対象物の認識方法。 The object determining step includes:
Combining the identified region with the identified object;
The method for recognizing an object held by the holding means according to claim 2, further comprising recognizing an overall shape of the object from the combined objects.
把持されている前記対象物に関する情報を含むデータベースにアクセスし、前記結合された対象物に関する情報を条件として前記条件を満たす範囲内のみで前記データベースを検索し、前記データベースとのマッチングを行うことをさらに含む
請求項3に記載の把持手段によって把持されている対象物の認識方法。 The object determining step includes:
Accessing a database containing information about the object being grasped, searching the database only within a range that satisfies the condition on the condition that the information about the combined object is a condition, and performing matching with the database Furthermore, the recognition method of the target object hold | gripped by the holding means of Claim 3.
前記結合された対象物に関する情報は、前記結合された対象物の面積及び外周長の少なくとも1つを含む
請求項4に記載の把持手段によって把持されている対象物の認識方法。 In the object determining step,
The method for recognizing an object held by the holding means according to claim 4, wherein the information related to the combined object includes at least one of an area and an outer peripheral length of the combined object.
前記把持手段検知ステップにより検知された前記把持手段に関する情報に基づき、前記画像に写し出された前記物体から前記対象物を特定することをさらに含む
請求項1〜5のいずれか一項に記載の把持手段によって把持されている対象物の認識方法。 The object detection step includes:
The gripping according to any one of claims 1 to 5, further comprising: specifying the target object from the object projected on the image based on information on the gripping means detected by the gripping means detection step. A method for recognizing an object held by a means.
前記把持手段検知ステップにより推定された前記把持手段の把持姿勢に関する情報に基づき、前記画像に写し出された前記物体から前記対象物を特定することをさらに含む
請求項1〜5のいずれか一項に記載の把持手段によって把持されている対象物の認識方法。 The object detection step includes:
6. The method according to claim 1, further comprising: specifying the target object from the object projected on the image based on information on a gripping posture of the gripping means estimated by the gripping means detection step. A method for recognizing an object gripped by the gripping means.
前記把持手段検知ステップにより検知された前記把持手段に関する情報、及び前記把持手段検知ステップにより推定された前記把持手段の把持姿勢に関する情報に基づき、前記画像に写し出された前記物体から前記対象物を特定することをさらに含む
請求項1〜5のいずれか一項に記載の把持手段によって把持されている対象物の認識方法。 The object detection step includes:
Based on the information on the gripping means detected by the gripping means detection step and the information on the gripping posture of the gripping means estimated by the gripping means detection step, the object is identified from the object projected on the image. A method for recognizing an object gripped by the gripping means according to any one of claims 1 to 5, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009094175A JP2010244413A (en) | 2009-04-08 | 2009-04-08 | Method for recognizing object gripped by grip means |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009094175A JP2010244413A (en) | 2009-04-08 | 2009-04-08 | Method for recognizing object gripped by grip means |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010244413A true JP2010244413A (en) | 2010-10-28 |
Family
ID=43097349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009094175A Pending JP2010244413A (en) | 2009-04-08 | 2009-04-08 | Method for recognizing object gripped by grip means |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010244413A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012133665A (en) * | 2010-12-22 | 2012-07-12 | Sogo Keibi Hosho Co Ltd | Held object recognition device, held object recognition method and held object recognition program |
JP2016115179A (en) * | 2014-12-16 | 2016-06-23 | 日本電気株式会社 | Information processing unit, information processing method, and program |
WO2022264436A1 (en) * | 2021-06-15 | 2022-12-22 | ソニーグループ株式会社 | Information processing device, information processing method, program, and information processing system |
-
2009
- 2009-04-08 JP JP2009094175A patent/JP2010244413A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012133665A (en) * | 2010-12-22 | 2012-07-12 | Sogo Keibi Hosho Co Ltd | Held object recognition device, held object recognition method and held object recognition program |
JP2016115179A (en) * | 2014-12-16 | 2016-06-23 | 日本電気株式会社 | Information processing unit, information processing method, and program |
WO2022264436A1 (en) * | 2021-06-15 | 2022-12-22 | ソニーグループ株式会社 | Information processing device, information processing method, program, and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9002119B2 (en) | Device method and program for human hand posture estimation | |
JP5877053B2 (en) | Posture estimation apparatus and posture estimation method | |
JP5931215B2 (en) | Method and apparatus for estimating posture | |
JP4479194B2 (en) | Motion identification device and object posture identification device | |
JP5667818B2 (en) | Three-dimensional shape skeleton model creation method and apparatus, and three-dimensional shape dimension measurement method and apparatus | |
JP2015519624A5 (en) | ||
JP2010134649A5 (en) | ||
WO2012091144A4 (en) | Information processing apparatus and method | |
JP2018119833A (en) | Information processing device, system, estimation method, computer program, and storage medium | |
JP2018195267A5 (en) | ||
JP4938748B2 (en) | Image recognition apparatus and program | |
JPWO2018087933A1 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2010244413A (en) | Method for recognizing object gripped by grip means | |
Škorvánková et al. | Automatic estimation of anthropometric human body measurements | |
JP6635848B2 (en) | Three-dimensional video data generation device, three-dimensional video data generation program, and method therefor | |
KR101678455B1 (en) | Device and method for providing haptic information using texture recognition space | |
JP2004265337A (en) | Landmark-extracting apparatus and landmark extraction method | |
JP5018282B2 (en) | How to create 3D shape model data for products | |
JP2013137591A (en) | Nearest point search device and method thereof, program, and three-dimensional position/attitude recognition device and method thereof | |
WO2018135326A1 (en) | Image processing device, image processing system, image processing program, and image processing method | |
JP6836628B2 (en) | Object recognition device for picking or devanning, object recognition method for picking or devanning, and program | |
JP7024876B2 (en) | Detection device, processing device, detection method, and processing program | |
WO2020194386A1 (en) | Information processing device, determination output method, and determination output program | |
JP2009151516A (en) | Information processor and operator designating point computing program for information processor | |
JP5083992B1 (en) | Gripping posture generation apparatus, holding posture generation method, and holding posture generation program |