JP2004005361A - 衣類状態推定方法及びプログラム - Google Patents
衣類状態推定方法及びプログラム Download PDFInfo
- Publication number
- JP2004005361A JP2004005361A JP2002296128A JP2002296128A JP2004005361A JP 2004005361 A JP2004005361 A JP 2004005361A JP 2002296128 A JP2002296128 A JP 2002296128A JP 2002296128 A JP2002296128 A JP 2002296128A JP 2004005361 A JP2004005361 A JP 2004005361A
- Authority
- JP
- Japan
- Prior art keywords
- state
- clothing
- shape
- predicted
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】本発明は、対象衣類の状態を入力画像から推定する。衣類の大まかな基本形状を表すモデルを作成し、このモデルを用いて、一点で把持した時に起こり得る形状をすべて予測する。この予測形状の解析に応じて、一点で把持された前記対象衣類を撮影した入力画像から得られる特徴量を処理し、どの予測形状に最も近いかを算出することにより、その状態を推定する。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、観測画像情報から衣類などのように大きく変形する柔軟物体の状態を算出する方法及びプログラムに関する。ロボットが柔らかい物をハンドリングする際に必須な技術であり、これが実現されると、ロボットをより一般的な状況で活躍させることが可能となる。
【0002】
【従来の技術】
ロープ操作のための視覚認識など線状形状対象の研究は行われているが、衣類のようにさらに広がりのある対象では、変形の自由度が大きく増し、また、複雑な自己遮蔽も生じるため、さらに問題は難しい。あらかじめ、起こり得るすべての見え方を実際に画像入力して、この見え方をモデルとして利用する方法が提案されているが、対象衣類ごとに多くの労力を必要とする。
【0003】
【発明が解決しようとする課題】
本発明は、係る問題点を解決して、衣類のように複雑かつ大きく変形する対象に関しても、簡易な対象モデル、簡易な画像入力装置を用いて、その状態を推定する技術を開発することを目的としている。
【0004】
【課題を解決するための手段】
本発明の衣類状態推定方法及びプログラムは、対象衣類の状態を入力画像から推定する。衣類の大まかな基本形状を表すモデルを作成し、このモデルを用いて、一点で把持した時に起こり得る形状をすべて予測する。この予測形状の解析に応じて、一点で把持された前記対象衣類を撮影した入力画像から得られる特徴量を処理し、どの予測形状に最も近いかを算出することにより、その状態を推定する。
【0005】
【発明の実施の形態】
以下、例示に基づき、本発明を説明する。図1は、本発明を、トレーナーの形状推定に適用した場合のフロー図を示している。
ステップ1:
衣類の大まかな基本形状を表すモデルを作成する。
【0006】
図2は対象がトレーナーの場合の一例で、前身頃と後ろ身頃が離れることは想定しない、最大4連結が可能なノードで構成される平面的なモデルで表される。図中、N1〜N13は各ノード点を表し、左右袖部と身頃は異なるパートとして扱われる。ノード間の距離は、身頃幅、着丈、袖丈のような大まかな寸法から算出する。
【0007】
ステップ2:
モデルを用いて、一点で把持した時に起こり得る形状を予測する。
この予測方法は、必要な予測精度に応じて、種々な方法がとり得るが、衣類のへりに近い一点で空中に把持された時の形状の簡易予測は次のように実現できる。
以後、この予測手法を予測手法Aと呼ぶ。今、あるノードの位置が既にフィックスされているとする。もし、現在のノードが把持による最初の固定ノードである時には、この方向は、鉛直上方向、(0,1)とする。
【0008】
ノード間の距離は固定とし、まだフィックスされていない隣接ノードの方向は、図3aに示すように、隣接ノードの状態に応じて定めた角度θで決定する。図3aの(1)〜(6)において、白丸は現在のノード、二重丸は現在のノードの位置を決定する際に既にその位置が決定されていて、親となったノード、黒丸はまだ、位置が決定されておらず、子となるノードを表す。図3aの(2)〜(6)は、隣接ノードの起こりえる状態を示し、これらの図中の角度 θ1、θ2、θ3は、対象の剛性に応じて変化させる。
【0009】
図3bは、ノード10が把持された場合に、この規則によって決定した例を示す。重力による影響を次のように考慮する。異なる部分が接合した関節部分は、図2のモデルでは、2つの肩の部分に相当するが、その接続によって支えられる、より下部の部分に関しては、その重心がその関節部分の真下に来るように、関節回りに回転する。図3cは、この操作後の形状を示す。
把持ノードを変えた場合の結果を図4に示す。State1〜13は、図2中の各ノードを保持した場合に対応した予測形状を示す。
【0010】
ステップ3:
必要なタスクに応じて、予測形状を解析する。
まず、タスク遂行のために必要な識別すべき状態に予測形状をクラス分けする。「両肩で把持する」というタスクが与えられる場合、予測形状の状態は次の3つにクラス分けされる。
状況 A: 既に一つの肩で把持されている。State 1, 3.=> 残りの肩の位置を指示。
状況 B: 肩で把持されていないが、少なくとも一つの肩が(把持しやすい)凸の状態である。State 2, 10, 11, 12, 13.=> 一つめの肩の位置を指示。
状況 C: それ以外(両肩が凹の状態で把持が難しい状況)。State 4, 6, 7, 8,9.=> 状況Bとする位置を指示。
【0011】
この例では、すべての予測形状において、袖の先端が常に最下点に位置し、識別しやすい上、この点を把持すれば、状況BのState 11か 13の状態にもって行ける。したがって、状況Cでは、具体的には、=>最下点を指示、とする。
予測された形状に基づき、検出された衣類領域から比較的容易かつ頑健に抽出が可能な特徴を状態判定に用いる。この例では、
I) 最下点の位置。
II) 身頃部分の中心位置。
である。
【0012】
ステップ4:
カメラから、へりの一点で把持された対象衣類を撮影した画像を入力する。
ステップ5:
画像から衣類領域を抽出する。
ステップ6:
抽出領域と各予測形状モデルとの比較を次のように行い、状態を推定する。
まず、実際の把持点から最下点までの距離の差が小さい順に候補を選択する。抽出領域のうち、水平にあるしきい値以上の幅を持つ領域を身頃領域候補とする。予測形状モデルの身頃中央(ノード5)の垂直位置がこの領域内に含まれていない場合は候補から削る。
【0013】
ステップ7:
衣類領域内の各部の位置を次のように求め、次に把持すべき点を指示する。
得られた候補の状態が、状況A、Bの場合には、これらの形状モデルを把持点の位置を基準に画像内に重ね合わせる。衣類領域に含まれていないノードに関しては、領域内に含まれるまで、そのノードを水平方向中央に向かって移動する。この処理により、画像上における各ノードに対応する部位の推定を行い、肩に対応するノード1、3に最も近い領域境界の内側の点を次の把持位置として示す。
第一候補が状況Cの場合には、衣類領域最下点を次の把持位置として指示する。
【0014】
ステップ8:
算出した指示点を把持した場合の形状を予測し、把持後に実際に観測される状態と一致するかを調べることにより、先の状態推定が正しいかどうかを検証する。
ここで、2点把持の状態では、1点把持の場合にくらべ、領域形状の不確定要素が減るため、予測形状と観測領域の比較は、比較的簡単なテンプレートマッチングで行える。基本的には、モデル上の把持位置を、実際の把持位置にあわせて、その重なりを調べれば良い。
「状態推定に基づき、次の把持点を指示」(ステップ6、7)、「把持」、「検証」(ステップ8)を繰り返すことにより、「両肩で把持する」状況に持っていくことができる。ただし、2度目以降の状態推定においては、その前の予測により状態が限定できることを利用し、処理を高速、頑健にする。
【0015】
次に、対象衣類を図8に表すようなより複雑なモデルで表すことにより、より精度の良い衣類変形予測を行うことについて説明する。以後この予測手法を予測手法Bと呼ぶ。
対象とするトレーナーに対して、その身幅、身丈、袖丈の3つの大まかなサイズに基づき、図8に示す、前身頃と後ろ身頃が離れることは想定しない平面的な簡易モデルを作成する。20点の代表点を表すノードからなり、各ノード間は、図中直線で示すようにバネで連結される。バネは次の3種類からなる。
【0016】
K_1タイプバネは、各ノードとその4近傍ノードの一点とを結ぶ。K_2タイプバネは、各ノードとその8近傍ノードから4近傍ノードを除いたものの一点とを結ぶ。K_3タイプバネは、各ノードと一つ間をおいた隣のノードとを結ぶ。ただし、同じ部分内(身頃、右袖、左袖)だけに導入する。例をあげると、N1−N3, N1−N7, N3−N19ノード間などである。K_1,K_2タイプは衣服の伸縮性を、K_3タイプは、その折れ曲がりやすさを表現する。ここで、4つのノードからなる四角形の要素を考えたときに、その辺で隣接するノードを4近傍、その対角線で隣接するノードを8近傍と呼ぶ。
【0017】
このモデルを用いて、このトレーナーを1点保持した時に、どのような状態が存在しうるかを、次のようにシミュレーションすることにより、予測する。ここで、Y軸を重力方向に一致させた左手系3次元座標系を基準座標系とする。まず、対象モデルをXZ平面に水平な床面に図9aのように広げる。重力は、すべてのノードに働くとする。保持点と仮定する一つのノードを垂直方向(Y軸負方向)に持ち上げて行き、その変形をシミュレーションする(図9b)。
【0018】
図9cは、その結果得られた、空中に保持した状態を示す。ただし、1点での保持では、保持点に対してY軸廻りの回転要素が始めにおかれた床面での方向などに応じて大きく変化する。本発明者が想定している現実の保持では、一点ではなく、小面積を保有する平らな2つの板状平行面で対象を保持するグリップでの保持となるので、この回転の不確定要素をこのグリップの面の向きが決定すると考えられる。そこで、画像が、常にこのグリップ面に垂直な方向から撮影される状況を想定し、モデル予測形状の保持点近傍での面の法線方向が視線と一致する条件で、予測見え方形状を算出する。図9dは、この結果を示す。
【0019】
図10に、各ノード点で保持した、State1からState20まですべての予測見え方形状算出の結果を示す。この算出において、衣類モデルのバネ定数は、その結果生じる衣類の張りが実際の状態に近いようにマニュアルで決定し、具体的にK_1、K_2、K_3のそれぞれのバネ係数を20000,2000、そして200に設定した。
段落[0010]に記述した分類において、予測手法Bを用いた場合の状態の対応は、それぞれ、以下のようである。
状況A: State 1,3
状況B: State 2,7,9,13,15,17,19
状況C: State 4,5,6,8,10,11,12,14,16,18,20
【0020】
予測手法Bを用い、観測衣類領域の予測がより実際に近い状態で行えれば、予測領域と観測領域の重なり具合いを直接予測の確らしさの判定に用いることが可能となり、状態推定過程も下記のような手順となる。
あらかじめ、各状態の予測見え方形状から下記の2点の特徴を抽出しておく。
I) 予測見え方形状の最下点の位置: L_m(L_x,L_y)
保持点の位置に対する相対2次元座標値。
II) 直接保持されずに、ぶら下がった袖の数: N_m
最下点近傍にぶらさがっている袖の数で、State 2,5,8,11では、N=2。
【0021】
観測画像が入力されたら、把握している保持マニピュレータのグリップの3次元位置に基づき、観測画像上の把持点の位置を検出する。衣類領域は、この保持点をヒントに、その真下にある領域特徴が一定である連続領域として抽出する。この領域内で一番下部にある座標をL_oとする。L_oの上方近傍の領域の画像水平方向の幅の平均値を算出し、この値が一つの袖幅以上であれば、N_o=2、それ以外をN_o=1とする。
【0022】
まず、観測状態とぶら下がり袖数が等しく、最下点の位置関係が近いモデルだけを選択する。具体的に、State m_i(m_i=1−20)のうち、以下の条件を満たす状態を選択する。
N_{m_i} = N_o
|Ly_o−Ly_{m_i}| < C_1
|L_o−L_{m_i}| < C_2
C_1、C_2は、ノードをどれくらい密に設定したか、すなわちノード間の距離に応じて変動する。この実験では、C_1、C_2を一番長いノード間距離のそれぞれ60%と 100%に設定した。
【0023】
条件を満たした状態の見え方モデルはこれらの形状モデルを保持点の位置を基準に画像内に重ね合わせる。
実際には、身頃部分の形状が予測の難しい折れにより大きく変動するのに対して、ぶら下がった袖部は幅の狭い分、予測形状からの変動が少ない。このことを考慮し、この部分がより実際の観測位置に一致するように見え方モデルの部分的な修正を下記のように行う。ただし、ここでぶら下がった袖部とは、直接保持されていない袖の部分を指すこととする。また、その外側の輪郭とは、(腋窩側ではなく)肩側の輪郭(例としてN1−N13−N15)をさす。
【0024】
1) 見え方モデルのぶら下がり袖の外側の輪郭を図11aの太い灰色の線で示すように、垂直方向に観測画像のL_oと等しい位置まで移動する。
【0025】
2) 外側輪郭上の最下点を除く2つのノード点から水平方向に最も近い観測エッジ(背景と衣類領域の境界画素)をそれぞれ探索する。図11aの矢印で示すような、元の位置からその点までの水平方向符合付き距離をda、dbとする。もし、この二点の移動量が予測される誤差範囲内で、線の傾きを大きく変化させなければ、この修正を取り入れる。具体的に、下記の3つの条件がすべて満たされていれば、その袖部に属する6つのノード点すべてを図11bに示すように(da+db)/2移動する。
|da−db| < C3
|da| < C2
|db| < C2
ここで、C3は予測と観測状態における袖の傾きの違いを何度まで許容するかに応じて決定する。
【0026】
3) この状態で、領域重なり率、Rを算出する。領域重なり率、Rとは、 (重なり部分の面積)/(観測領域面積)と(重なり部分の面積)/(予測形状面積)を足したもの(0〜2.0)である。この値が最大となった見え方モデルの値がしきい値C_4を越えれば、これを推定状態とする。この条件が満たされなかった場合には、候補なしと判定する。
【0027】
選出された状態がクラスAもしくはBであった場合、部分的修正後の最終状態において、肩に対応するノード1もしくは3にもっとも近い観測衣類領域のエッジ点を次の保持点とする。もし、クラスCの状態が選出された場合には、領域の最下点を次の保持点とする。どの状態も選出されなかった場合には、その旨を宣言し、やはり最下点を指示する。先にも述べたように、この指示によって、次の保持により、必ず、State 15 もしくは19の状態になる。
【0028】
【実施例】
まず、予測手法Aを用いた実施例の結果を図5、6、7に示す。ノード5を除いた12ノードに対応する位置でトレーナーを把持して撮影した、12画像を用いて実施した結果、このうち6枚の画像において、正しい状態が第1候補として選択された。図5はState 10が正しく選択された時の例を示す。
図5aが入力画像であり、図5bは選択された予測形状(State 10)を、原画像を二値化処理した結果に重ねて表示したものであり、図5cは、ステップ7の処理後の変形した予測形状を原画像に重ねて表示したものである。図5c上のクロスが、自動算出された次に把持すべき位置を示す。
【0029】
図6に、それぞれ、状況A、B、Cにおいて、算出された指示点(図中のクロス)の例を示す。左から、順に(a)、(b)がState 1,(c)、(d)がState 2, (e)、(f)がState 9が選択された例で、(a),(c),(e)が入力画像で、(b),(d),(f)が最終結果を示す。State 9においては、2.2で述べたように、最下点が次の指示点として選ばれている。
【0030】
図7に、検証過程の例を示す。図7aは図5cで算出された指示点を、実際に把持した後の状況である。この把持により予測される形状が重ねて表示してあるが、多少のずれを除き、よく一致している。
これに対し、第2候補として選択された、図7bの指示点を把持した場合を、図7cに示す。この時の予測形状が重ねて表示されているが、下部にぶら下がる袖の部分の領域が予測形状と大きくはずれており、始めの推定が間違っていたことを知ることができる。
【0031】
予測手法Bを用いると、より推定正解率が上がる。先と同様な12画像を用いて処理した結果の1例を図12に示す。この実施例において、しきい値、C_1、C_2はあらかじめ与えた身丈、身幅、袖丈のサイズから自動決定し、C_3は、袖領域の予測と観測のずれが15度まで許容するように設定し、C_4は約70%の重なりをもって正解とするために、1.4と設定した。
【0032】
図12に結果の一例を示す。画像上の保持点の位置は手動で与え、その点の下にある、固定しきい値で得られる最も大きな明るい連結領域を観測衣類領域として自動抽出した。図12a、bはそれぞれ原画像と、抽出された衣類領域を示す。図12c,d,eは、袖の部分を修正する前の領域重なり率が第一、第二、第三番目に大きい順に候補の状態を示す。図12fは、第一番目の状態が、部分的に修正された後の見え方モデル状態を示している。この状態での Rが1.64で、すべての見え方モデルの中で最大となったため、推定結果と決定され、図中クロスで示される位置を次に保持すべき点として算出した。
【0033】
図13にもう一例示す。図13aは原画像であり、図13b,c,dは、袖の部分を修正する前の領域重なり率が第一、第二、第三番目に大きい順に候補の状態を示す。この例では、第一、第二番目が部分修正の処理で、成功せずに落ち、図13eに示す第三番目の修正状態が重なり率最大となり選択された。
総合して、12例のうち9例で正しい状態が選択され、正しい指示点が示された。図14に状況A、状況B、状況Cの各成功例を示す。残り3例のうち1例については、どの状態も選択されず、「状態の未決定」の結果となった。正しい状態が、第一候補として選択されたが、予想外の袖の折れのため、最終決定はされなかった。この場合、不確定と判断して、最下点を次の保持点として指示し、状況クラスBの状態を目指す。
【0034】
12例のうちの残り2例だけで、間違った状態が推定された。この例を図15に示す。正しくは State 4だが、State 7が選択された。主な要因は、現在のシミュレーションでは考慮されていない身頃部の大きな折れが起きているためである。
さらに、ノードに対応する位置の中間点を保持し、もっとも予測状態と異なる状態で撮影された16画像を用いて、同様に実験を行った。これに対しても、12例で正しい状態が選択され、正しい指示点が示された。一例で「状態不確定」の判定、残り三例で誤った状態を推定した。このように、かなり粗い代表点で対象を表しているが、予測見え方算出に使ったノード位置と実際の保持点が離れている場合でも、性能が大きく落ちる現象は見られなかった。
【0035】
検証過程の試行例を図16に示す。図16aは、図12fに示された指示点を保持した場合のシミュレーション過程を示す。図16bは、実際にその点を保持した状態の入力画像に、シミュレーション結果を重ねて表示してある。予測形状はかなり重なっている。それに対して、図16dは、図16cに示すように間違った状態を推定し、クロスのような指示点が出された場合の、観測画像と予測画像を重ねたものである。重ならない部分の割合が非常に大きく、推定を誤ったことの認識が可能である。また、先に述べた簡易予測手法とは異なり、予測手法Bを用いれば、図16aの中央に示すような、変形途中の状態を検証に用いることも可能である。
【0036】
【発明の効果】
従来、衣類のように大きく変形する柔軟物の状態推定を簡易に行うことは不可能であった。今回、対象衣類の種別(トレーナーなど)と、身頃幅、着丈、袖丈のような大まかな寸法を与えるだけで、その起こり得る状態を大まかに算出し、これを利用して状態推定を行う手法により、これが可能となった。この技術は、ロボットが自律的に衣類のような柔軟物を取り扱うことの実現に大きく貢献する。
【図面の簡単な説明】
【図1】トレーナーの状態推定に実施した際のフロー図。
【図2】衣類の簡易モデルの一例を示す図。
【図3】前身頃と後ろ身頃が離れることは想定しない、最大4連結が可能なノードで構成される平面的なモデルを示す図。
【図4】トレーナーがへりに近い1点で把持された時の予測形状を示す図。
【図5】実施例 1を示す図。
【図6】状態推定後の「両肩を把持」のための指示実施例を示す図。
【図7】検証処理実施例を示す図。
【図8】より複雑なモデルで表した対象衣類を示す図。
【図9】対象モデルを示す図。
【図10】各ノード点で保持した予測見え方形状算出の結果を示す図。
【図11】見え方モデルの部分的な修正を説明するための図。
【図12】結果の一例を示す図。
【図13】結果の別の例を示す図。
【図14】状況A,状況B,状況Cの各成功例を示す図。
【図15】間違った状態が推定された例を示す図。
【図16】検証過程の試行例を示す図。
Claims (7)
- 対象衣類の状態を入力画像から推定する衣類状態推定方法において、
衣類の大まかな基本形状を表すモデルを作成し、
このモデルを用いて、一点で把持した時に起こり得る形状をすべて予測し、
この予測形状の解析に応じて、一点で把持された前記対象衣類を撮影した入力画像から得られる特徴量を処理し、
どの予測形状に最も近いかを算出することにより、その状態を推定する衣類状態推定方法。 - 前記形状の予測は、与えられた衣類の種別と大まかな寸法に基づいて行う請求項1に記載の衣類状態推定方法。
- 前記予測形状の解析により、推定に有用な特徴量を算出する請求項1に記載の衣類状態推定方法。
- 前記予測形状の解析は、必要なタスクに応じて、予測形状をクラス分けし、状態推定後の対応規則を算出する請求項1に記載の衣類状態推定方法。
- 前記形状の予測は、バネを用いた対象の弾性モデルを床面に広げた状態から、そのうちの1点を掴み持ち上げるシミュレーションを行い、その変形を算出した後,このモデル予測形状の保持点近傍での面の法線方向が視線と一致する条件で、予測見え方形状を算出することにより行う請求項1に記載の衣類状態推定方法。
- 前記状態の推定は、前記予測見え方形状をモデルと重ね、前記入力画像に基づき部分的に変形することにより、より観測状態に近い状態となり得るかを調べ、この修正後の見え方形状が最も入力画像に近いものを正しい状態とすることにより行う請求項5に記載の衣類状態推定方法。
- 対象衣類の状態を入力画像から推定する衣類状態推定プログラムにおいて、
衣類の大まかな基本形状を表すモデルを作成する手順と、
このモデルを用いて、一点で把持した時に起こり得る形状をすべて予測する手順と、
この予測形状の解析に応じて、一点で把持された前記対象衣類を撮影した入力画像から得られる特徴量を処理する手順と、
どの予測形状に最も近いかを算出することにより、その状態を推定する手順と、
をコンピュータに実行させるための衣類状態推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002296128A JP3855050B2 (ja) | 2002-04-26 | 2002-10-09 | 衣類状態推定方法及びプログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002126395 | 2002-04-26 | ||
JP2002296128A JP3855050B2 (ja) | 2002-04-26 | 2002-10-09 | 衣類状態推定方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004005361A true JP2004005361A (ja) | 2004-01-08 |
JP3855050B2 JP3855050B2 (ja) | 2006-12-06 |
Family
ID=30447519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002296128A Expired - Lifetime JP3855050B2 (ja) | 2002-04-26 | 2002-10-09 | 衣類状態推定方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3855050B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061431A (ja) * | 2008-09-04 | 2010-03-18 | National Institute Of Advanced Industrial Science & Technology | 衣類状態推定方法及びプログラム |
JP2011123775A (ja) * | 2009-12-11 | 2011-06-23 | Ist Corp | 布製品識別装置および布製品把持システム |
WO2011074246A1 (ja) | 2009-12-15 | 2011-06-23 | 株式会社アイ.エス.テイ | 布製品識別装置および布製品把持システム |
KR101620374B1 (ko) * | 2015-01-27 | 2016-05-12 | 김호종 | 셔츠 모델링하는 방법 및 장치 |
JP2018200558A (ja) * | 2017-05-26 | 2018-12-20 | ファナック株式会社 | 形状認識装置、形状認識方法及びプログラム |
CN110046538A (zh) * | 2017-12-18 | 2019-07-23 | 国立大学法人信州大学 | 抓握装置、抓握系统、确定方法、学习装置、模型和方法 |
-
2002
- 2002-10-09 JP JP2002296128A patent/JP3855050B2/ja not_active Expired - Lifetime
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010061431A (ja) * | 2008-09-04 | 2010-03-18 | National Institute Of Advanced Industrial Science & Technology | 衣類状態推定方法及びプログラム |
JP2011123775A (ja) * | 2009-12-11 | 2011-06-23 | Ist Corp | 布製品識別装置および布製品把持システム |
WO2011074246A1 (ja) | 2009-12-15 | 2011-06-23 | 株式会社アイ.エス.テイ | 布製品識別装置および布製品把持システム |
CN102741881A (zh) * | 2009-12-15 | 2012-10-17 | 七梦科技有限公司 | 布料制品识别装置和布料制品抓持系统 |
KR101620374B1 (ko) * | 2015-01-27 | 2016-05-12 | 김호종 | 셔츠 모델링하는 방법 및 장치 |
JP2018200558A (ja) * | 2017-05-26 | 2018-12-20 | ファナック株式会社 | 形状認識装置、形状認識方法及びプログラム |
US10521687B2 (en) | 2017-05-26 | 2019-12-31 | Fanuc Corporation | Shape recognition device, shape recognition method, and program |
CN110046538A (zh) * | 2017-12-18 | 2019-07-23 | 国立大学法人信州大学 | 抓握装置、抓握系统、确定方法、学习装置、模型和方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3855050B2 (ja) | 2006-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6433149B2 (ja) | 姿勢推定装置、姿勢推定方法およびプログラム | |
CN109863535B (zh) | 运动识别装置、存储介质以及运动识别方法 | |
JP5206517B2 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
US20170068849A1 (en) | Apparatus and method of hand gesture recognition based on depth image | |
CN110378325B (zh) | 一种机器人抓取过程中的目标位姿识别方法 | |
US20120259462A1 (en) | Information processing apparatus, control method thereof and storage medium | |
JP6016716B2 (ja) | ビンピッキング性能評価装置及び方法 | |
WO2011086889A1 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
JP6708260B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN111428731A (zh) | 基于机器视觉的多类目标识别定位方法、装置和设备 | |
JP6487642B2 (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
CN109508707B (zh) | 基于单目视觉的机器人稳定抓取物体的抓取点获取方法 | |
Ottenhaus et al. | Local implicit surface estimation for haptic exploration | |
Ottenhaus et al. | Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning | |
CN115816460B (zh) | 一种基于深度学习目标检测与图像分割的机械手抓取方法 | |
JP2008065368A (ja) | ステレオ画像を利用した物体の位置および姿勢認識システム、物体の位置および姿勢認識方法、およびこの方法を実行するプログラム | |
CN116249607A (zh) | 用于机器人抓取三维物体的方法和装置 | |
JP7171294B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP3855050B2 (ja) | 衣類状態推定方法及びプログラム | |
Kim et al. | DSQNet: a deformable model-based supervised learning algorithm for grasping unknown occluded objects | |
Wan et al. | Planning grasps for assembly tasks | |
TWI649169B (zh) | 把持位置姿勢教導裝置、把持位置姿勢教導方法及機器人系統 | |
CN110705355A (zh) | 一种基于关键点约束的人脸姿态估计方法 | |
JP2016162425A (ja) | 骨格姿勢推定装置、方法、及びプログラム | |
WO2018161305A1 (zh) | 抓取质量检测方法及其应用的方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3855050 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |