JP5024905B2 - 衣料折り畳みシステム、衣料折り畳み指示装置 - Google Patents

衣料折り畳みシステム、衣料折り畳み指示装置 Download PDF

Info

Publication number
JP5024905B2
JP5024905B2 JP2009167727A JP2009167727A JP5024905B2 JP 5024905 B2 JP5024905 B2 JP 5024905B2 JP 2009167727 A JP2009167727 A JP 2009167727A JP 2009167727 A JP2009167727 A JP 2009167727A JP 5024905 B2 JP5024905 B2 JP 5024905B2
Authority
JP
Japan
Prior art keywords
clothing
folding
robot
modeled
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009167727A
Other languages
English (en)
Other versions
JP2011020218A (ja
Inventor
健夫 五十嵐
アキム ゴーン タバレ
昌彦 稲見
大樹 高橋
裕太 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2009167727A priority Critical patent/JP5024905B2/ja
Publication of JP2011020218A publication Critical patent/JP2011020218A/ja
Application granted granted Critical
Publication of JP5024905B2 publication Critical patent/JP5024905B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットに対して衣料の折り畳み手順を指示するための技術に関する。
コンピュータ制御による一般家庭向けのインテリジェントロボットが市場に登場し、例えば掃除ロボットなどは既に多くの家庭で利用されている。また、皿洗いやアイロンがけといった様々な家事ロボットの研究も進められている。
この種のロボットの動作は、通常、開発者によってハードコーディングされており、エンドユーザによる変更はできないようになっている。この仕様は、想定した環境の中で想定した使い方をする分には問題ないが、特別な使い方を意図するユーザにとっては不満足である。しかしながら、ユーザ独自の使い方を可能にするには、特別なオペレーション指示をどうやってロボットに与えるのか、という技術的な問題を解決しなければならない。
従来、ロボットに対して高度な命令を指示するための方法としては、プログラミング言語を用いた指示方法、自然言語を用いた指示方法、人のデモンストレーションによる指示方法などが提案されている。しかしながら、一番目の方法は、プログラミング言語を習得する必要があるため、エンドユーザには敷居が高い。また二番目の自然言語を用いる方法は、習得の手間はないものの、視覚的な(幾何学的な)情報を定義したり伝達したりすることが難しいという問題がある。また三番目の方法は、指示(デモンストレーション)に相当の時間を要するという問題がある。
例えば、衣料を折り畳むロボットを想定した場合、衣料の種類、形状、サイズは様々であり、それに応じて異なる畳み方を指示しなければならない。このような動的に変わる環境に対応してインテリジェントな振る舞いをロボットに命令するためには、視覚的な(幾何学的な)情報をより簡単かつ短時間にロボットに教示できるような仕組みが望まれる。
なお、衣料を折り畳むロボットの公知例としては、非特許文献1が知られている。
OSAWA, F., SEKI, H. and KAMIYA, Y. 2006. Clothes Folding Task by Tool-Using Robot, Journal of Robotics and Mechatronics, 18, 5, 618-625. http://as.ms.t.kanazawa-u.ac.jp/fold.mpg
本発明は上記実情に鑑みてなされたものであって、その目的とするところは、衣料の折り畳み手順を簡単な方法でロボットに指示するための技術を提供することにある。
上記目的を達成するために、本発明では、実際の折り畳み対象物を画像処理によって抽象化・図形化し、グラフィカルなユーザインターフェイスを介して、ポインティングデバイスの簡単な操作だけで、ロボットに実行させるべき折り畳み手順を入力できるようにする。
具体的には、本発明に係る衣料折り畳みシステムは、撮像装置と、衣料を折り畳むロボ
ットと、前記撮像装置及び前記ロボットに接続された情報処理装置と、を備え、前記ロボットは、移動機構と、衣料をつかむためのハンドとを有しており、前記情報処理装置は、ステージ上に配置された折り畳み前の衣料の画像を前記撮像装置から取り込む画像取込部と、前記画像取込部が取り込んだ画像から前記衣料の形状を認識して、形状データを生成する衣料形状認識部と、前記形状データに基づき生成したモデル化された衣料を表示し、前記モデル化された衣料をポインティングデバイスの操作でユーザに折り畳ませる折り畳み手順入力部と、前記折り畳み手順入力部でモデル化された衣料に対し入力された折り畳み手順に基づいて、前記ステージ上の衣料を実際に折り畳むため前記ロボットの移動機構及びハンドに実行させるべき動作を計算し、前記ロボットに対して制御命令を送出する制御部と、を有していることを特徴とする衣料折り畳みシステムである。
本システムは、実際の折り畳み対象物である「ステージ上の衣料」の画像を撮像装置から取り込み、画像処理によって「モデル化された衣料」を生成し、その「モデル化された衣料」のグラフィックを折り畳み手順の入力インターフェイスに用いている。したがって、動的に変化する環境への対応、すなわち実際の衣料の種類、形状、サイズ、位置、向きなどに応じた折り畳み手順の指示が容易となる。
また、ユーザは、モデル化された衣料をポインティングデバイスの操作で折り畳むといった直感的な操作により、ロボットが達成すべきタスクを抽象的に指示するだけでよく、ロボットの移動機構やハンドの具体的な動作を直接指示する必要がない。したがって、誰でも簡単に折り畳み手順をロボットに指示することが可能である。
なお、本発明における「衣料」には、衣服、下着類、ハンカチなどの身に着ける物だけでなく、クロスやシーツなど折り畳み対象となる物全般が含まれるものとする。
本発明において、前記折り畳み手順入力部におけるモデル化された衣料を折り畳む操作は、前記ポインティングデバイスで前記モデル化された衣料上の任意の点を選択し、その点を任意の位置までドラッグしてリリースするという操作であることが好ましい。これにより、衣料の折り畳みを簡単かつ直感的な操作で実現できる。
また、前記制御部は、前記ロボットの移動機構及びハンドに実行させるべき動作を計算する際に、前記画像取込部及び前記衣料形状認識部から前記ステージ上の衣料の形状を取得し、その取得した形状と前記モデル化された衣料の形状とを比較することによって前記ステージ上の衣料と前記モデル化された衣料の座標系のずれを修正することが好ましい。折り畳み手順を入力している最中、もしくは、ロボットが衣料を折り畳んでいる最中に、衣料の位置がずれる可能性があるからである。上記のように、制御部が、ステージ上の衣料のずれを監視・修正し、ロボットの動作計算にフィードバックすることで、タスク完遂の確実性を増すことができる。
なお、本発明は、上記手段の少なくとも一部を有する衣料折り畳み指示装置として捉えることができる。また、本発明は、上記処理の少なくとも一部を含む衣料折り畳み指示方法、または、その方法の各ステップを情報処理装置に実行させるためのプログラムや同プログラムを記録した記録媒体として捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
たとえば、本発明の一態様としての衣料折り畳み指示装置は、移動機構と衣料をつかむためのハンドとを有するロボットに対して、衣料の折り畳み手順を指示するための、衣料折り畳み指示装置であって、撮像装置と、ステージ上に配置された折り畳み前の衣料の画像を前記撮像装置から取り込む画像取込部と、前記画像取込部が取り込んだ画像から前記衣料の形状を認識して、形状データを生成する衣料形状認識部と、前記形状データに基づ
き生成したモデル化された衣料を表示し、前記モデル化された衣料をポインティングデバイスの操作でユーザに折り畳ませる折り畳み手順入力部と、前記折り畳み手順入力部でモデル化された衣料に対し入力された折り畳み手順に基づいて、前記ステージ上の衣料を実際に折り畳むため前記ロボットの移動機構及びハンドに実行させるべき動作を計算し、前記ロボットに対して制御命令を送出する制御部と、を備えることを特徴とする衣料折り畳み指示装置である。
また、本発明の一態様としての衣料折り畳み指示方法は、移動機構と衣料をつかむためのハンドとを有するロボットに対して、衣料の折り畳み手順を指示するための、衣料折り畳み指示方法であって、情報処理装置が、ステージ上に配置された折り畳み前の衣料の画像を撮像装置から取り込む画像取込ステップと、前記画像取込ステップで取り込んだ画像から前記衣料の形状を認識して、形状データを生成する衣料形状認識ステップと、前記形状データに基づき生成したモデル化された衣料を表示し、前記モデル化された衣料をポインティングデバイスの操作でユーザに折り畳ませる折り畳み手順入力ステップと、前記折り畳み手順入力ステップでモデル化された衣料に対し入力された折り畳み手順に基づいて、前記ステージ上の衣料を実際に折り畳むため前記ロボットの移動機構及びハンドに実行させるべき動作を計算し、前記ロボットに対して制御命令を送出する制御ステップと、を実行することを特徴とする衣料折り畳み指示方法である。
本発明によれば、衣料の折り畳み手順を簡単な方法でロボットに指示することができる。
衣料折り畳みシステムのハードウエア構成を示す図。 衣料折り畳みシステムの機能構成を示す図。 衣料折り畳みシステムの処理フローを示すフローチャート。 グラフィカルエディタの画面例を示す図。 折り畳み操作のアルゴリズムを説明する図。 ロボットの移動ルートとつかみ位置及び放し位置の例を示す図。 ロボットの一連の折り畳み動作を示す図。 座標系の修正方法を説明する図。
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。
<システム構成>
図1は、本発明の実施形態に係る衣料折り畳みシステムのハードウエア構成を示している。このシステムは、撮像装置1、衣料を折り畳むロボット2、及び、情報処理装置としてのコンピュータ3から構成される。撮像装置1及びロボット2は、それぞれ、有線又は無線によりコンピュータ3に接続されている。
撮像装置1は、CCDやCMOSなどの撮像素子を備える小型のカメラであり、平面ステージ4の上方に、ステージ4を画角におさめるように設置されている。本実施形態では、ステージ4と撮像装置1の光軸がほぼ直交するように撮像装置1を固定したが、必ずしもこの構成に限らず、ステージ4を俯瞰するように撮像装置1を設置してもよいし、また撮像装置1の画角や光軸の向きを可変にしてもよい。ステージ4は、折り畳み対象となる衣料60を配置するワークスペースである。専用のステージを設けてもよいが、ロボット2が作業を行うスペースが確保できれば、床やテーブルなどをステージとして用いてもよい。
ロボット2は、4つの車輪及び駆動モータからなる移動機構20と、衣料をつかむためのハンド21と、コンピュータ3からの制御命令に基づき移動機構20及びハンド21を制御するマイクロコントローラ(不図示)とを備える、自走式のロボットである。移動機構20の「前進」「後進」「右回転」「左回転」、ハンド21の「つかみ(閉)」「放し(開)」などの動作は、マイクロコントローラ内に予めプログラムされており、コンピュータ3から各動作に対応する制御命令を送出することでロボット2の動作を制御することが可能である。ハンド21の先端には、衣料をつかんだか否かを検知するための赤外線センサ(不図示)が取り付けられている。赤外線センサの検知結果はコンピュータ3に送信される。ロボット2の上部には、所定の図形が描画されたビジュアルマーカ22が取り付けられている。本システムは、このビジュアルマーカ22を用いてロボット2の追跡(具体的には、位置及び向きの認識)を行う。なお、ロボット2の構成はあくまでも一例にすぎず、少なくとも、衣料をつかむためのハンドとハンドの位置や向きを所望の位置まで移動させるための移動機構さえあれば、どのような構成のロボットを用いてもよい。例えば、自走式のロボットでなくてもよいし、複数のハンドや多自由度のアームをもつロボットでもよい。
図2は、本システムの機能構成を示すブロック図である。本システムは、その機能として、画像取込部30、衣料形状認識部31、グラフィカルエディタ(折り畳み手順入力部)32、ロボット制御部33を備えている。これらの機能は、コンピュータ3のCPUが記憶装置に格納されたプログラムをロードし実行することで実現されるものである。なお、コンピュータ3としては、CPU、メモリ、補助記憶装置、入力装置、表示装置などを備える汎用のパーソナル・コンピュータを用いることができる。ただし、専用のコンピュータや、ロボットに実装するオンボードマイコンなどを用いることも好ましい。またプログラムの一部または全部を専用ICで構成することも可能である。
<処理フロー>
図3、図4を用いて、本システムの処理について説明する。図3は、システムの処理フローを示すフローチャートである。図4は、グラフィカルエディタの画面例を示す図である。
システムが起動すると、図4(a)のグラフィカルエディタが表示される(ステップS1)。このグラフィカルエディタは、折り畳み手順をユーザに入力させるためのユーザインターフェイスであって、概略、メインパネル50、ヒストリパネル51、複数のボタン52a、52bから構成される。グラフィカルエディタへの入力は、基本的にポインティングデバイス(例えば、マウス、トラックパッド、タッチパネル)を用いて行うことができる。撮像装置1のイニシャライズが完了すると、画像取込部30が撮像装置1からステージ4の画像を順次取り込んでメインパネル50に表示する。ここで、ユーザが折り畳み対象となる衣料をステージ4上に配置すると、図4(a)に示すように、ステージ4上の衣料60を上方から写した画像がメインパネル50に表示される。なお図4(a)は、Tシャツの例を示している。
ユーザが「キャプチャ」ボタン52aを押すと、画像取込部30がその時点の画像を取り込む(ステップS2)。取り込まれた画像は、メモリに格納され、衣料形状認識部31へと渡される。衣料形状認識部31は、画像から衣料60の形状を認識して、その形状データを生成する(ステップS3)。衣料の形状認識には、公知の輪郭検出アルゴリズムを用いることができる。例えば、画像を二値化して背景(ステージ)部分と衣料部分とに分類し、衣料部分の境界をトレースすることで輪郭形状を抽出する、というアルゴリズムを採用することができる。また、パターンマッチングやクラスタリング手法を利用して、衣料部分の認識を行うこともできる。さらには、照明やステージの色または明るさを変化さ
せることで、背景と衣料の分離性を高めることも可能である。本実施形態では、複数の直線分からなる閉曲線(ポリゴン)で衣料の輪郭形状を表すこととし、形状データとしてポリゴンの各頂点の座標値をもつ。このような処理により、実際の衣料60の形状がモデル化(抽象化)される。
形状データが得られると、グラフィカルエディタは、形状データに基づき衣料のコンピュータ・グラフィック(仮想的な衣料)を生成し、メイン画面に表示する(ステップS4)。以下、画面に表示されるモデル化された衣料のことを「衣料モデル」とよぶ。図4(b)は、衣料モデル61の表示例を示している。なお、背景部分(ポリゴンの外側領域)と衣料部分(ポリゴンの内側領域)の区別を明確にするために、ポリゴンの外側領域と内側領域とを異なる色やテクスチャで表示することが好ましい。
ユーザは、ポインティングデバイスの操作だけで、メイン画面に表示された衣料モデル61を折り畳むことができる(ステップS5)。図5は、折り畳み操作のアルゴリズムの一例を示している。図5(a)に示すように、ポインティングデバイスで衣料モデル61内の任意の点Aをクリックすると、点Aに最も近い輪郭上の点Bを選択(つかんだ)ものとみなされる。そして、図5(b)に示すように、選択点Bが現在のカーソルポジションである点Aに重なるよう、衣料モデル61が折り返される。折り曲げ線は、選択点(点B)と現在のカーソルポジション(点A)を結ぶ線分の垂直二等分線である。なお、衣料61の表と裏の区別を明確にするために、表と裏とを異なる色やテクスチャで表示することが好ましい。続いて、点Bをドラッグしたままカーソルポジションを移動すると、それに伴って、図5(c)、(d)に示すように、リアルタイムに衣料モデル61の画像が更新される。そして、所望の位置で点Bをリリースすると、一段階の折り畳み操作が完了し、その状態の画像がヒストリパネル51に登録される。ユーザは、衣料モデル61が所望の状態に折り畳まれるまで、上記操作を繰り返す。なお、ヒストリパネル51内の画像をクリックすることで、いつでも、過去の折り畳み状態に戻すことが可能である。図4(c)は、二段階の折り畳みが行われた状態を示している。
グラフィカルエディタによる折り畳み手順の入力が終わったら、ユーザはロボット2に実際の折り畳み動作を行わせる。このときのユーザ操作は「折り畳み」ボタン52bを押すだけである。「折り畳み」ボタン52bが押されると、ロボット制御部33が、ステップS5で入力された折り畳み手順に基づいて、各段階での、ロボット2の移動ルートと、ハンド21の「つかみ」動作及び「放し」動作を行う位置(以下、それぞれ「つかみ位置」、「放し位置」とよぶ)を計算する(ステップS6)。
図6は、ロボット2の移動ルートとつかみ位置及び放し位置の例を示す図である。ロボット制御部33は、衣料モデル61の形状と折り曲げ線とから、最適なつかみ位置70及び放し位置71を計算する。次に、ロボット制御部33は、ロボット2の現在位置72からつかみ位置70までの移動ルートを計算する。このとき、衣料モデル61の周囲に円形の軌道73を仮定し、この軌道73上にロボット2が通過する経由点74を設定する。なお、軌道73の位置及びサイズは、ロボット2が軌道70上を周回しても衣料61を踏まないような値に設定される。
続いて、ロボット制御部33は、ロボット2に衣料60の折り畳み動作を実行させる(ステップS7)。図7(a)〜(e)は、ロボット2の一連の動作を示している。まずロボット制御部33は、ロボット2が経由点74を順に通過し、つかみ位置70に到達するように、ロボット2を移動させる(図7(a)〜(c))。具体的には、ロボット制御部33は、撮像装置1で得られる画像からビジュアルマーカを検出することで、ロボット2の位置及び向きをリアルタイムに認識し、この認識結果に基づいて適宜「前進」「後進」「右回転」「左回転」などの命令をロボット2に送出することで、ロボット2の移動制御
を行う。ロボット2がつかみ位置に到達したら(図7(c))、ロボット制御部33は「つかみ」命令を送出してロボット2に衣料60をつかませる。そして、ロボット制御部33は、衣料60をつかんだ状態でロボット2を放し位置まで移動させた後、「放し」命令を送出する(図7(d))。その後、ロボット制御部33は「後進」命令を送出し、所定の軌道までロボット2を退避させる(図7(e))。以上の折り畳み動作を繰り返すことで、衣料60の折り畳みが完了する。
<本システムの優れた利点>
本システムは、実際の折り畳み対象物である「ステージ上の衣料60」の画像を撮像装置1から取り込み、画像処理によって「衣料モデル61」を生成し、その「衣料モデル61」のグラフィックをグラフィカルエディタの入力インターフェイスに用いている。したがって、動的に変化する環境への対応、すなわち実際の衣料60の種類、形状、サイズ、位置、向きなどに応じた折り畳み手順の指示が容易となる。
また、ユーザは、表示された衣料モデル61をポインティングデバイスの操作で折り畳むといった直感的な操作により、ロボット2が達成すべきタスクを抽象的に指示するだけでよく、ロボット2の移動機構20やハンド21の具体的な動作を直接指示する必要がない。したがって、誰でも簡単に折り畳み手順をロボット2に指示することが可能である。
<変形例>
上述した実施形態では、図2のステップS3で求めた衣料モデルの位置や形状に基づき、ロボット2の動作を計算した。しかしながら、衣料モデル61とステージ上の実際の衣料60の位置・形状・向きなどが常に一致している保証はない。ユーザがグラフィカルエディタで折り畳み手順を入力している最中、もしくは、ロボット2が衣料60を折り畳んでいる最中などに、ステージ上の衣料60の位置や向きがずれる可能性があるからである。
そこで、ロボット制御部33は、ステージ上の衣料60の形状の取得、及び、ステージ上の衣料60と衣料モデル61の形状の比較を定期的に実行し、必要に応じて、両者の座標系(位置や向き)のずれを修正するとよい。以下、修正方法の具体例を説明する。
便宜的に、衣料モデル61の形状データをポリゴンA、新たに取り込まれたステージ上の衣料60の形状データをポリゴンBとよぶ。ロボット制御部33は、まず、ポリゴンA、Bそれぞれの重心を計算し比較することで、ポリゴンA、Bの平行移動距離αを求める。次に、ロボット制御部33は、ポリゴンAを重心周りに回転し、ポリゴンA、Bの形状の差が最小になる回転角φを求める。例えば、下記式を最小にするようにφを選べばよい。ここで、f(θ)、g(θ)は、図8に示すように、基準軸から角度θの点における、重心とポリゴンA、Bの輪郭との間の距離である。
Figure 0005024905
ロボット制御部33は、ロボット2の移動ルート、つかみ位置、放し位置を計算する際に、上記α、φを考慮した座標系の修正を行う。このように、ステージ上の衣料のずれを監視し、ロボット2の動作計算にフィードバックすることにより、タスク完遂の確実性を増すことができる。また、グラフィカルエディタで入力した折り畳み手順のデータをメモリに記憶させ、そのデータを別の衣料の折り畳みに利用するといった使い方も可能になる。
なお、上記実施形態は本発明の一具体例を例示したものにすぎない。本発明の範囲は上記実施形態に限られるものではなく、その技術思想の範囲内で種々の変形が可能である。
1 撮像装置
2 ロボット
20 移動機構
21 ハンド
22 ビジュアルマーカ
3 コンピュータ
30 画像取込部
31 衣料形状認識部
32 グラフィカルエディタ
33 ロボット制御部
4 ステージ
50 メインパネル
51 ヒストリパネル
52a、52b ボタン
60 ステージ上の衣料
61 衣料モデル
70 つかみ位置
71 放し位置
72 現在位置
73 軌道
74 経由点

Claims (5)

  1. 撮像装置と、衣料を折り畳むロボットと、前記撮像装置及び前記ロボットに接続された情報処理装置と、を備えた衣料折り畳みシステムであって、
    前記ロボットは、移動機構と、衣料をつかむためのハンドとを有しており、
    前記情報処理装置は、
    ステージ上に配置された折り畳み前の衣料の画像を前記撮像装置から取り込む画像取込部と、
    前記画像取込部が取り込んだ画像から前記衣料の形状を認識して、形状データを生成する衣料形状認識部と、
    前記形状データに基づき生成したモデル化された衣料を表示し、前記モデル化された衣料をポインティングデバイスの操作でユーザに折り畳ませる折り畳み手順入力部と、
    前記折り畳み手順入力部でモデル化された衣料に対し入力された折り畳み手順に基づいて、前記ステージ上の衣料を実際に折り畳むため前記ロボットの移動機構及びハンドに実行させるべき動作を計算し、前記ロボットに対して制御命令を送出する制御部と、を有している
    ことを特徴とする衣料折り畳みシステム。
  2. 前記折り畳み手順入力部におけるモデル化された衣料を折り畳む操作は、
    前記ポインティングデバイスで前記モデル化された衣料上の任意の点を選択し、その点を任意の位置までドラッグしてリリースするという操作である
    ことを特徴とする請求項1に記載の衣料折り畳みシステム。
  3. 前記制御部は、前記ロボットの移動機構及びハンドに実行させるべき動作を計算する際に、
    前記画像取込部及び前記衣料形状認識部から前記ステージ上の衣料の形状を取得し、その取得した形状と前記モデル化された衣料の形状とを比較することによって前記ステージ上の衣料と前記モデル化された衣料の座標系のずれを修正する
    ことを特徴とする請求項1または2に記載の衣料折り畳みシステム。
  4. 移動機構と衣料をつかむためのハンドとを有するロボットに対して、衣料の折り畳み手順を指示するための、衣料折り畳み指示装置であって、
    撮像装置と、
    ステージ上に配置された折り畳み前の衣料の画像を前記撮像装置から取り込む画像取込部と、
    前記画像取込部が取り込んだ画像から前記衣料の形状を認識して、形状データを生成する衣料形状認識部と、
    前記形状データに基づき生成したモデル化された衣料を表示し、前記モデル化された衣料をポインティングデバイスの操作でユーザに折り畳ませる折り畳み手順入力部と、
    前記折り畳み手順入力部でモデル化された衣料に対し入力された折り畳み手順に基づいて、前記ステージ上の衣料を実際に折り畳むため前記ロボットの移動機構及びハンドに実行させるべき動作を計算し、前記ロボットに対して制御命令を送出する制御部と、
    を備えることを特徴とする衣料折り畳み指示装置。
  5. 移動機構と衣料をつかむためのハンドとを有するロボットに対して、衣料の折り畳み手順を指示するための、衣料折り畳み指示方法であって、
    情報処理装置が、
    ステージ上に配置された折り畳み前の衣料の画像を撮像装置から取り込む画像取込ステップと、
    前記画像取込ステップで取り込んだ画像から前記衣料の形状を認識して、形状データを
    生成する衣料形状認識ステップと、
    前記形状データに基づき生成したモデル化された衣料を表示し、前記モデル化された衣料をポインティングデバイスの操作でユーザに折り畳ませる折り畳み手順入力ステップと、
    前記折り畳み手順入力ステップでモデル化された衣料に対し入力された折り畳み手順に基づいて、前記ステージ上の衣料を実際に折り畳むため前記ロボットの移動機構及びハンドに実行させるべき動作を計算し、前記ロボットに対して制御命令を送出する制御ステップと、
    を実行することを特徴とする衣料折り畳み指示方法。
JP2009167727A 2009-07-16 2009-07-16 衣料折り畳みシステム、衣料折り畳み指示装置 Expired - Fee Related JP5024905B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009167727A JP5024905B2 (ja) 2009-07-16 2009-07-16 衣料折り畳みシステム、衣料折り畳み指示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009167727A JP5024905B2 (ja) 2009-07-16 2009-07-16 衣料折り畳みシステム、衣料折り畳み指示装置

Publications (2)

Publication Number Publication Date
JP2011020218A JP2011020218A (ja) 2011-02-03
JP5024905B2 true JP5024905B2 (ja) 2012-09-12

Family

ID=43630723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009167727A Expired - Fee Related JP5024905B2 (ja) 2009-07-16 2009-07-16 衣料折り畳みシステム、衣料折り畳み指示装置

Country Status (1)

Country Link
JP (1) JP5024905B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5702927B2 (ja) * 2009-11-09 2015-04-15 三菱アルミニウム株式会社 熱交換器用アルミニウム合金ブレージングフィン材および該フィン材を用いた熱交換器
JP2020110874A (ja) * 2019-01-11 2020-07-27 倉敷紡績株式会社 柔軟物の積み重ね方法、衣服の折り畳みおよび積み重ね方法、ならびにロボットシステム
WO2021171353A1 (ja) * 2020-02-25 2021-09-02 日本電気株式会社 制御装置、制御方法及び記録媒体
CN113584853A (zh) * 2021-08-12 2021-11-02 云知声(上海)智能科技有限公司 一种机器人叠衣服、熨衣服和消毒方法及一种机器人

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02131888A (ja) * 1988-11-14 1990-05-21 Agency Of Ind Science & Technol 布地ハンドリング装置
JP2006026790A (ja) * 2004-07-15 2006-02-02 Fanuc Ltd 教示モデル生成装置
JP2006051338A (ja) * 2004-07-16 2006-02-23 Kyoto Sangyo:Kk 洗濯方法及び洗濯装置
JP2006048244A (ja) * 2004-08-02 2006-02-16 Fanuc Ltd 加工プログラム作成装置

Also Published As

Publication number Publication date
JP2011020218A (ja) 2011-02-03

Similar Documents

Publication Publication Date Title
JP6497021B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP6787966B2 (ja) 拡張現実と複合現実を用いたロボット制御装置及び表示装置
TWI654055B (zh) Robot operating device and robot operating program
JP6816364B2 (ja) 制御装置、ロボット、及びロボットシステム
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
US20190202058A1 (en) Method of programming an industrial robot
Avigal et al. Speedfolding: Learning efficient bimanual folding of garments
US20160346921A1 (en) Portable apparatus for controlling robot and method thereof
JP2011110621A (ja) ロボットの教示データを作成する方法およびロボット教示システム
JP2018183845A (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
Singh et al. An interface for remote robotic manipulator control that reduces task load and fatigue
JP5024905B2 (ja) 衣料折り畳みシステム、衣料折り畳み指示装置
CN105589553A (zh) 一种智能设备的手势控制方法和系统
Shirwalkar et al. Telemanipulation of an industrial robotic arm using gesture recognition with Kinect
Çoban et al. Wireless teleoperation of an industrial robot by using myo arm band
JP6379902B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
Savatekar et al. Design of control system for articulated robot using leap motion sensor
CN116802020A (zh) 用于监督式自主抓取的用户界面
JP6379921B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP7386451B2 (ja) 教示システム、教示方法及び教示プログラム
KR20120048900A (ko) 마네킹 로봇 및 그 제어 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees