JP7349651B1 - 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム - Google Patents

作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム Download PDF

Info

Publication number
JP7349651B1
JP7349651B1 JP2022170987A JP2022170987A JP7349651B1 JP 7349651 B1 JP7349651 B1 JP 7349651B1 JP 2022170987 A JP2022170987 A JP 2022170987A JP 2022170987 A JP2022170987 A JP 2022170987A JP 7349651 B1 JP7349651 B1 JP 7349651B1
Authority
JP
Japan
Prior art keywords
work
data
target
area
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022170987A
Other languages
English (en)
Other versions
JP2024062863A (ja
Inventor
友孝 伊藤
英二 河合
ドゥック フィー グエン
弥 荒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2022170987A priority Critical patent/JP7349651B1/ja
Application granted granted Critical
Publication of JP7349651B1 publication Critical patent/JP7349651B1/ja
Publication of JP2024062863A publication Critical patent/JP2024062863A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ワークに対する作業者の作業動作が反映された作業データを取得し、その作業データを利用してロボットを制御する。【解決手段】作業データ収集システム10は、ユーザが装着するヘッドマウントディスプレイ22に対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示する。そして、ユーザが、作業教示用ツール24を用いてヘッドマウントディスプレイ22に表示された対象ワークと作業対象領域とに対する作業を実施する際の、作業教示用ツール24の位置及び姿勢の時系列データを表す作業データを取得し、作業データを作業データ記憶部33へ格納させる。【選択図】図1

Description

本発明は、作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラムに関する。
特許文献1~8には、ロボットを制御する技術が開示されている。また、特許文献9には、ユーザに複合現実感の経験をもたらす技術が開示されている。また、特許文献10には、物品の設計に使用される拡張現実設計システムが開示されている。
特許6787966号公報 特許6420229号公報 特開2021-79520号公報 特開2021-529391号公報 特許7068416号公報 特許6660102号公報 特許6538760号公報 特開2000-308985号公報 特表2008-501184号公報 特許5961299号公報
ところで、作業対象の工業製品(以下、単に「ワーク」とも称する)に対して作業をロボットに教示する(以下、単に「ティーチング」とも称する)際には、その動作をデータとして設定する必要がある。
しかし、その作業が人手によって行われており、かつノウハウを要するような作業である場合には、そのような人の動作を表す作業データを設定することは難しい。例えば、ワークに付着したバリを除去するような作業を想定した場合、バリの形状(例えば、バリの厚さ、高さ、又は付着方向等)がワークの各箇所において異なれば、ワークの各箇所において作業者が工具を動かすスピード及び工具の当て方等は異なり、それらをティーチングペンダントなどの既存の方法でデータ化してロボットにティーチングすることは難しい。
本発明は、上記事情に鑑みてなされたものであり、ワークに対する作業者の作業動作が反映された作業データを取得し、その作業データを利用してロボットを制御することにある。
上記した課題を解決すべく、本発明に係る作業データ収集方法は、ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示するとともに、前記ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納する、処理をコンピュータが実行する作業データ収集方法である。
本発明に係る作業データ収集システムは、ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示する表示制御部と、ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納させるデータ取得部と、を備える作業データ収集システムである。
本発明によれば、ワークに対する作業者の作業動作が反映された作業データを取得し、その作業データを利用してロボットを制御することができる。
本実施形態の作業データ収集システムを示す機能ブロック図である。 本実施形態の作業データ収集システムの構成例である。 ユーザがヘッドマウントディスプレイを装着している様子を表す図である。 本実施形態の作業教示システムを示す機能ブロック図である。 本実施形態の作業実行システムを示す機能ブロック図である。 本実施形態の各装置を構成するコンピュータの構成例を示す図である。 作業データ収集装置が実行するモデル生成処理ルーチンの一例を示す図である。 ワークの3次元点群データの一例を示す図である。 対象ワークの3次元モデルの一例を示す図である。 第1ワークの3次元モデルと第2ワークの3次元モデルの一例を示す図である。 作業データ収集装置が実行する作業領域特定処理ルーチンの一例を示す図である。 作業データ収集装置が実行する作業データ収集処理ルーチンの一例を示す図である。 現実の対象ワーク上に仮想のバリ領域が重畳表示されている場合の一例を示す図である。 現実の対象ワーク上に仮想の作業対象領域やバリ、各種支援情報を正確に重畳表示するためのキャリブレーションの手法の一例を示す図である。 本実施形態において用いる作業教示用ツールの一例を示す図である。 作業教示用ツールの位置認識の精度確認をする様子を表す図である。 ユーザUが現実の対象ワークに対して仮想のバリ取り作業を行っている場面を表す図である。 ユーザがヘッドマウントディスプレイ越しに見た現実の対象ワークと仮想のバリ領域とが示されている図である。 作業データを説明するための図である。 作業済みの領域の表示態様と未作業領域の表示態様とを異ならせて表示させる場合の例を示す図である。 作業教示装置が実行する作業教示処理ルーチンの一例を示す図である。 作業データの補正を説明するための図である。 作業データの補正を説明するための図である。 学習済みモデルの一例を示す図である。
以下、図面を参照して実施形態を詳細に説明する。
本実施形態では、熟練作業者の手技を生かして効果的にロボットへ作業教示を行うことのできる、複合現実を用いたダイレクトオフラインティーチングシステムを提案する。具体的には、本実施形態に対応する実際の実施例においては、教示対象の一例であるバリ取り作業の対象となるアルミダイキャスト部品を光学スキャンすることにより3次元点群データを作成した上で、ゴーグル型透過提示装置を用いて現物のワーク(Real image)と得られた3次元点群データや支援情報(Virtual image)とを重ね合わせて立体表示させ、直接目視や操作ができる仕組みを実現させた。この点が、本実施形に係るシステムの大きな特長である。
本実施形態に係るシステムでは、現実と分け隔てなく扱えるという意味で複合現実(Mixed Reality)であり、工具刃先を模した作業教示用ツールを用いて、バリ取り位置や作業教示用ツールの姿勢及び作業教示用ツールを移動させる経路などの3次元データを作業者が直接かつ直感的に教示できるシステムを構成した。具体的には、実際の実施例においては、後述する回転型光学式スキャニングシステムによるワークの形状採取とバリ形状の明確化、ワークと仮想情報との複合現実デバイス上での正確な重ね合わせを実施することにより、作業教示用ツールを用いた手技の教示システムを構築した。
より具体的には、実際の実施例においては、後述する回転型光学式スキャニングシステムを開発して、CADデータの存在しないワークから3次元形状データを自動生成するシステムを開発し、同様に取得したバリ付ワークの形状データと比較してバリ部分を明確化することに成功した。また、実際の実施例においては、ゴーグル型透過提示装置を用いて、現物のワークの上に3次元の仮想情報(例えば、バリ形状など)を重ねて作業者に立体的に提示するシステムを実現した。その上で、複合現実環境下で作業教示用ツールを使ってバリ取り教示を行うことができる教示システムを実現し、現実と仮想とを分け隔てなく扱うことができ、手技を活かして教示を行うことができる新しい教示システムが実現された。
<作業データ収集システムのシステム構成>
図1は、本実施形態の作業データ収集システム10を示す機能ブロック図である。図1に示されるように、本実施形態の作業データ収集システム10は、機能的には、光学式スキャナ12と、データ取得用ロボット14と、回転式台座16と、コンピュータによって構成される作業データ収集装置18と、ヘッドマウントディスプレイ22と、作業教示用ツール24とを備えている。
図2に、作業データ収集システム10の構成例を示す。図2では、光学式スキャナ12と、データ取得用ロボット14と、回転式台座16と、回転式台座16上に設置された対象ワーク20とが示されている。なお、以下では、光学式スキャナ12、データ取得用ロボット14、及び回転式台座16を、回転型光学式スキャニングシステムとも称する。
本実施形態の作業データ収集システム10は、ユーザである熟練の作業者が、作業教示用ツール24を用いてヘッドマウントディスプレイ22を通して視認できる対象ワークとそこに重畳表示された作業領域に対して作業を実施している最中の、作業教示用ツール24の位置及び姿勢の時系列データを表す作業データを収集する。本実施形態では、ワークに付着しているバリ取り作業を例に説明する。
光学式スキャナ12は、ワークの3次元点群データを取得する。
図1に示されるように、作業データ収集装置18は、機能的には、データ取得部25と、3次元データ記憶部26と、3次元モデル生成部27と、作業領域特定部28と、表示制御部30と、作業データ取得部32と、作業データ記憶部33と、を備えている。
ヘッドマウントディスプレイ22の表示部(図示省略)には、作業データ収集装置18から出力された信号に応じた画像が表示される。図3に、ユーザUがヘッドマウントディスプレイ22を装着している様子を示す。
図3に示されるように、ユーザUはヘッドマウントディスプレイ22(例えば、透過型ヘッドマウントディスプレイ又はVRゴーグル等の外部ステレオカメラ等を備えたヘッドマウントディスプレイ)を装着し、その表示部に表示された現実の対象ワークと仮想の作業領域とに対して、作業教示用ツール24を用いて作業を実施する。なお、ヘッドマウントディスプレイ22が透過型の場合は、ユーザUはゴーグル越しに直接見えている現実の対象ワークの上に重畳表示された仮想の作業領域に対して、作業教示用ツール24を用いて作業を実施する。また、ヘッドマウントディスプレイ22がVRゴーグルの場合には、ユーザUはステレオカメラで捉えた現実の対象ワークの映像の上に重畳表示された仮想の作業領域に対して、作業教示用ツール24を用いて作業を実施する。なお、本明細書中の「ヘッドマウントディスプレイ」の用語は、ゴーグル型、ヘルメット型、又は眼鏡型等、装置の形態に限定されることなく、ディスプレイにコンピュータが作り出す画像を表示し、複合現実、仮想現実、又は拡張現実などをユーザが視認できるものをいう。
ヘッドマウントディスプレイ22は、ゴーグル型透過提示装置又は外部カメラを備えたVRゴーグルである。ユーザがヘッドマウントディスプレイ22としてゴーグル型透過提示装置を装着した場合、ヘッドマウントディスプレイ22の表示部には透過して直接見えている目の前の現実の対象ワークの上に複合現実的に仮想の情報が提示される。例えば、ゴーグル型透過提示装置としてはMicrosoft社製のHololens2を用いることができる。ヘッドマウントディスプレイ22のゴーグル部分である表示部には、ホログラムを利用した情報が表示されることにより、現実世界に仮想情報が重ね合わせて表示される。また、ユーザがヘッドマウントディスプレイ22として外部カメラを備えたVRゴーグルを装着した場合には、外部カメラで捉えた目の前の現実の対象ワークの映像の上に同様にして複合現実的に仮想の情報が重畳表示される。
<作業教示システムのシステム構成>
図4は、本実施形態の作業教示システム40を示す機能ブロック図である。図4に示されるように、本実施形態の作業教示システム40は、機能的には、作業ロボット42と、コンピュータによって構成される作業教示装置44とを備えている。
作業ロボット42は、作業データ収集システム10によって収集された作業データに基づいて、ワークに付着しているバリ取りの作業を実行する。
図4に示されるように、作業教示装置44は、機能的には、作業データ記憶部45と、工具データベース46と、補正部47と、学習部48とを備えている。作業教示装置44は、作業ロボット42に対してバリ取り作業を教示する。
<作業実行システムのシステム構成>
図5は、本実施形態の作業実行システム49を示す機能ブロック図である。図5に示されるように、本実施形態の作業実行システム49は、機能的には、作業教示システム40によって学習された作業ロボット42と、コンピュータによって構成される作業実行装置49Aとを備えている。
作業ロボット42は、作業実行装置49Aから出力された制御信号に応じてバリ取り作業を実行する。
作業データ収集装置18、作業教示装置44、及び作業実行装置49Aは、例えば、図6に示すコンピュータ50で実現することができる。コンピュータ50はCPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備える。また、コンピュータ50は、入出力装置等(図示省略)が接続される入出力interface(I/F)54、及び記録媒体に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータ50は、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を機能させるためのプログラムが記憶されている。CPU51は、プログラムを記憶部53から読み出してメモリ52に展開し、プログラムが有するプロセスを順次実行する。
<作業データ収集システム10の作用>
次に、本実施形態の作業データ収集システム10の作用について説明する。
ワークが回転式台座16の上に設置され、作業データ収集装置18が所定の指示信号を受け付けると、作業データ収集装置18は、図7に示されるモデル生成処理ルーチンを実行する。
なお、図7に示されるモデル生成処理ルーチンは、バリ取り作業完了前の複数の第1ワークと、バリ取り作業完了後の第2ワークに対して実行される。第2ワークは、後述するヘッドマウントディスプレイ22を通して目視しながら教示作業を行うための対象ワークである。また、後述するように、第2ワークは第1ワークとの間の比較によってバリ領域が特定され、重畳表示するために用いられるワークでもある。
ステップS100において、作業データ収集装置18のデータ取得部25は、光学式スキャナ12とデータ取得用ロボット14と回転式台座16とに対して所定の制御信号を出力する。これにより、回転式台座16が回転すると共に、光学式スキャナ12からレーザ光が出力され、光学式スキャナ12によってワークの3次元点群データが取得される。また、データ取得用ロボット14は、光学式スキャナ12から出力されるレーザ光の向きを調整するような動きをする。回転台座16とデータ取得用ロボット14の動作の連携により、後述するように、光学式スキャナ12を利用してのワークの3次元点群データが多視点で取得され、蓄積される。
実際の実施例では[Photoneo社製 PhoXi ScannerモデルM]を用いて回転型の光学式スキャナ12を開発した。また、図2に示されるように、減速機付DCモータ(図示省略)で駆動する回転台座16を設計製作し、マイコン制御によって台座の回転と光学式スキャナ12での形状取得が同期するように制御する方式とした。実際の実施例においては、回転台座の送り角度(スキャンの間隔)やスピードは、ワークに合わせて自由に変更することが可能である。取得される形状データは、それぞれのスキャン方向から見た3次元点群データであり、それらを統合してワークの3次元モデルが再構成される仕組みである。実際の実施例において開発した方式は様々なワークに適用できるように汎用性を持たせてあり、実用化の上での大きな強みになる。
ステップS102において、作業データ収集装置18のデータ取得部25は、光学式スキャナ12によって取得されたワークの3次元点群データを取得する。
図8に、ワークの3次元点群データの一例を示す。図8に示されるように、様々な方向の3次元点群データ20A,20Bが取得される。図8に示される3次元点群データ20A,20Bは、ワークを異なる方向からスキャンした3次元点群データの一例である。
そして、データ取得部25は、ワークの3次元点群データを3次元データ記憶部26へ一旦格納する。
ステップS104において、作業データ収集装置18の3次元モデル生成部27は、3次元データ記憶部26に格納された3次元点群データを読み出す。そして、3次元モデル生成部27は、読み出したワークの3次元点群データに基づいて、既知の技術を利用して、ワークの3次元モデルを生成する。具体的には、3次元モデル生成部27は、多視点の3次元点群データを互いに自動で位置合わせし、ワークの全周の3次元点群データとして再構成することにより、ワークの3次元モデルを生成する。
図9に、対象ワーク20の3次元モデルの一例を示す。様々な方向の3次元点群データ20A,20Bに基づいて、図9に示されるような対象ワーク20の3次元モデル20Cが生成される。図9に示されるような対象ワーク20の3次元モデル20Cは、全周スキャン(15度ずつ回転、全24方向)のデータから再構成されたサンプルワークの3次元形状データである。実際の実施例において、再構成には、3次元点群比較により共通部分を探索して重ね合わせを行う手法を開発して用いている。
また、図10に、バリ取り作業完了前の第1ワーク(バリ付きのワーク)の3次元モデルとバリ取り作業完了後の第2ワーク(バリなしのワーク)の3次元モデルの一例を示す。図10に示される第1ワークの3次元モデル20Dは、第2ワークの3次元モデル20Eに比べて凹凸の箇所が多く存在する。この凹凸の多くがバリに相当する。
なお、実際の実施例では、上述したような回転型光学式スキャニングシステムを用いて、バリ付の第1ワークと熟練者がバリ取り作業をした後の第2ワークをスキャンし、形状データを比較することで第1ワークのバリ付着位置と形状の明確化を行った。第1ワークには様々な形状のバリが複雑に存在し、スキャンのノイズやワークの個体差の影響も受けるため、単純なデータ比較ではバリ部分のみをうまく抽出することは難しい。そこで、後述するように、近傍点探索、孤立点除去、及びバリ部分の延長処理などを比較工程に導入することで、バリ部分のみを明確化する手法も考案した。
ステップS106において、3次元モデル生成部27は、ステップS104で生成したワークの3次元モデルを、3次元データ記憶部26へ格納する。なお、3次元モデル生成部27は、全周の3次元点群データである3次元モデルに対して、ノイズ除去、多重点の統合、表面平滑化処理、及び各点法線ベクトルの生成等を行って、ワークの3次元モデルを3次元データ記憶部26へ格納する。
図7に示されるモデル生成処理ルーチンが、複数の第1ワーク及び第2ワークに対して実行されると、複数の第1ワークの各々の3次元モデルと第2ワークの3次元モデルとが3次元データ記憶部26へ格納される。なお、バリの形状は何種類も存在する。そのため、複数の第1ワークに対して図7に示されるモデル生成処理ルーチンが実行されることにより、複数の第1ワークの3次元モデルが作成され、複数の第1ワークの各々の3次元モデルが3次元データ記憶部26へ格納される。
次に、作業データ収集装置18が所定の指示信号を受け付けると、作業データ収集装置18は、図11に示される作業領域特定処理ルーチンを実行する。
ステップS200において、作業データ収集装置18の作業領域特定部28は、3次元データ記憶部26に格納されている複数の第1ワークの3次元モデルから1つの第1ワークの3次元モデルを設定する。
ステップS202において、作業データ収集装置18の作業領域特定部28は、ステップS200で設定された第1ワークの3次元モデルと3次元データ記憶部26に格納されている第2ワークの3次元モデルとの差異を表す領域を計算する。具体的には、作業領域特定部28は、第1ワークの3次元モデルと第2ワークの3次元モデルとを比較することにより、それらの差分を表す差分データを計算する。
ワークには様々な形状のバリが複雑に存在し、光学式スキャナ12によるノイズ及びワークの個体差の影響を受ける。このため、作業領域特定部28は、最近傍点探索、孤立点除去、バリ部分の延長処理、及び連結性探索等の既知のアルゴリズムを利用することにより、バリ領域を精度良く特定する。
このため、ステップS204において、作業データ収集装置18の作業領域特定部28は、第1ワークの3次元モデルと第2ワークの3次元モデルとの差分を表す差分データと、第2ワークの3次元モデルとの間において、既知の最近傍点探索を実行することにより、差分データのノイズを除去する。これにより、例えば、差分データにおける孤立点が除去される。
また、ステップS206において、作業データ収集装置18の作業領域特定部28は、第1ワークの3次元モデルと第2ワークの3次元モデルとの差分を表す差分データと、第2ワークの3次元モデルとの間において、既知の連結性探索(連結グラフであるか否かを判定するアルゴリズム)を実行することにより、第2ワークと連結しているバリのみを抽出する。
ステップS207において、作業データ収集装置18の作業領域特定部28は、ステップS204及びステップS206の処理によって得られたバリの位置及び形状のデータを、3次元データ記憶部26へ一旦記憶する。
ステップS208において、作業データ収集装置18の作業領域特定部28は、3次元データ記憶部26に格納されている複数の第1ワークの3次元モデルの全てに対して、ステップS200~ステップS207の処理が実行されたか否かを判定する。複数の第1ワークの3次元モデルの全てに対して、ステップS200~ステップS207の処理が実行された場合には、ステップS210へ進む。一方、ステップS200~ステップS207の処理を実行していない第1ワークが存在する場合には、ステップS200へ戻る。
ステップS210において、作業データ収集装置18の作業領域特定部28は、ステップS207で3次元データ記憶部26へ記憶された複数のバリの位置及び形状のデータを統合することにより、作業対象領域である仮想のバリ領域を生成する。
例えば、作業データ収集装置18の作業領域特定部28は、複数のバリの位置及び形状のデータを統合する際に、複数のバリの位置及び形状のデータを平均化する平均化処理を実行することにより、作業対象領域であるバリ領域を生成する。または、例えば、作業データ収集装置18の作業領域特定部28は、複数のバリの位置及び形状のデータを統合する際に、複数のバリの位置及び形状のデータのうち最大の大きさのバリを選択することにより、作業対象領域であるバリ領域を生成する。なお、複数のバリの位置及び形状のデータを統合する方法としては、これに限られず、様々な方法によって統合することが可能である。
ステップS212において、作業データ収集装置18の作業領域特定部28は、ステップS210で生成されたバリ領域の位置及び形状を、3次元データ記憶部26へ格納する。
次に、作業データ収集装置18が所定の指示信号を受け付けると、作業データ収集装置18は、図12に示される作業データ収集処理ルーチンを実行する。
ステップS300において、作業データ収集装置18の表示制御部30は、ユーザが装着するヘッドマウントディスプレイ22の表示部に対して、現実の対象ワークと仮想のバリ領域とを重畳させて表示させる。具体的には、実際の実施例において、現物のワークが存在する3次元空間と仮想のバリ領域を描画する3次元空間の座標系とを一致させるための座標変換を導入することにより、位置を合わせての重ね合わせ表示を実現した。その結果、ワークを様々な方向から覗き込んでも視点の変更に追従し、ずれがほとんど感じられない程度に仮想情報と現物のワークを正しく一致させて表示できることを確認した。
図13に、現実の対象ワークと仮想のバリ領域とが重畳表示されている場合の一例を示す。
図13では、現実の対象ワーク20と仮想のバリ領域21とが重畳表示されている。図13に示されるように、ヘッドマウントディスプレイ22の表示部には、現物のワークに対して、バリ形状のデータベースから、適切なデータを読みだした仮想的なバリを重ねて表示することが可能である。
本実施形態では、ヘッドマウントディスプレイ22に搭載した機能を利用することにより、現実のワークが存在する3次元空間の座標系と仮想のバリ領域を描画する3次元空間の座標系とを一致させるための座標変換を実行する。これにより、仮想のバリ領域と現実の対象ワークとの重ね合わせが可能となる。その結果、ユーザが現実のワークを様々な方向から覗き込んだとしても、ユーザの視点の変更に追従して仮想のバリ領域がヘッドマウントディスプレイ22の表示部に重畳表示される。これにより、現実のワークと仮想のバリ領域との間のずれの発生が抑制される。
このようにして、仮想のバリ領域21を現実の対象ワーク20Gの上に重畳表示することができる。その他にも、ユーザの選択によって作業を支援する様々な情報が複合現実的に重畳表示される。
なお、現実の対象ワーク20Gに仮想のバリ領域21や仮想の支援情報を正確に重畳表示するためのキャリブレーション(位置合わせ)は、図14の上段のように工具型プローブ24で現実の対象ワーク20Gの表面をなぞることで現実と仮想の位置関係を取得して、座標系の変換が自動的に実行される。これにより、ユーザビリティが向上する。この例では、P1を始点として、P2を経由し、P3を終点として所定の表面をなぞり、次に、P4を始点としてP5終点で別の表面をなぞる(図14上図左になぞった軌跡を黒線で示す)。この例では2ヵ所の別表面上をなぞる軌跡の例を示したが、対象ワークのなるべく広い範囲で、何回かの軌跡に分けて、いろいろな面をなぞることによって、現実と仮想の位置合わせの精度をさらに上げることができる。
また、図14の下段では、QRコード(登録商標)が作業現場に設置されている。このQRコード(登録商標)は、ヘッドマウントディスプレイ22が備えるカメラが読み取るためのものであり、このQRコード(登録商標)を基準にして、対象ワークと仮想作業領域を重ね合わせる座標系を保存しておくことにより、次の使用時にはキャリブレーションをやり直すことなく座標系を復元することができる。
このようにして、ユーザが装着するヘッドマウントディスプレイ22の表示部に現実の対象ワークと仮想のバリ領域とが重畳表示されると、ユーザは、作業教示用ツール24を用いて、現実の対象ワークに付着している仮想のバリ領域を除去するような動作が可能となる。
ステップS302において、作業データ収集装置18の作業データ取得部32は、ユーザが作業教示用ツール24を用いてヘッドマウントディスプレイ22に表示された対象ワークとバリ領域とに対するバリ取り作業を実施する際の、作業教示用ツール24の位置及び姿勢の時系列データを表す作業データを取得する。
図15に、本実施形態において用いる作業教示用ツール24を示す。図15の作業教示用ツール24は作業者が普段の作業で用いる工具を模したものであり、プローブの動きを検出するための工具型のプローブであり、反射マーカ34を備えている。図15に示されている作業教示用ツール24は、実際に使用されているバリ取り用の工具の一つを模して、本発明者らが実際に製作した工具型プローブである。
本実施形態では、ヘッドマウントディスプレイ22が備えているセンサの一例である赤外線カメラとデプスカメラとを利用する。具体的には、ヘッドマウントディスプレイ22に内蔵されている赤外線カメラとデプスカメラとが、作業教示用ツール24の球状の反射マーカ34の位置及び姿勢を逐次検知する。
そして、作業データ収集装置18の作業データ取得部32は、ヘッドマウントディスプレイ22の赤外線カメラとデプスカメラとによって検知された反射マーカ34の位置及び姿勢に基づいて、作業教示用ツール24の位置及び姿勢を座標計算することにより、作業教示用ツール24の位置及び姿勢の時系列データを表す作業データを取得する。別の実施形態として、作業環境に固定設置したカメラやデプスカメラ等を利用してマーカ検出装置を構成し、工具型プローブの位置及び姿勢の時系列データを取得するようにしてもよい。
なお、図15に示されているように、作業教示用ツール24には、作業データの記録開始を指示するためのスイッチSWも搭載されている。このため、ユーザは、バリ取り作業のうちの必要な場面のみの作業データを記録することもできる。
図16は、作業教示用ツール24とヘッドマウントディスプレイ22の赤外線カメラとデプスカメラとによって検知された、作業教示用ツール24の位置の精度の確認を行っている様子である。作業教示用ツール24を用いて定規をなぞることにより作業教示用ツール24の動きを取得し、実際の動きと比較をした結果、位置認識の精度は±1mm以内であり、後述する作業ロボット42へのティーチングには十分であることが確認された。
また、図17は、ユーザUが、現実の対象ワーク20に対して仮想のバリ取り作業を行っている場面を表す図である。図18は、ユーザUがヘッドマウントディスプレイ22越しに見た現実の対象ワーク20と仮想のバリ領域21とである。
図12のステップS304において、作業データ収集装置18の作業データ取得部32は、ステップS302で取得された作業データを作業データ記憶部33へ格納する。
図19に、作業データを説明するための図を示す。図19に示される例では、対象ワークの側面に存在するバリを取るように、対象ワークの側面を方向Dへ向けて作業教示用ツール24でなぞるような作業データが記録される。なお、図19に示される例は、作業教示用ツール24のスイッチSWがONになった際に作業データの記録が開始され、スイッチSWがOFFになった際に作業データの記録を終了させた際の作業データである。図19に示されるように、作業教示用ツール24の動きは対象ワークへの接触点とその時の工具型プローブ24の姿勢を表すベクトルの時系列データとして記録されるため、後述するように、バリ取り作業用のロボットの制御データとして利用することが可能である。
なお、ユーザがバリ取り作業を実施する際には、作業教示用ツール24によってなぞられた箇所に位置するバリを、ヘッドマウントディスプレイ22上において消していくようにしてもよい。この場合には、ユーザは、バリ取りの状況を認識しながら作業をすることもできる。
また、作業データ収集装置18の作業データ取得部32は、現実の対象ワークに作業対象領域を重畳させて表示させる際に、作業済みの領域の表示態様と未作業領域の表示態様とを異ならせて表示させるようにしてもよい。また、作業教示用ツール24の作業軌跡を、バリ領域とは異なる態様(異なる色や形状、など)で表示してもよい。この場合は、バリ領域にさらに重ねて別の情報を表示することにより、作業済み領域を消していくことでもよい。このようにすれば、未作業領域を明確に把握することができ、状況を把握しながら教示作業が可能である。
図20に、作業済みの領域の表示態様と未作業領域の表示態様とを異ならせて表示させる場合の例を示す。図20に示されるように、未作業領域21Aの表示態様と作業済みの領域21Bの表示態様とが異なることにより、状況を把握しながらの作業が可能となる。
また、作業データ収集装置18の作業データ取得部32は、現実の対象ワークに作業対象領域を重畳させて表示させる際に、作業のガイドとなる作業軌跡を重畳させて表示させるようにしてもよい。
<作業教示システム40の作用>
次に、本実施形態の作業教示システム40の作用について説明する。
オフラインティーチングによって取得された作業データは、対象ワークに対する熟練作業者の工具の当て方(例えば、工具の位置及び姿勢等)や動き(例えば、速度変化など)の詳細を含むため、容易にロボットの制御プログラムにデータとして組み込むことができる。ただし、本実施形態では、応用面を考慮して利便性を向上させるための複数の拡張機能が実装されている。
その一つは、ティーチングによって取得された作業データが表す軌跡の精細化の機能である。リアルタイムでオフラインティーチングを行う際は、対象ワーク及びバリの3次元モデルを高速に演算して現物の対象ワークに重ね合わせて表示するため、作業データ収集装置18は、3次元モデルのデータを間引いて解像度を落として表示する。また、作業者の手の動きには手振れも含まれるため、リアルタイムでは簡易的な手振れ補正が行われる。しかし、最終的にロボットの制御データとして作業データを出力する際には、高精細な3次元モデルの表面上の手振れの無い滑らかな軌跡を生成するのが望ましい。そのため、本実施形態では、ティーチングで得られた作業データが表す軌跡を平滑化処理した上で、光学式スキャナから再構築したままの高精細な3次元モデルに再フィッティングさせることにより、高精細かつ滑らかな軌跡を生成する。
二つ目は、作業データが表す軌跡の自動加工機能である。現場での応用を考えると、ティーチングに使う作業教示用ツールの形状と、実際のロボットが加工を行う工具の形状とが異なる場合を考慮する方が望ましい。例えば、ティーチングには使いやすくて軽いペン型のプローブが使用され、ロボットが用いる工具はドリルやグラインダーなどが状況に応じて利用されるといったことが考えられる。そこで、本実施形態では、ロボットで使用する工具の形状をデータベースとして保持することにより、ティーチングから得られた作業者の作業データが表す軌跡を基に、対象物からの距離を変更したり工具の姿勢を変更したりする自動加工機能を実装した。
作業データ収集システム10によって、ユーザの作業データが収集され、その作業データが作業データ収集装置18の作業データ記憶部33に格納されると、作業教示システム40に対してその作業データが入力され作業教示装置44の作業データ記憶部33に格納される。そして、作業教示装置44が所定の指示信号を受け付けると、作業教示装置44は、図21に示される作業教示処理ルーチンを実行する。
ステップS400において、作業教示装置44の補正部47は、作業データ記憶部33に格納された作業データを読み出す。
ステップS402において、作業教示装置44の補正部47は、対象ワークに対する動作を作業ロボット42の動作データとして学習させる際に、作業データが表す作業教示用ツール24の軌跡を平滑化し、かつ平滑化された軌跡と対象ワークとの間の距離を調整する。
図22及び図23に、作業データの補正を説明するための図を示す。
図22に示されるように、ワークの表面S上にプロットされた作業データの軌跡は、手振れなどの影響で、軌跡を構成する各時刻の作業教示用ツール24の位置が凸凹しており、作業ロボットに滑らかな動作をさせるのに適切でない場合もある。そのため、図22に示されるように、本実施形態の作業教示装置44の補正部47は、作業データが表す作業教示用ツール24の軌跡を平滑化させた上で、対象ワークの3次元形状に再適合させる。これにより、作業データがワークの表面を沿うような滑らかな時系列データとなり、作業ロボット42によるバリ取り作業がより適切なものとなる。
また、ワークの表面S上にプロットされた作業データの軌跡は、教示用の作業教示用ツール24を用いた際に得られたデータである。作業教示用ツール24は教示作業がしやすい形状に設計されるため、作業ロボット42が備える工具とは大きさや形状が異なる場合がある。そのため、作業データをそのまま作業ロボット42へ教示させたとしても、うまくバリ取り作業ができない場合もある。
そこで、図23に示されるように、本実施形態の作業教示装置44の補正部47は、平滑化された作業データの軌跡とワークとの間の距離や工具の姿勢を、作業ロボット42が備える加工工具に合わせるように自動調整する。図23は、加工工具のドリルの半径に合わせて、作業データが表す軌跡を自動的に外側に拡張した様子を示している。図23の例では、元の作業データの軌跡よりも、対象ワーク20からより離れた軌跡(図24では「拡張した軌跡」と表記)となるように、作業データを調整して太い研削工具に対応する。同時に、教示時の作業教示用ツール24の姿勢を作業ロボット42の加工工具に合わせて調整することもできる。
このため、ステップS402において、作業教示装置44の補正部47は、対象ワークに対する動作を作業ロボット42の動作データとして学習させる際に、工具データベース46に記憶されている、作業ロボット42が利用する工具の種類を読み出し、その種類に応じて、平滑化された軌跡の各点が表す工具の姿勢を調整する。調整方法は、工具の種類に応じて予め決定される。これにより、作業ロボット42の工具が作業教示用ツール24とは異なる大きさや形状であっても、作業ロボット42によってバリ取り作業を適切に実行することができる。
なお、上記の補正を実施する際には、対象ワークの3次元モデルをより高精細なモデルとする。作業データを収集している際の対象ワークの3次元モデルはその計算速度を高速化させるために比較的粗いモデルを用いる場合がある。そのため、より適切な作業データに補正するために、補正部47では、より高精細な対象ワークのモデルを用いて作業データを補正し再構成することにより、より適切に作業データを補正することができる。
ステップS404において、作業教示装置44の補正部47は、ステップS402で調整された作業データに基づいて、既知の技術を利用して、対象ワークに対する動作を作業ロボット42へ学習させる。
<作業実行システム49の作用>
次に、本実施形態の作業実行システム49の作用について説明する。
作業実行システム49の作業実行装置49Aが所定の指示信号を受け付けると、作業実行装置49Aは、作業ロボット42にバリ取り作業を指示する制御信号を出力する。作業ロボット42は作業データによって学習がなされているため、作業データに応じた動作をすることにより対象ワークと同種のワークのバリ取り作業を実行する。
以上説明したように、本実施形態に係る作業データ収集システムは、ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに、仮想の領域に相当する仮想のバリ領域を重畳させて表示させることにより、作業対象領域に相当する仮想のバリ領域をユーザに対して表示する。そして、作業データ収集システムは、ユーザが、作業教示用ツールを用いてヘッドマウントディスプレイを通じて視認できる現実の対象ワークと仮想のバリ領域とに対する作業を実施する際の、作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、作業データを作業データ記憶部へ格納する。これにより、ワークに対する作業者の作業動作が反映された作業データを取得し、その作業データを利用して作業ロボットを制御することができる。
本実施形態では、Mixed Reality(複合現実)を用いたシステムを構築した。従来のようなCAD又はVirtual Realitya(仮想現実)、Augmented Reality(拡張現実)等のモデル空間を用いた教示の場合、ユーザはワークに接触したときの力感覚は得られないのに対し、本実施形態において構築した複合現実を利用したシステムでは、ユーザが現実のワークに接触しながら作業した際に得られた作業データを取得することができる。これにより、ユーザが普段のバリ取り作業と同じようにリアルな反力を感じた際の作業データを取得することができる。なお、作業データ収集システムと作業教示システムが1つのシステムによって構成される場合には、ユーザは、普段のバリ取り作業と同じようにリアルな反力を感じながら作業ロボットに対して教示を行うことができる。そのため、ユーザである熟練作業者の持つ手技、つまり、熟練者の工具の当て方(位置、姿勢など)や動き(軌跡、速度変化など)などを活かすことができる。また、現実のワークと同じ座標系において取得された作業教示用ツールの動きは、バリ取りを行う作業ロボットの作業座標系へ容易に変換することができる。また、複合現実を利用して仮想のバリだけでなく様々な支援情報(QRコード(登録商標)や3Dモデルの3次元点群情報やメッシュ情報など)を合わせて表示することも可能である。また、本実施形態によれば、ロボット教示やコンピュータについての知識を持っていない熟練工でも普段と同じような作業をすることにより、ロボット教示を実施できる。また、作業ロボットに対するダイレクトオフラインティーチングが可能となる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記実施形態では、第2ワーク(バリなしワーク)を現実の対象ワークとして用い、仮想の領域が仮想のバリ領域、作業対象領域がその仮想のバリ領域である場合を例に説明したが、これに限定されるものではない。具体的には、上記実施形態では、現実の対象ワーク(バリなしワーク)に仮想のバリ領域を重畳させて表示させることにより、作業対象領域である仮想のバリ領域をユーザに対して表示した。このため、上記実施形態では、仮想の領域が作業対象領域に相当する。一方、上記実施形態とは異なり、バリ付きワークを対象ワークとして用いて作業教示に利用してもよく、仮想の領域は、作業対象領域を除いた部分に対応する対象ワークの3次元モデルに相当するようにしてもよい。この場合には、例えば、現実の対象ワーク(バリ付きワーク)に、仮想の対象ワークの3次元モデル(バリ無し)を重畳表示することにより、現実の対象ワークのバリ部分を除いた部分(つまりバリ無しのワーク部分)と、現実の対象ワーク内のバリ領域の部分とを区別できるよう表示、あるいは強調表示されるようにしてもよい。そのようにすれば、ユーザは、現実の対象ワーク内のバリ領域の部分を作業対象領域として見ることができ、その領域に対して所定の作業を行うことができる。その際は、工具型プローブの代わりに、実際のバリ取り工具に位置検出用マーカを取り付けて作業教示用ツールとすることで、バリを実際に除去しながらその動きを取得することができる。この場合は、現実の対象ワークのバリ部分を実際に見ることができるので、仮想のバリ領域を重畳して表示する場合と比較して、より正確な作業を教示することができることがある。なお、透過型ディスプレイの場合、現実の対象ワークを透過して直接に見るような構成も含む。また、これまで述べてきた実施態様に限らず、現実のワーク上に重畳して所定の仮想表示を行うことにより、作業すべき部分(実施例ではバリ領域)とそれ以外の部分(作業しない部分)を区別することができるような表示態様なら何でもよい。
また、上記実施形態では、作業データ収集システム10が作業データを収集し、後述する作業教示システム40が作業ロボット42に対してバリ取り作業を教示し、作業実行システム49が作業ロボット42に対してバリ取り作業を実行させる場合を例に説明したが、作業データ収集システム10と作業教示システム40と作業実行システム49とは1つのシステムとして構成されていてもよい。
また、上記実施形態では、ワークに付着しているバリ取りの作業が対象であり、作業領域はワークに付着しているバリに対応する領域である場合を例に説明したがこれに限定されるものではない。上記実施形態は、その他の作業にも適用可能である。例えば、研磨作業、切削作業や形状加工作業などでもよい。また、工場などの生産・製造現場での作業に限らず、農業、ロジスティクス、及び土木建築分野など各種の作業分野で応用が可能である。
また、上記実施形態では、複数の第1ワークから得られる複数のバリを統合(例えば、複数のバリの平均)することによりバリ領域を生成する場合を例に説明したが、第1ワークは1つであり、1つの第1ワークから得られるバリに基づいてバリ領域を生成してもよい。
また、上記実施形態では、作業教示用ツールが、反射マーカを用いてモーションキャプチャーを行うプローブ型工具である場合を例に説明したが、作業データを取得できるものならどのようなものであってもよい。例えば、作業工具の位置及び姿勢などを画像認識で求めたり、センサなどにより電気的、光学的に検出するものでもよい。
また、上記実施形態では、時系列データである作業データを用いて作業ロボット42に対して教示をする場合を例に説明したがこれに限定されるものではない。例えば、AI技術を利用して、作業対象領域(例えば、バリの形状を表すデータ)と作業データとが関連付けられた学習用データを生成し、その学習用データに基づいて、既知の機械学習アルゴリズムを用いて、作業対象領域(例えば、バリの形状を表すデータ)が入力されたときに作業データを出力する学習済みモデルを生成し、その学習済みモデルを利用することにより対象ワークに対する動作をロボットへ学習させるようにしてもよい。この場合には、学習済みモデルは、例えば、ディープラーニングやニューラルネットワークモデル等のモデルによって構成される。図24は、そのような学習済みモデルの一例を示す図である。図24に示されるように、バリの形状を表すデータが学習済みモデルに入力された際には、そのバリの形状に応じた作業データが出力されるようにしてもよい。図24に示されるように、学習のための入力データとして例えばバリの形状(厚さ、高さ、付着長さ、及び付着方向など)を入力し、出力データとして工具の位置及び姿勢を表す局所軌跡を出力するように学習する。実行時には、学習済みモデルに対して対象ワークのバリ形状を入力して、出力として得られた局所軌跡を統合して時系列データを自動生成するようにしても良い。なお、上記の学習用のデータは、本システムにおいては熟練作業者が教示した作業データとバリ形状データを関連させて蓄積することで作成することができる。上記のようなAI技術を利用すれば、熟練作業者による作業教示を常に行うことなく、作業データを自動的に生成して作業ロボットに教示することができる。
10 作業データ収集システム
12 光学式スキャナ
14 データ取得用ロボット
16 回転式台座
18 作業データ収集装置
20 対象ワーク
22 ヘッドマウントディスプレイ
24 作業教示用ツール
25 データ取得部
26 3次元データ記憶部
27 3次元モデル生成部
28 作業領域特定部
30 表示制御部
32 作業データ取得部
33 作業データ記憶部
34 反射マーカ
40 作業教示システム
42 作業ロボット
44 作業教示装置
45 作業データ記憶部
46 補正部
48 学習部
49 作業実行システム
49A 作業実行装置
50 コンピュータ

Claims (21)

  1. ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示するとともに、
    前記ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納し、
    前記作業対象領域を特定する際には、
    作業完了前の第1ワークの3次元データを取得し、
    作業完了後の第2ワークの3次元データを取得し、
    前記第1ワークの3次元データと前記第2ワークの3次元データとに基づいて、前記第1ワークと前記第2ワークとの間の差異に基づいて前記作業対象領域として特定する、
    処理をコンピュータが実行する作業データ収集方法。
  2. 前記第1ワークは、複数の第1ワークが含まれる請求項1に記載の作業データ収集方法。
  3. 前記仮想の領域は、前記作業対象領域に相当する、
    請求項1に記載の作業データ収集方法。
  4. 前記仮想の領域は、前記作業対象領域を除いた部分に対応する前記対象ワークの3次元モデルに相当する、
    請求項1に記載の作業データ収集方法。
  5. 前記現実の対象ワークに前記作業対象領域を重畳させて表示させる際に、作業済みの領域の表示態様と未作業領域の表示態様とを異ならせて表示させる、
    請求項1~請求項4の何れか1項に記載の作業データ収集方法。
  6. 前記現実の対象ワークに前記作業対象領域を重畳させて表示させる際に、作業のガイドとなる作業軌跡を重畳させて表示させる、
    請求項1~請求項4の何れか1項に記載の作業データ収集方法。
  7. 前記作業は、ワークに付着しているバリ取りの作業であり、
    前記作業対象領域は、ワークに付着しているバリに対応する領域であり、
    前記作業データは、前記ユーザが作業を実施している際に前記対象ワークからの反力を受けつつ得た作業データである、
    請求項1に記載の作業データ収集方法。
  8. 前記作業教示用ツールはマーカを備えており、
    前記ヘッドマウントディスプレイは前記マーカの位置及び姿勢を検知するセンサが備えられており、
    前記センサによって検知された前記マーカの位置及び姿勢の時系列データから、前記作業教示用ツールの位置及び姿勢を生成する、
    請求項1に記載の作業データ収集方法。
  9. ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示するとともに、
    前記ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納し、
    前記作業対象領域を特定する際には、
    作業完了前の第1ワークの3次元データを取得し、
    作業完了後の第2ワークの3次元データを取得し、
    前記第1ワークの3次元データと前記第2ワークの3次元データとに基づいて、前記第1ワークと前記第2ワークとの間の差異に基づいて前記作業対象領域として特定し、
    前記記憶部に格納された前記作業データに基づいて、前記対象ワークに対する動作を作業ロボットへ学習させる、
    処理をコンピュータに実行させる方法
  10. 前記対象ワークに対する動作を作業ロボットへ学習させる際に、前記作業データが表す前記作業教示用ツールの軌跡を平滑化させ、前記平滑化された軌跡と前記対象ワークとの間の距離及び前記軌跡の各点が表す工具の姿勢を調整することにより、前記対象ワークに対する動作を前記作業ロボットへ学習させる、
    請求項9に記載の方法
  11. 前記対象ワークに対する動作を作業ロボットへ学習させる際に、前記作業対象領域と前記作業データとが関連付けられた学習用データを生成し、前記学習用データに基づいて、前記作業対象領域が入力されたときに前記作業データを出力する学習済みモデルを生成し、前記学習済みモデルを利用することにより前記対象ワークに対する動作を作業ロボットへ学習させる、
    請求項9に記載の方法
  12. ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示するとともに、
    前記ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納し、
    前記作業対象領域を特定する際には、
    作業完了前の第1ワークの3次元データを取得し、
    作業完了後の第2ワークの3次元データを取得し、
    前記第1ワークの3次元データと前記第2ワークの3次元データとに基づいて、前記第1ワークと前記第2ワークとの間の差異に基づいて前記作業対象領域として特定し、
    前記記憶部に格納された前記作業データに基づいて、前記対象ワークに対する動作を作業ロボットへ学習させ、
    前記対象ワークに対する動作を学習した前記作業ロボットを動作させることにより、前記対象ワークと同種のワークに対する作業を実行させる、
    処理をコンピュータが実行する方法
  13. ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示する表示制御部と、
    ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納させるデータ取得部と、
    前記作業対象領域を特定する際に、作業完了前の第1ワークの3次元データを取得し、作業完了後の第2ワークの3次元データを取得し、前記第1ワークの3次元データと前記
    第2ワークの3次元データとに基づいて、前記第1ワークと前記第2ワークとの間の差異に基づいて前記作業対象領域として特定する、作業領域特定部と、
    を備える作業データ収集システム。
  14. 前記第1ワークは、複数の第1ワークが含まれる請求項13に記載の作業データ収集システム。
  15. 前記仮想の領域は、前記作業対象領域に相当する、
    請求項13に記載の作業データ収集システム。
  16. 前記仮想の領域は、前記作業対象領域を除いた部分に対応する前記対象ワークの3次元モデルに相当する、
    請求項13に記載の作業データ収集システム。
  17. ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示する表示制御部と、
    ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納させるデータ取得部と、
    前記作業対象領域を特定する際に、作業完了前の第1ワークの3次元データを取得し、作業完了後の第2ワークの3次元データを取得し、前記第1ワークの3次元データと前記
    第2ワークの3次元データとに基づいて、前記第1ワークと前記第2ワークとの間の差異に基づいて前記作業対象領域として特定する、作業領域特定部と、
    を備え、
    前記記憶部に格納された前記作業データに基づいて、前記対象ワークに対する動作を作業ロボットへ学習させる、
    システム
  18. ユーザが装着するヘッドマウントディスプレイに対し、現実の対象ワークに仮想の領域を重畳させて表示させることにより、作業対象領域をユーザに対して表示する表示制御部と、
    ユーザが、作業教示用ツールを用いて前記ヘッドマウントディスプレイに表示された前記対象ワークと前記作業対象領域とに対する作業を実施する際の、前記作業教示用ツールの位置及び姿勢の時系列データを表す作業データを取得し、前記作業データを記憶部へ格納させるデータ取得部と、
    前記作業対象領域を特定する際に、作業完了前の第1ワークの3次元データを取得し、作業完了後の第2ワークの3次元データを取得し、前記第1ワークの3次元データと前記
    第2ワークの3次元データとに基づいて、前記第1ワークと前記第2ワークとの間の差異に基づいて前記作業対象領域として特定する、作業領域特定部と、
    を備え、
    前記記憶部に格納された前記作業データに基づいて、前記対象ワークに対する動作を作業ロボットへ学習させ、
    前記対象ワークに対する動作を学習した前記作業ロボットを動作させることにより、前記対象ワークと同種のワークに対する作業を実行させる、
    システム
  19. 請求項1に記載の作業データ収集方法の各処理をコンピュータに実行させるためのプログラム。
  20. 請求項9に記載の方法の各処理をコンピュータに実行させるためのプログラム。
  21. 請求項12に記載の方法の各処理をコンピュータに実行させるためのプログラム。
JP2022170987A 2022-10-25 2022-10-25 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム Active JP7349651B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022170987A JP7349651B1 (ja) 2022-10-25 2022-10-25 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022170987A JP7349651B1 (ja) 2022-10-25 2022-10-25 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023141794A Division JP2024062939A (ja) 2023-08-31 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム

Publications (2)

Publication Number Publication Date
JP7349651B1 true JP7349651B1 (ja) 2023-09-25
JP2024062863A JP2024062863A (ja) 2024-05-10

Family

ID=88099174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022170987A Active JP7349651B1 (ja) 2022-10-25 2022-10-25 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム

Country Status (1)

Country Link
JP (1) JP7349651B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051712A (ja) 1999-08-09 2001-02-23 Kawasaki Heavy Ind Ltd ロボットの技能教示方法及び装置
WO2014175324A1 (ja) 2013-04-24 2014-10-30 川崎重工業株式会社 ワーク加工作業支援システムおよびワーク加工方法
JP2017044496A (ja) 2015-08-24 2017-03-02 大豊精機株式会社 溶接検査方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051712A (ja) 1999-08-09 2001-02-23 Kawasaki Heavy Ind Ltd ロボットの技能教示方法及び装置
WO2014175324A1 (ja) 2013-04-24 2014-10-30 川崎重工業株式会社 ワーク加工作業支援システムおよびワーク加工方法
JP2017044496A (ja) 2015-08-24 2017-03-02 大豊精機株式会社 溶接検査方法

Similar Documents

Publication Publication Date Title
US7353081B2 (en) Method and a system for programming an industrial robot
CN110238831B (zh) 基于rgb-d图像及示教器的机器人示教系统及方法
EP1435280B1 (en) A method and a system for programming an industrial robot
EP1537959B1 (en) A method and a system for programming an industrial robot
JP5835926B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US7236854B2 (en) Method and a system for programming an industrial robot
KR101049266B1 (ko) 이동형 로봇
CN111805051B (zh) 切坡口方法、装置电子设备及系统
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
JP6826069B2 (ja) ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
EP1424656B1 (en) Apparatus for generating three-dimensional model data for a machine tool
US10427298B2 (en) Robot system displaying information for teaching robot
JP6469159B2 (ja) 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法
JP2018167334A (ja) 教示装置および教示方法
CN102374860A (zh) 三维视觉定位方法及系统
CN115023316A (zh) 研磨量估计装置
JP7349651B1 (ja) 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム
JP2023038776A (ja) 指令値生成装置、方法、及びプログラム
Pachidis et al. Vision-based path generation method for a robot-based arc welding system
JP2024062939A (ja) 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム
JP2024062863A (ja) 作業データ収集方法、作業教示方法、作業実行方法、システム、及びプログラム
CN112805127A (zh) 用于创建机器人控制程序的方法和设备
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
Solvang et al. Robot programming in machining operations
US20210154834A1 (en) Processing path generating device and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230831

R150 Certificate of patent or registration of utility model

Ref document number: 7349651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150