JP2020019083A - 情報処理装置、制御システム、情報処理方法およびプログラム - Google Patents

情報処理装置、制御システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2020019083A
JP2020019083A JP2018143469A JP2018143469A JP2020019083A JP 2020019083 A JP2020019083 A JP 2020019083A JP 2018143469 A JP2018143469 A JP 2018143469A JP 2018143469 A JP2018143469 A JP 2018143469A JP 2020019083 A JP2020019083 A JP 2020019083A
Authority
JP
Japan
Prior art keywords
orientation
frame
information processing
dimensional position
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018143469A
Other languages
English (en)
Other versions
JP6904315B2 (ja
Inventor
加藤 豊
Yutaka Kato
豊 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018143469A priority Critical patent/JP6904315B2/ja
Priority to PCT/JP2019/026960 priority patent/WO2020026712A1/ja
Publication of JP2020019083A publication Critical patent/JP2020019083A/ja
Application granted granted Critical
Publication of JP6904315B2 publication Critical patent/JP6904315B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R43/00Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors
    • H01R43/26Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors for engaging or disengaging the two parts of a coupling device

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manufacturing & Machinery (AREA)
  • Manipulator (AREA)

Abstract

【課題】他の対象物と嵌合する対象物の取るべき位置姿勢を容易に決定できる。【解決手段】情報処理装置は、第1対象物と第2対象物とが嵌合する様子を撮像することにより得られる動画像の各フレームについて、第1対象物および第2対象物の各々の3次元位置姿勢を計測する。情報処理装置は、第1対象物と第2対象物とが接触し始めるときの第1フレームと、第1対象物と第2対象物との嵌合が完了したときの第2フレームとを選択する。情報処理装置は、第1対象物と第2対象物とが接触し始めてから嵌合完了するまでの期間における、第2対象物に対する第1対象物の相対的な3次元位置姿勢の変化を示す相対変化情報を生成する。【選択図】図7

Description

本開示は、情報処理装置、制御システム、情報処理方法およびプログラムに関する。
特開2015−54378号公報(特許文献1)には、障害物を避けて移動するワークが撮像された時系列の撮像画像に基づいて、当該ワークの移動経路上での3次元位置情報を求める情報処理装置が開示されている。情報処理装置は、当該3次元位置情報に基づいて、移動経路に沿ってワークをロボットにより移動させるためのシナリオ情報を生成する。
特開2015−54378号公報 特開2012−32909号公報
Carlo Tomasi、他1名、"Shape and Motion from Image Streams under Orthography: a Factorization Method"、International Journal of Computer Vision、1992年、9:2、p 137-154 李尭希、他1名、"単眼カメラのビデオ画像に基づく動作再現を目指したビジュアルサーボの応用に関する基礎検討"、[online]、[平成30年7月24日検索]、インターネット〈http://hflab.k.u-tokyo.ac.jp/papers/2016/RSJ2016_ri.pdf〉
特許文献1に記載の情報処理装置は、障害物を避けるように移動するワークの位置姿勢を求め、他のワークに嵌合するワークの位置姿勢を求めるものではない。障害物を避けるためにワークが取るべき位置姿勢は、障害物の位置やワークの初期位置などの環境条件に応じて決定され、ある程度のマージンを有する。そのため、環境条件が少し変化した場合であっても、求められた位置姿勢に基づいてワークを移動させることにより、障害物を避けることができる。
一方、2つのワークを嵌合させる場合、ワークの種類に応じて嵌合方法が異なる。そのため、ワークの種類に応じて、ワークが取るべき位置姿勢も変化する。さらに、2つのワークの一方の状態に応じて、他のワークが取るべき位置姿勢も異なる。したがって、特許文献1に記載の技術を用いて、他のワークと嵌合するワークの移動経路上での3次元位置情報を求めたとしても、ワークの種類や当該他のワークの状態などのワーク条件が変化すると、当該3次元位置情報を利用することができない。
本発明は、上記の問題を鑑みてなされたものであり、その目的は、他の対象物と嵌合する対象物の取るべき位置姿勢を容易に決定可能な情報処理装置、制御システム、情報処理方法およびプログラムを提供することである。
本開示の一例によれば、情報処理装置は、計測部と、選択部と、情報生成部とを備える。計測部は、第1対象物と第2対象物とが嵌合する様子を撮像することにより得られる動画像の各フレームから第1対象物と第2対象物とを検出し、検出した第1対象物および第2対象物の各々の3次元位置姿勢を計測する。選択部は、計測部によって計測された3次元位置姿勢に基づいて、動画像から、第1対象物と第2対象物とが接触し始めるときの第1フレームと、第1対象物と第2対象物との嵌合が完了したときの第2フレームとを選択する。情報生成部は、第1フレームから第2フレームまでの各フレームについて計測部によって計測された3次元位置姿勢に基づいて、相対変化情報を生成する。相対変化情報は、第1対象物と第2対象物とが接触し始めてから第1対象物と第2対象物との嵌合が完了するまでの期間における、第2対象物に対する第1対象物の相対的な3次元位置姿勢の変化を示す。
この開示によれば、第1対象物と第2対象物とが嵌合する様子を示す動画像を準備することにより、情報処理装置から相対変化情報を得ることができる。当該相対変化情報を参照することにより、第2対象物と嵌合する第1対象物が取るべき位置姿勢を容易に決定することができる。
上述の開示において、情報処理装置は、第1対象物と第2対象物と障害物とが配置された空間上における、第1対象物の経路を生成するための経路生成部をさらに備える。経路生成部は、第1対象物が第2対象物および障害物と干渉しないように、初期位置姿勢から第2対象物と接触し始めるときの位置姿勢までの第1対象物の第1経路を生成する。さらに、経路生成部は、相対変化情報と空間上における第2対象物の位置姿勢とに基づいて、第2対象物と接触し始めるときの位置姿勢から第2対象物との嵌合が完了するときの位置姿勢までの第1対象物の第2経路を生成する。この開示によれば、情報処理装置によって生成された第1経路および第2経路に沿って第1対象物の位置姿勢を変化させることにより、第2対象物および障害物と干渉することなく、第1対象物を第2対象物と嵌合させることができる。
上述の開示において、経路生成部は、第2経路と滑らかに接続するように第1経路を生成する。この開示によれば、情報処理装置によって生成された第1経路および第2経路に沿って第1対象物の位置姿勢を変化させることにより、第1対象物を滑らかに移動させることができる。
上述の開示において、相対変化情報は、第2対象物に対する第1対象物の相対的な3次元位置が直線に沿って変化することを示す。さらに、相対変化情報は、第2対象物に対する第1対象物の相対的な3次元姿勢が一定であることを示してもよい。もしくは、相対変化情報は、第2対象物に対する第1対象物の相対的な3次元姿勢が直線を軸として回転することを示してもよい。このように、情報処理装置は、第1対象物と第2対象物との嵌合の仕方に応じた相対変化情報を生成できる。
本開示の一例によれば、制御システムは、上記の情報処理装置と、第1対象物の位置姿勢を変化させるためのロボットと、ロボットを制御する制御装置とを備える。制御装置は、情報処理装置によって生成された第1経路および第2経路に従って第1対象物の位置姿勢が変化するように、ロボットを制御する。
この開示によれば、ロボットを用いて第1対象物を第2対象物に嵌合させることができる。
本開示の一例によれば、情報処理方法は、第1〜第3のステップを備える。第1のステップは、第1対象物と第2対象物とが嵌合する様子を撮像することにより得られる動画像の各フレームから第1対象物と第2対象物とを検出し、検出した第1対象物および第2対象物の各々の3次元位置姿勢を計測するステップである。第2のステップは、計測された3次元位置姿勢に基づいて、動画像から、第1対象物と第2対象物とが接触し始めるときの第1フレームと、第1対象物と第2対象物との嵌合が完了したときの第2フレームとを選択するステップである。第3のステップは、第1フレームから第2フレームまでの各フレームについて計測された3次元位置姿勢に基づいて、相対変化情報を生成するステップである。
本開示の一例によれば、プログラムは、上記の制御方法をコンピュータに実行させるためのプログラムである。これらの開示によっても、他の対象物と嵌合する対象物の取るべき位置姿勢を容易に決定できる。
本発明によれば、他の対象物と嵌合する対象物の取るべき位置姿勢を容易に決定できる。
実施の形態に係る情報処理システムの概要を示す模式図である。 撮像装置から出力された動画像の一例を示す図である。 実施の形態に係る情報処理装置のハードウェア構成を示す模式図である。 実施の形態に係る情報処理装置の機能構成を示すブロック図である。 2Dモデル画像の一例を示す図である。 相対変化情報の一例を示す図である。 情報処理装置による処理の流れの一例を示すフローチャートである。 変形例1に係る情報処理装置の内部構成を示すブロック図である。 経路生成部による経路の生成方法を説明する図である。 嵌合する2つの対象物の別の例を示す図である。 変形例1に係る情報処理装置を含む制御システムの一例を示す図である。
以下、図面を参照しつつ、本発明に従う実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。
<A.適用例>
まず、図1を参照して、本発明が適用される場面の一例について説明する。図1は、実施の形態に係る情報処理システムの概要を示す模式図である。
本実施の形態に係る情報処理システム1は、たとえば、オスコネクタ2とメスコネクタ3とを嵌合させる生産ラインに適用される。
図1に示すように、情報処理システム1は、撮像装置10と、情報処理装置20とを備える。
撮像装置10は、撮像視野に存在する被写体を撮像して動画像データ(以下、単に「動画像」ともいう)を生成する。撮像装置10は、定位置に設定され、被写体であるオスコネクタ2とメスコネクタ3とが嵌合する様子を撮像することにより得られる動画像を出力する。撮像装置10は、人の手によってオスコネクタ2とメスコネクタ3とが嵌合される様子を撮像してもよいし、ロボットによってオスコネクタ2とメスコネクタ3とが嵌合される様子を撮像してもよい。
図2は、撮像装置から出力された動画像の一例を示す図である。図2に示す例の動画像は、フレーム60〜62を含む。フレーム60は、オスコネクタ2とメスコネクタ3とが離れているときの画像を示す。フレーム61は、オスコネクタ2とメスコネクタ3とが接触し始めるときの画像を示す。フレーム62は、オスコネクタ2とメスコネクタ3との嵌合が完了したときの画像を示す。
情報処理装置20は、撮像装置10の撮像によって得られた動画像を用いて、以下の処理を行なう。情報処理装置20は、オスコネクタ2とメスコネクタ3とが嵌合する様子を撮像することにより得られる動画像の各フレームからオスコネクタ2とメスコネクタ3とを検出し、検出したオスコネクタ2およびメスコネクタ3の各々の3次元位置姿勢を計測する。
情報処理装置20は、計測した3次元位置姿勢に基づいて、動画像から、オスコネクタ2とメスコネクタ3とが接触し始めるときのフレーム61と、オスコネクタ2とメスコネクタ3との嵌合が完了したときのフレーム62とを選択する。情報処理装置20は、オスコネクタ2およびメスコネクタ3の設計データ(3D−CAD(3 Dimensional Computer Aided Design)データ)を用いて、オスコネクタ2とメスコネクタ3とが接触し始めるときのフレームであるか否かを判断する。同様に、情報処理装置20は、オスコネクタ2およびメスコネクタ3の3D−CADデータを用いて、オスコネクタ2とメスコネクタ3との嵌合が完了したときのフレームであるか否かを判断する。
情報処理装置20は、フレーム61からフレーム62までの各フレームについて計測したオスコネクタ2およびメスコネクタ3の各々の3次元位置姿勢に基づいて、相対変化情報を生成する。相対変化情報とは、オスコネクタ2とメスコネクタ3とが接触し始めてからオスコネクタ2とメスコネクタ3との嵌合が完了するまでの期間における、メスコネクタ3に対するオスコネクタ2の相対的な3次元位置姿勢の変化を示す情報である。
相対変化情報を用いることにより、メスコネクタ3と嵌合するオスコネクタ2が取るべき位置姿勢を容易に決定することができる。たとえば、ロボットを用いてオスコネクタ2をメスコネクタ3に嵌合させる場合、相対変化情報を用いることにより、ロボットの動作プログラムを容易に設計することができる。
<B.具体例>
次に、実施の形態に係る情報処理装置20の具体例について説明する。
<B−1.情報処理装置のハードウェア構成>
図3は、実施の形態に係る情報処理装置のハードウェア構成を示す模式図である。図3に示されるように、情報処理装置20は、コンピュータアーキテクチャに従う構造を有しており、予めインストールされたプログラムをプロセッサが実行することで、後述するような各種の処理を実現する。
より具体的には、情報処理装置20は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)などのプロセッサ210と、RAM(Random Access Memory)212と、表示コントローラ214と、システムコントローラ216と、I/O(Input Output)コントローラ218と、ハードディスク220と、カメラインターフェイス222と、入力インターフェイス224と、通信インターフェイス228と、メモリカードインターフェイス230とを含む。これらの各部は、システムコントローラ216を中心として、互いにデータ通信可能に接続される。
プロセッサ210は、システムコントローラ216との間でプログラム(コード)などを交換して、これらを所定順序で実行することで、目的の演算処理を実現する。
システムコントローラ216は、プロセッサ210、RAM212、表示コントローラ214、およびI/Oコントローラ218とそれぞれバスを介して接続されており、各部との間でデータ交換などを行うとともに、情報処理装置20全体の処理を司る。
RAM212は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置であり、ハードディスク220から読み出されたプログラムや、動画像に対する処理結果、およびワークデータなどを保持する。
表示コントローラ214は、表示部232と接続されており、システムコントローラ216からの内部コマンドに従って、各種の情報を表示するための信号を表示部232へ出力する。
I/Oコントローラ218は、情報処理装置20に接続される記録媒体や外部機器との間のデータ交換を制御する。より具体的には、I/Oコントローラ218は、ハードディスク220と、カメラインターフェイス222と、入力インターフェイス224と、通信インターフェイス228と、メモリカードインターフェイス230と接続される。
ハードディスク220は、典型的には、不揮発性の磁気記憶装置であり、プロセッサ210で実行される処理プログラム250に加えて、各種情報が格納される。このハードディスク220にインストールされる処理プログラム250は、メモリカード236などに格納された状態で流通する。なお、ハードディスク220に代えて、フラッシュメモリなどの半導体記憶装置やDVD−RAM(Digital Versatile Disk Random Access Memory)などの光学記憶装置を採用してもよい。
カメラインターフェイス222は、撮像装置10から動画像データを受付ける入力部に相当し、プロセッサ210と撮像装置10との間のデータ伝送を仲介する。カメラインターフェイス222は、撮像装置10からの動画像データを一時的に蓄積するための画像バッファを含む。
入力インターフェイス224は、プロセッサ210とキーボード、マウス、タッチパネル、専用コンソールなどの入力装置234との間のデータ伝送を仲介する。
通信インターフェイス228は、プロセッサ210と図示しない他のパーソナルコンピュータやサーバ装置などとの間のデータ伝送を仲介する。通信インターフェイス228は、典型的には、イーサネット(登録商標)やUSB(Universal Serial Bus)などからなる。
メモリカードインターフェイス230は、プロセッサ210と記録媒体であるメモリカード236との間のデータ伝送を仲介する。メモリカード236には、情報処理装置20で実行される処理プログラム250などが格納された状態で流通し、メモリカードインターフェイス230は、このメモリカード236から処理プログラム250を読み出す。メモリカード236は、SD(Secure Digital)などの汎用的な半導体記憶デバイスや、フレキシブルディスク(Flexible Disk)などの磁気記録媒体や、CD−ROM(Compact Disk-Read Only Memory)などの光学記録媒体等からなる。あるいは、通信インターフェイス228を介して、配信サーバなどからダウンロードしたプログラムを情報処理装置20にインストールしてもよい。
上述のような汎用的なコンピュータアーキテクチャに従う構造を有するコンピュータを利用する場合には、本実施の形態に係る機能を提供するためのアプリケーションに加えて、コンピュータの基本的な機能を提供するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係る処理プログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の順序および/またはタイミングで呼び出して処理を実行するものであってもよい。
さらに、本実施の形態に係る処理プログラムは、他のプログラムの一部に組み込まれて提供されるものであってもよい。その場合にも、プログラム自体には、上記のような組み合わせられる他のプログラムに含まれるモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係る処理プログラムとしては、このような他のプログラムに組み込まれた形態であってもよい。
なお、代替的に、処理プログラムの実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。
<B−2.情報処理装置の機能構成>
図4は、実施の形態に係る情報処理装置の機能構成を示すブロック図である。図4に示されるように、情報処理装置20は、設計データ記憶部21と、モデルデータ記憶部22と、計測部23と、選択部24と、情報生成部25とを備える。設計データ記憶部21およびモデルデータ記憶部22は、図3に示すハードディスク220およびRAM212によって構成される。計測部23と選択部24と情報生成部25とは、図3に示すプロセッサ210が処理プログラム250を実行することにより実現される。
<B−2−1.設計データ記憶部>
設計データ記憶部21は、オスコネクタ2およびメスコネクタ3の各々の形状を示す3D−CADデータを記憶する。
<B−2−2.モデルデータ記憶部>
モデルデータ記憶部22は、オスコネクタ2およびメスコネクタ3の各々について、複数のモデルデータを記憶する。複数のモデルデータの各々は、ある姿勢の対象物(オスコネクタ2およびメスコネクタ3のいずれか)の2次元モデル画像における当該対象物の複数の特徴点の座標と各特徴点の特徴量とを示す。モデルデータ記憶部22は、複数のモデルデータの各々を姿勢パラメータと対応付けて記憶する。姿勢パラメータは、対象物の姿勢を示すパラメータであり、基準姿勢からのピッチ方向、ヨー方向およびロール方向の各々の回転角度である。
図5は、2Dモデル画像の一例を示す図である。複数の2Dモデル画像は、3D−CADデータに基づいて作成される。複数の2Dモデル画像は、定位置の視点が設定された仮想空間に、3D−CADデータで示される対象物を様々な姿勢で配置することにより作成される。
特徴点は、画像に含まれるかどや輪郭などから特徴づけられる点であり、たとえばエッジ点である。特徴量は、たとえば、輝度、輝度勾配方向、量子化勾配方向、HoG(Histogram of Oriented Gradients)、HAAR−like、SIFT(Scale-Invariant Feature Transform)などである。輝度勾配方向とは、特徴点を中心とする局所領域での輝度の勾配の方向(角度)を連続値で表すものであり、量子化勾配方向とは、特徴点を中心とする局所領域での輝度の勾配の方向を離散値で表す(たとえば、8方向を0〜7の1バイトの情報で保持する)ものである。
<B−2−3.計測部>
計測部23は、公知の2次元照合法(たとえば特開2012−32909号公報(特許文献2)参照)を用いて、動画像の各フレームから、オスコネクタ2およびメスコネクタ3の各々の3次元位置姿勢を計測する。
具体的には、計測部23は、撮像装置10の撮像によって得られた動画像の各フレームから複数の特徴点およびそれらの特徴量を抽出する。計測部23は、抽出された特徴点および特徴量と、モデルデータ記憶部22が記憶するモデルデータとを照合することにより、各フレームに含まれるオスコネクタ2とメスコネクタ3とを検出する。計測部23は、検出したオスコネクタ2およびメスコネクタ3の各々の3次元位置姿勢を計測する。
3次元位置は、互いに直交する3軸(X,Y,Z軸)の座標によって示される。3次元姿勢は、基準姿勢からのピッチ方向、ヨー方向およびロール方向の回転角度によって示される。
計測部23は、対象物(オスコネクタ2およびメスコネクタ3のいずれか)ごとに、複数のモデルデータの中から、動画像の各フレームから抽出された特徴点および特徴量との類似度が最も高いモデルデータを特定する。計測部23は、特定したモデルデータに対応する姿勢パラメータを対象物の3次元姿勢として決定する。
さらに、計測部23は、キャリブレーションデータと、フレームから検出された対象物の画像上の位置と、モデルデータに対応する2次元モデル画像の対象物とフレームから検出された対象物とのサイズ比とに基づいて、対象物の3次元位置を計測する。キャリブレーションデータは、画像の座標系と実空間の座標系との対応関係を示すデータである。
なお、計測部23は、2次元照合法以外の方法を用いて、動画像の各フレームから、オスコネクタ2およびメスコネクタ3の各々の3次元位置姿勢を計測してもよい。たとえば、「Carlo Tomasi、他1名、“Shape and Motion from Image Streams under Orthography: a Factorization Method”、International Journal of Computer Vision、1992年、9:2、p 137-154」(非特許文献1)に記載の因子分解法を用いて、フレーム上のオスコネクタ2およびメスコネクタ3の各々の3次元位置姿勢を計測してもよい。因子分解法は、動画像に基づいて対象物の3次元形状と動きとを推定する方法である。
<B−2−4.選択部>
選択部24は、計測部23によって計測された3次元位置姿勢に基づいて、動画像から、オスコネクタ2とメスコネクタ3とが接触し始めるときのフレーム(以下、「接触開始フレーム」という)と、オスコネクタ2とメスコネクタ3との嵌合が完了したときのフレーム(以下、「完了フレーム」という)とを選択する。
たとえば、選択部24は、計測部23によって計測されたオスコネクタ2の3次元位置姿勢に基づいて、オスコネクタ2の重心の座標を求める。同様に、選択部24は、計測部23によって計測されたメスコネクタ3の3次元位置姿勢に基づいて、メスコネクタ3の重心の座標を求める。選択部24は、オスコネクタ2の重心とメスコネクタ3の重心との距離が最初に第1規定値に到達したときのフレームを接触開始フレームとして選択する。第1規定値は、オスコネクタ2とメスコネクタ3とが接触し始めるときの両者の重心間の距離であり、3D−CADデータに基づいて予め設定されている。
さらに、選択部24は、オスコネクタ2の重心とメスコネクタ3の重心との距離が最初に第2規定値に到達したときのフレームを完了フレームとして選択する。第2規定値は、オスコネクタ2とメスコネクタ3との嵌合が完了したときの両者の重心間の距離であり、3D−CADデータに基づいて予め設定されている。
<B−2−5.情報生成部>
情報生成部25は、接触開始フレームから完了フレームまでの各フレームについて計測部23によって計測された3次元位置姿勢に基づいて、相対変化情報を生成する。相対変化情報は、上述したように、オスコネクタ2とメスコネクタ3とが接触し始めてからオスコネクタ2とメスコネクタ3との嵌合が完了するまでの期間における、メスコネクタ3に対するオスコネクタ2の相対的な3次元位置姿勢の変化(時間変化)を示す。
メスコネクタ3に対するオスコネクタ2の相対的な3次元位置は、オスコネクタ2の3次元位置を示す3軸(X,Y,Z軸)の座標値からメスコネクタ3の3次元位置を示す3軸の座標値をそれぞれ差し引いた座標値によって示される。メスコネクタ3に対するオスコネクタ2の相対的な3次元姿勢は、オスコネクタ2における基準姿勢からの3方向の回転角度から、メスコネクタ3における基準姿勢からの3方向の回転角度をそれぞれ差し引いた回転角度によって示される。当該3方向は、ピッチ方向、ヨー方向およびロール方向である。このように、相対的な3次元位置姿勢は、6つの変数によって示される。
図6は、相対変化情報の一例を示す図である。図6には、オスコネクタ2とメスコネクタ3とが接触し始めてからオスコネクタ2とメスコネクタ3との嵌合が完了するまでの期間における、メスコネクタ3に対するオスコネクタ2の相対的な3次元位置の変化が示される。図6において、点P1は、接触開始フレームにおけるオスコネクタ2およびメスコネクタ3の3次元位置に基づいて特定された、メスコネクタ3に対するオスコネクタ2の相対的な3次元位置を示す点である。点P2は、完了フレームにおけるオスコネクタ2およびメスコネクタ3の3次元位置に基づいて特定された、メスコネクタ3に対するオスコネクタ2の相対的な3次元位置を示す点である。図6に示す例では、メスコネクタ3に対するオスコネクタ2の相対的な3次元位置は、直線B1に沿って変化する。
一方、オスコネクタ2とメスコネクタ3とが接触し始めてからオスコネクタ2とメスコネクタ3との嵌合が完了するまでの期間において、メスコネクタ3に対するオスコネクタ2の相対的な3次元姿勢は一定である。
<C.動作例>
図7を参照して、情報処理装置20の処理の流れについて説明する。図7は、情報処理装置による処理の流れの一例を示すフローチャートである。
まずステップS1において、情報処理装置20は、オスコネクタ2とメスコネクタ3とが嵌合する様子を示す動画像を撮像装置10から取得する。
ステップS2において、計測部23は、モデルデータ記憶部22が記憶するモデルデータと動画像の各フレームとを照合することにより、当該フレームに含まれるオスコネクタ2およびメスコネクタ3の3次元位置姿勢を計測する。
ステップS3において、選択部24は、各フレームに含まれるオスコネクタ2およびメスコネクタ3の3次元位置姿勢に基づいて、動画像から接触開始フレームと完了フレームとを選択する。
ステップS4において、情報生成部25は、接触開始フレームから完了フレームまでの各フレームについて計測部23によって計測された3次元位置姿勢に基づいて、相対変化情報を生成する。ステップS4の後、処理は終了する。
<D.変形例>
<D−1.変形例1>
情報処理装置は、オスコネクタ2について、初期位置姿勢からメスコネクタ3との嵌合が完了するときの3次元位置姿勢までの経路を生成してもよい。当該経路は、オスコネクタ2の3次元位置姿勢の時間変化を示す。以下、変形例1では、メスコネクタ3および障害物の3次元位置姿勢が変化しないものとして説明する。障害物とは、オスコネクタ2とメスコネクタ3との周囲に配置される物体である。
図8は、変形例1に係る情報処理装置の内部構成を示すブロック図である。図8に示されるように、変形例1に係る情報処理装置20Aは、図4に示す情報処理装置20と比較して、配置情報記憶部26と経路生成部27とをさらに備える点で相違する。
配置情報記憶部26は、実空間における、オスコネクタ2とメスコネクタ3と障害物との初期位置姿勢を示す配置情報を記憶する。
経路生成部27は、初期位置姿勢からメスコネクタ3と接触し始めるときの3次元位置姿勢までのオスコネクタ2の第1経路を生成する。さらに、経路生成部27は、メスコネクタ3と接触し始めるときの3次元位置姿勢からメスコネクタ3との嵌合が完了するときの3次元位置姿勢までのオスコネクタ2の第2経路を生成する。
図9は、経路生成部による経路の生成方法を説明する図である。図9には、配置情報に従って実空間に配置されたオスコネクタ2とメスコネクタ3と障害物4a,4bとが示される。
経路生成部27は、メスコネクタ3の初期位置姿勢と相対変化情報とに基づいて、メスコネクタ3と接触し始めるときの3次元位置姿勢P20から、メスコネクタ3との嵌合が完了するときの3次元位置姿勢P21までのオスコネクタ2の第2経路A2を求める。
さらに、経路生成部27は、初期位置姿勢P0からメスコネクタ3と接触し始めるときの3次元位置姿勢P20までのオスコネクタ2の第1経路A1を求める。経路生成部27は、たとえば以下の手順に従って、第1経路A1を求める。
まず、経路生成部27は、実空間上において、オスコネクタ2の取り得る3次元位置姿勢の複数の候補(以下、「位置姿勢候補」という)を求める。メスコネクタ3および障害物4a,4bのいずれかと干渉する3次元位置姿勢は、位置姿勢候補から除外される。図9には、経路生成部27によって求められた複数の位置姿勢候補の一部の位置姿勢候補P10〜P14が示される。
経路生成部27は、初期位置姿勢P0と3次元位置姿勢P20と複数の位置姿勢候補とのうちの任意の2つを直線で結ぶ区間候補を生成する。図9には、複数の区間候補の一部の区間候補C10〜C16が示される。
経路生成部27は、各区間候補について、メスコネクタ3および障害物4a,4bのいずれかと干渉するか否か判断する。経路生成部27は、複数の区間候補から、メスコネクタ3および障害物4a,4bのいずれかと干渉する区間候補を除外する。たとえば、図9に示す例では、障害物4bと干渉する区間候補C12と、障害物4a,4bと干渉する区間候補C13とが除外される。
経路生成部27は、残った区間候補から選択された区間候補を順次連結することにより、初期位置姿勢P0を起点とし、3次元位置姿勢P20を終点とする、複数の経路候補を生成する。
経路生成部27は、複数の経路候補の各々を、高次(たとえば3次以上)のスプライン曲線となるように変形する。これにより、複数の経路候補の各々は滑らかとなる。
経路生成部27は、変形後の経路候補(以下、「変形経路候補」という)について、メスコネクタ3および障害物4a,4bのいずれかと干渉するか否か判断する。経路生成部27は、複数の変形経路候補から、メスコネクタ3および障害物4a,4bのいずれかと干渉する変形経路候補を除外する。
経路生成部27は、メスコネクタ3および障害物4a,4bのいずれとも干渉しない変形経路候補の1つを第1経路A1として決定する。複数の変形経路候補が存在する場合、経路生成部27は、最も短い変形経路候補を第1経路A1として決定すればよい。図9に示す例では、区間候補C10,C11,C14〜C16を順に連結した経路候補を変形させた変形経路候補が第1経路A1として決定されている。
なお、配置情報記憶部26が記憶する配置情報には、オスコネクタ2を把持するロボットのハンド30a(図9参照)の形状を示す情報が含まれていてもよい。この場合、経路生成部27は、ハンド30aとメスコネクタ3および障害物4a,4bのいずれかとの干渉の有無も判断する。そして、経路生成部27は、ハンド30aとメスコネクタ3および障害物4a,4bのいずれかとが干渉する位置姿勢候補、区間候補および変形経路候補を除外する。
経路生成部27は、第1経路A1と第2経路A2とを連結することにより、初期位置姿勢からメスコネクタ3との嵌合が完了するときの3次元位置姿勢までのオスコネクタ2の経路Aを生成する。このとき、経路生成部27は、第2経路A2と滑らかに接続するように、第1経路A1を補正することが好ましい。
ここで、「滑らか」とは、dX(s)/ds、dY(s)/ds、dZ(s)/ds、dRy(s)/ds、dRp(s)/ds、dRr(s)/dsの各々が距離sの変化に対して連続するということを意味する。距離sは、初期位置姿勢P0から経路Aに沿った距離を示す。dX(s)/dsは、初期位置姿勢P0から経路Aに沿って距離sの点におけるX座標X(s)の1回微分値を示す。dY(s)/dsは、初期位置姿勢P0から経路Aに沿って距離sの点におけるY座標Y(s)の1回微分値を示す。dZ(s)/dsは、初期位置姿勢P0から経路Aに沿って距離sの点におけるZ座標Z(s)の1回微分値を示す。dRy(s)/dsは、初期位置姿勢P0から経路Aに沿って距離sの点における、基準姿勢からのヨー方向の回転角度Ry(s)の一回微分値を示す。dRp(s)/dsは、初期位置姿勢P0から経路Aに沿って距離sの点における、基準姿勢からのピッチ方向の回転角度Rp(s)の一回微分値を示す。dRr(s)/dsは、初期位置姿勢P0から経路Aに沿って距離sの点における、基準姿勢からのロール方向の回転角度Rr(s)の一回微分値を示す。
また、経路生成部27は、第2経路A2を3次元位置姿勢P20側に外挿することにより得られる線上に位置姿勢候補を設定し、当該位置姿勢候補を含む複数の位置姿勢候補を結ぶことにより得られる変形経路候補を第2経路A2として生成することが好ましい。図9に示す例において、位置姿勢候補P14は、第2経路A2を3次元位置姿勢P20側に外挿することにより得られる線上に設定されている。これにより、第2経路A2に滑らかに接続する第1経路A1を生成しやすくなる。
なお、メスコネクタ3の3次元位置姿勢が時間変化する場合、経路生成部27は、メスコネクタ3の3次元位置姿勢の時間変化を考慮して、相対変化情報を用いて第2経路A2を生成すればよい。たとえば、メスコネクタ3が搬送ベルト上に載置されている場合である。
<D−2.変形例2>
上記の例では、オスコネクタ2とメスコネクタ3とが嵌合するとき、メスコネクタ3に対してオスコネクタ2が直線に沿って移動する。しかしながら、嵌合する2つ対象物の一方に対する他方の相対的な3次元位置姿勢の変化は、これに限定されない。たとえば、2つ対象物の一方に対する他方の相対的な3次元位置は、複数の直線が組み合わされた経路(たとえばL字状の経路)に沿って変化してもよい。もしくは、2つ対象物の一方に対する他方の相対的な3次元位置が直線に沿って変化し、当該一方に対する他方の相対的な3次元姿勢が回転してもよい。もしくは、2つ対象物の一方に対する他方の相対的な3次元姿勢は、第1軸を中心に回転した後、第1軸と異なる第2軸を中心に回転してもよい。
図10は、嵌合する2つの対象物の別の例を示す図である。図10に示されるように、嵌合する2つの対象物は、ボルト5およびナット6であってもよい。情報処理装置20,20Aは、たとえば、ナット6に対するボルト5の相対的な3次元位置姿勢の変化を示す相対変化情報を生成すればよい。この場合、ボルト5とナット6とが接触し始めてからボルト5とナット6との嵌合(螺合)が完了するまでの期間において、ナット6に対するボルト5の相対的な3次元位置は、ナット6のネジ穴の軸を示す直線B2に沿って変化する。一方、当該期間において、ナットに対するボルトの相対的な3次元姿勢は、直線B2を軸として回転する。
なお、ボルトの頭部の一部に切欠きが設けられているため、情報処理装置20は、直線B2を軸とするボルトの回転角度を認識できる。
もしくは、嵌合する2つの対象物は、電源タップおよび電源プラグであってもよい。情報処理装置20,20Aは、たとえば、電源タップに対する電源プラグの相対的な3次元位置姿勢の変化を示す相対変化情報を生成すればよい。電源タップと電源プラグとが接触し始めてから電源タップと電源プラグとの嵌合が完了するまでの期間において、電源タップに対する電源プラグの相対的な3次元位置は、直線に沿って変化する。一方、電源タップが抜け止め機構を有している場合、電源タップに電源プラグを挿入した後に、電源プラグを所定量だけ回転させる。そのため、電源タップに対する電源プラグの相対的な3次元姿勢は、電源タップと電源プラグとが接触し始めてから電源タップと電源プラグとの嵌合が完了するまでの期間の前半において変化せず、当該期間の後半において回転する。
<E.利用例>
<E−1.利用例1>
図11を参照して、上記の変形例1に係る情報処理装置20Aの利用例について説明する。図11は、変形例1に係る情報処理装置を含む制御システム9の一例を示す図である。
制御システム9は、情報処理装置20Aと、ロボット30と、ロボットコントローラ40と、制御装置50とを備える。
ロボット30は、オスコネクタ2の3次元位置姿勢を変化させるための機構であり、たとえば垂直多関節ロボットである。ロボット30は、先端にオスコネクタ2を把持するためのハンドを有し、ハンドの3次元位置姿勢を6自由度で変化させる。当該6自由度は、X方向、Y方向およびZ方向の並進自由度と、ピッチ方向、ヨー方向およびロール方向の回転自由度とを含む。なお、ロボット30は、垂直多関節ロボットに限定されるものではなく、他のロボット(たとえばパラレルリンクロボット)であってもよい。
ロボット30は、複数のサーボモータを有しており、当該サーボモータが駆動されることにより、オスコネクタ2の3次元位置姿勢を変化させる。当該複数のサーボモータの各々に対応してエンコーダが設けられており、サーボモータの位置が計測される。
ロボットコントローラ40は、制御装置50から受けた制御指令に従って、ロボット30の動作制御を行なう。ロボットコントローラ40は、X方向、Y方向およびZ方向の並進自由度ならびにピッチ方向、ヨー方向およびロール方向の回転自由度の各々の制御指令を制御装置50から受ける。ロボットコントローラ40は、ハンドのX方向、Y方向およびZ方向の並進移動量がX方向、Y方向およびZ方向の並進自由度の制御指令にそれぞれ近づくように、ロボット30に対してフィードバック制御を行なう。ロボットコントローラ40は、ハンドのピッチ方向、ヨー方向およびロール方向の回転移動量がピッチ方向、ヨー方向およびロール方向の回転自由度の制御指令にそれぞれ近づくように、ロボット30に対してフィードバック制御を行なう。
制御装置50は、ロボットコントローラ40に制御指令を出力することにより、ロボット30を制御する。制御装置50は、情報処理装置20Aによって生成された、オスコネクタ2の経路A(第1経路A1および第2経路A2)(図9参照)に従ってオスコネクタ2の3次元位置姿勢が変化するように制御指令を生成する。制御装置50は、生成した制御指令をロボットコントローラ40に出力する。
制御システム9によれば、情報処理装置20Aによって生成された経路Aに沿って、オスコネクタ2の3次元位置姿勢を変化させることができる。その結果、ロボット30を用いて、メスコネクタ3に対してオスコネクタ2を嵌合させることができる。
<E−2.利用例2>
近年、画像を用いてロボットを制御する技術が開発されている。たとえば、「李尭希、他1名、“単眼カメラのビデオ画像に基づく動作再現を目指したビジュアルサーボの応用に関する基礎検討”、[online]、[平成30年7月24日検索]、インターネット〈http://hflab.k.u-tokyo.ac.jp/papers/2016/RSJ2016_ri.pdf〉」(非特許文献2)には、予め与えられた動画像を用いて、ロボットの動作再現を行なう技術が開示されている。当該動画像としてCG(Computer Graphics)動画を用いることが考えられる。
CG動画は、嵌合する2つの対象物の3D−CADデータと、当該2つの対象物の一方に対する他方の相対的な3次元位置姿勢の変化とを指定することにより、作成可能である。そのため、情報処理装置20,20Aによって生成される相対変化情報を用いることにより、ロボットの動作再現を行なうためのCG動画を容易に作成することができる。
<F.付記>
以上のように、実施の形態および変形例は以下のような開示を含む。
(構成1)
第1対象物(2,5)と第2対象物(3,6)とが嵌合する様子を撮像することにより得られる動画像の各フレームから前記第1対象物(2,5)と前記第2対象物(3,6)とを検出し、検出した前記第1対象物(2,5)および前記第2対象物(3,6)の各々の3次元位置姿勢を計測するための計測部(23)と、
前記計測(23)部によって計測された3次元位置姿勢に基づいて、前記動画像から、前記第1対象物と前記第2対象物とが接触し始めるときの第1フレームと、前記第1対象物と前記第2対象物との嵌合が完了したときの第2フレームとを選択するための選択部(24)と、
前記第1フレームから前記第2フレームまでの各フレームについて前記計測部(23)によって計測された3次元位置姿勢に基づいて、前記第1対象物と前記第2対象物とが接触し始めてから前記第1対象物と前記第2対象物との嵌合が完了するまでの期間における、前記第2対象物に対する前記第1対象物の相対的な3次元位置姿勢の変化を示す相対変化情報を生成するための情報生成部(25)とを備える、情報処理装置(20,20A)。
(構成2)
前記第1対象物(2,5)と前記第2対象物(3,6)と障害物(4a,4b)とが配置された空間上における、前記第1対象物(2,5)の経路を生成するための経路生成部(27)をさらに備え、
前記経路生成部(27)は、前記第1対象物(2,5)が前記第2対象物(3,6)および前記障害物(4a,4b)と干渉しないように、初期位置姿勢から前記第2対象物(3,6)と接触し始めるときの位置姿勢までの前記第1対象物(2,5)の第1経路を生成するとともに、前記相対変化情報と前記空間上における前記第2対象物(3,6)の位置姿勢とに基づいて、前記第2対象物(3,6)と接触し始めるときの位置姿勢から前記第2対象物(3,6)との嵌合が完了するときの位置姿勢までの前記第1対象物(2,5)の第2経路を生成する、構成1に記載の情報処理装置(20A)。
(構成3)
前記経路生成部(27)は、前記第2経路と滑らかに接続するように前記第1経路を生成する、構成2に記載の情報処理装置(20A)。
(構成4)
前記相対変化情報は、前記第2対象物(3,6)に対する前記第1対象物(2,5)の相対的な3次元位置が直線に沿って変化することを示す、構成1から3のいずれかに記載の情報処理装置(20,20A)。
(構成5)
前記相対変化情報は、前記第2対象物(3)に対する前記第1対象物(2)の相対的な3次元姿勢が一定であることを示す、構成4に記載の情報処理装置(20,20A)。
(構成6)
前記相対変化情報は、前記第2対象物(6)に対する前記第1対象物(5)の相対的な3次元姿勢が前記直線を軸として回転することを示す、構成4に記載の情報処理装置(20,20A)。
(構成7)
構成2に記載の前記情報処理装置(20A)と、
前記第1対象物(2,5)の位置姿勢を変化させるためのロボット(30)と、
前記ロボットを制御する制御装置(50)とを備える制御システム(9)であって、
前記制御装置(50)は、前記情報処理装置(20A)によって生成された前記第1経路および前記第2経路に従って前記第1対象物(2,5)の位置姿勢が変化するように、前記ロボット(30)を制御する、制御システム(9)。
(構成8)
第1対象物(2,5)と第2対象物(3,6)とが嵌合する様子を撮像することにより得られる動画像の各フレームから前記第1対象物(2,5)と前記第2対象物(3,6)とを検出し、検出した前記第1対象物(2,5)および前記第2対象物(3,6)の各々の3次元位置姿勢を計測するステップと、
計測された3次元位置姿勢に基づいて、前記動画像から、前記第1対象物(2,5)と前記第2対象物(3,6)とが接触し始めるときの第1フレームと、前記第1対象物(2,5)と前記第2対象物(3,6)との嵌合が完了したときの第2フレームとを選択するステップと、
前記第1フレームから前記第2フレームまでの各フレームについて計測された3次元位置姿勢に基づいて、前記第1対象物(2,5)と前記第2対象物(3,6)とが接触し始めてから前記第1対象物(2,5)と前記第2対象物(3,6)との嵌合が完了するまでの期間における、前記第2対象物(3,6)に対する前記第1対象物(2,5)の相対的な3次元位置姿勢の変化を示す相対変化情報を生成するステップとを備える、情報処理方法。
(構成9)
第1対象物(2,5)と第2対象物(3,6)とが嵌合する様子を撮像することにより得られる動画像の各フレームから前記第1対象物(2,5)と前記第2対象物(3,6)とを検出し、検出した前記第1対象物(2,5)および前記第2対象物(3,6)の各々の3次元位置姿勢を計測するステップと、
計測された3次元位置姿勢に基づいて、前記動画像から、前記第1対象物(2,5)と前記第2対象物(3,6)とが接触し始めるときの第1フレームと、前記第1対象物(2,5)と前記第2対象物(3,6)との嵌合が完了したときの第2フレームとを選択するステップと、
前記第1フレームから前記第2フレームまでの各フレームについて計測された3次元位置姿勢に基づいて、前記第1対象物(2,5)と前記第2対象物(3,6)とが接触し始めてから前記第1対象物(2,5)と前記第2対象物(3,6)との嵌合が完了するまでの期間における、前記第2対象物(3,6)に対する前記第1対象物(2,5)の相対的な3次元位置姿勢の変化を示す相対変化情報を生成するステップとを備える、情報処理方法をコンピュータに実行させるためのプログラム。
本発明の実施の形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 情報処理システム、2 オスコネクタ、3 メスコネクタ、4a,4b 障害物、5 ボルト、6 ナット、9 制御システム、10 撮像装置、20,20A 情報処理装置、21 設計データ記憶部、22 モデルデータ記憶部、23 計測部、24 選択部、25 情報生成部、26 配置情報記憶部、27 経路生成部、30 ロボット、30a ハンド、40 ロボットコントローラ、50 制御装置、210 プロセッサ、212 RAM、214 表示コントローラ、216 システムコントローラ、218 I/Oコントローラ、220 ハードディスク、222 カメラインターフェイス、224 入力インターフェイス、228 通信インターフェイス、230 メモリカードインターフェイス、232 表示部、234 入力装置、236 メモリカード、250 処理プログラム、A 経路、A1 第1経路、A2 第2経路。

Claims (9)

  1. 第1対象物と第2対象物とが嵌合する様子を撮像することにより得られる動画像の各フレームから前記第1対象物と前記第2対象物とを検出し、検出した前記第1対象物および前記第2対象物の各々の3次元位置姿勢を計測するための計測部と、
    前記計測部によって計測された3次元位置姿勢に基づいて、前記動画像から、前記第1対象物と前記第2対象物とが接触し始めるときの第1フレームと、前記第1対象物と前記第2対象物との嵌合が完了したときの第2フレームとを選択するための選択部と、
    前記第1フレームから前記第2フレームまでの各フレームについて前記計測部によって計測された3次元位置姿勢に基づいて、前記第1対象物と前記第2対象物とが接触し始めてから前記第1対象物と前記第2対象物との嵌合が完了するまでの期間における、前記第2対象物に対する前記第1対象物の相対的な3次元位置姿勢の変化を示す相対変化情報を生成するための情報生成部とを備える、情報処理装置。
  2. 前記第1対象物と前記第2対象物と障害物とが配置された空間上における、前記第1対象物の経路を生成するための経路生成部をさらに備え、
    前記経路生成部は、前記第1対象物が前記第2対象物および前記障害物と干渉しないように、初期位置姿勢から前記第2対象物と接触し始めるときの位置姿勢までの前記第1対象物の第1経路を生成するとともに、前記相対変化情報と前記空間上における前記第2対象物の位置姿勢とに基づいて、前記第2対象物と接触し始めるときの位置姿勢から前記第2対象物との嵌合が完了するときの位置姿勢までの前記第1対象物の第2経路を生成する、請求項1に記載の情報処理装置。
  3. 前記経路生成部は、前記第2経路と滑らかに接続するように前記第1経路を生成する、請求項2に記載の情報処理装置。
  4. 前記相対変化情報は、前記第2対象物に対する前記第1対象物の相対的な3次元位置が直線に沿って変化することを示す、請求項1から3のいずれか1項に記載の情報処理装置。
  5. 前記相対変化情報は、前記第2対象物に対する前記第1対象物の相対的な3次元姿勢が一定であることを示す、請求項4に記載の情報処理装置。
  6. 前記相対変化情報は、前記第2対象物に対する前記第1対象物の相対的な3次元姿勢が前記直線を軸として回転することを示す、請求項4に記載の情報処理装置。
  7. 請求項2に記載の前記情報処理装置と、
    前記第1対象物の位置姿勢を変化させるためのロボットと、
    前記ロボットを制御する制御装置とを備える制御システムであって、
    前記制御装置は、前記情報処理装置によって生成された前記第1経路および前記第2経路に従って前記第1対象物の位置姿勢が変化するように、前記ロボットを制御する、制御システム。
  8. 第1対象物と第2対象物とが嵌合する様子を撮像することにより得られる動画像の各フレームから前記第1対象物と前記第2対象物とを検出し、検出した前記第1対象物および前記第2対象物の各々の3次元位置姿勢を計測するステップと、
    計測された3次元位置姿勢に基づいて、前記動画像から、前記第1対象物と前記第2対象物とが接触し始めるときの第1フレームと、前記第1対象物と前記第2対象物との嵌合が完了したときの第2フレームとを選択するステップと、
    前記第1フレームから前記第2フレームまでの各フレームについて計測された3次元位置姿勢に基づいて、前記第1対象物と前記第2対象物とが接触し始めてから前記第1対象物と前記第2対象物との嵌合が完了するまでの期間における、前記第2対象物に対する前記第1対象物の相対的な3次元位置姿勢の変化を示す相対変化情報を生成するステップとを備える、情報処理方法。
  9. 第1対象物と第2対象物とが嵌合する様子を撮像することにより得られる動画像の各フレームから前記第1対象物と前記第2対象物とを検出し、検出した前記第1対象物および前記第2対象物の各々の3次元位置姿勢を計測するステップと、
    計測された3次元位置姿勢に基づいて、前記動画像から、前記第1対象物と前記第2対象物とが接触し始めるときの第1フレームと、前記第1対象物と前記第2対象物との嵌合が完了したときの第2フレームとを選択するステップと、
    前記第1フレームから前記第2フレームまでの各フレームについて計測された3次元位置姿勢に基づいて、前記第1対象物と前記第2対象物とが接触し始めてから前記第1対象物と前記第2対象物との嵌合が完了するまでの期間における、前記第2対象物に対する前記第1対象物の相対的な3次元位置姿勢の変化を示す相対変化情報を生成するステップとを備える、情報処理方法をコンピュータに実行させるためのプログラム。
JP2018143469A 2018-07-31 2018-07-31 情報処理装置、制御システム、情報処理方法およびプログラム Active JP6904315B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018143469A JP6904315B2 (ja) 2018-07-31 2018-07-31 情報処理装置、制御システム、情報処理方法およびプログラム
PCT/JP2019/026960 WO2020026712A1 (ja) 2018-07-31 2019-07-08 情報処理装置、制御システム、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018143469A JP6904315B2 (ja) 2018-07-31 2018-07-31 情報処理装置、制御システム、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020019083A true JP2020019083A (ja) 2020-02-06
JP6904315B2 JP6904315B2 (ja) 2021-07-14

Family

ID=69231040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018143469A Active JP6904315B2 (ja) 2018-07-31 2018-07-31 情報処理装置、制御システム、情報処理方法およびプログラム

Country Status (2)

Country Link
JP (1) JP6904315B2 (ja)
WO (1) WO2020026712A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013146844A (ja) * 2012-01-23 2013-08-01 Seiko Epson Corp 教示画像生成装置、教示画像生成方法および教示画像生成プログラムならびにロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP2015150636A (ja) * 2014-02-13 2015-08-24 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
WO2015199086A1 (ja) * 2014-06-23 2015-12-30 Cyberdyne株式会社 動作再現システム及び動作再現装置
JP2018015856A (ja) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013146844A (ja) * 2012-01-23 2013-08-01 Seiko Epson Corp 教示画像生成装置、教示画像生成方法および教示画像生成プログラムならびにロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP2015150636A (ja) * 2014-02-13 2015-08-24 ファナック株式会社 ビジュアルフィードバックを利用したロボットシステム
WO2015199086A1 (ja) * 2014-06-23 2015-12-30 Cyberdyne株式会社 動作再現システム及び動作再現装置
JP2018015856A (ja) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム

Also Published As

Publication number Publication date
JP6904315B2 (ja) 2021-07-14
WO2020026712A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
US11498220B2 (en) Control system and control method
JP5812599B2 (ja) 情報処理方法及びその装置
US20140018957A1 (en) Robot system, robot, robot control device, robot control method, and robot control program
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
WO2021218542A1 (zh) 基于视觉感知设备的机器人本体坐标系的空间标定方法、装置和存储介质
JP6703812B2 (ja) 3次元物体検査装置
CN113744340A (zh) 用轴向视点偏移的非中心相机模型校准相机并计算点投影
Lambrecht Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection
JP2019098409A (ja) ロボットシステムおよびキャリブレーション方法
JP6936974B2 (ja) 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP2021086432A (ja) 情報処理装置、情報処理方法、コンピュータプログラム、計測装置、システムおよび物品の製造方法
JP7040147B2 (ja) 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
JP7230722B2 (ja) 画像処理装置及び画像処理方法
JP2012220271A (ja) 姿勢認識装置、姿勢認識方法、プログラム及び記録媒体
WO2020026712A1 (ja) 情報処理装置、制御システム、情報処理方法およびプログラム
Zhang et al. Vision-based six-dimensional peg-in-hole for practical connector insertion
JP6939729B2 (ja) 制御システム、制御方法およびプログラム
JP4389663B2 (ja) 画像処理方法及び画像処理装置
JP2778430B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
Amamra Smooth head tracking for virtual reality applications
KR20170041005A (ko) 3차원 얼굴 비대칭 분석 장치 및 방법
JP2010186219A (ja) テンプレート生成システム、テンプレートマッチングシステムおよびテンプレート生成方法
JP5938201B2 (ja) 位置姿勢計測装置、その処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6904315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250