JP2019125056A - 情報処理システム、情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理システム、情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2019125056A JP2019125056A JP2018003814A JP2018003814A JP2019125056A JP 2019125056 A JP2019125056 A JP 2019125056A JP 2018003814 A JP2018003814 A JP 2018003814A JP 2018003814 A JP2018003814 A JP 2018003814A JP 2019125056 A JP2019125056 A JP 2019125056A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- information processing
- image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 80
- 238000003672 processing method Methods 0.000 title claims 2
- 238000003384 imaging method Methods 0.000 claims abstract description 170
- 238000001514 detection method Methods 0.000 claims abstract description 56
- 238000000034 method Methods 0.000 claims description 41
- 238000004364 calculation method Methods 0.000 claims description 37
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 15
- 230000003287 optical effect Effects 0.000 claims description 10
- 239000012636 effector Substances 0.000 description 46
- 230000000007 visual effect Effects 0.000 description 41
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 13
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000003550 marker Substances 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 239000010410 layer Substances 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000004907 flux Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/26—Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/08—Stereoscopic photography by simultaneous recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】 より小型な三次元計測装置により対象物の位置の検出を可能にすること。【解決手段】 本発明は、撮像素子上の受光部が2以上の受光素子によって構成され、対象物を含む空間を撮像する撮像手段と、前記撮像手段から出力された第1の情報を入力する入力手段と、前記対象物に関する第2の情報を保持する保持手段と、前記第1、第2の情報に基づき、前記対象物の位置を検出する検出手段と、前記対象物を把持する把持手段と、前記検出した前記対象物の位置に基づいて、前記把持手段の動作を制御する制御手段と、を有することを特徴とする。【選択図】 図1
Description
本発明は、対象物の位置を検出し、把持手段により対象物を把持するための技術に関する。
無作為に配置された部品等の対象物に対して三次元計測を行い、対象物の位置を精度よく計測し、ロボットアームに取り付けられたエンドエフェクタによって対象物を把持する装置が提案されている。特許文献1には、ロボットアームに搭載した三次元視覚センサ(三次元計測装置)によって対象物の位置を計測し、ロボットアームに取り付けられたエンドエフェクタによって対象物を取り出す技術が開示されている。
特許文献1に開示される三次元計測装置は、ロボットアーム上に搭載する必要があるため、ロボットの可動域を損なわないよう小型であることが求められている。本発明は、より小型な三次元計測装置により対象物の位置の検出を可能にすることにある。
本発明は、撮像素子上の受光部が2以上の受光素子によって構成され、対象物を含む空間を撮像する撮像手段と、前記撮像手段から出力された第1の情報を入力する入力手段と、前記対象物に関する第2の情報を保持する保持手段と、前記第1、第2の情報に基づき、前記対象物の位置を検出する検出手段と、前記対象物を把持する把持手段と、前記検出した前記対象物の位置に基づいて、前記把持手段の動作を制御する制御手段と、を有することを特徴とする。
本発明によれば、より小型な三次元計測装置により対象物の位置の検出を可能になる。
[第1の実施形態]
本実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等に取り付けられたエンドエフェクタ(把持手段)を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物の画像を撮像し、各画素における三次元座標を算出する。検出部は撮像した画像と三次元座標に基づいて把持対象物の位置を検出する。制御部は、検出された把持対象物を把持部が把持および載置するための制御命令を生成し、把持部は生成された制御命令に基づき把持および載置動作を行う。これにより、より小型に構成された撮像部を用いたシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができ、把持部によって対象物を正確かつ安定的に把持することが可能となる。本実施形態において、把持は、把握(例えば複数のフィンガーで掴んだり挟持すること)や、保持(例えば真空吸着パッドや電磁力を利用して吸着すること)という概念を含む。以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。
本実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等に取り付けられたエンドエフェクタ(把持手段)を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物の画像を撮像し、各画素における三次元座標を算出する。検出部は撮像した画像と三次元座標に基づいて把持対象物の位置を検出する。制御部は、検出された把持対象物を把持部が把持および載置するための制御命令を生成し、把持部は生成された制御命令に基づき把持および載置動作を行う。これにより、より小型に構成された撮像部を用いたシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができ、把持部によって対象物を正確かつ安定的に把持することが可能となる。本実施形態において、把持は、把握(例えば複数のフィンガーで掴んだり挟持すること)や、保持(例えば真空吸着パッドや電磁力を利用して吸着すること)という概念を含む。以下、本発明の第1の実施形態の詳細について図面を参照しつつ説明する。
図1は本実施形態における情報処理システムの全体構成を示す概要図であり、撮像部101、把持部102と把持対象物301との関係を示している。把持部102を構成するロボットアーム302の先には撮像部101およびエンドエフェクタ303が取りつけられており、撮像部101は供給トレイ304に入った複数の把持対象物301が積載された環境を撮像する。把持部102は、情報処理装置200内部に備える制御部204からの制御に基づき、ロボットアーム302とエンドエフェクタ303を駆動し、複数の把持対象物301からいずれか1つを把持する。ロボットアーム302は把持している把持対象物301を排出トレイ305内の所定の位置まで移動させた後、エンドエフェクタ303は把持状態にある把持対象物301を解放し、排出トレイ305内に載置する。
図2は本実施形態に係る情報処理システムの全体構成を示す図である。図1における長方形の枠は本実施形態の各処理を行う機能モジュールを、矢印はデータの流れを示している。本実施形態に係る情報処理システムは、情報処理装置200とそれに接続する撮像部101、把持部102からなる。図1は、本実施形態に係る情報処理システムを実現する一例であり図示されるものに限定されない。
撮像部101は、把持対象物301が供給トレイ304内部に複数配置された環境を撮影した画像(以下撮影画像)と三次元座標を含む視覚情報(第1の情報)を取得する。撮像部101は本装置に接続して用いられ、視覚情報が入力部201に入力される。
図3は、撮像部101が備える撮像素子150を説明するための図である。本実施形態において、撮像部101は、内部に撮像素子150を備えている。図3(a)に示すように、撮像素子150にはその内部に受光部151が格子状に多数配置されている。各々の受光部151には、その上面にマイクロレンズ153が設けられ、効率的に集光できるようになっている。従来の撮像素子は1つの受光部151に対して1つの受光素子を備えているが、本実施形態における撮像部101が備える撮像素子150では、各々の受光部151は内部に複数の受光素子152を備えている。
図3(b)は、1つの受光部151に着目し、側面から見た様子を示すものである。図3(b)に示すように、1つの受光部151の内部に2つの受光素子152aおよび152bが備えられている。個々の受光素子152は互いに独立しており、受光素子152aに蓄積された電荷が受光素子152bに移動することはなく、また逆に受光素子152bに蓄積された電荷が受光素子152aに移動することはない。そのため、図3(b)において、受光素子152aはマイクロレンズ153の右側から入射する光束を受光することになる。また逆に、受光素子152bはマイクロレンズ153の左側から入射する光束を受光することになる。
撮像部101は、受光素子152aに蓄積されている電荷のみを選択して画像154aを生成することができる。また同時に、撮像部101は受光素子152bに蓄積されている電荷のみを選択して画像154bを生成することができる。画像154aはマイクロレンズ153の右側からの光束、画像154bはマイクロレンズ153の左側の光束のみを選択して生成されるため、図4に示すように、画像154aと画像154bは、互いに異なる撮影視点から撮影された画像となる。
また、撮像部101が各受光部151から、受光素子152a、152bの両方に蓄積されている電荷を用いて画像を形成すると、従来の撮像素子を用いた場合と同じようにある視点から撮影した画像である画像154c(不図示)が得られることになる。撮像部101は、以上説明した原理によって、撮影視点の異なる画像154a、154bと、従来の画像154cを同時に撮像することができる。
なお、各受光部151は、より多くの受光素子152を備えてもよく、任意の数の受光素子152を設定することができる。例えば、図4(c)は、受光部151の内部に4つの受光素子152a〜152dを設けた例を示している。
撮像部101は、一対の画像154a、154bから、対応点探索を行って視差画像(不図示)を算出し、さらにその視差画像に基づいてステレオ法によって画像154cを構成する各画素の三次元座標を算出する機能を有する。対応点探索やステレオ法は公知の技術であり、様々な方法を適用可能である。対応点探索には、画像の輝度情報の勾配からエッジやコーナーの特徴点を抽出し、特徴点における特徴量が類似する点を探索する手法などを用いることができる。ステレオ法では、2つの画像の座標系の関係を導出し、射影変換行列を導出し、三次元形状を算出する。撮像部101は画像154cに加えて、画像154a、画像154b、視差画像、ステレオ法によって求めたデプスマップ、三次元座標を出力する機能を有している。
なお、ここで言うデプスマップとは、画像154cを構成する各画素に対して、計測対象までの距離(奥行き)と相関のある値を保持する画像を指す。通常、計測対象までの距離と相関のある値は、通常の画像として構成可能な整数値であり、焦点距離から決定される所定の係数を乗ずることで、対象までの物理的な距離(例えばミリメートル)に変換することができる。この焦点距離は、先述のように撮像部101の固有情報に含まれる。
また、三次元座標は、上記のようにデプスマップから変換された計測対象までの物理的な距離に対して、別途設定される三次元空間中の直交座標系における原点(撮像部の光学中心)からの各軸(X,Y,Z)の値として設定される座標の集合である。
撮像部101は、単一の撮像素子150によって視点の異なる一対の画像154a、154bを取得することができるため、2つ以上の撮像部を必要とする従来のステレオ法と異なり、より小型な構成によって三次元計測を実現することが可能となる。
撮像部101は、さらに光学系の焦点距離を制御するオートフォーカス機構および画角を制御するズーム機構を備える。オートフォーカス機構は有効あるいは無効を切り替え可能であり、設定した焦点距離を固定することができる。撮像部101は、焦点および画角を制御するために設けられた光学系制御モーターの回転角あるいは移動量といった駆動量によって規定される制御値を読み取り、不図示のルックアップテーブルを参照して焦点距離を算出し、出力することができる。また撮像部101は、装着されたレンズから、焦点距離範囲、口径、ディストーションの係数、光学中心などのレンズの固有情報を読み取ることができる。読み取った固有情報は、後述する視差画像及びデプスマップのレンズ歪みの補正や、三次元座標の算出に用いられる。
撮像部101は、画像154a〜154cおよび視差画像、デプスマップのレンズ歪みを補正する機能、主点位置の画像座標(以下、画像中心と表記する)および画像154aと画像154bの基線長を出力する機能を有している。また、生成された画像154a〜154c、焦点距離、画像中心などの光学系データ、視差画像、基線長、デプスマップ、三次元座標などの三次元計測データを出力する機能を有している。本実施形態においては、これらのデータを総称して視覚情報と呼ぶ。撮像部101は、撮像部101が内部に備える記憶領域(不図示)に設定されたパラメータあるいは撮像部101外部から与えられる命令に応じて、視覚情報の全部あるいは一部を選択的に出力する。
把持部102は、供給トレイ304内に複数配置された把持対象物301のうち1つを把持し、排出トレイ305内に移動させ、載置する動作を行う。本実施形態において、把持部102はロボットアーム302とエンドエフェクタ303の組み合わせによって実現される。エンドエフェクタ303は様々なものが利用可能であるが、本実施形態では、真空圧により吸着力を得る方式の吸着パッドを使用するものとする。
次に、本実施形態に係る情報処理装置200が備える各機能構成部について説明する。入力部201は、撮像部101から出力される視覚情報を情報処理装置200内部に取り込む。本実施形態においては、視覚情報には撮像部101が撮像した画像154cと、先述の原理によって算出された三次元座標が含まれる。
検出部202は、入力部201が入力した画像154c(以下、入力画像)と、保持部203が保持している把持対象物301に関する物体情報(第2の情報)をもとに、把持対象物301が存在する三次元空間における位置を検出する。本実施形態において、検出部202は、CNN(Convolutional Neural Network)に上記入力画像を入力し、把持対象物301の中心の画像座標を得る。本実施形態において、CNNはカラー画像を入力として、コンボリューション層や結合層を経て、入力画像に対応する各画素が把持対象物301の中心である尤度を示す画像(以下、尤度画像と呼ぶ)を出力するように設計されている。
検出部202は、CNNが出力した尤度画像に対して尤度が高い領域を抽出し、その重心を把持対象物301の中心の画像座標として出力する。次に、検出部202は、取得した把持対象物301の中心の画像座標から入力部201が入力した三次元座標を参照し、把持対象物301の中心の三次元座標を得る。検出部202は、得られた把持対象物301の中心の三次元座標を、把持対象物301の位置として設定する。
保持部203は、検出部202が把持対象物301の位置を検出するために必要な把持対象物301に関する物体情報および撮像部101と把持部102との間の幾何変換パラメータを保持する。本実施形態において、物体情報は検出部202がCNNを実行するために必要なCNNモデル構造と重みパラメータを含む。本実施形態において、CNNモデル構造とは先述のコンボリューション層や結合層の構成を定義するデータである。重みパラメータは、コンボリューション層や結合層に設定される重み係数の集合である。CNNモデル構造と重みパラメータは把持対象物301の種別によって異なるため、保持部203は重みパラメータを把持対象物301の種別ごとに保持する。撮像部101と把持部102との間の幾何変換パラメータは、本情報処理装置の起動に先立ち、ハンドアイキャリブレーションと呼ばれる方法を用いて事前に算出して設定される。
制御部204は、検出部202が検出した把持対象物301の位置に基づき、把持対象物301を把持可能な位置および姿勢に把持部102を移動させ、把持対象物301を把持するための制御をする。そして、把持した把持対象物301を排出トレイ305へ搬送し、把持対象物301を解放して排出トレイ305に置載させるための制御を行う。制御部204は、把持部102を移動させるための軌道の生成と、ロボットアーム302やエンドエフェクタ303を動作させるための命令を発行する。
以上のような構成を備えた本実施形態の情報処理システムにおいて、対象物を把持する制御について以下説明する。図5は、本実施形態に係る情報処理システムによる処理の流れを示すフローチャートである。
(ステップS1000)
本実施形態に係る情報処理システムの起動に際して、初期化処理が行われる。ステップS1000の初期化処理には、撮像部101、把持部102の起動、保持部203が物体情報、幾何変換パラメータを装置外部から読み込み保持する処理や、検出部202がCNNモデル構造や重みパラメータからCNNを構成する処理が含まれる。
本実施形態に係る情報処理システムの起動に際して、初期化処理が行われる。ステップS1000の初期化処理には、撮像部101、把持部102の起動、保持部203が物体情報、幾何変換パラメータを装置外部から読み込み保持する処理や、検出部202がCNNモデル構造や重みパラメータからCNNを構成する処理が含まれる。
(ステップS1010)
撮像部101は、供給トレイ304内に複数積載された把持対象物301の画像を撮像し、画像中の各画素の三次元座標を算出して視覚情報を入力部201に送出する。入力部201は、撮像部101から視覚情報である画像154cと三次元座標を情報処理装置200の内部に入力し、検出部202に送出する。
撮像部101は、供給トレイ304内に複数積載された把持対象物301の画像を撮像し、画像中の各画素の三次元座標を算出して視覚情報を入力部201に送出する。入力部201は、撮像部101から視覚情報である画像154cと三次元座標を情報処理装置200の内部に入力し、検出部202に送出する。
(ステップS1020)
検出部202は、CNNに画像154cを入力し、把持対象物301の中心の画像座標を抽出する。検出部202は、抽出した画像座標と入力部201が入力した三次元座標とを参照して、把持対象物301の三次元空間中での位置を検出する。検出された把持対象物301が複数存在する場合には、検出部202は最も表層に存在するもの、あるいは隠れが少なく、検出された把持対象物301の領域が最も大きいものを選択する。
検出部202は、CNNに画像154cを入力し、把持対象物301の中心の画像座標を抽出する。検出部202は、抽出した画像座標と入力部201が入力した三次元座標とを参照して、把持対象物301の三次元空間中での位置を検出する。検出された把持対象物301が複数存在する場合には、検出部202は最も表層に存在するもの、あるいは隠れが少なく、検出された把持対象物301の領域が最も大きいものを選択する。
(ステップS1030)
制御部204は、検出部202が検出した把持対象物301の位置に基づき、把持部102に対して把持動作を行うための命令を生成する。以下、本実施形態において制御部204が実行する具体的な処理の内容について説明する。
制御部204は、検出部202が検出した把持対象物301の位置に基づき、把持部102に対して把持動作を行うための命令を生成する。以下、本実施形態において制御部204が実行する具体的な処理の内容について説明する。
まず、制御部204は、保持部203から撮像部101と把持部102間の幾何変換パラメータを入力し、ステップS1020において算出した把持対象物301の撮像部101の座標系における位置を、把持部102の座標系における位置に変換する。
次に把持部102からエンドエフェクタ303の現在の位置姿勢を読み出し、エンドエフェクタ303の現在の位置から、把持対象物301の位置へと至る経路を算出する。本実施形態では、エンドエフェクタ303を把持対象物301の上部に移動させ、把持対象物301の上部から下降して把持対象物301の位置へと至る経路を算出する。制御部204は、算出した経路に従ってロボットアーム302を移動させるための一連の命令を生成する。
次に制御部204は、エンドエフェクタ303が把持対象物301の位置に至った時点で、エンドエフェクタ303が把持対象物301を把持するための命令を生成する。本実施形態において、エンドエフェクタ303が把持対象物301を把持するための命令として、制御部204は吸着パッドから吸引するエアーの流量を指定する。
次に制御部204は、エンドエフェクタ303を把持対象物301の把持位置から、排出トレイ305まで搬送する経路を算出する。
次に制御部204は、把持対象物301を把持しているエンドエフェクタ303に対して、排出トレイ305内で解放するための命令を生成する。本実施形態において、エンドエフェクタ303は把持を開始した時点から継続して吸引を行っているため、この時点で流量を0にして吸引を停止する。吸引を停止すると、エンドエフェクタ303と把持対象物301との間の真空圧が失われるため、把持対象物301はエンドエフェクタ303から開放される。
制御部204は、以上の手順で生成した命令群を把持部102に送出する。
(ステップS1040)
把持部102は、制御部204からの命令に従って、ロボットアーム302およびエンドエフェクタ303を動作させ、把持対象物301を把持および載置する。
把持部102は、制御部204からの命令に従って、ロボットアーム302およびエンドエフェクタ303を動作させ、把持対象物301を把持および載置する。
(ステップS1050)
制御部204が、所定数の把持対象物301の把持および載置を完了したと判断した場合には、本実施形態における処理を終了する。そうでない場合には、ステップS1010の処理に戻る。
制御部204が、所定数の把持対象物301の把持および載置を完了したと判断した場合には、本実施形態における処理を終了する。そうでない場合には、ステップS1010の処理に戻る。
上述の説明では、把持部102は一組のロボットアーム302およびエンドエフェクタ303から構成される例について説明したが、複数の把持部102を備え、複数の把持対象物301を同時に把持できる構成にしてもよい。
また、本実施形態では、検出部202は把持対象物301の中心の画像座標を検出する例について説明したが、検出部202は、例えば窪みや突起部など、把持対象物301の特徴的な部位の画像座標を検出するようにしてもよい。いずれにしても、本実施形態は、把持対象物301の所定の位置を検出するという構成に広く適用できるものである。
また、本実施形態では、検出部202は把持対象物301の三次元空間における位置のみを算出したが、位置に加えて姿勢を算出するようにしてもよい。そして、制御部204は、検出部202が算出した姿勢に応じて、エンドエフェクタ303が把持対象物301を把持するための命令を生成することにより、より正確に把持できるようになる。なお、把持対象物301の姿勢は、例えば、入力部201が入力した三次元座標を参照して、把持対象物301の面の向きを求めることにより算出できる。
また、本実施形態では、制御部204は把持対象物301の上空から検出位置に至る軌道を生成する例について説明したが、軌道生成の方法はこれに限らず任意に定めることができる。移動経路に他の部品やトレイの壁などの障害物がある場合には、障害物を避ける軌道を生成するようにしてもよいし、位置のみでなく把持に適した姿勢を取るように、姿勢を変化させる軌道を生成してもよい。
また、本実施形態では、エンドエフェクタ303に真空圧により吸着力を得る方式の吸着パッドを用いる例について説明したが、電磁力による吸着パッド、グリッパーなど、他のものを用いてもよい。この場合、制御部204は、把持対象物301を把持および解放するために、エンドエフェクタ303の方式に適合する命令を生成する。例えば、電磁力による吸着パッドであれば、吸着あるいは解放の命令として所定の電流値を指定する。グリッパーであれば、トルク値などを指定する。
また、本実施形態のステップS1040では、制御部204は把持部102への命令群を一度に生成し、把持部102に送出する例について説明したが、これに限られない。制御部204は、把持部102への命令を生成するごとにその情報を逐次送出するようにしてもよい。
また、本実施形態のステップS1050では、制御部204が所定数の把持対象物の把持および載置を完了したと判断した場合に、本実施形態における処理を終了する例について説明したが、これに限られない。制御部204は、所定の時間が経過した後に処理を終了するようにしてもよいし、ユーザからの入力に従って処理を終了するようにしてもよい。また、エンドエフェクタ303が把持対象物301の把持に失敗した場合に処理を終了するようにしてもよい。
以上述べたように、本実施形態によれば、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
(変形例)
本実施形態では、検出部202が、CNNに入力画像を入力し、把持対象物301の画像上の位置を検出する構成について説明したが、入力画像に加えてデプスマップを入力するようにしてもよい。このとき、撮像部101が出力する視覚情報には、画像154cと三次元座標に加えて、デプスマップが含まれることになる。また同様に、入力部201は画像154cと三次元座標に加えて、撮像部101からデプスマップを入力する。保持部203が保持するCNNモデル構造は、入力画像とデプスマップの両方を入力可能なものとする。この構成によって、検出部202は、把持対象物301の位置をより正確に検出することが可能になる。
本実施形態では、検出部202が、CNNに入力画像を入力し、把持対象物301の画像上の位置を検出する構成について説明したが、入力画像に加えてデプスマップを入力するようにしてもよい。このとき、撮像部101が出力する視覚情報には、画像154cと三次元座標に加えて、デプスマップが含まれることになる。また同様に、入力部201は画像154cと三次元座標に加えて、撮像部101からデプスマップを入力する。保持部203が保持するCNNモデル構造は、入力画像とデプスマップの両方を入力可能なものとする。この構成によって、検出部202は、把持対象物301の位置をより正確に検出することが可能になる。
[第2の実施形態]
第2の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。第1の実施形態では、撮像部によって対象物の三次元座標を算出する構成を説明した。これに対し、本実施形態においては、情報処理装置内部に備える三次元座標算出部によって対象物の三次元座標を算出することで、撮像部の処理負荷を軽減する。
第2の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。第1の実施形態では、撮像部によって対象物の三次元座標を算出する構成を説明した。これに対し、本実施形態においては、情報処理装置内部に備える三次元座標算出部によって対象物の三次元座標を算出することで、撮像部の処理負荷を軽減する。
本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物を含む空間の画像と視差画像を取得する。三次元座標算出部は、入力した画像と視差画像に基づいて三次元座標を算出する。検出部は入力した画像と三次元座標に基づいて把持対象物の三次元位置を検出する。制御部は、検出された把持対象物を把持および載置する制御命令を生成し、把持部は制御命令に基づき把持および載置動作を行う。これにより、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
以下、本発明の第2の実施形態の詳細について図面を参照しつつ説明する。なお、第1の実施形態で既に説明をした構成については同一の符号を付し、その説明は省略する。
図6は、本実施形態に係る情報処理システムの全体構成を示すブロック図である。図2に示した第1の実施形態に係る全体構成と比較すると、本実施形態では、三次元情報算出部205が追加されている。ここでは、第1の実施形態との差異を中心に説明する。
図6において、本実施形態では、撮像部101が出力する視覚情報には画像154c、視差画像、焦点距離、画像中心、基線長が含まれる。入力部201は、視覚情報として画像154c、視差画像、焦点距離、画像中心、基線長を情報処理装置200内部に取り込む。
三次元情報算出部205は、入力部201が入力した視覚情報のうち、視差画像、焦点距離、基線長を用いて三次元情報を算出する。本実施形態において、三次元情報には、視差画像の各画素における三次元座標が含まれる。三次元情報算出部205は、算出した三次元座標を検出部202に送出する。
以上のような構成を備えた本実施形態の情報処理システムにおいて、対象物を把持する制御について以下説明する。図7は、本実施形態に係る情報処理システムによる処理の流れを示すフローチャートである。
(ステップS1010)
撮像部101は、供給トレイ304内に複数積載された把持対象物301の画像を撮像し、視覚情報を入力部201に送出する。先述のように、撮像部101は画像154aと画像154bから視差画像を算出する。入力部201は、撮像部101から、画像154cに加えて、視差画像、焦点距離、画像中心、基線長を情報処理装置200の内部に入力し、検出部202に送出する。
撮像部101は、供給トレイ304内に複数積載された把持対象物301の画像を撮像し、視覚情報を入力部201に送出する。先述のように、撮像部101は画像154aと画像154bから視差画像を算出する。入力部201は、撮像部101から、画像154cに加えて、視差画像、焦点距離、画像中心、基線長を情報処理装置200の内部に入力し、検出部202に送出する。
(ステップS1015)
三次元情報算出部205は、入力部201が入力した視覚情報のうち、視差画像、焦点距離、画像中心、基線長を用いて、視差画像の各画素における三次元座標を算出する。以下、三次元座標算出処理について具体的に説明する。
三次元情報算出部205は、入力部201が入力した視覚情報のうち、視差画像、焦点距離、画像中心、基線長を用いて、視差画像の各画素における三次元座標を算出する。以下、三次元座標算出処理について具体的に説明する。
三次元情報算出部205は、視差画像を構成する各画素I(u,v)について、数式1によって三次元座標X(u,v),Y(u,v),Z(u,v)を算出する。u,vは画素の位置を表すインデックス、bは基線長、fは焦点距離、u0,v0は画像中心の座標を示す。
Z(u,v)=f・b/I(u,v)
X(u,v)=(u−u0)・Z(u,v)/f …(数式1)
Y(u,v)=(v−v0)・Z(u,v)/f
三次元情報算出部205は、数式1を用いて算出した三次元座標X(u,v),Y(u,v),Z(u,v)を検出部202に送出する。
Z(u,v)=f・b/I(u,v)
X(u,v)=(u−u0)・Z(u,v)/f …(数式1)
Y(u,v)=(v−v0)・Z(u,v)/f
三次元情報算出部205は、数式1を用いて算出した三次元座標X(u,v),Y(u,v),Z(u,v)を検出部202に送出する。
以上述べたように、本実施形態によれば、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。また、本実施形態においては、情報処理装置内部に備える三次元座標算出部によって対象物の三次元座標を算出するため、撮像部の処理負荷を軽減することができる。
(変形例)
撮像部101は、視差画像に替えて画像154aと画像154bを出力するようにしてもよい。入力部201は視差画像に替えて画像154aと画像154bを入力し、三次元情報算出部205に送出する。ステップS1015において、三次元情報算出部205は、画像154aと画像154bから視差画像を算出した後、数式1に基づいて三次元座標を算出する。一対の画像から視差画像を算出する方法は、従来から数多くの手法が提案されているが、要求に応じて適切な手法を選択すればよい。撮像部101に替えて三次元情報算出部205で視差画像を算出することにより、撮像部101の処理負荷をさらに軽減することが可能となる。また、撮像部101を改変することなく、視差画像を生成する精度や質を柔軟に制御することが可能となる。
撮像部101は、視差画像に替えて画像154aと画像154bを出力するようにしてもよい。入力部201は視差画像に替えて画像154aと画像154bを入力し、三次元情報算出部205に送出する。ステップS1015において、三次元情報算出部205は、画像154aと画像154bから視差画像を算出した後、数式1に基づいて三次元座標を算出する。一対の画像から視差画像を算出する方法は、従来から数多くの手法が提案されているが、要求に応じて適切な手法を選択すればよい。撮像部101に替えて三次元情報算出部205で視差画像を算出することにより、撮像部101の処理負荷をさらに軽減することが可能となる。また、撮像部101を改変することなく、視差画像を生成する精度や質を柔軟に制御することが可能となる。
[第3の実施形態]
本実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態は、さらにパターンを投影する投影部を備え、対象物の色や模様によらず、正確かつ安定的に対象物の三次元座標を算出できるものである。本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物を含む空間の画像と視差画像を取得する。投影部はパターンを対象物に向けて投影する。三次元座標算出部は、入力した画像と視差画像に基づいて三次元座標を算出する。検出部は入力した画像と三次元座標に基づいて把持対象物の三次元位置を検出する。制御部は、検出された把持対象物を把持および載置する制御命令を生成し、把持部は制御命令に基づき把持および載置動作を行う。これにより、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
本実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態は、さらにパターンを投影する投影部を備え、対象物の色や模様によらず、正確かつ安定的に対象物の三次元座標を算出できるものである。本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物を含む空間の画像と視差画像を取得する。投影部はパターンを対象物に向けて投影する。三次元座標算出部は、入力した画像と視差画像に基づいて三次元座標を算出する。検出部は入力した画像と三次元座標に基づいて把持対象物の三次元位置を検出する。制御部は、検出された把持対象物を把持および載置する制御命令を生成し、把持部は制御命令に基づき把持および載置動作を行う。これにより、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
以下、本発明の第3の実施形態の詳細について図面を参照しつつ説明する。なお、第1、第2の実施形態で既に説明をした構成については同一の符号を付し、その説明は省略する。
図8は、本実施形態に係る情報処理システムの全体構成を示すブロック図である。図6に示した第2の実施形態に係る全体構成と比較すると、本実施形態では、投影部103が追加されている。ここでは、第2の実施形態との差異を中心に説明する。
投影部103は不図示の光源とスライドマスクを備え、把持対象物301が存在する領域(供給トレイ304の近傍)に向けて、スライドマスクによって決められる所定のパターンを投影する。図9は、本実施形態において投影部103が投影するパターンおよびその撮影画像の例を示す図であり、図9(a)は投影部103が投影するパターン160の例を示している。同図に示すように、パターン160は投影および非投影の領域がランダムに配置されている。
図10は、第3の実施形態に係る情報処理システムの全体構成を示す概要図である。同図において、投影部103は撮像部101と共にロボットアーム302の先に取り付けられており、撮像部101の視野と略一致するように設置されている。
図9(b)は、図10に示す配置関係において、投影部103がパターン160を投影したときに、撮像部101によって撮像される画像154a(あるいは154b)の例を示している。投影部103が投影するパターン160によって、把持対象物301にランダムな模様が付加されるため、把持対象物301の表面が一様である場合においても、ステレオ法による三次元計測が安定して行えるようになる。
以上のような構成を備えた本実施形態の情報処理システムにおいて、対象物を把持する制御について以下説明する。本実施形態に係る情報処理システムによる処理の流れを示すフローチャートは図7と同様であるが、一部のステップの処理の内容が第2の実施形態と異なる。
(ステップS1010)
制御部204は、投影部103に点灯の命令を送出する。投影部103はパターン160を把持対象物301が積載されている供給トレイ304に向けて投影する。
制御部204は、投影部103に点灯の命令を送出する。投影部103はパターン160を把持対象物301が積載されている供給トレイ304に向けて投影する。
次に撮像部101は、1回目の撮像を行い、第1の視覚情報を入力部201に送出する。第1の視覚情報には、画像154aと画像154bから生成される視差画像、焦点距離、画像中心、基線長が含まれる。撮像部101は、第1の視覚情報を入力部201に送出する。
次に制御部204は、投影部103に消灯の命令を送出する。投影部103はパターン160の投影を停止する。
次に撮像部101は、2回目の撮像を行い、第2の視覚情報を入力部201に送出する。第2の視覚情報には、画像154cが含まれる。撮像部101は、第2の視覚情報を入力部201に送出する。入力部201は、第1の視覚情報と第2の視覚情報を撮像部101より入力し、第1の視覚情報に含まれる視差画像、焦点距離、画像中心、基線長、第2の視覚情報に含まれる画像154cを検出部202に送出する。
このとき、検出部202は、パターン160が投影されない状態で撮像された画像154cと、パターン160が投影された状態で算出された視差画像とが入力されることになる。これにより、検出部202はパターン160を含まない入力画像をCNNに入力して、把持対象物301の位置を検出することが可能となる。また、本実施形態では、パターン160が投影された状態で算出された三次元情報(第1の視覚情報)をもとに、高精度でノイズが少ない三次元座標を算出することも可能となる。
なお、上述の説明において、パターン160は投影および非投影の領域がランダムに配置されるように生成されるものとして説明したが、本実施形態はこれに限られない。例えば、パターン160は、特定の模様や色、所定の規則によって生成されるパターンであってもよい。
また、本実施形態において、投影部103は光源及びスライドマスクによって構成されるものとして説明したが、本実施形態はこれに限られない。例えば、レーザー光源と回折光学素子を組み合わせることによって、レーザービームを不規則に分岐させ、あたかもランダムパターンのような模様を投影することが可能である。また、データプロジェクターを用いて、所定の画像を投影するようにしてもよいし、時間経過に伴ってパターンを変更あるいは変形させるようにしてもよい。
また、本実施形態において、撮像部101と投影部103はロボットアーム302上に隣接するように設置するものとして説明したが、撮像部101と投影部103とを異なる場所に設置してもよい。例えば、投影部103をロボットアーム302上でなく、供給トレイ304の上方に設置するようにしてもよい。また、投影部103を可動式の雲台上などに設置し、ロボットアーム302の動きに合わせて雲台の姿勢を制御し、投影する方向を適応的に変更するようにしてもよい。
また、本実施形態のステップS1010において、撮像部101は投影部103が点灯および消灯された状態で2回の撮像を行う方法について説明したが、本実施形態はこれに限られない。投影部103を常に点灯させた状態で撮像を行い、検出部202はパターン160が投影された状態で撮影された画像154cをCNNに入力し、把持対象物301を検出するようにしてもよい。この場合、パターン160が投影された状態で撮影した把持対象物301の画像に対して学習を行い、CNNの重みパラメータを設定する。
以上述べたように、本実施形態によれば、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。また、本実施形態においては、対象物の色や模様によらず、正確かつ安定的に対象物の三次元座標を算出することが可能になる。
(変形例)
変形例では、本実施形態のステップS1010において、制御部204は投影部103に点灯命令を送出せず、撮像部101は第2の実施形態と同様に、パターン160を投影しない状態で画像を撮像する。ステップS1015において、三次元情報取得部205が三次元座標を適切に算出できない、あるいは、算出された三次元座標の精度が悪いと判断された場合のみ、ステップS1010に戻る。そして、ステップS1010において、本実施形態において説明したステップS1010の処理、すなわち、制御部204が投影部103に点灯命令を送出した後、撮像部101が撮像する。
変形例では、本実施形態のステップS1010において、制御部204は投影部103に点灯命令を送出せず、撮像部101は第2の実施形態と同様に、パターン160を投影しない状態で画像を撮像する。ステップS1015において、三次元情報取得部205が三次元座標を適切に算出できない、あるいは、算出された三次元座標の精度が悪いと判断された場合のみ、ステップS1010に戻る。そして、ステップS1010において、本実施形態において説明したステップS1010の処理、すなわち、制御部204が投影部103に点灯命令を送出した後、撮像部101が撮像する。
この場合、把持対象物301が正しく計測できない場合のみパターン160が投影されるため、把持対象物301が正しく計測できる限りにおいては、撮像は一度のみとなり、処理時間の短縮が可能になる。
なお、算出した三次元座標は、例えば以下のようにして評価することができる。ステレオ法により対応点探索を行う際、左右の画像からサンプルされるパッチ(部分画像)に対して類似度を求める。そして、求めた類似度のうち、最も類似度が高い座標を対応点とする処理が行われる。なお、類似度としては、SAD(Sum of Absolute Difference)やNCC(Normalized Cross Correlation)等を用いることができる。
このとき、対応点における類似度とその近傍での類似度の値とを比較する。対応点における類似度が、近傍での類似度に対して突出して高い場合には、三次元座標を適切に算出できている(あるいは精度が高い)と評価される。一方、対応点における類似度が近傍での類似度の値に近い場合には、ノイズなどの要因で対応点が変化しやすいため不安定であり、三次元座標が適切に算出されていないと評価される。
[第4の実施形態]
第4の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、供給トレイの周囲に複数のマーカー(指標)を配置し、事前に算出したマーカー相互の距離を用いることで、撮像部が備えるオートフォーカス機構による焦点距離の変動がある場合においても、高精度に三次元座標を算出できる。
第4の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、供給トレイの周囲に複数のマーカー(指標)を配置し、事前に算出したマーカー相互の距離を用いることで、撮像部が備えるオートフォーカス機構による焦点距離の変動がある場合においても、高精度に三次元座標を算出できる。
本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物を含む空間の画像と視差画像を取得する。三次元座標算出部は、入力した画像と視差画像に基づいて三次元座標を算出した後、マーカー相互の距離を用いて、三次元座標を補正する。検出部は入力した画像と三次元座標に基づいて把持対象物の三次元位置を検出する。制御部は、検出された把持対象物を把持および載置する制御命令を生成し、把持部は制御命令に基づき把持および載置動作を行う。これにより、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
以下、本発明の第4の実施形態の詳細について図面を参照しつつ説明する。なお、第1〜第3の実施形態で既に説明をした構成については同一の符号を付し、その説明は省略する。
図11は、本実施形態に係る情報処理システムの全体構成を示す概要図である。同図に示すように、本実施形態では、供給トレイ304の周囲にマーカー306が複数配置されている。
図12は、図11の状況において、撮像部101が撮像した画像154cの例を示している。本実施形態においてマーカー306は円形であり、形状、色、大きさ等の幾何情報は既知である。マーカー306が図12のように画像154c中に観測された場合、本実施形態の情報処理システムでは、画像処理によってその中心座標を高精度に特定できるように構成されている。なお、三次元空間における複数のマーカー306間の相互の距離は事前に精密に測定されている。また、本実施形態における距離とは、三次元空間中に存在する2点の間で定義されるユークリッド距離を意味する。
本実施形態において、撮像部101のオートフォーカス機構は有効化されている。撮像部101が出力する視覚情報には、第2実施形態と同じく画像154c、視差画像、焦点距離、画像中心、基線長が含まれる。そのため、本実施形態において焦点距離は常時変化するものの、合焦後の焦点距離が撮像部101から出力され、入力部201によって情報処理装置200に取り込まれる。
保持部203は、把持対象物301に関する物体情報、撮像部101と把持部102との間の幾何変換パラメータに加えて、基準サイズ情報を保持する。本実施形態における基準サイズ情報は、三次元空間中での複数のマーカー306間の距離を含む。
三次元情報算出部205は、入力部201が入力した視覚情報のうち、視差画像、焦点距離、基線長を用いて三次元情報を算出する。本実施形態において、三次元情報は、視差画像の各画素における三次元座標が含まれる。また、一度算出した三次元情報について、入力画像と保持部203が保持する基準サイズ情報を参照して、三次元情報を修正する。
以上のような構成を備えた本実施形態の情報処理システムにおいて、対象物を把持する制御について以下説明する。本実施形態に係る情報処理システムによる処理の流れを示すフローチャートは図7と同様であるが、一部のステップの処理の内容が第2の実施形態と異なる。
(ステップS1000)
本実施形態に係る情報処理システムの起動に際して、初期化処理が行われる。保持部203は、物体情報、幾何変換パラメータに加えて、基準サイズ情報を読み込み保持する。
本実施形態に係る情報処理システムの起動に際して、初期化処理が行われる。保持部203は、物体情報、幾何変換パラメータに加えて、基準サイズ情報を読み込み保持する。
(ステップS1010)
撮像部101は、把持対象物301を含む環境の画像を撮像し、視覚情報を入力部201に送出する。本実施形態では、先述のように、撮像部101のオートフォーカス機構が有効化されており、合焦後の焦点距離が視覚情報に含まれる。
撮像部101は、把持対象物301を含む環境の画像を撮像し、視覚情報を入力部201に送出する。本実施形態では、先述のように、撮像部101のオートフォーカス機構が有効化されており、合焦後の焦点距離が視覚情報に含まれる。
(ステップS1015)
三次元情報算出部205は、入力部201が入力した視覚情報のうち、視差画像、焦点距離、画像中心、基線長を用いて、視差画像の各画素における三次元座標を算出する。その後、三次元情報算出部205は、算出した三次元情報について、入力画像と保持部203が保持する基準サイズ情報を参照して、三次元情報を修正する。
三次元情報算出部205は、入力部201が入力した視覚情報のうち、視差画像、焦点距離、画像中心、基線長を用いて、視差画像の各画素における三次元座標を算出する。その後、三次元情報算出部205は、算出した三次元情報について、入力画像と保持部203が保持する基準サイズ情報を参照して、三次元情報を修正する。
数式1によって算出される三次元座標の精度は、撮像部101から出力される焦点距離fの精度に依存する。焦点距離は、光学系制御モーターの回転角あるいは移動量によって規定される制御値から、ルックアップテーブルを参照することで算出される。しかしながら、回転角(あるいは移動量)の読取り値に含まれる誤差や、ルックアップテーブル作成時に発生する誤差によって、三次元座標の算出精度が低下する場合がある。この誤差を、例えばモーターに付随するエンコーダーを高精度化するなど、撮像部101の変更によって低減させるのはコスト増につながる。本実施形態では、撮像部101の構成を変えることなく、マーカー306を用いて、三次元座標を修正して精度を向上させる。以下、三次元座標を修正する方法について説明する。
三次元情報算出部205は、三次元情報を算出した後、入力画像から複数のマーカー306の画像座標を検出する。図12に示す画像から形状およびサイズが既知であるマーカー306を検出することは一般的な画像処理によって実現可能であり、各種手法を適用できる。
三次元情報算出部205は、検出した複数のマーカー306の画像座標から、既に算出した三次元座標を参照し、マーカー306相互の距離dmを算出する。三次元情報算出部205は、保持部203から基準サイズ情報として、事前に計測して設定されたマーカー306相互の距離drを読み出す。三次元情報算出部205は、数式2により、dmとdrを用いて三次元座標X(u,v),Y(u,v),Z(u,v)を補正し、補正後の三次元座標X’(u,v),Y’(u,v),Z’(u,v)を算出する。
X’(u,v)=X(u,v)・dr/dm
Y’(u,v)=Y(u,v)・dr/dm …(数式2)
Z’(u,v)=Z(u,v)・dr/dm
三次元情報算出部205は、算出した補正後の三次元座標X’(u,v),Y’(u,v),Z’(u,v)を検出部202に送出する。
X’(u,v)=X(u,v)・dr/dm
Y’(u,v)=Y(u,v)・dr/dm …(数式2)
Z’(u,v)=Z(u,v)・dr/dm
三次元情報算出部205は、算出した補正後の三次元座標X’(u,v),Y’(u,v),Z’(u,v)を検出部202に送出する。
以上の本実施形態の説明では、マーカー306に円形のものを用いる方法について説明したが、これに限られない。マーカー306に矩形のものを用いてもよいし、マーカー306の内部に固有の模様を付加し、個々のマーカー306を識別し、特定できるように構成してもよい。
また、本実施形態において、三次元情報算出部205は、マーカー306相互の距離を用いて、一度算出した三次元情報を補正する方法について説明したが、これに限られない。数式1にdr/dmを乗じてX、Y、Zを介さずに直接X’、Y’、Z’を算出してもよい。また、マーカー306相互の距離に替えて、複数のマーカー306の配置情報を用いることにより、マーカー306が配置されている平面(本実施例においては、供給トレイ304の底面)を定義するパラメータPmを算出することができる。一方、三次元情報算出部205が算出した三次元情報X、Y、Zから、供給トレイ304の底面を構成する平面パラメータPrを求め、PrをPmに一致させるように補正を行ってもよい。
また、本実施形態において、基準サイズ情報は、新たに設けたマーカー306相互の距離を用いる方法について説明したが、これに限られない。マーカー306を設けずに、供給トレイ304の一辺の長さや、把持対象物301の特定の部位の長さを基準サイズ情報としてもよい。三次元情報算出部205は、画像154cから供給トレイ304や把持対象物301の特定の部位を検出してその距離を算出し、基準サイズ情報と比較して三次元情報の補正を行ってもよい。
以上述べたように、本実施形態によれば、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。また、本実施形態においては、撮像部が備えるオートフォーカス機構による焦点距離の変動がある場合においても、高精度に三次元座標を算出できる。
(変形例)
本変形例では、撮像部101は、一回の撮像において、オートフォーカス機構によって光学系を合焦させるまでの間に、焦点距離を変更しながら複数回の撮像を行う。そして、この過程におけるすべての画像154cと焦点距離とを対応付けて保持しておき、これらを視覚情報に含めるようにする。すなわち、本変形例において、入力部201は、視覚情報として、視差画像、画像中心、基線長に加えて、さらにN枚の入力画像群と、対応するN個の合焦に至るまでの焦点距離を入力する。三次元情報算出部205は、N枚の入力画像群に対して、画素ごとに最もコントラストの高い画像番号M(0≦M≦N)に対応する焦点距離fm(u,v)を選択する。三次元情報算出部205は、数式1のfに替えてfm(u,v)を用いることで、より高精度な三次元座標を算出する。
本変形例では、撮像部101は、一回の撮像において、オートフォーカス機構によって光学系を合焦させるまでの間に、焦点距離を変更しながら複数回の撮像を行う。そして、この過程におけるすべての画像154cと焦点距離とを対応付けて保持しておき、これらを視覚情報に含めるようにする。すなわち、本変形例において、入力部201は、視覚情報として、視差画像、画像中心、基線長に加えて、さらにN枚の入力画像群と、対応するN個の合焦に至るまでの焦点距離を入力する。三次元情報算出部205は、N枚の入力画像群に対して、画素ごとに最もコントラストの高い画像番号M(0≦M≦N)に対応する焦点距離fm(u,v)を選択する。三次元情報算出部205は、数式1のfに替えてfm(u,v)を用いることで、より高精度な三次元座標を算出する。
(第5の実施形態)
本発明の第5の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、事前に撮像部と把持部との間の幾何変換パラメータを算出せず、撮像部の視野内に常に把持部が存在するようにシステムを構成し、ビジュアルサーボによって制御を行う。このような構成により、対象物を正確に把持する。
本発明の第5の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、事前に撮像部と把持部との間の幾何変換パラメータを算出せず、撮像部の視野内に常に把持部が存在するようにシステムを構成し、ビジュアルサーボによって制御を行う。このような構成により、対象物を正確に把持する。
本実施形態では、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部が把持対象物を含む空間の画像を取得する。三次元座標算出部は、入力した画像に基づき三次元座標を算出する。検出部は入力した画像と三次元座標に基づき把持対象物の三次元位置を検出する。制御部は、入力画像中で検出される対象物と把持部の位置関係に基づき、把持部を対象物に接近させる制御命令を生成する。把持部は制御命令に基づき、対象物への接近動作を行う。撮像部は再び画像を取得する。以上の撮像部と把持部の制御を短時間に繰り返し実行する。これにより、小型かつ低コストに情報処理装置を構成しつつも、事前に撮像部と把持部との間の幾何変換パラメータを算出することなく、把持装置によって対象物を正確かつ安定的に把持することが可能となる。これにより、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
以下、本発明の第5の実施形態の詳細について図面を参照しつつ説明する。なお、第1〜第4の実施形態で既に説明をした構成については同一の符号を付し、その説明は省略する。
本実施形態に係る情報処理システムの全体構成を示すブロック図は、図2の第1実施形態と同様である。ここでは、第1実施形態との相違点を中心に説明し、同じ構成の部分についてはその説明を省略する。
本実施形態において、撮像部101が出力する視覚情報には画像154a、154b、画像中心が含まれる。入力部201は、視覚情報として画像154a、154b、画像中心を情報処理装置200内部に取り込む。本実施形態においては、撮像部101の視野内に常にエンドエフェクタ303が存在するように撮像部101の画角や、ロボットアーム302に対する撮像部101の取り付け位置が定められている。すなわち、撮像する画像154a、154b中に、常にエンドエフェクタ303の像が写っていることになる。
検出部202は、入力部201が入力した画像154a、154b(以下、入力画像a、b)と、保持部203が保持している把持対象物301に関する物体情報をもとに、入力画像a、bのそれぞれで把持対象物301の中心の画像座標を検出する。また、それぞれの入力画像において、エンドエフェクタ303の先端の画像座標についても検出する。本実施形態では、把持対象物301の三次元座標については算出しない。
制御部204は、検出部202が検出した入力画像a、bにおける把持対象物301の位置に基づき、把持対象物301を把持できる位置(以下、目標位置)に把持部102を移動させる。制御部204は、把持部102が目標位置に達すると、把持対象物301を把持し、排出トレイ305へ搬送し、把持対象物301を解放して排出トレイ305に置載させるための制御を行う。制御部204は、把持部102を目標位置に接近させるための命令や、ロボットアーム302やエンドエフェクタ303を動作させるための命令を発行する。
以上のような構成を備えた本実施形態の情報処理システムにおいて、対象物を把持する制御について以下説明する。図13は、本実施形態に係る情報処理システムによる処理の流れを示すフローチャートである。本実施形態においては、ステップS1010からステップS1026までの処理を繰り返し反復実行する。
(ステップS1010)
撮像部101は、把持対象物301を含む環境の画像を撮像し、視覚情報を入力部201に送出する。入力部201は、撮像部101から視覚情報である画像154a、154b(入力画像a、b)、画像中心を情報処理装置200の内部に入力し、検出部202に送出する。
撮像部101は、把持対象物301を含む環境の画像を撮像し、視覚情報を入力部201に送出する。入力部201は、撮像部101から視覚情報である画像154a、154b(入力画像a、b)、画像中心を情報処理装置200の内部に入力し、検出部202に送出する。
(ステップS1020)
検出部202は、入力部201が入力した入力画像a、bをCNNに入力し、CNNから出力された把持対象物301の尤度画像に基づき入力画像a、b中から把持対象物301を検出する。そして、検出部202は、その画像座標をそれぞれ出力して、制御部204に送出する。
検出部202は、入力部201が入力した入力画像a、bをCNNに入力し、CNNから出力された把持対象物301の尤度画像に基づき入力画像a、b中から把持対象物301を検出する。そして、検出部202は、その画像座標をそれぞれ出力して、制御部204に送出する。
(ステップS1022)
制御部204は、検出部202が検出した入力画像a、bに対する把持対象物301の画像座標に基づき、把持部102に対して把持動作を行うため、把持部102を把持対象物301に接近させる命令を生成する。
制御部204は、検出部202が検出した入力画像a、bに対する把持対象物301の画像座標に基づき、把持部102に対して把持動作を行うため、把持部102を把持対象物301に接近させる命令を生成する。
図14は、本実施形態における画像154aおよび画像154b(入力画像a、b)の例を示している。制御部204は、ビジュアルサーボによって把持部102を把持対象物301に接近させる。図14において、入力画像aにおいて検出された把持対象物301の画像座標をta、入力画像bにおいて検出された同一の把持対象物301の画像座標をtbとする。また、それぞれの入力画像において検出されたエンドエフェクタ303の先端の画像座標をそれぞれea、ebとする。
制御部204は、把持対象物301の画像座標ta、tbを目標値として、エンドエフェクタ303先端の画像座標ea、ebを各々ta、tbに一致させる方向に、把持部102を把持対象物301に接近させるべく、把持部102への移動量を算出する。そして、制御部204は、算出した移動量に基づいて命令を発行する。本実施形態においては、ステップS1010からステップS1026までの処理を短時間に繰り返し実行する。そのため、微小時間内に把持部102の動作を完了させるべく、制御部204は現在のea、ebから目標値ta、tbに向けた方向へ、所定の微小時間での移動量を算出する。すなわち、一般的には、一度の移動でエンドエフェクタ303は目標値に到達しない。ステップS1010からステップS1026までの処理を繰り返すことによって、エンドエフェクタ303は把持対象物301の把持位置へと到達することになる。制御部204は、発行した命令を制御部102に送出する。
なお、次のステップS1024では、ステップS1022において算出した移動量に従って把持部102が移動する。そのため、次回のステップS1010を実行する際には、撮像部101は前回のステップS1010の時点と異なる視点位置から撮像を行うことになる。この視点位置においては、エンドエフェクタ303は、前回よりも把持対象物301に接近している。そのため、次回のステップS1022実行時には、把持部102の目標値は、前回の目標値とは異なる値に更新される。ステップS1010からステップS1026までの処理を繰り返すごとに、エンドエフェクタ303は次第に把持対象物301に接近する。
本実施形態においては、撮像部101も情報処理装置200も明示的な三次元計測を行わない。しかしながら、ステレオの対をなす入力画像a、bについて、同時にエンドエフェクタ303先端の画像座標と把持対象物301の画像座標とを一致させるような制御を行うため、三次元計測を行うのと同様の効果を得ることができる。図14において、初期段階では把持対象物301よりもエンドエフェクタ303が手前に存在するため、エンドエフェクタ303先端の視差|ea−eb|と把持対象物301の視差|ta−tb|を比較すると、|ea−eb|>|ta−tb|となる。ステップS1010からステップS1026までの処理を繰り返し実行することにより、|ea−eb|と|ta−tb|の差は次第に縮小していく。すなわち、エンドエフェクタ303と把持対象物301の奥行きも次第に近づいていき、最終的にエンドエフェクタ303は把持対象物301に至ることになる。
(ステップS1024)
把持部102は、制御部204からの命令に従って、ロボットアーム302を動作させる。
把持部102は、制御部204からの命令に従って、ロボットアーム302を動作させる。
(ステップS1026)
制御部204は、ロボットアーム302の移動量(あるいは移動速度)が十分小さくなった場合に、把持部102が把持対象物301の把持位置(目標値)に移動したと判断し、ステップS1030に進む。そうでない場合には、ステップS1010の処理に戻る。この場合、次回のステップS1010においては、ロボットアーム302が移動しているため、撮像部101は前回とは異なる視点位置から入力画像a、bを撮像することになる。
制御部204は、ロボットアーム302の移動量(あるいは移動速度)が十分小さくなった場合に、把持部102が把持対象物301の把持位置(目標値)に移動したと判断し、ステップS1030に進む。そうでない場合には、ステップS1010の処理に戻る。この場合、次回のステップS1010においては、ロボットアーム302が移動しているため、撮像部101は前回とは異なる視点位置から入力画像a、bを撮像することになる。
(ステップS1030)
ステップS1026までの処理により、把持部102は把持対象物301の把持位置に到達しているため、本実施形態のステップS1030では、制御部202は把持対象物301の把持位置に至る経路を生成しない。制御部204は、エンドエフェクタ303が把持対象物301を把持するための命令、把持対象物301を排出トレイ205まで搬送する命令、把持対象物301を開放する命令をそれぞれ生成し、把持部102へ送出する。
ステップS1026までの処理により、把持部102は把持対象物301の把持位置に到達しているため、本実施形態のステップS1030では、制御部202は把持対象物301の把持位置に至る経路を生成しない。制御部204は、エンドエフェクタ303が把持対象物301を把持するための命令、把持対象物301を排出トレイ205まで搬送する命令、把持対象物301を開放する命令をそれぞれ生成し、把持部102へ送出する。
なお、本実施形態において、撮像部101のオートフォーカス機構を有効化してもよい。ステップS1010からステップS1026までの処理を反復実行することによって、エンドエフェクタ303は把持対象物301に順次接近していくことになる。この過程で撮像部101の視点も把持対象物301に接近するため、合焦を維持したまま画像中の把持対象物301の像が拡大していき、反復を繰り返すごとに目標値が精緻化される。結果として、対象物を正確かつ安定的に把持できるようになる。
以上述べたように、本実施形態によれば、より小型に構成された撮像部を用いるシステムにおいても、無作為に配置された対象物に対して、対象物の位置を高精度に検出することができる。そのため、把持部によって対象物を正確かつ安定的に把持することが可能となる。
(変形例)
本実施例の撮像部101では、画像154a、154bに替えて、画像154cと視差画像あるは三次元座標を出力する。本変形例の場合、第2実施形態と同様に三次元情報算出部205を設け、三次元情報算出部205によって、把持対象物301の三次元空間中の位置を算出する。ステップS1022において、制御部204は把持対象物301の位置を示す三次元座標を目標値とし、エンドエフェクタ302の三次元座標を目標値に近づけるための制御を行う。
本実施例の撮像部101では、画像154a、154bに替えて、画像154cと視差画像あるは三次元座標を出力する。本変形例の場合、第2実施形態と同様に三次元情報算出部205を設け、三次元情報算出部205によって、把持対象物301の三次元空間中の位置を算出する。ステップS1022において、制御部204は把持対象物301の位置を示す三次元座標を目標値とし、エンドエフェクタ302の三次元座標を目標値に近づけるための制御を行う。
[第6の実施形態]
本発明の第6の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、操作部と表示部を備え、ユーザからの操作を入力し、動作状況をユーザに提示する。これにより、ユーザが所望する条件やタイミングで、対象物の把持や載置を行うことが可能となる。以下、本発明の第6の実施形態の詳細について図面を参照しつつ説明する。なお、第1〜第5の実施形態で既に説明をした構成については同一の符号を付し、その説明は省略する。
本発明の第6の実施形態では、ランダムな位置に配置された複数の対象物について、撮像部を用いて三次元位置を検出し、ロボットアーム等の把持部を用いて把持を行う場合に適用できるシステムについて説明する。本実施形態では、操作部と表示部を備え、ユーザからの操作を入力し、動作状況をユーザに提示する。これにより、ユーザが所望する条件やタイミングで、対象物の把持や載置を行うことが可能となる。以下、本発明の第6の実施形態の詳細について図面を参照しつつ説明する。なお、第1〜第5の実施形態で既に説明をした構成については同一の符号を付し、その説明は省略する。
図15は本実施形態に係る情報処理システムの全体構成を示すブロック図である。図6に示した第2実施形態と比較すると、操作部104および表示部105が追加されている。同図の説明では、第2実施形態との相違点を中心に説明し、第2の実施形態と同様の構成については説明を省略する。
操作部104は、キーボード、マウス、ボタン、ダイヤルなどの装置によって実現され、ユーザの指示、意図を操作として受け付け、情報処理装置200に伝達する。操作部104はユーザからの操作を入力し、入力した信号を入力部201に送出する。
表示部105は、ディスプレイなどの装置によって実現され、検出部202、制御部204、三次元情報算出部205からの情報を可視化して表示し、ユーザに提示する役割を果たす。
入力部201は、撮像部101からの入力に加えて、操作部104からの操作信号を情報処理装置200の内部に入力し、検出部202、制御部204、三次元情報算出部205に送出する。
制御部204は、把持部102の制御に加えて、操作部104からの操作信号に基づき、撮像部101の焦点距離または画角を変更する命令を撮像部101に送出する。
以上のような構成を備えた本実施形態の情報処理システムにおいて、対象物を把持する制御について以下説明する。本実施形態に係る情報処理システムによる処理の流れを示すフローチャートは図7(第2の実施形態)と同様であるため、その説明は省略する。
図16は、本実施形態において表示部105に表示される画面の例を示している。表示部105にはウィンドウ180が表示される。ウィンドウ180内には、撮像部101が現在撮像している画像154c、撮像部101の焦点距離および画角を操作するスライダ181a、181b、カーソル182、操作ボタン183a〜183dが表示されている。画像154cには、供給トレイ304内に積載された把持対象物301が映っており、ユーザは表示部105内に表示されているウィンドウ180によって、情報処理システムの現在の稼働状態を確認することができる。
スライダ181aは、ユーザが左右に移動させることにより、撮像部101の焦点距離を随時変更することができる。スライダ181bは、ユーザが左右に移動させることにより、撮像部101の画角を随時変更することができる。
カーソル182は、ユーザが画面上の任意の場所に移動させ、制御(把持)を行う対象物を選択するためのものである。例えば、供給トレイ304内に配置されている把持対象物301の一つの上にカーソル182を移動させ、ボタン183a(検出と表示されているボタン)を押すことによって、カーソル182が示す検出対象物301を明示的に検出する。より具体的には、操作部104は、カーソル182とボタン183aの操作情報を入力部201に送出する。入力部201は、カーソル182とボタン183aの操作情報を検出部202に送出する。検出部202は、カーソル182が選択している画像154cの座標を参照し、その最近傍に存在する把持対象物301を検出する。
同様に、ボタン183b、184cについても、制御部204が実行する処理の内容を制御し、ユーザが所望する特定の把持対象物301を把持させることや、実行するタイミングを変更することができるものである。また、ボタン183dは、ステップS1050の条件によらず、任意のタイミングで本実施形態における情報処理装置200の制御を終了することができるものである。
以上述べたように、本実施形態によれば、より小型に構成された撮像部を用いるシステムにおいて、ユーザが所望する条件やタイミングで、対象物の把持や載置を行うことが可能となる。
(変形例)
第6の実施形態の図16では、表示部105がウィンドウ180内に画像154cを表示する例について説明したが、これに限られない。画像154cに替えて画像153a、153bの片方あるいは両方を表示するようにしてもよいし、視差画像、デプスマップ、三次元座標を表示するようにしてもよい。また、画像154c上に検出部202が検出した把持対象物301の概形や座標を重畳して表示するようにしてもよいし、ロボットアーム302やエンドエフェクタ303の稼働域や稼働状況を表示するようにしてもよい。この場合、検出部202や制御部204が表示部105に情報を送出し、表示部105が入力した情報に基づき、ウィンドウ180を描画して表示する。
第6の実施形態の図16では、表示部105がウィンドウ180内に画像154cを表示する例について説明したが、これに限られない。画像154cに替えて画像153a、153bの片方あるいは両方を表示するようにしてもよいし、視差画像、デプスマップ、三次元座標を表示するようにしてもよい。また、画像154c上に検出部202が検出した把持対象物301の概形や座標を重畳して表示するようにしてもよいし、ロボットアーム302やエンドエフェクタ303の稼働域や稼働状況を表示するようにしてもよい。この場合、検出部202や制御部204が表示部105に情報を送出し、表示部105が入力した情報に基づき、ウィンドウ180を描画して表示する。
また、タッチパネル等の装置を用いて、ユーザが表示部105を直接操作できるようにしてもよい。この場合、タッチパネル等の装置が、操作部104と表示部105の両方の機能を実現していることになる。
[その他の実施形態]
上述した各実施形態における入力部201は、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部からの視覚情報を、情報処理装置に入力できる構成となっていれば特定の構成に限定されるものではない。また、入力部201が入力する、視覚情報に含まれる画像についても、RGBカラー画像、グレイスケール画像、白黒画像など、種々の種類の画像が適用可能である。
上述した各実施形態における入力部201は、撮像素子上の各々の受光部が2以上の受光素子によって構成される撮像部からの視覚情報を、情報処理装置に入力できる構成となっていれば特定の構成に限定されるものではない。また、入力部201が入力する、視覚情報に含まれる画像についても、RGBカラー画像、グレイスケール画像、白黒画像など、種々の種類の画像が適用可能である。
上述した各実施形態における検出部202は、撮像部が撮像した画像から、把持する対象物とその位置を特定するものであれば特定の構成に限定されるものではない。なお、検出部201により検出された画像座標から三次元座標を参照し、把持対象物の三次元空間内での位置を算出してもよいし、第5の実施形態のように三次元座標は用いずに把持対象物の位置を特定し、把持する方法であってもよい。
上述した各実施形態における保持部203は、検出部や制御部の動作に必要となる、静的な設定やパラメータを保持するものであれば、特定の構成に限定されるものではない。
上述した各実施形態における制御部204は、検出部202が検出した対象物を把持するために、実際に把持部が把持動作を実行するためのコマンドを生成して把持部を駆動するものであれば特定の構成に限定されるものではない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 撮像部
102 把持部
200 情報処理装置
201 入力部
202 検出部
203 保持部
204 制御部
102 把持部
200 情報処理装置
201 入力部
202 検出部
203 保持部
204 制御部
Claims (20)
- 撮像素子上の受光部が2以上の受光素子によって構成され、対象物を含む空間を撮像する撮像手段と、
前記撮像手段から出力された第1の情報を入力する入力手段と、
前記対象物に関する第2の情報を保持する保持手段と、
前記第1、第2の情報に基づき、前記対象物の位置を検出する検出手段と、
前記対象物を把持する把持手段と、
前記検出した前記対象物の位置に基づいて、前記把持手段の動作を制御する制御手段と、
を有することを特徴とする情報処理システム。 - 前記対象物を含む空間に対して所定のパターンを投影する投影手段を更に有することを特徴とする請求項1に記載の情報処理システム。
- 前記第1の情報は、前記2以上の受光素子それぞれの出力に基づいて生成された2以上の画像に基づいて前記撮像手段により求められた前記対象物の三次元座標を含むことを特徴とする請求項1または2に記載の情報処理システム。
- 前記対象物の三次元座標を算出する算出手段を更に有し、
前記第1の情報は、前記2以上の受光素子それぞれの出力に基づいて2以上の画像もしくは当該2以上の画像に基づいて生成された視差画像と、視差と、焦点距離と、基線長とを含み、
前記算出手段は、前記第1の情報に基づいて、前記対象物の三次元座標を算出することを特徴とする請求項1または2に記載の情報処理システム。 - 前記撮像手段は、光学系の焦点距離または画角を変更する機能を有することを特徴とする請求項4に記載の情報処理システム。
- 前記撮像手段は、前記光学系の駆動量に基づいて前記焦点距離を算出することを特徴とする請求項5に記載の情報処理システム。
- 前記算出手段は、前記空間に配置された指標の既知の幾何情報に基づき、前記空間の三次元座標を算出することを特徴とする請求項5または6に記載の情報処理システム。
- 前記第1の情報は、焦点距離が異なる複数の画像と前記複数の画像それぞれの焦点距離とが対応付けられた情報を含み、
前記算出手段は、前記焦点距離が異なる複数の画像と前記複数の画像それぞれの焦点距離とが対応付けられた情報に基づき、前記空間の三次元座標を算出することを特徴とする請求項5から7のいずれか1項に記載の情報処理システム。 - 前記制御手段は、前記把持手段の動作に係る情報を生成することにより前記把持手段を制御することを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。
- 前記制御手段は、前記把持手段を目標の位置に移動させる処理と、前記把持手段を含む画像に基づいて前記把持手段の位置を検出する処理とを繰り返し実行することにより、前記把持手段の動作を制御することを特徴とする請求項1から8のいずれか1項に記載の情報処理システム。
- 前記第1の情報は、前記2以上の受光素子の両方の出力に基づいて生成された画像を含み、
前記検出手段は、前記2以上の受光素子の両方の出力に基づいて生成された画像と、前記第2の情報とを、Convolutional Neural Networkに入力することにより、前記対象物の位置を検出することを特徴とする請求項1から10のいずれか1項に記載の情報処理システム。 - 前記検出手段は、更に、前記第1、第2の情報に基づき、前記対象物の姿勢を検出し、
前記制御手段は、前記検出した前記対象物の位置と姿勢とに基づいて、前記把持手段の動作を制御することを特徴とする請求項1から11のいずれか1項に記載の情報処理システム。 - 前記制御手段の制御に対するユーザの指示を、前記ユーザの操作によって受け付ける操作手段を更に有することを特徴とする請求項1から12のいずれか1項に記載の情報処理システム。
- 前記制御手段は、前記操作手段に対するユーザの操作に基づいて、前記撮像手段の焦点距離を変更することを特徴とする請求項13に記載の情報処理システム。
- 前記制御手段は、前記操作手段に対するユーザの操作に基づいて、前記撮像手段の画角を変更することを特徴とする請求項13または14に記載の情報処理システム。
- 前記検出手段は、前記操作手段に対するユーザの操作に基づいて、複数の対象物のうちの少なくとも1つの対象物に関し、当該対象物の位置を検出し、
前記制御手段は、前記検出手段が検出した対象物の位置に基づいて、前記把持手段の動作を制御することを特徴とする請求項13から15のいずれか1項に記載の情報処理システム。 - 前記第1の情報、前記第2の情報、前記対象物の位置、前記撮像手段の状態、前記把持手段の状態のうちの少なくとも1つを表示する表示手段を更に有することを特徴とする請求項1から16のいずれか1項に記載の情報処理システム。
- 撮像素子上の受光部が2以上の受光素子によって構成され、対象物を撮像するための撮像手段から出力された第1の情報を入力する入力手段と、
前記対象物に関する第2の情報を保持する保持手段と、
前記第1、第2の情報に基づき、前記対象物の位置を検出する検出手段と、
前記検出した前記対象物の位置に基づいて、前記対象物を把持するための把持手段の動作を制御する制御手段と、
を有することを特徴とする情報処理装置。 - 撮像素子上の受光部が2以上の受光素子によって構成された撮像手段を用いて、対象物を含む空間を撮像するステップと、
前記撮像手段から出力された第1の情報を入力するステップと、
前記対象物に関する第2の情報を保持するステップと、
前記第1、第2の情報に基づき、前記対象物の位置を検出するステップと、
前記検出した前記対象物の位置に基づいて、前記対象物を把持する把持手段の動作を制御するステップと、
を有することを特徴とする情報処理方法。 - コンピュータを請求項18に記載の情報処理装置として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003814A JP2019125056A (ja) | 2018-01-12 | 2018-01-12 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
PCT/JP2018/047026 WO2019138835A1 (ja) | 2018-01-12 | 2018-12-20 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018003814A JP2019125056A (ja) | 2018-01-12 | 2018-01-12 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019125056A true JP2019125056A (ja) | 2019-07-25 |
Family
ID=67218959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018003814A Pending JP2019125056A (ja) | 2018-01-12 | 2018-01-12 | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019125056A (ja) |
WO (1) | WO2019138835A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008441A1 (ja) * | 2021-07-26 | 2023-02-02 | 京セラ株式会社 | 情報処理装置、情報処理方法、撮像装置、及び情報処理システム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7341238B2 (ja) * | 2019-07-23 | 2023-09-08 | 株式会社Fuji | 自動組立システム |
EP4094904B1 (en) * | 2020-01-23 | 2024-05-15 | OMRON Corporation | Robot system control device, robot system control method, computer control program, and robot system |
CN114694125B (zh) * | 2022-05-31 | 2022-08-26 | 杭州蓝芯科技有限公司 | 一种用于轨道异物识别的数据处理方法 |
WO2024090328A1 (ja) * | 2022-10-24 | 2024-05-02 | ソフトバンクグループ株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0674762A (ja) * | 1992-08-31 | 1994-03-18 | Olympus Optical Co Ltd | 距離測定装置 |
JPH1199491A (ja) * | 1997-09-26 | 1999-04-13 | Toyoda Mach Works Ltd | ロボット制御装置 |
JP4858263B2 (ja) * | 2007-03-28 | 2012-01-18 | 株式会社日立製作所 | 3次元計測装置 |
JP5224124B2 (ja) * | 2007-12-12 | 2013-07-03 | ソニー株式会社 | 撮像装置 |
JP2017202549A (ja) * | 2016-05-11 | 2017-11-16 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、及びロボットシステム |
-
2018
- 2018-01-12 JP JP2018003814A patent/JP2019125056A/ja active Pending
- 2018-12-20 WO PCT/JP2018/047026 patent/WO2019138835A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008441A1 (ja) * | 2021-07-26 | 2023-02-02 | 京セラ株式会社 | 情報処理装置、情報処理方法、撮像装置、及び情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
WO2019138835A1 (ja) | 2019-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019138835A1 (ja) | 情報処理システム、情報処理装置、情報処理方法及びプログラム | |
TWI521255B (zh) | 自動對焦方法、其自動對焦裝置和其影像擷取裝置 | |
Pauwels et al. | Simtrack: A simulation-based framework for scalable real-time object pose detection and tracking | |
JP5567908B2 (ja) | 3次元計測装置、その計測方法及びプログラム | |
JP5911934B2 (ja) | 輪郭線計測装置およびロボットシステム | |
JP6092530B2 (ja) | 画像処理装置、画像処理方法 | |
JP2011123071A (ja) | 撮像装置、オクルージョン領域の探索方法、及びプログラム | |
JP2015225340A (ja) | カメラのフォーカスを合わせるための方法、装置、システム、およびソフトウェア | |
JP2016528479A (ja) | 4つのledのパターンによるポーズの決定 | |
WO2019193859A1 (ja) | カメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラム | |
KR101639065B1 (ko) | 가상 공간과 실제 공간을 정합하기 위한 시스템과, 디스플레이 장치와 영상 센서를 정합하기 위한 방법과, 그 방법을 이용해 정합된 전자 장치 | |
JP2017144498A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
CN108007426A (zh) | 一种摄像头测距方法和系统 | |
CN113298886A (zh) | 一种投影仪的标定方法 | |
US20140094951A1 (en) | Working unit control device, working robot, working unit control method, and working unit control program | |
JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN111784842B (zh) | 三维重建方法、装置、设备及可读储存介质 | |
JP2007033087A (ja) | キャリブレーション装置及び方法 | |
JP2020191624A (ja) | 電子機器およびその制御方法 | |
US20220188993A1 (en) | Control apparatus, photographing apparatus, control method, and program | |
WO2021031833A1 (zh) | 控制装置、摄像系统、控制方法以及程序 | |
JP6768997B1 (ja) | 制御装置、撮像装置、移動体、制御方法、及びプログラム | |
CN112102506B (zh) | 物体的采样点集合的获取方法、装置、设备以及存储介质 | |
JP2020131296A (ja) | 制御装置及びプログラム | |
WO2005080915A1 (ja) | 3次元形状検出装置および撮像装置 |