WO2020065717A1 - 情報処理装置、情報処理システム、および物体情報取得方法 - Google Patents

情報処理装置、情報処理システム、および物体情報取得方法 Download PDF

Info

Publication number
WO2020065717A1
WO2020065717A1 PCT/JP2018/035415 JP2018035415W WO2020065717A1 WO 2020065717 A1 WO2020065717 A1 WO 2020065717A1 JP 2018035415 W JP2018035415 W JP 2018035415W WO 2020065717 A1 WO2020065717 A1 WO 2020065717A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
information processing
acquisition unit
normal vector
force
Prior art date
Application number
PCT/JP2018/035415
Other languages
English (en)
French (fr)
Inventor
和田 信也
隆行 石田
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to PCT/JP2018/035415 priority Critical patent/WO2020065717A1/ja
Publication of WO2020065717A1 publication Critical patent/WO2020065717A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G9/00Methods of, or apparatus for, the determination of weight, not provided for in groups G01G1/00 - G01G7/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N19/00Investigating materials by mechanical methods
    • G01N19/02Measuring coefficient of friction between materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N3/00Investigating strength properties of solid materials by application of mechanical stress
    • G01N3/40Investigating hardness or rebound hardness

Definitions

  • the softness of the object 8 is determined based on the magnitude of the force applied when the object is gripped and the amount of deformation of the object 8.
  • the force applied by the robot 18 to the object 8 may be known under the control of the information processing device 10 itself, or may be derived from the value of a pressure sensor provided at the tip of the robot hand. In the latter case, the object information acquisition unit 56 acquires a sensor measurement value from the robot 18.
  • the zenith angle ⁇ has the following relationship with the degree of polarization ⁇ s for specular reflection and the degree of polarization ⁇ d for diffuse reflection.
  • the figures are naturally drawn by that number.
  • the user can move the robot 18 via a controller or the like so that the user can hold the object 8 at an appropriate position. Thereby, the object 8 can be stably gripped and lifted or carried.
  • the information processing apparatus 10 may directly control the robot 18 without generating the holding position presentation image 90.
  • the collision posture acquisition unit 68 acquires the positional relationship between the robot 140a and the object 142, and predicts the collision time and the collision position 144 based on the positional relationship. I do.
  • the distribution of the normal vector of the object 142 approaching by the robot 140a is acquired from the normal acquisition unit 62.
  • the collision posture acquisition unit 68 further predicts the direction in which the robot 140a will rebound after the collision, and thus the direction in which the robot 140b will fall. More specifically, it is predicted that the light is rebounded symmetrically with respect to the normal vector n in the collision direction.

Abstract

情報処理装置10の画像取得部50は、物体を撮影してなる複数方位の偏光画像を取得する。画像解析部54は、撮影画像に写る物体表面の法線ベクトルを取得する。把持位置取得部64は、法線ベクトルと逆方向に力を加えたときのつり合いに基づき、ロボットが物体を把持する際の適切な把持位置を取得する。物性取得部66は、ロボットが物体を把持した状態における、重力との力のつり合いなどに基づき、物体の質量、摩擦係数、柔らかさを取得する。衝突姿勢取得部68は、ロボットが物体に衝突したときの跳ね返りの方向を予測し、それに応じてロボットがとるべき姿勢を取得する。出力データ生成部58は、取得した各種情報に基づきデータを生成し出力する。

Description

情報処理装置、情報処理システム、および物体情報取得方法
 本発明は、撮影画像を用いて物体の情報を取得する情報処理装置および物体情報取得方法に関する。
 物流や製造ラインなど様々な分野でロボットが活用されている。単純作業を行う従来のロボットから、様々な状況変化に対応可能なロボットへと進化が進み、これまで以上の広い分野での導入が見込まれている。
 ロボットを臨機応変に動作させるには、撮影画像を用いた被写空間の認識技術が有効である。しかしながらロボットに物を把持させたり運搬させたりする場合、限られた視点からの見かけの形状のみから、どのように把持するのが最適であるかを導出することは難しい。また見かけの形状のみから、質量、摩擦係数、柔らかさなどの物性を取得することも困難である。したがって、未知の物体でもそれらの特性を容易に取得し、適切に扱うことのできる技術が求められている。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像を用いて物体の特性を容易に取得できる技術を提供することにある。本発明の別の目的は、そのような特性に基づきロボットを適切に動作させる技術を提供することにある。
 本発明のある態様は情報処理装置に関する。この情報処理装置は、物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得する画像解析部と、法線ベクトルに基づき、物体表面に加える外力の釣り合いを計算し、それに基づき物体に係る情報を取得する物体情報取得部と、物体に係る情報に基づき出力すべきデータを生成して出力する出力データ生成部と、を備えたことを特徴とする。
 本発明の別の態様は情報処理システムに関する。この情報処理システムは、物体を把持する機構を有するロボットと、ロボットを制御する情報処理装置と、を含み、情報処理装置は、物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得する画像解析部と、物体表面の複数の位置に、法線ベクトルと逆方向の力を加えたときにその力がつり合い、かつ力のモーメントが0となる当該位置を、適切な把持位置として決定する物体情報取得部と、適切な把持位置で物体を把持するように制御する信号をロボットに送信する出力データ生成部と、を備えたことを特徴とする。
 本発明のさらに別の態様は物体情報取得方法に関する。この物体情報取得方法は情報処理装置が、物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得するステップと、法線ベクトルに基づき、物体表面に加える外力の釣り合いを計算し、それに基づき物体に係る情報を取得するステップと、物体に係る情報に基づき出力すべきデータを生成して出力するステップと、を含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置などの間で変換したものもまた、本発明の態様として有効である。
 本発明によると、撮影画像を用いて物体の特性を容易に取得できる。また、当該特性に基づきロボットを適切に動作させることができる。
本実施の形態における情報処理システムの構成例を示す図である。 本実施の形態における情報処理装置の内部回路構成を示す図である。 本実施の形態における情報処理装置の機能ブロックの構成を示す図である。 本実施の形態の撮像装置に導入できる、偏光子層を有する撮像素子の構造例を示す図である。 本実施の形態において物体情報取得部の把持位置取得部が、物体の最適な把持位置を決定する規則を説明するための図である。 本実施の形態における物体情報取得部の把持位置取得部が、物体の最適な把持位置を決定する別の規則を説明するための図である。 本実施の形態における出力データ生成部が、ユーザに適切な把持位置を提示するために生成する表示画像を例示する図である。 本実施の形態における物体情報取得部の物性取得部が、物体の質量を取得する手法を説明するための図である。 本実施の形態における物体情報取得部の物性取得部が、物体の摩擦係数を取得する手法を説明するための図である。 本実施の形態における物体情報取得部の物性取得部が、物体の柔らかさを取得する手法を説明するための図である。 本実施の形態における物体情報取得部の把持位置取得部が、物体の柔らかさを考慮して把持位置を決定する手法を説明するための図である。 本実施の形態における衝突姿勢取得部が、物体に衝突するロボットの姿勢を適切に制御する手法を説明するための図である。 本実施の形態において、情報処理装置が物体とロボットとのインタラクションに基づく情報を出力する処理手順を示すフローチャートである。
 図1は、本実施の形態における情報処理システムの構成例を示している。このシステムは、物体8を把持可能なロボット18、物体8を含む空間を撮影する撮像装置12、撮像装置12が撮影した画像を解析することにより、物体8に係る情報を取得したりロボット18の動作計画を立てたりする情報処理装置10、情報処理装置10の処理の結果や処理に必要な情報を得るための画像を表示させる表示装置16を含む。
 情報処理装置10は物体8に係る情報として、ロボット18が把持する際の最適な把持位置(力点)、質量、摩擦係数、柔らかさの少なくともいずれかを取得する。最適な把持位置を取得する場合、情報処理装置10はその結果を表示装置16に表示させることにより、ユーザがそれを見ながら図示しないコントローラでロボット18を遠隔操作し、物体8を把持できるようにする。あるいは情報処理装置10はロボット18に直接、信号を送信することにより、ロボット18が物体8を適切に把持できるように制御する。
 物体の質量、摩擦係数、柔らかさを取得する場合、情報処理装置10は取得した結果を物体8の情報として表示装置16に表示させる。情報処理装置10は、これらのパラメータを取得する目的でも、ロボット18に物体8を把持させる。この場合も上述のとおり、ユーザがロボット18に物体8を把持させるように、表示画像を介して促してもよいし、情報処理装置10が直接、ロボット18を制御してもよい。情報処理装置10は得られたパラメータを利用して、より適切な把持位置を求め直してもよい。
 あるいは取得したパラメータに基づき物体を選別したり検品したりしてもよい。この場合、情報処理システムは検品システム、物体選別システムとして実現される。このように本実施の形態の情報処理システムの目的は特に限定されず、それによって情報処理装置10が出力するデータも様々となる。例えば情報処理装置10がロボット18を直接制御し、ユーザに情報を提示する必要がなければ表示装置16をシステムに含めなくてもよい。またロボット18、撮像装置12、情報処理装置10、表示装置16の形状は図示するものに限らない。
 例えばロボット18を、撮像装置12、情報処理装置10を備える装置としてもよい。またロボット18は、2点以上の位置で挟み込むような力を加えることにより物体8を把持する、いわゆるロボットハンドを有している限りその形状は限定されず、図示するようにロボットハンドを主体とする形状でもよいし、頭、胴体、足なども備えた人型のロボットなどでもよい。例えばロボット18の底面に車輪を設けるなどして走行可能なロボットとしてもよい。この場合、情報処理装置10はさらに、ロボット18の物体8への衝突を予測し、取得した物体8の特性に従って適切な姿勢をとるようロボット18を制御してもよい。
 以上述べた情報処理装置10の機能は、そのうちのいずれか1つのみを実現してもよいし、2つ以上を組み合わせて実現してもよい。情報処理装置10と、撮像装置12および表示装置16は、有線または無線で、既存のプロトコルにより通信を確立する。ロボット18を直接制御する場合、情報処理装置10はロボット18とも通信を確立する。
 図2は、情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、ロボット18や表示装置16へデータを出力する出力部36、撮像装置12からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
 CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、図示しないフレームバッファに表示画像のデータを格納する。
 そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。なお上述のとおり本実施の形態には様々な用途が考えられる。そのため用途に応じた処理結果の出力形態によって、図示する構成の一部を省略したり別の回路に置き換えたりしてよい。
 図3は、本実施の形態における情報処理装置10の機能ブロックの構成を示している。同図においてさまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、図2で示したCPU23、GPU24、メインメモリ26等の各主回路で構成することができ、ソフトウェア的には、記録媒体駆動部40により駆動される記録媒体や記憶部34からメインメモリ26にロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 情報処理装置10は、撮像装置12から撮影画像のデータを取得する画像取得部50、取得した画像のデータを格納する画像データ記憶部52、撮影画像を解析し物体8に係る情報を取得する画像解析部54、ロボット18が加える外力を加味して物体8に係る情報を取得する物体情報取得部56、物体8への衝突に際しロボット18の適切な姿勢を決定する衝突姿勢取得部68、および出力すべきデータを生成し出力する出力データ生成部58を含む。
 画像取得部50は図2の入力部38、CPU23などで実現され、撮像装置12から撮影画像のデータを取得する。本実施の形態では被写体表面の法線ベクトルを取得するため、撮像装置12は少なくとも被写空間の3方位の偏光画像を撮影し、画像取得部50は当該偏光画像のデータを取得する。偏光画像は、撮像装置12の前面に配置した直線偏光板を回転させ、所定の方向で停止させる都度、撮影することにより取得してもよいし、後述するように偏光子層を備えた撮像素子を含むイメージセンサを導入することにより取得してもよい。後者の場合、一度の撮影で複数方位の偏光画像を取得できる。
 出力する表示画像に撮影画像を用いる場合など、情報処理の目的や画像解析の内容によっては、撮像装置12が一般的な自然光のカラー画像も同時に撮影することにより、画像取得部50は当該画像のデータも取得してよい。ただし自然光の画像は、複数方位の偏光画像同士を加算することによっても得られる。また撮像装置12を、既知の間隔で設けた2つのカメラからなるステレオカメラとし、画像取得部50は、それらのカメラが撮影した左右に視差を有するステレオ画像のデータを取得してもよい。
 画像データ記憶部52はメインメモリ26で実現され、画像取得部50が取得した撮影画像のデータを順次格納する。このとき画像取得部50は後段の処理における必要性に応じて、偏光画像から自然光の画像を生成したり、カラー画像から輝度画像を生成したりして、画像データ記憶部52に適宜格納してよい。画像解析部54は図2のCPU23、GPU24、メインメモリ26などで実現され、撮影画像を解析することにより被写体に係る情報を取得する。
 より詳細には画像解析部54は、像検出部60と法線取得部62を含む。像検出部60は撮影画像に写っている被写体のうち対象となる物体8の像を検出する。ここで対象となる物体とは、基本的にはロボット18が把持すべき物、または把持している物である。把持すべき物は例えば、ロボット18に最も近い物、表示装置16に表示させた撮影画像のうちユーザが指定した物、特定のバーコードやタグのついた物、所定の色、形状、サイズを有する物など、所定の規則で被写体から選択した物である。
 ロボット18からの距離を基準として物体の像を検出する場合、像検出部60は例えば、画像データ記憶部52に格納されたステレオ画像を用いて被写体の3次元空間での位置を特定する。撮像装置12をロボット18とは別の個体として設ける場合、当該被写体にはロボット18も含まれる。そして3次元空間での距離に基づき、ロボット18からの距離が所定の条件を満たす物体の像を特定する。ステレオ画像から対応点を抽出し、画像上でのずれ量から三角測量の原理で対象物までの距離を取得する手法は一般的に知られている。
 ユーザの指定に基づく場合、像検出部60は撮影画像を表示装置16に表示させ、図示しない入力装置を介した指定操作を受け付ける。このとき表示する画像は、複数方位の偏光画像を加算して生成したものでもよいし、別途撮影された自然光の画像でもよい。タグや色、形状など外観から対象物を決定する場合は、例えばそのテンプレート画像を準備しておき一般的なマッチング処理により像を検出する。
 法線取得部62は、偏光画像を用いて、像検出部60が検出した物体8の表面の法線ベクトルを取得する。偏光強度の方位に対する振る舞いが被写体からの光の反射角度に依存することを利用して、被写体表面の法線を求める手法は一般的に知られている。詳細は後に述べる。
 物体情報取得部56は図2のCPU23、メインメモリ26などで実現され、ロボット18が物体8を把持することによって加わる力のつり合いに基づき、物体8の特性を取得する。より詳細には物体情報取得部56は、把持位置取得部64と物性取得部66を含む。把持位置取得部64は、物体8の法線ベクトルと逆方向に力を加えたときの力のつり合いがとれるような力点の位置を、適切な把持位置として求める。力が加わることにより対象物が変形する場合、把持位置取得部64はその変形の様子から、把持が持続可能か否かを判定し、持続できないと判定した場合は再度、適切な把持位置を取得し直す。
 物性取得部66は、ロボット18が物体8を把持している状態における力のつり合いや変形の様子に基づき、物体8の質量、摩擦係数、柔らかさ、といった物性の少なくともいずれかを取得する。すなわち把持位置取得部64が取得した適切な把持位置で、法線ベクトルと逆方向の力で物体8を把持させたとき、重力と加えた力とのつり合いを表す方程式を立てることにより、物体8の質量や摩擦係数を求める。
 また把持したときに加えた力の大きさと物体8の変形量に基づき、物体8の柔らかさを求める。ロボット18が物体8に加える力は、情報処理装置10自体が制御することにより既知としてもよいし、ロボットハンドの先端に設けた圧力センサの値から導出してもよい。後者の場合、物体情報取得部56は、ロボット18からセンサの計測値を取得する。
 衝突姿勢取得部68は、物体情報取得部56が取得した物体8の法線ベクトルに基づき、ロボット18が移動して物体8に衝突したときの跳ね返りの方向、転倒の方向を予測する。そしてロボット18が実際に衝突、転倒しても、ダメージが最小限に抑えられるように、衝突に際しとるべき姿勢を決定する。例えば、センサ、回路、関節などロボット18が有する重要な機能を備える部位が転倒により破壊されないように、その他の部位から転倒するような姿勢をとらせる。あるいはユーザから見て面白いと感じるような転び方となるような姿勢をとらせることにより、娯楽性を演出してもよい。
 出力データ生成部58は、図2のCPU23、GPU24、出力部36、通信部32などで実現し、物体情報取得部56や衝突姿勢取得部68が取得した情報に基づきロボット18への制御信号や、ユーザに提示する画像や音声など、出力すべきデータを生成する。例えば出力データ生成部58は、把持位置取得部64が取得した、適切な把持位置で物体8を把持させる制御信号を生成する。または、衝突姿勢取得部68が決定した姿勢をとらせる制御信号を生成する。
 あるいはユーザがロボット18を遠隔操作している場合に、出力データ生成部58は、物体8の像とともに適切な把持位置を示す表示画像を生成する。出力データ生成部58はまた、取得された物体8の物性やそれに基づく識別結果などを示す画像や音声、それらの情報を利用してゲームなどを進捗させた結果を表す画像や音声などを生成してもよい。出力データ生成部58は生成した制御信号をロボット18に、画像や音声のデータを表示装置16に、適宜出力する。
 なお情報処理装置10は、図示する全ての機能を備えてもよいし、使用目的によって一部の機能のみを備えてもよい。例えばロボットに物体を把持させたり運搬させたりすることのみで足りる場合、物性取得部66や衝突姿勢取得部68を省略できる。逆に物体を把持したり、物性を取得したりする必要がなければ、物体情報取得部56を省略してもよい。ただし適切な把持位置、物体の物性、ロボットが物体に衝突したときの最適な姿勢の情報を全て用いて、物体とのインタラクションにおいてロボットを適切に動作させられるようにすることで、各種業務やエンタテインメントの分野で幅広くロボットを活用できるようになる。
 図4は、撮像装置12に導入できる、偏光子層を有する撮像素子の構造例を示している。なお同図は素子断面の機能的な構造を模式的に示しており、層間絶縁膜や配線などの詳細な構造は省略している。撮像素子110はマイクロレンズ層112、ワイヤグリッド型偏光子層114、カラーフィルター層116、および光検出層118を含む。ワイヤグリッド型偏光子層114は、複数の線状の導体部材を入射光の波長より小さい間隔でストライプ状に配列させた偏光子を含む。マイクロレンズ層112により集光された光がワイヤグリッド型偏光子層114に入射すると、偏光子のラインと平行な方位の偏光成分は反射され、垂直な偏光成分のみが透過する。
 透過した偏光成分を光検出層118で検出することにより偏光画像が取得される。光検出層118は一般的なCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子構造を有する。ワイヤグリッド型偏光子層114は、光検出層118における電荷の読み取り単位、すなわち画素単位、あるいはそれより大きな単位で主軸角度が異なるような偏光子の配列を含む。同図右側には、ワイヤグリッド型偏光子層114を上面から見たときの偏光子配列120を例示している。
 同図において網掛けされたラインが偏光子を構成する導体(ワイヤ)である。なお点線の矩形はそれぞれ一主軸角度の偏光子の領域を表しており、点線自体は実際に形成されるものではない。図示する例では、4通りの主軸角度の偏光子が2行2列の4つの領域122a、122b、122c、122dに配置されている。図中、対角線上にある偏光子はその主軸角度が直交しており、隣り合う偏光子は45°の差を有する。すなわち45°おきの4つの主軸角度の偏光子を設けている。
 各偏光子はワイヤの方向に直交する方向の偏光成分を透過する。これにより、下に設けた光検出層118においては、4つの領域122a、122b、122c、122dに対応する各領域で、45°おきの4方位の偏光情報を得ることができる。このような4つの主軸角度の偏光子配列をさらに縦方向、横方向に所定数、配列させ、電荷読み出しのタイミングを制御する周辺回路を接続することにより、4種類の偏光情報を2次元データとして同時に取得するイメージセンサを実現できる。
 同図に示す撮像素子110では、ワイヤグリッド型偏光子層114と光検出層118の間にカラーフィルター層116を設けている。カラーフィルター層116は、例えば各画素に対応させて赤、緑、青の光をそれぞれ透過するフィルタの配列を含む。これにより、上下に位置するワイヤグリッド型偏光子層114における偏光子の主軸角度とカラーフィルター層116におけるフィルタの色の組み合わせに応じて、偏光情報が色別に得られる。すなわち同一方位かつ同一色の偏光情報が画像平面上で離散的に得られるため、それを適宜補間することにより、方位ごとおよび色ごとの偏光画像が得られる。
 また同一色の偏光画像どうしを演算することにより、無偏光のカラー画像を再現することもできる。ワイヤグリッド型偏光子を用いた画像取得技術については、例えば特開2012-80065号公報などにも開示されている。ただし本実施の形態における撮像装置12の素子構造は図示するものに限らない。例えば本実施の形態における対象物の状態の特定には基本的に偏光輝度画像を用いるため、その他の用途でカラー画像が必要なければカラーフィルター層116を省略することもできる。また偏光子はワイヤグリッド型に限らず、線二色性偏光子など実用化されているもののいずれでもよい。あるいは上述のとおり、一般的なカメラの前面に偏光板を配置した構造としてもよい。
 偏光画像を利用して被写体の様々な情報を取得する技術は従来、研究が進められている。被写体表面の法線ベクトルを求める方法についても、例えば、Gary Atkinson and Edwin R. Hancock, "Recovery of Surface Orientation from Diffuse Polarization", IEEE Transactions on Image Processing, June 2006, 15(6), pp.1653-1664、特開2009-58533号公報などに開示されており、本実施の形態ではそれを適用してよい。以下、法線取得部62が偏光画像を用いて法線ベクトルを取得する手法の概要を説明する。
 まず偏光子を介して観察される光の輝度は、偏光子の主軸角度θpolに対し次の式のように変化する。
Figure JPOXMLDOC01-appb-M000001
 ここでImax、Iminはそれぞれ、観測される輝度の最大値、最小値であり、φは偏光位相である。上述のとおり4通りの主軸角度θpolに対し偏光画像を取得した場合、同じ位置にある画素の輝度Iは、各主軸角度θpolに対し式1を満たすことになる。したがって、それらの座標(I,θpol)を通る曲線を、最小二乗法等を用いて余弦関数に近似することにより、Imax、Imin、φを求めることができる。そのように求めたImax、Iminを用いて、次の式により偏光度ρが求められる。
Figure JPOXMLDOC01-appb-M000002
 物体表面の法線は、光の入射面(拡散反射の場合は出射面)の角度を表す方位角αと、当該面上での角度を表す天頂角θで表現できる。また二色性反射モデルによれば、反射光のスペクトルは、鏡面反射と拡散反射のスペクトルの線形和で表される。ここで鏡面反射は物体の表面で正反射する光であり、拡散反射は物体を構成する色素粒子により散乱された光である。上述の方位角αは、鏡面反射の場合は式1において最小輝度Iminを与える主軸角度であり、拡散反射の場合は式1において最大輝度Imaxを与える主軸角度である。
 天頂角θは、鏡面反射の場合の偏光度ρ、拡散反射の場合の偏光度ρと、それぞれ次のような関係にある。
Figure JPOXMLDOC01-appb-M000003
 ここでnは対象物の屈折率である。式2で得られる偏光度ρを式3のρ、ρのどちらかに代入することにより天頂角θが得られる。こうして得られた方位角α、天頂角θにより、法線ベクトル(p,p,p)は次のように得られる。
Figure JPOXMLDOC01-appb-M000004
 なお観測される光において鏡面反射が支配的か拡散反射が支配的かは、想定される物体8の材質などに基づきあらかじめ設定しておいてもよいし、偏光度ρに基づき推定してもよい。鏡面反射が支配的な場合、偏光度ρが高くなりやすいことが知られている。したがって偏光度ρにしきい値を設定しておき、それを超える偏光度が得られる場合は鏡面反射、それ以外を拡散反射と判定することで、方位角αおよび天頂角θを求めてもよい。
 図5は、物体情報取得部56の把持位置取得部64が、物体の最適な把持位置を決定する規則を説明するための図である。前提として画像解析部54の法線取得部62は、同図(a)に点線矢印で示すように、物体70の法線ベクトルの分布を上述のとおり取得している。なお図では離散的な矢印を示しているが、実際には撮影された物体の像を構成する画素単位で法線ベクトルを取得できる。また法線ベクトルは3次元のパラメータである。
 把持位置取得部64は、ロボット18のロボットハンドにより物体70を2点で把持する場合の適切な把持位置を、次のように決定する。
(1)法線ベクトルをベクトルの向きと逆方向に延長する
(2)延長した線が同一直線を構成する法線ベクトルの対を検出する
(3)当該対の法線ベクトルを有する、物体表面上の2点を「適切な把持位置」とする
 例えば同図(b)において、物体70上の点72a、72bは、法線ベクトルを延長した線が直線74を構成する。したがって当該2点72a、72bは「適切な把持位置」である。当該2点72a、72bに、太線矢印で示すように法線ベクトルと逆向きのベクトルである力F1、F2を、
 F1+F2=0
となるような大きさで加えると、作用線が重なることにより力がつり合い、かつ力のモーメントが0となるため安定した把持が可能となる。力F1、F2の向きは逆方向であるため、|F1|=|F2|とすることにより上記式が満たされる。なお|F1|の値は、物体が滑り落ちないような十分な静止摩擦力が発生する大きさとする。
 図示する例では、点72a、72bを含む2つ面上で対向する位置の対であれば、いずれを適切な把持位置としてもよいことになる。一方、それらの面に隣接する平行でない面では、どの位置の対(例えば点76a、76b)であっても法線の延長線が一直線にならないため、それらの面での把持はバランスが悪いことがわかる。図では物体70の輪郭を2次元で示しているが、法線ベクトルは実際には3次元で得られるため、3次元の構造として面が平行であるか否かを特定できる。このような情報は、一般的な撮影画像における像の形状のみからは特定しづらい。
 図6は、物体情報取得部56の把持位置取得部64が、物体の最適な把持位置を決定する別の規則を説明するための図である。図5が2点での把持を前提としたのに対し、図6は3点での把持を想定している。この場合も画像解析部54の法線取得部62は、同図(a)に点線矢印で示すように、物体80の法線ベクトルの分布を取得している。
 把持位置取得部64は、ロボット18のロボットハンドにより物体80を3点で把持する場合の適切な把持位置を、次のように決定する。
(1)法線ベクトルをベクトルの向きと逆方向に延長する
(2)延長した線が一点で交わる3つの法線ベクトルの組を検出する
(3)当該組の法線ベクトルを有する、物体表面上の3点を「適切な把持位置」とする
 ただし(2)は、3つの法線ベクトルのうち少なくとも2つの法線ベクトルの内積が負であることを条件として組を決定する。例えば同図(b)において、物体80上の点82a、82b、82cは、法線ベクトルを延長した線が点84において交わり、点82cの法線ベクトルと、点82a、82bの法線ベクトルの内積はそれぞれ負の値となる。したがって当該3点82a、82b、82cは「適切な把持位置」である。
 当該3点82a、82b、82cに、太線矢印で示すように法線ベクトルと逆向きのベクトルである力F1、F2、F3を、
 F1+F2+F3=0
となるような大きさで加えると、作用線が1点で交わることにより力がつり合い、かつ力のモーメントが0となるため安定した把持が可能となる。把持する点が4点以上の場合も同様の規則で適切な把持位置を決定できる。
 図7は、出力データ生成部58がユーザに適切な把持位置を提示するために生成する表示画像を例示している。この例では把持位置提示画像90は、物体92を含む撮影画像に、適切な把持位置を示す図形94a、94bを重畳表示させた画像である。図示する例では物体92は飛行機のおもちゃであり、その撮影画像に、把持位置取得部64が決定した2点の把持位置で両側から把持するのが適切であることを示す矢印を図形94a、94bとして描画している。
 上述のように、適切な把持位置と、そこでの法線ベクトルの逆ベクトルである把持方向は3次元の情報である。したがって出力データ生成部58は、当該逆ベクトルを撮影画像の平面に射影することで図形94a、94bを描画する。図示するように図形94a、94bを矢印とすることで、把持する位置や方向を直感的に把握させることができる。ただし図形94a、94bの形状は図示するものに限らない。
 また3点以上の把持位置を取得した場合は当然、図形もその数だけ描画する。表示装置16に把持位置提示画像90を表示させることにより、ユーザがコントローラ等を介してロボット18を動かし、適切な位置で物体8を把持できるようにする。これにより物体8を安定的に把持して持ち上げたり運搬したりすることができる。ただし上述のとおり、情報処理装置10は把持位置提示画像90を生成することなく、ロボット18を直接制御してもよい。
 図8は、物体情報取得部56の物性取得部66が、物体の質量を取得する手法を説明するための図である。まずロボット18には、把持位置取得部64が上述の規則により決定した把持位置で、法線ベクトルと逆方向の力を加えることにより物体を把持させる。ロボットの制御は、図7で示した把持位置提示画像90を表示装置16に表示させることによりユーザに促してもよいし、情報処理装置10が自ら行ってもよい。
 図示する例は、図6と同様、3点の適切な把持位置に、法線ベクトルと逆向きの力F1、F2、F3を加えることにより、物体80を把持した状態を示している。ここで図の下方向を重力の方向とすると、物体80にはロボット18が把持する力F1、F2、F3の他に重力mgが加わっている。物体80が静止している場合や等速運動している場合、力F1、F2、F3は、重力mgとつり合った状態であるため、次の式が成り立つ。
 F1+F2+F3+mg=0
物体80が加速度運動している場合は、次の式が成り立つ。
 F1+F2+F3+mg+ma=0
 ここでmは物体80の質量、gは重力加速度ベクトルである。またaは物体80の加速度ベクトルであり、撮影画像上の像の変位から導出できる。力F1、F2、F3の大きさは、ロボットハンドの先端に設けた圧力センサ、あるいはロボットハンドを駆動させるモーターのトルクなどから取得できる。また重力加速度の方向は、ロボットハンド内部に設けた加速度センサなどにより取得できる。これらの情報により、ベクトルF1、F2、F3、g、aを既知として上記方程式を解くことにより、物体80の質量mを取得できる。
 図9は、物体情報取得部56の物性取得部66が、物体の摩擦係数を取得する手法を説明するための図である。まずロボット18には、把持位置取得部64が上述の規則により決定した2点の把持位置で、法線ベクトルと逆方向の力を加えることにより物体を把持させる。ただしこの場合は、把持位置を結ぶ直線74が、重力の方向と垂直となるような把持位置を選択する。図示する例は、図5と同様、物体70を力F1、F2で把持した状態を示している。
 この場合、把持により加えられる力|F1|=|F2|が物体表面に対する垂直抗力となるため、静止摩擦係数をμとして静止摩擦力はμ・|F1|で与えられる。力F1、F2を徐々に弱めていくと、摩擦力が弱まることによりいずれは物体70が落下する。落下直前における静止摩擦力は重力mgとつり合った状態であるため、次の式が成り立つ。
 μ・|F1|=mg
 あるいは物体70が滑り落ちている期間、等速運動している場合は動摩擦力と重力mgが釣り合った状態であるため、μ’を動摩擦係数として次の式が成り立つ。
 μ’・|F1|=mg
物体が加速度運動している場合は、加速度ベクトルをaとして次の式が成り立つ。
 μ’・|F1|-mg=ma
物体70の質量mを既知として、物体70のいずれかの状態に対応する上記方程式を解くことにより、物体70の静止摩擦係数μまたは動摩擦係数μ’を取得できる。
 物体70の質量mは、図8を参照して説明したように求めてもよいし、形状と質量を対応づけたデータベースを準備しておくことにより、撮影画像上の像の形状に基づき特定してもよい。あるいは計測器などを用いて別途計測しておいてもよい。物体の質量を計測する手段と比較し、当該物体の摩擦係数を定量的に求める手段は少なく、本実施の形態はその点で特に有効である。物性取得部66が取得した質量mや摩擦係数μ、μ’は、物体を把持したり運搬したりするためにロボットが加える把持力を決定するのに用いてもよい。定性的には質量が大きいほど、また摩擦係数が小さいほど、物体を把持させる力を大きくすることで安定性が保たれる。
 図10は、物体情報取得部56の物性取得部66が、物体の柔らかさを取得する手法を説明するための図である。この場合もロボット18には、把持位置取得部64が上述の規則により決定した2点の把持位置で、法線ベクトルと逆方向の力を加えることにより物体を把持させる。すなわち図の(a)に示すように、物体130aの法線ベクトルn1、n2と逆方向に、同じ大きさの力F1、F2を加える。
 力F1、F2を加え続けると、(b)に示すように、物体130bが柔らかさに応じて変形する。撮像装置12がその様子を動画像として撮影することにより、物性取得部66は当該変形を検出したうえ定量的に評価できる。例えば像検出部60が検出する物体130bの像において、把持位置での輪郭の変化量を取得する。あるいは法線取得部62が取得する物体130bの法線ベクトルのうち、把持位置から所定範囲における法線ベクトルの分布の変化を取得する。例えば当該所定範囲における位置i(1≦i≦N)の把持前の法線ベクトルをn、把持後の法線ベクトルをmとし、把持によって生じた分布のばらつきの度合いを示すパラメータσを次のように計算する。
Figure JPOXMLDOC01-appb-M000005
 なお法線ベクトルn、mは長さ1に正規化されているとする。σの値が大きいほど、把持による法線ベクトルの変化、ひいては物体130bの変形が大きいといえる。物性取得部66は、輪郭の変化量および法線ベクトル分布のばらつき度合いσの少なくともいずれかを、物体130bの変形量として求める。そして加えた力|F1|=|F2|に応じて当該変形量を正規化することにより、柔らかさを表すパラメータを導出する。例えば基準とする物体について、標準的な力を加えたときの変形量を測定し、それを1とした場合の割合として柔らかさを数値化する。
 物体の柔らかさは把持の安定性にも影響を与える。したがって把持位置取得部64は、物体の把持後の変形を踏まえて、より適切な把持位置を求めるようにしてもよい。図11は、物体情報取得部56の把持位置取得部64が、物体の柔らかさを考慮して把持位置を決定する手法を説明するための図である。(a)に示すように、図10と同じ物体130aを、法線ベクトルn1、n2と逆方向の力F1、F2を加え把持したとする。しかし図11の例では、(b)、(c)に示すように把持位置が適切でないことから、変形により力のつり合いが崩れている。
 すなわち物体130aから130c、130dと変形していくことで、把持位置から所定範囲における法線ベクトルの平均ベクトルが(n1,n2)から(m1,m2)、(m1’,m2’)と変化する。そのため当初に適切な把持位置を取得したときに達成した力のつり合いが崩れて安定性を失い、場合によっては物体130dが落下することも考えられる。一方、図10に示す例では、物体が変形しても、法線ベクトルの平均ベクトルが変化しないため、力のつり合いは保たれ、そのまま持ち上げ運搬しても安定性を維持できる。
 そこで把持位置取得部64は、把持位置から所定範囲における法線ベクトルの平均ベクトルを把持後にも監視することにより、安定して把持状態を維持できるか否かを判定する。例えば当該平均ベクトルの変化がしきい値を超える場合、安定した把持が困難と判定する。このとき把持位置取得部64は、その旨を示す画像や音声を提示してユーザに把持状態からの解放を促す。あるいはロボット18に直接制御信号を送ることにより、物体130dを把持状態から解放させる。そして上記規則により別の位置で適切な把持位置を決定し直し、画像や音声でユーザに提示したり、制御信号によりロボット18に当該位置で把持させたりする。
 これにより、例えば図10に示すような把持位置を決定すれば、物体130aを安定的に把持し持ち上げたり運搬したりすることができる。なお把持位置取得部64は、図10のような適切な把持位置を取得できるまで、把持位置を変化させて法線ベクトルの変化に基づく安定性の評価を繰り返してよい。
 図12は衝突姿勢取得部68が、物体に衝突するロボットの姿勢を適切に制御する手法を説明するための図である。この態様ではロボット140aは、少なくとも情報処理装置10が出力する制御信号により姿勢を変化させる機構を有する。またロボット140aは、ユーザによるコントローラなどからの制御、または情報処理装置10による制御により移動する機構を有する。これまで述べたように物体を把持する機構も有していてよい。
 ロボット140aを移動させる目的は特に限定されない。すなわち物体を運搬するなど作業を目的としてもよいし、ゲームなど娯楽を提供することを目的としてもよい。このような環境において、衝突姿勢取得部68は、像検出部60による検出結果に基づき、ロボット140aの進行方向に物体142が存在することを検出する。物体142は一時的に置かれた物でもよいし壁や家具など定常的に存在する物でもよい。あるいは他のロボットでもよい。すなわち物体142の大きさや形状は限定されない。
 像検出部60が動画像から被写体の像を検出し続けることにより、衝突姿勢取得部68は、ロボット140aと物体142の位置関係を取得していき、それに基づき衝突する時刻と衝突位置144を予測する。一方、ロボット140aが近づいている物体142の法線ベクトルの分布を、法線取得部62から取得する。そして衝突姿勢取得部68は、予測した衝突位置144における法線ベクトルnに基づき、ロボット140aが衝突後に跳ね返される方向、ひいてはロボット140bがどちら向きに転倒するかをさらに予測する。具体的には衝突する方向に対し、法線ベクトルnに対称に跳ね返されると予測する。
 そして衝突姿勢取得部68は、予測した方向に跳ね返されたロボット140bがとるべき姿勢を決定する。例えば衝突の衝撃により転倒した場合に、ロボット140bの機能上、重要な部位への衝撃が低くなるような姿勢を決定する。当該部位として例えば、カメラなどのセンサや集積回路を内蔵する部分などが考えられる。そのような部位が転倒方向にある場合、それ以外の部位を当該方向に移動させた姿勢をとるなどして、最初に床にぶつかるのを回避させる。図示する例ではロボットアーム148を床側に向けることによりロボット140bの頭部146への衝撃を和らげている。このとき同時に、頭部146の角度を調整して床からの距離をより離すようにしてもよい。
 あるいは跳ね返された方向に回転するようにしたり、床とのインタラクションにより特有のポーズをとらせたりすることにより、ユーザがその様子を楽しめるようにしてもよい。このように、衝突姿勢取得部68が決定するロボットの姿勢は様々に考えられる。跳ね返される方向によってどのような姿勢をとるべきか、それに応じてどのような制御信号を送信すべきかを、あらかじめ実験などにより求めておくことでデータベースとして準備する。
 そして衝突姿勢取得部68は、実際のロボット140aの衝突方向と物体142の法線ベクトルnとの関係に基づき跳ね返る方向を推定し、それに基づきデータベースを参照することにより適切な制御信号を取得する。そして出力データ生成部58を介してロボット18に送信することにより、ロボット140bに適切な姿勢をとらせる。適切な姿勢をとらせるタイミングは、衝突直前、衝突時、衝突直後のいずれのタイミングでもよい。
 次にこれまで述べた構成によって実現できる情報処理装置10の動作について説明する。図13は、情報処理装置10が物体とロボットとのインタラクションに基づく情報を出力する処理手順を示すフローチャートである。まず画像取得部50は撮像装置12から少なくとも複数方位の偏光画像を取得する(S10)。以後、所定の頻度で画像の取得を続行する。画像解析部54はロボット18から最も近い物体など所定の規則で選択した物体の像を検出し、その法線ベクトルの分布を取得する(S12)。
 次に物体情報取得部56または衝突姿勢取得部68は、物体の法線ベクトルを利用してロボット18などにより加えられる外力のつり合いを計算する(S14)。具体的には把持位置取得部64は、法線ベクトルと逆方向に力を加えたときに力がつり合うような位置を取得する。また実際に把持した際の物体の変形を検出し、必要に応じてより適切な把持位置を取得し直す。また物性取得部66は、把持により加わる力と重力とのバランスに基づき、物体の質量あるいは摩擦係数を取得する。または把持したときの変形量に基づき物体の柔らかさを取得する。
 また衝突姿勢取得部68は、ロボット18が物体に衝突する位置や跳ね返り方向を予測し、適切な姿勢をとれるような制御信号を取得する。出力データ生成部58は、そのように力のつり合いに基づき得られた情報に基づき出力データを生成し出力する(S16)。具体的には適切な把持位置を表す画像や音声を生成し表示装置16に出力したり、当該把持位置で物体を把持するように制御する信号をロボット18に送信したりする。また物体の質量、摩擦係数、柔らかさなどを表す画像、それらのパラメータを利用して情報処理を行った結果を表す画像などを生成し表示装置16に出力する。
 あるいは衝突時に適切な姿勢をとらせるための制御信号をロボット18に送信する。以後、必要なタイミングでS12からS16の処理を繰り返す(S18のN)。例えばコンベアで流れてくる物体を順次対象とする場合、次の物体がロボット18近づく都度、S12からS16の処理を実施することにより、物体を次々に把持したりその物性を取得したりできる。またロボットと物体との距離が所定値以下となるまで近づいたタイミングでS12からS16の処理を実施することにより、ロボット18に、衝突に応じた適切な姿勢をとらせることができる。ユーザの指示入力などにより処理を停止させる必要が生じたら、全ての処理を停止する(S18のY)。
 以上述べた本実施の形態によれば、物体の法線を利用して外力のつり合いを計算する。具体的には外力がつり合うための力点を求めることにより、それを適切な把持位置としてユーザに提示したり制御信号を送信したりしてロボットに当該位置で把持させる。あるいは実際に把持したときにロボットが加える力と、重力や摩擦力とのつり合いを表す方程式を立てることにより、物体の質量や摩擦係数を求める。さらに物体の変形を検出することにより柔らかさを求める。またロボットが物体に衝突したときの跳ね返りの方向を取得することにより、重要な部位が破壊されないような姿勢や、ユーザが面白いと感じる姿勢をとらせる。
 物体にかかる外力は3次元空間でのパラメータである。そのため2次元の情報を基本とする一般的な撮影画像では、正確につり合いを評価することが難しい。そのため見かけの形状が同じ物を同様の位置で把持させても、予想外に把持できなかったり安定した把持ができず落下させてしまったりすることが起こり得る。本実施の形態により物体の3次元空間での情報を得ることにより、その場での撮影画像に基づき臨機応変にロボットを動かすことができる。また撮影画像から物体の物性を取得する、という特有の態様を実現できる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 10 情報処理装置、 12 撮像装置、 16 表示装置、 18 ロボット、 23 CPU、 24 GPU、 26 メインメモリ、 50 画像取得部、 52 画像データ記憶部、 54 画像解析部、 56 物体情報取得部、 58 出力データ生成部、 60 像検出部、 62 法線取得部、 64 把持位置取得部、 66 物性取得部、 68 衝突姿勢取得部。
 以上のように本発明は、ロボット制御装置、検品装置、物体認識装置、電子コンテンツ処理装置など各種情報処理装置およびシステムに利用可能である。

Claims (13)

  1.  物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得する画像解析部と、
     前記法線ベクトルに基づき、物体表面に加える外力のつり合いを計算し、それに基づき物体に係る情報を取得する物体情報取得部と、
     前記物体に係る情報に基づき出力すべきデータを生成して出力する出力データ生成部と、
     を備えたことを特徴とする情報処理装置。
  2.  前記物体情報取得部は、物体表面の複数の位置に、前記法線ベクトルと逆方向の力を加えたときにその力がつり合い、かつ力のモーメントが0となる前記位置を、適切な把持位置として決定し、
     前記出力データ生成部は、前記適切な把持位置を表すデータを生成して出力することを特徴とする請求項1に記載の情報処理装置。
  3.  前記出力データ生成部は、前記適切な把持位置で物体を把持するように制御する信号をロボットに送信することを特徴とする請求項2に記載の情報処理装置。
  4.  前記出力データ生成部は、物体を撮影した画像に前記適切な把持位置を示す図形を重畳させた表示画像を生成し、表示装置に出力することを特徴とする請求項2に記載の情報処理装置。
  5.  前記物体情報取得部は、ロボットが前記適切な把持位置で物体を把持したときの、把持位置から所定範囲における法線ベクトルの平均ベクトルの変化に基づき、物体の変形により安定した把持を維持できないことを判定し、それに応じて前記適切な把持位置を決定し直すことを特徴とする請求項2から4のいずれかに記載の情報処理装置。
  6.  前記物体情報取得部は、物体表面の複数の位置に、前記法線ベクトルと逆方向の力を加えさせることによりロボットに当該物体を把持させたときの、加えた力と重力とのつり合いに基づき、当該物体の質量を取得することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7.  前記物体情報取得部は、物体表面の複数の位置に、前記法線ベクトルと逆方向の力を加えさせることによりロボットに当該物体を把持させたときの、加えた力を垂直抗力とする摩擦力と重力とのつり合いに基づき、当該物体の摩擦係数を取得することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  8.  前記物体情報取得部は、物体表面の複数の位置に、前記法線ベクトルと逆方向の力を加えさせることによりロボットに当該物体を把持させたときの、加えた力と物体の変形量に基づき、当該物体の柔らかさを示すパラメータを取得することを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  9.  前記法線ベクトルに基づき、移動するロボットが前記物体に衝突した際の跳ね返りの方向を予測し、当該方向に対応づけられた、前記ロボットがとるべき姿勢を取得する衝突姿勢取得部をさらに備え、
     前記出力データ生成部は、前記姿勢をとるように制御する信号を前記ロボットに送信することを特徴とする請求項1に記載の情報処理装置。
  10.  物体を把持する機構を有するロボットと、前記ロボットを制御する情報処理装置と、を含み、
     前記情報処理装置は、
     物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得する画像解析部と、
     物体表面の複数の位置に、前記法線ベクトルと逆方向の力を加えたときにその力がつり合い、かつ力のモーメントが0となる前記位置を、適切な把持位置として決定する物体情報取得部と、
     前記適切な把持位置で物体を把持するように制御する信号を前記ロボットに送信する出力データ生成部と、
     を備えたことを特徴とする情報処理システム。
  11.  前記物体情報取得部は、前記ロボットが前記法線ベクトルと逆方向の力を加えて物体を把持している状態における、力のつり合いに基づき、当該物体の質量または摩擦係数をさらに取得することを特徴とする請求項10に記載の情報処理システム。
  12.  物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得するステップと、
     前記法線ベクトルに基づき、物体表面に加える外力のつり合いを計算し、それに基づき物体に係る情報を取得するステップと、
     前記物体に係る情報に基づき出力すべきデータを生成して出力するステップと、
     を含むことを特徴とする、情報処理装置による物体情報取得方法。
  13.  物体を撮影してなる複数方位の偏光画像に基づき、当該物体表面の法線ベクトルを取得する機能と、
     前記法線ベクトルに基づき、物体表面に加える外力のつり合いを計算し、それに基づき物体に係る情報を取得する機能と、
     前記物体に係る情報に基づき出力すべきデータを生成して出力する機能と、
     をコンピュータに実現させることを特徴とするコンピュータプログラム。
PCT/JP2018/035415 2018-09-25 2018-09-25 情報処理装置、情報処理システム、および物体情報取得方法 WO2020065717A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/035415 WO2020065717A1 (ja) 2018-09-25 2018-09-25 情報処理装置、情報処理システム、および物体情報取得方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/035415 WO2020065717A1 (ja) 2018-09-25 2018-09-25 情報処理装置、情報処理システム、および物体情報取得方法

Publications (1)

Publication Number Publication Date
WO2020065717A1 true WO2020065717A1 (ja) 2020-04-02

Family

ID=69952941

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035415 WO2020065717A1 (ja) 2018-09-25 2018-09-25 情報処理装置、情報処理システム、および物体情報取得方法

Country Status (1)

Country Link
WO (1) WO2020065717A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111604900A (zh) * 2020-05-18 2020-09-01 哈尔滨工业大学 一种适用于机械手在手操作的目标参数检测方法
WO2023074333A1 (ja) * 2021-10-29 2023-05-04 慶應義塾 情報提示システム、情報提示装置、情報提示方法及びプログラム
WO2024014080A1 (ja) * 2022-07-13 2024-01-18 パナソニックIpマネジメント株式会社 推定システムおよび推定方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6338026B2 (ja) * 1980-09-24 1988-07-28 Otsuka Pharma Co Ltd
JP2008272886A (ja) * 2007-04-27 2008-11-13 Nissan Motor Co Ltd 把持候補位置選出装置、把持候補位置選出方法、把持経路生成装置、および把持経路生成方法
JP2009269127A (ja) * 2008-05-08 2009-11-19 Sony Corp 把持装置及びその制御方法
JP2010271118A (ja) * 2009-05-20 2010-12-02 Toyota Industries Corp 摩擦係数同定方法、把持制御方法、この把持制御方法を行うロボットハンド及びプログラム
JP2013013948A (ja) * 2011-07-01 2013-01-24 Seiko Epson Corp ロボット、およびロボットの制御方法
JP2018041277A (ja) * 2016-09-07 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および対象物認識方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6338026B2 (ja) * 1980-09-24 1988-07-28 Otsuka Pharma Co Ltd
JP2008272886A (ja) * 2007-04-27 2008-11-13 Nissan Motor Co Ltd 把持候補位置選出装置、把持候補位置選出方法、把持経路生成装置、および把持経路生成方法
JP2009269127A (ja) * 2008-05-08 2009-11-19 Sony Corp 把持装置及びその制御方法
JP2010271118A (ja) * 2009-05-20 2010-12-02 Toyota Industries Corp 摩擦係数同定方法、把持制御方法、この把持制御方法を行うロボットハンド及びプログラム
JP2013013948A (ja) * 2011-07-01 2013-01-24 Seiko Epson Corp ロボット、およびロボットの制御方法
JP2018041277A (ja) * 2016-09-07 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および対象物認識方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111604900A (zh) * 2020-05-18 2020-09-01 哈尔滨工业大学 一种适用于机械手在手操作的目标参数检测方法
CN111604900B (zh) * 2020-05-18 2022-06-03 哈尔滨工业大学 一种适用于机械手在手操作的目标参数检测方法
WO2023074333A1 (ja) * 2021-10-29 2023-05-04 慶應義塾 情報提示システム、情報提示装置、情報提示方法及びプログラム
WO2024014080A1 (ja) * 2022-07-13 2024-01-18 パナソニックIpマネジメント株式会社 推定システムおよび推定方法

Similar Documents

Publication Publication Date Title
US20200230821A1 (en) Information processing apparatus, information processing method, and storage medium
KR101489236B1 (ko) 최소 사용자 입력을 가지는 추적시스템 보정
WO2020065717A1 (ja) 情報処理装置、情報処理システム、および物体情報取得方法
JP5812599B2 (ja) 情報処理方法及びその装置
CN103302666B (zh) 信息处理设备和信息处理方法
US10175765B2 (en) Information processing device, information processing method, and computer program
US11010901B2 (en) Information processing apparatus and image region segmentation method
CN107571260B (zh) 控制机器人抓取物体的方法和装置
US11048912B2 (en) Information processing apparatus and target object recognition method
US9746855B2 (en) Information processing system, method, and program
JP5547720B2 (ja) 画像解析および超音波通信を使用したコントローラの三次元位置の決定
EP2359223B1 (en) Correcting angle error in a tracking system
US8401253B2 (en) Distinguishing true 3-d faces from 2-d face pictures in face recognition
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
US20200401839A1 (en) Information processing device and material specifying method
JP2020197978A (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
US10957070B2 (en) Information processing apparatus, information processing system, operation object, and information processing method
WO2019123625A1 (ja) 情報処理装置および表面粗さ取得方法
JP2015085434A (ja) ロボット、画像処理方法及びロボットシステム
JP7101250B2 (ja) 情報処理装置およびプレイフィールド逸脱検知方法
JP7066671B2 (ja) 干渉判定装置、干渉判定方法、プログラム及びシステム
CN116600945A (zh) 用于抓取生成的像素级预测
JP7398662B2 (ja) ロボット多面グリッパアセンブリ及びその操作方法
JPH06221832A (ja) カメラの焦点距離較正方法及び装置
WO2010134200A1 (ja) 画像処理装置、方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18935311

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18935311

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP