JP2019185664A - 制御装置、物体検出システム、物体検出方法及びプログラム - Google Patents

制御装置、物体検出システム、物体検出方法及びプログラム Download PDF

Info

Publication number
JP2019185664A
JP2019185664A JP2018079235A JP2018079235A JP2019185664A JP 2019185664 A JP2019185664 A JP 2019185664A JP 2018079235 A JP2018079235 A JP 2018079235A JP 2018079235 A JP2018079235 A JP 2018079235A JP 2019185664 A JP2019185664 A JP 2019185664A
Authority
JP
Japan
Prior art keywords
sensor
target object
dimensional environment
viewpoint
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018079235A
Other languages
English (en)
Inventor
吉川 恵
Megumi Yoshikawa
恵 吉川
真太郎 吉澤
Shintaro Yoshizawa
真太郎 吉澤
優人 森
Yuto Mori
優人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018079235A priority Critical patent/JP2019185664A/ja
Priority to US16/358,988 priority patent/US10957067B2/en
Priority to CN201910293095.3A priority patent/CN110390692A/zh
Publication of JP2019185664A publication Critical patent/JP2019185664A/ja
Priority to US17/182,625 priority patent/US20210174538A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Abstract

【課題】対象物体が他の物体によって遮られている場合であっても、効率よく対象物体を検出することが可能な制御装置を提供する。【解決手段】物体認識部114は、センサ12から取得された測定データを用いて、三次元環境4に存在する対象物体80を認識する。情報生成部116は、複数の測定データを統合することによって、三次元環境情報を生成する。位置決定部120は、次に測定を行う際のセンサ12の最適位置を決定する。センサ制御部140は、決定された最適位置にセンサ12を移動させる。位置決定部120は、三次元環境情報を用いて、少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能なセンサ12の位置を、最適位置として決定する。【選択図】図3

Description

本発明は、制御装置、物体検出システム、物体検出方法及びプログラムに関し、特に、センサを制御して物体を検出する制御装置、物体検出システム、物体検出方法及びプログラムに関する。
距離センサ等のセンサを動作させて検出の対象となる対象物体を検出する技術がある。このような技術においては、他の物体(障害物)によって対象物体が遮蔽されることを考慮する必要がある。この技術に関連し、特許文献1は、全体的な作業完了に向けた作業の効率化を支援する作業支援システムを開示する。特許文献1にかかる作業支援システムは、測定対象物の3次元形状データを測定する測定装置と、測定対象物及び測定装置の少なくとも一方を移動させて、測定装置による測定対象物の測定位置を変化させる移動装置と、移動装置を制御する作業支援装置とを有する。候補位置設定部は、測定対象物の表面のうち、測定対象範囲として指定された測定対象範囲の全域に対して、候補となる測定位置を設定する。可能面算出部は、設定された測定位置それぞれについて、測定可能な測定対象物の表面の数又面積を算出する。順位決定部は、それぞれの測定方向について、算出された表面の数又は面積に応じて、測定の優先順位を決定する。測定制御部は、決定された優先順位に従って、それぞれの測定方向で測定するよう前記移動装置に指示する。
特開2015−190818号公報
センサの動作環境によっては、検出の対象となる対象物体が複数存在することがあり、さらに、対象物体以外の他の物体が存在することもある。このような場合、他の物体によって対象物体が遮蔽される可能性がある。したがって、対象物体と他の物体との位置関係を考慮せずに闇雲にセンサを移動させても、対象物体を検出するのに膨大な時間を要するおそれがある。つまり、ある位置にセンサを移動しても、その位置で測定を行う場合に、他の物体によって遮られる領域が大きいため、測定できないおそれがある。したがって、その位置にセンサを移動して測定した時間は無駄となるおそれがある。特許文献1にかかる技術では、測定対象物以外の他の物体を考慮していない。したがって、特許文献1にかかる技術では、測定対象物が障害物によって遮蔽された場合に、効率よく測定対象物を検出できないおそれがあった。
本発明は、対象物体が他の物体によって遮られている場合であっても、効率よく対象物体を検出することが可能な制御装置、物体検出システム、物体検出方法及びプログラムを提供するものである。
本発明にかかる制御装置は、三次元環境において周囲を測定するセンサを制御して、検出対象である対象物体を検出する制御装置であって、前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識する物体認識部と、複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成する情報生成部と、次に測定を行う際の前記センサの最適位置を決定する位置決定部と、前記決定された最適位置に前記センサを移動させるセンサ制御部とを有し、前記位置決定部は、前記三次元環境情報を用いて、前記物体認識部によって認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、前記最適位置として決定する。
また、本発明にかかる物体検出システムは、三次元環境において周囲を測定するセンサと、前記センサを制御して、検出対象である対象物体を検出する制御装置とを有し、前記制御装置は、前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識する物体認識部と、複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成する情報生成部と、次に測定を行う際の前記センサの最適位置を決定する位置決定部と、前記決定された最適位置に前記センサを移動させるセンサ制御部とを有し、前記位置決定部は、前記三次元環境情報を用いて、前記物体認識部によって認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、前記最適位置として決定する。
また、本発明にかかる物体検出方法は、三次元環境において周囲を測定するセンサを制御して、検出対象である対象物体を検出する物体検出方法であって、前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識するステップと、複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成するステップと、前記三次元環境情報を用いて、前記認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、次に測定を行う際の前記センサの最適位置として決定するステップと、前記決定された最適位置に前記センサを移動させるステップとを有する。
また、本発明にかかるプログラムは、三次元環境において周囲を測定するセンサを制御して、検出対象である対象物体を検出する物体検出方法を実行するプログラムであって、前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識するステップと、複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成するステップと、前記三次元環境情報を用いて、前記認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、次に測定を行う際の前記センサの最適位置として決定するステップと、前記決定された最適位置に前記センサを移動させるステップとをコンピュータに実行させる。
本発明においては、センサを用いて対象物体を検出する際に、第1の物体によって死角となった領域をより適切に測定可能な位置に、センサ12を移動させることができる。したがって、センサを用いて対象物体を検出する際にセンサを移動させる回数及び時間を削減することができる。したがって、本発明は、対象物体が他の物体によって遮られている場合であっても、効率よく対象物体を検出することが可能となる。
また、好ましくは、前記位置決定部は、前記対象物体が配置され得る収納物体の位置及び形状に応じて、前記対象物体が配置され得る領域である配置可能領域を測定可能な前記センサの位置を、前記最適位置の候補として算出し、前記候補から、前記最適位置を選択する。
このように、視点候補を算出することによって、収納物体の位置及び形状によっては対象物体の検出に寄与し得ない視点位置を、最適位置から除外することができる。したがって、本発明は、効率よく対象物体を検出することが可能となる。
また、好ましくは、前記位置決定部は、前記候補の位置のうち、前記センサが前記第1の物体によって遮られた領域を測定可能であり且つ未だ測定されていない未測定位置があるか否かを判定し、前記未測定位置があると判定された場合に、前記最適位置を決定する処理を行う。
未測定位置がない場合というのは、これ以上測定しても、対象物体を検出することができない場合である。したがって、本発明のように、未測定位置があるか否かを判定することによって、未測定位置がない場合には、最適位置の決定処理を打ち切ることができる。したがって、本発明は、無駄な処理を行うことなく、対象物体の検出処理を終了することができる。
また、好ましくは、前記未測定位置がないと判定された場合に、前記第1の物体によって遮られた領域が測定され得るように、除去すべき前記第1の物体を判定する除去判定部をさらに有する。
本発明は、上記のように構成されていることによって、以後の処理において除去すべき第1の物体を除去して測定され得なかった未測定領域を測定することができるので、効率的に未測定領域を測定可能とすることが可能となる。
また、好ましくは、前記判定された前記第1の物体を除去するように、アームを制御するアーム制御部をさらに有する。
本発明は、上記のように構成されていることによって、除去すべき前記第1の物体を自動的に除去することができる。したがって、未測定領域を効率的に測定することが可能となる。
また、好ましくは、前記位置決定部は、前記三次元環境情報を用いて、前記対象物体が配置され得る領域である配置可能領域の探索が完了したか否かを判定し、探索が完了していないと判定された場合に、前記最適位置を決定する処理を行う。
本発明は、上記のように構成されていることによって、収納物体の探索が完了したと判定された場合に、最適位置を決定する処理が行われないようにする。したがって、本発明は、不必要な処理が行われることを抑制することが可能となる。したがって、本発明は、物体の検出時間の増大を抑制することが可能となる。
本発明によれば、対象物体が他の物体によって遮られている場合であっても、効率よく対象物体を検出することが可能な制御装置、物体検出システム、物体検出方法及びプログラムを提供できる。
実施の形態1にかかる物体検出システムを示す図である。 実施の形態1にかかる物体検出システムのハードウェア構成を示すブロック図である。 実施の形態1にかかる制御装置の構成を示す機能ブロック図である。 実施の形態1にかかる制御装置によって行われる、物体検出方法を示すフローチャートである。 実施の形態1にかかる探索判定部によって行われる、探索完了の判定方法の第1の例を示すフローチャートである。 図5に示した第1の例を説明するための図である。 実施の形態1にかかる探索判定部によって行われる、探索完了の判定方法の第2の例を示すフローチャートである。 図7に示した第2の例を説明するための図である。 実施の形態1にかかる視点候補の算出方法を説明するための図である。 実施の形態1にかかる視点候補の算出方法を説明するための図である。 実施の形態1にかかる視点候補の算出方法を説明するための図である。 実施の形態1にかかる最適視点選択部の処理を説明するための図である。 実施の形態1にかかる最適視点選択部の処理を説明するための図である。 実施の形態1にかかる最適視点選択部の処理を説明するための図である。 実施の形態1にかかる未測定視点位置があるか否かの判定処理の一例を示すフローチャートである。 図15で示した処理を説明するための図である。 図15で示した処理を説明するための図である。 図15で示した処理を説明するための図である。 実施の形態2にかかる物体検出システムを示す図である。 実施の形態2にかかる物体検出システムのハードウェア構成を示すブロック図である。 実施の形態2にかかる制御装置の構成を示す機能ブロック図である。 実施の形態2にかかる制御装置によって行われる、物体検出方法を示すフローチャートである。 実施の形態2にかかる、除去物体を判定する方法の例を示すフローチャートである。 図23に示す方法を説明するための図である。 図23に示す方法を説明するための図である。 図23に示す方法を説明するための図である。 図23に示す方法を説明するための図である。 図23に示す方法を説明するための図である。
(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。なお、実質的に同じ構成要素には、同じ符号が付される。
図1は、実施の形態1にかかる物体検出システム1を示す図である。また、図2は、実施の形態1にかかる物体検出システム1のハードウェア構成を示すブロック図である。実施の形態1にかかる物体検出システム1は、物体検出装置10と、制御装置100とを有する。物体検出装置10は、センサ12と、センサ12を駆動する駆動部14とを有する。
制御装置100は、例えばコンピュータである。制御装置100は、物体検出装置10と、有線又は無線の通信リンク2を介して通信可能に接続されている。したがって、制御装置100は、センサ12及び駆動部14と、通信可能に接続されている。
なお、図1では、制御装置100は、物体検出装置10と物理的に別個の装置であるとしたが、物体検出装置10の内部に組み込まれていてもよい。また、後述する制御装置100の構成要素の1つ以上が、物体検出装置10に組み込まれていてもよい。この場合、物体検出装置10も、コンピュータとしての機能を有する。
物体検出装置10は、三次元環境4を移動する。物体検出装置10は、三次元環境4を自律的に移動可能である。なお、三次元環境4は、直交座標系で表現されてもよいし、極座標系で表現されてもよい。以下の説明では、三次元環境4が(X,Y,Z)の直交座標系で表現された例を示している。
センサ12は、物体までの距離を計測可能な深度センサ、距離センサ、三次元カメラ(ステレオカメラ)等の三次元センサである。センサ12は、例えばライダ(LIDAR;Light Detection and Ranging)等である。物体検出装置10(センサ12)は、駆動部14により、以下に説明するように5つの自由度を有する。
駆動部14は、矢印Aで示すように、物体検出装置10(センサ12)を三次元環境4のX軸方向に移動させる。また、駆動部14は、矢印Bで示すように、物体検出装置10(センサ12)を三次元環境4のY軸方向に移動させる。また、駆動部14は、矢印Cで示すように、センサ12を三次元環境4のZ軸方向(鉛直方向)に移動させる。また、駆動部14は、矢印Dで示すように、センサ12を三次元環境4のXY平面に平行に(つまり水平方向に)回転(旋回)させる。また、駆動部14は、矢印Eで示すように、センサ12を三次元環境4の上下方向に回転(揺動)させる。つまり、センサ12は、駆動部14によって、矢印A,B,Cで示すように、三次元環境4における三次元位置座標を変化させるように移動する。また、センサ12は、駆動部14によって、矢印D,Eで示すように、三次元環境4における姿勢(向き)を変化させるように移動する。以下の説明では、センサ12の「移動」とは、三次元位置座標の変化及び姿勢の変化を含む。また、センサ12の「位置」とは、三次元位置座標及び姿勢を含む。
センサ12は、物体検出装置10の周囲を測定する。センサ12は、測定した周囲の物体の画像を取得する。また、センサ12は、センサ12(物体検出装置10)から観測した物体における各点までの距離を測定する。そして、センサ12は、測定された距離を示す距離データを生成する。つまり、距離データは、センサ12によって生成された測定データに対応する。センサ12は、距離データとして、距離画像(ポイントクラウド)を示す距離画像データを生成する。つまり、距離データは、センサ12(物体検出装置10)に対する周囲の各物体表面の点群を三次元で示す。センサ12は、レーザ光を周囲に走査し、物体に反射した反射光を受光して、送信時間と受信時間との差分から物体までの距離を算出する。そして、物体検出装置10(センサ12)は、三次元環境4におけるセンサ12の三次元位置座標と、レーザ光の照射方向と、物体までの距離とから、レーザ光の反射位置における三次元座標(X,Y,Z)を算出する。このようにして、物体検出装置10(センサ12)は、三次元環境4における各物体の位置を測定する。なお、以下、用語「画像」は、情報処理における処理対象としての、「画像を示す画像データ」も意味する。
三次元環境4には、物体検出装置10による検出の対象である複数の対象物体80が配置されている。また、三次元環境4には、1つ以上の収納物体90が設けられている。収納物体90は、1つ以上の棚板92と、壁面94とを有する。収納物体90は、複数の対象物体80を収納し得る。図1に示す例では、対象物体80A〜80Eが、収納物体90に配置されている。
制御装置100は、主要なハードウェア構成として、CPU(Central Processing Unit)102と、ROM(Read Only Memory)104と、RAM(Random Access Memory)106と、インタフェース部108(IF;Interface)とを有する。CPU102、ROM104、RAM106及びインタフェース部108は、データバスなどを介して相互に接続されている。
CPU102は、制御処理及び演算処理等を行う演算装置としての機能を有する。ROM104は、CPU102によって実行される制御プログラム及び演算プログラム等を記憶するための機能を有する。RAM106は、処理データ等を一時的に記憶するための機能を有する。インタフェース部108は、有線又は無線を介して外部と信号の入出力を行う。また、インタフェース部108は、ユーザによるデータの入力の操作を受け付け、ユーザに対して情報を表示する。
図3は、実施の形態1にかかる制御装置100の構成を示す機能ブロック図である。制御装置100は、情報格納部112、物体認識部114、情報生成部116、位置決定部120、及び、センサ制御部140(以下、「各構成要素」と称する)を有する。また、位置決定部120は、探索判定部122と、最適視点選択部124とを有する。各構成要素は、例えば、CPU102がROM104に記憶されたプログラムを実行することによって実現可能である。また、必要なプログラムを任意の不揮発性記録媒体に記録しておき、必要に応じてインストールするようにしてもよい。なお、各構成要素は、上記のようにソフトウェアによって実現されることに限定されず、何らかの回路素子等のハードウェアによって実現されてもよい。また、上記構成要素の1つ以上は、物理的に別個のハードウェアによってそれぞれ実現されてもよい。以上のことは、後述する実施の形態2においても同様である。
情報格納部112は、三次元環境情報、収納物体情報、対象物体情報、及び、センサ情報を格納する。さらに、情報格納部112は、後述する物体認識部114による認識結果を格納してもよい。「三次元環境情報」とは、三次元環境4に存在する各物体の各位置(点群)の三次元座標データを示す情報である。三次元環境4が複数ある場合、情報格納部112は、複数の三次元環境情報を格納し得る。例えば、家屋、店舗、テナント、フロアといったような環境ごとに、三次元環境情報が生成され、格納され得る。
三次元環境情報では、ある三次元座標(X,Y,Z)で示される点に何らかの物体が存在するか否かといったことが示される。したがって、制御装置100及び物体検出装置10は、三次元環境情報において、連続する三次元座標に何らかの物体が存在することを検出することで、その物体の形状を認識することができる。三次元環境情報は、例えばセンサ12が三次元環境4の全体を走査して各物体の各位置の三次元座標を算出することで取得される。つまり、三次元環境情報は、センサ12を用いて生成され得る。ここで、三次元環境情報は、センサ12による測定によって生成された三次元測定データ(距離画像データ)が統合されたものに対応する。つまり、三次元環境情報は、ある視点位置からセンサ12が測定して得られた三次元測定データと、別の視点位置からセンサ12が測定して得られた三次元測定データとを統合することによって、生成され得る。言い換えると、三次元環境情報は、複数の視点位置それぞれにおいてセンサ12によって三次元測定データが生成されるにつれて、更新されていく。
「収納物体情報」とは、収納物体90に関する情報である。収納物体情報は、収納物体90の三次元形状及び寸法を示す。例えば、収納物体情報は、物体のCAD(computer-aided design)データであってもよい。さらに、収納物体情報は、三次元環境4における位置(三次元座標)を示す。したがって、収納物体情報が三次元環境情報に統合されることにより、制御装置100は、三次元環境情報を用いて、収納物体90が三次元環境4のどこに配置されているかを認識することができる。言い換えると、制御装置100は、三次元環境情報を用いて、三次元環境4のどの座標(X,Y,Z)に棚板92及び壁面94が存在するかを認識可能である。さらに、収納物体情報は、棚板92の面積、エッジ、棚板92の開口部等を示す情報も含み得る。
「対象物体情報」とは、物体検出装置10の検出の対象となる対象物体の検出に必要な情報である。対象物体情報が情報格納部112に格納されていることにより、各対象物体80が物体検出システム1に登録されることになる。対象物体情報は、対象物体80の識別情報(登録名)を含む。さらに、例えば、対象物体情報は、対象物体80の形状及び寸法を示す。例えば、対象物体情報は、物体のCADデータであってもよい。なお、対象物体情報には、対応する物体がどこに置かれているかといった位置情報は含まれなくてもよい。したがって、制御装置100は、三次元環境情報を用いて、棚板92の上に何らかの物体が配置されていることは認識できるが、それがどの対象物体80であるかは、後述する物体認識処理を行わないと認識できない。物体検出システム1は、対象物体情報及び三次元環境情報を用いて、登録された対象物体80が三次元環境4のどこに配置されているかを探索していく。言い換えると、物体検出システム1は、三次元環境4のどの領域が対象物体80に対応するのかを検出していく。
「センサ情報」とは、センサ12の計測に関する情報である。例えば、センサ情報は、センサ12の画角(視野角;視野範囲)、焦点距離、解像度、及び画素数等を示す。つまり、センサ情報は、センサ12の計測可能範囲を示してもよい。これにより、センサ12によって生成される三次元画像データ(距離画像データ)のサイズ及び解像度等が特定され得る。
物体認識部114は、センサ12によって測定がなされ三次元測定データ(距離画像)が生成されると、三次元測定データ及び情報格納部112に格納された情報を用いて、三次元環境4に存在する対象物体80を認識する。具体的には、物体認識部114は、三次元測定データ(及び要すれば三次元環境情報)から、登録された対象物体80を検出する。さらに具体的には、物体認識部114は、三次元測定データ(距離画像)における各物体の形状を示す情報と、対象物体80の形状を示す物体情報(CADデータ等)との差分を、それぞれ算出する。そして、物体認識部114は、差分が予め定められた閾値よりも小さい物体を対象物体80であると認識する。そして、物体認識部114は、検出された対象物体80の識別情報と、その対象物体80が存在する位置を示す位置情報とを関連付ける。
情報生成部116は、三次元環境情報を生成する。具体的には、情報生成部116は、物体認識部114によって物体認識処理がなされると、物体認識処理の結果(認識結果)を用いて、三次元環境情報を更新する。ここで、三次元環境情報は、初期の段階では、収納物体90に対応する位置情報のみを含み得る。言い換えると、センサ12が測定を開始する前の段階では、三次元環境情報によって示される三次元仮想空間には、収納物体90のみが存在する。そして、センサ12が測定を行って物体認識部114によって物体が認識されるごとに、情報生成部116は、三次元環境情報に、センサ12の測定によって生成された三次元測定データを統合する。これにより、三次元環境情報に含まれる物体の情報が増加していく。
なお、センサ12の視点又は対象物体80の位置によっては、センサ12の視界(画角)にその対象物体80が存在しているが、他の対象物体80又は収納物体90の壁面94等によって対象物体80の一部が遮蔽されることがある。この場合、遮蔽された対象物体80の一部は、センサ12によって撮影されない。例えば、図1の対象物体80Cの手前には、対象物体80Bが存在する。したがって、ある視点位置からでは、対象物体80Cの一部(対象物体80Bに遮蔽された右下部分)は、センサ12によって撮影されない可能性がある。この場合、対象物体80Bは、センサ12が対象物体80Cを測定(撮影)する際の障害物となり、センサ12に対して死角を形成する。そして、その死角に、対象物体80Cの少なくとも一部が存在することとなる。
このとき、その対象物体80は、形状等を示す情報量の不足により、物体認識部114によって認識されない可能性がある。このような場合には、情報生成部116は、認識されなかった対象物体80の、センサ12によって撮影された部分の形状を示す情報を、三次元環境情報に追加する。この場合、制御装置100は、三次元環境情報を用いて、その位置に何らかの物体が存在することは認識できるが、その物体がどの対象物体80であるかを認識することはできない。したがって、三次元環境情報には、認識された対象物体80に関する情報と、認識されなかった対象物体80に関する情報とを含み得る。
位置決定部120は、次に測定を行うときのセンサ12の最適視点位置(最適位置)を決定する(後述する図4のS130等)。具体的には、位置決定部120は、次にセンサ12を移動して対象物体80を測定(撮影)した場合に、収納物体90に配置されている可能性があるが認識されなかった対象物体80を認識できる可能性が高いと推測される視点位置を、最適視点位置として決定する。ここで、認識された対象物体80(例えば図1の対象物体80B)を第1の物体とし、第1の物体に遮られているため認識できなかった対象物体80(例えば図1の対象物体80C)を第2の物体とする。この場合、位置決定部120は、三次元環境情報を用いて、第1の物体によって遮られて死角となった領域がセンサ12によって測定され得るような視点位置を、最適視点位置として決定する。つまり、位置決定部120は、物体認識部114によって認識された少なくとも1つの第1の物体によって遮られている領域をセンサ12によって測定され得るように、三次元環境情報を用いて、第1の物体の位置に応じて、次に測定を行う際のセンサ12の位置を、最適視点位置として決定する。言い換えると、位置決定部120は、三次元環境情報を用いて、物体認識部114によって認識された少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような距離画像を撮影可能なセンサ12の位置を、最適視点位置として決定する。これにより、制御装置100は、第1の物体によって遮られて死角となった領域をより適切に測定可能な位置に、センサ12を移動させることができる。したがって、実施の形態1にかかる制御装置100は、第2の物体が第1の物体によって遮られている場合であっても、効率よく対象物体80を検出することが可能となる。
センサ制御部140は、位置決定部120によって決定された最適視点位置に、センサ12を移動させる。そして、センサ制御部140は、移動後の視点位置(最適視点位置)にて測定を行うように、センサ12を制御する。そして、センサ制御部140は、センサ12によって生成された距離画像(三次元測定データ)を取得する。そして、センサ制御部140は、三次元測定データを物体認識部114に出力する。
探索判定部122は、収納物体90の探索が完了したか否かを判定する(後述する図4のS110〜S112)。そして、探索判定部122によって収納物体90の探索が完了したと判定された場合に、対象物体80の認識結果が、例えばインタフェース部108等に出力される。一方、探索判定部122によって収納物体90の探索が完了していないと判定された場合には、後述する最適視点選択部124の処理が行われる。具体的には、探索判定部122は、三次元環境情報を用いて、収納物体90における、対象物体80が配置され得る領域(配置可能領域)の探索が完了したか否かを判定する。詳しくは後述する。なお、配置可能領域は、対象物体80が配置され得る平面(棚板92の上面)であってもよいし、対象物体80が配置され得る空間(上下の棚板92の間の空間)であってもよい。
なお、センサ12による収納物体90の探索が完了した場合には、収納物体90には、認識されていない対象物体80が存在しない(つまり収納物体90に配置された対象物体80は全て認識された)可能性が高い。つまり、対象物体80を検出するために十分測定を行った可能性が高い。したがって、これ以上、センサ12による測定を行うことは、無駄である可能性が高い。したがって、実施の形態1のように、探索判定部122は、収納物体90の探索が完了したと判定された場合に、最適視点選択部124の処理が行われないようにすることで、不必要な処理が行われることを抑制することが可能となる。したがって、実施の形態1にかかる制御装置100は、物体の検出時間の増大を抑制することが可能となる。
最適視点選択部124は、対象物体80が配置され得る収納物体90の位置及び形状に応じて、配置可能領域を測定可能なセンサ12の視点位置を、最適視点位置の候補(視点候補)として算出する(後述する図4のS122)。例えば、収納物体90の棚板92が測定できないような視点位置は、視点候補からは除外される。そして、最適視点選択部124は、視点候補から、最適視点位置を選択する。詳しくは後述する。このように、視点候補を算出することによって、収納物体90の位置及び形状によっては対象物体80の検出に寄与し得ない視点位置を、最適視点位置から除外することができる。したがって、実施の形態1にかかる制御装置100は、効率よく対象物体80を検出することが可能となる。
また、最適視点選択部124は、視点候補のうち、認識された対象物体80(第1の物体)によって遮られた領域をセンサ12が測定可能であり且つ未だ測定されていない視点位置である未測定視点位置(未測定位置)があるか否かを判定する(後述する図4のS150)。そして、最適視点選択部124は、未測定視点位置があると判定された場合に、最適視点位置を決定する処理を行う。詳しくは後述する。未測定視点位置がない場合というのは、これ以上測定しても、対象物体80を検出することができない場合である。したがって、このように、未測定視点位置があるか否かを判定することによって、未測定視点位置がない場合には、最適視点位置の選択処理を打ち切ることができるので、対象物体80の検出を効率化することが可能となる。つまり、無駄な処理を行うことなく、対象物体の検出処理を終了することができる。
図4は、実施の形態1にかかる制御装置100によって行われる、物体検出方法を示すフローチャートである。まず、センサ制御部140は、現在の視点位置で測定を行うようにセンサ12を制御して、センサ12から、三次元測定データ(距離画像)を取得する(ステップS100)。そして、物体認識部114は、上述したように、三次元測定データと、情報格納部112に格納された情報(対象物体情報、三次元環境情報、収納物体情報等)とを用いて、物体認識処理を行う(ステップS102)。情報生成部116は、認識結果及び三次元測定データを用いて、三次元環境情報を更新する(ステップS104)。
図1の例では、対象物体80A及び対象物体80Bは、棚板92の比較的手前に配置されており、それぞれの形状の略全体が測定され得る。したがって、物体認識部114は、対象物体80A及び対象物体80Bを認識し得る。そして、情報生成部116は、対象物体80Aの対象物体情報を用いて、三次元環境情報で示される三次元仮想空間における、対象物体80Aが配置された位置に対応する領域に、対象物体80Aの形状を示す位置情報を追加してもよい。情報生成部116は、対象物体80Bについても同様の処理を行い得る。
一方、対象物体80Cは、対象物体80Bの向こう側に配置されているので、その一部の形状が測定できない。したがって、物体認識部114は、対象物体80Cを認識できない可能性がある。この場合、情報生成部116は、三次元測定データを用いて、三次元環境情報で示される三次元仮想空間における、対象物体80Cが配置された位置に対応する領域に、対象物体80Cの測定された部分を示す位置情報を追加してもよい。
次に、探索判定部122は、収納物体90の探索が完了したか否かを判定する(ステップS110)。具体的には、後述する方法によって、探索判定部122は、三次元環境情報及び収納物体情報を用いて、センサ12による配置可能領域の測定が完了したか否かを判定する。したがって、S110の処理は、三次元環境情報によって示される三次元仮想空間で行われる。
収納物体90の探索が完了したと判定されていない場合(S110のNO)、探索判定部122は、測定されていない視点位置からの測定が必要であると判定する。したがって、この場合、探索判定部122は、最適視点選択部124に対し、さらなる測定が必要である旨の信号を出力する。これにより、最適視点選択部124によって、後述するS120の処理が行われる。
一方、収納物体90の探索が完了したと判定された場合(S110のYES)、探索判定部122は、配置可能領域に配置された全ての対象物体80それぞれの少なくとも一部分(対象物体80の上半分又は左半分など)について測定されたと判定する。したがって、探索判定部122は、収納物体90に配置された全ての対象物体80についてラベリングがなされたか否かを判定する(ステップS112)。ここで、ラベリングとは、収納物体90に配置された対象物体80について認識がなされたことにより、その対象物体80が配置された領域に、その対象物体80に対応する識別情報を対応付けることである。
なお、三次元測定データ(三次元環境情報)において対象物体80の略全体が測定されている場合(つまり距離画像に対象物体80の全体の画像が含まれる場合)、対象物体情報を用いて、ラベリングを行うことが可能である。一方、三次元測定データ(三次元環境情報)において対象物体80の全体が測定されていない場合(つまり距離画像において対象物体80の画像の一部が欠如し、物体認識に必要な情報が不足している場合)、対象物体情報を用いても、物体認識に失敗する可能性がある。その場合、ラベリングを行うことができない。
収納物体90に配置された全ての対象物体80についてラベリングがなされたと判定された場合(S112のYES)、制御装置100は、収納物体90に配置された全ての対象物体80が検出されたと判定する。したがって、制御装置100は、認識結果を、インタフェース部108に出力する(ステップS114)。ここで、認識結果とは、どの対象物体80がどこに配置されているかを示す情報である。言い換えると、認識結果とは、三次元環境情報で示される三次元仮想空間において、どの領域がどの対象物体80で占められているかを示す情報である。
収納物体90に配置された全ての対象物体80についてラベリングがなされていないと判定された場合(S112のNO)、探索判定部122は、ラベリングを行うのに不足した情報を補うために、さらなる測定が必要であると判定する。この場合、探索判定部122は、最適視点選択部124に対し、さらなる測定が必要である旨の信号を出力する。これにより、最適視点選択部124によって、後述するS120の処理が行われる。
図5は、実施の形態1にかかる探索判定部122によって行われる、探索完了の判定方法の第1の例を示すフローチャートである。また、図6は、図5に示した第1の例を説明するための図である。図6は、収納物体90の棚板92に対象物体80A,80B,80Cが配置された状態を上方(Z軸正方向)から見た平面図である。そして、対象物体80A,80B,80Cは認識済みであるとする。
探索判定部122は、収納物体90の測定された棚板92の面積と、認識された対象物体80の底面の面積との合計Saを算出する(ステップS112A)。ここで、測定された棚板92の面積は、三次元測定データ及び三次元環境情報における座標データから、幾何学的に算出され得る。また、認識された対象物体80の底面の面積は、予め、対応する対象物体情報に含まれている。図6に示した例では、測定された棚板92の面積は、視野範囲12aの内側における、対象物体80A,80B,80Cによって遮られて死角となった領域(斜線でハッチングされた領域)を除いた、棚板92の面積である。また、認識された対象物体80の底面の面積は、対象物体80A,80B,80Cの底面積の合計である。なお、対象物体80Cが認識されていない場合、対象物体80Cの底面積は、合計Saからは除かれる。
探索判定部122は、棚板92の面積Sbに対するSaの割合Sa/Sbが、予め定められた閾値ThA以上であるか否かを判定する(ステップS114A)。ここで、棚板92の面積Sbは、収納物体情報から取得可能である。面積Sbは、収納物体情報に含まれていてもよい。Sa/Sb<ThAである場合(S114AのNO)、探索判定部122は、収納物体90の探索が完了していないと判定する(ステップS116A)。一方、Sa/Sb≧ThAである場合(S114AのYES)、探索判定部122は、収納物体90の探索が完了したと判定する(ステップS118A)。なお、後述するS130の処理によって決定された視点位置でセンサ12が測定を行うことによって、未測定の領域及び未認識の対象物体80の数は減少し得る。したがって、S130の処理によって決定された視点位置でセンサ12が測定を行うことを繰り返すことで、Sa/Sb≧ThAとなる可能性が高くなる。
図7は、実施の形態1にかかる探索判定部122によって行われる、探索完了の判定方法の第2の例を示すフローチャートである。また、図8は、図7に示した第2の例を説明するための図である。図8は、収納物体90の棚板92に対象物体80A,80B,80Cが配置された状態を上方(X軸正方向)から見た平面図である。
探索判定部122は、測定データ(三次元環境情報)から、測定済みである収納物体90の配置可能領域のエッジを抽出する(ステップS112B)。ここで、配置可能領域が棚板92である場合、配置可能領域のエッジ92eは、棚板92と壁面94との境界である(図8に太線で示す)。ここで、棚板92の座標データは予め収納物体情報(三次元環境情報)に含まれているので、測定データ(三次元環境情報)においてどの領域がエッジ92eであるかは、容易に認識できる。
探索判定部122は、配置可能領域の全てのエッジ92eが検出されているか否かを判定する(ステップS114B)。全てのエッジ92eが検出されていない場合(S114BのNO)、探索判定部122は、収納物体90の探索が完了していないと判定する(ステップS116B)。一方、全てのエッジ92eが検出されている場合(S114BのYES)、探索判定部122は、収納物体90の探索が完了したと判定する(ステップS118B)。図8に示した例では、対象物体80によって死角となった箇所、及び、視野範囲12aの外側の箇所について、エッジ92eが検出されていない(図8の破線の楕円で示す)。したがって、この場合、探索判定部122は、収納物体90の探索が完了していないと判定する。なお、後述するS130の処理によって決定された視点位置でセンサ12が測定を行うことによって、未測定のエッジ92eは減少し得る。したがって、S130の処理によって決定された視点位置でセンサ12が測定を行うことを繰り返すことで、全てのエッジ92eが検出される可能性がある。
なお、配置可能領域が空間である場合でも、上記第1の例及び第2の例は適用可能である。第1の例では、探索判定部122は、測定された収納物体90における空間の体積と認識された対象物体80の体積との合計を、収納物体90の配置可能領域の体積と比較してもよい。第2の例では、探索判定部122は、棚板92の周囲の壁面94が全て測定されたかを判定してもよい。
最適視点選択部124は、視点候補が既に算出されているか否かを判定する(ステップS120)。視点候補が算出されていない場合(S120のNO)、最適視点選択部124は、視点候補を算出する(ステップS122)。一方、視点候補が既に算出されている場合(S120のYES)、最適視点選択部124は、視点候補における他の視点位置を検討する(S142〜S150)。なお、S122の処理は、始めの1回のみ行われ得る。
S120において、最適視点選択部124は、収納物体情報及び三次元環境情報を用いて、配置可能領域を測定可能なセンサ12の視点位置を、視点候補として算出する。この場合、最適視点選択部124は、収納物体90のみを考慮し、収納物体90に配置された対象物体80の存在については考慮しない。なお、S122の処理は、三次元環境情報によって示される三次元仮想空間で行われる。
具体的には、最適視点選択部124は、収納物体情報及び三次元環境情報を用いて、センサ12の視野範囲12a(視野角)に、収納物体90の配置可能領域の少なくとも一部が含まれるような視点位置を算出する。最適視点選択部124は、例えば収納物体90の棚板92の少なくとも一部が含まれるような視点位置を算出する。例えば、最適視点選択部124は、三次元仮想空間において視点位置を移動させたときのセンサ12の視野範囲12a(視野角)に棚板92の画像が含まれるか否かを判定する。そして、視野範囲12aに棚板92の画像が含まれる場合に、最適視点選択部124は、その視点位置を視点候補とする。
図9〜図11は、実施の形態1にかかる視点候補の算出方法を説明するための図である。図9において、視点A及び視点Bでは、棚板92の少なくとも一部が、壁面94に遮られないで視野範囲12aに含まれる。したがって、視点A及び視点Bは視点候補に含まれる。一方、視点Cでは、壁面94に遮られてしまうので、棚板92の全ての領域が視野範囲12aに含まれない。したがって、視点Cは視点候補に含まれない。
図10において、センサ12の位置である視点候補12bの範囲が、太線矢印で示されている。この視点候補12bにおける視点では、センサ12は、棚板92の少なくとも一部を測定可能である。一方、破線矢印で示された視点の範囲は、棚板92を全く測定できないので、視点候補から除外されている。
図11において、位置Aにおけるセンサ12の姿勢(向き)である視点候補12bが、実線の太線矢印で示されている。この視点候補12bにおける視点では、センサ12は、棚板92を測定可能である。一方、破線矢印で示された視点の範囲は、棚板92を測定できないので、視点候補から除外されている。
次に、最適視点選択部124は、視点候補から、次のセンサ12の視点位置として最適な視点位置である最適視点位置を選択する(ステップS130)。具体的には、最適視点選択部124は、認識済みの対象物体80(例えば図1の対象物体80A,80B)によって一部が遮られている対象物体80(例えば図1の対象物体80C)を測定可能な位置を、最適視点位置として選択する。また、最適視点選択部124は、認識済みの対象物体80(図1の対象物体80A,80B)によって遮られている領域を測定可能な位置を、最適視点位置として選択する。つまり、位置決定部120は、三次元環境情報を用いて、認識済みの対象物体80(図1の対象物体80A,80B)によって遮られている領域の大きさがより大きくなるような距離画像を撮影可能なセンサ12の位置を、最適視点位置として決定する。
図12〜図14は、実施の形態1にかかる最適視点選択部124の処理を説明するための図である。図12及び図13の例は、一部が測定されたものの他の一部が遮蔽されているため認識されなかった対象物体80(図1の対象物体80C)の測定のために用いられ得る。また、図14の例は、認識された対象物体80の死角となった領域に対象物体80が配置されているか否か不明である場合に用いられ得る。以下、図1に示す例の場合について説明する。
図12に示す例では、最適視点選択部124は、未認識の対象物体80及びその周囲の対象物体80が、センサ12の視野(画角)に広く分布するような視点位置を選択する。具体的には、まず、最適視点選択部124は、図12に破線で示すように、三次元環境情報から、収納物体90に関する位置データを除外する。そして、最適視点選択部124は、三次元環境情報で示される三次元仮想空間において、S122の処理で算出された視点候補の範囲で仮想的に定めた複数の視点位置から上記の複数の対象物体80を見たときに得られる距離画像を、視点位置ごとに抽出する。なお、最適視点選択部124は、センサ12の画角等を示すセンサ情報を用いて、仮想的に定めた視点位置から見たときに得られる距離画像を生成可能である。
そして、最適視点選択部124は、それぞれの距離画像において、複数の対象物体80の両端間の距離を算出する。最適視点選択部124は、その両端間の距離が最も大きくなるような距離画像に対応する視点位置を、最適視点位置として選択する。なお、最適視点選択部124は、両端間の距離が予め定められた閾値よりも大きくなるような距離画像に対応する視点位置を、最適視点位置として選択してもよい。なお、「両端間の距離」は、実際の距離ではなく、距離画像における距離であってよい。したがって、「両端間の距離」は、距離画像における画素数に対応し得る(図13の例でも同様)。ここで、「両端間の距離」が大きくなるような距離画像には、未認識の対象物体80の一部を含む領域が、より大きく含まれることとなる。
図12の例では、視点Xから見た、対象物体80A,80B,80Cそれぞれの画像である対象物体画像80AI,80BI,80CIを含む距離画像ImXが抽出される。同様に、視点Y,Zそれぞれから見た、対象物体画像80AI,80BI,80CIを含む距離画像ImY,ImZが抽出される。そして、最適視点選択部124は、距離画像ImXにおける、対象物体80A,80B,80Cの両端間の距離Wxを算出する。同様に、最適視点選択部124は、距離画像ImY及びImZにおける、対象物体80A,80B,80Cの両端間の距離Wy及びWzを、それぞれ算出する。そして、最適視点選択部124は、Wx>Wy及びWx>Wzである、つまり両端間の距離が最も大きくなるのは距離画像ImXであると判定する。したがって、最適視点選択部124は、最適視点位置として視点Xを選択する。このようにして、図12に示した例では、位置決定部120は、認識済みの対象物体80によって遮られている領域(未認識の対象物体80Cの一部)の大きさがより大きくなるような距離画像を撮影可能なセンサ12の位置を、最適視点位置として決定する。
なお、視点Yに対応する視点のみで測定がなされている場合、図12において、矢印A1で示す箇所は、この処理の時点では、実際にはセンサ12によって測定されていない。したがって、三次元環境情報には矢印A1で示す箇所の位置データは含まれないので、距離画像ImX及びImZにおいては、この箇所が欠損した状態となっていてもよい(図13でも同様)。一方、視点Yに対応する視点のみで測定がなされた場合、矢印B1で示された箇所も測定がなされていない。しかしながら、対象物体80A,80Bについては認識がなされているので、対象物体情報を用いて、矢印B1で示された箇所を描画することは可能である。
図13に示す例では、最適視点選択部124は、距離画像において、未認識の対象物体80の中心位置と認識済みの対象物体80の中心位置との距離が大きくなるような視点位置を選択する。具体的には、最適視点選択部124は、認識された対象物体80の対象物体情報を用いて、三次元環境情報で示される三次元仮想空間における認識された対象物体80の中心軸を算出する。なお、対象物体情報には、対象物体80の中心軸を示す情報が予め含まれていてもよい。
また、最適視点選択部124は、三次元測定データを用いて、未認識の対象物体80のZ軸方向の中心軸を算出する。ここで、三次元測定データでは、未認識の対象物体80の一部のみが測定された状態となっているが、最適視点選択部124は、測定された箇所から推定される範囲で、未認識の対象物体80の中心軸を算出する。例えば、最適視点選択部124は、未認識の対象物体80の上面が測定されている場合、その上面の重心を通る軸を、中心軸と推定してもよい。また、最適視点選択部124は、未認識の対象物体80の左右の側面が測定されている場合、左右の側面の中間を通る軸を、中心軸と推定してもよい。
そして、最適視点選択部124は、三次元環境情報で示される三次元仮想空間において、S122の処理で算出された視点候補の範囲で仮想的に定めた複数の視点位置から上記の複数の対象物体80を見たときに得られる距離画像を、視点位置ごとに抽出する。そして、最適視点選択部124は、それぞれの距離画像において、未認識の対象物体80の中心軸と、認識済みの対象物体80の中心軸との距離を算出する。最適視点選択部124は、その中心間の距離が最も大きくなるような距離画像に対応する視点位置を、最適視点位置として選択する。なお、最適視点選択部124は、中心間の距離が予め定められた閾値よりも大きくなるような距離画像に対応する視点位置を、最適視点位置として選択してもよい。ここで、「中心間の距離」が大きくなるような距離画像には、未認識の対象物体80の一部を含む領域が、より大きく含まれることとなる。
図13の例では、視点X、Yそれぞれから見た、対象物体画像80AI,80BI,80CIを含む距離画像ImX,ImYが抽出される。そして、最適視点選択部124は、距離画像ImXにおける、対象物体80Cの中心軸80Ccと対象物体80Aの中心軸80Acとの距離Dx1、及び、対象物体80Cの中心軸80Ccと対象物体80Bの中心軸80Bcとの距離Dx2を算出する。同様に、最適視点選択部124は、距離画像ImYにおける、対象物体80Cの中心軸80Ccと対象物体80Aの中心軸80Acとの距離Dy1、及び、対象物体80Cの中心軸80Ccと対象物体80Bの中心軸80Bcとの距離Dy2を算出する。そして、最適視点選択部124は、例えば、距離画像ImXにおける中心軸間の距離Dx1及びDx2の平均値(又は最大値)と距離画像ImYにおける中心軸間の距離Dy1及びDy2の平均値(又は最大値)とを比較する。そして、最適視点選択部124は、平均値(又は最大値)が大きくなるのは距離画像ImXであると判定し、最適視点位置として視点Xを選択する。このようにして、図13に示した例では、位置決定部120は、認識済みの対象物体80によって遮られている領域(未認識の対象物体80Cの一部)の大きさがより大きくなるような距離画像を撮影可能なセンサ12の位置を、最適視点位置として決定する。
なお、図13の例では、距離画像における対象物体80の中心軸の距離が分かればよい。したがって、図13の例では、距離画像を抽出する際に、対象物体80の画像が含まれれている必要はなく、それぞれの中心軸が含まれていればよい。
図14の例では、最適視点選択部124は、収納物体90の配置可能領域のうち、未測定の領域が最も大きく視野範囲12aに入るような視点位置を選択する。なお、未測定の領域とは、既に選択された視点位置から測定したときに対象物体80によって遮られた領域及び視野範囲12aの外側であった領域である。図14は、収納物体90の棚板92に対象物体80A,80B,80Cが配置された状態を上方(Z軸正方向)から見た平面図である。そして、対象物体80A,80Bは認識済みであるとする。
最適視点選択部124は、収納物体90の配置可能領域のうち、未測定の領域を抽出する。具体的には、最適視点選択部124は、三次元環境情報、三次元測定データ、及び収納物体情報から、幾何学的に、棚板92のうち測定されていない領域を抽出する。さらに具体的には、最適視点選択部124は、収納物体情報で示される棚板92の上面の位置データのうち、三次元測定データ(三次元環境情報)で測定済みであると示されていない領域を、未測定の領域として抽出する。
そして、最適視点選択部124は、三次元環境情報で示される三次元仮想空間において、視点候補の範囲で仮想的に定めた複数の視点位置から棚板92を見たときに得られる距離画像を、視点位置ごとに抽出する。そして、最適視点選択部124は、それぞれの距離画像において、棚板92のうち未測定の領域の面積を算出する。最適視点選択部124は、その未測定の領域の面積が最も大きくなるような距離画像に対応する視点位置を、最適視点位置として選択する。なお、「未測定の領域の面積」は、実際の面積ではなく、距離画像における面積であってもよい。したがって、「未測定の領域の面積」は、距離画像における未測定の領域に対応する箇所の画素数に対応する。
図14の例では、最適視点選択部124は、矢印Yで示す視点位置からセンサ12が測定を行った場合に未測定であった領域(図14にハッチングで示す)は、矢印Zで示す視点位置からセンサ12が測定を行った場合に、最も大きく視野範囲12aに入ると判定する。したがって、最適視点選択部124は、最適視点位置として、矢印Zに対応する視点位置を選択する。このようにして、図14に示した例では、位置決定部120は、認識済みの対象物体80によって遮られている領域の大きさがより大きくなるような距離画像を撮影可能なセンサ12の位置を、最適視点位置として決定する。
なお、上述した図12〜図14に示した例の他に、最適視点選択部124は、未認識の対象物体80の測定された位置データの不連続性により、最適視点位置を決定してもよい。具体的には、最適視点選択部124は、未認識の対象物体80の測定済みの位置データうち、収納物体90ではなく認識済みの対象物体80により不連続となった箇所の大きさがより大きく撮影されるようなセンサ12の位置を、最適視点位置として決定してもよい。ここで、「認識済みの対象物体80により不連続となった箇所」は、認識済みの対象物体80によって遮られている領域である。さらに、最適視点選択部124は、上述した図12〜図14に示した例及び上記の他の例の2つ以上を組み合わせて、最適視点位置を選択する処理を行ってもよい。
センサ制御部140は、駆動部14を制御して、S130の処理によって決定された視点位置に、センサ12を移動させる(ステップS140)。そして、センサ制御部140は、移動後の視点位置で測定を行うようにセンサ12を制御して、センサ12から、三次元測定データ(距離画像)を取得する(S100)。そして、物体認識部114は、上述した物体認識処理を行う(S102)。最適視点位置で測定することにより、図1等に示した、未認識の対象物体80(対象物体80C)を認識できる可能性が高くなる。
そして、S104の処理がなされた後、探索判定部122は、収納物体90の探索が完了したか否かの判定(S110)、及び、全ての対象物体80についてラベリングがなされたか否かの判定(S112)を行う。例えば対象物体80Cが認識され、収納物体90には他に対象物体80が配置されていないと判定されると(S110のYES及びS112のYES)、制御装置100は、収納物体90に配置された全ての対象物体80の検出が完了したとして、認識結果を出力する(S114)。一方、未だ対象物体80Cが認識されなかった場合、又は、収納物体90に他の対象物体80が配置されているか否か不明であると判定された場合(S110のNO又はS112のNO)、制御装置100の処理はS120に移行する。
そして、S120の処理において、視点候補が既に算出されているので(S120のYES)、最適視点選択部124は、視点候補における他の視点位置を検討する(S142〜S150)。具体的には、最適視点選択部124は、重複測定を避けるため、現在の視点位置、つまり既に測定がなされた視点位置を、視点候補から除外する(ステップS142)。このとき、最適視点選択部124は、現在の視点位置及びその周囲を、視点候補から除外してもよい。そして、最適視点選択部124は、視点候補のうちで、未測定の視点位置があるか否かを判定する(ステップS150)。具体的には、最適視点選択部124は、認識された対象物体80によって遮られた領域をセンサ12が測定可能であり且つ未だ測定されていない視点位置(未測定視点位置)があるか否かを判定する。
未測定視点位置(未測定位置)があると判定された場合(S150のYES)、最適視点選択部124は、S130の処理、つまり最適視点位置の選択を行う。一方、未測定視点位置がないと判定された場合(S150のNO)、最適視点選択部124は、これ以上の検出が不可能であると判定する。そして、制御装置100は、これまでの認識結果を、インタフェース部108等に出力する(ステップS114)。
図15は、実施の形態1にかかる未測定視点位置があるか否かの判定処理(S150)の一例を示すフローチャートである。また、図16〜図18は、図15で示した処理を説明するための図である。まず、最適視点選択部124は、配置可能領域から遮蔽領域を抽出する(ステップS152)。ここで、遮蔽領域とは、配置可能領域(例えば棚板92の上面)のうち、測定された領域でもなく、認識済みの対象物体80の底面に対応すると推測される領域でもない領域である。つまり、遮蔽領域とは、物体(対象物体80又は収納物体90)によって遮られたために測定できなかった領域のうち、認識済みの対象物体80の底面に対応すると推測される領域を除いた領域である。図16〜図18において、遮蔽領域92hが、斜線のハッチングで示されている。
次に、最適視点選択部124は、遮蔽領域92hの境界から配置可能領域の開口部側のエッジ92fまで、障害物に遮られずに結ぶことが可能な直線を検出する(ステップS154)。ここで、障害物とは、例えば、配置可能領域(棚板92)に配置された対象物体80、及び、壁面94である。図16に示す直線L1及びL2は、遮蔽領域92hの境界からエッジ92fまでを、障害物に遮られないで結ぶことができる。一方、図17に示す直線L3及びL4は、遮蔽領域92hの境界からエッジ92fまでを結ぶ際に、障害物(対象物体80A又は対象物体80B)に遮られて(干渉して)しまう。したがって、直線L1及びL2が検出され、直線L3及びL4は検出されない。また、図18に示す例では、対象物体80D及び対象物体80Eによって、遮蔽領域92hの境界からエッジ92fまで、直線で結ぶことができない。このように、配置可能領域の横方向(及び高さ方向)に対して、予め定められた閾値以上の割合で物体が配置された場合には、遮蔽領域92hは、測定不可能となる。
最適視点選択部124は、S154の処理において直線が検出されたか否かを判定する(ステップS156)。直線が検出された場合(S156のYES)、最適視点選択部124は、未測定視点位置があると判定する(ステップS158)。一方、直線が検出されなかった場合(S156のNO)、最適視点選択部124は、未測定視点位置がないと判定する(ステップS160)。図16に示す例では、直線が検出されたので、未測定視点位置があると判定される。一方、図18に示す例では、直線が検出されなかったので、未測定視点位置がないと判定される。
なお、図15〜図17に示した例は、S110の処理の図5〜図6で示した第1の例に対応する。つまり、図15〜図17に示した例は、未測定視点位置の判定を、棚板92における測定されていない領域があるか否かといった観点で行っている。そして、S110の処理の図7〜図8で示した第2の例に対応する方法であっても、未測定視点位置を判定することができる。この場合、最適視点選択部124は、未測定の棚板92のエッジ92e(壁面94に対応)から開口部側のエッジ92fまで、障害物に遮られることなく結ぶことが可能な直線があるか否かを判定してもよい。
以上説明したように、実施の形態1にかかる制御装置100は、センサ12を用いて対象物体80を検出する際に、他の対象物体80等の障害物によって死角となった領域を測定可能な視点位置を、次に測定する際の最適視点位置と決定する。したがって、センサ12を用いて対象物体80を検出する際にセンサ12を移動させる回数及び時間を削減することができる。したがって、実施の形態1にかかる制御装置100は、対象物体80が他の物体によって遮られている場合であっても、効率よく対象物体80を検出することが可能となる。
(実施の形態2)
次に、実施の形態2について説明する。実施の形態2は、対象物体80を除去し得る点で、実施の形態1と異なる。
図19は、実施の形態2にかかる物体検出システム1を示す図である。また、図20は、実施の形態2にかかる物体検出システム1のハードウェア構成を示すブロック図である。実施の形態2にかかる物体検出システム1は、物体検出装置10と、制御装置100とを有する。物体検出装置10は、センサ12と、センサ12を駆動する駆動部14と、アーム20とを有する。アーム20は、例えばロボットアームであり、複数の関節22と、物体を把持可能なエンドエフェクタ24とを有する。アーム20は、制御装置100による制御によって、対象物体80を把持することができる。
図21は、実施の形態2にかかる制御装置100の構成を示す機能ブロック図である。実施の形態2にかかる制御装置100は、情報格納部112、物体認識部114、情報生成部116、位置決定部120、及び、センサ制御部140を有する。さらに、実施の形態2にかかる制御装置100は、除去判定部210と、アーム制御部220とを有する。
図22は、実施の形態2にかかる制御装置100によって行われる、物体検出方法を示すフローチャートである。なお、図22において、図4と実質的に同様の処理については、図示が省略されている。未測定視点がない場合(S150のNO)、除去判定部210は、どの対象物体80を除去すれば、未測定領域(遮蔽領域)が最も良好に測定され得るかを判定する(ステップS210)。具体的には、除去判定部210は、認識済みの対象物体80のうち、除去されたときに測定可能となる領域が最も大きくなる対象物体80(除去物体)を判定する。具体的な判定方法については後述する。このように、実施の形態2にかかる制御装置100は、除去物体を判定することができる。これにより、以後の処理において除去物体を除去して未測定領域を測定することができるので、実施の形態2にかかる制御装置100は、効率的に未測定領域を測定可能とすることが可能となる。
そして、アーム制御部220は、S210で判定された除去物体を取り出して収納物体90以外の場所に移動するように、アーム20を制御する(ステップS230)。具体的には、アーム制御部220は、三次元環境情報を用いて、除去物体(対象物体80)の位置を検出する。アーム制御部220は、収納物体90及び他の対象物体80の位置を抽出し、アーム20が収納物体90及び他の対象物体80に干渉しないような軌道を検出する。そして、アーム制御部220は、検出された軌道でアーム20が動作するように、関節22を制御する。そして、アーム制御部220は、エンドエフェクタ24が除去物体を把持可能な位置に到達したときに、エンドエフェクタ24を制御して、除去物体を把持させる。そして、アーム制御部220は、除去物体を他の場所に移動するように、アーム20を制御する。なお、除去物体が除去された結果、探索していた対象物体80が発見されたときは、アーム制御部220は、その対象物体80を把持して取り出すように、アーム20を制御してもよい。このように、実施の形態2においては、除去物体を自動的に除去することができる。したがって、未測定領域を効率的に測定することが可能となる。
図23は、実施の形態2にかかる、除去物体を判定する方法の例を示すフローチャートである。また、図24〜図28は、図23に示す方法を説明するための図である。まず、除去判定部210は、認識された対象物体80のうち、アーム20を用いて除去可能な候補(除去候補物体)を選択する(ステップS212)。具体的には、除去判定部210は、既に認識できている対象物体80それぞれについて把持可能なアーム20の軌道計画を行い、把持して取り去ることができる除去候補物体を選択する。この選択された除去候補物体の個数をnとする。図24に示した例では、対象物体80A,80B,80Cが除去候補物体であるとする。つまり、n=3である。また、対象物体80Xは、未だ認識されていないとする。
次に、除去判定部210は、現在のセンサ位置において、除去候補物体kそれぞれによって測定不可能な領域(測定不可能領域)v_k(kは1〜nの整数)を算出する(ステップS214)。図25を用いて説明すると、除去判定部210は、除去候補物体である対象物体80A(k=1)によって死角となった測定不可能領域82A(v_1)を算出する。同様に、除去判定部210は、除去候補物体である対象物体80B(k=2)及び対象物体80C(k=3)によって死角となった測定不可能領域82B(v_2)及び測定不可能領域82C(v_3)をそれぞれ算出する。なお、測定不可能領域82B,82Cの一部は、互いに重なっている。
次に、除去判定部210は、除去候補物体kを除去したと仮定したときにn−1個の除去候補物体によって測定不可能となる領域(測定不可能領域)V_kを算出する(ステップS216)。図26は、対象物体80Aを除去したと仮定したときに対象物体80B,80Cによって死角となった測定不可能領域82B,82Cを示す。この測定不可能領域82B,82Cのいずれかが存在する領域が、対象物体80A(k=1)を除去したと仮定したときの測定不可能領域V_1である。つまり、測定不可能領域V_1は、測定不可能領域82B(v_2)と測定不可能領域82C(v_3)との和集合に対応する。
図27は、対象物体80Bを除去したと仮定したときに対象物体80A,80Cによって死角となった測定不可能領域82A,82Cを示す。この測定不可能領域82A,82Cのいずれかが存在する領域が、対象物体80B(k=2)を除去したと仮定したときの測定不可能領域V_2である。つまり、測定不可能領域V_2は、測定不可能領域82A(v_1)と測定不可能領域82C(v_3)との和集合に対応する。
図28は、対象物体80Cを除去したと仮定したときに対象物体80A,80Bによって死角となった測定不可能領域82A,82Bを示す。この測定不可能領域82A,82Bのいずれかが存在する領域が、対象物体80C(k=3)を除去したと仮定したときの測定不可能領域V_3である。つまり、測定不可能領域V_3は、測定不可能領域82A(v_1)と測定不可能領域82B(v_2)との和集合に対応する。
そして、除去判定部210は、測定不可能領域V_kが最も小さくなる除去候補物体kを、除去物体と判定する(ステップS218)。つまり、除去判定部210は、測定不可能領域V_kが最も小さくなったときに除去すると仮定された除去候補物体を、取り去った時に測定可能となる領域が最も大きい対象物体80と判断する。図24〜図28に示した例では、測定不可能領域V_1〜V_3のうち、図27に示した測定不可能領域V_2が最も小さい。したがって、除去判定部210は、対象物体80Bを除去すると判定する。
(変形例)
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、図4等に示したフローチャートの各ステップの順序は、適宜変更可能である。また、図4等に示したフローチャートの1つ以上のステップは、なくてもよい。また、上述した実施の形態では、最適視点位置は、三次元環境4における三次元座標及び向き(角度)を示すとしたが、このような構成に限られない。最適視点位置は、三次元環境における三次元座標を示すとしてもよい。
また、上述した実施の形態において、対象物体80は、棚板92に配置されているとしたが、このような構成に限られない。例えば、対象物体80は、壁面94に設けられたフックに掛けられていてもよい。さらに、対象物体80は、収納物体90に配置(収納)される必要はない。対象物体80は、三次元環境4の床面に配置されてもよい。
また、上述した実施の形態では、センサ12は距離センサ(三次元センサ)であるとしたが、このような構成に限られない。三次元環境情報を生成可能であれば、センサ12は、二次元センサであってもよい。しかしながら、距離センサを用いることによって、複雑な画像処理(エッジ検出及びパターンマッチング等)を行うことなく、容易に物体の三次元位置を認識可能である。
また、上述した実施の形態2においては、除去物体であると判定された対象物体80をアーム20が除去するとしたが、このような構成に限られない。制御装置100は、除去物体がどの対象物体80であるかを、例えばインタフェース部108に出力してもよい。そして、ユーザが、そのインタフェース部108に出力された対象物体80を、手で取り出してもよい。
また、上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1・・・物体検出システム、4・・・三次元環境、10・・・物体検出装置、12・・・センサ、14・・・駆動部、20・・・アーム、80・・・対象物体、80A・・・対象物体、90・・・収納物体、92・・・棚板、94・・・壁面、100・・・制御装置、112・・・情報格納部、114・・・物体認識部、116・・・情報生成部、120・・・位置決定部、122・・・探索判定部、124・・・最適視点選択部、140・・・センサ制御部、210・・・除去判定部、220・・・アーム制御部

Claims (9)

  1. 三次元環境において周囲を測定するセンサを制御して、検出対象である対象物体を検出する制御装置であって、
    前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識する物体認識部と、
    複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成する情報生成部と、
    次に測定を行う際の前記センサの最適位置を決定する位置決定部と、
    前記決定された最適位置に前記センサを移動させるセンサ制御部と
    を有し、
    前記位置決定部は、前記三次元環境情報を用いて、前記物体認識部によって認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、前記最適位置として決定する
    制御装置。
  2. 前記位置決定部は、前記対象物体が配置され得る収納物体の位置及び形状に応じて、前記対象物体が配置され得る領域である配置可能領域を測定可能な前記センサの位置を、前記最適位置の候補として算出し、前記候補から、前記最適位置を選択する
    請求項1に記載の制御装置。
  3. 前記位置決定部は、前記候補の位置のうち、前記センサが前記第1の物体によって遮られた領域を測定可能であり且つ未だ測定されていない未測定位置があるか否かを判定し、前記未測定位置があると判定された場合に、前記最適位置を決定する処理を行う
    請求項2に記載の制御装置。
  4. 前記未測定位置がないと判定された場合に、前記第1の物体によって遮られた領域が測定され得るように、除去すべき前記第1の物体を判定する除去判定部
    をさらに有する請求項3に記載の制御装置。
  5. 前記判定された前記第1の物体を除去するように、アームを制御するアーム制御部
    をさらに有する請求項4に記載の制御装置。
  6. 前記位置決定部は、前記三次元環境情報を用いて、前記対象物体が配置され得る領域である配置可能領域の探索が完了したか否かを判定し、探索が完了していないと判定された場合に、前記最適位置を決定する処理を行う
    請求項1〜5のいずれか一項に記載の制御装置。
  7. 三次元環境において周囲を測定するセンサと、
    前記センサを制御して、検出対象である対象物体を検出する制御装置と
    を有し、
    前記制御装置は、
    前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識する物体認識部と、
    複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成する情報生成部と、
    次に測定を行う際の前記センサの最適位置を決定する位置決定部と、
    前記決定された最適位置に前記センサを移動させるセンサ制御部と
    を有し、
    前記位置決定部は、前記三次元環境情報を用いて、前記物体認識部によって認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、前記最適位置として決定する
    物体検出システム。
  8. 三次元環境において周囲を測定するセンサを制御して、検出対象である対象物体を検出する物体検出方法であって、
    前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識するステップと、
    複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成するステップと、
    前記三次元環境情報を用いて、前記認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、次に測定を行う際の前記センサの最適位置として決定するステップと、
    前記決定された最適位置に前記センサを移動させるステップと
    を有する物体検出方法。
  9. 三次元環境において周囲を測定するセンサを制御して、検出対象である対象物体を検出する物体検出方法を実行するプログラムであって、
    前記センサから取得された測定データを用いて、前記三次元環境に存在する前記対象物体を認識するステップと、
    複数の前記測定データを統合することによって、前記三次元環境に存在する物体の各位置を示す三次元環境情報を生成するステップと、
    前記三次元環境情報を用いて、前記認識された前記対象物体である少なくとも1つの第1の物体によって遮られている領域の大きさがより大きくなるような画像を撮影可能な前記センサの位置を、次に測定を行う際の前記センサの最適位置として決定するステップと、
    前記決定された最適位置に前記センサを移動させるステップと
    をコンピュータに実行させるプログラム。
JP2018079235A 2018-04-17 2018-04-17 制御装置、物体検出システム、物体検出方法及びプログラム Pending JP2019185664A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018079235A JP2019185664A (ja) 2018-04-17 2018-04-17 制御装置、物体検出システム、物体検出方法及びプログラム
US16/358,988 US10957067B2 (en) 2018-04-17 2019-03-20 Control apparatus, object detection system, object detection method and program
CN201910293095.3A CN110390692A (zh) 2018-04-17 2019-04-12 控制装置、物体检测系统、物体检测方法和计算机可读介质
US17/182,625 US20210174538A1 (en) 2018-04-17 2021-02-23 Control apparatus, object detection system, object detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018079235A JP2019185664A (ja) 2018-04-17 2018-04-17 制御装置、物体検出システム、物体検出方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019185664A true JP2019185664A (ja) 2019-10-24

Family

ID=68161762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018079235A Pending JP2019185664A (ja) 2018-04-17 2018-04-17 制御装置、物体検出システム、物体検出方法及びプログラム

Country Status (3)

Country Link
US (2) US10957067B2 (ja)
JP (1) JP2019185664A (ja)
CN (1) CN110390692A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111133256B (zh) * 2017-09-28 2022-03-29 大金工业株式会社 环境控制单元的控制装置
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
JP7393184B2 (ja) * 2019-11-07 2023-12-06 東芝テック株式会社 点群データ処理装置
US11450024B2 (en) * 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11769272B2 (en) * 2020-07-30 2023-09-26 Toyota Research Institute, Inc. Distinguishing, in a point cloud data set represented by an image, a first object from a second object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012037491A (ja) * 2010-08-11 2012-02-23 Topcon Corp 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
JP2013010155A (ja) * 2011-06-28 2013-01-17 Canon Inc 対象物把持装置、対象物把持装置の制御方法、およびプログラム
JP2016099257A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241644A (ja) * 2006-03-08 2007-09-20 Toyota Motor Corp 視覚探索方法
JP4961860B2 (ja) * 2006-06-27 2012-06-27 トヨタ自動車株式会社 ロボット装置及びロボット装置の制御方法
JP2013101045A (ja) 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
CN104509102B (zh) * 2012-07-27 2017-12-29 日产自动车株式会社 三维物体检测装置和异物检测装置
JP6357622B2 (ja) 2014-03-28 2018-07-18 石川県 作業支援装置、作業支援システム、作業支援方法およびプログラム
US9900583B2 (en) * 2014-12-04 2018-02-20 Futurewei Technologies, Inc. System and method for generalized view morphing over a multi-camera mesh
US10120635B2 (en) * 2016-03-09 2018-11-06 Samsung Electronics Co., Ltd. Configuration and operation of display devices including device management
US10783170B2 (en) * 2016-08-19 2020-09-22 Adobe Inc. Geotagging a landscape photograph
US10979613B2 (en) * 2016-10-17 2021-04-13 Dolby Laboratories Licensing Corporation Audio capture for aerial devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012037491A (ja) * 2010-08-11 2012-02-23 Topcon Corp 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
JP2013010155A (ja) * 2011-06-28 2013-01-17 Canon Inc 対象物把持装置、対象物把持装置の制御方法、およびプログラム
JP2016099257A (ja) * 2014-11-21 2016-05-30 キヤノン株式会社 情報処理装置及び情報処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALEXANDER ANDREOPOULOS ET AL.: ""Active 3D Object Localization Using a Humanoid Robot"", IEEE TRANSACTIONS ON ROBOTICS, vol. 27, no. 1, JPN6021047523, 10 December 2010 (2010-12-10), US, pages 47 - 64, XP011333015, ISSN: 0004649143, DOI: 10.1109/TRO.2010.2090058 *
大槻 正樹、佐藤 幸男: ""物体の形状計測におけるレンジファインダの視点選択"", 電子情報通信学会論文誌, vol. 81, no. 6, JPN6021047521, 25 June 1998 (1998-06-25), JP, pages 1269 - 1277, ISSN: 0004700771 *

Also Published As

Publication number Publication date
US10957067B2 (en) 2021-03-23
CN110390692A (zh) 2019-10-29
US20190318498A1 (en) 2019-10-17
US20210174538A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
JP2019185664A (ja) 制御装置、物体検出システム、物体検出方法及びプログラム
JP6988704B2 (ja) センサ制御装置、物体探索システム、物体探索方法及びプログラム
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
EP3166043B1 (en) Locating a feature for robotic guidance
KR102086884B1 (ko) 로봇 제어 장치 및 로봇 제어 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN110640730B (zh) 生成用于机器人场景的三维模型的方法和系统
KR100920931B1 (ko) Tof 카메라를 이용한 로봇의 물체 자세 인식 방법
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
KR20100104581A (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
JP5205366B2 (ja) 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
JP2016091053A (ja) 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6237122B2 (ja) ロボット、画像処理方法及びロボットシステム
JP2018097889A (ja) 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
JP2014106856A (ja) 画像認識方法および画像認識装置
JP6802923B2 (ja) 物体検出装置、及び、物体検出手法
CN111742349B (zh) 信息处理装置、信息处理方法以及信息处理存储介质
JP2015079374A (ja) 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
US11501459B2 (en) Information processing apparatus, method of information processing, and information processing system
JP5820297B2 (ja) 物体認識システム、物体認識装置
KR101747350B1 (ko) 비주얼 서보잉을 위한 객체의 좌표 인식 방법
WO2023140266A1 (ja) ピッキング装置及び画像生成プログラム
JP2021133458A (ja) 3次元計測装置および3次元計測システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208