JP6721998B2 - 物体状態特定方法、物体状態特定装置、および、搬送車 - Google Patents

物体状態特定方法、物体状態特定装置、および、搬送車 Download PDF

Info

Publication number
JP6721998B2
JP6721998B2 JP2016032528A JP2016032528A JP6721998B2 JP 6721998 B2 JP6721998 B2 JP 6721998B2 JP 2016032528 A JP2016032528 A JP 2016032528A JP 2016032528 A JP2016032528 A JP 2016032528A JP 6721998 B2 JP6721998 B2 JP 6721998B2
Authority
JP
Japan
Prior art keywords
plane
point
object state
opening
stable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016032528A
Other languages
English (en)
Other versions
JP2017151652A (ja
Inventor
雅臣 飯田
雅臣 飯田
橋本 学
橋本  学
翔一 武井
翔一 武井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP2016032528A priority Critical patent/JP6721998B2/ja
Priority to US15/440,106 priority patent/US10347005B2/en
Publication of JP2017151652A publication Critical patent/JP2017151652A/ja
Application granted granted Critical
Publication of JP6721998B2 publication Critical patent/JP6721998B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本発明は、物体の位置や姿勢などの状態を特定するための物体状態特定方法、物体状態特定装置、および、物体状態特定装置を備える搬送車であって、特に、無人搬送車などが物体を保持する際に、開口部を有する平面部を表面に備える物体の位置や姿勢などを示す物体状態を特定するための物体状態特定方法、物体状態特定装置、および、搬送車に関する。
物体を撮影した画像情報に基づいて、物体状態の特定を行う物体状態特定方法としては、種々のものが提案されている。
例えば、特許文献1には、位置を変えて設けられた一対のカメラにより撮影された2つの画像データに基づいて、物体の各点における距離情報を含む三次元情報を生成し、これに基づいて物体状態の特定を行う装置が開示されている。
また、特許文献2には、TOF(Time Of Flight)カメラにより得られる物体の各箇所の距離情報(三次元情報)を用い、距離情報の中の特徴点をヒストグラム化して特徴量を算出し、参照パターンとの比較により物体の特定を行う装置が開示されている。
さらに、特許文献3には、物体の各箇所の二次元情報と距離情報とから物体の三次元座標を算出し、参照パターンとなる三次元モデルのデータとマッチングすることで、物体の状態の特定を行う装置が開示されている。
特開平09−218014号公報 国際公開第2010/140613号 特開2012−123781号公報
従来の特許文献1〜3に示すような物体の状態を特定する装置では、物体を撮影して得られる三次元情報から、物体の特徴点を抽出し、当該特徴点から物体の状態の特定を行っている。
従来の方法では、高速化と精度とはトレードオフの関係にあり、高速化と精度とを両立することは困難である。
本発明は、上記課題に鑑みなされたものであり、開口部を有する平面部を表面に備える物体に着目することにより、低い演算負荷で高速かつ精度よく特定する物体状態特定方法、物体状態特定装置、および、搬送車の提供を目的としている。
上記目的を達成するために、本願発明にかかる物体状態特定方法は、開口部を有する平面部を表面に備える物体の前記平面部の複数箇所について、三次元データである実測値をセンサにより取得し、前記センサに対する物体の位置、および、姿勢の少なくとも一方を含む物体状態を特定する物体状態特定方法であって、所定の特徴量に基づき前記開口部の周縁の位置を示す対応点値を抽出し、前記対応点値に基づき前記平面部を含む面を示す平面方程式を算出して仮想平面を決定し、前記仮想平面に乗る前記実測値を安定点として抽出し、前記安定点に基づいて前記物体の物体状態を特定することを特徴としている。
また、上記目的を達成するために、本願発明にかかる物体状態特定装置は、開口部を有する平面部を表面に備える物体の前記平面部の複数箇所について、三次元データである実測値をセンサより取得する実測値取得部と、所定の特徴量に基づき前記開口部の周縁の位置を示す対応点値を抽出する対応点抽出部と、前記対応点値に基づき前記平面部を含む面を示す平面方程式を算出して仮想平面を決定する仮想平面決定部と、前記仮想平面に乗る前記実測値を安定点として当該安定点に基づいて前記物体の物体状態を特定する物体状態特定部とを備えることを特徴としている。
これにより、高速かつ正確に物体の位置、姿勢を特定することが可能となる。
また、上記目的を達成するために、本願発明にかかる搬送車は、開口部を有する平面部を表面に備える物体の前記開口部にフォークを挿入して前記物体を搬送する搬送車であって、前記搬送車に設けられ、前記物体の平面部の複数箇所について、三次元データである実測値を取得するセンサと、前記実測値に基づき前記センサに対する物体の位置、および、姿勢の少なくとも一方を含む物体状態を特定する物体状態特定装置とを備え、前記物体状態特定装置は、開口部を有する平面部を表面に備える物体の前記平面部の複数箇所について、三次元データである実測値をセンサより取得する実測値取得部と、所定の特徴量に基づき前記開口部の周縁の位置を示す対応点値を抽出する対応点抽出部と、前記対応点値に基づき前記平面部を含む面を示す平面方程式を算出して仮想平面を決定する仮想平面決定部と、前記仮想平面に乗る前記実測値を安定点として当該安定点に基づいて前記物体の物体状態を特定する物体状態特定部とを備えることを特徴としている。
これによれば、低い演算負荷の下で物体の位置、姿勢を高速にフィードバックすることができ、高速かつスムーズに物体を保持することができる搬送車を提供することができる。
なお、前記物体状態特定方法が含む各処理をコンピュータに実行させるためのプログラムを実施することも本願発明の実施に該当する。無論、そのプログラムが記録された記録媒体を実施することも本願発明の実施に該当する。
本発明によれば、低い演算負荷の下で物体の位置や姿勢を簡単かつ高速に特定することができ、正確さも両立できる。
図1は、物体および搬送車を示す斜視図である。 図2は、物体状態特定装置の機能構成を示すブロック図である。 図3は、センサにより得られた実測値を視覚化して示す図である。 図4は、物体状態特定部の機能構成を詳細に示すブロック図である。 図5は、姿勢特定部の処理動作を視覚化して示す図である。 図6は、仮想平面から開口部の中心を求める処理動作を視覚化して示す図である。 図7は、仮想平面から物体の位置を求める処理動作を視覚化して示す図である。 図8は、準備段階におけるモデル特徴量の処理の流れを示すフローチャートである。 図9は、搬送車が物体を保持するまでの流れを示すフローチャートである。
次に、本願発明に係る物体状態特定方法の実施の形態について、図面を参照しつつ説明する。なお、以下の実施の形態は、本願発明に係る物体状態特定方法の一例を示したものに過ぎない。従って本願発明は、以下の実施の形態を参考に請求の範囲の文言によって範囲が画定されるものであり、以下の実施の形態のみに限定されるものではない。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
また、図面は、本願発明を示すために適宜強調や省略、比率の調整を行った模式的な図となっており、実際の形状や位置関係、比率とは異なる場合がある。
(実施の形態)
図1は、物体および搬送車を示す斜視図である。
物体200は、平面部201と開口部210とを備えているものであり、特に種類が制限されるものではなく、搬送可能な物品や搬送が困難な固定的な構造物などでもよい。
平面部201は、物体200の表面の一部であり、平面部201の一部に開口部210を備えている。
開口部210は、平面部201から陥凹する穴の開口端部や平面部201から他方の端面まで貫通する孔の平面部201側の開口端部である。開口部210の形状は、特に限定されるものでは無く、正方形を含む矩形や円、楕円、長円などでもかまわない。また、平面部201に設けられる開口部210の数も特に制限されるものではなく、一つの平面部201に開口部210が一つ存在しても複数個存在していてもかまわない。
本実施の形態の場合、物体200は、物流の現場などにおいて荷物が載置される基板となるパレットである。パレットとしての物体200は、平面視でほぼ正方形の板状であり、一側面に該当する平面部201には二つの開口部210が配置されている。開口部210は、平面部201から反対側の端面まで貫通する孔の開口端部に該当している。二つの開口部210は、それぞれ横長の矩形であり同一形状である。また、二つの開口部210は、平面部201の幅方向(図中X軸方向)の中心で上下方向(図中Y軸方向)に延びる軸を対称軸として線対称の関係となるように配置されている。開口部210は、搬送車100のフォーク101が挿入可能な大きさに設定されている。
搬送車100は、開口部210を有する平面部201を表面に備える物体200の開口部210にフォーク101を挿入して物体200を持ち上げて搬送する台車である。本実施の形態の場合、搬送車100は、フォーク101を形成する二本の爪を備えており、それぞれの爪の先端にセンサ102を備えている。二本の爪は、相互に平行に配置されており、搬送車100が走行する床面と平行を維持したまま上下に移動可能となるように搬送車システム110に取り付けられている。また、搬送車100は、無人で自律的に走行し荷物を搬送することができる無人搬送車であり、内部に物体状態特定装置103(図2参照)を備えている。
センサ102は、物体200の開口部210を含む平面部201の複数箇所について、三次元データである実測値を取得することができる装置であれば特に限定されるものではない。例えばセンサ102としては、2つのカメラを備え、2つの二次元画像の視差により実測値を取得するセンサや、カメラの周囲に設けられたLEDにより赤外光を照射し、対象物から反射した反射光が、カメラで観測されるまでの時間を撮像画素ごとに計測することで、対象物まで距離を画素ごとに測定するTOF(Time Of Flight)カメラや、レーザー光をスキャンさせてレーザー光の反射光に基づき複数箇所の座標と距離とを測定する測距センサを挙示することができる。本実施の形態の場合、センサ102は、TOFカメラであるとして説明する。
図2は、物体状態特定装置の機能構成を示すブロック図である。
物体状態特定装置103は、センサ102に対する物体200の位置、および、姿勢の少なくとも一方を含む物体状態を特定する装置であり、実測値取得部131と、実特徴量算出部134と、対応点抽出部135と、物体状態特定部136と、モデル特徴量を記憶する記憶部137とを備えている。
記憶部137は、物体200の幾何的特徴を表すモデル特徴量を保存する。モデル特徴量は、例えば、センサ102に対する位置と姿勢とが明確に判るように物体200を配置し、センサ102から得られる物体200の表面の各点に関する三次元のデータに基づき得られる特徴量などである。具体的に例えば、モデル特徴量は、点の集合及び各点を結んで構成される線分の集合によって定義される。モデル特徴量は、1)特徴点3点の隣り合う点間の距離範囲、2)3点の両端の点間の距離範囲、3)3点の特徴点の間をなす角度範囲、4)各特徴点・補間点のFPFHヒストグラムの次元(角度)ごとの平均及び分散などである。
実測値取得部131は、センサ102により測定された物体200の平面部201の複数箇所のセンサ102に対する位置、および、センサ102からの距離を示す実測値を取得する処理部である。
本実施の形態の場合、搬送車100は、フォーク101の先端にそれぞれTOFカメラであるセンサ102を備えており、一つのセンサ102が一つの開口部210を含むその周辺の平面部201の測定を担っている。実測値取得部131は、それぞれのセンサ102から得られた実測値をセンサ102の位置関係を考慮して統合している。統合された実測値を二次元画像として示すと図3に示す画像のようになる。
実特徴量算出部134は、実測値取得部131により取得された各実測値を基準として先にモデル特徴量を算出した手法と同じ手法で実特徴量を算出する処理部である。
特徴量を算出する手法は、特に制限されるものではない。前述の手法ばかりでなく、例えば各点における法線方向ベクトルが、周辺特徴点の法線ベクトルとなす角度に基づいて生成される法線方向ヒストグラムにより特徴量を算出してもかまわない。具体的には、FPFH(Fast Point Feature Histgrams)を用いることができる。また、実測値が三次元データであることから、距離データに基づく各点における距離ヒストグラムにより特徴量を算出してもかまわない。この他にも、特徴量を算出する手法としては、各画素の輝度に基づいて輝度ヒストグラムにより特徴量を算出してもかまわない。
対応点抽出部135は、記憶部137が記憶しているモデル特徴量と実特徴量算出部134が算出した実特徴量とを比較し、モデル特徴量にマッチした実特徴量の基準となった実測値を平面部201の位置を示す対応点の値である対応点値を抽出する処理部である。
本実施の形態の場合、対応点抽出部135は、実測値について、それぞれ実特徴量算出部134で算出される特徴量を、記憶部137に保存されたモデルのデータと比較する。マッチングは、記憶部137に記憶されているモデル特徴量と実特徴量との類似度に基づき行われる。
なお、対応点抽出部135は、実測値のダウンサンプリングを行ってもよい。例えば、実測値のうちから、特定の幾何的関係にある1又は複数の実測値の組を抽出し、所定範囲の距離だけ離間し、各点を結ぶ線分がなす角度が所定範囲であれば、この3点の特徴点をマッチングの候補点とするダウンサンプリングを行ってもよい。また、対応点抽出部135は、中央に位置する特徴点と、他の2つの特徴点との間の中間点を、それぞれパターンマッチングの候補点とするダウンサンプリングを行ってもよい。また、このダウンサンプリングは、実特徴量算出部134において行ってもかまわない。
物体状態特定部136は、対応点抽出部135が抽出した対応点値に基づきセンサ102に対する物体の位置、および、姿勢の少なくとも一方を含む物体状態を特定する処理部である。
図4は、物体状態特定部136を詳細に示すブロック図である。
同図に示すように、物体状態特定部136は、仮想平面決定部161と、安定点算出部162と、姿勢特定部163と、位置特定部164とを備えている。
仮想平面決定部161は、対応点抽出部135により抽出された対応点値に基づき平面部201を含む面を示す平面方程式を算出する処理部である。平面方程式を算出する手法は特に制限されるものではないが、本実施の形態では対応点抽出部135により抽出された対応点の中にはノイズが含まれていると考えられるため、外れ値を除外して平面方程式のパラメータを推定をする手法(例えば、RANSAC(Random sample consensus)等)を用いている。
安定点算出部162は、仮想平面決定部161により算出された仮想平面に乗る実測値を安定点として抽出する処理部である。
ここで、仮想平面に乗るとは、仮想平面決定部161により算出された平面方程式を満たす実測値ばかりでなく、誤差の範囲で平面方程式を満たす実測値も含む意味として用いている。
姿勢特定部163は、安定点に基づいて物体200の姿勢を特定する処理部である。ここで、姿勢とは、センサ102に対する物体200の向きである。具体的に例えば、姿勢とは、センサ102の測定領域の中心とセンサとを結ぶ測定軸と、物体200の向きを示す代表軸との三次元的な角度である。また本実施の形態の場合、パレットとしての物体200と搬送車100とは、同一平面(床面)上に配置されるものであるため、物体200の姿勢とは、開口部210を形成する貫通孔の管軸である代表軸と搬送車100の直進方向との角度となる。
姿勢特定部163が姿勢を特定する手法は特に限定されるものではない。例えば、仮想平面決定部161が決定した仮想平面の法線を物体200の向きを示す代表軸とし、搬送車100等から取得した搬送車100の直進方向を基準に物体200の姿勢を特定してもよい。
本実施の形態の場合、仮想平面と交差する面であって、物体200と搬送車100とが配置される床面に相当する面に安定点を投影し、得られた投影点群の中から前方に位置する点である前方点群を抽出し、当該前方点群に基づき物体200の姿勢を特定している。前方点群に基づき物体200の姿勢を特定する手法は、特に限定されるものではない。本実施の形態では前方点の中にはノイズが含まれていると考えられるため、平面方程式を作成した場合と同様に、外れ値を除外して直線方程式のパラメータを推定をする手法(例えば、RANSAC(Random sample consensus)等)を用いている。これにより、正確に物体200の姿勢を特定することが可能となる。
ここで、前方点の特定は次のようにして行われる。図5の(a)の部分に示すように、投影点群109は、線状に集まっている。なお、図中は矩形の帯状に整列して記載されているが、実際に投影点は帯状は維持しつつランダムな配置となっている。次に、図5の(b)の部分に示すように、投影点190の中の1点を着目点191とし、着目点191を含む領域199(本実施の形態では円)内に含まれる投影点190を抽出する。着目点191から抽出された各投影点190までのベクトルである着目点ベクトル192と、仮想平面決定部161が決定した仮想平面の法線ベクトル193との角度θを算出する。所定の角度範囲(図5の(c)の斜線部)内に角度θが含まれない場合、つまり、着目点ベクトル192を中心として所定の角度範囲内に他の投影点190がない場合、着目点191を前方点として特定する。これを異なる複数の投影点についてそれぞれを着目点191として前方点を特定し、前方点群を抽出する。
位置特定部164は、安定点算出部162が算出した安定点に基づき開口部210の中心位置を特定し、これを物体200の位置として特定する。
開口部210の中心位置を特定する手法は、特に制限されるものではないが、例えば以下の方法を例示することができる。
(位置特定方法例1)
まず、仮想平面決定部161で決定した仮想平面上にランダムに仮点を生成する。次に、安定点の近傍に存在する仮点を除外する。除外した結果、残存点群169は図6に示すような形状となる。次に、残存した仮点である残存点群の重心(中心)を算出する。算出された重心(中心)位置は、開口部210の中心位置168となる。
本実施の形態の場合、物体200はパレットであり、平面部201に開口部210が2箇所設けられている。また、二つの開口部210は、物体200が載置される平面(床面)と平行な面内に配置されている。従って、位置特定部164は、二つの開口部210のそれぞれについて中心位置を算出し、これら二つの中心位置を結ぶ線分の中点を物体200の位置としている。
なお、二つの開口部210の中心位置を算出する場合に、事前に安定点を二つにクラスタリングし、それぞれのクラスに属する安定点に基づき開口部210のそれぞれの中心位置を算出してもかまわない。
(位置特定方法例2)
本実施の形態の場合、物体200はパレットであり、平面部201に開口部210が2箇所設けられている。また、二つの開口部210は、物体200が載置される平面(床面)と平行な面内に配置され、二つの開口部210の形状は同一である。以上の前提に基づき、安定点が線対称の配置となる対称軸に基づき物体200の位置を特定する。
まず、仮想平面決定部161で決定した仮想平面上にランダムに仮点を生成する。次に、安定点の近傍に存在する仮点を除外する。除外した結果、残存点群169は図7に示すような形状となる。残存した仮点である残存点群から上下方向(Y軸方向)の最大値y_max、および、最小値y_minを算出する。次に、最大値y_maxから最小値y_minまでの範囲に含まれる安定点から最も内側にある安定点を抽出し、線状の縁成分167を抽出する。次に、予め算出した中心位置、例えば二つの開口部210の中心を結ぶ線分の中点を通る上下方向に延びる軸を基準にして、折り返した場合に各縁成分167の位置合わせ誤差が最小となる折り返し線166を探索して決定する。以上により決定された折り返し線166が物体200の位置となる。
なお、二つの開口部210の縁成分167を算出する場合に、事前に安定点を二つにクラスタリングし、それぞれのクラスに属する安定点に基づき縁成分167を算出してもかまわない。
次に、搬送車システム110における搬送車100の物体200を保持するまでの動作を説明する。
図8は、準備段階におけるモデル特徴量の処理の流れを示すフローチャートである。
まず準備として、モデル特徴量を算出しておく(S101)。モデル特徴量の算出は上述の技術を用いて行うことができる。次に、作成されたモデル特徴量を搬送車100の記憶部137に記憶させる(S102)。
図9は、搬送車が物体を保持するまでの流れを示すフローチャートである。
物体200であるパレットは、例えば、自動倉庫の搬出入ステーションに配置されている。当該ステーションに存在する物体200を搬送する指令を受信した搬送車100は、記憶しているマップなどに基づき物体200が配置されているステーションにフォーク101を物体200に向けた状態で近づく(S201)。
次に、フォーク101の先端に取り付けられているセンサ102を稼働させて、物体200の平面部201内における複数箇所の位置、および、距離を三次元的に計測する(S202)。
実測値取得部131は、センサ102からデータとして実測値を取得する(S203)。
実測値を取得すると、実特徴量算出部134は、それぞれの実測値について実特徴量を算出する(S204)。なお、実測値が多く処理に時間を要する場合は、前述の手法などを用いてダウンサンプリングを行った後、実特徴量を算出してもかまわない。
次に、記憶部137に記憶されたモデル特徴量と算出された実特徴量とをマッチングし、所定範囲の類似度を示す実特徴量の基準となった実測値を対応点値として抽出する(S205)。
次に、物体状態特定部136は、仮想平面を決定して、安定点を算出する(S207)。
次に、物体状態特定部136は、安定点に基づき物体状態を特定する(S209)。
最後に、搬送車100は、得られた物体状態に基づき操舵輪や駆動輪についてフィードバック制御を行い、開口部210を端部に有する貫通孔の軸とフォーク101の軸とが合致した段階で、フォーク101を開口部210に挿入し、物体200を持ち上げて保持する(S210)。
本発明によれば、開口部210と平面部201に着目し、特徴量でマッチングを行って対応点を抽出し平面方程式により安定点を抽出しているため、多数の安定点に基づき正確に物体200の位置や姿勢を特定することが可能となる。
さらに、開口部が左右対称に配置されていることに基づき、高速かつ正確に物体200の状態を把握することが可能となる。
なお、本願発明は、上記実施の形態に限定されるものではない。例えば、本明細書において記載した構成要素を任意に組み合わせて、また、構成要素のいくつかを除外して実現される別の実施の形態を本願発明の実施の形態としてもよい。また、上記実施の形態に対して本願発明の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本願発明に含まれる。
例えば、実測値を複数の画像を解析することにより得てもよく、この場合、対応点を抽出する際のマッチングは、画像の特徴点から、所定の幾何的条件を満たす所定数の特徴点をマッチング候補点として抽出してもよい。
また、画像特徴点の検出は、Harris処理、又はSIFT(Scale Invariant Feature Transform)処理することにより、特徴点を検出してもよい。また、ISS(Intrinsic Shape Signatures)でもよい。
特徴点の検出方法は、画像の各画素について、色や輝度変化が大きくなる点を検出できればよく、Harris作用素、又はSIFT作用素を用いる方法の他に、公知の技術を用いることができる。
また、モデルを仮想的なモデルを任意に作成してもかまわない。
また、開口部210の形状は矩形に限定されるものではなく、多角形、円形、楕円形、長円形などでもかまわない。開口部210の形状が円形である場合、コーナーモデルは、扇型の面と当該面と交差する円周面とで構成されるが、円周面は複数の平面の集合面であるとしてコーナーモデルを作成してもかまわない。
本発明は、物体の位置と姿勢とを特定する特定装置に適用でき、例えば、無人搬送車や搬送車などに搭載される物体状態特定装置に適用可能である。
100 搬送車
101 フォーク
102 センサ
103 物体状態特定装置
109 投影点群
110 搬送車システム
131 実測値取得部
134 実特徴量算出部
135 対応点抽出部
136 物体状態特定部
137 記憶部
161 仮想平面決定部
162 安定点算出部
163 姿勢特定部
164 位置特定部
166 折り返し線
167 縁成分
168 中心位置
169 残存点群
190 投影点
191 着目点
192 着目点ベクトル
193 法線ベクトル
199 領域
200 物体
201 平面部
210 開口部

Claims (10)

  1. 開口部を有する平面部を表面に備える物体の前記平面部の複数箇所について、三次元データである実測値をセンサにより取得し、前記センサに対する物体の位置、および、姿勢の少なくとも一方を含む物体状態を特定する物体状態特定方法であって、
    所定の特徴量に基づき前記開口部の周縁の位置を示す対応点値を抽出し、
    前記対応点値に基づき前記平面部を含む面を示す平面方程式を算出して仮想平面を決定し、
    前記仮想平面に乗る前記実測値を安定点として抽出し、
    前記安定点に基づいて前記物体の物体状態を特定する、
    物体状態特定方法。
  2. 前記仮想平面と交差する面に前記安定点を投影し、得られた投影点群に基づき前記物体の姿勢を特定する、
    請求項1に記載の物体状態特定方法。
  3. 前記仮想平面と交差する面に前記安定点を投影し、得られた投影点群のなかから前方に位置する点である前方点群を抽出し、
    前記前方点群に基づき前記物体の姿勢を特定する、
    請求項1に記載の物体状態特定方法。
  4. 前記安定点に基づき前記開口部の中心位置を特定する、
    請求項1〜3のいずれか一項に記載の物体状態特定方法。
  5. 前記平面部は開口部を2箇所に備え、
    前記安定点を二つにクラスタリングし、それぞれのクラスに属する前記安定点に基づき前記開口部のそれぞれの中心位置を特定する、
    請求項1〜4のいずれか一項に記載の物体状態特定方法。
  6. 前記平面部は開口部を2箇所に備え、
    前記安定点に基づき前記開口部のそれぞれの中心位置を特定し、
    特定された二つの中心位置の中点に基づき前記物体の位置を特定する、
    請求項1〜5のいずれか一項に記載の物体状態特定方法。
  7. 前記平面部は、前記開口部を2箇所に備え、
    前記安定点が線対称の配置となる対称軸に基づき前記物体の位置を特定する、
    請求項1〜6のいずれか一項に記載の物体状態特定方法。
  8. 前記開口部の形状は矩形であり、
    前記安定点から前記開口部の縁を抽出し、抽出された縁が線対称の配置となる対称軸に基づき前記物体の位置を特定する、
    請求項7に記載の物体状態特定方法。
  9. 開口部を有する平面部を表面に備える物体の前記平面部の複数箇所について、三次元データである実測値をセンサより取得する実測値取得部と、
    所定の特徴量に基づき前記開口部の周縁の位置を示す対応点値を抽出する対応点抽出部と、
    前記対応点値に基づき前記平面部を含む面を示す平面方程式を算出して仮想平面を決定する仮想平面決定部と、
    前記仮想平面に乗る前記実測値を安定点として当該安定点に基づいて前記センサに対する前記物体の位置、および、姿勢の少なくとも一方を含む前記物体の物体状態を特定する物体状態特定部と、
    を備える物体状態特定装置。
  10. 開口部を有する平面部を表面に備える物体の前記開口部にフォークを挿入して前記物体を搬送する搬送車であって、
    前記搬送車に設けられ、前記物体の平面部の複数箇所について、三次元データである実測値を取得するセンサと、
    前記実測値に基づき前記センサに対する物体の位置、および、姿勢の少なくとも一方を含む物体状態を特定する物体状態特定装置とを備え、
    前記物体状態特定装置は、
    開口部を有する平面部を表面に備える物体の前記平面部の複数箇所について、三次元データである実測値をセンサより取得する実測値取得部と、
    所定の特徴量に基づき前記開口部の周縁の位置を示す対応点値を抽出する対応点抽出部と、
    前記対応点値に基づき前記平面部を含む面を示す平面方程式を算出して仮想平面を決定する仮想平面決定部と、
    前記仮想平面に乗る前記実測値を安定点として当該安定点に基づいて前記物体の物体状態を特定する物体状態特定部とを備える、
    搬送車。
JP2016032528A 2016-02-23 2016-02-23 物体状態特定方法、物体状態特定装置、および、搬送車 Active JP6721998B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016032528A JP6721998B2 (ja) 2016-02-23 2016-02-23 物体状態特定方法、物体状態特定装置、および、搬送車
US15/440,106 US10347005B2 (en) 2016-02-23 2017-02-23 Object state identification method, object state identification apparatus, and carrier

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016032528A JP6721998B2 (ja) 2016-02-23 2016-02-23 物体状態特定方法、物体状態特定装置、および、搬送車

Publications (2)

Publication Number Publication Date
JP2017151652A JP2017151652A (ja) 2017-08-31
JP6721998B2 true JP6721998B2 (ja) 2020-07-15

Family

ID=59631119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016032528A Active JP6721998B2 (ja) 2016-02-23 2016-02-23 物体状態特定方法、物体状態特定装置、および、搬送車

Country Status (2)

Country Link
US (1) US10347005B2 (ja)
JP (1) JP6721998B2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2019012059A (es) 2017-04-07 2020-07-20 Bxb Digital Pty Ltd Sistemas y métodos para el seguimiento de promociones.
US10824904B2 (en) * 2017-05-02 2020-11-03 BXB Digital Pty Limited Systems and methods for pallet identification
US10832208B2 (en) 2017-05-02 2020-11-10 BXB Digital Pty Limited Systems and methods for facility matching and localization
WO2018204912A1 (en) 2017-05-05 2018-11-08 BXB Digital Pty Limited Pallet with tracking device
US10977460B2 (en) 2017-08-21 2021-04-13 BXB Digital Pty Limited Systems and methods for pallet tracking using hub and spoke architecture
US10956854B2 (en) 2017-10-20 2021-03-23 BXB Digital Pty Limited Systems and methods for tracking goods carriers
WO2019163378A1 (ja) * 2018-02-23 2019-08-29 コニカミノルタ株式会社 フォークリフト用の画像処理装置、および制御プログラム
JP7006501B2 (ja) * 2018-05-17 2022-01-24 コニカミノルタ株式会社 フォークリフト
KR102596053B1 (ko) * 2018-08-27 2023-11-01 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
CN109087345A (zh) * 2018-09-06 2018-12-25 上海仙知机器人科技有限公司 基于ToF成像系统的栈板识别方法及自动导引运输车
JP6722733B2 (ja) * 2018-09-12 2020-07-15 三菱ロジスネクスト株式会社 判定装置および判定方法
JP7052666B2 (ja) 2018-10-04 2022-04-12 トヨタ自動車株式会社 搬送装置
US10816637B2 (en) 2018-12-27 2020-10-27 Chep Technology Pty Limited Site matching for asset tracking
WO2020163383A1 (en) 2019-02-04 2020-08-13 The Heil Co. Semi-autonomous refuse collection
US11062256B2 (en) 2019-02-25 2021-07-13 BXB Digital Pty Limited Smart physical closure in supply chain
JP7329943B2 (ja) * 2019-03-28 2023-08-21 アズビル株式会社 検出装置及び移動装置
US11603265B2 (en) 2019-04-23 2023-03-14 The Heil Co. Refuse collection vehicle positioning
US11208262B2 (en) 2019-04-23 2021-12-28 The Heil Co. Refuse container engagement
WO2020219769A1 (en) 2019-04-23 2020-10-29 The Heil Co. Refuse collection vehicle controls
JP7447661B2 (ja) * 2020-04-23 2024-03-12 Tdk株式会社 板状対象物の配列検出装置およびロードポート
CN117063042A (zh) * 2021-03-31 2023-11-14 松下知识产权经营株式会社 平面检测装置以及平面检测方法
CN114648639B (zh) * 2022-05-19 2022-08-23 魔视智能科技(武汉)有限公司 一种目标车辆的检测方法、系统及装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1275664B1 (it) * 1994-11-16 1997-10-17 Consorzio Telerobot Sistema per il controlllo e guida automatica di un gruppo elevatore a forche
JPH09218014A (ja) 1996-02-08 1997-08-19 Murata Mach Ltd 物品認識装置
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
CN100425509C (zh) * 2002-05-09 2008-10-15 富士胶片株式会社 包装对象供应设备、箱体供应设备、装箱设备、包装系统及包装方法
JP3098262U (ja) * 2003-06-02 2004-02-26 有限会社トダ精光 アクセサリーレンズ
US20070280677A1 (en) * 2006-05-30 2007-12-06 Marc Thomas Drake Auxiliary lens attachment for cellular telephones
JP2010127819A (ja) * 2008-11-28 2010-06-10 Fuji Electric Holdings Co Ltd 多面体位置検出装置及び検出方法
US8611604B2 (en) 2009-06-03 2013-12-17 Chubu University Educational Foundation Object detection device
US9143843B2 (en) * 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
WO2012068353A2 (en) * 2010-11-18 2012-05-24 Sky-Trax, Inc. Load tracking utilizing load identifying indicia and spatial discrimination
JP5839929B2 (ja) * 2010-11-19 2016-01-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5477658B2 (ja) * 2010-11-29 2014-04-23 独立行政法人産業技術総合研究所 キャリブレーション用校正治具、校正治具を備えた3次元計測システム
JP5798318B2 (ja) * 2010-12-15 2015-10-21 キヤノン株式会社 距離データ生成装置、位置姿勢計測装置、距離データ生成装置の制御方法およびプログラム
US20140074341A1 (en) * 2011-12-30 2014-03-13 Seeqrid Corporation Auto-navigating vehicle with field-of-view enhancing sensor positioning and method of accomplishing same
US9025827B2 (en) * 2011-10-19 2015-05-05 Crown Equipment Corporation Controlling truck forks based on identifying and tracking multiple objects in an image scene
EP2615580B1 (en) * 2012-01-13 2016-08-17 Softkinetic Software Automatic scene calibration
US8854433B1 (en) * 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
WO2014169238A1 (en) * 2013-04-11 2014-10-16 Digimarc Corporation Methods for object recognition and related arrangements
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP2015225450A (ja) * 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
JP6369131B2 (ja) * 2014-05-27 2018-08-08 村田機械株式会社 物体認識装置及び物体認識方法
DE102014011821A1 (de) * 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
US10810715B2 (en) * 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9858683B2 (en) * 2015-08-05 2018-01-02 Intel Corporation Method and system of planar surface detection objects in 3d space generated from captured images for image processing
JP6649796B2 (ja) * 2016-02-23 2020-02-19 村田機械株式会社 物体状態特定方法、物体状態特定装置、および、搬送車
US9460557B1 (en) * 2016-03-07 2016-10-04 Bao Tran Systems and methods for footwear fitting
US10194990B2 (en) * 2016-04-27 2019-02-05 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content

Also Published As

Publication number Publication date
US10347005B2 (en) 2019-07-09
JP2017151652A (ja) 2017-08-31
US20170243369A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6721998B2 (ja) 物体状態特定方法、物体状態特定装置、および、搬送車
JP6649796B2 (ja) 物体状態特定方法、物体状態特定装置、および、搬送車
US11320833B2 (en) Data processing method, apparatus and terminal
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
JP6880950B2 (ja) 陥凹部検出装置、搬送装置、および、陥凹部検出方法
US20170228885A1 (en) Device and method for determining the volume of an object moved by an industrial truck
GB2567590A (en) Methods, systems and apparatus for segmenting and Dimensioning objects
JP6465682B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2015225450A (ja) 自律走行車、及び自律走行車における物体認識方法
KR20160003776A (ko) 자세 추정 방법 및 로봇
US10937183B2 (en) Object dimensioning system and method
JP6369131B2 (ja) 物体認識装置及び物体認識方法
JP6524529B2 (ja) 建築限界判定装置
JP7252581B2 (ja) 物品検出装置、物品検出方法、及び産業車両
CN110837814A (zh) 车辆导航方法、装置及计算机可读存储介质
JP5819257B2 (ja) 移動体位置推定方法及び移動体
JP5433289B2 (ja) 自動走行車両及び道路形状認識装置
WO2021029064A1 (ja) 情報処理装置及び情報処理方法
JP2021085751A (ja) 作業位置決定方法、ロボット制御方法、作業位置決定装置、およびロボット制御システム
US20190331474A1 (en) Methods and apparatus for freight dimensioning using a laser curtain
JP2017201493A (ja) 柱状物体認識方法、柱状物体認識装置および無人走行車
JP2018169894A (ja) 特異部分検出装置、自律移動装置、および、特異部分検出方法
Lin et al. Radon transform-based indoor localization control for quadrotor
JP2021063667A (ja) 作業位置決定方法、ロボット制御方法、作業位置決定装置、および面状物ハンドリングシステム
JP2000055619A (ja) 積付位置検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6721998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250