JP7252581B2 - 物品検出装置、物品検出方法、及び産業車両 - Google Patents

物品検出装置、物品検出方法、及び産業車両 Download PDF

Info

Publication number
JP7252581B2
JP7252581B2 JP2021507113A JP2021507113A JP7252581B2 JP 7252581 B2 JP7252581 B2 JP 7252581B2 JP 2021507113 A JP2021507113 A JP 2021507113A JP 2021507113 A JP2021507113 A JP 2021507113A JP 7252581 B2 JP7252581 B2 JP 7252581B2
Authority
JP
Japan
Prior art keywords
image
unit
information
article
pallet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507113A
Other languages
English (en)
Other versions
JPWO2020189154A1 (ja
Inventor
泰代 喜多
伸之 喜多
竜一 高瀬
達也 古室
紀彦 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Toyota Industries Corp
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp, National Institute of Advanced Industrial Science and Technology AIST filed Critical Toyota Industries Corp
Publication of JPWO2020189154A1 publication Critical patent/JPWO2020189154A1/ja
Application granted granted Critical
Publication of JP7252581B2 publication Critical patent/JP7252581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Structural Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Geology (AREA)
  • Civil Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Forklifts And Lifting Vehicles (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物品検出装置、物品検出方法、及び産業車両に関する。
従来の物品検出装置としては、例えば特許文献1に記載されている技術が知られている。特許文献1に記載の物品検出装置は、多層積みされたパレットをフォークリフトで取り出して搬送させる場合に、パレットの存在位置及びフォークの挿入位置の認識のために用いられる。この物品検出装置は、荷役対象であるパレットの位置を物品の全体の輪郭に対する相対的関係が既知な物品の特徴部から検出することで、当該パレットの前面の位置及び姿勢を演算している。
特開平5-157518号公報
特許文献1の技術は、正面方向から荷役対象であるパレットに近づいた後に、その位置を検出する場合には有効だが、近年、正面方向に限らず、パレットから離れた位置から周囲を観測し、対象となるパレットを検出し、その位置と姿勢を算出することが求められている。車体が荷役する物品の近傍に近付く前に、物品検出装置が物品の荷役対象部位の位置や姿勢を把握しておくことで、車体はスムーズに荷役を行えるような軌道で、物品に近付くことができる。
従って、本発明は、荷役対象である物品を、物品との位置関係によらずに検出することができる物品検出装置、物品検出方法、及び産業車両を提供することを目的とする。
本発明の一態様に係る物品検出装置は、荷役する物品を検出する物品検出装置であって、物品検出装置の周囲を撮影した周囲画像を取得する画像取得部と、周囲画像に基づいて、物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部と、情報画像に基づいて、荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算部と、を備える。
この物品検出装置は、物品検出装置の周囲を撮影した周囲画像を取得する画像取得部と、周囲画像に基づいて、物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部と、を備えている。例えば、物品検出装置と物品との距離や位置関係により、物品検出装置の周囲の様子を示した周囲画像からは、直接的に物品を検出しにくい場合がある。これに対し、情報画像作成部は、物品検出装置の周囲を撮影した周囲画像に基づいて、物品の荷役対象部位を検出するのに適した情報画像を作成できる。また、物品検出装置は、情報画像に基づいて、荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算部を備える。このように、演算部は、物品の荷役対象部位を検出するのに適した情報画像を介して演算を行うことで、物品検出装置が物品の近傍に近付く前段階で、荷役対象部位の位置及び姿勢の少なくとも一方を演算できる。従って、荷役対象である物品を、物品との位置関係によらずに検出することができる。
物品検出装置は、情報画像を作成するための条件を調整する調整部を更に備えてよい。これにより、調整部は、物品検出装置が荷役対象部位を正確に検出し易いように情報画像を調整することができる。従って、演算部は、荷役対象部位の位置及び姿勢の少なくとも一方を、より高い精度で演算することができる。
物品検出装置において、情報画像は、周囲画像が取得された位置で取得される情報を、任意に設定した面に対して投影した画像であってよい。これにより、周囲画像が、直接的に荷役対象部位を検出しにくい位置から撮影されたものであったとしても、当該周囲画像が取得された位置で取得される情報を任意の面に投影することで、荷役対象部位を検出し易い適切な情報画像を作成することが可能となる。これにより、荷役対象部位が検出し易くなり、演算部は、正確に物品の状態を演算することができる。
物品検出装置において、情報画像作成部は、情報画像に対し、一つの画素に相当する寸法を対応付けており、演算部は、情報画像の画素と荷役対象部位の寸法との関係に基づいて、演算を行ってよい。このように、情報画像に示された荷役対象部位の大きさが、実際の寸法と一定の対応関係を有しているため、演算部は、物品の状態を正確に演算することができる。
物品検出装置において、演算部は、情報画像から検出された荷役対象部位のエッジ部に関する情報と、記憶部に予め記憶された荷役対象部位の実寸情報とのテンプレートマッチングを実施してよい。このように、演算部は、荷役対象部位の実寸情報を用いたテンプレートマッチングを行うことで、物品の状態を正確に演算することができる。
物品検出装置は、物品の荷役対象部位の特徴が投影される特徴面を設定する特徴面設定部を備え、特徴面設定部は、異なる位置で撮影された複数の周囲画像に基づいて、物品及び当該物品の周囲に関する三次元の復元形状を生成し、復元形状に基づいて特徴面を設定し、情報画像作成部は、特徴面を用いて情報画像を作成してよい。これにより、情報画像作成部は、物品が置かれた状態が未知の場合においても、物品の荷役対象部位の特徴を的確に示す情報画像を作成することができる。そして、このような特徴面は、物品や、物品の周囲に関する三次元の復元形状に基づいて設定される。以上より、演算部は、特徴面を用いて物品の状態を正確に演算することができる。
物品検出装置において、特徴面設定部は、周囲画像を撮影する場所の移動と同期して移動する移動平面を用いて、特徴面を設定してよい。この場合、特徴面設定部は、移動平面に投影された画像を異なる位置から複数取得することができる。これにより、特徴面設定部は、既存の手法を用いて短時間で三次元の復元形状を生成することができる。
物品検出装置において、周囲画像は魚眼カメラ、又は広角カメラで取得された画像であってよい。これにより、単眼のカメラにて物品検出装置の周囲を広い範囲の周囲画像として取得することが可能となる。
物品検出装置において、物品はパレットであり、情報画像にはパレットが存在する可能性がある領域を示すパレット候補部が付されており、演算部は、パレットの形状を模した第1の領域と第2の領域を有する形状パターンを有し、各々のパレット候補部に形状パターンを当てはめ、第1の領域及び第2の領域内の画素値ヒストグラムから、第1の領域及び第2の領域が均一領域であることの度合いを示す均一度を算出する。パレットの荷役対象部位である前面には、フォークを挿入するための穴部が形成されている。従って、穴部に対応する第2の領域は画素値ヒストグラムが均一な均一領域となり、穴部以外に対応する第1の領域は画素値ヒストグラムが均一な均一領域となる。従って、演算部は、第1の領域及び第2の領域が均一領域であることの度合いを示す均一度を算出し、当該均一度が高い場合は、パレット候補部にパレットが存在する可能性が高いと判断することができる。また、パレットの各領域の画素値そのものではなく、ヒストグラムのピーク位置に依らない、領域の均一度を算出しているため、演算部は、撮影時の明るさによらず、正確にパレットを検出できる。
物品検出装置において、演算部は、第1の領域及び第2の領域の総画素数に対する、画素値ヒストグラムにおけるピーク近傍の画素値を有する画素数の和、に基づいて均一度を算出してよい。これにより、演算部は、均一度をシンプルな演算で演算することができる。
物品検出装置において、演算部は、パレットと類似する対象物を模した類似形状パターンを更に有し、形状パターン及び類似形状パターンを用いることにより、パレット候補部から、パレットを識別する。すなわち、(例えば路面の白線など)パレットと類似して紛らわしい対象物がパレット候補部として抽出された場合でも、演算部は、そのような紛らわしい対象物について類似形状パターンに基づく均一度を算出し、形状パターンに基づく均一度との大小を比較することでどちらのパターンであるかを判定できる。従って、演算部は、紛らわしい対象物を誤ってパレットとして検出することを抑制できる。
物品検出装置において、演算部は、パレット候補部、第1の領域、及び第2の領域の形状を矩形とし、画素値ヒストグラムの算出に積分画像を用いてよい。パレットは前面の外形が矩形であり、穴部も矩形という形状を有している。従って、演算部が、矩形に領域が区切られた積分画像を用いることで、パレットの形状を活かして、演算を高速で行うことができる。
物品検出装置において、調整部は、周囲画像が取得された位置、及び当該位置で取得される情報を投影する投影面の幾何学的関係から、投影面の位置及び姿勢の変動に対する一致度変動における尾根型ピークの尾根線の傾きを推定し、当該傾きの傾き方向に基づいた一致度の極大値探索を行ってよい。この場合、調整部は、投影面の位置及び姿勢を全条件にわたって変動させて一致度を演算しなくとも、高速で一致度の極大値を探索することができる。
物品検出装置において、演算部は、周囲画像を取得する撮影部から物品への視線方向と荷役対象部位のなす角度に基づき、テンプレートマッチングで用いるテンプレートを補正してよい。この場合、演算部は、撮影部から物品への視線方向と荷役対象部位のなす角度を考慮して、物品のR面取りの影響などを考慮した適切なテンプレートマッチングを行うことができる。
本発明の一態様に係る物品検出方法は、荷役する物品を検出する物品検出方法であって、周囲を撮影した周囲画像を取得する画像取得ステップと、周囲画像に基づいて、物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成ステップと、情報画像に基づいて、荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算ステップと、を備える。
この物品検出方法によれば、上述の物品検出装置と同趣旨の作用・効果を得ることができる。
本発明の一態様に係る産業車両は、車体と、車体の周囲を撮影する撮影部と、撮影部で取得された画像に基づいて、荷役する物品を検出する制御を実施する制御部と、を備え、制御部は、撮影部から、車体の周囲を撮影した周囲画像を取得する画像取得部と、周囲画像に基づいて、物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部と、情報画像に基づいて、荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算部と、を備える。
この産業車両によれば、上述の物品検出装置と同趣旨の作用・効果を得ることができる。
産業車両において、制御部は、物品の位置または姿勢の少なくともいずれか一方に関する情報に基づいて、車体の位置や姿勢を制御してよい。これにより、産業車両は、物品の荷役をスムーズに行うことができる。
本発明によれば、荷役対象である物品を、物品との位置関係によらずに検出することができる物品検出装置、物品検出方法、及び産業車両を提供することができる。
本発明の実施形態に係る物品検出装置を備えるフォークリフトの側面図である。 図1に示す物品検出装置及びそれに関わる構成要素を示すブロック構成図である。 フォークリフトがパレットを荷役するまでの動作を示す概略平面図である。 撮影部と棚及びパレットとの時系列に従った位置関係を示す概略平面図である。 周囲画像の一例を示す図である。 (a)は、図4において二点鎖線で示す撮影部の位置にて取得された投影画像を示し、(b)は、図4において実線で示す撮影部の位置にて取得された投影画像を示す。 (a)は、棚に対して特徴面が設定された様子を示す斜視図であり、(b)は、特徴面と複数の視点V1,V2,V3との位置関係を示す概略平面図である。 特徴面を用いて作成された情報画像を示す。 撮影部と棚及びパレットとの時系列に従った位置関係を示す概略平面図である。 (a)は、撮影部が図9の二点鎖線の位置に存在するときに得られる情報画像であり、(b)は、撮影部が図9の実線の位置に存在するときに得られる情報画像である。 (a)はパレットの実寸情報の一例であり、(b)は、テンプレートマッチングを行う時の情報画像の様子を示す図である。 特徴面と、検出されたパレットの前面に関して、移動しながら撮影した周囲画像について示した画像である。 撮影部と棚及びパレットとの時系列に従った位置関係を示す概略平面図である。 物品検出方法の処理内容を示すフロー図である。 情報画像においてパレット候補部が設定される様子を示した図である。 (a)はパレットの形状パターンを示す図であり、(b)はパレットと類似した対象物の類似形状パターンを示す図である。 (a)は、パレットの箇所に設定されたパレット候補部にて取得された画素値ヒストグラムを示し、(b)は、パレットと類似する箇所に設定されたパレット候補部にて取得された画素値ヒストグラムを示す。 積分画像の一例を示す図である。 (a)(b)は、周囲画像が取得された位置、及び当該位置で取得される情報を投影する投影面の幾何学的関係を示す概念図である。 投影面の角度(θ)、視点からの距離(D)を変動させたときの一致度の分布の一例を示す図である。 図20に示す分布に対して尾根線を示した図である。 (a)(b)は、一致度の極大値の探索の手順について説明するための概念図である。 (a)(b)は、一致度の極大値の探索の手順について説明するための概念図である。 (a)は、角のR面取り部と撮影部の視点との関係を示す概念図であり、(b)は補正前のテンプレートを示す図であり、(c)は補正後のテンプレートを示す図である。 撮影部32から斜め方向にパレットをみた時の様子を示す図である。
以下、本発明の実施形態について、図面を参照して詳細に説明する。
図1は、本発明の実施形態に係る物品検出装置を備える産業車両の側面図である。なお、以降の説明においては「左」「右」を用いて説明するが、これらは車両の後方から前方を見た時を基準としたときの「左」「右」に対応するものとする。図1に示すように、本実施形態では、物品を荷役する産業車両として、フォークリフト50が例示されている。フォークリフト50は、車体51と、撮影部32と、物品検出装置100と、を備える。フォークリフト50は、移動体2、及び荷役装置3を備える。本実施形態におけるフォークリフト50はリーチ式のフォークリフトで、運転席12に搭乗する運転手による手動運転と、後述する制御部110による自動運転とを切り替え可能である。あるいは、フォークリフト50は制御部110による完全な自動運転が可能なものであってもよい。
移動体2は、前方へ延出する左右一対のリーチレグ4を備える。左右の前輪5は、左右のリーチレグ4にそれぞれ回転可能に支持されている。後輪6は、後一輪であって、操舵輪を兼ねた駆動輪である。移動体2の後部は、立席タイプの運転席12となっている。運転席12の前側にあるインストルメントパネル9には、荷役操作のための荷役レバー10、及び前後進操作のためのアクセルレバー11が設けられている。また、インストルメントパネル9の上面にはステアリング13が設けられている。
荷役装置3は、移動体2の前側に設けられる。荷役レバー10のうちのリーチレバー操作時には、リーチシリンダ(不図示)が伸縮駆動することによって、荷役装置3がリーチレグ4に沿って所定ストローク範囲内で前後方向に移動する。また、荷役装置3は、2段式のマスト23、リフトシリンダ24、ティルトシリンダ(不図示)及びフォーク25を備える。荷役レバー10のうちのリフトレバー操作時には、リフトシリンダ24が伸縮駆動することによりマスト23が上下方向にスライド伸縮し、これに連動してフォーク25が昇降する。
次に、図2を参照して、本実施形態に係るフォークリフト50の物品検出装置100について更に詳細に説明する。図2は、本実施形態に係る物品検出装置100及びそれに関わる構成要素を示すブロック構成図である。図2に示すように、物品検出装置100は、制御部110を備えている。物品検出装置100の制御部110は、荷役駆動系30と、走行駆動系31と接続されており、これらに制御信号を送信する。荷役駆動系30は、荷役装置3を作動させるための駆動力を発生する駆動系である。走行駆動系31は、移動体2を走行させるための駆動力を発生する駆動系である。
制御部110は、撮影部32と接続されており、撮影部32で撮影された画像を取得する。撮影部32は、フォークリフト50の車体51の周囲を撮影する。撮影部32は、図1に示す例では車体51の天井部に設けられているが、車体51の周囲を撮影できる位置であればどこに設けられてもよい。この撮影部32の具体的な構成については、後述する。制御部110は、表示部33と接続されており、各種画像データを表示部33へ出力する。なお、制御部110による完全な自動運転が可能なフォークリフト50の場合は、表示部33や荷役レバー10、アクセルレバー11、ステアリング13は備えなくてもよい。
物品検出装置100は、荷役する物品を検出する装置である。また、物品検出装置100の制御部110は、フォークリフト50を自動操縦するための制御を行う。制御部110は、フォークリフト50が荷役する物品に近接する前段階から、物品を検出して、当該物品の荷役対象部位の位置及び姿勢を把握する。これにより、制御部110は、フォークリフト50が物品をスムーズに荷役できるように、物品に近接し、且つ、フォーク25を荷役対象部位に挿入できるように制御する。
図3は、フォークリフト50がパレット61を荷役するまでの動作を示す概略平面図である。図3に示すように、フォークリフト50が、棚60に配置されたパレット61(荷役する物品)を荷役する場合について説明する。制御部110は、フォークリフト50が棚60に近付くように走行制御する。このとき、制御部110は、フォークリフト50が棚60に対して、当該棚60の横側から近付くように制御する(軌道TL1参照)。制御部110は、フォークリフト50が棚60の手前側で旋回するように制御する(軌道TL2参照)。このとき、フォークリフト50は、棚60の前面60a及びパレット61の前面61a(荷役対象部位)と対向するような姿勢となる。そして、制御部110は、フォークリフト50が棚60のパレット61の前面61aに直線的に近付き、パレット61の前面61aで開口する穴部にフォーク25を挿入するように制御する。このような制御を行う場合、制御部110は、旋回する前段階、すなわち軌道TL1を走行している段階からパレット61を検出しておき、当該パレット61の前面61aの位置及び姿勢を取得しておく。棚60に複数のパレット61が配置されている場合、制御部110は、今回の荷役動作では、どのパレット61を取り出すかを予め把握しておき、棚60の中から対象となるパレット61を検出する。また、制御部110は、検出したパレット61の位置及び姿勢を検出する。当該検出結果に基づいて、制御部110は、フォークリフト50がパレット61の前面61aの穴部にフォーク25をスムーズに挿入できるように、フォークリフト50の旋回位置や、旋回軌道を制御する。
制御部110は、装置を統括的に管理するECU[Electronic Control Unit]を備えている。ECUは、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]、CAN[Controller Area Network]通信回路等を有する電子制御ユニットである。ECUでは、例えば、ROMに記憶されているプログラムをRAMにロードし、RAMにロードされたプログラムをCPUで実行することにより各種の機能を実現する。ECUは、複数の電子ユニットから構成されていてもよい。図2に示すように、制御部110は、画像取得部101と、特徴面設定部102と、情報画像作成部103と、演算部104と、調整部106と、運転制御部107と、記憶部108と、を備える。
画像取得部101は、フォークリフト50の車体51の周囲を撮影した周囲画像を取得する。画像取得部101は、撮影部32で撮影された周囲画像を時系列に取得する。撮影部32は、所定の時間間隔で撮影を行うことで、時間の経過と共に複数の画像を撮影する。従って、画像取得部101が取得する周囲画像の列は、時間の経過に伴い、各時刻における周囲の様子を時系列で示した画像の集合として取り扱うことができる。フォークリフト50は、時間の経過に伴い、棚60に近付いてゆく。従って、図4に示すように、撮影部32は、時間の経過に伴い、徐々に棚60に近付いてゆく。画像取得部101が取得する周囲画像は、画像内の棚60及びパレット61が進行に伴って徐々に大きくなるような画像となる。なお、図4は、撮影部32と棚60及びパレット61との時系列に従った位置関係を示す概略平面図である。図4では、制御部110の制御内容の理解を促進するために、パレット61の前面61aと、棚60の前面60aに対する傾斜角がデフォルメされて示されている。以降の図においても同様にデフォルメされた様子が示されている。
周囲画像は、魚眼カメラで取得された画像である。すなわち、撮影部32は、魚眼カメラによって構成されている。魚眼カメラは、一般的な魚眼レンズを有することで、単眼で略180°の広視野で撮影を行うことができるカメラである。図5は、周囲画像の一例を示す図である。周囲画像は広視野で撮影されるため、図5に示すように、縁部に近い部分ほど、大きく湾曲するような画像となる。なお、図5では、パレット61を配置した棚60以外の周囲の構造物は省略されている。また、棚60には中段にパレット61Aのみが配置され、上段にパレット61Bのみが配置されている。ただし、棚60には、多数のパレット61が配置されてよい。また、パレット61A,61B上の荷物は省略されている。フォークリフト50が軌道TL1を走行しているとき(図3参照)、棚60は、撮影部32に対して、斜め前方に配置される。また、棚60の前面60a及びパレット61の前面61aは、撮影部32の進行方向と略平行に広がるような配置となる。周囲画像中では、棚60及びパレット61は、縁部側に湾曲した状態で表示される。
なお、撮影部32を構成するカメラのレンズは魚眼レンズに限定されない。撮影部32は、フォークリフト50が棚60から離れた位置、及び棚60に近接した位置の両方にて、パレット61の画像を取得できる程度の画角を有していればよい。すなわち、撮影部32は、フォークリフト50の前方の様子及び横側の様子を同時に撮影できるような広視野のカメラであればよい。なお、撮影部32は、広視野で画像を撮影できればよく、広角カメラが採用されてもよい。また、撮影部32は、複数方向に向けられた複数のカメラを組み合わせることで、広視野の画像を撮影してもよい。
特徴面設定部102は、パレット61の前面61aの特徴が投影される特徴面SF(図7及び図9参照)を設定する。特徴面SFの詳細な説明については後述する。
情報画像作成部103は、周囲画像に基づいて、パレット61の前面61aに関する情報を認識し易い状態に変換した情報画像を作成する。情報画像作成部103は、特徴面SFを用いて情報画像を作成する。上述のように、撮影部32から直接取得できる周囲画像は、図5に示すように棚60及びパレット61が湾曲して示されるような画像である。また、周囲画像中では、棚60及びパレット61の写る大きさは、撮影部32からの距離によって変動する。従って、周囲画像から直接的に、荷役対象のパレット61を検出することは困難である。そこで、情報画像作成部103は、荷役対象のパレット61の前面61aを検出し易いように、当該前面61aの形状的特徴や寸法的特徴などの情報が明確に示される情報画像を作成する。このように、パレット61の前面61aに関する情報を認識し易い状態とは、これらの情報を情報画像から画像認識処理によって取得する場合の演算負荷が、少なくとも周囲画像から画像認識処理によって取得する場合の演算処理に比して、軽くできる状態であることを意味する。また、仮に演算の負荷を同じとした場合、情報画像から当該情報を取得する場合は、周囲画像から取得する場合よりも、正確に情報を取得することができる。
ここで、情報画像は、特徴面SFが荷役対象であるパレット61の前面61a自体に設定されたときに、最も正確に前面61aの形状的特徴及び寸法的特徴を示すことができる(原理は後述する)。しかしながら、荷役対象であるパレット61を特定できていない段階では、当該パレット61の前面61a自体に特徴面SFを設定することは出来ない。従って、特徴面設定部102は、パレット61の前面61aを近似可能な周辺の構造物の部位に対して、特徴面SFを設定する。ここでは、各パレット61の前面61aが、棚の前面60aと略一致するか、近接した位置にて略平行な状態で配置されることに基づき、図7(a)に示すように、棚60の前面60aに対して特徴面SFを設定する。
図7及び図8を参照して、特徴面SF及び情報画像について詳細に説明する。図7(a)は、棚60に対して特徴面SFが設定された様子を示す斜視図である。図7(b)は、特徴面SFと複数の視点V1,V2,V3との位置関係を示す概略平面図である。図8は、特徴面SFを用いて作成された情報画像を示す。
特徴面SFは、情報画像を作成するために三次元空間上に仮想的に設定される平面状の投影面である。なお、特徴面SFに関する位置や姿勢は、設定する段階で既知となっている情報である。情報画像は、周囲画像が取得された位置で取得される情報を、認識し易い状態に変換した画像である。周囲画像が取得された位置で取得される情報は、当該位置から見たときの棚60及びパレット61の各部位の位置や大きさなどの情報を含む。情報画像作成部103は、周囲画像を特徴面SFに投影することによって、情報画像を作成する。画像取得部101は、時系列に従って複数の周囲画像を取得しているため、情報画像作成部103も、周囲画像と同じ量の複数の情報画像を作成できる。
特徴面SFは、パレット61の前面61aの特徴が投影される投影面である。従って、特徴面SFは、当該特徴面SFに投影された情報画像の中に、パレット61の前面61aの特徴が示されるように設定される。すなわち、特徴面SFは、パレット61の前面61aの特徴を的確に示すことができるような箇所に設定された投影面である。このように設定された特徴面SFに投影されたパレット61の前面61aの情報画像では、前面61aの特徴を示す情報が、画像認識処理で容易に認識できるような態様で示されることになる。前面61aの特徴とは、画像中において他の物品と区別できるような、前面61aに独特の外観的特徴のことを意味する。前面61aの特徴を示す情報とは、当該前面61aを特定することができる形状情報や寸法情報などである。
例えば、パレット61の前面61aは、幅方向に延びる長方形の形状を有し、二つの穴部62を有するという特徴がある。このようなパレット61の前面61a及び穴部62は、周囲画像中では歪んで表示されるため(図5参照)、形状を特定し難いことに加え、寸法も把握することが難しく、画像認識処理によって特徴として検出することが困難である。これに対し、特徴面SFに投影された画像では、このようなパレット61の前面61a及び穴部62の形状が崩れることなく正確に示される(図11(a)参照)。また、特徴面SFに投影された画像では、パレット61の前面61aを特定するための寸法L1,L2,L3も測定可能な態様で示されている(寸法の具体的な特定方法は後述)。特徴面SFに投影された画像中では、パレット61の前面61aの特徴が的確に示されている。すなわち、特徴面SFに投影された画像中では、前面61aの特徴を示す情報が、画像認識処理によって容易に認識できるように変換された形で表示されている。このように、特徴面設定部102は、パレット61の前面61aの特徴を示す情報を認識し易くなるような箇所に、特徴面SFを設定する。
ここで、情報画像は、特徴面SFが荷役対象のパレット61の前面61a自体に設定されたときに、最も正確に前面61aの形状的特徴及び寸法的特徴を示すことができる。しかしながら、荷役対象のパレット61を特定できていない段階(物品の状態が未知の場合)では、当該パレット61の前面61a自体に特徴面SFを設定することは出来ない。従って、特徴面設定部102は、パレット61周辺の構造物の部位に対して、特徴面SFを設定する。特徴面設定部102は、図7(a)に示すように、棚60の前面60aに対して特徴面SFを設定する。各パレット61の前面61aは、前面60aに設定された特徴面SFと略一致するか、近接した位置にて略平行な状態で配置される。よって、棚60の前面60aに設定された特徴面SFに投影された情報画像は、各パレット61の前面61aの特徴を十分に示す画像となる。
図7(b)に示すように、特徴面SF上に存在しているものは、どの視点から投影した画像であっても、実際にものが存在する位置に投影される。具体的には、棚60の前面60aの一方の端部P1及び他方の端部P2は、特徴面SF上に存在している。よって、視点V1,V2,V3のいずれの視点から投影しても、情報画像中の端部P1,P2の位置は一定である。それに対し、棚60の後面の端部P3は、視点V1から投影した場合、特徴面SF上の投影点P4の位置に投影される。そして、端部P3は、視点V2から投影した場合、特徴面SF上の投影点P4とは異なる投影点P5の位置に投影される。このように、三次元空間上で特徴面SF上に存在していないものは、情報画像中の位置も、視点によって変化する。一方、三次元空間上で特徴面SF上に存在するものは、視点によらず情報画像中で実際の形状的特徴や寸法的特徴などを維持する。なお、実際の撮影部32は、棚60を通り過ぎた視点V3の位置までは移動しないが、説明のために視点V3を例示した。
図8において、ハッチングが示されている箇所は、特徴面SF上、又は特徴面SFに近接する位置に存在する箇所である。当該箇所は、視点が変わったとしても情報画像中での位置は略一定となる。ここでは、棚60の前面60a、及び各パレット61A,61Bの前面61Aa,61Baは、視点によらず、情報画像中で一定の位置及び大きさで示される。ここで、情報画像作成部103は、情報画像に対し、一つの画素に相当する寸法を対応付けている。すなわち、情報画像中の一画素が、実際の寸法としてはどの程度の大きさを示すかが一義的に決められている。よって、棚60の前面60a、及び各パレット61A,61Bの前面61Aa,61Baは、どの視点から投影したときの情報画像であるかに関わらず、情報画像中の大きさが一定となる。その一方、三次元空間上で特徴面SF上に存在していないものは、視点の変化によって情報画像中の位置が変動する。例えば、図8のハッチングを付した以外の箇所のうち、実線で示すものは、視点V1から見た時の様子を示し、一点鎖線は、視点V2から見た時の様子を示し、二点鎖線は、視点V3から見た時の様子を示す。
次に、図4及び図6を参照して、特徴面設定部102がどのようにして棚60の前面に特徴面SFを設定するかについて説明する。図4に示すように、特徴面設定部102は、周囲画像を撮影する場所の移動と同期して移動する移動平面DFを投影面とする。周囲画像を撮影する場所の移動とは、フォークリフト50の移動に伴う撮影部32の移動である。移動平面DFは、撮影部32から所定距離だけ前方に配置され、棚60の前面60aと対向する向きに設定されている。なお、移動平面DFは、特徴面SFとの区別を図面上でも明らかにするため、棚60の前面60aに対して傾斜するように設定されているが、傾斜していなくてもよい。特徴面設定部102は、撮影部32の視点から見た時の棚60及びパレット61を移動平面DFに投影したときの投影画像を取得する。撮影部32は、時間の経過と共に移動するため、特徴面設定部102は、移動平面DFに投影された投影画像を時系列で複数取得することができる。これにより、時系列で連続的に撮影された周囲画像の一つ一つは、それぞれの撮影された時刻における位置に対応して取得されることになる。図6(a)は、図4において二点鎖線で示す撮影部32の位置にて取得された投影画像を示す。図6(b)は、図4において実線で示す撮影部32の位置にて取得された投影画像を示す。図6に示すように、投影画像中の棚60及びパレット61A,61Bは、撮影部32の移動に伴って投影画像中でも移動する。これらの複数の投影画像は、異なる位置で撮影された複数の画像から三次元形状を復元する既知の手法と同様にして、三次元の形状に関する情報を取得するのに用いることが可能である。なお、三次元形状を復元する際に用いられる複数の画像は、それぞれが異なる位置で撮影されていればよく、時系列で複数獲得された複数の周囲画像に限定されない。例えば、複数のカメラを用いた場合、同じ時刻に撮影された2枚以上の画像において、それぞれのカメラの位置における幾何学的関係に基づいて三次元形状を復元してもよい。
特徴面設定部102は、上記複数の投影画像に基づいて、パレット61及び棚60に関する三次元の復元形状を生成する。特徴面設定部102は、時系列の周囲画像及び移動平面DFを用いて得られた複数の投影画像から、三次元の復元形状を生成する。特徴面設定部102は、SFM[Structure From Motion]を用いた公知の方法で、棚60及びパレット61の三次元の形状を復元する。また、特徴面設定部102は、復元形状に基づいて特徴面SFを設定する。特徴面設定部102は、公知のRANSAC[Random Sampling Consensus]を用いた平面の検出方法で、復元形状中の棚60の前面60aの三次元面の方程式を算出し、特徴面SFに設定する。
情報画像作成部103は、上述のように特徴面設定部102が特徴面SFを設定したら、周囲画像を取得した位置で得られた情報を特徴面SFに投影することで情報画像を作成する。図9は、撮影部32と棚60及びパレット61との時系列に従った位置関係を示す概略平面図である。図9に示すように、特徴面SFは、撮影部32がどの位置に存在していても、常に棚60の前面60aの位置に設定される。これにより、情報画像作成部103は、図10に示すような情報画像を作成することができる。図10(a)は、撮影部32が図9の二点鎖線の位置に存在するときに得られる情報画像である。図10(b)は、撮影部32が図9の実線の位置に存在するときに得られる情報画像である。図10(a)の情報画像と図10(b)の情報画像とでは、特徴面SF上の棚60の前面60a及び特徴面SF近傍のパレット61A,61Bの前面61Aa,61Baは、略同じ位置にて略同じ大きさで示される。
演算部104は、情報画像に基づいて、荷役対象のパレット61を検出する。また、演算部104は、情報画像に基づいて、荷役対象のパレット61の前面61aの位置及び姿勢を演算する。ここで、前面61aの「位置」及び「姿勢」とは、ある時点における撮影部32に対する前面61aの相対的な三次元位置及び姿勢(カメラ座標系における位置及び姿勢)と、絶対座標系における前面61aの三次元位置及び姿勢と、の両方の意味を含んでいる。本実施形態では、演算部104が、相対的な位置及び姿勢を演算する場合について説明する。すなわち、演算部104は、ある情報画像から位置及び姿勢を演算した場合、当該情報画像の元となる周囲画像の撮影が行われた場所から前面61aの基準点の距離を演算する。前面61aの基準点は、どこに設定されてもよく、前面61aの端部や中央位置などに設定されてよい。また、演算部104は、周囲画像の撮影が行われたときの撮影部32の光軸に対して、前面61aがどの程度の角度をなして配置されているかを演算する。なお、演算部104が絶対座標系での撮影部32の位置及び姿勢を把握している場合は、絶対座標系での前面61aの位置及び姿勢を演算することができる。
演算部104は、情報画像の画素とパレット61の前面61aの寸法との関係に基づいて、パレット61に関する演算を行う。すなわち、情報画像中では、一画素に相当する実際の寸法が一義的に決められている。よって、演算部104は、荷役対象のパレット61の前面61aの実寸情報を記憶部108から読み出し、当該実寸情報と適合する物を情報画像中から抽出することで、前面61aを検出することができる。
演算部104は、情報画像から検出されたパレット61の前面61aのエッジ部に関する情報と、記憶部108に予め記憶された前面61aの実寸情報とのテンプレートマッチングを実施する。図11(a)はパレット61の実寸情報の一例である。図11(b)は、テンプレートマッチングを行う時の情報画像の様子を示す図である。図11(a)に示すように、実寸情報とは、パレット61の実物におけるエッジ部に相当する部分の寸法関係に基づいて設定されるエッジテンプレートであり、一例として、パレット61の前面61aの幅寸法L1と、高さ寸法L2と、穴部62間の寸法L3と、が含まれる。テンプレートマッチングを行う場合、演算部104は、図11(a)のように検出対象となるパレット61の前面61aのエッジ部を検出すると共に、図11(b)のように情報画像中に存在する構造物などの物のエッジ部を検出する。演算部104は、公知の画像処理の方法を利用することで、画像中のエッジ部を検出する。このとき、演算部104は、水平方向に延びるエッジ部と、上下方向に延びるエッジ部と、を区別する。図11では、水平方向に延びるエッジ部を実線で示し、上下方向に延びるエッジ部を二点鎖線で示す。演算部104は、パレット61の前面61aのテンプレートを情報画像中でスキャニングすることで、情報画像中でテンプレートにマッチするオブジェクトを抽出する。演算部104は、抽出されたオブジェクトを荷役対象のパレット61の前面61aとして検出する。なお、演算部104は、図11(b)中のパレット61Aを検出するときは、記憶部108からパレット61Aの実寸情報を読み出し、パレット61Bを検出するときは、記憶部108からパレット61Bの実寸情報を読み出す。
上述のように、演算部104が情報画像の中で荷役対象のパレット61の前面61aを検出した時、パレット61の前面61aと情報画像を生成した時の特徴面は略一致している。特徴面SFの三次元位置及び姿勢は既知であるため、情報画像中のパレット61の検出位置に基づいてパレット61の三次元位置及び姿勢を演算でき、荷役対象のパレット61の前面61aを特定することができる。図12は、パレット61A,61Bの前面61Aa,61Baの位置及び姿勢を検出した結果を特徴面SFとともに抽出して示した図である。図12(a)は撮影部32が荷役対象のパレット61Aから4m離れた位置での結果を示す。図12(b)は3m、図12(c)は2m、図12(d)は1m離れた位置での結果を示す。演算部104は、周囲画像から得られる情報に基づいて、各撮影位置でのパレット61Aの前面61Aaの位置及び姿勢を演算することができる。
調整部106は、情報画像を作成するための条件を調整することで、演算部104での演算精度を向上する。本実施形態では、調整部106は、情報画像を作成するための条件として、当該情報画像を作成するときに用いられる特徴面SFの位置及び傾きを調整している。具体的には、情報画像を作成した時の特徴面SFに関する三次元面の方程式を調整することで、演算部104での演算精度を向上する。上述の情報画像作成部103は、荷役対象のパレット61を検出していない状態であったため、棚60の前面60aと同一平面、又は当該平面の近傍に荷役対象のパレット61の前面61aが存在するものとして、棚60の前面60aに対して特徴面SFを設定した。この場合、図9に示すように、荷役対象のパレット61が特徴面SFから離間していたり、特徴面SFに対して傾斜している場合もある。このとき、情報画像中に示されるパレット61の前面61aは、実際の前面61aの形状や大きさと僅かにずれてしまう。従って、調整部106は、荷役対象のパレット61が検出された後、図13に示すような、当該パレット61の前面61aと一致する特徴面SFを求める。具体的には、情報画像を作成した時の三次元面の方程式を構成するパラメータを変動させ、情報画像内のパレット61の前面61aの位置や姿勢を算出し直し、エッジテンプレートとの一致度が最大となる情報画像を与えるパラメータを求める。求めた特徴面SFは棚60の前面60aよりも正確にパレット61の前面61aに一致する。従って、演算部104は、高い演算精度で、パレット61の前面61aの位置及び姿勢を演算できる。また、調整部106は、棚60の前面60aに対して設定した特徴面SFよりも狭い範囲の特徴面SFをパレット61の前面61aに対して設定する。従って、調整後の特徴面SFを用いて作成した情報画像は、パレット61の前面61aを拡大した画像となる。よって、演算部104は、高い演算精度で、パレット61の前面61aの位置及び姿勢を演算できる。なお、位置と傾きの両方の調整だけでなく、位置だけを調整してもよいし、傾きだけを調整してもよい。
運転制御部107は、演算部104によって演算されたパレット61の前面61aの位置及び姿勢に関する情報に基づいて、車体51の位置や姿勢を制御する。運転制御部107は、軌道TL1を走行している時点で荷役対象のパレット61の前面61aの位置及び姿勢を把握しているため、フォークリフト50がパレット61の前面61aの穴部にフォーク25をスムーズに挿入できるように、フォークリフト50の旋回位置や、旋回軌道(軌道TL2)を制御する。なお、運転制御部107は、物品検出装置100の制御部110とは別個の制御ユニットとして構成されていてもよい。この場合、物品検出装置100の制御部110は、演算結果を運転制御部107の制御ユニットへ出力し、運転制御部107は、物品検出装置100の演算結果に基づいて運転制御を行う。
次に、図14を参照して、本実施形態に係る物品検出方法の内容について説明する。図14は、物品検出方法の処理内容を示すフロー図である。図14に示す処理内容は、物品検出装置100の制御部110によって実行される。ただし、図14に示す処理内容は一例に過ぎず、これに限定されるものではない。
図14に示すように、制御部110の画像取得部101は、車体51の周囲を撮影した周囲画像を取得する画像取得ステップを実行する(ステップS10)。画像取得ステップS10において、画像取得部101は、撮影部32で撮影された画像を周囲画像として取得する。次に、特徴面設定部102は、周囲画像を撮影する場所の移動と同期して移動する移動平面DFに投影される投影画像を取得する投影画像取得ステップを実行する(ステップS20)。次に、特徴面設定部102は、荷役対象のパレット61の前面61aの特徴が示される特徴面SFを設定する特徴面設定ステップを実行する(ステップS30)。特徴面設定部102は、周囲画像から作成された移動平面DFの投影画像に基づいて、パレット61及び棚60に関する三次元の復元形状を生成し、復元形状に基づいて棚60の前面60aに特徴面SFを設定する(図9参照)。
情報画像作成部103は、周囲画像に基づいて、パレット61の前面61aに関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成ステップを実行する(ステップS40)。情報画像作成ステップS40では、情報画像作成部103は、特徴面SFを用いて情報画像を作成する。情報画像作成部103は、情報画像に対し、一つの画素に相当する寸法を対応付けている。
演算部104は、情報画像に基づいて、荷役対象のパレット61を検出するパレット検出ステップを実行する(ステップS50)。演算部104は、情報画像に基づいて、パレット61の前面61aの位置及び姿勢を演算する演算ステップを実行する(ステップS60)。演算ステップS60において、演算部104は、情報画像の画素とパレット61の前面61aの寸法との関係に基づいて、演算を行う。演算部104は、情報画像から検出されたパレット61の前面61aのエッジ部に関する情報と、記憶部108に予め記憶された前面61aの実寸情報とのテンプレートマッチングを実施する(図11参照)。これにより、演算部104は、荷役対象のパレット61を検出し、前面61aの位置及び姿勢を演算する。
制御部110は、演算部104による演算の高精度化を図るための高精度化処理ステップを実行する(ステップS70)。高精度化処理ステップS50では、調整部106は、情報画像を作成した時の特徴面SFに関する三次元面の方程式のパラメータを調整する。調整部106は、エッジテンプレートと一致度が最大となるパラメータを求め最も一致する情報画像を算出する三次元面の方程式を検出し、特徴面SFを設定する(図13参照)。そして、情報画像作成部103は、調整された特徴面SFを用いて情報画像を作成する。演算部104は、調整された特徴面SFを用いて作成された情報画像に基づいて、パレット61の前面61aの位置及び姿勢を演算する。
運転制御部107は、演算部104によって演算されたパレット61の前面61aの位置及び姿勢に関する情報に基づいて、車体51の位置や姿勢を制御する運転制御ステップを実行する(ステップS80)。運転制御ステップS80では、運転制御部107は、フォークリフト50がパレット61の前面61aの穴部にフォーク25をスムーズに挿入できるように、フォークリフト50の旋回位置や、旋回軌道(軌道TL2)を制御する。以上により、図14に示す処理が完了する。
次に、本実施形態に係る物品検出装置100、物品検出方法、及びフォークリフト50の作用・効果について説明する。
まず、本願との比較のため、パレット位置・姿勢検出の分野における既存技術について説明する。既存技術に係るパレット位置・姿勢検出の方法は、パレットに位置・姿勢検出用の特別なマークを付ける方法と、それを必要としない方法に大別できる。しかし、マークを付ける方法は手間がかかるうえ、汚れなどで使えなくなるという問題がある。その一方、マークを用いない方法の既存技術として、パレットのほぼ正面から取得した2次元濃淡画像からフォーク穴を検出し、精度よく位置・姿勢を算出する方法がある。または、レーザなどの三次元情報入力装置を備え、三次元ポイントクラウドの特徴点とパレット特徴点セットモデルとのマッチングによってパレットの位置・姿勢算出するような方法がある。しかし、いずれの方法も、対象パレットのほぼ正面の近距離から計測を行うものと仮定しており、それ以外の位置からのパレットの検出、位置・姿勢検出には有効に用いることができないという問題がある。
上述のような既存技術は、車両がある程度、パレットに近づいた後、より正確にその位置・姿勢を検出する半自動運転のような目的には有効であるが、正面方向に限らず離れた位置から周囲を観測し、対象となるパレットを検出し、その位置と姿勢を算出する場合には、有効に採用することができない。その一方、棚の前面を走行しながら数m離れた位置のパレットを見つけ、荷役するような作業は、流通現場において日常的に行われる作業である。従って、本発明者らは、鋭意研究の結果、産業車両の自動化には、このような作業を有効に行う事ができる技術の開発が必要であることを見出した。
ここで、近年、安価で入手可能な魚眼カメラを産業車両に設置することで、移動しながら広範囲の周囲二次元画像を時系列に獲得することが可能になっている。このような周囲画像には、任意方向・任意距離にある対象の情報が含まれているが、広角画像内における歪みのため、対象とするパレットを探索し検出するのが難しい。そこで、本発明者らは、(移動ステレオの原理で周囲の三次元情報を獲得できることを活かし)広角の周囲画像を適切な三次元面に投影することで、対象パレットを最も探索しやすい投影画像(情報画像)に変換し、パレットを頑健に検出し、同時にその位置および姿勢を算出することが可能になるという知見を得るに至った。
そこで、物品検出装置100は、荷役する物品を検出する物品検出装置100であって、物品検出装置100の周囲を撮影した周囲画像を取得する画像取得部101と、周囲画像に基づいて、物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部103と、情報画像に基づいて、前面61aの位置及び姿勢を演算する演算部104と、を備える。
この物品検出装置100は、物品検出装置100の周囲を撮影した周囲画像を取得する画像取得部101と、周囲画像に基づいて、パレット61の前面61aに関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部103と、を備えている。例えば、物品検出装置100とパレット61との距離や位置関係により、物品検出装置100の周囲の様子を示した画像からは、直接的に物品を検出しにくい場合がある。具体的には、図5に示すように、魚眼カメラの周囲画像では、棚60及びパレット61が湾曲した状態で示されている。当該周囲画像からは、直接的にパレット61を特定しにくい。これに対し、情報画像作成部103は、物品検出装置100の周囲を撮影した周囲画像に基づいて、パレット61の前面61aを検出するのに適した情報画像を作成できる。具体的には、図10に示すように、情報画像中では、パレット61の前面61aは、正面から撮影したような形状で示され、且つ、撮影位置によらず一定の大きさにて示される。また、物品検出装置100は、情報画像に基づいて、パレット61の前面61aの位置及び姿勢を演算する演算部104を備える。このように、演算部104は、パレット61の前面61aを検出するのに適した情報画像を介して演算を行うことで、物品検出装置100がパレット61の近傍に近付く前段階で、前面61aの位置及び姿勢を演算できる。従って、荷役対象である物品を、物品との位置関係によらずに検出することができる。
物品検出装置100は、情報画像を作成するための条件を調整する調整部106を更に備える。これにより、調整部106は、物品検出装置100がパレット61の前面61aを正確に検出し易いように情報画像を調整することができる。従って、演算部104は、パレット61の前面61aの位置及び姿勢を、より高い精度で演算することができる。
物品検出装置100において、情報画像は、周囲画像が取得された位置で取得される情報を、任意に設定した面に対して投影した画像である。これにより、周囲画像が、直接的に荷役対象部位を検出しにくい位置から撮影されたものであったとしても、当該周囲画像が取得された位置で取得される情報を任意の面に投影することで、パレット61の前面61aを検出し易い適切な情報画像を作成することが可能となる。これにより、パレット61の前面61aが検出し易くなり、演算部104は、正確に物品の状態を演算することができる。
物品検出装置100において、情報画像作成部103は、情報画像に対し、一つの画素に相当する寸法を対応付けており、演算部104は、情報画像の画素とパレット61の前面61aの寸法との関係に基づいて、演算を行う。このように、情報画像に示されたパレット61の前面61aの大きさが実際の寸法と一定の対応関係を有しているため、演算部104は、パレット61の状態を正確に演算することができる。
物品検出装置100において、演算部104は、情報画像から検出されたパレット61の前面61aのエッジ部に関する情報と、予め記憶されたパレット61の前面61aの実寸情報とのテンプレートマッチングを実施する。このように、演算部104は、パレット61の前面61aの実寸情報を用いたテンプレートマッチングを行うことで、パレット61の状態を正確に演算することができる。
物品検出装置100は、パレット61の前面61aの特徴が投影される特徴面SFを設定する特徴面設定部102を備え、特徴面設定部102は、異なる位置で撮影された複数の周囲画像に基づいて、パレット61及びパレット61の周囲(ここでは棚60)に関する三次元の復元形状を生成し、復元形状に基づいて特徴面SFを設定し、情報画像作成部103は、特徴面SFを用いて情報画像を作成する。これにより、情報画像作成部103は、パレット61が置かれた状態が未知の場合においても、パレット61の前面61aの特徴を的確に示す情報画像を作成することができる。そして、このような特徴面SFは、パレット61や、パレット61の周囲に関する三次元の復元形状に基づいて設定される。以上より、演算部104は、特徴面SFを用いてパレット61の状態を正確に演算することができる。
物品検出装置100において、特徴面設定部102は、周囲画像を撮影する場所の移動と同期して移動する移動平面DFを用いて、特徴面SFを設定する。この場合、特徴面設定部102は、移動平面DFに投影された画像を異なる位置から複数取得することができる。これにより、特徴面設定部102は、既存の手法を用いて短時間で三次元の復元形状を生成することができる。
物品検出装置100において、周囲画像は魚眼カメラ、又は広角カメラで取得された画像である。これにより、単眼のカメラにて物品検出装置100の周囲を広い範囲の周囲画像として取得することが可能となる。
本発明の実施形態に係る物品検出方法は、荷役する物品を検出する物品検出方法であって、周囲を撮影した周囲画像を取得する画像取得ステップS10と、周囲画像に基づいて、パレット61の前面61aに関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成ステップS40と、情報画像に基づいて、パレット61の前面61aの位置及び姿勢の少なくとも一方を演算する位置・姿勢演算ステップS60と、を備える。
この物品検出方法によれば、上述の物品検出装置100と同趣旨の作用・効果を得ることができる。
本発明の実施形態に係るフォークリフト50は、車体51と、車体51の周囲を撮影する撮影部32と、撮影部32で取得された画像に基づいて、荷役するパレット61を検出する制御を実施する制御部110と、を備え、制御部110は、撮影部32から、車体51の周囲を撮影した周囲画像を取得する画像取得部101と、周囲画像に基づいて、パレット61の前面61aに関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部103と、情報画像に基づいて、パレット61の前面61aの位置及び姿勢の少なくとも一方を演算する演算部104と、を備える。
このフォークリフト50によれば、上述の物品検出装置100と同趣旨の作用・効果を得ることができる。
フォークリフト50において、制御部110は、パレット61の位置または姿勢の少なくともいずれか一方に関する情報に基づいて、車体51の位置や姿勢を制御する。これにより、フォークリフト50は、物品の荷役をスムーズに行うことができる。
本発明は、上述の実施形態に限定されるものではない。
例えば、上述の実施形態において、演算部104は、テンプレートマッチングを行うことでパレット61を検出しているが、それに加えて、他の検出方法も実行してよい。演算部104は、テンプレートマッチングの結果と、他の検出方法の結果を総合的に判断してパレット61を検出してよい。
具体的に、図15に示すように、情報画像には、複数のパレット候補部DEが付されている。パレット候補部DEは、パレット61が存在する可能性のある領域を示す。パレット候補部DEは、例えば、テンプレートマッチングを行った結果、一致度が所定の閾値以上の領域に対して、設定される。その結果、パレット61の箇所にパレット候補部DEが設定される。しかし、パレット61に類似する箇所にも、パレット候補部DEが設定される。図15の情報画像では、例えば、白線WL及びその周囲の箇所、棚60の棚板60b及びその周囲の箇所が、パレット61に類似する箇所として検出されている。
ここで、演算部104は、図16(a)に示すような形状パターンSP1を有する。形状パターンSP1は、パレット61の形状を模した第1の領域E1と第2の領域E2を有する。第1の領域E1は、パレット61の前面61aの穴部以外の箇所に該当する。第1の領域E1は、光が当たりやすい箇所であるため、画像中で明るく示される。第2の領域E2は、パレット61の前面61aの穴部の箇所に該当する。第2の領域E2は、光が当たりにくい箇所であるため、画像中で暗く示される。
演算部104は、各々のパレット候補部DEに形状パターンSP1を当てはめる。演算部104は、第1の領域E1内の画素値ヒストグラム(濃度ヒストグラム)を演算する。演算部104は、第2の領域E2内の画素値ヒストグラムを演算する。画素値ヒストグラムは、画像中の画素値の頻度(各画素値を持つ画素の個数)を示すグラフである。図17(a)は、パレット61の箇所に設定されたパレット候補部DEにて取得された画素値ヒストグラムを示す。図17(b)は、パレット61と類似する対象物に設定されたパレット候補部DEにて取得された画素値ヒストグラムを示す。図中では、画素値ヒストグラムHT1が第1の領域E1の画素値ヒストグラムを示し、画素値ヒストグラムHT2が第2の領域E2の画素値ヒストグラムを示す。図17の座標の横軸は濃度(画素値)を示し、縦軸は画素数を示す。
ここで、パレット候補部DEに存在する画像が、パレット61の画像である場合、第1の領域E1及び第2の領域E2における濃度は、各々ある範囲の値で略均一となる。従って、演算部104は、第1の領域E1及び第2の領域E2内の画素値ヒストグラムから、第1の領域E1及び第2の領域E2が均一領域であることの度合いを示す均一度を算出する。均一領域とは、濃度が所定の範囲の値にて均一となっている領域である。第1の領域E1及び第2の領域E2が、均一領域に一致しているほど、均一度は高くなる。
演算部104は、画素値ヒストグラムから、第1のピーク近傍域JE1及び第2のピーク近傍域JE2を抽出する。ピーク近傍域JE1,JE2は、各領域E1,E2の画素値ヒストグラムHT1,HT2の一部の濃度範囲を抽出した領域である。図17においては、ピーク近傍域JE1,JE2は、ハッチングが付された領域である。ピーク近傍域JE1,JE2は、画素値ヒストグラムHT1,HT2のピーク(HT1p,HT2p)と、その前後の領域を含む。なお、ピーク近傍域JE1,JE2の上限側の境界及び下限の境界の濃度は、例えば、ピークHT1p,HT2pからの固定幅によって決定される。
図17(a)に示すように、パレット61においては、第1の領域E1内の画像は明るい濃度にて均一となるため、画素値ヒストグラムHT1は、高い濃度の値の箇所にて大きなピークHT1pを有し、多くの画素がピークHT1p周辺に集中する。また、第2の領域E2内の画像は暗い濃度にて均一となるため、画素値ヒストグラムHT2は、低い濃度の値の箇所にて大きなピークHT2pを有し、多くの画素がピークHT2p周辺に集中する。従って、第1の領域E1内に存在する総画素数(画素値ヒストグラムHT1全体の面積)に対する、ピーク近傍域JE1内の画素数の割合が高くなる。また、第2の領域E2内に存在する総画素数(画素値ヒストグラムHT2全体の面積)に対する、ピーク近傍域JE2内の画素数の割合が高くなる。なお、パレット61に対する光の当たり具合などにより、第1の領域E1及び第2の領域E2における濃度は変動する。すなわち、画素値ヒストグラムHT1,HT2のピークHT1p,HT2pの位置は、環境光やパレットの置かれた位置により異なる。しかし、ピークHT1p,HT2pの位置が変動しても、当該ピークHT1p,HT2p周辺に画素が集中するという特徴は、どのパレット61についても共通する。
一方、パレット61に類似する箇所においては、第1の領域E1内に暗い濃度の部分が含まれたり、第2の領域E2内に明るい濃度の部分が含まれる。従って、図17(b)に示すように、画素値ヒストグラムHT1及びHT2は、複数のピークを有したり、ピーク近傍域JE1,JE2以外の箇所の画素数も大きくなる。この場合、各領域E1,E2内に存在する総画素数に対する、ピーク近傍域JE1,JE2内の画素数の割合が低くなる。なお、図17(b)のように、画素値ヒストグラムHT1,HT2が複数のピーク(山頂)を有する場合、最も大きい山頂を「ピークHT1p,HT2p」とする。
ここで、演算部104は、第1の領域E1及び第2の領域E2の総画素数に対する、画素値ヒストグラムにおけるピーク近傍域JE1,JE2の画素値を有する画素数の和、に基づいて均一度を算出してよい。総画素数は、画素値ヒストグラムHT1内の総画素数と画素値ヒストグラムHT2内の総画素数との和である。これにより、演算部104は、均一度をシンプルな演算で演算することができる。演算部104は、均一度が所定の閾値以上であれば、パレット候補部DEにパレット61が存在していることを検出する。演算部104は、均一度が所定の閾値より小さければ、パレット候補部DEに存在する物体は、パレット61ではないと判定する。
以上のように、物品検出装置100において、物品はパレット61である。情報画像にはパレット61が存在する可能性がある領域を示すパレット候補部DEが付されている。演算部104は、パレット61の形状を模した第1の領域E1と第2の領域E2を有する形状パターンSP1を有する。演算部104は、各々のパレット候補部DEに形状パターンSP1を当てはめ、第1の領域E1及び第2の領域E2内の画素値ヒストグラムから、第1の領域E1及び第2の領域E2が均一領域であることの度合いを示す均一度を算出する。パレット61の荷役対象部位である前面61aには、フォークを挿入するための穴部が形成されている。従って、穴部に対応する領域は画素値ヒストグラムが均一な均一領域となり、穴部以外に対応する領域は画素値ヒストグラムが均一な均一領域となる。従って、演算部104は、第1の領域E1及び第2の領域E2が均一領域であることの度合いを示す均一度を算出し、当該均一度が高い場合は、パレット候補部DEにパレットが存在する可能性が高いと判断することができる。また、パレット61の各領域E1,E2の画素値そのものではなく、ヒストグラムのピーク位置に依らない、領域の均一度を算出しているため、演算部104は、撮影時の明るさによらず、正確にパレット61を検出できる。
図16(b)に示すように、物品検出装置100において、演算部104は、パレット61と類似する類似形状パターンSP2を更に有する。類似形状パターンSP2は、路面に存在する白線WL(図15参照)を模した形状パターンである。演算部104は、あるパレット候補部DEについて、形状パターンSP1を用いて均一度を算出し、類似形状パターンSP2を用いて均一度を算出する。演算部104は、形状パターンSP1を用いたときの均一度が、類似形状パターンSP2を用いたときの均一度よりも高いことを、パレット検出の条件とする。
以上のように、演算部104は、形状パターンSP1及び類似形状パターンSP2を用いることにより、パレット候補部DEから、パレット61を識別する。すなわち、(例えば路面の白線WLなど)パレット61と類似して紛らわしい対象物が想定される場合に、演算部104は、そのような紛らわしい対象物について類似形状パターンSP2を予め準備しておく。そして、演算部104は、紛らわしい対象物について類似形状パターンSP2に基づく均一度を算出し、形状パターンSP1に基づく均一度との大小を比較することでどちらのパターンであるかを判定できる。従って、演算部104は、紛らわしい対象物を誤ってパレット61として検出することを抑制できる。
物品検出装置100において、演算部104は、パレット候補部DE、第1の領域E1、及び第2の領域E2の形状を矩形とし、画素値ヒストグラムの算出に積分画像を用いてよい。パレット61は前面61aの外形が矩形であり、穴部も矩形という形状を有している。図18に示すように、積分画像は、任意の矩形内の総和を高速に算出する既存技術である。具体的には、演算部104は、各座標値に、画像の原点を左上隅、その座標値を右下隅とする長方形の領域を設定する。例えば、図18(a)に示すように、「(i,j)」という座標について「a」で示す長方形の領域が設定される。そして、演算部104は、当該領域内の画素値の総和(Saと表記されている)を記録した積分画像Iをあらかじめ算出しておく。任意の矩形領域内の総和は、その4隅の座標値の積分画像Iの値の加減算によって、高速に算出できる。例えば、図18(b)に示すように、演算部104は、「x」で示す矩形領域の総和Sを演算するときは、「(i,j)」の積分画像Iの値から、「(i,j)」及び「(i,j)」の積分画像Iの値を減算し、重複して減算された「(i,j)」の積分画像Iの値を加算することで、算出する。演算部104は、パレット候補部DEでの各領域E1,E2内の画素値ヒストグラムを算出するときに、予めヒストグラムの各ビンnごとに算出しておいた積分画像Iを用いる。なお、ビンとは、画素値を所定の幅で区切り、その画素値の範囲内における画素数の和として一つのまとまりとしたものである。例えばビンを設定する画素値の幅を10として、画素値が0~9、10~19、・・・毎の画素数を合算したものである。積分画像Iを用いた演算は、公知の演算方法によって行われてよい。従って、演算部104が、パレット61の矩形形状を活かして、積分画像Iを用いることで、演算を高速で行うことができる。
また、演算部104は、パレット検出を行うときの、画像内の各位置における一致度(例えば正規化相互相関(ZNCC))を演算するときに、積分画像を用いて高速に演算を行ってよい。
また、上述の実施形態においては、調整部106は、特徴面SFが一度設定された後に、情報画像内のパレット61とエッジテンプレートとの一致度が最大となるようにパラメータを調整した。ここで、調整部106は、一致度を最大にするためのパラメータを高速で探索できるように、次のような処理を行ってよい。すなわち、調整部106は、周囲画像が取得された位置、及び当該位置で取得される情報を投影する特徴面SFの幾何学的関係を演算する。調整部106は、当該幾何学的関係から、特徴面SFの位置及び姿勢の変動に対する一致度変動における尾根型ピークの尾根線の傾きを推定する。調整部106は、当該傾きの傾き方向に基づいた一致度の極大値探索を行う。
図19を参照して、周囲画像が取得された位置、及び当該位置で取得される情報を投影する特徴面SFの幾何学的関係について説明する。ここでは、周囲画像が取得された位置を視点V1とする。投影像PFは、パレット61の前面61aの特徴面SFへの投影像である。
図19(a)に示すように、実際のパレット61の前面61aの長さは「l」で示され、投影像PFの長さは「l」で示される。視点V1と前面61aの基準位置との間の離間距離を「D」、その正解値は「D」で示される。投影像PFの実際の前面61aからの奥行ずれの大きさは「ΔD」で示される。このとき、このΔDのずれによって生じる、lのlからのずれを表す「Δl」は、以下の式(1)で示される。

Δl = (l/D)× ΔD …(1)
図19(b)に示すように、視点V1と前面61aの中心点との間の基準線SL1を設定した場合、前面61aと基準線SL1との間の角度は「α」で示される。投影面である特徴面SFの鉛直軸回りの角度を「θ」、実際の前面61aからの角度ずれの大きさは「Δθ」で示される。このとき、このΔθのずれによって生じる、lのlからのずれを表す「Δlθ」は、以下の式(2)で示される。

Δlθ ≒ (l/tanα)× Δθ …(2)
上述の「Δl」「Δlθ」が式(3)の関係を有する場合、式(3)に式(1)(2)を代入することで、式(4)が得られる。

Δl+Δlθ = 0 …(3)
Δθ ≒ -(tanα/D)× ΔD …(4)
ここで、図20にθ、Dを変動させたときの一致度の分布の一例を示す。三次元グラフの一方の水平軸のパラメータは「θ」であり、他方の水平軸は「D」であり、垂直軸のパラメータは一致度である。このように、特徴面SFの位置及び姿勢に関連するパラメータを変動させると、一致度が変動することで、図20に示すような山を描くような分布が得られる。当該分布の中には、一致度が最も高くなる極大値が存在する。調整部106は、極大値を探索し、当該極大値に対応するパラメータを取得することで、一致度を最も高くすることができる条件を把握することができる。しかし、調整部106が、全ての(θ,D)座標値についての一致度を演算すると、演算量が膨大になる。従って、調整部106は、少ない演算量にて、高速で極大値を探索する。
ここで、発明者らは、このような分布が、式(3)の関係から一致度が尾根型を形成することを見出している。従って、一致度の分布は、図21に示すような尾根線RLを有する。図21では、分布の等高線が示されている。一致度の分布の中の極大値は、尾根線RLの何れかの位置に存在する。従って、調整部106は、尾根線RLの位置を推定し、尾根線RL付近を集中的に探索することで、極大値を速やかに探し当てる。
具体的な処理内容について、図22及び図23を参照して説明する。なお、図22及び図23には、理解のために分布の等高線が描かれている。しかし、調整部106は、このような等高線を演算するわけではなく、一致度がどのような分布となっているかは、初期段階では把握できていない。
まず、図22(a)に示すように、調整部106は、上述の式(4)で示す傾きを有し、後述のように、この時点での特徴面SF上への投影像PFにおける(θ,D)を通る直線を推定線EL1として設定する。推定線EL1は、尾根線RL(図21参照)の傾きを推定した線である。推定線EL1の傾きは、尾根線RLの傾きに沿ったものであると推定できる。その理由は、式(3)に示されるように、Δθによるlの変動とΔDによるlの変動が打ち消しあうことが見出されたためであり、その時の打ち消しあうΔθとΔDの関係式が式(4)となるからである。なお、この段階では、推定線EL1の傾きと尾根線RLの傾きは略一致しているが、位置は尾根線RLからずれている可能性がある。
演算の初期段階では、推定線EL1は、初期推定位置EP1を通過する。初期推定位置EP1は、図14の高精度化処理ステップS70が行われる初期段階における特徴面SFに基づくパラメータによって設定される。すなわち、初期推定位置EP1は、ステップS60で位置及び姿勢の演算が行われるときに用いられる特徴面SFの位置及び姿勢に対応する位置である。
図22(b)は、推定線EL1が延びる方向(矢印A)からみたときの、初期推定位置EP1の位置における一致度の山の断面形状線DS1を示す。断面形状線DS1の何れかの箇所には、尾根線RL(図21参照)が存在している。そして、当該尾根線RLの箇所には、極大値が存在している。従って、図22(a)に示すように、調整部106は、初期推定位置EP1を通過し、且つ、推定線EL1と垂直な探索経路SR1を設定する。調整部106は、探索経路SR1に沿ってパラメータを変動させながら、一致度を演算する。これにより、調整部106は、探索経路SR1の中から、探索内極大値MP1を探し出す(図22(b)も参照)。探索経路SR1の長さは任意に設定可能である。調整部106は、探索内極大値MP1の箇所に尾根線RL(図21参照)が存在すると推定する。従って、調整部106は、探索内極大値MP1を推定位置EP2として設定し、当該推定位置EP2の位置に推定線EL1をシフトする。これにより、調整部106は、図23に示す新たな推定線EL2を設定する。
次に、調整部106は、推定線EL2と垂直な探索経路SR2を設定し、当該探索経路SR2に沿って一致度を演算する。調整部106は、推定線EL2が延びる方向に沿って、所定ピッチでシフトさせながら、複数の探索経路SR2を設定する。これにより、調整部106は、推定線EL2の近傍の何れかの箇所に、全体の中の極大値MP2を探し出すことができる。図23(b)は、推定線EL2と垂直な方向(矢印B)からみたときの、推定位置EP2を通る断面形状線DS2を示す。なお、極大値MP2は、推定線EL2から少しずれた位置に存在するため、厳密には断面形状線DS2上に存在していないが、図示されている。図23(b)に示すように、断面形状線DS2の右側から左側へ向けて探索を行うと、調整部106は、ある位置にて一致度がピークを迎え、それ以降は、一致度が低下してゆくことを把握できる。従って、調整部106は、ピークの位置における一致度が極大値MP2であると判断できる。以上により、調整部106は、極大値MP2を特定し、対応するパラメータを取得する。
以上のように、物品検出装置100において、調整部106は、周囲画像が取得された位置、及び当該位置で取得される情報を投影する特徴面SFの幾何学的関係から、特徴面SFの位置及び姿勢の変動に対する一致度変動における尾根型ピークの尾根線RLの傾きを推定し、当該傾きの傾き方向(推定線EL1,EL2が延びる方向)に基づいた一致度の極大値探索を行ってよい。この場合、調整部106は、特徴面SFの位置及び姿勢を全条件にわたって変動させて一致度を演算しなくとも、高速で一致度の極大値MP2を探索することができると同時に、偽の極大値に到達することを抑制できる。
上述の実施形態では、演算部104は、パレット61の前面61aのエッジ部に関する情報と、記憶部108に予め記憶された前面61aの実寸情報とのテンプレートマッチングを実施していた。このとき、パレット61の角部の丸み(角R)を考慮してよい。すなわち、演算部104は、周囲画像を取得する撮影部32から物品への視線方向と荷役対象部位のなす角度に基づき、テンプレートマッチングで用いるテンプレートを補正してよい。
具体的に、図24(a)は、視点V1からパレット61の手前側の角部EG1及び奥側の角部EG2を見た様子を示す概略図である。視点V1は、撮影部32による撮像位置を示す。角部EG1,EG2において、丸みが付いていないと仮定した場合、エッジ部EGP1,EGP2は、各側面が交差する位置に設定される。これに応じ、図24(b)に示すように、テンプレートのエッジ部EGP1,EGP2が設定される。
しかし、手前側の角部EG1は、角が面取りされたR面取り部となっており丸みが付いているため、画像中で不明瞭に表示される(図25参照)。また、奥側の角部EG2は、R面取り部となっており丸みが付いているため、実際に画像中で捉えられるエッジ部EGP3は、仮想的なエッジ部EGP2よりも手前側に存在する。従って、演算部104は、図24(c)に示すように、テンプレートにおいて、手前側のエッジ部EGP1はテンプレートマッチングで用いられないように設定する。また、演算部104は、テンプレートにおいて、奥側のエッジ部の位置を、エッジ部EGP2からエッジ部EGP3に補正する。
以上より、物品検出装置100において、演算部104は、周囲画像を取得する撮影部32から物品への視線方向と荷役対象部位のなす角度に基づき、テンプレートマッチングで用いるテンプレートを補正してよい。この場合、演算部104は、撮影部32から物品への視線方向と荷役対象部位のなす角度を考慮して、適切なテンプレートマッチングを行うことができる。
例えば、物品検出装置100が、撮影部32に対する棚60の位置を予め把握している場合、特徴面設定部102は、移動平面DFを用いて投影画像を取得する工程と、SFM[Structure From Motion]を用いて棚60及びパレット61の三次元の復元形状を生成する工程と、RANSACを用いて復元形状中の棚60の前面60aの特徴面SFを設定する工程と、を省略してよい。この場合、特徴面設定部102は、撮影部32と棚60との位置関係から棚60の前面60aを演算し、当該前面60aに特徴面SFを設定してよい。例えば、フォークリフト50が予め定められたトラッカー上を走行する場合などは、物品検出装置100は、撮影部32に対する棚60の位置を予め把握できる。
また、上述の実施形態では、演算部104は、パレット61の前面61aの位置及び姿勢を両方演算したが、位置及び姿勢の一方のみを演算してよい。例えば、パレット61の姿勢が棚60に対して回転していないことが予め分かっている場合、演算部104は位置のみを演算してよい。また、パレット61の位置が予め分かっている場合、演算部104は姿勢のみを演算してよい。
上述の実施形態では、フォークリフト50が完全な自動操縦を行う場合について説明した。ただし、物品検出装置100は、運転者がフォークリフト50を運転する際や、遠隔操作を行う際の運転支援のために、上述の処理を行ってもよい。フォークリフト50が、運転手による手動運転と、制御部110による自動運転とを切り替え可能なものである場合、フォークリフト50は、手動運転と上述の実施形態のような自動運転を組み合わせた運転支援モードを有していてもよい。
上述の実施形態では、演算部104がテンプレートマッチングによってパレット61を検出していた。これに代えて、演算部104は、パレット61の実寸を用いてパレット61を検出する限り、他の方法を採用してもよい。
また、上述の実施形態では、産業車両としてリーチ式のフォークリフトを例示したが、車体の向きを変えずに棚への荷役が可能なフォークリフトなどの産業車両に上述の物品検出装置100が適用されてもよい。また、荷役対象の物品としてパレット61を例示したが、段ボールなどを荷役対象の物品としてもよい。また、上述の物品検出装置は、産業車両に限らず、自動倉庫の物品搬送手段などに採用されてもよい。
情報画像を、荷役対象部位としてのパレット61の前面61aの位置や傾きに基づいて調整する方法は、情報画像を作成した時の特徴面SFに関する三次元面の方程式を調整することに限定されない。
類似形状パターンSP2(図16(b)参照)は必要に応じて、複数準備されてもよい。これにより、パレット61と類似して紛らわしい対象物をより区別することができ、紛らわしい対象物を誤ってパレット61として検出することをさらに抑制できる。
各領域E1,E2内の画素値ヒストグラムの算出には、ビンを用いることに限られず、各画素値そのものを利用してもよい。
32…撮影部、50…フォークリフト(産業車両)、51…車体、61…パレット(物品)、61a…前面(荷役対象部位)、100…物品検出装置、101…画像取得部、102…特徴面設定部、103…情報画像作成部、104…演算部、106…調整部、110…制御部。

Claims (16)

  1. 荷役する物品を検出する物品検出装置であって、
    前記物品検出装置の周囲を撮影した周囲画像を取得する画像取得部と、
    前記周囲画像に基づいて、前記物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部と、
    前記情報画像に基づいて、前記荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算部と、を備え
    前記情報画像は、前記周囲画像が取得された位置で取得される情報を、前記物品の前面を近似可能な周囲の構造物の部位に対して設定された面に対して投影した画像である、物品検出装置。
  2. 前記情報画像を作成するための条件を調整する調整部を更に備える、請求項1に記載の物品検出装置。
  3. 前記情報画像作成部は、前記情報画像に対し、一つの画素に相当する寸法を対応付けており、
    前記演算部は、前記情報画像の前記画素と前記荷役対象部位の寸法との関係に基づいて、演算を行う、請求項1又は2に記載の物品検出装置。
  4. 前記演算部は、前記情報画像から検出された前記荷役対象部位のエッジ部に関する情報と、記憶部に予め記憶された前記荷役対象部位の実寸情報とのテンプレートマッチングを実施する、請求項1~3の何れか一項に記載の物品検出装置。
  5. 前記物品の前記荷役対象部位の特徴が投影される特徴面を設定する特徴面設定部を備え、
    前記特徴面設定部は、
    異なる位置で撮影された複数の前記周囲画像に基づいて、前記物品及び当該物品の周囲に関する三次元の復元形状を生成し、
    前記復元形状に基づいて前記特徴面を設定し、
    前記情報画像作成部は、前記特徴面を用いて前記情報画像を作成する、請求項1~4の何れか一項に記載の物品検出装置。
  6. 前記特徴面設定部は、前記周囲画像を撮影する場所の移動と同期して移動する移動平面を用いて、前記特徴面を設定する、請求項5に記載の物品検出装置。
  7. 前記周囲画像は魚眼カメラ、又は広角カメラで取得された画像である、請求項1~6の何れか一項に記載の物品検出装置。
  8. 前記物品はパレットであり、
    前記情報画像には前記パレットが存在する可能性がある領域を示すパレット候補部が付されており、
    前記演算部は、
    前記パレットの形状を模した第1の領域と第2の領域を有する形状パターンを有し、
    各々の前記パレット候補部に前記形状パターンを当てはめ、
    前記第1の領域及び前記第2の領域内の画素値ヒストグラムから、前記第1の領域及び前記第2の領域が均一領域であることの度合いを示す均一度を算出する、請求項3に記載の物品検出装置。
  9. 前記演算部は、
    前記第1の領域及び前記第2の領域の総画素数に対する、前記画素値ヒストグラムにおけるピーク近傍域の画素値を有する画素数の和、に基づいて前記均一度を算出する、請求項8に記載の物品検出装置。
  10. 前記演算部は、前記パレットと類似する対象物を模した類似形状パターンを更に有し、前記形状パターン及び前記類似形状パターンを用いることにより、前記パレット候補部から、前記パレットを識別する、請求項8又は9に記載の物品検出装置。
  11. 前記演算部は、前記パレット候補部、前記第1の領域、及び前記第2の領域の形状を矩形とし、前記画素値ヒストグラムの算出に積分画像を用いる、請求項8~10の何れか一項に記載の物品検出装置。
  12. 前記調整部は、
    前記周囲画像が取得された位置、及び当該位置で取得される情報を投影する投影面の幾何学的関係から、前記投影面の位置及び姿勢の変動に対する一致度変動における尾根型ピークの尾根線の傾きを推定し、
    当該傾きの傾き方向に基づいた前記一致度の極大値探索を行う、請求項2に記載の物品検出装置。
  13. 前記演算部は、前記周囲画像を取得する撮影部から前記物品への視線方向と前記荷役対象部位のなす角度に基づき、前記テンプレートマッチングで用いるテンプレートを補正する、請求項4に記載の物品検出装置。
  14. 荷役する物品を検出する物品検出方法であって、
    周囲を撮影した周囲画像を取得する画像取得ステップと、
    前記周囲画像に基づいて、前記物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成ステップと、
    前記情報画像に基づいて、前記荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算ステップと、を備え、
    前記情報画像は、前記周囲画像が取得された位置で取得される情報を、前記物品の前面を近似可能な周囲の構造物の部位に対して設定された面に対して投影した画像である、物品検出方法。
  15. 車体と、
    前記車体の周囲を撮影する撮影部と、
    前記撮影部で取得された画像に基づいて、荷役する物品を検出する制御を実施する制御部と、を備え、
    前記制御部は、
    前記撮影部から、前記車体の周囲を撮影した周囲画像を取得する画像取得部と、
    前記周囲画像に基づいて、前記物品の荷役対象部位に関する情報を認識し易い状態に変換した情報画像を作成する情報画像作成部と、
    前記情報画像に基づいて、前記荷役対象部位の位置及び姿勢の少なくとも一方を演算する演算部と、を備え
    前記情報画像は、前記周囲画像が取得された位置で取得される情報を、前記物品の前面を近似可能な周囲の構造物の部位に対して設定された面に対して投影した画像である、産業車両。
  16. 前記制御部は、
    前記物品の位置または姿勢の少なくともいずれか一方に関する情報に基づいて、前記車体の位置や姿勢を制御する、請求項15に記載の産業車両。
JP2021507113A 2019-03-19 2020-02-18 物品検出装置、物品検出方法、及び産業車両 Active JP7252581B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019051675 2019-03-19
JP2019051675 2019-03-19
PCT/JP2020/006347 WO2020189154A1 (ja) 2019-03-19 2020-02-18 物品検出装置、物品検出方法、及び産業車両

Publications (2)

Publication Number Publication Date
JPWO2020189154A1 JPWO2020189154A1 (ja) 2020-09-24
JP7252581B2 true JP7252581B2 (ja) 2023-04-05

Family

ID=72520205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021507113A Active JP7252581B2 (ja) 2019-03-19 2020-02-18 物品検出装置、物品検出方法、及び産業車両

Country Status (4)

Country Link
US (1) US20220189055A1 (ja)
EP (1) EP3943880A4 (ja)
JP (1) JP7252581B2 (ja)
WO (1) WO2020189154A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11650596B2 (en) * 2019-05-31 2023-05-16 Cascade Corporation Load alignment aid
US11851310B2 (en) * 2020-04-13 2023-12-26 Hd Hyundai Xitesolution Co., Ltd. Autonomous forklift truck
JP7559707B2 (ja) * 2021-08-24 2024-10-02 株式会社豊田自動織機 フォークリフト
JP7218018B1 (ja) 2021-12-24 2023-02-06 ユーピーアール株式会社 パレット検出装置およびパレット検出方法
JP7185958B1 (ja) 2021-12-24 2022-12-08 ユーピーアール株式会社 パレット検出装置およびパレット検出方法
JP2024048648A (ja) 2022-09-28 2024-04-09 国立研究開発法人産業技術総合研究所 物品検出装置、キャリブレーション方法、及び物品検出方法
JP7489678B1 (ja) 2023-04-28 2024-05-24 ユーピーアール株式会社 パレット検出装置およびパレット検出方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003128395A (ja) 2001-10-24 2003-05-08 Toyota Industries Corp 産業車両における荷役作業支援装置及び産業車両
JP2004038640A (ja) 2002-07-04 2004-02-05 Nissan Motor Co Ltd 車両用外界認識装置
JP2012185752A (ja) 2011-03-07 2012-09-27 Seiko Epson Corp ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法
US20140232826A1 (en) 2013-02-15 2014-08-21 Jungheinrich Aktiengesellschaft Method for detecting objects in a warehouse and/or for spatial orientation in a warehouse
JP2015225450A (ja) 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05157518A (ja) 1991-12-09 1993-06-22 Toyota Central Res & Dev Lab Inc 物体認識装置
JP3426002B2 (ja) * 1993-09-20 2003-07-14 三菱電機株式会社 物体認識装置
IT1275664B1 (it) * 1994-11-16 1997-10-17 Consorzio Telerobot Sistema per il controlllo e guida automatica di un gruppo elevatore a forche
JPH09218014A (ja) * 1996-02-08 1997-08-19 Murata Mach Ltd 物品認識装置
DE19613386A1 (de) * 1996-04-03 1997-10-09 Fiat Om Carrelli Elevatori Flurförderzeug, das wahlweise manuell oder automatisch betreibbar ausgebildet ist
JP2921496B2 (ja) * 1996-07-15 1999-07-19 三菱電機株式会社 画像処理装置および物体移載装置
KR101095579B1 (ko) * 2009-09-10 2011-12-19 부산대학교 산학협력단 모노 비전 기반의 팔레트 위치 및 자세 측정 방법
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP6759535B2 (ja) * 2015-07-10 2020-09-23 セイコーエプソン株式会社 ワーク供給装置、ピッキング装置、時計組立て装置、およびピッキング方法
US20170169444A1 (en) * 2015-12-10 2017-06-15 Invensense, Inc. Systems and methods for determining consumer analytics
US9990535B2 (en) * 2016-04-27 2018-06-05 Crown Equipment Corporation Pallet detection using units of physical length
US10346797B2 (en) * 2016-09-26 2019-07-09 Cybernet Systems, Inc. Path and load localization and operations supporting automated warehousing using robotic forklifts or other material handling vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003128395A (ja) 2001-10-24 2003-05-08 Toyota Industries Corp 産業車両における荷役作業支援装置及び産業車両
JP2004038640A (ja) 2002-07-04 2004-02-05 Nissan Motor Co Ltd 車両用外界認識装置
JP2012185752A (ja) 2011-03-07 2012-09-27 Seiko Epson Corp ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法
US20140232826A1 (en) 2013-02-15 2014-08-21 Jungheinrich Aktiengesellschaft Method for detecting objects in a warehouse and/or for spatial orientation in a warehouse
JP2015225450A (ja) 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法

Also Published As

Publication number Publication date
EP3943880A4 (en) 2022-05-11
WO2020189154A1 (ja) 2020-09-24
EP3943880A1 (en) 2022-01-26
US20220189055A1 (en) 2022-06-16
JPWO2020189154A1 (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
JP7252581B2 (ja) 物品検出装置、物品検出方法、及び産業車両
JP5172010B2 (ja) Rgb及び奥行き計測ハイブリッドカメラセンサを使用する長方形テーブル検知
CN109160452B (zh) 基于激光定位和立体视觉的无人转运叉车及导航方法
US10347005B2 (en) Object state identification method, object state identification apparatus, and carrier
US9635346B2 (en) Autonomous vehicle, and object recognizing method in autonomous vehicle
US10163225B2 (en) Object state identification method, object state identification apparatus, and carrier
US11667036B2 (en) Workpiece picking device and workpiece picking method
US8472698B2 (en) System and method for determining poses of objects
JPH10208047A (ja) 車載用走行環境認識装置
KR20160003776A (ko) 자세 추정 방법 및 로봇
US20020051572A1 (en) Device, method, and computer-readable medium for detecting changes in objects in images and their features
JP2004117078A (ja) 障害物検出装置及び方法
CN110837814A (zh) 车辆导航方法、装置及计算机可读存储介质
US20200098115A1 (en) Image processing device
CN114170521B (zh) 一种叉车托盘对接识别定位方法
JP2730457B2 (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
KR101233938B1 (ko) 객체 추적 로봇 및 그 방법
JP2001076128A (ja) 障害物検出装置及び方法
Kita et al. Localization of pallets on shelves in a warehouse using a wide-angle camera
JP2022136849A (ja) 容器計測システム
CN117444450A (zh) 一种焊缝焊接方法、电子设备和存储介质
JP2021024718A (ja) 位置姿勢推定装置
JP2023124122A (ja) 物品検出装置、物品検出方法、及び産業車両
CN115797446A (zh) 货架定位方法、货架对接方法以及装置、设备、介质
US20240273912A1 (en) Item detection device, item detection method, and industrial vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7252581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150