JP2021024718A - 位置姿勢推定装置 - Google Patents

位置姿勢推定装置 Download PDF

Info

Publication number
JP2021024718A
JP2021024718A JP2019145545A JP2019145545A JP2021024718A JP 2021024718 A JP2021024718 A JP 2021024718A JP 2019145545 A JP2019145545 A JP 2019145545A JP 2019145545 A JP2019145545 A JP 2019145545A JP 2021024718 A JP2021024718 A JP 2021024718A
Authority
JP
Japan
Prior art keywords
pallet
forklift
image data
front surface
framed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019145545A
Other languages
English (en)
Other versions
JP7192706B2 (ja
Inventor
晋悟 服部
Shingo Hattori
晋悟 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2019145545A priority Critical patent/JP7192706B2/ja
Publication of JP2021024718A publication Critical patent/JP2021024718A/ja
Application granted granted Critical
Publication of JP7192706B2 publication Critical patent/JP7192706B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Forklifts And Lifting Vehicles (AREA)

Abstract

【課題】フォークリフトに対する荷役対象のパレットの位置及び姿勢の推定精度を向上させることができる位置姿勢推定装置を提供する。【解決手段】位置姿勢推定装置16は、パレット5を検出する単眼カメラ11と、単眼カメラ11の撮像画像データに基づいてパレット5を検知し、撮像画像データにおいてパレット5の前面5aとパレット5の前面5aに設けられた2つのパレット穴7とを取り囲むような枠線17が指定された枠付き撮像画像データを作成するパレット検知部13と、パレット検知部13により作成された枠付き撮像画像データを用いて、パレット5の位置及び姿勢を推定する推定演算部14とを備える。【選択図】図2

Description

本発明は、位置姿勢推定装置に関する。
従来の位置姿勢推定装置としては、例えば特許文献1に記載されている技術が知られている。特許文献1に記載の位置姿勢推定装置は、フォークリフトの前方を撮像する左右2台のカメラと、これらのカメラで撮像された画像内でパレットの三次元座標を計算するステレオ計測部と、カメラで撮像されたパレット穴の形状と予め準備されている角度毎の異なる多数のパターンとの照合により、パレット穴がフォークリフトの中心軸に対して傾いている角度を求めるマッチング部と、パレットとフォーク先端の基準点との間の距離を計算すると共に、フォークリフトの中心軸とパレット穴の中心軸とがなす角度を計算する距離計算部とを備えている。
特開2013−86959号公報
しかしながら、上記従来技術においては、以下の問題点が存在する。即ち、上記従来技術では、パターンマッチングを用いてフォークリフトに対する荷役対象のパレットの姿勢推定を行っているが、パターンマッチングは屋内外の照度変化に弱い。例えばフォークリフトによるトラックからのパレットの荷降ろしは、屋内よりも屋外で行われることが多い。従って、パターンマッチングを利用する場合には、フォークリフトに対する荷役対象のパレットの位置及び姿勢の推定精度が低下することがある。
本発明の目的は、フォークリフトに対する荷役対象のパレットの位置及び姿勢の推定精度を向上させることができる位置姿勢推定装置を提供することである。
本発明の一態様は、フォークリフトに対する荷役対象のパレットの位置及び姿勢を推定する位置姿勢推定装置であって、パレットを検出する検出部と、検出部の検出データに基づいてパレットを検知し、検出データにおいてパレットの前面とパレットの前面に設けられた2つのパレット穴とのうちの少なくとも一方を取り囲むような枠線が指定された枠付き検出データを作成するパレット検知部と、パレット検知部により作成された枠付き検出データを用いて、パレットの位置及び姿勢を推定する推定演算部とを備える。
このような位置姿勢推定装置においては、検出部の検出データに基づいて荷役対象のパレットが検知され、検出データにおいてパレットの前面と2つのパレット穴とのうちの少なくとも一方を取り囲むような枠線が指定された枠付き検出データが作成される。そして、枠付き検出データを用いて、パレットの位置及び姿勢が推定される。このように屋内外の照度変化に弱いパターンマッチングを用いなくても、パレットの位置及び姿勢が推定される。これにより、フォークリフトに対する荷役対象のパレットの位置及び姿勢の推定精度が向上する。
推定演算部は、パレットの位置として、フォークリフトからパレットまでの奥行き距離、フォークリフトに対するパレットの横ずれ距離及びパレットの高さを推定し、パレットの姿勢として、フォークリフトに対するパレットの姿勢角を推定してもよい。このような構成では、フォークリフトに対するパレットの三次元位置及び姿勢が推定されるため、フォークリフトに対する荷役対象のパレットの位置及び姿勢をより正確に推定することができる。
推定演算部は、枠付き検出データにおけるパレットの前面に対応する枠線の縦の長さ及びパレット穴に対応する枠線の縦の長さの少なくとも1つに基づいて、フォークリフトからパレットまでの奥行き距離を推定してもよい。このような構成では、枠付き検出データを用いて、フォークリフトからパレットまでの奥行き距離を容易に推定することができる。
推定演算部は、枠付き検出データにおけるパレットの前面に対応する枠線の中心及び2つのパレット穴に対応する2つの枠線の中心の少なくとも1つに基づいて、パレットの前面の中心位置を推定し、フォークリフトからパレットまでの奥行き距離とパレットの前面の中心位置とに基づいて、フォークリフトに対するパレットの横ずれ距離及びパレットの高さを推定してもよい。このような構成では、枠付き検出データを用いて、フォークリフトに対するパレットの横ずれ距離及びパレットの高さを容易に推定することができる。
推定演算部は、パレットの前面に対応する枠線の横の長さ、パレット穴に対応する枠線の横の長さ及び2つのパレット穴に対応する2つの枠線の中心間距離の少なくとも1つに基づいて、フォークリフトに対するパレットの姿勢角の絶対値を推定してもよい。このような構成では、枠付き検出データを用いて、フォークリフトに対するパレットの姿勢角の絶対値を容易に推定することができる。
推定演算部は、枠付き検出データにおける2つのパレット穴に対応する2つの枠線の寸法を比較して、パレットの姿勢角の符号を推定してもよい。このような構成では、枠付き検出データを用いて、パレットの姿勢角の符号を容易に推定することができる。
推定演算部は、右向きのパレット及び左向きのパレットの学習データを用いて枠付き検出データを分類して、パレットの姿勢角の符号を推定してもよい。このような構成では、例えばディープラーニングの分類を利用して、パレットの姿勢角の符号を容易に推定することができる。
検出部は、パレットを撮像する単眼カメラであり、パレット検知部は、単眼カメラの撮像画像データに基づいてパレットを検知し、撮像画像データにおいて枠線が指定された枠付き撮像画像データを枠付き検出データとして作成してもよい。このような構成では、単眼カメラの撮像画像データを用いるので、位置姿勢推定装置を低コストで実現することができる。
本発明によれば、フォークリフトに対する荷役対象のパレットの位置及び姿勢の推定精度を向上させることができる。
本発明の一実施形態に係る位置姿勢推定装置が搭載されたフォークリフトを荷役対象のパレットと共に示す概略平面図である。 本発明の一実施形態に係る位置姿勢推定装置を備えた自動運転システムの概略構成を示すブロック図である。 図2に示されたパレット検知部により実行されるパレット検知処理の手順の詳細を示すフローチャートである。 単眼カメラの撮像画像データの一例を示す図である。 図4に示された撮像画像データに枠線が指定された枠付き撮像画像データの一例を示す図である。 図2に示された推定演算部により実行される推定演算処理の手順の詳細を示すフローチャートである。 図5に示された枠付き撮像画像データにおいて、フォークリフトから荷役対象のパレットまでの奥行き距離を推定するためのパラメータを示す図である。 図5に示された枠付き撮像画像データにおいて、フォークリフトに対する荷役対象のパレットの姿勢角の絶対値を推定するためのパラメータを示す図である。 図5に示された枠付き撮像画像データにおいて、パレットの前面の中心位置を推定するためのパラメータを示す図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は、本発明の一実施形態に係る位置姿勢推定装置が搭載されたフォークリフトを荷役対象のパレットと共に示す概略平面図である。図1において、フォークリフト1は、車体2と、この車体2の前側に配置され、荷役を行う荷役装置3とを備えている。荷役装置3は、車体2の前端部に取り付けられたマスト4と、このマスト4に昇降可能に取り付けられ、パレット5を持ち上げる1対のフォーク6とを有している。
パレット5は、荷物を載せるための荷役台である。パレット5は、例えば平パレットである。パレット5は、平面視で四角形状を呈している。パレット5は、前面5aと、この前面5aと対向する後面5bと、前面5a及び後面5bと直交する2つの側面5cとを有している。パレット5には、フォークリフト1の各フォーク6が差し込まれる2つのパレット穴7が設けられている。これらのパレット穴7は、パレット5の前面5aから後面5bまで延びている。従って、フォーク6をパレット穴7に前後2方向から差し込むことが可能である。パレット穴7の形状は、正面視で矩形状である(図4参照)。
図2は、本発明の一実施形態に係る位置姿勢推定装置を備えた自動運転システムの概略構成を示すブロック図である。図2において、自動運転システム10は、フォークリフト1の自動運転を実施するシステムである。自動運転システム10は、フォークリフト1に搭載されている。自動運転システム10は、単眼カメラ11と、コントローラ12とを備えている。
単眼カメラ11は、荷役対象のパレット5を撮像し、撮像画像データを取得する。荷役対象のパレット5は、荷役装置3により荷役を開始しようとするパレットであり、フォークリフト1の前方に位置している。単眼カメラ11は、パレット5を検出する検出部である。単眼カメラ11の撮像画像データは、検出部の検出データである。
コントローラ12は、CPU、RAM、ROM及び入出力インターフェース等により構成されている。コントローラ12は、パレット検知部13と、推定演算部14と、駆動制御部15とを有している。
単眼カメラ11、パレット検知部13及び推定演算部14は、本実施形態の位置姿勢推定装置16を構成している。位置姿勢推定装置16は、フォークリフト1に対する荷役対象のパレット5の位置及び姿勢を推定する装置である。位置姿勢推定装置16は、例えばディープラーニング(深層学習)を利用した画像処理技術によって、荷役対象のパレット5の位置及び姿勢を推定する。
ディープラーニングは、人工知能の要素技術の一つである。ディープラーニングとは、十分なデータ量があれば、人間の力なしに機械が自動的にデータから特徴を抽出してくれるディープニュートラルネットワークを用いた学習のことである。ディープラーニングは、入力層と出力層との間の中間層を多層にすることで情報伝達及び処理を増やし、特徴量の精度や汎用性を上げたり、予測精度を向上させることが可能となる。
パレット検知部13は、単眼カメラ11の撮像画像データに基づいて、荷役対象のパレット5を検知する。そして、パレット検知部13は、撮像画像データにおいてパレット5の前面5aとパレット5の前面5aに設けられた2つのパレット穴7とを取り囲むような枠線17(図5参照)が指定された枠付き撮像画像データを作成する。パレット検知部13によるパレット検知処理については、後で詳述する。
推定演算部14は、パレット検知部13により生成された枠付き撮像画像データを用いて、フォークリフト1の所定点(例えば中心点)を原点とした荷役対象のパレット5の位置及び姿勢を推定する。具体的には、推定演算部14は、荷役対象のパレット5の位置として、フォークリフト1から荷役対象のパレット5までの奥行き距離x、フォークリフト1に対する荷役対象のパレット5の横ずれ距離y及び荷役対象のパレット5の高さを推定する。推定演算部14は、荷役対象のパレット5の姿勢として、フォークリフト1に対する荷役対象のパレット5の姿勢角θを推定する。推定演算部14による推定演算処理については、後で詳述する。
駆動制御部15は、推定演算部14により推定された荷役対象のパレット5の位置及び姿勢に基づいて、フォークリフト1を荷役対象のパレット5の手前の近傍位置まで移動させるように、車体2に具備された駆動部18を制御する。例えば、駆動部18は、特に図示はしないが、駆動輪を回転させる走行モータと、操舵輪を転舵させる操舵モータとを有している。
図3は、パレット検知部13により実行されるパレット検知処理の手順の詳細を示すフローチャートである。なお、本処理は、例えばフォークリフト1の自動運転の開始が指示されると、実行される。
図3において、パレット検知部13は、まず単眼カメラ11の撮像画像データを取得する(手順S101)。続いて、パレット検知部13は、図4に示されるように、単眼カメラ11の撮像画像データDに基づいて、荷役対象のパレット5を検知する(手順S102)。なお、撮像画像データDに写っているパレット5については、便宜上実際のパレット5と同じ符号を付している。
続いて、パレット検知部13は、図5に示されるように、撮像画像データDにおいてパレット5を取り囲むような枠線17を指定して、枠付き撮像画像データDwを作成する(手順S103)。
枠線17は、ディープラーニングを利用した物体検知において、bounding boxと称される矩形の枠である。枠線17は、例えば撮像画像データDにおける4つの角部のピクセル座標データまたは4つの角部のうち対角線となる2つの角部のピクセル座標データから得られる。枠付き撮像画像データDwは、撮像画像データDにおいて枠線17が指定された枠付き検出データである。
具体的には、パレット検知部13は、撮像画像データDにおいて、パレット5の前面5aの全体を取り囲むような枠線17Aと、パレット5の前面5aに設けられた2つのパレット穴7の全体をそれぞれ取り囲むような枠線17B,17Cとを指定する。枠線17Bは、右側のパレット穴7の全体を取り囲んでいる。枠線17Cは、左側のパレット穴7の全体を取り囲んでいる。
枠線17Aは、撮像画像データDにおいて、パレット5の前面5aが枠線17Aからはみ出ずに、パレット5の前面5aの縁の少なくとも一部が枠線17Aに接するように指定される。枠線17B,17Cは、撮像画像データDにおいて、パレット穴7が枠線17B,17Cからはみ出ずに、パレット穴7の縁の少なくとも一部が枠線17B,17Cに接するように指定される。なお、撮像画像データDにパレット5の前面5aだけでなくパレット5の側面5cが写っていても、パレット5の側面5cを取り囲むような枠線は指定されない。
続いて、パレット検知部13は、枠付き撮像画像データDwを推定演算部14に出力する(手順S104)。そして、パレット検知部13は、上記の手順S101〜S104を再度実行する。
図6は、推定演算部14により実行される推定演算処理の手順の詳細を示すフローチャートである。なお、本処理では、フォークリフト1とパレット5とが同じ水平面にあり、パレット5のピッチング及びローリングのずれが無いことが前提とされる。また、パレット5の外形寸法及びパレット穴7の寸法は、既知である。
図6において、推定演算部14は、まずパレット検知部13からの枠付き撮像画像データDwが入力されたかどうかを判断する(手順S111)。推定演算部14は、枠付き撮像画像データDwが入力されたと判断されるまで、手順S111を繰り返し実行する。推定演算部14は、枠付き撮像画像データDwが入力されたと判断したときは、枠付き撮像画像データDwを用いて、フォークリフト1から荷役対象のパレット5までの奥行き距離xを推定する(手順S112)。
具体的には、推定演算部14は、フォークリフト1からパレット5までの奥行き距離xが基準値であるときの枠付き撮像画像データを、比較用の学習データとして予め用意しておく。そして、推定演算部14は、図7に示されるように、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの縦の長さHa(高さ方向の長さ)に基づいて、荷役対象のパレット5までの奥行き距離xを推定する。
また、推定演算部14は、図7に示されるように、枠付き撮像画像データDwにおけるパレット穴7に対応する枠線17B,17Cの縦の長さHbに基づいて、荷役対象のパレット5までの奥行き距離xを推定してもよい。推定演算部14は、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの縦の長さHa及びパレット穴7に対応する枠線17B,17Cの縦の長さHbに基づいて、荷役対象のパレット5までの奥行き距離xを推定してもよい。
つまり、荷役対象のパレット5までの奥行き距離xを推定するためのパラメータとしては、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの縦の長さHa及びパレット穴7に対応する枠線17B,17Cの縦の長さHbの少なくとも1つを用いればよい。
続いて、推定演算部14は、枠付き撮像画像データDwを用いて、フォークリフト1に対する荷役対象のパレット5の姿勢角θの絶対値を推定する(手順S113)。
具体的には、推定演算部14は、フォークリフト1に対するパレット5の姿勢角θが0度であるときの枠付き撮像画像データを、比較用の学習データとして予め用意しておく。フォークリフト1に対するパレット5の姿勢角θが0度である状態は、パレット5がフォークリフト1に対して真っ直ぐ向いている状態である。そして、推定演算部14は、図8に示されるように、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの横の長さLaに基づいて、荷役対象のパレット5の姿勢角θの絶対値を推定する。
また、推定演算部14は、図8に示されるように、枠付き撮像画像データDwにおけるパレット穴7に対応する枠線17B,17Cの横の長さLbに基づいて、荷役対象のパレット5の姿勢角θの絶対値を推定してもよいし、枠付き撮像画像データDwにおける2つのパレット穴7に対応する2つの枠線17B,17Cの中心間距離Lcに基づいて、荷役対象のパレット5の姿勢角θの絶対値を推定してもよい。2つの枠線17B,17Cの中心間距離Lcは、2つの枠線17B,17Cの中心から得られる。なお、2つの枠線17B,17Cの中心は、後述する手法により得られる(図9参照)。
また、推定演算部14は、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの横の長さLa、パレット穴7に対応する枠線17B,17Cの横の長さLb及び2つのパレット穴7に対応する2つの枠線17B,17Cの中心間距離Lcに基づいて、荷役対象のパレット5の姿勢角θの絶対値を推定してもよい。
つまり、荷役対象のパレット5の姿勢角θの絶対値を推定するためのパラメータとしては、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの横の長さLa、パレット穴7に対応する枠線17B,17Cの横の長さLb及び2つのパレット穴7に対応する2つの枠線17B,17Cの中心間距離Lcの少なくとも1つを用いればよい。
続いて、推定演算部14は、フォークリフト1に対する荷役対象のパレット5の姿勢角θの符号を推定する(手順S114)。例えば、フォークリフト1に対してパレット5が右向きであるときは、パレット5の姿勢角θの符号を正(+)とし、フォークリフト1に対してパレット5が左向きであるときは、パレット5の姿勢角θの符号を負(−)とする。
具体的には、推定演算部14は、枠付き撮像画像データDwにおける2つのパレット穴7に対応する2つの枠線17B,17Cの寸法を比較して、荷役対象のパレット5の姿勢角θの符号を推定する。フォークリフト1に対してパレット5が右向きであるときは、左側のパレット穴7に対応する枠線17Cの寸法が右側のパレット穴7に対応する枠線17Bの寸法よりも大きくなる(図8参照)。
また、推定演算部14は、ディープラーニングの分類を利用して、荷役対象のパレット5の姿勢角θの符号を推定してもよい。このとき、推定演算部14は、右向きのパレット5及び左向きのパレット5の学習データを予め用意しておく。右向きのパレット5の学習データとしては、パレット5がフォークリフト1に対して右向きであるときの枠付き撮像画像データが用いられる。左向きのパレット5の学習データとしては、パレット5がフォークリフト1に対して左向きであるときの枠付き撮像画像データが用いられる。
そして、推定演算部14は、右向きのパレット及び左向きのパレットの学習データを用いて、枠付き撮像画像データDwを分類することにより、荷役対象のパレット5が右向きであるか左向きであるかを判断する。
続いて、推定演算部14は、枠付き撮像画像データDwを用いて、荷役対象のパレット5の前面5aの中心位置Gを推定する(手順S115)。具体的には、推定演算部14は、図9に示されるように、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの中心に基づいて、パレット5の前面5aの中心位置Gを推定する。枠線17Aの中心は、枠線17Aの横の長さLa及び縦の長さHaから得られる。
また、推定演算部14は、図9に示されるように、枠付き撮像画像データDwにおける2つのパレット穴7に対応する2つの枠線17B,17Cの中心に基づいて、パレット5の前面5aの中心位置Gを推定してもよい。枠線17B,17Cの中心は、枠線17B,17Cの横の長さLb及び縦の長さHbから得られる。このとき、2つの枠線17B,17Cの中心を結ぶ線の中間点が、パレット5の前面5aの中心位置Gとなる。推定演算部14は、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの中心及び2つのパレット穴7に対応する2つの枠線17B,17Cの中心に基づいて、パレット5の前面5aの中心位置Gを推定してもよい。
つまり、パレット5の前面5aの中心位置Gを推定するためのパラメータとしては、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの中心及び2つのパレット穴7に対応する2つの枠線17B,17Cの中心の少なくとも1つを用いればよい。
続いて、推定演算部14は、フォークリフト1から荷役対象のパレット5までの奥行き距離xとパレット5の前面5aの中心位置Gとに基づいて、フォークリフト1に対する荷役対象のパレット5の横ずれ距離y及び荷役対象のパレット5の高さzを推定する(手順S116)。
具体的には、推定演算部14は、フォークリフト1に対するパレット5の横ずれ距離yがゼロであるときの枠付き撮像画像データと、パレット5の高さzが基準値であるときの枠付き撮像画像データとを、比較用の学習データとして予め用意しておく。そして、推定演算部14は、フォークリフト1から荷役対象のパレット5までの奥行き距離xと枠付き撮像画像データDwにおけるパレット5の前面5aの中心位置Gの存在箇所とによって、荷役対象のパレット5の横ずれ距離y及び高さzを推定する。
なお、推定演算部14の処理手順としては、特に上記のフローチャートには限られない。例えば、手順S115,S116は手順S112の後に実行されればよいため、手順S113,S114を手順S112の前に実行してもよい。
以上のように本実施形態にあっては、単眼カメラ11の撮像画像データDに基づいて荷役対象のパレット5が検知され、撮像画像データDにおいてパレット5の前面5aと2つのパレット穴7とのうちの少なくとも一方を取り囲むような枠線17が指定された枠付き撮像画像データDwが作成される。そして、枠付き撮像画像データDwを用いて、パレット5の位置及び姿勢が推定される。このように屋内外の照度変化に弱いパターンマッチングを用いなくても、例えば屋内外の照度変化にロバストなディープラーニングを利用して、パレット5の位置及び姿勢が推定される。これにより、フォークリフト1に対する荷役対象のパレット5の位置及び姿勢の推定精度が向上する。
ところで、ディープラーニングによる位置及び姿勢の推定においては、例えばディープラーニングのセマンティックセグメンテーションを利用して位置及び姿勢を直接推定することも考えられる。しかし、セマンティックセグメンテーションを利用した位置及び姿勢では、学習データの準備にかなりの時間がかかるという課題がある。
これに対し本実施形態では、ディープラーニングの物体検知を利用して、荷役対象のパレット5の位置及び姿勢を推定するので、ディープラーニングのセマンティックセグメンテーションを利用する場合に比べて、学習データを準備しやすくなる。従って、学習データを準備するための工数を削減することができる。
また、本実施形態では、パレット5の位置として、フォークリフト1からパレット5までの奥行き距離x、フォークリフト1に対するパレット5の横ずれ距離y及びパレット5の高さzが推定され、パレット5の姿勢として、フォークリフト1に対するパレット5の姿勢角θが推定される。従って、フォークリフト1に対するパレット5の三次元位置及び姿勢が推定されるため、フォークリフト1に対する荷役対象のパレット5の位置及び姿勢をより正確に推定することができる。
また、本実施形態では、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの縦の長さHa及びパレット穴7に対応する枠線17B,17Cの縦の長さHbの少なくとも1つに基づいて、フォークリフト1からパレット5までの奥行き距離xが推定される。従って、枠付き撮像画像データDwを用いて、フォークリフト1からパレット5までの奥行き距離xを容易に推定することができる。
また、本実施形態では、枠付き撮像画像データDwにおけるパレット5の前面5aに対応する枠線17Aの中心及び2つのパレット穴7に対応する2つの枠線17A,17Bの中心の少なくとも1つに基づいて、パレット5の前面5aの中心位置Gが推定され、フォークリフト1からパレット5までの奥行き距離xとパレット5の前面5aの中心位置Gとに基づいて、フォークリフト1に対するパレット5の横ずれ距離y及びパレット5の高さzが推定される。従って、枠付き撮像画像データDwを用いて、フォークリフト1に対するパレット5の横ずれ距離y及びパレット5の高さzを容易に推定することができる。
また、本実施形態では、パレット5の前面5aに対応する枠線17Aの横の長さLa、パレット穴7に対応する枠線17B,17Cの横の長さLb及び2つのパレット穴7に対応する2つの枠線17B,17Cの中心間距離Lcの少なくとも1つに基づいて、フォークリフト1に対するパレット5の姿勢角θの絶対値が推定される。従って、枠付き撮像画像データDwを用いて、フォークリフト1に対するパレット5の姿勢角θの絶対値を容易に推定することができる。
また、本実施形態では、枠付き撮像画像データDwにおける2つのパレット穴7に対応する2つの枠線17B,17Cの寸法を比較して、パレット5の姿勢角θの符号が推定される。従って、枠付き撮像画像データDwを用いて、パレット5の姿勢角θの符号を容易に推定することができる。
また、本実施形態では、右向きのパレット5及び左向きのパレット5の学習データを用いて枠付き撮像画像データDwを分類して、パレット5の姿勢角θの符号が推定される。従って、例えばディープラーニングの分類を利用して、パレット5の姿勢角θの符号を容易に推定することができる。
また、本実施形態では、単眼カメラ11の撮像画像データを用いるので、位置姿勢推定装置16を低コストで実現することができる。
なお、本発明は、上記実施形態には限定されない。例えば上記実施形態では、単眼カメラ11の撮像画像データDにおいて、パレット5の前面5aを取り囲むような枠線17Aと、2つのパレット穴7を取り囲むような2つの枠線17B,17Cとが指定されているが、特にその形態には限られない。単眼カメラ11の撮像画像データDにおいて、パレット5の前面5aを取り囲むような枠線17Aのみを指定してもよいし、或いは2つのパレット穴7を取り囲むような2つの枠線17B,17Cのみを指定してもよい。
また、上記実施形態では、単眼カメラ11により荷役対象のパレット5が撮像され、単眼カメラ11の撮像画像データDに基づいて荷役対象のパレット5が検知されているが、単眼カメラ11の代わりに、ステレオカメラ等を使用してもよい。
また、荷役対象のパレット5を検出する検出部としては、特にカメラには限られず、例えばパレット5に向けてレーザを照射し、レーザの反射光を受光するレーザレンジファインダ等のレーザセンサを使用してもよい。この場合には、レーザセンサの検出データに基づいて荷役対象のパレット5が検知される。また、カメラとレーザセンサとを併用してもよい。
また、上記実施形態では、フォークリフト1のフォーク6が前後2方向から差し込まれるパレット5が使用されているが、パレットとしては、特にそれには限られず、フォーク6が前後左右の4方向から差し込まれるパレット等を使用してもよい。
1…フォークリフト、5…パレット、5a…前面、6…フォーク、7…パレット穴、11…単眼カメラ(検出部)、13…パレット検知部、14…推定演算部、16…位置姿勢推定装置、17,17A〜17C…枠線、D…撮像画像データ(検出データ)、Dw…枠付き撮像画像データ(枠付き検出データ)。

Claims (8)

  1. フォークリフトに対する荷役対象のパレットの位置及び姿勢を推定する位置姿勢推定装置であって、
    前記パレットを検出する検出部と、
    前記検出部の検出データに基づいて前記パレットを検知し、前記検出データにおいて前記パレットの前面と前記パレットの前面に設けられた2つのパレット穴とのうちの少なくとも一方を取り囲むような枠線が指定された枠付き検出データを作成するパレット検知部と、
    前記パレット検知部により作成された枠付き検出データを用いて、前記パレットの位置及び姿勢を推定する推定演算部とを備える位置姿勢推定装置。
  2. 前記推定演算部は、前記パレットの位置として、前記フォークリフトから前記パレットまでの奥行き距離、前記フォークリフトに対する前記パレットの横ずれ距離及び前記パレットの高さを推定し、前記パレットの姿勢として、前記フォークリフトに対する前記パレットの姿勢角を推定する請求項1記載の位置姿勢推定装置。
  3. 前記推定演算部は、前記枠付き検出データにおける前記パレットの前面に対応する枠線の縦の長さ及び前記パレット穴に対応する枠線の縦の長さの少なくとも1つに基づいて、前記フォークリフトから前記パレットまでの奥行き距離を推定する請求項2記載の位置姿勢推定装置。
  4. 前記推定演算部は、前記枠付き検出データにおける前記パレットの前面に対応する枠線の中心及び前記2つのパレット穴に対応する2つの枠線の中心の少なくとも1つに基づいて、前記パレットの前面の中心位置を推定し、前記フォークリフトから前記パレットまでの奥行き距離と前記パレットの前面の中心位置とに基づいて、前記フォークリフトに対する前記パレットの横ずれ距離及び前記パレットの高さを推定する請求項3記載の位置姿勢推定装置。
  5. 前記推定演算部は、前記パレットの前面に対応する枠線の横の長さ、前記パレット穴に対応する枠線の横の長さ及び前記2つのパレット穴に対応する2つの枠線の中心間距離の少なくとも1つに基づいて、前記フォークリフトに対する前記パレットの姿勢角の絶対値を推定する請求項2〜4の何れか一項記載の位置姿勢推定装置。
  6. 前記推定演算部は、前記枠付き検出データにおける前記2つのパレット穴に対応する前記2つの枠線の寸法を比較して、前記パレットの姿勢角の符号を推定する請求項5記載の位置姿勢推定装置。
  7. 前記推定演算部は、右向きのパレット及び左向きのパレットの学習データを用いて前記枠付き検出データを分類して、前記パレットの姿勢角の符号を推定する請求項5記載の位置姿勢推定装置。
  8. 前記検出部は、前記パレットを撮像する単眼カメラであり、
    前記パレット検知部は、前記単眼カメラの撮像画像データに基づいて前記パレットを検知し、前記撮像画像データにおいて前記枠線が指定された枠付き撮像画像データを前記枠付き検出データとして作成する請求項1〜7の何れか一項記載の位置姿勢推定装置。
JP2019145545A 2019-08-07 2019-08-07 位置姿勢推定装置 Active JP7192706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145545A JP7192706B2 (ja) 2019-08-07 2019-08-07 位置姿勢推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145545A JP7192706B2 (ja) 2019-08-07 2019-08-07 位置姿勢推定装置

Publications (2)

Publication Number Publication Date
JP2021024718A true JP2021024718A (ja) 2021-02-22
JP7192706B2 JP7192706B2 (ja) 2022-12-20

Family

ID=74662131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145545A Active JP7192706B2 (ja) 2019-08-07 2019-08-07 位置姿勢推定装置

Country Status (1)

Country Link
JP (1) JP7192706B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537096A (zh) * 2021-07-21 2021-10-22 常熟理工学院 基于ros的agv叉车库位托盘识别及辅助定位方法及系统
JP7489678B1 (ja) 2023-04-28 2024-05-24 ユーピーアール株式会社 パレット検出装置およびパレット検出方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5812395A (en) * 1994-11-16 1998-09-22 Masciangelo; Stefano Vision based forklift control system for autonomous pallet loading
KR20110027460A (ko) * 2009-09-10 2011-03-16 부산대학교 산학협력단 모노 비전 기반의 팔레트 위치 및 자세 측정 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5812395A (en) * 1994-11-16 1998-09-22 Masciangelo; Stefano Vision based forklift control system for autonomous pallet loading
KR20110027460A (ko) * 2009-09-10 2011-03-16 부산대학교 산학협력단 모노 비전 기반의 팔레트 위치 및 자세 측정 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537096A (zh) * 2021-07-21 2021-10-22 常熟理工学院 基于ros的agv叉车库位托盘识别及辅助定位方法及系统
CN113537096B (zh) * 2021-07-21 2023-08-15 常熟理工学院 基于ros的agv叉车库位托盘识别及辅助定位方法及系统
JP7489678B1 (ja) 2023-04-28 2024-05-24 ユーピーアール株式会社 パレット検出装置およびパレット検出方法

Also Published As

Publication number Publication date
JP7192706B2 (ja) 2022-12-20

Similar Documents

Publication Publication Date Title
US20210078843A1 (en) Position and posture estimation system
US8872920B2 (en) Camera calibration apparatus
WO2016181733A1 (ja) フォークリフト
US20190295291A1 (en) Method and system for calibrating multiple cameras
JP7252581B2 (ja) 物品検出装置、物品検出方法、及び産業車両
US20040096082A1 (en) Obstacle detection device and method therefor
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP3921968B2 (ja) 位置検出方法及び位置検出装置
EP3716145A1 (en) Object detection device and method
US11446822B2 (en) Simulation device that simulates operation of robot
JP7192706B2 (ja) 位置姿勢推定装置
WO2022190484A1 (ja) 容器計測システム
US11420855B2 (en) Object detection device, vehicle, and object detection process
CN113610910A (zh) 一种移动机器人避障方法
US20230237809A1 (en) Image processing device of person detection system
JP7556308B2 (ja) 位置姿勢推定装置
WO2022004495A1 (ja) 障害物検出装置及び障害物検出方法
Li et al. Extrinsic calibration between a stereoscopic system and a LIDAR with sensor noise models
JP2009042147A (ja) 物体認識装置および物体認識方法
JP2004069437A (ja) テストチャート、ステレオカメラの位置ずれ検査装置および位置ずれ検査方法
KR102573522B1 (ko) 레이저를 이용한 지면정보 획득시스템, 이를 이용한 지면정보 획득방법, 및 지면정보를 바탕으로 한 모바일 플랫폼 구동방법
JP2023124122A (ja) 物品検出装置、物品検出方法、及び産業車両
JP2022127854A (ja) 位置推定装置
TWI799051B (zh) 叉取棧板的自動搬運車和叉取棧板方法
US20230237830A1 (en) Image processing device of person detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151