JP7236705B2 - Method of generating teacher data used for learning transport equipment - Google Patents
Method of generating teacher data used for learning transport equipment Download PDFInfo
- Publication number
- JP7236705B2 JP7236705B2 JP2019192497A JP2019192497A JP7236705B2 JP 7236705 B2 JP7236705 B2 JP 7236705B2 JP 2019192497 A JP2019192497 A JP 2019192497A JP 2019192497 A JP2019192497 A JP 2019192497A JP 7236705 B2 JP7236705 B2 JP 7236705B2
- Authority
- JP
- Japan
- Prior art keywords
- range image
- pallet
- image sensor
- model
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Forklifts And Lifting Vehicles (AREA)
- Image Processing (AREA)
Description
本発明は、パレットを搬送対象とする搬送装置に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a conveying apparatus for conveying pallets.
フォークリフトなどの搬送装置は、予め決められた形状を有するパレットを搬送対象とする。パレットには、穴(フォークポケット)が設けられており、搬送装置には、フォークポケットに挿入可能なフォークが設けられる。 A transportation device such as a forklift transports a pallet having a predetermined shape. The pallet is provided with holes (fork pockets), and the transport device is provided with forks that can be inserted into the fork pockets.
搬送装置のオペレータは、フォークの高さを調節し、ステアリング操作を行いながら搬送装置を走行させて、フォークポケットにフォークを挿入する必要がある。 An operator of the carrier device must adjust the height of the forks, operate the carrier device while performing a steering operation, and insert the forks into the fork pockets.
ところが不慣れなオペレータにとって、フォークを、うまくフォークポケットに挿入することは容易でない。もし、フォークがフォークポケット以外の場所に衝突すると、パレット上の荷物が崩れるかもしれない。またフォークポケットにフォークが挿入されたとしても、フォークポケットの内壁にフォークがぶつかると、パレットがずれたり、フォークに好ましくない応力が加わるおそれがある。 However, it is not easy for an inexperienced operator to successfully insert the fork into the fork pocket. If the forks collide with anything other than the fork pockets, the load on the pallet may collapse. Also, even if the forks are inserted into the fork pockets, if the forks collide with the inner walls of the fork pockets, the pallet may shift or unfavorable stress may be applied to the forks.
本発明者らは、フォークリフトに、パレットの特定箇所を検出可能な検出装置を搭載することを検討した。検出装置は、画像を取得するセンサと、センサの出力画像にもとづいて特定箇所を検出可能に構成された識別器(あるいは分類器ともいう)を備える。識別器は、予め取得した教師データあるいは学習データにもとづいて、機械学習によって構成される。教師データは、典型的には、特定部位を含む画像データである。識別器に、十分な識別力を獲得させるためには、撮影方向や撮影距離を変えて撮影した膨大な数の教師データが必要となる。 The present inventors considered mounting a detection device capable of detecting a specific portion of a pallet on a forklift. The detection device includes a sensor that acquires an image, and a discriminator (also referred to as a classifier) configured to detect a specific location based on the output image of the sensor. The discriminator is constructed by machine learning based on teacher data or learning data obtained in advance. Teacher data is typically image data including a specific part. In order for the discriminator to acquire sufficient discriminating power, a huge amount of training data taken in different shooting directions and shooting distances is required.
フォークリフトが搬送対象とするパレットの種類が多い場合、パレット毎に教師データを用意する必要があるため、学習に要するコストが跳ね上がる。特に、さまざまな種類のパレットについて、フォークリフトの使用環境下で、サービスマンやユーザ(以下、人間という)がパレットの画像を多数撮影し、教師データを生成することとすると、人間の労力が大きく、学習に必要なコストが非常に高くなることを意味する。 If there are many types of pallets to be transported by the forklift, it is necessary to prepare training data for each pallet, so the cost required for learning jumps up. In particular, for various types of pallets, if a serviceman or a user (hereinafter referred to as a human) takes many images of pallets in a forklift environment to generate training data, it requires a lot of human labor, This means that the cost of learning will be very high.
本発明は係る課題に鑑みてなされたものであり、そのある態様の例示的な目的のひとつは、学習に必要な労力や時間を削減可能な技術の提供にある。 The present invention has been made in view of such problems, and one exemplary purpose of certain aspects thereof is to provide a technique capable of reducing the effort and time required for learning.
本発明のある態様は、パレットを搬送する搬送装置の学習に使用する教師データの生成方法に関する。搬送装置は、距離画像センサと、(i)距離画像センサの出力にもとづいて画素値が距離を表す距離画像を取得可能であり、(ii)距離画像にもとづいて、パレットまたはパレットの特定部位である検出対象を特定できるように、教師データを利用して機械学習により構成された識別器を有する演算部と、を備える。教師データの生成方法は、以下の処理を含む。
ステップA) パレットの3次元モデルを生成する。
ステップB) 3次元の仮想空間中にパレットの3次元モデルを配置し、パレットの3次元モデルと距離画像センサのモデルの相対位置を変化させながら、パレットを距離画像センサによって測定したときに得られるであろう仮想距離画像を生成する。
ステップC) ステップBで得られた仮想距離画像にもとづいた教師データを生成する。
One aspect of the present invention relates to a method of generating teacher data used for learning a conveying device that conveys pallets. The transport device can acquire a range image sensor, (i) a range image in which pixel values represent distance based on the output of the range image sensor, and (ii) based on the range image, a pallet or a specific part of the pallet. and a computing unit having a discriminator configured by machine learning using teacher data so that a certain detection target can be specified. The method of generating teacher data includes the following processes.
Step A) Generate a three-dimensional model of the pallet.
Step B) A 3D model of the pallet is placed in a 3D virtual space, and the pallet is measured by the range image sensor while changing the relative positions of the 3D model of the pallet and the model of the range image sensor. generates a virtual range image that would be
Step C) Generate training data based on the virtual distance image obtained in step B).
この搬送装置は、TOF(Time Of Flight)センサ、LiDAR(Light Detection and Ranging)、ステレオカメラやストラクチャドライトカメラなどの距離画像センサにより得られる3次元点群データを、2次元の距離画像にマッピングし、距離画像を入力とする識別器を構成することにより、パレットあるいはその部位の特定の精度を高めることができる。 This transportation device maps 3D point cloud data obtained from distance image sensors such as TOF (Time Of Flight) sensors, LiDAR (Light Detection and Ranging), stereo cameras and structured light cameras into 2D distance images. By constructing a discriminator that takes a distance image as an input, it is possible to improve the accuracy of specifying the pallet or its part.
ここで、パレットの形状や材質は多岐にわたるところ、あらゆるパレットについて、あらゆる状況を想定して、パレットの実物を距離画像センサによって撮影し、識別器の学習に用いる教師データを用意することは容易ではない。この態様によれば、3次元モデルを活用することで教師データを効率的に生成でき、学習を効率化できる。 Here, since pallets come in a wide variety of shapes and materials, it is not easy to prepare training data to be used for classifier learning by photographing the actual pallet with a range image sensor, assuming all kinds of situations for all kinds of pallets. do not have. According to this aspect, by utilizing the three-dimensional model, teacher data can be efficiently generated, and learning can be made more efficient.
ステップCは、背景距離画像に仮想距離画像を重畳するステップを含んでもよい。パレットの仮想距離画像と、背景距離画像を重畳して教師データを生成することで、実際にパレットが使用される環境における識別率を改善できる。 Step C may include superimposing the virtual range image on the background range image. By superimposing the virtual range image of the palette and the background range image to generate training data, it is possible to improve the recognition rate in an environment where the palette is actually used.
背景距離画像は、距離画像センサの実測により生成されてもよい。距離画像センサのセンシングは、環境光の影響を大きく受けるところ、背景については、実際の撮影画像を用いることにより、環境光の影響を考慮した教師データを生成できる。 The background distance image may be generated by actual measurement of a distance image sensor. Sensing by the distance image sensor is greatly affected by ambient light, but for the background, by using an actually captured image, it is possible to generate teacher data that takes into account the effect of ambient light.
3次元の仮想空間中に背景となる物体の3次元モデルを配置して、背景の仮想距離画像を生成し、パレットの仮想距離画像と背景の仮想距離画像を重畳して教師データとしてもよい。 A three-dimensional model of a background object may be placed in a three-dimensional virtual space to generate a virtual range image of the background, and the virtual range image of the palette and the virtual range image of the background may be superimposed as training data.
あるいは、3次元の仮想空間中に、背景となる物体の3次元モデルとパレットの3次元モデルを配置して、それらを含む仮想距離画像を生成し、それを教師データとしてもよい。 Alternatively, a 3D model of the background object and a 3D model of the pallet may be placed in a 3D virtual space to generate a virtual range image including them, which may be used as teacher data.
計測対象までの距離、計測面の方向、計測対象の材質の少なくともひとつが距離画像センサの出力に与える影響を記述する誤差モデルを生成しておき、ステップBにおいて、距離画像センサのモデルと誤差モデルの組み合わせにもとづいて、仮想距離画像を生成してもよい。
計測対象の材質、計測面の方向、計測対象までの距離は、距離画像に影響を及ぼす。そこで誤差モデルを導入した計測モデルを生成することで、より実際の利用環境で撮影されるであろう距離画像に近い教師データを生成できる。
An error model that describes the influence of at least one of the distance to the object to be measured, the direction of the surface to be measured, and the material of the object to be measured on the output of the range image sensor is generated, and in step B, the model of the range image sensor and the error model A virtual range image may be generated based on the combination of
The material of the object to be measured, the direction of the surface to be measured, and the distance to the object to be measured affect the distance image. Therefore, by generating a measurement model that introduces an error model, it is possible to generate teacher data that is closer to a range image that would be captured in an actual usage environment.
環境光、周囲温度の少なくともひとつが距離画像センサの出力に与える影響を記述する環境モデルを生成しておき、ステップBにおいて、距離画像センサのモデルと環境モデルの組み合わせにもとづいて、仮想距離画像を生成してもよい。
距離画像センサのセンシングは、応答速度、環境光、周囲温度をはじめとする環境の影響を大きく受ける可能性がある。そこで環境モデルを導入した計測モデルを生成することで、より実際の利用環境で撮影されるであろう距離画像に近い教師データを生成できる。
An environment model describing the influence of at least one of ambient light and ambient temperature on the output of the range image sensor is generated, and in step B, a virtual range image is generated based on the combination of the range image sensor model and the environment model. may be generated.
Range image sensor sensing can be greatly affected by the environment, including response speed, ambient light, and ambient temperature. Therefore, by generating a measurement model incorporating an environment model, it is possible to generate training data that is closer to a distance image that would be captured in an actual usage environment.
検出対象は、パレットの穴と穴を区切る桁を含んでもよい。パレットには、さまざまな形状や構造が存在するところ、それらには穴と穴を区切る桁が共通して存在する。そこで、桁を検出対象とした識別器を搭載することで、さまざまなパレットについて、穴の位置を検出できる。 The object to be detected may include pallet holes and girders separating the holes. Pallets come in a variety of shapes and structures, and they all have holes and girders separating the holes. Therefore, it is possible to detect the positions of holes in various pallets by installing a discriminator that detects girders.
演算部は、予め保持しているパレットの幾何学的な情報にもとづいて、穴の位置を特定してもよい。 The calculation unit may specify the positions of the holes based on the geometric information of the pallet held in advance.
検出対象であるパレットまたはパレットの特定部位を特定した後に、その結果を利用して、距離画像にもとづいてパレットの穴を特定してもよい。元の距離画像から直接、パレットの穴を特定するように識別器を構成すると、精度が低下する場合がある。そこで、パレットあるいはパレットの特定部位を特定する識別器を構成し、さらにその結果をベースとして穴を特定する識別器を構成することにより、穴の識別精度を高めることができる。 After specifying the pallet or the specific part of the pallet to be detected, the result may be used to specify the hole in the pallet based on the distance image. Constructing the classifier to identify pallet holes directly from the original range image may result in reduced accuracy. Therefore, by configuring a discriminator that identifies a pallet or a specific portion of the pallet, and further configuring a discriminator that identifies a hole based on the result, it is possible to improve the hole identification accuracy.
なお、以上の構成要素の任意の組み合わせや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that arbitrary combinations of the above-described constituent elements and mutually replacing the constituent elements and expressions of the present invention in methods, devices, systems, etc. are also effective as aspects of the present invention.
本発明によれば、学習に必要な労力や時間を削減できる。 According to the present invention, the effort and time required for learning can be reduced.
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent constituent elements, members, and processes shown in each drawing are denoted by the same reference numerals, and duplication of description will be omitted as appropriate. Moreover, the embodiments are illustrative rather than limiting the invention, and not all features and combinations thereof described in the embodiments are necessarily essential to the invention.
図1は、搬送装置の一態様であるフォークリフトの外観図を示す斜視図である。フォークリフト600は、車体(シャーシ)602、フォーク604、昇降体(リフト)606、マスト608、車輪610、612を備える。マスト608は車体602の前方に設けられる。昇降体606は、油圧アクチュエータ(図1に不図示)などの動力源によって駆動され、マスト608に沿って昇降する。昇降体606には、荷物を支持するためのフォーク604が取り付けられている。フォークリフト600は、2本のフォーク604が図示しないパレットの穴(フォークポケット)に挿入された状態で、パレットを搬送する。
FIG. 1 is a perspective view showing an external view of a forklift, which is one mode of a transport device. The
図2は、フォークリフトの操縦席700の一例を示す図である。操縦席700は、イグニッションスイッチ702、ステアリングホイール704、リフトレバー706、アクセルペダル708、ブレーキペダル710、ダッシュボード714、前後進レバー712を備える。
FIG. 2 is a diagram showing an example of a
イグニッションスイッチ702は、フォークリフト600の起動用のスイッチである。ステアリングホイール704は、フォークリフト600の操舵を行うための操作手段である。リフトレバー706は、昇降体606を上下に移動させるための操作手段である。アクセルペダル708は、走行用の車輪の回転を制御する操作手段であり、オペレータが踏み込み量を調節することでフォークリフト600の走行が制御される。オペレータがブレーキペダル710を踏み込むと、ブレーキがかかる。前後進レバー712は、フォークリフト600の走行方向を、前進と後進で切りかえるためのレバーである。そのほか、図示しないインチングペダルが設けられてもよい。
The
オペレータは、車体の位置制御に関して、ステアリングホイール704とアクセルペダル708、ブレーキペダル710を操作し、フォーク604の位置制御に関して、リフトレバー706を操作する必要がある。
The operator needs to operate the
図3(a)~(h)は、フォークリフト600が搬送対象とするパレットを示す図である。パレット800は、上板806、穴802、桁804を有する。パレット800の形状は、JIS規格により定められるほか、目的や用途に応じて多種多様な形状のものが存在する。図3(a)~(h)はそれぞれ、JIS規格でS2,SU2,DP4,R4,RW2,D2,DU2,D4と表記される。図3(a)~(h)に示すように、一概にパレットといっても、さまざまな形状、構造が存在しており、不慣れなオペレータにとって、複数の操作入力手段(704,706,708,710,706)を正確に操作して、フォークポケットに正確にフォークを挿入することは容易でない。
3A to 3H are diagrams showing pallets to be transported by the
以下では、パレットの荷すくい動作を支援可能な構成について説明する。図4は、実施の形態に係るフォークリフト300の機能ブロック図である。図4には、荷すくい動作の支援に関連するブロックのみが示され、その他のブロックは省略している。
A configuration capable of assisting the scooping operation of a pallet will be described below. FIG. 4 is a functional block diagram of the
フォークリフト300は、距離画像センサ302、カメラ303、通知手段304、コントローラ310を備える。距離画像センサ302は、フォークリフト前方300に取り付けられ、車両前方の距離情報を取得する。その限りでないが距離画像センサ302としては、ToFカメラ、LiDAR、ストラクチャードライト法を用いたセンサ、ステレオカメラなどを用いることができる。距離画像センサ302は、車両前方に位置する構造物や物品等の3次元点群データを含む測距データD1を生成する。
The
図5(a)、(b)は、距離画像センサ302の設置箇所を説明する図である。図5(a)は、上から見た図である。フォークを挿入すべき穴の位置を検出する必要があることから、左右方向に関して、距離画像センサ302は、2本のフォークの中央に配置することが好ましい。これにより、フォークをパレットに挿入する際に、距離画像センサ302によって、パレットを正面から撮影することが可能となる。特に、後述のように桁を含む特定部位を検出対象とする場合に、フォークの中央に距離画像センサ302を配置しておくことで、特定部位の距離画像をうまく撮影することができる。
5(a) and 5(b) are diagrams for explaining the installation location of the
図5(b)は横から見た図である。上下方向に関しては、302cで示すようにフォーク604と同じ高さとしてもよいが、それよりわずかに上側の位置302a(あるいは下側の位置302b)に設けるとよい。これにより、パレット800の上板806の上面S1(あるいは上板806の下面S2)を確実に捉えることが可能となるからである。また、この位置は、フォークの高さの最終的な調整の局面において、フォークやその他の車両構造物に遮蔽されにくいという利点もある。
FIG. 5B is a side view. With respect to the vertical direction, it may be at the same height as the
図4に戻る。カメラ303は、フォークリフト300の前方を撮影する。カメラ303の撮影した画像データD3は、ディスプレイ306に表示される。なお図4においては、カメラ303と距離画像センサ302を別個の機能ブロックとして示すが、必ずしもハードウェアとして距離画像センサ302と独立していることを意味するものでなく、距離画像センサ302は、カメラ303を兼ねていてもよい。たとえば距離画像センサ302がTOFカメラやステレオカメラである場合、それから1次的に得られる単眼画像(赤外線強度分布や可視光モノクロ画像、可視光カラー画像)を、画像データD3として用いることができる。
Return to FIG. A
コントローラ310は、フォークリフト300を統合的に制御する。コントローラ310は、距離画像取得部330および識別器340を備える。距離画像取得部330は、点群データを含む測距データD1にもとづいて、距離画像D2を生成する。距離画像D2とは、縦横に複数ピクセルを有する画像データであって、画素値が距離を表すデータをいう。図6は、距離画像の一例を示す図である。なお、距離画像センサ302の出力が距離データである場合、距離画像取得部330の処理は簡略化され、あるいは省略される。
図4に戻る。識別器340は、距離画像D2にもとづいて、パレットまたはパレットの特定部位を特定できるように、機械学習により構成される。
Return to FIG. The
処理部350は、識別器340の検出結果にもとづいて、パレットの穴の位置を特定する。そして検出した結果にもとづいて、通知手段304を制御し、オペレータに通知する。通知手段304は、ディスプレイ306やスピーカ308を含みうる。ディスプレイ306は、視覚的にパレットの穴の位置やその他の情報をオペレータに通知するために用いられる。スピーカ308は、オペレータに聴覚的にパレットの位置やその他の情報を通知するために用いることができる。通知手段304による通知については後述する。
The
識別器340および処理部350は、演算処理装置(CPU)やメモリを有するマイコン320と、マイコン320が実行するソフトウェアプログラムで構成することができる。さらに距離画像取得部330も、マイコン320の機能として実装することができる。したがって距離画像取得部330、識別器340、処理部350は、必ずしも別個のハードウェアとして認識されるものではなく、演算処理装置とソフトウェアプログラムの組み合わせにより実現される機能を表す。
The
あるいは距離画像取得部330と識別器340を別個のハードウェアで構成してもよい。たとえば距離画像センサ302とマイコン320のインタフェースとして、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア(チップ)が搭載される場合がある。この場合、距離画像取得部330の処理を、このハードウェアに実行させてもよい。
Alternatively, the distance
以上がフォークリフト300の構成である。このフォークリフト300によれば、距離画像センサにより得られる距離画像を入力とする識別器を機械学習により構成することにより、パレットあるいはその部位の特定の精度を高めることができる。そして得られた検出結果を、搬送装置の動作に反映させ、あるいはオペレータに通知することにより、オペレータの操作を支援することができる。
The above is the configuration of the
なお、パレットやその特定部位を検出する別の方法として、3次元点群データを用いて、特徴的な部位をパターンマッチングによって検出する方法も考えられる。ところがこの方法は、対象物を常に同じ方向から測定する必要があり、特徴的な部位の3次元点群データを高密度に精度よく測ることが難しいという問題点がある。 As another method for detecting a pallet and its specific parts, a method of detecting characteristic parts by pattern matching using three-dimensional point group data is also conceivable. However, this method has the problem that the object must always be measured from the same direction, and it is difficult to measure three-dimensional point cloud data of characteristic parts with high density and accuracy.
続いて識別器340の具体例と、その学習について説明する。一実施例において、識別器340は、線形SVM(Support Vector Machine)とHOG(Histograms of Oriented Gradients)特徴量の組み合わせで構成される。線形SVMは、入力が、2クラスのいずれかに属するかを判定可能な識別器として広く用いられる。一般的な画像処理の分野において、線形SVMの入力は、画素値が輝度である画像データであるが、本実施の形態では、距離画像を入力としたところが異なっている。
Next, a specific example of the
線形SVMは、2個の穴のペアを直接検出するように学習することもできる。ただし、図3(a)~(h)に示したように、穴の形状やサイズは、パレットの種類によってさまざまである。具体的には、穴の横幅は、パレットによって異なっている。またパレットは下板を有するものもあれば、有しないものもあり、したがって穴は下側が開放されている場合と閉じている場合がある。このことから、穴を直接的な識別対象として学習した識別器では、十分に高い識別率が得られない場合がある。 A linear SVM can also be trained to detect pairs of two holes directly. However, as shown in FIGS. 3(a) to 3(h), the shape and size of the holes vary depending on the type of pallet. Specifically, the width of the hole differs depending on the pallet. Also, some pallets have bottom plates, some do not, so the holes may be open or closed at the bottom. For this reason, a classifier that learns directly from holes as objects to be identified may not obtain a sufficiently high classification rate.
そこで本発明者らは、さらなる識別率の改善のために、パレット800の穴802と穴802を区切る桁804に着目し、桁804を含む一部分(特定部位)を検出対象として識別器340を構成することとした。桁804は、パレット800の規格によらずに、パレットの必須の構成要素であり、検出対象として好適であり、高い識別率が期待できる。
Therefore, in order to further improve the identification rate, the present inventors focused on the
図7(a)、(b)は、検出対象である特定部位801を模式的に示す図である。特定部位801は、上板806の一部と、下板808の一部と、桁804および2つの穴802を含む。この特定部位801は、向かい合わせの2個のコの字形状を含むものと把握できる。図8は、図7(a)の特定部位801の距離画像を示す図である。
FIGS. 7A and 7B are diagrams schematically showing a
なお図3(b)等に示すように、下板が存在しないパレットも存在する。そこで図7(b)に示すように、下板808を除いたT字形状を特定部位801として識別器340を学習させてもよい。
As shown in FIG. 3(b), etc., some pallets do not have a lower plate. Therefore, as shown in FIG. 7(b), the
処理部350には、パレットの幾何学的な情報が保持されている。処理部350は、識別器340が特定した特定部位801の位置と、幾何学的な情報にもとづいて、演算処理によって、フォークを挿入すべき2個の穴の位置を特定することができる。たとえば、幾何学的な情報は、パレットのセンターの位置(座標)と、穴の位置の相対的な位置関係を含みうる。処理部350は、識別器340の出力にもとづいて、パレット800のセンター位置を検出し、センター位置から、左右に所定量オフセットした位置を、フォークを挿入すべき穴の位置とすることができる。
The
図7(c)は、別のパレットの一部分を示す図である。パレットは、3個の(あるいはそれより多い)穴を有する場合もあり、その場合、1個のパレットが、2個の(あるいはそれより多い)桁を含み、1個のパレットについて、2個の特定部位801が隣接して検出される場合もありえる。この場合、2個の特定部位801のセンター(すなわち2個の桁804のセンター)を、パレット800全体のセンター位置と判定してもよい。
FIG. 7(c) is a diagram showing a portion of another palette. A pallet may have three (or more) holes, in which case one pallet contains two (or more) girders and two girders per pallet. It is also possible that the
(識別器の学習)
続いて、識別器340の学習について説明する。
(Learning of discriminator)
Next, learning of the
図9は、識別器340の学習に用いる教師データの生成のフローチャートである。はじめに、パレット800の3次元モデルMpが生成される(S100)。パレットの3次元モデルMpは、パレットの3次元CADデータに相当する。
FIG. 9 is a flow chart for generating teacher data used for learning of the
また距離画像センサ302のモデルMsが生成される(S102)。距離画像センサ302のモデルは、距離画像センサ302の画角や入出力特性を記述したものであり、画角、解像度、計測精度、温度、フレームレート、応答特性などを考慮して生成することができる。応答特性は、波長感度特性やトランジェントな応答特性を含みうる。
A model Ms of the
パレット800の3次元モデルMpと、距離画像センサ302のモデルMsが、計算機シミュレータの3次元の仮想空間中に配置される(S104)。その状態で距離画像センサ302のモデルMsの出力を、仮想距離画像I1として取得し(S106)、仮想距離画像I1にもとづいた教師データI2を生成する(S108)。
The three-dimensional model Mp of the
処理S106~S108は、パレットと距離画像センサのモデルMp,Msの相対的な位置関係を変化させながら繰り返される(S110)。 The processes S106 to S108 are repeated while changing the relative positional relationship between the pallet and the range image sensor models Mp and Ms (S110).
図10は、パレットおよび距離画像センサのモデルMp,Msが配置される3次元の仮想空間900を示す図である。ここでは距離画像センサ302のモデルMsが原点に配置されるものとする。破線は距離画像センサ302の視野を表す。図8のステップS110では、パレット800のモデルMpの位置(x、y、z)を変化させる。ステップS110においては、位置(x,y,z)に加えて、姿勢(θp,θy,θr)を変化させてもよい。
FIG. 10 is a diagram showing a three-dimensional
以上が、実施の形態に係る教師データの生成方法である。 The above is the method for generating teacher data according to the embodiment.
パレットの形状や材質は多岐にわたるところ、あらゆるパレットについて、あらゆる状況を想定して、パレットの実物を距離画像センサによって撮影し、識別器の学習に用いる教師データを用意することは容易ではない。この態様によれば、3次元モデルを活用することで教師データを効率的に生成でき、学習を効率化できる。 Since pallets come in a wide variety of shapes and materials, it is not easy to prepare training data for classifier learning by photographing the actual pallet with a distance image sensor, assuming all kinds of situations for all kinds of pallets. According to this aspect, by utilizing the three-dimensional model, teacher data can be efficiently generated, and learning can be made more efficient.
(背景情報の追加)
図8の処理S106において、仮想距離画像I1に、背景距離画像I3を重畳して、教師データI2を生成することができる。
(adding background information)
In the process S106 of FIG. 8, the background distance image I3 can be superimposed on the virtual distance image I1 to generate the teacher data I2.
図11(a)~(c)は、背景距離画像にもとづく教師データの生成を説明する図である。図11(a)は、図10において得られるパレット800の仮想距離画像I1である。図11(b)は、背景距離画像I3を表す。背景距離画像I3としては、パレットが実際に使用される環境において、実際の距離画像センサ302により撮影された実際の背景の距離画像を用いるとよい。
FIGS. 11A to 11C are diagrams for explaining the generation of teacher data based on the background distance image. FIG. 11(a) is a virtual distance image I1 of the
図11(a)のパレットの仮想距離画像I1と、図11(b)の背景距離画像I3を合成すると、図11(c)の合成距離画像が得られる。この合成距離画像の一部あるいは全部を、教師データとして用いることができる。 Combining the palette virtual distance image I1 of FIG. 11(a) and the background distance image I3 of FIG. 11(b) yields the synthetic distance image of FIG. 11(c). Part or all of this synthesized range image can be used as training data.
パレットの仮想距離画像I1と、背景距離画像I3を重畳して教師データを生成することで、実際にパレットが使用される環境における識別率を改善できる。 By superimposing the virtual distance image I1 of the palette and the background distance image I3 to generate the training data, the recognition rate in the environment where the palette is actually used can be improved.
なお、背景距離画像I3は、距離画像センサ302の実測により生成したものを用いてもよい。距離画像センサ302のセンシングは、環境光などの影響を大きく受けるところ、背景については、実際の撮影画像を用いることにより、環境光の影響を考慮した教師データを生成でき、識別率を改善する効果が期待される。
Note that the background distance image I3 may be generated by actual measurement of the
あるいは、3次元の仮想空間中に背景となる物体の3次元モデルを配置して、距離画像センサ302のモデルMsを用いて、背景の仮想距離画像を生成し、パレットの仮想距離画像と背景の仮想距離画像を重畳して教師データとしてもよい。
Alternatively, a three-dimensional model of an object that serves as a background is placed in a three-dimensional virtual space, and a virtual range image of the background is generated using the model Ms of the
あるいは、3次元の仮想空間中に、背景となる物体の3次元モデルとパレットの3次元モデルを配置して、それらを含む仮想距離画像を生成し、その一部あるいは全部を教師データとしてもよい。 Alternatively, a 3D model of the background object and a 3D model of the pallet may be arranged in a 3D virtual space to generate a virtual range image including them, and part or all of it may be used as teacher data. .
(誤差モデル)
これまでの説明では、距離画像センサ302のモデルMsのみを考慮した計測モデルを説明したが、より正確な教師データを生成するために、誤差モデルMERRを導入するとよい。
(error model)
In the description so far, the measurement model considering only the model Ms of the
誤差モデルMERRは、(i)計測対象までの距離、(ii)計測面の方向、(iii)計測対象の材質の少なくともひとつが距離画像センサの出力に与える影響を記述するものである。距離画像センサの出力に与える影響は、計測対象までの距離、計測面の方向、計測対象の材質の順で大きいため、誤差モデルMERRは、少なくとも計測対象までの距離を考慮して作成するとよく、より好ましくは計測対象までの距離と、計測面の方向の両方を考慮して作成するとよく、さらに精度を高めたい場合は、3個すべてを考慮して作成するとよい。 The error model M ERR describes the influence of at least one of (i) the distance to the measurement object, (ii) the direction of the measurement plane, and (iii) the material of the measurement object on the output of the range image sensor. Since the distance to the object to be measured, the direction of the surface to be measured, and the material of the object to be measured have the greatest influence on the output of the range image sensor, the error model M ERR should be created with at least the distance to the object to be measured taken into account. , and more preferably, both the distance to the measurement object and the direction of the measurement surface should be taken into consideration when making the calculation. If it is desired to further improve the accuracy, all three should be taken into consideration when making the calculation.
(i) 計測対象までの距離
距離画像センサの入出力特性を考える。理想的な距離画像センサでは、出力である距離画像の画素値pvは、入力である距離dに対して線形に変化する。
pv=a1×d …(1)
(i) Distance to measurement object Consider the input/output characteristics of the range image sensor. In an ideal distance image sensor, the pixel value pv of the output distance image changes linearly with respect to the input distance d.
pv=a 1 ×d (1)
しかしながら実際の距離画像センサでは、そのセンサの方式や、製品の種類により、傾きa1が異なる場合がある。あるいは、式(2)に示すように、非線形な項が含まれる場合や、オフセット項a0が含まれる場合もある。
pv=a0+a1×d+a2×d2+・・・ …(2)
そこで誤差モデルMERRでは、距離画像センサと計測対象の距離dと、距離画像における画素値pvの関係を記述する。
However, in an actual distance image sensor, the inclination a1 may vary depending on the sensor system and product type. Alternatively, as shown in equation (2), it may include a nonlinear term or an offset term a0 .
pv= a0 + a1 *d+ a2 * d2 + (2)
Therefore, the error model M ERR describes the relationship between the distance d between the distance image sensor and the measurement target and the pixel value pv in the distance image.
(ii) 計測面の方向
式(2)で表される入出力特性は、計測面の方向に応じて変化する場合がある。たとえば距離画像センサ302の正面の物体に対しては、ある係数のセットS1[a0,a1,…]を有する入出力特性が得られているとする。この場合に、別の方向に対して、入出力特性が同じセットS1で記述できるとは限らず、別の係数のセットS2[a0,a1,…]を有する入出力特性が得られる場合がある。そこで誤差モデルMERRは、計測面の方向を考慮して作成するとよい。
(ii) Orientation of Measurement Plane The input/output characteristics represented by Equation (2) may change according to the orientation of the measurement plane. For example, for an object in front of the
(iii) 材料
距離画像センサ302のセンシングの方式、使用波長などによって、同じ距離にある物体を同一の距離画像センサ302によって測定しても、物体の材料が異なると、距離画像センサ302の出力に基づく距離画像の画素値が同一にならない場合がある。
(iii) Materials Depending on the sensing method of the
ここでパレット800の材料や表面の材質は、樹脂や木材、金属、あるいはそれら塗装したものなど多岐にわたる。この認識にもとづき、距離画像センサ302のモデルMsは、測定対象の材料(材質)の違いが、距離画像センサ302の出力に与える影響を考慮して生成されている。すなわち材料ごとに、距離画像センサ302の入出力特性を予め測定しておき、それを考慮した誤差モデルMERRを用意する。パレット800のモデルMpは、パレット800の部分ごとの、あるいは全体の材料が指定可能となっている。これにより、より正確な教師データを生成できる。
Here, the material of the
(環境モデル)
計測モデルには、誤差モデルMERRに加えて、あるいはそれに代えて、環境モデルMENVを導入することができる。環境モデルMENVは、環境光、周囲温度の少なくともひとつが距離画像センサの出力に与える影響を記述するものである。
(environmental model)
In addition to or instead of the error model M ERR , the environment model M ENV can be introduced into the measurement model. The environment model M ENV describes the influence of at least one of ambient light and ambient temperature on the output of the range image sensor.
多くの距離画像センサ302は、物体にプローブ光を照射し、その反射光を測定することにより、物体までの距離をセンシングするアクティブセンサである。ここで、距離画像センサ302が使用される環境に、プローブ光と同じ波長の環境光が存在すると、距離画像センサ302の出力にもとづく距離画像にノイズが重畳されることとなる。環境モデルMENVを導入すると、仮想距離画像I1に、環境光に依存するノイズを重畳することができ、教師データを、より実環境で得られる距離画像に近づけることができる。
Many
また周囲温度の影響によって、計測誤差が変化する。そこで環境モデルに、周囲温度が与える影響を記述するとよい。 Moreover, the measurement error changes due to the influence of the ambient temperature. Therefore, it is better to describe the influence of the ambient temperature in the environment model.
以上、本発明を実施例にもとづいて説明した。本発明は上記実施形態に限定されず、種々の設計変更が可能であり、様々な変形例が可能であること、またそうした変形例も本発明の範囲にあることは、当業者に理解されるところである。以下、こうした変形例を説明する。 The present invention has been described above based on the examples. It should be understood by those skilled in the art that the present invention is not limited to the above embodiments, and that various design changes and modifications are possible, and that such modifications are within the scope of the present invention. By the way. Such modifications will be described below.
実施の形態では搬送装置としてフォークリフトを例に説明したが、本発明の適用はその限りでなく、ハンドリフト(ハンドパレット)やAGV(Automatic Guided Vehicle)、フォークローダー(フォーク付きのホイルローダー)など、パレットを取り扱うさまざまな搬送装置に適用することができる。 In the embodiments, a forklift was described as an example of a transport device, but the application of the present invention is not limited to that. It can be applied to various conveying devices that handle pallets.
600 フォークリフト
602 車体
604 フォーク
606 昇降体
608 マスト
610 前輪
612 後輪
700 操縦席
702 イグニッションスイッチ
704 ステアリングホイール
706 リフトレバー
708 アクセルペダル
710 ブレーキペダル
712 前後進レバー
714 ダッシュボード
300 フォークリフト
302 距離画像センサ
303 カメラ
304 通知手段
306 ディスプレイ
308 スピーカ
310 コントローラ
320 マイコン
330 距離画像取得部
340 識別器
350 処理部
360 パターンマッチング部
362 テンプレート画像生成部
D1 測距データ
D2 距離画像
D3 画像データ
D4 部分距離画像
D5 位置情報
D6 テンプレート画像
800 パレット
801 特定部位
802 穴
804 桁
600
Claims (5)
前記搬送装置は、
距離画像センサと、
(i)前記距離画像センサの出力にもとづいて画素値が距離を表す距離画像を取得可能であり、(ii)前記距離画像にもとづいて、パレットまたは前記パレットの特定部位である検出対象を特定できるように、前記教師データを利用して機械学習により構成された識別器を有する演算部と、
を備えるものであり、
前記生成方法は、
前記パレットの3次元モデルを生成するステップAと、
3次元の仮想空間中に前記パレットの3次元モデルを配置し、前記パレットの3次元モデルと前記距離画像センサのモデルの相対位置を変化させながら、前記パレットを前記距離画像センサによって測定したときに得られるであろう仮想距離画像を生成するステップBと、
前記仮想距離画像にもとづいた前記教師データを生成するステップCと、
を備えることを特徴とする生成方法。 A method for generating teacher data used for learning a transport device that transports pallets, comprising:
The conveying device is
a range image sensor;
(i) Based on the output of the range image sensor, it is possible to obtain a range image in which pixel values represent distances, and (ii) Based on the range image, a detection target, which is a pallet or a specific part of the pallet, can be specified. A computing unit having a discriminator configured by machine learning using the teacher data,
and
The generating method is
step A of generating a three-dimensional model of said pallet;
When the 3D model of the pallet is placed in a 3D virtual space and the pallet is measured by the range image sensor while changing the relative positions of the 3D model of the pallet and the model of the range image sensor. a step B of generating the virtual range image that would be obtained;
a step C of generating the training data based on the virtual range image;
A generation method, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192497A JP7236705B2 (en) | 2019-10-23 | 2019-10-23 | Method of generating teacher data used for learning transport equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019192497A JP7236705B2 (en) | 2019-10-23 | 2019-10-23 | Method of generating teacher data used for learning transport equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021068138A JP2021068138A (en) | 2021-04-30 |
JP7236705B2 true JP7236705B2 (en) | 2023-03-10 |
Family
ID=75637241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019192497A Active JP7236705B2 (en) | 2019-10-23 | 2019-10-23 | Method of generating teacher data used for learning transport equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7236705B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151650A (en) | 2016-02-23 | 2017-08-31 | 村田機械株式会社 | Object state specification method, object state specification apparatus, and conveyance vehicle |
-
2019
- 2019-10-23 JP JP2019192497A patent/JP7236705B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151650A (en) | 2016-02-23 | 2017-08-31 | 村田機械株式会社 | Object state specification method, object state specification apparatus, and conveyance vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2021068138A (en) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7300646B2 (en) | Conveyor | |
WO2019138834A1 (en) | Information processing device, information processing method, program, and system | |
KR102161716B1 (en) | 3d printing device and printing correction method | |
CN109544633B (en) | Target ranging method, device and equipment | |
JP6649796B2 (en) | Object state specifying method, object state specifying apparatus, and carrier | |
CN110837814A (en) | Vehicle navigation method, device and computer readable storage medium | |
JP5665333B2 (en) | Information processing apparatus and information processing apparatus control method | |
US11828870B2 (en) | Vehicle inspection system | |
JPWO2019163378A5 (en) | ||
US20220034754A1 (en) | Vehicle inspection system | |
EP3995925B1 (en) | Autonomous mobile robot, transporter, autonomous mobile robot control method, and transporter control method | |
WO2010103961A1 (en) | Parking support apparatus | |
CN107643049A (en) | Vehicle position detection system and method on weighbridge based on monocular structure light | |
JP2020107174A (en) | Transfer system, transfer device, calculator, learning method | |
JP7236705B2 (en) | Method of generating teacher data used for learning transport equipment | |
US20220105750A1 (en) | Vehicle equipped with omni-directional wheels | |
US20210272391A1 (en) | Vehicle inspection system | |
CN207180603U (en) | Vehicle position detection system on weighbridge based on monocular structure light | |
JP7192706B2 (en) | Position and orientation estimation device | |
JP2022152449A (en) | Method for generating teacher data used for learning of transport device | |
US20230174358A1 (en) | Material Handling Vehicle Guidance Systems and Methods | |
JP2007278869A (en) | Range finder, periphery monitor for vehicle, range finding method, and program for range finding | |
JP2020111400A (en) | Conveyance device | |
JP2024013690A (en) | Cargo handling support device, conveying device, cargo handling support method, and cargo handling support program | |
US20230417581A1 (en) | Industrial vehicle control device, industrial vehicle, and industrial vehicle control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7236705 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |