JP7236705B2 - Method of generating teacher data used for learning transport equipment - Google Patents

Method of generating teacher data used for learning transport equipment Download PDF

Info

Publication number
JP7236705B2
JP7236705B2 JP2019192497A JP2019192497A JP7236705B2 JP 7236705 B2 JP7236705 B2 JP 7236705B2 JP 2019192497 A JP2019192497 A JP 2019192497A JP 2019192497 A JP2019192497 A JP 2019192497A JP 7236705 B2 JP7236705 B2 JP 7236705B2
Authority
JP
Japan
Prior art keywords
range image
pallet
image sensor
model
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019192497A
Other languages
Japanese (ja)
Other versions
JP2021068138A (en
Inventor
敦史 日南
雄士 鈴木
賢司 寺林
亮 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyama University
Original Assignee
Toyama University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyama University filed Critical Toyama University
Priority to JP2019192497A priority Critical patent/JP7236705B2/en
Publication of JP2021068138A publication Critical patent/JP2021068138A/en
Application granted granted Critical
Publication of JP7236705B2 publication Critical patent/JP7236705B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)
  • Image Processing (AREA)

Description

本発明は、パレットを搬送対象とする搬送装置に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a conveying apparatus for conveying pallets.

フォークリフトなどの搬送装置は、予め決められた形状を有するパレットを搬送対象とする。パレットには、穴(フォークポケット)が設けられており、搬送装置には、フォークポケットに挿入可能なフォークが設けられる。 A transportation device such as a forklift transports a pallet having a predetermined shape. The pallet is provided with holes (fork pockets), and the transport device is provided with forks that can be inserted into the fork pockets.

搬送装置のオペレータは、フォークの高さを調節し、ステアリング操作を行いながら搬送装置を走行させて、フォークポケットにフォークを挿入する必要がある。 An operator of the carrier device must adjust the height of the forks, operate the carrier device while performing a steering operation, and insert the forks into the fork pockets.

ところが不慣れなオペレータにとって、フォークを、うまくフォークポケットに挿入することは容易でない。もし、フォークがフォークポケット以外の場所に衝突すると、パレット上の荷物が崩れるかもしれない。またフォークポケットにフォークが挿入されたとしても、フォークポケットの内壁にフォークがぶつかると、パレットがずれたり、フォークに好ましくない応力が加わるおそれがある。 However, it is not easy for an inexperienced operator to successfully insert the fork into the fork pocket. If the forks collide with anything other than the fork pockets, the load on the pallet may collapse. Also, even if the forks are inserted into the fork pockets, if the forks collide with the inner walls of the fork pockets, the pallet may shift or unfavorable stress may be applied to the forks.

特開2017-151650号公報JP 2017-151650 A

本発明者らは、フォークリフトに、パレットの特定箇所を検出可能な検出装置を搭載することを検討した。検出装置は、画像を取得するセンサと、センサの出力画像にもとづいて特定箇所を検出可能に構成された識別器(あるいは分類器ともいう)を備える。識別器は、予め取得した教師データあるいは学習データにもとづいて、機械学習によって構成される。教師データは、典型的には、特定部位を含む画像データである。識別器に、十分な識別力を獲得させるためには、撮影方向や撮影距離を変えて撮影した膨大な数の教師データが必要となる。 The present inventors considered mounting a detection device capable of detecting a specific portion of a pallet on a forklift. The detection device includes a sensor that acquires an image, and a discriminator (also referred to as a classifier) configured to detect a specific location based on the output image of the sensor. The discriminator is constructed by machine learning based on teacher data or learning data obtained in advance. Teacher data is typically image data including a specific part. In order for the discriminator to acquire sufficient discriminating power, a huge amount of training data taken in different shooting directions and shooting distances is required.

フォークリフトが搬送対象とするパレットの種類が多い場合、パレット毎に教師データを用意する必要があるため、学習に要するコストが跳ね上がる。特に、さまざまな種類のパレットについて、フォークリフトの使用環境下で、サービスマンやユーザ(以下、人間という)がパレットの画像を多数撮影し、教師データを生成することとすると、人間の労力が大きく、学習に必要なコストが非常に高くなることを意味する。 If there are many types of pallets to be transported by the forklift, it is necessary to prepare training data for each pallet, so the cost required for learning jumps up. In particular, for various types of pallets, if a serviceman or a user (hereinafter referred to as a human) takes many images of pallets in a forklift environment to generate training data, it requires a lot of human labor, This means that the cost of learning will be very high.

本発明は係る課題に鑑みてなされたものであり、そのある態様の例示的な目的のひとつは、学習に必要な労力や時間を削減可能な技術の提供にある。 The present invention has been made in view of such problems, and one exemplary purpose of certain aspects thereof is to provide a technique capable of reducing the effort and time required for learning.

本発明のある態様は、パレットを搬送する搬送装置の学習に使用する教師データの生成方法に関する。搬送装置は、距離画像センサと、(i)距離画像センサの出力にもとづいて画素値が距離を表す距離画像を取得可能であり、(ii)距離画像にもとづいて、パレットまたはパレットの特定部位である検出対象を特定できるように、教師データを利用して機械学習により構成された識別器を有する演算部と、を備える。教師データの生成方法は、以下の処理を含む。
ステップA) パレットの3次元モデルを生成する。
ステップB) 3次元の仮想空間中にパレットの3次元モデルを配置し、パレットの3次元モデルと距離画像センサのモデルの相対位置を変化させながら、パレットを距離画像センサによって測定したときに得られるであろう仮想距離画像を生成する。
ステップC) ステップBで得られた仮想距離画像にもとづいた教師データを生成する。
One aspect of the present invention relates to a method of generating teacher data used for learning a conveying device that conveys pallets. The transport device can acquire a range image sensor, (i) a range image in which pixel values represent distance based on the output of the range image sensor, and (ii) based on the range image, a pallet or a specific part of the pallet. and a computing unit having a discriminator configured by machine learning using teacher data so that a certain detection target can be specified. The method of generating teacher data includes the following processes.
Step A) Generate a three-dimensional model of the pallet.
Step B) A 3D model of the pallet is placed in a 3D virtual space, and the pallet is measured by the range image sensor while changing the relative positions of the 3D model of the pallet and the model of the range image sensor. generates a virtual range image that would be
Step C) Generate training data based on the virtual distance image obtained in step B).

この搬送装置は、TOF(Time Of Flight)センサ、LiDAR(Light Detection and Ranging)、ステレオカメラやストラクチャドライトカメラなどの距離画像センサにより得られる3次元点群データを、2次元の距離画像にマッピングし、距離画像を入力とする識別器を構成することにより、パレットあるいはその部位の特定の精度を高めることができる。 This transportation device maps 3D point cloud data obtained from distance image sensors such as TOF (Time Of Flight) sensors, LiDAR (Light Detection and Ranging), stereo cameras and structured light cameras into 2D distance images. By constructing a discriminator that takes a distance image as an input, it is possible to improve the accuracy of specifying the pallet or its part.

ここで、パレットの形状や材質は多岐にわたるところ、あらゆるパレットについて、あらゆる状況を想定して、パレットの実物を距離画像センサによって撮影し、識別器の学習に用いる教師データを用意することは容易ではない。この態様によれば、3次元モデルを活用することで教師データを効率的に生成でき、学習を効率化できる。 Here, since pallets come in a wide variety of shapes and materials, it is not easy to prepare training data to be used for classifier learning by photographing the actual pallet with a range image sensor, assuming all kinds of situations for all kinds of pallets. do not have. According to this aspect, by utilizing the three-dimensional model, teacher data can be efficiently generated, and learning can be made more efficient.

ステップCは、背景距離画像に仮想距離画像を重畳するステップを含んでもよい。パレットの仮想距離画像と、背景距離画像を重畳して教師データを生成することで、実際にパレットが使用される環境における識別率を改善できる。 Step C may include superimposing the virtual range image on the background range image. By superimposing the virtual range image of the palette and the background range image to generate training data, it is possible to improve the recognition rate in an environment where the palette is actually used.

背景距離画像は、距離画像センサの実測により生成されてもよい。距離画像センサのセンシングは、環境光の影響を大きく受けるところ、背景については、実際の撮影画像を用いることにより、環境光の影響を考慮した教師データを生成できる。 The background distance image may be generated by actual measurement of a distance image sensor. Sensing by the distance image sensor is greatly affected by ambient light, but for the background, by using an actually captured image, it is possible to generate teacher data that takes into account the effect of ambient light.

3次元の仮想空間中に背景となる物体の3次元モデルを配置して、背景の仮想距離画像を生成し、パレットの仮想距離画像と背景の仮想距離画像を重畳して教師データとしてもよい。 A three-dimensional model of a background object may be placed in a three-dimensional virtual space to generate a virtual range image of the background, and the virtual range image of the palette and the virtual range image of the background may be superimposed as training data.

あるいは、3次元の仮想空間中に、背景となる物体の3次元モデルとパレットの3次元モデルを配置して、それらを含む仮想距離画像を生成し、それを教師データとしてもよい。 Alternatively, a 3D model of the background object and a 3D model of the pallet may be placed in a 3D virtual space to generate a virtual range image including them, which may be used as teacher data.

計測対象までの距離、計測面の方向、計測対象の材質の少なくともひとつが距離画像センサの出力に与える影響を記述する誤差モデルを生成しておき、ステップBにおいて、距離画像センサのモデルと誤差モデルの組み合わせにもとづいて、仮想距離画像を生成してもよい。
計測対象の材質、計測面の方向、計測対象までの距離は、距離画像に影響を及ぼす。そこで誤差モデルを導入した計測モデルを生成することで、より実際の利用環境で撮影されるであろう距離画像に近い教師データを生成できる。
An error model that describes the influence of at least one of the distance to the object to be measured, the direction of the surface to be measured, and the material of the object to be measured on the output of the range image sensor is generated, and in step B, the model of the range image sensor and the error model A virtual range image may be generated based on the combination of
The material of the object to be measured, the direction of the surface to be measured, and the distance to the object to be measured affect the distance image. Therefore, by generating a measurement model that introduces an error model, it is possible to generate teacher data that is closer to a range image that would be captured in an actual usage environment.

環境光、周囲温度の少なくともひとつが距離画像センサの出力に与える影響を記述する環境モデルを生成しておき、ステップBにおいて、距離画像センサのモデルと環境モデルの組み合わせにもとづいて、仮想距離画像を生成してもよい。
距離画像センサのセンシングは、応答速度、環境光、周囲温度をはじめとする環境の影響を大きく受ける可能性がある。そこで環境モデルを導入した計測モデルを生成することで、より実際の利用環境で撮影されるであろう距離画像に近い教師データを生成できる。
An environment model describing the influence of at least one of ambient light and ambient temperature on the output of the range image sensor is generated, and in step B, a virtual range image is generated based on the combination of the range image sensor model and the environment model. may be generated.
Range image sensor sensing can be greatly affected by the environment, including response speed, ambient light, and ambient temperature. Therefore, by generating a measurement model incorporating an environment model, it is possible to generate training data that is closer to a distance image that would be captured in an actual usage environment.

検出対象は、パレットの穴と穴を区切る桁を含んでもよい。パレットには、さまざまな形状や構造が存在するところ、それらには穴と穴を区切る桁が共通して存在する。そこで、桁を検出対象とした識別器を搭載することで、さまざまなパレットについて、穴の位置を検出できる。 The object to be detected may include pallet holes and girders separating the holes. Pallets come in a variety of shapes and structures, and they all have holes and girders separating the holes. Therefore, it is possible to detect the positions of holes in various pallets by installing a discriminator that detects girders.

演算部は、予め保持しているパレットの幾何学的な情報にもとづいて、穴の位置を特定してもよい。 The calculation unit may specify the positions of the holes based on the geometric information of the pallet held in advance.

検出対象であるパレットまたはパレットの特定部位を特定した後に、その結果を利用して、距離画像にもとづいてパレットの穴を特定してもよい。元の距離画像から直接、パレットの穴を特定するように識別器を構成すると、精度が低下する場合がある。そこで、パレットあるいはパレットの特定部位を特定する識別器を構成し、さらにその結果をベースとして穴を特定する識別器を構成することにより、穴の識別精度を高めることができる。 After specifying the pallet or the specific part of the pallet to be detected, the result may be used to specify the hole in the pallet based on the distance image. Constructing the classifier to identify pallet holes directly from the original range image may result in reduced accuracy. Therefore, by configuring a discriminator that identifies a pallet or a specific portion of the pallet, and further configuring a discriminator that identifies a hole based on the result, it is possible to improve the hole identification accuracy.

なお、以上の構成要素の任意の組み合わせや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that arbitrary combinations of the above-described constituent elements and mutually replacing the constituent elements and expressions of the present invention in methods, devices, systems, etc. are also effective as aspects of the present invention.

本発明によれば、学習に必要な労力や時間を削減できる。 According to the present invention, the effort and time required for learning can be reduced.

搬送装置の一態様であるフォークリフトの外観図を示す斜視図である。1 is a perspective view showing an external view of a forklift that is one aspect of a conveying device; FIG. フォークリフトの操縦席の一例を示す図である。It is a figure which shows an example of the cockpit of a forklift. 図3(a)~(h)は、フォークリフトが搬送対象とするパレットを示す図である。FIGS. 3A to 3H are diagrams showing pallets to be transported by a forklift. 実施の形態に係るフォークリフトの機能ブロック図である。1 is a functional block diagram of a forklift according to an embodiment; FIG. 図5(a)、(b)は、距離画像センサの設置箇所を説明する図である。5(a) and 5(b) are diagrams for explaining the installation locations of the range image sensor. 距離画像の一例を示す図である。It is a figure which shows an example of a distance image. 図7(a)、(b)は、検出対象である特定部位を模式的に示す図である。FIGS. 7A and 7B are diagrams schematically showing specific parts to be detected. 図7(a)の特定部位の距離画像を示す図である。It is a figure which shows the distance image of the specific site|part of Fig.7 (a). 識別器の学習に用いる教師データの生成のフローチャートである。4 is a flow chart of generation of teacher data used for learning of a discriminator. パレットおよび距離画像センサのモデルが配置される3次元の仮想空間を示す図である。FIG. 3 is a diagram showing a three-dimensional virtual space in which a model of a palette and a range image sensor are arranged; 図11(a)~(c)は、背景距離画像にもとづく教師データの生成を説明する図である。FIGS. 11A to 11C are diagrams for explaining the generation of teacher data based on the background distance image.

以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent constituent elements, members, and processes shown in each drawing are denoted by the same reference numerals, and duplication of description will be omitted as appropriate. Moreover, the embodiments are illustrative rather than limiting the invention, and not all features and combinations thereof described in the embodiments are necessarily essential to the invention.

図1は、搬送装置の一態様であるフォークリフトの外観図を示す斜視図である。フォークリフト600は、車体(シャーシ)602、フォーク604、昇降体(リフト)606、マスト608、車輪610、612を備える。マスト608は車体602の前方に設けられる。昇降体606は、油圧アクチュエータ(図1に不図示)などの動力源によって駆動され、マスト608に沿って昇降する。昇降体606には、荷物を支持するためのフォーク604が取り付けられている。フォークリフト600は、2本のフォーク604が図示しないパレットの穴(フォークポケット)に挿入された状態で、パレットを搬送する。 FIG. 1 is a perspective view showing an external view of a forklift, which is one mode of a transport device. The forklift 600 includes a vehicle body (chassis) 602 , a fork 604 , a lifting body (lift) 606 , a mast 608 and wheels 610 and 612 . A mast 608 is provided in front of the vehicle body 602 . Elevating body 606 is driven by a power source such as a hydraulic actuator (not shown in FIG. 1) to ascend and descend along mast 608 . A fork 604 is attached to the lifting body 606 for supporting a load. The forklift 600 carries a pallet with two forks 604 inserted into holes (fork pockets) of the pallet (not shown).

図2は、フォークリフトの操縦席700の一例を示す図である。操縦席700は、イグニッションスイッチ702、ステアリングホイール704、リフトレバー706、アクセルペダル708、ブレーキペダル710、ダッシュボード714、前後進レバー712を備える。 FIG. 2 is a diagram showing an example of a cockpit 700 of a forklift. The cockpit 700 includes an ignition switch 702 , a steering wheel 704 , a lift lever 706 , an accelerator pedal 708 , a brake pedal 710 , a dashboard 714 and a forward/reverse lever 712 .

イグニッションスイッチ702は、フォークリフト600の起動用のスイッチである。ステアリングホイール704は、フォークリフト600の操舵を行うための操作手段である。リフトレバー706は、昇降体606を上下に移動させるための操作手段である。アクセルペダル708は、走行用の車輪の回転を制御する操作手段であり、オペレータが踏み込み量を調節することでフォークリフト600の走行が制御される。オペレータがブレーキペダル710を踏み込むと、ブレーキがかかる。前後進レバー712は、フォークリフト600の走行方向を、前進と後進で切りかえるためのレバーである。そのほか、図示しないインチングペダルが設けられてもよい。 The ignition switch 702 is a switch for starting the forklift 600 . A steering wheel 704 is an operation means for steering the forklift 600 . A lift lever 706 is an operating means for moving the lifting body 606 up and down. The accelerator pedal 708 is an operating means for controlling the rotation of wheels for traveling, and the travel of the forklift 600 is controlled by the operator adjusting the amount of depression. When the operator depresses the brake pedal 710, the brake is applied. The forward/reverse lever 712 is a lever for switching the traveling direction of the forklift 600 between forward and reverse. In addition, an inching pedal (not shown) may be provided.

オペレータは、車体の位置制御に関して、ステアリングホイール704とアクセルペダル708、ブレーキペダル710を操作し、フォーク604の位置制御に関して、リフトレバー706を操作する必要がある。 The operator needs to operate the steering wheel 704 , the accelerator pedal 708 and the brake pedal 710 to control the position of the vehicle body, and operate the lift lever 706 to control the position of the fork 604 .

図3(a)~(h)は、フォークリフト600が搬送対象とするパレットを示す図である。パレット800は、上板806、穴802、桁804を有する。パレット800の形状は、JIS規格により定められるほか、目的や用途に応じて多種多様な形状のものが存在する。図3(a)~(h)はそれぞれ、JIS規格でS2,SU2,DP4,R4,RW2,D2,DU2,D4と表記される。図3(a)~(h)に示すように、一概にパレットといっても、さまざまな形状、構造が存在しており、不慣れなオペレータにとって、複数の操作入力手段(704,706,708,710,706)を正確に操作して、フォークポケットに正確にフォークを挿入することは容易でない。 3A to 3H are diagrams showing pallets to be transported by the forklift 600. FIG. Pallet 800 has a top plate 806 , holes 802 and girders 804 . The shape of the pallet 800 is defined by JIS standards, and there are various shapes depending on the purpose and application. 3(a) to (h) are represented by JIS standards as S2, SU2, DP4, R4, RW2, D2, DU2 and D4, respectively. As shown in FIGS. 3(a) to 3(h), pallets generally come in various shapes and structures, and for unfamiliar operators, a plurality of operation input means (704, 706, 708, 710, 706) to accurately insert the fork into the fork pocket.

以下では、パレットの荷すくい動作を支援可能な構成について説明する。図4は、実施の形態に係るフォークリフト300の機能ブロック図である。図4には、荷すくい動作の支援に関連するブロックのみが示され、その他のブロックは省略している。 A configuration capable of assisting the scooping operation of a pallet will be described below. FIG. 4 is a functional block diagram of the forklift 300 according to the embodiment. FIG. 4 shows only the blocks related to assisting the scooping operation, and omits the other blocks.

フォークリフト300は、距離画像センサ302、カメラ303、通知手段304、コントローラ310を備える。距離画像センサ302は、フォークリフト前方300に取り付けられ、車両前方の距離情報を取得する。その限りでないが距離画像センサ302としては、ToFカメラ、LiDAR、ストラクチャードライト法を用いたセンサ、ステレオカメラなどを用いることができる。距離画像センサ302は、車両前方に位置する構造物や物品等の3次元点群データを含む測距データD1を生成する。 The forklift 300 includes a distance image sensor 302 , a camera 303 , notification means 304 and a controller 310 . A distance image sensor 302 is attached in front of the forklift 300 to acquire distance information in front of the vehicle. As the range image sensor 302, although not limited thereto, a ToF camera, LiDAR, a sensor using a structured light method, a stereo camera, or the like can be used. The distance image sensor 302 generates distance measurement data D1 including three-dimensional point cloud data of structures, articles, etc. located in front of the vehicle.

図5(a)、(b)は、距離画像センサ302の設置箇所を説明する図である。図5(a)は、上から見た図である。フォークを挿入すべき穴の位置を検出する必要があることから、左右方向に関して、距離画像センサ302は、2本のフォークの中央に配置することが好ましい。これにより、フォークをパレットに挿入する際に、距離画像センサ302によって、パレットを正面から撮影することが可能となる。特に、後述のように桁を含む特定部位を検出対象とする場合に、フォークの中央に距離画像センサ302を配置しておくことで、特定部位の距離画像をうまく撮影することができる。 5(a) and 5(b) are diagrams for explaining the installation location of the distance image sensor 302. FIG. FIG. 5(a) is a top view. Since it is necessary to detect the position of the hole into which the fork should be inserted, the distance image sensor 302 is preferably placed in the center of the two forks in the horizontal direction. As a result, when the fork is inserted into the pallet, the distance image sensor 302 can photograph the pallet from the front. In particular, when a specific portion including a girder is to be detected as described later, the distance image of the specific portion can be successfully captured by arranging the distance image sensor 302 in the center of the fork.

図5(b)は横から見た図である。上下方向に関しては、302cで示すようにフォーク604と同じ高さとしてもよいが、それよりわずかに上側の位置302a(あるいは下側の位置302b)に設けるとよい。これにより、パレット800の上板806の上面S1(あるいは上板806の下面S2)を確実に捉えることが可能となるからである。また、この位置は、フォークの高さの最終的な調整の局面において、フォークやその他の車両構造物に遮蔽されにくいという利点もある。 FIG. 5B is a side view. With respect to the vertical direction, it may be at the same height as the fork 604 as indicated by 302c, but it is preferable to provide it at a slightly upper position 302a (or a lower position 302b). This is because the upper surface S1 of the upper plate 806 of the pallet 800 (or the lower surface S2 of the upper plate 806) can thereby be reliably captured. This position also has the advantage of being less obscured by the fork or other vehicle structure during the final adjustment phase of the fork height.

図4に戻る。カメラ303は、フォークリフト300の前方を撮影する。カメラ303の撮影した画像データD3は、ディスプレイ306に表示される。なお図4においては、カメラ303と距離画像センサ302を別個の機能ブロックとして示すが、必ずしもハードウェアとして距離画像センサ302と独立していることを意味するものでなく、距離画像センサ302は、カメラ303を兼ねていてもよい。たとえば距離画像センサ302がTOFカメラやステレオカメラである場合、それから1次的に得られる単眼画像(赤外線強度分布や可視光モノクロ画像、可視光カラー画像)を、画像データD3として用いることができる。 Return to FIG. A camera 303 photographs the front of the forklift 300 . Image data D3 captured by camera 303 is displayed on display 306 . Although the camera 303 and the range image sensor 302 are shown as separate functional blocks in FIG. 4, this does not necessarily mean that they are independent of the range image sensor 302 as hardware. 303 may also serve. For example, if the range image sensor 302 is a TOF camera or a stereo camera, a monocular image (infrared intensity distribution, visible light monochrome image, visible light color image) primarily obtained therefrom can be used as the image data D3.

コントローラ310は、フォークリフト300を統合的に制御する。コントローラ310は、距離画像取得部330および識別器340を備える。距離画像取得部330は、点群データを含む測距データD1にもとづいて、距離画像D2を生成する。距離画像D2とは、縦横に複数ピクセルを有する画像データであって、画素値が距離を表すデータをいう。図6は、距離画像の一例を示す図である。なお、距離画像センサ302の出力が距離データである場合、距離画像取得部330の処理は簡略化され、あるいは省略される。 Controller 310 comprehensively controls forklift 300 . The controller 310 includes a distance image acquisition section 330 and a discriminator 340 . The distance image acquisition unit 330 generates a distance image D2 based on the distance measurement data D1 including point cloud data. The distance image D2 is image data having a plurality of pixels vertically and horizontally, and is data in which pixel values represent distances. FIG. 6 is a diagram showing an example of a distance image. Note that when the output of the distance image sensor 302 is distance data, the processing of the distance image acquisition unit 330 is simplified or omitted.

図4に戻る。識別器340は、距離画像D2にもとづいて、パレットまたはパレットの特定部位を特定できるように、機械学習により構成される。 Return to FIG. The classifier 340 is configured by machine learning so as to identify the pallet or a specific portion of the pallet based on the distance image D2.

処理部350は、識別器340の検出結果にもとづいて、パレットの穴の位置を特定する。そして検出した結果にもとづいて、通知手段304を制御し、オペレータに通知する。通知手段304は、ディスプレイ306やスピーカ308を含みうる。ディスプレイ306は、視覚的にパレットの穴の位置やその他の情報をオペレータに通知するために用いられる。スピーカ308は、オペレータに聴覚的にパレットの位置やその他の情報を通知するために用いることができる。通知手段304による通知については後述する。 The processing unit 350 identifies the positions of the holes in the pallet based on the detection result of the discriminator 340 . Based on the detected result, the notification means 304 is controlled to notify the operator. Notification means 304 may include display 306 and speaker 308 . A display 306 is used to visually notify the operator of pallet hole locations and other information. A speaker 308 can be used to audibly notify the operator of pallet locations and other information. Notification by notification means 304 will be described later.

識別器340および処理部350は、演算処理装置(CPU)やメモリを有するマイコン320と、マイコン320が実行するソフトウェアプログラムで構成することができる。さらに距離画像取得部330も、マイコン320の機能として実装することができる。したがって距離画像取得部330、識別器340、処理部350は、必ずしも別個のハードウェアとして認識されるものではなく、演算処理装置とソフトウェアプログラムの組み合わせにより実現される機能を表す。 The discriminator 340 and the processing unit 350 can be configured by a microcomputer 320 having an arithmetic processing unit (CPU) and memory, and a software program executed by the microcomputer 320 . Furthermore, the distance image acquisition section 330 can also be implemented as a function of the microcomputer 320 . Therefore, the distance image acquisition unit 330, the discriminator 340, and the processing unit 350 are not necessarily recognized as separate hardware, but represent functions realized by a combination of an arithmetic processing unit and software programs.

あるいは距離画像取得部330と識別器340を別個のハードウェアで構成してもよい。たとえば距離画像センサ302とマイコン320のインタフェースとして、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア(チップ)が搭載される場合がある。この場合、距離画像取得部330の処理を、このハードウェアに実行させてもよい。 Alternatively, the distance image acquisition unit 330 and the discriminator 340 may be configured with separate hardware. For example, as an interface between the distance image sensor 302 and the microcomputer 320, hardware (chips) such as FPGA (Field Programmable Gate Array) and ASIC (Application Specific Integrated Circuit) may be installed. In this case, the processing of the distance image acquisition unit 330 may be executed by this hardware.

以上がフォークリフト300の構成である。このフォークリフト300によれば、距離画像センサにより得られる距離画像を入力とする識別器を機械学習により構成することにより、パレットあるいはその部位の特定の精度を高めることができる。そして得られた検出結果を、搬送装置の動作に反映させ、あるいはオペレータに通知することにより、オペレータの操作を支援することができる。 The above is the configuration of the forklift 300 . According to this forklift 300, the accuracy of specifying the pallet or its part can be improved by configuring the discriminator that receives the distance image obtained by the distance image sensor by machine learning. The operator's operation can be assisted by reflecting the obtained detection result in the operation of the conveying apparatus or notifying the operator.

なお、パレットやその特定部位を検出する別の方法として、3次元点群データを用いて、特徴的な部位をパターンマッチングによって検出する方法も考えられる。ところがこの方法は、対象物を常に同じ方向から測定する必要があり、特徴的な部位の3次元点群データを高密度に精度よく測ることが難しいという問題点がある。 As another method for detecting a pallet and its specific parts, a method of detecting characteristic parts by pattern matching using three-dimensional point group data is also conceivable. However, this method has the problem that the object must always be measured from the same direction, and it is difficult to measure three-dimensional point cloud data of characteristic parts with high density and accuracy.

続いて識別器340の具体例と、その学習について説明する。一実施例において、識別器340は、線形SVM(Support Vector Machine)とHOG(Histograms of Oriented Gradients)特徴量の組み合わせで構成される。線形SVMは、入力が、2クラスのいずれかに属するかを判定可能な識別器として広く用いられる。一般的な画像処理の分野において、線形SVMの入力は、画素値が輝度である画像データであるが、本実施の形態では、距離画像を入力としたところが異なっている。 Next, a specific example of the discriminator 340 and its learning will be described. In one embodiment, the discriminator 340 is composed of a combination of linear SVM (Support Vector Machine) and HOG (Histograms of Oriented Gradients) features. Linear SVMs are widely used as classifiers that can determine whether an input belongs to one of two classes. In the field of general image processing, linear SVM inputs are image data whose pixel values are brightness, but in the present embodiment, the input is a range image.

線形SVMは、2個の穴のペアを直接検出するように学習することもできる。ただし、図3(a)~(h)に示したように、穴の形状やサイズは、パレットの種類によってさまざまである。具体的には、穴の横幅は、パレットによって異なっている。またパレットは下板を有するものもあれば、有しないものもあり、したがって穴は下側が開放されている場合と閉じている場合がある。このことから、穴を直接的な識別対象として学習した識別器では、十分に高い識別率が得られない場合がある。 A linear SVM can also be trained to detect pairs of two holes directly. However, as shown in FIGS. 3(a) to 3(h), the shape and size of the holes vary depending on the type of pallet. Specifically, the width of the hole differs depending on the pallet. Also, some pallets have bottom plates, some do not, so the holes may be open or closed at the bottom. For this reason, a classifier that learns directly from holes as objects to be identified may not obtain a sufficiently high classification rate.

そこで本発明者らは、さらなる識別率の改善のために、パレット800の穴802と穴802を区切る桁804に着目し、桁804を含む一部分(特定部位)を検出対象として識別器340を構成することとした。桁804は、パレット800の規格によらずに、パレットの必須の構成要素であり、検出対象として好適であり、高い識別率が期待できる。 Therefore, in order to further improve the identification rate, the present inventors focused on the holes 802 of the pallet 800 and the girders 804 that separate the holes 802, and configured the discriminator 340 with a part (specific part) including the girders 804 as the detection target. It was decided to. The girder 804 is an essential component of the pallet regardless of the pallet 800 standard, is suitable as a detection target, and can be expected to have a high identification rate.

図7(a)、(b)は、検出対象である特定部位801を模式的に示す図である。特定部位801は、上板806の一部と、下板808の一部と、桁804および2つの穴802を含む。この特定部位801は、向かい合わせの2個のコの字形状を含むものと把握できる。図8は、図7(a)の特定部位801の距離画像を示す図である。 FIGS. 7A and 7B are diagrams schematically showing a specific site 801 to be detected. A specific portion 801 includes a portion of the upper plate 806 , a portion of the lower plate 808 , a girder 804 and two holes 802 . This specific portion 801 can be grasped as including two facing U-shapes. FIG. 8 is a diagram showing a distance image of the specific portion 801 in FIG. 7(a).

なお図3(b)等に示すように、下板が存在しないパレットも存在する。そこで図7(b)に示すように、下板808を除いたT字形状を特定部位801として識別器340を学習させてもよい。 As shown in FIG. 3(b), etc., some pallets do not have a lower plate. Therefore, as shown in FIG. 7(b), the classifier 340 may be learned by using the T-shape excluding the lower plate 808 as the specific portion 801. FIG.

処理部350には、パレットの幾何学的な情報が保持されている。処理部350は、識別器340が特定した特定部位801の位置と、幾何学的な情報にもとづいて、演算処理によって、フォークを挿入すべき2個の穴の位置を特定することができる。たとえば、幾何学的な情報は、パレットのセンターの位置(座標)と、穴の位置の相対的な位置関係を含みうる。処理部350は、識別器340の出力にもとづいて、パレット800のセンター位置を検出し、センター位置から、左右に所定量オフセットした位置を、フォークを挿入すべき穴の位置とすることができる。 The processing unit 350 holds geometric information of the pallet. The processing unit 350 can identify the positions of the two holes into which the forks should be inserted by arithmetic processing based on the position of the specific portion 801 identified by the discriminator 340 and the geometric information. For example, the geometric information may include the relative positional relationship between the position (coordinates) of the center of the pallet and the positions of the holes. The processing unit 350 can detect the center position of the pallet 800 based on the output of the discriminator 340, and set a position offset to the left and right by a predetermined amount from the center position as the position of the hole into which the fork should be inserted.

図7(c)は、別のパレットの一部分を示す図である。パレットは、3個の(あるいはそれより多い)穴を有する場合もあり、その場合、1個のパレットが、2個の(あるいはそれより多い)桁を含み、1個のパレットについて、2個の特定部位801が隣接して検出される場合もありえる。この場合、2個の特定部位801のセンター(すなわち2個の桁804のセンター)を、パレット800全体のセンター位置と判定してもよい。 FIG. 7(c) is a diagram showing a portion of another palette. A pallet may have three (or more) holes, in which case one pallet contains two (or more) girders and two girders per pallet. It is also possible that the specific parts 801 are detected adjacent to each other. In this case, the center of the two specific parts 801 (that is, the center of the two girders 804) may be determined as the center position of the entire pallet 800. FIG.

(識別器の学習)
続いて、識別器340の学習について説明する。
(Learning of discriminator)
Next, learning of the discriminator 340 will be described.

図9は、識別器340の学習に用いる教師データの生成のフローチャートである。はじめに、パレット800の3次元モデルMpが生成される(S100)。パレットの3次元モデルMpは、パレットの3次元CADデータに相当する。 FIG. 9 is a flow chart for generating teacher data used for learning of the discriminator 340 . First, a three-dimensional model Mp of the palette 800 is generated (S100). The three-dimensional model Mp of the pallet corresponds to three-dimensional CAD data of the pallet.

また距離画像センサ302のモデルMsが生成される(S102)。距離画像センサ302のモデルは、距離画像センサ302の画角や入出力特性を記述したものであり、画角、解像度、計測精度、温度、フレームレート、応答特性などを考慮して生成することができる。応答特性は、波長感度特性やトランジェントな応答特性を含みうる。 A model Ms of the distance image sensor 302 is also generated (S102). The model of the distance image sensor 302 describes the angle of view and input/output characteristics of the distance image sensor 302, and can be generated in consideration of the angle of view, resolution, measurement accuracy, temperature, frame rate, response characteristics, and the like. can. Response characteristics may include wavelength sensitivity characteristics and transient response characteristics.

パレット800の3次元モデルMpと、距離画像センサ302のモデルMsが、計算機シミュレータの3次元の仮想空間中に配置される(S104)。その状態で距離画像センサ302のモデルMsの出力を、仮想距離画像I1として取得し(S106)、仮想距離画像I1にもとづいた教師データI2を生成する(S108)。 The three-dimensional model Mp of the pallet 800 and the model Ms of the range image sensor 302 are arranged in the three-dimensional virtual space of the computer simulator (S104). In this state, the output of the model Ms of the distance image sensor 302 is obtained as the virtual distance image I1 (S106), and the training data I2 is generated based on the virtual distance image I1 (S108).

処理S106~S108は、パレットと距離画像センサのモデルMp,Msの相対的な位置関係を変化させながら繰り返される(S110)。 The processes S106 to S108 are repeated while changing the relative positional relationship between the pallet and the range image sensor models Mp and Ms (S110).

図10は、パレットおよび距離画像センサのモデルMp,Msが配置される3次元の仮想空間900を示す図である。ここでは距離画像センサ302のモデルMsが原点に配置されるものとする。破線は距離画像センサ302の視野を表す。図8のステップS110では、パレット800のモデルMpの位置(x、y、z)を変化させる。ステップS110においては、位置(x,y,z)に加えて、姿勢(θp,θy,θr)を変化させてもよい。 FIG. 10 is a diagram showing a three-dimensional virtual space 900 in which the palette and the models Mp and Ms of the range image sensor are arranged. Here, it is assumed that the model Ms of the distance image sensor 302 is arranged at the origin. The dashed line represents the field of view of range image sensor 302 . At step S110 in FIG. 8, the position (x, y, z) of the model Mp of the palette 800 is changed. At step S110, the orientation (θp, θy, θr) may be changed in addition to the position (x, y, z).

以上が、実施の形態に係る教師データの生成方法である。 The above is the method for generating teacher data according to the embodiment.

パレットの形状や材質は多岐にわたるところ、あらゆるパレットについて、あらゆる状況を想定して、パレットの実物を距離画像センサによって撮影し、識別器の学習に用いる教師データを用意することは容易ではない。この態様によれば、3次元モデルを活用することで教師データを効率的に生成でき、学習を効率化できる。 Since pallets come in a wide variety of shapes and materials, it is not easy to prepare training data for classifier learning by photographing the actual pallet with a distance image sensor, assuming all kinds of situations for all kinds of pallets. According to this aspect, by utilizing the three-dimensional model, teacher data can be efficiently generated, and learning can be made more efficient.

(背景情報の追加)
図8の処理S106において、仮想距離画像I1に、背景距離画像I3を重畳して、教師データI2を生成することができる。
(adding background information)
In the process S106 of FIG. 8, the background distance image I3 can be superimposed on the virtual distance image I1 to generate the teacher data I2.

図11(a)~(c)は、背景距離画像にもとづく教師データの生成を説明する図である。図11(a)は、図10において得られるパレット800の仮想距離画像I1である。図11(b)は、背景距離画像I3を表す。背景距離画像I3としては、パレットが実際に使用される環境において、実際の距離画像センサ302により撮影された実際の背景の距離画像を用いるとよい。 FIGS. 11A to 11C are diagrams for explaining the generation of teacher data based on the background distance image. FIG. 11(a) is a virtual distance image I1 of the palette 800 obtained in FIG. FIG. 11(b) represents the background distance image I3. As the background distance image I3, it is preferable to use an actual background distance image captured by the actual distance image sensor 302 in the environment where the palette is actually used.

図11(a)のパレットの仮想距離画像I1と、図11(b)の背景距離画像I3を合成すると、図11(c)の合成距離画像が得られる。この合成距離画像の一部あるいは全部を、教師データとして用いることができる。 Combining the palette virtual distance image I1 of FIG. 11(a) and the background distance image I3 of FIG. 11(b) yields the synthetic distance image of FIG. 11(c). Part or all of this synthesized range image can be used as training data.

パレットの仮想距離画像I1と、背景距離画像I3を重畳して教師データを生成することで、実際にパレットが使用される環境における識別率を改善できる。 By superimposing the virtual distance image I1 of the palette and the background distance image I3 to generate the training data, the recognition rate in the environment where the palette is actually used can be improved.

なお、背景距離画像I3は、距離画像センサ302の実測により生成したものを用いてもよい。距離画像センサ302のセンシングは、環境光などの影響を大きく受けるところ、背景については、実際の撮影画像を用いることにより、環境光の影響を考慮した教師データを生成でき、識別率を改善する効果が期待される。 Note that the background distance image I3 may be generated by actual measurement of the distance image sensor 302 . Sensing by the distance image sensor 302 is greatly affected by environmental light, etc., but by using an actual photographed image for the background, it is possible to generate teacher data that takes into account the influence of environmental light, which has the effect of improving the recognition rate. There is expected.

あるいは、3次元の仮想空間中に背景となる物体の3次元モデルを配置して、距離画像センサ302のモデルMsを用いて、背景の仮想距離画像を生成し、パレットの仮想距離画像と背景の仮想距離画像を重畳して教師データとしてもよい。 Alternatively, a three-dimensional model of an object that serves as a background is placed in a three-dimensional virtual space, and a virtual range image of the background is generated using the model Ms of the range image sensor 302. A virtual distance image may be superimposed as training data.

あるいは、3次元の仮想空間中に、背景となる物体の3次元モデルとパレットの3次元モデルを配置して、それらを含む仮想距離画像を生成し、その一部あるいは全部を教師データとしてもよい。 Alternatively, a 3D model of the background object and a 3D model of the pallet may be arranged in a 3D virtual space to generate a virtual range image including them, and part or all of it may be used as teacher data. .

(誤差モデル)
これまでの説明では、距離画像センサ302のモデルMsのみを考慮した計測モデルを説明したが、より正確な教師データを生成するために、誤差モデルMERRを導入するとよい。
(error model)
In the description so far, the measurement model considering only the model Ms of the range image sensor 302 has been described, but in order to generate more accurate teacher data, it is preferable to introduce the error model M ERR .

誤差モデルMERRは、(i)計測対象までの距離、(ii)計測面の方向、(iii)計測対象の材質の少なくともひとつが距離画像センサの出力に与える影響を記述するものである。距離画像センサの出力に与える影響は、計測対象までの距離、計測面の方向、計測対象の材質の順で大きいため、誤差モデルMERRは、少なくとも計測対象までの距離を考慮して作成するとよく、より好ましくは計測対象までの距離と、計測面の方向の両方を考慮して作成するとよく、さらに精度を高めたい場合は、3個すべてを考慮して作成するとよい。 The error model M ERR describes the influence of at least one of (i) the distance to the measurement object, (ii) the direction of the measurement plane, and (iii) the material of the measurement object on the output of the range image sensor. Since the distance to the object to be measured, the direction of the surface to be measured, and the material of the object to be measured have the greatest influence on the output of the range image sensor, the error model M ERR should be created with at least the distance to the object to be measured taken into account. , and more preferably, both the distance to the measurement object and the direction of the measurement surface should be taken into consideration when making the calculation. If it is desired to further improve the accuracy, all three should be taken into consideration when making the calculation.

(i) 計測対象までの距離
距離画像センサの入出力特性を考える。理想的な距離画像センサでは、出力である距離画像の画素値pvは、入力である距離dに対して線形に変化する。
pv=a×d …(1)
(i) Distance to measurement object Consider the input/output characteristics of the range image sensor. In an ideal distance image sensor, the pixel value pv of the output distance image changes linearly with respect to the input distance d.
pv=a 1 ×d (1)

しかしながら実際の距離画像センサでは、そのセンサの方式や、製品の種類により、傾きaが異なる場合がある。あるいは、式(2)に示すように、非線形な項が含まれる場合や、オフセット項aが含まれる場合もある。
pv=a+a×d+a×d+・・・ …(2)
そこで誤差モデルMERRでは、距離画像センサと計測対象の距離dと、距離画像における画素値pvの関係を記述する。
However, in an actual distance image sensor, the inclination a1 may vary depending on the sensor system and product type. Alternatively, as shown in equation (2), it may include a nonlinear term or an offset term a0 .
pv= a0 + a1 *d+ a2 * d2 + (2)
Therefore, the error model M ERR describes the relationship between the distance d between the distance image sensor and the measurement target and the pixel value pv in the distance image.

(ii) 計測面の方向
式(2)で表される入出力特性は、計測面の方向に応じて変化する場合がある。たとえば距離画像センサ302の正面の物体に対しては、ある係数のセットS1[a,a,…]を有する入出力特性が得られているとする。この場合に、別の方向に対して、入出力特性が同じセットS1で記述できるとは限らず、別の係数のセットS2[a,a,…]を有する入出力特性が得られる場合がある。そこで誤差モデルMERRは、計測面の方向を考慮して作成するとよい。
(ii) Orientation of Measurement Plane The input/output characteristics represented by Equation (2) may change according to the orientation of the measurement plane. For example, for an object in front of the range image sensor 302, an input-output characteristic having a set of coefficients S1[a 0 , a 1 , . . . ] is obtained. In this case, if the input-output characteristics are not necessarily described by the same set S1 for different directions, and input-output characteristics with different sets of coefficients S2[a 0 , a 1 , . . . ] are obtained There is Therefore, the error model M ERR should be created in consideration of the direction of the measurement surface.

(iii) 材料
距離画像センサ302のセンシングの方式、使用波長などによって、同じ距離にある物体を同一の距離画像センサ302によって測定しても、物体の材料が異なると、距離画像センサ302の出力に基づく距離画像の画素値が同一にならない場合がある。
(iii) Materials Depending on the sensing method of the range image sensor 302, the wavelength used, etc., even if the same range image sensor 302 measures an object at the same distance, if the material of the object is different, the output of the range image sensor 302 may vary. In some cases, the pixel values of the distance image based on the distance image are not the same.

ここでパレット800の材料や表面の材質は、樹脂や木材、金属、あるいはそれら塗装したものなど多岐にわたる。この認識にもとづき、距離画像センサ302のモデルMsは、測定対象の材料(材質)の違いが、距離画像センサ302の出力に与える影響を考慮して生成されている。すなわち材料ごとに、距離画像センサ302の入出力特性を予め測定しておき、それを考慮した誤差モデルMERRを用意する。パレット800のモデルMpは、パレット800の部分ごとの、あるいは全体の材料が指定可能となっている。これにより、より正確な教師データを生成できる。 Here, the material of the pallet 800 and the material of the surface are diverse, such as resin, wood, metal, or those coated with them. Based on this recognition, the model Ms of the distance image sensor 302 is generated in consideration of the influence of the difference in the material of the measurement target on the output of the distance image sensor 302 . That is, the input/output characteristics of the distance image sensor 302 are measured in advance for each material, and the error model M ERR is prepared in consideration of the characteristics. The model Mp of the pallet 800 can specify the material for each part of the pallet 800 or the entire material. This makes it possible to generate more accurate training data.

(環境モデル)
計測モデルには、誤差モデルMERRに加えて、あるいはそれに代えて、環境モデルMENVを導入することができる。環境モデルMENVは、環境光、周囲温度の少なくともひとつが距離画像センサの出力に与える影響を記述するものである。
(environmental model)
In addition to or instead of the error model M ERR , the environment model M ENV can be introduced into the measurement model. The environment model M ENV describes the influence of at least one of ambient light and ambient temperature on the output of the range image sensor.

多くの距離画像センサ302は、物体にプローブ光を照射し、その反射光を測定することにより、物体までの距離をセンシングするアクティブセンサである。ここで、距離画像センサ302が使用される環境に、プローブ光と同じ波長の環境光が存在すると、距離画像センサ302の出力にもとづく距離画像にノイズが重畳されることとなる。環境モデルMENVを導入すると、仮想距離画像I1に、環境光に依存するノイズを重畳することができ、教師データを、より実環境で得られる距離画像に近づけることができる。 Many distance image sensors 302 are active sensors that sense the distance to an object by irradiating the object with probe light and measuring the reflected light. Here, if ambient light with the same wavelength as the probe light exists in the environment where the distance image sensor 302 is used, noise will be superimposed on the distance image based on the output of the distance image sensor 302 . When the environment model M ENV is introduced, it is possible to superimpose noise dependent on environmental light on the virtual range image I1, and to bring the teacher data closer to the range image obtained in the real environment.

また周囲温度の影響によって、計測誤差が変化する。そこで環境モデルに、周囲温度が与える影響を記述するとよい。 Moreover, the measurement error changes due to the influence of the ambient temperature. Therefore, it is better to describe the influence of the ambient temperature in the environment model.

以上、本発明を実施例にもとづいて説明した。本発明は上記実施形態に限定されず、種々の設計変更が可能であり、様々な変形例が可能であること、またそうした変形例も本発明の範囲にあることは、当業者に理解されるところである。以下、こうした変形例を説明する。 The present invention has been described above based on the examples. It should be understood by those skilled in the art that the present invention is not limited to the above embodiments, and that various design changes and modifications are possible, and that such modifications are within the scope of the present invention. By the way. Such modifications will be described below.

実施の形態では搬送装置としてフォークリフトを例に説明したが、本発明の適用はその限りでなく、ハンドリフト(ハンドパレット)やAGV(Automatic Guided Vehicle)、フォークローダー(フォーク付きのホイルローダー)など、パレットを取り扱うさまざまな搬送装置に適用することができる。 In the embodiments, a forklift was described as an example of a transport device, but the application of the present invention is not limited to that. It can be applied to various conveying devices that handle pallets.

600 フォークリフト
602 車体
604 フォーク
606 昇降体
608 マスト
610 前輪
612 後輪
700 操縦席
702 イグニッションスイッチ
704 ステアリングホイール
706 リフトレバー
708 アクセルペダル
710 ブレーキペダル
712 前後進レバー
714 ダッシュボード
300 フォークリフト
302 距離画像センサ
303 カメラ
304 通知手段
306 ディスプレイ
308 スピーカ
310 コントローラ
320 マイコン
330 距離画像取得部
340 識別器
350 処理部
360 パターンマッチング部
362 テンプレート画像生成部
D1 測距データ
D2 距離画像
D3 画像データ
D4 部分距離画像
D5 位置情報
D6 テンプレート画像
800 パレット
801 特定部位
802 穴
804 桁
600 forklift 602 vehicle body 604 fork 606 lifting body 608 mast 610 front wheel 612 rear wheel 700 cockpit 702 ignition switch 704 steering wheel 706 lift lever 708 accelerator pedal 710 brake pedal 712 forward/reverse lever 714 dashboard 300 forklift 302 distance image sensor 303 camera 303 Notification means 306 Display 308 Speaker 310 Controller 320 Microcomputer 330 Range image acquisition unit 340 Discriminator 350 Processing unit 360 Pattern matching unit 362 Template image generation unit D1 Range data D2 Range image D3 Image data D4 Partial range image D5 Position information D6 Template image 800 pallet 801 specific part 802 hole 804 column

Claims (5)

パレットを搬送する搬送装置の学習に使用する教師データの生成方法であって、
前記搬送装置は、
距離画像センサと、
(i)前記距離画像センサの出力にもとづいて画素値が距離を表す距離画像を取得可能であり、(ii)前記距離画像にもとづいて、パレットまたは前記パレットの特定部位である検出対象を特定できるように、前記教師データを利用して機械学習により構成された識別器を有する演算部と、
を備えるものであり、
前記生成方法は、
前記パレットの3次元モデルを生成するステップAと、
3次元の仮想空間中に前記パレットの3次元モデルを配置し、前記パレットの3次元モデルと前記距離画像センサのモデルの相対位置を変化させながら、前記パレットを前記距離画像センサによって測定したときに得られるであろう仮想距離画像を生成するステップBと、
前記仮想距離画像にもとづいた前記教師データを生成するステップCと、
を備えることを特徴とする生成方法。
A method for generating teacher data used for learning a transport device that transports pallets, comprising:
The conveying device is
a range image sensor;
(i) Based on the output of the range image sensor, it is possible to obtain a range image in which pixel values represent distances, and (ii) Based on the range image, a detection target, which is a pallet or a specific part of the pallet, can be specified. A computing unit having a discriminator configured by machine learning using the teacher data,
and
The generating method is
step A of generating a three-dimensional model of said pallet;
When the 3D model of the pallet is placed in a 3D virtual space and the pallet is measured by the range image sensor while changing the relative positions of the 3D model of the pallet and the model of the range image sensor. a step B of generating the virtual range image that would be obtained;
a step C of generating the training data based on the virtual range image;
A generation method, comprising:
前記ステップCは、背景距離画像に前記仮想距離画像を重畳するステップを含むことを特徴とする請求項1に記載の生成方法。 2. The generation method according to claim 1, wherein said step C includes a step of superimposing said virtual range image on a background range image. 前記背景距離画像は、前記距離画像センサの実測により生成されることを特徴とする請求項2に記載の生成方法。 3. The generating method according to claim 2, wherein the background distance image is generated by actual measurement of the distance image sensor. 前記ステップBにおいて、計測対象までの距離、計測面の方向、計測対象の材質の少なくともひとつが前記距離画像センサの出力に与える影響を記述する誤差モデルにもとづいて、前記仮想距離画像が生成されることを特徴とする請求項1から3のいずれかに記載の生成方法。 In step B, the virtual range image is generated based on an error model that describes the influence of at least one of the distance to the measurement target, the direction of the measurement surface, and the material of the measurement target on the output of the range image sensor. 4. The generation method according to any one of claims 1 to 3, characterized in that: 前記ステップBにおいて、環境光、周囲温度の少なくともひとつが前記距離画像センサの出力に与える影響を記述する環境モデルにもとづいて、前記仮想距離画像が生成されることを特徴とする請求項1から4のいずれかに記載の生成方法。 5. The virtual range image is generated in step B based on an environment model describing the influence of at least one of ambient light and ambient temperature on the output of the range image sensor. 3. The generation method according to any one of
JP2019192497A 2019-10-23 2019-10-23 Method of generating teacher data used for learning transport equipment Active JP7236705B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019192497A JP7236705B2 (en) 2019-10-23 2019-10-23 Method of generating teacher data used for learning transport equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019192497A JP7236705B2 (en) 2019-10-23 2019-10-23 Method of generating teacher data used for learning transport equipment

Publications (2)

Publication Number Publication Date
JP2021068138A JP2021068138A (en) 2021-04-30
JP7236705B2 true JP7236705B2 (en) 2023-03-10

Family

ID=75637241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192497A Active JP7236705B2 (en) 2019-10-23 2019-10-23 Method of generating teacher data used for learning transport equipment

Country Status (1)

Country Link
JP (1) JP7236705B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151650A (en) 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151650A (en) 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle

Also Published As

Publication number Publication date
JP2021068138A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
JP7300646B2 (en) Conveyor
WO2019138834A1 (en) Information processing device, information processing method, program, and system
KR102161716B1 (en) 3d printing device and printing correction method
CN109544633B (en) Target ranging method, device and equipment
JP6649796B2 (en) Object state specifying method, object state specifying apparatus, and carrier
CN110837814A (en) Vehicle navigation method, device and computer readable storage medium
JP5665333B2 (en) Information processing apparatus and information processing apparatus control method
US11828870B2 (en) Vehicle inspection system
JPWO2019163378A5 (en)
US20220034754A1 (en) Vehicle inspection system
EP3995925B1 (en) Autonomous mobile robot, transporter, autonomous mobile robot control method, and transporter control method
WO2010103961A1 (en) Parking support apparatus
CN107643049A (en) Vehicle position detection system and method on weighbridge based on monocular structure light
JP2020107174A (en) Transfer system, transfer device, calculator, learning method
JP7236705B2 (en) Method of generating teacher data used for learning transport equipment
US20220105750A1 (en) Vehicle equipped with omni-directional wheels
US20210272391A1 (en) Vehicle inspection system
CN207180603U (en) Vehicle position detection system on weighbridge based on monocular structure light
JP7192706B2 (en) Position and orientation estimation device
JP2022152449A (en) Method for generating teacher data used for learning of transport device
US20230174358A1 (en) Material Handling Vehicle Guidance Systems and Methods
JP2007278869A (en) Range finder, periphery monitor for vehicle, range finding method, and program for range finding
JP2020111400A (en) Conveyance device
JP2024013690A (en) Cargo handling support device, conveying device, cargo handling support method, and cargo handling support program
US20230417581A1 (en) Industrial vehicle control device, industrial vehicle, and industrial vehicle control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230217

R150 Certificate of patent or registration of utility model

Ref document number: 7236705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150