JP7300646B2 - Conveyor - Google Patents

Conveyor Download PDF

Info

Publication number
JP7300646B2
JP7300646B2 JP2019145554A JP2019145554A JP7300646B2 JP 7300646 B2 JP7300646 B2 JP 7300646B2 JP 2019145554 A JP2019145554 A JP 2019145554A JP 2019145554 A JP2019145554 A JP 2019145554A JP 7300646 B2 JP7300646 B2 JP 7300646B2
Authority
JP
Japan
Prior art keywords
pallet
image
detection target
distance
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145554A
Other languages
Japanese (ja)
Other versions
JP2020023397A (en
Inventor
敦史 日南
雄士 鈴木
賢司 寺林
海音 福井
亮 笹木
彪雅 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyama University
Original Assignee
Toyama University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyama University filed Critical Toyama University
Publication of JP2020023397A publication Critical patent/JP2020023397A/en
Application granted granted Critical
Publication of JP7300646B2 publication Critical patent/JP7300646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Description

本発明は、パレットを搬送対象とする搬送装置に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a conveying apparatus for conveying pallets.

フォークリフトなどの搬送装置は、予め決められた形状を有するパレットを搬送対象とする。パレットには、穴(フォークポケット)が設けられており、搬送装置には、フォークポケットに挿入可能なフォークが設けられる。 A transportation device such as a forklift transports a pallet having a predetermined shape. The pallet is provided with holes (fork pockets), and the transport device is provided with forks that can be inserted into the fork pockets.

搬送装置のオペレータは、フォークの高さを調節し、ステアリング操作を行いながら搬送装置を走行させて、フォークポケットにフォークを挿入する必要がある。 An operator of the carrier device must adjust the height of the forks, operate the carrier device while performing a steering operation, and insert the forks into the fork pockets.

特開2017-151650号公報JP 2017-151650 A

ところが不慣れなオペレータにとって、フォークを、うまくフォークポケットに挿入することは容易でない。もし、フォークがフォークポケット以外の場所に衝突すると、パレット上の荷物が崩れるかもしれない。またフォークポケットにフォークが挿入されたとしても、フォークポケットの内壁にフォークがぶつかると、パレットがずれたり、フォークに好ましくない応力が加わるおそれがある。 However, it is not easy for an inexperienced operator to successfully insert the fork into the fork pocket. If the forks collide with anything other than the fork pockets, the load on the pallet may collapse. Also, even if the forks are inserted into the fork pockets, if the forks collide with the inner walls of the fork pockets, the pallet may shift or unfavorable stress may be applied to the forks.

本発明は係る課題に鑑みてなされたものであり、そのある態様の例示的な目的のひとつは、オペレータの操作を支援可能な搬送装置の提供にある。 The present invention has been made in view of such problems, and one exemplary purpose of certain aspects thereof is to provide a transport apparatus capable of assisting an operator's operation.

本発明のある態様は、搬送装置に関する。搬送装置は、測距センサと、(i)測距センサの出力にもとづいて画素値が距離を表す距離画像を取得可能であり、(ii)距離画像にもとづいて、パレットまたはパレットの特定部位である検出対象を特定できるように機械学習により得られた識別器を有する演算部と、を備える。 One aspect of the present invention relates to a conveying device. The transport device can acquire a distance sensor, (i) a distance image in which pixel values represent distances based on the output of the distance sensor, and (ii) based on the distance image, a pallet or a specific part of the pallet. and a computing unit having a discriminator obtained by machine learning so that a certain detection target can be specified.

TOF(Time Of Flight)センサ、LiDAR(Light Detection and Ranging)、ステレオカメラやストラクチャカメラなどの測距センサにより得られる3次元点群データを、2次元の距離画像にマッピングし、距離画像を入力とする識別器を構成することにより、パレットあるいはその部位の特定の精度を高めることができる。そして得られた検出結果を、搬送装置の動作に反映させ、あるいはオペレータに通知することにより、オペレータを支援することができる。 3D point cloud data obtained by ranging sensors such as TOF (Time Of Flight) sensors, LiDAR (Light Detection and Ranging), stereo cameras, and structure cameras is mapped to a 2D range image, and the range image is input. By constructing a discriminator that does so, it is possible to improve the accuracy of specifying the pallet or its part. The operator can be assisted by reflecting the obtained detection result in the operation of the conveying apparatus or notifying the operator.

検出対象は、パレットの穴と穴を区切る桁を含んでもよい。パレットには、さまざまな形状や構造が存在するところ、それらには穴と穴を区切る桁が共通して存在する。そこで、桁を検出対象とした識別器を搭載することで、さまざまなパレットについて、穴の位置を検出できる。 The object to be detected may include pallet holes and girders separating the holes. Pallets come in a variety of shapes and structures, and they all have holes and girders separating the holes. Therefore, it is possible to detect the positions of holes in various pallets by installing a discriminator that detects girders.

演算部は、予め保持しているパレットの幾何学的な情報にもとづいて、穴の位置を特定してもよい。 The calculation unit may specify the positions of the holes based on the geometric information of the pallet held in advance.

検出対象であるパレットまたはパレットの特定部位を特定した後に、その結果を利用して、距離画像にもとづいてパレットの穴を特定してもよい。元の距離画像から直接、パレットの穴を特定するように識別器を構成すると、精度が低下する場合がある。そこで、パレットあるいはパレットの特定部位を特定する識別器を構成し、さらにその結果をベースとして穴を特定する識別器を構成することにより、穴の識別精度を高めることができる。 After specifying the pallet or the specific part of the pallet to be detected, the result may be used to specify the hole in the pallet based on the range image. Constructing the classifier to identify pallet holes directly from the original range image may result in reduced accuracy. Therefore, by configuring a discriminator that identifies a pallet or a specific portion of the pallet, and further configuring a discriminator that identifies a hole based on the result, it is possible to improve the hole identification accuracy.

搬送装置は、パレットの穴の位置を、オペレータに視覚的に表示する表示部をさらに備えてもよい。これによりオペレータは表示部を見ることで、直感的に、穴の位置を知ることができる。 The transport device may further comprise a display for visually indicating to the operator the positions of the holes in the pallet. Accordingly, the operator can intuitively know the position of the hole by looking at the display unit.

搬送装置は、現在の状態で搬送装置を走行させたときに、フォークがパレットの穴に挿入可能か否かをオペレータに通知する通知部をさらに備えてもよい。通知は、視覚的に行ってもよいし、聴覚的に行ってもよい。 The conveying device may further include a notification unit that notifies the operator whether or not the forks can be inserted into the holes of the pallet when the conveying device is run in the current state. Notification may be made visually or audibly.

演算部は、識別器によって距離画像の中から検出対象の存在位置を示す位置情報を生成してもよい。演算部は、位置情報に応じたテンプレート画像を利用したテンプレートマッチングにより、検出対象の位置を相対的に高い精度で検出してもよい。すなわち前処理として、識別器によって粗い位置検出を行い、特定部位の粗い存在位置あるいは存在範囲を絞り込む。次のステップとして、絞り込まれた範囲内で、存在範囲に適したテンプレート画像を用いたテンプレートマッチングを行うことにより、検出対象の位置を正確に検出できる。 The computing unit may generate position information indicating the existing position of the detection target from the range image by using the discriminator. The calculation unit may detect the position of the detection target with relatively high accuracy by template matching using a template image corresponding to the position information. That is, as preprocessing, a classifier performs rough position detection to narrow down the rough existence position or existence range of a specific portion. As the next step, by performing template matching using a template image suitable for the existence range within the narrowed down range, the position of the detection target can be accurately detected.

複数のテンプレート画像を予め用意しておいてもよい。演算部は、識別器の出力にもとづいて検出対象の位置を特定し、複数のテンプレート画像の中から、特定した位置に対応するひとつを選択してもよい。 A plurality of template images may be prepared in advance. The calculation unit may specify the position of the detection target based on the output of the discriminator, and select one image corresponding to the specified position from among the plurality of template images.

演算部は、テンプレート画像を、検出対象の存在位置にもとづいてリアルタイムで生成してもよい。 The calculation unit may generate the template image in real time based on the existing position of the detection target.

なお、以上の構成要素の任意の組み合わせや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that arbitrary combinations of the above-described constituent elements and mutually replacing the constituent elements and expressions of the present invention in methods, devices, systems, etc. are also effective as aspects of the present invention.

本発明によれば、オペレータの操作を支援できる。 According to the present invention, an operator's operation can be supported.

搬送装置の一態様であるフォークリフトの外観図を示す斜視図である。1 is a perspective view showing an external view of a forklift that is one aspect of a conveying device; FIG. フォークリフトの操縦席の一例を示す図である。It is a figure which shows an example of the cockpit of a forklift. 図3(a)~(h)は、フォークリフトが搬送対象とするパレットを示す図である。FIGS. 3A to 3H are diagrams showing pallets to be transported by a forklift. 実施の形態に係るフォークリフトの機能ブロック図である。1 is a functional block diagram of a forklift according to an embodiment; FIG. 図5(a)、(b)は、測距センサの設置箇所を説明する図である。5(a) and 5(b) are diagrams for explaining the installation locations of the range finding sensors. 距離画像の一例を示す図である。It is a figure which shows an example of a distance image. 図7(a)、(b)は、検出対象である特定部位を模式的に示す図である。FIGS. 7A and 7B are diagrams schematically showing specific parts to be detected. 図7(a)の特定部位の距離画像を示す図である。It is a figure which shows the distance image of the specific site|part of Fig.7 (a). ディスプレイを利用した運転支援を説明する図である。It is a figure explaining the driving assistance using a display. 変形例1に係るコントローラの一部のブロック図である。FIG. 11 is a block diagram of part of a controller according to Modification 1; パレットと測距センサの相対的な位置関係を示す図である。It is a figure which shows the relative positional relationship of a pallet and a ranging sensor. 図11の複数のパレットそれぞれを測距センサによって撮影して得られる距離画像を示す図である。12A and 12B are diagrams showing distance images obtained by photographing each of the plurality of pallets in FIG. 11 with a distance measuring sensor; FIG. 変形例3に係るコントローラのブロック図である。FIG. 11 is a block diagram of a controller according to Modification 3; 図14(a)~(c)は、変形例3に係るコントローラの処理を説明する図である。14A to 14C are diagrams for explaining the processing of the controller according to Modification 3. FIG. 図15(a)~(c)は、変形例4に係るコントローラの処理を説明する図である。15A to 15C are diagrams for explaining the processing of the controller according to Modification 4. FIG.

以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent constituent elements, members, and processes shown in each drawing are denoted by the same reference numerals, and duplication of description will be omitted as appropriate. Moreover, the embodiments are illustrative rather than limiting the invention, and not all features and combinations thereof described in the embodiments are necessarily essential to the invention.

図1は、搬送装置の一態様であるフォークリフトの外観図を示す斜視図である。フォークリフト600は、車体(シャーシ)602、フォーク604、昇降体(リフト)606、マスト608、車輪610、612を備える。マスト608は車体602の前方に設けられる。昇降体606は、油圧アクチュエータ(図1に不図示)などの動力源によって駆動され、マスト608に沿って昇降する。昇降体606には、荷物を支持するためのフォーク604が取り付けられている。フォークリフト600は、2本のフォーク604が図示しないパレットの穴(フォークポケット)に挿入された状態で、パレットを搬送する。 FIG. 1 is a perspective view showing an external view of a forklift, which is one mode of a transport device. The forklift 600 includes a vehicle body (chassis) 602 , a fork 604 , a lifting body (lift) 606 , a mast 608 and wheels 610 and 612 . A mast 608 is provided in front of the vehicle body 602 . Elevating body 606 is driven by a power source such as a hydraulic actuator (not shown in FIG. 1) to ascend and descend along mast 608 . A fork 604 is attached to the lifting body 606 for supporting a load. The forklift 600 carries a pallet with two forks 604 inserted into holes (fork pockets) of the pallet (not shown).

図2は、フォークリフトの操縦席700の一例を示す図である。操縦席700は、イグニッションスイッチ702、ステアリングホイール704、リフトレバー706、アクセルペダル708、ブレーキペダル710、ダッシュボード714、前後進レバー712を備える。 FIG. 2 is a diagram showing an example of a cockpit 700 of a forklift. The cockpit 700 includes an ignition switch 702 , a steering wheel 704 , a lift lever 706 , an accelerator pedal 708 , a brake pedal 710 , a dashboard 714 and a forward/reverse lever 712 .

イグニッションスイッチ702は、フォークリフト600の起動用のスイッチである。ステアリングホイール704は、フォークリフト600の操舵を行うための操作手段である。リフトレバー706は、昇降体606を上下に移動させるための操作手段である。アクセルペダル708は、走行用の車輪の回転を制御する操作手段であり、オペレータが踏み込み量を調節することでフォークリフト600の走行が制御される。オペレータがブレーキペダル710を踏み込むと、ブレーキがかかる。前後進レバー712は、フォークリフト600の走行方向を、前進と後進で切りかえるためのレバーである。そのほか、図示しないインチングペダルが設けられてもよい。 The ignition switch 702 is a switch for starting the forklift 600 . A steering wheel 704 is an operation means for steering the forklift 600 . A lift lever 706 is an operating means for moving the lifting body 606 up and down. The accelerator pedal 708 is an operating means for controlling the rotation of wheels for traveling, and the travel of the forklift 600 is controlled by the operator adjusting the amount of depression. When the operator depresses the brake pedal 710, the brake is applied. The forward/reverse lever 712 is a lever for switching the traveling direction of the forklift 600 between forward and reverse. In addition, an inching pedal (not shown) may be provided.

オペレータは、車体の位置制御に関して、ステアリングホイール704とアクセルペダル708、ブレーキペダル710を操作し、フォーク604の位置制御に関して、リフトレバー706を操作する必要がある。 The operator needs to operate the steering wheel 704 , the accelerator pedal 708 and the brake pedal 710 to control the position of the vehicle body, and operate the lift lever 706 to control the position of the fork 604 .

図3(a)~(h)は、フォークリフト600が搬送対象とするパレットを示す図である。パレット800は、上板806、穴802、桁804を有する。パレット800の形状は、JIS規格により定められるほか、目的や用途に応じて多種多様な形状のものが存在する。図3(a)~(h)はそれぞれ、JIS規格でS2,SU2,DP4,R4,RW2,D2,DU2,D4と表記される。図3(a)~(h)に示すように、一概にパレットといっても、さまざまな形状、構造が存在しており、不慣れなオペレータにとって、複数の操作入力手段(704,706,708,710,706)を正確に操作して、フォークポケットに正確にフォークを挿入することは容易でない。 3A to 3H are diagrams showing pallets to be transported by the forklift 600. FIG. Pallet 800 has a top plate 806 , holes 802 and girders 804 . The shape of the pallet 800 is defined by JIS standards, and there are various shapes depending on the purpose and application. 3(a) to (h) are represented by JIS standards as S2, SU2, DP4, R4, RW2, D2, DU2 and D4, respectively. As shown in FIGS. 3(a) to 3(h), pallets generally come in various shapes and structures, and for unfamiliar operators, a plurality of operation input means (704, 706, 708, 710, 706) to accurately insert the fork into the fork pocket.

以下では、パレットの荷すくい動作を支援可能な構成について説明する。図4は、実施の形態に係るフォークリフト300の機能ブロック図である。図4には、荷すくい動作の支援に関連するブロックのみが示され、その他のブロックは省略している。 A configuration capable of assisting the scooping operation of a pallet will be described below. FIG. 4 is a functional block diagram of the forklift 300 according to the embodiment. FIG. 4 shows only the blocks related to assisting the scooping operation, and omits the other blocks.

フォークリフト300は、測距センサ302、カメラ303、通知手段304、コントローラ310を備える。測距センサ302は、フォークリフト前方300に取り付けられ、車両前方の距離情報を取得する。その限りでないが測距センサ302としては、ToFカメラ、LiDAR、ストラクチャードライト法を用いたセンサ、ステレオカメラなどを用いることができる。測距センサ302は、車両前方に位置する構造物や物品等の3次元点群データを含む測距データD1を生成する。 The forklift 300 includes a distance measuring sensor 302 , a camera 303 , notification means 304 and a controller 310 . A distance measuring sensor 302 is attached in front of the forklift 300 to obtain distance information in front of the vehicle. Although not limited to this, as the ranging sensor 302, a ToF camera, LiDAR, a sensor using a structured light method, a stereo camera, or the like can be used. The distance measurement sensor 302 generates distance measurement data D1 including three-dimensional point cloud data of structures, articles, etc. located in front of the vehicle.

図5(a)、(b)は、測距センサ302の設置箇所を説明する図である。図5(a)は、上から見た図である。フォークを挿入すべき穴の位置を検出する必要があることから、左右方向に関して、測距センサ302は、2本のフォークの中央に配置することが好ましい。これにより、フォークをパレットに挿入する際に、測距センサ302によって、パレットを正面から撮影することが可能となる。特に、後述のように桁を含む特定部位を検出対象とする場合に、フォークの中央に測距センサ302を配置しておくことで、特定部位の距離画像をうまく撮影することができる。 5(a) and 5(b) are diagrams for explaining the installation location of the distance measuring sensor 302. FIG. FIG. 5(a) is a top view. Since it is necessary to detect the position of the hole into which the fork should be inserted, it is preferable to place the distance measuring sensor 302 in the center of the two forks in the horizontal direction. As a result, when the fork is inserted into the pallet, the distance measuring sensor 302 can photograph the pallet from the front. In particular, when a specific portion including a girder is to be detected as will be described later, the distance image of the specific portion can be successfully captured by arranging the distance measuring sensor 302 in the center of the fork.

図5(b)は横から見た図である。上下方向に関しては、302cで示すようにフォーク604と同じ高さとしてもよいが、それよりわずかに上側の位置302a(あるいは下側の位置302b)に設けるとよい。これにより、パレット800の上板806の上面S1(あるいは上板806の下面S2)を確実に捉えることが可能となるからである。また、この位置は、フォークの高さの最終的な調整の局面において、フォークやその他の車両構造物に遮蔽されにくいという利点もある。 FIG. 5B is a side view. With respect to the vertical direction, it may be at the same height as the fork 604 as indicated by 302c, but it is preferable to provide it at a slightly upper position 302a (or a lower position 302b). This is because the upper surface S1 of the upper plate 806 of the pallet 800 (or the lower surface S2 of the upper plate 806) can thereby be reliably captured. This position also has the advantage of being less obscured by the fork or other vehicle structure during the final adjustment phase of the fork height.

図4に戻る。カメラ303は、フォークリフト300の前方を撮影する。カメラ303の撮影した画像データD3は、ディスプレイ306に表示される。なお図4においては、カメラ303と測距センサ302を別個の機能ブロックとして示すが、必ずしもハードウェアとして測距センサ302と独立していることを意味するものでなく、測距センサ302は、カメラ303を兼ねていてもよい。たとえば測距センサ302がTOFカメラやステレオカメラである場合、それから1次的に得られる単眼画像(赤外線強度分布や可視光モノクロ画像、可視光カラー画像)を、画像データD3として用いることができる。 Return to FIG. A camera 303 photographs the front of the forklift 300 . Image data D3 captured by camera 303 is displayed on display 306 . Although FIG. 4 shows the camera 303 and the distance measurement sensor 302 as separate functional blocks, this does not necessarily mean that they are independent of the distance measurement sensor 302 as hardware. 303 may also serve. For example, when the distance measuring sensor 302 is a TOF camera or a stereo camera, a monocular image (infrared intensity distribution, visible light monochrome image, visible light color image) primarily obtained therefrom can be used as the image data D3.

コントローラ310は、フォークリフト300を統合的に制御する。コントローラ310は、距離画像取得部330および識別器340を備える。距離画像取得部330は、点群データを含む測距データD1にもとづいて、距離画像D2を生成する。距離画像D2とは、縦横に複数ピクセルを有する画像データであって、画素値が距離を表すデータをいう。図6は、距離画像の一例を示す図である。なお、測距センサ302の出力が距離データである場合、距離画像取得部330の処理は簡略化され、あるいは省略される。 Controller 310 comprehensively controls forklift 300 . The controller 310 includes a distance image acquisition section 330 and a discriminator 340 . The distance image acquisition unit 330 generates a distance image D2 based on the distance measurement data D1 including point cloud data. The distance image D2 is image data having a plurality of pixels vertically and horizontally, and is data in which pixel values represent distances. FIG. 6 is a diagram showing an example of a distance image. Note that when the output of the distance measuring sensor 302 is distance data, the processing of the distance image acquisition unit 330 is simplified or omitted.

図4に戻る。識別器340は、距離画像D2にもとづいて、パレットまたはパレットの特定部位を特定できるように、機械学習により構成される。 Return to FIG. The classifier 340 is configured by machine learning so as to identify the pallet or a specific part of the pallet based on the distance image D2.

処理部350は、識別器340の検出結果にもとづいて、パレットの穴の位置を特定する。そして検出した結果にもとづいて、通知手段304を制御し、オペレータに通知する。通知手段304は、ディスプレイ306やスピーカ308を含みうる。ディスプレイ306は、視覚的にパレットの穴の位置やその他の情報をオペレータに通知するために用いられる。スピーカ308は、オペレータに聴覚的にパレットの位置やその他の情報を通知するために用いることができる。通知手段304による通知については後述する。 The processing unit 350 identifies the positions of the holes in the pallet based on the detection result of the discriminator 340 . Based on the detected result, the notification means 304 is controlled to notify the operator. Notification means 304 may include display 306 and speaker 308 . A display 306 is used to visually notify the operator of pallet hole locations and other information. A speaker 308 can be used to audibly notify the operator of pallet locations and other information. Notification by notification means 304 will be described later.

識別器340および処理部350は、演算処理装置(CPU)やメモリを有するマイコン320と、マイコン320が実行するソフトウェアプログラムで構成することができる。さらに距離画像取得部330も、マイコン320の機能として実装することができる。したがって距離画像取得部330、識別器340、処理部350は、必ずしも別個のハードウェアとして認識されるものではなく、演算処理装置とソフトウェアプログラムの組み合わせにより実現される機能を表す。 The discriminator 340 and the processing unit 350 can be configured by a microcomputer 320 having an arithmetic processing unit (CPU) and memory, and a software program executed by the microcomputer 320 . Furthermore, the distance image acquisition section 330 can also be implemented as a function of the microcomputer 320 . Therefore, the distance image acquisition unit 330, the discriminator 340, and the processing unit 350 are not necessarily recognized as separate hardware, but represent functions realized by a combination of an arithmetic processing unit and software programs.

あるいは距離画像取得部330と識別器340を別個のハードウェアで構成してもよい。たとえば測距センサ302とマイコン320のインタフェースとして、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア(チップ)が搭載される場合がある。この場合、距離画像取得部330の処理を、このハードウェアに実行させてもよい。 Alternatively, the distance image acquisition unit 330 and the discriminator 340 may be configured with separate hardware. For example, as an interface between the distance measuring sensor 302 and the microcomputer 320, hardware (chips) such as FPGA (Field Programmable Gate Array) and ASIC (Application Specific Integrated Circuit) may be installed. In this case, the processing of the distance image acquisition unit 330 may be executed by this hardware.

以上がフォークリフト300の構成である。このフォークリフト300によれば、測距センサにより得られる距離画像を入力とする識別器を機械学習により構成することにより、パレットあるいはその部位の特定の精度を高めることができる。そして得られた検出結果を、搬送装置の動作に反映させ、あるいはオペレータに通知することにより、オペレータの操作を支援することができる。 The above is the configuration of the forklift 300 . According to this forklift 300, the accuracy of specifying the pallet or its part can be improved by configuring the classifier that receives the distance image obtained by the distance measuring sensor by machine learning. The operator's operation can be assisted by reflecting the obtained detection result in the operation of the conveying apparatus or notifying the operator.

なお、パレットやその特定部位を検出する別の方法として、3次元点群データを用いて、特徴的な部位をパターンマッチングによって検出する方法も考えられる。ところがこの方法は、対象物を常に同じ方向から測定する必要があり、特徴的な部位の3次元点群データを高密度に精度よく測ることが難しいという問題点がある。 As another method for detecting a pallet and its specific parts, a method of detecting characteristic parts by pattern matching using three-dimensional point group data is also conceivable. However, this method has the problem that the object must always be measured from the same direction, and it is difficult to measure three-dimensional point cloud data of characteristic parts with high density and accuracy.

続いて識別器340の具体例と、その学習について説明する。一実施例において、識別器340は、線形SVM(Support Vector Machine)とHOG(Histograms of Oriented Gradients)特徴量の組み合わせで構成される。線形SVMは、入力が、2クラスのいずれかに属するかを判定可能な識別器として広く用いられる。一般的な画像処理の分野において、線形SVMの入力は、画素値が輝度である画像データであるが、本実施の形態では、距離画像を入力としたところが異なっている。 Next, a specific example of the discriminator 340 and its learning will be described. In one embodiment, the discriminator 340 is composed of a combination of linear SVM (Support Vector Machine) and HOG (Histograms of Oriented Gradients) features. Linear SVMs are widely used as classifiers that can determine whether an input belongs to one of two classes. In the field of general image processing, the input of linear SVM is image data whose pixel value is luminance, but in this embodiment, the input is a range image.

線形SVMは、2個の穴のペアを直接検出するように学習することもできる。ただし、図3(a)~(h)に示したように、穴の形状やサイズは、パレットの種類によってさまざまである。具体的には、穴の横幅は、パレットによって異なっている。またパレットは下板を有するものもあれば、有しないものもあり、したがって穴は下側が開放されている場合と閉じている場合がある。このことから、穴を直接的な識別対象として学習した識別器では、十分に高い識別率が得られない場合がある。 A linear SVM can also be trained to detect pairs of two holes directly. However, as shown in FIGS. 3(a) to 3(h), the shape and size of the holes vary depending on the type of pallet. Specifically, the width of the hole differs depending on the pallet. Also, some pallets have bottom plates, some do not, so the holes may be open or closed at the bottom. For this reason, there are cases where a classifier that learns holes directly as objects to be classified cannot obtain a sufficiently high classification rate.

そこで本発明者らは、さらなる識別率の改善のために、パレット800の穴802と穴802を区切る桁804に着目し、桁804を含む一部分(特定部位)を検出対象として識別器340を構成することとした。桁804は、パレット800の規格によらずに、パレットの必須の構成要素であり、検出対象として好適であり、高い識別率が期待できる。 Therefore, in order to further improve the identification rate, the present inventors focused on the holes 802 of the pallet 800 and the girders 804 that separate the holes 802, and configured the discriminator 340 with a part (specific part) including the girders 804 as the detection target. It was decided to. The girder 804 is an essential component of the pallet regardless of the pallet 800 standard, is suitable as a detection target, and can be expected to have a high identification rate.

図7(a)、(b)は、検出対象である特定部位801を模式的に示す図である。特定部位801は、上板806の一部と、下板808の一部と、桁804および2つの穴802を含む。この特定部位801は、向かい合わせの2個のコの字形状を含むものと把握できる。図8は、図7(a)の特定部位801の距離画像を示す図である。 FIGS. 7A and 7B are diagrams schematically showing a specific site 801 to be detected. A specific portion 801 includes a portion of an upper plate 806 , a portion of a lower plate 808 , a girder 804 and two holes 802 . This specific portion 801 can be grasped as including two facing U-shapes. FIG. 8 is a diagram showing a distance image of the specific portion 801 in FIG. 7(a).

なお図3(b)等に示すように、下板が存在しないパレットも存在する。そこで図7(b)に示すように、下板808を除いたT字形状を特定部位801として識別器340を学習させてもよい。 As shown in FIG. 3(b), etc., some pallets do not have a lower plate. Therefore, as shown in FIG. 7(b), the classifier 340 may be learned by using the T-shape excluding the lower plate 808 as the specific portion 801. FIG.

処理部350には、パレットの幾何学的な情報が保持されている。処理部350は、識別器340が特定した特定部位801の位置と、幾何学的な情報にもとづいて、演算処理によって、フォークを挿入すべき2個の穴の位置を特定することができる。たとえば、幾何学的な情報は、パレットのセンターの位置(座標)と、穴の位置の相対的な位置関係を含みうる。処理部350は、識別器340の出力にもとづいて、パレット800のセンター位置を検出し、センター位置から、左右に所定量オフセットした位置を、フォークを挿入すべき穴の位置とすることができる。 The processing unit 350 holds geometric information of the pallet. The processing unit 350 can identify the positions of the two holes into which the forks should be inserted by arithmetic processing based on the position of the specific portion 801 identified by the discriminator 340 and the geometric information. For example, the geometric information may include the relative positional relationship between the position (coordinates) of the center of the pallet and the positions of the holes. The processing unit 350 can detect the center position of the pallet 800 based on the output of the discriminator 340, and set a position offset to the left and right by a predetermined amount from the center position as the position of the hole into which the fork should be inserted.

図7(c)は、別のパレットの一部分を示す図である。パレットは、3個の(あるいはそれより多い)穴を有する場合もあり、その場合、1個のパレットが、2個の(あるいはそれより多い)桁を含み、1個のパレットについて、2個の特定部位801が隣接して検出される場合もありえる。この場合、2個の特定部位801のセンター(すなわち2個の桁804のセンター)を、パレット800全体のセンター位置と判定してもよい。 FIG. 7(c) is a diagram showing a portion of another palette. A pallet may have three (or more) holes, in which case one pallet contains two (or more) girders and two girders per pallet. It is also possible that the specific parts 801 are detected adjacent to each other. In this case, the center of the two specific parts 801 (that is, the center of the two girders 804) may be determined as the center position of the entire pallet 800. FIG.

続いて、通知手段304について説明する。図9は、ディスプレイ306を利用した運転支援を説明する図である。ディスプレイ306には、図4のカメラ303が撮影した画像データD3が表示される。処理部350は、この画像データD3とオーバーラップする形で、パレット800の穴あるいはその外形を強調する図形810を表示してもよい。図9に示すようにカメラ303が撮影する画像データD3には、2本のフォーク604が写っていることが好ましい。これにより、オペレータは、ディスプレイ306を見ながら、フォーク604と穴の位置との相対的な関係を直感的に把握できる。 Next, the notification means 304 will be described. FIG. 9 is a diagram illustrating driving assistance using the display 306. As shown in FIG. The display 306 displays image data D3 captured by the camera 303 in FIG. The processing unit 350 may display a graphic 810 that emphasizes the hole in the pallet 800 or its outer shape so as to overlap the image data D3. As shown in FIG. 9, image data D3 captured by camera 303 preferably includes two forks 604 . As a result, the operator can intuitively grasp the relative relationship between the fork 604 and the position of the hole while viewing the display 306 .

さらに通知手段304は、現在の状態(ステアリング角、アクセルの開度)でフォークリフトを走行させたときに、フォーク604がパレット800の穴802に挿入可能か否かをオペレータに通知してもよい。この通知は、図9のディスプレイ306を用いて行うことができ、たとえば、挿入可能な場合、図形810を第1の色(たとえば青)で描画し、挿入不可能な場合、図形810を第2の色(たとえば赤)で描画してもよい。 Further, the notification means 304 may notify the operator whether or not the fork 604 can be inserted into the hole 802 of the pallet 800 when the forklift is driven in the current state (steering angle, accelerator opening). This notification can be done using the display 306 of FIG. 9, for example, drawing shape 810 in a first color (eg, blue) if insertable, and drawing shape 810 in a second color if not insertable. color (eg red).

図形810の描画色の制御に加えて、あるいはそれに変えて、スピーカ308を利用して、挿入可能か否かをオペレータに報知してもよい。 In addition to controlling the drawing color of the graphic 810, or in place of it, the speaker 308 may be used to inform the operator whether or not the insertion is possible.

以上、本発明を実施例にもとづいて説明した。本発明は上記実施形態に限定されず、種々の設計変更が可能であり、様々な変形例が可能であること、またそうした変形例も本発明の範囲にあることは、当業者に理解されるところである。以下、こうした変形例を説明する。 The present invention has been described above based on the examples. It should be understood by those skilled in the art that the present invention is not limited to the above embodiments, and that various design changes and modifications are possible, and that such modifications are within the scope of the present invention. By the way. Such modifications will be described below.

(変形例1)
図10は、変形例1に係るコントローラ310Aの一部のブロック図である。この変形例では、2個の識別器340,342が用いられる。前段の識別器340は、距離画像D2を入力として受け、パレットまたはパレットの特定部位を識別可能に構成される。後段の識別器342は、識別器340の識別結果を利用して、穴を特定するように学習されている。たとえば前段の識別器340によりパレットが特定されると、距離画像D2のうち、パレットの部分が、後段の識別器342に入力される。後段の識別器342は、局所的な距離画像から、穴を特定可能に構成される。元の距離画像から直接、パレットの穴を特定するように識別器を構成すると、精度が低下する場合がある。そこで、パレットあるいはパレットの特定部位を特定する識別器を構成し、さらにその結果をベースとして穴を特定する識別器を構成することにより、穴の識別精度を高めることができる。この変形例では、処理部350にパレットの幾何学的な情報を保持しなくてよいという利点がある。
(Modification 1)
FIG. 10 is a block diagram of part of the controller 310A according to Modification 1. As shown in FIG. In this modification, two discriminators 340 and 342 are used. The identifier 340 at the front stage receives the distance image D2 as an input and is configured to be able to identify the pallet or a specific portion of the pallet. The discriminator 342 in the latter stage is trained to identify holes using the discrimination result of the discriminator 340 . For example, when the pallet is specified by the discriminator 340 in the preceding stage, the pallet portion of the distance image D2 is input to the discriminator 342 in the subsequent stage. The classifier 342 in the latter stage is configured to be able to identify the hole from the local range image. Constructing the classifier to identify pallet holes directly from the original range image may result in reduced accuracy. Therefore, by configuring a discriminator that identifies a pallet or a specific portion of the pallet, and further configuring a discriminator that identifies a hole based on the result, the hole identification accuracy can be improved. This modification has the advantage that the processing unit 350 does not need to hold the geometrical information of the pallet.

(変形例2)
識別器340を多層のニューラルネットワークで構成し、深層学習を用いてもよい。
(Modification 2)
The discriminator 340 may be composed of a multi-layered neural network and may use deep learning.

(変形例3)
測距センサによってある物体(被写体)を撮影する際に、物体と測距センサの位置関係によって、物体の見え方は大きく異なる。図11は、パレット800と測距センサ302の相対的な位置関係を示す図である。たとえばパレット800m#(#=l,c,r)は、測距センサ302と同じ高さに位置しており、パレット800u#は、測距センサ302より高い位置に存在しており、パレット800l#は、測距センサ302より低い位置に存在している。
(Modification 3)
When an object (subject) is photographed by a distance measuring sensor, the appearance of the object greatly differs depending on the positional relationship between the object and the distance measuring sensor. FIG. 11 is a diagram showing the relative positional relationship between the pallet 800 and the distance measuring sensor 302. As shown in FIG. For example, the pallet 800m# (#=l, c, r) is positioned at the same height as the distance measuring sensor 302, the pallet 800u# is positioned higher than the distance measuring sensor 302, and the pallet 800l# exists at a position lower than the ranging sensor 302 .

図12は、図11の各パレット800を測距センサ302によって撮影して得られる距離画像を示す図である。パレット800と測距センサ302の相対的な位置関係に応じて、識別器340による検出対象である特定部位(桁804)の像も大きく異なる。もし、識別器340の学習段階において、特定の位置関係にあるパレット800##(たとえば正対する800mc)の特定部位801##のみを含むような教師データ群を用いて、識別器340の機械学習を行ったとすると、別の位置関係にあるパレット800**(ただし**≠##)の特定部位801**の位置検出精度が低下するおそれがある。この問題は、測距センサ302の視野角が広い場合に顕著に表れる。 FIG. 12 is a diagram showing a distance image obtained by photographing each palette 800 of FIG. Depending on the relative positional relationship between the pallet 800 and the distance measuring sensor 302, the image of the specific portion (beam 804) to be detected by the discriminator 340 also varies greatly. If, in the learning stage of the discriminator 340, the machine learning of the discriminator 340 is performed using a teacher data group that includes only the specific part 801## of the pallet 800## that has a specific positional relationship (for example, 800mc that faces the pallet 800##) , there is a risk that the position detection accuracy of the specific portion 801** of the pallet 800** (where **≠##) in a different positional relationship will be degraded. This problem is conspicuous when the viewing angle of the ranging sensor 302 is wide.

フォーク604を、パレット800の穴802に干渉なく挿入するためには、フォーク604とパレット800の相対的な位置を数cmより高い精度で制御する必要があり、そのためには特定部位801を同じ数cmの高い精度で位置検出する必要がある。なお本発明者らが検討したところ、識別器340の学習段階において、さまざまな相対位置関係にあるパレットの特定部位801を撮影しておき、それらを教師データとして機械学習を行うと、識別器340によって特定部位801を見つけやすくなるものの、位置検出精度はそれほど高くならない場合がある。 In order to insert the fork 604 into the hole 802 of the pallet 800 without interference, it is necessary to control the relative position of the fork 604 and the pallet 800 with an accuracy higher than several centimeters. It is necessary to detect the position with a high accuracy of centimeters. According to the inventors' study, during the learning stage of the discriminator 340, when specific parts 801 of the pallet having various relative positional relationships are photographed and machine learning is performed using them as teacher data, the discriminator 340 Although it becomes easier to find the specific part 801 by , the accuracy of position detection may not be so high.

変形例3ではこの問題を解決し、位置検出精度を高めるための手法を説明する。図13は、変形例3に係るコントローラ310Bのブロック図である。コントローラ310Bは、マイコン320Bを備える。マイコン320Bは、識別器340および処理部350に加えて、パターンマッチング処理部360と、テンプレート画像生成部362を備える。 Modification 3 will explain a technique for solving this problem and improving the position detection accuracy. FIG. 13 is a block diagram of a controller 310B according to Modification 3. As shown in FIG. The controller 310B has a microcomputer 320B. The microcomputer 320B includes a pattern matching processor 360 and a template image generator 362 in addition to the discriminator 340 and processor 350 .

識別器340については上述したとおりであり、事前の機械学習に得られた予測モデルを用いて、特定部位801を検出可能に構成されている。なお上述のように、この変形例3では、識別器340における特定部位801の位置検出精度がそれほど高くない場合を想定する。 Discriminator 340 is as described above, and is configured to be able to detect specific part 801 using a prediction model obtained by prior machine learning. As described above, in Modification 3, it is assumed that the position detection accuracy of the specific part 801 in the classifier 340 is not so high.

識別器340は、元の距離画像D2のうち検出した特定部位801を含む一部分である、部分距離画像D4を抽出し、パターンマッチング部360に与える。また識別器340は、テンプレート画像生成部362に対して、検出した特定部位の位置情報D5を生成し、テンプレート画像生成部362に供給する。位置情報D5は、検出した特定部位の座標であってもよいし、元の距離画像D2を複数の範囲に分割したときに、特定部位を含む範囲を示すデータであってもよい。 The discriminator 340 extracts a partial range image D4, which is a portion of the original range image D2 including the detected specific part 801, and provides it to the pattern matching section 360. FIG. The discriminator 340 also generates position information D5 of the detected specific part for the template image generation unit 362 and supplies the position information D5 to the template image generation unit 362 . The position information D5 may be the coordinates of the detected specific part, or may be data indicating the range including the specific part when the original distance image D2 is divided into a plurality of ranges.

テンプレート画像生成部362は、位置情報D5にもとづいて、テンプレート画像D6を生成する。なおこのテンプレート画像D6は、距離画像であることに留意されたい。位置情報D5が与えられると、特定部位と測距センサ302の相対的な位置関係がわかるため、その位置関係において、測距センサ302によって特定部位を撮影したときに得られるであろう距離画像を推定できる。テンプレート画像生成部362は、この位置関係に応じた距離画像をテンプレート画像としてパターンマッチング部360に供給する。 Template image generator 362 generates template image D6 based on position information D5. Note that this template image D6 is a distance image. When the position information D5 is given, the relative positional relationship between the specific part and the distance measuring sensor 302 is known. can be estimated. The template image generation unit 362 supplies the distance image corresponding to this positional relationship to the pattern matching unit 360 as a template image.

パターンマッチング部360は、位置情報に応じたテンプレート画像D6を利用して、テンプレートマッチングにより、部分距離画像D4の中から、検出対象である特定部位の位置を検出し、最終的な位置情報D7を出力する。 The pattern matching unit 360 uses the template image D6 corresponding to the positional information to detect the position of the specific region to be detected from the partial distance image D4 by template matching, and obtains the final positional information D7. Output.

以上が変形例3に係るコントローラ310Bの構成である。つづてその動作を説明する。図14(a)~(c)は、変形例3に係るコントローラ310Bの処理を説明する図である。図14(a)は、あるシチュエーションにおいて得られた距離画像D2を示す。この距離画像D2が識別器340に入力され、パレット800の特定部位801が検出される。ただしその位置検出精度はそれほど高くはなく、特定部位801のおおよその位置が検出される。 The above is the configuration of the controller 310B according to the third modification. Next, the operation will be explained. FIGS. 14A to 14C are diagrams for explaining the processing of the controller 310B according to Modification 3. FIG. FIG. 14(a) shows a distance image D2 obtained in a certain situation. This distance image D2 is input to the discriminator 340, and the specific portion 801 of the pallet 800 is detected. However, the position detection accuracy is not so high, and the approximate position of the specific part 801 is detected.

識別器340が検出した特定部位801の位置を含むように、注目領域(ROI:Region Of Interest)が設定され、ROIが部分距離画像D4としてパターンマッチング部360に供給される。図14(b)には、部分距離画像D4が示される。部分距離画像D4は、特定部位801が存在しうる範囲であり、たとえば識別器340による検出位置Pを中心とする矩形領域とすることができる。 A region of interest (ROI) is set so as to include the position of the specific part 801 detected by the classifier 340, and the ROI is supplied to the pattern matching section 360 as the partial distance image D4. FIG. 14(b) shows the partial distance image D4. The partial distance image D4 is a range in which the specific portion 801 can exist, and can be a rectangular area centered on the position P detected by the classifier 340, for example.

テンプレート画像生成部362には、図14(c)に示すような複数のテンプレート画像D6_1~D6_Nが用意されている。テンプレート画像生成部362は、複数のテンプレート画像D6_1~D6_Nの中から、位置情報D5に応じたひとつを選択する。選択されたテンプレート画像D6_iは、特定部位801が存在しうる範囲に適したものとなっている。 Template image generator 362 is prepared with a plurality of template images D6_1 to D6_N as shown in FIG. The template image generator 362 selects one of the plurality of template images D6_1 to D6_N according to the position information D5. The selected template image D6_i is suitable for the range in which the specific portion 801 can exist.

図14(d)に示すように、パターンマッチング部360は、テンプレートマッチングにより、部分距離画像D4のなかから、テンプレート画像D6_9を検出し、特定部位801の位置を高精度に検出する。以上がコントローラ310Bの動作である。 As shown in FIG. 14(d), the pattern matching unit 360 detects the template image D6_9 from the partial distance image D4 by template matching, and detects the position of the specific part 801 with high accuracy. The above is the operation of the controller 310B.

このようにコントローラ310Bによれば、前処理として、識別器340によって粗い位置検出を行い、特定部位の粗い存在位置あるいは存在範囲を絞り込む。次のステップとして絞り込まれた範囲内で、存在範囲に適したテンプレート画像を用いたテンプレートマッチングを行うことにより、検出対象の位置を正確に検出できる。 In this way, according to the controller 310B, as preprocessing, the discriminator 340 performs rough position detection to narrow down the rough existence position or existence range of the specific part. By performing template matching using a template image suitable for the existence range within the narrowed down range as the next step, the position of the detection target can be accurately detected.

(変形例4)
図15(a)~(c)は、変形例4に係るコントローラの処理を説明する図である。図15(a)は、あるシチュエーションにおいて得られた距離画像D2を示す。この距離画像D2が識別器340に入力され、パレット800の特定部位801が検出される。ただしその位置検出精度はそれほど高くはない。たとえば距離画像D2は複数の範囲900_1~900_N(この例ではN=9)に分割されており、識別器340は、複数の範囲900_1~900_Nのうち、特定部位801を含む範囲900を、注目領域(ROI:Region Of Interest)とし、ROIを部分距離画像D4としてパターンマッチング部360に供給する。またROIの位置を示す位置情報D5を、テンプレート画像生成部362に出力する。
(Modification 4)
15A to 15C are diagrams for explaining the processing of the controller according to Modification 4. FIG. FIG. 15(a) shows a distance image D2 obtained in a certain situation. This distance image D2 is input to the discriminator 340, and the specific portion 801 of the pallet 800 is detected. However, its position detection accuracy is not so high. For example, the distance image D2 is divided into a plurality of ranges 900_1 to 900_N (N=9 in this example). (ROI: Region Of Interest), and the ROI is supplied to the pattern matching unit 360 as the partial distance image D4. Also, position information D5 indicating the position of the ROI is output to the template image generator 362 .

テンプレート画像生成部362には、複数の範囲900_1~900_9それぞれに対応するテンプレート画像D6_1~D6_9が用意されている。テンプレート画像生成部362は、現在のROIが9番目の領域であるから、それに対応するテンプレート画像D6_9を選択し、パターンマッチング部360に供給する。 Template images D6_1 to D6_9 corresponding to a plurality of ranges 900_1 to 900_9 are prepared in the template image generation unit 362, respectively. Since the current ROI is the ninth region, the template image generator 362 selects the template image D6_9 corresponding thereto and supplies it to the pattern matching unit 360 .

パターンマッチング部360は、テンプレートマッチングにより、部分距離画像D4のなかから、テンプレート画像D6_9を検出し、特定部位801の位置を高精度に検出する。以上がコントローラ310Bの動作である。 The pattern matching unit 360 detects the template image D6_9 from the partial distance image D4 by template matching, and detects the position of the specific part 801 with high accuracy. The above is the operation of the controller 310B.

このようにコントローラ310Bによれば、前処理として、識別器340によって粗い位置検出を行い、特定部位の粗い存在位置あるいは存在範囲を絞り込む。そして絞り込まれた範囲内で、より適切なテンプレート画像を用いることにより、検出対象の位置を正確に検出できる。 In this way, according to the controller 310B, as preprocessing, the discriminator 340 performs rough position detection to narrow down the rough existence position or existence range of the specific part. By using a more appropriate template image within the narrowed range, the position of the detection target can be accurately detected.

(変形例5)
テンプレート画像生成部362は、テンプレート画像D6を、位置情報D5にもとづいてリアルタイムで生成してもよい。テンプレート画像生成部362には、パレット800の3次元モデルのデータを格納しておく。そして、仮想的な3次元空間内に、測距センサとパレット800のモデルを配置し、測距センサによって撮影されるであろう特定部分の距離画像を生成することができる。この場合、さらに位置検出精度を高めることができる。
(Modification 5)
The template image generator 362 may generate the template image D6 in real time based on the position information D5. The template image generator 362 stores the data of the three-dimensional model of the palette 800 . Then, by arranging the distance measuring sensor and the model of the pallet 800 in a virtual three-dimensional space, it is possible to generate a distance image of a specific portion that will be photographed by the distance measuring sensor. In this case, the position detection accuracy can be further improved.

(変形例6)
変形例3や4では、測距センサ302とパレット800の、水平方向/垂直方向に関する相対的な位置関係の違いについて議論した。変形例6では、測距センサ302とパレット800の奥行き方向の距離の違いについて検討する。測距センサ302からの見え方は、パレット800と測距センサ302の奥行き方向の距離によっても変化する。たとえばパレット800と測距センサ302が正対する場合であっても、それらの距離が変化すると、特定部位801の距離画像の大きさが変化する。
(Modification 6)
Modifications 3 and 4 discussed differences in the relative positional relationship between the distance measuring sensor 302 and the pallet 800 in the horizontal/vertical directions. In Modified Example 6, the difference in distance in the depth direction between the distance measurement sensor 302 and the pallet 800 will be examined. The appearance from the distance measurement sensor 302 also changes depending on the distance between the palette 800 and the distance measurement sensor 302 in the depth direction. For example, even when the pallet 800 and the distance measuring sensor 302 face each other, the size of the distance image of the specific portion 801 changes when the distance between them changes.

そこで位置情報D5は、測距センサ302と特定部位801の奥行き方向の距離情報を含んでもよい。テンプレート画像生成部362は、奥行き方向の距離に応じたテンプレート画像を生成することができる。最も簡易には、奥行きの方向の距離に応じてテンプレート画像を拡大・縮小してもよい。 Therefore, the position information D5 may include distance information between the range sensor 302 and the specific part 801 in the depth direction. The template image generator 362 can generate a template image according to the distance in the depth direction. Most simply, the template image may be enlarged or reduced according to the distance in the depth direction.

(変形例7)
実施の形態では搬送装置としてフォークリフトを例に説明したが、本発明の適用はその限りでなく、ハンドリフト(ハンドパレット)やAGV(Automatic Guided Vehicle)、フォークローダー(フォーク付きのホイルローダー)など、パレットを取り扱うさまざまな搬送装置に適用することができる。
(Modification 7)
In the embodiments, a forklift was described as an example of a transport device, but the application of the present invention is not limited to that. It can be applied to various conveying devices that handle pallets.

600 フォークリフト
602 車体
604 フォーク
606 昇降体
608 マスト
610 前輪
612 後輪
700 操縦席
702 イグニッションスイッチ
704 ステアリングホイール
706 リフトレバー
708 アクセルペダル
710 ブレーキペダル
712 前後進レバー
714 ダッシュボード
300 フォークリフト
302 測距センサ
303 カメラ
304 通知手段
306 ディスプレイ
308 スピーカ
310 コントローラ
320 マイコン
330 距離画像取得部
340 識別器
350 処理部
360 パターンマッチング部
362 テンプレート画像生成部
D1 測距データ
D2 距離画像
D3 画像データ
D4 部分距離画像
D5 位置情報
D6 テンプレート画像
800 パレット
801 特定部位
802 穴
804 桁
600 forklift 602 vehicle body 604 fork 606 lifting body 608 mast 610 front wheel 612 rear wheel 700 cockpit 702 ignition switch 704 steering wheel 706 lift lever 708 accelerator pedal 710 brake pedal 712 forward/reverse lever 714 dashboard 300 forklift 302 range sensor 30 3 camera 304 Notification means 306 Display 308 Speaker 310 Controller 320 Microcomputer 330 Range image acquisition unit 340 Discriminator 350 Processing unit 360 Pattern matching unit 362 Template image generation unit D1 Range data D2 Range image D3 Image data D4 Partial range image D5 Position information D6 Template image 800 pallet 801 specific part 802 hole 804 column

Claims (8)

測距センサと、
(i)前記測距センサの出力にもとづいて画素値が距離を表す距離画像を取得可能であり、(ii)前記距離画像にもとづいて、パレットまたはパレットの特定部位である検出対象を特定できるように機械学習により構成された識別器を有する演算部と、
を備え、
前記演算部は、前記識別器によって前記距離画像の中から前記検出対象の存在位置を示す位置情報を生成し、
前記演算部は、前記位置情報に応じたテンプレート画像を利用したテンプレートマッチングにより、前記検出対象の位置を相対的に高い精度で検出することを特徴とする搬送装置。
a ranging sensor;
(i) It is possible to acquire a distance image in which pixel values represent distances based on the output of the distance measuring sensor, and (ii) Based on the distance image, it is possible to specify a detection target, which is a pallet or a specific part of the pallet. A calculation unit having a discriminator configured by machine learning in
with
The calculating unit generates position information indicating the existing position of the detection target from the distance image by the classifier,
The conveying device, wherein the calculation unit detects the position of the detection target with relatively high accuracy by template matching using a template image corresponding to the position information.
前記検出対象は、前記パレットの穴と穴を区切る桁を含むことを特徴とする請求項1に記載の搬送装置。 2. The conveying apparatus according to claim 1, wherein said detection target includes girders separating holes of said pallet. 前記演算部は、予め保持している前記パレットの幾何学的な情報にもとづいて、前記穴の位置を特定することを特徴とする請求項2に記載の搬送装置。 3. The conveying apparatus according to claim 2, wherein the calculation unit specifies the positions of the holes based on prestored geometric information of the pallet. 前記検出対象を特定した後に、その結果を利用して、前記距離画像にもとづいて前記パレットの穴を特定することを特徴とする請求項1に記載の搬送装置。 2. The conveying apparatus according to claim 1, wherein after specifying the detection target, the hole in the pallet is specified based on the distance image by using the result. 前記パレットの穴の位置を、オペレータに視覚的に表示する表示部をさらに備えることを特徴とする請求項1から4のいずれかに記載の搬送装置。 5. The conveying apparatus according to any one of claims 1 to 4, further comprising a display for visually displaying the positions of the holes in the pallet to an operator. 現在の状態で前記搬送装置を走行させたときに、フォークが前記パレットの穴に挿入可能か否かをオペレータに通知する通知部をさらに備えることを特徴とする請求項1から4のいずれかに記載の搬送装置。 5. Any one of claims 1 to 4, further comprising a notification unit for notifying an operator whether or not the fork can be inserted into the hole of the pallet when the transport device is driven in the current state. A conveying device as described. 複数の前記テンプレート画像が予め用意されており、
前記演算部は、前記識別器の出力にもとづいて前記検出対象の位置を特定し、前記複数のテンプレート画像の中から、特定した位置に対応するひとつを選択することを特徴とする請求項1から6のいずれかに記載の搬送装置。
A plurality of template images are prepared in advance,
2. The operation unit specifies the position of the detection target based on the output of the discriminator, and selects one of the plurality of template images corresponding to the specified position. 7. The conveying device according to any one of 6 .
前記演算部は、前記テンプレート画像を、前記検出対象の存在位置にもとづいてリアルタイムで生成することを特徴とする請求項1から6のいずれかに記載の搬送装置。 7. The conveying apparatus according to any one of claims 1 to 6, wherein the calculation unit generates the template image in real time based on the existing position of the detection target.
JP2019145554A 2018-08-07 2019-08-07 Conveyor Active JP7300646B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018148358 2018-08-07
JP2018148358 2018-08-07

Publications (2)

Publication Number Publication Date
JP2020023397A JP2020023397A (en) 2020-02-13
JP7300646B2 true JP7300646B2 (en) 2023-06-30

Family

ID=69618232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145554A Active JP7300646B2 (en) 2018-08-07 2019-08-07 Conveyor

Country Status (1)

Country Link
JP (1) JP7300646B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102409821B1 (en) * 2020-10-19 2022-06-20 시그널시스템 주식회사 Pallet hole detection device and detection method
WO2023033550A1 (en) * 2021-08-31 2023-03-09 주식회사 파인에스엔에스 Apparatus for providing forklift interface on basis of image analysis, and operation method therefor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346654A (en) 2004-06-07 2005-12-15 Glory Ltd Image recognition device, image recognition method and program making computer execute the method
JP2007084162A (en) 2005-09-20 2007-04-05 Toyota Industries Corp Cargo handling supporting device of fork lift
JP2010189130A (en) 2009-02-18 2010-09-02 Nippon Yusoki Co Ltd Cargo handling support device for forklift
JP2015225453A (en) 2014-05-27 2015-12-14 村田機械株式会社 Object recognition device and object recognition method
US20160090283A1 (en) 2014-09-25 2016-03-31 Bt Products Ab Fork-Lift Truck
JP2017151650A (en) 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle
US20170316253A1 (en) 2016-04-27 2017-11-02 Crown Equipment Corporation Pallet detection using units of physical length

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143659A (en) * 1996-11-06 1998-05-29 Komatsu Ltd Object detector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346654A (en) 2004-06-07 2005-12-15 Glory Ltd Image recognition device, image recognition method and program making computer execute the method
JP2007084162A (en) 2005-09-20 2007-04-05 Toyota Industries Corp Cargo handling supporting device of fork lift
JP2010189130A (en) 2009-02-18 2010-09-02 Nippon Yusoki Co Ltd Cargo handling support device for forklift
JP2015225453A (en) 2014-05-27 2015-12-14 村田機械株式会社 Object recognition device and object recognition method
US20160090283A1 (en) 2014-09-25 2016-03-31 Bt Products Ab Fork-Lift Truck
JP2017151650A (en) 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle
US20170316253A1 (en) 2016-04-27 2017-11-02 Crown Equipment Corporation Pallet detection using units of physical length

Also Published As

Publication number Publication date
JP2020023397A (en) 2020-02-13

Similar Documents

Publication Publication Date Title
KR102326097B1 (en) Pallet detection using units of physical length
US11216673B2 (en) Direct vehicle detection as 3D bounding boxes using neural network image processing
US10156437B2 (en) Control method of a depth camera
JP6649796B2 (en) Object state specifying method, object state specifying apparatus, and carrier
JP7300646B2 (en) Conveyor
US20210078843A1 (en) Position and posture estimation system
JPH05201298A (en) Vehicle surrounding monitor device
US20200311964A1 (en) Object detection device and object detection method
KR20110027460A (en) A method for positioning and orienting of a pallet based on monocular vision
WO2021079790A1 (en) Operation assistance device for cargo handling vehicle
JP7426881B2 (en) Cargo handling support system
US20230237809A1 (en) Image processing device of person detection system
JP7192706B2 (en) Position and orientation estimation device
JP2022136849A (en) Container measurement system
CN112416000A (en) Unmanned formula car environment sensing and navigation method and steering control method
WO2022004495A1 (en) Obstacle detection device and obstacle detection method
JP7236705B2 (en) Method of generating teacher data used for learning transport equipment
JP2018178878A (en) Industrial vehicle
JP2020142903A (en) Image processing apparatus and control program
JP2022098320A (en) Work support device for forklift
JP2024006357A (en) Method for generating teacher data used for learning of transport device
JP2022152449A (en) Method for generating teacher data used for learning of transport device
EP4216177A1 (en) Image processing device of person detection system
KR102145753B1 (en) Rear detection device of reach stacker
JP7488991B2 (en) Industrial Vehicles

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230609

R150 Certificate of patent or registration of utility model

Ref document number: 7300646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150