JP2020142903A - Image processing apparatus and control program - Google Patents

Image processing apparatus and control program Download PDF

Info

Publication number
JP2020142903A
JP2020142903A JP2019041479A JP2019041479A JP2020142903A JP 2020142903 A JP2020142903 A JP 2020142903A JP 2019041479 A JP2019041479 A JP 2019041479A JP 2019041479 A JP2019041479 A JP 2019041479A JP 2020142903 A JP2020142903 A JP 2020142903A
Authority
JP
Japan
Prior art keywords
fork
image
display
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019041479A
Other languages
Japanese (ja)
Inventor
宗 及川
So Oikawa
宗 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019041479A priority Critical patent/JP2020142903A/en
Publication of JP2020142903A publication Critical patent/JP2020142903A/en
Pending legal-status Critical Current

Links

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Abstract

To provide a driver with information useful for operation of a forklift.SOLUTION: An image processing apparatus 20 comprises a display unit 27 attached to a position where the display unit 27 is visually recognizable from a driver seat of a forklift, photographing units 21a, 21b photographing the front of a car body of the forklift, an object detecting unit 31 detecting an object from a picture obtained by photographing of the photographing units, a speed acquiring unit 23 acquiring movement speed information of the car body, a fork state acquiring unit 24 acquiring state information regarding a posture and a position in a height direction, of the fork supported in a freely ascendable and descendable manner at the front side of the car body, a cargo detecting unit 22 detecting presence or absence of a cargo on the fork or a size of the cargo, and an image processing unit 32 determining working condition of the forklift according to state information of the fork acquired from the fork state acquiring unit 24 and detection results of the cargo detecting unit 22, and generating a display image according to the determined working conditions and causing the display unit 27 to display the generated image.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、および制御プログラムに関する。 The present invention relates to an image processing apparatus and a control program.

フォークリフトは、フォークにパレット上の荷物を載せて移動する。例えば運転者が進行方向を向いて運転席に座る座席式のフォークリフトにおいては、前方のフォーク上に、運転者の目線より高く荷積みした場合、前方に死角が出来てしまう。走行する場合には、運転者は、フォークリフトを後進させながら、移動する。しかし、荷役時は、前進が必要で運転者は、横に身をのり出して視認せざるを得ない。 The forklift moves by placing the luggage on the pallet on the fork. For example, in a seat-type forklift in which the driver faces the direction of travel and sits in the driver's seat, a blind spot is created in the front when the fork is loaded higher than the driver's line of sight. When traveling, the driver moves while moving the forklift backward. However, at the time of cargo handling, it is necessary to move forward, and the driver has no choice but to lean out to the side and visually recognize.

また、運転者からフォークの前方を視認しづらい高所棚での積み下ろし作業においても、フォークあるいはフォーク上のパレット差込口の位置決めを正確に、容易に行いたいとい要望がある。このような問題に対して特許文献1に開示されたフォークリフト用の画像処理装置では、フォークに前方を撮影するカメラを設け、撮影した画像に、フォーク、またはフォーク上のパレットの一部を表す縮小画像を重畳させ、ディスプレイに表示させている。 In addition, there is a demand for accurate and easy positioning of the fork or the pallet insertion port on the fork even in the loading / unloading work on a high-altitude shelf where it is difficult for the driver to see the front of the fork. In the image processing device for a forklift disclosed in Patent Document 1 to solve such a problem, a camera for photographing the front is provided on the fork, and the photographed image is reduced to represent a fork or a part of a palette on the fork. The image is superimposed and displayed on the display.

特開2007−84162号公報JP-A-2007-84162

特許文献1に開示された画像処理装置では、フォーク上のパレットセンサーの出力により、荷取り作業か、荷置き作業かを判別し、判別結果に応じた縮小画像を表示する。 In the image processing apparatus disclosed in Patent Document 1, the output of the pallet sensor on the fork is used to determine whether the work is a loading operation or a loading operation, and a reduced image is displayed according to the determination result.

しかしながら、荷役作業においては、フォークリフトのフォークに荷物の積み下ろしをする荷取り作業、荷置き作業だけでなく、荷物まで空のフォークリフトを移動したり、荷物を載せてからフォークリフトを移動させたりする別の作業も含まれる。また、荷物のサイズや、荷物を置く場所等の周囲環境により、運転者が必要とする情報は異なる。 However, in cargo handling work, not only the loading and unloading work of loading and unloading luggage on the fork of the forklift, but also the empty forklift is moved to the luggage, and the forklift is moved after loading the luggage. Work is also included. In addition, the information required by the driver differs depending on the size of the luggage and the surrounding environment such as the place where the luggage is placed.

本発明は、上記事情に鑑みてなされたものであり、運転者へフォークリフトの操作に役立つ情報を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driver with information useful for operating a forklift.

本発明の上記目的は、下記の手段によって達成される。 The above object of the present invention is achieved by the following means.

(1)フォークリフトの運転席から視認できる位置に取り付けられた表示部と、
前記フォークリフトに取り付けられ、前記フォークリフトの車体の前方を撮影する撮影部と、
前記撮影部の撮影により得られた映像から、物体を検出する物体検出部と、
前記車体の移動速度情報を取得する速度取得部と、
前記車体の前方側に昇降可能に支持されたフォークの姿勢、および高さ方向の位置に関する状態情報を取得するフォーク状態取得部と、
前記フォーク上の荷物の有無、または該荷物のサイズを検出する荷物検出部と、
前記物体検出部が検出した物体、前記速度取得部から取得した前記移動速度情報、前記フォーク状態取得部から取得した前記フォークの前記状態情報、および前記荷物検出部の検出結果に応じて、前記フォークリフトの作業状況を判定するとともに、判定した前記作業状況に応じた表示画像を生成し、前記表示部に表示させる画像処理部と、
を備える画像処理装置。
(1) A display unit mounted at a position visible from the driver's seat of the forklift
A photographing unit attached to the forklift and photographing the front of the vehicle body of the forklift,
An object detection unit that detects an object from the image obtained by shooting the imaging unit,
A speed acquisition unit that acquires the moving speed information of the vehicle body, and
A fork state acquisition unit that acquires state information regarding the posture of the fork that is vertically supported on the front side of the vehicle body and the position in the height direction, and
A luggage detection unit that detects the presence or absence of luggage on the fork or the size of the luggage,
The forklift according to the object detected by the object detection unit, the movement speed information acquired from the speed acquisition unit, the state information of the fork acquired from the fork state acquisition unit, and the detection result of the luggage detection unit. An image processing unit that determines the work status of the above, generates a display image according to the determined work status, and displays the display image on the display unit.
An image processing device comprising.

(2)前記画像処理部は、前記物体検出部が検出した物体の種類により警告対象の物体であるか否かを判定し、
前記画像処理部は、警告対象の物体に対する情報を前記表示画像に含ませる、上記(1)に記載の画像処理装置。
(2) The image processing unit determines whether or not the object is a warning target based on the type of the object detected by the object detection unit.
The image processing device according to (1) above, wherein the image processing unit includes information about an object to be warned in the display image.

(3)前記作業状況には、走行状態、荷取り状態、および荷置き状態が含まれ、
前記画像処理部は、
前記移動速度情報の速度が所定値を超えるとき、または、速度が前記所定値以下であり、かつ、前記状態情報において前記フォークの地面に対する傾斜が所定以上のときに前記走行状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がない場合、前記荷取り状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がある場合、前記荷置き状態と判定する、上記(1)、または上記(2)に記載の画像処理装置。
(3) The work situation includes a running state, a loading state, and a loading state.
The image processing unit
When the speed of the moving speed information exceeds the predetermined value, or when the speed is equal to or less than the predetermined value and the inclination of the fork with respect to the ground is equal to or more than the predetermined value in the state information, the traveling state is determined.
If there is no load on the fork when it is not in the running state, it is determined that the load is in the loading state.
The image processing device according to the above (1) or (2), wherein if there is a load on the fork when the vehicle is not in the running state, the load is determined to be in the loading state.

(4)前記走行状態である場合に、
前記画像処理部は、前記警告対象の物体の種類には荷物が含まれ、前記荷物を検出した際に、前記荷物の高さと、前記フォークの高さを判定し、
前記表示画像には、判定結果に応じた画像が含まれる、上記(3)に記載の画像処理装置。
(4) In the running state,
The image processing unit determines the height of the luggage and the height of the fork when the type of the object to be warned includes a luggage and detects the luggage.
The image processing apparatus according to (3) above, wherein the display image includes an image according to a determination result.

(5)前記荷取り状態である場合に、
前記画像処理部は、前記フォークの高さを判定し、
前記表示画像には、判定結果に応じた画像が含まれる、上記(3)、または上記(4)に記載の画像処理装置。
(5) When the cargo is in the pick-up state,
The image processing unit determines the height of the fork and determines the height of the fork.
The image processing apparatus according to (3) or (4) above, wherein the display image includes an image according to the determination result.

(6)前記荷置き状態である場合に、
前記画像処理部は、前記車体の前方の障害物の有無、および該障害物がある場合に該障害物の位置と前記荷物の幅とを判定し、
前記表示画像には、判定結果に応じた画像が含まれる、上記(3)から上記(5)のいずれかに記載の画像処理装置。
(6) In the case of the loading state,
The image processing unit determines the presence or absence of an obstacle in front of the vehicle body, and if there is an obstacle, the position of the obstacle and the width of the luggage.
The image processing apparatus according to any one of (3) to (5) above, wherein the display image includes an image according to a determination result.

(7)前記撮影部は、1本の前記フォークの先端部分に取り付けられたカメラを含む、上記(1)から上記(6)のいずれかに記載の画像処理装置。 (7) The image processing apparatus according to any one of (1) to (6) above, wherein the photographing unit includes a camera attached to the tip end portion of one of the forks.

(8)前記表示部は、前記車体の前方側に取付けられたコンバイナーに虚像を投影するヘッドアップディスプレイ、または、透過型の液晶ディスプレイである、上記(1)から上記(7)のいずれかに記載の画像処理装置。 (8) The display unit is any of the above (1) to (7), which is a head-up display that projects a virtual image onto a combiner attached to the front side of the vehicle body, or a transmissive liquid crystal display. The image processing device described.

(9)フォークリフトに用いられる画像処理装置であって、フォークリフトの運転席から視認できる位置に取り付けられた表示部、および前記フォークリフトに取り付けられ、車体の前方を撮影する撮影部を備える画像処理装置を制御するコンピューターで実行される制御プログラムであって、
前記撮影部により映像を取得するステップ(a)と、
前記ステップ(a)で取得した映像から、物体を検出するステップ(b)と、
前記車体の移動速度情報を取得するステップ(c)と、
前記車体の前方側に昇降可能に支持されたフォークの姿勢、および高さ方向の位置に関する状態情報を取得するステップ(d)と、
前記フォーク上の荷物の有無、または該荷物のサイズを検出するステップ(e)と、
前記ステップ(b)で検出した物体、前記ステップ(c)および(d)で得られた、移動速度情報、および前記フォークの前記状態情報、ならびに前記ステップ(e)の検出結果に応じて、前記フォークリフトの作業状況を判定するとともに、判定した前記作業状況に応じて表示画像を生成し、前記表示部に表示させるステップ(f)と、
を含む処理を実行させるための制御プログラム。
(9) An image processing device used for a forklift, which includes a display unit attached to a position visible from the driver's seat of the forklift and a photographing unit attached to the forklift to photograph the front of the vehicle body. A control program that runs on the controlling computer
In step (a) of acquiring an image by the photographing unit,
In step (b) of detecting an object from the image acquired in step (a),
In step (c) of acquiring the moving speed information of the vehicle body,
Step (d) of acquiring state information regarding the posture of the fork supported so as to be able to move up and down on the front side of the vehicle body and the position in the height direction, and
In step (e) of detecting the presence or absence of luggage on the fork or the size of the luggage,
According to the object detected in the step (b), the moving speed information obtained in the steps (c) and (d), the state information of the fork, and the detection result of the step (e). A step (f) of determining the work status of the forklift, generating a display image according to the determined work status, and displaying the display on the display unit.
A control program for executing processing including.

(10)前記作業状況には、走行状態、荷取り状態、および荷置き状態が含まれ、
前記ステップ(f)では、前記移動速度情報の速度が所定値を超えるとき、または、速度が前記所定値以下であり、かつ、前記状態情報において前記フォークの地面に対する傾斜が所定以上のときに前記走行状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がある場合、前記荷取り状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がない場合、前記荷置き状態と判定する、上記(9)に記載の制御プログラム。
(10) The work situation includes a running state, a loading state, and a loading state.
In the step (f), when the speed of the moving speed information exceeds a predetermined value, or when the speed is equal to or less than the predetermined value and the inclination of the fork with respect to the ground is equal to or more than the predetermined value in the state information. Judged as running condition,
If there is a load on the fork when it is not in the running state, it is determined that the load is in the loading state.
The control program according to (9) above, wherein when there is no load on the fork when the vehicle is not in the traveling state, it is determined that the load is placed.

本発明によれば、画像処理装置は、フォークリフトの運転席から視認できる位置に取り付けられた表示部と、フォークリフトに取り付けられ、フォークリフトの車体の前方を撮影する撮影部と、撮影部の撮影により得られた映像から、物体を検出する物体検出部と、車体の移動速度情報を取得する速度取得部と、車体の前方側に昇降可能に支持されたフォークの姿勢、および高さ方向の位置に関する状態情報を取得するフォーク状態取得部と、フォーク上の荷物の有無、または該荷物のサイズを検出する荷物検出部と、物体検出部が検出した物体、速度取得部から取得した移動速度情報、フォーク状態取得部から取得したフォークの状態情報、および荷物検出部の検出結果に応じて、フォークリフトの作業状況を判定するとともに、判定した作業状況に応じた表示画像を生成し、表示部に表示させる画像処理部と、を備える。これにより、作業状況に応じた画像を表示させることで、運転者へフォークリフトの操作に役立つ情報を提供できる。 According to the present invention, the image processing device is obtained by photographing a display unit attached to a position visible from the driver's seat of the forklift, a photographing unit attached to the forklift and photographing the front of the vehicle body of the forklift, and the photographing unit. A state relating to an object detection unit that detects an object, a speed acquisition unit that acquires movement speed information of the vehicle body, a fork that is supported so as to be able to move up and down on the front side of the vehicle body, and a position in the height direction from the captured image. The fork state acquisition unit that acquires information, the presence / absence of luggage on the fork, or the luggage detection unit that detects the size of the luggage, the object detected by the object detection unit, the moving speed information acquired from the speed acquisition unit, and the fork state. Image processing that determines the work status of the forklift according to the fork status information acquired from the acquisition unit and the detection result of the luggage detection unit, generates a display image according to the determined work status, and displays it on the display unit. It has a part. As a result, it is possible to provide the driver with information useful for operating the forklift by displaying an image according to the work situation.

フォークリフトの外観を示す側面図である。It is a side view which shows the appearance of a forklift. 1本のフォークの先端部に第1、第2カメラを取り付けた状態を示す模式図である。It is a schematic diagram which shows the state which the 1st and 2nd cameras are attached to the tip | tip portion of one fork. フォークの拡大図である。It is an enlarged view of a fork. 本実施形態に係る画像処理装置のハードウェア構成、および全体処理部の機能構成を示すブロック図である。It is a block diagram which shows the hardware structure of the image processing apparatus which concerns on this embodiment, and the functional structure of the whole processing part. 画像処理装置が実行する表示処理を示すフローチャートである。It is a flowchart which shows the display process which an image processing apparatus executes. 作業状況判定処理(S20)を示すサブルーチンフローチャートである。It is a subroutine flowchart which shows the work situation determination processing (S20). 表示画像生成処理(S30)を示すサブルーチンフローチャートである。It is a subroutine flowchart which shows the display image generation processing (S30). 表示画像生成処理(S30)を示すサブルーチンフローチャートである。It is a subroutine flowchart which shows the display image generation processing (S30). 表示画像生成処理(S30)を示すサブルーチンフローチャートである。It is a subroutine flowchart which shows the display image generation processing (S30). 走行状態の荷物がないフォークリフトを示す模式図である。It is a schematic diagram which shows the forklift which has no luggage in a running state. 図8Aの状況に対応する、表示種類1の表示画像の例である。This is an example of a display image of display type 1 corresponding to the situation of FIG. 8A. 走行状態の荷物を運ぶフォークリフトを示す模式図である。It is a schematic diagram which shows the forklift which carries the load in a running state. 図9Aの状況に対応する、表示種類2の表示画像の例である。It is an example of the display image of the display type 2 corresponding to the situation of FIG. 9A. 荷取り状態において表示する表示種類3、表示種類4の表示画像の例である。This is an example of display images of display type 3 and display type 4 to be displayed in the picked-up state. 荷置き状態において表示する表示種類3、表示種類4の表示画像の例である。It is an example of the display image of the display type 3 and the display type 4 to be displayed in the loading state.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また図面においては、上下方向をZ方向、フォークリフトの進行方向をX方向、これらに直交する方向をY方向とする。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. The dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios. Further, in the drawing, the vertical direction is the Z direction, the traveling direction of the forklift is the X direction, and the direction orthogonal to these is the Y direction.

(フォークリフト)
図1は、フォークリフトの外観を示す側面図である。フォークリフト10に画像処理装置20が取り付けられている。フォークリフト10は、車体11、運転席12、マスト13、フィンガバー14、1対のフォーク15、16、およびヘッドガード17を有する。フォーク15、16の上には、パレット91、およびこのパレット91上の荷物92が荷積みされている。車体11の前方には、上下方向に伸縮可能なマスト13が設けられる。フォーク15、16はフィンガバー14に支持されており、フィンガバー14を介してマスト13に上下に昇降可能に取り付けられる。マスト13に取り付けられたチェーン(図示せず)とホイールを介して、フィンガバー14がマスト13に沿って上下に移動することで、フォーク15、16は、上下方向で位置制御される。また、フォーク15、16の地面(走行面)に対する傾斜角度(チルト)や両フォーク15、16間の開き角度、間隔は、フィンガバー14内にある油圧シリンダー(図示せず)により所定範囲内で変更可能である。
(forklift)
FIG. 1 is a side view showing the appearance of a forklift. An image processing device 20 is attached to the forklift 10. The forklift 10 has a vehicle body 11, a driver's seat 12, a mast 13, a finger bar 14, a pair of forks 15 and 16, and a head guard 17. A pallet 91 and a load 92 on the pallet 91 are loaded on the forks 15 and 16. A mast 13 that can be expanded and contracted in the vertical direction is provided in front of the vehicle body 11. The forks 15 and 16 are supported by the finger bar 14, and are attached to the mast 13 via the finger bar 14 so as to be vertically movable. The forks 15 and 16 are positioned in the vertical direction by moving the finger bar 14 up and down along the mast 13 via a chain (not shown) attached to the mast 13 and a wheel. Further, the inclination angle (tilt) of the forks 15 and 16 with respect to the ground (running surface), the opening angle between the forks 15 and 16, and the interval are within a predetermined range by the hydraulic cylinder (not shown) in the finger bar 14. It can be changed.

(カメラ21a、21b)
図2は、1本のフォークの先端部にフォークカメラとして第1、第2カメラ21a、21bを取り付けた状態を示す模式図である。図3は、フォークの拡大平面図である。
(Camera 21a, 21b)
FIG. 2 is a schematic view showing a state in which the first and second cameras 21a and 21b are attached to the tip of one fork as a fork camera. FIG. 3 is an enlarged plan view of the fork.

図2に示すように、フォークリフト10の2本のフォーク15、16のうち、1本のフォーク15の先端部分に、ステレオ視(複眼ともいう)するための2台のカメラ21a、21bを車体11の前方が撮影領域となるように取り付けている。このカメラ21a、21bは撮影部として機能する。また、フォーク15の幅方向(Y方向)において、両カメラ21a、21bは所定間隔(基線長)だけ離している。同図に示す例では、左側のフォーク15に2台のカメラを取り付けているが、これに限られず、右側のフォーク16に取り付けてもよい。カメラ21a、21bと後述する全体処理部26とは、ケーブル(図示せず)または無線で接続しており、映像信号が全体処理部26に伝送される。第1、第2カメラ21a、21bは、それぞれCCD、またはCMOS等の可視光領域に感度を有する撮像素子と、レンズ等の光学系を備え、フォークリフト10の前方を撮影し映像を生成する。以下においては、2つのカメラ21a、21bを区別しない場合には、これらをまとめて単に「カメラ21」ともいう。 As shown in FIG. 2, of the two forklifts 15 and 16 of the forklift 10, two cameras 21a and 21b for stereo viewing (also referred to as compound eyes) are attached to the vehicle body 11 at the tip of one fork 15. It is installed so that the front of the camera is the shooting area. The cameras 21a and 21b function as a photographing unit. Further, in the width direction (Y direction) of the fork 15, both cameras 21a and 21b are separated by a predetermined interval (baseline length). In the example shown in the figure, two cameras are attached to the fork 15 on the left side, but the present invention is not limited to this, and the fork 16 on the right side may be attached. The cameras 21a and 21b and the overall processing unit 26 described later are connected by a cable (not shown) or wirelessly, and a video signal is transmitted to the overall processing unit 26. The first and second cameras 21a and 21b each include an image pickup element having sensitivity in a visible light region such as CCD or CMOS and an optical system such as a lens, and photograph the front of the forklift 10 to generate an image. In the following, when the two cameras 21a and 21b are not distinguished, they are collectively referred to simply as "camera 21".

フォーク15のサイズの例としては、厚みが10mmで、幅が100mm、テーパー部はR(半径)60mmであり、X方向において先端s1から40mmまで、Y方向において側面から40mmまでがテーパー部である。なお、他の適用例として、側面のみならず、下面側にもテーパー面が設けられたフォーク15を用いた場合には、そのテーパー部にカメラ21a、21bを配置するようにしてもよい。 As an example of the size of the fork 15, the thickness is 10 mm, the width is 100 mm, the tapered portion is R (radius) 60 mm, and the tapered portion is from the tip s1 to 40 mm in the X direction and from the side surface to 40 mm in the Y direction. .. As another application example, when a fork 15 having a tapered surface provided not only on the side surface but also on the lower surface side is used, the cameras 21a and 21b may be arranged on the tapered portion.

フォーク15のテーパー部の左右両側にはそれぞれ、円柱状の穴が設けられており、カメラ21a、21bはそれぞれ、この穴に埋め込まれている。カメラ21a、21bはレンズの前面が、テーパー部の外周面からわずかに突出するように配置する方が広い画角を確保できる点で好ましいが、使用時のフォーク15の床面等への衝突による破損の観点から、円柱状の穴の開口面よりも内側に配置することがより好ましい。 Cylindrical holes are provided on both the left and right sides of the tapered portion of the fork 15, and the cameras 21a and 21b are embedded in the holes, respectively. It is preferable to arrange the cameras 21a and 21b so that the front surface of the lens slightly protrudes from the outer peripheral surface of the tapered portion in that a wide angle of view can be secured, but due to a collision of the fork 15 with the floor surface or the like during use. From the viewpoint of breakage, it is more preferable to arrange it inside the opening surface of the columnar hole.

測距するために物体をステレオ視(立体視)するときは、2台のカメラ21a、21bの撮影領域を重複させる必要がある。広い視界(画角)を確保し、より多くの領域が重なるようにするためには側面または下面のテーパー部にカメラ21a、21bを設けることが好ましい。図3に示すように、側面側のテーパー部に配置した2台のカメラ21a、21bは、フォーク15の前方側に向けて広い画角を確保できる。このような配置の2台のカメラ21a、21bと、全体処理部26と協働することで物体までの距離を検知し、測距点群データ(「3次元距離マップ」ともいう)を生成する。 When viewing an object in stereo (stereoscopic view) for distance measurement, it is necessary to overlap the imaging areas of the two cameras 21a and 21b. In order to secure a wide field of view (angle of view) and allow more regions to overlap, it is preferable to provide cameras 21a and 21b on the tapered portion on the side surface or the lower surface. As shown in FIG. 3, the two cameras 21a and 21b arranged in the tapered portion on the side surface side can secure a wide angle of view toward the front side of the fork 15. By cooperating with the two cameras 21a and 21b arranged in this way and the overall processing unit 26, the distance to the object is detected and the AF point cloud data (also referred to as "three-dimensional distance map") is generated. ..

(画像処理装置20の構成)
次に、図1とともに、図4を参照し、画像処理装置20の構成について説明する。図4は、画像処理装置20のハードウェア構成、および全体処理部26の機能構成を示すブロック図である。
(Configuration of image processing device 20)
Next, the configuration of the image processing device 20 will be described with reference to FIG. 1 and FIG. FIG. 4 is a block diagram showing a hardware configuration of the image processing device 20 and a functional configuration of the overall processing unit 26.

図1、図4に示すように画像処理装置20は、上述のフォーク用のカメラ21に加えて、荷物センサー22、車体速度センサー23、フォーク状態センサー24、サイドカメラ25、全体処理部26、およびディスプレイ27を備える。 As shown in FIGS. 1 and 4, in addition to the fork camera 21 described above, the image processing device 20 includes a luggage sensor 22, a vehicle body speed sensor 23, a fork state sensor 24, a side camera 25, an overall processing unit 26, and an overall processing unit 26. A display 27 is provided.

全体処理部26は、CPU(Central Processing Unit)とメモリを備え、メモリに保存した制御プログラムをCPUが実行することで画像処理装置20全体の各種制御を行う。全体処理部26が担う各機能については後述する。 The overall processing unit 26 includes a CPU (Central Processing Unit) and a memory, and the CPU executes a control program stored in the memory to perform various controls on the entire image processing apparatus 20. Each function of the overall processing unit 26 will be described later.

(荷物センサー22)
荷物センサー22は、荷物検出部として機能する。荷物センサー22は、フィンガバー14に配置され、フォーク15、16上に荷物92(パレット91も含む)が載っているか否かを判定する。荷物センサー22は、例えば、発光部と受光部と備える光学式のセンサーであり、荷物へ照射した光の反射光により、荷物の有無を検知する。
(Luggage sensor 22)
The luggage sensor 22 functions as a luggage detection unit. The luggage sensor 22 is arranged on the finger bar 14 and determines whether or not the luggage 92 (including the pallet 91) is placed on the forks 15 and 16. The luggage sensor 22 is, for example, an optical sensor provided with a light emitting unit and a light receiving unit, and detects the presence or absence of luggage by the reflected light of the light radiated to the luggage.

(車体速度センサー23)
車体速度センサー23は、速度取得部として機能する。車体速度センサー23は、加速度センサー、およびジャイロセンサーを含み、検知した車体11の移動速度情報を出力する。なお、フォークリフト10と画像処理装置20の取得部261(後述)を電気的に接続し、この取得部261を速度取得部として機能させてもよい。取得部261によりフォークリフト10から車体11の移動速度情報を取得する。これにより車体速度センサー23を省略できる。
(Vehicle speed sensor 23)
The vehicle body speed sensor 23 functions as a speed acquisition unit. The vehicle body speed sensor 23 includes an acceleration sensor and a gyro sensor, and outputs the detected movement speed information of the vehicle body 11. The forklift 10 and the acquisition unit 261 (described later) of the image processing device 20 may be electrically connected, and the acquisition unit 261 may function as a speed acquisition unit. The acquisition unit 261 acquires the moving speed information of the vehicle body 11 from the forklift 10. As a result, the vehicle body speed sensor 23 can be omitted.

(フォーク状態センサー24)
フォーク状態センサー24は、フォーク状態取得部として機能する。フォーク状態センサー24は、例えばフィンガバー14に配置される。フォーク状態センサー24が検知するフォークの状態情報には、フォーク15(およびフォーク16)の姿勢、すなわち地面に対する傾斜角度(チルト)の情報、および、フォーク15のマスト13に対する高さ、すなわち、地面に対する高さの位置情報が含まれる。これらのセンサーは、例えばアクチュエータと光学素子から構成される。また、両フォーク15、16の開き角度、および間隔を検知するセンサーを含めてもよい。なお、これらのセンサーは、加速度センサーやジャイロセンサーで構成し、車体速度センサー23と共通化してもよい。加速度センサーやジャイロセンサーにより、角速度情報や旋回角度速度情報を取得でき、これらによりフォーク15のマスト13、すなわち車体11、または周囲に対する相対的な位置を把握できる。さらに、他の例として、上述の変形例のようにフォークリフト10と画像処理装置20の取得部261を電気的に接続し、この取得部261をフォーク状態取得部として機能させてもよい。取得部261によりフォークリフト10からフォーク15の姿勢情報、高さの位置情報を取得する。
(Fork state sensor 24)
The fork state sensor 24 functions as a fork state acquisition unit. The fork state sensor 24 is arranged, for example, on the finger bar 14. The fork state information detected by the fork state sensor 24 includes information on the posture of the fork 15 (and fork 16), that is, the inclination angle (tilt) with respect to the ground, and the height of the fork 15 with respect to the mast 13, that is, with respect to the ground. Contains height position information. These sensors are composed of, for example, an actuator and an optical element. Further, a sensor for detecting the opening angle and the distance between the forks 15 and 16 may be included. In addition, these sensors may be composed of an acceleration sensor and a gyro sensor, and may be shared with the vehicle body speed sensor 23. Angular velocity information and turning angular velocity information can be acquired by an acceleration sensor or a gyro sensor, and the position of the fork 15 relative to the mast 13, that is, the vehicle body 11, or the surroundings can be grasped. Further, as another example, the forklift 10 and the acquisition unit 261 of the image processing device 20 may be electrically connected as in the above-described modification, and the acquisition unit 261 may function as a fork state acquisition unit. The acquisition unit 261 acquires posture information and height position information of the fork 15 from the forklift 10.

(サイドカメラ25)
サイドカメラ25は、カメラ21と同様の構成を備え、フォークリフト10の前方を撮影し、映像を生成する。このサイドカメラ25も撮影部として機能する。サイドカメラ25は、運転席12の座席のバックレスト横に設置され(図1参照)、車体11の前方を撮影する。サイドカメラ25は、運転者の目線からは認識できない位置を撮影できるように、運転席からなるべく離れた位置に、前方を撮影するように配置されることが好ましい。サイドカメラ25は、運転席12、またはヘッドガード17に取り付けられる。
(Side camera 25)
The side camera 25 has the same configuration as the camera 21, and photographs the front of the forklift 10 to generate an image. This side camera 25 also functions as a photographing unit. The side camera 25 is installed next to the backrest of the driver's seat 12 (see FIG. 1), and photographs the front of the vehicle body 11. The side camera 25 is preferably arranged so as to photograph the front at a position as far as possible from the driver's seat so that the side camera 25 can photograph a position that cannot be recognized from the driver's line of sight. The side camera 25 is attached to the driver's seat 12 or the head guard 17.

(全体処理部26)
全体処理部26は、主にCPU、メモリ、入出力I/F(インターフェース)で構成され、画像処理装置20全体の処理を行う。図4に示すように、全体処理部26は、取得部261、制御部262、画像出力部263として機能する。
(Overall processing unit 26)
The overall processing unit 26 is mainly composed of a CPU, a memory, and an input / output I / F (interface), and processes the entire image processing apparatus 20. As shown in FIG. 4, the overall processing unit 26 functions as an acquisition unit 261, a control unit 262, and an image output unit 263.

(取得部261)
取得部261は、入出力I/Fであり、上述のカメラ、センサー等の電気部品と接続し、映像信号、荷物の有無情報、移動速度情報、フォーク高さ、傾斜情報、等の信号を取得する。取得した信号は、制御部262に送られる。
(Acquisition unit 261)
The acquisition unit 261 is an input / output I / F, and is connected to the above-mentioned electric parts such as a camera and a sensor to acquire signals such as a video signal, luggage presence / absence information, movement speed information, fork height, and inclination information. To do. The acquired signal is sent to the control unit 262.

(制御部262)
制御部262は、物体検出部31、画像処理部32として機能する。
(Control unit 262)
The control unit 262 functions as an object detection unit 31 and an image processing unit 32.

(物体検出部31)
物体検出部31は、1組の画像の抽出した特徴点から共通の対応点を抽出し、それらの対応点から変換パラメータを用いて、特徴点それぞれまでの距離を算出する。例えば左右に配置した1対のカメラ21a、21bにおいて、基線長を用いて、同じ対応点の左右の画素値のズレ量に応じてそれぞれの画素の距離値を算出し(測距)、3次元距離マップを生成する。
(Object detection unit 31)
The object detection unit 31 extracts common corresponding points from the extracted feature points of a set of images, and calculates the distance to each feature point from the corresponding points using conversion parameters. For example, in a pair of cameras 21a and 21b arranged on the left and right, the distance value of each pixel is calculated according to the amount of deviation of the left and right pixel values of the same corresponding point using the baseline length (distance measurement), and three-dimensional. Generate a distance map.

また、物体検出部31は、フォークリフト10の前方にある物体の検出、および検出した物体の3次元空間での位置を、生成した距離マップを用いて検出する。検出する物体には、荷物92、パレット91、人物(作業者)、および、棚、通路上の障害物等の他の物体が含まれる。この物体の検出は、例えば各画素の距離値の類似度に応じて画素をクラスタリングすることにより行ってもよい。また、距離値の類似度に、画素の色の類似度を組み合わせてクラスタリングしてもよい。クラスタリングより判定した各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、物体検出部31は算定したサイズが、抽出対象の解析対象の物体を特定するための所定のサイズ閾値以上か否か判定する。サイズ閾値は、測定場所や行動解析対象等により任意に設定できる。通行する作業者を追跡して行動を解析するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。サイズ閾値未満の物体は除かれる。また、フォークリフト10が走行する環境が特定の倉庫内等で限定されるのであれば、その環境に存在する物体に応じたサイズ閾値を適用してもよい。また物体検出部31は、生成したフォークリフト10(車体11)前方における、所定サイズ以上の物体それぞれの大きさ、位置の情報が含まれる3次元距離マップを画像処理装置20の内部メモリ、または、サーバー等の外部メモリに蓄積する。 Further, the object detection unit 31 detects an object in front of the forklift 10 and detects the position of the detected object in the three-dimensional space by using the generated distance map. Objects to be detected include luggage 92, pallets 91, people (workers), and other objects such as shelves and obstacles on aisles. The detection of this object may be performed, for example, by clustering the pixels according to the similarity of the distance values of the pixels. Further, clustering may be performed by combining the similarity of the distance values with the similarity of the color of the pixels. Calculate the size of each cluster determined from clustering. For example, the vertical dimension, the horizontal dimension, the total area, and the like are calculated. The "size" referred to here is an actual size, and is different from the apparent size (angle of view, that is, the spread of pixels), and a block of pixel groups is determined according to the distance to the object. For example, the object detection unit 31 determines whether or not the calculated size is equal to or larger than a predetermined size threshold value for identifying the object to be analyzed to be extracted. The size threshold can be arbitrarily set depending on the measurement location, the behavior analysis target, and the like. If the behavior is analyzed by tracking the passing workers, the minimum value of the size of a normal person may be used as the size threshold value for clustering. Objects below the size threshold are excluded. Further, if the environment in which the forklift 10 travels is limited in a specific warehouse or the like, a size threshold value corresponding to an object existing in that environment may be applied. Further, the object detection unit 31 creates a three-dimensional distance map including information on the size and position of each object of a predetermined size or larger in front of the generated forklift 10 (vehicle body 11) in the internal memory of the image processing device 20 or a server. Etc. are stored in the external memory.

また、物体の種類として人間と他の物体との判別については、機械学習を用いたり、プロポーション判別(縦横比)を用いたりしてもよい。機械学習では、コンピューターが、得られた3次元距離マップのデータ、および正解ラベルデータを用いて、学習を繰り返す。特に作業空間内においては、甚大な事故を防ぐために、作業者を判別することは重要であり、これらを用いることにより判別精度の向上が見込まれる。 Further, as the type of the object, machine learning may be used or proportion discrimination (aspect ratio) may be used for discriminating between a human being and another object. In machine learning, a computer repeats learning using the obtained three-dimensional distance map data and correct label data. Especially in the work space, it is important to discriminate the worker in order to prevent a serious accident, and it is expected that the discriminating accuracy will be improved by using these.

なお、物体検出部31は、荷物センサー22と協働することで、荷物のサイズを検出する荷物検出部としても機能する。パレット91に載った荷物92をフォーク15、16に載せる直前にパレット91を含む荷物92全体のサイズを検出し、これを内部メモリに記憶する。これにより、フォーク15、16に載せた荷物のサイズを把握できる。このサイズには、荷物92(パレット91を含む)の高さ、幅(Y方向長さ)のサイズが含まれる。 The object detection unit 31 also functions as a luggage detection unit that detects the size of the luggage by cooperating with the luggage sensor 22. Immediately before loading the luggage 92 on the pallet 91 on the forks 15 and 16, the size of the entire luggage 92 including the pallet 91 is detected and stored in the internal memory. As a result, the size of the luggage placed on the forks 15 and 16 can be grasped. This size includes the height and width (length in the Y direction) of the luggage 92 (including the pallet 91).

さらに、1対のカメラ21a、21bの映像により測距を行う構成ではなく、1つのカメラ21aにより、測距を行うようにしてもよい。例えば、カメラ21bの位置に投光器を配置し、投光器から所定タイミングで、格子状の複数のライン、またはドットで構成されるパターン光を照射することにより、測距し、測距点群データを生成するようにしてもよい。 Further, the distance measurement may be performed by one camera 21a instead of the configuration in which the distance measurement is performed by the images of the pair of cameras 21a and 21b. For example, by arranging a floodlight at the position of the camera 21b and irradiating the floodlight with a pattern light composed of a plurality of grid-like lines or dots at a predetermined timing, the distance is measured and the focus point cloud group data is generated. You may try to do it.

(画像処理部32)
画像処理部32は、作業状況判定部321、警告判定部322、および画像生成部323を含む。画像処理部32は、フォークリフト10の作業状況を判定し、判定に応じた画像を生成する。また、物体検出部31が検出した前方の物体の種類、および物体までの相対的位置(距離)に応じた警告処理を行う。
(Image processing unit 32)
The image processing unit 32 includes a work status determination unit 321, a warning determination unit 322, and an image generation unit 323. The image processing unit 32 determines the working status of the forklift 10 and generates an image according to the determination. In addition, warning processing is performed according to the type of the object in front detected by the object detection unit 31 and the relative position (distance) to the object.

(作業状況判定部321)
作業状況判定部321は、物体検出部31が検出した物体、取得部261を経由して取得した移動速度情報、フォークの状態情報、荷物検出部の検出結果に応じて、フォークリフト10の作業状況を判定する。判定する作業状況には、荷物の搬送を行うための目的地まで移動する「走行状態」、目的地で荷物をフォークに載せる「荷取り状態」、および目的地の棚等に荷物を置く「荷置き状態」が含まれる。
(Work status determination unit 321)
The work status determination unit 321 determines the work status of the forklift 10 according to the object detected by the object detection unit 31, the moving speed information acquired via the acquisition unit 261, the fork state information, and the detection result of the luggage detection unit. judge. The work status to be judged includes the "running state" of moving to the destination for transporting the luggage, the "picking condition" of placing the luggage on the fork at the destination, and the "loading state" of placing the luggage on the shelf of the destination. "Placed state" is included.

(警告判定部322)
警告判定部322は、物体検出部31が検出した物体、人物に対する警告を発するか否かを判定する。例えば、車体11の移動方向の所定距離内に人物が存在すれば、運転者に警告を行う。警告は、ディスプレイ27を通じて行うが(例えば後述の図8Bの表示画像271)、フォークリフト10に設けた警告灯やスピーカー(いずれも図示せず)により、行ってもよい。
(Warning judgment unit 322)
The warning determination unit 322 determines whether or not to issue a warning to the object or person detected by the object detection unit 31. For example, if a person exists within a predetermined distance in the moving direction of the vehicle body 11, the driver is warned. Although the warning is given through the display 27 (for example, the display image 271 in FIG. 8B described later), the warning may be given by a warning light or a speaker (neither shown) provided on the forklift 10.

(画像生成部323)
画像生成部323は、物体検出部31、作業状況判定部321、警告判定部322の処理結果に基づいて、ディスプレイ27に表示する表示画像を生成する。
(Image generation unit 323)
The image generation unit 323 generates a display image to be displayed on the display 27 based on the processing results of the object detection unit 31, the work status determination unit 321 and the warning determination unit 322.

(画像出力部263)
画像出力部263は、画像生成部323が生成した表示画像をリアルタイムに、ディスプレイ27に出力し、運転者に表示する。
(Image output unit 263)
The image output unit 263 outputs the display image generated by the image generation unit 323 to the display 27 in real time and displays it to the driver.

(ディスプレイ27)
ディスプレイ27は、表示部として機能する。ディスプレイ27は、フォークリフト10の運転席12から視認できる位置に取り付けられる。ディスプレイ27としては、例えばHUD(ヘッドアップディスプレイ)を適用できる。HUDを適用した場合には、ディスプレイ27は、半透過性を有する凹面鏡または平面鏡であるコンバイナーを備え、コンバイナーに虚像を投影する。虚像としては、上述の全体処理部26が生成した表示画像である。このコンバイナーは、運転席12の正面側に配置され、運転席12座った運転者は、コンバイナーを通じて、その先にある実像(フォーク15、16、荷物92等)を視認できるとともに、コンバイナーが反射する虚像を同時に認識できる。HUDとすることで、たとえ、コンバイナーを運転席の正面側に配置したとしても、映像を投影していないときには、コンバイナーは透明になるので、前方への視界を妨げることはない。
(Display 27)
The display 27 functions as a display unit. The display 27 is attached at a position visible from the driver's seat 12 of the forklift 10. As the display 27, for example, a HUD (head-up display) can be applied. When the HUD is applied, the display 27 comprises a combiner that is a semitransparent concave or plane mirror and projects a virtual image onto the combiner. The virtual image is a display image generated by the above-mentioned overall processing unit 26. This combiner is arranged on the front side of the driver's seat 12, and the driver sitting in the driver's seat 12 can see the real image (forks 15, 16, luggage 92, etc.) ahead of the combiner through the combiner, and the combiner reflects. You can recognize virtual images at the same time. By using the HUD, even if the combiner is placed in front of the driver's seat, the combiner becomes transparent when no image is projected, so that the forward visibility is not obstructed.

また、ディスプレイ27の他の例として、透過型の液晶ディスプレイを適用してもよい。透過型液晶ディスプレイによってもHUDと同等に前方への視界を妨げることはない。 Further, as another example of the display 27, a transmissive liquid crystal display may be applied. The transmissive liquid crystal display does not obstruct the forward view as much as the HUD.

(画像表示処理)
以下、図5から図11を参照し、画像処理装置20が実行する表示処理について説明する。図5は、表示処理を示すフローチャートであり、図6、図7A〜図7Cは、図5の一部の処理を示すサブルーチンフローチャートである。
(Image display processing)
Hereinafter, the display processing executed by the image processing apparatus 20 will be described with reference to FIGS. 5 to 11. FIG. 5 is a flowchart showing the display process, and FIGS. 6 and 7A to 7C are subroutine flowcharts showing a part of the process of FIG.

(ステップS10)
制御部262は、取得部261を通じて、上述のカメラ21、荷物センサー22、車体速度センサー23、フォーク状態センサー24、およびサイドカメラ25の各種のカメラ、センサー等の電気部品から、映像信号、荷物の有無情報、移動速度情報、フォーク高さ、傾斜情報、等の信号を取得する。
(Step S10)
Through the acquisition unit 261, the control unit 262 receives video signals and luggage from the above-mentioned camera 21, luggage sensor 22, vehicle body speed sensor 23, fork state sensor 24, and various cameras and sensors of the side camera 25. Acquire signals such as presence / absence information, moving speed information, fork height, and inclination information.

(ステップS20)
制御部262は、ステップS10で取得した信号から、作業状況を判定する。図6は、ステップS20の作業状況判定処理を示すサブルーチンフローチャートである。
(Step S20)
The control unit 262 determines the work status from the signal acquired in step S10. FIG. 6 is a subroutine flowchart showing the work status determination process in step S20.

(ステップS210)
画像処理部32の作業状況判定部321は、車体速度センサー23から取得した移動速度情報から、現在の車体速度が所定値を超えているか否かを判定する。所定値としては、例えば時速2〜10kmの範囲の任意の値を適用できる。例えば所定値が時速3kmとすると、車体11がこの所定値を超えた速度で移動していれば(YES)、処理をステップS220に進め、所定値以下であれば(NO)、処理をステップS230に進める。
(Step S210)
The work status determination unit 321 of the image processing unit 32 determines whether or not the current vehicle body speed exceeds a predetermined value from the movement speed information acquired from the vehicle body speed sensor 23. As the predetermined value, for example, any value in the range of 2 to 10 km / h can be applied. For example, assuming that the predetermined value is 3 km / h, if the vehicle body 11 is moving at a speed exceeding the predetermined value (YES), the process proceeds to step S220, and if it is equal to or less than the predetermined value (NO), the process is performed in step S230. Proceed to.

(ステップS220)
作業状況判定部321は、作業状況を「走行状態」と判定する。以上によりサブルーチンフローチャートの処理を終了し、図5のメインの処理に戻る(エンド(リターン))。
(Step S220)
The work status determination unit 321 determines the work status as a "running state". As described above, the processing of the subroutine flowchart is completed, and the process returns to the main processing of FIG. 5 (end (return)).

(ステップS230)
作業状況判定部321は、さらに、ステップS10で取得したフォーク15、16の状態情報に基づいて、フォーク15、16の傾斜を判定する。所定値以上の傾斜角度があれば、すなわち、水平面に対して所定以上の傾斜角度で、フォーク15、16の先端側が根元側よりも高くなる向きに傾いていれば(YES)、処理をステップS220に進める。この場合も判定結果は「走行状態」となる。一方で、傾斜していなければ(NO)、処理をステップS240に進める。
(Step S230)
The work status determination unit 321 further determines the inclination of the forks 15 and 16 based on the state information of the forks 15 and 16 acquired in step S10. If there is an inclination angle equal to or more than a predetermined value, that is, if the inclination angle is equal to or more than a predetermined value with respect to the horizontal plane and the tip side of the forks 15 and 16 is inclined to be higher than the root side (YES), the process is performed in step S220. Proceed to. In this case as well, the determination result is the "running state". On the other hand, if it is not tilted (NO), the process proceeds to step S240.

(ステップS240)
作業状況判定部321は、ステップS10で取得した荷物センサー22からの信号により、フォーク15、16上に荷物92があるか否かを判定する。荷物92がなければ(NO)、処理をステップS250に進め、荷物92があれば(YES)、処理をステップS260に進める。
(Step S240)
The work status determination unit 321 determines whether or not the luggage 92 is on the forks 15 and 16 based on the signal from the luggage sensor 22 acquired in step S10. If there is no baggage 92 (NO), the process proceeds to step S250, and if there is baggage 92 (YES), the process proceeds to step S260.

(ステップS250、S260)
作業状況判定部321は、ステップS250では作業状況を「荷取り状態」と判定し、ステップS260では、「荷置き状態」と判定する。以上によりサブルーチンフローチャートの処理を終了し、図5のメインの処理に戻る(エンド(リターン))。
(Steps S250, S260)
The work status determination unit 321 determines the work status as the “loading state” in step S250, and determines the work status as the “loading state” in step S260. As described above, the processing of the subroutine flowchart is completed, and the process returns to the main processing of FIG. 5 (end (return)).

(ステップS30)
図5のステップS30では、ステップS20(図6)で判定した作業状況に応じた表示画像を生成する。図7A〜図7Cは、ステップS30の表示画像生成処理を示すサブルーチンフローチャートである。
(Step S30)
In step S30 of FIG. 5, a display image corresponding to the work situation determined in step S20 (FIG. 6) is generated. 7A to 7C are subroutine flowcharts showing the display image generation process of step S30.

(走行状態)
(ステップS310)
画像処理部32は、ステップS20で判定された作業状況が「走行状態」であれば処理を、次のステップS320に進め、作業状況が「荷取り状態」であれば処理をステップS410(図7B)に進める(丸数字40で示す)。また、画像処理部32は、作業状況が「荷置き状態」であれば処理をステップS510(図7C)に進める(丸数字50で示す)。
(Running condition)
(Step S310)
The image processing unit 32 proceeds to the next step S320 if the work status determined in step S20 is the "running state", and proceeds to the process if the work status is the "pick-up state" in step S410 (FIG. 7B). ) (Indicated by the circled number 40). Further, if the work status is "loading state", the image processing unit 32 proceeds to the process in step S510 (FIG. 7C) (indicated by the circled number 50).

(ステップS320)
警告判定部322は、物体検出部31が検出した物体から、所定位置に警告対象の物体が検出されたか否かを判定する。警告対象の物体としては、例えば、フォークリフト10の移動方向の前方に人物がいる場合には、将来的に接触する可能性があるものとして、この人物を警告対象の物体として検出する。また、フォークリフト10と接触する可能性がある、壁、柱、路上の放置物、等の障害物を検出した場合には、これを警告対象の物体として検出する。画像処理部32は、警告対象の物体が検出されない場合(NO)、処理を終了し、図5のメインの処理に戻る。この場合、画像生成部323は、表示画像を生成しない。
(Step S320)
The warning determination unit 322 determines whether or not an object to be warned is detected at a predetermined position from the object detected by the object detection unit 31. As the object to be warned, for example, when there is a person in front of the forklift 10 in the moving direction, this person is detected as the object to be warned because it may come into contact with the object in the future. In addition, when an obstacle such as a wall, a pillar, or an abandoned object on the road that may come into contact with the forklift 10 is detected, this is detected as an object to be warned. If the object to be warned is not detected (NO), the image processing unit 32 ends the process and returns to the main process of FIG. In this case, the image generation unit 323 does not generate a display image.

(ステップS330)
画像処理部32は、フォーク15、16上に荷物92があるか否かを判定する。この判定は、荷物センサー22の信号により行える。フォーク15、16上に荷物92があれば(YES)、処理をステップS340に進め、荷物92がなければ(NO)、処理をステップS350に進める。
(Step S330)
The image processing unit 32 determines whether or not the luggage 92 is on the forks 15 and 16. This determination can be made by the signal of the luggage sensor 22. If the luggage 92 is on the forks 15 and 16 (YES), the process proceeds to step S340, and if there is no luggage 92 (NO), the process proceeds to step S350.

(ステップS340)
画像処理部32は、フォーク上の荷物92がある場合に、さらに、その荷物高さ(荷物の最上部の高さであり、以下「持ち上げ高さ」、または「荷物持ち上げ高さ」という)が所定値以下か否かを判定する。この持ち上げ高さは、フォークリフト10が走行する地面からの高さであり、所定値は運転席12に座った運転者の目線高さに基づいて設定されている。すなわち所定値以下であれば、水平方向において、運転者は、荷物92があったとしても前方の視界を遮られずに、荷物92の先を見通せることができる。なお、この所定値は、運転席12の座席高さ、または運転者の座高に応じて、所定範囲内で調整できるようにしてもよい。
(Step S340)
When there is a load 92 on the fork, the image processing unit 32 further determines the height of the load (the height of the top of the load, hereinafter referred to as “lift height” or “load lift height”). Judge whether it is less than or equal to the predetermined value. This lift height is the height from the ground on which the forklift 10 travels, and a predetermined value is set based on the line-of-sight height of the driver sitting in the driver's seat 12. That is, if it is not more than a predetermined value, in the horizontal direction, the driver can see ahead of the luggage 92 without obstructing the front view even if there is the luggage 92. The predetermined value may be adjusted within a predetermined range according to the seat height of the driver's seat 12 or the seat height of the driver.

画像処理部32は、ここでは、フォーク15、16の地面からの高さに、その上に荷積みされている荷物92の高さを加算することで、荷物持ち上げ高さを算出する。荷物92の高さは、フォーク15、16上に荷積みする直前に、物体検出部31により、カメラ21の映像により生成された3次元距離マップにより算出され、内部メモリに記憶されたものである。荷物92の持ち上げ高さは、より好ましくは、パレット差込口の高さ方向の厚みを加味して算出することが好ましい。また、この荷物92の持ち上げ高さは、図1のように複数の荷物92を積み重ねた場合には、その全高になる。 Here, the image processing unit 32 calculates the load lifting height by adding the height of the load 92 loaded on the forks 15 and 16 to the height of the forks 15 and 16 from the ground. The height of the luggage 92 is calculated by the object detection unit 31 from the three-dimensional distance map generated by the image of the camera 21 and stored in the internal memory immediately before loading on the forks 15 and 16. .. The lift height of the luggage 92 is more preferably calculated by taking into account the thickness of the pallet insertion port in the height direction. Further, the lift height of the luggage 92 is the total height when a plurality of luggage 92s are stacked as shown in FIG.

画像処理部32は、荷物高さとフォーク高さから算出した、荷物92の持ち上げ高さが所定値以下であれば(YES)、処理をステップS350に進め、所定値を超えれば(NO)、処理をステップS360に進める。 If the lift height of the luggage 92 calculated from the luggage height and the fork height is equal to or less than a predetermined value (YES), the image processing unit 32 proceeds to step S350, and if it exceeds the predetermined value (NO), the processing is performed. To step S360.

(ステップS350、S360)
画像生成部323は、ステップS350では表示種類1の表示画像を生成し、ステップS360では表示種類2の表示画像を生成する。以上によりサブルーチンフローチャートの処理を終了し、図5のメインの処理に戻る(エンド(リターン))。
(Steps S350, S360)
The image generation unit 323 generates a display image of display type 1 in step S350, and generates a display image of display type 2 in step S360. As described above, the processing of the subroutine flowchart is completed, and the process returns to the main processing of FIG. 5 (end (return)).

(ステップS40)
ここでは、制御部262は、ステップS30で生成した、以下に示すような表示種類1、または表示種類2の表示画像を画像出力部263に送り、ディスプレイ27により表示させる。
(Step S40)
Here, the control unit 262 sends the display image of the display type 1 or the display type 2 as shown below generated in step S30 to the image output unit 263 and displays it on the display 27.

(表示種類1の表示画像)
図8Aは走行状態において、荷物がないフォークリフト10を示す模式図である。図8Aにおいては、フォークリフト10の前方には、作業者(歩行者)95、および荷物92を載置する棚96がある。棚96は、金属のフレームで構成された2段の棚であり、金網97の手前側に配置される。図8Bは、図8Aの状況に対応する、ディスプレイ27に表示した表示種類1の表示画像271の例である。ステップS350では、フォーク15、16上には荷物がないか、あるいは荷物があっても前方の視界は遮られない。そのため、運転席12の運転者は目視で前方を十分に確認できるので、詳細な警告は不要である。そのため、表示種類1の表示画像は、簡単な警告の表示にとどめる。図8Bに示す表示種類1の表示画像271の例では、警告の対象物としての人物を検出する。そして人物に対する警告用のアノテーションの付加画像51が付加されている。なお、表示画像271では、付加画像51以外は空白であり、同図では省略しているが、運転者は、ディスプレイ27(コンバイナー)を通してその先の実像を認識できる。
(Display image of display type 1)
FIG. 8A is a schematic view showing a forklift 10 without luggage in a traveling state. In FIG. 8A, in front of the forklift 10, there is a shelf 96 on which a worker (pedestrian) 95 and a luggage 92 are placed. The shelf 96 is a two-level shelf composed of a metal frame, and is arranged on the front side of the wire mesh 97. FIG. 8B is an example of the display image 271 of the display type 1 displayed on the display 27, which corresponds to the situation of FIG. 8A. In step S350, there is no luggage on the forks 15 and 16, or even if there is luggage, the front view is not obstructed. Therefore, the driver in the driver's seat 12 can sufficiently visually confirm the front, and detailed warning is unnecessary. Therefore, the display image of the display type 1 is limited to a simple warning display. In the example of the display image 271 of the display type 1 shown in FIG. 8B, a person as a warning object is detected. Then, an additional image 51 of an annotation for warning to a person is added. The display image 271 is blank except for the additional image 51, which is omitted in the figure, but the driver can recognize the real image beyond the display 27 (combiner).

(表示種類2の表示画像)
図9Aは走行状態の荷物があるフォークリフト10を示す模式図である。図8Aに比較して、荷積みされているフォーク15上の荷物92の全高が高く、運転者の視界が妨げられる。図9Bは、図9Aの状況に対応する、ディスプレイ27に表示した表示種類2の表示画像272の例である。ステップS360では、図9Aのように、フォーク15、16上には荷物により前方の視界が遮られ、運転席12の運転者は目視では確認が困難である。そのため、ディスプレイ27に表示される表示画像272では、カメラ21の映像をそのまま表示するとともに、警告対象の物体に対する情報として、人物に応じた矩形枠のアノテーションの付加画像52を、映像上の人物の位置に重ねて表示する。また、表示画像272においては、中央にはフォーク15、16の進行方向を示す付加画像53を重畳して表示する。さらに、表示画像272の右側には、フォーク15、16の傾斜角度を示す付加画像54を重畳して表示する。
(Display image of display type 2)
FIG. 9A is a schematic view showing a forklift 10 having a traveling load. Compared to FIG. 8A, the overall height of the load 92 on the loaded fork 15 is higher, obstructing the driver's view. FIG. 9B is an example of a display image 272 of the display type 2 displayed on the display 27, which corresponds to the situation of FIG. 9A. In step S360, as shown in FIG. 9A, the front view is obstructed by luggage on the forks 15 and 16, and it is difficult for the driver in the driver's seat 12 to visually confirm. Therefore, in the display image 272 displayed on the display 27, the image of the camera 21 is displayed as it is, and the additional image 52 of the annotation of the rectangular frame corresponding to the person is displayed as the information for the object to be warned. Display on top of the position. Further, in the display image 272, an additional image 53 indicating the traveling direction of the forks 15 and 16 is superimposed and displayed in the center. Further, on the right side of the display image 272, an additional image 54 showing the inclination angles of the forks 15 and 16 is superimposed and displayed.

(荷取り状態)
(ステップS410)
次に図7Bを参照し、「荷取り状態」での処理について説明する。ステップS410は、図7AのステップS310に続く処理である。画像処理部32は、この処理では、フォーク15、16の高さが所定値以下か否かを判定する。この判定は、フォーク状態センサー24の信号により行える。この所定値は、運転者が目視で荷物92(パレット91)とフォーク15、16の先端が確認できる高さに設定されている。例えば、この所定値は、目線の高さ、またはこれよりも少し高い高さである。画像処理部32は、高さが所定値以下であれば(YES)、処理をステップS420に進め、所定値を超えていれば(NO)、処理をステップS430に進める。
(Collecting state)
(Step S410)
Next, with reference to FIG. 7B, the processing in the “pick-up state” will be described. Step S410 is a process following step S310 of FIG. 7A. In this process, the image processing unit 32 determines whether or not the heights of the forks 15 and 16 are equal to or less than a predetermined value. This determination can be made by the signal of the fork state sensor 24. This predetermined value is set to a height at which the driver can visually confirm the tips of the luggage 92 (pallet 91) and the forks 15 and 16. For example, this predetermined value is the height of the line of sight, or a height slightly higher than this. If the height is equal to or less than a predetermined value (YES), the image processing unit 32 proceeds to step S420, and if it exceeds the predetermined value (NO), the image processing unit 32 proceeds to step S430.

(ステップS420、S430)
画像生成部323は、ステップS420では表示種類3の表示画像を生成し、ステップS430では表示種類4の表示画像を生成する。以上によりサブルーチンフローチャートの処理を終了し、図5のメインの処理に戻る(エンド(リターン))。その後、画像処理部32は、ステップS40の処理により生成した表示画像をディスプレイ27に表示させる。
(Steps S420, S430)
The image generation unit 323 generates a display image of display type 3 in step S420, and generates a display image of display type 4 in step S430. As described above, the processing of the subroutine flowchart is completed, and the process returns to the main processing of FIG. 5 (end (return)). After that, the image processing unit 32 causes the display 27 to display the display image generated by the process of step S40.

(表示種類3の表示画像)
図10は、荷取り状態において表示する表示種類3の表示画像273、および表示種類4の表示画像274の例である。ステップS420では、フォーク15、16の高さがそれほど高くなく、運転者は、フォーク15、16の先端、および荷物92の位置を目視で十分に確認できる。そのため特に、荷取り作業において、補助的な情報をディスプレイ27に表示する必要がない。画像生成部323は、ステップS420では、表示画像を作成しない、もしくは、表示種類3の表示画像として空白の表示画像を生成する。この場合、運転者は、コンバイナーを通して、目視により、荷取り作業を行う。
(Display image of display type 3)
FIG. 10 is an example of the display image 273 of the display type 3 and the display image 274 of the display type 4 displayed in the picked-up state. In step S420, the heights of the forks 15 and 16 are not so high, and the driver can sufficiently visually confirm the positions of the tips of the forks 15 and 16 and the luggage 92. Therefore, it is not necessary to display auxiliary information on the display 27, particularly in the loading operation. In step S420, the image generation unit 323 does not create a display image, or generates a blank display image as a display image of display type 3. In this case, the driver visually performs the loading work through the combiner.

(表示種類4の表示画像)
ステップS430では、フォーク15、16の高さが高いため、運転者は、フォーク15、16の先端、および荷物92の位置を目視で確認することが困難である。画像生成部323は、表示種類4の表示画像として、荷積みに役立つ画像を生成する。図10に示すように、ディスプレイ27に表示される表示種類4の表示画像274では、フォーク15の先端に取り付けたカメラ21の映像をそのまま表示するとともに、このフォーク15の先端を示す十字等の付加画像55を重ねて表示する。また、表示画像274の右側には、フォーク15、16の傾斜角度を示す付加画像54を重畳して表示する。なお、画像処理部32が、カメラ21により得られた映像により、周囲との輝度差や予め登録したパレット形状情報とのマッチング処理によりパレット91の差込口を認識し、認識した差込口と、フォーク先端との位置関係を示す情報(例えば距離値)を、付加画像として表示画像274に重畳させてもよい。
(Display image of display type 4)
In step S430, since the heights of the forks 15 and 16 are high, it is difficult for the driver to visually confirm the positions of the tips of the forks 15 and 16 and the luggage 92. The image generation unit 323 generates an image useful for loading as a display image of the display type 4. As shown in FIG. 10, in the display image 274 of the display type 4 displayed on the display 27, the image of the camera 21 attached to the tip of the fork 15 is displayed as it is, and a cross or the like indicating the tip of the fork 15 is added. The image 55 is superimposed and displayed. Further, on the right side of the display image 274, an additional image 54 showing the inclination angles of the forks 15 and 16 is superimposed and displayed. The image processing unit 32 recognizes the insertion port of the pallet 91 by the matching process with the brightness difference from the surroundings and the pallet shape information registered in advance based on the image obtained by the camera 21, and the recognized insertion port and the insertion port. , Information indicating the positional relationship with the fork tip (for example, a distance value) may be superimposed on the display image 274 as an additional image.

(荷置き状態)
(ステップS510)
次に図7Cを参照し、「荷置き状態」での処理について説明する。ステップS510は、図7AのステップS310に続く処理である。画像処理部32は、この処理では、荷置き障害物があるか否かを判定する。荷置き障害物とは、荷置きする際に障害となる物体のことである。物体検出部31により、フォークリフト10の前方において、荷置き場所の棚のフレーム、棚の中の他の荷物、壁、等を検出し、これらの物体を障害物として判定する。画像処理部32は、物体検出部31の検出結果により、障害物があれば(YES)、処理をステップS520に進め、障害物がなければ(NO)、処理をステップS530に進める。なお、物体検出部31は、フォーク15、16の前方にある、荷物を置くスペースのサイズ、形状を検出してもよい。
(Loading state)
(Step S510)
Next, with reference to FIG. 7C, the processing in the “loading state” will be described. Step S510 is a process following step S310 of FIG. 7A. In this process, the image processing unit 32 determines whether or not there is a loading obstacle. A loading obstacle is an object that becomes an obstacle when loading. In front of the forklift 10, the object detection unit 31 detects the frame of the shelf at the loading location, other luggage in the shelf, walls, and the like, and determines these objects as obstacles. Based on the detection result of the object detection unit 31, the image processing unit 32 proceeds to the process in step S520 if there is an obstacle (YES), and proceeds to the process in step S530 if there is no obstacle (NO). The object detection unit 31 may detect the size and shape of the space for placing the luggage in front of the forks 15 and 16.

(ステップS520)
画像処理部32は、障害物の位置と、フォーク15、16に荷積みしている荷物92の幅を判定する。具体的には、障害物の位置情報から荷置きスペース(空間)の幅と、荷物92の幅との差分距離、すなわち隙間が所定値以下であるか否かを判定する。所定値以下(YES)であれば処理をステップS540に進め、所定値を超える(NO)余裕があれば処理をステップS530に進める。
(Step S520)
The image processing unit 32 determines the position of the obstacle and the width of the load 92 loaded on the forks 15 and 16. Specifically, it is determined from the position information of the obstacle whether or not the difference distance between the width of the loading space (space) and the width of the luggage 92, that is, whether the gap is equal to or less than a predetermined value. If it is equal to or less than the predetermined value (YES), the process proceeds to step S540, and if there is a margin exceeding the predetermined value (NO), the process proceeds to step S530.

(ステップS530、S540)
画像生成部323は、ステップS530では表示種類5の表示画像を生成し、ステップS540では表示種類6の表示画像を生成する。以上によりサブルーチンフローチャートの処理を終了し、図5のメインの処理に戻る(エンド(リターン))。その後、画像処理部32は、ステップS40の処理により生成した表示画像をディスプレイ27に表示させる。
(Steps S530, S540)
The image generation unit 323 generates a display image of display type 5 in step S530, and generates a display image of display type 6 in step S540. As described above, the processing of the subroutine flowchart is completed, and the process returns to the main processing of FIG. 5 (end (return)). After that, the image processing unit 32 causes the display 27 to display the display image generated by the process of step S40.

(表示種類5の表示画像)
図11は、荷置き状態において表示する表示種類5の表示画像275、および表示種類6の表示画像276の例である。ステップS530では、荷置きのスペース周辺に、障害物がない、または、作業に支障がない程度の余裕(隙間)があり、荷置き作業をする際に、障害物に衝突する恐れがないことから、荷置き作業において補助的な情報を表示する必要がない。画像生成部323は、ステップS530では、表示画像を作成しない、もしくは、表示種類5の表示画像として空白の表示画像を生成する。この場合、運転者は、コンバイナーを通して、目視により、荷置き作業を行う。
(Display image of display type 5)
FIG. 11 is an example of the display image 275 of the display type 5 and the display image 276 of the display type 6 displayed in the loading state. In step S530, there is no obstacle around the loading space, or there is a margin (gap) to the extent that the work is not hindered, and there is no risk of collision with the obstacle during the loading work. , There is no need to display auxiliary information in the loading operation. In step S530, the image generation unit 323 does not create a display image, or generates a blank display image as a display image of display type 5. In this case, the driver visually performs the loading work through the combiner.

(表示種類6の表示画像)
ステップS540では、差分距離(隙間)が所定値以下であり、荷物92と障害物が衝突する虞があることから、運転者は慎重な作業が求められる。画像生成部323は、表示種類6の表示画像として、荷置きに役立つ画像を生成する。図11に示すように、ディスプレイ27に表示される表示種類6の表示画像276では、サイドカメラ25から取得した映像をそのまま、荷置きの補助情報として表示する。なお表示画像276では、さらに付加画像57を重畳する。この付加画像57は、荷物92の位置を示す情報として、荷物92の下端部と右側端部(サイドカメラ25側)の位置に対応する矩形枠の画像である。また、表示画像276の右側には、フォーク15、16の傾斜角度を示す付加画像58を重畳して表示する。
(Display image of display type 6)
In step S540, the difference distance (gap) is equal to or less than a predetermined value, and the luggage 92 may collide with an obstacle. Therefore, the driver is required to perform careful work. The image generation unit 323 generates an image useful for loading as a display image of the display type 6. As shown in FIG. 11, in the display image 276 of the display type 6 displayed on the display 27, the image acquired from the side camera 25 is displayed as it is as auxiliary information for loading. In the display image 276, the additional image 57 is further superimposed. The additional image 57 is an image of a rectangular frame corresponding to the positions of the lower end portion and the right end portion (side camera 25 side) of the luggage 92 as information indicating the position of the luggage 92. Further, on the right side of the display image 276, an additional image 58 showing the inclination angles of the forks 15 and 16 is superimposed and displayed.

このように、本実施形態の画像処理装置は、物体検出部が検出した物体、速度取得部から取得した移動速度情報、フォーク状態取得部から取得したフォークの状態情報、および荷物検出部の検出結果に応じて、フォークリフトの作業状況を判定するとともに、判定した作業状況に応じた表示画像を生成し、表示部に表示させる画像処理部を備える。これにより、作業状況に応じた画像を表示させることで、運転者フォークリフトの操作に役立つ情報を提供できる。 As described above, the image processing device of the present embodiment has the object detected by the object detection unit, the moving speed information acquired from the speed acquisition unit, the fork state information acquired from the fork state acquisition unit, and the detection result of the luggage detection unit. It is provided with an image processing unit that determines the work status of the forklift truck, generates a display image according to the determined work status, and displays the display image on the display unit. As a result, it is possible to provide information useful for the operation of the driver's forklift by displaying an image according to the work situation.

以上に説明したフォークリフト用の画像処理装置20の構成は、上記の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な画像処理装置が備える構成を排除するものではない。 The configuration of the image processing device 20 for a forklift described above is not limited to the above configuration, and various modifications are made within the scope of the claims, as the main configuration has been described in explaining the features of the above-described embodiment. can do. Further, the configuration provided in a general image processing device is not excluded.

例えば、上述の実施形態においては、運転席12の前方に配置した透過性のコンバイナー、または透過型の液晶ディスプレイを用い、運転者の視界を妨げずに、車体11前方を目視で確認できる表示部を用いた。しかしながらこれに限られず、表示部として、通常の液晶ディスプレイを適用してもよい。この場合、前方の視界を妨げない位置、例えば、ヘッドガード17等により液晶ディスプレイを運転席12の斜め上方に配置することが好ましい。通常の液晶ディスプレイとすることで低コストであっても高解像度の映像を表示させることができる。 For example, in the above-described embodiment, a transparent combiner arranged in front of the driver's seat 12 or a transmissive liquid crystal display is used, and a display unit capable of visually confirming the front of the vehicle body 11 without obstructing the driver's field of vision. Was used. However, the present invention is not limited to this, and a normal liquid crystal display may be applied as the display unit. In this case, it is preferable to arrange the liquid crystal display diagonally above the driver's seat 12 at a position that does not obstruct the front view, for example, a head guard 17. By using a normal liquid crystal display, it is possible to display a high-resolution image even at a low cost.

また、各表示種類の表示画像は、あくまでも例示であり、その他の表示画像を適用してもよい。例えば、表示種類2の表示画像として、サイドカメラ25の映像を表示してもよい。表示種類6の表示画像として、カメラ21の映像を表示するようにしてもよい。また、荷置き状態においては、表示種類5、6の表示画像として、走行状態のステップS340のようにフォーク15、16上の荷物92の持ち上げ高さを判定し、所定値を超えている場合には、荷置き作業を補助するための表示画像を生成して、表示してもよい。荷置き状態においても、荷物92の持ち上げ高さにより前方の視界が妨げられた場合においても、容易に作業できるようになる。 Further, the display image of each display type is merely an example, and other display images may be applied. For example, the image of the side camera 25 may be displayed as the display image of the display type 2. The image of the camera 21 may be displayed as the display image of the display type 6. Further, in the loading state, as the display images of the display types 5 and 6, the lift height of the luggage 92 on the forks 15 and 16 is determined as in step S340 of the running state, and when the lift height exceeds a predetermined value. May generate and display a display image for assisting the loading operation. Even in the loading state and when the lift height of the luggage 92 obstructs the front view, the work can be easily performed.

また、図6のステップS230のフォーク15、16の傾斜角度の判定は、フォークリフト10走行時に自動的にフォークを傾ける機能がある場合に有効であり、このような機能がない場合には、ステップS230の処理を省略してもよい。 Further, the determination of the inclination angles of the forks 15 and 16 in step S230 of FIG. 6 is effective when there is a function of automatically tilting the fork when the forklift 10 is running, and when there is no such function, step S230 The processing of may be omitted.

上述した実施形態に係る画像処理装置における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、画像処理装置の一機能としてその装置のソフトウエアに組み込まれてもよい。 The means and methods for performing various processes in the image processing apparatus according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versaille Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the above program may be provided as a single application software, or may be incorporated into the software of the device as a function of the image processing device.

10 フォークリフト
11 車体
12 運転席
13 マスト
14 フィンガバー
15、16 フォーク
20 画像処理装置
21a、21b カメラ(フォークカメラ)
22 荷物センサー
23 車体速度センサー
24 フォーク状態センサー
25 サイドカメラ
26 全体処理部
261 取得部
262 制御部
31 物体検出部
32 画像処理部
321 作業状況判定部
322 警告判定部
323 画像生成部
263 画像出力部
27 ディスプレイ
271〜276 表示画像
91 パレット
92 荷物
10 Forklift 11 Body 12 Driver's seat 13 Mast 14 Finger bar 15, 16 Fork 20 Image processing device 21a, 21b Camera (fork camera)
22 Luggage sensor 23 Body speed sensor 24 Fork state sensor 25 Side camera 26 Overall processing unit 261 Acquisition unit 262 Control unit 31 Object detection unit 32 Image processing unit 321 Work status judgment unit 322 Warning judgment unit 323 Image generation unit 263 Image output unit 27 Display 271-276 Display image 91 Pallet 92 Luggage

Claims (10)

フォークリフトの運転席から視認できる位置に取り付けられた表示部と、
前記フォークリフトに取り付けられ、前記フォークリフトの車体の前方を撮影する撮影部と、
前記撮影部の撮影により得られた映像から、物体を検出する物体検出部と、
前記車体の移動速度情報を取得する速度取得部と、
前記車体の前方側に昇降可能に支持されたフォークの姿勢、および高さ方向の位置に関する状態情報を取得するフォーク状態取得部と、
前記フォーク上の荷物の有無、または該荷物のサイズを検出する荷物検出部と、
前記物体検出部が検出した物体、前記速度取得部から取得した前記移動速度情報、前記フォーク状態取得部から取得した前記フォークの前記状態情報、および前記荷物検出部の検出結果に応じて、前記フォークリフトの作業状況を判定するとともに、判定した前記作業状況に応じた表示画像を生成し、前記表示部に表示させる画像処理部と、
を備える画像処理装置。
A display mounted in a position that can be seen from the driver's seat of the forklift,
A photographing unit attached to the forklift and photographing the front of the vehicle body of the forklift,
An object detection unit that detects an object from the image obtained by shooting the imaging unit,
A speed acquisition unit that acquires the moving speed information of the vehicle body, and
A fork state acquisition unit that acquires state information regarding the posture of the fork that is vertically supported on the front side of the vehicle body and the position in the height direction, and
A luggage detection unit that detects the presence or absence of luggage on the fork or the size of the luggage,
The forklift according to the object detected by the object detection unit, the movement speed information acquired from the speed acquisition unit, the state information of the fork acquired from the fork state acquisition unit, and the detection result of the luggage detection unit. An image processing unit that determines the work status of the above, generates a display image according to the determined work status, and displays the display image on the display unit.
An image processing device comprising.
前記画像処理部は、前記物体検出部が検出した物体の種類により警告対象の物体であるか否かを判定し、
前記画像処理部は、警告対象の物体に対する情報を前記表示画像に含ませる、請求項1に記載の画像処理装置。
The image processing unit determines whether or not the object is a warning target based on the type of the object detected by the object detection unit.
The image processing device according to claim 1, wherein the image processing unit includes information about an object to be warned in the display image.
前記作業状況には、走行状態、荷取り状態、および荷置き状態が含まれ、
前記画像処理部は、
前記移動速度情報の速度が所定値を超えるとき、または、速度が前記所定値以下であり、かつ、前記状態情報において前記フォークの地面に対する傾斜が所定以上のときに前記走行状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がない場合、前記荷取り状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がある場合、前記荷置き状態と判定する、請求項1、または請求項2に記載の画像処理装置。
The work conditions include a running state, a unloading state, and a unloading state.
The image processing unit
When the speed of the moving speed information exceeds the predetermined value, or when the speed is equal to or less than the predetermined value and the inclination of the fork with respect to the ground is equal to or more than the predetermined value in the state information, the traveling state is determined.
If there is no load on the fork when it is not in the running state, it is determined that the load is in the loading state.
The image processing device according to claim 1 or 2, wherein if there is a load on the fork when the vehicle is not in the traveling state, it is determined that the load is in the loading state.
前記走行状態である場合に、
前記画像処理部は、前記警告対象の物体の種類には荷物が含まれ、前記荷物を検出した際に、前記荷物の高さと、前記フォークの高さを判定し、
前記表示画像には、判定結果に応じた画像が含まれる、請求項3に記載の画像処理装置。
In the above-mentioned running state,
The image processing unit determines the height of the luggage and the height of the fork when the type of the object to be warned includes a luggage and detects the luggage.
The image processing apparatus according to claim 3, wherein the display image includes an image according to the determination result.
前記荷取り状態である場合に、
前記画像処理部は、前記フォークの高さを判定し、
前記表示画像には、判定結果に応じた画像が含まれる、請求項3、または請求項4に記載の画像処理装置。
In the case of the loading state,
The image processing unit determines the height of the fork and determines the height of the fork.
The image processing device according to claim 3 or 4, wherein the display image includes an image according to the determination result.
前記荷置き状態である場合に、
前記画像処理部は、前記車体の前方の障害物の有無、および該障害物がある場合に該障害物の位置と前記荷物の幅とを判定し、
前記表示画像には、判定結果に応じた画像が含まれる、請求項3から請求項5のいずれかに記載の画像処理装置。
In the case of the loading state,
The image processing unit determines the presence or absence of an obstacle in front of the vehicle body, and if there is an obstacle, the position of the obstacle and the width of the luggage.
The image processing apparatus according to any one of claims 3 to 5, wherein the displayed image includes an image according to the determination result.
前記撮影部は、1本の前記フォークの先端部分に取り付けられたカメラを含む、請求項1から請求項6のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the photographing unit includes a camera attached to a tip end portion of the fork. 前記表示部は、前記車体の前方側に取付けられたコンバイナーに虚像を投影するヘッドアップディスプレイ、または、透過型の液晶ディスプレイである、請求項1から請求項7のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the display unit is a head-up display that projects a virtual image onto a combiner attached to the front side of the vehicle body, or a transmissive liquid crystal display. .. フォークリフトに用いられる画像処理装置であって、フォークリフトの運転席から視認できる位置に取り付けられた表示部、および前記フォークリフトに取り付けられ、車体の前方を撮影する撮影部を備える画像処理装置を制御するコンピューターで実行される制御プログラムであって、
前記撮影部により映像を取得するステップ(a)と、
前記ステップ(a)で取得した映像から、物体を検出するステップ(b)と、
前記車体の移動速度情報を取得するステップ(c)と、
前記車体の前方側に昇降可能に支持されたフォークの姿勢、および高さ方向の位置に関する状態情報を取得するステップ(d)と、
前記フォーク上の荷物の有無、または該荷物のサイズを検出するステップ(e)と、
前記ステップ(b)で検出した物体、前記ステップ(c)および(d)で得られた、移動速度情報、および前記フォークの前記状態情報、ならびに前記ステップ(e)の検出結果に応じて、前記フォークリフトの作業状況を判定するとともに、判定した前記作業状況に応じて表示画像を生成し、前記表示部に表示させるステップ(f)と、
を含む処理を実行させるための制御プログラム。
A computer that controls an image processing device used for a forklift, which includes a display unit attached to a position visible from the driver's seat of the forklift and an imaging unit attached to the forklift to photograph the front of the vehicle body. It is a control program executed by
In step (a) of acquiring an image by the photographing unit,
In step (b) of detecting an object from the image acquired in step (a),
In step (c) of acquiring the moving speed information of the vehicle body,
Step (d) of acquiring state information regarding the posture of the fork supported so as to be able to move up and down on the front side of the vehicle body and the position in the height direction, and
In step (e) of detecting the presence or absence of luggage on the fork or the size of the luggage,
According to the object detected in the step (b), the moving speed information obtained in the steps (c) and (d), the state information of the fork, and the detection result of the step (e). A step (f) of determining the work status of the forklift, generating a display image according to the determined work status, and displaying the display on the display unit.
A control program for executing processing including.
前記作業状況には、走行状態、荷取り状態、および荷置き状態が含まれ、
前記ステップ(f)では、前記移動速度情報の速度が所定値を超えるとき、または、速度が前記所定値以下であり、かつ、前記状態情報において前記フォークの地面に対する傾斜が所定以上のときに前記走行状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がある場合、前記荷取り状態と判定し、
前記走行状態でないときに、前記フォーク上に荷物がない場合、前記荷置き状態と判定する、請求項9に記載の制御プログラム。
The work conditions include a running state, a unloading state, and a unloading state.
In the step (f), when the speed of the moving speed information exceeds a predetermined value, or when the speed is equal to or less than the predetermined value and the inclination of the fork with respect to the ground is equal to or more than the predetermined value in the state information. Judged as running condition,
If there is a load on the fork when it is not in the running state, it is determined that the load is in the loading state.
The control program according to claim 9, wherein when there is no load on the fork when the vehicle is not in the traveling state, it is determined that the load is stored.
JP2019041479A 2019-03-07 2019-03-07 Image processing apparatus and control program Pending JP2020142903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019041479A JP2020142903A (en) 2019-03-07 2019-03-07 Image processing apparatus and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041479A JP2020142903A (en) 2019-03-07 2019-03-07 Image processing apparatus and control program

Publications (1)

Publication Number Publication Date
JP2020142903A true JP2020142903A (en) 2020-09-10

Family

ID=72353138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041479A Pending JP2020142903A (en) 2019-03-07 2019-03-07 Image processing apparatus and control program

Country Status (1)

Country Link
JP (1) JP2020142903A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642961A (en) * 2021-08-13 2021-11-12 京东科技信息技术有限公司 Monitoring method and device in cargo carrying process

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642961A (en) * 2021-08-13 2021-11-12 京东科技信息技术有限公司 Monitoring method and device in cargo carrying process
CN113642961B (en) * 2021-08-13 2024-04-16 京东科技信息技术有限公司 Monitoring method and device in cargo handling process

Similar Documents

Publication Publication Date Title
JP2019156641A (en) Image processing device for fork lift and control program
JP7259835B2 (en) Image processor and control program for forklift
US20040227816A1 (en) Intruding object monitoring system
JPWO2019163378A5 (en)
JP2005222425A (en) Vehicle periphery monitoring system, vehicle periphery monitoring method, control program, and readable recording medium
JP6766516B2 (en) Obstacle detector
JP2014089548A (en) Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device
JP2020056717A (en) Position detection device
JP2002036987A (en) Vehicle surrounding monitoring device
JP2019142714A (en) Image processing device for fork lift
JP2020142903A (en) Image processing apparatus and control program
JP5192007B2 (en) Vehicle periphery monitoring device
US20220172490A1 (en) Image processing apparatus, vehicle control apparatus, method, and program
JP2019089636A (en) Safety apparatus
JP6943004B2 (en) Industrial vehicle
JP6516241B2 (en) Gesture input device
JP5748314B1 (en) Cargo handling vehicle
WO2022004495A1 (en) Obstacle detection device and obstacle detection method
WO2021060136A1 (en) System for detecting position of detection target object at periphery of working machine, and program for detecting position of detection target object at periphery of working machine
JP2020040769A (en) Forklift image processing device and control program
JP5828492B1 (en) Cargo handling vehicle
JP6072508B2 (en) Road surface step detection method, road surface step detection device, and vehicle equipped with road surface step detection device
US10204276B2 (en) Imaging device, method and recording medium for capturing a three-dimensional field of view
JP2020147418A (en) Image display device
KR102666772B1 (en) The around monitoring apparatus ofo the image base