JP5960007B2 - Perimeter monitoring equipment for work machines - Google Patents

Perimeter monitoring equipment for work machines Download PDF

Info

Publication number
JP5960007B2
JP5960007B2 JP2012207554A JP2012207554A JP5960007B2 JP 5960007 B2 JP5960007 B2 JP 5960007B2 JP 2012207554 A JP2012207554 A JP 2012207554A JP 2012207554 A JP2012207554 A JP 2012207554A JP 5960007 B2 JP5960007 B2 JP 5960007B2
Authority
JP
Japan
Prior art keywords
image
region
object detection
coordinates
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012207554A
Other languages
Japanese (ja)
Other versions
JP2014062387A (en
Inventor
泉川 岳哉
岳哉 泉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo SHI Construction Machinery Co Ltd
Original Assignee
Sumitomo SHI Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo SHI Construction Machinery Co Ltd filed Critical Sumitomo SHI Construction Machinery Co Ltd
Priority to JP2012207554A priority Critical patent/JP5960007B2/en
Publication of JP2014062387A publication Critical patent/JP2014062387A/en
Application granted granted Critical
Publication of JP5960007B2 publication Critical patent/JP5960007B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Component Parts Of Construction Machinery (AREA)

Description

本発明は、被操作体に取り付けられたカメラが撮像した入力画像に基づいて出力画像を生成する作業機械用周辺監視装置に関する。   The present invention relates to a work machine periphery monitoring device that generates an output image based on an input image captured by a camera attached to an object to be operated.

従来、ショベルの上部旋回体に取り付けられるレーザレーダを用いて、ショベルの周囲に存在する物体のショベルに対する距離及び方向を取得しながら周囲を監視する周囲監視装置が知られている(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, there has been known an ambient monitoring device that monitors the surroundings while acquiring the distance and direction of an object existing around the excavator using a laser radar attached to the upper revolving unit of the excavator (for example, Patent Documents). 1).

この周囲監視装置は、物体のショベルに対する距離及び方向が所定時間にわたって変化しない場合にその物体を静止障害物と判定し、距離及び方向が変化する場合にその物体を移動障害物と判定する。その上で、周囲監視装置は、ショベル及びその周囲を上空から見たイラスト画像を生成し、障害物の実在位置に対応するイラスト画像上の位置にその障害物を表すイラストを表示する。また、周囲監視装置は、静止障害物と移動障害物とを異なる態様のイラストで表示する。   The surrounding monitoring apparatus determines that an object is a stationary obstacle when the distance and direction of the object to the excavator do not change over a predetermined time, and determines that the object is a moving obstacle when the distance and direction change. Then, the surroundings monitoring device generates an illustration image of the excavator and the surroundings viewed from above, and displays an illustration representing the obstacle at a position on the illustration image corresponding to the actual position of the obstacle. In addition, the surrounding monitoring device displays the stationary obstacle and the moving obstacle with different illustrations.

このようにして、周囲監視装置は、ショベルの周囲の障害物の状況を運転者に分かり易く伝えることができるようにしている。   In this way, the surrounding monitoring device can inform the driver of the state of obstacles around the excavator in an easy-to-understand manner.

特開2008−163719号公報JP 2008-163719 A

しかしながら、特許文献1に記載の周囲監視装置が提示する出力画像は、障害物の実在位置に対応するイラスト画像上の位置にその障害物を表すイラストを表示するのみであり、障害物の実画像を表示するものではないため、ショベルの周囲の障害物の状況を運転者に分かり易く伝えるには未だ不十分である。   However, the output image presented by the surrounding monitoring device described in Patent Document 1 only displays an illustration representing the obstacle at a position on the illustration image corresponding to the actual position of the obstacle. Is not displayed, so it is still insufficient to convey the situation of obstacles around the excavator to the driver in an easy-to-understand manner.

上述の点に鑑み、本発明は、周囲の物体の状況をより分かり易く操作者に伝えることができる作業機械用周辺監視装置を提供することを目的とする。   In view of the above-described points, an object of the present invention is to provide a work machine periphery monitoring device that can easily convey the situation of surrounding objects to an operator.

上述の目的を達成するために、本発明の実施例に係る作業機械用周辺監視装置は、作業機械に取り付けられるカメラが撮像した入力画像に基づいて出力画像を生成する作業機械用周辺監視装置であって、前記作業機械に取り付けられ、前記作業機械の周囲に存在する物体を検出する物体検出センサと、前記物体検出センサにより物体が検出された場合に、該物体を検出した物体検出センサを特定し、該特定結果に応じて前記出力画像の所定領域を強調表示する強調表示手段と、を備える。   To achieve the above object, a work machine periphery monitoring apparatus according to an embodiment of the present invention is a work machine periphery monitoring apparatus that generates an output image based on an input image captured by a camera attached to the work machine. An object detection sensor that detects an object that is attached to the work machine and exists around the work machine, and an object detection sensor that detects the object when the object is detected by the object detection sensor is identified. And highlighting means for highlighting a predetermined area of the output image according to the identification result.

上述の手段により、本発明は、周囲の物体の状況をより分かり易く操作者に伝えることができる作業機械用周辺監視装置を提供することができる。   With the above-described means, the present invention can provide a work machine periphery monitoring device that can easily convey the situation of surrounding objects to the operator.

本発明の実施例に係る画像生成装置の構成例を概略的に示すブロック図である。It is a block diagram which shows roughly the structural example of the image generation apparatus which concerns on the Example of this invention. 画像生成装置が搭載されるショベルの構成例を示す図である。It is a figure which shows the structural example of the shovel mounted with an image generation apparatus. 入力画像が投影される空間モデルの一例を示す図である。It is a figure which shows an example of the space model on which an input image is projected. 空間モデルと処理対象画像平面との間の関係の一例を示す図である。It is a figure which shows an example of the relationship between a space model and a process target image plane. 入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図である。It is a figure for demonstrating matching with the coordinate on an input image plane, and the coordinate on a space model. 座標対応付け手段による座標間の対応付けを説明するための図である。It is a figure for demonstrating the matching between the coordinates by a coordinate matching means. 平行線群の作用を説明するための図である。It is a figure for demonstrating the effect | action of a parallel line group. 補助線群の作用を説明するための図である。It is a figure for demonstrating the effect | action of an auxiliary line group. 処理対象画像生成処理及び出力画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process target image generation process and an output image generation process. 出力画像の表示例である。It is an example of a display of an output image. 画像生成装置が搭載されるショベルの上面図である。It is a top view of the shovel in which an image generation apparatus is mounted. ショベルに搭載された3台のカメラのそれぞれの入力画像と、それら入力画像を用いて生成される出力画像とを示す図である。It is a figure which shows each input image of the three cameras mounted in the shovel, and the output image produced | generated using those input images. 2つのカメラのそれぞれの撮像領域の重複撮像領域における物体の消失を防止する画像消失防止処理を説明するための図である。It is a figure for demonstrating the image loss prevention process which prevents the loss | disappearance of the object in the overlapping imaging area of each imaging area of two cameras. 図12で示される出力画像と、図12の出力画像に画像消失防止処理を適用することで得られる出力画像との違いを表す対比図である。FIG. 13 is a comparison diagram showing the difference between the output image shown in FIG. 12 and the output image obtained by applying image loss prevention processing to the output image of FIG. 12. 所定領域選択処理を説明する図である。It is a figure explaining a predetermined area selection process. 強調表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an emphasis display process. 強調表示された所定領域を含む出力画像の表示例である。It is an example of a display of the output image containing the predetermined area | region highlighted.

以下、図面を参照しつつ、本発明を実施するための最良の形態の説明を行う。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.

図1は、本発明の実施例に係る画像生成装置100の構成例を概略的に示すブロック図である。   FIG. 1 is a block diagram schematically illustrating a configuration example of an image generation apparatus 100 according to an embodiment of the present invention.

画像生成装置100は、作業機械の周辺を監視する作業機械用周辺監視装置の1例であり、制御部1、カメラ2、入力部3、記憶部4、表示部5、及び物体検出センサ6で構成される。具体的には、画像生成装置100は、作業機械に搭載されたカメラ2が撮像した入力画像に基づいて出力画像を生成しその出力画像を操作者に提示する。   The image generation apparatus 100 is an example of a work machine periphery monitoring apparatus that monitors the periphery of the work machine. The image generation apparatus 100 includes a control unit 1, a camera 2, an input unit 3, a storage unit 4, a display unit 5, and an object detection sensor 6. Composed. Specifically, the image generation device 100 generates an output image based on an input image captured by the camera 2 mounted on the work machine and presents the output image to the operator.

図2は、画像生成装置100が搭載される作業機械としてのショベル60の構成例を示す図であり、ショベル60は、クローラ式の下部走行体61の上に、旋回機構62を介して、上部旋回体63を旋回軸PVの周りで旋回自在に搭載している。   FIG. 2 is a diagram illustrating a configuration example of an excavator 60 as a work machine on which the image generating apparatus 100 is mounted. The excavator 60 is placed on a crawler-type lower traveling body 61 via a turning mechanism 62. A swing body 63 is mounted so as to be swingable around a swing axis PV.

また、上部旋回体63は、その前方左側部にキャブ(運転室)64を備え、その前方中央部に掘削アタッチメントEを備え、その右側面及び後面にカメラ2(右側方カメラ2R、後方カメラ2B)及び物体検出センサ6(右側方物体検出センサ6R、後方物体検出センサ6B)を備えている。なお、キャブ64内の操作者が視認し易い位置には表示部5が設置されている。   The upper swing body 63 includes a cab (operator's cab) 64 on the front left side, a drilling attachment E on the front center, and the camera 2 (right camera 2R, rear camera 2B) on the right and rear surfaces. ) And an object detection sensor 6 (right side object detection sensor 6R, rear object detection sensor 6B). In addition, the display part 5 is installed in the position in the cab 64 where the operator is easy to visually recognize.

次に、画像生成装置100の各構成要素について説明する。   Next, each component of the image generation apparatus 100 will be described.

制御部1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)等を備えたコンピュータであって、例えば、後述する座標対応付け手段10、画像生成手段11、及び強調表示手段12のそれぞれに対応するプログラムをROMやNVRAMに記憶し、一時記憶領域としてRAMを利用しながら各手段に対応する処理をCPUに実行させる。   The control unit 1 is a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an NVRAM (Non-Volatile Random Access Memory), etc. A program corresponding to each of the attaching unit 10, the image generating unit 11, and the highlighting unit 12 is stored in a ROM or NVRAM, and the CPU executes a process corresponding to each unit while using the RAM as a temporary storage area.

カメラ2は、ショベル60の周囲を映し出す入力画像を取得するための装置であり、例えば、キャブ64にいる操作者の死角となる領域を撮像できるよう上部旋回体63の右側面及び後面に取り付けられる(図2参照。)、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えた右側方カメラ2R及び後方カメラ2Bである。なお、カメラ2は、上部旋回体63の右側面及び後面以外の位置(例えば、前面及び左側面である。)に取り付けられていてもよく、広い範囲を撮像できるよう広角レンズ又は魚眼レンズが装着されていてもよい。   The camera 2 is a device for acquiring an input image that reflects the surroundings of the excavator 60, and is attached to the right side surface and the rear surface of the upper swing body 63 so that, for example, an area that is a blind spot of the operator in the cab 64 can be imaged. (See FIG. 2), a right side camera 2R and a rear camera 2B provided with an image sensor such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor). The camera 2 may be attached to a position other than the right side and the rear side of the upper swing body 63 (for example, the front side and the left side), and a wide-angle lens or a fisheye lens is attached so as to capture a wide range. It may be.

また、カメラ2は、制御部1からの制御信号に応じて入力画像を取得し、取得した入力画像を制御部1に対して出力する。なお、カメラ2は、魚眼レンズ又は広角レンズを用いて入力画像を取得した場合には、それらレンズを用いることによって生じる見掛け上の歪曲やアオリを補正した補正済みの入力画像を制御部1に対して出力するが、その見掛け上の歪曲やアオリを補正していない入力画像をそのまま制御部1に対して出力してもよい。その場合には、制御部1がその見掛け上の歪曲やアオリを補正することとなる。   In addition, the camera 2 acquires an input image according to a control signal from the control unit 1 and outputs the acquired input image to the control unit 1. In addition, when the camera 2 acquires an input image using a fisheye lens or a wide-angle lens, the corrected input image obtained by correcting apparent distortion and tilt caused by using these lenses is transmitted to the control unit 1. Although it is output, an input image in which the apparent distortion or tilt is not corrected may be output to the control unit 1 as it is. In that case, the control unit 1 corrects the apparent distortion and tilt.

入力部3は、操作者が画像生成装置100に対して各種情報を入力できるようにするための装置であり、例えば、タッチパネル、ボタンスイッチ、ポインティングデバイス、キーボード等である。   The input unit 3 is a device that allows an operator to input various types of information to the image generation device 100, and is, for example, a touch panel, a button switch, a pointing device, a keyboard, or the like.

記憶部4は、各種情報を記憶するための装置であり、例えば、ハードディスク、光学ディスク、又は半導体メモリ等である。   The storage unit 4 is a device for storing various types of information, and is, for example, a hard disk, an optical disk, or a semiconductor memory.

表示部5は、画像情報を表示するための装置であり、例えば、ショベル60のキャブ64(図2参照。)内に設置された液晶ディスプレイ又はプロジェクタ等であって、制御部1が出力する各種画像を表示する。   The display unit 5 is a device for displaying image information. For example, the display unit 5 is a liquid crystal display, a projector, or the like installed in the cab 64 (see FIG. 2) of the excavator 60. Display an image.

物体検出センサ6は、ショベル60の周囲に存在する物体を検出するための装置であり、例えば、キャブ64にいる操作者の死角となる領域に存在する物体を検出できるよう上部旋回体63の右側面及び後面に取り付けられる(図2参照。)。なお、物体検出センサ6は、上部旋回体63の前面、左側面、右側面、及び後面のうちの何れか1つ以上に取り付けられていてもよく、全ての面に取り付けられていてもよい。   The object detection sensor 6 is a device for detecting an object existing around the excavator 60. For example, the object detection sensor 6 is located on the right side of the upper swing body 63 so as to detect an object present in the blind spot of the operator in the cab 64. Attached to the front and back surfaces (see FIG. 2). The object detection sensor 6 may be attached to any one or more of the front, left side, right side, and rear side of the upper swing body 63, or may be attached to all the surfaces.

本実施例では、物体検出センサ6は、無指向性センサであり、例えば、無指向性超音波センサ、無指向性焦電型赤外線センサ等である。具体的には、物体検出センサ6は、検出範囲全体に満遍なく超音波又は赤外光を放射し、反射波又は反射光を検出することによって検出範囲内に存在する物体を検出する。また、物体検出センサ6は、超音波又は赤外光を放射してから反射波又は反射光を検出するまでの経過時間に基づいて、検出した物体までの距離を検出してもよい。   In this embodiment, the object detection sensor 6 is an omnidirectional sensor, such as an omnidirectional ultrasonic sensor, an omnidirectional pyroelectric infrared sensor, or the like. Specifically, the object detection sensor 6 radiates ultrasonic waves or infrared light uniformly over the entire detection range, and detects an object existing in the detection range by detecting a reflected wave or reflected light. Further, the object detection sensor 6 may detect the distance to the detected object based on the elapsed time from when the ultrasonic wave or infrared light is emitted until the reflected wave or the reflected light is detected.

なお、物体検出センサ6は、ショベル60の周囲に設置される漏洩同軸ケーブルであってもよい。この場合、検出範囲は、外部導体部分に形成される複数のスロットのそれぞれに対応して形成される。   Note that the object detection sensor 6 may be a leaky coaxial cable installed around the excavator 60. In this case, the detection range is formed corresponding to each of the plurality of slots formed in the outer conductor portion.

また、画像生成装置100は、入力画像に基づいて処理対象画像を生成し、その処理対象画像に画像変換処理を施すことによって周囲の物体との位置関係や距離感を直感的に把握できるようにする出力画像を生成した上で、その出力画像を操作者に提示するようにしてもよい。   In addition, the image generation apparatus 100 generates a processing target image based on the input image, and performs an image conversion process on the processing target image so that the positional relationship with the surrounding objects and a sense of distance can be intuitively grasped. An output image to be generated may be generated, and the output image may be presented to the operator.

「処理対象画像」は、入力画像に基づいて生成される、画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)の対象となる画像であり、例えば、地表を上方から撮像するカメラによる入力画像であってその広い画角により水平方向の画像(例えば、空の部分である。)を含む入力画像を画像変換処理で用いる場合に、その水平方向の画像が不自然に表示されないよう(例えば、空の部分が地表にあるものとして扱われないよう)その入力画像を所定の空間モデルに投影した上で、その空間モデルに投影された投影画像を別の二次元平面に再投影することによって得られる、画像変換処理に適した画像である。なお、処理対象画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。   The “processing target image” is an image that is generated based on an input image and that is a target of image conversion processing (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion processing, etc.). When an input image including a horizontal image (for example, an empty portion) is used in an image conversion process with an image captured from above by a camera that captures the image from above, the horizontal image is The input image is projected onto a predetermined spatial model so that it is not unnaturally displayed (for example, the sky part is not treated as being on the ground surface), and then the projected image projected onto the spatial model is changed to another two. It is an image suitable for image conversion processing, which is obtained by reprojecting onto a dimensional plane. The processing target image may be used as an output image as it is without performing an image conversion process.

「空間モデル」は、少なくとも、処理対象画像が位置する平面である処理対象画像平面以外の平面又は曲面(例えば、処理対象画像平面に平行な平面、又は、処理対象画像平面との間で角度を形成する平面若しくは曲面である。)を含む、一又は複数の平面若しくは曲面で構成される、入力画像の投影対象である。   The “spatial model” is a plane or curved surface other than the processing target image plane that is the plane on which the processing target image is located (for example, a plane parallel to the processing target image plane or an angle with the processing target image plane). A plane or a curved surface to be formed), and a projection target of an input image composed of one or a plurality of planes or curved surfaces.

なお、画像生成装置100は、処理対象画像を生成することなく、その空間モデルに投影された投影画像に画像変換処理を施すことによって出力画像を生成するようにしてもよい。また、投影画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。   Note that the image generation apparatus 100 may generate an output image by performing image conversion processing on the projection image projected on the space model without generating a processing target image. Further, the projection image may be used as an output image as it is without being subjected to image conversion processing.

図3は、入力画像が投影される空間モデルMDの一例を示す図であり、図3(A)は、ショベル60を側方から見たときのショベル60と空間モデルMDとの間の関係を示し、図3(B)は、ショベル60を上方から見たときのショベル60と空間モデルMDとの間の関係を示す。   FIG. 3 is a diagram illustrating an example of a spatial model MD onto which an input image is projected. FIG. 3A illustrates a relationship between the excavator 60 and the spatial model MD when the excavator 60 is viewed from the side. FIG. 3B shows the relationship between the excavator 60 and the space model MD when the excavator 60 is viewed from above.

図3で示されるように、空間モデルMDは、半円筒形状を有し、その底面内部の平面領域R1とその側面内部の曲面領域R2とを有する。   As shown in FIG. 3, the space model MD has a semi-cylindrical shape, and includes a planar region R1 inside the bottom surface and a curved region R2 inside the side surface.

また、図4は、空間モデルMDと処理対象画像平面との間の関係の一例を示す図であり、処理対象画像平面R3は、例えば、空間モデルMDの平面領域R1を含む平面である。なお、図4は、明確化のために、空間モデルMDを、図3で示すような半円筒形状ではなく、円筒形状で示しているが、空間モデルMDは、半円筒形状及び円筒形状の何れであってもよいものとする。以降の図においても同様である。また、処理対象画像平面R3は、上述のように、空間モデルMDの平面領域R1を含む円形領域であってもよく、空間モデルMDの平面領域R1を含まない環状領域であってもよい。   FIG. 4 is a diagram illustrating an example of a relationship between the space model MD and the processing target image plane, and the processing target image plane R3 is a plane including the plane area R1 of the space model MD, for example. 4 shows the space model MD not in a semi-cylindrical shape as shown in FIG. 3 but in a cylindrical shape for the sake of clarity, the space model MD may be either a semi-cylindrical shape or a cylindrical shape. It may be. The same applies to the subsequent drawings. Further, as described above, the processing target image plane R3 may be a circular area including the plane area R1 of the spatial model MD, or may be an annular area not including the plane area R1 of the spatial model MD.

次に、制御部1が有する各種手段について説明する。   Next, various units included in the control unit 1 will be described.

座標対応付け手段10は、カメラ2が撮像した入力画像が位置する入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付けるための手段であり、例えば、予め設定された、或いは、入力部3を介して入力される、カメラ2の光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等のカメラ2に関する各種パラメータと、予め決定された、入力画像平面、空間モデルMD、及び処理対象画像平面R3の相互の位置関係とに基づいて、入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、それらの対応関係を記憶部4の入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41に記憶する。   The coordinate association means 10 is a means for associating coordinates on the input image plane where the input image captured by the camera 2 is located, coordinates on the space model MD, and coordinates on the processing target image plane R3. For example, various parameters relating to the camera 2 such as optical center, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, projection method, etc., which are set in advance or input via the input unit 3 And the coordinates on the input image plane, the coordinates on the space model MD, and the processing target image based on the predetermined positional relationship among the input image plane, the spatial model MD, and the processing target image plane R3. The coordinates on the plane R3 are associated with each other, and the corresponding relationship is stored in the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41 of the storage unit 4. .

なお、座標対応付け手段10は、処理対象画像を生成しない場合には、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応付け、及び、その対応関係の空間モデル・処理対象画像対応マップ41への記憶を省略する。   When the processing target image is not generated, the coordinate association unit 10 associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3, and the spatial model / processing target of the corresponding relationship. The storage in the image correspondence map 41 is omitted.

画像生成手段11は、出力画像を生成するための手段であり、例えば、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。   The image generation unit 11 is a unit for generating an output image. For example, by performing scale conversion, affine conversion, or distortion conversion on the processing target image, the coordinates on the processing target image plane R3 and the output image are positioned. Corresponding to the coordinates on the output image plane to be processed, the correspondence relationship is stored in the processing target image / output image correspondence map 42 of the storage unit 4, and the coordinate correspondence means 10 stores the value corresponding to the input image / spatial model With reference to the map 40 and the spatial model / processing target image correspondence map 41, the value of each pixel in the output image (for example, the luminance value, hue value, saturation value, etc.) and the value of each pixel in the input image To generate an output image.

また、画像生成手段11は、予め設定された、或いは、入力部3を介して入力される、仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータに基づいて、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。   Further, the image generation means 11 is preset or input via the input unit 3, the optical center of the virtual camera, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, projection method, etc. The coordinates on the processing target image plane R3 and the coordinates on the output image plane on which the output image is located are associated with each other on the basis of the various parameters, and the corresponding relationship is stored in the processing target image / output image correspondence map 42 of the storage unit 4. With reference to the input image / spatial model correspondence map 40 and the spatial model / processing target image correspondence map 41 stored and stored in the coordinate matching means 10, the value of each pixel (for example, luminance value, A hue value, a saturation value, etc.) and the value of each pixel in the input image are associated with each other to generate an output image.

なお、画像生成手段11は、仮想カメラの概念を用いることなく、処理対象画像のスケールを変更して出力画像を生成するようにしてもよい。   Note that the image generation unit 11 may generate the output image by changing the scale of the processing target image without using the concept of the virtual camera.

また、画像生成手段11は、処理対象画像を生成しない場合には、施した画像変換処理に応じて空間モデルMD上の座標と出力画像平面上の座標とを対応付け、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。この場合、画像生成手段11は、処理対象画像平面R3上の座標と出力画像平面上の座標との対応付け、及び、その対応関係の処理対象画像・出力画像対応マップ42への記憶を省略する。   Further, when the image generation unit 11 does not generate the processing target image, the image generation unit 11 associates the coordinates on the space model MD with the coordinates on the output image plane in accordance with the applied image conversion processing, and supports the input image / space model. While referring to the map 40, the output image is generated by associating the value of each pixel in the output image (for example, luminance value, hue value, saturation value, etc.) with the value of each pixel in the input image. In this case, the image generation unit 11 omits the association between the coordinates on the processing target image plane R3 and the coordinates on the output image plane and the storage of the correspondence relationship in the processing target image / output image correspondence map 42. .

強調表示手段12は、出力画像の所定領域を強調表示するための手段である。本実施例では、強調表示手段12は、物体検出センサ6により物体が検出された場合に、その物体を検出した物体検出センサ6を特定し、その特定結果に応じて出力画像の所定領域を強調表示する。   The highlighting means 12 is a means for highlighting a predetermined area of the output image. In the present embodiment, when the object detection sensor 6 detects an object, the highlighting display unit 12 specifies the object detection sensor 6 that has detected the object, and emphasizes a predetermined region of the output image according to the specification result. indicate.

「所定領域」は、出力画像上における予め設定された1又は複数の領域であり、例えば、物体検出センサ6の検出範囲に基づいて設定される領域である。本実施例では、複数の所定領域のそれぞれが、複数の物体検出センサ6のそれぞれの検出範囲に基づいて設定される。例えば、複数の所定領域のうちの1つは、隣り合う2つの物体検出センサ6のそれぞれの検出範囲の重複部分に対応する。また、複数の所定領域のうちの別の1つは、複数の物体検出センサ6のうちの特定の1つの検出範囲に対応する。また、複数の所定領域のうちのさらに別の1つは、隣り合う2つの物体検出センサ6の一方の検出範囲からそれら2つの物体検出センサ6のそれぞれの検出範囲の重複部分を差し引いた領域に対応する。   The “predetermined region” is one or a plurality of regions set in advance on the output image, and is a region set based on the detection range of the object detection sensor 6, for example. In the present embodiment, each of the plurality of predetermined areas is set based on the detection range of each of the plurality of object detection sensors 6. For example, one of the plurality of predetermined regions corresponds to an overlapping portion of the detection ranges of the two adjacent object detection sensors 6. Further, another one of the plurality of predetermined regions corresponds to a specific detection range of the plurality of object detection sensors 6. Further, another one of the plurality of predetermined regions is a region obtained by subtracting an overlapping portion of the detection ranges of the two object detection sensors 6 from one detection range of the two adjacent object detection sensors 6. Correspond.

また、所定領域は、出力画像がショベル60の周辺を俯瞰する視点変換画像である場合、ショベル60の位置を中心として放射状に広がる扇形領域として設定される。   The predetermined area is set as a fan-shaped area that spreads radially around the position of the excavator 60 when the output image is a viewpoint conversion image in which the periphery of the excavator 60 is looked down on.

また、本実施例では、強調表示手段12は、複数の物体検出センサ6のそれぞれの出力に基づいて、何れの物体検出センサ6によって物体が検出されたかを特定する。   In this embodiment, the highlighting means 12 identifies which object detection sensor 6 has detected an object based on the output of each of the plurality of object detection sensors 6.

そして、強調表示手段12は、その特定結果に応じて、1又は複数の所定領域のうちから、強調表示すべき1又は複数の所定領域を選択する。具体的には、強調表示手段12は、物体を検出した物体検出センサ6の組み合わせに応じて、強調表示すべき1又は複数の所定領域を選択する。例えば、強調表示手段12は、物体を検出した物体検出センサ6の組み合わせに対応付けてROM等に予め記憶された所定領域の識別番号を読み出すことによって、強調表示すべき1又は複数の所定領域を選択する。   The highlighting means 12 selects one or more predetermined areas to be highlighted from one or more predetermined areas according to the identification result. Specifically, the highlighting means 12 selects one or a plurality of predetermined areas to be highlighted according to the combination of the object detection sensors 6 that have detected the object. For example, the highlighting means 12 reads one or a plurality of predetermined areas to be highlighted by reading the identification number of the predetermined area stored in advance in a ROM or the like in association with the combination of the object detection sensors 6 that detected the object. select.

そして、強調表示手段12は、選択した1又は複数の所定領域を強調表示する。本実施例では、強調表示手段12は、選択された所定領域の輪郭を出力画像上に重畳表示する。また、強調表示手段12は、選択された所定領域に対応する位置に警告マークを表示してもよい。或いは、強調表示手段12は、選択された所定領域全体の輝度及び色調の少なくとも1つを、選択されていない所定領域と異ならせてもよい。   The highlighting means 12 highlights the selected one or more predetermined areas. In this embodiment, the highlighting means 12 superimposes and displays the outline of the selected predetermined area on the output image. Further, the highlighting means 12 may display a warning mark at a position corresponding to the selected predetermined area. Alternatively, the highlighting means 12 may make at least one of the luminance and the color tone of the entire selected predetermined region different from the non-selected predetermined region.

次に、座標対応付け手段10及び画像生成手段11による具体的な処理の一例について説明する。   Next, an example of specific processing by the coordinate association unit 10 and the image generation unit 11 will be described.

座標対応付け手段10は、例えば、ハミルトンの四元数を用いて、入力画像平面上の座標と空間モデル上の座標とを対応付けることができる。   The coordinate association means 10 can associate the coordinates on the input image plane with the coordinates on the space model using, for example, a Hamilton quaternion.

図5は、入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図であり、カメラ2の入力画像平面は、カメラ2の光学中心Cを原点とするUVW直交座標系における一平面として表され、空間モデルは、XYZ直交座標系における立体面として表されるものとする。   FIG. 5 is a diagram for explaining the correspondence between the coordinates on the input image plane and the coordinates on the space model. The input image plane of the camera 2 has UVW orthogonal coordinates with the optical center C of the camera 2 as the origin. The space model is represented as a three-dimensional surface in the XYZ orthogonal coordinate system.

最初に、座標対応付け手段10は、空間モデル上の座標(XYZ座標系上の座標)を入力画像平面上の座標(UVW座標系上の座標)に変換するため、XYZ座標系の原点を光学中心C(UVW座標系の原点)に並行移動させた上で、X軸をU軸に、Y軸をV軸に、Z軸を−W軸(符号「−」は方向が逆であることを意味する。これは、UVW座標系がカメラ前方を+W方向とし、XYZ座標系が鉛直下方を−Z方向としていることに起因する。)にそれぞれ一致させるようXYZ座標系を回転させる。   First, the coordinate association unit 10 converts the coordinates on the space model (coordinates on the XYZ coordinate system) into coordinates on the input image plane (coordinates on the UVW coordinate system), so that the origin of the XYZ coordinate system is optically converted. After moving parallel to the center C (the origin of the UVW coordinate system), the X axis is the U axis, the Y axis is the V axis, and the Z axis is the -W axis (the sign "-" indicates that the direction is reversed) This means that the XYZ coordinate system is rotated so that the UVW coordinate system coincides with the + W direction in front of the camera and the XYZ coordinate system in the −Z direction vertically below.

なお、カメラ2が複数存在する場合、カメラ2のそれぞれが個別のUVW座標系を有することとなるので、座標対応付け手段10は、複数のUVW座標系のそれぞれに対して、XYZ座標系を並行移動させ且つ回転させることとなる。   When there are a plurality of cameras 2, each of the cameras 2 has an individual UVW coordinate system. Therefore, the coordinate association unit 10 uses an XYZ coordinate system in parallel with each of the plurality of UVW coordinate systems. It will be moved and rotated.

上述の変換は、カメラ2の光学中心CがXYZ座標系の原点となるようにXYZ座標系を並行移動させた後に、Z軸が−W軸に一致するよう回転させ、更に、X軸がU軸に一致するよう回転させることによって実現されるので、座標対応付け手段10は、この変換をハミルトンの四元数で記述することにより、それら二回の回転を一回の回転演算に纏めることができる。   In the above conversion, the XYZ coordinate system is translated so that the optical center C of the camera 2 is the origin of the XYZ coordinate system, and then the Z axis is rotated so as to coincide with the −W axis. Since it is realized by rotating to coincide with the axis, the coordinate matching means 10 can combine these two rotations into one rotation calculation by describing this transformation in Hamilton's quaternion. it can.

ところで、あるベクトルAを別のベクトルBに一致させるための回転は、ベクトルAとベクトルBとが張る面の法線を軸としてベクトルAとベクトルBとが形成する角度だけ回転させる処理に相当し、その角度をθとすると、ベクトルAとベクトルBとの内積から、角度θは、   By the way, the rotation for making one vector A coincide with another vector B corresponds to the process of rotating the vector A and the vector B by the angle formed by using the normal line of the surface extending between the vector A and the vector B as an axis. If the angle is θ, from the inner product of the vector A and the vector B, the angle θ is

で表されることとなる。 It will be expressed as

また、ベクトルAとベクトルBとが張る面の法線の単位ベクトルNは、ベクトルAとベクトルBとの外積から   Further, the unit vector N of the normal line between the vector A and the vector B is obtained from the outer product of the vector A and the vector B.

で表されることとなる。 It will be expressed as

なお、四元数は、i、j、kをそれぞれ虚数単位とした場合、   Note that the quaternion has i, j, and k as imaginary units,

を満たす超複素数であり、本実施例において、四元数Qは、実成分をt、純虚成分をa、b、cとして、 In this embodiment, the quaternion Q is represented by t as a real component and a, b, and c as pure imaginary components.

で表されるものとし、四元数Qの共役四元数は、 The conjugate quaternion of the quaternion Q is

で表されるものとする。 It shall be represented by

四元数Qは、実成分tを0(ゼロ)としながら、純虚成分a、b、cで三次元ベクトル(a,b,c)を表現することができ、また、t、a、b、cの各成分により任意のベクトルを軸とした回転動作を表現することもできる。   The quaternion Q can represent a three-dimensional vector (a, b, c) with pure imaginary components a, b, c while setting the real component t to 0 (zero), and t, a, b , C can also be used to express a rotational motion with an arbitrary vector as an axis.

更に、四元数Qは、連続する複数回の回転動作を統合して一回の回転動作として表現することができ、例えば、任意の点S(sx,sy,sz)を、任意の単位ベクトルC(l,m,n)を軸としながら角度θだけ回転させたときの点D(ex,ey,ez)を以下のように表現することができる。   Further, the quaternion Q can be expressed as a single rotation operation by integrating a plurality of continuous rotation operations. For example, an arbitrary point S (sx, sy, sz) can be expressed as an arbitrary unit vector. A point D (ex, ey, ez) when rotated by an angle θ with C (l, m, n) as an axis can be expressed as follows.

ここで、本実施例において、Z軸を−W軸に一致させる回転を表す四元数をQzとすると、XYZ座標系におけるX軸上の点Xは、点X'に移動させられるので、点X'は、 Here, in this embodiment, if the quaternion representing the rotation that makes the Z axis coincide with the −W axis is Qz, the point X on the X axis in the XYZ coordinate system is moved to the point X ′. X '

で表されることとなる。 It will be expressed as

また、本実施例において、X軸上にある点X'と原点とを結ぶ線をU軸に一致させる回転を表す四元数をQxとすると、「Z軸を−W軸に一致させ、更に、X軸をU軸に一致させる回転」を表す四元数Rは、   In this embodiment, if the quaternion representing the rotation that matches the line connecting the point X ′ on the X axis and the origin to the U axis is Qx, “the Z axis matches the −W axis, , A quaternion R representing "rotation to make the X axis coincide with the U axis"

で表されることとなる。 It will be expressed as

以上により、空間モデル(XYZ座標系)上の任意の座標Pを入力画像平面(UVW座標系)上の座標で表現したときの座標P'は、   As described above, the coordinate P ′ when an arbitrary coordinate P on the space model (XYZ coordinate system) is expressed by a coordinate on the input image plane (UVW coordinate system) is

で表されることとなり、四元数Rがカメラ2のそれぞれで不変であることから、座標対応付け手段10は、以後、この演算を実行するだけで空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換することができる。 Since the quaternion R is invariable in each of the cameras 2, the coordinate association unit 10 thereafter performs the above calculation to obtain the coordinates on the space model (XYZ coordinate system). It can be converted into coordinates on the input image plane (UVW coordinate system).

空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換した後、座標対応付け手段10は、カメラ2の光学中心C(UVW座標系上の座標)と空間モデル上の任意の座標PをUVW座標系で表した座標P'とを結ぶ線分CP'と、カメラ2の光軸Gとが形成する入射角αを算出する。   After the coordinates on the space model (XYZ coordinate system) are converted to the coordinates on the input image plane (UVW coordinate system), the coordinate association means 10 determines the optical center C (coordinates on the UVW coordinate system) of the camera 2 and the space. An incident angle α formed by a line segment CP ′ connecting an arbitrary coordinate P on the model with a coordinate P ′ represented in the UVW coordinate system and the optical axis G of the camera 2 is calculated.

また、座標対応付け手段10は、カメラ2の入力画像平面R4(例えば、CCD面)に平行で且つ座標P'を含む平面Hにおける、平面Hと光軸Gとの交点Eと座標P'とを結ぶ線分EP'と、平面HにおけるU'軸とが形成する偏角φ、及び線分EP'の長さを算出する。   In addition, the coordinate association unit 10 includes an intersection E between the plane H and the optical axis G, and a coordinate P ′ in a plane H that is parallel to the input image plane R4 (for example, CCD plane) of the camera 2 and includes the coordinate P ′. Are calculated, and the deviation angle φ formed by the line segment EP ′ connecting the two and the U ′ axis in the plane H, and the length of the line segment EP ′.

カメラの光学系は、通常、像高さhが入射角α及び焦点距離fの関数となっているので、座標対応付け手段10は、通常射影(h=ftanα)、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等の適切な射影方式を選択して像高さhを算出する。   In the optical system of the camera, the image height h is usually a function of the incident angle α and the focal length f. Therefore, the coordinate matching means 10 performs normal projection (h = ftanα) and orthographic projection (h = fsinα). Image height by selecting an appropriate projection method such as stereo projection (h = 2 ftan (α / 2)), equisolid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc. Calculate h.

その後、座標対応付け手段10は、算出した像高さhを偏角φによりUV座標系上のU成分及びV成分に分解し、入力画像平面R4の一画素当たりの画素サイズに相当する数値で除算することにより、空間モデルMD上の座標P(P')と入力画像平面R4上の座標とを対応付けることができる。   Thereafter, the coordinate matching means 10 decomposes the calculated image height h into U and V components on the UV coordinate system by the declination φ, and is a numerical value corresponding to the pixel size per pixel of the input image plane R4. By dividing, the coordinates P (P ′) on the space model MD can be associated with the coordinates on the input image plane R4.

なお、入力画像平面R4のU軸方向における一画素当たりの画素サイズをaUとし、入力画像平面R4のV軸方向における一画素当たりの画素サイズをaVとすると、空間モデルMD上の座標P(P')に対応する入力画像平面R4上の座標(u,v)は、   If the pixel size per pixel in the U-axis direction of the input image plane R4 is aU and the pixel size per pixel in the V-axis direction of the input image plane R4 is aV, the coordinates P (P The coordinates (u, v) on the input image plane R4 corresponding to ') are

で表されることとなる。 It will be expressed as

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、カメラ毎に存在する一又は複数の入力画像平面R4上の座標とを対応付け、空間モデルMD上の座標、カメラ識別子、及び入力画像平面R4上の座標を関連付けて入力画像・空間モデル対応マップ40に記憶する。   In this way, the coordinate association unit 10 associates the coordinates on the space model MD with the coordinates on one or a plurality of input image planes R4 existing for each camera, and coordinates on the space model MD, the camera identifier. And the coordinates on the input image plane R4 are stored in the input image / space model correspondence map 40 in association with each other.

また、座標対応付け手段10は、四元数を用いて座標の変換を演算するので、オイラー角を用いて座標の変換を演算する場合と異なり、ジンバルロックを発生させることがないという利点を有する。しかしながら、座標対応付け手段10は、四元数を用いて座標の変換を演算するものに限定されることはなく、オイラー角を用いて座標の変換を演算するようにしてもよい。   Further, since the coordinate association unit 10 calculates the coordinate conversion using the quaternion, unlike the case where the coordinate conversion is calculated using the Euler angle, there is an advantage that no gimbal lock is generated. . However, the coordinate association unit 10 is not limited to the one that calculates the coordinate conversion using the quaternion, and may perform the coordinate conversion using the Euler angle.

なお、複数の入力画像平面R4上の座標への対応付けが可能な場合、座標対応付け手段10は、空間モデルMD上の座標P(P')を、その入射角αが最も小さいカメラに関する入力画像平面R4上の座標に対応付けるようにしてもよく、操作者が選択した入力画像平面R4上の座標に対応付けるようにしてもよい。   Note that, when it is possible to associate the coordinates on the plurality of input image planes R4, the coordinate associating means 10 inputs the coordinates P (P ′) on the spatial model MD with respect to the camera having the smallest incident angle α. It may be associated with coordinates on the image plane R4, or may be associated with coordinates on the input image plane R4 selected by the operator.

次に、空間モデルMD上の座標のうち、曲面領域R2上の座標(Z軸方向の成分を持つ座標)を、XY平面上にある処理対象画像平面R3に再投影する処理について説明する。   Next, a process of reprojecting coordinates on the curved surface area R2 (coordinates having a component in the Z-axis direction) among the coordinates on the spatial model MD onto the processing target image plane R3 on the XY plane will be described.

図6は、座標対応付け手段10による座標間の対応付けを説明するための図であり、図6(A)は、一例として通常射影(h=ftanα)を採用するカメラ2の入力画像平面R4上の座標と空間モデルMD上の座標との間の対応関係を示す図であって、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標とその座標に対応する空間モデルMD上の座標とを結ぶ線分のそれぞれがカメラ2の光学中心Cを通過するようにして、両座標を対応付ける。   FIG. 6 is a diagram for explaining the association between coordinates by the coordinate association means 10, and FIG. 6A shows an input image plane R4 of the camera 2 that employs a normal projection (h = ftanα) as an example. FIG. 6 is a diagram showing a correspondence relationship between the coordinates on the upper surface and the coordinates on the space model MD, and the coordinate associating means 10 displays the coordinates on the input image plane R4 of the camera 2 and the space model MD corresponding to the coordinates. Both the coordinates are made to correspond to each other so that each of the line segments connecting the coordinates passes through the optical center C of the camera 2.

図6(A)の例では、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標K1を空間モデルMDの平面領域R1上の座標L1に対応付け、カメラ2の入力画像平面R4上の座標K2を空間モデルMDの曲面領域R2上の座標L2に対応付ける。このとき、線分K1−L1及び線分K2−L2は共にカメラ2の光学中心Cを通過する。   In the example of FIG. 6A, the coordinate association means 10 associates the coordinate K1 on the input image plane R4 of the camera 2 with the coordinate L1 on the plane area R1 of the space model MD, and inputs the image 2 R4 of the camera 2. The upper coordinate K2 is associated with the coordinate L2 on the curved surface region R2 of the space model MD. At this time, both the line segment K1-L1 and the line segment K2-L2 pass through the optical center C of the camera 2.

なお、カメラ2が通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、座標対応付け手段10は、それぞれの射影方式に応じて、カメラ2の入力画像平面R4上の座標K1、K2を空間モデルMD上の座標L1、L2に対応付けるようにする。   In addition, when the camera 2 employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the coordinate association unit 10 uses each projection method. Accordingly, the coordinates K1 and K2 on the input image plane R4 of the camera 2 are associated with the coordinates L1 and L2 on the space model MD.

具体的には、座標対応付け手段10は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、入力画像平面上の座標と空間モデルMD上の座標とを対応付ける。この場合、線分K1−L1及び線分K2−L2がカメラ2の光学中心Cを通過することはない。   Specifically, the coordinate association unit 10 is configured to use a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), or equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the input image plane are associated with the coordinates on the space model MD. In this case, the line segment K1-L1 and the line segment K2-L2 do not pass through the optical center C of the camera 2.

図6(B)は、空間モデルMDの曲面領域R2上の座標と処理対象画像平面R3上の座標との間の対応関係を示す図であり、座標対応付け手段10は、XZ平面上に位置する平行線群PLであって、処理対象画像平面R3との間で角度βを形成する平行線群PLを導入し、空間モデルMDの曲面領域R2上の座標とその座標に対応する処理対象画像平面R3上の座標とが共に平行線群PLのうちの一つに乗るようにして、両座標を対応付ける。   FIG. 6B is a diagram showing a correspondence relationship between coordinates on the curved surface region R2 of the space model MD and coordinates on the processing target image plane R3, and the coordinate association unit 10 is positioned on the XZ plane. The parallel line group PL that forms an angle β with the processing target image plane R3 is introduced, and the coordinates on the curved surface region R2 of the spatial model MD and the processing target image corresponding to the coordinates are introduced. The coordinates on the plane R3 are associated with each other such that the coordinates are on one of the parallel line groups PL.

図6(B)の例では、座標対応付け手段10は、空間モデルMDの曲面領域R2上の座標L2と処理対象画像平面R3上の座標M2とが共通の平行線に乗るとして、両座標を対応付けるようにする。   In the example of FIG. 6B, the coordinate matching means 10 assumes that the coordinate L2 on the curved surface region R2 of the space model MD and the coordinate M2 on the processing target image plane R3 are on a common parallel line, and both coordinates are obtained. Make it correspond.

なお、座標対応付け手段10は、空間モデルMDの平面領域R1上の座標を曲面領域R2上の座標と同様に平行線群PLを用いて処理対象画像平面R3上の座標に対応付けることが可能であるが、図6(B)の例では、平面領域R1と処理対象画像平面R3とが共通の平面となっているので、空間モデルMDの平面領域R1上の座標L1と処理対象画像平面R3上の座標M1とは同じ座標値を有するものとなっている。   The coordinate association means 10 can associate the coordinates on the plane area R1 of the spatial model MD with the coordinates on the processing target image plane R3 using the parallel line group PL in the same manner as the coordinates on the curved surface area R2. However, in the example of FIG. 6B, since the plane area R1 and the processing target image plane R3 are a common plane, the coordinates L1 on the plane area R1 of the spatial model MD and the processing target image plane R3 The coordinate M1 has the same coordinate value.

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、空間モデルMD上の座標及び処理対象画像R3上の座標を関連付けて空間モデル・処理対象画像対応マップ41に記憶する。   In this way, the coordinate association unit 10 associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3, and associates the coordinates on the spatial model MD with the coordinates on the processing target image R3. It is stored in the spatial model / processing object image correspondence map 41.

図6(C)は、処理対象画像平面R3上の座標と一例として通常射影(h=ftanα)を採用する仮想カメラ2Vの出力画像平面R5上の座標との間の対応関係を示す図であり、画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標とその座標に対応する処理対象画像平面R3上の座標とを結ぶ線分のそれぞれが仮想カメラ2Vの光学中心CVを通過するようにして、両座標を対応付ける。   FIG. 6C is a diagram illustrating a correspondence relationship between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 of the virtual camera 2V that adopts the normal projection (h = ftanα) as an example. In the image generation means 11, each line segment connecting the coordinates on the output image plane R5 of the virtual camera 2V and the coordinates on the processing target image plane R3 corresponding to the coordinates passes through the optical center CV of the virtual camera 2V. In this way, both coordinates are associated.

図6(C)の例では、画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標N1を処理対象画像平面R3(空間モデルMDの平面領域R1)上の座標M1に対応付け、仮想カメラ2Vの出力画像平面R5上の座標N2を処理対象画像平面R3上の座標M2に対応付ける。このとき、線分M1−N1及び線分M2−N2は共に仮想カメラ2Vの光学中心CVを通過する。   In the example of FIG. 6C, the image generation unit 11 associates the coordinates N1 on the output image plane R5 of the virtual camera 2V with the coordinates M1 on the processing target image plane R3 (plane area R1 of the space model MD), The coordinate N2 on the output image plane R5 of the virtual camera 2V is associated with the coordinate M2 on the processing target image plane R3. At this time, both the line segment M1-N1 and the line segment M2-N2 pass through the optical center CV of the virtual camera 2V.

なお、仮想カメラ2Vが通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、画像生成手段11は、それぞれの射影方式に応じて、仮想カメラ2Vの出力画像平面R5上の座標N1、N2を処理対象画像平面R3上の座標M1、M2に対応付けるようにする。   Note that when the virtual camera 2V employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the image generation unit 11 uses each projection method. Accordingly, the coordinates N1 and N2 on the output image plane R5 of the virtual camera 2V are associated with the coordinates M1 and M2 on the processing target image plane R3.

具体的には、画像生成手段11は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、出力画像平面R5上の座標と処理対象画像平面R3上の座標とを対応付ける。この場合、線分M1−N1及び線分M2−N2が仮想カメラ2Vの光学中心CVを通過することはない。   Specifically, the image generating unit 11 is configured to use a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), or equal solid angle projection (h = 2 fsin (α / 2)). )), Equidistant projection (h = fα), etc.), the coordinates on the output image plane R5 and the coordinates on the processing target image plane R3 are associated with each other. In this case, the line segment M1-N1 and the line segment M2-N2 do not pass through the optical center CV of the virtual camera 2V.

このようにして、画像生成手段11は、出力画像平面R5上の座標と、処理対象画像平面R3上の座標とを対応付け、出力画像平面R5上の座標及び処理対象画像R3上の座標を関連付けて処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10が記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値と入力画像における各画素の値とを関連付けて出力画像を生成する。   In this way, the image generation unit 11 associates the coordinates on the output image plane R5 with the coordinates on the processing target image plane R3, and associates the coordinates on the output image plane R5 with the coordinates on the processing target image R3. Each pixel in the output image while referring to the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41 stored in the processing object image / output image correspondence map 42 and stored by the coordinate association means 10. Is associated with the value of each pixel in the input image to generate an output image.

なお、図6(D)は、図6(A)〜図6(C)を組み合わせた図であり、カメラ2、仮想カメラ2V、空間モデルMDの平面領域R1及び曲面領域R2、並びに、処理対象画像平面R3の相互の位置関係を示す。   FIG. 6D is a combination of FIGS. 6A to 6C. The camera 2, the virtual camera 2V, the plane area R1 and the curved area R2 of the space model MD, and the processing target. The mutual positional relationship of image plane R3 is shown.

次に、図7を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの作用について説明する。   Next, the operation of the parallel line group PL introduced by the coordinate association unit 10 to associate the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described with reference to FIG.

図7(A)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度βが形成される場合の図であり、図7(B)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度β1(β1>β)が形成される場合の図である。また、図7(A)及び図7(B)における空間モデルMDの曲面領域R2上の座標La〜Ldのそれぞれは、処理対象画像平面R3上の座標Ma〜Mdのそれぞれに対応するものとし、図7(A)における座標La〜Ldのそれぞれの間隔は、図7(B)における座標La〜Ldのそれぞれの間隔と等しいものとする。なお、平行線群PLは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の全ての点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、この場合のZ軸を「再投影軸」と称することとする。   FIG. 7A is a diagram in the case where the angle β is formed between the parallel line group PL positioned on the XZ plane and the processing target image plane R3, and FIG. 7B is the diagram on the XZ plane. It is a figure in case angle (beta) 1 ((beta) 1> (beta)) is formed between the parallel line group PL and the process target image plane R3. Also, each of the coordinates La to Ld on the curved surface region R2 of the spatial model MD in FIGS. 7A and 7B corresponds to the coordinates Ma to Md on the processing target image plane R3, respectively. Assume that the intervals between the coordinates La to Ld in FIG. 7A are equal to the intervals between the coordinates La to Ld in FIG. The parallel line group PL is assumed to exist on the XZ plane for the purpose of explanation, but actually exists so as to extend radially from all points on the Z axis toward the processing target image plane R3. It shall be. In this case, the Z axis is referred to as a “reprojection axis”.

図7(A)及び図7(B)で示されるように、処理対象画像平面R3上の座標Ma〜Mdのそれぞれの間隔は、平行線群PLと処理対象画像平面R3との間の角度が増大するにつれて線形的に減少する(空間モデルMDの曲面領域R2と座標Ma〜Mdのそれぞれとの間の距離とは関係なく一様に減少する。)。一方で、空間モデルMDの平面領域R1上の座標群は、図7の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。   As shown in FIGS. 7A and 7B, the distance between the coordinates Ma to Md on the processing target image plane R3 is such that the angle between the parallel line group PL and the processing target image plane R3 is the same. As it increases, it decreases linearly (it decreases uniformly regardless of the distance between the curved surface region R2 of the spatial model MD and each of the coordinates Ma to Md). On the other hand, since the coordinate group on the plane region R1 of the space model MD is not converted into the coordinate group on the processing target image plane R3 in the example of FIG. 7, the interval between the coordinate groups does not change. .

これら座標群の間隔の変化は、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが線形的に拡大或いは縮小されることを意味する。   The change in the interval between these coordinate groups is such that only the image portion corresponding to the image projected on the curved surface region R2 of the spatial model MD is linearly enlarged or out of the image portion on the output image plane R5 (see FIG. 6). It means to be reduced.

次に、図8を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの代替例について説明する。   Next, an alternative example of the parallel line group PL introduced by the coordinate association unit 10 to associate the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described with reference to FIG.

図8(A)は、XZ平面上に位置する補助線群ALの全てがZ軸上の始点T1から処理対象画像平面R3に向かって延びる場合の図であり、図8(B)は、補助線群ALの全てがZ軸上の始点T2(T2>T1)から処理対象画像平面R3に向かって延びる場合の図である。また、図8(A)及び図8(B)における空間モデルMDの曲面領域R2上の座標La〜Ldのそれぞれは、処理対象画像平面R3上の座標Ma〜Mdのそれぞれに対応するものとし(図8(A)の例では、座標Mc、Mdは、処理対象画像平面R3の領域外となるため図示されていない。)、図8(A)における座標La〜Ldのそれぞれの間隔は、図8(B)における座標La〜Ldのそれぞれの間隔と等しいものとする。なお、補助線群ALは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の任意の一点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、図7と同様、この場合のZ軸を「再投影軸」と称することとする。   FIG. 8A is a diagram in the case where all of the auxiliary line groups AL located on the XZ plane extend from the start point T1 on the Z axis toward the processing target image plane R3, and FIG. It is a figure in case all the line groups AL extend toward the process target image plane R3 from the starting point T2 (T2> T1) on the Z axis. 8A and 8B, the coordinates La to Ld on the curved surface region R2 of the spatial model MD correspond to the coordinates Ma to Md on the processing target image plane R3 ( In the example of FIG. 8A, the coordinates Mc and Md are not shown because they are outside the region of the processing target image plane R3.) The intervals between the coordinates La to Ld in FIG. It is assumed that the interval between the coordinates La to Ld in 8 (B) is equal. The auxiliary line group AL is assumed to exist on the XZ plane for the purpose of explanation, but actually exists so as to extend radially from an arbitrary point on the Z axis toward the processing target image plane R3. It shall be. As in FIG. 7, the Z axis in this case is referred to as a “reprojection axis”.

図8(A)及び図8(B)で示されるように、処理対象画像平面R3上の座標Ma〜Mdのそれぞれの間隔は、補助線群ALの始点と原点Oとの間の距離(高さ)が増大するにつれて非線形的に減少する(空間モデルMDの曲面領域R2と座標Ma〜Mdのそれぞれとの間の距離が大きいほど、それぞれの間隔の減少幅が大きくなる。)。一方で、空間モデルMDの平面領域R1上の座標群は、図8の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。   As shown in FIGS. 8A and 8B, the distance between the coordinates Ma to Md on the processing target image plane R3 is the distance (high) between the starting point of the auxiliary line group AL and the origin O. As the distance between the curved surface region R2 of the space model MD and each of the coordinates Ma to Md is larger, the width of reduction of each interval is larger. On the other hand, since the coordinate group on the plane region R1 of the spatial model MD is not converted into the coordinate group on the processing target image plane R3 in the example of FIG. 8, the interval between the coordinate groups does not change. .

これら座標群の間隔の変化は、平行線群PLのときと同様、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが非線形的に拡大或いは縮小されることを意味する。   The change in the interval between these coordinate groups corresponds to the image projected on the curved surface region R2 of the spatial model MD in the image portion on the output image plane R5 (see FIG. 6), as in the case of the parallel line group PL. It means that only the image portion is enlarged or reduced nonlinearly.

このようにして、画像生成装置100は、空間モデルMDの平面領域R1に投影された画像に対応する出力画像の画像部分(例えば、路面画像である。)に影響を与えることなく、空間モデルMDの曲面領域R2に投影された画像に対応する出力画像の画像部分(例えば、水平画像である。)を線形的に或いは非線形的に拡大或いは縮小させることができるので、ショベル60の近傍の路面画像(ショベル60を真上から見たときの仮想画像)に影響を与えることなく、ショベル60の周囲に位置する物体(ショベル60から水平方向に周囲を見たときの画像における物体)を迅速且つ柔軟に拡大或いは縮小させることができ、ショベル60の死角領域の視認性を向上させることができる。   In this way, the image generation device 100 does not affect the image portion (for example, a road surface image) of the output image corresponding to the image projected on the plane region R1 of the space model MD, and does not affect the space model MD. Since the image portion (for example, a horizontal image) of the output image corresponding to the image projected on the curved surface area R2 can be linearly or nonlinearly enlarged or reduced, the road surface image in the vicinity of the excavator 60 Without affecting the excavator 60 (virtual image when viewed from directly above), an object located in the periphery of the excavator 60 (an object in the image when viewed in the horizontal direction from the excavator 60) can be quickly and flexibly The visibility of the blind spot area of the excavator 60 can be improved.

次に、図9を参照しながら、画像生成装置100が処理対象画像を生成する処理(以下、「処理対象画像生成処理」とする。)、及び、生成した処理対象画像を用いて出力画像を生成する処理(以下、「出力画像生成処理」とする。)について説明する。なお、図9は、処理対象画像生成処理(ステップS1〜ステップS3)及び出力画像生成処理(ステップS4〜ステップS6)の流れを示すフローチャートである。また、カメラ2(入力画像平面R4)、空間モデル(平面領域R1及び曲面領域R2)、並びに、処理対象画像平面R3の配置は予め決定されているものとする。   Next, referring to FIG. 9, the image generation apparatus 100 generates a processing target image (hereinafter referred to as “processing target image generation processing”), and an output image using the generated processing target image. Processing to be generated (hereinafter referred to as “output image generation processing”) will be described. FIG. 9 is a flowchart showing the flow of the processing target image generation process (steps S1 to S3) and the output image generation process (steps S4 to S6). Further, it is assumed that the arrangement of the camera 2 (input image plane R4), the space model (plane area R1 and curved surface area R2), and the processing target image plane R3 is determined in advance.

最初に、制御部1は、座標対応付け手段10により、処理対象画像平面R3上の座標と空間モデルMD上の座標とを対応付ける(ステップS1)。   First, the control unit 1 associates the coordinates on the processing target image plane R3 with the coordinates on the space model MD using the coordinate association unit 10 (step S1).

具体的には、座標対応付け手段10は、平行線群PLと処理対象画像平面R3との間に形成される角度を取得し、処理対象画像平面R3上の一座標から延びる平行線群PLの一つが空間モデルMDの曲面領域R2と交差する点を算出し、算出した点に対応する曲面領域R2上の座標を、処理対象画像平面R3上のその一座標に対応する曲面領域R2上の一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。なお、平行線群PLと処理対象画像平面R3との間に形成される角度は、記憶部4等に予め記憶された値であってもよく、入力部3を介して操作者が動的に入力する値であってもよい。   Specifically, the coordinate association unit 10 obtains an angle formed between the parallel line group PL and the processing target image plane R3, and the parallel line group PL extending from one coordinate on the processing target image plane R3. One point that intersects the curved surface region R2 of the space model MD is calculated, and a coordinate on the curved surface region R2 corresponding to the calculated point is set to one on the curved surface region R2 corresponding to the one coordinate on the processing target image plane R3. The coordinates are derived as coordinates, and the corresponding relationship is stored in the space model / processing object image correspondence map 41. It should be noted that the angle formed between the parallel line group PL and the processing target image plane R3 may be a value stored in advance in the storage unit 4 or the like. It may be a value to be entered.

また、座標対応付け手段10は、処理対象画像平面R3上の一座標が空間モデルMDの平面領域R1上の一座標と一致する場合には、平面領域R1上のその一座標を、処理対象画像平面R3上のその一座標に対応する一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。   In addition, when one coordinate on the processing target image plane R3 matches one coordinate on the plane area R1 of the space model MD, the coordinate association unit 10 uses the one coordinate on the plane area R1 as the processing target image. It is derived as one coordinate corresponding to the one coordinate on the plane R3, and the correspondence is stored in the space model / processing object image correspondence map 41.

その後、制御部1は、座標対応付け手段10により、上述の処理によって導き出された空間モデルMD上の一座標と入力画像平面R4上の座標とを対応付ける(ステップS2)。   Thereafter, the control unit 1 causes the coordinate association unit 10 to associate one coordinate on the spatial model MD derived by the above-described processing with a coordinate on the input image plane R4 (step S2).

具体的には、座標対応付け手段10は、通常射影(h=ftanα)を採用するカメラ2の光学中心Cの座標を取得し、空間モデルMD上の一座標から延びる線分であり、光学中心Cを通過する線分が入力画像平面R4と交差する点を算出し、算出した点に対応する入力画像平面R4上の座標を、空間モデルMD上のその一座標に対応する入力画像平面R4上の一座標として導き出し、その対応関係を入力画像・空間モデル対応マップ40に記憶する。   Specifically, the coordinate association unit 10 acquires the coordinates of the optical center C of the camera 2 that employs normal projection (h = ftanα), is a line segment extending from one coordinate on the space model MD, and the optical center A point where the line segment passing through C intersects the input image plane R4 is calculated, and the coordinates on the input image plane R4 corresponding to the calculated point are set on the input image plane R4 corresponding to the one coordinate on the space model MD. And the corresponding relationship is stored in the input image / space model correspondence map 40.

その後、制御部1は、処理対象画像平面R3上の全ての座標を空間モデルMD上の座標及び入力画像平面R4上の座標に対応付けたか否かを判定し(ステップS3)、未だ全ての座標を対応付けていないと判定した場合には(ステップS3のNO)、ステップS1及びステップS2の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinates on the processing target image plane R3 are associated with the coordinates on the space model MD and the coordinates on the input image plane R4 (step S3), and all the coordinates are still set. Are determined to be not associated (NO in step S3), the processes in steps S1 and S2 are repeated.

一方、制御部1は、全ての座標を対応付けたと判定した場合には(ステップS3のYES)、処理対象画像生成処理を終了させた上で出力画像生成処理を開始させ、画像生成手段11により、処理対象画像平面R3上の座標と出力画像平面R5上の座標とを対応付ける(ステップS4)。   On the other hand, when it is determined that all the coordinates are associated (YES in step S3), the control unit 1 ends the processing target image generation process, starts the output image generation process, and the image generation unit 11 The coordinates on the processing target image plane R3 are associated with the coordinates on the output image plane R5 (step S4).

具体的には、画像生成手段11は、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって出力画像を生成し、施したスケール変換、アフィン変換、又は歪曲変換の内容によって定まる、処理対象画像平面R3上の座標と出力画像平面R5上の座標との間の対応関係を処理対象画像・出力画像対応マップ42に記憶する。   Specifically, the image generation unit 11 generates an output image by performing scale conversion, affine conversion, or distortion conversion on the processing target image, and is determined by the content of the applied scale conversion, affine conversion, or distortion conversion. The correspondence between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 is stored in the processing target image / output image correspondence map 42.

或いは、画像生成手段11は、仮想カメラ2Vを用いて出力画像を生成する場合には、採用した射影方式に応じて処理対象画像平面R3上の座標から出力画像平面R5上の座標を算出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。   Alternatively, when generating the output image using the virtual camera 2V, the image generation unit 11 calculates the coordinates on the output image plane R5 from the coordinates on the processing target image plane R3 according to the adopted projection method, The correspondence relationship may be stored in the processing target image / output image correspondence map 42.

或いは、画像生成手段11は、通常射影(h=ftanα)を採用する仮想カメラ2Vを用いて出力画像を生成する場合には、その仮想カメラ2Vの光学中心CVの座標を取得した上で、出力画像平面R5上の一座標から延びる線分であり、光学中心CVを通過する線分が処理対象画像平面R3と交差する点を算出し、算出した点に対応する処理対象画像平面R3上の座標を、出力画像平面R5上のその一座標に対応する処理対象画像平面R3上の一座標として導き出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。   Alternatively, when the output image is generated using the virtual camera 2V that employs normal projection (h = ftanα), the image generation unit 11 obtains the coordinates of the optical center CV of the virtual camera 2V and outputs A line segment extending from one coordinate on the image plane R5, a point where a line segment passing through the optical center CV intersects the processing target image plane R3 is calculated, and the coordinates on the processing target image plane R3 corresponding to the calculated point May be derived as one coordinate on the processing target image plane R3 corresponding to the one coordinate on the output image plane R5, and the correspondence relationship may be stored in the processing target image / output image correspondence map 42.

その後、制御部1は、画像生成手段11により、入力画像・空間モデル対応マップ40、空間モデル・処理対象画像対応マップ41、及び処理対象画像・出力画像対応マップ42を参照しながら入力画像平面R4上の座標と空間モデルMD上の座標との対応関係、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応関係、及び処理対象画像平面R3上の座標と出力画像平面R5上の座標との対応関係を辿り、出力画像平面R5上の各座標に対応する入力画像平面R4上の座標が有する値(例えば、輝度値、色相値、彩度値等である。)を取得し、その取得した値を、対応する出力画像平面R5上の各座標の値として採用する(ステップS5)。なお、出力画像平面R5上の一座標に対して複数の入力画像平面R4上の複数の座標が対応する場合、画像生成手段11は、それら複数の入力画像平面R4上の複数の座標のそれぞれの値に基づく統計値(例えば、平均値、最大値、最小値、中間値等である。)を導き出し、出力画像平面R5上のその一座標の値としてその統計値を採用するようにしてもよい。   Thereafter, the control unit 1 uses the image generation unit 11 to refer to the input image plane R4 while referring to the input image / space model correspondence map 40, the space model / processing target image correspondence map 41, and the processing target image / output image correspondence map 42. The correspondence between the coordinates on the space model MD and the coordinates on the space model MD, the correspondence between the coordinates on the space model MD and the coordinates on the processing target image plane R3, and the coordinates on the processing target image plane R3 and the output image plane R5 And the values of the coordinates on the input image plane R4 corresponding to the coordinates on the output image plane R5 (for example, luminance values, hue values, saturation values, etc.) are obtained. The acquired value is adopted as the value of each coordinate on the corresponding output image plane R5 (step S5). Note that when a plurality of coordinates on the plurality of input image planes R4 correspond to one coordinate on the output image plane R5, the image generation unit 11 uses each of the plurality of coordinates on the plurality of input image planes R4. A statistical value based on the value (for example, average value, maximum value, minimum value, intermediate value, etc.) may be derived, and the statistical value may be adopted as the value of the one coordinate on the output image plane R5. .

その後、制御部1は、出力画像平面R5上の全ての座標の値を入力画像平面R4上の座標の値に対応付けたか否かを判定し(ステップS6)、未だ全ての座標の値を対応付けていないと判定した場合には(ステップS6のNO)、ステップS4及びステップS5の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinate values on the output image plane R5 are associated with the coordinate values on the input image plane R4 (step S6), and all the coordinate values are still associated. If it is determined that it is not attached (NO in step S6), the processes in steps S4 and S5 are repeated.

一方、制御部1は、全ての座標の値を対応付けたと判定した場合には(ステップS6のYES)、出力画像を生成して、この一連の処理を終了させる。   On the other hand, if the control unit 1 determines that all coordinate values are associated (YES in step S6), the control unit 1 generates an output image and ends the series of processes.

なお、画像生成装置100は、処理対象画像を生成しない場合には、処理対象画像生成処理を省略し、出力画像生成処理におけるステップS4の"処理対象画像平面上の座標"を"空間モデル上の座標"で読み替えるものとする。   Note that, when the processing target image is not generated, the image generation apparatus 100 omits the processing target image generation processing, and sets “coordinates on the processing target image plane” in step S4 in the output image generation processing to “on the spatial model”. It shall be read as "coordinates".

以上の構成により、画像生成装置100は、ショベル60の周囲の物体とショベル60との位置関係を操作者に直感的に把握させることが可能な処理対象画像及び出力画像を生成することができる。   With the above configuration, the image generation apparatus 100 can generate a processing target image and an output image that allow the operator to intuitively grasp the positional relationship between the object around the excavator 60 and the excavator 60.

また、画像生成装置100は、処理対象画像平面R3から空間モデルMDを経て入力画像平面R4に遡るように座標の対応付けを実行することにより、処理対象画像平面R3上の各座標を入力画像平面R4上の一又は複数の座標に確実に対応させることができ、入力画像平面R4から空間モデルMDを経て処理対象画像平面R3に至る順番で座標の対応付けを実行する場合と比べ(この場合には、入力画像平面R4上の各座標を処理対象画像平面R3上の一又は複数の座標に確実に対応させることができるが、処理対象画像平面R3上の座標の一部が、入力画像平面R4上の何れの座標にも対応付けられない場合があり、その場合にはそれら処理対象画像平面R3上の座標の一部に補間処理等を施す必要がある。)、より良質な処理対象画像を迅速に生成することができる。   Further, the image generation apparatus 100 associates coordinates on the processing target image plane R3 from the processing target image plane R3 to the input image plane R4 through the spatial model MD, thereby obtaining the coordinates on the processing target image plane R3. One or more coordinates on R4 can be reliably associated, and compared with a case where coordinates are associated in the order from the input image plane R4 to the processing target image plane R3 via the spatial model MD (in this case) Can reliably correspond each coordinate on the input image plane R4 to one or a plurality of coordinates on the processing target image plane R3. However, a part of the coordinates on the processing target image plane R3 is part of the input image plane R4. In some cases, the coordinates may not be associated with any of the above coordinates, and in such a case, it is necessary to perform interpolation processing or the like on a part of the coordinates on the processing target image plane R3). It is possible to rapidly generate.

また、画像生成装置100は、空間モデルMDの曲面領域R2に対応する画像のみを拡大或いは縮小する場合には、平行線群PLと処理対象画像平面R3との間に形成される角度を変更して空間モデル・処理対象画像対応マップ41における曲面領域R2に関連する部分のみを書き換えるだけで、入力画像・空間モデル対応マップ40の内容を書き換えることなく、所望の拡大或いは縮小を実現させることができる。   Further, when enlarging or reducing only the image corresponding to the curved surface region R2 of the space model MD, the image generating apparatus 100 changes the angle formed between the parallel line group PL and the processing target image plane R3. Thus, it is possible to realize a desired enlargement or reduction without rewriting the contents of the input image / space model correspondence map 40 only by rewriting only the portion related to the curved surface region R2 in the space model / processing object image correspondence map 41. .

また、画像生成装置100は、出力画像の見え方を変更する場合には、スケール変換、アフィン変換又は歪曲変換に関する各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の出力画像(スケール変換画像、アフィン変換画像又は歪曲変換画像)を生成することができる。   Further, when changing the appearance of the output image, the image generating apparatus 100 simply rewrites the processing target image / output image correspondence map 42 by changing the values of various parameters relating to scale conversion, affine transformation, or distortion transformation. The desired output image (scale-converted image, affine-transformed image, or distortion-converted image) can be generated without rewriting the contents of the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41.

同様に、画像生成装置100は、出力画像の視点を変更する場合には、仮想カメラ2Vの各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の視点から見た出力画像(視点変換画像)を生成することができる。   Similarly, when changing the viewpoint of the output image, the image generating apparatus 100 simply changes the values of various parameters of the virtual camera 2V and rewrites the processing target image / output image correspondence map 42 to change the input image / space. An output image (viewpoint conversion image) viewed from a desired viewpoint can be generated without rewriting the contents of the model correspondence map 40 and the space model / processing object image correspondence map 41.

図10は、ショベル60に搭載された二台のカメラ2(右側方カメラ2R及び後方カメラ2B)の入力画像を用いて生成される出力画像を表示部5に表示させたときの表示例である。   FIG. 10 is a display example when an output image generated using input images of two cameras 2 (the right side camera 2R and the rear camera 2B) mounted on the excavator 60 is displayed on the display unit 5. .

画像生成装置100は、それら二台のカメラ2のそれぞれの入力画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成し、その生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成して、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周囲を見た画像(処理対象画像平面R3における画像)とを同時に表示している。   The image generation apparatus 100 projects the input images of the two cameras 2 onto the plane region R1 and the curved surface region R2 of the space model MD, and then reprojects them onto the processing target image plane R3 to generate a processing target image. Then, an image conversion process (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion process, etc.) is performed on the generated processing target image to generate an output image, and the vicinity of the excavator 60 can be seen from above. An image looking down (image in the plane region R1) and an image looking around in the horizontal direction from the excavator 60 (image in the processing target image plane R3) are simultaneously displayed.

なお、出力画像は、画像生成装置100が処理対象画像を生成しない場合には、空間モデルMDに投影された画像に画像変換処理(例えば、視点変換処理である。)を施すことによって生成されるものとする。   When the image generation apparatus 100 does not generate the processing target image, the output image is generated by performing image conversion processing (for example, viewpoint conversion processing) on the image projected on the space model MD. Shall.

また、出力画像は、ショベル60が旋回動作を行う際の画像を違和感なく表示できるよう、円形にトリミングされ、その円の中心CTRが空間モデルMDの円筒中心軸上で、且つ、ショベル60の旋回軸PV上となるように生成されており、ショベル60の旋回動作に応じてその中心CTRを軸に回転するように表示される。この場合、空間モデルMDの円筒中心軸は、再投影軸と一致するものであってもよく、一致しないものであってもよい。   The output image is trimmed in a circle so that the image when the excavator 60 performs the turning motion can be displayed without a sense of incongruity, and the center CTR of the circle is on the cylindrical central axis of the space model MD and the excavator 60 is turned. It is generated so as to be on the axis PV, and is displayed so as to rotate about its center CTR in accordance with the turning operation of the excavator 60. In this case, the cylindrical central axis of the space model MD may or may not coincide with the reprojection axis.

なお、空間モデルMDの半径は、例えば、5メートルであり、平行線群PLが処理対象画像平面R3との間で形成する角度、又は、補助線群ALの始点高さは、ショベル60の旋回中心から掘削アタッチメントEの最大到達距離(例えば12メートルである。)だけ離れた位置に物体(例えば、作業員である。)が存在する場合にその物体が表示部5で十分大きく(例えば、7ミリメートル以上である。)表示されるように、設定され得る。   The radius of the space model MD is, for example, 5 meters, and the angle formed between the parallel line group PL and the processing target image plane R3 or the starting point height of the auxiliary line group AL is the turning of the shovel 60. When an object (for example, a worker) exists at a position away from the center by a maximum reachable distance (for example, 12 meters) of the excavation attachment E, the object is sufficiently large (for example, 7) It can be set to be displayed.

更に、出力画像は、ショベル60のCG画像を、ショベル60の前方が表示部5の画面上方と一致し、且つ、その旋回中心が中心CTRと一致するように配置するようにしてもよい。ショベル60と出力画像に現れる物体との間の位置関係をより分かり易くするためである。なお、出力画像は、方位等の各種情報を含む額縁画像をその周囲に配置するようにしてもよい。   Further, the output image may be a CG image of the excavator 60 arranged so that the front of the excavator 60 coincides with the upper part of the screen of the display unit 5 and the turning center thereof coincides with the center CTR. This is to make the positional relationship between the shovel 60 and the object appearing in the output image easier to understand. Note that a frame image including various kinds of information such as an orientation may be arranged around the output image.

次に、図11〜図14を参照しながら、画像生成装置100が生成する出力画像の別の例について説明する。   Next, another example of an output image generated by the image generation apparatus 100 will be described with reference to FIGS.

図11は、画像生成装置100を搭載するショベル60の上面図である。図11に示す実施例では、ショベル60は、3台のカメラ2と、3台のカメラ2のそれぞれの左右両側に設置される合計6台の物体検出センサ6とを備える。3台のカメラ2は、左側方カメラ2L、右側方カメラ2R、及び後方カメラ2Bを含む。6台の物体検出センサ6は、第1左側方物体検出センサ6L1、第2左側方物体検出センサ6L2、第1右側方物体検出センサ6R1、第2右側方物体検出センサ6R2、第1後方物体検出センサ6B1、及び第2後方物体検出センサ6B2を含む。なお、図11の一点鎖線で示す領域CL、CR、CBは、それぞれ、左側方カメラ2L、右側方カメラ2R、後方カメラ2Bの撮像領域を示す。また、図11の太い点線で示す領域ZL1、ZR1、ZB1は、それぞれ、第1左側方物体検出センサ6L1、第1後方物体検出センサ6B1、第1右側方物体検出センサ6R1の検出範囲を示す。また、図11の細い点線で示す領域ZL2、ZR2、ZB2は、それぞれ、第2左側方物体検出センサ6L2、第2後方物体検出センサ6B2、第2右側方物体検出センサ6R2の検出範囲を示す。   FIG. 11 is a top view of the excavator 60 on which the image generating apparatus 100 is mounted. In the embodiment shown in FIG. 11, the excavator 60 includes three cameras 2 and a total of six object detection sensors 6 installed on the left and right sides of each of the three cameras 2. The three cameras 2 include a left side camera 2L, a right side camera 2R, and a rear camera 2B. The six object detection sensors 6 include a first left side object detection sensor 6L1, a second left side object detection sensor 6L2, a first right side object detection sensor 6R1, a second right side object detection sensor 6R2, and a first rear object detection. A sensor 6B1 and a second rear object detection sensor 6B2 are included. In addition, areas CL, CR, and CB indicated by alternate long and short dashed lines in FIG. 11 indicate imaging areas of the left camera 2L, the right camera 2R, and the rear camera 2B, respectively. In addition, areas ZL1, ZR1, and ZB1 indicated by thick dotted lines in FIG. 11 indicate detection ranges of the first left side object detection sensor 6L1, the first rear object detection sensor 6B1, and the first right side object detection sensor 6R1, respectively. In addition, areas ZL2, ZR2, and ZB2 indicated by thin dotted lines in FIG. 11 indicate detection ranges of the second left side object detection sensor 6L2, the second rear object detection sensor 6B2, and the second right side object detection sensor 6R2, respectively.

なお、本実施例では、領域ZL1、ZB1、ZR1及び領域ZL2、ZB2、ZR2の形状は、ショベル60の旋回軸を中心とする円の一部を構成する扇形であり、同じ大きさを有する。但し、領域ZL1、ZL2、ZB1、ZB2、ZR1、ZR2は、それぞれ異なる形状及び大きさを有していてもよい。例えば、領域ZL1、ZL2、ZB1、ZB2、ZR1、ZR2は、それぞれ異なる扇形の中心角を有していてもよい。所定領域が小さい程、物体の存在が推定される領域をより高精度に絞り込むことができるためである。この場合、物体検出センサ6の数、設置位置、検出領域は、各所定領域の所望の形状及び大きさに応じて設定される。   In the present embodiment, the shapes of the regions ZL1, ZB1, ZR1 and the regions ZL2, ZB2, ZR2 are sector shapes that form part of a circle centered on the pivot axis of the excavator 60 and have the same size. However, the regions ZL1, ZL2, ZB1, ZB2, ZR1, and ZR2 may have different shapes and sizes. For example, the regions ZL1, ZL2, ZB1, ZB2, ZR1, and ZR2 may have different fan-shaped central angles. This is because the smaller the predetermined area, the more precisely the area where the presence of the object is estimated can be narrowed down. In this case, the number, installation positions, and detection areas of the object detection sensors 6 are set according to a desired shape and size of each predetermined area.

また、図11では、図の明瞭化のため、領域ZL1、ZB1、ZR1と領域ZL2、ZB2、ZR2とが半径方向に僅かにずれているが、このずれは必須ではない。   In FIG. 11, for the sake of clarity, the regions ZL1, ZB1, ZR1 and the regions ZL2, ZB2, ZR2 are slightly displaced in the radial direction, but this displacement is not essential.

また、本実施例では、図11に示すように、物体検出センサ6の検出範囲がカメラ2の撮像領域よりも狭いが、カメラ2の撮像領域と同じでもよく、カメラ2の撮像領域より広くてもよい。また、本実施例では、図11に示すように、物体検出センサ6の検出範囲は、カメラ2の撮像領域内において、ショベル60の近傍に位置するが、ショベル60からより遠い領域にあってもよい。   In this embodiment, as shown in FIG. 11, the detection range of the object detection sensor 6 is narrower than the imaging area of the camera 2, but may be the same as the imaging area of the camera 2 and wider than the imaging area of the camera 2. Also good. Further, in this embodiment, as shown in FIG. 11, the detection range of the object detection sensor 6 is located in the vicinity of the shovel 60 in the imaging region of the camera 2, but even in a region farther from the shovel 60. Good.

また、本実施例では、図11に示すように、領域ZL1、ZB1、ZR1は、互いに重複しないように隣接して配置される。同様に、領域ZL2、ZB2、ZR2も、互いに重複しないように隣接して配置される。一方で、領域ZL1と領域ZL2とは互いに一部が重複するように配置される。領域ZB1と領域ZB2との重複関係、及び、領域ZR1と領域ZR2との重複関係についても同様である。但し、領域ZL1、ZL2、ZB1、ZB2、ZR1、ZR2は、互いに重複しないように配置されてもよい。   In the present embodiment, as shown in FIG. 11, the regions ZL1, ZB1, and ZR1 are arranged adjacent to each other so as not to overlap each other. Similarly, the regions ZL2, ZB2, and ZR2 are also arranged adjacent to each other so as not to overlap each other. On the other hand, the region ZL1 and the region ZL2 are arranged so as to partially overlap each other. The same applies to the overlapping relationship between the region ZB1 and the region ZB2 and the overlapping relationship between the region ZR1 and the region ZR2. However, the regions ZL1, ZL2, ZB1, ZB2, ZR1, and ZR2 may be arranged so as not to overlap each other.

図12は、ショベル60に搭載された3台のカメラ2のそれぞれの入力画像と、それら入力画像を用いて生成される出力画像とを示す図である。   FIG. 12 is a diagram illustrating input images of the three cameras 2 mounted on the excavator 60 and output images generated using the input images.

画像生成装置100は、3台のカメラ2のそれぞれの入力画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成する。また、画像生成装置100は、生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成する。その結果、画像生成装置100は、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周囲を見た画像(処理対象画像平面R3における画像)とを同時に表示する。なお、出力画像の中央に表示される画像は、ショベル60のCG画像60CGである。   The image generation apparatus 100 projects the input images of the three cameras 2 onto the plane area R1 and the curved surface area R2 of the space model MD, and then reprojects them onto the process target image plane R3 to generate a process target image. . The image generation apparatus 100 generates an output image by performing image conversion processing (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion processing, etc.) on the generated processing target image. As a result, the image generating apparatus 100 includes an image in which the vicinity of the excavator 60 is looked down from above (an image in the plane region R1) and an image in which the periphery is viewed from the shovel 60 in the horizontal direction (an image in the processing target image plane R3). Display at the same time. The image displayed at the center of the output image is a CG image 60CG of the excavator 60.

図12において、右側方カメラ2Rの入力画像、及び、後方カメラ2Bの入力画像はそれぞれ、右側方カメラ2Rの撮像領域と後方カメラ2Bの撮像領域との重複撮像領域内に人物を捉えている(右側方カメラ2Rの入力画像における二点鎖線で囲まれる領域R10、及び、後方カメラ2Bの入力画像における二点鎖線で囲まれる領域R11参照。)。   In FIG. 12, the input image of the right-side camera 2R and the input image of the rear camera 2B each capture a person in the overlapping imaging region of the imaging region of the right-side camera 2R and the imaging region of the rear camera 2B ( (See a region R10 surrounded by a two-dot chain line in the input image of the right camera 2R and a region R11 surrounded by a two-dot chain line in the input image of the rear camera 2B.)

しかしながら、出力画像平面上の座標が入射角の最も小さいカメラに関する入力画像平面上の座標に対応付けられるものとすると、出力画像は、重複撮像領域内の人物を消失させてしまう(出力画像内の一点鎖線で囲まれる領域R12参照。)。   However, if the coordinates on the output image plane are associated with the coordinates on the input image plane for the camera with the smallest incident angle, the output image will cause the person in the overlapping imaging area to disappear (in the output image (Refer area | region R12 enclosed with a dashed-dotted line.).

そこで、画像生成装置100は、重複撮像領域に対応する出力画像部分において、後方カメラ2Bの入力画像平面上の座標が対応付けられる領域と、右側方カメラ2Rの入力画像平面上の座標が対応付けられる領域とを混在させ、重複撮像領域内の物体が消失するのを防止する。   Therefore, the image generation apparatus 100 associates the region on the input image plane of the rear camera 2B with the coordinate on the input image plane of the right-side camera 2R in the output image portion corresponding to the overlapping imaging region. To prevent the objects in the overlapping imaging area from disappearing.

図13は、2つのカメラのそれぞれの撮像領域の重複撮像領域における物体の消失を防止する画像消失防止処理を説明するための図である。   FIG. 13 is a diagram for explaining an image disappearance prevention process for preventing the disappearance of an object in the overlapping image capturing area of the image capturing areas of the two cameras.

図13(A)は、右側方カメラ2Rの撮像領域と後方カメラ2Bの撮像領域との重複撮像領域に対応する出力画像部分を示す図であり、図12の点線で示す矩形領域R13に対応する。   FIG. 13A is a diagram illustrating an output image portion corresponding to an overlapping imaging region of the imaging region of the right camera 2R and the imaging region of the rear camera 2B, and corresponds to the rectangular region R13 indicated by the dotted line in FIG. .

また、図13(A)において、灰色で塗り潰された領域PR1は、後方カメラ2Bの入力画像部分が配置される画像領域であり、領域PR1に対応する出力画像平面上の各座標には後方カメラ2Bの入力画像平面上の座標が対応付けられる。   In FIG. 13A, a gray area PR1 is an image area in which the input image portion of the rear camera 2B is arranged, and each coordinate on the output image plane corresponding to the area PR1 has a rear camera. Coordinates on the 2B input image plane are associated.

一方、白色で塗り潰された領域PR2は、右側方カメラ2Rの入力画像部分が配置される画像領域であり、部分PR2に対応する出力画像平面上の各座標には右側方カメラ2Rの入力画像平面上の座標が対応付けられる。   On the other hand, a region PR2 filled with white is an image region in which the input image portion of the right side camera 2R is arranged, and each coordinate on the output image plane corresponding to the portion PR2 has an input image plane of the right side camera 2R. The upper coordinates are associated.

本実施例では、領域PR1と領域PR2とが縞模様を形成するように配置され、領域PR1と領域PR2とが縞状に交互に並ぶ部分の境界線は、ショベル60の旋回中心を中心とする水平面上の同心円によって定められる。   In the present embodiment, the region PR1 and the region PR2 are arranged so as to form a stripe pattern, and the boundary line of the portion where the regions PR1 and the region PR2 are alternately arranged in a stripe shape is centered on the turning center of the excavator 60. Determined by concentric circles on a horizontal plane.

図13(B)は、ショベル60の右斜め後方の空間領域の状況を示す上面図であり、後方カメラ2B及び右側方カメラ2Rの双方によって撮像される空間領域の現在の状況を示す。また、図13(B)は、ショベル60の右斜め後方に棒状の立体物OBが存在することを示す。   FIG. 13B is a top view showing the state of the space region diagonally right behind the shovel 60, and shows the current state of the space region imaged by both the rear camera 2B and the right side camera 2R. FIG. 13B shows that a rod-shaped three-dimensional object OB exists behind the excavator 60 diagonally to the right.

図13(C)は、図13(B)が示す空間領域を後方カメラ2B及び右側方カメラ2Rで実際に撮像して得られた入力画像に基づいて生成される出力画像の一部を示す。   FIG. 13C shows a part of an output image generated based on an input image obtained by actually capturing the spatial region shown in FIG. 13B with the rear camera 2B and the right side camera 2R.

具体的には、画像OB1は、後方カメラ2Bの入力画像における立体物OBの画像が、路面画像を生成するための視点変換によって、後方カメラ2Bと立体物OBとを結ぶ線の延長方向に伸長されたものを表す。すなわち、画像OB1は、後方カメラ2Bの入力画像を用いて出力画像部分における路面画像を生成した場合に表示される立体物OBの画像の一部である。   Specifically, the image OB1 is expanded in the extension direction of the line connecting the rear camera 2B and the three-dimensional object OB by the viewpoint conversion for generating the road surface image of the three-dimensional object OB in the input image of the rear camera 2B. Represents what was done. That is, the image OB1 is a part of the image of the three-dimensional object OB displayed when the road surface image in the output image portion is generated using the input image of the rear camera 2B.

また、画像OB2は、右後方カメラ2Rの入力画像における立体物OBの画像が、路面画像を生成するための視点変換によって、右側方カメラ2Rと立体物OBとを結ぶ線の延長方向に伸長されたものを表す。すなわち、画像OB2は、右側方カメラ2Rの入力画像を用いて出力画像部分における路面画像を生成した場合に表示される立体物OBの画像の一部である。   Further, the image OB2 is expanded in the extension direction of the line connecting the right-side camera 2R and the three-dimensional object OB by the viewpoint conversion for generating the road surface image of the three-dimensional object OB in the input image of the right rear camera 2R. Represents a thing. That is, the image OB2 is a part of an image of the three-dimensional object OB displayed when a road surface image in the output image portion is generated using the input image of the right side camera 2R.

このように、画像生成装置100は、重複撮像領域において、後方カメラ2Bの入力画像平面上の座標が対応付けられる領域PR1と、右側方カメラ2Rの入力画像平面上の座標が対応付けられる領域PR2とを混在させる。その結果、画像生成装置100は、1つの立体物OBに関する2つの画像OB1及び画像OB2の双方を出力画像上に表示させ、立体物OBが出力画像から消失するのを防止する。   As described above, the image generating apparatus 100 includes the region PR1 in which the coordinates on the input image plane of the rear camera 2B are associated with the region PR2 in which the coordinates on the input image plane of the right-side camera 2R are associated in the overlapping imaging region. And mix. As a result, the image generation apparatus 100 displays both the two images OB1 and OB2 related to one solid object OB on the output image, and prevents the solid object OB from disappearing from the output image.

図14は、図12の出力画像と、図12の出力画像に画像消失防止処理を適用することで得られる出力画像との違いを表す対比図であり、図14(A)が図12の出力画像を示し、図14(B)が画像消失防止処理を適用した後の出力画像を示す。図14(A)における一点鎖線で囲まれる領域R12では人物が消失しているのに対し、図14(B)における一点鎖線で囲まれる領域R14では人物が消失せずに表示されている。   14 is a comparison diagram showing the difference between the output image of FIG. 12 and the output image obtained by applying the image loss prevention process to the output image of FIG. 12, and FIG. 14 (A) is the output of FIG. An image is shown, and FIG. 14B shows an output image after applying the image disappearance prevention process. In the region R12 surrounded by the alternate long and short dash line in FIG. 14A, the person disappears, whereas in the region R14 surrounded by the alternate long and short dash line in FIG. 14B, the person is displayed without disappearing.

次に、図15を参照しながら、画像生成装置100が、強調表示すべき所定領域を選択する処理(以下、「所定領域選択処理」とする。)について説明する。   Next, a process in which the image generation apparatus 100 selects a predetermined area to be highlighted (hereinafter referred to as “predetermined area selection process”) will be described with reference to FIG.

図15は、図11における6台の物体検出センサのそれぞれの検出範囲を抜き出した図であり、6台の物体検出センサのそれぞれの検出範囲と強調表示すべき所定領域との関係を示す。なお、図15では、物体を検出した物体検出センサの検出範囲を黒色の点線で示し、物体を検出していない物体検出センサの検出範囲を灰色の点線で示す。   FIG. 15 is a diagram in which the detection ranges of the six object detection sensors in FIG. 11 are extracted, and shows the relationship between the detection ranges of the six object detection sensors and the predetermined region to be highlighted. In FIG. 15, the detection range of the object detection sensor that has detected the object is indicated by a black dotted line, and the detection range of the object detection sensor that has not detected the object is indicated by a gray dotted line.

図15(A)は、第1左側方物体検出センサ6L1のみで物体が検出された場合に強調表示すべき所定領域として選択される領域HP1を示す。なお、斜線ハッチングで示す領域HP1は、領域ZL1から、領域ZL1及び領域ZL2の重複検出領域(AND領域)を差し引いた領域である。   FIG. 15A shows a region HP1 selected as a predetermined region to be highlighted when an object is detected only by the first left-side object detection sensor 6L1. A region HP1 indicated by hatching is a region obtained by subtracting the overlap detection region (AND region) of the region ZL1 and the region ZL2 from the region ZL1.

また、図15(B)は、第1左側方物体検出センサ6L1及び第2左側方物体検出センサ6L2で物体が検出された場合に強調表示すべき所定領域として選択される領域HP2を示す。なお、縦縞ハッチングで示す領域HP2は、領域ZL1及び領域ZL2の合成領域(OR領域)から、領域ZL2及び領域ZB1の重複検出領域(AND領域)を差し引いた領域である。   FIG. 15B shows a region HP2 selected as a predetermined region to be highlighted when an object is detected by the first left side object detection sensor 6L1 and the second left side object detection sensor 6L2. The region HP2 indicated by vertical stripe hatching is a region obtained by subtracting the overlap detection region (AND region) of the region ZL2 and the region ZB1 from the combined region (OR region) of the region ZL1 and the region ZL2.

また、図15(C)は、第2左側方物体検出センサ6L2及び第1後方物体検出センサ6B1で物体が検出された場合に強調表示すべき所定領域として選択される領域HP3を示す。なお、斜線ハッチングで示す領域HP3は、領域ZL2及び領域ZB1の合成領域(OR領域)から、領域ZL1及び領域ZL2の重複検出領域(AND領域)と領域ZB1及び領域ZB2の重複検出領域(AND領域)とを差し引いた領域である。   FIG. 15C shows a region HP3 selected as a predetermined region to be highlighted when an object is detected by the second left side object detection sensor 6L2 and the first rear object detection sensor 6B1. Note that the area HP3 indicated by hatching is the overlap detection area (AND area) of the areas ZL1 and ZL2 and the overlap detection area (AND area) of the areas ZB1 and ZB2 from the combined area (OR area) of the areas ZL2 and ZB1. ) Is subtracted.

また、図15(D)は、第1後方物体検出センサ6B1及び第2後方物体検出センサ6B2で物体が検出された場合に強調表示すべき所定領域として選択される領域HP4を示す。なお、斜線ハッチングで示す領域HP4は、領域ZB1及び領域ZB2の合成領域(OR領域)から、領域ZL2及び領域ZB1の重複検出領域(AND領域)と領域ZB2及び領域ZR1の重複検出領域(AND領域)とを差し引いた領域である。   FIG. 15D shows a region HP4 selected as a predetermined region to be highlighted when an object is detected by the first rear object detection sensor 6B1 and the second rear object detection sensor 6B2. The region HP4 indicated by hatching is the overlap detection region (AND region) of the region ZL2 and region ZB1, the overlap detection region (AND region) of the region ZB2 and region ZR1, from the combined region (OR region) of the region ZB1 and region ZB2. ) Is subtracted.

また、図15(E)は、第2後方物体検出センサ6B2及び第1右側方物体検出センサ6R1で物体が検出された場合に強調表示すべき所定領域として選択される領域HP5を示す。なお、斜線ハッチングで示す領域HP5は、領域ZB2及び領域ZR1の合成領域(OR領域)から、領域ZB1及び領域ZB2の重複検出領域(AND領域)と領域ZR1及び領域ZR2の重複検出領域(AND領域)とを差し引いた領域である。   FIG. 15E shows a region HP5 selected as a predetermined region to be highlighted when an object is detected by the second rear object detection sensor 6B2 and the first right side object detection sensor 6R1. The region HP5 indicated by hatching is the overlap detection region (AND region) of the region ZB1 and region ZB2, the overlap detection region (AND region) of the region ZR1 and region ZR2, from the combined region (OR region) of the region ZB2 and region ZR1. ) Is subtracted.

また、図15(F)は、第1右側方物体検出センサ6R1及び第2右側方物体検出センサ6R2で物体が検出された場合に強調表示すべき所定領域として選択される領域HP6を示す。なお、縦縞ハッチングで示す領域HP6は、領域ZR1及び領域ZR2の合成領域(OR領域)から、領域ZB2及び領域ZR1の重複検出領域(AND領域)を差し引いた領域である。   FIG. 15F shows a region HP6 selected as a predetermined region to be highlighted when an object is detected by the first right side object detection sensor 6R1 and the second right side object detection sensor 6R2. A region HP6 indicated by vertical stripe hatching is a region obtained by subtracting the overlap detection region (AND region) of the region ZB2 and the region ZR1 from the combined region (OR region) of the region ZR1 and the region ZR2.

また、図15(G)は、第2右側方物体検出センサ6R2のみで物体が検出された場合に強調表示すべき所定領域として選択される領域HP7を示す。なお、斜線ハッチングで示す領域HP7は、領域ZR2から、領域ZR1及び領域ZR2の重複検出領域(AND領域)を差し引いた領域である。   FIG. 15G shows a region HP7 selected as a predetermined region to be highlighted when an object is detected only by the second right side object detection sensor 6R2. A region HP7 indicated by hatching is a region obtained by subtracting the overlap detection region (AND region) of the region ZR1 and the region ZR2 from the region ZR2.

また、図15(H)は、第1左側方物体検出センサ6L1、第2左側方物体検出センサ6L2、及び第1後方物体検出センサ6B1で物体が検出された場合に強調表示すべき所定領域として選択される領域HP2及びHP3を示す。   FIG. 15H shows a predetermined area to be highlighted when an object is detected by the first left side object detection sensor 6L1, the second left side object detection sensor 6L2, and the first rear object detection sensor 6B1. The regions HP2 and HP3 to be selected are shown.

次に、図16を参照しながら、画像生成装置100が所定領域を強調表示する処理(以下、「強調表示処理」とする。)について説明する。なお、図16は、強調表示処理の流れを示すフローチャートであり、画像生成装置100は、ショベル60が作動している間、所定周期で繰り返し強調表示処理を実行する。   Next, a process in which the image generation apparatus 100 highlights a predetermined area (hereinafter referred to as “highlight display process”) will be described with reference to FIG. FIG. 16 is a flowchart showing the flow of the highlighting process. The image generating apparatus 100 repeatedly executes the highlighting process at a predetermined cycle while the excavator 60 is operating.

最初に、画像生成装置100の制御部1における強調表示手段12は、ショベル60に取り付けられた6台の物体検出センサ6のそれぞれの出力に基づいて物体を検出したか否かを判断する(ステップS11)。   First, the highlighting means 12 in the control unit 1 of the image generating apparatus 100 determines whether or not an object has been detected based on the outputs of the six object detection sensors 6 attached to the excavator 60 (step). S11).

何れの物体検出センサ6においても物体を検出していないと判断した場合(ステップS11のNO)、強調表示手段12は、今回の強調表示処理を終了させる。   When it is determined that no object is detected by any of the object detection sensors 6 (NO in step S11), the highlighting display unit 12 ends the current highlighting process.

一方、物体を検出したと判断した場合(ステップS11のYES)、強調表示手段12は、何れの物体検出センサ6が物体を検出したかを特定する(ステップS12)。   On the other hand, if it is determined that an object has been detected (YES in step S11), the highlighting means 12 identifies which object detection sensor 6 has detected the object (step S12).

その後、強調表示手段12は、特定結果に基づいて、複数の所定領域のうちから物体の存在が推定される所定領域を選択する(ステップS13)。具体的には、強調表示手段12は、物体を検出した物体検出センサ6の組み合わせに対応付けてROM等に予め記憶された所定領域の識別番号を読み出すことによって、1又は複数の所定領域を選択する。   Thereafter, the highlighting means 12 selects a predetermined area where the presence of the object is estimated from a plurality of predetermined areas based on the identification result (step S13). Specifically, the highlighting means 12 selects one or a plurality of predetermined areas by reading the identification number of the predetermined area stored in advance in a ROM or the like in association with the combination of the object detection sensors 6 that detected the object. To do.

その後、強調表示手段12は、選択した1又は複数の所定領域を強調表示する(ステップS14)。具体的には、強調表示手段12は、選択した1又は複数の所定領域の輪郭を出力画像上に重畳表示する。   Thereafter, the highlighting means 12 highlights the selected one or more predetermined areas (step S14). Specifically, the highlighting means 12 superimposes and displays the outline of the selected one or more predetermined areas on the output image.

次に、図17を参照しながら、強調表示された所定領域を含む出力画像の例について説明する。なお、図17は、図14(B)の出力画像の上に、選択された3つの所定領域の輪郭HL1〜HL3とそれら3つの輪郭HL1〜HL3のそれぞれに対応する警告マークEM1〜EM3を重畳表示した場合を示す。   Next, an example of an output image including the highlighted predetermined area will be described with reference to FIG. In FIG. 17, outlines HL1 to HL3 of three selected predetermined areas and warning marks EM1 to EM3 corresponding to the three outlines HL1 to HL3 are superimposed on the output image of FIG. Indicates the case of display.

図17に示すように、輪郭HL1及び警告マークEM1は、ショベル60の左側方に存在する、左側方カメラ2Lが撮像した作業員の存在を、ショベル60の操作者に分かり易く伝えることができる。   As shown in FIG. 17, the contour HL1 and the warning mark EM1 can easily convey to the operator of the excavator 60 the presence of the worker imaged by the left-side camera 2L that exists on the left side of the excavator 60.

また、輪郭HL2及び警告マークEM2は、ショベル60の後方に存在する、後方カメラ2Bが撮像した作業員の存在を、ショベル60の操作者に分かり易く伝えることができる。   Further, the contour HL2 and the warning mark EM2 can easily convey to the operator of the excavator 60 the presence of the worker imaged by the rear camera 2B existing behind the excavator 60.

また、輪郭HL3及び警告マークEM3は、ショベル60の右斜め後方に存在する、後方カメラ2B及び右側方カメラ2Rの双方が撮像した作業員の存在を、ショベル60の操作者に分かり易く伝えることができる。   In addition, the contour HL3 and the warning mark EM3 convey to the operator of the excavator 60 the presence of workers imaged by both the rear camera 2B and the right-side camera 2R, which are present obliquely rearward to the right of the excavator 60. it can.

このように、画像生成装置100は、1つのカメラの撮像領域の一部に対応する所定領域の輪郭を重畳表示して、その撮像領域の一部における作業員の存在を、ショベル60の操作者に分かり易く伝えることができる。また、画像生成装置100は、2つのカメラの重複撮像領域に対応する所定領域の輪郭を重畳表示して、その重複撮像領域における作業員の存在を、ショベル60の操作者に分かり易く伝えることができる。   As described above, the image generation apparatus 100 displays the outline of the predetermined area corresponding to a part of the imaging area of one camera, and indicates the presence of the worker in a part of the imaging area as an operator of the excavator 60. Can be easily communicated to. In addition, the image generation apparatus 100 displays the outline of a predetermined area corresponding to the overlapping imaging area of the two cameras in a superimposed manner so that the operator of the excavator 60 can easily understand the presence of the worker in the overlapping imaging area. it can.

以上の構成により、画像生成装置100は、何れの物体検出センサ6が物体を検出したかを特定することによって、物体の存在が推定される領域を絞り込んだ上でその領域を強調表示する。その結果、画像生成装置100は、周囲の物体の状況をより分かり易く操作者に伝えることができる。   With the above configuration, the image generation apparatus 100 identifies which object detection sensor 6 has detected an object, narrows down an area where the presence of the object is estimated, and highlights the area. As a result, the image generating apparatus 100 can inform the operator of the status of surrounding objects in an easy-to-understand manner.

また、画像生成装置100は、物体検出センサ6として無指向性センサを用いた場合であっても、物体の存在が推定される領域を絞り込んだうえでその領域を強調表示する。そのため、画像生成装置100は、走査型超音波センサ若しくは走査型光センサ等の指向性センサ又は距離画像センサ等を用いなくとも、物体の存在が推定される領域を絞り込んだ上でその領域を強調表示することができる。但し、画像生成装置100は、物体検出センサ6として指向性センサ又は距離画像センサ等を用いてもよい。   Further, even when an omnidirectional sensor is used as the object detection sensor 6, the image generation apparatus 100 highlights the area after narrowing down the area where the presence of the object is estimated. Therefore, the image generation apparatus 100 emphasizes the region after narrowing down the region where the presence of the object is estimated without using a directional sensor such as a scanning ultrasonic sensor or a scanning optical sensor, or a distance image sensor. Can be displayed. However, the image generation apparatus 100 may use a directivity sensor, a distance image sensor, or the like as the object detection sensor 6.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施例において、画像生成装置100は、空間モデルとして円筒状の空間モデルMDを採用するが、多角柱等の他の柱状の形状を有する空間モデルを採用してもよく、底面及び側面の二面から構成される空間モデルを採用してもよく、或いは、側面のみを有する空間モデルを採用してもよい。   For example, in the above-described embodiment, the image generation apparatus 100 employs the cylindrical spatial model MD as the spatial model, but may employ a spatial model having other columnar shapes such as a polygonal column, A spatial model composed of two side surfaces may be adopted, or a spatial model having only side surfaces may be adopted.

また、画像生成装置100は、バケット、アーム、ブーム、旋回機構等の可動部材を備えながら自走するショベルに、カメラと共に搭載され、周囲画像をその操作者に提示しながらそのショベルの移動及びそれら可動部材の操作を支援する操作支援システムを構成する。しかしながら、画像生成装置100は、フォークリフト、アスファルトフィニッシャ等のように旋回機構を有しない作業機械、又は、産業用機械若しくは固定式クレーン等のように可動部材を有するが自走はしない作業機械に、カメラと共に搭載され、それら作業機械の操作を支援する操作支援システムを構成してもよい。   The image generating apparatus 100 is mounted with a camera on a self-propelled excavator having movable members such as a bucket, an arm, a boom, and a turning mechanism, and moves the shovel while presenting surrounding images to the operator. An operation support system that supports the operation of the movable member is configured. However, the image generating apparatus 100 is a work machine that does not have a turning mechanism such as a forklift or asphalt finisher, or a work machine that has a movable member such as an industrial machine or a fixed crane, but does not self-propelled. You may comprise the operation assistance system mounted with a camera and assisting operation of these work machines.

1・・・制御部 2・・・カメラ 2L・・・左側方カメラ 2R・・右側方カメラ 2B・・後方カメラ 3・・・入力部 4・・・記憶部 5・・・表示部 6・・・物体検出センサ 10・・・座標対応付け手段 11・・・画像生成手段 12・・・強調表示手段 40・・・入力画像・空間モデル対応マップ 41・・・空間モデル・処理対象画像対応マップ 42・・・処理対象画像・出力画像対応マップ 60・・・ショベル 61・・・下部走行体 62・・・旋回機構 63・・・上部旋回体 64・・・キャブ 100・・・画像生成装置   DESCRIPTION OF SYMBOLS 1 ... Control part 2 ... Camera 2L ... Left side camera 2R ... Right side camera 2B ... Rear camera 3 ... Input part 4 ... Memory | storage part 5 ... Display part 6 .... Object detection sensor 10 ... Coordinate association means 11 ... Image generation means 12 ... Highlight display means 40 ... Input image / spatial model correspondence map 41 ... Spatial model / processing target image correspondence map 42 ... Processing target image / output image correspondence map 60 ... Excavator 61 ... Lower traveling body 62 ... Turning mechanism 63 ... Upper turning body 64 ... Cab 100 ... Image generating device

Claims (8)

作業機械に取り付けられるカメラが撮像した入力画像に基づいて出力画像を生成する作業機械用周辺監視装置であって、
前記作業機械に取り付けられ、前記作業機械の周囲に存在する物体を検出する物体検出センサと、
前記物体検出センサにより物体が検出された場合に、該物体を検出した物体検出センサを特定し、該特定結果に応じて前記出力画像の所定領域を強調表示する強調表示手段と、を備え、
前記物体検出センサは、複数の物体検出センサで構成され、
前記複数の物体検出センサのうちの1の物体検出センサの検出領域と、前記複数の物体検出センサのうちの他の1の物体検出センサの検出領域とは重複検出領域を有し、
前記強調表示手段は、前記1の物体検出センサが物体を検出し、前記他の1の物体検出センサが物体を検出しない場合、前記1の物体検出センサの検出領域から、前記重複検出領域を差し引いた領域を前記所定領域として強調表示する、
作業機械用周辺監視装置。
A work machine periphery monitoring device that generates an output image based on an input image captured by a camera attached to the work machine,
An object detection sensor that is attached to the work machine and detects an object existing around the work machine;
Highlighting means for identifying an object detection sensor that has detected the object when the object is detected by the object detection sensor, and highlighting a predetermined region of the output image according to the identification result;
The object detection sensor is composed of a plurality of object detection sensors,
The detection region of one object detection sensor of the plurality of object detection sensors and the detection region of another one object detection sensor of the plurality of object detection sensors have an overlap detection region,
The highlighting means subtracts the overlap detection area from the detection area of the one object detection sensor when the one object detection sensor detects an object and the other one object detection sensor does not detect the object. Highlight the area as the predetermined area,
Perimeter monitoring device for work machines.
前記出力画像は、前記作業機械の周辺を俯瞰する視点変換画像であり、
前記所定領域は、前記作業機械の位置を中心として放射状に広がる扇形領域である、
請求項1に記載の作業機械用周辺監視装置。
The output image is a viewpoint conversion image that overlooks the periphery of the work machine,
The predetermined area is a fan-shaped area that spreads radially around the position of the work machine.
The work machine periphery monitoring device according to claim 1.
前記強調表示手段は、前記物体検出センサの検出領域に基づいて設定される領域を前記所定領域として強調表示する、
請求項1又は2に記載の作業機械用周辺監視装置。
Said highlighting means for highlighting a region that is set based on the detection area of the object detection sensor as the predetermined area,
The periphery monitoring apparatus for work machines according to claim 1 or 2.
前記カメラは、複数のカメラで構成され、
前記複数のカメラのうちの1のカメラの撮像領域と、前記複数のカメラのうちの他の1のカメラの撮像領域とは重複撮像領域を有し、
前記重複撮像領域は、前記重複検出領域と対応する、
請求項1乃至3の何れか一項に記載の作業機械用周辺監視装置。
The camera is composed of a plurality of cameras.
The imaging area of one of the plurality of cameras and the imaging area of the other one of the plurality of cameras have an overlapping imaging area,
The overlap imaging area corresponds to the overlap detection area,
The work machine periphery monitoring device according to any one of claims 1 to 3 .
作業機械に取り付けられるカメラが撮像した入力画像に基づいて出力画像を生成する作業機械用周辺監視装置であって、  A work machine periphery monitoring device that generates an output image based on an input image captured by a camera attached to the work machine,
前記作業機械に取り付けられ、前記作業機械の周囲に存在する物体を検出する物体検出センサと、  An object detection sensor that is attached to the work machine and detects an object existing around the work machine;
前記物体検出センサにより物体が検出された場合に、該物体を検出した物体検出センサを特定し、該特定結果に応じて前記出力画像の所定領域を強調表示する強調表示手段と、を備え、  Highlighting means for identifying an object detection sensor that has detected the object when the object is detected by the object detection sensor, and highlighting a predetermined region of the output image according to the identification result;
前記出力画像は、前記作業機械の周辺を俯瞰する視点変換画像であり、  The output image is a viewpoint conversion image that overlooks the periphery of the work machine,
前記所定領域は、前記作業機械の位置を中心として放射状に広がる複数の領域であり、  The predetermined area is a plurality of areas radially extending around the position of the work machine,
前記カメラは、複数のカメラで構成され、  The camera is composed of a plurality of cameras.
前記複数のカメラのうちの1のカメラの撮像領域と、前記複数のカメラのうちの他の1のカメラの撮像領域とは重複撮像領域を有し、  The imaging area of one of the plurality of cameras and the imaging area of the other one of the plurality of cameras have an overlapping imaging area,
前記所定領域は、前記重複撮像領域と対応する領域、及び、前記1のカメラの撮像領域のうち前記重複撮像領域以外の部分と対応する領域を含む、  The predetermined area includes an area corresponding to the overlapping imaging area, and an area corresponding to a part other than the overlapping imaging area among the imaging areas of the one camera.
作業機械用周辺監視装置。Perimeter monitoring device for work machines.
前記強調表示手段は、前記所定領域の輪郭を表示する、
請求項1乃至5の何れか一項に記載の作業機械用周辺監視装置。
The highlighting means displays an outline of the predetermined area;
The work machine periphery monitoring device according to any one of claims 1 to 5.
前記物体検出センサは、超音波センサ、又は、焦電型赤外線センサである、
請求項1乃至6の何れか一項に記載の作業機械用周辺監視装置。
The object detection sensor is an ultrasonic sensor or a pyroelectric infrared sensor.
The work machine periphery monitoring device according to any one of claims 1 to 6.
前記出力画像は、複数のカメラの入力画像を用いて生成される、
請求項1乃至7の何れか一項に記載の作業機械用周辺監視装置。
The output image is generated using input images of a plurality of cameras.
The work machine periphery monitoring device according to any one of claims 1 to 7.
JP2012207554A 2012-09-20 2012-09-20 Perimeter monitoring equipment for work machines Active JP5960007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012207554A JP5960007B2 (en) 2012-09-20 2012-09-20 Perimeter monitoring equipment for work machines

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012207554A JP5960007B2 (en) 2012-09-20 2012-09-20 Perimeter monitoring equipment for work machines

Publications (2)

Publication Number Publication Date
JP2014062387A JP2014062387A (en) 2014-04-10
JP5960007B2 true JP5960007B2 (en) 2016-08-02

Family

ID=50617851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012207554A Active JP5960007B2 (en) 2012-09-20 2012-09-20 Perimeter monitoring equipment for work machines

Country Status (1)

Country Link
JP (1) JP5960007B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235763B2 (en) 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
JP2016013888A (en) * 2014-07-01 2016-01-28 株式会社タダノ Obstacle notification system of crane vehicle
JP6689669B2 (en) * 2016-05-13 2020-04-28 住友重機械工業株式会社 Excavator
WO2018151280A1 (en) * 2017-02-17 2018-08-23 住友重機械工業株式会社 Work machine surroundings monitoring system
US10586349B2 (en) * 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
US10943360B1 (en) 2019-10-24 2021-03-09 Trimble Inc. Photogrammetric machine measure up
KR102643266B1 (en) * 2022-02-15 2024-03-04 건설기계부품연구원 Construction machine safety management system using lidar and camera

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002201676A (en) * 2000-10-24 2002-07-19 Komatsu Ltd Warning device of working vehicle
JP2010112100A (en) * 2008-11-07 2010-05-20 Hitachi Constr Mach Co Ltd Monitoring device for working machine
JP5128566B2 (en) * 2009-09-28 2013-01-23 住友重機械工業株式会社 Ambient image presentation device and operation support system
JP5550970B2 (en) * 2010-04-12 2014-07-16 住友重機械工業株式会社 Image generating apparatus and operation support system

Also Published As

Publication number Publication date
JP2014062387A (en) 2014-04-10

Similar Documents

Publication Publication Date Title
JP6029306B2 (en) Perimeter monitoring equipment for work machines
JP6545430B2 (en) Shovel
JP5550970B2 (en) Image generating apparatus and operation support system
JP5497617B2 (en) Image generating apparatus and operation support system
JP6386213B2 (en) Excavator
JP5960007B2 (en) Perimeter monitoring equipment for work machines
JP6324665B2 (en) Perimeter monitoring equipment for work machines
JP6045865B2 (en) Excavator
JP6740259B2 (en) Work machine
JP2018017115A (en) Shovel
JP6378801B2 (en) Excavator
JP5752631B2 (en) Image generation method, image generation apparatus, and operation support system
JP6169381B2 (en) Excavator
JP6091821B2 (en) Excavator
JP5805574B2 (en) Perimeter monitoring equipment for work machines
JP6257918B2 (en) Excavator
JP6257919B2 (en) Excavator
JP2018186575A (en) Shovel
JP6302622B2 (en) Perimeter monitoring equipment for work machines
JP6873889B2 (en) Excavator and excavator surrounding image generator
JP2020127217A (en) Shovel
JP2019004484A (en) Shovel
JP6295026B2 (en) Excavator
JP7454461B2 (en) excavator
JP6246185B2 (en) Excavator

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20150115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160622

R150 Certificate of patent or registration of utility model

Ref document number: 5960007

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150