JP7296340B2 - Excavator - Google Patents

Excavator Download PDF

Info

Publication number
JP7296340B2
JP7296340B2 JP2020069401A JP2020069401A JP7296340B2 JP 7296340 B2 JP7296340 B2 JP 7296340B2 JP 2020069401 A JP2020069401 A JP 2020069401A JP 2020069401 A JP2020069401 A JP 2020069401A JP 7296340 B2 JP7296340 B2 JP 7296340B2
Authority
JP
Japan
Prior art keywords
image
distance
output
pixel
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020069401A
Other languages
Japanese (ja)
Other versions
JP2020127217A (en
Inventor
岳哉 泉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo SHI Construction Machinery Co Ltd
Original Assignee
Sumitomo SHI Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018148598A external-priority patent/JP2018186574A/en
Application filed by Sumitomo SHI Construction Machinery Co Ltd filed Critical Sumitomo SHI Construction Machinery Co Ltd
Priority to JP2020069401A priority Critical patent/JP7296340B2/en
Publication of JP2020127217A publication Critical patent/JP2020127217A/en
Priority to JP2023043083A priority patent/JP2023078305A/en
Application granted granted Critical
Publication of JP7296340B2 publication Critical patent/JP7296340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、ショベルに関する。 The present invention relates to excavators.

従来、ショベルの上部旋回体に取り付けられるレーザレーダを用いて、ショベルの周囲に存在する物体のショベルに対する距離及び方向を取得しながら周囲を監視する周囲監視装置が知られている(例えば、特許文献1参照。)。 2. Description of the Related Art Conventionally, there is known a surroundings monitoring device that uses a laser radar attached to an upper revolving body of an excavator to monitor the surroundings while obtaining the distance and direction of an object existing around the excavator with respect to the excavator (for example, Patent Document 1).

この周囲監視装置は、物体のショベルに対する距離及び方向が所定時間にわたって変化しない場合にその物体を静止障害物と判定し、距離及び方向が変化する場合にその物体を移動障害物と判定する。 The surroundings monitoring device determines that an object is a stationary obstacle when the distance and direction of the object with respect to the excavator do not change for a predetermined period of time, and determines the object as a moving obstacle when the distance and direction change.

特開2008-163719号公報JP 2008-163719 A

しかしながら、特許文献1に記載のレーザレーダは、1本のレーザ光を物体に照射し、その反射光から物体の距離及び方向を検出する。そのため、特許文献1に記載のレーザレーダは、物体表面の極めて限られた部分と自身との間の距離を検出するのみである。 However, the laser radar described in Patent Document 1 irradiates an object with one laser beam and detects the distance and direction of the object from the reflected light. Therefore, the laser radar described in Patent Document 1 only detects the distance between itself and a very limited portion of the surface of the object.

上述の点に鑑み、本発明は、ショベルの周辺のより広い範囲に存在する物体のショベルに対する距離及び方向を取得することができるショベルを提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above, it is an object of the present invention to provide an excavator capable of obtaining the distance and direction to the excavator of objects present in a wider range around the excavator.

上述の目的を達成するために、本発明の実施例に係るショベルは、下部走行体と、前記下部走行体に旋回自在に搭載された上部旋回体と、前記上部旋回体に配置された複数のステレオカメラと、を有し、複数の前記ステレオカメラのそれぞれは、複数の撮像機構を1つの筐体内に備え、前記撮像機構によって取得された画像を表示する表示装置をさらに備え、前記表示装置に表示される、地面としての崖、陥没部、斜面、又は穴、及び、人物又は障害物に対して枠を表示する。 In order to achieve the above object, an excavator according to an embodiment of the present invention includes a lower traveling body, an upper revolving body rotatably mounted on the lower traveling body, and a plurality of rotating bodies arranged on the upper revolving body. and a stereo camera, each of the plurality of stereo cameras includes a plurality of imaging mechanisms in one housing, and further includes a display device for displaying an image acquired by the imaging mechanism, wherein the display device Frames are displayed for cliffs, depressions, slopes, or holes as the ground and people or obstacles to be displayed .

上述の手段により、本発明は、ショベルの周辺のより広い範囲に存在する物体のショベルに対する距離及び方向を取得することができるショベルを提供することができる
By the means described above, the present invention can provide an excavator capable of obtaining the distance and direction to the excavator of objects present in a wider range around the excavator.

本発明の実施例に係る画像生成装置の構成例を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration example of an image generation device according to an embodiment of the present invention; FIG. 画像生成装置が搭載されるショベルの構成例を示す図である。It is a figure which shows the structural example of the excavator in which an image generation apparatus is mounted. 入力画像が投影される空間モデルの一例を示す図である。FIG. 4 is a diagram showing an example of a space model onto which an input image is projected; 空間モデルと処理対象画像平面との間の関係の一例を示す図である。FIG. 4 is a diagram showing an example of the relationship between a spatial model and an image plane to be processed; 入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図である。FIG. 4 is a diagram for explaining correspondence between coordinates on an input image plane and coordinates on a space model; 座標対応付け手段による座標間の対応付けを説明するための図である。It is a figure for demonstrating matching between coordinates by a coordinate matching means. 平行線群の作用を説明するための図である。It is a figure for demonstrating the effect|action of a parallel line group. 補助線群の作用を説明するための図である。It is a figure for demonstrating the effect|action of an auxiliary|assistant line group. 処理対象画像生成処理及び出力画像生成処理の流れを示すフローチャートである。5 is a flow chart showing the flow of processing target image generation processing and output image generation processing. 出力画像の表示例(その1)である。It is a display example (part 1) of an output image. 画像生成装置が搭載されるショベルの上面図(その1)である。1 is a top view (part 1) of a shovel on which an image generation device is mounted; FIG. ショベルに搭載された3台のカメラのそれぞれの入力画像と、それら入力画像を用いて生成される出力画像とを示す図である。FIG. 2 is a diagram showing input images of three cameras mounted on a shovel and output images generated using the input images; 2つのカメラのそれぞれの撮像範囲の重複領域における物体の消失を防止する画像消失防止処理を説明するための図である。FIG. 10 is a diagram for explaining image disappearance prevention processing for preventing disappearance of an object in an overlapping area of imaging ranges of two cameras; 図12で示される出力画像と、図12の出力画像に画像消失防止処理を適用することで得られる出力画像との違いを表す対比図である。13 is a comparison diagram showing the difference between the output image shown in FIG. 12 and an output image obtained by applying image loss prevention processing to the output image of FIG. 12; FIG. ショベルに搭載された3台のステレオカメラのそれぞれの入力距離画像と、それら入力距離画像を用いて生成される出力距離画像とを示す図である。FIG. 3 is a diagram showing input range images of three stereo cameras mounted on a shovel and output range images generated using the input range images; 図15で示される出力距離画像と、図15の出力距離画像に距離画像消失防止処理を適用することで得られる出力距離画像との違いを表す対比図である。FIG. 16 is a comparison diagram showing the difference between the output distance image shown in FIG. 15 and an output distance image obtained by applying distance image loss prevention processing to the output distance image of FIG. 15; 出力画像に出力距離画像を合成して得られる合成後出力画像の一例を示す図である。FIG. 10 is a diagram showing an example of a synthesized output image obtained by synthesizing an output distance image with an output image; 出力画像に出力距離画像を合成して得られる合成後出力画像の別の一例を示す図である。FIG. 10 is a diagram showing another example of a synthesized output image obtained by synthesizing an output distance image with an output image; 画像生成装置を搭載するショベルの部分右側面図である。FIG. 4 is a partial right side view of a shovel on which the image generation device is mounted; 図19における隆起部の拡大図である。FIG. 20 is an enlarged view of the ridge in FIG. 19; 出力距離画像の例を示す図である。It is a figure which shows the example of an output distance image. 出力画像の例を示す図である。FIG. 10 is a diagram showing an example of an output image; FIG. 第1画素抽出処理の流れを示すフローチャートである。4 is a flowchart showing the flow of first pixel extraction processing; 画像生成装置を搭載するショベルの部分右側面図である。FIG. 4 is a partial right side view of a shovel on which the image generation device is mounted; 図24における浅陥没部の拡大図である。25 is an enlarged view of the shallow depression in FIG. 24; FIG. 出力距離画像の例を示す図である。It is a figure which shows the example of an output distance image. 出力画像の例を示す図である。FIG. 10 is a diagram showing an example of an output image; FIG. 第2画素抽出処理の流れを示すフローチャートである。9 is a flowchart showing the flow of second pixel extraction processing; 運転支援処理の流れを示すフローチャートである。It is a flow chart which shows a flow of driving support processing. 画像生成装置が搭載されるショベルを示す図である。It is a figure which shows the excavator in which an image generation apparatus is mounted. 補正前出力距離画像と補正済出力距離画像との違いを表す対比図である。FIG. 10 is a comparison diagram showing the difference between the pre-correction output range image and the corrected output range image; 補正前合成後出力画像と補正済合成後出力画像との違いを表す対比図(その1)である。FIG. 11 is a comparison diagram (part 1) showing the difference between the pre-correction post-combination output image and the post-correction post-combination output image; 補正前合成後出力画像と補正済合成後出力画像との違いを表す対比図(その2)である。FIG. 11 is a comparison diagram (part 2) showing the difference between the post-correction post-combination output image and the post-correction post-combination output image;

以下、図面を参照しつつ、本発明を実施するための最良の形態の説明を行う。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.

図1は、本発明の実施例に係る画像生成装置100の構成例を概略的に示すブロック図である。 FIG. 1 is a block diagram schematically showing a configuration example of an image generation device 100 according to an embodiment of the invention.

画像生成装置100は、作業機械の周辺を監視する作業機械用周辺監視装置の1例であり、制御部1、カメラ2、入力部3、記憶部4、表示部5、及びステレオカメラ6で構成される。具体的には、画像生成装置100は、作業機械に搭載されたカメラ2が撮像した入力画像とステレオカメラ6が出力する入力距離画像とに基づいて出力画像を生成しその出力画像を操作者に提示する。 The image generation device 100 is an example of a work machine perimeter monitoring device for monitoring the perimeter of the work machine, and is composed of a control unit 1, a camera 2, an input unit 3, a storage unit 4, a display unit 5, and a stereo camera 6. be done. Specifically, the image generation device 100 generates an output image based on an input image captured by the camera 2 mounted on the work machine and an input distance image output by the stereo camera 6, and provides the output image to the operator. Present.

図2は、画像生成装置100が搭載される作業機械としてのショベル60の構成例を示す図であり、ショベル60は、クローラ式の下部走行体61の上に、旋回機構62を介して、上部旋回体63を旋回軸PVの周りで旋回自在に搭載している。ショベル60は、二次元配列の距離情報を利用して出力画像を生成する。 FIG. 2 is a diagram showing a configuration example of an excavator 60 as a work machine on which the image generation device 100 is mounted. A revolving body 63 is mounted so as to be rotatable around a turning axis PV. The excavator 60 generates an output image using the two-dimensional array of distance information.

また、上部旋回体63は、その前方左側部にキャブ(運転室)64を備え、その前方中央部に掘削アタッチメントEを備え、その右側面及び後面にカメラ2(右側方カメラ2R、後方カメラ2B)及びステレオカメラ6(右側方ステレオカメラ6R、後方ステレオカメラ6B)を備えている。なお、キャブ64内の操作者が視認し易い位置には表示部5が設置されている。 The upper swing body 63 has a cab (driver's cab) 64 on its front left side, an excavation attachment E on its front central part, and cameras 2 (right side camera 2R, rear camera 2B) on its right side and rear side. ) and a stereo camera 6 (a right side stereo camera 6R and a rear stereo camera 6B). A display unit 5 is installed at a position within the cab 64 that is easily visible to the operator.

次に、画像生成装置100の各構成要素について説明する。 Next, each component of the image generation device 100 will be described.

制御部1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)等を備えたコンピュータであって、例えば、後述する座標対応付け手段10、画像生成手段11、画素抽出手段12、距離補正手段13、距離画像合成手段14、及び、運転支援手段15のそれぞれに対応するプログラムをROMやNVRAMに記憶し、一時記憶領域としてRAMを利用しながら各手段に対応する処理をCPUに実行させる。 The control unit 1 is a computer including a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), NVRAM (Non-Volatile Random Access Memory), etc. Programs corresponding to each of the adding means 10, the image generating means 11, the pixel extracting means 12, the distance correcting means 13, the distance image synthesizing means 14, and the driving support means 15 are stored in ROM or NVRAM, and RAM is used as a temporary storage area. The CPU is made to execute the processing corresponding to each means while using .

カメラ2は、ショベル60の周囲を映し出す入力画像を取得するための装置であり、例えば、キャブ64にいる操作者の死角となる領域を撮像できるよう上部旋回体63の右側面及び後面に取り付けられる(図2参照。)、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えた右側方カメラ2R及び後方カメラ2Bである。なお、カメラ2は、上部旋回体63の右側面及び後面以外の位置(例えば、前面及び左側面である。)に取り付けられていてもよく、広い範囲を撮像できるよう広角レンズ又は魚眼レンズが装着されていてもよい。 The camera 2 is a device for acquiring an input image showing the surroundings of the excavator 60, and is attached to the right side surface and the rear surface of the upper revolving body 63 so as to capture an image of the blind spot of the operator in the cab 64, for example. (See FIG. 2.), a right side camera 2R and a rear camera 2B, each of which has an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 2 may be attached to a position other than the right side and the rear side of the upper rotating body 63 (for example, the front side and the left side), and is equipped with a wide-angle lens or a fisheye lens so as to capture a wide range. may be

また、カメラ2は、制御部1からの制御信号に応じて入力画像を取得し、取得した入力画像を制御部1に対して出力する。なお、カメラ2は、魚眼レンズ又は広角レンズを用いて入力画像を取得した場合には、それらレンズを用いることによって生じる見掛け上の歪曲やアオリを補正した補正済みの入力画像を制御部1に対して出力するが、その見掛け上の歪曲やアオリを補正していない入力画像をそのまま制御部1に対して出力してもよい。その場合には、制御部1がその見掛け上の歪曲やアオリを補正することとなる。 Also, the camera 2 acquires an input image according to a control signal from the control unit 1 and outputs the acquired input image to the control unit 1 . Note that when the camera 2 acquires an input image using a fisheye lens or a wide-angle lens, the corrected input image obtained by correcting the apparent distortion and tilt caused by the use of the lens is sent to the control unit 1. However, the input image may be output to the control unit 1 as it is without correcting its apparent distortion or tilt. In that case, the control unit 1 corrects the apparent distortion and tilt.

入力部3は、操作者が画像生成装置100に対して各種情報を入力できるようにするための装置であり、例えば、タッチパネル、ボタンスイッチ、ポインティングデバイス、キーボード等である。 The input unit 3 is a device that enables the operator to input various information to the image generation device 100, and includes, for example, a touch panel, button switches, pointing device, keyboard, and the like.

記憶部4は、各種情報を記憶するための装置であり、例えば、ハードディスク、光学ディスク、又は半導体メモリ等である。 The storage unit 4 is a device for storing various information, such as a hard disk, an optical disk, or a semiconductor memory.

表示部5は、画像情報を表示するための装置であり、例えば、ショベル60のキャブ64(図2参照。)内に設置された液晶ディスプレイ又はプロジェクタ等であって、制御部1が出力する各種画像を表示する。 The display unit 5 is a device for displaying image information. Display an image.

ステレオカメラ6は、ショベル60の周囲に存在する物体の距離情報の二次元配列を取得するための装置であり、例えば、キャブ64にいる操作者の死角となる領域を撮像できるよう上部旋回体63の右側面及び後面に取り付けられる(図2参照。)。なお、ステレオカメラ6は、上部旋回体63の前面、左側面、右側面、及び後面のうちの何れか1つに取り付けられていてもよく、全ての面に取り付けられていてもよい。 The stereo camera 6 is a device for acquiring a two-dimensional array of distance information of objects existing around the excavator 60 . (See FIG. 2). Note that the stereo camera 6 may be attached to any one of the front surface, left side surface, right side surface, and rear surface of the upper rotating body 63, or may be attached to all surfaces.

ステレオカメラ6は、複数台のカメラの撮像機能を備える装置である。本実施例では、ステレオカメラ6は、2台のカメラの撮像機能を一体的に備える装置であり、2組の撮像機構(撮像素子とレンズ機構との組み合わせ)と、1つの共用シャッタ機構とを1つの筐体内に備える。但し、ステレオカメラ6は、別個独立の複数台のカメラによって構成されてもよい。 The stereo camera 6 is a device having imaging functions of a plurality of cameras. In this embodiment, the stereo camera 6 is a device that integrates the imaging functions of two cameras, and includes two sets of imaging mechanisms (a combination of an imaging element and a lens mechanism) and one shared shutter mechanism. It is provided in one housing. However, the stereo camera 6 may be composed of a plurality of independent cameras.

また、ステレオカメラ6における複数組の撮像機構は、互いに所定の間隔を空けて配置される。本実施例では、2組の撮像機構は、縦方向(鉛直方向)に所定の間隔を空けて並置される。なお、2組の撮像機構は、横方向(水平方向)に所定の間隔を空けて並置されてもよく、縦方向(鉛直方向)及び横方向(水平方向)のそれぞれで所定の間隔を空けて並置されてもよい。 Moreover, the plural sets of imaging mechanisms in the stereo camera 6 are arranged at predetermined intervals from each other. In this embodiment, the two sets of imaging mechanisms are arranged side by side with a predetermined interval in the longitudinal direction (vertical direction). Note that the two sets of imaging mechanisms may be arranged side by side with a predetermined interval in the lateral direction (horizontal direction), or may be arranged with a predetermined interval in each of the vertical direction (vertical direction) and the lateral direction (horizontal direction). may be juxtaposed.

また、ステレオカメラ6は、カメラ2が画素毎に輝度、色相値、彩度値等を取得するのに対し、画素毎に距離情報を取得する。本実施例では、ステレオカメラ6は、2組の撮像機構のそれぞれが出力する画像間の視差に基づいて、1つの撮像機構が出力する画像(以下、「基本画像」とする。)の各画素に写る物体とステレオカメラ6との間の距離を導き出す。そして、ステレオカメラ6は、基本画像の各画素の値にその導き出した距離を代入して二次元配列の距離情報を生成し、制御部1に対して出力する。そのため、以下では、ステレオカメラ6による二次元配列の距離情報は、カメラ2の入力画像、出力画像と対比させ、入力距離画像、出力距離画像と称する。また、ステレオカメラ6の入力距離画像、出力距離画像の解像度(画素数)は、カメラ2の入力画像、出力画像における解像度と同じであってもよく、異なるものであってもよい。また、カメラ2の入力画像、出力画像における1又は複数の画素と、ステレオカメラ6の入力距離画像、出力距離画像における1又は複数の画素とは予め対応付けられていてもよい。また、入力距離画像は、ステレオカメラ6の各撮像機構が出力する複数の画像に基づいて制御部1が生成してもよい。 Further, while the camera 2 acquires luminance, hue value, saturation value, etc. for each pixel, the stereo camera 6 acquires distance information for each pixel. In this embodiment, the stereo camera 6 detects each pixel of an image output by one imaging mechanism (hereinafter referred to as a “basic image”) based on the parallax between the images output by each of the two sets of imaging mechanisms. and the distance between the stereo camera 6 is derived. Then, the stereo camera 6 substitutes the derived distance for the value of each pixel of the basic image to generate distance information in a two-dimensional array, and outputs the distance information to the control unit 1 . Therefore, hereinafter, the distance information in the two-dimensional array by the stereo camera 6 is compared with the input image and the output image of the camera 2 and called an input distance image and an output distance image. Also, the resolution (the number of pixels) of the input range image and the output range image of the stereo camera 6 may be the same as or different from the resolution of the input image and the output image of the camera 2 . Also, one or more pixels in the input image or output image of the camera 2 may be associated in advance with one or more pixels in the input range image or output range image of the stereo camera 6 . Also, the input distance image may be generated by the control unit 1 based on a plurality of images output by each imaging mechanism of the stereo camera 6 .

また、ステレオカメラ6を構成する複数の撮像機構のそれぞれの入力画像平面は、望ましくは互いに平行であり、最も望ましくは同一平面を形成する。視差から距離を導き出すための処理が容易且つ高精度に行われ得るためである。 Also, the input image planes of the plurality of imaging mechanisms that constitute the stereo camera 6 are preferably parallel to each other, and most preferably form the same plane. This is because the processing for deriving the distance from the parallax can be performed easily and with high accuracy.

また、ステレオカメラ6は、カメラ2と同様、上部旋回体63の右側面及び後面以外の位置(例えば、前面及び左側面である。)に取り付けられてもよく、広い範囲を撮像できるよう広角レンズ又は魚眼レンズが装着されてもよい。 Moreover, the stereo camera 6 may be attached to a position other than the right side and the rear side of the upper rotating body 63 (for example, the front side and the left side), similarly to the camera 2. Alternatively, a fisheye lens may be attached.

また、ステレオカメラ6は、カメラ2と同様、制御部1からの制御信号に応じて入力距離画像を取得し、取得した入力距離画像を制御部1に対して出力する。なお、ステレオカメラ6は、カメラ2と同様、魚眼レンズ又は広角レンズを用いて入力距離画像を取得した場合には、それらレンズを用いることによって生じる見掛け上の歪曲やアオリを補正した補正済みの入力距離画像を制御部1に対して出力するが、その見掛け上の歪曲やアオリを補正していない入力距離画像をそのまま制御部1に対して出力してもよい。その場合には、制御部1がその見掛け上の歪曲やアオリを補正することとなる。 Similarly to the camera 2 , the stereo camera 6 acquires an input distance image according to a control signal from the control unit 1 and outputs the acquired input distance image to the control unit 1 . Note that, as with the camera 2, when the stereo camera 6 acquires an input distance image using a fisheye lens or a wide-angle lens, the stereo camera 6 corrects the apparent distortion and tilt caused by using these lenses to obtain a corrected input distance image. Although the image is output to the control unit 1, the input distance image without correction of apparent distortion and tilt may be output to the control unit 1 as it is. In that case, the control unit 1 corrects the apparent distortion and tilt.

また、画像生成装置100は、入力画像に基づいて処理対象画像を生成し、その処理対象画像に画像変換処理を施すことによって周囲の地物との位置関係や距離感を直感的に把握できるようにする出力画像を生成した上で、その出力画像を操作者に提示するようにしてもよい。 In addition, the image generating apparatus 100 generates an image to be processed based on the input image, and performs image conversion processing on the image to be processed so that the positional relationship and sense of distance to the surrounding features can be intuitively grasped. The output image may be generated and then presented to the operator.

画像生成装置100は、入力距離画像についても同様の処理を行う。その場合、処理対象画像は、処理対象距離画像で読み替えられる。以下の記載においても同様である。 The image generation device 100 performs similar processing on the input range image. In that case, the image to be processed is replaced with the distance image to be processed. The same applies to the following description.

「処理対象画像」は、入力画像に基づいて生成される、画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)の対象となる画像であり、例えば、地表を上方から撮像するカメラによる入力画像であってその広い画角により水平方向の画像(例えば、空の部分である。)を含む入力画像を画像変換処理で用いる場合に、その水平方向の画像が不自然に表示されないよう(例えば、空の部分が地表にあるものとして扱われないよう)その入力画像を所定の空間モデルに投影した上で、その空間モデルに投影された投影画像を別の二次元平面に再投影することによって得られる、画像変換処理に適した画像である。なお、処理対象画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。 The “image to be processed” is an image to be subjected to image transformation processing (for example, scale transformation, affine transformation, distortion transformation, viewpoint transformation processing, etc.) generated based on the input image. is an input image from a camera that captures from above and includes a horizontal image (for example, a sky part) due to its wide angle of view. The input image is projected onto a given spatial model so as not to be displayed unnaturally (e.g., the sky is not treated as being on the ground), and then the projection image projected onto that spatial model is projected onto another two-dimensional model. It is an image suitable for image transformation processing obtained by reprojecting onto a dimensional plane. Note that the processing target image may be used as an output image as it is without performing image conversion processing.

「空間モデル」は、少なくとも、処理対象画像が位置する平面である処理対象画像平面以外の平面又は曲面(例えば、処理対象画像平面に平行な平面、又は、処理対象画像平面との間で角度を形成する平面若しくは曲面である。)を含む、一又は複数の平面若しくは曲面で構成される、入力画像の投影対象である。 The "spatial model" is at least a plane or curved surface other than the processing target image plane, which is the plane on which the processing target image is located (for example, a plane parallel to the processing target image plane, or an angle between the processing target image plane It is a projection target of an input image, which is composed of one or a plurality of planes or curved surfaces.

なお、画像生成装置100は、処理対象画像を生成することなく、その空間モデルに投影された投影画像に画像変換処理を施すことによって出力画像を生成するようにしてもよい。また、投影画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。 Note that the image generating apparatus 100 may generate an output image by performing image conversion processing on a projection image projected onto the spatial model without generating a processing target image. Also, the projection image may be used as the output image as it is without image conversion processing.

図3は、入力画像が投影される空間モデルMDの一例を示す図であり、図3(A)は、ショベル60を側方から見たときのショベル60と空間モデルMDとの間の関係を示し、図3(B)は、ショベル60を上方から見たときのショベル60と空間モデルMDとの間の関係を示す。 FIG. 3 is a diagram showing an example of the space model MD on which the input image is projected, and FIG. 3A shows the relationship between the excavator 60 and the space model MD when the excavator 60 is viewed from the side. 3B shows the relationship between the shovel 60 and the space model MD when the shovel 60 is viewed from above.

図3で示されるように、空間モデルMDは、半円筒形状を有し、その底面内部の平面領域R1とその側面内部の曲面領域R2とを有する。 As shown in FIG. 3, the space model MD has a semi-cylindrical shape, and has a planar region R1 inside its bottom surface and a curved surface region R2 inside its side surface.

また、図4は、空間モデルMDと処理対象画像平面との間の関係の一例を示す図であり、処理対象画像平面R3は、例えば、空間モデルMDの平面領域R1を含む平面である。なお、図4は、明確化のために、空間モデルMDを、図3で示すような半円筒形状ではなく、円筒形状で示しているが、空間モデルMDは、半円筒形状及び円筒形状の何れであってもよいものとする。以降の図においても同様である。また、処理対象画像平面R3は、上述のように、空間モデルMDの平面領域R1を含む円形領域であってもよく、空間モデルMDの平面領域R1を含まない環状領域であってもよい。 Also, FIG. 4 is a diagram showing an example of the relationship between the space model MD and the processing target image plane, and the processing target image plane R3 is, for example, a plane including the plane region R1 of the space model MD. For clarity, FIG. 4 shows the space model MD in a cylindrical shape instead of a semi-cylindrical shape as shown in FIG. may be The same applies to subsequent figures. Further, as described above, the processing target image plane R3 may be a circular area that includes the plane area R1 of the space model MD, or may be an annular area that does not include the plane area R1 of the space model MD.

次に、制御部1が有する各種手段について説明する。 Next, various means that the control unit 1 has will be described.

座標対応付け手段10は、カメラ2が撮像した入力画像が位置する入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付けるための手段であり、例えば、予め設定された、或いは、入力部3を介して入力される、カメラ2の光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等のカメラ2に関する各種パラメータと、予め決定された、入力画像平面、空間モデルMD、及び処理対象画像平面R3の相互の位置関係とに基づいて、入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、それらの対応関係を記憶部4の入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41に記憶する。 The coordinate association means 10 is means for associating the coordinates on the input image plane where the input image captured by the camera 2 is located, the coordinates on the space model MD, and the coordinates on the processing target image plane R3, For example, various parameters related to the camera 2, such as the optical center of the camera 2, the focal length, the CCD size, the optical axis direction vector, the camera horizontal direction vector, and the projection method, which are preset or input via the input unit 3 and the predetermined mutual positional relationship among the input image plane, the space model MD, and the processing target image plane R3, the coordinates on the input image plane, the coordinates on the space model MD, and the processing target image coordinates on the plane R3, and the correspondence relationship is stored in the input image/spatial model correspondence map 40 and the space model/process target image correspondence map 41 of the storage unit 4. FIG.

なお、座標対応付け手段10は、処理対象画像を生成しない場合には、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応付け、及び、その対応関係の空間モデル・処理対象画像対応マップ41への記憶を省略する。 Note that, when the image to be processed is not generated, the coordinate association means 10 associates the coordinates on the space model MD with the coordinates on the image plane R3 to be processed, and the spatial model/processing object of the correspondence relationship. Storing in the image correspondence map 41 is omitted.

また、座標対応付け手段10は、ステレオカメラが出力する入力距離画像に対しても同様の処理を行う。その場合、カメラ、入力画像平面、処理対象画像平面は、ステレオカメラ、入力距離画像平面、処理対象距離画像平面で読み替えられる。以下の記載においても同様である。 The coordinate association means 10 also performs similar processing on the input range image output by the stereo camera. In that case, the camera, the input image plane, and the image plane to be processed can be read as the stereo camera, the input range image plane, and the range image plane to be processed. The same applies to the following description.

画像生成手段11は、出力画像を生成するための手段であり、例えば、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。 The image generating means 11 is a means for generating an output image. For example, by applying scale transformation, affine transformation, or distortion transformation to the image to be processed, the coordinates on the image plane R3 to be processed and the position of the output image are changed. and the coordinates on the plane of the output image, the correspondence relationship is stored in the processing object image/output image correspondence map 42 of the storage unit 4, and the coordinate correspondence means 10 stores the values of the input image/space model correspondence While referring to the map 40 and the spatial model/image-to-be-processed correspondence map 41, the value of each pixel in the output image (e.g., luminance value, hue value, saturation value, etc.) and the value of each pixel in the input image. to generate an output image.

また、画像生成手段11は、予め設定された、或いは、入力部3を介して入力される、仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータに基づいて、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。 Further, the image generating means 11 uses the optical center of the virtual camera, the focal length, the CCD size, the optical axis direction vector, the camera horizontal direction vector, the projection method, etc., which are set in advance or are input via the input unit 3 . Based on the various parameters, the coordinates on the processing target image plane R3 and the coordinates on the output image plane where the output image is located are associated with each other, and the correspondence relationship is stored in the processing target image/output image correspondence map 42 of the storage unit 4. While referring to the input image/spatial model correspondence map 40 and the space model/processing target image correspondence map 41 in which the values are stored by the coordinate association means 10, the value of each pixel in the output image (for example, luminance value, hue value, saturation value, etc.) and the value of each pixel in the input image to generate an output image.

なお、画像生成手段11は、仮想カメラの概念を用いることなく、処理対象画像のスケールを変更して出力画像を生成するようにしてもよい。 Note that the image generating means 11 may generate an output image by changing the scale of the image to be processed without using the concept of the virtual camera.

また、画像生成手段11は、処理対象画像を生成しない場合には、施した画像変換処理に応じて空間モデルMD上の座標と出力画像平面上の座標とを対応付け、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。この場合、画像生成手段11は、処理対象画像平面R3上の座標と出力画像平面上の座標との対応付け、及び、その対応関係の処理対象画像・出力画像対応マップ42への記憶を省略する。 Further, when the image to be processed is not generated, the image generating means 11 associates the coordinates on the space model MD with the coordinates on the output image plane in accordance with the applied image transformation processing, and performs correspondence between the input image and the space model. While referring to the map 40, the output image is generated by associating the value of each pixel in the output image (for example, luminance value, hue value, saturation value, etc.) with the value of each pixel in the input image. In this case, the image generating means 11 omits the correspondence between the coordinates on the processing target image plane R3 and the coordinates on the output image plane, and the storage of the corresponding relationship in the processing target image/output image correspondence map 42. .

また、画像生成手段11は、入力距離画像又は処理対象距離画像に対しても同様の処理を行う。その場合、出力画像平面は、出力距離画像平面で読み替えられる。以下の記載においても同様である。 The image generating means 11 also performs similar processing on the input distance image or the processing target distance image. In that case, the output image plane is read as the output range image plane. The same applies to the following description.

画素抽出手段12は、ステレオカメラ6の入力距離画像から所定の条件を満たす画素を抽出するための手段である。例えば、画素抽出手段12は、入力距離画像における、ショベル60の周囲の地物とステレオカメラ6との間の距離を表す画素値を有する画素から所定の条件を満たす画素を抽出する。 The pixel extracting means 12 is means for extracting pixels satisfying a predetermined condition from the input range image of the stereo camera 6 . For example, the pixel extracting means 12 extracts pixels satisfying a predetermined condition from pixels having pixel values representing the distance between the features around the shovel 60 and the stereo camera 6 in the input range image.

具体的には、画素抽出手段12は、ショベル60が位置する平面(以下、「設置面」とする。)とステレオカメラ6との間の距離(以下、「設置面距離」とする。)との差が所定距離以上となる画素を抽出する。なお、設置面は、傾斜面であってもよい。また、設置面距離は、ステレオカメラ6の設置位置及び設置角度に基づいて、ステレオカメラ6の入力距離画像における画素毎に予め設定される。そして、画素抽出手段12は、抽出しなかった画素の画素値を所定値(例えば、最小値としてのゼロである。)で置き換え、抽出した画素の画素値をそのまま維持することによって入力距離画像を補正する。なお、画素抽出手段12についてはその詳細を後述する。 Specifically, the pixel extracting means 12 extracts the distance between the plane on which the excavator 60 is positioned (hereinafter referred to as “installation surface”) and the stereo camera 6 (hereinafter referred to as “installation surface distance”) and A pixel whose difference is equal to or greater than a predetermined distance is extracted. Note that the installation surface may be an inclined surface. Also, the installation surface distance is set in advance for each pixel in the input distance image of the stereo camera 6 based on the installation position and installation angle of the stereo camera 6 . Then, the pixel extracting means 12 replaces the pixel values of the unextracted pixels with a predetermined value (for example, zero as the minimum value), and maintains the pixel values of the extracted pixels as they are, thereby extracting the input range image. to correct. Details of the pixel extraction means 12 will be described later.

距離補正手段13は、ステレオカメラが取得する距離情報を補正するための手段である。例えば、距離補正手段13は、画素抽出手段12が抽出した画素の値を補正する。具体的には、距離補正手段13は、ショベル60の周囲の地物とステレオカメラ6との間の距離を表す画素の値を、ステレオカメラ6の外部にある基準とその地物との間の距離を表す値に補正する。また、距離補正手段13は、画素抽出手段12による抽出の前に、ステレオカメラ6が出力する入力距離画像における画素の値を補正してもよい。なお、距離補正手段13についてはその詳細を後述する。 The distance correction means 13 is means for correcting distance information acquired by the stereo camera. For example, the distance correction means 13 corrects the pixel values extracted by the pixel extraction means 12 . Specifically, the distance correction means 13 adjusts the pixel value representing the distance between the feature around the excavator 60 and the stereo camera 6 to the distance between the reference outside the stereo camera 6 and the feature. Correct to a value that represents the distance. Further, the distance correction means 13 may correct the pixel values in the input distance image output by the stereo camera 6 before extraction by the pixel extraction means 12 . The details of the distance correction means 13 will be described later.

距離画像合成手段14は、カメラに関する画像と、ステレオカメラに関する画像とを合成するための手段である。例えば、距離画像合成手段14は、画像生成手段11が生成した、カメラ2の入力画像に基づく出力画像と、ステレオカメラ6の入力距離画像に基づく出力距離画像とを合成する。出力距離画像は、画素抽出手段12による抽出、及び、距離補正手段13による補正の少なくとも一方が施された後の出力距離画像である。但し、出力距離画像は、画素抽出手段12による抽出、及び、距離補正手段13による補正が施される前の出力距離画像であってもよい。なお、距離画像合成手段14についてはその詳細を後述する。 The distance image synthesizing means 14 is means for synthesizing an image relating to the camera and an image relating to the stereo camera. For example, the distance image synthesizing means 14 synthesizes the output image based on the input image of the camera 2 and the output distance image based on the input distance image of the stereo camera 6 , which are generated by the image generating means 11 . The output distance image is an output distance image after at least one of extraction by the pixel extraction means 12 and correction by the distance correction means 13 is performed. However, the output distance image may be an output distance image before being extracted by the pixel extraction means 12 and corrected by the distance correction means 13 . Details of the distance image synthesizing means 14 will be described later.

運転支援手段15は、ショベル60の運転を支援する手段である。例えば、運転支援手段15は、ショベル60の移動方向に所定の地物が存在すると判定した場合にショベル60の運転を支援する機能を実行する。 The driving support means 15 is means for supporting driving of the excavator 60 . For example, the driving support unit 15 executes a function of supporting driving of the excavator 60 when it is determined that a predetermined feature exists in the moving direction of the excavator 60 .

「所定の地物」は、例えば、ショベル60と衝突するおそれのある作業員等の人物、ショベル60の移動を阻む障害物、ショベル60を滑落、転倒、或いは立ち往生させるおそれのある崖、陥没部、斜面、穴等を含む。 The "predetermined feature" is, for example, a person such as a worker who is likely to collide with the excavator 60, an obstacle that hinders the movement of the excavator 60, a cliff that may cause the excavator 60 to slide, fall, or get stuck, or a depression. , slopes, holes, etc.

運転を支援する機能(以下、「運転支援機能」とする。)は、例えば、警報の出力、表示部5における警告の表示、警告灯の点灯・点滅、ショベル60の減速、ショベル60の走行速度の制限、ショベル60の走行の停止等を含む。 Functions that support driving (hereinafter referred to as “driving support functions”) include, for example, outputting an alarm, displaying a warning on the display unit 5, turning on/off a warning light, decelerating the excavator 60, and driving the excavator 60 at a traveling speed. , stop the excavator 60 from traveling, and the like.

具体的には、運転支援手段15は、ショベル60が移動(後退)しているときにショベル60の移動方向(後方)に崖があると判定した場合に、表示部5に崖の存在を知らせる警告を表示する。なお、ショベル60の移動方向は、例えば、操作レバーの操作内容(例えば、操作方向、操作量等である。)に基づいて検出される。 Specifically, when the driving support means 15 determines that there is a cliff in the moving direction (backward) of the excavator 60 while the excavator 60 is moving (retreating), the driving support means 15 informs the display unit 5 of the existence of the cliff. Show warning. Note that the moving direction of the shovel 60 is detected based on, for example, the operation content of the operation lever (for example, the operation direction, the operation amount, etc.).

また、運転支援手段15は、ショベル60と崖との間の距離が短くなるにつれてショベル60の移動(後退)速度を低下させてもよく、ショベル60と崖との間の距離が所定距離以下となった場合にショベル60の移動(後退)を停止させてもよい。 Further, the driving support means 15 may reduce the movement (retreat) speed of the excavator 60 as the distance between the excavator 60 and the cliff becomes shorter, and when the distance between the excavator 60 and the cliff becomes equal to or less than a predetermined distance. The movement (retraction) of the shovel 60 may be stopped when the shovel 60 is in the state of being.

また、運転支援手段15は、ステレオカメラ6の出力に基づいて、所定の地物が存在するか否かを判定する。例えば、運転支援手段15は、設置面から所定距離以上の深さを有する地物がステレオカメラ6によって検出された場合に、ショベル60を滑落させるおそれのある陥没部が存在すると判定する。また、運転支援手段15は、入力距離画像に基づいて算出される実際の陥没部の深さ、開口面積、幅、及び奥行きの少なくとも1つが所定の条件を満たす場合に限り、ショベル60を滑落させるおそれのある陥没部が存在すると判定してもよい。また、運転支援手段15は、入力距離画像における所定方向(ショベル60の移動方向)に沿った画素値の増加勾配に基づいて、ショベル60を滑落させるおそれのある陥没部が存在するか否かを判定してもよい。 Moreover, the driving support means 15 determines whether or not a predetermined feature exists based on the output of the stereo camera 6 . For example, when the stereo camera 6 detects a feature having a depth of a predetermined distance or more from the installation surface, the driving support means 15 determines that there is a depression that may cause the shovel 60 to slide down. Further, the driving support means 15 causes the excavator 60 to slide down only when at least one of the actual depth, opening area, width, and depth of the depressed portion calculated based on the input range image satisfies a predetermined condition. It may be determined that there is a possible recession. In addition, the driving support means 15 determines whether there is a depressed portion that may cause the excavator 60 to slide down, based on the increasing gradient of the pixel values along the predetermined direction (moving direction of the excavator 60) in the input range image. You can judge.

或いは、運転支援手段15は、設置面から所定距離以上の高さを有する地物がステレオカメラ6によって検出された場合に、ショベル60と衝突するおそれのある障害物が存在すると判定してもよい。また、運転支援手段15は、入力距離画像における所定方向(ショベル60の移動方向)に沿った画素値の減少勾配に基づいて、ショベル60と衝突するおそれのある障害物が存在するか否かを判定してもよい。 Alternatively, the driving support means 15 may determine that there is an obstacle that may collide with the excavator 60 when the stereo camera 6 detects a feature having a height equal to or greater than a predetermined distance from the installation surface. . Further, the driving support means 15 determines whether or not there is an obstacle that may collide with the excavator 60 based on the decreasing gradient of the pixel values along the predetermined direction (moving direction of the excavator 60) in the input range image. You can judge.

次に、座標対応付け手段10及び画像生成手段11による具体的な処理の一例について説明する。 Next, an example of specific processing by the coordinate matching means 10 and the image generating means 11 will be described.

座標対応付け手段10は、例えば、ハミルトンの四元数を用いて、入力画像平面上の座標と空間モデル上の座標とを対応付けることができる。 The coordinate association means 10 can associate the coordinates on the input image plane with the coordinates on the space model using, for example, Hamilton's quaternion.

図5は、入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図であり、カメラ2の入力画像平面は、カメラ2の光学中心Cを原点とするUVW直交座標系における一平面として表され、空間モデルは、XYZ直交座標系における立体面として表されるものとする。 FIG. 5 is a diagram for explaining the correspondence between the coordinates on the input image plane and the coordinates on the space model. It is assumed that the space model is expressed as a solid plane in the XYZ orthogonal coordinate system.

最初に、座標対応付け手段10は、空間モデル上の座標(XYZ座標系上の座標)を入力画像平面上の座標(UVW座標系上の座標)に変換するため、XYZ座標系の原点を光学中心C(UVW座標系の原点)に並行移動させた上で、X軸をU軸に、Y軸をV軸に、Z軸を-W軸(符号「-」は方向が逆であることを意味する。これは、UVW座標系がカメラ前方を+W方向とし、XYZ座標系が鉛直下方を-Z方向としていることに起因する。)にそれぞれ一致させるようXYZ座標系を回転させる。 First, the coordinate correspondence means 10 converts the coordinates on the space model (coordinates on the XYZ coordinate system) to the coordinates on the input image plane (coordinates on the UVW coordinate system), so that the origin of the XYZ coordinate system is set to the optical After moving parallel to the center C (the origin of the UVW coordinate system), the X axis is the U axis, the Y axis is the V axis, and the Z axis is the -W axis (the sign "-" indicates that the direction is opposite. This is because the UVW coordinate system has the +W direction in front of the camera, and the XYZ coordinate system has the -Z direction in the vertical downward direction.

なお、カメラ2が複数存在する場合、カメラ2のそれぞれが個別のUVW座標系を有することとなるので、座標対応付け手段10は、複数のUVW座標系のそれぞれに対して、XYZ座標系を並行移動させ且つ回転させることとなる。 If there are a plurality of cameras 2, each camera 2 has its own UVW coordinate system. It will be moved and rotated.

上述の変換は、カメラ2の光学中心CがXYZ座標系の原点となるようにXYZ座標系を並行移動させた後に、Z軸が-W軸に一致するよう回転させ、更に、X軸がU軸に一致するよう回転させることによって実現されるので、座標対応付け手段10は、この変換をハミルトンの四元数で記述することにより、それら二回の回転を一回の回転演算に纏めることができる。 In the above conversion, the XYZ coordinate system is translated so that the optical center C of the camera 2 becomes the origin of the XYZ coordinate system, then the Z axis is rotated to coincide with the -W axis, and the X axis is changed to the U Since it is realized by rotating to coincide with the axis, the coordinate correspondence means 10 can integrate these two rotations into one rotation operation by describing this transformation in Hamilton's quaternion. can.

ところで、あるベクトルAを別のベクトルBに一致させるための回転は、ベクトルAとベクトルBとが張る面の法線を軸としてベクトルAとベクトルBとが形成する角度だけ回転させる処理に相当し、その角度をθとすると、ベクトルAとベクトルBとの内積から、角度θは、 By the way, the rotation for matching a vector A with another vector B corresponds to the process of rotating by the angle formed by the vector A and the vector B about the normal line of the plane spanned by the vector A and the vector B. , and that angle is θ, from the inner product of vector A and vector B, the angle θ is

Figure 0007296340000001
で表されることとなる。
Figure 0007296340000001
will be represented by

また、ベクトルAとベクトルBとが張る面の法線の単位ベクトルNは、ベクトルAとベクトルBとの外積から Also, the unit vector N of the normal to the surface spanned by vector A and vector B is obtained from the outer product of vector A and vector B as

Figure 0007296340000002
で表されることとなる。
Figure 0007296340000002
will be represented by

なお、四元数は、i、j、kをそれぞれ虚数単位とした場合、 In addition, the quaternion, when i, j, and k are imaginary units, is

Figure 0007296340000003
を満たす超複素数であり、本実施例において、四元数Qは、実成分をt、純虚成分をa、b、cとして、
Figure 0007296340000003
is a hyper-complex number that satisfies

Figure 0007296340000004
で表されるものとし、四元数Qの共役四元数は、
Figure 0007296340000004
and the conjugate quaternion of the quaternion Q is

Figure 0007296340000005
で表されるものとする。
Figure 0007296340000005
shall be represented by

四元数Qは、実成分tを0(ゼロ)としながら、純虚成分a、b、cで三次元ベクトル(a,b,c)を表現することができ、また、t、a、b、cの各成分により任意のベクトルを軸とした回転動作を表現することもできる。 The quaternion Q can express a three-dimensional vector (a, b, c) with pure imaginary components a, b, c while setting the real component t to 0 (zero). , c can also represent a rotational movement around an arbitrary vector.

更に、四元数Qは、連続する複数回の回転動作を統合して一回の回転動作として表現することができ、例えば、任意の点S(sx,sy,sz)を、任意の単位ベクトルC(l,m,n)を軸としながら角度θだけ回転させたときの点D(ex,ey,ez)を以下のように表現することができる。 Furthermore, the quaternion Q can be expressed as a single rotation operation by integrating multiple consecutive rotation operations. For example, an arbitrary point S (sx, sy, sz) can be expressed as A point D (ex, ey, ez) when rotated by an angle θ with C (l, m, n) as an axis can be expressed as follows.

Figure 0007296340000006
ここで、本実施例において、Z軸を-W軸に一致させる回転を表す四元数をQzとすると、XYZ座標系におけるX軸上の点Xは、点X'に移動させられるので、点X'は、
Figure 0007296340000006
Here, in this embodiment, let Qz be a quaternion representing the rotation that aligns the Z-axis with the -W-axis. X' is

Figure 0007296340000007
で表されることとなる。
Figure 0007296340000007
will be represented by

また、本実施例において、X軸上にある点X'と原点とを結ぶ線をU軸に一致させる回転を表す四元数をQxとすると、「Z軸を-W軸に一致させ、更に、X軸をU軸に一致させる回転」を表す四元数Rは、 In this embodiment, if Qx is a quaternion representing a rotation that aligns the line connecting the point X' on the X axis and the origin with the U axis, then "Align the Z axis with the -W axis, and further , the rotation that aligns the X axis with the U axis.

Figure 0007296340000008
で表されることとなる。
Figure 0007296340000008
will be represented by

以上により、空間モデル(XYZ座標系)上の任意の座標Pを入力画像平面(UVW座標系)上の座標で表現したときの座標P'は、 From the above, the coordinates P′ when arbitrary coordinates P on the space model (XYZ coordinate system) are expressed by coordinates on the input image plane (UVW coordinate system) are

Figure 0007296340000009
で表されることとなり、四元数Rがカメラ2のそれぞれで不変であることから、座標対応付け手段10は、以後、この演算を実行するだけで空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換することができる。
Figure 0007296340000009
Since the quaternion R is invariant for each of the cameras 2, the coordinate correspondence means 10 will thereafter obtain the coordinates on the space model (XYZ coordinate system) simply by executing this calculation. It can be transformed into coordinates on the input image plane (UVW coordinate system).

空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換した後、座標対応付け手段10は、カメラ2の光学中心C(UVW座標系上の座標)と空間モデル上の任意の座標PをUVW座標系で表した座標P'とを結ぶ線分CP'と、カメラ2の光軸Gとが形成する入射角αを算出する。 After converting the coordinates on the space model (XYZ coordinate system) into the coordinates on the input image plane (UVW coordinate system), the coordinate correspondence means 10 aligns the optical center C of the camera 2 (coordinates on the UVW coordinate system) with the space An incident angle α formed by a line segment CP′ connecting an arbitrary coordinate P on the model with a coordinate P′ expressed in the UVW coordinate system and the optical axis G of the camera 2 is calculated.

また、座標対応付け手段10は、カメラ2の入力画像平面R4(例えば、CCD面)に平行で且つ座標P'を含む平面Hにおける、平面Hと光軸Gとの交点Eと座標P'とを結ぶ線分EP'と、平面HにおけるU'軸とが形成する偏角φ、及び線分EP'の長さを算出する。 Further, the coordinate association means 10 establishes an intersection point E between the plane H and the optical axis G and the coordinate P' in the plane H parallel to the input image plane R4 (for example, the CCD plane) of the camera 2 and including the coordinate P'. and the declination angle φ formed by the U' axis on the plane H and the length of the line segment EP' are calculated.

カメラの光学系は、通常、像高さhが入射角α及び焦点距離fの関数となっているので、座標対応付け手段10は、通常射影(h=ftanα)、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等の適切な射影方式を選択して像高さhを算出する。 In the optical system of the camera, the image height h is usually a function of the incident angle α and the focal length f. , stereoscopic projection (h=2ftan(α/2)), equisolid angle projection (h=2fsin(α/2)), equidistant projection (h=fα), etc., and select an appropriate projection method to determine the image height Calculate h.

その後、座標対応付け手段10は、算出した像高さhを偏角φによりUV座標系上のU成分及びV成分に分解し、入力画像平面R4の一画素当たりの画素サイズに相当する数値で除算することにより、空間モデルMD上の座標P(P')と入力画像平面R4上の座標とを対応付けることができる。 After that, the coordinate correspondence means 10 decomposes the calculated image height h into the U component and the V component on the UV coordinate system by the deflection angle φ, and uses a numerical value corresponding to the pixel size per pixel of the input image plane R4. By division, the coordinates P(P') on the space model MD can be associated with the coordinates on the input image plane R4.

なお、入力画像平面R4のU軸方向における一画素当たりの画素サイズをaとし、入力画像平面R4のV軸方向における一画素当たりの画素サイズをaとすると、空間モデルMD上の座標P(P')に対応する入力画像平面R4上の座標(u,v)は、 If the pixel size of one pixel in the U-axis direction of the input image plane R4 is aU , and the pixel size of one pixel in the V-axis direction of the input image plane R4 is aV , the coordinate P on the space model MD The coordinates (u, v) on the input image plane R4 corresponding to (P') are

Figure 0007296340000010
Figure 0007296340000010

Figure 0007296340000011
で表されることとなる。
Figure 0007296340000011
will be represented by

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、カメラ毎に存在する一又は複数の入力画像平面R4上の座標とを対応付け、空間モデルMD上の座標、カメラ識別子、及び入力画像平面R4上の座標を関連付けて入力画像・空間モデル対応マップ40に記憶する。 In this way, the coordinate associating means 10 associates the coordinates on the space model MD with the coordinates on one or a plurality of input image planes R4 existing for each camera, and coordinates on the space model MD and camera identifiers. , and coordinates on the input image plane R4 are stored in the input image/space model correspondence map 40 in association with each other.

また、座標対応付け手段10は、四元数を用いて座標の変換を演算するので、オイラー角を用いて座標の変換を演算する場合と異なり、ジンバルロックを発生させることがないという利点を有する。しかしながら、座標対応付け手段10は、四元数を用いて座標の変換を演算するものに限定されることはなく、オイラー角を用いて座標の変換を演算するようにしてもよい。 In addition, since the coordinate correspondence unit 10 uses quaternions to calculate coordinate conversion, it has the advantage of not causing gimbal lock unlike the case of calculating coordinate conversion using Euler angles. . However, the coordinate associating means 10 is not limited to calculating coordinate conversion using quaternions, and may use Euler angles to calculate coordinate conversion.

なお、複数の入力画像平面R4上の座標への対応付けが可能な場合、座標対応付け手段10は、空間モデルMD上の座標P(P')を、その入射角αが最も小さいカメラに関する入力画像平面R4上の座標に対応付けるようにしてもよく、操作者が選択した入力画像平面R4上の座標に対応付けるようにしてもよい。 In addition, when it is possible to associate coordinates on a plurality of input image planes R4, the coordinate association means 10 converts the coordinates P(P') on the space model MD to the input image corresponding to the camera with the smallest incident angle α. It may be associated with the coordinates on the image plane R4, or may be associated with the coordinates on the input image plane R4 selected by the operator.

次に、空間モデルMD上の座標のうち、曲面領域R2上の座標(Z軸方向の成分を持つ座標)を、XY平面上にある処理対象画像平面R3に再投影する処理について説明する。 Next, a process of reprojecting the coordinates on the curved surface region R2 (coordinates having a component in the Z-axis direction) among the coordinates on the space model MD onto the processing target image plane R3 on the XY plane will be described.

図6は、座標対応付け手段10による座標間の対応付けを説明するための図であり、図6(A)は、一例として通常射影(h=ftanα)を採用するカメラ2の入力画像平面R4上の座標と空間モデルMD上の座標との間の対応関係を示す図であって、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標とその座標に対応する空間モデルMD上の座標とを結ぶ線分のそれぞれがカメラ2の光学中心Cを通過するようにして、両座標を対応付ける。 6A and 6B are diagrams for explaining the correspondence between coordinates by the coordinate correspondence means 10. FIG. 6A shows, as an example, the input image plane R4 of the camera 2 adopting the normal projection (h=ftanα). 2 is a diagram showing the correspondence relationship between the above coordinates and coordinates on the space model MD. Both coordinates are made to correspond so that each line segment connecting the two coordinates passes through the optical center C of the camera 2 .

図6(A)の例では、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標K1を空間モデルMDの平面領域R1上の座標L1に対応付け、カメラ2の入力画像平面R4上の座標K2を空間モデルMDの曲面領域R2上の座標L2に対応付ける。このとき、線分K1-L1及び線分K2-L2は共にカメラ2の光学中心Cを通過する。 In the example of FIG. 6A, the coordinate association means 10 associates the coordinate K1 on the input image plane R4 of the camera 2 with the coordinate L1 on the plane region R1 of the space model MD, and the input image plane R4 of the camera 2 The upper coordinate K2 is associated with the coordinate L2 on the curved surface region R2 of the space model MD. At this time, both the line segment K1-L1 and the line segment K2-L2 pass through the optical center C of the camera 2. FIG.

なお、カメラ2が通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、座標対応付け手段10は、それぞれの射影方式に応じて、カメラ2の入力画像平面R4上の座標K1、K2を空間モデルMD上の座標L1、L2に対応付けるようにする。 Note that when the camera 2 adopts a projection method other than normal projection (for example, orthographic projection, stereographic projection, equisolid angle projection, equidistant projection, etc.), the coordinate correspondence means 10 uses Correspondingly, the coordinates K1 and K2 on the input image plane R4 of the camera 2 are made to correspond to the coordinates L1 and L2 on the space model MD.

具体的には、座標対応付け手段10は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、入力画像平面上の座標と空間モデルMD上の座標とを対応付ける。この場合、線分K1-L1及び線分K2-L2がカメラ2の光学中心Cを通過することはない。 Specifically, the coordinate association means 10 uses a predetermined function (for example, orthogonal projection (h=f sinα), stereographic projection (h=2ftan(α/2)), equisolid angle projection (h=2fsin(α/2)), 2)), equidistant projection (h=fα), etc.), the coordinates on the input image plane and the coordinates on the space model MD are associated with each other. In this case, the line segment K1-L1 and the line segment K2-L2 do not pass through the optical center C of the camera 2. FIG.

図6(B)は、空間モデルMDの曲面領域R2上の座標と処理対象画像平面R3上の座標との間の対応関係を示す図であり、座標対応付け手段10は、XZ平面上に位置する平行線群PLであって、処理対象画像平面R3との間で角度βを形成する平行線群PLを導入し、空間モデルMDの曲面領域R2上の座標とその座標に対応する処理対象画像平面R3上の座標とが共に平行線群PLのうちの一つに乗るようにして、両座標を対応付ける。 FIG. 6B is a diagram showing the correspondence relationship between the coordinates on the curved surface region R2 of the space model MD and the coordinates on the processing target image plane R3. and a group of parallel lines PL forming an angle β with the plane R3 of the image to be processed. Both the coordinates on the plane R3 are associated with one of the parallel line group PL.

図6(B)の例では、座標対応付け手段10は、空間モデルMDの曲面領域R2上の座標L2と処理対象画像平面R3上の座標M2とが共通の平行線に乗るとして、両座標を対応付けるようにする。 In the example of FIG. 6B, the coordinate associating means 10 assumes that the coordinate L2 on the curved surface region R2 of the space model MD and the coordinate M2 on the processing target image plane R3 lie on a common parallel line, make it correspond.

なお、座標対応付け手段10は、空間モデルMDの平面領域R1上の座標を曲面領域R2上の座標と同様に平行線群PLを用いて処理対象画像平面R3上の座標に対応付けることが可能であるが、図6(B)の例では、平面領域R1と処理対象画像平面R3とが共通の平面となっているので、空間モデルMDの平面領域R1上の座標L1と処理対象画像平面R3上の座標M1とは同じ座標値を有するものとなっている。 Note that the coordinate associating means 10 can associate the coordinates on the planar region R1 of the space model MD with the coordinates on the processing target image plane R3 using the group of parallel lines PL in the same way as the coordinates on the curved surface region R2. However, in the example of FIG. 6B, since the plane region R1 and the processing target image plane R3 are a common plane, the coordinate L1 on the plane region R1 of the space model MD and the processing target image plane R3 has the same coordinate value as the coordinate M1 of .

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、空間モデルMD上の座標及び処理対象画像平面R3上の座標を関連付けて空間モデル・処理対象画像対応マップ41に記憶する。 In this manner, the coordinate associating means 10 associates the coordinates on the space model MD with the coordinates on the processing target image plane R3, and associates the coordinates on the space model MD with the coordinates on the processing target image plane R3. are stored in the spatial model/image to be processed correspondence map 41 .

図6(C)は、処理対象画像平面R3上の座標と一例として通常射影(h=ftanα)を採用する仮想カメラ2Vの出力画像平面R5上の座標との間の対応関係を示す図であり、画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標とその座標に対応する処理対象画像平面R3上の座標とを結ぶ線分のそれぞれが仮想カメラ2Vの光学中心CVを通過するようにして、両座標を対応付ける。 FIG. 6C is a diagram showing the correspondence relationship between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 of the virtual camera 2V adopting normal projection (h=ftanα) as an example. , the image generating means 11 determines that each line segment connecting the coordinates on the output image plane R5 of the virtual camera 2V and the coordinates on the processing target image plane R3 corresponding to the coordinates passes through the optical center CV of the virtual camera 2V. In this way, both coordinates are associated with each other.

図6(C)の例では、画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標N1を処理対象画像平面R3(空間モデルMDの平面領域R1)上の座標M1に対応付け、仮想カメラ2Vの出力画像平面R5上の座標N2を処理対象画像平面R3上の座標M2に対応付ける。このとき、線分M1-N1及び線分M2-N2は共に仮想カメラ2Vの光学中心CVを通過する。 In the example of FIG. 6C, the image generating means 11 associates the coordinates N1 on the output image plane R5 of the virtual camera 2V with the coordinates M1 on the processing target image plane R3 (plane area R1 of the space model MD), The coordinates N2 on the output image plane R5 of the virtual camera 2V are associated with the coordinates M2 on the processing target image plane R3. At this time, both the line segment M1-N1 and the line segment M2-N2 pass through the optical center CV of the virtual camera 2V.

なお、仮想カメラ2Vが通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、画像生成手段11は、それぞれの射影方式に応じて、仮想カメラ2Vの出力画像平面R5上の座標N1、N2を処理対象画像平面R3上の座標M1、M2に対応付けるようにする。 Note that when the virtual camera 2V adopts a projection method other than normal projection (for example, orthographic projection, stereographic projection, equisolid angle projection, equidistant projection, etc.), the image generating means 11 is adapted to each projection method. Accordingly, the coordinates N1 and N2 on the output image plane R5 of the virtual camera 2V are associated with the coordinates M1 and M2 on the processing target image plane R3.

具体的には、画像生成手段11は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、出力画像平面R5上の座標と処理対象画像平面R3上の座標とを対応付ける。この場合、線分M1-N1及び線分M2-N2が仮想カメラ2Vの光学中心CVを通過することはない。 Specifically, the image generation means 11 uses a predetermined function (for example, orthogonal projection (h=fsinα), stereographic projection (h=2ftan(α/2)), equisolid angle projection (h=2fsin(α/2 )), equidistant projection (h=fα), etc.), the coordinates on the output image plane R5 and the coordinates on the processing target image plane R3 are associated with each other. In this case, the line segment M1-N1 and the line segment M2-N2 do not pass through the optical center CV of the virtual camera 2V.

このようにして、画像生成手段11は、出力画像平面R5上の座標と、処理対象画像平面R3上の座標とを対応付け、出力画像平面R5上の座標及び処理対象画像平面R3上の座標を関連付けて処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10が記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値と入力画像における各画素の値とを関連付けて出力画像を生成する。 In this manner, the image generating means 11 associates the coordinates on the output image plane R5 with the coordinates on the processing target image plane R3, and associates the coordinates on the output image plane R5 with the coordinates on the processing target image plane R3. While referring to the input image/spatial model correspondence map 40 and the space model/processing target image correspondence map 41 stored in the processing target image/output image correspondence map 42 and stored by the coordinate association means 10, each An output image is generated by associating the pixel values with the values of each pixel in the input image.

なお、図6(D)は、図6(A)~図6(C)を組み合わせた図であり、カメラ2、仮想カメラ2V、空間モデルMDの平面領域R1及び曲面領域R2、並びに、処理対象画像平面R3の相互の位置関係を示す。 FIG. 6(D) is a combination of FIGS. 6(A) to 6(C), and includes the camera 2, the virtual camera 2V, the planar region R1 and the curved surface region R2 of the space model MD, and the processing object. 3 shows the positional relationship of image planes R3 to each other.

次に、図7を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの作用について説明する。 Next, referring to FIG. 7, the action of the group of parallel lines PL introduced by the coordinate matching means 10 for matching the coordinates on the space model MD and the coordinates on the processing target image plane R3 will be described.

図7(A)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度βが形成される場合の図であり、図7(B)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度β1(β1>β)が形成される場合の図である。また、図7(A)及び図7(B)における空間モデルMDの曲面領域R2上の座標La~Ldのそれぞれは、処理対象画像平面R3上の座標Ma~Mdのそれぞれに対応するものとし、図7(A)における座標La~Ldのそれぞれの間隔は、図7(B)における座標La~Ldのそれぞれの間隔と等しいものとする。なお、平行線群PLは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の全ての点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、この場合のZ軸を「再投影軸」と称することとする。 FIG. 7A is a diagram when an angle β is formed between the group of parallel lines PL positioned on the XZ plane and the processing target image plane R3, and FIG. It is a diagram when an angle β1 (β1>β) is formed between a group of parallel lines PL and an image plane R3 to be processed. Further, coordinates La to Ld on the curved surface region R2 of the space model MD in FIGS. 7A and 7B respectively correspond to coordinates Ma to Md on the processing target image plane R3, It is assumed that the intervals between the coordinates La to Ld in FIG. 7A are equal to the intervals between the coordinates La to Ld in FIG. 7B. Although the group of parallel lines PL is assumed to exist on the XZ plane for the purpose of explanation, in reality, it exists so as to radially extend from all points on the Z axis toward the processing target image plane R3. It shall be. Note that the Z-axis in this case will be referred to as a "reprojection axis".

図7(A)及び図7(B)で示されるように、処理対象画像平面R3上の座標Ma~Mdのそれぞれの間隔は、平行線群PLと処理対象画像平面R3との間の角度が増大するにつれて線形的に減少する(空間モデルMDの曲面領域R2と座標Ma~Mdのそれぞれとの間の距離とは関係なく一様に減少する。)。一方で、空間モデルMDの平面領域R1上の座標群は、図7の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。 As shown in FIGS. 7A and 7B, the intervals between the coordinates Ma to Md on the processing target image plane R3 are such that the angle between the group of parallel lines PL and the processing target image plane R3 is It decreases linearly as it increases (it decreases uniformly regardless of the distance between the curved surface region R2 of the space model MD and each of the coordinates Ma to Md). On the other hand, the coordinate group on the plane region R1 of the space model MD is not transformed into the coordinate group on the processing target image plane R3 in the example of FIG. 7, so the interval between the coordinate groups does not change. .

これら座標群の間隔の変化は、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが線形的に拡大或いは縮小されることを意味する。 The change in the interval between these coordinate groups is such that, of the image portions on the output image plane R5 (see FIG. 6), only the image portion corresponding to the image projected onto the curved surface region R2 of the space model MD is linearly enlarged or means to be scaled down.

次に、図8を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの代替例について説明する。 Next, with reference to FIG. 8, an alternative example of the group of parallel lines PL introduced by the coordinate associating means 10 for associating the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described.

図8(A)は、XZ平面上に位置する補助線群ALの全てがZ軸上の始点T1から処理対象画像平面R3に向かって延びる場合の図であり、図8(B)は、補助線群ALの全てがZ軸上の始点T2(T2>T1)から処理対象画像平面R3に向かって延びる場合の図である。また、図8(A)及び図8(B)における空間モデルMDの曲面領域R2上の座標La~Ldのそれぞれは、処理対象画像平面R3上の座標Ma~Mdのそれぞれに対応するものとし(図8(A)の例では、座標Mc、Mdは、処理対象画像平面R3の領域外となるため図示されていない。)、図8(A)における座標La~Ldのそれぞれの間隔は、図8(B)における座標La~Ldのそれぞれの間隔と等しいものとする。なお、補助線群ALは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の任意の一点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、図7と同様、この場合のZ軸を「再投影軸」と称することとする。 FIG. 8A is a diagram in which all of the auxiliary lines AL positioned on the XZ plane extend from the starting point T1 on the Z axis toward the processing target image plane R3, and FIG. It is a diagram when all of the line group AL extends from the starting point T2 (T2>T1) on the Z axis toward the processing target image plane R3. Further, each of the coordinates La to Ld on the curved surface region R2 of the space model MD in FIGS. 8A and 8B corresponds to each of the coordinates Ma to Md on the processing target image plane R3 ( In the example of FIG. 8A, the coordinates Mc and Md are not shown because they are outside the area of the processing target image plane R3), and the intervals between the coordinates La to Ld in FIG. 8(B) are equal to the respective intervals of the coordinates La to Ld. Although the auxiliary line group AL is assumed to exist on the XZ plane for the purpose of explanation, in reality, it exists so as to radially extend from an arbitrary point on the Z axis toward the processing target image plane R3. It shall be. As in FIG. 7, the Z-axis in this case will be referred to as the "reprojection axis".

図8(A)及び図8(B)で示されるように、処理対象画像平面R3上の座標Ma~Mdのそれぞれの間隔は、補助線群ALの始点と原点Oとの間の距離(高さ)が増大するにつれて非線形的に減少する(空間モデルMDの曲面領域R2と座標Ma~Mdのそれぞれとの間の距離が大きいほど、それぞれの間隔の減少幅が大きくなる。)。一方で、空間モデルMDの平面領域R1上の座標群は、図8の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。 As shown in FIGS. 8A and 8B, the intervals between the coordinates Ma to Md on the processing target image plane R3 are the distances (high ) increases non-linearly (the greater the distance between the curved surface region R2 of the space model MD and each of the coordinates Ma to Md, the greater the decrease in each interval). On the other hand, in the example of FIG. 8, the coordinate group on the plane region R1 of the space model MD is not transformed into the coordinate group on the processing target image plane R3, so the interval between the coordinate groups does not change. .

これら座標群の間隔の変化は、平行線群PLのときと同様、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが非線形的に拡大或いは縮小されることを意味する。 The change in the interval of these coordinate groups corresponds to the image projected onto the curved surface region R2 of the space model MD among the image portions on the output image plane R5 (see FIG. 6), as in the case of the parallel line group PL. It means that only the image part is non-linearly scaled up or down.

このようにして、画像生成装置100は、空間モデルMDの平面領域R1に投影された画像に対応する出力画像の画像部分(例えば、路面画像である。)に影響を与えることなく、空間モデルMDの曲面領域R2に投影された画像に対応する出力画像の画像部分(例えば、水平画像である。)を線形的に或いは非線形的に拡大或いは縮小させることができるので、ショベル60の近傍の路面画像(ショベル60を真上から見たときの仮想画像)に影響を与えることなく、ショベル60の周囲に位置する地物(ショベル60から水平方向に周囲を見たときの画像における地物)を迅速且つ柔軟に拡大或いは縮小させることができ、ショベル60の死角領域の視認性を向上させることができる。 In this way, the image generation device 100 can reproduce the spatial model MD without affecting the image portion (for example, the road surface image) of the output image corresponding to the image projected onto the planar region R1 of the spatial model MD. Since the image portion of the output image corresponding to the image projected onto the curved surface area R2 (for example, a horizontal image) can be linearly or non-linearly enlarged or reduced, the road surface image near the excavator 60 can be reduced. (virtual image when looking at the excavator 60 from directly above). Moreover, it is possible to flexibly expand or contract, and the visibility of the blind area of the shovel 60 can be improved.

次に、図9を参照しながら、画像生成装置100が処理対象画像を生成する処理(以下、「処理対象画像生成処理」とする。)、及び、生成した処理対象画像を用いて出力画像を生成する処理(以下、「出力画像生成処理」とする。)について説明する。なお、図9は、処理対象画像生成処理(ステップS1~ステップS3)及び出力画像生成処理(ステップS4~ステップS6)の流れを示すフローチャートである。また、カメラ2(入力画像平面R4)、空間モデル(平面領域R1及び曲面領域R2)、並びに、処理対象画像平面R3の配置は予め決定されているものとする。 Next, referring to FIG. 9, a process of generating an image to be processed by the image generating apparatus 100 (hereinafter referred to as "image to be processed generating process"), and an output image is generated using the generated image to be processed. The process of generating (hereinafter referred to as "output image generation process") will be described. FIG. 9 is a flow chart showing the flow of the process target image generation process (steps S1 to S3) and the output image generation process (steps S4 to S6). Also, it is assumed that the arrangement of the camera 2 (input image plane R4), the space model (the plane region R1 and the curved surface region R2), and the processing target image plane R3 is determined in advance.

最初に、制御部1は、座標対応付け手段10により、処理対象画像平面R3上の座標と空間モデルMD上の座標とを対応付ける(ステップS1)。 First, the control unit 1 associates the coordinates on the processing target image plane R3 with the coordinates on the space model MD by means of the coordinate association means 10 (step S1).

具体的には、座標対応付け手段10は、平行線群PLと処理対象画像平面R3との間に形成される角度を取得し、処理対象画像平面R3上の一座標から延びる平行線群PLの一つが空間モデルMDの曲面領域R2と交差する点を算出し、算出した点に対応する曲面領域R2上の座標を、処理対象画像平面R3上のその一座標に対応する曲面領域R2上の一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。なお、平行線群PLと処理対象画像平面R3との間に形成される角度は、記憶部4等に予め記憶された値であってもよく、入力部3を介して操作者が動的に入力する値であってもよい。 Specifically, the coordinate association unit 10 acquires the angle formed between the group of parallel lines PL and the processing target image plane R3, and obtains the angle formed between the group of parallel lines PL extending from one coordinate on the processing target image plane R3. A point where one intersects with the curved surface region R2 of the space model MD is calculated, and the coordinates on the curved surface region R2 corresponding to the calculated point are converted to the coordinates on the curved surface region R2 corresponding to the one coordinate on the processing target image plane R3. The coordinates are derived, and the corresponding relationship is stored in the space model/image to be processed correspondence map 41 . Note that the angle formed between the group of parallel lines PL and the processing target image plane R3 may be a value stored in advance in the storage unit 4 or the like. It can be the value you enter.

また、座標対応付け手段10は、処理対象画像平面R3上の一座標が空間モデルMDの平面領域R1上の一座標と一致する場合には、平面領域R1上のその一座標を、処理対象画像平面R3上のその一座標に対応する一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。 Further, when one coordinate on the processing target image plane R3 matches one coordinate on the plane region R1 of the space model MD, the coordinate association unit 10 converts the one coordinate on the plane region R1 to the processing target image. One coordinate corresponding to that one coordinate on the plane R3 is derived, and the corresponding relationship is stored in the space model/image to be processed correspondence map 41 .

その後、制御部1は、座標対応付け手段10により、上述の処理によって導き出された空間モデルMD上の一座標と入力画像平面R4上の座標とを対応付ける(ステップS2)。 After that, the control unit 1 associates one coordinate on the space model MD derived by the above processing with the coordinate on the input image plane R4 by the coordinate association means 10 (step S2).

具体的には、座標対応付け手段10は、通常射影(h=ftanα)を採用するカメラ2の光学中心Cの座標を取得し、空間モデルMD上の一座標から延びる線分であり、光学中心Cを通過する線分が入力画像平面R4と交差する点を算出し、算出した点に対応する入力画像平面R4上の座標を、空間モデルMD上のその一座標に対応する入力画像平面R4上の一座標として導き出し、その対応関係を入力画像・空間モデル対応マップ40に記憶する。 Specifically, the coordinate association means 10 acquires the coordinates of the optical center C of the camera 2 that employs normal projection (h=ftanα), is a line segment extending from one coordinate on the space model MD, and the optical center The point where the line segment passing through C intersects the input image plane R4 is calculated, and the coordinates on the input image plane R4 corresponding to the calculated point are calculated on the input image plane R4 corresponding to the one coordinate on the space model MD. , and the corresponding relationship is stored in the input image/spatial model correspondence map 40 .

その後、制御部1は、処理対象画像平面R3上の全ての座標を空間モデルMD上の座標及び入力画像平面R4上の座標に対応付けたか否かを判定し(ステップS3)、未だ全ての座標を対応付けていないと判定した場合には(ステップS3のNO)、ステップS1及びステップS2の処理を繰り返すようにする。 After that, the control unit 1 determines whether or not all the coordinates on the processing target image plane R3 have been associated with the coordinates on the space model MD and the coordinates on the input image plane R4 (step S3). are not associated (NO in step S3), the processing in steps S1 and S2 is repeated.

一方、制御部1は、全ての座標を対応付けたと判定した場合には(ステップS3のYES)、処理対象画像生成処理を終了させた上で出力画像生成処理を開始させ、画像生成手段11により、処理対象画像平面R3上の座標と出力画像平面R5上の座標とを対応付ける(ステップS4)。 On the other hand, when it is determined that all the coordinates are associated (YES in step S3), the control unit 1 terminates the processing target image generation processing and starts the output image generation processing. , coordinates on the processing target image plane R3 and coordinates on the output image plane R5 (step S4).

具体的には、画像生成手段11は、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって出力画像を生成し、施したスケール変換、アフィン変換、又は歪曲変換の内容によって定まる、処理対象画像平面R3上の座標と出力画像平面R5上の座標との間の対応関係を処理対象画像・出力画像対応マップ42に記憶する。 Specifically, the image generation means 11 generates an output image by applying scale transformation, affine transformation, or distortion transformation to the image to be processed, and the content of the applied scale transformation, affine transformation, or distortion transformation determines The correspondence between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 is stored in the processing target image/output image correspondence map .

或いは、画像生成手段11は、仮想カメラ2Vを用いて出力画像を生成する場合には、採用した射影方式に応じて処理対象画像平面R3上の座標から出力画像平面R5上の座標を算出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。 Alternatively, when generating the output image using the virtual camera 2V, the image generating means 11 calculates the coordinates on the output image plane R5 from the coordinates on the processing target image plane R3 according to the adopted projection method, The correspondence may be stored in the processing target image/output image correspondence map 42 .

或いは、画像生成手段11は、通常射影(h=ftanα)を採用する仮想カメラ2Vを用いて出力画像を生成する場合には、その仮想カメラ2Vの光学中心CVの座標を取得した上で、出力画像平面R5上の一座標から延びる線分であり、光学中心CVを通過する線分が処理対象画像平面R3と交差する点を算出し、算出した点に対応する処理対象画像平面R3上の座標を、出力画像平面R5上のその一座標に対応する処理対象画像平面R3上の一座標として導き出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。 Alternatively, when the image generating means 11 generates an output image using a virtual camera 2V that employs normal projection (h=ftanα), after acquiring the coordinates of the optical center CV of the virtual camera 2V, the output Calculate the point where a line segment extending from one coordinate on the image plane R5 and passing through the optical center CV intersects the processing target image plane R3, and the coordinates on the processing target image plane R3 corresponding to the calculated point may be derived as one coordinate on the processing target image plane R3 corresponding to the one coordinate on the output image plane R5, and the corresponding relationship may be stored in the processing target image/output image correspondence map .

その後、制御部1は、画像生成手段11により、入力画像・空間モデル対応マップ40、空間モデル・処理対象画像対応マップ41、及び処理対象画像・出力画像対応マップ42を参照しながら入力画像平面R4上の座標と空間モデルMD上の座標との対応関係、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応関係、及び処理対象画像平面R3上の座標と出力画像平面R5上の座標との対応関係を辿り、出力画像平面R5上の各座標に対応する入力画像平面R4上の座標が有する値(例えば、輝度値、色相値、彩度値等である。)を取得し、その取得した値を、対応する出力画像平面R5上の各座標の値として採用する(ステップS5)。なお、出力画像平面R5上の一座標に対して複数の入力画像平面R4上の複数の座標が対応する場合、画像生成手段11は、それら複数の入力画像平面R4上の複数の座標のそれぞれの値に基づく統計値(例えば、平均値、最大値、最小値、中間値等である。)を導き出し、出力画像平面R5上のその一座標の値としてその統計値を採用するようにしてもよい。 After that, the control unit 1 causes the image generating means 11 to refer to the input image/spatial model correspondence map 40, the space model/processing target image correspondence map 41, and the processing target image/output image correspondence map 42, and generate the input image plane R4. Correspondence between the above coordinates and coordinates on the space model MD, correspondence between coordinates on the space model MD and coordinates on the processing target image plane R3, and coordinates on the processing target image plane R3 and on the output image plane R5 , and obtains the values (for example, luminance value, hue value, saturation value, etc.) of the coordinates on the input image plane R4 corresponding to the coordinates on the output image plane R5. , the obtained values are adopted as the values of the corresponding coordinates on the output image plane R5 (step S5). Note that when a plurality of coordinates on a plurality of input image planes R4 correspond to one coordinate on the output image plane R5, the image generating means 11 calculates the coordinates of the plurality of input image planes R4. A statistic based on the values (e.g., mean, maximum, minimum, median, etc.) may be derived and the statistic taken as the value of that one coordinate on the output image plane R5. .

その後、制御部1は、出力画像平面R5上の全ての座標の値を入力画像平面R4上の座標の値に対応付けたか否かを判定し(ステップS6)、未だ全ての座標の値を対応付けていないと判定した場合には(ステップS6のNO)、ステップS4及びステップS5の処理を繰り返すようにする。 After that, the control unit 1 determines whether or not all the coordinate values on the output image plane R5 have been associated with the coordinate values on the input image plane R4 (step S6). If it is determined not to be attached (NO in step S6), the processing of steps S4 and S5 is repeated.

一方、制御部1は、全ての座標の値を対応付けたと判定した場合には(ステップS6のYES)、出力画像を生成して、この一連の処理を終了させる。 On the other hand, when determining that all coordinate values have been associated (YES in step S6), the control unit 1 generates an output image and terminates this series of processing.

なお、画像生成装置100は、処理対象画像を生成しない場合には、処理対象画像生成処理を省略し、出力画像生成処理におけるステップS4の"処理対象画像平面上の座標"を"空間モデル上の座標"で読み替えるものとする。 Note that the image generation apparatus 100 omits the processing target image generation processing when not generating the processing target image, and sets the “coordinates on the processing target image plane” in step S4 in the output image generation processing to “on the space model. shall be read as "coordinates".

以上の構成により、画像生成装置100は、ショベル60の周囲の地物とショベル60との位置関係を操作者に直感的に把握させることが可能な処理対象画像及び出力画像を生成することができる。 With the above configuration, the image generation device 100 can generate a processing target image and an output image that allow the operator to intuitively grasp the positional relationship between the features around the excavator 60 and the excavator 60. .

また、画像生成装置100は、処理対象画像平面R3から空間モデルMDを経て入力画像平面R4に遡るように座標の対応付けを実行することにより、処理対象画像平面R3上の各座標を入力画像平面R4上の一又は複数の座標に確実に対応させることができ、入力画像平面R4から空間モデルMDを経て処理対象画像平面R3に至る順番で座標の対応付けを実行する場合と比べ(この場合には、入力画像平面R4上の各座標を処理対象画像平面R3上の一又は複数の座標に確実に対応させることができるが、処理対象画像平面R3上の座標の一部が、入力画像平面R4上の何れの座標にも対応付けられない場合があり、その場合にはそれら処理対象画像平面R3上の座標の一部に補間処理等を施す必要がある。)、より良質な処理対象画像を迅速に生成することができる。 In addition, the image generating apparatus 100 associates the coordinates from the processing target image plane R3 to the input image plane R4 via the space model MD, so that each coordinate on the processing target image plane R3 is mapped to the input image plane. One or a plurality of coordinates on R4 can be reliably matched, and compared to the case of executing coordinate matching in the order from the input image plane R4 to the processing target image plane R3 via the space model MD (in this case can ensure that each coordinate on the input image plane R4 corresponds to one or more coordinates on the processed image plane R3, but some of the coordinates on the processed image plane R3 correspond to the input image plane R4 In some cases, it may not be possible to correspond to any of the coordinates above, and in that case, it is necessary to perform interpolation processing etc. on some of the coordinates on the processing target image plane R3). Can be generated quickly.

また、画像生成装置100は、空間モデルMDの曲面領域R2に対応する画像のみを拡大或いは縮小する場合には、平行線群PLと処理対象画像平面R3との間に形成される角度を変更して空間モデル・処理対象画像対応マップ41における曲面領域R2に関連する部分のみを書き換えるだけで、入力画像・空間モデル対応マップ40の内容を書き換えることなく、所望の拡大或いは縮小を実現させることができる。 Further, when enlarging or reducing only the image corresponding to the curved surface region R2 of the space model MD, the image generation device 100 changes the angle formed between the group of parallel lines PL and the processing target image plane R3. The desired enlargement or reduction can be realized without rewriting the contents of the input image/spatial model correspondence map 40 by rewriting only the portion related to the curved surface region R2 in the space model/process target image correspondence map 41. .

また、画像生成装置100は、出力画像の見え方を変更する場合には、スケール変換、アフィン変換又は歪曲変換に関する各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の出力画像(スケール変換画像、アフィン変換画像又は歪曲変換画像)を生成することができる。 Further, in order to change the appearance of the output image, the image generating apparatus 100 only needs to change the values of various parameters related to scale transformation, affine transformation, or distortion transformation to rewrite the processing target image/output image correspondence map 42. , a desired output image (scale-transformed image, affine-transformed image, or distortion-transformed image) can be generated without rewriting the contents of the input image/spatial model correspondence map 40 and the spatial model/process target image correspondence map 41 .

同様に、画像生成装置100は、出力画像の視点を変更する場合には、仮想カメラ2Vの各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の視点から見た出力画像(視点変換画像)を生成することができる。 Similarly, when the viewpoint of the output image is to be changed, the image generation apparatus 100 simply changes the values of various parameters of the virtual camera 2V and rewrites the processing target image/output image correspondence map 42 so that the input image/space An output image (viewpoint conversion image) viewed from a desired viewpoint can be generated without rewriting the contents of the model correspondence map 40 and the spatial model/processing target image correspondence map 41 .

図10は、ショベル60に搭載された二台のカメラ2(右側方カメラ2R及び後方カメラ2B)の入力画像を用いて生成される出力画像を表示部5に表示させたときの表示例である。 FIG. 10 is a display example when an output image generated using the input images of the two cameras 2 (the right side camera 2R and the rear camera 2B) mounted on the excavator 60 is displayed on the display unit 5. .

画像生成装置100は、それら二台のカメラ2のそれぞれの入力画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成し、その生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成して、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周囲を見た画像(処理対象画像平面R3における画像)とを同時に表示している。 The image generation device 100 projects the input images of the two cameras 2 onto the plane region R1 and the curved region R2 of the space model MD, and then re-projects them onto the processing target image plane R3 to generate the processing target image. Then, the generated image to be processed is subjected to image transformation processing (for example, scale transformation, affine transformation, distortion transformation, viewpoint transformation processing, etc.) to generate an output image, and the vicinity of the excavator 60 is viewed from above. An image looking down (an image in the plane region R1) and an image looking down on the surroundings in the horizontal direction from the excavator 60 (an image in the processing target image plane R3) are displayed simultaneously.

なお、出力画像は、画像生成装置100が処理対象画像を生成しない場合には、空間モデルMDに投影された画像に画像変換処理(例えば、視点変換処理である。)を施すことによって生成されるものとする。 When the image generation device 100 does not generate the image to be processed, the output image is generated by subjecting the image projected onto the space model MD to image conversion processing (for example, viewpoint conversion processing). shall be

また、出力画像は、ショベル60が旋回動作を行う際の画像を違和感なく表示できるよう、円形にトリミングされ、その円の中心CTRが空間モデルMDの円筒中心軸上で、且つ、ショベル60の旋回軸PV上となるように生成されており、ショベル60の旋回動作に応じてその中心CTRを軸に回転するように表示される。この場合、空間モデルMDの円筒中心軸は、再投影軸と一致するものであってもよく、一致しないものであってもよい。 In addition, the output image is trimmed into a circle so that the image when the excavator 60 performs a turning motion can be displayed without discomfort. It is generated to be on the axis PV, and is displayed so as to rotate about its center CTR as the excavator 60 turns. In this case, the central axis of the cylinder of the space model MD may or may not coincide with the reprojection axis.

なお、空間モデルMDの半径は、例えば、5メートルであり、平行線群PLが処理対象画像平面R3との間で形成する角度、又は、補助線群ALの始点高さは、ショベル60の旋回中心から掘削アタッチメントEの最大到達距離(例えば12メートルである。)だけ離れた位置に地物(例えば、作業員である。)が存在する場合にその地物が表示部5で十分大きく(例えば、7ミリメートル以上である。)表示されるように、設定され得る。 The radius of the space model MD is, for example, 5 meters, and the angle formed by the parallel line group PL with the processing target image plane R3 or the starting point height of the auxiliary line group AL is When there is a feature (for example, a worker) at a position away from the center by the maximum reaching distance (for example, 12 meters) of the excavation attachment E, the feature is sufficiently large on the display unit 5 (for example, , is greater than or equal to 7 millimeters.) can be set to be displayed.

更に、出力画像は、ショベル60のCG画像を、ショベル60の前方が表示部5の画面上方と一致し、且つ、その旋回中心が中心CTRと一致するように配置するようにしてもよい。ショベル60と出力画像に現れる地物との間の位置関係をより分かり易くするためである。なお、出力画像は、方位等の各種情報を含む額縁画像をその周囲に配置するようにしてもよい。 Furthermore, the CG image of the excavator 60 may be arranged so that the front of the excavator 60 coincides with the top of the screen of the display unit 5 and the turning center coincides with the center CTR. This is to make the positional relationship between the shovel 60 and the feature appearing in the output image easier to understand. It should be noted that a frame image including various information such as orientation may be arranged around the output image.

次に、図11~図18を参照しながら、画像生成装置100が生成する出力画像の詳細について説明する。 Next, details of the output image generated by the image generating apparatus 100 will be described with reference to FIGS. 11 to 18. FIG.

図11は、画像生成装置100を搭載するショベル60の上面図である。図11に示す実施例では、ショベル60は、3台のカメラ2(左側方カメラ2L、右側方カメラ2R、及び後方カメラ2B)と3台のステレオカメラ6(左側方ステレオカメラ6L、右側方ステレオカメラ6R、及び後方ステレオカメラ6B)とを備える。なお、図11の一点鎖線で示す領域CL、CR、CBは、それぞれ、左側方カメラ2L、右側方カメラ2R、後方カメラ2Bの撮像範囲を示す。また、図11の点線で示す領域ZL、ZR、ZBは、それぞれ、左側方ステレオカメラ6L、右側方ステレオカメラ6R、後方ステレオカメラ6Bの撮像範囲を示す。 FIG. 11 is a top view of excavator 60 on which image generating device 100 is mounted. In the embodiment shown in FIG. 11, the excavator 60 has three cameras 2 (left side camera 2L, right side camera 2R, and rear camera 2B) and three stereo cameras 6 (left side stereo camera 6L, right side stereo camera 6L). A camera 6R and a rear stereo camera 6B). Areas CL, CR, and CB indicated by dashed-dotted lines in FIG. 11 indicate imaging ranges of the left side camera 2L, the right side camera 2R, and the rear camera 2B, respectively. Areas ZL, ZR, and ZB indicated by dotted lines in FIG. 11 indicate imaging ranges of the left stereo camera 6L, right stereo camera 6R, and rear stereo camera 6B, respectively.

なお、本実施例では、ステレオカメラ6の撮像範囲がカメラ2の撮像範囲よりも狭いが、ステレオカメラ6の撮像範囲は、カメラ2の撮像範囲と同じでもよく、カメラ2の撮像範囲より広くてもよい。また、ステレオカメラ6の撮像範囲は、カメラ2の撮像範囲内において、ショベル60の近傍に位置するが、ショベル60からより遠い領域にあってもよい。 In this embodiment, the imaging range of the stereo camera 6 is narrower than the imaging range of the camera 2, but the imaging range of the stereo camera 6 may be the same as the imaging range of the camera 2, or may be wider than the imaging range of the camera 2. good too. Also, the imaging range of the stereo camera 6 is positioned near the excavator 60 within the imaging range of the camera 2 , but may be located in a region farther from the excavator 60 .

図12は、ショベル60に搭載された3台のカメラ2のそれぞれの入力画像と、それら入力画像を用いて生成される出力画像とを示す図である。 FIG. 12 is a diagram showing input images of each of the three cameras 2 mounted on the excavator 60 and output images generated using these input images.

画像生成装置100は、3台のカメラ2のそれぞれの入力画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成する。また、画像生成装置100は、生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成する。その結果、画像生成装置100は、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周囲を見た画像(処理対象画像平面R3における画像)とを同時に表示する。なお、出力画像の中央に表示される画像は、ショベル60のCG画像60CGである。 The image generation device 100 projects the input images of the three cameras 2 onto the plane region R1 and the curved region R2 of the space model MD, and then re-projects them onto the processing target image plane R3 to generate the processing target image. . Further, the image generation apparatus 100 generates an output image by performing image transformation processing (for example, scale transformation, affine transformation, distortion transformation, viewpoint transformation processing, etc.) on the generated image to be processed. As a result, the image generation device 100 generates an image looking down on the vicinity of the excavator 60 from the sky (image in the plane area R1) and an image looking down on the surroundings in the horizontal direction from the excavator 60 (image in the processing target image plane R3). display at the same time. Note that the image displayed in the center of the output image is the CG image 60CG of the excavator 60 .

図12において、右側方カメラ2Rの入力画像、及び、後方カメラ2Bの入力画像はそれぞれ、右側方カメラ2Rの撮像範囲と後方カメラ2Bの撮像範囲との重複領域内に人物を捉えている(右側方カメラ2Rの入力画像における二点鎖線で囲まれる領域R10、及び、後方カメラ2Bの入力画像における二点鎖線で囲まれる領域R11参照。)。 In FIG. 12, the input image of the right side camera 2R and the input image of the rear camera 2B each capture a person within the overlapping area between the imaging range of the right side camera 2R and the imaging range of the rear camera 2B (right side camera 2R and rear camera 2B). See area R10 surrounded by a two-dot chain line in the input image of the front camera 2R and area R11 surrounded by a two-dot chain line in the input image of the rear camera 2B).

しかしながら、出力画像平面上の座標が入射角の最も小さいカメラに関する入力画像平面上の座標に対応付けられるものとすると、出力画像は、重複領域内の人物を消失させてしまう(出力画像内の一点鎖線で囲まれる領域R12参照。)。 However, if the coordinates on the output image plane were to be mapped to the coordinates on the input image plane for the camera with the smallest angle of incidence, the output image would lose the person in the overlap region (one point in the output image). See region R12 surrounded by dashed lines.).

そこで、画像生成装置100は、重複領域に対応する出力画像部分において、後方カメラ2Bの入力画像平面上の座標が対応付けられる領域と、右側方カメラ2Rの入力画像平面上の座標が対応付けられる領域とを混在させ、重複領域内の物体が消失するのを防止する。 Therefore, in the output image portion corresponding to the overlapping region, the image generation device 100 associates the region to which the coordinates on the input image plane of the rear camera 2B are associated with the coordinates on the input image plane of the right side camera 2R. area and prevent objects in the overlapping area from disappearing.

図13は、2つのカメラのそれぞれの撮像範囲の重複領域における物体の消失を防止する画像消失防止処理を説明するための図である。 FIG. 13 is a diagram for explaining image disappearance prevention processing for preventing the disappearance of an object in the overlapping area of the imaging ranges of the two cameras.

図13(A)は、右側方カメラ2Rの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に対応する出力画像部分を示す図であり、図12の点線で示す矩形領域R13に対応する。 FIG. 13(A) is a diagram showing an output image portion corresponding to the overlapping area between the imaging range of the right side camera 2R and the imaging range of the rear camera 2B, which corresponds to the rectangular area R13 indicated by the dotted line in FIG.

また、図13(A)において、灰色で塗り潰された領域PR1は、後方カメラ2Bの入力画像部分が配置される画像領域であり、領域PR1に対応する出力画像平面上の各座標には後方カメラ2Bの入力画像平面上の座標が対応付けられる。 In FIG. 13A, a region PR1 filled in gray is an image region in which the input image portion of the rear camera 2B is arranged, and each coordinate on the output image plane corresponding to the region PR1 is the rear camera 2B coordinates on the input image plane are associated.

一方、白色で塗り潰された領域PR2は、右側方カメラ2Rの入力画像部分が配置される画像領域であり、領域PR2に対応する出力画像平面上の各座標には右側方カメラ2Rの入力画像平面上の座標が対応付けられる。 On the other hand, the region PR2 filled in white is the image region where the input image portion of the right side camera 2R is arranged, and each coordinate on the output image plane corresponding to the region PR2 is the input image plane of the right side camera 2R. The upper coordinates are associated.

本実施例では、領域PR1と領域PR2とが縞模様を形成するように配置され、領域PR1と領域PR2とが縞状に交互に並ぶ部分の境界線は、ショベル60の旋回中心を中心とする水平面上の同心円によって定められる。 In this embodiment, the regions PR1 and PR2 are arranged to form a striped pattern, and the boundary line between the regions PR1 and PR2 alternately arranged in a striped pattern is centered on the turning center of the shovel 60. Defined by concentric circles on the horizontal plane.

図13(B)は、ショベル60の右斜め後方の空間領域の状況を示す上面図であり、後方カメラ2B及び右側方カメラ2Rの双方によって撮像される空間領域の現在の状況を示す。また、図13(B)は、ショベル60の右斜め後方に棒状の立体物OBが存在することを示す。 FIG. 13B is a top view showing the situation of the space area obliquely to the right rear of the excavator 60, showing the current situation of the space area captured by both the rear camera 2B and the right side camera 2R. Also, FIG. 13B shows that a stick-shaped three-dimensional object OB exists obliquely behind the shovel 60 to the right.

図13(C)は、図13(B)が示す空間領域を後方カメラ2B及び右側方カメラ2Rで実際に撮像して得られた入力画像に基づいて生成される出力画像の一部を示す。 FIG. 13(C) shows part of an output image generated based on an input image obtained by actually capturing the spatial region shown in FIG. 13(B) with the rear camera 2B and the right side camera 2R.

具体的には、画像OB1は、後方カメラ2Bの入力画像における立体物OBの画像が、路面画像を生成するための視点変換によって、後方カメラ2Bと立体物OBとを結ぶ線の延長方向に伸長されたものを表す。すなわち、画像OB1は、後方カメラ2Bの入力画像を用いて出力画像部分における路面画像を生成した場合に表示される立体物OBの画像の一部である。 Specifically, the image OB1 is the image of the three-dimensional object OB in the input image of the rear camera 2B that is extended in the extension direction of the line connecting the rear camera 2B and the three-dimensional object OB by viewpoint conversion for generating the road surface image. represents what was done. That is, the image OB1 is a part of the image of the three-dimensional object OB displayed when the road surface image in the output image portion is generated using the input image of the rear camera 2B.

また、画像OB2は、右側方カメラ2Rの入力画像における立体物OBの画像が、路面画像を生成するための視点変換によって、右側方カメラ2Rと立体物OBとを結ぶ線の延長方向に伸長されたものを表す。すなわち、画像OB2は、右側方カメラ2Rの入力画像を用いて出力画像部分における路面画像を生成した場合に表示される立体物OBの画像の一部である。 The image OB2 is obtained by extending the image of the three-dimensional object OB in the input image of the right camera 2R in the extending direction of the line connecting the right camera 2R and the three-dimensional object OB by viewpoint conversion for generating the road surface image. represents something. That is, the image OB2 is a part of the image of the three-dimensional object OB displayed when the road surface image in the output image portion is generated using the input image of the right side camera 2R.

このように、画像生成装置100は、重複領域において、後方カメラ2Bの入力画像平面上の座標が対応付けられる領域PR1と、右側方カメラ2Rの入力画像平面上の座標が対応付けられる領域PR2とを混在させる。その結果、画像生成装置100は、1つの立体物OBに関する2つの画像OB1及び画像OB2の双方を出力画像上に表示させ、立体物OBが出力画像から消失するのを防止する。 In this way, the image generation device 100 creates a region PR1 in which the coordinates on the input image plane of the rear camera 2B are associated and a region PR2 in which the coordinates on the input image plane of the right camera 2R are associated in the overlap region. mix. As a result, the image generation device 100 displays both the two images OB1 and OB2 related to one three-dimensional object OB on the output image, thereby preventing the three-dimensional object OB from disappearing from the output image.

図14は、図12の出力画像と、図12の出力画像に画像消失防止処理を適用することで得られる出力画像との違いを表す対比図であり、図14(A)が図12の出力画像を示し、図14(B)が画像消失防止処理を適用した後の出力画像を示す。図14(A)における一点鎖線で囲まれる領域R12では人物が消失しているのに対し、図14(B)における一点鎖線で囲まれる領域R14では人物が消失せずに表示されている。 14A and 14B are comparison diagrams showing the difference between the output image in FIG. 12 and the output image obtained by applying the image loss prevention processing to the output image in FIG. 14B shows an output image after applying the image loss prevention process. The person disappears in the region R12 surrounded by the dashed line in FIG. 14A, while the person is displayed without disappearing in the region R14 surrounded by the dashed line in FIG. 14B.

次に、図15を参照しながら、画像生成装置100が生成する出力距離画像について説明する。なお、図15は、ショベル60に搭載された3台のステレオカメラ6のそれぞれの入力距離画像と、それら入力距離画像を用いて生成される出力距離画像とを示す図である。 Next, an output range image generated by the image generation device 100 will be described with reference to FIG. 15 . FIG. 15 is a diagram showing input range images of each of the three stereo cameras 6 mounted on the shovel 60 and output range images generated using these input range images.

画像生成装置100は、それら3台のステレオカメラ6のそれぞれの入力距離画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象距離画像平面R3に再投影して処理対象距離画像を生成する。また、画像生成装置100は、生成した処理対象距離画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力距離画像を生成する。そして、画像生成装置100は、ショベル60の近傍を上空から見下ろした距離画像(平面領域R1における距離画像)と、ショベル60から水平方向に周囲を見た距離画像(処理対象距離画像平面R3における画像)とを同時に表示する。なお、出力距離画像の中央に表示される画像は、ショベル60のCG画像60CGである。 The image generation device 100 projects the input range images of the three stereo cameras 6 onto the plane area R1 and the curved area R2 of the space model MD, and then reprojects them onto the range image plane R3 to be processed. Generate a range image. The image generating apparatus 100 also generates an output range image by performing image transformation processing (for example, scale transformation, affine transformation, distortion transformation, viewpoint transformation processing, etc.) on the generated processing target distance image. Then, the image generation device 100 generates a distance image (distance image in the plane area R1) looking down on the vicinity of the excavator 60 from the sky, and a distance image (image in the processing target distance image plane R3) when looking at the surroundings in the horizontal direction from the excavator 60. ) and are displayed at the same time. Note that the image displayed in the center of the output distance image is the CG image 60CG of the excavator 60 .

なお、図15の入力距離画像及び出力距離画像は、画素値(ステレオカメラ6からの距離)が小さいほど白く(薄く)、画素値が大きいほど黒く(濃く)なるように表示される。なお、路面及び上部旋回体63のそれぞれに相当する部分の画素値(距離)は、ショベル60の周囲に存在する地物の出力距離画像における視認性を高めるため、最大値(無限遠)に設定される。すなわち、路面及び上部旋回体63のそれぞれに相当する部分は黒色で表される。 Note that the input range image and the output range image in FIG. 15 are displayed so that the smaller the pixel value (the distance from the stereo camera 6), the whiter (lighter) the pixel value, and the larger the pixel value, the darker the color (darker). Note that the pixel values (distances) of the portions corresponding to the road surface and the upper revolving body 63 are set to the maximum value (infinite distance) in order to improve the visibility of the output distance image of features existing around the excavator 60. be done. That is, the portions corresponding to the road surface and the upper rotating body 63 are shown in black.

図15において、右側方ステレオカメラ6Rの入力距離画像、及び、後方ステレオカメラ6Bの入力距離画像はそれぞれ、右側方ステレオカメラ6Rの撮像範囲と後方ステレオカメラ6Bの撮像範囲との重複領域内に人物を捉えている(右側方ステレオカメラ6Rの入力距離画像における二点鎖線で囲まれる領域R15、及び、後方ステレオカメラ6Bの入力距離画像における二点鎖線で囲まれる領域R16参照。)。 In FIG. 15, the input distance image of the right stereo camera 6R and the input distance image of the rear stereo camera 6B are each an overlap region between the imaging range of the right stereo camera 6R and the imaging range of the rear stereo camera 6B. (see area R15 surrounded by a two-dot chain line in the input range image of the right stereo camera 6R and area R16 surrounded by a two-dot chain line in the input range image of the rear stereo camera 6B).

しかしながら、出力距離画像平面上の座標が、最も近い位置にあるステレオカメラに関する入力距離画像平面上の座標に対応付けられるものとすると、出力距離画像は、重複領域内の人物を消失させてしまう(出力距離画像内の一点鎖線で囲まれる領域R17参照。)。 However, if the coordinates on the output range image plane are associated with the coordinates on the input range image plane for the closest stereo camera, the output range image will cause the person in the overlap region to disappear ( See region R17 surrounded by a dashed line in the output range image.).

そこで、画像生成装置100は、重複領域に対応する出力距離画像部分では、後方ステレオカメラ6Bの入力距離画像平面上の座標、及び、右側方ステレオカメラ6Rの入力距離画像平面上の座標のうち、画素値(距離)が小さい方の座標を、出力距離画像平面上の座標に対応付けるようにする。その結果、画像生成装置100は、1つの立体物に関する2つの距離画像を出力距離画像上に表示させ、立体物が出力距離画像から消失するのを防止する。なお、以下では、2つのステレオカメラのそれぞれの撮像範囲の重複領域における物体の消失を防止するこの処理を距離画像消失防止処理と称する。 Therefore, in the output range image portion corresponding to the overlap region, the image generation device 100, among the coordinates on the input range image plane of the rear stereo camera 6B and the coordinates on the input range image plane of the right stereo camera 6R, The coordinates with smaller pixel values (distances) are associated with the coordinates on the output range image plane. As a result, the image generation device 100 displays two distance images regarding one three-dimensional object on the output distance image, thereby preventing the three-dimensional object from disappearing from the output distance image. Note that, hereinafter, this process for preventing the disappearance of an object in the overlapping area of the imaging ranges of the two stereo cameras is referred to as distance image disappearance prevention process.

図16は、図15の出力距離画像と、図15の出力距離画像に距離画像消失防止処理を適用することで得られる出力距離画像との違いを表す対比図であり、図16(A)が図15の出力画像を示し、図16(B)が距離画像消失防止処理を適用した後の出力距離画像を示す。図16(A)における一点鎖線で囲まれる領域R17では人物が消失しているのに対し、図16(B)における一点鎖線で囲まれる領域R17では人物が消失せずに表示されている。 16A and 16B are comparison diagrams showing the difference between the output distance image of FIG. 15 and the output distance image obtained by applying the distance image disappearance prevention process to the output distance image of FIG. FIG. 15 shows the output image, and FIG. 16B shows the output distance image after applying the distance image disappearance prevention process. In the area R17 surrounded by the dashed line in FIG. 16A, the person disappears, while in the area R17 surrounded by the dashed line in FIG. 16B, the person is displayed without disappearing.

次に、図17及び図18を参照しながら、画像生成装置100が出力画像に出力距離画像を合成する処理(以下、「距離画像合成処理」とする。)について説明する。 Next, referring to FIGS. 17 and 18, the process of synthesizing the output distance image with the output image by the image generating apparatus 100 (hereinafter referred to as "distance image synthesizing process") will be described.

図17は、出力画像に出力距離画像を合成して得られる合成後出力画像の一例を示す図である。 FIG. 17 is a diagram showing an example of a synthesized output image obtained by synthesizing an output distance image with an output image.

画像生成装置100の距離画像合成手段14は、例えば、図16(B)に示すように、画素抽出手段12が抽出した抽出画素の画素値(距離)を輝度値、色相値、彩度値等に変換した上で、図14(B)に示す出力画像にその抽出画素を重畳表示させる。重畳表示される抽出画素は、例えば、ステレオカメラ6からの距離に応じた色を有し、その距離が大きくなるにつれて、赤色、黄色、緑色、青色というように段階的に或いは無段階にその色を変化させる。なお、重畳表示される抽出画素は、ステレオカメラ6からの距離に応じた輝度を有し、距離が大きくなるにつれて、その輝度を段階的に或いは無段階に減少させるようにしてもよい。図17の領域EX1~EX5は、それら抽出画素によって形成される領域であり、以下では、地物領域と称する。 For example, as shown in FIG. 16B, the distance image synthesizing means 14 of the image generating device 100 converts the pixel values (distance) of the extracted pixels extracted by the pixel extracting means 12 into luminance values, hue values, saturation values, and the like. , the extracted pixels are superimposed on the output image shown in FIG. 14(B). The superimposed and displayed extracted pixels have, for example, colors corresponding to the distance from the stereo camera 6, and as the distance increases, the color changes stepwise or steplessly, such as red, yellow, green, and blue. change. It should be noted that the superimposed and displayed extracted pixels may have brightness corresponding to the distance from the stereo camera 6, and the brightness may be decreased stepwise or steplessly as the distance increases. Areas EX1 to EX5 in FIG. 17 are areas formed by these extracted pixels, and are hereinafter referred to as feature areas.

また、距離画像合成手段14は、所定数以上の隣接する抽出画素によって形成される地物領域EX1~EX5の距離情報を出力画像上に重畳表示させてもよい。具体的には、距離画像合成手段14は、例えば、地物領域EX1を構成する画素の画素値(距離)の最小値、最大値、平均値、中間値等を、地物領域EX1までの距離を表す代表値として出力画像上に重畳表示させる。なお、距離画像合成手段14は、その代表値が所定値未満の場合に限りその代表値を出力画像上に重畳表示するようにしてもよい。ショベル60に比較的近い地物、すなわち接触の可能性が比較的高い地物をより認識し易くするためである。 Further, the distance image synthesizing means 14 may superimpose the distance information of the feature areas EX1 to EX5 formed by a predetermined number or more of adjacent extracted pixels on the output image. Specifically, the distance image synthesizing means 14 calculates, for example, the minimum value, the maximum value, the average value, the median value, etc. of the pixel values (distances) of the pixels forming the feature area EX1 as the distance to the feature area EX1. is superimposed on the output image as a representative value representing . Note that the distance image synthesizing means 14 may superimpose the representative value on the output image only when the representative value is less than a predetermined value. This is to facilitate recognition of features relatively close to the shovel 60, that is, features with a relatively high possibility of contact.

図18は、出力画像に出力距離画像を合成して得られる合成後出力画像の別の一例を示す図である。 FIG. 18 is a diagram showing another example of a synthesized output image obtained by synthesizing an output distance image with an output image.

図18では、距離画像合成手段14は、抽出画素の色や輝度を変更して重畳表示する代わりに、図17の地物領域EX1~EX5のそれぞれに対応する枠RF1~RF5を重畳表示する。なお、枠の線種は、点線、実線、破線、一点鎖線等を含め任意であり、枠の形状も、矩形、円形、楕円形、多角形を含め任意である。 In FIG. 18, the range image synthesizing means 14 superimposes frames RF1 to RF5 corresponding to the feature areas EX1 to EX5 in FIG. 17, instead of changing the color and brightness of the extracted pixels and superimposing them. The line type of the frame is arbitrary including dotted line, solid line, dashed line, dashed line, etc., and the shape of the frame is also arbitrary including rectangle, circle, ellipse and polygon.

また、距離画像合成手段14は、枠RF1~RF5のそれぞれに対応する距離情報を出力画像上に重畳表示させてもよい。具体的には、距離画像合成手段14は、例えば、枠RF1に対応する地物領域EX1を構成する画素の画素値(距離)の最小値、最大値、平均値、中間値等を、枠RF1に対応する距離の代表値として出力画像上に重畳表示させる。なお、距離画像合成手段14は、その代表値が所定値未満の場合に限りその代表値を出力画像上に重畳表示するようにしてもよい。ショベル60に比較的近い地物、すなわち接触の可能性が比較的高い地物をより認識し易くするためである。 Further, the distance image synthesizing means 14 may superimpose and display the distance information corresponding to each of the frames RF1 to RF5 on the output image. Specifically, the distance image synthesizing means 14, for example, calculates the minimum value, maximum value, average value, median value, etc. of the pixel values (distances) of the pixels forming the feature area EX1 corresponding to the frame RF1. is superimposed on the output image as a representative value of the distance corresponding to . Note that the distance image synthesizing means 14 may superimpose the representative value on the output image only when the representative value is less than a predetermined value. This is to facilitate recognition of features relatively close to the shovel 60, that is, features with a relatively high possibility of contact.

また、距離画像合成手段14は、対応する距離情報に応じて枠の色を変化させてもよい。具体的には、距離画像合成手段14は、その距離が大きくなるにつれて、赤色、黄色、緑色、青色というように段階的に或いは無段階に枠の色を変化させる。なお、距離画像合成手段14は、距離が大きくなるにつれて、枠の輝度を段階的に或いは無段階に減少させるようにしてもよい。 Further, the distance image synthesizing means 14 may change the color of the frame according to the corresponding distance information. Specifically, the distance image synthesizing means 14 changes the color of the frame stepwise or steplessly, such as red, yellow, green, and blue, as the distance increases. Note that the distance image synthesizing means 14 may reduce the brightness of the frame stepwise or steplessly as the distance increases.

上述のような合成後出力画像を見ることによって、ショベル60の操作者は、ショベル60の周囲に存在する地物の位置、及びその地物までの距離をより容易に認識することができる。また、ショベル60の操作者は、操作者から見て死角となる領域に存在する地物の位置、及びその地物までの距離をより容易に認識することができる。 The operator of the excavator 60 can more easily recognize the position of the feature existing around the excavator 60 and the distance to the feature by viewing the post-composite output image as described above. In addition, the operator of the shovel 60 can more easily recognize the position of a feature existing in a blind spot for the operator and the distance to the feature.

以上の構成により、画像生成装置100は、ステレオカメラ6が撮像する入力距離画像に基づいて生成される出力距離画像を、カメラ2が撮像する入力画像に基づいて生成される出力画像上に合成する。そのため、画像生成装置100は、ショベル60の周囲の比較的広い範囲に存在する各地物までの距離を比較的高い分解能で測定することができる。その結果、画像生成装置100は、信頼性の高い合成後出力画像を生成することができる。 With the above configuration, the image generation device 100 synthesizes the output distance image generated based on the input distance image captured by the stereo camera 6 on the output image generated based on the input image captured by the camera 2. . Therefore, the image generating device 100 can measure the distance to each feature existing in a relatively wide range around the excavator 60 with relatively high resolution. As a result, the image generating apparatus 100 can generate a post-combination output image with high reliability.

また、カメラ2及びステレオカメラ6は、それぞれの撮像範囲がショベル60の周囲を取り囲むように配置される。そのため、画像生成装置100は、ショベル60の周囲を上空から見たときの様子を表す合成後出力画像を生成することができる。その結果、ショベル60の操作者は、ショベル60の周囲に存在する地物の位置、及びその地物までの距離をより容易に認識することができる。 Also, the camera 2 and the stereo camera 6 are arranged so that their imaging ranges surround the shovel 60 . Therefore, the image generation device 100 can generate a post-combination output image that shows the surroundings of the excavator 60 when viewed from above. As a result, the operator of the excavator 60 can more easily recognize the position of the feature existing around the excavator 60 and the distance to the feature.

また、画像生成装置100は、処理対象画像に対して施される画像変換処理と同じ画像変換処理を処理対象距離画像に対して施すようにする。そのため、画像生成装置100は、出力画像平面における座標と出力距離画像平面における座標を容易に対応付けることができる。 In addition, the image generation device 100 performs the same image conversion processing as the image conversion processing performed on the processing target image on the processing target range image. Therefore, the image generation device 100 can easily associate the coordinates on the output image plane with the coordinates on the output range image plane.

また、画像生成装置100は、ステレオカメラ6からの距離に応じて、すなわち、ショベル60からの距離に応じて、抽出画素又は枠の色を段階的に或いは無段階に変化させる。そのため、ショベル60の操作者は、感覚的に接触の危険の有無を判断することができる。 In addition, the image generation device 100 changes the color of the extracted pixels or the frame stepwise or steplessly according to the distance from the stereo camera 6, that is, according to the distance from the shovel 60. FIG. Therefore, the operator of the excavator 60 can intuitively determine whether or not there is a risk of contact.

また、画像生成装置100は、ステレオカメラ6を用いて二次元配列の距離情報を取得する。そのため、画像生成装置100は、投光用LED及び受光用CCDで構成される距離画像センサを用いて二次元配列の距離情報を取得する場合に比べ、撮像範囲における熱源、光源、光吸収材料等による影響を受けにくい。 The image generation device 100 also acquires distance information in a two-dimensional array using the stereo camera 6 . Therefore, the image generating apparatus 100 uses a heat source, a light source, a light-absorbing material, etc. in the imaging range, compared to the case of acquiring distance information in a two-dimensional array using a distance image sensor configured by a light-projecting LED and a light-receiving CCD. less likely to be affected by

次に、図19~図23を参照しながら、画像生成装置100が入力距離画像から所定の条件を満たす画素を抽出して入力距離画像を補正する処理(以下、「第1画素抽出処理」とする。)について説明する。なお、本実施例では、後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、設置面距離に等しいか、設置面距離より小さいものとする。 Next, referring to FIGS. 19 to 23, the image generating apparatus 100 extracts pixels satisfying a predetermined condition from the input range image and corrects the input range image (hereinafter referred to as “first pixel extraction processing”). ) will be explained. In this embodiment, it is assumed that the pixel value in the input range image captured by the rear stereo camera 6B is equal to or smaller than the installation plane distance.

図19は、画像生成装置100を搭載するショベル60の部分右側面図である。図19に示す実施例では、ショベル60は、1台のカメラ2(後方カメラ2B)と1台のステレオカメラ6(後方ステレオカメラ6B)とを備える。なお、図19の点線で示す領域ZBは、後方ステレオカメラ6Bの撮像範囲を示す。 FIG. 19 is a partial right side view of excavator 60 on which image generating device 100 is mounted. In the embodiment shown in FIG. 19, the excavator 60 includes one camera 2 (rear camera 2B) and one stereo camera 6 (rear stereo camera 6B). A region ZB indicated by a dotted line in FIG. 19 indicates the imaging range of the rear stereo camera 6B.

また、図19は、ショベル60の後方に、地面から鉛直上方に伸びる物体P3と地面の隆起部P4とが存在することを示す。さらに、図19は、後方ステレオカメラ6Bにより、物体P3までの距離E1aが検出され、且つ、隆起部P4までの距離E2aが検出されたことを示す。 FIG. 19 also shows that behind the excavator 60 there is an object P3 extending vertically upward from the ground and a protuberance P4 on the ground. Furthermore, FIG. 19 shows that the rear stereo camera 6B has detected the distance E1a to the object P3 and the distance E2a to the protuberance P4.

また、図19は、仮に物体P3及び隆起部P4が存在しなかった場合には、後方ステレオカメラ6Bが、距離E1a、E2aの代わりに、設置面距離E1、E2を検出していたことを示す。 FIG. 19 also shows that if the object P3 and the raised portion P4 did not exist, the rear stereo camera 6B would have detected the installation surface distances E1 and E2 instead of the distances E1a and E2a. .

また、図19は、設置面距離E1と距離E1aとの差(E1-E1a)が距離(以下、設置面距離E1が距離E1aより大きい場合の差を「第1差分距離」とする。)E1bであり、設置面距離E2と距離E2aとの差(E2-E2a)が第1差分距離E2bであることを示す。 FIG. 19 also shows that the difference (E1-E1a) between the installation surface distance E1 and the distance E1a is the distance (hereinafter, the difference when the installation surface distance E1 is greater than the distance E1a is referred to as the "first differential distance") E1b. , indicating that the difference (E2-E2a) between the installation surface distance E2 and the distance E2a is the first differential distance E2b.

図20は、図19における隆起部P4の拡大図である。図19及び図20に示すように、後方ステレオカメラ6Bから見た隆起部P4上の点と後方ステレオカメラ6Bとを結ぶ線分は、設置面との間に角度(以下、「設置面角度」とする。)γ4を形成する。この場合、隆起部P4の設置面からの高さ(以下、「推定高さ」とする。)H1bは、第1差分距離E2b×sin(γ4)で表される。また、設置面角度は、設置面距離と同様、後方ステレオカメラ6Bの設置位置及び設置角度に基づいて、後方ステレオカメラ6Bの入力距離画像における画素毎に予め設定される。 20 is an enlarged view of the raised portion P4 in FIG. 19. FIG. As shown in FIGS. 19 and 20, a line segment connecting a point on the raised portion P4 viewed from the rear stereo camera 6B and the rear stereo camera 6B forms an angle with the installation surface (hereinafter, "installation surface angle"). ) to form γ4. In this case, the height (hereinafter referred to as "estimated height") H1b of the raised portion P4 from the installation surface is represented by the first differential distance E2b×sin(γ4). The installation plane angle is set in advance for each pixel in the input range image of the rear stereo camera 6B based on the installation position and installation angle of the rear stereo camera 6B, similar to the installation plane distance.

また、後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、地物と後方ステレオカメラ6Bとの間の距離を表す。そのため、入力距離画像における各画素の値と各画素に対応する設置面距離との差である第1差分距離に、各画素に対応する設置面角度の正弦を乗算することによって、その地物の推定高さを求めることができる。本実施例では、第1差分距離E2bにsin(γ4)を乗算することによって隆起部P4の推定高さH1bを求めることができる。 Also, the pixel value in the input distance image captured by the rear stereo camera 6B represents the distance between the feature and the rear stereo camera 6B. Therefore, by multiplying the first differential distance, which is the difference between the value of each pixel in the input range image and the installation surface distance corresponding to each pixel, by the sine of the installation surface angle corresponding to each pixel, the An estimated height can be obtained. In this embodiment, the estimated height H1b of the raised portion P4 can be obtained by multiplying the first differential distance E2b by sin(γ4).

ところで、後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、上述のように、地物と後方ステレオカメラ6Bとの間の距離を表す。そのため、後方ステレオカメラ6Bからの距離に応じて色又は輝度を変化させる処理を入力距離画像に施して出力距離画像を生成する場合、入力距離画像における画素値をそのまま用いると出力距離画像の視認性を損なうおそれがある。具体的には、その出力距離画像は、ショベル60から離れるにつれて段階的に変化する色又は輝度で地面(設置面)を表すこととなり、物体P3及び隆起部P4の存在を分かり難くするおそれがある。 By the way, the pixel value in the input range image captured by the rear stereo camera 6B represents the distance between the feature and the rear stereo camera 6B, as described above. Therefore, when the output range image is generated by applying the process of changing the color or brightness according to the distance from the rear stereo camera 6B to the input range image, the visibility of the output range image can be improved by using the pixel values in the input range image as they are. may be damaged. Specifically, the output distance image represents the ground (installation surface) with a color or brightness that changes stepwise as the distance from the shovel 60 increases, which may make it difficult to recognize the existence of the object P3 and the raised portion P4. .

そこで、画像生成装置100の画素抽出手段12は、例えば、後方ステレオカメラ6Bの入力距離画像から所定の条件を満たす画素を抽出し、その抽出結果に基づいて入力距離画像を補正する。具体的には、画素抽出手段12は、入力距離画像における各画素のうち、各画素に対応する設置面距離より小さい画素値を有する画素を抽出する。そして、画素抽出手段12は、設置面距離に等しい画素値を有する画素のその画素値を所定値(例えば、最小値としてのゼロである。)で置き換える。一方で、画素抽出手段12は、設置面距離より小さい画素値を有する画素の画素値をそのまま維持する。この場合、設置面距離に等しい画素値は、所定の幅を有する値であってもよい。 Therefore, the pixel extracting means 12 of the image generation device 100 extracts, for example, pixels satisfying a predetermined condition from the input range image of the rear stereo camera 6B, and corrects the input range image based on the extraction result. Specifically, the pixel extracting means 12 extracts pixels having a pixel value smaller than the installation surface distance corresponding to each pixel among the pixels in the input distance image. Then, the pixel extracting means 12 replaces the pixel value of the pixel having the pixel value equal to the installation surface distance with a predetermined value (for example, zero as the minimum value). On the other hand, the pixel extraction unit 12 maintains the pixel values of pixels having pixel values smaller than the installation surface distance. In this case, the pixel value equal to the installation surface distance may be a value having a predetermined width.

また、画素抽出手段12は、入力距離画像における各画素のうち、第1差分距離が所定距離以上の画素を抽出してもよい。この場合、画素抽出手段12は、第1差分距離が所定距離未満の画素の画素値を所定値(例えば、最小値としてのゼロである。)で置き換え、第1差分距離が所定距離以上の画素の画素値をそのまま維持する。例えば、図20に示すように、画素抽出手段12は、第1差分距離E2bが所定距離E2b1未満であるため、第1差分距離E2bに対応する画素の画素値をゼロに設定する。なお、所定距離E2b1は、所定高さH1に対応する距離である。或いは、図20に示すように、画素抽出手段12は、設置面高さH1bが所定高さH1未満であると判断し、設置面高さH1bに対応する画素の画素値をゼロに置き換えてもよい。或いは、画素抽出手段12は、設置面距離E2に占める第1差分距離E2bの比率(以下、設置面距離E2が距離E2aより大きい場合の比率を「第1差分比率」とする。)が所定比率未満であると判断し、対応する画素の画素値をゼロに置き換えてもよい。なお、所定距離、所定高さ、所定比率等は、後方ステレオカメラ6Bの設置位置及び設置角度に基づいて、後方ステレオカメラ6Bの入力距離画像における画素毎又は画素行毎若しくは画素列毎に予め設定される。また、所定高さ、所定比率は、入力距離画像における全ての画素に関して共通であってもよい。 Further, the pixel extracting means 12 may extract pixels whose first difference distance is equal to or greater than a predetermined distance among the pixels in the input distance image. In this case, the pixel extraction unit 12 replaces the pixel values of the pixels whose first difference distance is less than the predetermined distance with a predetermined value (for example, zero as the minimum value), and replaces the pixel values of the pixels whose first difference distance is greater than or equal to the predetermined distance pixel values are kept as they are. For example, as shown in FIG. 20, the pixel extraction means 12 sets the pixel value of the pixel corresponding to the first difference distance E2b to zero because the first difference distance E2b is less than the predetermined distance E2b1. Note that the predetermined distance E2b1 is a distance corresponding to the predetermined height H1. Alternatively, as shown in FIG. 20, the pixel extracting means 12 may determine that the installation surface height H1b is less than the predetermined height H1, and replace the pixel value of the pixel corresponding to the installation surface height H1b with zero. good. Alternatively, the pixel extraction unit 12 determines that the ratio of the first difference distance E2b to the installation surface distance E2 (hereinafter, the ratio when the installation surface distance E2 is greater than the distance E2a is referred to as the "first difference ratio") is a predetermined ratio. may be determined to be less than and the pixel value of the corresponding pixel may be replaced with zero. The predetermined distance, predetermined height, predetermined ratio, etc. are set in advance for each pixel, pixel row, or pixel column in the input distance image of the rear stereo camera 6B based on the installation position and installation angle of the rear stereo camera 6B. be done. Also, the predetermined height and the predetermined ratio may be common for all pixels in the input range image.

図21は、後方ステレオカメラ6Bの出力距離画像の例を示す図である。図21(A)は、画素抽出手段12による抽出を行わずに入力距離画像における全ての画素の画素値をそのまま用いた場合の出力距離画像を示す。図21(B)は、画素抽出手段12により、入力距離画像における各画素のうち、各画素に対応する設置面距離より小さい画素値を有する画素が抽出された場合の出力距離画像を示す。また、図21(C)は、画素抽出手段12により、入力距離画像における各画素のうち、第1差分距離が所定距離以上となる画素、又は、推定高さが所定高さ以上となる画素が抽出された場合の出力距離画像を示す。 FIG. 21 is a diagram showing an example of an output range image of the rear stereo camera 6B. FIG. 21(A) shows an output range image when the pixel values of all pixels in the input range image are used as they are without extraction by the pixel extracting means 12 . FIG. 21(B) shows an output range image when pixels having pixel values smaller than the installation surface distance corresponding to each pixel are extracted from the pixels in the input range image by the pixel extracting means 12 . In FIG. 21C, the pixel extracting means 12 detects, among the pixels in the input range image, the pixels whose first difference distance is equal to or greater than a predetermined distance, or the pixels whose estimated height is equal to or greater than a predetermined height. 2 shows the output range image when extracted.

図21(A)に示すように、画素の抽出が行われない場合、出力距離画像は、ショベル60から離れるにつれて段階的に輝度が減少する態様で設置面を表し、物体P3及び隆起部P4の存在を分かり難くする。 As shown in FIG. 21A, when pixel extraction is not performed, the output range image represents the installation surface in a manner in which the luminance decreases stepwise as the distance from the shovel 60 increases, and the object P3 and the protuberance P4 obscure its existence.

一方、図21(B)に示すように、入力距離画像における各画素のうち設置面距離より小さい画素値を有する画素の抽出を行う場合、出力距離画像は、設置面上に存在する地物の視認性を向上させる。具体的には、図21(B)の出力距離画像は、設置面距離に等しい画素値を有する全ての画素の画素値がゼロに置き換えられるため、ショベル60からの距離にかかわらず、設置面の色及び輝度を一様にする。その結果、図21(B)の出力距離画像は、物体P3及び隆起部P4の距離画像を設置面の距離画像から際立たせ、その視認性を向上させることができる。 On the other hand, as shown in FIG. 21B, when extracting pixels having pixel values smaller than the installation plane distance among the pixels in the input range image, the output range image is Improve visibility. Specifically, in the output distance image of FIG. 21B, the pixel values of all pixels having pixel values equal to the installation surface distance are replaced with zero. Uniform color and brightness. As a result, in the output distance image of FIG. 21(B), the distance image of the object P3 and the protuberance P4 can be distinguished from the distance image of the installation surface, and the visibility can be improved.

さらに、図21(C)に示すように、入力距離画像における各画素のうち第1差分距離が所定距離以上となる画素の抽出を行う場合、出力距離画像は、設置面高さが所定高さ以上の地物の視認性を向上させる。具体的には、図21(C)の出力距離画像は、第1差分距離が所定距離未満の全ての画素の画素値がゼロに設定されるため、ショベル60からの距離にかかわらず、設置面高さが所定高さ未満の地物(設置面を含む。)の色及び輝度を一様にする。その結果、図21(C)の出力距離画像は、設置面高さH1bが所定高さH1未満である隆起部P4の距離画像を設置面の距離画像とともに単一の色及び輝度にする。そして、図21(C)の出力距離画像は、設置面高さが所定高さH1以上である物体P3の距離画像のみを他の距離画像から際立たせ、その視認性を向上させることができる。 Furthermore, as shown in FIG. 21(C), when extracting pixels whose first difference distance is equal to or greater than a predetermined distance among the pixels in the input range image, the output range image has a predetermined height of the installation surface. Improve the visibility of the above features. Specifically, in the output distance image of FIG. 21C, the pixel values of all pixels whose first difference distance is less than the predetermined distance are set to zero. To uniform the color and brightness of features (including installation surfaces) whose height is less than a predetermined height. As a result, in the output range image of FIG. 21C, the range image of the ridge P4 whose installation surface height H1b is less than the predetermined height H1 is combined with the range image of the installation surface into a single color and brightness. Then, in the output distance image of FIG. 21C, only the distance image of the object P3 whose installation surface height is equal to or higher than the predetermined height H1 can be distinguished from the other distance images, and the visibility can be improved.

なお、図21(C)の出力距離画像は、物体P3の付け根部分(設置面高さが所定高さH1未満の部分)に対応する画素の画素値をゼロにしてその部分の距離画像を設置面の距離画像とともに単一の色及び輝度にする。しかしながら、物体P3の一部であると判断される部分に対応する画素は、第1差分距離が所定距離未満であっても、或いは、設置面高さが所定高さH1未満であっても、入力距離画像における画素値をそのまま維持してもよい。なお、特定の画素が物体P3の距離画像の一部に属するか否かは、例えば、周囲の画素に関する第1差分距離又は設置面高さとその特定の画素に関する第1差分距離又は設置面高さとに基づいて判断され得る。 Note that the output distance image in FIG. 21C is obtained by setting the pixel value of the pixels corresponding to the root portion of the object P3 (the portion where the height of the installation surface is less than the predetermined height H1) to zero and setting the distance image of that portion. Make it a single color and intensity with the range image of the surface. However, even if the first difference distance is less than the predetermined distance or the installation surface height is less than the predetermined height H1, the pixels corresponding to the portion that is determined to be a part of the object P3 are Pixel values in the input range image may be maintained as they are. Whether or not a particular pixel belongs to a part of the range image of the object P3 is determined, for example, by the first differential distance or the installation surface height of the surrounding pixels and the first differential distance or the installation surface height of the specific pixel. can be determined based on

図22は、後方カメラ2Bの出力画像の例を示す図である。図22(A)は、図21(A)の出力距離画像を重畳させた場合の出力画像を示す。図22(B)は、図21(B)の出力距離画像を重畳させた場合の出力画像を示す。また、図22(C)は、図21(C)の出力距離画像を重畳させた場合の出力画像を示す。 FIG. 22 is a diagram showing an example of an output image of the rear camera 2B. FIG. 22(A) shows an output image when the output range image of FIG. 21(A) is superimposed. FIG. 22(B) shows an output image when the output range image of FIG. 21(B) is superimposed. FIG. 22(C) shows an output image when the output range image of FIG. 21(C) is superimposed.

図22(A)に示すように、図21(A)の出力距離画像を重畳した出力画像は、ショベル60から離れるにつれて段階的に輝度が減少する態様で設置面を表し、物体P3及び隆起部P4の存在を際立たせることができない。 As shown in FIG. 22A, the output image superimposed with the output distance image of FIG. The presence of P4 cannot be emphasized.

一方、図22(B)に示すように、ショベル60からの距離にかかわらず設置面の色及び輝度を一様にした出力距離画像を重畳した出力画像は、物体P3及び隆起部P4の画像を設置面の画像から際立たせ、その視認性を向上させる。また、図22(B)の出力画像は、物体P3及び隆起部P4のそれぞれと後方ステレオカメラ6Bとの間の距離の値を重畳表示する。これにより、物体P3及び隆起部P4の存在をさらに際立たせることができる。なお、物体P3と後方ステレオカメラ6Bとの間の距離の値には、例えば、距離補正手段13によって補正された値が採用される。また、物体P3と後方ステレオカメラ6Bとの間の距離の値は、所定値以下の場合に限り、重畳表示されるようにしてもよい。ショベル60に近いところにある地物の存在をさらに際立たせるためである。また、その距離(画素値)の値の輝度又は色は、その距離(画素値)の大きさに応じて決定される。例えば、その距離(画素値)の値の色は、その距離(画素値)が小さくなるにつれて、紫、青、緑、黄、赤のように変化する。また、その距離の値は、画素抽出手段12が抽出した、入力距離画像における物体P3の距離画像領域に含まれる画素の画素値のうちの最小値であってもよい。隆起部P4と後方ステレオカメラ6Bとの間の距離の値についても同様である。 On the other hand, as shown in FIG. 22B, the output image obtained by superimposing the output distance image in which the color and brightness of the installation surface are uniform regardless of the distance from the shovel 60 is the image of the object P3 and the protuberance P4. To stand out from the image of the installation surface and improve its visibility. Also, the output image of FIG. 22(B) superimposes the value of the distance between each of the object P3 and the raised portion P4 and the rear stereo camera 6B. This makes it possible to further emphasize the presence of the object P3 and the protuberance P4. For the value of the distance between the object P3 and the rear stereo camera 6B, for example, a value corrected by the distance correction means 13 is adopted. Also, the value of the distance between the object P3 and the rear stereo camera 6B may be superimposed and displayed only when it is equal to or less than a predetermined value. This is to make the presence of the feature near the excavator 60 more conspicuous. Also, the brightness or color of the value of the distance (pixel value) is determined according to the magnitude of the distance (pixel value). For example, the color of the distance (pixel value) value changes from purple to blue to green to yellow to red as the distance (pixel value) decreases. Further, the value of the distance may be the minimum value among the pixel values of the pixels included in the distance image area of the object P3 in the input distance image extracted by the pixel extraction means 12 . The same applies to the value of the distance between the raised portion P4 and the rear stereo camera 6B.

さらに、図22(C)に示すように、ショベル60からの距離にかかわらず設置面高さが所定高さ未満の地物(設置面を含む。)の色及び輝度を一様にした出力距離画像を重畳した出力画像は、物体P3の視認性を向上させる。具体的には、その出力画像は、設置面高さが所定高さ以上である物体P3の画像の上部のみを他の画像から際立たせ、その視認性を向上させる。また、図22(C)の出力画像は、設置面高さが所定高さ以上である物体P3と後方ステレオカメラ6Bとの間の距離の値のみを重畳表示する。これにより、設置面高さが所定高さ以上である物体P3の存在のみをさらに際立たせることができる。 Furthermore, as shown in FIG. 22(C), regardless of the distance from the excavator 60, the output distance in which the color and brightness of features (including the installation surface) whose installation surface height is less than a predetermined height are made uniform The output image on which the image is superimposed improves the visibility of the object P3. Specifically, in the output image, only the upper portion of the image of the object P3 whose installation surface height is greater than or equal to a predetermined height is made stand out from the other images, thereby improving its visibility. Also, in the output image of FIG. 22(C), only the value of the distance between the object P3 whose installation surface height is equal to or higher than the predetermined height and the rear stereo camera 6B is superimposed and displayed. This makes it possible to further highlight only the presence of the object P3 whose installation surface height is equal to or higher than the predetermined height.

また、上述において、画像生成装置100は、後方ステレオカメラ6Bの出力距離画像を後方カメラ2Bの出力画像に重畳させて表示部5に表示する。しかしながら、画像生成装置100は、出力距離画像のみを表示部5に表示させてもよく、出力距離画像と出力画像とを並べて表示部5に表示させてもよい。 Further, in the above description, the image generation device 100 superimposes the output distance image of the rear stereo camera 6B on the output image of the rear camera 2B and displays the superimposed image on the display unit 5 . However, the image generation device 100 may cause the display unit 5 to display only the output distance image, or may cause the display unit 5 to display the output distance image and the output image side by side.

また、画像生成装置100は、物体P3及び隆起部P4のそれぞれと後方ステレオカメラ6Bとの間の距離の値を表示する代わりに、或いは、その距離の値の表示に加えて、図18に示すような枠を表示してもよい。 18 instead of or in addition to displaying the distance values between each of the object P3 and the protuberance P4 and the rear stereo camera 6B. A frame like this may be displayed.

また、画像生成装置100は、距離(画素値)と色又は輝度との関係を表す距離目盛り付きの棒状インジケータ等の指標(図示せず。)を出力距離画像又は出力画像の端部に表示してもよい。 In addition, the image generating apparatus 100 displays an index (not shown) such as a bar-shaped indicator with a distance scale representing the relationship between distance (pixel value) and color or brightness at the edge of the output distance image or the output image. may

次に、図23を参照しながら、第1画素抽出処理の流れについて説明する。なお、図23は、第1画素抽出処理の流れを示すフローチャートである。画像生成装置100の画素抽出手段12は、例えば、入力距離画像を取得する度にこの第1画素抽出処理を実行する。 Next, the flow of the first pixel extraction process will be described with reference to FIG. Note that FIG. 23 is a flowchart showing the flow of the first pixel extraction process. The pixel extraction means 12 of the image generation device 100 executes this first pixel extraction process, for example, each time an input range image is acquired.

最初に、画素抽出手段12は、入力距離画像における1つの画素(以下、「対象画素」とする。)に関する設置面距離をROM等から読み出して取得する(ステップS11)。なお、画素抽出手段12は、設置面角度をROM等から読み出して取得してもよい。 First, the pixel extracting means 12 reads and acquires the installation surface distance for one pixel (hereinafter referred to as "target pixel") in the input distance image from the ROM or the like (step S11). Note that the pixel extracting means 12 may read and acquire the installation surface angle from a ROM or the like.

その後、画素抽出手段12は、設置面距離からその対象画素の画素値を減算することによって第1差分距離を算出する(ステップS12)。なお、画素抽出手段12は、算出した第1差分距離と設置面距離とに基づいて第1差分比率を算出してもよく、算出した第1差分距離と設置面角度とに基づいて推定高さを算出してもよい。 After that, the pixel extraction means 12 calculates the first difference distance by subtracting the pixel value of the target pixel from the installation surface distance (step S12). Note that the pixel extraction unit 12 may calculate the first difference ratio based on the calculated first difference distance and the installation surface distance, and the estimated height based on the calculated first difference distance and installation surface angle. may be calculated.

その後、画素抽出手段12は、算出した第1差分距離とROM等に記憶された所定距離とを比較する(ステップS13)。なお、画素抽出手段12は、算出した第1差分比率とROM等に記憶された所定比率とを比較してもよく、算出した推定高さとROM等に記憶された所定高さとを比較してもよい。 After that, the pixel extracting means 12 compares the calculated first difference distance with the predetermined distance stored in the ROM or the like (step S13). The pixel extracting means 12 may compare the calculated first difference ratio with a predetermined ratio stored in the ROM or the like, or may compare the calculated estimated height with the predetermined height stored in the ROM or the like. good.

第1差分距離が所定距離以上の場合(ステップS13のYES)、画素抽出手段12は、現在の画素値をそのまま維持する画素としてその対象画素を抽出する。第1差分比率が所定比率以上の場合、或いは、推定高さが所定高さ以上の場合についても同様である。 If the first difference distance is equal to or greater than the predetermined distance (YES in step S13), the pixel extraction unit 12 extracts the target pixel as a pixel that maintains the current pixel value. The same applies when the first difference ratio is equal to or greater than a predetermined ratio, or when the estimated height is equal to or greater than a predetermined height.

一方、第1差分距離が所定距離未満の場合(ステップS13のNO)、画素抽出手段12は、現在の画素値をそのまま維持する画素としてその対象画素を抽出しない。具体的には、画素抽出手段12は、その対象画素の画素値をROM等に記憶された所定値で置き換える(ステップS14)。第1差分比率が所定比率未満の場合、或いは、推定高さが所定高さ未満の場合についても同様である。 On the other hand, if the first difference distance is less than the predetermined distance (NO in step S13), the pixel extraction unit 12 does not extract the target pixel as a pixel that maintains the current pixel value. Specifically, the pixel extraction unit 12 replaces the pixel value of the target pixel with a predetermined value stored in the ROM or the like (step S14). The same applies when the first difference ratio is less than the predetermined ratio or when the estimated height is less than the predetermined height.

なお、上述の実施例では、抽出しなかった対象画素の画素値を所定値に置き換える処理は、各対象画素について抽出の要否を判断したときに行われるが、複数の或いは全ての対象画素について抽出の要否を判断した後で一括して行われてもよい。 In the above-described embodiment, the process of replacing the pixel values of target pixels that have not been extracted with a predetermined value is performed when it is determined whether extraction is necessary for each target pixel. It may be performed all at once after judging the necessity of extraction.

その後、画素抽出手段12は、取得した入力距離画像における全ての画素について抽出要否の判断を行ったか否かを判定する(ステップS15)。 After that, the pixel extracting means 12 determines whether or not all the pixels in the acquired input distance image have been determined as to whether or not they need to be extracted (step S15).

未だ全ての画素について抽出要否の判断を行っていないと判定した場合(ステップS15のNO)、画素抽出手段12は、別の対象画素に関してステップS11以降の処理を実行する。 If it is determined that all pixels have not yet been determined as to whether or not they need to be extracted (NO in step S15), the pixel extracting means 12 performs the processes from step S11 onward for another target pixel.

全ての画素について抽出要否の判断を行ったと判定した場合(ステップS15のYES)、画素抽出手段12は、今回の第1画素抽出処理を完了する。 If it is determined that all pixels have been determined as to whether or not they need to be extracted (YES in step S15), the pixel extracting means 12 completes the current first pixel extraction process.

以上の構成により、画像生成装置100は、設置面に関する距離画像の詳細表示を省略することで、ショベル60が接触するおそれのある地物に関する距離画像の視認性を向上させることができる。 With the above configuration, the image generation device 100 can improve the visibility of the distance image related to the feature that the shovel 60 may come into contact with by omitting the detailed display of the distance image related to the installation surface.

また、画像生成装置100は、設置面高さが所定高さ未満の地物の詳細表示を省略することで、設置面高さが所定高さ以上の地物(例えば、作業員)の視認性を向上させることができる。 In addition, the image generation apparatus 100 omits the detailed display of features whose installation surface height is less than a predetermined height, thereby increasing the visibility of features (for example, workers) whose installation surface height is greater than or equal to a predetermined height. can be improved.

その結果、画像生成装置100は、ショベル60が地物に衝突するのをより確実に防止することができる。 As a result, the image generating device 100 can more reliably prevent the excavator 60 from colliding with the feature.

次に、図24~図28を参照しながら、画像生成装置100が入力距離画像から所定の条件を満たす画素を抽出して入力距離画像を補正する処理の別の例(以下、「第2画素抽出処理」とする。)について説明する。なお、本実施例では、後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、設置面距離に等しいか、設置面距離より大きいものとする。 Next, with reference to FIGS. 24 to 28, another example of processing in which the image generating apparatus 100 extracts pixels satisfying a predetermined condition from the input range image and corrects the input range image (hereinafter referred to as "second pixels"). “extraction processing”) will be described. In this embodiment, it is assumed that the pixel value in the input distance image captured by the rear stereo camera 6B is equal to or greater than the installation plane distance.

図24は、画像生成装置100を搭載するショベル60の部分右側面図であり、図19に対応する。図24に示す実施例では、ショベル60は、1台のカメラ2(後方カメラ2B)と1台のステレオカメラ6(後方ステレオカメラ6B)とを備える。なお、図24の点線で示す領域ZBは、後方ステレオカメラ6Bの撮像範囲を示す。 FIG. 24 is a partial right side view of excavator 60 on which image generating device 100 is mounted, and corresponds to FIG. In the embodiment shown in FIG. 24, the excavator 60 includes one camera 2 (rear camera 2B) and one stereo camera 6 (rear stereo camera 6B). A region ZB indicated by a dotted line in FIG. 24 indicates the imaging range of the rear stereo camera 6B.

また、図24は、ショベル60の後方に、地面の浅陥没部PK1と深陥没部(崖)PK2とが存在することを示す。さらに、図24は、後方ステレオカメラ6Bにより、浅陥没部PK1の底までの距離E3aが検出され、且つ、深陥没部PK2の底までの距離E4aが検出されたことを示す。 FIG. 24 also shows that behind the excavator 60 there are a shallow depression PK1 and a deep depression (cliff) PK2 in the ground. Further, FIG. 24 shows that the rear stereo camera 6B has detected the distance E3a to the bottom of the shallow depression PK1 and the detection of the distance E4a to the bottom of the deep depression PK2.

また、図24は、仮に浅陥没部PK1及び深陥没部PK2が存在しなかった場合には、後方ステレオカメラ6Bが、距離E3a、E4aの代わりに、設置面距離E3、E4を検出していたことを示す。 Further, in FIG. 24, if the shallow recessed portion PK1 and the deep recessed portion PK2 did not exist, the rear stereo camera 6B would detect the installation surface distances E3 and E4 instead of the distances E3a and E4a. indicates that

また、図24は、距離E3aと設置面距離E3との差(E3a-E3)が距離(以下、設置面距離E3が距離E3aより小さい場合の差を「第2差分距離」とする。)E3bであり、距離E4aと設置面距離E4との差(E4a-E4)が第2差分距離E4bであることを示す。 FIG. 24 also shows that the difference (E3a-E3) between the distance E3a and the installation surface distance E3 is the distance (hereinafter, the difference when the installation surface distance E3 is smaller than the distance E3a is referred to as the "second differential distance") E3b. , indicating that the difference (E4a-E4) between the distance E4a and the installation surface distance E4 is the second difference distance E4b.

図25は、図24における浅陥没部PK1の拡大図である。図24及び図25に示すように、後方ステレオカメラ6Bから見た浅陥没部PK1の底の点と後方ステレオカメラ6Bとを結ぶ線分は、設置面との間に設置面角度γ5を形成する。この場合、浅陥没部PK1の設置面からの深さ(以下、「推定深さ」とする。)DP1bは、第2差分距離E3b×sin(γ5)で表される。 25 is an enlarged view of the shallow depression PK1 in FIG. 24. FIG. As shown in FIGS. 24 and 25, a line segment connecting the bottom point of the shallow depression PK1 viewed from the rear stereo camera 6B and the rear stereo camera 6B forms an installation surface angle γ5 with the installation surface. . In this case, the depth (hereinafter referred to as "estimated depth") DP1b from the installation surface of the shallow depression PK1 is represented by the second differential distance E3b×sin(γ5).

また、後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、地物と後方ステレオカメラ6Bとの間の距離を表す。そのため、入力距離画像における各画素の値と各画素に対応する設置面距離との差である第2差分距離に、各画素に対応する設置面角度の正弦を乗算することによって、その地物の推定深さを求めることができる。本実施例では、第2差分距離E3bにsin(γ5)を乗算することによって浅陥没部PK1の推定深さDP1bを求めることができる。 Also, the pixel value in the input distance image captured by the rear stereo camera 6B represents the distance between the feature and the rear stereo camera 6B. Therefore, by multiplying the second difference distance, which is the difference between the value of each pixel in the input range image and the installation plane distance corresponding to each pixel, by the sine of the installation plane angle corresponding to each pixel, the An estimated depth can be determined. In this embodiment, the estimated depth DP1b of the shallow depression PK1 can be obtained by multiplying the second differential distance E3b by sin(γ5).

ところで、後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、上述のように、地物と後方ステレオカメラ6Bとの間の距離を表す。そのため、後方ステレオカメラ6Bからの距離に応じて色又は輝度を変化させる処理を入力距離画像に施して出力距離画像を生成する場合、入力距離画像における画素値をそのまま用いると出力距離画像の視認性を損なうおそれがある。具体的には、その出力距離画像は、ショベル60から離れるにつれて段階的に変化する色又は輝度で地面(設置面)を表すこととなり、浅陥没部PK1及び深陥没部PK2の存在を分かり難くするおそれがある。 By the way, the pixel value in the input range image captured by the rear stereo camera 6B represents the distance between the feature and the rear stereo camera 6B, as described above. Therefore, when the output range image is generated by applying the process of changing the color or brightness according to the distance from the rear stereo camera 6B to the input range image, the visibility of the output range image can be improved by using the pixel values in the input range image as they are. may be damaged. Specifically, the output distance image represents the ground (installation surface) with a color or brightness that changes stepwise as the distance from the excavator 60 increases, making it difficult to recognize the presence of the shallow depression PK1 and the deep depression PK2. There is a risk.

そこで、画像生成装置100の画素抽出手段12は、例えば、後方ステレオカメラ6Bの入力距離画像から所定の条件を満たす画素を抽出し、その抽出結果に基づいて入力距離画像を補正する。具体的には、画素抽出手段12は、入力距離画像における各画素のうち、各画素に対応する設置面距離より大きい画素値を有する画素を抽出する。そして、画素抽出手段12は、設置面距離に等しい画素値を有する画素のその画素値を所定値(例えば、最小値としてのゼロである。)で置き換える。一方で、画素抽出手段12は、設置面距離より大きい画素値を有する画素の画素値をそのまま維持する。この場合、設置面距離に等しい画素値は、所定の幅を有する値であってもよい。 Therefore, the pixel extracting means 12 of the image generation device 100 extracts, for example, pixels satisfying a predetermined condition from the input range image of the rear stereo camera 6B, and corrects the input range image based on the extraction result. Specifically, the pixel extracting means 12 extracts pixels having a pixel value greater than the installation surface distance corresponding to each pixel among the pixels in the input distance image. Then, the pixel extracting means 12 replaces the pixel value of the pixel having the pixel value equal to the installation surface distance with a predetermined value (for example, zero as the minimum value). On the other hand, the pixel extraction unit 12 maintains the pixel values of pixels having pixel values greater than the installation surface distance. In this case, the pixel value equal to the installation surface distance may be a value having a predetermined width.

また、画素抽出手段12は、入力距離画像における各画素のうち、第2差分距離が所定距離以上の画素を抽出してもよい。この場合、画素抽出手段12は、第2差分距離が所定距離未満の画素の画素値を所定値(例えば、最小値としてのゼロである。)で置き換え、第2差分距離が所定距離以上の画素の画素値をそのまま維持する。例えば、図25に示すように、画素抽出手段12は、第2差分距離E3bが所定距離E3b1未満であるため、第2差分距離E3bに対応する画素の画素値をゼロに設定する。なお、所定距離E3b1は、所定深さDP1に対応する距離である。或いは、図25に示すように、画素抽出手段12は、設置面深さDP1bが所定深さDP1未満であると判断し、設置面深さDP1bに対応する画素の画素値をゼロに置き換えてもよい。或いは、画素抽出手段12は、距離E3aに占める第2差分距離E3bの比率(以下、設置面距離E3が距離E3aより小さい場合の比率を「第2差分比率」とする。)が所定比率未満であると判断し、対応する画素の画素値をゼロに置き換えてもよい。なお、所定距離、所定深さ、所定比率等は、後方ステレオカメラ6Bの設置位置及び設置角度に基づいて、後方ステレオカメラ6Bの入力距離画像における画素毎又は画素行毎若しくは画素列毎に予め設定される。また、所定深さ、所定比率は、入力距離画像における全ての画素に関して共通であってもよい。 Further, the pixel extracting means 12 may extract pixels whose second difference distance is equal to or greater than a predetermined distance among the pixels in the input distance image. In this case, the pixel extraction unit 12 replaces the pixel values of the pixels whose second difference distance is less than the predetermined distance with a predetermined value (for example, zero as the minimum value), and replaces the pixel values of the pixels whose second difference distance is greater than or equal to the predetermined distance pixel values are kept as they are. For example, as shown in FIG. 25, the pixel extraction means 12 sets the pixel value of the pixel corresponding to the second difference distance E3b to zero because the second difference distance E3b is less than the predetermined distance E3b1. Note that the predetermined distance E3b1 is a distance corresponding to the predetermined depth DP1. Alternatively, as shown in FIG. 25, the pixel extraction means 12 may determine that the installation surface depth DP1b is less than the predetermined depth DP1, and replace the pixel value of the pixel corresponding to the installation surface depth DP1b with zero. good. Alternatively, the pixel extracting unit 12 determines that the ratio of the second difference distance E3b to the distance E3a (hereinafter, the ratio when the installation surface distance E3 is smaller than the distance E3a is referred to as the "second difference ratio") is less than a predetermined ratio. It may be determined that there is, and the pixel value of the corresponding pixel may be replaced with zero. The predetermined distance, predetermined depth, predetermined ratio, etc. are set in advance for each pixel, pixel row, or pixel column in the input distance image of the rear stereo camera 6B based on the installation position and installation angle of the rear stereo camera 6B. be done. Also, the predetermined depth and the predetermined ratio may be common to all pixels in the input range image.

図26は、後方ステレオカメラ6Bの出力距離画像の例を示す図である。図26(A)は、画素抽出手段12による抽出を行わずに入力距離画像における全ての画素の画素値をそのまま用いた場合の出力距離画像を示す。図26(B)は、画素抽出手段12により、入力距離画像における各画素のうち、各画素に対応する設置面距離より大きい画素値を有する画素が抽出された場合の出力距離画像を示す。また、図26(C)は、画素抽出手段12により、入力距離画像における各画素のうち、第2差分距離が所定距離以上となる画素、又は、推定深さが所定深さ以上となる画素が抽出された場合の出力距離画像を示す。 FIG. 26 is a diagram showing an example of an output range image of the rear stereo camera 6B. FIG. 26(A) shows an output range image when the pixel values of all pixels in the input range image are used as they are without extraction by the pixel extracting means 12 . FIG. 26(B) shows an output range image when pixels having pixel values larger than the installation surface distance corresponding to each pixel are extracted from the pixels in the input range image by the pixel extracting means 12 . FIG. 26(C) shows that, among the pixels in the input range image, the pixel extracting means 12 detects pixels whose second differential distance is equal to or greater than a predetermined distance, or pixels whose estimated depth is equal to or greater than a predetermined depth. 2 shows the output range image when extracted.

図26(A)に示すように、画素の抽出が行われない場合、出力距離画像は、ショベル60から離れるにつれて段階的に輝度が減少する態様で設置面を表し、浅陥没部PK1及び深陥没部PK2の存在を分かり難くする。 As shown in FIG. 26(A), when pixels are not extracted, the output range image represents the installation surface in such a manner that the luminance decreases stepwise as the distance from the shovel 60 increases, and the shallow depression PK1 and the deep depression PK1 are displayed. It obscures the existence of part PK2.

一方、図26(B)に示すように、入力距離画像における各画素のうち設置面距離より大きい画素値を有する画素の抽出を行う場合、出力距離画像は、設置面下に存在する陥没部の視認性を向上させる。具体的には、図26(B)の出力距離画像は、設置面距離に等しい画素値を有する全ての画素の画素値がゼロに置き換えられるため、ショベル60からの距離にかかわらず、設置面の色及び輝度を一様にする。その結果、図26(B)の出力距離画像は、浅陥没部PK1及び深陥没部PK2の距離画像を設置面の距離画像から際立たせ、その視認性を向上させることができる。 On the other hand, as shown in FIG. 26B, when extracting pixels having a pixel value larger than the installation plane distance from among the pixels in the input range image, the output range image is a recessed portion existing under the installation plane. Improve visibility. Specifically, in the output distance image of FIG. 26B, the pixel values of all pixels having pixel values equal to the installation surface distance are replaced with zero. Uniform color and brightness. As a result, in the output distance image of FIG. 26(B), the distance images of the shallow depression PK1 and the deep depression PK2 can be distinguished from the distance image of the installation surface, and visibility can be improved.

さらに、図26(C)に示すように、入力距離画像における各画素のうち第2差分距離が所定距離以上となる画素の抽出を行う場合、出力距離画像は、設置面深さが所定深さ以上の地物の視認性を向上させる。具体的には、図26(C)の出力距離画像は、第2差分距離が所定距離未満の全ての画素の画素値がゼロに設定されるため、ショベル60からの距離にかかわらず、設置面深さが所定深さ未満の地物(設置面を含む。)の色及び輝度を一様にする。その結果、図26(C)の出力距離画像は、設置面深さDP1bが所定深さDP1未満である浅陥没部PK1の距離画像を設置面の距離画像とともに単一の色及び輝度にする。そして、図26(C)の出力距離画像は、設置面深さが所定深さDP1以上である深陥没部PK2の距離画像のみを他の距離画像から際立たせ、その視認性を向上させることができる。 Furthermore, as shown in FIG. 26(C), when extracting pixels whose second difference distance is equal to or greater than a predetermined distance among the pixels in the input range image, the output range image has an installation surface depth equal to or greater than the predetermined depth. Improve the visibility of the above features. Specifically, in the output distance image of FIG. 26C, the pixel values of all pixels whose second difference distance is less than the predetermined distance are set to zero. To uniform the color and brightness of features (including installation surfaces) whose depth is less than a predetermined depth. As a result, in the output range image of FIG. 26(C), the range image of the shallow depression PK1 whose installation surface depth DP1b is less than the predetermined depth DP1 is combined with the range image of the installation surface into a single color and brightness. In the output range image of FIG. 26(C), only the range image of the deep recessed portion PK2 whose installation surface depth is equal to or greater than the predetermined depth DP1 is distinguished from the other range images, and the visibility can be improved. can.

なお、図26(C)の出力距離画像は、深陥没部PK2の縁部分(設置面深さが所定深さDP1未満の部分)に対応する画素の画素値をゼロにしてその部分の距離画像を設置面の距離画像とともに単一の色及び輝度にする。しかしながら、深陥没部PK2の一部であると判断される部分に対応する画素は、第2差分距離が所定距離未満であっても、或いは、設置面深さが所定深さDP1未満であっても、入力距離画像における画素値をそのまま維持してもよい。なお、特定の画素が深陥没部PK2の距離画像の一部に属するか否かは、例えば、周囲の画素に関する第2差分距離又は設置面深さとその特定の画素に関する第2差分距離又は設置面深さとに基づいて判断され得る。 Note that the output distance image of FIG. 26(C) is obtained by setting the pixel values of the pixels corresponding to the edge portion of the deep recessed portion PK2 (the portion where the installation surface depth is less than the predetermined depth DP1) to zero. to a single color and intensity with the range image of the installation surface. However, a pixel corresponding to a portion determined to be part of the deep recessed portion PK2 will be detected even if the second difference distance is less than the predetermined distance, or even if the installation surface depth is less than the predetermined depth DP1. Alternatively, the pixel values in the input range image may be maintained as they are. Whether or not a particular pixel belongs to a part of the range image of the deep recessed portion PK2 can be determined, for example, by the second differential distance or installation surface depth for the surrounding pixels and the second differential distance or installation surface for the specific pixel. can be determined based on depth.

図27は、後方カメラ2Bの出力画像の例を示す図である。図27(A)は、図26(A)の出力距離画像を重畳させた場合の出力画像を示す。図27(B)は、図26(B)の出力距離画像を重畳させた場合の出力画像を示す。また、図27(C)は、図26(C)の出力距離画像を重畳させた場合の出力画像を示す。 FIG. 27 is a diagram showing an example of an output image of the rear camera 2B. FIG. 27(A) shows an output image when the output range image of FIG. 26(A) is superimposed. FIG. 27(B) shows an output image when the output range image of FIG. 26(B) is superimposed. Also, FIG. 27(C) shows an output image when the output range image of FIG. 26(C) is superimposed.

図27(A)に示すように、図26(A)の出力距離画像を重畳した出力画像は、ショベル60から離れるにつれて段階的に輝度が減少する態様で設置面を表し、浅陥没部PK1及び深陥没部PK2の存在を際立たせることができない。 As shown in FIG. 27A, the output image superimposed with the output distance image of FIG. The presence of the deep depression PK2 cannot be emphasized.

一方、図27(B)に示すように、ショベル60からの距離にかかわらず設置面の色及び輝度を一様にした出力距離画像を重畳した出力画像は、浅陥没部PK1及び深陥没部PK2の画像を設置面の画像から際立たせ、その視認性を向上させる。また、図27(B)の出力画像は、浅陥没部PK1及び深陥没部PK2のそれぞれと後方ステレオカメラ6Bとの間の距離の値を重畳表示する。これにより、浅陥没部PK1及び深陥没部PK2の存在をさらに際立たせることができる。なお、浅陥没部PK1と後方ステレオカメラ6Bとの間の距離の値には、例えば、距離補正手段13によって補正された値が採用される。また、浅陥没部PK1と後方ステレオカメラ6Bとの間の距離の値は、所定値未満の場合に限り、重畳表示されるようにしてもよい。ショベル60に近いところにある陥没部の存在をさらに際立たせるためである。また、その距離(画素値)の値の輝度又は色は、その距離(画素値)の大きさに応じて決定される。例えば、その距離(画素値)の値の色は、その距離(画素値)が小さくなるにつれて、紫、青、緑、黄、赤のように変化する。また、その距離の値は、画素抽出手段12が抽出した、入力距離画像における浅陥没部PK1の距離画像領域に含まれる画素の画素値のうちの最小値であってもよい。深陥没部PK2と後方ステレオカメラ6Bとの間の距離の値についても同様である。 On the other hand, as shown in FIG. 27B, the output image superimposed with the output distance image in which the color and luminance of the installation surface are uniform regardless of the distance from the shovel 60 is a shallow depression portion PK1 and a deep depression portion PK2. To make the image of the image stand out from the image of the installation surface and improve its visibility. In addition, the output image of FIG. 27(B) superimposes the value of the distance between each of the shallow recessed portion PK1 and the deep recessed portion PK2 and the rear stereo camera 6B. This makes it possible to further emphasize the presence of the shallow recessed portion PK1 and the deep recessed portion PK2. For the value of the distance between the shallow depression PK1 and the rear stereo camera 6B, for example, a value corrected by the distance correction means 13 is adopted. Also, the value of the distance between the shallow depression PK1 and the rear stereo camera 6B may be superimposed and displayed only when it is less than a predetermined value. This is to further emphasize the existence of the depressed portion near the shovel 60 . Also, the brightness or color of the value of the distance (pixel value) is determined according to the magnitude of the distance (pixel value). For example, the color of the distance (pixel value) value changes from purple to blue to green to yellow to red as the distance (pixel value) decreases. Moreover, the value of the distance may be the minimum value among the pixel values of the pixels included in the range image region of the shallow depression PK1 in the input range image extracted by the pixel extraction means 12 . The same applies to the value of the distance between the deep depression PK2 and the rear stereo camera 6B.

さらに、図27(C)に示すように、ショベル60からの距離にかかわらず設置面深さが所定深さ未満の地物(設置面を含む。)の色及び輝度を一様にした出力距離画像を重畳した出力画像は、深陥没部PK2の視認性を向上させる。具体的には、その出力画像は、設置面深さが所定深さ以上である深陥没部PK2の画像のみを他の画像から際立たせ、その視認性を向上させる。また、図27(C)の出力画像は、設置面深さが所定深さ以上である深陥没部PK2と後方ステレオカメラ6Bとの間の距離の値のみを重畳表示する。これにより、設置面深さが所定深さ以上である深陥没部PK2の存在のみをさらに際立たせることができる。 Furthermore, as shown in FIG. 27(C), regardless of the distance from the excavator 60, the output distance in which the color and brightness of features (including the installation surface) whose installation surface depth is less than a predetermined depth are made uniform The output image on which the image is superimposed improves the visibility of the deep depression PK2. Specifically, in the output image, only the image of the deep recessed portion PK2 whose installation surface depth is greater than or equal to a predetermined depth is distinguished from the other images, thereby improving the visibility. Also, the output image of FIG. 27(C) superimposes only the value of the distance between the deep recessed portion PK2 whose installation surface depth is equal to or greater than a predetermined depth and the rear stereo camera 6B. As a result, it is possible to further highlight only the existence of the deep recessed portion PK2 whose installation surface depth is equal to or greater than the predetermined depth.

また、上述において、画像生成装置100は、後方ステレオカメラ6Bの出力距離画像を後方カメラ2Bの出力画像に重畳させて表示部5に表示する。しかしながら、画像生成装置100は、出力距離画像のみを表示部5に表示させてもよく、出力距離画像と出力画像とを並べて表示部5に表示させてもよい。 Further, in the above description, the image generation device 100 superimposes the output distance image of the rear stereo camera 6B on the output image of the rear camera 2B and displays the superimposed image on the display unit 5 . However, the image generation device 100 may cause the display unit 5 to display only the output distance image, or may cause the display unit 5 to display the output distance image and the output image side by side.

また、画像生成装置100は、浅陥没部PK1及び深陥没部PK2のそれぞれと後方ステレオカメラ6Bとの間の距離の値を表示する代わりに、或いは、その距離の値の表示に加えて、図18に示すような枠を表示してもよい。 In addition, instead of displaying the distance values between each of the shallow recessed portion PK1 and the deep recessed portion PK2 and the rear stereo camera 6B, or in addition to displaying the distance values, the image generation device 100 may A frame as shown in 18 may be displayed.

次に、図28を参照しながら、第2画素抽出処理の流れについて説明する。なお、図28は、第2画素抽出処理の流れを示すフローチャートである。画像生成装置100の画素抽出手段12は、例えば、入力距離画像を取得する度にこの第2画素抽出処理を実行する。 Next, the flow of the second pixel extraction process will be described with reference to FIG. Note that FIG. 28 is a flowchart showing the flow of the second pixel extraction process. The pixel extracting means 12 of the image generating device 100 executes this second pixel extracting process, for example, each time an input range image is acquired.

最初に、画素抽出手段12は、入力距離画像における1つの画素(以下、「対象画素」とする。)に関する設置面距離をROM等から読み出して取得する(ステップS21)。なお、画素抽出手段12は、設置面角度をROM等から読み出して取得してもよい。 First, the pixel extracting means 12 reads and acquires the installation surface distance for one pixel (hereinafter referred to as "target pixel") in the input distance image from the ROM or the like (step S21). Note that the pixel extracting means 12 may read and acquire the installation surface angle from a ROM or the like.

その後、画素抽出手段12は、その対象画素の画素値から設置面距離を減算することによって第2差分距離を算出する(ステップS22)。なお、画素抽出手段12は、算出した第2差分距離とその対象画素の画素値とに基づいて第2差分比率を算出してもよく、算出した第2差分距離と設置面角度とに基づいて推定深さを算出してもよい。 After that, the pixel extracting means 12 calculates a second differential distance by subtracting the installation surface distance from the pixel value of the target pixel (step S22). Note that the pixel extracting means 12 may calculate the second difference ratio based on the calculated second difference distance and the pixel value of the target pixel. An estimated depth may be calculated.

その後、画素抽出手段12は、算出した第2差分距離とROM等に記憶された所定距離とを比較する(ステップS23)。なお、画素抽出手段12は、算出した第2差分比率とROM等に記憶された所定比率とを比較してもよく、算出した推定深さとROM等に記憶された所定深さとを比較してもよい。 After that, the pixel extracting means 12 compares the calculated second difference distance with the predetermined distance stored in the ROM or the like (step S23). The pixel extracting means 12 may compare the calculated second difference ratio with a predetermined ratio stored in the ROM or the like, or compare the calculated estimated depth with the predetermined depth stored in the ROM or the like. good.

第2差分距離が所定距離以上の場合(ステップS23のYES)、画素抽出手段12は、現在の画素値をそのまま維持する画素としてその対象画素を抽出する。第2差分比率が所定比率以上の場合、或いは、推定深さが所定深さ以上の場合についても同様である。 If the second difference distance is equal to or greater than the predetermined distance (YES in step S23), the pixel extraction unit 12 extracts the target pixel as a pixel that maintains the current pixel value. The same applies when the second difference ratio is equal to or greater than the predetermined ratio, or when the estimated depth is equal to or greater than the predetermined depth.

一方、第2差分距離が所定距離未満の場合(ステップS23のNO)、画素抽出手段12は、現在の画素値をそのまま維持する画素としてその対象画素を抽出しない。具体的には、画素抽出手段12は、その対象画素の画素値をROM等に記憶された所定値で置き換える(ステップS24)。第2差分比率が所定比率未満の場合、或いは、推定深さが所定深さ未満の場合についても同様である。 On the other hand, if the second difference distance is less than the predetermined distance (NO in step S23), the pixel extraction unit 12 does not extract the target pixel as a pixel that maintains the current pixel value. Specifically, the pixel extraction unit 12 replaces the pixel value of the target pixel with a predetermined value stored in the ROM or the like (step S24). The same applies when the second difference ratio is less than the predetermined ratio or when the estimated depth is less than the predetermined depth.

なお、抽出しなかった対象画素の画素値を所定値に置き換える処理は、複数の或いは全ての対象画素について抽出の要否を判断した後で一括して行われてもよい。 Note that the process of replacing the pixel values of target pixels that have not been extracted with a predetermined value may be performed collectively after determining whether extraction is necessary for a plurality of or all target pixels.

その後、画素抽出手段12は、取得した入力距離画像における全ての画素について抽出要否の判断を行ったか否かを判定する(ステップS25)。 After that, the pixel extracting means 12 determines whether or not all the pixels in the acquired input range image have been determined as to whether or not they need to be extracted (step S25).

未だ全ての画素について抽出要否の判断を行っていないと判定した場合(ステップS25のNO)、画素抽出手段12は、別の対象画素に関してステップS21以降の処理を実行する。 If it is determined that all pixels have not yet been determined as to whether or not they need to be extracted (NO in step S25), the pixel extracting means 12 performs the processes from step S21 onward for another target pixel.

全ての画素について抽出要否の判断を行ったと判定した場合(ステップS25のYES)、画素抽出手段12は、今回の第2画素抽出処理を完了する。 If it is determined that the extraction necessity has been determined for all pixels (YES in step S25), the pixel extracting means 12 completes the current second pixel extraction process.

以上の構成により、画像生成装置100は、設置面に関する距離画像の詳細表示を省略することで、ショベル60を滑落させるおそれのある陥没部(例えば、路肩、崖等である。)の距離画像の視認性を向上させることができる。 With the above configuration, the image generating apparatus 100 omits the detailed display of the distance image related to the installation surface, so that the depth image of the recessed portion (for example, the road shoulder, the cliff, etc.) that may cause the excavator 60 to slide down. Visibility can be improved.

また、画像生成装置100は、設置面深さが所定深さ未満の陥没部の詳細表示を省略することで、設置面深さが所定深さ以上の陥没部の視認性を向上させることができる。 In addition, the image generation device 100 can improve visibility of recessed portions whose installation surface depth is greater than or equal to a predetermined depth by omitting detailed display of recessed portions whose installation surface depth is less than a predetermined depth. .

その結果、画像生成装置100は、ショベル60が陥没部へ滑落するのをより確実に防止することができる。 As a result, the image generating device 100 can more reliably prevent the excavator 60 from sliding down into the depression.

また、上述では、第1画素抽出処理と第2画素抽出処理とが別々に説明されたが、2つの画素抽出処理を組み合わせてもよい。 Also, in the above description, the first pixel extraction process and the second pixel extraction process are described separately, but the two pixel extraction processes may be combined.

次に、図29を参照しながら、運転支援手段15が運転支援機能を実行する処理(以下、「運転支援処理」とする。)について説明する。なお、図29は、運転支援処理の流れを示すフローチャートであり、運転支援手段15は、ショベル60の走行中に所定周期で繰り返しこの運転支援処理を実行する。 Next, with reference to FIG. 29, a process for executing the driving support function by the driving support means 15 (hereinafter referred to as "driving support process") will be described. Note that FIG. 29 is a flowchart showing the flow of the driving assistance process, and the driving assistance means 15 repeatedly executes this driving assistance process at predetermined intervals while the excavator 60 is running.

最初に、運転支援手段15は、ショベル60の走行用操作レバー(図示せず。)の操作方向に基づいてショベル60の移動方向を検出する(ステップS31)。 First, the driving support means 15 detects the moving direction of the excavator 60 based on the operating direction of the travel control lever (not shown) of the excavator 60 (step S31).

その後、運転支援手段15は、ショベル60の移動方向に所定の地物が存在するか否かを判定する(ステップS32)。本実施例では、運転支援手段15は、後方ステレオカメラ6Bが取得した入力距離画像に基づいて、後退するショベル60の後方に、ショベル60を滑落させるおそれのある陥没部が存在するか否かを判定する。 After that, the driving support means 15 determines whether or not a predetermined feature exists in the moving direction of the shovel 60 (step S32). In the present embodiment, the driving support means 15 determines whether or not there is a depression behind the retreating excavator 60, which may cause the excavator 60 to slide down, based on the input distance image acquired by the rear stereo camera 6B. judge.

ショベル60を滑落させるおそれのある陥没部が存在すると判定した場合(ステップS32のYES)、運転支援手段15は、運転支援機能を実行する(ステップS33)。本実施例では、運転支援手段15は、警報を吹鳴させるとともに、陥没部が存在する旨を通知する警告メッセージを表示部5に表示する。また、運転支援手段15は、陥没部までの距離が短くなるにつれてショベル60の後退速度を低減させてもよく、陥没部までの距離が所定値を下回った場合にショベル60を停止させてもよい。 When it is determined that there is a depression that may cause the shovel 60 to slide down (YES in step S32), the driving assistance means 15 executes the driving assistance function (step S33). In the present embodiment, the driving support means 15 sounds an alarm and displays a warning message on the display unit 5 to notify that there is a depression. Further, the driving support means 15 may reduce the retreating speed of the excavator 60 as the distance to the depression becomes shorter, and may stop the excavator 60 when the distance to the depression is below a predetermined value. .

一方、ショベル60を滑落させるおそれのある陥没部が存在しないと判定した場合(ステップS32のNO)、運転支援手段15は、運転支援機能を実行することなく、今回の運転支援処理を終了させる。 On the other hand, when it is determined that there is no depression that may cause the excavator 60 to slide down (NO in step S32), the driving assistance means 15 ends the current driving assistance process without executing the driving assistance function.

以上の構成により、画像生成装置100は、ステレオカメラ6の出力に基づいて所定の地物の存否を自動的に判定し、必要に応じて運転支援機能を実行することで、ショベル60の操作の安全性をさらに向上できる。 With the above configuration, the image generation device 100 automatically determines the presence or absence of a predetermined feature based on the output of the stereo camera 6, and executes the driving support function as necessary, thereby improving the operation of the excavator 60. Safety can be further improved.

次に、図30~図33を参照しながら、画像生成装置100が入力距離画像の画素値(距離)を補正する処理(以下、「距離補正処理」とする。)について説明する。 Next, referring to FIGS. 30 to 33, the process of correcting the pixel value (distance) of the input distance image by the image generating apparatus 100 (hereinafter referred to as "distance correction process") will be described.

図30は、画像生成装置100を搭載するショベル60を示す図であり、図30(A)がその上面図であり、図30(B)がその部分右側面図である。図30に示す実施例では、ショベル60は、1台のカメラ2(後方カメラ2B)と1台のステレオカメラ6(後方ステレオカメラ6B)とを備える。なお、図30の一点鎖線で示す領域CBは、後方カメラ2Bの撮像範囲を示す。また、図30の点線で示す領域ZBは、後方ステレオカメラ6Bの撮像範囲を示す。 30A and 30B are diagrams showing a shovel 60 on which the image generation device 100 is mounted, FIG. 30A being a top view thereof, and FIG. 30B being a partial right side view thereof. In the embodiment shown in FIG. 30, the excavator 60 includes one camera 2 (rear camera 2B) and one stereo camera 6 (rear stereo camera 6B). A region CB indicated by a dashed dotted line in FIG. 30 indicates the imaging range of the rear camera 2B. A region ZB indicated by a dotted line in FIG. 30 indicates the imaging range of the rear stereo camera 6B.

図30に示すように、ショベル60の後方には、地面から鉛直上方に伸びる2つの物体P1、P2が存在する。2つの物体P1、P2は、高さの異なる棒状の物体であり、後方ステレオカメラ6Bから見て異なる方向に存在する。具体的には、図30(B)で示すように、物体P1の高さは、物体P2の高さよりも低い。しかしながら、2つの物体P1、P2のそれぞれと後方ステレオカメラ6Bとの間の最短距離は、何れも距離Dで等しいものとなっている。低いほうの物体P1が、高いほうの物体P2よりもショベル60に近いところに存在するためである。 As shown in FIG. 30, behind the shovel 60, there are two objects P1 and P2 extending vertically upward from the ground. The two objects P1 and P2 are rod-shaped objects with different heights and exist in different directions when viewed from the rear stereo camera 6B. Specifically, as shown in FIG. 30B, the height of the object P1 is lower than the height of the object P2. However, the shortest distances between each of the two objects P1 and P2 and the rear stereo camera 6B are equal to the distance D. This is because the lower object P1 exists closer to the excavator 60 than the higher object P2.

また、図30(B)に示すように、後方ステレオカメラ6Bから見た物体P1上の最も近い点と後方ステレオカメラ6Bとを結ぶ線分は、水平面との間に角度γ1を形成する。同様に、後方ステレオカメラ6Bから見た物体P2上の最も近い点と後方ステレオカメラ6Bとを結ぶ線分は、水平面との間に角度γ2を形成する。この場合、物体P1とショベル60の後面を含む平面との間の水平距離D1は、D×cos(γ1)で表され、物体P2とショベル60の後面を含む平面との間の水平距離D2は、D×cos(γ2)で表される。なお、水平距離D2は、水平距離D1より大きい。 Further, as shown in FIG. 30B, a line segment connecting the closest point on the object P1 viewed from the rear stereo camera 6B and the rear stereo camera 6B forms an angle γ1 with the horizontal plane. Similarly, a line segment connecting the closest point on the object P2 viewed from the rear stereo camera 6B and the rear stereo camera 6B forms an angle γ2 with the horizontal plane. In this case, the horizontal distance D1 between the object P1 and the plane containing the rear surface of the excavator 60 is represented by D×cos(γ1), and the horizontal distance D2 between the object P2 and the plane containing the rear surface of the excavator 60 is , D×cos(γ2). Note that the horizontal distance D2 is greater than the horizontal distance D1.

後方ステレオカメラ6Bが撮像する入力距離画像における画素の値は、地物と後方ステレオカメラ6Bとの間の距離を表す。そのため、入力距離画像における画素値をそのまま用いた場合、後方ステレオカメラ6Bからの距離に応じて表示色又は輝度を変化させる処理では、物体P1の頂部と物体P2の頂部が同じ色又は同じ輝度で表示されることとなる。この表示は、上述のように物体P2に比べ物体P1がショベル60により近いところにある場合であっても、物体P1及び物体P2がショベル60の後面から同じ距離に存在するものと操作者に誤認させるおそれがある。 The pixel value in the input range image captured by the rear stereo camera 6B represents the distance between the feature and the rear stereo camera 6B. Therefore, when the pixel values in the input distance image are used as they are, in the process of changing the display color or brightness according to the distance from the rear stereo camera 6B, the top of the object P1 and the top of the object P2 have the same color or the same brightness. will be displayed. This display causes the operator to misunderstand that the objects P1 and P2 are at the same distance from the rear surface of the excavator 60 even when the object P1 is closer to the excavator 60 than the object P2 as described above. There is a risk of

このような状況が生じるのは、後方ステレオカメラ6Bが、上部旋回体63の上部に取り付けられた状態で斜め下方を撮像することに起因する。すなわち、操作者が認識する距離がショベル60からの水平距離であるのに対し、ステレオカメラ6が取得する距離は、ステレオカメラ6からの直線距離であることに起因する。なお、後方ステレオカメラ6Bの取り付け位置は、周囲の地物との接触からセンサを保護できるよう、上部旋回体63の上部とされている。 Such a situation arises because the rear stereo camera 6</b>B is attached to the top of the upper rotating body 63 and captures an obliquely downward image. That is, the distance recognized by the operator is the horizontal distance from the excavator 60 , whereas the distance acquired by the stereo camera 6 is the straight line distance from the stereo camera 6 . The rear stereo camera 6B is attached to the upper part of the upper revolving body 63 so as to protect the sensor from contact with surrounding features.

そこで、画像生成装置100の距離補正手段13は、例えば、物体P1、P2のそれぞれと後方ステレオカメラ6Bとの間の距離を表す画素値を、物体P1、P2のそれぞれとショベル60の後面を含む平面との間の水平距離を表す画素値に補正する。 Therefore, the distance correction means 13 of the image generation device 100, for example, converts the pixel values representing the distances between the objects P1 and P2 and the rear stereo camera 6B to the distances including the respective objects P1 and P2 and the rear surface of the excavator 60. Correct the pixel value to represent the horizontal distance from the plane.

具体的には、距離補正手段13は、後方ステレオカメラ6Bから見た物体P1上の任意の点に対応する入力距離画像における画素の座標から、後方ステレオカメラ6Bと物体P1上の任意の点とを結ぶ線分が水平面との間に形成する角度γを導き出す。後方ステレオカメラ6Bの取り付け位置、取り付け角度が既知であるため、距離補正手段13は、その画素の座標から角度γを導き出すことができる。 Specifically, the distance correction means 13 calculates the distance between the rear stereo camera 6B and an arbitrary point on the object P1 from the coordinates of the pixel in the input distance image corresponding to the arbitrary point on the object P1 viewed from the rear stereo camera 6B. Derive the angle γ that the line segment connecting Since the mounting position and mounting angle of the rear stereo camera 6B are known, the distance correction means 13 can derive the angle γ from the coordinates of the pixel.

その後、距離補正手段13は、その地物上の任意の点に対応する画素の座標から導き出した角度γの余弦cos(γ)に、その画素の画素値、すなわち、後方ステレオカメラ6Bと物体P1上の任意の点との間の距離を乗じる。このようにして、距離補正手段13は、後方ステレオカメラ6Bと物体P1上の任意の点との間の水平距離を算出し、その任意の点に対応する画素の画素値を、算出した水平距離で置き換える。 After that, the distance correction means 13 converts the cosine cos(γ) of the angle γ derived from the coordinates of the pixel corresponding to an arbitrary point on the feature to the pixel value of that pixel, that is, the rear stereo camera 6B and the object P1. Multiply the distance between any point above. In this way, the distance correction means 13 calculates the horizontal distance between the rear stereo camera 6B and an arbitrary point on the object P1, and converts the pixel value of the pixel corresponding to the arbitrary point to the calculated horizontal distance. replace with

同様に、距離補正手段13は、後方ステレオカメラ6Bと物体P2上の任意の点とを結ぶ線分が水平面との間に形成する角度γを導き出す。そして、角度γの余弦cos(γ)に、その画素値、すなわち、後方ステレオカメラ6Bと物体P2上の任意の点との間の距離を乗じる。そして、後方ステレオカメラ6Bと物体P2上の任意の点との間の水平距離を算出し、その任意の点に対応する画素の画素値を、算出した水平距離で置き換える。 Similarly, the distance correction means 13 derives the angle γ formed between the horizontal plane and the line segment connecting the rear stereo camera 6B and any point on the object P2. Then, the cosine cos(γ) of the angle γ is multiplied by its pixel value, ie, the distance between the rear stereo camera 6B and any point on the object P2. Then, the horizontal distance between the rear stereo camera 6B and an arbitrary point on the object P2 is calculated, and the pixel value of the pixel corresponding to the arbitrary point is replaced with the calculated horizontal distance.

ここで、図31及び図32を参照しながら、距離補正手段13による補正の効果について説明する。 Here, the effect of correction by the distance correction means 13 will be described with reference to FIGS. 31 and 32. FIG.

図31は、距離補正処理が施されていない入力距離画像に基づく出力距離画像(以下、「補正前出力距離画像」とする。)と、距離補正処理が施された入力距離画像に基づく出力距離画像(以下、「補正済出力距離画像」とする。)との違いを表す対比図であり、図31(A)が補正前出力距離画像を示し、図31(B)が補正済出力距離画像を示す。なお、本実施例では、入力距離画像に対して画素抽出処理が既に施されている。 FIG. 31 shows an output range image based on an input range image that has not been subjected to range correction processing (hereinafter referred to as an “output range image before correction”) and an output range based on an input range image that has been subjected to range correction processing. 31(A) shows an output range image before correction, and FIG. 31(B) shows a corrected output range image. indicates In this embodiment, pixel extraction processing has already been performed on the input distance image.

また、図32は、後方カメラ2Bの入力画像に基づいて生成される出力画像に補正前出力距離画像を合成した合成後出力画像(以下、「補正前合成後出力画像」とする。)と、その出力画像に補正済出力距離画像を合成した合成後出力画像(以下、「補正済合成後出力画像」とする。)との違いを表す対比図であり、図32(A)が補正前合成後出力画像を示し、図32(B)が補正済合成後出力画像を示す。 Also, FIG. 32 shows an output image after synthesis (hereinafter referred to as "output image after synthesis before correction") obtained by synthesizing the output range image before correction with the output image generated based on the input image of the rear camera 2B; FIG. 32A is a comparison diagram showing the difference between the output image after synthesis and the output image after synthesis by synthesizing the output image with the corrected output distance image (hereinafter referred to as "output image after correction after synthesis"), and FIG. The post-output image is shown, and FIG. 32B shows the output image after correction and synthesis.

図31(A)及び図32(A)に示すように、補正前出力距離画像及び補正前合成後出力画像では、物体P1と物体P2が同じような配色で表される。具体的には、物体P1及び物体P2は何れも、頂部に近いほど白く(薄く)、底部近いほど黒く(濃く)表示される。そのため、操作者は、何れの物体がショベル60により近いのかを判断し難い。 As shown in FIGS. 31A and 32A, in the pre-correction output distance image and the pre-correction post-combination output image, the object P1 and the object P2 are represented in similar color schemes. Specifically, both the object P1 and the object P2 are displayed whiter (lighter) closer to the top and blacker (darker) closer to the bottom. Therefore, it is difficult for the operator to determine which object is closer to the excavator 60 .

これに対し、図31(B)及び図32(B)に示すように、補正済出力距離画像及び補正済合成後出力画像では、物体P1と物体P2が異なる色で表される。具体的には、物体P1が全体的に薄く表示され、物体P2が全体的に濃く表示される。そのため、操作者は、物体P2よりも物体P1のほうがショベル60により近い位置にあることを容易に認識することができる。 On the other hand, as shown in FIGS. 31(B) and 32(B), in the corrected output range image and the corrected combined output image, the object P1 and the object P2 are represented in different colors. Specifically, the object P1 is displayed lightly overall, and the object P2 is displayed dark overall. Therefore, the operator can easily recognize that the object P1 is closer to the excavator 60 than the object P2.

図33は、補正前合成後出力画像と補正済合成後出力画像との違いを表す対比図の別の例であり、枠が重畳表示される場合の例を示す。 FIG. 33 is another example of a comparison diagram showing the difference between the post-combination output image before correction and the post-correction post-combination output image, and shows an example in which frames are superimposed.

図33(A)に示すように、補正前合成後出力画像では、地物領域に含まれる画素の画素値の最小値がその地物領域の代表値として採用された場合、物体P1と物体P2が何れもショベル60から1メートルの距離にあるものとして表示される。 As shown in FIG. 33A, in the pre-correction post-combination output image, when the minimum value of the pixel values of the pixels included in the feature area is adopted as the representative value of the feature area, the object P1 and the object P2 are displayed as being at a distance of 1 meter from the shovel 60 .

これに対し、図33(B)に示すように、補正済合成後出力画像では、物体P1、P2のそれぞれとショベル60の後面を含む平面との間の水平距離D1、D2が表示される。すなわち、物体P1がショベル60の後面から1メートルの距離にあり、物体P2がショベル60の後面から1.5メートルの距離にあることが表示される。そのため、操作者は、物体P2よりも物体P1のほうがショベル60により近い位置にあることを容易に認識することができる。 On the other hand, as shown in FIG. 33B, in the corrected combined output image, horizontal distances D1 and D2 between the objects P1 and P2 and the plane including the rear surface of the excavator 60 are displayed. That is, it is displayed that the object P1 is at a distance of 1 meter from the rear surface of the excavator 60 and the object P2 is at a distance of 1.5 meters from the rear surface of the excavator 60 . Therefore, the operator can easily recognize that the object P1 is closer to the excavator 60 than the object P2.

以上の構成により、画像生成装置100は、ステレオカメラ6が撮像する入力距離画像における画素値がショベル60からの水平距離を表すように画素値を補正する。その結果、画像生成装置100は、周囲の地物の状況をより分かり易く操作者に伝えることができる。 With the above configuration, the image generation device 100 corrects the pixel values in the input distance image captured by the stereo camera 6 so that the pixel values represent the horizontal distance from the excavator 60 . As a result, the image generation device 100 can inform the operator of the surrounding features in a more comprehensible manner.

また、上述の実施例では、距離補正手段13は、画素抽出手段12が抽出した画素の画素値を個別に補正する。しかしながら、本発明はこれに限定されるものではない。例えば、距離補正手段13は、上述のように余弦を用いて水平距離を算出することなく、入力距離画像平面における画素行毎、画素列毎、又は予め区分された領域毎に所定の補正を纏めて行うようにしてもよい。演算負荷を抑制しながら、簡易な補正により、余弦を用いて水平距離を算出する場合と同様の効果を得るためである。具体的には、距離補正手段13は、例えば、入力距離画像平面の上方にある画素行ほど距離の増大補正が大きくなるように、或いは、入力距離画像平面の下方にある画素行ほど距離の減少補正が大きくなるように、所定の補正量による補正を一括して実行するようにしてもよい。 Further, in the above-described embodiment, the distance correction means 13 individually corrects the pixel values of the pixels extracted by the pixel extraction means 12 . However, the invention is not limited to this. For example, the distance correcting means 13 does not calculate the horizontal distance using the cosine as described above, but collects predetermined corrections for each pixel row, each pixel column, or each pre-divided area in the input distance image plane. You can also use This is to obtain the same effect as in the case of calculating the horizontal distance using the cosine by a simple correction while suppressing the calculation load. Specifically, the distance correcting means 13 is configured, for example, so that the pixel rows located above the input range image plane are subject to greater distance increase correction, or the pixel rows located below the input range image plane are subjected to distance decrease correction. A predetermined correction amount may be collectively executed so that the correction becomes large.

また、上述の実施例では、距離補正手段13は、後方ステレオカメラ6Bが上部旋回体63の後面上部に取り付けられて斜め下方を撮像する場合の補正を実行する。しかしながら、本発明はこれに限定されるものではない。例えば、距離補正手段13は、ステレオカメラが水平方向を撮像する場合の補正を実行してもよく、ステレオカメラが斜め上方を撮像する場合の補正を実行してもよい。 Further, in the above-described embodiment, the distance correction means 13 performs correction when the rear stereo camera 6B is attached to the upper rear surface of the upper rotating body 63 and images obliquely downward. However, the invention is not limited to this. For example, the distance correction means 13 may perform correction when the stereo camera captures images in the horizontal direction, or may perform correction when the stereo camera captures obliquely upward images.

また、上述の実施例では、距離補正手段13は、ショベル60の後面を含む平面を基準とし、地物領域に含まれる画素の画素値を、その地物とショベル60の後面を含む平面との間の水平距離を表す画素値に補正する。しかしながら、本発明はこれに限定されることはない。例えば、距離補正手段13は、ショベル60の旋回軸PVを基準とし、地物領域に含まれる画素の画素値を、その地物とショベル60の旋回軸PVとの間の水平距離を表す画素値に補正してもよい。 Further, in the above-described embodiment, the distance correction means 13 uses the plane including the rear surface of the excavator 60 as a reference, and the pixel values of the pixels included in the feature area are the distance between the feature and the plane including the rear surface of the excavator 60 . Correct the pixel value to represent the horizontal distance between However, the invention is not so limited. For example, the distance correction means 13 uses the turning axis PV of the excavator 60 as a reference, and converts the pixel values of the pixels included in the feature area into pixel values representing the horizontal distance between the feature and the turning axis PV of the excavator 60 . can be corrected to

また、距離補正手段13は、地物領域に含まれる画素の画素値を、その地物とショベル60との間の最短水平距離を表す画素値に補正してもよい。この場合、距離補正手段13は、その地物の実在位置に応じて、ショベル60の右側面を含む平面、ショベル60の左側面を含む平面、ショベル60の後面を含む平面等から基準を選択する。 Further, the distance correction means 13 may correct the pixel values of the pixels included in the feature area to pixel values representing the shortest horizontal distance between the feature and the excavator 60 . In this case, the distance correction means 13 selects a reference from a plane including the right side of the excavator 60, a plane including the left side of the excavator 60, a plane including the rear surface of the excavator 60, etc., according to the actual position of the feature. .

なお、最短水平距離は、ショベル60の移動方向、すなわち、下部走行体61の前後方向に平行な方向における最短水平距離であってもよい。この場合、ショベル60の移動方向にない地物に関する画素の値は、その地物がショベル60の近くにあったとしても、最大値(無限遠)に補正される。その結果、操作者は、ショベル60の移動方向にある地物をより容易に認識することができる。 The shortest horizontal distance may be the shortest horizontal distance in the moving direction of the shovel 60 , that is, in the direction parallel to the front-rear direction of the lower traveling body 61 . In this case, the pixel values for features not in the direction of travel of excavator 60 are corrected to the maximum value (infinity) even if the feature is near excavator 60 . As a result, the operator can more easily recognize features in the moving direction of the excavator 60 .

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。 Although preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. can be added.

例えば、上述の実施例において、画像生成装置100は、空間モデルとして円筒状の空間モデルMDを採用するが、多角柱等の他の柱状の形状を有する空間モデルを採用してもよく、底面及び側面の二面から構成される空間モデルを採用してもよく、或いは、側面のみを有する空間モデルを採用してもよい。 For example, in the above-described embodiment, the image generation device 100 employs the cylindrical space model MD as the space model, but may employ a space model having other columnar shapes such as a polygonal column. A space model composed of two side surfaces may be employed, or a space model having only side surfaces may be employed.

また、画像生成装置100は、バケット、アーム、ブーム、旋回機構等の可動部材を備えながら自走するショベルに、カメラ及びステレオカメラと共に搭載され、周囲画像をその操作者に提示しながらそのショベルの移動及びそれら可動部材の操作を支援する操作支援システムを構成する。しかしながら、画像生成装置100は、フォークリフト、アスファルトフィニッシャ等のように旋回機構を有しない作業機械、又は、産業用機械若しくは固定式クレーン等のように可動部材を有するが自走はしない作業機械に、カメラ及びステレオカメラと共に搭載され、それら作業機械の操作を支援する操作支援システムを構成してもよい。 In addition, the image generation device 100 is mounted on an excavator that is self-propelled while having movable members such as a bucket, an arm, a boom, and a turning mechanism, together with a camera and a stereo camera. An operation support system is configured to support movement and operation of those movable members. However, the image generating apparatus 100 is applied to work machines that do not have a turning mechanism, such as forklifts and asphalt finishers, or work machines that have movable members but do not self-propelled, such as industrial machines or fixed cranes. An operation support system may be installed together with the camera and the stereo camera to support the operation of the work machine.

また、上述の実施例において、距離画像合成手段14は、出力距離画像を生成した上で、生成した出力距離画像を出力画像に合成する。しかしながら、本発明はこれに限定されるものではない。距離画像合成手段14は、例えば、入力画像と入力距離画像とを合成して合成後入力画像を生成し、距離画像に関する情報が重畳表示された合成後処理対象画像を生成した上で、合成後出力画像を生成してもよい。また、距離画像合成手段14は、例えば、処理対象画像と処理対象距離画像とを合成して合成後処理対象画像を生成した上で、合成後出力画像を生成してもよい。 Further, in the above-described embodiment, the distance image synthesizing means 14 generates the output distance image and then synthesizes the generated output distance image with the output image. However, the invention is not limited to this. The distance image synthesizing means 14, for example, synthesizes the input image and the input distance image to generate a post-synthesis input image, generates a post-synthesis processing target image in which information about the distance image is superimposed, and then generates a post-synthesis An output image may be generated. Further, the distance image synthesizing means 14 may, for example, synthesize the processing target image and the processing target distance image to generate a post-synthesis processing target image, and then generate the post-synthesis output image.

また、上述の実施例において、画像生成装置100は、カメラ2とステレオカメラ6とを別々に備える。そして、画像生成装置100は、カメラ2からの複数の入力画像に基づいて1つの出力画像(視点変換画像)を生成し、且つ、ステレオカメラ6からの複数の入力距離画像に基づいて1つの出力距離画像(視点変換距離画像)を生成する。その上で、画像生成装置100は、出力距離画像を出力画像に合成する。しかしながら、本発明はこの構成に限定されるものではない。例えば、画像生成装置100は、左側方ステレオカメラ6L、後方ステレオカメラ6B、右側方ステレオカメラ6Rのそれぞれにおける各1つの撮像機構が出力する3つの画像に基づいて出力画像(視点変換画像)を生成し、且つ、それら3つのステレオカメラの3つの入力距離画像に基づいて1つの出力距離画像(視点変換距離画像)を生成してもよい。この場合、カメラ2は省略され得る。また、この場合、撮像範囲が偏らないよう、左側方ステレオカメラ6L、後方ステレオカメラ6B、右側方ステレオカメラ6Rはそれぞれ、上部旋回体63の左側面、後面、右側面のそれぞれのほぼ中央に設置されることが望ましい。そのため、各ステレオカメラにおける複数組の撮像機構は、縦方向に所定の間隔を空けて並置される。その並置間隔の大きさにかかわらず、ステレオカメラを各面のほぼ中央に設置し易いためである。また、複数組の撮像機構を横方向に並置すると、その並置間隔によっては、ステレオカメラを各面のほぼ中央に設置することが困難になるためである。 Also, in the above-described embodiment, the image generation device 100 includes the camera 2 and the stereo camera 6 separately. Then, the image generation device 100 generates one output image (viewpoint-transformed image) based on a plurality of input images from the camera 2, and one output image based on a plurality of input range images from the stereo camera 6. A distance image (viewpoint conversion distance image) is generated. Then, the image generation device 100 synthesizes the output distance image with the output image. However, the invention is not limited to this configuration. For example, the image generation device 100 generates an output image (viewpoint conversion image) based on three images output by one imaging mechanism of each of the left stereo camera 6L, the rear stereo camera 6B, and the right stereo camera 6R. and one output range image (viewpoint conversion range image) may be generated based on the three input range images of the three stereo cameras. In this case, camera 2 can be omitted. In this case, the left side stereo camera 6L, the rear side stereo camera 6B, and the right side stereo camera 6R are installed approximately in the center of each of the left side, the rear side, and the right side of the upper rotating body 63 so that the imaging range is not biased. It is desirable that Therefore, a plurality of sets of imaging mechanisms in each stereo camera are arranged side by side at predetermined intervals in the vertical direction. This is because it is easy to install the stereo cameras almost at the center of each surface regardless of the size of the juxtaposition interval. Also, if a plurality of sets of imaging mechanisms are arranged side by side, depending on the juxtaposition interval, it will be difficult to install the stereo camera substantially at the center of each surface.

また、上述の実施例において、ステレオカメラ6は、2組の撮像機構のそれぞれが出力する画像間の視差に基づいて基本画像の各画素に写る物体とステレオカメラ6との間の距離を導き出す。そして、ステレオカメラ6は、基本画像の各画素の値に、導き出した距離を代入して二次元配列の距離情報としての入力距離画像を生成し、生成した入力距離画像を制御部1に対して出力する。そして、制御部1は、複数のステレオカメラ6からの複数の入力距離画像を用いて1つの出力距離画像を生成する。しかしながら、本発明はこの構成に限定されるものではない。例えば、画像生成装置100は、3つのステレオカメラのそれぞれにおける第1撮像機構が出力する3つの画像に基づいて第1出力画像(第1視点変換画像)を生成し、且つ、それら3つのステレオカメラのそれぞれにおける第2撮像機構が出力する3つの画像に基づいて第2出力画像(第2視点変換画像)を生成する。その上で、画像生成装置100は、第1視点変換画像と第2視点変換画像との間の視差に基づいて第1視点変換画像の各画素に写る物体と所定の基準点との間の距離を導き出すことにより、入力距離画像を用いることなく、出力距離画像を生成してもよい。 Further, in the above-described embodiment, the stereo camera 6 derives the distance between the stereo camera 6 and the object captured in each pixel of the basic image based on the parallax between the images output by the two imaging mechanisms. Then, the stereo camera 6 substitutes the derived distance for the value of each pixel of the basic image to generate an input distance image as distance information in a two-dimensional array, and sends the generated input distance image to the control unit 1. Output. Then, the control unit 1 uses a plurality of input range images from a plurality of stereo cameras 6 to generate one output range image. However, the invention is not limited to this configuration. For example, the image generation device 100 generates a first output image (first viewpoint-transformed image) based on three images output by the first imaging mechanism of each of the three stereo cameras, and A second output image (second viewpoint conversion image) is generated based on the three images output by the second imaging mechanism in each of . Based on the parallax between the first viewpoint-transformed image and the second viewpoint-transformed image, the image generation device 100 calculates the distance between the object appearing in each pixel of the first viewpoint-transformed image and a predetermined reference point. An output range image may be generated without using the input range image by deriving .

なお、特許文献1の周囲監視装置は、ショベル及びその周囲を上空から見たイラスト画像を生成し、障害物の実在位置に対応するイラスト画像上の位置にその障害物を表すイラストを表示する。また、特許文献1の周囲監視装置は、静止障害物と移動障害物とを異なる態様のイラストで表示する。このようにして、特許文献1の周囲監視装置は、ショベルの周囲の障害物の状況を運転者に分かり易く伝えることができるようにしている。しかしながら、特許文献1に記載のレーザレーダは、1本のレーザ光を物体に照射し、その反射光から物体の距離及び方向を検出する。そのため、特許文献1に記載のレーザレーダは、物体表面の極めて限られた部分と自身との間の距離を検出するのみであり、その検出結果は、物体を表すイラストの位置を大まかに決めるために利用されるのみである。したがって、特許文献1に記載の周囲監視装置が提示する出力画像は、ショベルの周囲の障害物の状況を運転者に分かり易く伝えるには未だ不十分である。 The surroundings monitoring device of Patent Document 1 generates an illustration image of the excavator and its surroundings from the sky, and displays an illustration representing the obstacle at a position on the illustration image corresponding to the actual position of the obstacle. Further, the surroundings monitoring device of Patent Literature 1 displays stationary obstacles and moving obstacles in different illustrations. In this manner, the surroundings monitoring device of Patent Document 1 can inform the driver of the situation of obstacles around the excavator in an easy-to-understand manner. However, the laser radar described in Patent Document 1 irradiates an object with one laser beam and detects the distance and direction of the object from the reflected light. Therefore, the laser radar described in Patent Document 1 only detects the distance between itself and an extremely limited portion of the object surface, and the detection result is used to roughly determine the position of the illustration representing the object. is only used for Therefore, the output image presented by the surroundings monitoring device described in Patent Document 1 is still insufficient to convey to the driver the situation of obstacles around the excavator in an easy-to-understand manner.

1・・・制御部 2・・・カメラ 2L・・・左側方カメラ 2R・・右側方カメラ 2B・・後方カメラ 3・・・入力部 4・・・記憶部 5・・・表示部 6・・・ステレオカメラ 6L・・・左側方ステレオカメラ 6R・・・右側方ステレオカメラ 6B・・・後方ステレオカメラ 10・・・座標対応付け手段 11・・・画像生成手段 12・・・画素抽出手段 13・・・距離補正手段 14・・・距離画像合成手段 15・・・運転支援手段 40・・・入力画像・空間モデル対応マップ 41・・・空間モデル・処理対象画像対応マップ 42・・・処理対象画像・出力画像対応マップ 60・・・ショベル 61・・・下部走行体 62・・・旋回機構 63・・・上部旋回体 64・・・キャブ 100・・・画像生成装置 DESCRIPTION OF SYMBOLS 1... Control part 2... Camera 2L... Left side camera 2R... Right side camera 2B... Rear camera 3... Input part 4... Storage part 5... Display part 6... Stereo camera 6L... Left side stereo camera 6R... Right side stereo camera 6B... Rear stereo camera 10... Coordinate correspondence means 11... Image generation means 12... Pixel extraction means 13. Distance correction means 14 Distance image synthesizing means 15 Driving support means 40 Input image/space model correspondence map 41 Space model/processing target image correspondence map 42 Processing target image Output image correspondence map 60 Excavator 61 Lower traveling body 62 Turning mechanism 63 Upper turning body 64 Cab 100 Image generating device

Claims (11)

下部走行体と、
前記下部走行体に旋回自在に搭載された上部旋回体と、
前記上部旋回体に配置された複数のステレオカメラと、を有し、
複数の前記ステレオカメラのそれぞれは、複数の撮像機構を1つの筐体内に備え
前記撮像機構によって取得された画像を表示する表示装置をさらに備え、
前記表示装置に表示される、地面としての崖、陥没部、斜面、又は穴、及び、人物又は障害物に対して枠を表示する、
ショベル。
a lower running body;
an upper rotating body rotatably mounted on the lower traveling body;
a plurality of stereo cameras arranged on the upper revolving body,
Each of the plurality of stereo cameras includes a plurality of imaging mechanisms in one housing ,
Further comprising a display device for displaying the image acquired by the imaging mechanism,
Displaying frames for cliffs, depressions, slopes, or holes as the ground, and people or obstacles displayed on the display device ;
Excavator.
複数の前記ステレオカメラのそれぞれは、第1撮像機構と第2撮像機構とを有し、
複数の前記ステレオカメラのそれぞれにおける前記第1撮像機構が出力する複数の画像に基づいて生成される1つの視点変換画像を表示する、
請求項1に記載のショベル。
each of the plurality of stereo cameras has a first imaging mechanism and a second imaging mechanism,
displaying one viewpoint conversion image generated based on a plurality of images output by the first imaging mechanism in each of the plurality of stereo cameras;
Shovel according to claim 1 .
数の前記ステレオカメラが出力する複数の距離画像に基づいて1つの視点変換距離画像を生成る、
請求項に記載のショベル。
generating one viewpoint-transformed distance image based on a plurality of distance images output by the plurality of stereo cameras;
Shovel according to claim 1 .
第1のステレオカメラは、前記上部旋回体の後方に配置され、
第2のステレオカメラは、前記上部旋回体の側方に配置される、
請求項1乃至3の何れかに記載のショベル。
The first stereo camera is arranged behind the upper rotating body,
The second stereo camera is arranged on the side of the upper rotating body,
A shovel according to any one of claims 1 to 3.
前記ステレオカメラは、前記上部旋回体の上面において、斜め下方を向いて配置されている、
請求項1乃至4の何れかに記載のショベル。
The stereo camera is arranged facing obliquely downward on the upper surface of the upper revolving body,
A shovel according to any one of claims 1 to 4.
前記ステレオカメラは、前記上部旋回体の側面から突出しない、
請求項1乃至5の何れかに記載のショベル。
The stereo camera does not protrude from the side surface of the upper rotating body,
A shovel according to any one of claims 1 to 5.
複数の前記ステレオカメラの撮像範囲は、互いに重複する領域がある、
請求項1乃至6の何れかに記載のショベル。
The imaging ranges of the plurality of stereo cameras have areas that overlap with each other.
A shovel according to any one of claims 1 to 6.
複数の前記ステレオカメラは、複数の前記ステレオカメラのそれぞれと地面との間の距離を検出する、
請求項1に記載のショベル。
the plurality of stereo cameras detect the distance between each of the plurality of stereo cameras and the ground;
Shovel according to claim 1 .
複数の前記ステレオカメラは、複数の前記ステレオカメラのそれぞれと地面との間の距離、及び、複数の前記ステレオカメラのそれぞれと人物又は障害物との距離を検出する、
請求項8に記載のショベル。
The plurality of stereo cameras detect the distance between each of the plurality of stereo cameras and the ground, and the distance between each of the plurality of stereo cameras and a person or an obstacle,
Shovel according to claim 8.
前記枠の線種は、点線、実線、破線、又は一点鎖線の何れかであり、
前記枠の形状は、矩形、円形、楕円形、又は多角形の何れかである、
請求項に記載のショベル。
The line type of the frame is either a dotted line, a solid line, a broken line, or a one-dot chain line,
The shape of the frame is either rectangular, circular, elliptical, or polygonal,
Shovel according to claim 1 .
前記検出した地面との間の距離に基づいて、ショベルが位置する平面である設置面からの隆起部の高さ又は陥没部の深さを算出する、
請求項8に記載のショベル。
calculating the height of the raised portion or the depth of the depressed portion from the installation surface, which is the plane on which the shovel is located, based on the detected distance from the ground;
Shovel according to claim 8.
JP2020069401A 2018-08-07 2020-04-07 Excavator Active JP7296340B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020069401A JP7296340B2 (en) 2018-08-07 2020-04-07 Excavator
JP2023043083A JP2023078305A (en) 2018-08-07 2023-03-17 Shovel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018148598A JP2018186574A (en) 2018-08-07 2018-08-07 Shovel
JP2020069401A JP7296340B2 (en) 2018-08-07 2020-04-07 Excavator

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018148598A Division JP2018186574A (en) 2018-08-07 2018-08-07 Shovel

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023043083A Division JP2023078305A (en) 2018-08-07 2023-03-17 Shovel

Publications (2)

Publication Number Publication Date
JP2020127217A JP2020127217A (en) 2020-08-20
JP7296340B2 true JP7296340B2 (en) 2023-06-22

Family

ID=86938322

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020069401A Active JP7296340B2 (en) 2018-08-07 2020-04-07 Excavator
JP2023043083A Pending JP2023078305A (en) 2018-08-07 2023-03-17 Shovel

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023043083A Pending JP2023078305A (en) 2018-08-07 2023-03-17 Shovel

Country Status (1)

Country Link
JP (2) JP7296340B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6940907B1 (en) * 2021-03-29 2021-09-29 株式会社レグラス Peripheral monitoring device for work machines

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233899A (en) 2002-02-08 2003-08-22 Toshiba Corp Device and method for detecting road shoulder
JP2009146217A (en) 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2010198519A (en) 2009-02-27 2010-09-09 Hitachi Constr Mach Co Ltd Periphery monitoring device
JP2011221865A (en) 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd Image generation device and operation support system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60259543A (en) * 1984-06-05 1985-12-21 Matsushita Electric Ind Co Ltd Video-camera for vehicle
JP3516856B2 (en) * 1998-01-30 2004-04-05 富士重工業株式会社 Outside monitoring device
JP5390813B2 (en) * 2008-09-02 2014-01-15 東急建設株式会社 Spatial information display device and support device
JP2011024079A (en) * 2009-07-17 2011-02-03 Konica Minolta Opto Inc Peripheral display device
JP5588812B2 (en) * 2010-09-30 2014-09-10 日立オートモティブシステムズ株式会社 Image processing apparatus and imaging apparatus using the same
KR101751405B1 (en) * 2010-10-22 2017-06-27 히다치 겡키 가부시키 가이샤 Work machine peripheral monitoring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233899A (en) 2002-02-08 2003-08-22 Toshiba Corp Device and method for detecting road shoulder
JP2009146217A (en) 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2010198519A (en) 2009-02-27 2010-09-09 Hitachi Constr Mach Co Ltd Periphery monitoring device
JP2011221865A (en) 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd Image generation device and operation support system

Also Published As

Publication number Publication date
JP2023078305A (en) 2023-06-06
JP2020127217A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP6386213B2 (en) Excavator
JP6029306B2 (en) Perimeter monitoring equipment for work machines
JP6541734B2 (en) Shovel
CN102792334B (en) Video generation device and operations support systems
JP6045865B2 (en) Excavator
JP6324665B2 (en) Perimeter monitoring equipment for work machines
WO2014148203A1 (en) Periphery monitoring device for work machine
JP6740259B2 (en) Work machine
JP6378801B2 (en) Excavator
JP5960007B2 (en) Perimeter monitoring equipment for work machines
JP5805574B2 (en) Perimeter monitoring equipment for work machines
JP2023078305A (en) Shovel
JP6091821B2 (en) Excavator
JP5752631B2 (en) Image generation method, image generation apparatus, and operation support system
JP6257919B2 (en) Excavator
JP6257918B2 (en) Excavator
JP2019004484A (en) Shovel
JP2018186575A (en) Shovel
JP7237882B2 (en) Excavator
JP7130547B2 (en) Excavator and perimeter monitoring device for excavator
JP6302622B2 (en) Perimeter monitoring equipment for work machines
JP2018186574A (en) Shovel
JP7454461B2 (en) excavator
JP6295026B2 (en) Excavator
JP2019071677A (en) Shovel

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220404

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220802

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R150 Certificate of patent or registration of utility model

Ref document number: 7296340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150