JP2014236232A - Image generation device and operation supporting system - Google Patents

Image generation device and operation supporting system Download PDF

Info

Publication number
JP2014236232A
JP2014236232A JP2013114439A JP2013114439A JP2014236232A JP 2014236232 A JP2014236232 A JP 2014236232A JP 2013114439 A JP2013114439 A JP 2013114439A JP 2013114439 A JP2013114439 A JP 2013114439A JP 2014236232 A JP2014236232 A JP 2014236232A
Authority
JP
Japan
Prior art keywords
image
plane
coordinates
camera
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013114439A
Other languages
Japanese (ja)
Other versions
JP6355298B2 (en
Inventor
晋 相澤
Susumu Aizawa
晋 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2013114439A priority Critical patent/JP6355298B2/en
Publication of JP2014236232A publication Critical patent/JP2014236232A/en
Application granted granted Critical
Publication of JP6355298B2 publication Critical patent/JP6355298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image generation device in which a range subjected to loss prevention processing can be adjusted appropriately.SOLUTION: An image generation device 100 includes means 10 for making the coordinate in a spatial model MD correspond to the coordinate in an input image plane, and output image generation means 11 for generating an output image by making the value of a coordinate in an input image plane correspond to the value of a coordinate in an output image plane via a coordinate in the spatial model MD. The spatial model MD has a plane region R1 including a duplicate region capable of making the coordinates in the input image planes of two cameras out of a plurality of cameras correspond. The image generation device 100 sets a plane region R1a of height HT different from the plane region R1, and determines whether or not the coordinate Pa1 is subjected to loss prevention processing, on the basis of the positions of two coordinates Pa1v, Pa2v of the plane region R1a corresponding to the coordinate Pa1 of the plane region R1.

Description

本発明は、被操作体に取り付けられた複数のカメラが撮像した複数の入力画像に基づいて出力画像を生成する画像生成装置及びその装置を用いた操作支援システムに関する。   The present invention relates to an image generation apparatus that generates an output image based on a plurality of input images captured by a plurality of cameras attached to an object to be operated, and an operation support system using the apparatus.

従来、車両周辺を撮像する複数の車載カメラによって撮像された画像のそれぞれを鳥瞰図画像に変換し、それら鳥瞰図画像を繋ぎ合わせた出力画像を運転者に提示する運転支援システムが知られている(例えば、特許文献1参照。)。   Conventionally, there is known a driving support system that converts each of images captured by a plurality of in-vehicle cameras that capture the periphery of a vehicle into a bird's-eye view image and presents an output image obtained by connecting the bird's-eye view images to the driver (for example, , See Patent Document 1).

この運転支援システムは、二つのカメラの撮像範囲の重複領域に対応する重複領域画像を生成する際に、その重複領域画像を二つに分ける一本の複雑な形状の境界線である櫛歯状の境界線を設定し、二つのカメラのそれぞれが撮像した二つの鳥瞰図画像のそれぞれの部分領域が櫛歯状に交互に配置されるように二つの鳥瞰図画像を繋ぎ合わせるようにする。   When this driving support system generates an overlapping area image corresponding to the overlapping area of the imaging ranges of two cameras, the driving support system is a comb-teeth shape that is a boundary line of one complicated shape that divides the overlapping area image into two. , And the two bird's-eye view images are connected so that the partial regions of the two bird's-eye view images captured by the two cameras are alternately arranged in a comb-tooth shape.

通常、その重複領域に存在する高さのある物体は、二つのカメラのそれぞれとその物体とを結ぶ線の延長方向に二方向に伸長して投影されるため、その重複領域を一本の直線で二つの領域に二分し、一方の領域を一方のカメラによる鳥瞰図画像に対応させ、他方の領域を他方のカメラによる鳥瞰図画像に対応させることによってその重複領域画像を生成すると、その重複領域画像から消失してしまう。   Normally, an object with a height that exists in the overlapping area is projected in two directions in the extension direction of the line connecting each of the two cameras and the object. The two regions are divided into two regions, one region is made to correspond to the bird's eye view image by one camera, and the other region is made to correspond to the bird's eye view image by the other camera. It will disappear.

その点、この運転支援システムは、上述の繋ぎ合わせにより、高さのある物体が重複領域画像から消失してしまうのを防止することができ、その物体を運転者が認識し易いものにすることができるとしている。   In this respect, this driving support system can prevent the height object from disappearing from the overlapping area image by the above-mentioned connection, and make the object easy for the driver to recognize. I can do it.

また、本出願人は、上述のような櫛歯状の境界線を用いた画像により運転者に不自然さを感じさせてしまうのを防止するため、重複領域に存在する物体が出力画像から消失するのを防止しながらも、入力画像間の明るさの差が際立たないようにする出力画像を生成する画像生成装置を提案している(例えば、特許文献2参照。)。   In addition, the applicant of the present invention eliminates an object existing in the overlapping region from the output image in order to prevent the driver from feeling unnatural by the image using the comb-like boundary line as described above. An image generation apparatus that generates an output image that prevents the difference in brightness between input images from being noticeable while preventing the occurrence of the image is proposed (for example, see Patent Document 2).

特開2007−109166号公報JP 2007-109166 A 特開2012−256295号公報JP 2012-256295 A

しかしながら、特許文献1に記載の運転支援システムは、二つのカメラの撮像範囲の重複領域全体に対して上述のような物体の消失を防止する処理(以下、「消失防止処理」とする。)を施すようにする。そのため、二つのカメラの撮像範囲の重複が大きいほど櫛歯状の境界線が設定される範囲も大きくなり、その出力画像を見た運転者に不自然さを感じさせてしまう場合がある。また、特許文献2に記載の画像生成装置も、消失防止処理を施す範囲の調整については言及していない。   However, the driving support system described in Patent Document 1 performs a process for preventing the disappearance of the object as described above (hereinafter referred to as “disappearance prevention process”) for the entire overlapping area of the imaging ranges of the two cameras. Make it. For this reason, the greater the overlapping of the imaging ranges of the two cameras, the larger the range in which the comb-like boundary line is set, which may make the driver who sees the output image feel unnatural. In addition, the image generation apparatus described in Patent Document 2 does not mention adjustment of a range in which the loss prevention process is performed.

上述の点に鑑み、本発明は、消失防止処理が施される範囲を適切に調整可能な画像生成装置及びその装置を用いた操作支援システムを提供することを目的とする。   In view of the above-described points, an object of the present invention is to provide an image generation apparatus capable of appropriately adjusting a range in which a loss prevention process is performed, and an operation support system using the apparatus.

上述の目的を達成するために、本発明の実施例に係る画像生成装置は、被操作体に取り付けられた複数のカメラが撮像した複数の入力画像に基づいて出力画像を生成する画像生成装置であって、前記被操作体の周囲に配置される空間モデルにおける座標と、前記入力画像が位置する入力画像平面における座標とを対応付ける座標対応付け手段と、前記空間モデルにおける座標を介して、前記入力画像平面における座標の値と前記出力画像が位置する出力画像平面における座標の値とを対応付けて前記出力画像を生成する出力画像生成手段と、を備え、前記空間モデルは、前記複数のカメラのうちの2つのカメラのそれぞれの入力画像平面における座標を対応付け可能な第1重複出力部分を含む第1平面領域を有し、前記画像生成装置は、前記第1平面領域とは異なる所定の高さを有し、且つ、前記2つのカメラのそれぞれの入力画像平面における座標を対応付け可能な第2重複出力部分を含む第2平面領域を設定し、前記第2重複出力部分は、前記2つのカメラのうちの一方の入力画像平面における座標を対応付ける第1カメラ対応部分と、前記2つのカメラのうちの他方の入力画像平面における座標を対応付ける第2カメラ対応部分とで構成され、前記画像生成装置は、前記第1重複領域のうち前記第1カメラ対応部分及び前記第2カメラ対応部分のそれぞれに対応する部分が消失防止処理の非適用範囲となるように出力画像を生成する。   In order to achieve the above object, an image generation apparatus according to an embodiment of the present invention is an image generation apparatus that generates an output image based on a plurality of input images captured by a plurality of cameras attached to an operated body. A coordinate association means for associating coordinates in a spatial model arranged around the object to be operated with coordinates in an input image plane on which the input image is located, and via the coordinates in the spatial model, the input Output image generation means for generating the output image by associating the value of the coordinate on the image plane and the value of the coordinate on the output image plane on which the output image is located, and the spatial model includes the plurality of cameras. A first plane area including a first overlapping output portion capable of associating coordinates on the input image plane of each of the two cameras, and the image generation device includes: A second plane area having a predetermined height different from the one plane area and including a second overlapping output portion capable of associating coordinates on the input image planes of the two cameras, and The two overlapping output portions are a first camera corresponding portion that associates coordinates in one input image plane of the two cameras and a second camera corresponding portion that associates coordinates in the other input image plane of the two cameras. And the image generation device outputs the portion corresponding to each of the first camera corresponding portion and the second camera corresponding portion of the first overlapping region to be a non-applicable range of the loss prevention processing. Generate an image.

また、本発明の実施例に係る操作支援システムは、被操作体の移動又は操作を支援する操作支援システムであって、上述の画像生成装置と、前記被操作体を移動させ或いは操作するための操作室に設置され、該画像生成装置が生成する出力画像を表示する表示部と、を備える。   An operation support system according to an embodiment of the present invention is an operation support system that supports movement or operation of an object to be operated, for moving or operating the above-described image generation device and the object to be operated. And a display unit that is installed in the operation room and displays an output image generated by the image generation apparatus.

上述の手段により、本発明は、消失防止処理が施される範囲を適切に調整可能な画像生成装置及びその装置を用いた操作支援システムを提供することができる。   With the above-described means, the present invention can provide an image generation apparatus capable of appropriately adjusting the range in which the loss prevention process is performed, and an operation support system using the apparatus.

本発明に係る画像生成装置の構成例を概略的に示すブロック図である。It is a block diagram which shows roughly the structural example of the image generation apparatus which concerns on this invention. 画像生成装置が搭載されるショベルの構成例を示す図である。It is a figure which shows the structural example of the shovel mounted with an image generation apparatus. 入力画像が投影される空間モデルの一例を示す図である。It is a figure which shows an example of the space model on which an input image is projected. 空間モデルと処理対象画像平面との間の関係の一例を示す図である。It is a figure which shows an example of the relationship between a space model and a process target image plane. 入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図である。It is a figure for demonstrating matching with the coordinate on an input image plane, and the coordinate on a space model. 座標対応付け手段による座標間の対応付けを説明するための図である。It is a figure for demonstrating the matching between the coordinates by a coordinate matching means. 平行線群の作用を説明するための図である。It is a figure for demonstrating the effect | action of a parallel line group. 補助線群の作用を説明するための図である。It is a figure for demonstrating the effect | action of an auxiliary line group. 処理対象画像生成処理及び出力画像生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process target image generation process and an output image generation process. 出力画像の表示例(その1)である。It is a display example (the 1) of an output image. 出力画像の表示例(その2)である。It is a display example (the 2) of an output image. 同色錯視を説明するための図である。It is a figure for demonstrating the same color illusion. 同色錯視をもたらす明暗パタンを生成する方法の一例を説明するための図である。It is a figure for demonstrating an example of the method of producing | generating the light-and-dark pattern which brings about the same color illusion. 図13の格子模様を出力画像平面上に配置した状態を示す図である。It is a figure which shows the state which has arrange | positioned the lattice pattern of FIG. 13 on an output image plane. 格子模様形成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a lattice pattern formation process. 図11で示される出力画像と、図11の出力画像に同色錯視をもたらす格子模様が適用された出力画像との違いを表す対比図である。FIG. 12 is a comparison diagram showing a difference between the output image shown in FIG. 11 and an output image in which a lattice pattern that causes the same color illusion is applied to the output image of FIG. 11. 出力画像の表示例(その3)である。It is a display example (the 3) of an output image. 二つのカメラのそれぞれの撮像範囲の重複領域における物体の消失防止効果を説明するための図である。It is a figure for demonstrating the loss | disappearance prevention effect of the object in the overlapping area | region of each imaging range of two cameras. 図17で示される出力画像と、図17の出力画像に同色錯視をもたらす格子模様が適用された出力画像との違いを表す対比図である。FIG. 18 is a contrast diagram showing a difference between the output image shown in FIG. 17 and an output image in which a lattice pattern that causes the same color illusion is applied to the output image of FIG. 17. 消失防止処理が施された出力画像を示す図(その1)である。FIG. 5 is a first diagram illustrating an output image that has been subjected to a loss prevention process; ショベルの後方に存在する物体と出力画像の路面画像部分におけるその物体の投影像との関係を示す図である。It is a figure which shows the relationship between the object which exists behind a shovel, and the projection image of the object in the road surface image part of an output image. 第1平面領域における重複出力部分と、第2平面領域における重複出力部分との関係を示す模式図である。It is a schematic diagram which shows the relationship between the duplication output part in a 1st plane area | region, and the duplication output part in a 2nd plane area | region. 第2消失防止処理適用範囲調整処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a 2nd disappearance prevention process application range adjustment process. 消失防止処理要否判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a loss prevention process necessity determination process. 境界線の設定方法の説明図である。It is explanatory drawing of the setting method of a boundary line. 消失防止処理が施された出力画像を示す図(その2)である。FIG. 10 is a second diagram illustrating an output image that has been subjected to a loss prevention process. 第3消失防止処理適用範囲調整処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a 3rd loss prevention process application range adjustment process.

以下、図面を参照しつつ、本発明を実施するための最良の形態の説明を行う。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings.

図1は、本発明に係る画像生成装置の構成例100を概略的に示すブロック図である。   FIG. 1 is a block diagram schematically showing a configuration example 100 of an image generation apparatus according to the present invention.

画像生成装置100は、例えば、建設機械に搭載されたカメラ2が撮像した入力画像に基づいて出力画像を生成しその出力画像を運転者に提示する装置であって、制御部1、カメラ2、入力部3、記憶部4、及び表示部5で構成される。   The image generation apparatus 100 is an apparatus that generates an output image based on an input image captured by a camera 2 mounted on a construction machine and presents the output image to a driver, for example, a control unit 1, a camera 2, An input unit 3, a storage unit 4, and a display unit 5 are included.

図2は、画像生成装置100が搭載されるショベル60の構成例を示す図であり、ショベル60は、クローラ式の下部走行体61の上に、旋回機構62を介して、上部旋回体63を旋回軸PVの周りで旋回自在に搭載している。   FIG. 2 is a diagram illustrating a configuration example of the excavator 60 on which the image generating apparatus 100 is mounted. The excavator 60 is configured such that the upper swing body 63 is placed on the crawler-type lower traveling body 61 via the swing mechanism 62. It is mounted so as to be pivotable around the pivot axis PV.

また、上部旋回体63は、その前方左側部にキャブ(運転室)64を備え、その前方中央部に掘削アタッチメントEを備え、その右側面及び後面にカメラ2(右側方カメラ2R、後方カメラ2B)を備えている。なお、キャブ64内の運転者が視認し易い位置には表示部5が設置されているものとする。   The upper swing body 63 includes a cab (operator's cab) 64 on the front left side, a drilling attachment E on the front center, and the camera 2 (right camera 2R, rear camera 2B) on the right and rear surfaces. ). In addition, the display part 5 shall be installed in the position in the cab 64 where the driver | operator is easy to visually recognize.

次に、画像生成装置100の各構成要素について説明する。   Next, each component of the image generation apparatus 100 will be described.

制御部1は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)等を備えたコンピュータであって、例えば、後述する座標対応付け手段10及び出力画像生成手段11のそれぞれに対応するプログラムをROMやNVRAMに記憶し、一時記憶領域としてRAMを利用しながら各手段に対応する処理をCPUに実行させる。   The control unit 1 is a computer including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), an NVRAM (Non-Volatile Random Access Memory), etc. A program corresponding to each of the attaching means 10 and the output image generating means 11 is stored in the ROM or NVRAM, and the CPU executes processing corresponding to each means while using the RAM as a temporary storage area.

カメラ2は、ショベル60の周辺を映し出す入力画像を取得するための装置であり、例えば、キャブ64にいる運転者の死角となる領域を撮像できるよう上部旋回体63の右側面及び後面に取り付けられる(図2参照。)、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えた右側方カメラ2R及び後方カメラ2Bである。なお、カメラ2は、上部旋回体63の右側面及び後面以外の位置(例えば、前面及び左側面である。)に取り付けられていてもよく、広い範囲を撮像できるよう広角レンズ又は魚眼レンズが装着されていてもよい。   The camera 2 is a device for acquiring an input image that reflects the periphery of the excavator 60. For example, the camera 2 is attached to the right side surface and the rear surface of the upper swing body 63 so as to be able to capture an area that is a blind spot of the driver in the cab 64. (See FIG. 2), a right side camera 2R and a rear camera 2B provided with an image sensor such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal Oxide Semiconductor). The camera 2 may be attached to a position other than the right side and the rear side of the upper swing body 63 (for example, the front side and the left side), and a wide-angle lens or a fisheye lens is attached so as to capture a wide range. It may be.

また、カメラ2は、制御部1からの制御信号に応じて入力画像を取得し、取得した入力画像を制御部1に対して出力する。なお、カメラ2は、魚眼レンズ又は広角レンズを用いて入力画像を取得した場合には、それらレンズを用いることによって生じる見掛け上の歪曲やアオリを補正した補正済みの入力画像を制御部1に対して出力するが、その見掛け上の歪曲やアオリを補正していない入力画像をそのまま制御部1に対して出力してもよい。その場合には、制御部1がその見掛け上の歪曲やアオリを補正することとなる。   In addition, the camera 2 acquires an input image according to a control signal from the control unit 1 and outputs the acquired input image to the control unit 1. In addition, when the camera 2 acquires an input image using a fisheye lens or a wide-angle lens, the corrected input image obtained by correcting apparent distortion and tilt caused by using these lenses is transmitted to the control unit 1. Although it is output, an input image in which the apparent distortion or tilt is not corrected may be output to the control unit 1 as it is. In that case, the control unit 1 corrects the apparent distortion and tilt.

入力部3は、操作者が画像生成装置100に対して各種情報を入力できるようにするための装置であり、例えば、タッチパネル、ボタンスイッチ、ポインティングデバイス、キーボード等である。   The input unit 3 is a device that allows an operator to input various types of information to the image generation device 100, and is, for example, a touch panel, a button switch, a pointing device, a keyboard, or the like.

記憶部4は、各種情報を記憶するための装置であり、例えば、ハードディスク、光学ディスク、又は半導体メモリ等である。   The storage unit 4 is a device for storing various types of information, and is, for example, a hard disk, an optical disk, or a semiconductor memory.

表示部5は、画像情報を表示するための装置であり、例えば、建設機械のキャブ64(図2参照。)内に設置された液晶ディスプレイ又はプロジェクタ等であって、制御部1が出力する各種画像を表示する。   The display unit 5 is a device for displaying image information. For example, the display unit 5 is a liquid crystal display, a projector, or the like installed in a cab 64 (see FIG. 2) of a construction machine. Display an image.

また、画像生成装置100は、入力画像に基づいて処理対象画像を生成し、その処理対象画像に画像変換処理を施すことによって周辺障害物との位置関係や距離感を直感的に把握できるようにする出力画像を生成した上で、その出力画像を運転者に提示するようにしてもよい。   Further, the image generating apparatus 100 generates a processing target image based on the input image, and performs an image conversion process on the processing target image so that the positional relationship with the surrounding obstacles and a sense of distance can be intuitively grasped. After generating the output image to be performed, the output image may be presented to the driver.

「処理対象画像」は、入力画像に基づいて生成される、画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)の対象となる画像であり、例えば、地表を上方から撮像するカメラによる入力画像であってその広い画角により水平方向の画像(例えば、空の部分である。)を含む入力画像を画像変換処理で用いる場合に、その水平方向の画像が不自然に表示されないよう(例えば、空の部分が地表にあるものとして扱われないよう)その入力画像を所定の空間モデルに投影した上で、その空間モデルに投影された投影画像を別の二次元平面に再投影することによって得られる、画像変換処理に適した画像である。なお、処理対象画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。   The “processing target image” is an image that is generated based on an input image and that is a target of image conversion processing (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion processing, etc.). When an input image including a horizontal image (for example, an empty portion) is used in an image conversion process with an image captured from above by a camera that captures the image from above, the horizontal image is The input image is projected onto a predetermined spatial model so that it is not unnaturally displayed (for example, the sky part is not treated as being on the ground surface), and then the projected image projected onto the spatial model is changed to another two. It is an image suitable for image conversion processing, which is obtained by reprojecting onto a dimensional plane. The processing target image may be used as an output image as it is without performing an image conversion process.

「空間モデル」は、少なくとも、処理対象画像が位置する平面である処理対象画像平面以外の平面又は曲面(例えば、処理対象画像平面に平行な平面、又は、処理対象画像平面との間で角度を形成する平面若しくは曲面である。)を含む、一又は複数の平面若しくは曲面で構成される、入力画像の投影対象である。   The “spatial model” is a plane or curved surface other than the processing target image plane that is the plane on which the processing target image is located (for example, a plane parallel to the processing target image plane or an angle with the processing target image plane). A plane or a curved surface to be formed), and a projection target of an input image composed of one or a plurality of planes or curved surfaces.

なお、画像生成装置100は、処理対象画像を生成することなく、その空間モデルに投影された投影画像に画像変換処理を施すことによって出力画像を生成するようにしてもよい。また、投影画像は、画像変換処理を施すことなくそのまま出力画像として用いられてもよい。   Note that the image generation apparatus 100 may generate an output image by performing image conversion processing on the projection image projected on the space model without generating a processing target image. Further, the projection image may be used as an output image as it is without being subjected to image conversion processing.

図3は、入力画像が投影される空間モデルMDの一例を示す図であり、図3(A)は、ショベル60を側方から見たときのショベル60と空間モデルMDとの間の関係を示し、図3(B)は、ショベル60を上方から見たときのショベル60と空間モデルMDとの間の関係を示す。   FIG. 3 is a diagram illustrating an example of a spatial model MD onto which an input image is projected. FIG. 3A illustrates a relationship between the excavator 60 and the spatial model MD when the excavator 60 is viewed from the side. FIG. 3B shows the relationship between the excavator 60 and the space model MD when the excavator 60 is viewed from above.

図3で示されるように、空間モデルMDは、半円筒形状を有し、その底面内部の平面領域R1とその側面内部の曲面領域R2とを有する。   As shown in FIG. 3, the space model MD has a semi-cylindrical shape, and includes a planar region R1 inside the bottom surface and a curved region R2 inside the side surface.

また、図4は、空間モデルMDと処理対象画像平面との間の関係の一例を示す図であり、処理対象画像平面R3は、例えば、空間モデルMDの平面領域R1を含む平面である。なお、図4は、明確化のために、空間モデルMDを、図3で示すような半円筒形状ではなく、円筒形状で示しているが、空間モデルMDは、半円筒形状及び円筒形状の何れであってもよいものとする。以降の図においても同様である。また、処理対象画像平面R3は、上述のように、空間モデルMDの平面領域R1を含む円形領域であってもよく、空間モデルMDの平面領域R1を含まない環状領域であってもよい。   FIG. 4 is a diagram illustrating an example of a relationship between the space model MD and the processing target image plane, and the processing target image plane R3 is a plane including the plane area R1 of the space model MD, for example. 4 shows the space model MD not in a semi-cylindrical shape as shown in FIG. 3 but in a cylindrical shape for the sake of clarity, the space model MD may be either a semi-cylindrical shape or a cylindrical shape. It may be. The same applies to the subsequent drawings. Further, as described above, the processing target image plane R3 may be a circular area including the plane area R1 of the spatial model MD, or may be an annular area not including the plane area R1 of the spatial model MD.

次に、制御部1が有する各種手段について説明する。   Next, various units included in the control unit 1 will be described.

座標対応付け手段10は、カメラ2が撮像した入力画像が位置する入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付けるための手段であり、例えば、予め設定された、或いは、入力部3を介して入力される、カメラ2の光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等のカメラ2に関する各種パラメータと、予め決定された、入力画像平面、空間モデルMD、及び処理対象画像平面R3の相互の位置関係とに基づいて、入力画像平面上の座標と、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、それらの対応関係を記憶部4の入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41に記憶する。   The coordinate association means 10 is a means for associating coordinates on the input image plane where the input image captured by the camera 2 is located, coordinates on the space model MD, and coordinates on the processing target image plane R3. For example, various parameters relating to the camera 2 such as optical center, focal length, CCD size, optical axis direction vector, camera horizontal direction vector, projection method, etc., which are set in advance or input via the input unit 3 And the coordinates on the input image plane, the coordinates on the space model MD, and the processing target image based on the predetermined positional relationship among the input image plane, the spatial model MD, and the processing target image plane R3. The coordinates on the plane R3 are associated with each other, and the corresponding relationship is stored in the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41 of the storage unit 4. .

なお、座標対応付け手段10は、処理対象画像を生成しない場合には、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応付け、及び、その対応関係の空間モデル・処理対象画像対応マップ41への記憶を省略する。   When the processing target image is not generated, the coordinate association unit 10 associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3, and the spatial model / processing target of the corresponding relationship. The storage in the image correspondence map 41 is omitted.

出力画像生成手段11は、出力画像を生成するための手段であり、例えば、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。   The output image generation unit 11 is a unit for generating an output image. For example, by performing scale conversion, affine conversion, or distortion conversion on the processing target image, the coordinates on the processing target image plane R3 and the output image are changed. The input image / space model in which the coordinates on the output image plane that is positioned are associated, the correspondence is stored in the processing target image / output image correspondence map 42 of the storage unit 4, and the value is stored in the coordinate association means 10. With reference to the correspondence map 40 and the spatial model / processing object image correspondence map 41, the value of each pixel in the output image (for example, the luminance value, hue value, saturation value, etc.) and the value of each pixel in the input image. To generate an output image.

また、出力画像生成手段11は、予め設定された、或いは、入力部3を介して入力される、仮想カメラの光学中心、焦点距離、CCDサイズ、光軸方向ベクトル、カメラ水平方向ベクトル、射影方式等の各種パラメータに基づいて、処理対象画像平面R3上の座標と出力画像が位置する出力画像平面上の座標とを対応付け、その対応関係を記憶部4の処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10がその値を記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。   Further, the output image generation means 11 is preset or input via the input unit 3, the optical center of the virtual camera, the focal length, the CCD size, the optical axis direction vector, the camera horizontal direction vector, the projection method. The coordinates on the processing target image plane R3 and the coordinates on the output image plane where the output image is located are associated with each other based on various parameters such as the processing target image / output image correspondence map 42 in the storage unit 4. And the values of each pixel in the output image (for example, the luminance value) while referring to the input image / spatial model correspondence map 40 and the spatial model / processing object image correspondence map 41 stored by the coordinate matching means 10. , Hue value, saturation value, etc.) and the value of each pixel in the input image are associated with each other to generate an output image.

なお、出力画像生成手段11は、仮想カメラの概念を用いることなく、処理対象画像のスケールを変更して出力画像を生成するようにしてもよい。   Note that the output image generation unit 11 may generate the output image by changing the scale of the processing target image without using the concept of the virtual camera.

また、出力画像生成手段11は、処理対象画像を生成しない場合には、施した画像変換処理に応じて空間モデルMD上の座標と出力画像平面上の座標とを対応付け、入力画像・空間モデル対応マップ40を参照しながら、出力画像における各画素の値(例えば、輝度値、色相値、彩度値等である。)と入力画像における各画素の値とを関連付けて出力画像を生成する。この場合、出力画像生成手段11は、処理対象画像平面R3上の座標と出力画像平面上の座標との対応付け、及び、その対応関係の処理対象画像・出力画像対応マップ42への記憶を省略する。   Further, when the processing target image is not generated, the output image generation unit 11 associates the coordinates on the space model MD with the coordinates on the output image plane in accordance with the applied image conversion process, and the input image / space model. With reference to the correspondence map 40, the output image is generated by associating the value of each pixel in the output image (for example, luminance value, hue value, saturation value, etc.) with the value of each pixel in the input image. In this case, the output image generation unit 11 omits the association between the coordinates on the processing target image plane R3 and the coordinates on the output image plane, and the storage of the correspondence relationship in the processing target image / output image correspondence map 42. To do.

次に、座標対応付け手段10及び出力画像生成手段11による具体的な処理の一例について説明する。   Next, an example of specific processing by the coordinate association unit 10 and the output image generation unit 11 will be described.

座標対応付け手段10は、例えば、ハミルトンの四元数を用いて、入力画像平面上の座標と空間モデル上の座標とを対応付けることができる。   The coordinate association means 10 can associate the coordinates on the input image plane with the coordinates on the space model using, for example, a Hamilton quaternion.

図5は、入力画像平面上の座標と空間モデル上の座標との対応付けを説明するための図であり、カメラ2の入力画像平面は、カメラ2の光学中心Cを原点とするUVW直交座標系における一平面として表され、空間モデルは、XYZ直交座標系における立体面として表されるものとする。   FIG. 5 is a diagram for explaining the correspondence between the coordinates on the input image plane and the coordinates on the space model. The input image plane of the camera 2 has UVW orthogonal coordinates with the optical center C of the camera 2 as the origin. The space model is represented as a three-dimensional surface in the XYZ orthogonal coordinate system.

最初に、座標対応付け手段10は、空間モデル上の座標(XYZ座標系上の座標)を入力画像平面上の座標(UVW座標系上の座標)に変換するため、XYZ座標系の原点を光学中心C(UVW座標系の原点)に並行移動させた上で、X軸をU軸に、Y軸をV軸に、Z軸を−W軸(符号「−」は方向が逆であることを意味する。これは、UVW座標系がカメラ前方を+W方向とし、XYZ座標系が鉛直下方を−Z方向としていることに起因する。)にそれぞれ一致させるようXYZ座標系を回転させる。   First, the coordinate association unit 10 converts the coordinates on the space model (coordinates on the XYZ coordinate system) into coordinates on the input image plane (coordinates on the UVW coordinate system), so that the origin of the XYZ coordinate system is optically converted. After moving parallel to the center C (the origin of the UVW coordinate system), the X axis is the U axis, the Y axis is the V axis, and the Z axis is the -W axis (the sign "-" indicates that the direction is reversed) This means that the XYZ coordinate system is rotated so that the UVW coordinate system coincides with the + W direction in front of the camera and the XYZ coordinate system in the −Z direction vertically below.

なお、カメラ2が複数存在する場合、カメラ2のそれぞれが個別のUVW座標系を有することとなるので、座標対応付け手段10は、複数のUVW座標系のそれぞれに対して、XYZ座標系を並行移動させ且つ回転させることとなる。   When there are a plurality of cameras 2, each of the cameras 2 has an individual UVW coordinate system. Therefore, the coordinate association unit 10 uses an XYZ coordinate system in parallel with each of the plurality of UVW coordinate systems. It will be moved and rotated.

上述の変換は、カメラ2の光学中心CがXYZ座標系の原点となるようにXYZ座標系を並行移動させた後に、Z軸が−W軸に一致するよう回転させ、更に、X軸がU軸に一致するよう回転させることによって実現されるので、座標対応付け手段10は、この変換をハミルトンの四元数で記述することにより、それら二回の回転を一回の回転演算に纏めることができる。   In the above conversion, the XYZ coordinate system is translated so that the optical center C of the camera 2 is the origin of the XYZ coordinate system, and then the Z axis is rotated so as to coincide with the −W axis. Since it is realized by rotating to coincide with the axis, the coordinate matching means 10 can combine these two rotations into one rotation calculation by describing this transformation in Hamilton's quaternion. it can.

ところで、あるベクトルAを別のベクトルBに一致させるための回転は、ベクトルAとベクトルBとが張る面の法線を軸としてベクトルAとベクトルBとが形成する角度だけ回転させる処理に相当し、その角度をθとすると、ベクトルAとベクトルBとの内積から、角度θは、   By the way, the rotation for making one vector A coincide with another vector B corresponds to the process of rotating the vector A and the vector B by the angle formed by using the normal line of the surface extending between the vector A and the vector B as an axis. If the angle is θ, from the inner product of the vector A and the vector B, the angle θ is

で表されることとなる。 It will be expressed as

また、ベクトルAとベクトルBとが張る面の法線の単位ベクトルNは、ベクトルAとベクトルBとの外積から   Further, the unit vector N of the normal line between the vector A and the vector B is obtained from the outer product of the vector A and the vector B.

で表されることとなる。 It will be expressed as

なお、四元数は、i、j、kをそれぞれ虚数単位とした場合、   Note that the quaternion has i, j, and k as imaginary units,

を満たす超複素数であり、本実施例において、四元数Qは、実成分をt、純虚成分をa、b、cとして、 In this embodiment, the quaternion Q is represented by t as a real component and a, b, and c as pure imaginary components.

で表されるものとし、四元数Qの共役四元数は、 The conjugate quaternion of the quaternion Q is

で表されるものとする。 It shall be represented by

四元数Qは、実成分tを0(ゼロ)としながら、純虚成分a、b、cで三次元ベクトル(a,b,c)を表現することができ、また、t、a、b、cの各成分により任意のベクトルを軸とした回転動作を表現することもできる。   The quaternion Q can represent a three-dimensional vector (a, b, c) with pure imaginary components a, b, c while setting the real component t to 0 (zero), and t, a, b , C can also be used to express a rotational motion with an arbitrary vector as an axis.

更に、四元数Qは、連続する複数回の回転動作を統合して一回の回転動作として表現することができ、例えば、任意の点S(sx,sy,sz)を、任意の単位ベクトルC(l,m,n)を軸としながら角度θだけ回転させたときの点D(ex,ey,ez)を以下のように表現することができる。   Further, the quaternion Q can be expressed as a single rotation operation by integrating a plurality of continuous rotation operations. For example, an arbitrary point S (sx, sy, sz) can be expressed as an arbitrary unit vector. A point D (ex, ey, ez) when rotated by an angle θ with C (l, m, n) as an axis can be expressed as follows.

ここで、本実施例において、Z軸を−W軸に一致させる回転を表す四元数をQzとすると、XYZ座標系におけるX軸上の点Xは、点X'に移動させられるので、点X'は、 Here, in this embodiment, if the quaternion representing the rotation that makes the Z axis coincide with the −W axis is Qz, the point X on the X axis in the XYZ coordinate system is moved to the point X ′. X '

で表されることとなる。 It will be expressed as

また、本実施例において、X軸上にある点X'と原点とを結ぶ線をU軸に一致させる回転を表す四元数をQxとすると、「Z軸を−W軸に一致させ、更に、X軸をU軸に一致させる回転」を表す四元数Rは、   In this embodiment, if the quaternion representing the rotation that matches the line connecting the point X ′ on the X axis and the origin to the U axis is Qx, “the Z axis matches the −W axis, , The quaternion R representing "rotation to match the X axis with the U axis"

で表されることとなる。 It will be expressed as

以上により、空間モデル(XYZ座標系)上の任意の座標Pを入力画像平面(UVW座標系)上の座標で表現したときの座標P'は、   As described above, the coordinate P ′ when an arbitrary coordinate P on the space model (XYZ coordinate system) is expressed by a coordinate on the input image plane (UVW coordinate system) is

で表されることとなり、四元数Rがカメラ2のそれぞれで不変であることから、座標対応付け手段10は、以後、この演算を実行するだけで空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換することができる。 Since the quaternion R is invariable in each of the cameras 2, the coordinate association unit 10 thereafter performs the above calculation to obtain the coordinates on the space model (XYZ coordinate system). It can be converted into coordinates on the input image plane (UVW coordinate system).

空間モデル(XYZ座標系)上の座標を入力画像平面(UVW座標系)上の座標に変換した後、座標対応付け手段10は、カメラ2の光学中心C(UVW座標系上の座標)と空間モデル上の任意の座標PをUVW座標系で表した座標P'とを結ぶ線分CP'と、カメラ2の光軸Gとが形成する入射角αを算出する。   After the coordinates on the space model (XYZ coordinate system) are converted to the coordinates on the input image plane (UVW coordinate system), the coordinate association means 10 determines the optical center C (coordinates on the UVW coordinate system) of the camera 2 and the space. An incident angle α formed by a line segment CP ′ connecting an arbitrary coordinate P on the model with a coordinate P ′ represented in the UVW coordinate system and the optical axis G of the camera 2 is calculated.

また、座標対応付け手段10は、カメラ2の入力画像平面R4(例えば、CCD面)に平行で且つ座標P'を含む平面Hにおける、平面Hと光軸Gとの交点Eと座標P'とを結ぶ線分EP'と、平面HにおけるU'軸とが形成する偏角φ、及び線分EP'の長さを算出する。   In addition, the coordinate association unit 10 includes an intersection E between the plane H and the optical axis G, and a coordinate P ′ in a plane H that is parallel to the input image plane R4 (for example, CCD plane) of the camera 2 and includes the coordinate P ′. Are calculated, and the deviation angle φ formed by the line segment EP ′ connecting the two and the U ′ axis in the plane H, and the length of the line segment EP ′.

カメラの光学系は、通常、像高さhが入射角α及び焦点距離fの関数となっているので、座標対応付け手段10は、通常射影(h=ftanα)、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等の適切な射影方式を選択して像高さhを算出する。   In the optical system of the camera, the image height h is usually a function of the incident angle α and the focal length f. Therefore, the coordinate matching means 10 performs normal projection (h = ftanα) and orthographic projection (h = fsinα). Image height by selecting an appropriate projection method such as stereo projection (h = 2 ftan (α / 2)), equisolid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc. Calculate h.

その後、座標対応付け手段10は、算出した像高さhを偏角φによりUV座標系上のU成分及びV成分に分解し、入力画像平面R4の一画素当たりの画素サイズに相当する数値で除算することにより、空間モデルMD上の座標P(P')と入力画像平面R4上の座標とを対応付けることができる。   Thereafter, the coordinate matching means 10 decomposes the calculated image height h into U and V components on the UV coordinate system by the declination φ, and is a numerical value corresponding to the pixel size per pixel of the input image plane R4. By dividing, the coordinates P (P ′) on the space model MD can be associated with the coordinates on the input image plane R4.

なお、入力画像平面R4のU軸方向における一画素当たりの画素サイズをaとし、入力画像平面R4のV軸方向における一画素当たりの画素サイズをaとすると、空間モデルMD上の座標P(P')に対応する入力画像平面R4上の座標(u,v)は、 Incidentally, when the pixel size per one pixel in the U axis direction of the input image plane R4 and a U, the pixel size per one pixel in the V axis direction of the input image plane R4 and a V, coordinates P of the space model MD The coordinates (u, v) on the input image plane R4 corresponding to (P ′) are

で表されることとなる。 It will be expressed as

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、カメラ毎に存在する一又は複数の入力画像平面R4上の座標とを対応付け、空間モデルMD上の座標、カメラ識別子、及び入力画像平面R4上の座標を関連付けて入力画像・空間モデル対応マップ40に記憶する。   In this way, the coordinate association unit 10 associates the coordinates on the space model MD with the coordinates on one or a plurality of input image planes R4 existing for each camera, and coordinates on the space model MD, the camera identifier. And the coordinates on the input image plane R4 are stored in the input image / space model correspondence map 40 in association with each other.

また、座標対応付け手段10は、四元数を用いて座標の変換を演算するので、オイラー角を用いて座標の変換を演算する場合と異なり、ジンバルロックを発生させることがないという利点を有する。しかしながら、座標対応付け手段10は、四元数を用いて座標の変換を演算するものに限定されることはなく、オイラー角を用いて座標の変換を演算するようにしてもよい。   Further, since the coordinate association unit 10 calculates the coordinate conversion using the quaternion, unlike the case where the coordinate conversion is calculated using the Euler angle, there is an advantage that no gimbal lock is generated. . However, the coordinate association unit 10 is not limited to the one that calculates the coordinate conversion using the quaternion, and may perform the coordinate conversion using the Euler angle.

なお、複数の入力画像平面R4上の座標への対応付けが可能な場合、座標対応付け手段10は、空間モデルMD上の座標P(P')を、その入射角αが最も小さいカメラに関する入力画像平面R4上の座標に対応付けるようにしてもよく、操作者が選択した入力画像平面R4上の座標に対応付けるようにしてもよい。   Note that, when it is possible to associate the coordinates on the plurality of input image planes R4, the coordinate associating means 10 inputs the coordinates P (P ′) on the spatial model MD with respect to the camera having the smallest incident angle α. It may be associated with coordinates on the image plane R4, or may be associated with coordinates on the input image plane R4 selected by the operator.

次に、空間モデルMD上の座標のうち、曲面領域R2上の座標(Z軸方向の成分を持つ座標)を、XY平面上にある処理対象画像平面R3に再投影する処理について説明する。   Next, a process of reprojecting coordinates on the curved surface area R2 (coordinates having a component in the Z-axis direction) among the coordinates on the spatial model MD onto the processing target image plane R3 on the XY plane will be described.

図6は、座標対応付け手段10による座標間の対応付けを説明するための図であり、図6(A)は、一例として通常射影(h=ftanα)を採用するカメラ2の入力画像平面R4上の座標と空間モデルMD上の座標との間の対応関係を示す図であって、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標とその座標に対応する空間モデルMD上の座標とを結ぶ線分のそれぞれがカメラ2の光学中心Cを通過するようにして、両座標を対応付ける。   FIG. 6 is a diagram for explaining the association between coordinates by the coordinate association means 10, and FIG. 6A shows an input image plane R4 of the camera 2 that employs a normal projection (h = ftanα) as an example. FIG. 6 is a diagram showing a correspondence relationship between the coordinates on the upper surface and the coordinates on the space model MD, and the coordinate associating means 10 displays the coordinates on the input image plane R4 of the camera 2 and the space model MD corresponding to the coordinates. Both the coordinates are made to correspond to each other so that each of the line segments connecting the coordinates passes through the optical center C of the camera 2.

図6(A)の例では、座標対応付け手段10は、カメラ2の入力画像平面R4上の座標K1を空間モデルMDの平面領域R1上の座標L1に対応付け、カメラ2の入力画像平面R4上の座標K2を空間モデルMDの曲面領域R2上の座標L2に対応付ける。このとき、線分K1−L1及び線分K2−L2は共にカメラ2の光学中心Cを通過する。   In the example of FIG. 6A, the coordinate association means 10 associates the coordinate K1 on the input image plane R4 of the camera 2 with the coordinate L1 on the plane area R1 of the space model MD, and inputs the image 2 R4 of the camera 2. The upper coordinate K2 is associated with the coordinate L2 on the curved surface region R2 of the space model MD. At this time, both the line segment K1-L1 and the line segment K2-L2 pass through the optical center C of the camera 2.

なお、カメラ2が通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、座標対応付け手段10は、それぞれの射影方式に応じて、カメラ2の入力画像平面R4上の座標K1、K2を空間モデルMD上の座標L1、L2に対応付けるようにする。   In addition, when the camera 2 employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the coordinate association unit 10 uses each projection method. Accordingly, the coordinates K1 and K2 on the input image plane R4 of the camera 2 are associated with the coordinates L1 and L2 on the space model MD.

具体的には、座標対応付け手段10は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、入力画像平面上の座標と空間モデルMD上の座標とを対応付ける。この場合、線分K1−L1及び線分K2−L2がカメラ2の光学中心Cを通過することはない。   Specifically, the coordinate association unit 10 is configured to use a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), or equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the input image plane are associated with the coordinates on the space model MD. In this case, the line segment K1-L1 and the line segment K2-L2 do not pass through the optical center C of the camera 2.

図6(B)は、空間モデルMDの曲面領域R2上の座標と処理対象画像平面R3上の座標との間の対応関係を示す図であり、座標対応付け手段10は、XZ平面上に位置する平行線群PLであって、処理対象画像平面R3との間で角度βを形成する平行線群PLを導入し、空間モデルMDの曲面領域R2上の座標とその座標に対応する処理対象画像平面R3上の座標とが共に平行線群PLのうちの一つに乗るようにして、両座標を対応付ける。   FIG. 6B is a diagram showing a correspondence relationship between coordinates on the curved surface region R2 of the space model MD and coordinates on the processing target image plane R3, and the coordinate association unit 10 is positioned on the XZ plane. The parallel line group PL that forms an angle β with the processing target image plane R3 is introduced, and the coordinates on the curved surface region R2 of the spatial model MD and the processing target image corresponding to the coordinates are introduced. The coordinates on the plane R3 are associated with each other such that the coordinates are on one of the parallel line groups PL.

図6(B)の例では、座標対応付け手段10は、空間モデルMDの曲面領域R2上の座標L2と処理対象画像平面R3上の座標M2とが共通の平行線に乗るとして、両座標を対応付けるようにする。   In the example of FIG. 6B, the coordinate matching means 10 assumes that the coordinate L2 on the curved surface region R2 of the space model MD and the coordinate M2 on the processing target image plane R3 are on a common parallel line, and both coordinates are obtained. Make it correspond.

なお、座標対応付け手段10は、空間モデルMDの平面領域R1上の座標を曲面領域R2上の座標と同様に平行線群PLを用いて処理対象画像平面R3上の座標に対応付けることが可能であるが、図6(B)の例では、平面領域R1と処理対象画像平面R3とが共通の平面となっているので、空間モデルMDの平面領域R1上の座標L1と処理対象画像平面R3上の座標M1とは同じ座標値を有するものとなっている。   The coordinate association means 10 can associate the coordinates on the plane area R1 of the spatial model MD with the coordinates on the processing target image plane R3 using the parallel line group PL in the same manner as the coordinates on the curved surface area R2. However, in the example of FIG. 6B, since the plane area R1 and the processing target image plane R3 are a common plane, the coordinates L1 on the plane area R1 of the spatial model MD and the processing target image plane R3 The coordinate M1 has the same coordinate value.

このようにして、座標対応付け手段10は、空間モデルMD上の座標と、処理対象画像平面R3上の座標とを対応付け、空間モデルMD上の座標及び処理対象画像平面R3上の座標を関連付けて空間モデル・処理対象画像対応マップ41に記憶する。   In this way, the coordinate association unit 10 associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3, and associates the coordinates on the spatial model MD with the coordinates on the processing target image plane R3. And stored in the space model / processing object image correspondence map 41.

図6(C)は、処理対象画像平面R3上の座標と一例として通常射影(h=ftanα)を採用する仮想カメラ2Vの出力画像平面R5上の座標との間の対応関係を示す図であり、出力画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標とその座標に対応する処理対象画像平面R3上の座標とを結ぶ線分のそれぞれが仮想カメラ2Vの光学中心CVを通過するようにして、両座標を対応付ける。   FIG. 6C is a diagram illustrating a correspondence relationship between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 of the virtual camera 2V that adopts the normal projection (h = ftanα) as an example. The output image generation means 11 passes through the optical center CV of the virtual camera 2V each of the line segments connecting the coordinates on the output image plane R5 of the virtual camera 2V and the coordinates on the processing target image plane R3 corresponding to the coordinates. In this way, the two coordinates are associated with each other.

図6(C)の例では、出力画像生成手段11は、仮想カメラ2Vの出力画像平面R5上の座標N1を処理対象画像平面R3(空間モデルMDの平面領域R1)上の座標M1に対応付け、仮想カメラ2Vの出力画像平面R5上の座標N2を処理対象画像平面R3上の座標M2に対応付ける。このとき、線分M1−N1及び線分M2−N2は共に仮想カメラ2Vの光学中心CVを通過する。   In the example of FIG. 6C, the output image generation unit 11 associates the coordinates N1 on the output image plane R5 of the virtual camera 2V with the coordinates M1 on the processing target image plane R3 (plane area R1 of the space model MD). The coordinate N2 on the output image plane R5 of the virtual camera 2V is associated with the coordinate M2 on the processing target image plane R3. At this time, both the line segment M1-N1 and the line segment M2-N2 pass through the optical center CV of the virtual camera 2V.

なお、仮想カメラ2Vが通常射影以外の射影方式(例えば、正射影、立体射影、等立体角射影、等距離射影等である。)を採用する場合、出力画像生成手段11は、それぞれの射影方式に応じて、仮想カメラ2Vの出力画像平面R5上の座標N1、N2を処理対象画像平面R3上の座標M1、M2に対応付けるようにする。   Note that when the virtual camera 2V employs a projection method other than normal projection (for example, orthographic projection, stereoscopic projection, equisolid angle projection, equidistant projection, etc.), the output image generation unit 11 uses each projection method. Accordingly, the coordinates N1 and N2 on the output image plane R5 of the virtual camera 2V are associated with the coordinates M1 and M2 on the processing target image plane R3.

具体的には、出力画像生成手段11は、所定の関数(例えば、正射影(h=fsinα)、立体射影(h=2ftan(α/2))、等立体角射影(h=2fsin(α/2))、等距離射影(h=fα)等である。)に基づいて、出力画像平面R5上の座標と処理対象画像平面R3上の座標とを対応付ける。この場合、線分M1−N1及び線分M2−N2が仮想カメラ2Vの光学中心CVを通過することはない。   Specifically, the output image generation means 11 is a predetermined function (for example, orthographic projection (h = fsin α), stereoscopic projection (h = 2 ftan (α / 2)), equal solid angle projection (h = 2 fsin (α / 2)), equidistant projection (h = fα), etc.), the coordinates on the output image plane R5 and the coordinates on the processing target image plane R3 are associated with each other. In this case, the line segment M1-N1 and the line segment M2-N2 do not pass through the optical center CV of the virtual camera 2V.

このようにして、出力画像生成手段11は、出力画像平面R5上の座標と、処理対象画像平面R3上の座標とを対応付け、出力画像平面R5上の座標及び処理対象画像平面R3上の座標を関連付けて処理対象画像・出力画像対応マップ42に記憶し、座標対応付け手段10が記憶した入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41を参照しながら、出力画像における各画素の値と入力画像における各画素の値とを関連付けて出力画像を生成する。   In this way, the output image generation unit 11 associates the coordinates on the output image plane R5 with the coordinates on the processing target image plane R3, and coordinates on the output image plane R5 and the coordinates on the processing target image plane R3. Are stored in the processing target image / output image correspondence map 42 and the input image / spatial model correspondence map 40 and the spatial model / processing target image correspondence map 41 stored by the coordinate matching means 10 are referred to in the output image. An output image is generated by associating the value of each pixel with the value of each pixel in the input image.

なお、図6(D)は、図6(A)〜図6(C)を組み合わせた図であり、カメラ2、仮想カメラ2V、空間モデルMDの平面領域R1及び曲面領域R2、並びに、処理対象画像平面R3の相互の位置関係を示す。   FIG. 6D is a combination of FIGS. 6A to 6C. The camera 2, the virtual camera 2V, the plane area R1 and the curved area R2 of the space model MD, and the processing target. The mutual positional relationship of image plane R3 is shown.

次に、図7を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの作用について説明する。   Next, the operation of the parallel line group PL introduced by the coordinate association unit 10 to associate the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described with reference to FIG.

図7(A)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度βが形成される場合の図であり、図7(B)は、XZ平面上に位置する平行線群PLと処理対象画像平面R3との間で角度β1(β1>β)が形成される場合の図である。また、図7(A)及び図7(B)における空間モデルMDの曲面領域R2上の座標La〜Ldのそれぞれは、処理対象画像平面R3上の座標Ma〜Mdのそれぞれに対応するものとし、図7(A)における座標La〜Ldのそれぞれの間隔は、図7(B)における座標La〜Ldのそれぞれの間隔と等しいものとする。なお、平行線群PLは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の全ての点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、この場合のZ軸を「再投影軸」と称することとする。   FIG. 7A is a diagram in the case where the angle β is formed between the parallel line group PL positioned on the XZ plane and the processing target image plane R3, and FIG. 7B is the diagram on the XZ plane. It is a figure in case angle (beta) 1 ((beta) 1> (beta)) is formed between the parallel line group PL and the process target image plane R3. Also, each of the coordinates La to Ld on the curved surface region R2 of the spatial model MD in FIGS. 7A and 7B corresponds to the coordinates Ma to Md on the processing target image plane R3, respectively. Assume that the intervals between the coordinates La to Ld in FIG. 7A are equal to the intervals between the coordinates La to Ld in FIG. The parallel line group PL is assumed to exist on the XZ plane for the purpose of explanation, but actually exists so as to extend radially from all points on the Z axis toward the processing target image plane R3. It shall be. In this case, the Z axis is referred to as a “reprojection axis”.

図7(A)及び図7(B)で示されるように、処理対象画像平面R3上の座標Ma〜Mdのそれぞれの間隔は、平行線群PLと処理対象画像平面R3との間の角度が増大するにつれて線形的に減少する(空間モデルMDの曲面領域R2と座標Ma〜Mdのそれぞれとの間の距離とは関係なく一様に減少する。)。一方で、空間モデルMDの平面領域R1上の座標群は、図7の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。   As shown in FIGS. 7A and 7B, the distance between the coordinates Ma to Md on the processing target image plane R3 is such that the angle between the parallel line group PL and the processing target image plane R3 is the same. As it increases, it decreases linearly (it decreases uniformly regardless of the distance between the curved surface region R2 of the spatial model MD and each of the coordinates Ma to Md). On the other hand, since the coordinate group on the plane region R1 of the space model MD is not converted into the coordinate group on the processing target image plane R3 in the example of FIG. 7, the interval between the coordinate groups does not change. .

これら座標群の間隔の変化は、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが線形的に拡大或いは縮小されることを意味する。   The change in the interval between these coordinate groups is such that only the image portion corresponding to the image projected on the curved surface region R2 of the spatial model MD is linearly enlarged or out of the image portion on the output image plane R5 (see FIG. 6). It means to be reduced.

次に、図8を参照しながら、空間モデルMD上の座標と処理対象画像平面R3上の座標とを対応付けるために座標対応付け手段10が導入する平行線群PLの代替例について説明する。   Next, an alternative example of the parallel line group PL introduced by the coordinate association unit 10 to associate the coordinates on the space model MD with the coordinates on the processing target image plane R3 will be described with reference to FIG.

図8(A)は、XZ平面上に位置する補助線群ALの全てがZ軸上の始点T1から処理対象画像平面R3に向かって延びる場合の図であり、図8(B)は、補助線群ALの全てがZ軸上の始点T2(T2>T1)から処理対象画像平面R3に向かって延びる場合の図である。また、図8(A)及び図8(B)における空間モデルMDの曲面領域R2上の座標La〜Ldのそれぞれは、処理対象画像平面R3上の座標Ma〜Mdのそれぞれに対応するものとし(図8(A)の例では、座標Mc、Mdは、処理対象画像平面R3の領域外となるため図示されていない。)、図8(A)における座標La〜Ldのそれぞれの間隔は、図8(B)における座標La〜Ldのそれぞれの間隔と等しいものとする。なお、補助線群ALは、説明目的のためにXZ平面上に存在するものとしているが、実際には、Z軸上の任意の一点から処理対象画像平面R3に向かって放射状に延びるように存在するものとする。なお、図7と同様、この場合のZ軸を「再投影軸」と称することとする。   FIG. 8A is a diagram in the case where all of the auxiliary line groups AL located on the XZ plane extend from the start point T1 on the Z axis toward the processing target image plane R3, and FIG. It is a figure in case all the line groups AL extend toward the process target image plane R3 from the starting point T2 (T2> T1) on the Z axis. 8A and 8B, the coordinates La to Ld on the curved surface region R2 of the spatial model MD correspond to the coordinates Ma to Md on the processing target image plane R3 ( In the example of FIG. 8A, the coordinates Mc and Md are not shown because they are outside the region of the processing target image plane R3.) The intervals between the coordinates La to Ld in FIG. It is assumed that the interval between the coordinates La to Ld in 8 (B) is equal. The auxiliary line group AL is assumed to exist on the XZ plane for the purpose of explanation, but actually exists so as to extend radially from an arbitrary point on the Z axis toward the processing target image plane R3. It shall be. As in FIG. 7, the Z axis in this case is referred to as a “reprojection axis”.

図8(A)及び図8(B)で示されるように、処理対象画像平面R3上の座標Ma〜Mdのそれぞれの間隔は、補助線群ALの始点と原点Oとの間の距離(高さ)が増大するにつれて非線形的に減少する(空間モデルMDの曲面領域R2と座標Ma〜Mdのそれぞれとの間の距離が大きいほど、それぞれの間隔の減少幅が大きくなる。)。一方で、空間モデルMDの平面領域R1上の座標群は、図8の例では、処理対象画像平面R3上の座標群への変換が行われないので、座標群の間隔が変化することはない。   As shown in FIGS. 8A and 8B, the distance between the coordinates Ma to Md on the processing target image plane R3 is the distance (high) between the starting point of the auxiliary line group AL and the origin O. As the distance between the curved surface region R2 of the space model MD and each of the coordinates Ma to Md is larger, the width of reduction of each interval is larger. On the other hand, since the coordinate group on the plane region R1 of the spatial model MD is not converted into the coordinate group on the processing target image plane R3 in the example of FIG. 8, the interval between the coordinate groups does not change. .

これら座標群の間隔の変化は、平行線群PLのときと同様、出力画像平面R5(図6参照。)上の画像部分のうち、空間モデルMDの曲面領域R2に投影された画像に対応する画像部分のみが非線形的に拡大或いは縮小されることを意味する。   The change in the interval between these coordinate groups corresponds to the image projected on the curved surface region R2 of the spatial model MD in the image portion on the output image plane R5 (see FIG. 6), as in the case of the parallel line group PL. It means that only the image portion is enlarged or reduced nonlinearly.

このようにして、画像生成装置100は、空間モデルMDの平面領域R1に投影された画像に対応する出力画像の画像部分(例えば、路面画像である。)に影響を与えることなく、空間モデルMDの曲面領域R2に投影された画像に対応する出力画像の画像部分(例えば、水平画像である。)を線形的に或いは非線形的に拡大或いは縮小させることができるので、ショベル60の近傍の路面画像(ショベル60を真上から見たときの仮想画像)に影響を与えることなく、ショベル60の周囲に位置する物体(ショベル60から水平方向に周囲を見たときの画像における物体)を迅速且つ柔軟に拡大或いは縮小させることができ、ショベル60の死角領域の視認性を向上させることができる。   In this way, the image generation device 100 does not affect the image portion (for example, a road surface image) of the output image corresponding to the image projected on the plane region R1 of the space model MD, and does not affect the space model MD. Since the image portion (for example, a horizontal image) of the output image corresponding to the image projected on the curved surface area R2 can be linearly or nonlinearly enlarged or reduced, the road surface image in the vicinity of the excavator 60 Without affecting the excavator 60 (virtual image when viewed from directly above), an object located in the periphery of the excavator 60 (an object in the image when viewed in the horizontal direction from the excavator 60) can be quickly and flexibly The visibility of the blind spot area of the excavator 60 can be improved.

次に、図9を参照しながら、画像生成装置100が処理対象画像を生成する処理(以下、「処理対象画像生成処理」とする。)、及び、生成した処理対象画像を用いて出力画像を生成する処理(以下、「出力画像生成処理」とする。)について説明する。なお、図9は、処理対象画像生成処理(ステップS1〜ステップS3)及び出力画像生成処理(ステップS4〜ステップS6)の流れを示すフローチャートである。また、カメラ2(入力画像平面R4)、空間モデル(平面領域R1及び曲面領域R2)、並びに、処理対象画像平面R3の配置は予め決定されているものとする。   Next, referring to FIG. 9, the image generation apparatus 100 generates a processing target image (hereinafter referred to as “processing target image generation processing”), and an output image using the generated processing target image. Processing to be generated (hereinafter referred to as “output image generation processing”) will be described. FIG. 9 is a flowchart showing the flow of the processing target image generation process (steps S1 to S3) and the output image generation process (steps S4 to S6). Further, it is assumed that the arrangement of the camera 2 (input image plane R4), the space model (plane area R1 and curved surface area R2), and the processing target image plane R3 is determined in advance.

最初に、制御部1は、座標対応付け手段10により、処理対象画像平面R3上の座標と空間モデルMD上の座標とを対応付ける(ステップS1)。   First, the control unit 1 associates the coordinates on the processing target image plane R3 with the coordinates on the space model MD using the coordinate association unit 10 (step S1).

具体的には、座標対応付け手段10は、平行線群PLと処理対象画像平面R3との間に形成される角度を取得し、処理対象画像平面R3上の一座標から延びる平行線群PLの一つが空間モデルMDの曲面領域R2と交差する点を算出し、算出した点に対応する曲面領域R2上の座標を、処理対象画像平面R3上のその一座標に対応する曲面領域R2上の一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。なお、平行線群PLと処理対象画像平面R3との間に形成される角度は、記憶部4等に予め記憶された値であってもよく、入力部3を介して操作者が動的に入力する値であってもよい。   Specifically, the coordinate association unit 10 obtains an angle formed between the parallel line group PL and the processing target image plane R3, and the parallel line group PL extending from one coordinate on the processing target image plane R3. One point that intersects the curved surface region R2 of the space model MD is calculated, and a coordinate on the curved surface region R2 corresponding to the calculated point is set to one on the curved surface region R2 corresponding to the one coordinate on the processing target image plane R3. The coordinates are derived as coordinates, and the corresponding relationship is stored in the space model / processing object image correspondence map 41. It should be noted that the angle formed between the parallel line group PL and the processing target image plane R3 may be a value stored in advance in the storage unit 4 or the like. It may be a value to be entered.

また、座標対応付け手段10は、処理対象画像平面R3上の一座標が空間モデルMDの平面領域R1上の一座標と一致する場合には、平面領域R1上のその一座標を、処理対象画像平面R3上のその一座標に対応する一座標として導き出し、その対応関係を空間モデル・処理対象画像対応マップ41に記憶する。   In addition, when one coordinate on the processing target image plane R3 matches one coordinate on the plane area R1 of the space model MD, the coordinate association unit 10 uses the one coordinate on the plane area R1 as the processing target image. It is derived as one coordinate corresponding to the one coordinate on the plane R3, and the correspondence is stored in the space model / processing object image correspondence map 41.

その後、制御部1は、座標対応付け手段10により、上述の処理によって導き出された空間モデルMD上の一座標と入力画像平面R4上の座標とを対応付ける(ステップS2)。   Thereafter, the control unit 1 causes the coordinate association unit 10 to associate one coordinate on the spatial model MD derived by the above-described processing with a coordinate on the input image plane R4 (step S2).

具体的には、座標対応付け手段10は、通常射影(h=ftanα)を採用するカメラ2の光学中心Cの座標を取得し、空間モデルMD上の一座標から延びる線分であり、光学中心Cを通過する線分が入力画像平面R4と交差する点を算出し、算出した点に対応する入力画像平面R4上の座標を、空間モデルMD上のその一座標に対応する入力画像平面R4上の一座標として導き出し、その対応関係を入力画像・空間モデル対応マップ40に記憶する。   Specifically, the coordinate association unit 10 acquires the coordinates of the optical center C of the camera 2 that employs normal projection (h = ftanα), is a line segment extending from one coordinate on the space model MD, and the optical center A point where the line segment passing through C intersects the input image plane R4 is calculated, and the coordinates on the input image plane R4 corresponding to the calculated point are set on the input image plane R4 corresponding to the one coordinate on the space model MD. And the corresponding relationship is stored in the input image / space model correspondence map 40.

その後、制御部1は、処理対象画像平面R3上の全ての座標を空間モデルMD上の座標及び入力画像平面R4上の座標に対応付けたか否かを判定し(ステップS3)、未だ全ての座標を対応付けていないと判定した場合には(ステップS3のNO)、ステップS1及びステップS2の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinates on the processing target image plane R3 are associated with the coordinates on the space model MD and the coordinates on the input image plane R4 (step S3), and all the coordinates are still set. Are determined to be not associated (NO in step S3), the processes in steps S1 and S2 are repeated.

一方、制御部1は、全ての座標を対応付けたと判定した場合には(ステップS3のYES)、処理対象画像生成処理を終了させた上で出力画像生成処理を開始させ、出力画像生成手段11により、処理対象画像平面R3上の座標と出力画像平面R5上の座標とを対応付ける(ステップS4)。   On the other hand, when it is determined that all the coordinates are associated (YES in step S3), the control unit 1 ends the processing target image generation process, starts the output image generation process, and outputs the output image generation unit 11. Thus, the coordinates on the processing target image plane R3 are associated with the coordinates on the output image plane R5 (step S4).

具体的には、出力画像生成手段11は、処理対象画像にスケール変換、アフィン変換、又は歪曲変換を施すことによって出力画像を生成し、施したスケール変換、アフィン変換、又は歪曲変換の内容によって定まる、処理対象画像平面R3上の座標と出力画像平面R5上の座標との間の対応関係を処理対象画像・出力画像対応マップ42に記憶する。   Specifically, the output image generation unit 11 generates an output image by performing scale conversion, affine conversion, or distortion conversion on the processing target image, and is determined by the content of the applied scale conversion, affine conversion, or distortion conversion. The correspondence relationship between the coordinates on the processing target image plane R3 and the coordinates on the output image plane R5 is stored in the processing target image / output image correspondence map 42.

或いは、出力画像生成手段11は、仮想カメラ2Vを用いて出力画像を生成する場合には、採用した射影方式に応じて処理対象画像平面R3上の座標から出力画像平面R5上の座標を算出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。   Alternatively, when generating the output image using the virtual camera 2V, the output image generation unit 11 calculates the coordinates on the output image plane R5 from the coordinates on the processing target image plane R3 according to the adopted projection method. The correspondence relationship may be stored in the processing target image / output image correspondence map 42.

或いは、出力画像生成手段11は、通常射影(h=ftanα)を採用する仮想カメラ2Vを用いて出力画像を生成する場合には、その仮想カメラ2Vの光学中心CVの座標を取得した上で、出力画像平面R5上の一座標から延びる線分であり、光学中心CVを通過する線分が処理対象画像平面R3と交差する点を算出し、算出した点に対応する処理対象画像平面R3上の座標を、出力画像平面R5上のその一座標に対応する処理対象画像平面R3上の一座標として導き出し、その対応関係を処理対象画像・出力画像対応マップ42に記憶するようにしてもよい。   Alternatively, when generating an output image using the virtual camera 2V that employs normal projection (h = ftanα), the output image generation unit 11 acquires the coordinates of the optical center CV of the virtual camera 2V, A line segment extending from one coordinate on the output image plane R5 and calculating a point where a line segment passing through the optical center CV intersects the processing target image plane R3, and on the processing target image plane R3 corresponding to the calculated point. The coordinates may be derived as one coordinate on the processing target image plane R3 corresponding to the one coordinate on the output image plane R5, and the correspondence relationship may be stored in the processing target image / output image correspondence map 42.

その後、制御部1は、出力画像生成手段11により、入力画像・空間モデル対応マップ40、空間モデル・処理対象画像対応マップ41、及び処理対象画像・出力画像対応マップ42を参照しながら入力画像平面R4上の座標と空間モデルMD上の座標との対応関係、空間モデルMD上の座標と処理対象画像平面R3上の座標との対応関係、及び処理対象画像平面R3上の座標と出力画像平面R5上の座標との対応関係を辿り、出力画像平面R5上の各座標に対応する入力画像平面R4上の座標が有する値(例えば、輝度値、色相値、彩度値等である。)を取得し、その取得した値を、対応する出力画像平面R5上の各座標の値として採用する(ステップS5)。なお、出力画像平面R5上の一座標に対して複数の入力画像平面R4上の複数の座標が対応する場合、出力画像生成手段11は、それら複数の入力画像平面R4上の複数の座標のそれぞれの値に基づく統計値(例えば、平均値、最大値、最小値、中間値等である。)を導き出し、出力画像平面R5上のその一座標の値としてその統計値を採用するようにしてもよい。   After that, the control unit 1 uses the output image generation unit 11 to refer to the input image / space model correspondence map 40, the space model / processing target image correspondence map 41, and the processing target image / output image correspondence map 42. Correspondence between coordinates on R4 and coordinates on space model MD, correspondence between coordinates on space model MD and coordinates on processing target image plane R3, and coordinates on processing target image plane R3 and output image plane R5 The correspondence with the upper coordinates is traced, and values (for example, luminance values, hue values, saturation values, etc.) possessed by the coordinates on the input image plane R4 corresponding to the respective coordinates on the output image plane R5 are acquired. Then, the acquired value is adopted as the value of each coordinate on the corresponding output image plane R5 (step S5). When a plurality of coordinates on the plurality of input image planes R4 correspond to one coordinate on the output image plane R5, the output image generation unit 11 respectively outputs the plurality of coordinates on the plurality of input image planes R4. A statistical value (for example, an average value, a maximum value, a minimum value, an intermediate value, or the like) based on the value of L is derived, and the statistical value is adopted as the value of the one coordinate on the output image plane R5. Good.

その後、制御部1は、出力画像平面R5上の全ての座標の値を入力画像平面R4上の座標の値に対応付けたか否かを判定し(ステップS6)、未だ全ての座標の値を対応付けていないと判定した場合には(ステップS6のNO)、ステップS4及びステップS5の処理を繰り返すようにする。   Thereafter, the control unit 1 determines whether or not all the coordinate values on the output image plane R5 are associated with the coordinate values on the input image plane R4 (step S6), and all the coordinate values are still associated. If it is determined that it is not attached (NO in step S6), the processes in steps S4 and S5 are repeated.

一方、制御部1は、全ての座標の値を対応付けたと判定した場合には(ステップS6のYES)、出力画像を生成して、この一連の処理を終了させる。   On the other hand, if the control unit 1 determines that all coordinate values are associated (YES in step S6), the control unit 1 generates an output image and ends the series of processes.

なお、画像生成装置100は、処理対象画像を生成しない場合には、処理対象画像生成処理を省略し、出力画像生成処理におけるステップS4の"処理対象画像平面上の座標"を"空間モデル上の座標"で読み替えるものとする。   Note that, when the processing target image is not generated, the image generation apparatus 100 omits the processing target image generation processing, and sets “coordinates on the processing target image plane” in step S4 in the output image generation processing to “on the spatial model”. It shall be read as "coordinates".

以上の構成により、画像生成装置100は、建設機械と周辺障害物との位置関係を操作者に直感的に把握させることが可能な処理対象画像及び出力画像を生成することができる。   With the above configuration, the image generation apparatus 100 can generate a processing target image and an output image that allow the operator to intuitively grasp the positional relationship between the construction machine and the surrounding obstacle.

また、画像生成装置100は、処理対象画像平面R3から空間モデルMDを経て入力画像平面R4に遡るように座標の対応付けを実行することにより、処理対象画像平面R3上の各座標を入力画像平面R4上の一又は複数の座標に確実に対応させることができ、入力画像平面R4から空間モデルMDを経て処理対象画像平面R3に至る順番で座標の対応付けを実行する場合と比べ(この場合には、入力画像平面R4上の各座標を処理対象画像平面R3上の一又は複数の座標に確実に対応させることができるが、処理対象画像平面R3上の座標の一部が、入力画像平面R4上の何れの座標にも対応付けられない場合があり、その場合にはそれら処理対象画像平面R3上の座標の一部に補間処理等を施す必要がある。)、より良質な処理対象画像を迅速に生成することができる。   Further, the image generation apparatus 100 associates coordinates on the processing target image plane R3 from the processing target image plane R3 to the input image plane R4 through the spatial model MD, thereby obtaining the coordinates on the processing target image plane R3. One or more coordinates on R4 can be reliably associated, and compared with a case where coordinates are associated in the order from the input image plane R4 to the processing target image plane R3 via the spatial model MD (in this case) Can reliably correspond each coordinate on the input image plane R4 to one or a plurality of coordinates on the processing target image plane R3. However, a part of the coordinates on the processing target image plane R3 is part of the input image plane R4. In some cases, the coordinates may not be associated with any of the above coordinates, and in such a case, it is necessary to perform interpolation processing or the like on a part of the coordinates on the processing target image plane R3). It is possible to rapidly generate.

また、画像生成装置100は、空間モデルMDの曲面領域R2に対応する画像のみを拡大或いは縮小する場合には、平行線群PLと処理対象画像平面R3との間に形成される角度を変更して空間モデル・処理対象画像対応マップ41における曲面領域R2に関連する部分のみを書き換えるだけで、入力画像・空間モデル対応マップ40の内容を書き換えることなく、所望の拡大或いは縮小を実現させることができる。   Further, when enlarging or reducing only the image corresponding to the curved surface region R2 of the space model MD, the image generating apparatus 100 changes the angle formed between the parallel line group PL and the processing target image plane R3. Thus, it is possible to realize a desired enlargement or reduction without rewriting the contents of the input image / space model correspondence map 40 only by rewriting only the portion related to the curved surface region R2 in the space model / processing object image correspondence map 41. .

また、画像生成装置100は、出力画像の見え方を変更する場合には、スケール変換、アフィン変換又は歪曲変換に関する各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の出力画像(スケール変換画像、アフィン変換画像又は歪曲変換画像)を生成することができる。   Further, when changing the appearance of the output image, the image generating apparatus 100 simply rewrites the processing target image / output image correspondence map 42 by changing the values of various parameters relating to scale conversion, affine transformation, or distortion transformation. The desired output image (scale-converted image, affine-transformed image, or distortion-converted image) can be generated without rewriting the contents of the input image / space model correspondence map 40 and the space model / processing object image correspondence map 41.

同様に、画像生成装置100は、出力画像の視点を変更する場合には、仮想カメラ2Vの各種パラメータの値を変更して処理対象画像・出力画像対応マップ42を書き換えるだけで、入力画像・空間モデル対応マップ40及び空間モデル・処理対象画像対応マップ41の内容を書き換えることなく、所望の視点から見た出力画像(視点変換画像)を生成することができる。   Similarly, when changing the viewpoint of the output image, the image generating apparatus 100 simply changes the values of various parameters of the virtual camera 2V and rewrites the processing target image / output image correspondence map 42 to change the input image / space. An output image (viewpoint conversion image) viewed from a desired viewpoint can be generated without rewriting the contents of the model correspondence map 40 and the space model / processing object image correspondence map 41.

図10は、ショベル60に搭載された二台のカメラ2(右側方カメラ2R及び後方カメラ2B)の入力画像を用いて生成される出力画像を表示部5に表示させたときの表示例である。   FIG. 10 is a display example when an output image generated using input images of two cameras 2 (the right side camera 2R and the rear camera 2B) mounted on the excavator 60 is displayed on the display unit 5. .

画像生成装置100は、それら二台のカメラ2のそれぞれの入力画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成し、その生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成して、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周辺を見た画像(処理対象画像平面R3における画像)とを同時に表示している。   The image generation apparatus 100 projects the input images of the two cameras 2 onto the plane region R1 and the curved surface region R2 of the space model MD, and then reprojects them onto the processing target image plane R3 to generate a processing target image. Then, an image conversion process (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion process, etc.) is performed on the generated processing target image to generate an output image, and the vicinity of the excavator 60 can be seen from above. An image looking down (image in the plane region R1) and an image of the periphery viewed from the excavator 60 in the horizontal direction (image in the processing target image plane R3) are displayed at the same time.

なお、出力画像は、画像生成装置100が処理対象画像を生成しない場合には、空間モデルMDに投影された画像に画像変換処理(例えば、視点変換処理である。)を施すことによって生成されるものとする。   When the image generation apparatus 100 does not generate the processing target image, the output image is generated by performing image conversion processing (for example, viewpoint conversion processing) on the image projected on the space model MD. Shall.

また、出力画像は、ショベル60が旋回動作を行う際の画像を違和感なく表示できるよう、円形にトリミングされ、その円の中心CTRが空間モデルMDの円筒中心軸上で、且つ、ショベル60の旋回軸PV上となるように生成されており、ショベル60の旋回動作に応じてその中心CTRを軸に回転するように表示される。この場合、空間モデルMDの円筒中心軸は、再投影軸と一致するものであってもよく、一致しないものであってもよい。   The output image is trimmed in a circle so that the image when the excavator 60 performs the turning motion can be displayed without a sense of incongruity, and the center CTR of the circle is on the cylindrical central axis of the space model MD and the excavator 60 is turned. It is generated so as to be on the axis PV, and is displayed so as to rotate about its center CTR in accordance with the turning operation of the excavator 60. In this case, the cylindrical central axis of the space model MD may or may not coincide with the reprojection axis.

なお、空間モデルMDの半径は、例えば、5メートルであり、平行線群PLが処理対象画像平面R3との間で形成する角度、又は、補助線群ALの始点高さは、ショベル60の旋回中心から掘削アタッチメントEの最大到達距離(例えば12メートルである。)だけ離れた位置に物体(例えば、作業員である。)が存在する場合にその物体が表示部5で十分大きく(例えば、7ミリメートル以上である。)表示されるように、設定され得る。   The radius of the space model MD is, for example, 5 meters, and the angle formed between the parallel line group PL and the processing target image plane R3 or the starting point height of the auxiliary line group AL is the turning of the shovel 60. When an object (for example, a worker) exists at a position away from the center by a maximum reachable distance (for example, 12 meters) of the excavation attachment E, the object is sufficiently large (for example, 7) It can be set to be displayed.

更に、出力画像は、ショベル60のCG画像を、ショベル60の前方が表示部5の画面上方と一致し、且つ、その旋回中心が中心CTRと一致するように配置するようにしてもよい。ショベル60と出力画像に現れる物体との間の位置関係をより分かり易くするためである。なお、出力画像は、方位等の各種情報を含む額縁画像をその周囲に配置するようにしてもよい。   Further, the output image may be a CG image of the excavator 60 arranged so that the front of the excavator 60 coincides with the upper part of the screen of the display unit 5 and the turning center thereof coincides with the center CTR. This is to make the positional relationship between the shovel 60 and the object appearing in the output image easier to understand. Note that a frame image including various kinds of information such as an orientation may be arranged around the output image.

次に、図11〜図16を参照しながら、画像生成装置100が入力画像間の明るさ(輝度)の差を際立たせないようにする処理について説明する。   Next, with reference to FIGS. 11 to 16, processing for preventing the image generation apparatus 100 from highlighting the difference in brightness (luminance) between input images will be described.

図11は、ショベル60に搭載された三台のカメラ2(左側方カメラ2L、右側方カメラ2R、及び後方カメラ2B)のそれぞれの入力画像と、それら入力画像を用いて生成される出力画像とを示す図である。   FIG. 11 shows input images of the three cameras 2 (left side camera 2L, right side camera 2R, and rear camera 2B) mounted on the excavator 60, and output images generated using these input images. FIG.

画像生成装置100は、それら三台のカメラ2のそれぞれの入力画像を空間モデルMDの平面領域R1及び曲面領域R2上に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成し、その生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成して、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周辺を見た画像(処理対象画像平面R3における画像)とを同時に表示している。   The image generation apparatus 100 projects the input images of the three cameras 2 onto the plane area R1 and the curved surface area R2 of the space model MD and then reprojects them onto the process target image plane R3 to generate a process target image. Then, an image conversion process (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion process, etc.) is performed on the generated processing target image to generate an output image, and the vicinity of the excavator 60 can be seen from above. An image looking down (image in the plane region R1) and an image of the periphery viewed from the excavator 60 in the horizontal direction (image in the processing target image plane R3) are displayed at the same time.

図11において、左側方カメラ2Lの入力画像及び後方カメラ2Bの入力画像はそれぞれ、ショベル60の周囲における同じ場所を異なる角度から撮像した重複部分を含むが、それら重複部分はそれぞれ、各カメラに関する照明環境等の違いにより異なる明るさで撮像されており、その輝度が異なるものとなっている。右側方カメラ2Rの入力画像と後方カメラ2Bの入力画像との間の重複部分についても同様である。   In FIG. 11, the input image of the left camera 2L and the input image of the rear camera 2B each include overlapping portions obtained by imaging the same place around the excavator 60 from different angles, and these overlapping portions are respectively illuminations for the respective cameras. Images are taken with different brightness depending on the environment or the like, and the brightness is different. The same applies to the overlapping portion between the input image of the right camera 2R and the input image of the rear camera 2B.

そのため、それら三つの入力画像に基づいて生成される出力画像は、その出力画像平面上の座標が複数の入力画像平面上の座標に対応付け可能な場合に、その出力画像平面上の座標が入射角の最も小さいカメラに関する入力画像平面上の座標に対応付けられるものとすると、同じ場所を撮像しているにもかかわらず、左側方カメラ2Lの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域との間の境界(図の一点鎖線で囲まれる領域R6参照。)、及び、右側方カメラ2Rの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域との間の境界(図の一点鎖線で囲まれる領域R7参照。)のところでその輝度が急激に変化することとなり、その出力画像を見た運転者に不自然さを感じさせてしまうこととなる。   Therefore, the output image generated based on these three input images has the coordinates on the output image plane incident when the coordinates on the output image plane can be associated with the coordinates on the plurality of input image planes. Assuming that the camera is associated with the coordinates on the input image plane regarding the camera with the smallest corner, the area on the output image based on the input image of the left camera 2L and the rear camera 2B, even though the same place is captured The boundary between the region on the output image based on the input image (see the region R6 surrounded by the one-dot chain line in the figure) and the region on the output image based on the input image of the right side camera 2R and the rear camera 2B The brightness changes abruptly at the boundary with the region on the output image based on the input image (see the region R7 surrounded by the one-dot chain line in the figure), and the driver who viewed the output image So that the would feel unnatural.

そこで、画像生成装置100は、チェッカーシャドー錯視(同色錯視)による効果を利用して、入力画像間の輝度の差を際立たせないようにする。   Therefore, the image generation apparatus 100 uses the effect of the checker shadow illusion (same color illusion) so as not to make a difference in luminance between input images conspicuous.

図12は、同色錯視を説明するための図(Edward H. Adelson、"Checker shadow illusion"、1995年、インターネット<URL: http://web.mit.edu/persci/people/adelson/checkershadow_illusion.html>)であり、図12(A)は、同色錯視をもたらすために利用されるチェッカーパタン(格子模様)を示し、図12(B)は、チェッカーパタン(格子模様)上の点P1〜点P3及び点P4〜点P6における輝度の推移を表すグラフを示す。   FIG. 12 is a diagram for explaining the same color illusion (Edward H. Adelson, “Checker shadow illusion”, 1995, Internet <URL: http://web.mit.edu/persci/people/adelson/checkershadow_illusion.html 12) shows a checker pattern (lattice pattern) used for providing the same color illusion, and FIG. 12 (B) shows points P1 to P3 on the checker pattern (lattice pattern). And the graph showing transition of the brightness | luminance in the point P4-the point P6 is shown.

図12(A)で示されるように、点P2を含む単位パタンの輝度よりも高い輝度を有する二つの単位パタン(点P1を含む単位パタン及び点P3を含む単位パタンである。)で挟まれたその点P2を含む単位パタンの輝度は、点P5を含む単位パタンの輝度よりも低い輝度を有する二つの単位パタン(点P4を含む単位パタン及び点P6を含む単位パタンである。)で挟まれたその点P5を含む単位パタンの輝度よりも低いように見える。   As shown in FIG. 12A, two unit patterns (a unit pattern including the point P1 and a unit pattern including the point P3) having a luminance higher than that of the unit pattern including the point P2 are sandwiched. The luminance of the unit pattern including the point P2 is sandwiched between two unit patterns (a unit pattern including the point P4 and a unit pattern including the point P6) having a luminance lower than that of the unit pattern including the point P5. It appears that the brightness is lower than the brightness of the unit pattern including the point P5.

しかしながら、この輝度の差は、それぞれの単位パタンが格子模様を形成していること、及び、点P4〜点P6を含む単位パタン群が物体OBJの影に入っていることを認識している観察者の錯視によるものであり、実際には、図12(B)で示されるように、点P2を含む単位パタンの輝度は、点P5を含む単位パタンの輝度に等しいものとなっている。   However, this difference in luminance is an observation that recognizes that each unit pattern forms a lattice pattern and that the unit pattern group including the points P4 to P6 is in the shadow of the object OBJ. In fact, as shown in FIG. 12B, the luminance of the unit pattern including the point P2 is equal to the luminance of the unit pattern including the point P5.

このように、その観察者は、点P1、点P3、及び点P5のそれぞれを含む単位パタンが同じ輝度を有し、点P2、点P4、及び点P6のそれぞれを含む単位パタンが同じ輝度を有するものと錯覚することとなる。   Thus, the observer has the same brightness in the unit pattern including each of the points P1, P3, and P5, and the unit pattern including each of the points P2, P4, and P6 has the same brightness. You will have an illusion of what you have.

図13は、同色錯視をもたらす明暗パタンを生成する方法の一例を説明するための図であり、二つの波源(例えば、右側方カメラ2R及び後方カメラ2Bである。なお、右側方カメラ2Rが図の左側に示されているが、これは図の明瞭化のためであり、ここでは、図の右斜め上方が、ショベル60の後方に対応するものとする。)から山(実線円)及び谷(破線円)を形成しながら拡がって互いに干渉する二つの波を示す。   FIG. 13 is a diagram for explaining an example of a method for generating a light / dark pattern that causes the same color illusion, and includes two wave sources (for example, a right camera 2R and a rear camera 2B. Note that the right camera 2R is illustrated in FIG. This is for the sake of clarity of the drawing, and here, the upper right side of the drawing corresponds to the rear of the excavator 60) to the mountain (solid circle) and the valley Two waves that spread and interfere with each other while forming a (dashed circle) are shown.

また、図13において、二つの扇形領域2Ra、2Baはそれぞれ、右側方カメラ2Rの撮像範囲、及び、後方カメラ2Bの撮像範囲を示し、太い実線で表される腹線ANLは、二つの波が互いに強め合う点を連ねた線を示し、太い破線で表される節線NLは、二つの波が互いに弱め合う点を連ねた線を示す。なお、腹線ANL及び節線NLは、図13で示されるように、交互に現れることとなる。   In FIG. 13, two fan-shaped areas 2Ra and 2Ba indicate the imaging range of the right-side camera 2R and the imaging range of the rear camera 2B, respectively. The abdominal line ANL represented by a thick solid line has two waves. A line connecting points that strengthen each other is shown, and a node line NL indicated by a thick broken line indicates a line connecting points where two waves weaken each other. The abdominal line ANL and the nodal line NL appear alternately as shown in FIG.

また、図13において、右側方カメラ2Rを波源として拡がる波の一つの谷が描く線(破線円)と、その一つの谷の次に発生する一つの山が描く線(実線円)と、後方カメラ2Bを波源として拡がる波の一つの谷が描く線(破線円)と、その一つの谷の次に発生する一つの山が描く線(実線円)とで定められる菱形状の領域のそれぞれは、単位パタン領域LTを形成するものとする。   Further, in FIG. 13, a line drawn by one trough of a wave that spreads using the right-side camera 2R as a wave source (broken line circle), a line drawn by one mountain generated after the one trough (solid circle), and the rear Each of the rhombus-shaped regions defined by a line (broken line circle) drawn by one trough of a wave spreading using the camera 2B as a wave source and a line (solid line circle) drawn by one mountain generated next to the one valley are The unit pattern region LT is formed.

図13で示される複数の単位パタン領域LTが出力画像平面上に描かれたものとし、単位パタン領域LTのうちの腹線ANLが通過する(灰色で塗り潰される)単位パタン領域LT1に後方カメラ2Bの入力画像が対応付けられ、且つ、単位パタン領域LTのうちの節線NLが通過する(白色で塗り潰される)単位パタン領域LT2に右側方カメラ2Rの入力画像が対応付けられるものとすると、平均輝度がそれぞれ異なる二つの入力画像は、同色錯視をもたらす格子模様を形成することができることとなる。   It is assumed that a plurality of unit pattern areas LT shown in FIG. 13 are drawn on the output image plane, and the rear camera 2B is passed to the unit pattern area LT1 through which the abdominal line ANL of the unit pattern areas LT passes (filled in gray). If the input image of the right side camera 2R is associated with the unit pattern region LT2 through which the nodal line NL of the unit pattern region LT passes (filled in white), the average image Two input images having different luminances can form a lattice pattern that causes the same color illusion.

なお、単位パタン領域LTのうちの腹線ANLが通過する(灰色で塗り潰される)単位パタン領域LT1に右側方カメラ2Rの入力画像が対応付けられ、且つ、単位パタン領域LTのうちの節線NLが通過する(白色で塗り潰される)単位パタン領域LT2に後方カメラ2Bの入力画像が対応付けられる場合も同様に、平均輝度がそれぞれ異なる二つの入力画像は、同色錯視をもたらす格子模様を形成することができることとなる。   Note that the input image of the right-side camera 2R is associated with the unit pattern area LT1 through which the abdominal line ANL in the unit pattern area LT passes (filled in gray), and the nodal line NL in the unit pattern area LT. Similarly, when the input image of the rear camera 2B is associated with the unit pattern region LT2 through which the image passes (filled in white), two input images having different average luminances form a lattice pattern that causes the same color illusion. Will be able to.

また、図13の格子模様は、波長及び位相が等しい二つの波を用いて形成されるが、波長及び位相の一方又は双方が異なる二つの波を用いて形成されてもよい。単位パタン領域LT1、LT2のサイズや形状を柔軟に調整できるようにするためである。   13 is formed by using two waves having the same wavelength and phase, it may be formed by using two waves having different wavelengths and / or phases. This is because the size and shape of the unit pattern areas LT1 and LT2 can be adjusted flexibly.

図14は、図13で示される格子模様を出力画像平面(平面領域R1)上に配置した状態を示し、ショベル60のCG画像の右後方(図の右下方向)にある、右側方カメラ2Rの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に配置される格子模様と、ショベル60のCG画像の左後方(図の左下方向)にある、左側方カメラ2Lの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に配置される格子模様とを示す。   FIG. 14 shows a state in which the lattice pattern shown in FIG. 13 is arranged on the output image plane (planar region R1), and the right-side camera 2R is located on the right rear side (lower right direction in the figure) of the CG image of the excavator 60. The imaging range of the left-side camera 2L and the rear camera 2B located in the lattice pattern arranged in the overlapping area of the imaging range of the rear camera 2B and the imaging range of the rear camera 2B and the left rear of the CG image of the shovel 60 (lower left direction in the figure) The lattice pattern arrange | positioned in the duplication area | region with an imaging range is shown.

図14において、右側方カメラ2Rの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に配置される格子模様は、例えば、(灰色で塗り潰される)単位パタン領域LT1に右後方カメラ2Rの入力画像が対応付けられ、(白色で塗り潰される)単位パタン領域LT2に後方カメラ2Bの入力画像が対応付けられるものとする。   In FIG. 14, the grid pattern arranged in the overlapping area of the imaging range of the right camera 2R and the imaging range of the rear camera 2B is, for example, an input image of the right rear camera 2R in the unit pattern area LT1 (filled in gray). And the input image of the rear camera 2B is associated with the unit pattern area LT2 (filled in white).

また、左側方カメラ2Lの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に配置される格子模様は、例えば、(灰色で塗り潰される)単位パタン領域LT3に左後方カメラ2Lの入力画像が対応付けられ、(白色で塗り潰される)単位パタン領域LT4に後方カメラ2Bの入力画像が対応付けられるものとする。   The grid pattern arranged in the overlapping area of the imaging range of the left camera 2L and the imaging range of the rear camera 2B corresponds to, for example, the input image of the left rear camera 2L corresponding to the unit pattern area LT3 (filled in gray). It is assumed that the input image of the rear camera 2B is associated with the unit pattern region LT4 that is attached (filled in white).

図15は、画像生成装置100が、二つのカメラのそれぞれの撮像範囲の重複領域に対応する出力画像平面上の各座標に、それら二つのカメラの何れか一方の入力画像平面上の座標を対応付け、同色錯視をもたらす格子模様を形成する処理(以下、「格子模様形成処理」とする。)の流れを示すフローチャートである。   In FIG. 15, the image generation apparatus 100 corresponds to coordinates on the output image plane corresponding to the overlapping area of the imaging ranges of the two cameras with coordinates on the input image plane of either of the two cameras. 2 is a flowchart showing a flow of processing for forming a lattice pattern that causes the same color illusion (hereinafter referred to as “lattice pattern formation processing”).

画像生成装置100の制御部1は、例えば、座標対応付け手段10により、図9の処理対象画像生成処理のステップS2において、空間モデルMDの平面領域R1上の一座標と複数の入力画像平面上の座標との対応付けが可能な場合に、空間モデルMDの平面領域R1上の一座標と二つのカメラのそれぞれに対応する二つの入力画像平面のうちの一つにおける一座標とを対応付ける際に、この格子模様形成処理を実行するものとする。   The control unit 1 of the image generation apparatus 100, for example, uses the coordinate matching means 10 on one coordinate and a plurality of input image planes on the plane region R1 of the spatial model MD in step S2 of the processing target image generation process in FIG. When it is possible to associate one coordinate with the other coordinate, one coordinate on the plane region R1 of the spatial model MD is associated with one coordinate on one of the two input image planes corresponding to each of the two cameras. Suppose that this lattice pattern forming process is executed.

最初に、制御部1は、二つのカメラ(例えば、右側方カメラ2R及び後方カメラ2Bである。)の撮像範囲が重複する領域に対応する、空間モデルMDの平面領域R1上の一座標を取得する(ステップS11)。   First, the control unit 1 acquires one coordinate on the plane region R1 of the spatial model MD corresponding to the region where the imaging ranges of two cameras (for example, the right camera 2R and the rear camera 2B) overlap. (Step S11).

次に、制御部1は、二つのカメラのそれぞれにおける光学中心の座標を取得する(ステップS12)。   Next, the control part 1 acquires the coordinate of the optical center in each of two cameras (step S12).

次に、制御部1は、ステップS11で取得した空間モデルMDにおける平面領域R1上の一座標に対応付けるカメラを選択する(ステップS13)。   Next, the control part 1 selects the camera matched with one coordinate on plane area | region R1 in the space model MD acquired at step S11 (step S13).

具体的には、制御部1は、右側方カメラ2Rの光学中心の座標を(Xcam1、Ycam1)とし、後方カメラ2Bの光学中心の座標を(Xcam2、Ycam2)とし、対応付けの対象である空間モデルMDの平面領域R1上の一座標を(Xtarget、Ytarget)とすると、 Specifically, the control unit 1 sets the coordinates of the optical center of the right-side camera 2R as (X cam1 , Y cam1 ) and the coordinates of the optical center of the rear camera 2B as (X cam2 , Y cam2 ). When one coordinate on the plane region R1 of the target space model MD is (X target , Y target ),

で表される条件式が真である場合、その平面領域R1上の一座標に対応付けるカメラとして右側方カメラ2Rを選択し、上述の条件式が偽である場合、その平面領域R1上の一座標に対応付けるカメラとして後方カメラ2Rを選択する。 Is true, the right-side camera 2R is selected as a camera to be associated with one coordinate on the plane area R1, and one coordinate on the plane area R1 is selected when the above-described conditional expression is false. The rear camera 2R is selected as the camera to be associated with.

なお、制御部1は、上述の条件式が真である場合に、その平面領域R1上の一座標に対応付けるカメラとして後方カメラ2Bを選択し、上述の条件式が偽である場合に、その平面領域R1上の一座標に対応付けるカメラとして右側方カメラ2Rを選択するようにしてもよい。   The control unit 1 selects the rear camera 2B as a camera to be associated with one coordinate on the plane region R1 when the above-described conditional expression is true, and when the above-described conditional expression is false, the control unit 1 The right side camera 2R may be selected as a camera associated with one coordinate on the region R1.

なお、上述の条件式は、平面領域R1上の座標(Xtarget、Ytarget)が、図14で示される単位パタン領域LT1に含まれるか、或いは、単位パタン領域LT2に含まれるかの判定式に相当する。 Note that the conditional expression described above is a determination formula for determining whether the coordinates (X target , Y target ) on the plane region R1 are included in the unit pattern region LT1 shown in FIG. 14 or included in the unit pattern region LT2. It corresponds to.

また、本実施例において、制御部1は、光学中心の座標が二次元座標であり、波源から発生する波が平面波であるという前提で、平面領域R1上の一座標(二次元座標)と二つのカメラのそれぞれの光学中心の座標(平面領域R1を含む平面上に投影された二次元座標)との間の二次元距離に基づいてカメラを選択するが、光学中心の座標を(高さ情報を含む)三次元座標とし、波源から発生する波を球面波としながら、平面領域R1上の一座標(三次元座標)と二つのカメラのそれぞれの光学中心の座標(三次元座標)との間の三次元距離に基づいてカメラを選択するようにしてもよい。   Further, in this embodiment, the control unit 1 assumes that the coordinates of the optical center are two-dimensional coordinates, and that the wave generated from the wave source is a plane wave, one coordinate (two-dimensional coordinates) and two on the plane region R1. The cameras are selected based on the two-dimensional distance between the coordinates of the optical centers of the two cameras (two-dimensional coordinates projected on the plane including the plane region R1). Between the one coordinate (three-dimensional coordinate) on the plane region R1 and the coordinates of the respective optical centers (three-dimensional coordinates) on the plane region R1, with the wave generated from the wave source as a spherical wave. The camera may be selected based on the three-dimensional distance.

また、本実施例において、制御部1は、二つのカメラ(例えば、右側方カメラ2R及び後方カメラ2Bである。)の撮像範囲が重複する領域に対応する、空間モデルMDの平面領域R1上の一座標に対応付けるカメラを選択しているが、二つのカメラの撮像範囲が重複する領域に対応する、処理対象画像平面R3上の一座標に対応付けるカメラを選択するようにしてもよい。   Further, in the present embodiment, the control unit 1 is on the plane area R1 of the spatial model MD corresponding to an area where the imaging ranges of two cameras (for example, the right side camera 2R and the rear camera 2B) overlap. Although the camera associated with one coordinate is selected, the camera associated with one coordinate on the processing target image plane R3 corresponding to the region where the imaging ranges of the two cameras overlap may be selected.

この場合、制御部1は、処理対象画像平面R3上の一座標(二次元座標)と二つのカメラのそれぞれの光学中心の座標(処理対象画像平面R3を含む平面上に投影された二次元座標)との間の二次元距離に基づいてカメラを選択するようにしてもよく、処理対象画像平面R3上の一座標(三次元座標)と二つのカメラのそれぞれの光学中心の座標(三次元座標)との間の三次元距離に基づいてカメラを選択するようにしてもよい。なお、処理対象画像平面R3は、平面領域R1を含むものであってもよい。   In this case, the control unit 1 uses one coordinate (two-dimensional coordinate) on the processing target image plane R3 and the coordinates of the optical centers of the two cameras (two-dimensional coordinates projected on the plane including the processing target image plane R3). The camera may be selected on the basis of the two-dimensional distance between them, and one coordinate (three-dimensional coordinate) on the processing target image plane R3 and the coordinates of the optical centers of the two cameras (three-dimensional coordinates). The camera may be selected based on the three-dimensional distance between The processing target image plane R3 may include a plane area R1.

その後、制御部1は、座標対応付け手段10により、選択したカメラの入力画像平面上の一座標と、空間モデルMDの平面領域R1上の一座標とを対応付け(ステップS14)、空間モデルMD上の座標、カメラ識別子、及び入力画像平面上の座標を関連付けて入力画像・空間モデル対応マップ40に記憶する。   After that, the control unit 1 associates one coordinate on the input image plane of the selected camera with one coordinate on the plane region R1 of the space model MD by the coordinate association unit 10 (step S14), and the space model MD. The upper coordinates, the camera identifier, and the coordinates on the input image plane are associated and stored in the input image / space model correspondence map 40.

その後、制御部1は、二つのカメラの撮像範囲が重複する領域に対応する、空間モデルMDの平面領域R1上の全ての座標を、二つのカメラのうちの一つの入力画像平面上の座標に対応付けたか否かを判定し(ステップS15)、未だ全ての座標を対応付けていないと判定した場合には(ステップS15のNO)、ステップS11〜ステップS14の処理を繰り返すようにする。   Thereafter, the control unit 1 sets all the coordinates on the plane area R1 of the spatial model MD corresponding to the area where the imaging ranges of the two cameras overlap to the coordinates on one input image plane of the two cameras. It is determined whether or not they are associated with each other (step S15). If it is determined that all the coordinates are not yet associated (NO in step S15), the processes in steps S11 to S14 are repeated.

一方、制御部1は、全ての座標を対応付けたと判定した場合には(ステップS15のYES)、この格子模様形成処理を終了させる。   On the other hand, when it is determined that all the coordinates are associated (YES in step S15), the control unit 1 ends the lattice pattern forming process.

なお、上述において、制御部1は、二つのカメラの撮像範囲が重複する領域に対応する、空間モデルMDの平面領域R1上の各座標、又は、処理対象画像平面R3上の各座標を、二つのカメラのうちの一つの入力画像平面上の座標に対応付けるようにするが、更に、二つのカメラの撮像範囲が重複する領域に対応する、空間モデルMDの曲面領域R2上の各座標を、二つのカメラのうちの一つの入力画像平面上の座標に対応付けるようにしてもよい。   In the above description, the control unit 1 calculates the coordinates on the plane area R1 of the spatial model MD or the coordinates on the processing target image plane R3 corresponding to the area where the imaging ranges of the two cameras overlap. The coordinates on one input image plane of the two cameras are associated with each other. Further, each coordinate on the curved surface region R2 of the spatial model MD corresponding to the region where the imaging ranges of the two cameras overlap is represented by two. You may make it match | combine with the coordinate on the input image plane of one camera.

このように、制御部1は、上述のような条件式を用いて空間モデルMD上の各座標を二つのカメラのうちの一つの入力画像平面上の座標に容易に対応付けることができ、適切な格子模様を生成することができる。   As described above, the control unit 1 can easily associate each coordinate on the space model MD with the coordinate on one input image plane of the two cameras using the conditional expression as described above. A lattice pattern can be generated.

図16は、図11で示される出力画像と、図11の出力画像に同色錯視をもたらす格子模様が適用された出力画像との違いを表す対比図であり、図16(A)が図11で示される出力画像を示し、図16(B)が同色錯視をもたらす格子模様が適用された出力画像を示す。   FIG. 16 is a contrast diagram showing a difference between the output image shown in FIG. 11 and an output image in which a lattice pattern that causes the same color illusion is applied to the output image of FIG. 11, and FIG. The output image shown is shown, and FIG. 16B shows the output image to which the lattice pattern that causes the same color illusion is applied.

左側方カメラ2Lの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域との間の境界を含む図16(A)の一点鎖線で囲まれた領域R6は、顕著な輝度の違いを提示しているが、左側方カメラ2Lの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域とが格子模様となって混在する図16(B)の一点鎖線で囲まれた領域R8は、その輝度の違いが目立たなくなっており、その領域R8を含む出力画像を見た運転者に不自然さを感じさせ難くしている。   A region R6 surrounded by an alternate long and short dash line in FIG. 16A includes a boundary between a region on the output image based on the input image of the left camera 2L and a region on the output image based on the input image of the rear camera 2B. Although a significant difference in brightness is presented, a region on the output image based on the input image of the left camera 2L and a region on the output image based on the input image of the rear camera 2B are mixed in a lattice pattern. In the region R8 surrounded by the alternate long and short dash line in FIG. 16B, the difference in luminance is inconspicuous, and it is difficult for the driver to feel unnaturalness when viewing the output image including the region R8.

同様に、右側方カメラ2Rの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域との間の境界を含む図16(A)の一点鎖線で囲まれた領域R7は、顕著な輝度の違いを提示しているが、右側方カメラ2Rの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域とが格子模様となって混在する図16(B)の一点鎖線で囲まれた領域R9は、その輝度の違いが目立たなくなっており、その領域R9を含む出力画像を見た運転者に不自然さを感じさせ難くしている。   Similarly, it is surrounded by an alternate long and short dash line in FIG. 16A including a boundary between an area on the output image based on the input image of the right camera 2R and an area on the output image based on the input image of the rear camera 2B. The region R7 presents a significant difference in brightness, but the region on the output image based on the input image of the right camera 2R and the region on the output image based on the input image of the rear camera 2B have a grid pattern. In the region R9 surrounded by the alternate long and short dash line in FIG. 16B, the difference in luminance is inconspicuous, and it is difficult for the driver who sees the output image including the region R9 to feel unnaturalness. ing.

次に、図17〜図19を参照しながら、画像生成装置100が、二つのカメラのそれぞれの撮像範囲の重複領域に対応する出力画像部分を生成する際にその出力画像部分にある物体が消失するのを防止する消失防止処理について説明する。   Next, with reference to FIGS. 17 to 19, when the image generation apparatus 100 generates an output image portion corresponding to the overlapping area of the imaging ranges of the two cameras, the object in the output image portion disappears. Deletion prevention processing for preventing this will be described.

図17は、ショベル60に搭載された三台のカメラ2(左側方カメラ2L、右側方カメラ2R、及び後方カメラ2B)のそれぞれの入力画像と、それら入力画像を用いて生成される出力画像とを示す図である。   FIG. 17 shows input images of three cameras 2 (left camera 2L, right camera 2R, and rear camera 2B) mounted on the excavator 60, and output images generated using these input images. FIG.

画像生成装置100は、それら三台のカメラ2のそれぞれの入力画像平面上の座標を空間モデルMDの平面領域R1及び曲面領域R2上の座標に投影した上で処理対象画像平面R3に再投影して処理対象画像を生成し、その生成した処理対象画像に画像変換処理(例えば、スケール変換、アフィン変換、歪曲変換、視点変換処理等である。)を施すことによって出力画像を生成して、ショベル60の近傍を上空から見下ろした画像(平面領域R1における画像)と、ショベル60から水平方向に周辺を見た画像(処理対象画像平面R3における画像)とを表示している。   The image generating apparatus 100 projects the coordinates on the input image plane of each of the three cameras 2 to the coordinates on the plane area R1 and the curved area R2 of the space model MD, and then reprojects them on the processing target image plane R3. The image to be processed is generated, and the output image is generated by subjecting the generated image to be processed to image conversion processing (for example, scale conversion, affine conversion, distortion conversion, viewpoint conversion processing, etc.), and the excavator An image in which the vicinity of 60 is looked down from above (image in the plane region R1) and an image in which the periphery is viewed from the shovel 60 in the horizontal direction (image in the processing target image plane R3) are displayed.

図17において、右側方カメラ2Rの入力画像、及び、後方カメラ2Bの入力画像はそれぞれ、右側方カメラ2Rの撮像範囲と後方カメラ2Bの撮像範囲との重複領域内に人物(右側方カメラ2Rの入力画像における二点鎖線で囲まれる領域R10、及び、後方カメラ2Bの入力画像における二点鎖線で囲まれる領域R11参照。)を捉えている。   In FIG. 17, the input image of the right-side camera 2R and the input image of the rear camera 2B are respectively in the overlapping area of the imaging range of the right-side camera 2R and the imaging range of the rear camera 2B (the right-side camera 2R A region R10 surrounded by a two-dot chain line in the input image and a region R11 surrounded by a two-dot chain line in the input image of the rear camera 2B are captured.

しかしながら、それら右側方カメラ2Rの入力画像、及び、後方カメラ2Bの入力画像に基づいて生成される出力画像は、その出力画像平面上の座標が入射角の最も小さいカメラに関する入力画像平面上の座標に対応付けられるものとすると、図17で示されるように、その重複領域内の人物を消失させてしまうこととなる(出力画像内の一点鎖線で囲まれる領域R12参照。)。   However, the output image generated based on the input image of the right-side camera 2R and the input image of the rear camera 2B is the coordinate on the input image plane with respect to the camera having the smallest incident angle on the output image plane. As shown in FIG. 17, the person in the overlapping area disappears (see area R12 surrounded by a one-dot chain line in the output image).

そこで、画像生成装置100は、同色錯視をもたらすために形成される格子模様を利用して、二つのカメラのそれぞれの撮像範囲の重複領域に対応する出力画像部分を生成する際にその出力画像部分にある物体が消失するのを防止するものとする。   Therefore, when the image generation apparatus 100 generates an output image portion corresponding to an overlapping region of the imaging ranges of the two cameras using the lattice pattern formed to bring the same color illusion, the output image portion To prevent the disappearance of the object in the area.

図18は、二つのカメラのそれぞれの撮像範囲の重複領域における物体の消失防止効果を説明するための図であり、図18(A)は、図13で示される同色錯視をもたらすための格子模様を形成するための波の図を示し、図18(B)は、図18(A)の一部拡大図を示す。   FIG. 18 is a diagram for explaining the effect of preventing disappearance of an object in the overlapping area of the imaging ranges of the two cameras. FIG. 18A is a lattice pattern for providing the same color illusion shown in FIG. FIG. 18 (B) shows a partially enlarged view of FIG. 18 (A).

図18(A)において、破線で囲まれる投影像PRJ1は、後方カメラ2Bの入力画像における物体OBJ1の像が、路面画像を生成するための視点変換によって、その後方カメラ2Bとその物体OBJ1とを結ぶ線の延長方向に伸長されたもの(後方カメラ2Bの入力画像を用いてその出力画像部分における路面画像を生成した場合に表示される像である。)を表す。   In FIG. 18A, a projection image PRJ1 surrounded by a broken line indicates that the image of the object OBJ1 in the input image of the rear camera 2B is converted between the rear camera 2B and the object OBJ1 by viewpoint conversion for generating a road surface image. This is an image that is expanded in the extending direction of the connecting line (an image that is displayed when a road surface image in the output image portion is generated using the input image of the rear camera 2B).

また、破線で囲まれる投影像PRJ2は、右後方カメラ2Rの入力画像における物体OBJ1の像が、路面画像を生成するための視点変換によって、その右側方カメラ2Rとその物体OBJ1とを結ぶ線の延長方向に伸長されたもの(右側方カメラ2Rの入力画像を用いてその出力画像部分における路面画像を生成した場合に表示される像である。)を表す。   Further, the projection image PRJ2 surrounded by a broken line is a line connecting the right-side camera 2R and the object OBJ1 by the viewpoint conversion for generating the road surface image of the object OBJ1 in the input image of the right rear camera 2R. This is an image expanded in the extension direction (an image displayed when a road surface image in the output image portion is generated using an input image of the right-side camera 2R).

なお、投影像PRJ1及び投影像PRJ2は、最終的な出力画像上にそのままの状態で表示されることはなく、図18(B)で示されるように、一部が切り欠かれた状態で表示されることとなる。   Note that the projection image PRJ1 and the projection image PRJ2 are not displayed as they are on the final output image, and are displayed in a partially cut-out state as shown in FIG. Will be.

また、図18(A)において、投影像PRJ1を表す破線領域のうち、灰色で塗り潰された部分は、腹線ANLが通過する単位パタン領域LT1(図13参照。)との重なり部分を表し、その重なり部分に対応する出力画像上の各座標には後方カメラ2Bの入力画像平面上の座標(物体OBJ1の像を形成する領域内の座標)が対応付けられることを示す。   Further, in FIG. 18A, a portion filled with gray in a broken line region representing the projection image PRJ1 represents an overlapping portion with a unit pattern region LT1 (see FIG. 13) through which the abdominal line ANL passes, Each coordinate on the output image corresponding to the overlapping portion is associated with a coordinate on the input image plane of the rear camera 2B (coordinate in a region forming an image of the object OBJ1).

一方、投影像PRJ1を表す破線領域のうち、白色で塗り潰された部分は、節線NLが通過する単位パタン領域LT2(図13参照。)との重なり部分を表し、その重なり部分に対応する出力画像上の各座標には右側方カメラ2Rの入力画像平面上の座標(物体OBJ1の像を形成しない領域内の座標)が対応付けられることを示す。   On the other hand, in the broken line area representing the projection image PRJ1, the part filled in white represents the overlapping part with the unit pattern area LT2 (see FIG. 13) through which the nodal line NL passes, and the output corresponding to the overlapping part. Each coordinate on the image is associated with a coordinate on the input image plane of the right-side camera 2R (coordinate in a region where an image of the object OBJ1 is not formed).

なお、投影像PRJ1を表す破線領域のうち、灰色で塗り潰された部分に対応する出力画像上の各座標に、右側方カメラ2Rの入力画像平面上の座標(物体OBJ1の像を形成しない領域内の座標)が対応付けられ、投影像PRJ1を表す破線領域のうち、白色で塗り潰された部分に対応する出力画像上の各座標に、後方カメラ2Bの入力画像平面上の座標(物体OBJ1の像を形成する領域内の座標)が対応付けられるようにしてもよい。   Of the broken line area representing the projection image PRJ1, the coordinates on the input image plane of the right-side camera 2R (in the area where the image of the object OBJ1 is not formed) In the broken line area representing the projection image PRJ1, the coordinates on the input image plane of the rear camera 2B (the image of the object OBJ1) May be associated with each other).

この場合、投影像PRJ1は、図18(B)で示されるように、その伸長方向に直交する円(後方カメラ2Bの位置を波源とする波の山及び谷が描く円である。)の一部をその境界線として含む単位パタン領域LT2によって切り欠かれることとなるが、隣接する単位パタン領域LT1が互いに頂点を接触させているので繊切り状に分断され難く、単位パタン領域LT2のそれぞれがその伸長方向に直交する円の一部を含むため、その輪郭も認識され易いはっきりした状態で保存されることとなる。   In this case, as shown in FIG. 18B, the projection image PRJ1 is one of the circles perpendicular to the extension direction (the circles drawn by the peaks and valleys of the waves with the position of the rear camera 2B as the wave source). Is cut out by a unit pattern region LT2 including the portion as a boundary line, but since adjacent unit pattern regions LT1 are in contact with each other, they are difficult to be divided into pieces, and each of the unit pattern regions LT2 Since a part of the circle orthogonal to the extending direction is included, the contour is also stored in a clear state that is easily recognized.

また、投影像PRJ1は、物体OBJ1の高さが高い程、カメラから遠ざかる方向により長く伸長され、且つ、カメラから遠ざかる程、より大きく拡大される傾向を有するが、単位パタン領域LT1及びLT2は何れもカメラから遠ざかる程、その投影像PRJ1と同じ度合いで、より大きく拡大していくので、その切り欠き状態もほぼ均一に維持されることとなる。   Further, the projection image PRJ1 has a tendency to be elongated in a direction away from the camera as the height of the object OBJ1 is higher, and to be enlarged as the distance from the camera is larger. However, the unit pattern regions LT1 and LT2 are However, the further away from the camera, the larger the image is enlarged in the same degree as the projection image PRJ1, so that the cutout state is also maintained substantially uniform.

また、図18(A)において、投影像PRJ2を表す破線領域のうち、黒色で塗り潰された部分は、節線NLが通過する単位パタン領域LT2(図13参照。)との重なり部分を表し、その重なり部分に対応する出力画像上の各座標には右側方カメラ2Rの入力画像平面上の座標(物体OBJ1の像を形成する領域内の座標)が対応付けられることを示す。   Further, in FIG. 18A, in the broken line area representing the projection image PRJ2, the part filled in black represents the overlapping part with the unit pattern area LT2 (see FIG. 13) through which the nodal line NL passes, Each coordinate on the output image corresponding to the overlapped portion is associated with a coordinate on the input image plane of the right-side camera 2R (coordinate in a region forming the image of the object OBJ1).

一方、投影像PRJ2を表す破線領域のうち、白色で塗り潰された部分は、腹線ANLが通過する単位パタン領域LT1(図13参照。)との重なり部分を表し、その重なり部分に対応する出力画像上の各座標には後方カメラ2Bの入力画像平面上の座標(物体OBJ1の像を形成しない領域内の座標)が対応付けられることを示す。   On the other hand, in the broken line area representing the projection image PRJ2, the part filled in white represents the overlapping part with the unit pattern area LT1 (see FIG. 13) through which the abdominal line ANL passes, and the output corresponding to the overlapping part. Each coordinate on the image indicates that a coordinate on the input image plane of the rear camera 2B (a coordinate in a region where an image of the object OBJ1 is not formed) is associated.

なお、投影像PRJ2を表す破線領域のうち、黒色で塗り潰された部分に対応する出力画像上の各座標に後方カメラ2Bの入力画像平面上の座標(物体OBJ1の像を形成しない領域内の座標)が対応付けられ、投影像PRJ2を表す破線領域のうち、白色で塗り潰された部分に対応する出力画像上の各座標に右側方カメラ2Rの入力画像平面上の座標(物体OBJ1の像を形成する領域内の座標)が対応付けられるようにしてもよい。   Of the broken line area representing the projection image PRJ2, the coordinates on the input image plane of the rear camera 2B (coordinates in the area where the image of the object OBJ1 is not formed) are displayed on the coordinates on the output image corresponding to the portion filled in black. ) And the coordinates on the input image plane of the right-side camera 2R (the image of the object OBJ1 is formed at each coordinate on the output image corresponding to the portion painted in white in the broken line area representing the projection image PRJ2. Coordinates in the area to be performed) may be associated with each other.

この場合、投影像PRJ2は、投影像PRJ1と同様に、図18(B)で示されるように、その伸長方向に直交する円(右側方カメラ2Rの位置を波源とする波の山及び谷が描く円である。)の一部をその境界線として含む単位パタン領域LT1によって切り欠かれることとなるが、隣接する単位パタン領域LT2が互いに頂点を接触させているので繊切り状に分断され難く、単位パタン領域LT1のそれぞれがその伸長方向に直交する円の一部を含むため、その輪郭も認識され易いはっきりした状態で保存されることとなる。   In this case, the projection image PRJ2 is similar to the projection image PRJ1, as shown in FIG. 18B, a circle (wave peaks and valleys whose wave source is the position of the right side camera 2R is orthogonal to the extension direction thereof. Is cut out by the unit pattern region LT1 including a part of the circle as a boundary line. However, since the adjacent unit pattern regions LT2 are in contact with each other, it is difficult to be cut into pieces. Since each of the unit pattern regions LT1 includes a part of a circle orthogonal to the extending direction, the contour is also stored in a clear state that is easily recognized.

また、投影像PRJ2は、投影像PRJ1と同様に、物体OBJ1の高さが高い程、カメラから遠ざかる方向により長く伸長され、且つ、カメラから遠ざかる程、より大きく拡大される傾向を有するが、単位パタン領域LT1及びLT2は何れもカメラから遠ざかる程、その投影像PRJ2と同じ度合いで、より大きく拡大していくので、その切り欠き状態もほぼ均一に維持されることとなる。   Similarly to the projection image PRJ1, the projection image PRJ2 has a tendency to extend longer in the direction away from the camera as the height of the object OBJ1 is higher, and to be enlarged as the distance from the camera increases. As the pattern regions LT1 and LT2 are further away from the camera, the pattern regions LT1 and LT2 are enlarged in the same degree as the projected image PRJ2, so that the cutout state is maintained substantially uniform.

図19は、図17で示される出力画像と、図17の出力画像に同色錯視をもたらす格子模様が適用された出力画像との違いを表す対比図であり、図19(A)が図17で示される出力画像を示し、図19(B)が同色錯視をもたらす格子模様が適用された出力画像を示す。   FIG. 19 is a contrast diagram showing a difference between the output image shown in FIG. 17 and an output image in which a lattice pattern that causes the same color illusion is applied to the output image of FIG. 17, and FIG. The output image shown is shown, and FIG. 19B shows the output image to which the lattice pattern that causes the same color illusion is applied.

右側方カメラ2Rの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域との間の境界を含む図19(A)の一点鎖線で囲まれた領域R13は、人物が消失した状態を提示しているが、右側方カメラ2Rの入力画像に基づく出力画像上の領域と後方カメラ2Bの入力画像に基づく出力画像上の領域とが格子模様となって混在する図19(B)の一点鎖線で囲まれた領域R14は、人物を消失させることなく、その人物を認識し易い状態で提示し、その領域R14を含む出力画像を見た運転者にその人物の存在を確実に認識させることができるようにしている。   A region R13 surrounded by an alternate long and short dash line in FIG. 19A including the boundary between the region on the output image based on the input image of the right camera 2R and the region on the output image based on the input image of the rear camera 2B is Although the person has disappeared, the area on the output image based on the input image of the right side camera 2R and the area on the output image based on the input image of the rear camera 2B are mixed in a lattice pattern. A region R14 surrounded by an alternate long and short dash line in FIG. 19B presents the person in an easily recognizable state without losing the person, and the driver who viewed the output image including the region R14 has the person It is designed to ensure that it exists.

以上の構成により、画像生成装置100は、同色錯視をもたらすための格子模様を利用することにより、二つのカメラのそれぞれの撮像範囲の重複領域に対応する出力画像部分を生成する際にその出力画像部分にある物体が消失するのを防止することができ、二つの入力画像のそれぞれの部分領域が櫛歯状に交互に配置されるように二つの入力画像を繋ぎ合わせる場合に比べ、その一部が切り欠かれることとなるその物体の投影像を、運転者がより認識し易い状態で表示することができる。   With the above configuration, the image generation apparatus 100 uses the lattice pattern for providing the same color illusion to generate an output image portion when generating an output image portion corresponding to the overlapping area of the imaging ranges of the two cameras. The object in the part can be prevented from disappearing, and compared with the case where the two input images are connected so that the partial areas of the two input images are alternately arranged in a comb-teeth shape. The projected image of the object that will be cut out can be displayed in a state in which the driver can easily recognize it.

次に、図20〜図27を参照しながら、消失防止処理が適用される範囲(以下、「消失防止処理適用範囲」とする。)を調整する処理(以下、「消失防止処理適用範囲調整処理」とする。)について説明する。   Next, referring to FIG. 20 to FIG. 27, a process for adjusting the range to which the disappearance prevention process is applied (hereinafter referred to as “disappearance prevention process application range”) (hereinafter “disappearance prevention process application range adjustment process”). Will be described.

図20上段は、消失防止処理が施された出力画像を示す図であり、破線で囲まれた領域R15L、R15Rは、重複領域に対応する出力画像部分(以下、「重複出力部分」とする。)を表す。具体的には、重複出力部分R15Lは、左側方カメラ2L及び後方カメラ2Bの撮像範囲が重複する領域に対応し、重複出力部分R15Rは、右側方カメラ2R及び後方カメラ2Bの撮像範囲が重複する領域に対応する。   The upper part of FIG. 20 is a diagram illustrating an output image that has been subjected to the disappearance prevention process. Regions R15L and R15R surrounded by broken lines are output image portions corresponding to overlapping regions (hereinafter referred to as “overlapping output portions”). ). Specifically, the overlapping output portion R15L corresponds to a region where the imaging ranges of the left side camera 2L and the rear camera 2B overlap, and the overlapping output portion R15R overlaps the imaging ranges of the right side camera 2R and the rear camera 2B. Corresponds to the region.

図20上段に示すように、画像生成装置100は、格子模様を利用した消失防止処理により、出力画像を生成する際にその重複出力部分にある物体が消失するのを防止する。   As illustrated in the upper part of FIG. 20, the image generation apparatus 100 prevents the objects in the overlapping output portion from disappearing when generating an output image by the disappearance prevention process using the lattice pattern.

しかしながら、画像生成装置100は、重複出力部分の全体に消失防止処理を施すため、その重複出力部分が大きい場合には、出力画像の視認性を低下させてしまうおそれがある。例えば、図20上段に示すように、画像生成装置100は、消失防止処理適用範囲としての重複出力部分R15L、R15Rを、後方カメラ2Bの撮像範囲に対応する出力画像部分R16に大きく張り出させてしまい、出力画像の視認性を低下させてしまうおそれがある。なお、消失防止処理適用範囲としての重複出力部分は、2つのカメラの撮像範囲の重複領域が大きいほど、すなわち、2つのカメラのそれぞれの光軸間の角度が小さいほど、大きくなる傾向を有する。   However, since the image generation apparatus 100 performs the disappearance prevention process on the entire overlapped output portion, if the overlapped output portion is large, the visibility of the output image may be reduced. For example, as illustrated in the upper part of FIG. 20, the image generation apparatus 100 causes the overlapping output portions R15L and R15R as the disappearance prevention processing application range to greatly extend to the output image portion R16 corresponding to the imaging range of the rear camera 2B. As a result, the visibility of the output image may be reduced. Note that the overlapping output portion as the disappearance prevention processing application range tends to increase as the overlapping area of the imaging ranges of the two cameras increases, that is, as the angle between the optical axes of the two cameras decreases.

そこで、画像生成装置100は、以下で説明する方法により、物体が重複出力部分から消失してしまうのを防止しながらも、消失防止処理適用範囲をできるだけ小さくして出力画像の視認性の低下を防止する。   Therefore, the image generation apparatus 100 reduces the visibility of the output image by reducing the application range of the loss prevention process as much as possible while preventing the object from disappearing from the overlapping output portion by the method described below. To prevent.

ここで、図20中段及び図20下段を参照して、消失防止処理適用範囲調整処理の一例(以下、「第1消失防止処理適用範囲調整処理」とする。)について説明する。   Here, an example of the disappearance prevention process application range adjustment process (hereinafter referred to as “first disappearance prevention process application range adjustment process”) will be described with reference to the middle part of FIG. 20 and the lower part of FIG. 20.

図20中段及び図20下段は、消失防止処理が施された出力画像を示す図であり、図20上段に対応する。図20中段に示すように、破線で囲まれた領域R15La、R15Raは調整後の消失防止処理適用範囲を表す。具体的には、消失防止処理適用範囲R15Laは、図20上段の重複出力部分R15Lから、上部旋回体63の左側面を含む鉛直平面より右方にある領域R17Lを除外した範囲に相当する。また、消失防止処理適用範囲R15Raは、図20上段の重複出力部分R15Rから、上部旋回体63の右側面を含む鉛直平面より左方にある領域R17Rを除外した範囲に相当する。なお、線分L1Lは、上部旋回体63の左側面を含む鉛直平面の上面視を表し、線分L1Rは、上部旋回体63の右側面を含む鉛直平面の上面視を表す。また、図20下段は、線分L1L、L1R、領域R17L、R17Rの図示を省略した状態を示す。   The middle part of FIG. 20 and the lower part of FIG. 20 are diagrams showing output images that have been subjected to the disappearance prevention process, and correspond to the upper part of FIG. As shown in the middle part of FIG. 20, regions R15La and R15Ra surrounded by broken lines represent the application range of disappearance prevention processing after adjustment. Specifically, the disappearance prevention process application range R15La corresponds to a range obtained by excluding the region R17L located on the right side of the vertical plane including the left side surface of the upper swing body 63 from the overlapping output portion R15L in the upper part of FIG. Further, the disappearance prevention process application range R15Ra corresponds to a range obtained by excluding the region R17R on the left side of the vertical plane including the right side surface of the upper swing body 63 from the overlapping output portion R15R in the upper part of FIG. The line segment L1L represents a top view of the vertical plane including the left side surface of the upper swing body 63, and the line segment L1R represents a top view of the vertical plane including the right side surface of the upper swing body 63. The lower part of FIG. 20 shows a state in which the line segments L1L and L1R and the regions R17L and R17R are not shown.

画像生成装置100は、重複出力部分R15Lから領域R17Lを除外し、後方カメラ2Bの入力画像のみを領域R17Lに対応付け、左側方カメラ2Lの入力画像を領域R17Lに対応付けなかったとしても、重複領域に存在する物体を出力画像から消失させることはない。領域R17Lに対応付けられる後方カメラ2Bの入力画像は、後方カメラ2Bの撮像範囲の中心に近い部分であるのに対し、領域R17Lに対応付けられる左側方カメラ2Lの入力画像は、左側方カメラ2Lの撮像範囲の端部に近い部分であるためである。重複出力部分R15Rについても同様である。   The image generation apparatus 100 excludes the region R17L from the overlapping output portion R15L, associates only the input image of the rear camera 2B with the region R17L, and does not associate the input image of the left camera 2L with the region R17L. Objects existing in the region are not lost from the output image. The input image of the rear camera 2B associated with the region R17L is a portion close to the center of the imaging range of the rear camera 2B, while the input image of the left camera 2L associated with the region R17L is the left camera 2L. This is because the portion is close to the end of the imaging range. The same applies to the overlapping output portion R15R.

このようにして、画像生成装置100は、重複領域に存在する物体を出力画像から消失させることなく、消失防止処理適用範囲を小さくすることができる。その結果、画像生成装置100は、消失防止処理を施すことによって出力画像の視認性が低下するのを防止することができる。   In this manner, the image generation apparatus 100 can reduce the application range of the disappearance prevention process without causing the object existing in the overlapping region to disappear from the output image. As a result, the image generating apparatus 100 can prevent the visibility of the output image from being lowered by performing the disappearance prevention process.

ここで、図21を参照して、消失防止処理適用範囲調整処理の別の一例(以下、「第2消失防止処理適用範囲調整処理」とする。)について説明する。なお、図21は、ショベル60の後方に存在する物体と出力画像の路面画像部分におけるその物体の投影像との関係を示す図である。また、図21のA1、B1はショベル60の上面図であり、図21のA2、B2はショベル60の側面図である。なお、A1の上面図はA2の側面図に対応し、B1の上面図はB2の側面図に対応する。   Here, another example of the disappearance prevention process application range adjustment process (hereinafter referred to as “second disappearance prevention process application range adjustment process”) will be described with reference to FIG. 21. FIG. 21 is a diagram illustrating a relationship between an object existing behind the excavator 60 and a projected image of the object in the road surface image portion of the output image. 21 are top views of the excavator 60, and A2 and B2 in FIG. 21 are side views of the excavator 60. The top view of A1 corresponds to the side view of A2, and the top view of B1 corresponds to the side view of B2.

本実施例では、画像生成装置100は、平面領域R1を有する空間モデルMDに関する性質を利用して、所定高さ未満の物体が出力画像から消失するのを防止しながら消失防止処理適用範囲を決定する。   In the present embodiment, the image generation apparatus 100 determines the disappearance prevention process application range while preventing an object less than a predetermined height from disappearing from the output image by using the property related to the spatial model MD having the planar region R1. To do.

具体的には、画像生成装置100は、路面からの高さが異なる2つの平面領域を利用する。2つの平面領域の一方(以下、「第1平面領域」とする。)は、出力画像を生成する際に用いられる空間モデルMDの平面領域R1であり、本実施例では、路面からの高さが0cmの平面領域、すなわち、路面に等しい高さを有する平面領域である。また、2つの平面領域の他方(以下、「第2平面領域」とする。)は、第1平面領域とは異なる高さを有する平面領域R1aであり、本実施例では、路面からの高さが人の頭の高さHT(例えば、160cm)の平面領域R1aである。   Specifically, the image generating apparatus 100 uses two planar regions having different heights from the road surface. One of the two plane areas (hereinafter referred to as “first plane area”) is the plane area R1 of the spatial model MD used when generating the output image, and in this embodiment, the height from the road surface. Is a planar area of 0 cm, that is, a planar area having a height equal to the road surface. The other of the two planar regions (hereinafter referred to as “second planar region”) is a planar region R1a having a height different from that of the first planar region, and in this embodiment, the height from the road surface. Is a planar region R1a having a human head height HT (for example, 160 cm).

図21のA1、A2は、ショベル60の後方に存在する物体と平面領域R1に投影される投影像との関係を示し、図21のB1、B2は、ショベル60の後方に存在する物体と平面領域R1aに投影される投影像との関係を示す。   A1 and A2 in FIG. 21 show the relationship between the object existing behind the excavator 60 and the projected image projected onto the plane region R1, and B1 and B2 in FIG. The relationship with the projection image projected on area | region R1a is shown.

図21のA1において、平面領域R1に投影される一点鎖線で示す投影像PRJa1、PRJb1はそれぞれ、物体OBJa、OBJbの投影像であり、後方カメラ2Bの入力画像に基づく。また、平面領域R1に投影される点線で示す投影像PRJa2、PRJb2はそれぞれ、物体OBJa、OBJbの投影像であり、左側方カメラ2Lの入力画像に基づく。   In A1 of FIG. 21, the projection images PRJa1 and PRJb1 indicated by the alternate long and short dash lines projected onto the plane region R1 are the projection images of the objects OBJa and OBJb, respectively, and are based on the input image of the rear camera 2B. Projected images PRJa2 and PRJb2 indicated by dotted lines projected onto the planar region R1 are projected images of the objects OBJa and OBJb, respectively, and are based on the input image of the left-side camera 2L.

また、点Pa1は、投影像PRJa1のうち後方カメラ2Bに最も近い点を表し、点Pa2は、投影像PRJa2のうち左側方カメラ2Lに最も近い点を表す。また、点Pb1は、投影像PRJb1のうち後方カメラ2Bに最も近い点を表し、点Pb2は、投影像PRJb2のうち左側方カメラ2Lに最も近い点を表す。また、A1では、点Pa1と点Pa2とが同じ点(重複点)となり、点Pb1と点Pb2とが同じ点(重複点)となる。なお、A2では、図の明瞭化のため、左側方カメラ2L、物体OBJb、投影像PRJa2、PRJb1、PRJb2、及び点Pa2、Pb1、Pb2の図示を省略する。   The point Pa1 represents the point closest to the rear camera 2B in the projection image PRJa1, and the point Pa2 represents the point closest to the left-side camera 2L in the projection image PRJa2. The point Pb1 represents the point closest to the rear camera 2B in the projection image PRJb1, and the point Pb2 represents the point closest to the left-side camera 2L in the projection image PRJb2. In A1, the point Pa1 and the point Pa2 are the same point (overlapping point), and the point Pb1 and the point Pb2 are the same point (overlapping point). In A2, illustration of the left side camera 2L, the object OBJb, the projection images PRJa2, PRJb1, PRJb2, and the points Pa2, Pb1, Pb2 is omitted for clarity of illustration.

また、A1における線BLは、左側方カメラ2Lに対する入射角と後方カメラ2Bに対する入射角とが等しくなる点の集合が形成する線である。すなわち、線BL上の任意の点と左側方カメラ2Lの光学中心とを結ぶ線分が左側方カメラ2Lの光軸との間に形成する角度(入射角)は、その任意の点と後方カメラ2Bの光学中心とを結ぶ線分が後方カメラ2Bの光軸との間に形成する角度(入射角)に等しい。また、A1における破線領域R15Lは、左側方カメラ2Lの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に対応する平面領域R1上の重複出力部分を表す。   A line BL in A1 is a line formed by a set of points at which the incident angle with respect to the left camera 2L is equal to the incident angle with respect to the rear camera 2B. That is, an angle (incident angle) formed between a line segment connecting an arbitrary point on the line BL and the optical center of the left-side camera 2L with the optical axis of the left-side camera 2L is an arbitrary point and the rear camera. A line segment connecting the optical center of 2B is equal to an angle (incident angle) formed between the optical axis of the rear camera 2B. A broken line area R15L in A1 represents an overlapping output portion on the planar area R1 corresponding to an overlapping area between the imaging range of the left camera 2L and the imaging range of the rear camera 2B.

同様に、図21のB1において、高さHTの平面領域R1aに投影される一点鎖線で示す投影像PRJa1v、PRJb1vはそれぞれ、物体OBJa、OBJbの投影像であり、後方カメラ2Bの入力画像に基づく。また、高さHTの平面領域R1aに投影される点線で示す投影像PRJa2v、PRJb2vはそれぞれ、物体OBJa、OBJbの投影像であり、左側方カメラ2Lの入力画像に基づく。   Similarly, in B1 of FIG. 21, projection images PRJa1v and PRJb1v indicated by alternate long and short dash lines projected onto the planar region R1a having the height HT are projection images of the objects OBJa and OBJb, respectively, and are based on the input image of the rear camera 2B. . In addition, projection images PRJa2v and PRJb2v indicated by dotted lines projected onto the planar region R1a having the height HT are projection images of the objects OBJa and OBJb, respectively, and are based on the input image of the left-side camera 2L.

また、点Pa1vは、投影像PRJa1vのうち後方カメラ2Bに最も近い点を表し、点Pa2vは、投影像PRJa2vのうち左側方カメラ2Lに最も近い点を表す。また、点Pb1vは、投影像PRJb1vのうち後方カメラ2Bに最も近い点を表し、点Pb2vは、投影像PRJb2vのうち左側方カメラ2Lに最も近い点を表す。また、B1では、A1の場合と異なり、点Pa1vと点Pa2vとが別々の点となり、点Pb1vと点Pb2vとが別々の点となる。なお、B2では、図の明瞭化のため、左側方カメラ2L、物体OBJb、投影像PRJa2v、PRJb1v、PRJb2v、及び点Pa2v、Pb1v、Pb2vの図示を省略する。   The point Pa1v represents the point closest to the rear camera 2B in the projection image PRJa1v, and the point Pa2v represents the point closest to the left camera 2L in the projection image PRJa2v. The point Pb1v represents the point closest to the rear camera 2B in the projection image PRJb1v, and the point Pb2v represents the point closest to the left-side camera 2L in the projection image PRJb2v. In B1, unlike in the case of A1, the points Pa1v and Pa2v are separate points, and the points Pb1v and Pb2v are separate points. In B2, the left camera 2L, the object OBJb, the projection images PRJa2v, PRJb1v, PRJb2v, and points Pa2v, Pb1v, and Pb2v are omitted for clarity.

また、B1における線BLvは、A1における線BLと同様、左側方カメラ2Lに対する入射角と後方カメラ2Bに対する入射角とが等しくなる点の集合が形成する線である。また、B1における破線領域R15Lvは、左側方カメラ2Lの撮像範囲と後方カメラ2Bの撮像範囲との重複領域に対応する平面領域R1a上の重複出力部分を表す。   Similarly to the line BL in A1, the line BLv in B1 is a line formed by a set of points where the incident angle with respect to the left camera 2L and the incident angle with respect to the rear camera 2B are equal. A broken line area R15Lv in B1 represents an overlapping output portion on the planar area R1a corresponding to an overlapping area between the imaging range of the left camera 2L and the imaging range of the rear camera 2B.

図21のA1、A2に示すように、平面領域R1では、物体OBJaの投影像PRJa1は、路面の高さにある部分の大きさ(点Pa1における画像の大きさであり、例えば、人物の足下の画像の大きさである。)がショベル60からの距離に見合う大きさとなる。すなわち、画像生成装置100は、出力画像におけるショベル60のCG画像の大きさと投影像PRJa1の点Pa1付近における部分の大きさとの関係が、実際のショベル60の大きさと実際の物体OBJaの大きさとの関係に等しくなるようにする。そして、画像生成装置100は、出力画像におけるショベル60のCG画像と投影像PRJa1の点Pa1付近における部分との見かけ上の距離(それぞれの大きさから把握される距離)が、実際のショベル60と実際の物体OBJaとの距離を表すようにする。また、投影像PRJa1は、点Pa1と後方カメラ2Bの光学中心とを結ぶ直線に沿ってショベル60から離れるにつれて徐々に大きく表示される傾向を有する。同様に、物体OBJaの投影像PRJa2は、路面の高さにある部分の大きさ(点Pa2における画像の大きさであり、例えば、人物の足下の画像の大きさである。)がショベル60からの距離に見合う大きさとなる。そして、投影像PRJa2は、点Pa2と後方カメラ2Bの光学中心とを結ぶ直線に沿ってショベル60から離れるにつれて徐々に大きく表示される傾向を有する。そのため、投影像PRJa1、PRJa2は、同一点である点Pa1、Pa2から遠方に向けて異なる2方向にその大きさを拡大させながら伸びる傾向を有する。物体OBJbの投影像PRJb1、PRJb2についても同様である。   As shown in A1 and A2 of FIG. 21, in the planar region R1, the projection image PRJa1 of the object OBJa is the size of the portion at the height of the road surface (the size of the image at the point Pa1, for example, the foot of a person Is a size commensurate with the distance from the excavator 60. That is, the image generating apparatus 100 has a relationship between the size of the CG image of the shovel 60 in the output image and the size of the portion of the projection image PRJa1 near the point Pa1 between the actual size of the shovel 60 and the actual size of the object OBJa. Try to be equal to the relationship. Then, the image generating apparatus 100 determines that the apparent distance between the CG image of the excavator 60 in the output image and the portion in the vicinity of the point Pa1 of the projection image PRJa1 (distance grasped from each size) is the actual excavator 60. The distance from the actual object OBJa is expressed. Further, the projection image PRJa1 has a tendency to be gradually displayed larger as the distance from the shovel 60 increases along a straight line connecting the point Pa1 and the optical center of the rear camera 2B. Similarly, the projection image PRJa2 of the object OBJa has a size of a portion at the height of the road surface (the size of the image at the point Pa2, for example, the size of the image of a person's feet) from the shovel 60. The size will be suitable for the distance. Then, the projected image PRJa2 has a tendency to be gradually displayed with increasing distance from the shovel 60 along a straight line connecting the point Pa2 and the optical center of the rear camera 2B. Therefore, the projected images PRJa1 and PRJa2 have a tendency to expand while expanding their sizes in two different directions from the points Pa1 and Pa2 that are the same point toward the far side. The same applies to the projection images PRJb1 and PRJb2 of the object OBJb.

一方、図21のB1、B2に示すように、平面領域R1aでは、物体OBJaの投影像PRJa1vは、高さHTにおける部分の大きさ(例えば、人物の頭部の画像の大きさである。)がショベル60からの距離に見合う大きさとなる。すなわち、画像生成装置100は、出力画像におけるショベル60のCG画像の大きさと投影像PRJa1vの高さHTに対応する部分の大きさとの関係が、実際のショベル60の大きさと実際の物体OBJaの大きさとの関係に等しくなるようにする。そして、画像生成装置100は、出力画像におけるショベル60のCG画像と投影像PRJa1の高さHTにおける部分との見かけ上の距離(それぞれの大きさから把握される距離)が、実際のショベル60と実際の物体OBJaとの距離を表すようにする。また、投影像PRJa1vは、投影像PRJa1と同様、点Pa1vと後方カメラ2Bの光学中心とを結ぶ直線に沿ってショベル60から離れるにつれて徐々に大きく表示される傾向を有する。同様に、物体OBJaの投影像PRJa2vは、高さHTにおける部分の大きさ(例えば、人物の頭部の画像の大きさである。)がショベル60からの距離に見合う大きさとなる。そして、投影像PRJa2は、投影像PRJa2と同様、点Pa2vと後方カメラ2Bの光学中心とを結ぶ直線に沿ってショベル60から離れるにつれて徐々に大きく表示される傾向を有する。そのため、投影像PRJa1v、PRJa2vは、別々の点である点Pa1v、Pa2vから遠方に向けて異なる2方向にその大きさを拡大させながら伸び、高さHTにある物体OBJaの部分(例えば、頭部である。)のところで重なる傾向を有する。物体OBJbの投影像PRJb1v、PRJb2vについても同様である。   On the other hand, as shown in B1 and B2 of FIG. 21, in the planar region R1a, the projection image PRJa1v of the object OBJa is the size of the portion at the height HT (for example, the size of the image of the human head). Becomes a size corresponding to the distance from the excavator 60. That is, the image generation apparatus 100 has a relationship between the size of the CG image of the shovel 60 in the output image and the size of the portion corresponding to the height HT of the projection image PRJa1v, and the size of the actual shovel 60 and the size of the actual object OBJa. To be equal to the relationship. Then, the image generation apparatus 100 determines that the apparent distance between the CG image of the excavator 60 in the output image and the portion at the height HT of the projection image PRJa1 (the distance grasped from each size) is the actual excavator 60. The distance from the actual object OBJa is expressed. Similarly to the projection image PRJa1, the projection image PRJa1v has a tendency to be gradually enlarged as it moves away from the shovel 60 along a straight line connecting the point Pa1v and the optical center of the rear camera 2B. Similarly, in the projection image PRJa2v of the object OBJa, the size of the portion at the height HT (for example, the size of the image of the head of a person) has a size commensurate with the distance from the shovel 60. And projection image PRJa2 has the tendency which is gradually displayed large as it leaves | separates from the shovel 60 along the straight line which connects point Pa2v and the optical center of the rear camera 2B similarly to projection image PRJa2. Therefore, the projection images PRJa1v and PRJa2v extend from the points Pa1v and Pa2v, which are separate points, while expanding their sizes in two different directions, and are portions of the object OBJa at the height HT (for example, the head There is a tendency to overlap. The same applies to the projection images PRJb1v and PRJb2v of the object OBJb.

また、図21のA2、B2から分かるように、投影像PRJa1、PRJa2、PRJb1、PRJb2はそれぞれ、投影像PRJa1v、PRJa2v、PRJb1v、PRJb2vと相似である。具体的には、投影像PRJa1と投影像PRJa1vは、後方カメラ2Bの位置を相似の中心として互いに相似であり、投影像PRJb1と投影像PRJb1vは、後方カメラ2Bの位置を相似の中心として互いに相似である。そして、後方カメラ2Bの高さをH1とすると、投影像PRJa1と投影像PRJa1vの長さの比、及び、投影像PRJb1と投影像PRJb1vの長さの比は何れもH1:(H1−HT)である。また、投影像PRJa2と投影像PRJa2vは、左側方カメラ2Lの位置を相似の中心として互いに相似であり、投影像PRJb2と投影像PRJb2vは、左側方カメラ2Lの位置を相似の中心として互いに相似である。そして、左側方カメラ2Lの高さをH2とすると、投影像PRJa2と投影像PRJa2vの長さの比、及び、投影像PRJb2と投影像PRJb2vの長さの比は何れもH2:(H2−HT)である。   Further, as can be seen from A2 and B2 in FIG. 21, the projection images PRJa1, PRJa2, PRJb1, and PRJb2 are similar to the projection images PRJa1v, PRJa2v, PRJb1v, and PRJb2v, respectively. Specifically, the projection image PRJa1 and the projection image PRJa1v are similar to each other with the position of the rear camera 2B as a similar center, and the projection image PRJb1 and the projection image PRJb1v are similar to each other with the position of the rear camera 2B as a similar center. It is. When the height of the rear camera 2B is H1, the ratio of the lengths of the projection image PRJa1 and the projection image PRJa1v and the ratio of the lengths of the projection image PRJb1 and the projection image PRJb1v are all H1: (H1-HT). It is. The projection image PRJa2 and the projection image PRJa2v are similar to each other with the position of the left camera 2L as the center of similarity, and the projection image PRJb2 and the projection image PRJb2v are similar to each other with the position of the left camera 2L as the center of similarity. is there. When the height of the left camera 2L is H2, the ratio of the lengths of the projection image PRJa2 and the projection image PRJa2v and the ratio of the lengths of the projection image PRJb2 and the projection image PRJb2v are both H2: (H2-HT. ).

A1において、線BLより右側の領域に後方カメラ2Bの入力画像を投影し、線BLより左側の領域に左側方カメラ2Lの入力画像を投影すると、物体OBJaの投影像PRJa1は、左側方カメラ2Lの入力画像によって上書きされ、また、物体OBJaの投影像PRJa2は、後方カメラ2Bの入力画像によって上書きされる。その結果、投影像PRJa1、PRJa2は、点Pa1、Pa2の周りの僅かな部分を残して消失する。一方、物体OBJbの投影像PRJb2は、後方カメラ2Bの入力画像によって上書きされるが、物体OBJbの投影像PRJb1は、左側方カメラ2Lの入力画像によって上書きされることがない。すなわち、物体OBJbの投影像PRJb1は、線BLより右側の領域に後方カメラ2Bの入力画像を投影し、線BLより左側の領域に左側方カメラ2Lの入力画像を投影したとしても消失することがない。これは、高さHT未満の物体の投影像の消失を防止しながらも消失防止処理を省略できることを意味する。すなわち、消失の防止を希望する最大高さHTが決定されれば消失防止処理適用範囲を決定できることを意味する。なお、本実施例では、「物体OBJaの投影像の消失」とは、消失防止処理後の出力画像における2つの投影像PRJa1及びPRJa2による情報量(例えば、投影像PRJa1及びPRJa2が映し出す物体OBJaの領域)が、2つの入力画像の何れか一方による情報量(例えば、2つの入力画像の何れか一方が映し出す物体OBJaの領域)よりも小さい状態を意味する。   In A1, when the input image of the rear camera 2B is projected on the area on the right side of the line BL and the input image of the left camera 2L is projected on the area on the left side of the line BL, the projection image PRJa1 of the object OBJa is the left camera 2L. The projected image PRJa2 of the object OBJa is overwritten by the input image of the rear camera 2B. As a result, the projection images PRJa1 and PRJa2 disappear with a slight portion around the points Pa1 and Pa2. On the other hand, the projection image PRJb2 of the object OBJb is overwritten by the input image of the rear camera 2B, but the projection image PRJb1 of the object OBJb is not overwritten by the input image of the left camera 2L. That is, the projection image PRJb1 of the object OBJb may be lost even if the input image of the rear camera 2B is projected on the area on the right side of the line BL and the input image of the left camera 2L is projected on the area on the left side of the line BL. Absent. This means that the disappearance prevention process can be omitted while preventing the disappearance of the projected image of the object less than the height HT. That is, if the maximum height HT desired to prevent disappearance is determined, it means that the application range of the disappearance prevention process can be determined. In the present embodiment, “disappearance of the projected image of the object OBJa” refers to the information amount (for example, the object OBJa projected by the projected images PRJa1 and PRJa2) in the output image after the disappearance prevention processing, based on the two projected images PRJa1 and PRJa2. (Region) means a state where the amount of information by one of the two input images (for example, the region of the object OBJa on which one of the two input images is projected) is smaller.

そこで、画像生成装置100は、平面領域R1上の1つの座標に対応する平面領域R1a上の2つの座標の位置関係に基づいて、平面領域R1上の1つの座標に消失防止処理を施すか否かを決定する。   Therefore, the image generating apparatus 100 determines whether or not to perform the disappearance prevention process on one coordinate on the plane area R1 based on the positional relationship between the two coordinates on the plane area R1a corresponding to one coordinate on the plane area R1. To decide.

具体的には、画像生成装置100は、平面領域R1上の1つの重複点Pa1(Pa2)に対応する平面領域R1a上の2つの点Pa1v、Pa2vを導き出す。より具体的には、画像生成装置100は、平面領域R1における投影像PRJa1、PRJa2がそれぞれ、平面領域R1aにおける投影像PRJa1v、PRJa2vと相似である点に基づいて、平面領域R1a上の2つの点Pa1v、Pa2vを導き出す。そして、画像生成装置100は、それら2つの点Pa1v、Pa2vが線BLvの右側又は左側の何れに存在するかを判定する。そして、画像生成装置100は、それら2つの点Pa1v、Pa2vの一方が線BLvの右側に存在し、他方が線BLvの左側に存在する場合に、平面領域R1上の1つの重複点Pa1(Pa2)に消失防止処理を施す。すなわち、画像生成装置100は、平面領域R1上の1つの重複点Pa1(Pa2)に対応する平面領域R1a上の2つの点Pa1v、Pa2vが線BLvの両側に跨って存在する場合に、平面領域R1上の1つの重複点Pa1(Pa2)に消失防止処理を施すようにする。   Specifically, the image generating apparatus 100 derives two points Pa1v and Pa2v on the plane area R1a corresponding to one overlapping point Pa1 (Pa2) on the plane area R1. More specifically, the image generating apparatus 100 has two points on the planar region R1a based on points where the projected images PRJa1 and PRJa2 in the planar region R1 are similar to the projected images PRJa1v and PRJa2v in the planar region R1a, respectively. Pa1v and Pa2v are derived. Then, the image generation apparatus 100 determines whether the two points Pa1v and Pa2v are on the right side or the left side of the line BLv. Then, the image generating apparatus 100 has one overlapping point Pa1 (Pa2) on the plane region R1 when one of the two points Pa1v and Pa2v exists on the right side of the line BLv and the other exists on the left side of the line BLv. ) To prevent loss. In other words, the image generation apparatus 100 determines that the planar area when the two points Pa1v and Pa2v on the planar area R1a corresponding to one overlapping point Pa1 (Pa2) on the planar area R1 straddle both sides of the line BLv. A loss prevention process is performed on one overlapping point Pa1 (Pa2) on R1.

図21のB1では、点Pa1vが線BLvの右側に存在し、点Pa2vが線BLvの左側に存在するため、画像生成装置100は、平面領域R1上の重複点Pa1(Pa2)に対して消失防止処理を施す。具体的には、画像生成装置100は、図15のステップS13における処理を実行し、平面領域R1上の重複点Pa1(Pa2)に対応付けるカメラを選択する。   In B1 of FIG. 21, since the point Pa1v exists on the right side of the line BLv and the point Pa2v exists on the left side of the line BLv, the image generating apparatus 100 disappears with respect to the overlapping point Pa1 (Pa2) on the plane region R1. Apply prevention treatment. Specifically, the image generation device 100 executes the process in step S13 of FIG. 15 and selects a camera that is associated with the overlapping point Pa1 (Pa2) on the planar region R1.

同様に、画像生成装置100は、平面領域R1上の1つの重複点Pb1(Pb2)に対応する平面領域R1a上の2つの点Pb1v、Pb2vを導き出す。そして、画像生成装置100は、それら2つの点Pb1v、Pb2vが線BLvの右側又は左側の何れに存在するかを判定する。そして、画像生成装置100は、それら2つの点Pb1v、Pb2vの双方が線BLvの同じ側に存在する場合に、平面領域R1上の1つの点Pb1(Pb2)に対する消失防止処理を省略する。   Similarly, the image generation device 100 derives two points Pb1v and Pb2v on the plane region R1a corresponding to one overlapping point Pb1 (Pb2) on the plane region R1. Then, the image generating apparatus 100 determines whether the two points Pb1v and Pb2v are on the right side or the left side of the line BLv. Then, the image generation apparatus 100 omits the disappearance prevention process for one point Pb1 (Pb2) on the plane region R1 when both of the two points Pb1v and Pb2v exist on the same side of the line BLv.

図21のB1では、点Pb1vが線BLvの右側に存在し、点Pb2vも線BLvの右側に存在するため、画像生成装置100は、平面領域R1上の1つの重複点Pb1(Pb2)に対する消失防止処理を省略する。具体的には、画像生成装置100は、平面領域R1上の1つの重複点Pb1(Pb2)に対応付けるカメラとして、入射角が小さい方の後方カメラ2Bを選択する。   In B1 of FIG. 21, since the point Pb1v exists on the right side of the line BLv and the point Pb2v also exists on the right side of the line BLv, the image generating apparatus 100 disappears with respect to one overlapping point Pb1 (Pb2) on the plane region R1. The prevention process is omitted. Specifically, the image generation device 100 selects the rear camera 2B having a smaller incident angle as a camera associated with one overlapping point Pb1 (Pb2) on the planar region R1.

次に、図22を参照して、第1平面領域における重複出力部分と、第2平面領域における重複出力部分との関係について説明する。なお、図22は、第1平面領域R1における重複出力部分R15Lと、第2平面領域R1aにおける重複出力部分R15Lvとの関係を示す模式図である。   Next, with reference to FIG. 22, the relationship between the overlapping output portion in the first plane region and the overlapping output portion in the second plane region will be described. FIG. 22 is a schematic diagram showing the relationship between the overlapping output portion R15L in the first planar region R1 and the overlapping output portion R15Lv in the second planar region R1a.

図22に示すように、重複出力部分R15Lは、消失防止処理を適用しないと判定される部分R15L−1(右下がり斜線ハッチング部分)及び部分R15L−2(左下がり斜線ハッチング部分)、並びに、消失防止処理を適用すると判定される部分R15L−3(ドットハッチング部分)を含む。また、重複出力部分R15Lvは、線BLvの左側の部分R15Lv−1(右下がり斜線ハッチング部分)、及び、線BLvの右側の部分R15Lv−2(左下がり斜線ハッチング部分)を含む。また、部分R15L−1と部分R15Lv−1は、後方カメラ2Bの位置を相似の中心として互いに相似であり、部分R15L−2と部分R15Lv−2は、左側方カメラ2Lの位置を相似の中心として互いに相似である。なお、重複出力部分R15Lvには、重複出力部分R15Lの部分R15L−3に対応する部分が存在しない。   As illustrated in FIG. 22, the overlapping output portion R15L includes a portion R15L-1 (right-downward hatched portion) and a portion R15L-2 (left-downward hatched portion) that are determined not to apply the erasure prevention process, and an erasure. A portion R15L-3 (dot hatched portion) determined to apply the prevention process is included. In addition, the overlapping output portion R15Lv includes a left portion R15Lv-1 (a right-down oblique hatching portion) of the line BLv and a right portion R15Lv-2 (a left-down oblique hatching portion) of the line BLv. Further, the part R15L-1 and the part R15Lv-1 are similar to each other with the position of the rear camera 2B as the center of similarity, and the part R15L-2 and the part R15Lv-2 have the position of the left camera 2L as the center of similarity. They are similar to each other. Note that the overlapping output portion R15Lv does not have a portion corresponding to the portion R15L-3 of the overlapping output portion R15L.

そして、本実施例では、平面領域R1の部分R15L−1内の1座標PP1は、平面領域R1aの部分R15Lv−1内の2座標PP11、PP12に対応する。具体的には、座標PP1と座標PP11は、左側方カメラ2Lの位置を相似の中心として互いに相似の位置にあり、座標PP1と座標PP12は、後方カメラ2Bの位置を相似の中心として互いに相似の位置にある。そして、2座標PP11、PP12は何れも線BLvの左側に存在する。そのため、平面領域R1の部分R15L−1には消失防止処理が適用されない。なお、平面領域R1の部分R15L−1内の1座標PP1は、左側方カメラ2Lの入力画像平面における1座標(図示せず。)、及び、後方カメラ2Bの入力画像平面における1座標(図示せず。)の双方に対応する。また、平面領域R1aの部分R15Lv−1内の2座標PP11、PP12はそれぞれ、平面領域R1の部分R15L−1内の1座標PP1、左側方カメラ2Lの入力画像平面における1座標(図示せず。)、及び、後方カメラ2Bの入力画像平面における1座標(図示せず。)に対応する。   In this embodiment, one coordinate PP1 in the portion R15L-1 of the plane region R1 corresponds to two coordinates PP11 and PP12 in the portion R15Lv-1 of the plane region R1a. Specifically, the coordinates PP1 and the coordinates PP11 are similar to each other with the position of the left camera 2L as the center of similarity, and the coordinates PP1 and PP12 are similar to each other with the position of the rear camera 2B as the center of similarity. In position. The two coordinates PP11 and PP12 are on the left side of the line BLv. For this reason, the disappearance prevention process is not applied to the portion R15L-1 of the planar region R1. One coordinate PP1 in the portion R15L-1 of the plane region R1 is one coordinate (not shown) on the input image plane of the left camera 2L and one coordinate (not shown) on the input image plane of the rear camera 2B. Z)). Further, two coordinates PP11 and PP12 in the portion R15Lv-1 of the plane region R1a are respectively one coordinate PP1 in the portion R15L-1 of the plane region R1 and one coordinate (not shown) in the input image plane of the left side camera 2L. ) And one coordinate (not shown) in the input image plane of the rear camera 2B.

同様に、平面領域R1の部分R15L−2内の1座標PP2は、平面領域R1aの部分R15Lv−2内の2座標PP21、PP22に対応する。具体的には、座標PP2と座標PP21は、左側方カメラ2Lの位置を相似の中心として互いに相似の位置にあり、座標PP2と座標PP22は、後方カメラ2Bの位置を相似の中心として互いに相似の位置にある。そして、2座標PP21、PP22は何れも線BLvの右側に存在する。そのため、平面領域R1の部分R15L−2には消失防止処理が適用されない。なお、平面領域R1の部分R15L−2内の1座標PP2は、左側方カメラ2Lの入力画像平面における1座標(図示せず。)、及び、後方カメラ2Bの入力画像平面における1座標(図示せず。)の双方に対応する。また、平面領域R1aの部分R15Lv−2内の2座標PP21、PP22はそれぞれ、平面領域R1の部分R15L−2内の1座標PP2、左側方カメラ2Lの入力画像平面における1座標(図示せず。)、及び、後方カメラ2Bの入力画像平面における1座標(図示せず。)に対応する。   Similarly, the one coordinate PP2 in the portion R15L-2 of the plane region R1 corresponds to the two coordinates PP21 and PP22 in the portion R15Lv-2 of the plane region R1a. Specifically, the coordinates PP2 and PP21 are similar to each other with the position of the left camera 2L as the similar center, and the coordinates PP2 and PP22 are similar to each other with the position of the rear camera 2B as the similar center. In position. The two coordinates PP21 and PP22 are both on the right side of the line BLv. Therefore, the disappearance prevention process is not applied to the portion R15L-2 of the planar region R1. One coordinate PP2 in the portion R15L-2 of the plane area R1 is one coordinate (not shown) on the input image plane of the left camera 2L and one coordinate (not shown) on the input image plane of the rear camera 2B. Z)). Further, two coordinates PP21 and PP22 in the portion R15Lv-2 of the plane region R1a are respectively one coordinate PP2 in the portion R15L-2 of the plane region R1 and one coordinate (not shown) on the input image plane of the left camera 2L. ) And one coordinate (not shown) in the input image plane of the rear camera 2B.

一方、平面領域R1の部分R15L−3内の1座標PP3は、平面領域R1aの部分R15Lv−1内の1座標PP31、及び、平面領域R1aの部分R15Lv−2内の1座標PP32に対応する。具体的には、座標PP3と座標PP31は、左側方カメラ2Lの位置を相似の中心として互いに相似の位置にあり、座標PP3と座標PP32は、後方カメラ2Bの位置を相似の中心として互いに相似の位置にある。そして、座標PP31は線BLvの左側に存在し、座標PP32は線BLvの右側に存在する。そのため、平面領域R1の部分R15L−3には消失防止処理が適用される。なお、平面領域R1の部分R15L−3内の1座標PP3は、左側方カメラ2Lの入力画像平面における1座標(図示せず。)、及び、後方カメラ2Bの入力画像平面における1座標(図示せず。)の双方に対応する。また、平面領域R1aの部分R15Lv−1内の2座標PP31、PP32は、平面領域R1の部分R15L−3内の1座標PP3、左側方カメラ2Lの入力画像平面における1座標(図示せず。)、及び、後方カメラ2Bの入力画像平面における1座標(図示せず。)に対応する。   On the other hand, one coordinate PP3 in the portion R15L-3 of the planar region R1 corresponds to one coordinate PP31 in the portion R15Lv-1 of the planar region R1a and one coordinate PP32 in the portion R15Lv-2 of the planar region R1a. Specifically, the coordinates PP3 and PP31 are similar to each other with the position of the left camera 2L as the similar center, and the coordinates PP3 and PP32 are similar to each other with the position of the rear camera 2B as the similar center. In position. The coordinate PP31 exists on the left side of the line BLv, and the coordinate PP32 exists on the right side of the line BLv. For this reason, the disappearance prevention process is applied to the portion R15L-3 of the planar region R1. One coordinate PP3 in the portion R15L-3 of the plane region R1 is one coordinate (not shown) in the input image plane of the left camera 2L and one coordinate (not shown) in the input image plane of the rear camera 2B. Z)). Further, two coordinates PP31 and PP32 in the portion R15Lv-1 of the plane region R1a are one coordinate PP3 in the portion R15L-3 of the plane region R1 and one coordinate (not shown) in the input image plane of the left side camera 2L. , And one coordinate (not shown) in the input image plane of the rear camera 2B.

次に、図23を参照して、第2消失防止処理適用範囲調整処理の流れについて説明する。なお、図23は、第2消失防止処理適用範囲調整処理の流れを示すフローチャートである。画像生成装置100は、例えば、平面領域R1上の全ての画素を順番に注目画素としながらこの第2消失防止処理適用範囲調整処理を実行する。   Next, the flow of the second disappearance prevention process application range adjustment process will be described with reference to FIG. FIG. 23 is a flowchart showing the flow of the second disappearance prevention process application range adjustment process. For example, the image generation apparatus 100 executes the second disappearance prevention process application range adjustment process while sequentially setting all the pixels on the plane region R1 as the target pixel.

最初に、画像生成装置100は、注目画素に対応する画素が第1カメラの入力画像上に存在するか否かを判定する(ステップS21)。本実施例では、画像生成装置100は、入力画像・空間モデル対応マップ40を参照し、平面領域R1上の一画素(注目画素)に対応する画素が左側方カメラ2Lの入力画像上に存在するか否かを判定する。   First, the image generating apparatus 100 determines whether or not a pixel corresponding to the target pixel exists on the input image of the first camera (step S21). In the present embodiment, the image generation apparatus 100 refers to the input image / space model correspondence map 40, and a pixel corresponding to one pixel (target pixel) on the planar region R1 exists on the input image of the left-side camera 2L. It is determined whether or not.

その後、注目画素に対応する画素が第1カメラの入力画像上に存在すると判定した場合(ステップS21のYES)、画像生成装置100は、その注目画素に対応する画素が第2カメラの入力画像上に存在するか否かを判定する(ステップS22)。本実施例では、画像生成装置100は、注目画素に対応する画素が左側方カメラ2Lの入力画像上に存在すると判定した場合、入力画像・空間モデル対応マップ40を参照し、その注目画素に対応する画素が後方カメラ2Bの入力画像上に存在するか否かを判定する。   Thereafter, when it is determined that a pixel corresponding to the target pixel exists on the input image of the first camera (YES in step S21), the image generation device 100 determines that the pixel corresponding to the target pixel is on the input image of the second camera. (Step S22). In this embodiment, when it is determined that the pixel corresponding to the target pixel is present on the input image of the left-side camera 2L, the image generation apparatus 100 refers to the input image / space model correspondence map 40 and corresponds to the target pixel. It is determined whether or not the pixel to be present exists on the input image of the rear camera 2B.

その後、注目画素に対応する画素が第2カメラの入力画像平面上に存在すると判定した場合(ステップS22のYES)、画像生成装置100は、後述の消失防止処理要否判定処理を実行する(ステップS23)。本実施例では、画像生成装置100は、注目画素に対応する画素が後方カメラ2B及び左側方カメラ2Lの双方の入力画像上に存在すると判定した場合に後述の消失防止処理要否判定処理を実行する。   Thereafter, when it is determined that the pixel corresponding to the target pixel exists on the input image plane of the second camera (YES in step S22), the image generation device 100 executes a loss prevention process necessity determination process described later (step S22). S23). In the present embodiment, the image generating apparatus 100 executes a loss prevention process necessity determination process, which will be described later, when it is determined that the pixel corresponding to the target pixel exists on the input images of both the rear camera 2B and the left camera 2L. To do.

一方、注目画素に対応する画素が第2カメラの入力画像上に存在しないと判定した場合(ステップS22のNO)、画像生成装置100は、第1カメラの入力画像上の画素を注目画素に対応付ける(ステップS24)。本実施例では、画像生成装置100は、注目画素に対応する画素が後方カメラ2Bの入力画像上に存在せず左側方カメラ2Lの入力画像上にのみ存在する場合、左側方カメラ2Lの入力画像上の画素を注目画素に対応付ける。   On the other hand, when it is determined that the pixel corresponding to the target pixel does not exist on the input image of the second camera (NO in step S22), the image generation device 100 associates the pixel on the input image of the first camera with the target pixel. (Step S24). In the present embodiment, the image generating apparatus 100, when the pixel corresponding to the target pixel does not exist on the input image of the rear camera 2B and exists only on the input image of the left camera 2L, the input image of the left camera 2L. The upper pixel is associated with the target pixel.

また、画像生成装置100は、注目画素に対応する画素が第1カメラの入力画像上に存在しないと判定した場合にも(ステップS21のNO)、その注目画素に対応する画素が第2カメラの入力画像平面上に存在するか否かを判定する(ステップS25)。本実施例では、画像生成装置100は、注目画素に対応する画素が左側方カメラ2Lの入力画像上に存在しないと判定した場合にも、その注目画素に対応する画素が後方カメラ2Bの入力画像上に存在するか否かを判定する。   Also, when the image generating apparatus 100 determines that the pixel corresponding to the target pixel does not exist on the input image of the first camera (NO in step S21), the pixel corresponding to the target pixel is the second camera. It is determined whether or not the image exists on the input image plane (step S25). In this embodiment, even when the image generating apparatus 100 determines that the pixel corresponding to the target pixel does not exist on the input image of the left camera 2L, the pixel corresponding to the target pixel is the input image of the rear camera 2B. Determine if it exists above.

その後、注目画素に対応する画素が第2カメラの入力画像上に存在すると判定した場合(ステップS25のYES)、画像生成装置100は、第2カメラの入力画像上の画素を注目画素に対応付ける(ステップS26)。本実施例では、画像生成装置100は、注目画素に対応する画素が左側方カメラ2Lの入力画像上に存在せず後方カメラ2Bの入力画像上にのみ存在する場合、後方カメラ2Bの入力画像上の画素を注目画素に対応付ける。   After that, when it is determined that the pixel corresponding to the target pixel exists on the input image of the second camera (YES in step S25), the image generation apparatus 100 associates the pixel on the input image of the second camera with the target pixel ( Step S26). In the present embodiment, the image generating apparatus 100 determines that the pixel corresponding to the target pixel does not exist on the input image of the left camera 2L but exists only on the input image of the rear camera 2B. Are associated with the target pixel.

一方、画像生成装置100は、注目画素に対応する画素が第2カメラの入力画像上に存在しないと判定した場合(ステップS25のNO)、画像生成装置100は、その注目画素を非表示画素に設定する(ステップS27)。本実施例では、画像生成装置100は、注目画素に対応する画素が後方カメラ2B及び左側方カメラ2Lの何れの入力画像上にも存在しない場合、その注目画素を非表示画素に設定する。例えば、画像生成装置100は、注目画素の値を所定値(黒に相当する値)に設定する。   On the other hand, when the image generation device 100 determines that the pixel corresponding to the target pixel does not exist on the input image of the second camera (NO in step S25), the image generation device 100 sets the target pixel as a non-display pixel. Set (step S27). In this embodiment, when the pixel corresponding to the target pixel does not exist on any input image of the rear camera 2B and the left side camera 2L, the image generation apparatus 100 sets the target pixel as a non-display pixel. For example, the image generating apparatus 100 sets the value of the target pixel to a predetermined value (a value corresponding to black).

次に、図24を参照して、ステップS23における消失防止処理要否判定処理について説明する。なお、図24は、消失防止処理要否判定処理の流れを示すフローチャートである。   Next, the disappearance prevention process necessity determination process in step S23 will be described with reference to FIG. FIG. 24 is a flowchart showing the flow of the determination process necessity determination process.

最初に、画像生成装置100は、第1平面領域上の注目画素の座標に対応する第2平面領域上の第1座標及び第2座標を導き出す(ステップS31)。本実施例では、画像生成装置100は、平面領域R1上の注目画素の座標(PP1、PP2、又はPP3)に対応する平面領域R1a上の第1座標(PP11、PP21、又はPP31)及び第2座標(PP12、PP22、又はPP32)を導き出す(図22参照。)。なお、注目画素の座標PP1、PP2、PP3と第1座標PP11、PP21、PP31とは左側方カメラ2Lの位置を相似の中心として相似の位置にあり、また、注目画素の座標PP1、PP2、PP3と第2座標PP12、PP22、PP32とは後方カメラ2Bの位置を相似の中心として相似の位置にある。また、ここでの説明は、左側方カメラ2L及び後方カメラ2Bの撮像範囲の重複領域に関連するが、右側方カメラ2R及び後方カメラ2Bの撮像範囲の重複領域についても同様に適用される。   First, the image generating apparatus 100 derives the first coordinate and the second coordinate on the second plane area corresponding to the coordinate of the target pixel on the first plane area (step S31). In the present embodiment, the image generating apparatus 100 includes a first coordinate (PP11, PP21, or PP31) and a second coordinate on the plane region R1a corresponding to the coordinate (PP1, PP2, or PP3) of the target pixel on the plane region R1. The coordinates (PP12, PP22, or PP32) are derived (see FIG. 22). Note that the coordinates PP1, PP2, PP3 of the pixel of interest and the first coordinates PP11, PP21, PP31 are at similar positions with the position of the left camera 2L as the center of similarity, and the coordinates PP1, PP2, PP3 of the pixel of interest And the second coordinates PP12, PP22, PP32 are in similar positions with the position of the rear camera 2B as the similar center. The description here relates to the overlapping area of the imaging ranges of the left camera 2L and the rear camera 2B, but the same applies to the overlapping area of the imaging ranges of the right camera 2R and the rear camera 2B.

その後、画像生成装置100は、第1座標が境界線の第1カメラ側にあるか否かを判定する(ステップS32)。本実施例では、画像生成装置100は、第1座標が境界線BLv(図22参照。)の左側方カメラ2L側にあるか否かを判定する。   Thereafter, the image generating apparatus 100 determines whether or not the first coordinates are on the first camera side of the boundary line (step S32). In the present embodiment, the image generating apparatus 100 determines whether or not the first coordinate is on the left camera 2L side of the boundary line BLv (see FIG. 22).

ここで、図25を参照して、境界線BLvの設定方法の一例について説明する。なお、図25は、ショベル60の上面視であり、後方カメラ2Bの光軸を含む線分の平面領域R1aへの投影像である線分2BG、左側方カメラ2Lの光軸を含む線分の平面領域R1aへの投影像である線分2LG、及び、平面領域R1a上に設定される境界線BLvを示す。なお、画素PP0は、左側方カメラ2Lと後方カメラ2Bとを結ぶ線分の中点に対応する平面領域R1a上の座標である。   Here, an example of a method for setting the boundary line BLv will be described with reference to FIG. FIG. 25 is a top view of the excavator 60, and a line segment 2BG that is a projection image onto the plane region R1a including the optical axis of the rear camera 2B, and a line segment including the optical axis of the left-side camera 2L. A line segment 2LG that is a projection image onto the plane area R1a and a boundary line BLv set on the plane area R1a are shown. The pixel PP0 is a coordinate on the plane region R1a corresponding to the midpoint of the line segment connecting the left camera 2L and the rear camera 2B.

画像生成装置100は、線分2BGと線分2LGとの間に角度δが形成される場合、画素PP0を始点とし、且つ、角度δの角二等分線となるように境界線BLvを設定する。このようにして、画像生成装置100は、カメラの設置条件に基づいて境界線BLvを事前に設定できる。なお、図示は省略するが、右側方カメラ2R及び後方カメラ2Bの撮像範囲の重複領域に関連する境界線も同様に設定される。   When the angle δ is formed between the line segment 2BG and the line segment 2LG, the image generating apparatus 100 sets the boundary line BLv so that the pixel PP0 is the starting point and the angle bisector of the angle δ is formed. To do. In this way, the image generating apparatus 100 can set the boundary line BLv in advance based on the camera installation conditions. In addition, although illustration is abbreviate | omitted, the boundary line relevant to the overlap area | region of the imaging range of the right side camera 2R and the rear camera 2B is also set similarly.

ここで再び図24を参照して消失防止処理要否判定処理の説明を続ける。   Here, with reference to FIG. 24 again, the description of the loss prevention process necessity determination process is continued.

第1座標が境界線の第1カメラ側にあると判定すると(ステップS32のYES)、画像生成装置100は、第2座標が境界線の第2カメラ側にあるか否かを判定する(ステップS33)。本実施例では、画像生成装置100は、第1座標PP31が境界線BLvの左側方カメラ2L側にあると判定すると、第2座標PP32が境界線BLvの後方カメラ2B側にあるか否かを判定する。   If it is determined that the first coordinate is on the first camera side of the boundary line (YES in step S32), the image generating apparatus 100 determines whether the second coordinate is on the second camera side of the boundary line (step S32). S33). In this embodiment, when the image generating apparatus 100 determines that the first coordinate PP31 is on the left side camera 2L side of the boundary line BLv, it determines whether or not the second coordinate PP32 is on the rear camera 2B side of the boundary line BLv. judge.

その後、第2座標が境界線の第2カメラ側にあると判定すると(ステップS33のYES)、画像生成装置100は、消失防止処理が必要と判定し、例えば図15のステップS13における処理を実行してその注目画素に対応付けるカメラ(入力画像上の画素)を選択する(ステップS34)。本実施例では、画像生成装置100は、第1座標PP31が境界線BLvの左側方カメラ2L側にあり、且つ、第2座標PP32が境界線BLvの後方カメラ2B側にあると判定すると、座標PP3で表される注目画素に関しては消失防止処理が必要と判定してその注目画素に対応付けるカメラ(入力画像上の画素)を選択する。   Thereafter, when it is determined that the second coordinates are on the second camera side of the boundary line (YES in step S33), the image generation device 100 determines that the disappearance prevention process is necessary, and executes, for example, the process in step S13 of FIG. Then, the camera (pixel on the input image) associated with the target pixel is selected (step S34). In this embodiment, when the image generating apparatus 100 determines that the first coordinate PP31 is on the left camera 2L side of the boundary line BLv and the second coordinate PP32 is on the rear camera 2B side of the boundary line BLv, With respect to the target pixel represented by PP3, it is determined that the erasure prevention process is necessary, and a camera (pixel on the input image) associated with the target pixel is selected.

一方、第2座標が境界線の第2カメラ側にないと判定すると(ステップS33のNO)、画像生成装置100は、消失防止処理が不要と判定し、第1カメラの入力画像上の画素を注目画素に対応付ける(ステップS35)。本実施例では、画像生成装置100は、第1座標PP11が境界線BLvの左側方カメラ2L側にあるが、第2座標PP12が境界線BLvの後方カメラ2B側にないと判定すると、座標PP1で表される注目画素に関しては消失防止処理が不要と判定する。すなわち、画像生成装置100は、第1座標PP11及び第2座標PP12の双方が境界線BLvの左側方カメラ2L側にあると判定すると、座標PP1で表される注目画素に関しては消失防止処理が不要と判定し、左側方カメラ2Lの入力画像上の画素をその注目画素に対応付ける。   On the other hand, if it is determined that the second coordinate is not on the second camera side of the boundary line (NO in step S33), the image generation device 100 determines that the disappearance prevention process is unnecessary, and determines the pixel on the input image of the first camera. Corresponding to the target pixel (step S35). In this embodiment, when the image generating apparatus 100 determines that the first coordinate PP11 is on the left camera 2L side of the boundary line BLv, but the second coordinate PP12 is not on the rear camera 2B side of the boundary line BLv, the coordinate PP1 It is determined that the loss prevention process is unnecessary for the target pixel represented by That is, if the image generating apparatus 100 determines that both the first coordinate PP11 and the second coordinate PP12 are on the left camera 2L side of the boundary line BLv, the image generation apparatus 100 does not need the erasure prevention process for the target pixel represented by the coordinate PP1. And the pixel on the input image of the left side camera 2L is associated with the target pixel.

また、第1座標が境界線の第1カメラ側にないと判定すると(ステップS32のNO)、画像生成装置100は、第2座標が境界線の第2カメラ側にあるか否かを判定することなく消失防止処理が不要と判定し、第2カメラの入力画像平面の座標を注目画素に対応付ける(ステップS36)。第1座標が境界線の第1カメラ側にない場合、第2座標が境界線の第1カメラ側にくることは幾何学的に起こり得ないためである。本実施例では、画像生成装置100は、第1座標PP21が境界線BLvの左側方カメラ2L側にないと判定すると、第2座標PP22が境界線BLvの後方カメラ2B側にあるか否かを判定することなく座標PP2で表される注目画素に関しては消失防止処理が不要と判定し、後方カメラ2Bの入力画像平面の座標を注目画素PP2に対応付ける。第1座標PP21が境界線BLvの左側方カメラ2L側にない場合、第2座標PP22が境界線の左側方カメラ2L側にくることは幾何学的に起こり得ないためである。   If it is determined that the first coordinate is not on the first camera side of the boundary line (NO in step S32), the image generating apparatus 100 determines whether the second coordinate is on the second camera side of the boundary line. Without the loss prevention processing, the coordinates of the input image plane of the second camera are associated with the target pixel (step S36). This is because when the first coordinates are not on the first camera side of the boundary line, it is not possible to geometrically cause the second coordinates to be on the first camera side of the boundary line. In the present embodiment, when the image generating apparatus 100 determines that the first coordinate PP21 is not on the left side camera 2L side of the boundary line BLv, it determines whether or not the second coordinate PP22 is on the rear camera 2B side of the boundary line BLv. For the target pixel represented by the coordinates PP2 without determination, it is determined that the erasure prevention processing is unnecessary, and the coordinates of the input image plane of the rear camera 2B are associated with the target pixel PP2. This is because when the first coordinate PP21 is not on the left side camera 2L side of the boundary line BLv, the second coordinate PP22 cannot geometrically occur on the left side camera 2L side of the boundary line.

次に、図26を参照しながら、消失防止処理適用範囲調整処理による効果について説明する。なお、図26上段は、重複領域に対応する出力画像部分の全体に消失防止処理が施された場合の出力画像を示す図であり、図20上段に相当する。また、図26中段は、第1消失防止処理適用範囲調整処理が実行された場合の出力画像を示す図であり、図20下段に相当する。また、図26下段は、第2消失防止処理適用範囲調整処理が実行された場合の出力画像を示す図である。なお、図26下段の破線で囲まれた領域R15Lb、R15Rbは、第2消失防止処理適用範囲調整処理による調整が行われた後の消失防止処理適用範囲を表す。   Next, effects of the disappearance prevention process application range adjustment process will be described with reference to FIG. Note that the upper part of FIG. 26 is a diagram showing an output image when the entire output image part corresponding to the overlapping region is subjected to the disappearance prevention process, and corresponds to the upper part of FIG. The middle part of FIG. 26 is a diagram showing an output image when the first disappearance prevention process application range adjustment process is executed, and corresponds to the lower part of FIG. Further, the lower part of FIG. 26 is a diagram illustrating an output image when the second disappearance prevention process application range adjustment process is executed. Note that regions R15Lb and R15Rb surrounded by broken lines in the lower part of FIG. 26 represent the disappearance prevention process application range after the adjustment by the second disappearance prevention process application range adjustment process.

図26における3つの出力画像の比較から分かるように、画像生成層100は、第1消失防止処理適用範囲調整処理を実行することで、物体の高さにかかわらず、投影像の消失を防止しながら消失防止処理適用範囲を狭めることができる。また、画像生成層100は、所定の高さHTを有する平面領域R1aを用いて第2消失防止処理適用範囲調整処理を実行することで、所定の高さHT未満の物体の投影像の消失を防止しながら消失防止処理適用範囲を狭めることができる。   As can be seen from the comparison of the three output images in FIG. 26, the image generation layer 100 executes the first disappearance prevention process application range adjustment process to prevent the disappearance of the projected image regardless of the height of the object. However, the application range of the loss prevention treatment can be narrowed. Further, the image generation layer 100 performs the second disappearance prevention process application range adjustment process using the planar region R1a having the predetermined height HT, thereby eliminating the disappearance of the projected image of the object having the height less than the predetermined height HT. It is possible to narrow the application range of the disappearance prevention treatment while preventing it.

次に、図27を参照して、消失防止処理適用範囲調整処理のさらに別の一例(以下、「第3消失防止処理適用範囲調整処理」とする。)について説明する。なお、図27は、第3消失防止処理適用範囲調整処理の流れを示すフローチャートである。第3消失防止処理適用範囲調整処理は、消失防止処理適用範囲を予め決定する点で、出力画像における各画素の値と入力画像における各画素の値とを関連付けて出力画像を生成する際に画素毎に消失防止処理を適用するか否かを判定する第2消失防止処理適用範囲調整処理と相違する。   Next, with reference to FIG. 27, another example of the disappearance prevention process application range adjustment process (hereinafter referred to as “third disappearance prevention process application range adjustment process”) will be described. FIG. 27 is a flowchart showing the flow of the third disappearance prevention process application range adjustment process. The third disappearance prevention process application range adjustment process is a point in which the value of each pixel in the output image and the value of each pixel in the input image are associated with each other to generate the output image in that the disappearance prevention process application range is determined in advance. This is different from the second disappearance prevention process application range adjustment process for determining whether to apply the disappearance prevention process every time.

最初に、画像生成装置100は、第1平面領域の第1重複出力部分と第2平面領域の第2重複出力部分とを導き出す(ステップS41)。本実施例では、画像生成装置100は、入力画像・空間モデル対応マップ40を参照し、第1平面領域の第1重複出力部分として、空間モデルMDにおける高さ0cmの平面領域R1における重複出力部分R15L、R15Rを導き出す(図20参照。)。また、画像生成装置100は、第2平面領域の第2重複出力部分として、高さHTの平面領域R1aにおける重複出力部分R15Lv(図21のB1参照。)、R15Rv(図示せず。)を導き出す。   First, the image generating apparatus 100 derives a first overlap output portion of the first plane area and a second overlap output portion of the second plane area (Step S41). In the present embodiment, the image generation apparatus 100 refers to the input image / space model correspondence map 40, and as the first overlapping output portion of the first planar region, the overlapping output portion in the planar region R1 having a height of 0 cm in the spatial model MD. R15L and R15R are derived (see FIG. 20). Further, the image generation apparatus 100 derives an overlapping output portion R15Lv (see B1 in FIG. 21) and R15Rv (not shown) in the planar region R1a having the height HT as the second overlapping output portion of the second planar region. .

その後、画像生成装置100は、第2重複出力部分を第1カメラ対応部分と第2カメラ対応部分に分割する(ステップS42)。本実施例では、画像生成装置100は、平面領域R1aの重複出力部分R15Lvを、第1カメラ対応部分としての部分R15Lv−1と第2カメラ対応部分としての部分R15Lv−2とに分割する(図22参照。)。なお、部分R15Lv−1内の座標は、入射角の最も小さいカメラが左側方カメラ2Lとなる条件を満たす座標であり、部分R15Lv−1は、左側方カメラ2Lの入力画像が対応付けられる部分として設定される。また、部分R15Lv−2内の座標は、入射角の最も小さいカメラが後方カメラ2Bとなる条件を満たす座標であり、部分R15Lv−2は、後方カメラ2Bの入力画像が対応付けられる部分として設定される。但し、平面領域R1aに関する処理は、消失防止処理の適用範囲を調整するための中間的な処理であるため、カメラ2の入力画像を平面領域R1aに実際に対応付ける必要はない。また、画像生成装置100は、重複出力部分R15Lvと同様に、平面領域R1aの重複出力部分R15Rvを部分R15Rv−1及び部分R15Rv−2(何れも図示せず。)に分割する。   Thereafter, the image generating apparatus 100 divides the second overlapping output portion into a first camera corresponding portion and a second camera corresponding portion (step S42). In the present embodiment, the image generation apparatus 100 divides the overlapping output portion R15Lv of the planar region R1a into a portion R15Lv-1 as a first camera corresponding portion and a portion R15Lv-2 as a second camera corresponding portion (FIG. 22). The coordinates in the portion R15Lv-1 are coordinates that satisfy the condition that the camera with the smallest incident angle becomes the left-side camera 2L. The portion R15Lv-1 is a portion to which the input image of the left-side camera 2L is associated. Is set. The coordinates in the portion R15Lv-2 are coordinates that satisfy the condition that the camera with the smallest incident angle becomes the rear camera 2B, and the portion R15Lv-2 is set as a portion to which the input image of the rear camera 2B is associated. The However, since the process related to the planar area R1a is an intermediate process for adjusting the application range of the disappearance prevention process, it is not necessary to actually associate the input image of the camera 2 with the planar area R1a. Similarly to the overlapping output portion R15Lv, the image generating apparatus 100 divides the overlapping output portion R15Rv of the planar region R1a into a portion R15Rv-1 and a portion R15Rv-2 (both not shown).

その後、画像生成装置100は、第1カメラ対応部分及び第2カメラ対応部分に基づいて第1重複出力部分における消失防止処理適用範囲及び消失防止処理非適用範囲を導き出す(ステップS43)。本実施例では、画像生成装置100は、平面領域R1aにおける部分R15Lv−1、R15Lv−2のそれぞれに対応する平面領域R1における部分R15L−1、R15L−2を消失防止処理非適用範囲として導き出す(図22参照。)。なお、部分R15L−1と部分R15Lv−1は、カメラ2Bの位置を相似の中心として互いに相似であり、部分R15L−2と部分R15Lv−2は、カメラ2Lの位置を相似の中心として互いに相似である。そして、画像生成装置100は、重複出力部分R15Lのうち、部分R15L−1及び部分R15L−2の何れにも含まれない部分R15L−3を消失防止処理適用範囲として導き出す。また、画像生成装置100は、平面領域R1における部分R15L−1、R15L−2と同様に、平面領域R1aにおける部分R15Rv−1、R15Rv−2のそれぞれに対応する平面領域R1における部分R15R−1、R15R−2(何れも図示せず。)を消失防止処理非適用範囲として導き出す。そして、画像生成装置100は、重複出力部分R15Rのうち、部分R15R−1及び部分R15R−2の何れにも含まれない部分R15R−3(図示せず。)を消失防止処理適用範囲として導き出す。   Thereafter, the image generating apparatus 100 derives the disappearance prevention process application range and the disappearance prevention process non-application range in the first overlapping output portion based on the first camera correspondence portion and the second camera correspondence portion (step S43). In the present embodiment, the image generating apparatus 100 derives the portions R15L-1 and R15L-2 in the planar region R1 corresponding to the portions R15Lv-1 and R15Lv-2 in the planar region R1a as the disappearance prevention process non-applicable range ( (See FIG. 22.) Note that the part R15L-1 and the part R15Lv-1 are similar to each other with the position of the camera 2B as the center of similarity, and the part R15L-2 and the part R15Lv-2 are similar to each other with the position of the camera 2L as the center of similarity. is there. Then, the image generation apparatus 100 derives the portion R15L-3 that is not included in any of the portion R15L-1 and the portion R15L-2 among the overlapping output portions R15L as the disappearance prevention process application range. In addition, the image generating apparatus 100, like the portions R15L-1 and R15L-2 in the plane region R1, has portions R15R-1 and R15R-1 in the plane region R1 corresponding to the portions R15Rv-1 and R15Rv-2 in the plane region R1a, respectively. R15R-2 (none of which is shown) is derived as the non-applicable range of the loss prevention process. Then, the image generating apparatus 100 derives a portion R15R-3 (not shown) that is not included in any of the portion R15R-1 and the portion R15R-2 among the overlapping output portions R15R as the disappearance prevention process application range.

このように、画像生成装置100は、出力画像の生成を開始する前に、消失防止処理適用範囲を決定する。その上で、画像生成装置100は、その消失防止処理適用範囲に含まれる各座標に対し、例えば図15のステップS13における処理を実行し、消失防止処理適用範囲に含まれる各座標に対応付けるカメラを選択する。   As described above, the image generation apparatus 100 determines the disappearance prevention process application range before starting the generation of the output image. In addition, the image generating apparatus 100 executes, for example, the process in step S13 of FIG. 15 for each coordinate included in the disappearance prevention process application range, and adds a camera associated with each coordinate included in the disappearance prevention process application range. select.

なお、上述の実施例において、画像生成装置100は、格子模様を利用して消失防止処理を実行するが、櫛歯模様、ストライプ模様等、格子模様以外の他の模様を利用して消失防止処理を実行してもよい。また、画像生成装置100は、対応する2つの入力画像における点(画素)の画素値(例えば、輝度値、色度値等である。)の平均値を出力画像の画素値として用いる平均化処理を消失防止処理として実行してもよい。   In the above-described embodiment, the image generation apparatus 100 performs the disappearance prevention process using a lattice pattern, but the disappearance prevention process uses a pattern other than the lattice pattern, such as a comb pattern or a stripe pattern. May be executed. In addition, the image generation apparatus 100 uses an average value of pixel values (for example, luminance values, chromaticity values, etc.) of points (pixels) in two corresponding input images as the pixel value of the output image. May be executed as a loss prevention process.

また、上述の実施例では、画像生成装置100は、重複領域に含まれる限り、曲面領域R2に投影される画像に対しても消失防止処理を施すが、重複領域に含まれる場合であっても、曲面領域R2に投影される画像に対しては消失防止処理を省略してもよい。空間モデルMD(平面領域R1)の外側に存在する物体は、出力画像平面上の座標が入射角の最も小さいカメラに関する入力画像平面上の座標に対応付けられたとしても、消失するおそれがないためである。   In the above-described embodiment, as long as the image generation apparatus 100 is included in the overlap region, the image generation apparatus 100 performs the disappearance prevention process on the image projected on the curved surface region R2. The disappearance prevention process may be omitted for the image projected on the curved surface area R2. An object existing outside the spatial model MD (plane area R1) is not likely to disappear even if the coordinates on the output image plane are associated with the coordinates on the input image plane for the camera having the smallest incident angle. It is.

また、画像生成装置100は、平面領域R1上の1つの点に対応する平面領域R1a上の2つの点が線BLvの両側に跨って存在するか否かに応じて、平面領域R1上の1つの重複点に消失防止処理を施すか否かを判定する。しかしながら、本発明はこの構成に限定されるものではない。画像生成装置100は、例えば、左側方カメラ2Lに対する入射角と後方カメラ2Bに対する入射角とが等しくなる点の集合が形成する線BLvの代わりに、平面領域R1aにおける破線領域R15Lvを空間モデルMDの半径方向に二分する任意の線を用いてもよい。この場合、任意の線は、直線、曲線、又はそれらの組み合わせのいずれであってもよい。   In addition, the image generating apparatus 100 determines whether one point on the plane region R1 is present depending on whether two points on the plane region R1a corresponding to one point on the plane region R1 exist across both sides of the line BLv. It is determined whether or not the disappearance prevention process is performed on two overlapping points. However, the present invention is not limited to this configuration. For example, instead of the line BLv formed by a set of points at which the incident angle with respect to the left camera 2L and the incident angle with respect to the rear camera 2B are equal, the image generating apparatus 100 uses the broken line region R15Lv in the plane region R1a as Any line that bisects in the radial direction may be used. In this case, the arbitrary line may be a straight line, a curved line, or a combination thereof.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。   Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施例において、画像生成装置100は、空間モデルとして円筒状の空間モデルMDを採用するが、多角柱等の他の柱状の形状を有する空間モデルを採用してもよく、底面及び側面の二面から構成される空間モデルを採用してもよく、或いは、側面のみを有する空間モデルを採用してもよい。   For example, in the above-described embodiment, the image generation apparatus 100 employs the cylindrical spatial model MD as the spatial model, but may employ a spatial model having other columnar shapes such as a polygonal column, A spatial model composed of two side surfaces may be adopted, or a spatial model having only side surfaces may be adopted.

また、画像生成装置100は、バケット、アーム、ブーム、旋回機構等の可動部材を備えながら自走する建設機械にカメラと共に搭載され、周囲画像をその運転者に提示しながらその建設機械の移動及びそれら可動部材の操作を支援する操作支援システムに組み込まれているが、産業用機械若しくは固定式クレーン等のように可動部材を有するが自走はしない他の被操作体にカメラと共に搭載され、それら他の被操作体の操作を支援する操作支援システムに組み入れられてもよい。   The image generating apparatus 100 is mounted with a camera on a self-propelled construction machine having movable members such as a bucket, an arm, a boom, and a turning mechanism. The image generating apparatus 100 moves and moves the construction machine while presenting a surrounding image to the driver. It is built in an operation support system that supports the operation of these movable members, but it is mounted with other cameras that have movable members such as industrial machines or fixed cranes but do not self-propelled together with the camera. You may incorporate in the operation assistance system which assists operation of another to-be-operated body.

1・・・制御部 2・・・カメラ 2L・・・左側方カメラ 2R・・右側方カメラ 2B・・後方カメラ 3・・・入力部 4・・・記憶部 5・・・表示部 10・・・座標対応付け手段 11・・・出力画像生成手段 40・・・入力画像・空間モデル対応マップ 41・・・空間モデル・処理対象画像対応マップ 42・・・処理対象画像・出力画像対応マップ 60・・・ショベル 61・・・下部走行体 62・・・旋回機構 63・・・上部旋回体 64・・・キャブ   DESCRIPTION OF SYMBOLS 1 ... Control part 2 ... Camera 2L ... Left side camera 2R ... Right side camera 2B ... Rear camera 3 ... Input part 4 ... Memory | storage part 5 ... Display part 10 ... -Coordinate association means 11-Output image generation means 40-Input image / spatial model correspondence map 41-Spatial model-processing target image correspondence map 42-Processing target image / output image correspondence map 60- .... Excavator 61 ... Lower traveling body 62 ... Turning mechanism 63 ... Upper turning body 64 ... Cab

Claims (7)

被操作体に取り付けられた複数のカメラが撮像した複数の入力画像に基づいて出力画像を生成する画像生成装置であって、
前記被操作体の周囲に配置される空間モデルにおける座標と、前記入力画像が位置する入力画像平面における座標とを対応付ける座標対応付け手段と、
前記空間モデルにおける座標を介して、前記入力画像平面における座標の値と前記出力画像が位置する出力画像平面における座標の値とを対応付けて前記出力画像を生成する出力画像生成手段と、を備え、
前記空間モデルは、前記複数のカメラのうちの2つのカメラのそれぞれの入力画像平面における座標を対応付け可能な第1重複出力部分を含む第1平面領域を有し、
前記画像生成装置は、前記第1平面領域とは異なる所定の高さを有し、且つ、前記2つのカメラのそれぞれの入力画像平面における座標を対応付け可能な第2重複出力部分を含む第2平面領域を設定し、
前記第2重複出力部分は、前記2つのカメラのうちの一方の入力画像平面における座標を対応付ける第1カメラ対応部分と、前記2つのカメラのうちの他方の入力画像平面における座標を対応付ける第2カメラ対応部分とで構成され、
前記画像生成装置は、前記第1重複領域のうち前記第1カメラ対応部分及び前記第2カメラ対応部分のそれぞれに対応する部分が消失防止処理の非適用範囲となるように出力画像を生成する、
画像生成装置。
An image generation device that generates an output image based on a plurality of input images captured by a plurality of cameras attached to an object to be operated,
Coordinate associating means for associating coordinates in a space model arranged around the object to be operated with coordinates in an input image plane on which the input image is located;
Output image generation means for generating the output image by associating the coordinate value on the input image plane with the coordinate value on the output image plane on which the output image is located via the coordinates in the spatial model. ,
The spatial model has a first plane area including a first overlapping output portion capable of associating coordinates on input image planes of two cameras of the plurality of cameras,
The image generation device includes a second overlapping output portion having a predetermined height different from the first plane area and including a second overlapping output portion capable of associating coordinates in the input image planes of the two cameras. Set the plane area,
The second overlapping output portion corresponds to a first camera corresponding portion that associates coordinates in one input image plane of the two cameras and a second camera that associates coordinates in the other input image plane of the two cameras. It consists of a corresponding part,
The image generation device generates an output image so that a portion corresponding to each of the first camera corresponding portion and the second camera corresponding portion in the first overlapping region is a non-applicable range of the loss prevention processing;
Image generation device.
前記画像生成装置は、前記第1重複領域における1つの座標に対応する前記第2平面領域における2つの座標の位置に基づいて該1つの座標に消失防止処理を施すか否かを決定する、
請求項1に記載の画像生成装置。
The image generation device determines whether to perform the disappearance prevention process on one coordinate based on the position of two coordinates in the second plane region corresponding to one coordinate in the first overlapping region.
The image generation apparatus according to claim 1.
前記画像生成装置は、前記第2平面領域における2つの座標が前記第2平面領域における前記第1カメラ対応部分と前記第2カメラ対応部分とを分ける所定線の両側に跨って存在する場合に、前記1つの座標に消失防止処理を施す、
請求項2に記載の画像生成装置。
When the two coordinates in the second plane region exist across both sides of a predetermined line that separates the first camera corresponding part and the second camera corresponding part in the second plane region, Applying a loss prevention process to the one coordinate,
The image generation apparatus according to claim 2.
前記所定線上の任意の点では、前記2つのカメラのそれぞれに対する入射角が等しい、
請求項3に記載の画像生成装置。
At any point on the predetermined line, the incident angles for each of the two cameras are equal,
The image generation apparatus according to claim 3.
前記画像生成装置は、前記第1重複領域のうち前記第1カメラ対応部分及び前記第2カメラ対応部分のそれぞれに対応する部分を予め消失防止処理の非適用範囲とする、
請求項1に記載の画像生成装置。
The image generation device sets a portion corresponding to each of the first camera corresponding portion and the second camera corresponding portion in the first overlapping region as a non-applicable range of the loss prevention processing in advance.
The image generation apparatus according to claim 1.
前記消失防止処理は、格子模様を用いる処理、ストライプ模様を用いる処理、又は、平均化処理を含む、
請求項1乃至5の何れか一項に記載の画像生成装置。
The loss prevention process includes a process using a lattice pattern, a process using a stripe pattern, or an averaging process.
The image generation apparatus according to any one of claims 1 to 5.
被操作体の移動又は操作を支援する操作支援システムであって、
請求項1乃至6の何れか一項に記載の画像生成装置と、
前記被操作体を移動させ或いは操作するための操作室に設置され、該画像生成装置が生成する出力画像を表示する表示部と、
を備える操作支援システム。
An operation support system that supports movement or operation of an object to be operated,
An image generation device according to any one of claims 1 to 6,
A display unit installed in an operation room for moving or operating the object to be operated and displaying an output image generated by the image generation device;
An operation support system comprising:
JP2013114439A 2013-05-30 2013-05-30 Image generating apparatus and excavator Active JP6355298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013114439A JP6355298B2 (en) 2013-05-30 2013-05-30 Image generating apparatus and excavator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013114439A JP6355298B2 (en) 2013-05-30 2013-05-30 Image generating apparatus and excavator

Publications (2)

Publication Number Publication Date
JP2014236232A true JP2014236232A (en) 2014-12-15
JP6355298B2 JP6355298B2 (en) 2018-07-11

Family

ID=52138672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013114439A Active JP6355298B2 (en) 2013-05-30 2013-05-30 Image generating apparatus and excavator

Country Status (1)

Country Link
JP (1) JP6355298B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401391B2 (en) 2020-05-20 2023-12-19 株式会社フジタ How to install rock bolts in tunnel construction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125224A (en) * 2000-07-19 2002-04-26 Matsushita Electric Ind Co Ltd Supervisory system
JP2007109166A (en) * 2005-10-17 2007-04-26 Sanyo Electric Co Ltd Driving assistance system
JP2008048345A (en) * 2006-08-21 2008-02-28 Sanyo Electric Co Ltd Image processing unit, and sight support device and method
JP2009118415A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image
JP2011221865A (en) * 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd Image generation device and operation support system
JP2012109741A (en) * 2010-11-16 2012-06-07 Sumitomo Heavy Ind Ltd Image generating apparatus and operation supporting system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125224A (en) * 2000-07-19 2002-04-26 Matsushita Electric Ind Co Ltd Supervisory system
JP2007109166A (en) * 2005-10-17 2007-04-26 Sanyo Electric Co Ltd Driving assistance system
JP2008048345A (en) * 2006-08-21 2008-02-28 Sanyo Electric Co Ltd Image processing unit, and sight support device and method
JP2009118415A (en) * 2007-11-09 2009-05-28 Alpine Electronics Inc Method and apparatus for generating bird's-eye view image
JP2011221865A (en) * 2010-04-12 2011-11-04 Sumitomo Heavy Ind Ltd Image generation device and operation support system
JP2012109741A (en) * 2010-11-16 2012-06-07 Sumitomo Heavy Ind Ltd Image generating apparatus and operation supporting system

Also Published As

Publication number Publication date
JP6355298B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
JP5497617B2 (en) Image generating apparatus and operation support system
JP5550970B2 (en) Image generating apparatus and operation support system
JP6029306B2 (en) Perimeter monitoring equipment for work machines
WO2014073282A1 (en) Image generation device for paving machine and operation assistance system for paving device
JP5135380B2 (en) Processing target image generation apparatus, processing target image generation method, and operation support system
JP5090496B2 (en) Image generating apparatus and operation support system
WO2011129274A1 (en) Image generation device and operation support system
JP6324665B2 (en) Perimeter monitoring equipment for work machines
JP6403393B2 (en) Image generation device
JP6073182B2 (en) Image generator for paving machine and operation support system for paving machine
JP5752631B2 (en) Image generation method, image generation apparatus, and operation support system
JP2013073514A (en) Image generation method, image generation device and operation support system
JP5805574B2 (en) Perimeter monitoring equipment for work machines
JP6257918B2 (en) Excavator
JP6355298B2 (en) Image generating apparatus and excavator
JP6873889B2 (en) Excavator and excavator surrounding image generator
JP5917371B2 (en) Image generator for paving machine and operation support system for paving machine
JP5808677B2 (en) Image generating apparatus and operation support system
JP6246185B2 (en) Excavator
JP2020002773A (en) Shovel and shovel peripheral image generation device
JP6295026B2 (en) Excavator
JP2014123955A (en) Shovel
JP5808679B2 (en) Image generating apparatus and operation support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180612

R150 Certificate of patent or registration of utility model

Ref document number: 6355298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150