JP7293862B2 - Mobile display system, image processing device and image processing program - Google Patents
Mobile display system, image processing device and image processing program Download PDFInfo
- Publication number
- JP7293862B2 JP7293862B2 JP2019098002A JP2019098002A JP7293862B2 JP 7293862 B2 JP7293862 B2 JP 7293862B2 JP 2019098002 A JP2019098002 A JP 2019098002A JP 2019098002 A JP2019098002 A JP 2019098002A JP 7293862 B2 JP7293862 B2 JP 7293862B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- synthetic
- cameras
- contact area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、移動体表示システム、画像処理装置及び画像処理プログラムに関し、例えば、移動体に取り付けられた複数のカメラの撮像画像を合成し、仮想視点から俯瞰した合成画像を表示する移動体表示システムに適用し得るものである。 The present invention relates to a mobile object display system, an image processing apparatus, and an image processing program, for example, a mobile object display system that synthesizes images captured by a plurality of cameras attached to a mobile object and displays a synthesized image viewed from a virtual viewpoint. It can be applied to
例えば車両等の移動体に取り付けられた複数のカメラの撮像画像を合成し、仮想視点から見たときの合成画像を、モニタ等の表示部に表示する技術として、例えば特許文献1や特許文献2などがある。
For example,
特許文献1の記載技術は、車両運転の際、運転手の安全確認を補助するために、例えば仮想視点を自車両の上方に設定し、各カメラの撮像画像の画素と、合成画像の画素との対応関係を記述したマッピングテーブルを用いて、各カメラの撮像画像をマッピングして合成画像を生成するものである。仮想視点は自由に設定切り替えが可能であり、仮想視点の位置に応じたマッピングテーブルを用いている。また、合成画像において、自車両が存在する領域に、イラスト画像を合成することで、自車両を示すイラスト画像と、その周囲に存在する障害物などを表示することができるので、車両を後退させるようなときの安全確認を補助することができる。
In the technique described in
特許文献2の記載技術は、複数のカメラの撮像画像を合成する際に、画像領域の継ぎ目となる領域が不連続となってしまうので、これを回避して見易い画像を表示するものである。具体的には、各カメラの2次元撮像画像を3次元投影面形状にマッピングする際、視点や視線方向から見た投影画像データに変換するときの変換情報や、画像領域の重複部分の合成方法を、車両の状態情報等に応じて常時変更するものである。
The technique described in
上述したように、特許文献1や特許文献2等の従来技術は、車両周囲の状況を映し出した画像であり、例えば車両周囲の障害物や駐車用の白線等を表示することはできる。
As described above, the conventional techniques such as
しかしながら、例えば、路面を走行している車両に用いる場合に、その路面とタイヤとの接触領域の実画像や、又例えば、土砂を掻き落とすブルドーザ等の作業車両に用いる場合、土砂とブレード部分との接触領域(作業接触領域)の実画像を合成画像で映し出すことができないという課題がある。 However, for example, when used for a vehicle running on a road surface, the actual image of the contact area between the road surface and the tire, or for example, when used for a work vehicle such as a bulldozer that scrapes off earth and sand, the earth and sand and the blade part. There is a problem that the actual image of the contact area (work contact area) cannot be projected as a composite image.
そのため、走行又は駆動している移動体に複数のカメラを取り付け、複数のカメラの撮像画像を合成して、仮想視点から見たときの合成画像を表示する際に、移動体と、移動平面との接触領域の実画像を映し出すことができる移動体表示システム、画像処理装置及び画像処理プログラムが求められている。 Therefore, when a plurality of cameras are attached to a mobile body that is running or driving, images captured by the plurality of cameras are synthesized, and a synthesized image viewed from a virtual viewpoint is displayed, the moving body and the moving plane are separated from each other. There is a demand for a mobile object display system, an image processing device, and an image processing program capable of projecting an actual image of the contact area of the user.
かかる課題を解決するために、第1の本発明に係る移動体表示システムは、(1)移動体に取り付けられ、当該移動体の周辺を撮像する複数のカメラと、(2)複数のカメラの撮像画像に基づいて、変更可能な仮想視点から見たときの合成周辺画像を生成する合成周辺画像生成部と、(3)複数のカメラの全部又は一部のカメラの撮像画像に含まれている、移動体の移動平面と移動体との接触領域を含む接触領域近傍画像と、所定の移動体モデルとを含む合成移動体画像を生成する合成移動体画像生成部と、(4)合成移動体画像生成部により生成された合成移動体画像を表示する表示部とを備えることを特徴とする。 In order to solve such a problem, a moving body display system according to a first aspect of the present invention includes (1) a plurality of cameras attached to a moving body for imaging the surroundings of the moving body, and (2) a plurality of cameras. (3) a synthetic peripheral image generator that generates a synthetic peripheral image when viewed from a changeable virtual viewpoint based on the captured image; , a synthetic moving body image generating unit for generating a synthetic moving body image including a contact area vicinity image including a contact area between a moving plane of the moving body and the moving body, and a predetermined moving body model; and (4) a synthetic moving body and a display unit for displaying the synthetic moving object image generated by the image generation unit.
第2の本発明に係る画像処理装置は、(1)移動体の周辺を撮像する複数のカメラから取得した複数の撮像画像に基づいて、変更可能な仮想視点から見たときの合成周辺画像を生成する合成周辺画像生成部と、(2)複数のカメラの全部又は一部のカメラの撮像画像に含まれている、移動体の移動平面と移動体との接触領域を含む接触領域近傍画像と、所定の移動体モデルとを含む合成移動体画像を生成する合成移動体画像生成部とを備えることを特徴とする。 An image processing apparatus according to a second aspect of the present invention provides: (1) a synthesized peripheral image viewed from a changeable virtual viewpoint based on a plurality of captured images obtained from a plurality of cameras that capture images of the surroundings of a moving object; and (2) a contact area vicinity image including a contact area between the moving body and the moving body, which is included in the images captured by all or some of the plurality of cameras. , and a synthetic moving body image generation unit that generates a synthetic moving body image including a predetermined moving body model.
第3の本発明に係る画像処理プログラムは、コンピュータを、(1)移動体の周辺を撮像する複数のカメラから取得した複数の撮像画像に基づいて、変更可能な仮想視点から見たときの合成周辺画像を生成する合成周辺画像生成部と、(2)複数のカメラの全部又は一部のカメラの撮像画像に含まれている、移動体の移動平面と移動体との接触領域を含む接触領域近傍画像と、所定の移動体モデルとを含む合成移動体画像を生成する合成移動体画像生成部として機能させることを特徴とする。 An image processing program according to a third aspect of the present invention provides a computer with: (1) synthesis when viewed from a changeable virtual viewpoint based on a plurality of captured images obtained from a plurality of cameras capturing the surroundings of a moving body; (2) a contact area including a contact area between a plane of movement of a moving body and a contact area of the moving body, which is included in images captured by all or some of the plurality of cameras; It is characterized by functioning as a synthetic moving body image generation unit that generates a synthetic moving body image including a neighborhood image and a predetermined moving body model.
本発明によれば、走行又は駆動している移動体に複数のカメラを取り付け、複数のカメラの撮像画像を合成して、仮想視点から見たときの合成画像を表示する際に、移動体と、移動平面との接触領域の実画像を映し出すことができる。 According to the present invention, when a plurality of cameras are attached to a mobile body that is running or driving, images captured by the plurality of cameras are synthesized, and a synthesized image viewed from a virtual viewpoint is displayed, the moving body and the , can project a real image of the contact area with the moving plane.
(A)主たる実施形態
以下では、本発明に係る移動体表示システム、画像処理装置及び画像処理プログラムの実施形態を、図面を参照しながら詳細に説明する。
(A) Main Embodiments Hereinafter, embodiments of a mobile display system, an image processing apparatus, and an image processing program according to the present invention will be described in detail with reference to the drawings.
(A-1)実施形態の構成
(A-1-1)移動体表示システムの構成
図1は、この実施形態に係る移動体表示システムの全体構成を示す構成図である。
(A-1) Configuration of Embodiment (A-1-1) Configuration of Mobile Display System FIG. 1 is a configuration diagram showing the overall configuration of a mobile display system according to this embodiment.
図1において、この実施形態に係る移動体表示システム1は、複数(図1では4台)のカメラ11(11-1~11-4)、画像処理装置12、表示部13を有する。
In FIG. 1, a mobile
移動体表示システム1は、移動体に取り付けられた複数のカメラ11-1~11-4により撮像された撮像画像を合成し、仮想視点から見たときの俯瞰的な合成画像を表示部13に表示する。
The moving
後述するように、最終的な合成画像の生成後、当該合成画像の座標系において、仮想視点の位置を、任意の位置に設定又は変更することができる。したがって、設定した仮想視点から、走行している移動体自体の様子を含む俯瞰的な合成画像を表示することができる。 As will be described later, after the final synthetic image is generated, the position of the virtual viewpoint can be set or changed to any position in the coordinate system of the synthetic image. Therefore, it is possible to display a bird's-eye synthetic image including the state of the running moving body itself from the set virtual viewpoint.
ここで、移動体の種類は、特に限定されるものではなく様々なものに広く適用することができ、例えば、自動車、船舶、航空機、ドローン等のような無人飛行体、監視用ロボット等を適用することができる。より具体的には、自動車については、一般道路を走行可能な自動車であってもよいし、例えばブルドーザ、ショベルカー、ホイールローダー、ロードローラー等のような車両系建設機械や、トラクタ等の車両系農業機械など(以下では、車両系建設機械や車両系農業機械等を含む車両を「作業車両」とも呼ぶ。)としてもよい。また、船舶については、ヨットやクルーザーなどの一般的な船舶であってもよいし、消防艇等のような特殊船舶であってもよい。さらに、移動体に人が乗り込み、人が移動体の走行操作を行なう有人型の移動体であっても良いし、遠隔的に移動体の走行を操作する遠隔操作型(無人型)の移動体であっても良い。なお、車両に本発明を適用する場合は、当該車両が走行している路面等が移動平面である。また船舶に本発明を適用する場合、当該船舶が浮かんでいる水面が移動平面であり、接触領域近傍画像とは、当該船舶の喫水線近傍の船体と水面を含んだ画像である。この実施形態では、移動体が自動車等の車両であり、遠隔操作可能なものであることを例示して説明する。 Here, the type of mobile body is not particularly limited, and can be applied to a wide variety of things. can do. More specifically, the automobile may be an automobile capable of traveling on a general road, or a vehicle construction machine such as a bulldozer, an excavator, a wheel loader, a road roller, or a vehicle such as a tractor. Agricultural machines and the like (hereinafter, vehicles including vehicle-type construction machines and vehicle-type agricultural machines are also referred to as "working vehicles"). Also, the vessel may be a general vessel such as a yacht or a cruiser, or a special vessel such as a fire boat. Furthermore, the mobile body may be a manned mobile body in which a person rides in and operates the mobile body, or a remote-controlled (unmanned) mobile body in which the mobile body is operated remotely. can be When the present invention is applied to a vehicle, the plane of movement is the road surface or the like on which the vehicle is running. When the present invention is applied to a ship, the surface of the water on which the ship floats is the moving plane, and the image near the contact area is an image including the hull and the water surface near the waterline of the ship. In this embodiment, the moving object is a vehicle such as an automobile, and is described as being remotely operable.
カメラ11-1~11-4は、移動体としての自動車車両(以下、「車両」と呼ぶ。)に取り付けられて、当該車両の周囲を撮像し、その撮像画像を画像処理装置12に与える。
The cameras 11 - 1 to 11 - 4 are attached to automobile vehicles (hereinafter referred to as “vehicles”) as moving bodies, capture images of the surroundings of the vehicles, and provide the captured images to the
カメラ11-1~11-4の数は、4台に限定されるものではない。2台又は3台のカメラ11であってもよいし、5台以上のカメラ11であってもよい。この実施形態では、車両の前方方向、後方方向、右側方向、左側方向を撮像することを想定し、これら4方向のそれぞれを撮像するため4台のカメラ11-1~11-4を車両に取り付ける場合を例示する。 The number of cameras 11-1 to 11-4 is not limited to four. Two or three cameras 11 may be used, or five or more cameras 11 may be used. In this embodiment, it is assumed that images are taken in the front direction, the rear direction, the right direction, and the left direction of the vehicle, and four cameras 11-1 to 11-4 are attached to the vehicle in order to take images in each of these four directions. Illustrate the case.
カメラ11-1~11-4は、例えば、魚眼レンズを用いたカメラや、広角レンズを用いたカメラなどを適用することができる。より具体的には、各カメラ11-1~11-4が、100°程度の画角若しくはそれ以上の画角を持つものとすることで、各カメラ11が、車両周辺の状況を撮像する範囲を十分にカバーして撮像できる。 For the cameras 11-1 to 11-4, for example, a camera using a fisheye lens or a camera using a wide-angle lens can be applied. More specifically, each camera 11-1 to 11-4 has an angle of view of about 100° or more, so that each camera 11 captures the surroundings of the vehicle. can be captured with sufficient coverage.
なお、各カメラ11の撮像画像を合成して合成画像を実際に生成するためには、車両に取り付けるカメラ11の設置位置やカメラ11の撮像角度等を調整することが必要となる。また、各カメラ11の撮像画像を合成する際、画像のつなぎ目の画像を正確に合成するために、各カメラ11の内部パラメータや外部パラメータ等の較正(キャリブレーション)等をする必要がある。 In addition, in order to actually generate a composite image by synthesizing the captured images of the respective cameras 11, it is necessary to adjust the installation position of the camera 11 attached to the vehicle, the imaging angle of the camera 11, and the like. Further, when synthesizing the captured images of each camera 11, it is necessary to calibrate the internal parameters and external parameters of each camera 11 in order to accurately synthesize images at the joints of the images.
画像処理装置12は、複数のカメラ11-1~11-4のそれぞれから各撮像画像が入力し、各カメラ11-1~11-4からの2次元の撮像画像を合成して、3次元の合成画像を生成するものである。
The
なお、画像処理装置12の処理を行なうハードウェアは、例えば、コンピュータ、ROM、RAM、EEPROM等を有する集積回路装置を用いることができ、コンピュータがROMに格納される処理プログラム(例えば、画像処理プログラム等)を実行することにより、画像処理装置12の各種機能が実現される。
The hardware for performing the processing of the
図1に示すように、画像処理装置12は、合成周辺画像生成部121と、合成画像生成部122とを有する。
As shown in FIG. 1 , the
合成周辺画像生成部121は、複数のカメラ11-1~11-4により撮像された車両周辺を映し出した画像(撮像画像)を取得し、各撮像画像を合成して、車両周囲を映し出す全方位の第1の合成画像を生成するものである。 Synthetic peripheral image generation unit 121 acquires images (captured images) showing the vehicle peripherals captured by a plurality of cameras 11-1 to 11-4, synthesizes the captured images, and produces an omnidirectional image of the vehicle peripherals. to generate a first composite image of .
ここで、合成周辺画像生成部121による第1の合成画像の生成方法は、様々な画像処理方法を適用することができる。例えば、予め設けられた3次元モデルを用意しておき、複数のカメラ11-1~11-4により撮像された撮像画像(2次元画像)を、3次元モデルに座標変換して、3次元画像の第1の合成画像を生成する方法を用いることができる。より具体的には、例えば、下に凸の半円球の球面上に形成された3次元モデルを用いる。半円球球面の3次元モデルの曲面角度は、合成する第1の合成画像に応じて適宜設定するようにしてもよい。3次元モデルはメッシュが形成されており、当該3次元モデルの座標系における各画素の座標値(例えば、X軸の値、Y軸の値、Z軸の値)が設定されている。また、各カメラの撮像画像については、カメラ画像の座標系における画素の座標値(x軸の値、y軸の値)が設定されており、各カメラ撮像画像の各画素の座標値を、3次元モデルの各画素の座標値に投影変換することで、各カメラの撮像画像の各画素を、3次元モデルにおける対応する画素にマッピングする。このようにすることで、複数のカメラ111-1~111-4の撮像画像の各画素が3次元モデルの各画素にマッピングされて、第1の合成画像が生成される。 Here, various image processing methods can be applied to the method of generating the first synthetic image by the synthetic peripheral image generation unit 121 . For example, a three-dimensional model is prepared in advance, and the captured images (two-dimensional images) captured by a plurality of cameras 11-1 to 11-4 are coordinate-transformed into a three-dimensional model, resulting in a three-dimensional image. can be used to generate the first composite image. More specifically, for example, a three-dimensional model formed on the spherical surface of a downwardly convex hemisphere is used. The curved surface angle of the three-dimensional model of the hemispherical surface may be appropriately set according to the first synthesized image to be synthesized. A mesh is formed in the three-dimensional model, and coordinate values (eg, X-axis value, Y-axis value, and Z-axis value) of each pixel in the coordinate system of the three-dimensional model are set. In addition, for the image captured by each camera, the coordinate values (x-axis value, y-axis value) of the pixel in the coordinate system of the camera image are set. Each pixel of the image captured by each camera is mapped to the corresponding pixel in the three-dimensional model by projectively transforming the coordinates of each pixel of the dimensional model. By doing so, each pixel of the images captured by the cameras 111-1 to 111-4 is mapped to each pixel of the three-dimensional model to generate the first composite image.
合成画像生成部122は、合成周辺画像生成部121により生成された第1の合成画像において、走行する車両部分と当該車両が走行している移動平面との接触領域を含む接触領域近傍画像を生成する接触領域近傍画像生成部122aを有する。
Synthetic
ここで、接触領域近傍画像とは、接触対象と、当該移動体の一部分とが接触している部分(接触部分)とその近傍を含む画像領域を含む画像を意図する。また、接触対象とは、移動体又は移動体の一部が、接触している若しくは接触可能性のある対象をいう。接触対象は、例えば、移動している移動体又は当該移動体の一部が接触している移動平面や、又例えば、移動体としての工作車両が、工作作業として働きかける対象等が挙げられる。 Here, the contact area vicinity image is intended to be an image including an image area including a portion (contact portion) where the contact target and a portion of the moving body are in contact with each other and the vicinity thereof. Further, a contact target refers to a target that a moving body or a part of the moving body is in contact with or may contact. The contact target includes, for example, a moving body that is moving or a moving plane that a part of the moving body is in contact with, and an object that a work vehicle as a moving body acts on as work work.
なお、この実施形態では、接触対象が移動平面である場合を例示して説明する。移動平面とは、移動している移動体と係わりのある面を意図しており、以下に例示する。 In this embodiment, a case where the contact target is a moving plane will be described as an example. By plane of motion is intended the plane associated with the moving object in motion, as exemplified below.
例えば、道路を走行している車両を移動体とする場合、その車両が走行している路面が移動平面であり、その道路の路面等と、走行している車両のタイヤ等とが接触している部分及びその近傍部分を含む領域が接触領域近傍画像となる。又例えば、水上を走行する船舶を移動体とする場合、その船舶が走行している水面が移動平面となり、水面に浮かんでいる船舶の喫水線近傍の船体と、水面とが接触している部分及びその近傍部分を含む領域が接触領域近傍画像となる。 For example, when a vehicle traveling on a road is a moving object, the road surface on which the vehicle is traveling is a moving plane, and the road surface, etc., and the tires, etc., of the traveling vehicle are in contact with each other. The region including the portion where the contact is located and the portion near the contact region becomes the contact region vicinity image. Further, for example, when a ship running on water is used as a moving body, the surface of the water on which the ship is running becomes a movement plane, and the hull near the waterline of the ship floating on the water surface is in contact with the water surface. A region including the neighboring portion becomes the contact region neighboring image.
又例えば、移動体がロードローラーやブルドーザ等のように工作作業を行なう工作車両の場合には、ロードローラーやブルドーザ等の工作車両が走行している路面、及び又は、工作作業を行なう工作車両が働きかける対象(例えば、ブルドーザが土砂をかき分けるときには、その対象である土砂等)を接触対象とし、ロードローラーのローラ部分と路面とが接触している部分や、ブルドーザのブレードと土砂等とが接触している部分を含む領域が接触領域近傍画像となる。なお、工作車両を移動体とする場合に、接触対象を、路面等の移動平面とするか、及び又は、工作作業対象とするかについては目的に応じて適宜決めることができ、同様に、接触対象とこれに接触する移動体の一部分(すなわち接触領域近傍画像)を、どの部分とするかについても目的に応じて適宜決めることができる。 Further, for example, in the case where the moving body is a work vehicle such as a road roller or a bulldozer that performs work work, the road surface on which the work vehicle such as the road roller or bulldozer is running and/or the work vehicle that performs the work work The object to be worked on (for example, when a bulldozer pushes through earth and sand, the earth and sand that is the object to be worked on) is the contact object. The area including the portion where the contact area is located becomes the image near the contact area. When the work vehicle is a moving body, whether the contact target is a moving plane such as a road surface and/or the work target can be determined appropriately according to the purpose. Depending on the purpose, it is also possible to appropriately determine which part of the object and the part of the moving body that contacts it (that is, the image near the contact area).
例えば、ロードローラーやブルドーザ等のような車両系建設機械を遠隔操作するような場合、車両が路面を整地している様子や、車両が掘削している様子などのように、工作作業の様子を操作者が捉えながら、遠隔操作することが求められる。また例えば、これに限らず、車両の運転操作では、移動平面に対して車両が働きかけている細かい様子を確認した上で、車両を操作することが必要となる場合があり、そのような場合には、移動平面と車両との接触領域とその近傍を含む画像が表示されることが望まれる。 For example, when remotely controlling a vehicle-type construction machine such as a road roller or a bulldozer, it is possible to visualize the construction work, such as the vehicle leveling the road surface or excavating. It is required that the operator can operate remotely while grasping it. Further, for example, not limited to this, in the driving operation of a vehicle, it may be necessary to operate the vehicle after confirming the details of how the vehicle is acting on the moving plane. is desired to display an image including the contact area between the moving plane and the vehicle and its vicinity.
しかし、従来技術では、車両に搭載した複数の11-1~11-4は移動平面(例えば道路の路面等)を撮像することはできるが、移動平面を含む撮像画像は、自車両から少し離れた位置に存在している移動平面(例えば路面等)であり、移動平面と車両の一部分とが接触している部分を捉えることはできない。したがって、各撮像画像を合成して得た合成画像も、車両から少し離れた位置の移動平面を映しだすことはできるが、移動平面と車両の一部分とが接触している部分を含む接触領域近傍画像を映し出すことはできない。 However, according to the conventional technology, although a plurality of 11-1 to 11-4 mounted on a vehicle can capture an image of a moving plane (for example, the road surface), the captured image including the moving plane is a little away from the own vehicle. It is a moving plane (for example, a road surface) that exists at a distant position, and it is not possible to capture a portion where the moving plane and a part of the vehicle are in contact. Therefore, the composite image obtained by synthesizing the respective captured images can also show a moving plane at a position slightly away from the vehicle, but the contact area including the portion where the moving plane and a part of the vehicle are in contact with each other. Images cannot be displayed.
そこで、この実施形態では、合成画像生成部122が、移動平面と車両の一部分とが接触している接触部分を含む接触領域近傍画像を確保した上で、合成画像を生成するようにする。
Therefore, in this embodiment, the synthetic
さらに、合成画像生成部122は、マスク領域決定部122bと、車両モデル形成部122cとを有する。マスク領域決定部122bは、合成周辺画像生成部121により生成された第1の合成画像において、上述した接触領域近傍画像の領域を有効に機能させた上で、自車両が存在する領域のうち、最終的な合成画像において非表示とする領域をマスク領域として決定する。また、車両モデル形成部122cは、マスク領域決定部122bにより決定されたマスク領域に、例えばCG(コンピュータグラフィックス)等で事前に設けられた車両モデルなどを貼り付けて決定する。合成画像生成部122は、このようにして、最終的に生成された第2の合成画像を、表示部13に与える。
Further, the composite
表示部13は、例えばディスプレイ等を適用することができ、合成画像生成部122により生成された合成画像を出力(表示)する。
The
ここで、画像処理装置12により生成された合成画像は、ケーブル等の回線を通じて表示部13に与えられるようにしても良いし、又は、通信回線を介して表示部13に与えられるようにしても良い。より具体的には、例えば、表示部13が、車両に搭載され、画像処理装置12の近傍に設けられ、合成画像がケーブル等を介して表示部13に与えられるようにしても良い。これにより、当該車両の運転者に当該車両周辺の合成画像を見せることができる。又例えば、有線回線や無線回線等の通信回線を通じて合成画像が表示部13に与えられる場合には、車両から遠隔に設置された表示部13に合成画像が表示される。なお、この場合、合成画像を送受信する通信手段が必要となるが、この通信手段については本発明の主旨から離れるため、ここでの詳細な説明は省略する。
Here, the composite image generated by the
(A-1-2)カメラの取付方法
次に、複数のカメラ11-1~11-4を車両に取り付ける設置例を、図面を参照ながら詳細に説明する。
(A-1-2) Camera Mounting Method Next, an installation example for mounting a plurality of cameras 11-1 to 11-4 on a vehicle will be described in detail with reference to the drawings.
以下では、道路の路面を走行する車両2について、路面3と車両2の右側にあるタイヤ21-1及び21-3との接触している様子と、路面3と車両2の左側にあるタイヤ21-2及び21-4との接触している様子とを捉えることが可能な合成画像(第2の合成画像)を生成する場合を想定して説明する。
Below, regarding the
換言すると、路面3と、車両2の各タイヤ21-1~21-4とが接触している状況を表示できるようにし、接触領域近傍画像に含める対象が、路面3と各タイヤ21-1~21-4とである場合を例示する。
In other words, the state in which the
図2は、実施形態における複数のカメラ11-1~11-4の設置方法を示す車両の平面図であり、図3は、実施形態における複数のカメラ11-1~11-4の設置方法を示す車両の左側面図であり、図4は、実施形態における複数のカメラ11-1~11-4の設置方法を示す車両の後方部の図である。なお、図2~図4に示す矢印Aは、車両2の前方を示している。
FIG. 2 is a plan view of a vehicle showing how the cameras 11-1 to 11-4 are installed in the embodiment, and FIG. 3 shows the installation method of the cameras 11-1 to 11-4 in the embodiment. 4 is a left side view of the vehicle shown, and FIG. 4 is a view of the rear part of the vehicle showing a method of installing a plurality of cameras 11-1 to 11-4 in the embodiment. An arrow A shown in FIGS. 2 to 4 indicates the front of the
図2~図4に示すように、カメラ11-1~11-4のうち、カメラ11-1は車両2の前方に設けられ、カメラ11-2は車両2の後方に設けられ、カメラ11-3は車両2の右側に設けられ、カメラ11-4は車両2の左側に設けられる。
As shown in FIGS. 2 to 4, of the cameras 11-1 to 11-4, the camera 11-1 is provided in front of the
図4において、車両2の右側のカメラ11-3は、比較的、車両2の前方側に設けており、車両2の左側のカメラ11-4は、比較的、車両の後方側に設けているが、これは各カメラ11-3及び11-4の画像に応じて調整可能であり、このような配置に限定されるものではない。
In FIG. 4, the camera 11-3 on the right side of the
カメラ11-1~11-4のうち、カメラ11-3が、車両2のタイヤ21-1及びタイヤ21-3と、路面3との接触状況を撮像し、カメラ11-4が、車両のタイヤ21-2及びタイヤ21-4と、路面3との接触状況を撮像する。
Of the cameras 11-1 to 11-4, the camera 11-3 captures the state of contact between the tires 21-1 and 21-3 of the
車両2へのカメラ11-1~11-4の設置位置は、車両2のタイヤ21-1~21-4と路面3との接触状況を撮像可能な位置であれば、特に限定されないが、この実施形態では、車両2の屋根部に延長部材22-1~22-4を設置する場合を例示する。具体的には、車両2の屋根部に、車両2の外方向に延ばした延長部材22-1~22-4を取り付け、その延長部材22-1~22-4の先端側にカメラ11-1~11-4を固定する。
The installation positions of the cameras 11-1 to 11-4 on the
このとき、各延長部材22-1~22-4の先端側に固定された各カメラ11-1~11-4は、各カメラ11-1~11-4の撮像範囲に係る角度(画角)を調整することができるようにしてもよい。つまり、この例の場合、少なくとも、車両2の右側に設置するカメラ11-3が、路面3と、タイヤ21-1及びタイヤ21-3を含む画像を撮像し、車両2の左側に設置するカメラ11-4が、路面3と、タイヤ21-2及びタイヤ21-4を含む画像を撮像することが望まれる。
At this time, each of the cameras 11-1 to 11-4 fixed to the tip side of each of the extension members 22-1 to 22-4 has an angle (angle of view) related to the imaging range of each of the cameras 11-1 to 11-4. may be adjusted. That is, in this example, at least the camera 11-3 installed on the right side of the
そのため、図4に例示するように、カメラ11-1~11-4の設置の際、合成画像の合成処理前に、少なくとも、カメラ11-3(又はカメラ11-4)が、路面3と、タイヤ21-1及びタイヤ21-3(又はタイヤ21-2及びタイヤ21-4)と接触領域Rを含む画像を、車両が走行中に常時撮像できるようにカメラの外方向への突き出し距離及び設置角度を調整し、カメラ11-3とカメラ11-4の画角調整できるようにする。
Therefore, as illustrated in FIG. 4, when installing the cameras 11-1 to 11-4, at least the camera 11-3 (or the camera 11-4) is positioned on the
図5は、実施形態に係るカメラ11-3により撮像された撮像画像の一例を示す図である。 FIG. 5 is a diagram showing an example of a captured image captured by the camera 11-3 according to the embodiment.
図5に示すように、図5中において、車両2は右から左に向けて(矢印A方向)に走行しているときのカメラ11-3の撮像画像例であり、この場合、カメラ11-3の撮像画像には、路面3とタイヤ21-1との接触領域R1と、路面3とタイヤ21-3との接触領域R2とが含まれている。
As shown in FIG. 5, the
より具体的に説明すると、図5に例示する撮像画像の下方側に存在している矩形部分は、車両2の右側部に相当する画像であり、その車両2の右側部の画像の上方には、路面3と接触しているタイヤ21-1及びタイヤ21-3の画像が映っている。
More specifically, the rectangular portion existing on the lower side of the captured image illustrated in FIG. 5 is an image corresponding to the right side of the
図5に示すように、車両2の走行に伴い、接触領域R1とR2に映り込んでいるタイヤ21-1とタイヤ21-3が回転している様子が映し出されており、路面3に接触しているタイヤ21-1及びタイヤ21-3が路面3に対して働きかけている様子を認識することができる。
As shown in FIG. 5, as the
なお、図5は、車両の右側に設置したカメラ11-3の撮像画像例を示しているが、車両2の左側に設置したカメラ11-4の撮像画像も同様に接触領域Rの画像が含まれるようにする。
Although FIG. 5 shows an example of an image captured by the camera 11-3 installed on the right side of the vehicle, the image captured by the camera 11-4 installed on the left side of the
(A-2)実施形態の動作
次に、この実施形態に係る移動体表示システム1における移動体表示処理の動作を、図面を参照しながら説明する。
(A-2) Operation of Embodiment Next, the operation of mobile object display processing in the mobile
図6は、実施形態に係る移動体表示システム1における移動体表示処理の動作を示すフローチャートである。
FIG. 6 is a flowchart showing the operation of mobile object display processing in the mobile
[ステップS101]
まず、複数のカメラ11-1~11-4を車両2に取り付け、各カメラ11-1~11-4のうち一部のカメラ11-3及び11-4が、路面3とタイヤ21-1~21-4との接触状況を確認できるように調整する(ステップS101)。
[Step S101]
First, a plurality of cameras 11-1 to 11-4 are attached to the
この例の場合、車両2の屋根部の前方、後方、右側、左側に、車両2の外方向に延設するように、延長部材22(22-1~22-4)を固定し、延長部材22-1~22-4の先端側に、対応するカメラ11(11-1~11-4)を固定する。このように、各延長部材22-1~22-4を設けることにより、各カメラ11-1~11-4が、路面3とタイヤ21との接触状況などを捉えて撮像することができる。
In this example, extension members 22 (22-1 to 22-4) are fixed to the front, rear, right and left sides of the roof of the
なお、この実施形態では、延長部材22を設け、カメラ11の撮像画角の範囲内に移動平面としての路面3とタイヤ21とが映り込むようにする場合を例示した。しかし、魚眼カメラや広角カメラ等のように、カメラ11の画角が100°以上であり、延長部材22を設けなくても、カメラ11の画像に移動平面としての路面3とタイヤ21とが含まれるのであれば、延長部材22を設けないようにしてもよい。その逆に、例えば移動体が作業車両である場合であって、路面の整地の様子や掘削の様子などを見ながら運転操作するような場合には、延長部材22を設け、延長部材22の先端側にカメラ11を固定して、接触対象と当該接触対象と接触し得る作業部位との接触部分を覗き込むような位置にカメラ11を設置することができる点で、延長部材22は有効に機能する。特に、一般道路を走行する自動車には長尺物等の積載物に関する規制があるが、作業車両には延長部材22を設けることが可能であるので、移動体を作業車両とする場合には特に有効である。
In this embodiment, the extension member 22 is provided so that the
また、ステップS101では、延長部材22(22-1~22-4)の先端側に設けたカメラ11(11-1~11-4)のカメラ角度を調整する。この例の場合、車両2の右側と左側のカメラ11-3と11-4が、路面3とタイヤ21-1~21-4との接触状況を捉えるように、カメラ11-3及び11-4のカメラ角度を調整する。なお、合成画像(第2の合成画像)において、カメラ撮像画像のつなぎ目で歪みのない画像とするため、接触状況を捉えない前方のカメラ11-1及び後方のカメラ11-2のカメラ角度も調整することが望ましい。
Also, in step S101, the camera angles of the cameras 11 (11-1 to 11-4) provided on the tip side of the extension members 22 (22-1 to 22-4) are adjusted. In this example, the cameras 11-3 and 11-4 on the right and left sides of the
[ステップS102]
車両2の右側及び左側のカメラ11-3及び11-4の撮像画像に、接触領域Rが映り込んでいるかを確認して、接触領域Rを特定する(ステップS102)。例えば、図5に例示するようなカメラ11-3の撮像画像に、目的対象とする接触領域R1及びR2が映り込んでいるかを確認して特定する。
[Step S102]
The contact area R is identified by confirming whether or not the contact area R is captured in the images captured by the cameras 11-3 and 11-4 on the right and left sides of the vehicle 2 (step S102). For example, it is confirmed whether or not the target contact regions R1 and R2 are reflected in the captured image of the camera 11-3 as illustrated in FIG. 5, and specified.
例えば、接触領域R(R1及びR2)を撮像しているカメラ11-3の撮像画像において、目的とする接触領域Rの位置座標値を指定するようにしてもよい。より具体的には、当該撮像画像において、接触領域Rを含む矩形領域の4つの角の位置座標の値(座標値)を指定したり、接触領域Rの外周(境界線)を画像領域に沿って領域指定等するようにしてもよい。このようにすることで、カメラ11による2次元画像の座標系において、接触領域Rを含む領域画像を特定することができる。 For example, the position coordinate values of the target contact area R may be specified in the captured image of the camera 11-3 capturing the contact area R (R1 and R2). More specifically, in the captured image, the values of the position coordinates (coordinate values) of the four corners of the rectangular area including the contact area R are specified, or the outer circumference (boundary line) of the contact area R is specified along the image area. It is also possible to specify an area by using By doing so, an area image including the contact area R can be specified in the coordinate system of the two-dimensional image by the camera 11 .
[ステップS103]
合成周辺画像生成部121における合成画像(第1の合成画像)を生成する際の、所定のキャリブレーション処理を行なう(ステップS103)。
[Step S103]
Predetermined calibration processing is performed when generating a composite image (first composite image) in composite peripheral image generation unit 121 (step S103).
所定のキャリブレーション処理は、複数のカメラ11-1~11-4の撮像画像を合成して、車両周辺の3次元の合成画像(第1の合成画像)を生成する際、各撮像画像の2次元座標系の画素の座標値と、3次元モデルの3次元座標系の画素の座標値とを対応付けるための処理である。これにより、合成画像において、ある画像領域とこれに隣接する画像領域との境界であるつなぎ目で生じ得る画像歪みを抑制することができる。 In the predetermined calibration process, when synthesizing images captured by a plurality of cameras 11-1 to 11-4 to generate a three-dimensional synthetic image (first synthetic image) around the vehicle, two This is processing for associating the coordinate values of pixels in the dimensional coordinate system with the coordinate values of pixels in the 3D coordinate system of the 3D model. As a result, it is possible to suppress image distortion that may occur at a joint, which is a boundary between a given image area and an adjacent image area, in the synthesized image.
[ステップS104]
次に、複数のカメラ11-1~11-4の撮像画像が合成周辺画像生成部121に入力し、合成周辺画像生成部121が、4つの撮像画像(2次元画像データ)の各画素を、半円球の球面に形成した3次元モデル(メッシュ形状モデル)の各画素にマッピングして、3次元の第1の合成画像を生成する(ステップS104)。
[Step S104]
Next, the captured images of the plurality of cameras 11-1 to 11-4 are input to the combined peripheral image generation unit 121, and the combined peripheral image generation unit 121 converts each pixel of the four captured images (two-dimensional image data) into Each pixel of a three-dimensional model (mesh shape model) formed on the spherical surface of a hemisphere is mapped to generate a first three-dimensional synthetic image (step S104).
[ステップS105]
合成周辺画像生成部121により生成された第1の合成画像は、合成画像生成部122に与えられ、合成画像生成部122の接触領域近傍画像生成部122aにおいて、各撮像画像間の境界角度が調整されて、接触領域近傍画像が生成する(ステップS105)。
[Step S105]
The first synthetic image generated by the synthetic peripheral image generation unit 121 is provided to the synthetic
接触領域近傍画像生成部122aは、第1の合成画像において接触領域近傍画像が映し出されるようにするため、4つの撮像画像についてある撮像画像と、これに隣接する撮像画像との境界角度を調整する。 The contact area vicinity image generation unit 122a adjusts the boundary angle between a captured image and an adjacent captured image for the four captured images so that the contact area vicinity image is displayed in the first synthesized image. .
図7は、実施形態に係る合成画像における境界角度の調整方法を説明する説明図である。 FIG. 7 is an explanatory diagram illustrating a method of adjusting boundary angles in a synthesized image according to the embodiment.
ここでは、説明を容易にするために、図7(A)に示すように、仮想視点Vの位置が、車両2の中央の位置から上方に延びた位置にあるものとする。この場合、仮想視点Vの位置から車両2を俯瞰的に見た合成画像は、図7(B)の例示するような図となる。なお、図7(B)では、前方画像、後方画像、右側画像、左側画像のそれぞれの隣接する画像との境界角度Xは、魚眼カメラや広角カメラ等のレンズの外周部分の歪みの影響を軽減する目的で45°程度とする場合を例示している。
Here, for ease of explanation, it is assumed that the position of the virtual viewpoint V is at a position extending upward from the central position of the
しかし、接触領域Rを撮像している画像は、右側のカメラ11-3と左側のカメラ11-4であるので、境界角度Xが一定値であるときには、接触領域Rを含む接触領域近傍画像が、正しく映り込まないことが生じ得る。例えば、前方画像と左側画像との境界に、左側画像に映っている接触領域Rの一部が含まれるようなときには、接触領域Rの画像に歪みが生じたり、接触領域Rの一部が欠けた画像等となってしまい、接触領域近傍画像の画像品質を確保することができない場合がある。 However, since the images capturing the contact area R are the right camera 11-3 and the left camera 11-4, when the boundary angle X is a constant value, the contact area vicinity image including the contact area R is , it may not be reflected correctly. For example, when part of the contact area R shown in the left image is included in the boundary between the front image and the left image, the image of the contact area R is distorted or part of the contact area R is missing. In some cases, the image quality of the image near the contact area cannot be ensured.
そこで、この実施形態では、図7(C)に示すように、合成画像において、接触領域Rを撮像したカメラ11-3及び11-4の撮像画像の境界角度が大きくなるように、合成周辺画像生成部121が各撮像画像の境界角度を調整する。 Therefore, in this embodiment, as shown in FIG. 7C, in the composite image, the boundary angle between the images captured by the cameras 11-3 and 11-4 that capture the contact area R is large. The generation unit 121 adjusts the boundary angle of each captured image.
例えば、ステップS102で、カメラ11-4の撮像画像において、接触領域Rを含む画像領域を画定した矩形領域の4つの角の位置座標の値(座標値)や、接触領域Rの外周(境界線)を画定する領域指定等が行なわれている。また、3次元モデルを用いて、2次元の撮像画像の画素の座標値を、3次元の合成画像の画素の座標値に投影変換することにより、合成周辺画像生成部121は、3次元の合成画像の座標系において、撮像画像において指定した接触領域を含む画像領域に対応する画像領域(すなわち、接触領域近傍画像の領域)を示す座標値を認識することができる。つまり、合成周辺画像生成部121は、3次元座標系における接触領域近傍画像の座標値を認識することができる。 For example, in step S102, in the image captured by the camera 11-4, the values of the position coordinates (coordinate values) of the four corners of the rectangular area defining the image area including the contact area R, the outer circumference of the contact area R (boundary line ) are specified. Further, by using the three-dimensional model, the coordinate values of the pixels of the two-dimensional captured image are projected and transformed into the coordinate values of the pixels of the three-dimensional composite image, so that the composite peripheral image generation unit 121 can perform three-dimensional composite In the coordinate system of the image, it is possible to recognize the coordinate values indicating the image area corresponding to the image area including the contact area specified in the captured image (that is, the area of the image near the contact area). That is, the combined peripheral image generator 121 can recognize the coordinate values of the contact area vicinity image in the three-dimensional coordinate system.
したがって、合成周辺画像生成部121は、合成画像の3次元座標系における接触領域近傍画像の領域を示す座標値に基づいて、接触領域近傍画像の領域が、境界付近に存在する場合には、当該カメラの撮像画像の境界角度が大きくなるように調整する。 Therefore, based on the coordinate values indicating the area of the contact area vicinity image in the three-dimensional coordinate system of the synthesized image, if the area of the contact area vicinity image exists in the vicinity of the boundary, the synthetic surrounding image generation unit 121 Adjust so that the boundary angle of the captured image of the camera becomes large.
換言すると、接触領域近傍画像の領域を示す座標値を用いて、接触領域近傍画像を含む撮像画像の境界角度が大きくなるように設定し、逆に接触領域近傍画像を含んでいない撮像画像の境界角度を小さくするように設定する。 In other words, using the coordinate values indicating the area of the contact area vicinity image, the boundary angle of the captured image including the contact area vicinity image is set to be large, and conversely, the boundary angle of the captured image that does not include the contact area vicinity image is set. Set the angle to be small.
なお、各撮像画像の境界角度の調整は、例えば合成画像において接触領域近傍画像が映り込むように、作業者等の人手により調整するようにしてもよい。その場合、調整された調整後の座標値(合成画像の座標系における接触領域近傍画像の座標値であっても良いし、撮像画像の座標系における接触領域を含む座標値であってもよい)を設定値として記憶しておくようにしてもよい。これにより、仮想視点の位置が変わったときでも、変更後の仮想視点から見たときの、変更後の合成画像において、見方が変わった接触領域近傍画像を映し出すことができる。なお、この仮想視点の変更は、表示部13にタッチパネルとしての操作機能を持たせることや、図示しない操作インタフェースを用意することで、実行することができる。
Note that the adjustment of the boundary angle of each captured image may be made manually by an operator or the like so that the image near the contact area is reflected in the synthesized image, for example. In that case, the coordinate values after adjustment (the coordinate values of the contact area vicinity image in the coordinate system of the combined image may be used, or the coordinate values including the contact area in the coordinate system of the captured image may be used). may be stored as set values. As a result, even when the position of the virtual viewpoint is changed, it is possible to display the contact area vicinity image with a different perspective in the composite image after the change when viewed from the virtual viewpoint after the change. The virtual viewpoint can be changed by providing the
[ステップS106、S107]
合成画像生成部122のマスク領域決定部122bは、第1の合成画像において、接触領域近傍画像の領域を有効に保持した上で、自車両が存在する領域のうち、最終的な合成画像において非表示とする領域を、マスク領域として設定する(ステップS106)。
[Steps S106, S107]
The mask area determination unit 122b of the synthetic
そして、車両モデル形成部122cは、マスク領域決定部122bにより決定されたマスク領域に、例えばCG等で事前に設けられた車両モデルなどを貼り付ける(ステップS107)。
Then, the vehicle
ここで、車両モデルは、予めCG等で形成されたものを保持しておくようにしてよい。車両モデルは、例えばイラスト画像や実画像等としても良く、又例えば、イラスト画像や実画像等とした車両モデルのうち、一部又は全部をスケルトンモデルとしたものであってもよい。このように、車両モデルのうち、接触領域近傍画像に近い部分をスケルトンとすることにより、合成画像において、接触領域近傍の画像を明確に映し出すことができる。その結果、視聴者は、接触領域近傍画像に映し出される、例えば路面3とタイヤ21の接触状況を確実に把握することができる。さらに、例えば、CADやCAM等によりサーフェスモデルやソリッドモデルを自車両の3次元モデルとしても良い。
Here, the vehicle model may be previously formed by CG or the like and held. The vehicle model may be, for example, an illustration image or an actual image. Alternatively, for example, a skeleton model may be used as part or all of a vehicle model such as an illustration image or an actual image. In this way, by using the skeleton for the portion of the vehicle model that is close to the image near the contact area, it is possible to clearly show the image near the contact area in the synthesized image. As a result, the viewer can reliably grasp the state of contact, for example, between the
図8は、実施形態に係るマスク領域の設定方法を説明する説明図である。 FIG. 8 is an explanatory diagram illustrating a method of setting a mask area according to the embodiment.
各カメラ11-1~11-4は自車両の全景を撮像していないので、各カメラ11-1~11-4の撮像画像を合成すると、図8においてハッチをかけたハッチ部分Mには、第1の合成画像への投影変換により非表示とすべき領域(例えば撮像画像が無い領域等を含む)が生成されてしまう。したがって、最終的に、仮想視点から俯瞰した、画像品質の良い合成画像を生成するために当該ハッチ部分Mをマスク領域(以下、「マスク領域M」と呼ぶ。)とする。 Since the cameras 11-1 to 11-4 do not capture the entire view of the vehicle, when the images captured by the cameras 11-1 to 11-4 are combined, the hatched portion M shown in FIG. A region that should be hidden (including, for example, a region without a captured image) is generated by projective transformation to the first composite image. Therefore, finally, the hatched portion M is set as a mask area (hereinafter referred to as a "mask area M") in order to generate a composite image with high image quality viewed from a virtual viewpoint.
ここで、この実施形態では、右側のカメラ11-3及び左側のカメラ11-4が接触対象としての路面(移動平面)3と、タイヤ21-1~21-4との接触部分を撮像しているので、マスク領域Mの大きさは、概ね自車両が存在する領域の大きさよりも小さくなり、マスク領域Mは、概ね自車両の存在領域の内側に存在するようになる。なお、マスク領域Mは、少なくとも非表示とすべき領域を含むとともに、接触領域Rを除くようにして設定することが望ましい。図8では、説明を簡単にするため、マスク領域Mを矩形形状とした場合を例示しているが、マスク領域Mは矩形形状とすることに限定されず、画像における、非表示とすべき領域と接触領域の位置を考慮し、マスク領域Mを画定する座標値を設定したり、マスク領域Mの外周(境界線)を指定する等して、マスク領域Mを設定してもよい。 Here, in this embodiment, the right camera 11-3 and the left camera 11-4 image contact portions between the road surface (moving plane) 3 as a contact target and the tires 21-1 to 21-4. Therefore, the size of the mask area M is generally smaller than the size of the area where the own vehicle exists, and the mask area M exists generally inside the area where the own vehicle exists. It is desirable that the mask area M includes at least an area to be hidden and excludes the contact area R. FIG. 8 exemplifies a case where the mask region M has a rectangular shape to simplify the explanation, but the mask region M is not limited to a rectangular shape. The mask area M may be set by setting the coordinate values that define the mask area M, or by designating the outer circumference (boundary line) of the mask area M, in consideration of the position of the contact area.
図9は、実施形態と従来技術のマスク領域への車両モデルの貼り付けを説明する説明図である。 FIG. 9 is an explanatory diagram for explaining pasting of a vehicle model to a mask area according to the embodiment and the conventional technique.
図9(A)は、従来技術によるマスク領域と車両モデルとの関係を示しており、図9(B)は、この実施液体に係るマスク領域と車両モデルとの関係を示している。 FIG. 9(A) shows the relationship between the mask area and the vehicle model according to the prior art, and FIG. 9(B) shows the relationship between the mask area and the vehicle model according to this implementation liquid.
図9(A)に示すように、従来の場合、合成画像において非表示とすべき領域が多いため、マスク領域Mも大きくなっている。車両モデル51はマスク領域Mを覆い隠すようにして合成画像に貼り付けるので、マスク領域Mをマスクするための車両モデル51も大きくなってしまい、例えば、路面3との接触している領域を見ることはできない。
As shown in FIG. 9A, in the conventional case, since there are many areas to be hidden in the synthesized image, the mask area M is also large. Since the vehicle model 51 is attached to the composite image so as to cover the mask area M, the vehicle model 51 for masking the mask area M also becomes large, and for example, the area in contact with the
これに対して、図9(B)に示すように、この実施形態によれば、マスク領域Mの大きさは、概ね自車両が存在する領域の大きさよりも小さくなり、マスク領域Mは、概ね自車両の存在領域の内側に存在するようになる。したがって、マスク領域Mに車両モデル52を貼り付けた場合でも、接触領域近傍画像Rは、実画像として合成画像に映し出されるので、視聴者は、実画像である接触領域近傍画像Rを見ることができる。 On the other hand, as shown in FIG. 9B, according to this embodiment, the size of the mask area M is generally smaller than the size of the area where the own vehicle exists, and the mask area M is generally It comes to exist inside the existence area of the self-vehicle. Therefore, even when the vehicle model 52 is attached to the mask area M, the contact area vicinity image R is displayed as the actual image in the composite image, so that the viewer can view the contact area vicinity image R as the actual image. can.
[ステップS108、S109]
画像処理装置12により生成された第2の合成画像が、表示部13に与えられ(ステップS108)、表示部13に、第2の合成画像が表示される(ステップS109)。
[Steps S108 and S109]
The second synthesized image generated by the
画像処理装置12により生成された第2の合成画像は、変更可能な仮想視点から見た、走行している車両(車両モデル52)を含む俯瞰的な画像と、路面3と車両2のタイヤとの接触領域近傍画像とを含んだものとなる。したがって、路面3を走行している車両2を俯瞰して見ることができると共に、路面3と接触している車両2の一部分(タイヤ)の接触状況を確認することができる。
The second synthesized image generated by the
(A-3)実施形態の効果
以上のように、この実施形態によれば、走行又は駆動している移動体に複数のカメラを取り付け、複数のカメラの撮像画像を合成して、仮想視点から見たときの合成画像を表示する際に、移動体と、移動平面との接触領域の実画像を映し出すことができる。
(A-3) Effect of Embodiment As described above, according to this embodiment, a plurality of cameras are attached to a mobile body that is running or driving, and images captured by the plurality of cameras are combined to generate a virtual image from a virtual viewpoint. A real image of the contact area between the moving object and the moving plane can be displayed when displaying the composite image as viewed.
(B)他の実施形態
上述した実施形態においても種々の変形実施形態を言及したが、本発明は、以下の変形実施形態にも適用可能である。
(B) Other Embodiments Although various modified embodiments have been mentioned in the embodiments described above, the present invention is also applicable to the following modified embodiments.
(B-1)上述した実施形態では、移動体が路面を走行する車両である場合を例示して、路面とタイヤとの接触箇所の実画像を合成画像で映し出す場合を例示した。この場合、車両の右側のカメラと左側のカメラが、タイヤと路面との接触部分を撮像するようにしたが、これに限定されない。 (B-1) In the above-described embodiment, the moving object is a vehicle traveling on the road surface, and the actual image of the contact point between the road surface and the tire is displayed as a composite image. In this case, the camera on the right side and the camera on the left side of the vehicle are configured to image the contact portion between the tire and the road surface, but the present invention is not limited to this.
例えば、図10に例示するような、遠隔運転するロードローラー2Aに、複数のカメラを取り付けて合成画像を生成する場合にも適用できる。遠隔操作者は、表示部を通じて合成画像(第2の合成画像)を見ながら、ロードローラー2Aを遠隔操作する場合を想定している。なお、ロードローラー2Aを遠隔操作するシステムの詳細な説明は省略している。この例の場合、走行しているロードローラー2Aの前方に設けられている作業部位であるローラ部25と路面3との接触領域Rを、前方のカメラ111が撮像しているものとする。
For example, as shown in FIG. 10, the present invention can also be applied to a remotely operated road roller 2A, in which a plurality of cameras are attached to generate a composite image. It is assumed that the remote operator remotely operates the road roller 2A while viewing the composite image (second composite image) through the display unit. A detailed description of the system for remotely controlling the road roller 2A is omitted. In this example, it is assumed that the front camera 111 captures an image of the contact area R between the
図11は、前方のカメラ11-1の撮像画像が、路面3とローラ部25との接触領域Rを撮像した撮像画像であり、図11に例示する前方のカメラ11-1の撮像画像は、上述した実施形態で説明した第1の合成画像や第2の合成画像の一部画像として用いられる。
11 is an image captured by the front camera 11-1, which is an image of the contact area R between the
図11に例示した前方のカメラ11-1の撮像画像を利用して、第1の合成画像や第2の合成画像が生成されることにより、それら第1の合成画像や第2の合成画画像には、仮想視点から見た、走行するロードローラー2Aを含む俯瞰した画像と、ロードローラー2Aのローラ部25と路面3との接触領域近傍画像とを含むものとなる。従って、路面3を走行しているロードローラー2Aを仮想視点から俯瞰した様子を見ることができると共に、路面3を整地するロードローラー2Aの工作作業の詳細な様子を見ることができる。
By generating the first synthetic image and the second synthetic image using the captured image of the front camera 11-1 illustrated in FIG. 11, the first synthetic image and the second synthetic image are generated. includes a bird's-eye view image including the traveling road roller 2A and an image near the contact area between the
図11に例示する接触領域近傍画像Rが合成画像に含まれるので、ロードローラー2Aが整地する路面3のうち、既にローラ部25で整地化した後の路面31と、まだ整地化していない路面3との境界を、合成画像を通じて確認することができる。そのため、ロードローラー2Aのローラ部25による路面3の整地状況の詳細な様子を確認することができる。換言すると、仮想視点から俯瞰的に走行しているロードローラー2Aの走行状況や走行方向等の正確性を確認しながら、ロードローラー2Aによる工作作業の詳細な状況を同時に確認できして、遠隔操作者はロードローラー2Aを遠隔操作することができる。
Since the contact area vicinity image R illustrated in FIG. 11 is included in the composite image, the road surface 31 that has already been leveled by the
具体的には、変更可能な仮想視点から俯瞰的にロードローラー2Aも映し出された合成画像が映し出されることで、走行しているロードローラー2Aの走行方向などを俯瞰して見ることができる。それに加えて、最終的な合成画像に合成されている接触領域近傍画像が映し出されることで、例えば、ロードローラー2Aが蛇行せずにまっすぐ走行しているか、ロードローラー2Aが何度も同じ箇所を整地していないか、整地漏れをしている箇所はないかなどを遠隔操作者は確認することができ、ロードローラー2Aを遠隔操作することができる。 Specifically, by projecting a composite image in which the road roller 2A is also projected from a changeable virtual viewpoint, the running direction of the running road roller 2A can be viewed from above. In addition, by projecting the image near the contact area synthesized with the final synthesized image, for example, the road roller 2A runs straight without meandering, or the road roller 2A repeats the same part. The remote operator can check whether the ground is not leveled or whether there is a leak in ground leveling, and can remotely operate the road roller 2A.
また上述した実施形態と同様の処理を行なうことにより、例えば移動体が船舶である場合に、船体と岸壁との接触領域近傍画像(実画像)を獲得し、接岸する船舶の様子を確認するようにしてもよい。 Further, by performing the same processing as in the above-described embodiment, for example, when the moving body is a ship, an image near the contact area (actual image) between the ship and the quay can be obtained, and the state of the ship berthed can be confirmed. can be
あるいは、航空機、ドローン等のような無人飛行体についても着陸脚の領域等について本発明の処理を行うことにより、着陸脚と滑走路や着陸床との接触領域近傍画像(実画像)を獲得し、離発着等の様子を確認するようにしてもよい。 Alternatively, for an unmanned flying object such as an aircraft or a drone, an image (real image) near the contact area between the landing gear and the runway or landing floor can be obtained by performing the processing of the present invention on the area of the landing gear. , departure and arrival, etc. may be confirmed.
(B-2)上述した実施形態において、複数の撮像画像を合成して合成画像を生成する画像処理には、様々な技術を広く適用することができる。例えば、特許文献1や特許文献2に開示されている技術やその改良技術を適用することができる。
(B-2) In the above-described embodiments, various techniques can be widely applied to image processing for synthesizing a plurality of captured images to generate a synthesized image. For example, the techniques disclosed in
1…移動体表示システム、11(11-1~11-4)…カメラ、12…画像処理装置、121…合成周辺画像生成部、122…合成画像生成部、122a…接触領域近傍画像生成部、122b…マスク領域決定部、122c…車両モデル形成部、13…表示部、2及び2A…移動体、R…接触領域近傍画像。
Claims (6)
前記複数のカメラの撮像画像に基づいて、変更可能な仮想視点から見たときの合成周辺画像を生成する合成周辺画像生成部と、
前記複数のカメラの全部又は一部の前記カメラの撮像画像に含まれている、前記移動体の移動平面と前記移動体との接触領域を含む接触領域近傍画像と、所定の移動体モデルとを含む合成移動体画像を生成する合成移動体画像生成部と、
前記合成移動体画像生成部により生成された前記合成移動体画像を表示する表示部と
を備えることを特徴とする移動体表示システム。 a plurality of cameras attached to a moving object for imaging the surroundings of the moving object;
a synthetic peripheral image generation unit that generates a synthetic peripheral image when viewed from a changeable virtual viewpoint based on the images captured by the plurality of cameras;
a contact area vicinity image including a contact area between the movement plane of the moving body and the moving body, which is included in the captured images of all or part of the plurality of cameras, and a predetermined moving body model; A synthetic moving object image generation unit that generates a synthetic moving object image including
and a display unit that displays the synthetic moving object image generated by the synthetic moving object image generation unit.
前記接触領域が、前記作業車両の作業部位と地面との接触領域である
ことを特徴とする請求項1に記載の移動体表示システム。 the mobile body is a work vehicle,
The mobile object display system according to claim 1, wherein the contact area is a contact area between a work site of the work vehicle and the ground.
前記合成周辺画像生成部が、前記合成周辺画像として、前記移動体を中心とした全周画像を生成する
ことを特徴とする請求項1~3のいずれかに記載の移動体表示システム。 the plurality of cameras are fisheye cameras;
4. The moving body display system according to claim 1, wherein said synthetic peripheral image generating section generates an all-around image centered on said moving body as said synthetic peripheral image.
前記複数のカメラの全部又は一部の前記カメラの撮像画像に含まれている、前記移動体の移動平面と前記移動体との接触領域を含む接触領域近傍画像と、所定の移動体モデルとを含む合成移動体画像を生成する合成移動体画像生成部と、
を備えることを特徴とする画像処理装置。 a synthetic peripheral image generation unit that generates a synthetic peripheral image when viewed from a changeable virtual viewpoint based on a plurality of captured images acquired from a plurality of cameras that capture images of the surroundings of a moving object;
a contact area vicinity image including a contact area between the movement plane of the moving body and the moving body, which is included in the captured images of all or part of the plurality of cameras, and a predetermined moving body model; A synthetic moving object image generation unit that generates a synthetic moving object image including
An image processing device comprising:
移動体の周辺を撮像する複数のカメラから取得した複数の撮像画像に基づいて、変更可能な仮想視点から見たときの合成周辺画像を生成する合成周辺画像生成部と、
前記複数のカメラの全部又は一部の前記カメラの撮像画像に含まれている、前記移動体の移動平面と前記移動体との接触領域を含む接触領域近傍画像と、所定の移動体モデルとを含む合成移動体画像を生成する合成移動体画像生成部と
して機能させることを特徴とする画像処理プログラム。 the computer,
a synthetic peripheral image generation unit that generates a synthetic peripheral image when viewed from a changeable virtual viewpoint based on a plurality of captured images acquired from a plurality of cameras that capture images of the surroundings of a moving object;
a contact area vicinity image including a contact area between the movement plane of the moving body and the moving body, which is included in the captured images of all or part of the plurality of cameras, and a predetermined moving body model; An image processing program characterized by functioning as a synthetic moving object image generating unit that generates a synthetic moving object image including a moving object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098002A JP7293862B2 (en) | 2019-05-24 | 2019-05-24 | Mobile display system, image processing device and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019098002A JP7293862B2 (en) | 2019-05-24 | 2019-05-24 | Mobile display system, image processing device and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020195008A JP2020195008A (en) | 2020-12-03 |
JP7293862B2 true JP7293862B2 (en) | 2023-06-20 |
Family
ID=73545990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019098002A Active JP7293862B2 (en) | 2019-05-24 | 2019-05-24 | Mobile display system, image processing device and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7293862B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006321419A (en) | 2005-05-20 | 2006-11-30 | Nissan Motor Co Ltd | Image display device and image display method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009038428A (en) * | 2007-07-31 | 2009-02-19 | Alpine Electronics Inc | Image drawing device |
JP6014442B2 (en) * | 2012-09-27 | 2016-10-25 | 富士通テン株式会社 | Image generation apparatus, image display system, and image generation method |
JP6258000B2 (en) * | 2013-10-31 | 2018-01-10 | 株式会社デンソーテン | Image display system, image display method, and program |
JP6257978B2 (en) * | 2013-09-19 | 2018-01-10 | 株式会社デンソーテン | Image generation apparatus, image display system, and image generation method |
-
2019
- 2019-05-24 JP JP2019098002A patent/JP7293862B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006321419A (en) | 2005-05-20 | 2006-11-30 | Nissan Motor Co Ltd | Image display device and image display method |
Also Published As
Publication number | Publication date |
---|---|
JP2020195008A (en) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360245B (en) | External parameter calibration method for multi-camera system of unmanned vehicle | |
JP5444338B2 (en) | Vehicle perimeter monitoring device | |
AU2018333191B2 (en) | Display system, display method, and display apparatus | |
JP4248570B2 (en) | Image processing apparatus and visibility support apparatus and method | |
KR101407556B1 (en) | Image Generating Device and Operation Assistance System | |
WO2018216537A1 (en) | Video generation device | |
US11415991B2 (en) | Image generating device and image generating method | |
WO2013145878A1 (en) | Perimeter-monitoring device for operating machine | |
JP4315968B2 (en) | Image processing apparatus and visibility support apparatus and method | |
WO2020003631A1 (en) | Display control device and display control method | |
US10621743B2 (en) | Processing-target image creating device, processing-target image creating method, and operation assisting system | |
JP2018531530A (en) | Method and apparatus for displaying surrounding scene of vehicle / towed vehicle combination | |
JP7283059B2 (en) | Perimeter monitoring device | |
JPH11211473A (en) | Topographic form measuring device | |
WO2018043299A1 (en) | Work machine graphics display system, work machine remote control system, work machine, and work machine graphics display method | |
JP2009100342A (en) | Camera calibration device, method and vehicle | |
JPWO2018216535A1 (en) | Video generator | |
JP6324665B2 (en) | Perimeter monitoring equipment for work machines | |
CN214090044U (en) | Excavator and excavator remote display system | |
US20240348749A1 (en) | Camera system, and method for generating a view using a camera system | |
JP2024028464A (en) | Display control system and display control method | |
JP2020175890A (en) | Work vehicle | |
JP7293862B2 (en) | Mobile display system, image processing device and image processing program | |
JP6715205B2 (en) | Work machine surrounding image display device | |
US20240052602A1 (en) | Work machine surroundings monitoring system, work machine, and work machine surroundings monitoring method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7293862 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |