JP2015184839A - Image generation device, image display system, and image generation method - Google Patents

Image generation device, image display system, and image generation method Download PDF

Info

Publication number
JP2015184839A
JP2015184839A JP2014059317A JP2014059317A JP2015184839A JP 2015184839 A JP2015184839 A JP 2015184839A JP 2014059317 A JP2014059317 A JP 2014059317A JP 2014059317 A JP2014059317 A JP 2014059317A JP 2015184839 A JP2015184839 A JP 2015184839A
Authority
JP
Japan
Prior art keywords
image
vehicle
image generation
point
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014059317A
Other languages
Japanese (ja)
Inventor
ともえ 大築
Tomoe Otsuki
ともえ 大築
徹 鶴田
Toru Tsuruta
徹 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2014059317A priority Critical patent/JP2015184839A/en
Publication of JP2015184839A publication Critical patent/JP2015184839A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique with which it is possible to call a user's attention to even an object not included in a target area to be expanded, as well as an object included in the target area.SOLUTION: In an image display system according to the present invention, an image acquisition unit acquires a plurality of photographed images obtained by a plurality of cameras that photograph the periphery of a vehicle, and an image generation unit generates a composite image indicating the periphery of the vehicle looked from virtual viewpoints by using the plurality of photographed images. Then the image generation unit generates a partial expanded image CPa that is one composite image which, while indicating the whole region of the entire periphery of the vehicle, expands the subject included in a partial target region TR of the whole region, and which indicates the subject not included in the target region TR without expanding it. Accordingly, a user visually recognizing the partial expanded image CPa can, while confirming an object included in the target region TR in detail, direct the user's attention to an object not included in the target region TR at the same time.

Description

本発明は、車両の周辺を示す画像を生成する技術に関する。   The present invention relates to a technique for generating an image showing the periphery of a vehicle.

従来より、自動車などの車両の周辺を示す画像を生成し、この画像を車両内の表示装置に表示する画像表示システムが知られている。このような画像表示システムを利用することにより、ユーザ(代表的にはドライバ)は、車両の周辺の様子をほぼリアルタイムに確認することができる。   2. Description of the Related Art Conventionally, an image display system that generates an image showing the periphery of a vehicle such as an automobile and displays this image on a display device in the vehicle is known. By using such an image display system, a user (typically a driver) can check the state of the periphery of the vehicle almost in real time.

また、近年では、複数のカメラで得られた複数の撮影画像を合成して仮想視点からみた車両の周辺を示す合成画像を生成し、その合成画像を表示する画像表示システムも提案されている(例えば、特許文献1参照。)。このような画像表示システムでは、例えば、車両の直上から見下ろすように車両の周囲全体を示す合成画像(俯瞰画像)などを生成できる。ユーザは、このような合成画像を視認することで、車両の周囲全体の様子を確認することができる。   In recent years, an image display system has also been proposed in which a plurality of captured images obtained by a plurality of cameras are combined to generate a combined image showing the periphery of the vehicle viewed from a virtual viewpoint, and the combined image is displayed ( For example, see Patent Document 1.) In such an image display system, for example, it is possible to generate a composite image (overhead image) showing the entire periphery of the vehicle as if looking down from directly above the vehicle. By visually recognizing such a composite image, the user can check the overall surroundings of the vehicle.

特開2012−124610号公報JP 2012-124610 A

上記のような画像表示システムを利用するユーザは、車両の周囲全体を確認しながらも、車両の後方など車両の周囲の一部をより詳細に確認することを望む場合がある。このため、図29に示すような、車両の周囲全体を示す合成画像82と、車両の周囲の一部を拡大して示す拡大画像83との2つの画像を並べて含む表示画像81を表示する技術が知られている(例えば、特許文献1参照。)。図29の例では、車両は車両像85として示されており、拡大画像83は車両の後方を拡大して示している。   A user who uses the image display system as described above may desire to check a part of the periphery of the vehicle in more detail, for example, behind the vehicle while checking the entire periphery of the vehicle. For this reason, as shown in FIG. 29, a technique for displaying a display image 81 including two images of a composite image 82 showing the entire periphery of the vehicle and an enlarged image 83 showing an enlarged portion of the periphery of the vehicle side by side. Is known (for example, see Patent Document 1). In the example of FIG. 29, the vehicle is shown as a vehicle image 85, and the enlarged image 83 shows the rear of the vehicle in an enlarged manner.

図29に示すような表示画像81を視認するユーザは、合成画像82と拡大画像83との双方を確認することができる。しかしながら、通常、ユーザは、合成画像82と拡大画像83とのいずれかに比重をおいて注意を向けることになる。このため、ユーザが拡大画像83に注意を向けている場合には、拡大画像83が示す領域の外部(例えば、車両の前方)で物体が車両に接近したときに、ユーザが当該物体に気づかない可能性がある。   A user who visually recognizes the display image 81 as shown in FIG. 29 can confirm both the composite image 82 and the enlarged image 83. However, the user usually pays attention to either the composite image 82 or the enlarged image 83 with a specific gravity. For this reason, when the user is paying attention to the enlarged image 83, the user does not notice the object when the object approaches the vehicle outside the area indicated by the enlarged image 83 (for example, in front of the vehicle). there is a possibility.

本発明は、上記課題に鑑みてなされたものであり、拡大の対象となる対象領域に含まれる物体とともに、対象領域に含まれない物体にもユーザが注意を向けることができる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique that allows a user to pay attention to an object that is not included in the target area as well as an object that is included in the target area to be enlarged. With the goal.

上記課題を解決するため、請求項1の発明は、車両において用いられる画像生成装置であって、前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する生成手段と、を備え、前記生成手段は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成する。   In order to solve the above-mentioned problem, the invention of claim 1 is an image generation device used in a vehicle, and obtains a plurality of photographed images obtained by a plurality of cameras that photograph the periphery of the vehicle; Generating means for generating a composite image showing the periphery of the vehicle viewed from a virtual viewpoint using the plurality of captured images, the generating means showing the entire area of the entire periphery of the vehicle The subject included in a part of the target area is enlarged, and a partly enlarged image that is one of the combined images shown without enlargement of the subject not included in the target area is generated.

また、請求項2の発明は、請求項1に記載の画像生成装置において、前記生成手段は、前記車両の周辺に相当する仮想面に前記複数の撮影画像のデータを貼付し、前記仮想面に貼付された前記データを用いて前記合成画像を生成し、前記仮想面における前記対象領域に相当する部分の座標を変更することで前記一部拡大画像を生成する。   According to a second aspect of the present invention, in the image generation apparatus according to the first aspect, the generation unit affixes the data of the plurality of captured images to a virtual surface corresponding to the periphery of the vehicle, and The composite image is generated using the pasted data, and the partially enlarged image is generated by changing the coordinates of the portion corresponding to the target region on the virtual plane.

また、請求項3の発明は、請求項2に記載の画像生成装置において、前記仮想面は、仮想的な三次元空間に設定される曲面である。   According to a third aspect of the present invention, in the image generation apparatus according to the second aspect, the virtual surface is a curved surface set in a virtual three-dimensional space.

また、請求項4の発明は、請求項3に記載の画像生成装置において、前記生成手段は、前記座標を前記車両の接地面に沿った方向にのみ変更する。   According to a fourth aspect of the present invention, in the image generating apparatus according to the third aspect, the generating unit changes the coordinates only in a direction along the ground contact surface of the vehicle.

また、請求項5の発明は、請求項3または4に記載の画像生成装置において、前記生成手段は、前記三次元空間の任意の位置に前記仮想視点を設定可能である。   The invention according to claim 5 is the image generation apparatus according to claim 3 or 4, wherein the generation means can set the virtual viewpoint at an arbitrary position in the three-dimensional space.

また、請求項6の発明は、請求項1ないし5のいずれかに記載の画像生成装置において、前記一部拡大画像は、前記対象領域の周縁近傍の被写体を圧縮して示す。   According to a sixth aspect of the present invention, in the image generating apparatus according to any one of the first to fifth aspects, the partially enlarged image shows a subject in the vicinity of the periphery of the target area in a compressed manner.

また、請求項7の発明は、請求項1ないし6のいずれかに記載の画像生成装置において、ユーザの操作に応じて前記対象領域を設定する設定手段、をさらに備えている。   According to a seventh aspect of the present invention, the image generating apparatus according to any one of the first to sixth aspects further comprises setting means for setting the target area in accordance with a user operation.

また、請求項8の発明は、請求項1ないし6のいずれかに記載の画像生成装置において、前記車両の近傍に存在する物体の位置を検出する検出手段の検出結果に応じて、前記対象領域を設定する設定手段、をさらに備えている。   The invention according to claim 8 is the image generation apparatus according to any one of claims 1 to 6, wherein the target region is determined according to a detection result of a detection unit that detects a position of an object existing in the vicinity of the vehicle. Setting means for setting.

また、請求項9の発明は、車両において用いられる画像表示システムであって、請求項1ないし8のいずれかに記載の画像生成装置と、前記画像生成装置で生成された前記一部拡大画像を表示する表示装置と、を備えている。   The invention of claim 9 is an image display system used in a vehicle, wherein the image generation device according to any one of claims 1 to 8 and the partially enlarged image generated by the image generation device are displayed. And a display device for displaying.

また、請求項10の発明は、車両において用いられる画像生成方法であって、(a)前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、を備え、前記工程(b)は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成する。   The invention of claim 10 is an image generation method used in a vehicle, wherein (a) a step of acquiring a plurality of captured images obtained by a plurality of cameras that capture the periphery of the vehicle; Generating a composite image showing the periphery of the vehicle as viewed from a virtual viewpoint using the plurality of captured images, wherein the step (b) shows the entire area of the entire periphery of the vehicle. A subject included in a part of the target region is enlarged, and a partially enlarged image that is one of the combined images shown without enlargement of a subject not included in the target region is generated.

請求項1ないし10の発明によれば、車両の周囲全体の全体領域を示しつつ全体領域の一部の対象領域に含まれる被写体を拡大して示す一部拡大画像が生成される。この一部拡大画像を視認するユーザは、対象領域に含まれる物体を詳細に確認しつつ、対象領域に含まれない物体にも同時に注意を向けることができる。   According to the first to tenth aspects of the present invention, a partially enlarged image is generated in which the subject included in the partial target region of the entire region is enlarged while showing the entire region around the entire vehicle. The user who visually recognizes this partially enlarged image can simultaneously pay attention to an object not included in the target area while confirming in detail the object included in the target area.

また、特に請求項2の発明によれば、仮想面の一部の座標を変更するという簡便な手法で一部拡大画像を生成できる。   In particular, according to the second aspect of the present invention, a partially enlarged image can be generated by a simple method of changing some coordinates of the virtual surface.

また、特に請求項3の発明によれば、仮想面が曲面の場合であっても、その仮想面の一部の座標を変更するという簡便な手法で一部拡大画像を生成できる。   In particular, according to the third aspect of the present invention, even when the virtual surface is a curved surface, a partially enlarged image can be generated by a simple method of changing some coordinates of the virtual surface.

また、特に請求項4の発明によれば、座標を車両の接地面に沿った方向にのみ変更するため、一部拡大画像を生成するための演算量を大幅に低減できる。   In particular, according to the invention of claim 4, since the coordinates are changed only in the direction along the ground contact surface of the vehicle, the amount of calculation for generating a partially enlarged image can be greatly reduced.

また、特に請求項5の発明によれば、三次元空間のいずれの位置に仮想視点が設定された場合であっても、その仮想視点からみた一部拡大画像を生成できる。   In particular, according to the invention of claim 5, even if the virtual viewpoint is set at any position in the three-dimensional space, a partially enlarged image viewed from the virtual viewpoint can be generated.

また、特に請求項6の発明によれば、一部拡大画像は、対象領域の周縁近傍の被写体を圧縮して示すため、対象領域に含まれる被写体と対象領域に含まれない被写体との連続性を保持することができる。   In particular, according to the invention of claim 6, since the partially enlarged image shows the subject in the vicinity of the periphery of the target region in a compressed manner, the continuity between the subject included in the target region and the subject not included in the target region is shown. Can be held.

また、特に請求項7の発明によれば、ユーザの操作に応じて対象領域を設定するため、ユーザは所望の被写体を詳細に確認できる。   In particular, according to the invention of claim 7, the target area is set according to the user's operation, so that the user can confirm the desired subject in detail.

また、特に請求項8の発明によれば、検出手段の検出結果に応じて対象領域を設定するため、ユーザは車両の近傍に存在する物体を詳細に確認できる。   In particular, according to the invention of claim 8, the target area is set according to the detection result of the detection means, so that the user can confirm in detail the object existing in the vicinity of the vehicle.

図1は、第1の実施の形態の画像表示システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image display system according to the first embodiment. 図2は、4つのカメラが撮影する方向を示す図である。FIG. 2 is a diagram illustrating directions in which four cameras capture images. 図3は、合成画像を生成する手法を説明する図である。FIG. 3 is a diagram illustrating a method for generating a composite image. 図4は、合成画像を生成する手法を説明する図である。FIG. 4 is a diagram illustrating a method for generating a composite image. 図5は、合成画像の一例を示す図である。FIG. 5 is a diagram illustrating an example of a composite image. 図6は、フリック操作を説明する図である。FIG. 6 is a diagram for explaining the flick operation. 図7は、合成画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a composite image. 図8は、合成画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a composite image. 図9は、ピンチアウト操作を説明する図である。FIG. 9 is a diagram for explaining the pinch-out operation. 図10は、一部拡大画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a partially enlarged image. 図11は、一部拡大画像の一例を示す図である。FIG. 11 is a diagram illustrating an example of a partially enlarged image. 図12は、一部拡大画像の一例を示す図である。FIG. 12 is a diagram illustrating an example of a partially enlarged image. 図13は、画像表示システムの処理の流れを示す図である。FIG. 13 is a diagram illustrating a flow of processing of the image display system. 図14は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 14 is a diagram illustrating a technique for changing the coordinates of the vertices of the virtual surface. 図15は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 15 is a diagram illustrating a technique for changing the coordinates of the vertices of the virtual surface. 図16は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 16 is a diagram illustrating a technique for changing the coordinates of the vertices of the virtual surface. 図17は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 17 is a diagram illustrating a method for changing the coordinates of the vertices of the virtual surface. 図18は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 18 is a diagram for explaining a method of changing the coordinates of the vertices of the virtual surface. 図19は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 19 is a diagram illustrating a method for changing the coordinates of the vertices of the virtual surface. 図20は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 20 is a diagram for explaining a method of changing the coordinates of the vertices of the virtual surface. 図21は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 21 is a diagram for explaining a method of changing the coordinates of the vertices of the virtual surface. 図22は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 22 is a diagram illustrating a technique for changing the coordinates of the vertices of the virtual surface. 図23は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 23 is a diagram for explaining a method of changing the coordinates of the vertices of the virtual surface. 図24は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 24 is a diagram illustrating a technique for changing the coordinates of the vertices of the virtual surface. 図25は、仮想面の頂点の座標を変更する手法を説明する図である。FIG. 25 is a diagram for explaining a method of changing the coordinates of the vertices of the virtual plane. 図26は、第4の実施の形態の画像表示システムの構成を示す図である。FIG. 26 is a diagram illustrating a configuration of an image display system according to the fourth embodiment. 図27は、物体検出装置の構成を主に示す図である。FIG. 27 is a diagram mainly illustrating a configuration of the object detection device. 図28は、クリアランスソナーが配置される位置を示す図である。FIG. 28 is a diagram illustrating a position where the clearance sonar is disposed. 図29は、合成画像を含む表示画像の一例を示す図である。FIG. 29 is a diagram illustrating an example of a display image including a composite image.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態の画像表示システム10の構成を示す図である。この画像表示システム10は、車両(本実施の形態では、自動車)において用いられるものであり、車両の周辺の領域を示す画像を生成して車室内に表示する機能を有している。画像表示システム10のユーザ(代表的にはドライバ)は、この画像表示システム10を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できる。
<1. First Embodiment>
<1-1. Configuration>
FIG. 1 is a diagram illustrating a configuration of an image display system 10 according to the first embodiment. This image display system 10 is used in a vehicle (in this embodiment, an automobile), and has a function of generating an image showing an area around the vehicle and displaying it in the vehicle interior. By using this image display system 10, a user (typically a driver) of the image display system 10 can grasp the state around the vehicle in almost real time.

図に示すように、画像表示システム10は、複数のカメラ5、画像生成装置2、表示装置3及び操作ボタン4を主に備えている。複数のカメラ5はそれぞれ、車両の周辺を撮影して撮影画像を取得し、取得した撮影画像を画像生成装置2に入力する。画像生成装置2は、複数の撮影画像を用いて、仮想視点からみた車両の周辺を示す合成画像を生成する。表示装置3は、画像生成装置2で生成された合成画像を表示する。また、操作ボタン4は、ユーザの操作を受け付ける。   As shown in the figure, the image display system 10 mainly includes a plurality of cameras 5, an image generation device 2, a display device 3, and operation buttons 4. Each of the plurality of cameras 5 captures the periphery of the vehicle to acquire a captured image, and inputs the acquired captured image to the image generation device 2. The image generation device 2 uses a plurality of captured images to generate a composite image showing the periphery of the vehicle viewed from a virtual viewpoint. The display device 3 displays the composite image generated by the image generation device 2. The operation button 4 receives a user operation.

複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、車両の周辺を示す撮影画像を電子的に取得する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、車両9において互いに異なる位置に配置され、車両9の周辺の異なる方向を撮影する。   Each of the plurality of cameras 5 includes a lens and an image sensor, and electronically obtains a captured image showing the periphery of the vehicle. The multiple cameras 5 include a front camera 5F, a rear camera 5B, a left side camera 5L, and a right side camera 5R. These four cameras 5F, 5B, 5L, and 5R are arranged at different positions in the vehicle 9 and photograph different directions around the vehicle 9.

図2は、4つのカメラ5F,5B,5L,5Rがそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、車両9の前端に設けられ、その光軸5Faは車両9の直進方向に向けられる。リアカメラ5Bは、車両9の後端に設けられ、その光軸5Baは車両9の直進方向の逆方向に向けられる。左サイドカメラ5Lは左側の左サイドミラー93Lに設けられ、その光軸5Laは車両9の左側方に向けられる。また、右サイドカメラ5Rは右側の右サイドミラー93Rに設けられ、その光軸5Raは車両9の右側方に向けられる。   FIG. 2 is a diagram illustrating directions in which the four cameras 5F, 5B, 5L, and 5R are respectively photographed. The front camera 5F is provided at the front end of the vehicle 9, and the optical axis 5Fa is directed in the straight traveling direction of the vehicle 9. The rear camera 5 </ b> B is provided at the rear end of the vehicle 9, and its optical axis 5 </ b> Ba is directed in the direction opposite to the straight traveling direction of the vehicle 9. The left side camera 5L is provided on the left side mirror 93L on the left side, and its optical axis 5La is directed to the left side of the vehicle 9. The right side camera 5 </ b> R is provided on the right side mirror 93 </ b> R on the right side, and its optical axis 5 </ b> Ra is directed to the right side of the vehicle 9.

これらのカメラ5F,5B,5L,5Rのレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5F,5B,5L,5Rは180度以上の画角αを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、車両9の周囲全体を撮影することが可能である。   A wide-angle lens such as a fisheye lens is adopted as the lens of these cameras 5F, 5B, 5L, and 5R, and each camera 5F, 5B, 5L, and 5R has an angle of view α of 180 degrees or more. For this reason, it is possible to photograph the entire periphery of the vehicle 9 by using the four cameras 5F, 5B, 5L, and 5R.

図1に戻り、表示装置3は、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示する。表示装置3は、ユーザがその画面を視認できるように、車両9のインストルメントパネルなどに配置される。表示装置3は、画像生成装置2と同一のハウジング内に配置されて画像生成装置2と一体化されていてもよく、画像生成装置2とは別体の装置であってもよい。   Returning to FIG. 1, the display device 3 includes a thin display panel such as a liquid crystal display, and displays various types of information and images. The display device 3 is arranged on an instrument panel or the like of the vehicle 9 so that the user can visually recognize the screen. The display device 3 may be disposed in the same housing as the image generation device 2 and integrated with the image generation device 2, or may be a separate device from the image generation device 2.

表示装置3は、その画面に対するユーザのタッチ操作を受け付けるタッチパネル31を備えている。タッチパネル31は、静電容量式となっており、フリック操作やピンチアウト操作などのマルチタッチ操作を受け付けることが可能である。   The display device 3 includes a touch panel 31 that receives a user's touch operation on the screen. The touch panel 31 is a capacitance type, and can accept a multi-touch operation such as a flick operation or a pinch-out operation.

操作ボタン4は、ユーザの操作を受け付ける操作部材である。操作ボタン4は、例えば、車両9のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。   The operation button 4 is an operation member that receives a user operation. The operation button 4 is provided, for example, on the steering wheel of the vehicle 9 and mainly receives an operation from the driver.

ユーザは、これらのタッチパネル31及び操作ボタン4を介して画像表示システム10に対して各種の操作を行うことができる。タッチパネル31及び操作ボタン4のいずれかにユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成装置2に入力される。   The user can perform various operations on the image display system 10 via the touch panel 31 and the operation buttons 4. When a user operation is performed on either the touch panel 31 or the operation button 4, an operation signal indicating the content of the operation is input to the image generation device 2.

画像生成装置2は、各種の画像処理が可能な電子装置であり、画像取得部21と、画像生成部22と、画像出力部24とを備えている。   The image generation device 2 is an electronic device that can perform various types of image processing, and includes an image acquisition unit 21, an image generation unit 22, and an image output unit 24.

画像取得部21は、4つのカメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像を取得する。画像取得部21は、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部22に入力する。なお、4つのカメラ5F,5B,5L,5Rがデジタルの撮影画像を取得する場合は、画像取得部21がアナログの撮影画像をデジタルの撮影画像に変換する機能を有していなくてよい。   The image acquisition unit 21 acquires captured images respectively obtained by the four cameras 5F, 5B, 5L, and 5R. The image acquisition unit 21 has an image processing function such as a function of converting an analog captured image into a digital captured image. The image acquisition unit 21 performs predetermined image processing on the acquired captured image and inputs the processed captured image to the image generation unit 22. When the four cameras 5F, 5B, 5L, and 5R acquire digital captured images, the image acquisition unit 21 does not have to have a function of converting an analog captured image into a digital captured image.

画像生成部22は、合成画像を生成するための画像処理を行うハードウェア回路である。画像生成部22は、4つのカメラ5で取得された4つの撮影画像を合成して、仮想視点からみた車両9の周辺を示す合成画像を生成する。画像生成部22は、車両9の周辺に相当する仮想面に複数の撮影画像のデータを貼付し、この仮想面に貼付されたデータを用いて合成画像を生成する。この合成画像を生成する手法の詳細については後述する。   The image generation unit 22 is a hardware circuit that performs image processing for generating a composite image. The image generation unit 22 combines the four captured images acquired by the four cameras 5 to generate a combined image that shows the periphery of the vehicle 9 viewed from the virtual viewpoint. The image generation unit 22 attaches a plurality of captured image data to a virtual surface corresponding to the periphery of the vehicle 9 and generates a composite image using the data attached to the virtual surface. Details of the method for generating the composite image will be described later.

画像出力部24は、画像生成部22で生成された合成画像を表示装置3に出力して、合成画像を表示装置3に表示させる。これにより、仮想視点からみた車両9の周辺を示す合成画像が表示装置3に表示される。   The image output unit 24 outputs the composite image generated by the image generation unit 22 to the display device 3 and causes the display device 3 to display the composite image. As a result, a composite image showing the periphery of the vehicle 9 viewed from the virtual viewpoint is displayed on the display device 3.

また、画像生成装置2は、制御部20と、操作受付部25と、信号受信部26と、記憶部27とをさらに備えている。制御部20は、例えば、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像生成装置2の全体を統括的に制御する。   The image generation device 2 further includes a control unit 20, an operation reception unit 25, a signal reception unit 26, and a storage unit 27. The control unit 20 is a microcomputer including a CPU, a RAM, a ROM, and the like, for example, and comprehensively controls the entire image generation apparatus 2.

操作受付部25は、ユーザが操作を行った場合にタッチパネル31及び操作ボタン4から出力される操作信号を受信する。これにより、操作受付部25はユーザの操作を受け付ける。操作受付部25は、受信した操作信号を制御部20に入力する。   The operation reception unit 25 receives an operation signal output from the touch panel 31 and the operation button 4 when the user performs an operation. Thereby, the operation reception part 25 receives a user's operation. The operation reception unit 25 inputs the received operation signal to the control unit 20.

信号受信部26は、画像生成装置2とは別に車両9に設けられる他の装置からの信号を受信して、制御部20に入力する。信号受信部26は、例えば、車両9の変速装置のシフトレバーの位置であるシフトポジションを示す信号をシフトセンサ91から受信する。この信号に基づいて、制御部20は、車両9の進行方向が前方あるいは後方のいずれであるかを判定できる。   The signal receiving unit 26 receives a signal from another device provided in the vehicle 9 separately from the image generating device 2 and inputs the signal to the control unit 20. For example, the signal receiving unit 26 receives a signal indicating the shift position, which is the position of the shift lever of the transmission of the vehicle 9, from the shift sensor 91. Based on this signal, the control unit 20 can determine whether the traveling direction of the vehicle 9 is forward or backward.

記憶部27は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部27は、ファームウェアとしてのプログラム27aや、画像生成部22が合成画像を生成するために用いる各種のデータを記憶する。このような合成画像の生成に用いるデータとして、対応テーブル27b及び拡大パラメータ27cが含まれる。対応テーブル27bは、記憶部27に予め記憶されるテーブル形式のデータである。一方、拡大パラメータ27cは、記憶部27に予め記憶されるデータではなく、必要に応じて記憶されるデータである。   The storage unit 27 is, for example, a nonvolatile memory such as a flash memory, and stores various types of information. The storage unit 27 stores a program 27a as firmware and various data used by the image generation unit 22 to generate a composite image. The data used for generating such a composite image includes a correspondence table 27b and an enlargement parameter 27c. The correspondence table 27 b is data in a table format stored in advance in the storage unit 27. On the other hand, the expansion parameter 27c is not data stored in advance in the storage unit 27 but data stored as necessary.

制御部20の各種の機能は、記憶部27に記憶されたプログラム27aに従ってCPUが演算処理を行うことで実現される。図中に示す表示制御部20a及びパラメータ設定部20bは、プログラム27aに従ってCPUが演算処理を行うことで実現される機能部の一部である。   Various functions of the control unit 20 are realized by the CPU performing arithmetic processing according to the program 27 a stored in the storage unit 27. The display control unit 20a and the parameter setting unit 20b shown in the drawing are a part of functional units realized by the CPU performing arithmetic processing according to the program 27a.

表示制御部20aは、画像生成部22及び画像出力部24を制御して各種の合成画像を生成させ、その合成画像を表示装置3に表示させる。表示制御部20aは、例えば、操作受付部25が受け付けたユーザの操作に応じて、合成画像に係る仮想視点の位置を変更する。   The display control unit 20 a controls the image generation unit 22 and the image output unit 24 to generate various composite images, and displays the composite images on the display device 3. For example, the display control unit 20 a changes the position of the virtual viewpoint related to the composite image in accordance with the user operation received by the operation receiving unit 25.

また、パラメータ設定部20bは、操作受付部25が受け付けたユーザの操作に応じて拡大パラメータ27cを設定する。パラメータ設定部20bは、設定した拡大パラメータ27cを記憶部27に記憶する。表示制御部20aが、この拡大パラメータ27cに基づいて画像生成部22を制御することにより、画像生成部22は、車両の周囲全体の全体領域を示しつつ全体領域の一部を拡大して示す合成画像を生成する(詳細は後述。)。   The parameter setting unit 20b sets the expansion parameter 27c according to the user operation received by the operation receiving unit 25. The parameter setting unit 20 b stores the set expansion parameter 27 c in the storage unit 27. The display control unit 20a controls the image generation unit 22 based on the enlargement parameter 27c, so that the image generation unit 22 enlarges and shows a part of the entire region while showing the entire region around the vehicle. An image is generated (details will be described later).

<1−2.合成画像の生成>
次に、画像生成部22が、仮想視点からみた車両9の周辺の様子を示す合成画像を生成する手法について説明する。図3は、画像生成部22が合成画像を生成する手法を説明する図である。
<1-2. Generation of composite image>
Next, a method will be described in which the image generation unit 22 generates a composite image that shows the surroundings of the vehicle 9 viewed from a virtual viewpoint. FIG. 3 is a diagram illustrating a method in which the image generation unit 22 generates a composite image.

フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rのそれぞれで撮影が行われると、車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像SF,SB,SL,SRが取得される。これら4つの撮影画像SF,SB,SL,SRには、車両9の全周囲のデータ(被写体の像)が含まれている。   When shooting is performed with each of the front camera 5F, the rear camera 5B, the left side camera 5L, and the right side camera 5R, four captured images SF and SB showing the front, rear, left side, and right side of the vehicle 9, respectively. , SL, SR are acquired. These four photographed images SF, SB, SL, and SR include data around the entire vehicle 9 (subject image).

画像生成部22は、まず、これら4つの撮影画像SF,SB,SL,SRに含まれるデータ(被写体の像)を、仮想的な三次元空間に設定される曲面である仮想面TSに貼付(投影)する。   First, the image generation unit 22 pastes data (subject images) included in the four captured images SF, SB, SL, and SR onto a virtual surface TS that is a curved surface set in a virtual three-dimensional space ( Project).

仮想面TSは、車両9の周辺の領域に相当する面である。仮想面TSは、例えば、略半球状(お椀形状)をしており、その中心領域(お椀の底部分)は車両9の位置となる車両領域R0として定められている。画像生成部22は、仮想面TSのうち車両領域R0には撮影画像のデータを貼付せず、車両領域R0の外側の領域に撮影画像のデータを貼付する。   The virtual surface TS is a surface corresponding to an area around the vehicle 9. The virtual surface TS has, for example, a substantially hemispherical shape (a bowl shape), and a central area (bottom part of the bowl) is defined as a vehicle area R0 where the vehicle 9 is located. The image generation unit 22 does not attach the captured image data to the vehicle area R0 in the virtual surface TS, and attaches the captured image data to the area outside the vehicle area R0.

仮想面TSは、メッシュ状に多数の区画(ポリゴン)に区分される。仮想面TSを構成する各区画は、3または4の頂点を有する多角形となっている。各区画は、4つの撮影画像SF,SB,SL,SRのいずれかの領域と対応付けられる。画像生成部22は、4つの撮影画像SF,SB,SL,SRの各領域のデータを、その領域に対応する仮想面TSの区画にテクスチャとして貼付する。撮影画像中の領域と、そのデータを貼付すべき仮想面TSの区画とは、記憶部27に予め記憶された対応テーブル27bによって対応付けられる。   The virtual surface TS is divided into a large number of sections (polygons) in a mesh shape. Each section constituting the virtual surface TS is a polygon having three or four vertices. Each section is associated with one of the four captured images SF, SB, SL, and SR. The image generation unit 22 pastes the data of each area of the four captured images SF, SB, SL, and SR as a texture on the section of the virtual surface TS corresponding to the area. The area in the captured image and the section of the virtual surface TS to which the data is to be pasted are associated with each other by the correspondence table 27b stored in advance in the storage unit 27.

図4に示すように、画像生成部22は、仮想面TSにおいて車両9の前方に相当する前方部分GFの区画に、フロントカメラ5Fの撮影画像SFのデータを貼付する。また、画像生成部22は、仮想面TSにおいて車両9の後方に相当する後方部分GBの区画に、リアカメラ5Bの撮影画像SBのデータを貼付する。さらに、画像生成部22は、仮想面TSにおいて車両9の左側方に相当する左側方部分GLの区画に左サイドカメラ5Lの撮影画像SLのデータを貼付し、仮想面TSにおいて車両9の右側方に相当する右側方部分GRの区画に右サイドカメラ5Rの撮影画像SRのデータを貼付する。   As illustrated in FIG. 4, the image generation unit 22 affixes the data of the captured image SF of the front camera 5 </ b> F to the section of the front portion GF corresponding to the front of the vehicle 9 in the virtual plane TS. In addition, the image generation unit 22 affixes the data of the captured image SB of the rear camera 5B to the section of the rear portion GB corresponding to the rear of the vehicle 9 in the virtual plane TS. Furthermore, the image generation unit 22 pastes the data of the captured image SL of the left side camera 5L on the section of the left side portion GL corresponding to the left side of the vehicle 9 on the virtual plane TS, and the right side of the vehicle 9 on the virtual plane TS. The data of the captured image SR of the right side camera 5R is pasted on the section of the right side portion GR corresponding to.

図3に戻り、このように仮想面TSに撮影画像のデータを貼付すると、次に、画像生成部22は、車両9の三次元形状を示す車両モデルを仮想的に構成する。この車両モデルは、仮想面TSが設定される三次元空間における車両9の位置である車両領域R0に配置される。   Returning to FIG. 3, when the data of the captured image is pasted on the virtual surface TS in this way, the image generation unit 22 then virtually configures a vehicle model that shows the three-dimensional shape of the vehicle 9. This vehicle model is arranged in the vehicle region R0 that is the position of the vehicle 9 in the three-dimensional space where the virtual plane TS is set.

次に、画像生成部22は、表示制御部20aの制御により、仮想面TSが設定される三次元空間に対して仮想視点VPを設定する。この仮想視点VPは、位置と視線の向きとで規定される。画像生成部22は、三次元空間の任意の位置に、任意の視線の向きで仮想視点VPを設定できる。   Next, the image generation unit 22 sets the virtual viewpoint VP for the three-dimensional space in which the virtual surface TS is set under the control of the display control unit 20a. This virtual viewpoint VP is defined by the position and the direction of the line of sight. The image generation unit 22 can set the virtual viewpoint VP at an arbitrary position in the three-dimensional space with an arbitrary line-of-sight direction.

次に、画像生成部22は、設定した仮想視点VPに応じた仮想面TSの一部の領域を用いて合成画像CPを生成する。すなわち、画像生成部22は、仮想面TSのうち、仮想視点VPからみて所定の視野角に含まれる領域に貼付されたデータを画像として切り出す。また、画像生成部22は、仮想視点VPに応じて車両モデルに関してレンダリングを行い、その結果となる車両像90を、切り出した画像に対して重畳する。これにより、画像生成部22は、仮想視点VPからみた車両9及び車両9の周辺を示す合成画像CPを生成する。   Next, the image generation unit 22 generates a composite image CP using a partial region of the virtual surface TS corresponding to the set virtual viewpoint VP. That is, the image generation unit 22 cuts out, as an image, data pasted on a region included in a predetermined viewing angle from the virtual viewpoint VP in the virtual surface TS. The image generation unit 22 performs rendering on the vehicle model according to the virtual viewpoint VP, and superimposes the resulting vehicle image 90 on the cut-out image. Thereby, the image generation part 22 produces | generates the synthetic | combination image CP which shows the periphery of the vehicle 9 and the vehicle 9 seen from the virtual viewpoint VP.

例えば図3に示すように、位置を車両9の直上とし視線を車両9の中心に向けた仮想視点VPaを設定した場合には、車両9と車両9の周辺とを俯瞰する合成画像(俯瞰画像)CP1を生成できる。また、位置を車両9の左後方とし視線を車両9の中心に向けた仮想視点VPbを設定した場合には、車両9の左後方からみた車両9と車両9の周辺とを示す合成画像CP2を生成できる。本実施の形態では、表示制御部20aは、仮想視点VPの位置に関わらず仮想視点VPの視線を車両9の中心に向けるように、画像生成部22を制御する。   For example, as shown in FIG. 3, when a virtual viewpoint VPa is set with the position directly above the vehicle 9 and the line of sight directed toward the center of the vehicle 9, a composite image (overhead image) that overlooks the vehicle 9 and the periphery of the vehicle 9. ) CP1 can be generated. Further, when the virtual viewpoint VPb is set with the position at the left rear of the vehicle 9 and the line of sight toward the center of the vehicle 9, a composite image CP2 showing the vehicle 9 viewed from the left rear of the vehicle 9 and the periphery of the vehicle 9 is displayed. Can be generated. In the present embodiment, the display control unit 20 a controls the image generation unit 22 so that the line of sight of the virtual viewpoint VP is directed toward the center of the vehicle 9 regardless of the position of the virtual viewpoint VP.

<1−3.合成画像の表示>
このような合成画像CPは、表示制御部20aの制御により、車両9の状態やユーザの操作に応じて適宜に表示装置3に表示される。通常は、ユーザが操作ボタン4を操作した場合に、合成画像CPが表示装置3に表示される。一方、シフトポジションが「R」となり車両9の進行方向が後方となる場合は、ユーザが操作ボタン4を操作せずとも、合成画像CPが表示装置3に表示される。
<1-3. Display of composite image>
Such a composite image CP is appropriately displayed on the display device 3 according to the state of the vehicle 9 and the user's operation under the control of the display control unit 20a. Normally, the composite image CP is displayed on the display device 3 when the user operates the operation button 4. On the other hand, when the shift position is “R” and the traveling direction of the vehicle 9 is backward, the composite image CP is displayed on the display device 3 without the user operating the operation button 4.

表示制御部20aは、表示装置3に合成画像CPを最初に表示させる場合は、例えば、車両9の直上に仮想視点VPの位置を設定する。これにより、図5に示すように、車両9の直上から見下ろすように車両9の周囲全体の全体領域を示す合成画像CPである俯瞰画像が生成され、表示装置3に表示される。   The display control unit 20a sets the position of the virtual viewpoint VP immediately above the vehicle 9, for example, when the composite image CP is displayed on the display device 3 for the first time. As a result, as shown in FIG. 5, a bird's-eye view image, which is a composite image CP showing the entire area around the vehicle 9 so as to look down from directly above the vehicle 9, is generated and displayed on the display device 3.

また、表示装置3に合成画像CPが表示されている場合に、図6に示すように、ユーザが表示装置3の画面に対してフリック操作を行ったときには、仮想視点VPの位置が変更される。フリック操作は、ユーザが指Fで画面に触れた後に、その指Fを一方向にはらうように動かす操作である。ユーザがフリック操作を行うと、表示制御部20aが、そのフリック操作の方向とは逆方向に仮想視点VPの位置を移動する。   Further, when the composite image CP is displayed on the display device 3, as shown in FIG. 6, when the user performs a flick operation on the screen of the display device 3, the position of the virtual viewpoint VP is changed. . The flick operation is an operation of moving the finger F in one direction after the user touches the screen with the finger F. When the user performs a flick operation, the display control unit 20a moves the position of the virtual viewpoint VP in the direction opposite to the direction of the flick operation.

例えば、図5に示す合成画像CPが表示されている場合に、図6に示すようにユーザが車両9の前方へ向けてフリック操作を行った場合には、表示制御部20aは、仮想視点VPの位置を車両9の後方へ移動する。これにより、図7に示すように、車両9の後方からみた車両9の周囲全体の全体領域を示す合成画像CPが生成され、表示装置3に表示される。   For example, when the composite image CP shown in FIG. 5 is displayed and the user performs a flick operation toward the front of the vehicle 9 as shown in FIG. 6, the display control unit 20a displays the virtual viewpoint VP. Is moved to the rear of the vehicle 9. As a result, as shown in FIG. 7, a composite image CP showing the entire area around the entire vehicle 9 as viewed from the rear of the vehicle 9 is generated and displayed on the display device 3.

また、図7に示す合成画像CPが表示されている場合に、ユーザが車両9の左方へ向けてフリック操作を行ったときには、表示制御部20aは、仮想視点VPの位置を車両9の右方へ移動する。これにより、図8に示すように、車両9の右方からみた車両9の周囲全体の全体領域を示す合成画像CPが生成され、表示装置3に表示される。   When the composite image CP shown in FIG. 7 is displayed and the user performs a flick operation toward the left side of the vehicle 9, the display control unit 20 a sets the position of the virtual viewpoint VP to the right of the vehicle 9. Move towards. As a result, as shown in FIG. 8, a composite image CP indicating the entire area around the vehicle 9 as viewed from the right side of the vehicle 9 is generated and displayed on the display device 3.

このように、ユーザのフリック操作に応答して仮想視点VPの位置が変更されるため、ユーザは所望の位置から車両9の周囲全体の全体領域を確認することができる。   Thus, since the position of the virtual viewpoint VP is changed in response to the user's flick operation, the user can check the entire region around the vehicle 9 from the desired position.

また、表示装置3に合成画像CPが表示されている場合には、ユーザは、フリック操作に加えて、図9に示すように表示装置3の画面に対してピンチアウト操作も行うことができる。ピンチアウト操作は、ユーザが2本の指Fで画面に触れた後に、それらの指Fの間隔を広げる操作である。ユーザがピンチアウト操作を行ったときには、そのピンチアウト操作で指定した対象領域TRに含まれる被写体を拡大して示す合成画像CPが生成される。   When the composite image CP is displayed on the display device 3, the user can also perform a pinch-out operation on the screen of the display device 3 as shown in FIG. 9 in addition to the flick operation. The pinch-out operation is an operation of expanding the interval between the fingers F after the user touches the screen with the two fingers F. When the user performs a pinch-out operation, a composite image CP is generated that shows an enlarged subject included in the target region TR specified by the pinch-out operation.

ユーザが、ピンチアウト操作を行うと、パラメータ設定部20bは、ユーザの操作に応じて拡大パラメータ27cを設定する。パラメータ設定部20bは、2本の指Fが最初に触れた2点の位置と、ユーザが2本の指Fを広げた移動量とを、拡大パラメータ27cとして設定する。2本の指Fが最初に触れた2点の位置は、拡大の対象となる対象領域TRを規定する。車両9の周囲全体の全体領域のうち、2本の指Fが最初に触れた2点を通る円に相当する領域が、対象領域TRとなる。また、ユーザが2本の指Fを広げた移動量は、対象領域TRに含まれる被写体を拡大する際の拡大率を規定する。パラメータ設定部20bは、このように拡大パラメータ27cを設定することにより、実質的に対象領域TRを設定する。   When the user performs a pinch-out operation, the parameter setting unit 20b sets the enlargement parameter 27c according to the user's operation. The parameter setting unit 20b sets the positions of the two points where the two fingers F are first touched and the amount of movement by which the user spreads the two fingers F as the enlargement parameter 27c. The positions of the two points first touched by the two fingers F define the target area TR to be enlarged. Of the entire region around the vehicle 9, a region corresponding to a circle passing through two points first touched by two fingers F is a target region TR. In addition, the amount of movement by which the user spreads two fingers F defines the enlargement ratio when enlarging the subject included in the target region TR. The parameter setting unit 20b substantially sets the target region TR by setting the enlargement parameter 27c in this way.

このように拡大パラメータ27cが設定された場合は、この拡大パラメータ27cに基づいて画像生成部22により合成画像CPが生成される。この合成画像CPは、車両9の周囲全体の全体領域を示しつつ、全体領域の一部の対象領域TRに含まれる被写体を拡大し、対象領域TRに含まれない被写体を拡大せずに示す「一部拡大画像」CPaとなる。   When the enlargement parameter 27c is set in this way, the composite image CP is generated by the image generation unit 22 based on the enlargement parameter 27c. This composite image CP shows the entire area around the entire vehicle 9 while enlarging a subject included in a part of the target area TR of the entire area, and showing a subject not included in the target area TR without expanding. This is “partially enlarged image” CPa.

例えば、図5に示す合成画像CPが表示されている場合に、図9に示すようにユーザが車両9の後方に対してピンチアウト操作を行った場合には、パラメータ設定部20bは、車両9の後方の一部の領域を対象領域TRとして設定する。これにより、図10に示すように、対象領域TRに含まれる被写体を拡大して示す一部拡大画像CPaが生成され、表示装置3に表示される。   For example, when the composite image CP shown in FIG. 5 is displayed and the user performs a pinch-out operation with respect to the rear of the vehicle 9 as shown in FIG. Is set as the target region TR. As a result, as shown in FIG. 10, a partially enlarged image CPa showing an enlarged subject included in the target region TR is generated and displayed on the display device 3.

図10に示すように、一部拡大画像CPaは、車両9の周囲全体の全体領域を示している。これとともに、図10と図5とを比較してわかるように、一部拡大画像CPaは、対象領域TRに含まれる被写体を拡大して示している。一方で、一部拡大画像CPaは、対象領域TRに含まれない被写体のサイズを維持し、対象領域TRに含まれない被写体を拡大も縮小もせずに示している。このため、このような一部拡大画像CPaを視認するユーザは、対象領域TRに含まれる物体を詳細に確認しつつ、車両9の周囲全体の全体領域にも注意を向けることができる。すなわち、ユーザは、対象領域TRに含まれない物体にも同時に注意を向けることができることになる。   As shown in FIG. 10, the partially enlarged image CPa shows the entire area around the entire vehicle 9. In addition, as can be seen by comparing FIG. 10 and FIG. 5, the partially enlarged image CPa shows the subject included in the target region TR in an enlarged manner. On the other hand, the partially enlarged image CPa shows the size of the subject not included in the target region TR and the subject not included in the target region TR without being enlarged or reduced. For this reason, the user who visually recognizes such a partially enlarged image CPa can pay attention to the entire region around the vehicle 9 while confirming in detail the object included in the target region TR. That is, the user can simultaneously pay attention to an object that is not included in the target region TR.

また、一部拡大画像CPaは、対象領域TRに含まれる被写体の全てを一律に拡大して示すわけではない。一部拡大画像CPaは、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示している。このため、一部拡大画像CPaに含まれる被写体と、一部拡大画像CPaに含まれない被写体との連続性が保持される。その結果、対象領域TRに含まれる被写体を拡大したとしても、その拡大した被写体の周囲のデータを欠落させること無く一部拡大画像CPaに含ませることができる。   Further, the partially enlarged image CPa does not necessarily show all the subjects included in the target region TR in an enlarged manner. The partially enlarged image CPa shows the subject near the center of the target region TR in a greatly enlarged manner, while compressing the subject near the periphery of the target region TR. Therefore, continuity between the subject included in the partially enlarged image CPa and the subject not included in the partially enlarged image CPa is maintained. As a result, even if the subject included in the target region TR is enlarged, the data around the enlarged subject can be included in the partially enlarged image CPa without being lost.

また、表示装置3にこのような一部拡大画像CPaが表示されている場合にも、ユーザが表示装置3の画面に対してフリック操作を行ったときには、仮想視点VPの位置が変更される。仮想視点VPの位置が変更された場合でも、一部拡大画像CPaが表示装置3に表示される。   Even when such a partially enlarged image CPa is displayed on the display device 3, when the user performs a flick operation on the screen of the display device 3, the position of the virtual viewpoint VP is changed. Even when the position of the virtual viewpoint VP is changed, the partially enlarged image CPa is displayed on the display device 3.

例えば、図10に示す一部拡大画像CPaが表示されている場合に、ユーザが車両9の前方へ向けてフリック操作を行った場合には、表示制御部20aは、仮想視点VPの位置を車両9の後方へ移動する。これにより、図11に示すように、車両9の後方からみた車両9の周囲全体の全体領域を示す一部拡大画像CPaが生成され、表示装置3に表示される。   For example, when a partially enlarged image CPa shown in FIG. 10 is displayed and the user performs a flick operation toward the front of the vehicle 9, the display control unit 20a sets the position of the virtual viewpoint VP to the vehicle. Move 9 backwards. As a result, as shown in FIG. 11, a partially enlarged image CPa indicating the entire area around the entire vehicle 9 as viewed from the rear of the vehicle 9 is generated and displayed on the display device 3.

また、図11に示す一部拡大画像CPaが表示されている場合に、ユーザが車両9の左方へ向けてフリック操作を行ったときには、表示制御部20aは、仮想視点VPの位置を車両9の右方へ移動する。これにより、図12に示すように、車両9の右方からみた車両9の周囲全体の全体領域を示す一部拡大画像CPaが生成され、表示装置3に表示される。   When the partially enlarged image CPa shown in FIG. 11 is displayed and the user performs a flick operation toward the left side of the vehicle 9, the display control unit 20a sets the position of the virtual viewpoint VP to the vehicle 9 Move to the right. As a result, as shown in FIG. 12, a partially enlarged image CPa that shows the entire area around the entire vehicle 9 as viewed from the right side of the vehicle 9 is generated and displayed on the display device 3.

図11及び図12に示すように、仮想視点VPの位置が変更された場合においても、車両9の後方に設定された対象領域TRに含まれる被写体を拡大して示す一部拡大画像CPaが表示されることになる。ユーザのフリック操作に応答して仮想視点VPの位置が変更されるため、ユーザは所望の位置から対象領域TRに含まれる物体を詳細に確認することができる。   As shown in FIGS. 11 and 12, even when the position of the virtual viewpoint VP is changed, a partially enlarged image CPa showing an enlarged subject included in the target region TR set behind the vehicle 9 is displayed. Will be. Since the position of the virtual viewpoint VP is changed in response to the user's flick operation, the user can confirm in detail the object included in the target region TR from the desired position.

<1−4.処理の流れ>
次に、画像表示システム10の処理の流れについて説明する。図13は、合成画像CPを表示する場合の画像表示システム10の処理の流れを示す図である。合成画像CPを表示する場合には、図13に示す処理が、所定の周期(例えば、1/30秒周期)で繰り返される。
<1-4. Process flow>
Next, a processing flow of the image display system 10 will be described. FIG. 13 is a diagram illustrating a processing flow of the image display system 10 when the composite image CP is displayed. When displaying the composite image CP, the process shown in FIG. 13 is repeated at a predetermined cycle (for example, 1/30 second cycle).

まず、車両9に設けられた4つのカメラ5のそれぞれが車両9の周辺を撮影する。そして、画像取得部21が、4つのカメラ5でそれぞれ得られた4つの撮影画像を取得する(ステップS11)。   First, each of the four cameras 5 provided in the vehicle 9 photographs the periphery of the vehicle 9. Then, the image acquisition unit 21 acquires four captured images respectively obtained by the four cameras 5 (step S11).

次に、画像生成部22が、取得された4つの撮影画像のデータを仮想的な三次元空間の仮想面TSに貼付する(ステップS12)。画像生成部22は、記憶部27に記憶された対応テーブル27bに従って、仮想面TSを構成する多数の区画のそれぞれに4つの撮影画像のデータを貼付する。   Next, the image generation unit 22 pastes the acquired four captured image data on the virtual surface TS of the virtual three-dimensional space (step S12). In accordance with the correspondence table 27b stored in the storage unit 27, the image generation unit 22 pastes the data of the four photographed images on each of a number of sections constituting the virtual surface TS.

次に、表示制御部20aが、記憶部27に拡大パラメータ27cが記憶されているか否かを判定する(ステップS13)。   Next, the display control unit 20a determines whether or not the enlargement parameter 27c is stored in the storage unit 27 (step S13).

記憶部27に拡大パラメータ27cが記憶されている場合は(ステップS13にてYes)、拡大の対象となる対象領域TRが設定されている場合である。このため、この場合は一部拡大画像CPaを生成するために、画像生成部22が、仮想面TSにおける対象領域TRに相当する部分の座標を変更する(ステップS14)。これにより、仮想面TSの対象領域TRに相当する部分に貼付されたデータ(すなわち、対象領域TRに含まれる被写体の像)が拡大される。このように仮想面TSの座標を変更する手法については後述する。   When the enlargement parameter 27c is stored in the storage unit 27 (Yes in step S13), the target area TR to be enlarged is set. Therefore, in this case, in order to generate a partially enlarged image CPa, the image generation unit 22 changes the coordinates of the portion corresponding to the target region TR in the virtual surface TS (step S14). Thereby, the data (namely, the image of the subject included in the target area TR) attached to the portion corresponding to the target area TR of the virtual surface TS is enlarged. A method for changing the coordinates of the virtual surface TS in this way will be described later.

一方、記憶部27に拡大パラメータ27cが記憶されていない場合は(ステップS13にてNo)、このような仮想面TSの座標の変更は行われない。   On the other hand, when the enlargement parameter 27c is not stored in the storage unit 27 (No in step S13), such a change in the coordinates of the virtual surface TS is not performed.

次に、画像生成部22が、三次元空間に対して仮想視点VPを設定し、仮想視点VPに基づいて仮想面TSに貼付されたデータを、合成画像CPとして切り出す(ステップS15)。画像生成部22は、ステップS14において仮想面TSの座標を変更していた場合は、このように合成画像CPを切り出すことで、対象領域TRに含まれる被写体を拡大して示す一部拡大画像CPaを生成する。   Next, the image generation unit 22 sets a virtual viewpoint VP for the three-dimensional space, and cuts out the data pasted on the virtual surface TS based on the virtual viewpoint VP as a composite image CP (step S15). If the coordinates of the virtual surface TS have been changed in step S14, the image generation unit 22 cuts out the composite image CP in this way, thereby partially enlarging the image CPa that shows the subject included in the target region TR. Is generated.

次に、画像出力部24が、画像生成部22に生成された合成画像CPを表示装置3に出力する(ステップS16)。これにより、合成画像CPが表示装置3に表示される。一部拡大画像CPaが生成された場合は、その一部拡大画像CPaが表示装置3に表示されることになる。   Next, the image output unit 24 outputs the composite image CP generated by the image generation unit 22 to the display device 3 (step S16). As a result, the composite image CP is displayed on the display device 3. When the partially enlarged image CPa is generated, the partially enlarged image CPa is displayed on the display device 3.

<1−5.仮想面の座標の変更>
次に、一部拡大画像CPaを生成するために、画像生成部22が、仮想面TSにおける対象領域TRに相当する部分の座標を変更する手法について説明する。
<1-5. Changing virtual plane coordinates>
Next, a method will be described in which the image generation unit 22 changes the coordinates of the portion corresponding to the target region TR in the virtual surface TS in order to generate the partially enlarged image CPa.

前述のように、仮想面TSは多数の区画で構成される。この区画の各頂点の位置は、仮想的な三次元空間に設定される三次元の直交座標系(XYZ)の座標で表される。図3に示すように、X軸方向及びY軸方向は、車両9の接地面に沿った水平方向に設定される。また、Z軸方向は、車両9の接地面に直交する鉛直方向に設定される。画像生成部22は、このような仮想面TSの頂点の座標を変更する。   As described above, the virtual surface TS is composed of a number of sections. The position of each vertex of this section is represented by the coordinates of a three-dimensional orthogonal coordinate system (XYZ) set in a virtual three-dimensional space. As shown in FIG. 3, the X-axis direction and the Y-axis direction are set in the horizontal direction along the ground plane of the vehicle 9. Further, the Z-axis direction is set to a vertical direction orthogonal to the ground contact surface of the vehicle 9. The image generation unit 22 changes the coordinates of the vertices of such a virtual surface TS.

図14から図19は、仮想面TSの頂点の座標を変更する手法を説明する図である。図14から図19は、水平方向からみた仮想面TSの断面を示している。   14 to 19 are diagrams for explaining a method of changing the coordinates of the vertex of the virtual surface TS. 14 to 19 show a cross section of the virtual surface TS viewed from the horizontal direction.

図14に示す仮想面TSに沿って配置された点Pはそれぞれ、頂点の変更前の座標を表している。仮想面TSの頂点のうち、対象領域TRに相当する部分(以下、「変更対象部分」という。)に含まれる頂点の座標が変更される。   Each point P arranged along the virtual surface TS shown in FIG. 14 represents the coordinates before the change of the vertex. Among the vertices of the virtual surface TS, the coordinates of the vertices included in the portion corresponding to the target region TR (hereinafter referred to as “change target portion”) are changed.

図15に示すように、拡大パラメータ27cに基づき、仮想面TSのうち点Paから点Pbまでの部分が変更対象部分に指定され、拡大率としてrが指定された場合を想定する。   As shown in FIG. 15, it is assumed that a part from the point Pa to the point Pb in the virtual surface TS is designated as the change target part and r is designated as the enlargement ratio based on the enlargement parameter 27c.

まず、変更対象部分の中央となる基準点O(Xo,Yo,Zo)が求められる。基準点Oは、点Pa及び点Pbの中央点Pcと仮想視点VPの位置とを結ぶ直線Lsが、仮想面TSと交差する点として求められる。   First, a reference point O (Xo, Yo, Zo) that is the center of the change target portion is obtained. The reference point O is obtained as a point where a straight line Ls connecting the center point Pc of the points Pa and Pb and the position of the virtual viewpoint VP intersects the virtual surface TS.

以下、仮想視点VPの位置と基準点Oと結ぶ直線Lsを「視直線」といい、点Pa,Pbを変更対象部分の「端点」という。また、視直線Lsから端点Pa,Pbまでの距離は変更対象部分の半径に相当し、以下、この変更対象部分の半径をdとする。なお、本説明では、説明を簡単にするため、基準点O及び端点Pa,Pbが頂点の座標を表す点Pと重なっているが、これらは点Pと重なるとは限らない。   Hereinafter, the straight line Ls connecting the position of the virtual viewpoint VP and the reference point O is referred to as “visual line”, and the points Pa and Pb are referred to as “end points” of the change target portion. The distance from the line of sight Ls to the end points Pa and Pb corresponds to the radius of the change target portion, and hereinafter, the radius of the change target portion is assumed to be d. In this description, for the sake of simplicity, the reference point O and the end points Pa and Pb overlap with the point P representing the coordinates of the vertex, but these do not necessarily overlap with the point P.

次に、図16に示すように、変更対象部分に含まれる点Pが、視直線Lsの直交方向に移動され、点P’とされる。   Next, as shown in FIG. 16, the point P included in the change target portion is moved in the direction orthogonal to the visual line Ls to be a point P ′.

図17は、一の点Pに注目し、点Pを点P’に移動する手法を説明する図である。図17は、図16において符号Aで示す範囲を拡大して示している。   FIG. 17 is a diagram for explaining a method of paying attention to one point P and moving the point P to the point P ′. FIG. 17 shows an enlarged view of the range indicated by the symbol A in FIG.

まず、基準点Oから仮想視点VPの位置に向かう視直線Lsに沿った単位ベクトルをベクトルuとし、ベクトルuを次の数1で表現する。   First, a unit vector along the visual line Ls from the reference point O to the position of the virtual viewpoint VP is defined as a vector u, and the vector u is expressed by the following equation (1).

Figure 2015184839
また、基準点Oから点Pに向かうベクトルOPとベクトルuとの内積の結果となる値をmとすると、値mは次の数2で表される。
Figure 2015184839
Further, when a value resulting from the inner product of the vector OP and the vector u from the reference point O toward the point P is m, the value m is expressed by the following formula 2.

Figure 2015184839
また、点Pを通り視直線Lsに直交する直線と視直線Lsとの交点をHとすると、この交点Hの座標(Hx,Hy,Hz)は、基準点Oの座標(Xo,Yo,Zo)、値m、及び、ベクトルuを用いて、次の数3で求められる。
Figure 2015184839
If the intersection of the straight line Ls that passes through the point P and is orthogonal to the viewing line Ls is H, the coordinates (Hx, Hy, Hz) of the intersecting point H are the coordinates (Xo, Yo, Zo) of the reference point O. ), The value m, and the vector u.

Figure 2015184839
したがって、点Pから視直線Lsまでの距離Rは、点Pの座標(x,y,z)と交点Hの座標(Hx,Hy,Hz)とを用いて、次の数4で求められる。
Figure 2015184839
Therefore, the distance R from the point P to the line of sight Ls is obtained by the following equation 4 using the coordinates (x, y, z) of the point P and the coordinates (Hx, Hy, Hz) of the intersection H.

Figure 2015184839
点Pに関する拡大増加率Wは、この距離Rと、変更対象部分の半径dと、拡大率rとを用いて、次の数5により求められる。拡大増加率Wは、距離Rが小さいほど大きな値となる。ただし、距離Rが0の場合(点Pが基準点Oの場合)は、拡大増加率Wは0とされる。
Figure 2015184839
The enlargement increase rate W with respect to the point P is obtained by the following equation 5 using the distance R, the radius d of the change target portion, and the enlargement rate r. The enlargement increase rate W increases as the distance R decreases. However, when the distance R is 0 (when the point P is the reference point O), the enlargement increase rate W is 0.

Figure 2015184839
次に、点Pの移動先となる点P’から視直線Lsまでの距離R’が、次の数6により求められる。なお、距離R’が変更対象部分の半径dを超える場合は、距離R’を半径dとする。
Figure 2015184839
Next, the distance R ′ from the point P ′ to which the point P is moved to the visual line Ls is obtained by the following equation (6). When the distance R ′ exceeds the radius d of the change target portion, the distance R ′ is set as the radius d.

Figure 2015184839
また、交点Hから点Pに向かうベクトルHPを次の数7で表現する。
Figure 2015184839
A vector HP from the intersection H to the point P is expressed by the following equation (7).

Figure 2015184839
したがって、点Pの移動先となる点P’の座標(x’,y’,z’)は、交点Hの座標(Hx,Hy,Hz)、距離R、距離R’、及び、ベクトルHPを用いて、次の数8で求められる。
Figure 2015184839
Therefore, the coordinates (x ′, y ′, z ′) of the point P ′ to which the point P is moved are the coordinates (Hx, Hy, Hz) of the intersection H, the distance R, the distance R ′, and the vector HP. And obtained by the following equation (8).

Figure 2015184839
このような演算は、変更対象部分に含まれる全ての点P(基準点Oを除く)に関して行われる。これにより、図16に示すように、変更対象部分に含まれる全ての点P(基準点Oを除く)が点P’に移動される。点Pから点P’までの移動量は、点Pから視直線Lsまでの距離Rに応じて決定される。視直線Lsまでの距離Rが小さい点Pほど移動量が大きくなり、視直線Lsまでの距離Rが大きな点Pほど移動量が小さくなる。
Figure 2015184839
Such a calculation is performed for all points P (except the reference point O) included in the change target portion. Thereby, as shown in FIG. 16, all the points P (except the reference point O) included in the change target portion are moved to the point P ′. The amount of movement from the point P to the point P ′ is determined according to the distance R from the point P to the visual line Ls. The amount of movement increases as the point P has a smaller distance R to the visual line Ls, and the amount of movement decreases as the point P has a larger distance R to the visual line Ls.

このようにして点Pが点P’に移動されると、さらに図18に示すように、点P’が仮想面TS上の点P”に移動される。点P”は、点P’を通り視直線Lsに沿った直線と、仮想面TSとの交点とされる。その結果、図19に示すように、仮想面TSには、変更対象部分に含まれる点Pが移動された点P”と、変更対象部分に含まれない点Pとが存在する状態となる。点P”は、変更対象部分に含まれる頂点の変更後の座標を表している。   When the point P is moved to the point P ′ in this way, as shown in FIG. 18, the point P ′ is further moved to the point P ″ on the virtual surface TS. The point P ″ It is an intersection of a straight line along the viewing straight line Ls and the virtual plane TS. As a result, as shown in FIG. 19, the virtual surface TS is in a state where a point P ″ where the point P included in the change target portion is moved and a point P which is not included in the change target portion exists. Point P ″ represents the coordinates after the change of the vertex included in the change target portion.

このように点Pを点P”に移動することで、変更対象部分に含まれる頂点の座標が変更される。このような仮想面TSの頂点の座標の変更により、仮想面TSに貼付されたデータ(被写体の像)のサイズも変更される。前述のように、視直線Lsまでの距離Rが小さい点Pほど移動量が大きいことから、変更対象部分の中央近傍の被写体の像は大きく拡大される。一方、視直線Lsまでの距離Rが大きい点Pは移動量が小さいことから、変更対象部分の周縁近傍の被写体の像は圧縮されることになる。このような処理の結果、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示す一部拡大画像CPaが生成されることになる。   By moving the point P to the point P ″ in this way, the coordinates of the vertices included in the change target portion are changed. By such a change in the coordinates of the vertices of the virtual surface TS, the points attached to the virtual surface TS The size of the data (subject image) is also changed, as described above, since the amount of movement is larger at the point P where the distance R to the visual line Ls is smaller, the subject image near the center of the change target portion is greatly enlarged. On the other hand, since the movement amount is small at the point P where the distance R to the visual line Ls is large, the image of the subject near the periphery of the change target portion is compressed. While the subject near the center of the region TR is shown greatly enlarged, a partially enlarged image CPa showing the subject near the periphery of the target region TR is generated.

以上のように本実施の形態の画像表示システム10では、画像取得部21が車両9の周辺を撮影する複数のカメラ5で得られた複数の撮影画像を取得し、画像生成部22が複数の撮影画像を用いて仮想視点VPからみた車両9の周辺を示す合成画像CPを生成する。そして、画像生成部22は、車両9の周囲全体の全体領域を示しつつ、該全体領域の一部の対象領域TRに含まれる被写体を拡大し、対象領域TRに含まれない被写体を拡大せずに示す一つの合成画像CPである一部拡大画像CPaを生成する。したがって、この一部拡大画像CPaを視認するユーザは、対象領域TRに含まれる物体を詳細に確認しつつ、対象領域TRに含まれない物体にも同時に注意を向けることができる。   As described above, in the image display system 10 according to the present embodiment, the image acquisition unit 21 acquires a plurality of captured images obtained by the plurality of cameras 5 that capture the periphery of the vehicle 9, and the image generation unit 22 includes a plurality of images. A composite image CP showing the periphery of the vehicle 9 viewed from the virtual viewpoint VP is generated using the captured image. Then, the image generation unit 22 enlarges the subject included in the target region TR that is a part of the entire region while showing the entire region around the vehicle 9, and does not enlarge the subject that is not included in the target region TR. A partially enlarged image CPa that is one composite image CP shown in FIG. Therefore, the user who visually recognizes this partially enlarged image CPa can simultaneously pay attention to an object not included in the target region TR while confirming in detail the object included in the target region TR.

また、画像生成部22は、車両9の周辺に相当する仮想面TSに複数の撮影画像のデータを貼付し、仮想面TSに貼付されたデータを用いて合成画像CPを生成する。そして、画像生成部22は、仮想面TSにおける対象領域TRに相当する変更対象部分の座標を変更することで一部拡大画像CPaを生成する。このため、仮想面TSの一部の座標を変更するという簡便な手法で一部拡大画像CPaを生成できる。また、仮想視点VPの位置を変更した場合においても、変更後の仮想視点VPからみた一部拡大画像CPaを生成できる。   In addition, the image generation unit 22 pastes data of a plurality of captured images on the virtual surface TS corresponding to the periphery of the vehicle 9 and generates a composite image CP using the data pasted on the virtual surface TS. Then, the image generation unit 22 generates a partially enlarged image CPa by changing the coordinates of the change target portion corresponding to the target region TR in the virtual surface TS. For this reason, the partially enlarged image CPa can be generated by a simple technique of changing some coordinates of the virtual surface TS. Further, even when the position of the virtual viewpoint VP is changed, it is possible to generate a partially enlarged image CPa viewed from the changed virtual viewpoint VP.

また、画像生成部22は、仮想視点VPの位置を考慮し、仮想面TSの頂点の座標を視直線Lsの直交方向に向けて変更する。このため、仮想視点VPの位置がいずれにあったとしても、その仮想視点VPから視認できる方向に対象領域TRに含まれる被写体の像を拡大することができる。   Further, the image generation unit 22 considers the position of the virtual viewpoint VP and changes the coordinates of the vertex of the virtual surface TS toward the orthogonal direction of the visual line Ls. For this reason, regardless of the position of the virtual viewpoint VP, the image of the subject included in the target region TR can be enlarged in a direction that can be viewed from the virtual viewpoint VP.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像表示システム10の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment will be described. Since the configuration and operation of the image display system 10 of the second embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment.

第2の実施の形態の画像表示システム10は、画像生成部22が、仮想面TSの頂点の座標を変更する手法のみが第1の実施の形態と相違している。第1の実施の形態では、仮想面TSの頂点の座標を変更する際に仮想視点VPの位置を考慮していた。これに対して、第2の実施の形態では、仮想面TSの頂点の座標を変更する際に仮想視点VPの位置を考慮しないことで演算量を低減している。   The image display system 10 according to the second embodiment is different from the first embodiment only in a method in which the image generation unit 22 changes the coordinates of the vertices of the virtual surface TS. In the first embodiment, the position of the virtual viewpoint VP is considered when changing the coordinates of the vertex of the virtual surface TS. On the other hand, in the second embodiment, the amount of calculation is reduced by not considering the position of the virtual viewpoint VP when changing the coordinates of the vertex of the virtual surface TS.

本実施の形態においても、仮想面TSの頂点の変更前の座標は、図14に示す点Pのように仮想面TSに沿って配置される。図20から図23は、本実施の形態における、仮想面TSの頂点の座標を変更する手法を説明する図である。図20から図23は、水平方向からみた仮想面TSの断面を示している。   Also in the present embodiment, the coordinates before the change of the vertex of the virtual surface TS are arranged along the virtual surface TS as shown by a point P shown in FIG. 20 to 23 are diagrams for explaining a method of changing the coordinates of the vertex of the virtual surface TS in the present embodiment. 20 to 23 show a cross section of the virtual surface TS viewed from the horizontal direction.

図20に示すように、拡大パラメータ27cに基づき、仮想面TSのうち端点Paから端点Pbまでの部分が変更対象部分に指定され、拡大率としてrが指定された場合を想定する。   As shown in FIG. 20, it is assumed that a part from the end point Pa to the end point Pb in the virtual surface TS is designated as the change target part based on the enlargement parameter 27c, and r is designated as the enlargement ratio.

本実施の形態においても、まず、基準点O(Xo,Yo,Zo)が求められる。この場合、仮想視点VPの位置(視直線Ls)は考慮されず、水平方向の座標のみが考慮される。すなわち、X座標及びY座標のみが考慮されて、端点Paと端点Pbとの中央点が導出される。そして、この中央点のX座標及びY座標を有する仮想面TS上の点が、基準点Oとされる。本実施の形態では、この基準点Oからの端点Pa,Pbまでの水平方向の距離が、変更対象部分の半径dとなっている。   Also in the present embodiment, first, the reference point O (Xo, Yo, Zo) is obtained. In this case, the position of the virtual viewpoint VP (the line of sight Ls) is not considered, and only the horizontal coordinate is considered. That is, only the X coordinate and the Y coordinate are considered, and the center point between the end point Pa and the end point Pb is derived. A point on the virtual plane TS having the X and Y coordinates of the central point is set as a reference point O. In the present embodiment, the horizontal distance from the reference point O to the end points Pa and Pb is the radius d of the portion to be changed.

次に、図21に示すように、変更対象部分に含まれる点Pが、基準点Oから点Pまでの直線を延長した方向に移動され、点P’とされる。点Pから点P’までの移動量は、点Pから基準点Oまでの水平方向の距離が考慮される。   Next, as shown in FIG. 21, the point P included in the part to be changed is moved in the direction extending the straight line from the reference point O to the point P to be a point P ′. The amount of movement from the point P to the point P ′ takes into account the horizontal distance from the point P to the reference point O.

点Pから基準点Oまでの水平方向の距離をRとすると、この距離Rは、点Pの水平方向の座標(x,y)と基準点Oの水平方向の座標(Xo,Yo)とを用いて、次の数9で求められる。   Assuming that the horizontal distance from the point P to the reference point O is R, the distance R is the horizontal coordinate (x, y) of the point P and the horizontal coordinate (Xo, Yo) of the reference point O. And obtained by the following equation (9).

Figure 2015184839
点Pに関する拡大増加率Wは、この距離Rと、変更対象部分の半径dと、拡大率rとを用いて、上述した数5により求められる。したがって、本実施の形態でも、拡大増加率Wは、距離Rが小さいほど大きな値となる。ただし、距離Rが0の場合(点Pが基準点Oの場合)は、拡大増加率Wは0とされる。
Figure 2015184839
The enlargement increase rate W with respect to the point P is obtained by the above-described Expression 5 using the distance R, the radius d of the change target portion, and the enlargement rate r. Therefore, also in the present embodiment, the enlargement increase rate W increases as the distance R decreases. However, when the distance R is 0 (when the point P is the reference point O), the enlargement increase rate W is 0.

また、点Pの移動先となる点P’から基準点Oまでの水平方向の距離をR’とすると、この距離R’は、上述した数6により求められる。そして、点Pの移動先となる点P’の座標(x’,y’,z’)は、基準点Oの座標(Xo,Yo,Zo)、距離R、及び、距離R’を用いて、次の数10で求められる。   Further, assuming that the horizontal distance from the point P ′ to which the point P is moved to the reference point O is R ′, the distance R ′ can be obtained by the above-described equation (6). Then, the coordinates (x ′, y ′, z ′) of the point P ′, which is the destination of the point P, are obtained using the coordinates (Xo, Yo, Zo), the distance R, and the distance R ′ of the reference point O. The following equation 10 is obtained.

Figure 2015184839
このような演算は、変更対象部分に含まれる全ての点P(基準点Oを除く)に関して行われ、図21に示すように、変更対象部分に含まれる全ての点P(基準点Oを除く)が点P’に移動される。本実施の形態でも、基準点Oまでの距離Rが小さい点Pほど移動量が大きくなり、基準点Oまでの距離Rが大きな点Pほど移動量が小さくなる。
Figure 2015184839
Such a calculation is performed for all points P (excluding the reference point O) included in the change target part, and as shown in FIG. 21, all points P (excluding the reference point O) included in the change target part. ) Is moved to point P ′. Also in the present embodiment, the amount of movement increases as the distance P to the reference point O decreases, and the amount of movement decreases as the distance P to the reference point O increases.

このようにして点Pが点P’に移動されると、さらに図22に示すように、点P’が仮想面TS上の点P”に移動される。点P”は、点P’から水平または垂直方向に伸ばした直線が最短で仮想面TSと交わる点とされる。その結果、図23に示すように、仮想面TSには、変更対象部分に含まれる点Pが移動された点P”と、変更対象部分に含まれない点Pとが存在する状態となる。点P”は、変更対象部分に含まれる頂点の変更後の座標を表している。   When the point P is moved to the point P ′ in this way, the point P ′ is further moved to the point P ″ on the virtual surface TS as shown in FIG. 22. The point P ″ is changed from the point P ′. A straight line extending in the horizontal or vertical direction intersects the virtual plane TS at the shortest. As a result, as shown in FIG. 23, the virtual surface TS is in a state where the point P ″ where the point P included in the change target portion is moved and the point P which is not included in the change target portion exists. Point P ″ represents the coordinates after the change of the vertex included in the change target portion.

このように点Pを点P”に移動することで、変更対象部分に含まれる頂点の座標が変更される。このような仮想面TSの頂点の座標の変更により、仮想面TSに貼付されたデータ(被写体の像)のサイズも変更される。これにより、本実施の形態においても、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示す一部拡大画像CPaが生成されることになる。   By moving the point P to the point P ″ in this way, the coordinates of the vertices included in the change target portion are changed. By such a change in the coordinates of the vertices of the virtual surface TS, the points attached to the virtual surface TS are pasted. The size of the data (subject image) is also changed, so that, in the present embodiment, the subject near the center of the target region TR is greatly enlarged, while the subject near the periphery of the target region TR is compressed. Thus, a partially enlarged image CPa shown in FIG.

本実施の形態では、仮想視点VPの位置を考慮せず、拡大増加率Wを導出するための距離Rとして水平方向のみの距離を考慮する。このため、一部拡大画像CPaを生成するための演算量を低減できる。   In the present embodiment, the distance only in the horizontal direction is considered as the distance R for deriving the enlargement increase rate W without considering the position of the virtual viewpoint VP. For this reason, it is possible to reduce the amount of calculation for generating the partially enlarged image CPa.

<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の画像表示システム10の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment will be described. Since the configuration and operation of the image display system 10 of the third embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment.

第3の実施の形態の画像表示システム10は、画像生成部22が、仮想面TSの頂点の座標を変更する手法のみが第1の実施の形態と相違している。第1の実施の形態では、頂点の座標を三次元の座標系の全方向に変更していた。これに対して、第3の実施の形態では、頂点の座標を水平方向にのみ変更することで演算量を低減している。   The image display system 10 according to the third embodiment is different from the first embodiment only in a method in which the image generation unit 22 changes the coordinates of the vertices of the virtual surface TS. In the first embodiment, the vertex coordinates are changed in all directions of the three-dimensional coordinate system. On the other hand, in the third embodiment, the amount of calculation is reduced by changing the coordinates of the vertex only in the horizontal direction.

本実施の形態においても、仮想面TSの頂点の変更前の座標は、図14に示す点Pのように仮想面TSに沿って配置される。図24及び図25は、本実施の形態における、仮想面TSの頂点の座標を変更する手法を説明する図である。図24及び図25は、水平方向からみた仮想面TSの断面を示している。   Also in the present embodiment, the coordinates before the change of the vertex of the virtual surface TS are arranged along the virtual surface TS as shown by a point P shown in FIG. 24 and 25 are diagrams for explaining a method of changing the coordinates of the vertex of the virtual surface TS in the present embodiment. 24 and 25 show a cross section of the virtual surface TS viewed from the horizontal direction.

図24に示すように、拡大パラメータ27cに基づき、仮想面TSのうち端点Paから端点Pbまでの部分が変更対象部分に指定され、拡大率としてrが指定された場合を想定する。   As shown in FIG. 24, it is assumed that a part from the end point Pa to the end point Pb in the virtual surface TS is designated as the change target part based on the enlargement parameter 27c, and r is designated as the enlargement ratio.

本実施の形態においても、まず、基準点O(Xo,Yo)が求められる。この場合、水平方向の座標、すなわち、X座標及びY座標のみが考慮されて、端点Paと端点Pbとの中央点が導出される。そして、この中央点のX座標及びY座標を有する仮想面TS上の点が、基準点Oとされる。本実施の形態では、この基準点Oからの端点Pa,Pbまでの水平方向の距離が、変更対象部分の半径dとなっている。   Also in the present embodiment, first, the reference point O (Xo, Yo) is obtained. In this case, only the horizontal coordinate, that is, the X coordinate and the Y coordinate are considered, and the center point of the end point Pa and the end point Pb is derived. A point on the virtual plane TS having the X and Y coordinates of the central point is set as a reference point O. In the present embodiment, the horizontal distance from the reference point O to the end points Pa and Pb is the radius d of the portion to be changed.

次に、図24に示すように、変更対象部分に含まれる点Pが、水平方向に移動され、点P’とされる。本実施の形態では、水平方向の座標(X座標及びY座標)の変更のみにより点Pを点P’に移動するため、Z座標については演算対象から除外される。点Pから点P’までの移動量は、点Pから基準点Oまでの水平方向の距離が考慮される。   Next, as shown in FIG. 24, the point P included in the change target portion is moved in the horizontal direction to be a point P ′. In the present embodiment, since the point P is moved to the point P ′ only by changing the horizontal coordinate (X coordinate and Y coordinate), the Z coordinate is excluded from the calculation target. The amount of movement from the point P to the point P ′ takes into account the horizontal distance from the point P to the reference point O.

点Pから基準点Oまでの水平方向の距離をRとすると、この距離Rは、点Pの水平方向の座標(x,y)と基準点Oの水平方向の座標(Xo,Yo)とを用いて、上述した数9で求められる。   Assuming that the horizontal distance from the point P to the reference point O is R, the distance R is the horizontal coordinate (x, y) of the point P and the horizontal coordinate (Xo, Yo) of the reference point O. And is obtained by the above-mentioned formula 9.

点Pに関する拡大増加率Wは、この距離Rと、変更対象部分の半径dと、拡大率rとを用いて、上述した数5により求められる。したがって、本実施の形態でも、拡大増加率Wは、距離Rが小さいほど大きな値となる。ただし、距離Rが0の場合(点Pが基準点Oの場合)は、拡大増加率Wは0とされる。   The enlargement increase rate W with respect to the point P is obtained by the above-described Expression 5 using the distance R, the radius d of the change target portion, and the enlargement rate r. Therefore, also in the present embodiment, the enlargement increase rate W increases as the distance R decreases. However, when the distance R is 0 (when the point P is the reference point O), the enlargement increase rate W is 0.

また、点Pの移動先となる点P’から基準点Oまでの水平方向の距離をR’とすると、この距離R’は、上述した数6により求められる。そして、点Pの移動先となる点P’の座標(x’,y’)は、基準点Oの座標(Xo,Yo)、距離R、及び、距離R’を用いて、次の数11で求められる。   Further, assuming that the horizontal distance from the point P ′ to which the point P is moved to the reference point O is R ′, the distance R ′ can be obtained by the above-described equation (6). Then, the coordinates (x ′, y ′) of the point P ′ to which the point P is moved are expressed by the following equation 11 using the coordinates (Xo, Yo) of the reference point O, the distance R, and the distance R ′. Is required.

Figure 2015184839
このような演算は、変更対象部分に含まれる全ての点P(基準点Oを除く)に関して行われ、図25に示すように、変更対象部分に含まれる全ての点P(基準点Oを除く)が点P’に移動される。本実施の形態でも、基準点Oまでの距離Rが小さい点Pほど移動量が大きくなり、基準点Oまでの距離Rが大きな点Pほど移動量が小さくなる。本実施の形態では、この点P’が変更対象部分に含まれる頂点の変更後の座標を表している。
Figure 2015184839
Such a calculation is performed for all points P (excluding the reference point O) included in the change target part, and as shown in FIG. 25, all the points P (excluding the reference point O) included in the change target part. ) Is moved to point P ′. Also in the present embodiment, the amount of movement increases as the distance P to the reference point O decreases, and the amount of movement decreases as the distance P to the reference point O increases. In the present embodiment, this point P ′ represents the coordinates after the change of the vertex included in the change target portion.

このように点Pを点P’に移動することで、変更対象部分に含まれる頂点の座標が変更される。本実施の形態では、仮想面TSの頂点の座標の変更に伴って、仮想面TSの形状も変更される。このような仮想面TSの頂点の座標の変更により、仮想面TSに貼付されたデータ(被写体の像)のサイズも変更される。これにより、本実施の形態においても、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示す一部拡大画像CPaが生成されることになる。   Thus, by moving the point P to the point P ′, the coordinates of the vertices included in the change target portion are changed. In the present embodiment, the shape of the virtual surface TS is also changed with the change of the coordinates of the vertex of the virtual surface TS. By changing the coordinates of the vertex of the virtual surface TS, the size of the data (subject image) attached to the virtual surface TS is also changed. As a result, also in the present embodiment, a partially enlarged image CPa is generated in which the subject near the center of the target region TR is greatly enlarged and the subject near the periphery of the target region TR is compressed. become.

本実施の形態では、仮想面TSの頂点の座標を車両9の接地面に沿った水平方向にのみ変更するため、一部拡大画像CPaを生成するための演算量を大幅に低減できる。   In the present embodiment, since the coordinates of the vertex of the virtual surface TS are changed only in the horizontal direction along the ground plane of the vehicle 9, the amount of calculation for generating the partially enlarged image CPa can be greatly reduced.

<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態の画像表示システム10の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。第1の実施の形態のパラメータ設定部20bは、ユーザの操作に応じて対象領域TRを設定していた。これに対して、第4の実施の形態のパラメータ設定部20bは、車両9の周辺に存在する物体を検出する機能を有しており、物体の検出結果に応じて対象領域TRを設定する。
<4. Fourth Embodiment>
Next, a fourth embodiment will be described. Since the configuration and operation of the image display system 10 of the fourth embodiment are substantially the same as those of the first embodiment, the following description will be focused on differences from the first embodiment. The parameter setting unit 20b according to the first embodiment sets the target region TR in accordance with a user operation. On the other hand, the parameter setting unit 20b of the fourth embodiment has a function of detecting an object existing around the vehicle 9, and sets the target region TR according to the detection result of the object.

図26は、第4の実施の形態の画像表示システム10の構成を示す図である。第4の実施の形態の画像表示システム10は、図1に示す第1の実施の形態の構成に加えて物体検出装置7をさらに備えている。物体検出装置7は、車両9の周辺に存在する物体を検出する。物体検出装置7が物体を検出した結果を示す結果信号は、画像生成装置2に入力される。画像生成装置2の信号受信部26は、この結果信号を受信して制御部20に入力する。   FIG. 26 is a diagram illustrating a configuration of the image display system 10 according to the fourth embodiment. The image display system 10 of the fourth embodiment further includes an object detection device 7 in addition to the configuration of the first embodiment shown in FIG. The object detection device 7 detects an object existing around the vehicle 9. A result signal indicating the result of detecting the object by the object detection device 7 is input to the image generation device 2. The signal reception unit 26 of the image generation device 2 receives this result signal and inputs it to the control unit 20.

図27は、物体検出装置7の構成を主に示す図である。図に示すように、物体検出装置7は、装置全体を統括するソナー制御部70と、複数のクリアランスソナー72と、車室内に警告音を発するブザー71とを備えている。   FIG. 27 is a diagram mainly illustrating a configuration of the object detection device 7. As shown in the figure, the object detection device 7 includes a sonar control unit 70 that controls the entire device, a plurality of clearance sonars 72, and a buzzer 71 that emits a warning sound in the passenger compartment.

クリアランスソナー72は、超音波を発信し、その超音波が物体で反射した反射波を受信することで、車両9の周辺に存在する物体を検出する。また、クリアランスソナー72は、超音波を発信してから戻ってくるまでの時間に基づいて物体の距離を検出可能である。各クリアランスソナー72の検出結果は、ソナー制御部70に入力される。ソナー制御部70は、ブザー71を制御して、物体までの距離に応じた警告音をブザー71から出力させる。これにより、ユーザは車両9の周辺に物体が存在することを把握できる。   The clearance sonar 72 detects an object existing around the vehicle 9 by transmitting an ultrasonic wave and receiving a reflected wave reflected by the object. Moreover, the clearance sonar 72 can detect the distance of the object based on the time from when the ultrasonic wave is transmitted until it returns. The detection result of each clearance sonar 72 is input to the sonar control unit 70. The sonar control unit 70 controls the buzzer 71 and causes the buzzer 71 to output a warning sound corresponding to the distance to the object. Thereby, the user can grasp that an object exists around the vehicle 9.

図28は、複数のクリアランスソナー72が車両9に配置される位置を示す図である。複数のクリアランスソナー72は、車両9の前方の左右端部、及び、車両9の後方の左右端部にそれぞれ設けられている。   FIG. 28 is a diagram illustrating positions where a plurality of clearance sonars 72 are arranged in the vehicle 9. The plurality of clearance sonars 72 are respectively provided at the left and right end portions in front of the vehicle 9 and the left and right end portions in the rear of the vehicle 9.

各クリアランスソナー72は、車両9の周辺の一部の周辺領域A11〜A14に向けて超音波を発信する。具体的には、車両9の前方の左端部に設けられるクリアランスソナー72は、車両9の前方左側に設定される周辺領域A11に向けて超音波を発信する。また、車両9の前方の右端部に設けられるクリアランスソナー72は、車両9の前方右側に設定される周辺領域A12に向けて超音波を発信する。また、車両9の後方の左端部に設けられるクリアランスソナー72は、車両9の後方左側に設定される周辺領域A13に向けて超音波を発信する。さらに、車両9の後方の右端部に設けられるクリアランスソナー72は、車両9の後方右側に設定される周辺領域A14に向けて超音波を発信する。   Each clearance sonar 72 transmits an ultrasonic wave toward some peripheral areas A11 to A14 around the vehicle 9. Specifically, the clearance sonar 72 provided at the left end portion in front of the vehicle 9 transmits ultrasonic waves toward the peripheral area A11 set on the left side in front of the vehicle 9. Further, the clearance sonar 72 provided at the right end portion in front of the vehicle 9 transmits ultrasonic waves toward the peripheral area A12 set on the right front side of the vehicle 9. In addition, the clearance sonar 72 provided at the left end on the rear side of the vehicle 9 transmits an ultrasonic wave toward the peripheral area A <b> 13 set on the rear left side of the vehicle 9. Further, the clearance sonar 72 provided at the right end portion on the rear side of the vehicle 9 transmits an ultrasonic wave toward the peripheral area A <b> 14 set on the rear right side of the vehicle 9.

これら4つの周辺領域A11〜A14は、車両9に対して相対的に固定されて予め設定される。このようなクリアランスソナー72の配置により、物体検出装置7は、4つの周辺領域A11〜A14のいずれかに存在する物体を検出できる。物体検出装置7は、物体を検出したクリアランスソナー72の位置に基づいて、検出した物体の位置が4つの周辺領域A11〜A14のいずれであるかを把握できる。さらに、物体検出装置7は、検出した物体の距離を把握できる。   These four peripheral areas A11 to A14 are fixed relatively to the vehicle 9 and set in advance. By such an arrangement of the clearance sonar 72, the object detection device 7 can detect an object existing in any of the four peripheral regions A11 to A14. Based on the position of the clearance sonar 72 that has detected the object, the object detection device 7 can grasp which of the four peripheral regions A11 to A14 is the position of the detected object. Furthermore, the object detection device 7 can grasp the distance of the detected object.

物体検出装置7の検出結果を示す結果信号は、このような物体の位置及び物体の距離を含む。ソナー制御部70は、この結果信号を画像生成装置2に出力する。これにより、画像生成装置2のパラメータ設定部20bは、物体検出装置7の検出結果を利用することができる。   The result signal indicating the detection result of the object detection device 7 includes the position of the object and the distance of the object. The sonar control unit 70 outputs the result signal to the image generation device 2. Thereby, the parameter setting unit 20b of the image generation device 2 can use the detection result of the object detection device 7.

パラメータ設定部20bは、物体検出装置7が物体を検出した場合は、当該物体をユーザが詳細に確認しやすくするために、物体検出装置7が検出した物体の位置が対象領域TRとなるように拡大パラメータ27cを設定する。   When the object detection device 7 detects an object, the parameter setting unit 20b makes the position of the object detected by the object detection device 7 the target region TR so that the user can easily confirm the object in detail. The enlargement parameter 27c is set.

例えば、物体検出装置7が、車両9の前方左側の周辺領域A11に存在する物体を検出した場合は、パラメータ設定部20bは、車両9の前方左側の領域を対象領域TRとして設定する。これにより、車両9の前方左側の領域に存在する被写体を拡大して示す一部拡大画像CPaが生成され、表示装置3に表示される。この一部拡大画像CPaを視認するユーザは、車両9の近傍に存在する物体を詳細に確認することができる。   For example, when the object detection device 7 detects an object existing in the peripheral area A11 on the left front side of the vehicle 9, the parameter setting unit 20b sets the area on the left front side of the vehicle 9 as the target area TR. As a result, a partially enlarged image CPa showing an enlarged subject present in the left front area of the vehicle 9 is generated and displayed on the display device 3. A user who visually recognizes this partially enlarged image CPa can confirm in detail an object existing in the vicinity of the vehicle 9.

<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.

上記実施の形態では、一部拡大画像CPaは、対象領域TRの周縁の内側近傍の被写体を圧縮して示していた。これに対して、一部拡大画像CPaは、対象領域TRの周縁の外側近傍の被写体を圧縮して示すようにしてもよい。このようにしても、一部拡大画像CPaに含まれる被写体と、一部拡大画像CPaに含まれない被写体との連続性が保持される。   In the above embodiment, the partially enlarged image CPa shows the subject in the vicinity of the inside of the periphery of the target region TR in a compressed manner. On the other hand, the partially enlarged image CPa may be shown by compressing a subject near the outside of the periphery of the target region TR. Even in this case, continuity between the subject included in the partially enlarged image CPa and the subject not included in the partially enlarged image CPa is maintained.

また、上記実施の形態では、画像生成部22は、仮想面TSの一部の座標を変更することで一部拡大画像CPaを生成していた。これに対して、4つの撮影画像SF,SB,SL,SRのうちの一部の撮影画像を拡大してから、これらの撮影画像のデータを仮想面TSに貼付することで、一部拡大画像を生成してもよい。例えば、リアカメラ5Bの撮影画像SBのみに関して被写体の像を拡大した後に、4つの撮影画像SF,SB,SL,SRのデータを仮想面TSに貼付すれば、車両9の後方に存在する被写体のみを拡大して示す一部拡大画像を生成できる。   In the above embodiment, the image generation unit 22 generates the partially enlarged image CPa by changing some coordinates of the virtual surface TS. On the other hand, after enlarging a part of the four photographed images SF, SB, SL, and SR, and pasting the data of these photographed images on the virtual surface TS, a partially enlarged image. May be generated. For example, if the data of four captured images SF, SB, SL, and SR are pasted on the virtual surface TS after enlarging the image of the subject only with respect to the captured image SB of the rear camera 5B, only the subject existing behind the vehicle 9 is displayed. It is possible to generate a partially enlarged image showing the enlarged image.

また、上記実施の形態では、ピンチアウト操作に応答して拡大パラメータ27cが設定されていたが、対象領域TR及び拡大率rなどを指定可能な設定画面を利用して拡大パラメータ27cが設定されるようにしてもよい。   In the above embodiment, the enlargement parameter 27c is set in response to the pinch-out operation. However, the enlargement parameter 27c is set using a setting screen that can specify the target area TR and the enlargement ratio r. You may do it.

また、上記第1及び第2の実施の形態では、仮想面TSの頂点の座標を変更する場合に、点Pを点P’に移動し、さらに点P’を仮想面TS上の点P”に移動していた。これに対して、点Pを点P’に移動するのみであってもよい。この場合は、仮想面TSの頂点の座標の変更に伴って、仮想面TSの形状も若干変更される。   In the first and second embodiments, when the coordinates of the vertex of the virtual surface TS are changed, the point P is moved to the point P ′, and the point P ′ is further moved to the point P ″ on the virtual surface TS. On the other hand, the point P may only be moved to the point P′.In this case, the shape of the virtual surface TS also changes as the coordinates of the vertex of the virtual surface TS change. Slightly changed.

また、上記第4の実施の形態の画像表示システム10は、クリアランスソナー72を用いて車両9の周辺に存在する物体を検出していた。これに対して、例えば、レーダー装置による物体検出や、撮影画像に基づく物体認識などの他の手法によって、車両9の周辺に存在する物体を検出してもよい。   Further, the image display system 10 of the fourth embodiment detects an object existing around the vehicle 9 using the clearance sonar 72. On the other hand, for example, an object existing around the vehicle 9 may be detected by another method such as object detection by a radar device or object recognition based on a captured image.

また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。   In addition, the function described as one block in the above embodiment is not necessarily realized by a single physical element, and may be realized by distributed physical elements. Further, the functions described as a plurality of blocks in the above embodiments may be realized by a single physical element. In addition, even if the device in the vehicle and the device outside the vehicle share processing related to any one function and exchange information by communication between these devices, the one function can be realized as a whole. Good.

また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。   In addition, it has been described that all or part of the functions described as being realized by software by executing the program in the above embodiment may be realized by an electrical hardware circuit or by a hardware circuit. All or part of the functions may be realized by software. Further, the function described as one block in the above-described embodiment may be realized by cooperation of software and hardware.

2 画像生成装置
3 表示装置
7 物体検出装置
10 画像表示システム
20b パラメータ設定部
22 画像生成部
31 タッチパネル
90 車両像
CP 合成画像
CPa 一部拡大画像
2 Image generation device 3 Display device 7 Object detection device 10 Image display system 20b Parameter setting unit 22 Image generation unit 31 Touch panel 90 Vehicle image CP Composite image CPa Partially enlarged image

Claims (10)

車両において用いられる画像生成装置であって、
前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する生成手段と、
を備え、
前記生成手段は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成することを特徴とする画像生成装置。
An image generation device used in a vehicle,
Obtaining means for obtaining a plurality of photographed images obtained by a plurality of cameras for photographing the periphery of the vehicle;
Generating means for generating a composite image showing the periphery of the vehicle viewed from a virtual viewpoint using the plurality of captured images;
With
The generating means enlarges a subject included in a part of a target area of the whole area while showing an entire area around the vehicle, and shows the subject not included in the target area without expanding. An image generating apparatus that generates a partially enlarged image that is a composite image.
請求項1に記載の画像生成装置において、
前記生成手段は、
前記車両の周辺に相当する仮想面に前記複数の撮影画像のデータを貼付し、前記仮想面に貼付された前記データを用いて前記合成画像を生成し、
前記仮想面における前記対象領域に相当する部分の座標を変更することで前記一部拡大画像を生成することを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The generating means includes
Affixing the data of the plurality of captured images to a virtual surface corresponding to the periphery of the vehicle, and generating the composite image using the data affixed to the virtual surface;
An image generating apparatus, wherein the partial enlarged image is generated by changing coordinates of a portion corresponding to the target area on the virtual plane.
請求項2に記載の画像生成装置において、
前記仮想面は、仮想的な三次元空間に設定される曲面であることを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
The image generation apparatus, wherein the virtual surface is a curved surface set in a virtual three-dimensional space.
請求項3に記載の画像生成装置において、
前記生成手段は、前記座標を前記車両の接地面に沿った方向にのみ変更することを特徴とする画像生成装置。
The image generation apparatus according to claim 3.
The image generation apparatus according to claim 1, wherein the generation unit changes the coordinates only in a direction along a ground contact surface of the vehicle.
請求項3または4に記載の画像生成装置において、
前記生成手段は、前記三次元空間の任意の位置に前記仮想視点を設定可能であることを特徴とする画像生成装置。
In the image generation device according to claim 3 or 4,
The image generation apparatus characterized in that the generation means can set the virtual viewpoint at an arbitrary position in the three-dimensional space.
請求項1ないし5のいずれかに記載の画像生成装置において、
前記一部拡大画像は、前記対象領域の周縁近傍の被写体を圧縮して示すことを特徴とする画像生成装置。
In the image generation device according to any one of claims 1 to 5,
The partially enlarged image is an image generating apparatus characterized by compressing and showing a subject near the periphery of the target area.
請求項1ないし6のいずれかに記載の画像生成装置において、
ユーザの操作に応じて前記対象領域を設定する設定手段、
をさらに備えることを特徴とする画像生成装置。
The image generation device according to any one of claims 1 to 6,
Setting means for setting the target area according to a user operation;
An image generation apparatus further comprising:
請求項1ないし6のいずれかに記載の画像生成装置において、
前記車両の近傍に存在する物体の位置を検出する検出手段の検出結果に応じて、前記対象領域を設定する設定手段、
をさらに備えることを特徴とする画像生成装置。
The image generation device according to any one of claims 1 to 6,
Setting means for setting the target area according to a detection result of a detection means for detecting a position of an object existing in the vicinity of the vehicle;
An image generation apparatus further comprising:
車両において用いられる画像表示システムであって、
請求項1ないし8のいずれかに記載の画像生成装置と、
前記画像生成装置で生成された前記一部拡大画像を表示する表示装置と、
を備えることを特徴とする画像表示システム。
An image display system used in a vehicle,
An image generation apparatus according to any one of claims 1 to 8,
A display device for displaying the partially enlarged image generated by the image generation device;
An image display system comprising:
車両において用いられる画像生成方法であって、
(a)前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する工程と、
(b)前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、
を備え、
前記工程(b)は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成することを特徴とする画像生成方法。
An image generation method used in a vehicle,
(A) acquiring a plurality of captured images obtained by a plurality of cameras that capture the periphery of the vehicle;
(B) using the plurality of captured images, generating a composite image showing the periphery of the vehicle viewed from a virtual viewpoint;
With
The step (b) shows an entire area around the vehicle while enlarging a subject included in a part of the target area, and showing an object not included in the target area without expanding. An image generation method characterized by generating a partially enlarged image that is one of the composite images.
JP2014059317A 2014-03-21 2014-03-21 Image generation device, image display system, and image generation method Pending JP2015184839A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014059317A JP2015184839A (en) 2014-03-21 2014-03-21 Image generation device, image display system, and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014059317A JP2015184839A (en) 2014-03-21 2014-03-21 Image generation device, image display system, and image generation method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018073540A Division JP6625157B2 (en) 2018-04-06 2018-04-06 Image generation apparatus, image display system, and image generation method

Publications (1)

Publication Number Publication Date
JP2015184839A true JP2015184839A (en) 2015-10-22

Family

ID=54351315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014059317A Pending JP2015184839A (en) 2014-03-21 2014-03-21 Image generation device, image display system, and image generation method

Country Status (1)

Country Link
JP (1) JP2015184839A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094626A1 (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2017102606A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2017102605A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2017101420A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Peripheral monitoring system for work machine
JP2017101419A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2017143340A (en) * 2016-02-08 2017-08-17 株式会社デンソー Information processing apparatus and program
JP2018061113A (en) * 2016-10-04 2018-04-12 アイシン精機株式会社 Periphery monitoring device
WO2018084146A1 (en) * 2016-11-01 2018-05-11 住友建機株式会社 Surrounding monitoring system for work machine

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232310A (en) * 2008-03-25 2009-10-08 Fujitsu Ltd Image processor for vehicle, image processing method for vehicle, image processing program for vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232310A (en) * 2008-03-25 2009-10-08 Fujitsu Ltd Image processor for vehicle, image processing method for vehicle, image processing program for vehicle

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102606A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2017102605A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
JP2017101420A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Peripheral monitoring system for work machine
JP2017101419A (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
US11697920B2 (en) 2015-11-30 2023-07-11 Sumitomo Heavy Industries, Ltd. Surroundings monitoring system for work machine
WO2017094626A1 (en) * 2015-11-30 2017-06-08 住友重機械工業株式会社 Periphery monitoring system for work machine
CN108605116A (en) * 2016-02-08 2018-09-28 株式会社电装 Display processing unit and display processing method
JP2017143340A (en) * 2016-02-08 2017-08-17 株式会社デンソー Information processing apparatus and program
WO2017138473A1 (en) * 2016-02-08 2017-08-17 株式会社デンソー Display processing device and display processing method
US10623610B2 (en) 2016-02-08 2020-04-14 Denso Corporation Display processing device and display processing method
WO2018066282A1 (en) * 2016-10-04 2018-04-12 アイシン精機株式会社 Periphery monitoring device
US11302076B2 (en) 2016-10-04 2022-04-12 Aisin Corporation Periphery monitoring apparatus
JP2018061113A (en) * 2016-10-04 2018-04-12 アイシン精機株式会社 Periphery monitoring device
CN109314769A (en) * 2016-11-01 2019-02-05 住友建机株式会社 Construction machinery surroundings monitoring system
JPWO2018084146A1 (en) * 2016-11-01 2019-09-19 住友建機株式会社 Perimeter monitoring system for work machines
WO2018084146A1 (en) * 2016-11-01 2018-05-11 住友建機株式会社 Surrounding monitoring system for work machine
US11047113B2 (en) 2016-11-01 2021-06-29 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Surroundings monitoring system for work machine
CN109314769B (en) * 2016-11-01 2022-06-07 住友建机株式会社 Periphery monitoring system for construction machine
JP7171436B2 (en) 2016-11-01 2022-11-15 住友建機株式会社 Perimeter monitoring system for work machine, display device

Similar Documents

Publication Publication Date Title
JP2015184839A (en) Image generation device, image display system, and image generation method
US9479740B2 (en) Image generating apparatus
JP5911775B2 (en) Image generation apparatus, image display system, and image generation method
JP6311020B2 (en) Image composition system, image composition apparatus and image composition method therefor
JP6548900B2 (en) Image generation apparatus, image generation method and program
EP3136204B1 (en) Image processing device and image processing method
CN107465890B (en) Image processing device for vehicle
JP6310652B2 (en) Video display system, video composition device, and video composition method
JP6287237B2 (en) Information processing apparatus, information processing method, and program
WO2014199574A1 (en) Vehicle-mounted display device and program product
JP2009118415A (en) Method and apparatus for generating bird&#39;s-eye view image
JP6084097B2 (en) Image generation apparatus, image display system, and image generation method
JP2011151666A (en) Device, system and method for acquiring parameter, and program
US10609337B2 (en) Image processing apparatus
US9162621B2 (en) Parking support apparatus
JP2019156298A (en) Vehicle remote control device and vehicle remote control method
CN111918020B (en) Image processing apparatus, image processing method, and computer readable medium
JPWO2019216087A1 (en) Image processors, mobile devices, and methods, and programs
JP5977130B2 (en) Image generation apparatus, image display system, and image generation method
JP6258000B2 (en) Image display system, image display method, and program
US10475154B2 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP6625157B2 (en) Image generation apparatus, image display system, and image generation method
KR20210150881A (en) Electronic apparatus and operaintg method thereof
JP6370833B2 (en) Image generation apparatus, image display system, and image generation method
JP7135378B2 (en) Perimeter monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180619