JP2015184839A - Image generation device, image display system, and image generation method - Google Patents
Image generation device, image display system, and image generation method Download PDFInfo
- Publication number
- JP2015184839A JP2015184839A JP2014059317A JP2014059317A JP2015184839A JP 2015184839 A JP2015184839 A JP 2015184839A JP 2014059317 A JP2014059317 A JP 2014059317A JP 2014059317 A JP2014059317 A JP 2014059317A JP 2015184839 A JP2015184839 A JP 2015184839A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- image generation
- point
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、車両の周辺を示す画像を生成する技術に関する。 The present invention relates to a technique for generating an image showing the periphery of a vehicle.
従来より、自動車などの車両の周辺を示す画像を生成し、この画像を車両内の表示装置に表示する画像表示システムが知られている。このような画像表示システムを利用することにより、ユーザ(代表的にはドライバ)は、車両の周辺の様子をほぼリアルタイムに確認することができる。 2. Description of the Related Art Conventionally, an image display system that generates an image showing the periphery of a vehicle such as an automobile and displays this image on a display device in the vehicle is known. By using such an image display system, a user (typically a driver) can check the state of the periphery of the vehicle almost in real time.
また、近年では、複数のカメラで得られた複数の撮影画像を合成して仮想視点からみた車両の周辺を示す合成画像を生成し、その合成画像を表示する画像表示システムも提案されている(例えば、特許文献1参照。)。このような画像表示システムでは、例えば、車両の直上から見下ろすように車両の周囲全体を示す合成画像(俯瞰画像)などを生成できる。ユーザは、このような合成画像を視認することで、車両の周囲全体の様子を確認することができる。
In recent years, an image display system has also been proposed in which a plurality of captured images obtained by a plurality of cameras are combined to generate a combined image showing the periphery of the vehicle viewed from a virtual viewpoint, and the combined image is displayed ( For example, see
上記のような画像表示システムを利用するユーザは、車両の周囲全体を確認しながらも、車両の後方など車両の周囲の一部をより詳細に確認することを望む場合がある。このため、図29に示すような、車両の周囲全体を示す合成画像82と、車両の周囲の一部を拡大して示す拡大画像83との2つの画像を並べて含む表示画像81を表示する技術が知られている(例えば、特許文献1参照。)。図29の例では、車両は車両像85として示されており、拡大画像83は車両の後方を拡大して示している。
A user who uses the image display system as described above may desire to check a part of the periphery of the vehicle in more detail, for example, behind the vehicle while checking the entire periphery of the vehicle. For this reason, as shown in FIG. 29, a technique for displaying a
図29に示すような表示画像81を視認するユーザは、合成画像82と拡大画像83との双方を確認することができる。しかしながら、通常、ユーザは、合成画像82と拡大画像83とのいずれかに比重をおいて注意を向けることになる。このため、ユーザが拡大画像83に注意を向けている場合には、拡大画像83が示す領域の外部(例えば、車両の前方)で物体が車両に接近したときに、ユーザが当該物体に気づかない可能性がある。
A user who visually recognizes the
本発明は、上記課題に鑑みてなされたものであり、拡大の対象となる対象領域に含まれる物体とともに、対象領域に含まれない物体にもユーザが注意を向けることができる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and provides a technique that allows a user to pay attention to an object that is not included in the target area as well as an object that is included in the target area to be enlarged. With the goal.
上記課題を解決するため、請求項1の発明は、車両において用いられる画像生成装置であって、前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する取得手段と、前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する生成手段と、を備え、前記生成手段は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成する。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1に記載の画像生成装置において、前記生成手段は、前記車両の周辺に相当する仮想面に前記複数の撮影画像のデータを貼付し、前記仮想面に貼付された前記データを用いて前記合成画像を生成し、前記仮想面における前記対象領域に相当する部分の座標を変更することで前記一部拡大画像を生成する。 According to a second aspect of the present invention, in the image generation apparatus according to the first aspect, the generation unit affixes the data of the plurality of captured images to a virtual surface corresponding to the periphery of the vehicle, and The composite image is generated using the pasted data, and the partially enlarged image is generated by changing the coordinates of the portion corresponding to the target region on the virtual plane.
また、請求項3の発明は、請求項2に記載の画像生成装置において、前記仮想面は、仮想的な三次元空間に設定される曲面である。 According to a third aspect of the present invention, in the image generation apparatus according to the second aspect, the virtual surface is a curved surface set in a virtual three-dimensional space.
また、請求項4の発明は、請求項3に記載の画像生成装置において、前記生成手段は、前記座標を前記車両の接地面に沿った方向にのみ変更する。 According to a fourth aspect of the present invention, in the image generating apparatus according to the third aspect, the generating unit changes the coordinates only in a direction along the ground contact surface of the vehicle.
また、請求項5の発明は、請求項3または4に記載の画像生成装置において、前記生成手段は、前記三次元空間の任意の位置に前記仮想視点を設定可能である。
The invention according to
また、請求項6の発明は、請求項1ないし5のいずれかに記載の画像生成装置において、前記一部拡大画像は、前記対象領域の周縁近傍の被写体を圧縮して示す。 According to a sixth aspect of the present invention, in the image generating apparatus according to any one of the first to fifth aspects, the partially enlarged image shows a subject in the vicinity of the periphery of the target area in a compressed manner.
また、請求項7の発明は、請求項1ないし6のいずれかに記載の画像生成装置において、ユーザの操作に応じて前記対象領域を設定する設定手段、をさらに備えている。 According to a seventh aspect of the present invention, the image generating apparatus according to any one of the first to sixth aspects further comprises setting means for setting the target area in accordance with a user operation.
また、請求項8の発明は、請求項1ないし6のいずれかに記載の画像生成装置において、前記車両の近傍に存在する物体の位置を検出する検出手段の検出結果に応じて、前記対象領域を設定する設定手段、をさらに備えている。
The invention according to claim 8 is the image generation apparatus according to any one of
また、請求項9の発明は、車両において用いられる画像表示システムであって、請求項1ないし8のいずれかに記載の画像生成装置と、前記画像生成装置で生成された前記一部拡大画像を表示する表示装置と、を備えている。
The invention of
また、請求項10の発明は、車両において用いられる画像生成方法であって、(a)前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する工程と、(b)前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、を備え、前記工程(b)は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成する。
The invention of
請求項1ないし10の発明によれば、車両の周囲全体の全体領域を示しつつ全体領域の一部の対象領域に含まれる被写体を拡大して示す一部拡大画像が生成される。この一部拡大画像を視認するユーザは、対象領域に含まれる物体を詳細に確認しつつ、対象領域に含まれない物体にも同時に注意を向けることができる。 According to the first to tenth aspects of the present invention, a partially enlarged image is generated in which the subject included in the partial target region of the entire region is enlarged while showing the entire region around the entire vehicle. The user who visually recognizes this partially enlarged image can simultaneously pay attention to an object not included in the target area while confirming in detail the object included in the target area.
また、特に請求項2の発明によれば、仮想面の一部の座標を変更するという簡便な手法で一部拡大画像を生成できる。 In particular, according to the second aspect of the present invention, a partially enlarged image can be generated by a simple method of changing some coordinates of the virtual surface.
また、特に請求項3の発明によれば、仮想面が曲面の場合であっても、その仮想面の一部の座標を変更するという簡便な手法で一部拡大画像を生成できる。 In particular, according to the third aspect of the present invention, even when the virtual surface is a curved surface, a partially enlarged image can be generated by a simple method of changing some coordinates of the virtual surface.
また、特に請求項4の発明によれば、座標を車両の接地面に沿った方向にのみ変更するため、一部拡大画像を生成するための演算量を大幅に低減できる。
In particular, according to the invention of
また、特に請求項5の発明によれば、三次元空間のいずれの位置に仮想視点が設定された場合であっても、その仮想視点からみた一部拡大画像を生成できる。
In particular, according to the invention of
また、特に請求項6の発明によれば、一部拡大画像は、対象領域の周縁近傍の被写体を圧縮して示すため、対象領域に含まれる被写体と対象領域に含まれない被写体との連続性を保持することができる。 In particular, according to the invention of claim 6, since the partially enlarged image shows the subject in the vicinity of the periphery of the target region in a compressed manner, the continuity between the subject included in the target region and the subject not included in the target region is shown. Can be held.
また、特に請求項7の発明によれば、ユーザの操作に応じて対象領域を設定するため、ユーザは所望の被写体を詳細に確認できる。
In particular, according to the invention of
また、特に請求項8の発明によれば、検出手段の検出結果に応じて対象領域を設定するため、ユーザは車両の近傍に存在する物体を詳細に確認できる。 In particular, according to the invention of claim 8, the target area is set according to the detection result of the detection means, so that the user can confirm in detail the object existing in the vicinity of the vehicle.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態の画像表示システム10の構成を示す図である。この画像表示システム10は、車両(本実施の形態では、自動車)において用いられるものであり、車両の周辺の領域を示す画像を生成して車室内に表示する機能を有している。画像表示システム10のユーザ(代表的にはドライバ)は、この画像表示システム10を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できる。
<1. First Embodiment>
<1-1. Configuration>
FIG. 1 is a diagram illustrating a configuration of an
図に示すように、画像表示システム10は、複数のカメラ5、画像生成装置2、表示装置3及び操作ボタン4を主に備えている。複数のカメラ5はそれぞれ、車両の周辺を撮影して撮影画像を取得し、取得した撮影画像を画像生成装置2に入力する。画像生成装置2は、複数の撮影画像を用いて、仮想視点からみた車両の周辺を示す合成画像を生成する。表示装置3は、画像生成装置2で生成された合成画像を表示する。また、操作ボタン4は、ユーザの操作を受け付ける。
As shown in the figure, the
複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、車両の周辺を示す撮影画像を電子的に取得する。複数のカメラ5は、フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、車両9において互いに異なる位置に配置され、車両9の周辺の異なる方向を撮影する。
Each of the plurality of
図2は、4つのカメラ5F,5B,5L,5Rがそれぞれ撮影する方向を示す図である。フロントカメラ5Fは、車両9の前端に設けられ、その光軸5Faは車両9の直進方向に向けられる。リアカメラ5Bは、車両9の後端に設けられ、その光軸5Baは車両9の直進方向の逆方向に向けられる。左サイドカメラ5Lは左側の左サイドミラー93Lに設けられ、その光軸5Laは車両9の左側方に向けられる。また、右サイドカメラ5Rは右側の右サイドミラー93Rに設けられ、その光軸5Raは車両9の右側方に向けられる。
FIG. 2 is a diagram illustrating directions in which the four
これらのカメラ5F,5B,5L,5Rのレンズには魚眼レンズなどの広角レンズが採用され、各カメラ5F,5B,5L,5Rは180度以上の画角αを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、車両9の周囲全体を撮影することが可能である。
A wide-angle lens such as a fisheye lens is adopted as the lens of these
図1に戻り、表示装置3は、例えば、液晶などの薄型の表示パネルを備えており、各種の情報や画像を表示する。表示装置3は、ユーザがその画面を視認できるように、車両9のインストルメントパネルなどに配置される。表示装置3は、画像生成装置2と同一のハウジング内に配置されて画像生成装置2と一体化されていてもよく、画像生成装置2とは別体の装置であってもよい。
Returning to FIG. 1, the
表示装置3は、その画面に対するユーザのタッチ操作を受け付けるタッチパネル31を備えている。タッチパネル31は、静電容量式となっており、フリック操作やピンチアウト操作などのマルチタッチ操作を受け付けることが可能である。
The
操作ボタン4は、ユーザの操作を受け付ける操作部材である。操作ボタン4は、例えば、車両9のステアリングホイールに設けられており、主にドライバからの操作を受け付ける。
The
ユーザは、これらのタッチパネル31及び操作ボタン4を介して画像表示システム10に対して各種の操作を行うことができる。タッチパネル31及び操作ボタン4のいずれかにユーザの操作がなされた場合は、その操作の内容を示す操作信号が画像生成装置2に入力される。
The user can perform various operations on the
画像生成装置2は、各種の画像処理が可能な電子装置であり、画像取得部21と、画像生成部22と、画像出力部24とを備えている。
The
画像取得部21は、4つのカメラ5F,5B,5L,5Rでそれぞれ得られた撮影画像を取得する。画像取得部21は、アナログの撮影画像をデジタルの撮影画像に変換する機能などの画像処理機能を有している。画像取得部21は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部22に入力する。なお、4つのカメラ5F,5B,5L,5Rがデジタルの撮影画像を取得する場合は、画像取得部21がアナログの撮影画像をデジタルの撮影画像に変換する機能を有していなくてよい。
The
画像生成部22は、合成画像を生成するための画像処理を行うハードウェア回路である。画像生成部22は、4つのカメラ5で取得された4つの撮影画像を合成して、仮想視点からみた車両9の周辺を示す合成画像を生成する。画像生成部22は、車両9の周辺に相当する仮想面に複数の撮影画像のデータを貼付し、この仮想面に貼付されたデータを用いて合成画像を生成する。この合成画像を生成する手法の詳細については後述する。
The
画像出力部24は、画像生成部22で生成された合成画像を表示装置3に出力して、合成画像を表示装置3に表示させる。これにより、仮想視点からみた車両9の周辺を示す合成画像が表示装置3に表示される。
The
また、画像生成装置2は、制御部20と、操作受付部25と、信号受信部26と、記憶部27とをさらに備えている。制御部20は、例えば、CPU、RAM及びROMなどを備えたマイクロコンピュータであり、画像生成装置2の全体を統括的に制御する。
The
操作受付部25は、ユーザが操作を行った場合にタッチパネル31及び操作ボタン4から出力される操作信号を受信する。これにより、操作受付部25はユーザの操作を受け付ける。操作受付部25は、受信した操作信号を制御部20に入力する。
The
信号受信部26は、画像生成装置2とは別に車両9に設けられる他の装置からの信号を受信して、制御部20に入力する。信号受信部26は、例えば、車両9の変速装置のシフトレバーの位置であるシフトポジションを示す信号をシフトセンサ91から受信する。この信号に基づいて、制御部20は、車両9の進行方向が前方あるいは後方のいずれであるかを判定できる。
The
記憶部27は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部27は、ファームウェアとしてのプログラム27aや、画像生成部22が合成画像を生成するために用いる各種のデータを記憶する。このような合成画像の生成に用いるデータとして、対応テーブル27b及び拡大パラメータ27cが含まれる。対応テーブル27bは、記憶部27に予め記憶されるテーブル形式のデータである。一方、拡大パラメータ27cは、記憶部27に予め記憶されるデータではなく、必要に応じて記憶されるデータである。
The
制御部20の各種の機能は、記憶部27に記憶されたプログラム27aに従ってCPUが演算処理を行うことで実現される。図中に示す表示制御部20a及びパラメータ設定部20bは、プログラム27aに従ってCPUが演算処理を行うことで実現される機能部の一部である。
Various functions of the
表示制御部20aは、画像生成部22及び画像出力部24を制御して各種の合成画像を生成させ、その合成画像を表示装置3に表示させる。表示制御部20aは、例えば、操作受付部25が受け付けたユーザの操作に応じて、合成画像に係る仮想視点の位置を変更する。
The
また、パラメータ設定部20bは、操作受付部25が受け付けたユーザの操作に応じて拡大パラメータ27cを設定する。パラメータ設定部20bは、設定した拡大パラメータ27cを記憶部27に記憶する。表示制御部20aが、この拡大パラメータ27cに基づいて画像生成部22を制御することにより、画像生成部22は、車両の周囲全体の全体領域を示しつつ全体領域の一部を拡大して示す合成画像を生成する(詳細は後述。)。
The
<1−2.合成画像の生成>
次に、画像生成部22が、仮想視点からみた車両9の周辺の様子を示す合成画像を生成する手法について説明する。図3は、画像生成部22が合成画像を生成する手法を説明する図である。
<1-2. Generation of composite image>
Next, a method will be described in which the
フロントカメラ5F、リアカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rのそれぞれで撮影が行われると、車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像SF,SB,SL,SRが取得される。これら4つの撮影画像SF,SB,SL,SRには、車両9の全周囲のデータ(被写体の像)が含まれている。
When shooting is performed with each of the
画像生成部22は、まず、これら4つの撮影画像SF,SB,SL,SRに含まれるデータ(被写体の像)を、仮想的な三次元空間に設定される曲面である仮想面TSに貼付(投影)する。
First, the
仮想面TSは、車両9の周辺の領域に相当する面である。仮想面TSは、例えば、略半球状(お椀形状)をしており、その中心領域(お椀の底部分)は車両9の位置となる車両領域R0として定められている。画像生成部22は、仮想面TSのうち車両領域R0には撮影画像のデータを貼付せず、車両領域R0の外側の領域に撮影画像のデータを貼付する。
The virtual surface TS is a surface corresponding to an area around the
仮想面TSは、メッシュ状に多数の区画(ポリゴン)に区分される。仮想面TSを構成する各区画は、3または4の頂点を有する多角形となっている。各区画は、4つの撮影画像SF,SB,SL,SRのいずれかの領域と対応付けられる。画像生成部22は、4つの撮影画像SF,SB,SL,SRの各領域のデータを、その領域に対応する仮想面TSの区画にテクスチャとして貼付する。撮影画像中の領域と、そのデータを貼付すべき仮想面TSの区画とは、記憶部27に予め記憶された対応テーブル27bによって対応付けられる。
The virtual surface TS is divided into a large number of sections (polygons) in a mesh shape. Each section constituting the virtual surface TS is a polygon having three or four vertices. Each section is associated with one of the four captured images SF, SB, SL, and SR. The
図4に示すように、画像生成部22は、仮想面TSにおいて車両9の前方に相当する前方部分GFの区画に、フロントカメラ5Fの撮影画像SFのデータを貼付する。また、画像生成部22は、仮想面TSにおいて車両9の後方に相当する後方部分GBの区画に、リアカメラ5Bの撮影画像SBのデータを貼付する。さらに、画像生成部22は、仮想面TSにおいて車両9の左側方に相当する左側方部分GLの区画に左サイドカメラ5Lの撮影画像SLのデータを貼付し、仮想面TSにおいて車両9の右側方に相当する右側方部分GRの区画に右サイドカメラ5Rの撮影画像SRのデータを貼付する。
As illustrated in FIG. 4, the
図3に戻り、このように仮想面TSに撮影画像のデータを貼付すると、次に、画像生成部22は、車両9の三次元形状を示す車両モデルを仮想的に構成する。この車両モデルは、仮想面TSが設定される三次元空間における車両9の位置である車両領域R0に配置される。
Returning to FIG. 3, when the data of the captured image is pasted on the virtual surface TS in this way, the
次に、画像生成部22は、表示制御部20aの制御により、仮想面TSが設定される三次元空間に対して仮想視点VPを設定する。この仮想視点VPは、位置と視線の向きとで規定される。画像生成部22は、三次元空間の任意の位置に、任意の視線の向きで仮想視点VPを設定できる。
Next, the
次に、画像生成部22は、設定した仮想視点VPに応じた仮想面TSの一部の領域を用いて合成画像CPを生成する。すなわち、画像生成部22は、仮想面TSのうち、仮想視点VPからみて所定の視野角に含まれる領域に貼付されたデータを画像として切り出す。また、画像生成部22は、仮想視点VPに応じて車両モデルに関してレンダリングを行い、その結果となる車両像90を、切り出した画像に対して重畳する。これにより、画像生成部22は、仮想視点VPからみた車両9及び車両9の周辺を示す合成画像CPを生成する。
Next, the
例えば図3に示すように、位置を車両9の直上とし視線を車両9の中心に向けた仮想視点VPaを設定した場合には、車両9と車両9の周辺とを俯瞰する合成画像(俯瞰画像)CP1を生成できる。また、位置を車両9の左後方とし視線を車両9の中心に向けた仮想視点VPbを設定した場合には、車両9の左後方からみた車両9と車両9の周辺とを示す合成画像CP2を生成できる。本実施の形態では、表示制御部20aは、仮想視点VPの位置に関わらず仮想視点VPの視線を車両9の中心に向けるように、画像生成部22を制御する。
For example, as shown in FIG. 3, when a virtual viewpoint VPa is set with the position directly above the
<1−3.合成画像の表示>
このような合成画像CPは、表示制御部20aの制御により、車両9の状態やユーザの操作に応じて適宜に表示装置3に表示される。通常は、ユーザが操作ボタン4を操作した場合に、合成画像CPが表示装置3に表示される。一方、シフトポジションが「R」となり車両9の進行方向が後方となる場合は、ユーザが操作ボタン4を操作せずとも、合成画像CPが表示装置3に表示される。
<1-3. Display of composite image>
Such a composite image CP is appropriately displayed on the
表示制御部20aは、表示装置3に合成画像CPを最初に表示させる場合は、例えば、車両9の直上に仮想視点VPの位置を設定する。これにより、図5に示すように、車両9の直上から見下ろすように車両9の周囲全体の全体領域を示す合成画像CPである俯瞰画像が生成され、表示装置3に表示される。
The
また、表示装置3に合成画像CPが表示されている場合に、図6に示すように、ユーザが表示装置3の画面に対してフリック操作を行ったときには、仮想視点VPの位置が変更される。フリック操作は、ユーザが指Fで画面に触れた後に、その指Fを一方向にはらうように動かす操作である。ユーザがフリック操作を行うと、表示制御部20aが、そのフリック操作の方向とは逆方向に仮想視点VPの位置を移動する。
Further, when the composite image CP is displayed on the
例えば、図5に示す合成画像CPが表示されている場合に、図6に示すようにユーザが車両9の前方へ向けてフリック操作を行った場合には、表示制御部20aは、仮想視点VPの位置を車両9の後方へ移動する。これにより、図7に示すように、車両9の後方からみた車両9の周囲全体の全体領域を示す合成画像CPが生成され、表示装置3に表示される。
For example, when the composite image CP shown in FIG. 5 is displayed and the user performs a flick operation toward the front of the
また、図7に示す合成画像CPが表示されている場合に、ユーザが車両9の左方へ向けてフリック操作を行ったときには、表示制御部20aは、仮想視点VPの位置を車両9の右方へ移動する。これにより、図8に示すように、車両9の右方からみた車両9の周囲全体の全体領域を示す合成画像CPが生成され、表示装置3に表示される。
When the composite image CP shown in FIG. 7 is displayed and the user performs a flick operation toward the left side of the
このように、ユーザのフリック操作に応答して仮想視点VPの位置が変更されるため、ユーザは所望の位置から車両9の周囲全体の全体領域を確認することができる。
Thus, since the position of the virtual viewpoint VP is changed in response to the user's flick operation, the user can check the entire region around the
また、表示装置3に合成画像CPが表示されている場合には、ユーザは、フリック操作に加えて、図9に示すように表示装置3の画面に対してピンチアウト操作も行うことができる。ピンチアウト操作は、ユーザが2本の指Fで画面に触れた後に、それらの指Fの間隔を広げる操作である。ユーザがピンチアウト操作を行ったときには、そのピンチアウト操作で指定した対象領域TRに含まれる被写体を拡大して示す合成画像CPが生成される。
When the composite image CP is displayed on the
ユーザが、ピンチアウト操作を行うと、パラメータ設定部20bは、ユーザの操作に応じて拡大パラメータ27cを設定する。パラメータ設定部20bは、2本の指Fが最初に触れた2点の位置と、ユーザが2本の指Fを広げた移動量とを、拡大パラメータ27cとして設定する。2本の指Fが最初に触れた2点の位置は、拡大の対象となる対象領域TRを規定する。車両9の周囲全体の全体領域のうち、2本の指Fが最初に触れた2点を通る円に相当する領域が、対象領域TRとなる。また、ユーザが2本の指Fを広げた移動量は、対象領域TRに含まれる被写体を拡大する際の拡大率を規定する。パラメータ設定部20bは、このように拡大パラメータ27cを設定することにより、実質的に対象領域TRを設定する。
When the user performs a pinch-out operation, the
このように拡大パラメータ27cが設定された場合は、この拡大パラメータ27cに基づいて画像生成部22により合成画像CPが生成される。この合成画像CPは、車両9の周囲全体の全体領域を示しつつ、全体領域の一部の対象領域TRに含まれる被写体を拡大し、対象領域TRに含まれない被写体を拡大せずに示す「一部拡大画像」CPaとなる。
When the
例えば、図5に示す合成画像CPが表示されている場合に、図9に示すようにユーザが車両9の後方に対してピンチアウト操作を行った場合には、パラメータ設定部20bは、車両9の後方の一部の領域を対象領域TRとして設定する。これにより、図10に示すように、対象領域TRに含まれる被写体を拡大して示す一部拡大画像CPaが生成され、表示装置3に表示される。
For example, when the composite image CP shown in FIG. 5 is displayed and the user performs a pinch-out operation with respect to the rear of the
図10に示すように、一部拡大画像CPaは、車両9の周囲全体の全体領域を示している。これとともに、図10と図5とを比較してわかるように、一部拡大画像CPaは、対象領域TRに含まれる被写体を拡大して示している。一方で、一部拡大画像CPaは、対象領域TRに含まれない被写体のサイズを維持し、対象領域TRに含まれない被写体を拡大も縮小もせずに示している。このため、このような一部拡大画像CPaを視認するユーザは、対象領域TRに含まれる物体を詳細に確認しつつ、車両9の周囲全体の全体領域にも注意を向けることができる。すなわち、ユーザは、対象領域TRに含まれない物体にも同時に注意を向けることができることになる。
As shown in FIG. 10, the partially enlarged image CPa shows the entire area around the
また、一部拡大画像CPaは、対象領域TRに含まれる被写体の全てを一律に拡大して示すわけではない。一部拡大画像CPaは、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示している。このため、一部拡大画像CPaに含まれる被写体と、一部拡大画像CPaに含まれない被写体との連続性が保持される。その結果、対象領域TRに含まれる被写体を拡大したとしても、その拡大した被写体の周囲のデータを欠落させること無く一部拡大画像CPaに含ませることができる。 Further, the partially enlarged image CPa does not necessarily show all the subjects included in the target region TR in an enlarged manner. The partially enlarged image CPa shows the subject near the center of the target region TR in a greatly enlarged manner, while compressing the subject near the periphery of the target region TR. Therefore, continuity between the subject included in the partially enlarged image CPa and the subject not included in the partially enlarged image CPa is maintained. As a result, even if the subject included in the target region TR is enlarged, the data around the enlarged subject can be included in the partially enlarged image CPa without being lost.
また、表示装置3にこのような一部拡大画像CPaが表示されている場合にも、ユーザが表示装置3の画面に対してフリック操作を行ったときには、仮想視点VPの位置が変更される。仮想視点VPの位置が変更された場合でも、一部拡大画像CPaが表示装置3に表示される。
Even when such a partially enlarged image CPa is displayed on the
例えば、図10に示す一部拡大画像CPaが表示されている場合に、ユーザが車両9の前方へ向けてフリック操作を行った場合には、表示制御部20aは、仮想視点VPの位置を車両9の後方へ移動する。これにより、図11に示すように、車両9の後方からみた車両9の周囲全体の全体領域を示す一部拡大画像CPaが生成され、表示装置3に表示される。
For example, when a partially enlarged image CPa shown in FIG. 10 is displayed and the user performs a flick operation toward the front of the
また、図11に示す一部拡大画像CPaが表示されている場合に、ユーザが車両9の左方へ向けてフリック操作を行ったときには、表示制御部20aは、仮想視点VPの位置を車両9の右方へ移動する。これにより、図12に示すように、車両9の右方からみた車両9の周囲全体の全体領域を示す一部拡大画像CPaが生成され、表示装置3に表示される。
When the partially enlarged image CPa shown in FIG. 11 is displayed and the user performs a flick operation toward the left side of the
図11及び図12に示すように、仮想視点VPの位置が変更された場合においても、車両9の後方に設定された対象領域TRに含まれる被写体を拡大して示す一部拡大画像CPaが表示されることになる。ユーザのフリック操作に応答して仮想視点VPの位置が変更されるため、ユーザは所望の位置から対象領域TRに含まれる物体を詳細に確認することができる。
As shown in FIGS. 11 and 12, even when the position of the virtual viewpoint VP is changed, a partially enlarged image CPa showing an enlarged subject included in the target region TR set behind the
<1−4.処理の流れ>
次に、画像表示システム10の処理の流れについて説明する。図13は、合成画像CPを表示する場合の画像表示システム10の処理の流れを示す図である。合成画像CPを表示する場合には、図13に示す処理が、所定の周期(例えば、1/30秒周期)で繰り返される。
<1-4. Process flow>
Next, a processing flow of the
まず、車両9に設けられた4つのカメラ5のそれぞれが車両9の周辺を撮影する。そして、画像取得部21が、4つのカメラ5でそれぞれ得られた4つの撮影画像を取得する(ステップS11)。
First, each of the four
次に、画像生成部22が、取得された4つの撮影画像のデータを仮想的な三次元空間の仮想面TSに貼付する(ステップS12)。画像生成部22は、記憶部27に記憶された対応テーブル27bに従って、仮想面TSを構成する多数の区画のそれぞれに4つの撮影画像のデータを貼付する。
Next, the
次に、表示制御部20aが、記憶部27に拡大パラメータ27cが記憶されているか否かを判定する(ステップS13)。
Next, the
記憶部27に拡大パラメータ27cが記憶されている場合は(ステップS13にてYes)、拡大の対象となる対象領域TRが設定されている場合である。このため、この場合は一部拡大画像CPaを生成するために、画像生成部22が、仮想面TSにおける対象領域TRに相当する部分の座標を変更する(ステップS14)。これにより、仮想面TSの対象領域TRに相当する部分に貼付されたデータ(すなわち、対象領域TRに含まれる被写体の像)が拡大される。このように仮想面TSの座標を変更する手法については後述する。
When the
一方、記憶部27に拡大パラメータ27cが記憶されていない場合は(ステップS13にてNo)、このような仮想面TSの座標の変更は行われない。
On the other hand, when the
次に、画像生成部22が、三次元空間に対して仮想視点VPを設定し、仮想視点VPに基づいて仮想面TSに貼付されたデータを、合成画像CPとして切り出す(ステップS15)。画像生成部22は、ステップS14において仮想面TSの座標を変更していた場合は、このように合成画像CPを切り出すことで、対象領域TRに含まれる被写体を拡大して示す一部拡大画像CPaを生成する。
Next, the
次に、画像出力部24が、画像生成部22に生成された合成画像CPを表示装置3に出力する(ステップS16)。これにより、合成画像CPが表示装置3に表示される。一部拡大画像CPaが生成された場合は、その一部拡大画像CPaが表示装置3に表示されることになる。
Next, the
<1−5.仮想面の座標の変更>
次に、一部拡大画像CPaを生成するために、画像生成部22が、仮想面TSにおける対象領域TRに相当する部分の座標を変更する手法について説明する。
<1-5. Changing virtual plane coordinates>
Next, a method will be described in which the
前述のように、仮想面TSは多数の区画で構成される。この区画の各頂点の位置は、仮想的な三次元空間に設定される三次元の直交座標系(XYZ)の座標で表される。図3に示すように、X軸方向及びY軸方向は、車両9の接地面に沿った水平方向に設定される。また、Z軸方向は、車両9の接地面に直交する鉛直方向に設定される。画像生成部22は、このような仮想面TSの頂点の座標を変更する。
As described above, the virtual surface TS is composed of a number of sections. The position of each vertex of this section is represented by the coordinates of a three-dimensional orthogonal coordinate system (XYZ) set in a virtual three-dimensional space. As shown in FIG. 3, the X-axis direction and the Y-axis direction are set in the horizontal direction along the ground plane of the
図14から図19は、仮想面TSの頂点の座標を変更する手法を説明する図である。図14から図19は、水平方向からみた仮想面TSの断面を示している。 14 to 19 are diagrams for explaining a method of changing the coordinates of the vertex of the virtual surface TS. 14 to 19 show a cross section of the virtual surface TS viewed from the horizontal direction.
図14に示す仮想面TSに沿って配置された点Pはそれぞれ、頂点の変更前の座標を表している。仮想面TSの頂点のうち、対象領域TRに相当する部分(以下、「変更対象部分」という。)に含まれる頂点の座標が変更される。 Each point P arranged along the virtual surface TS shown in FIG. 14 represents the coordinates before the change of the vertex. Among the vertices of the virtual surface TS, the coordinates of the vertices included in the portion corresponding to the target region TR (hereinafter referred to as “change target portion”) are changed.
図15に示すように、拡大パラメータ27cに基づき、仮想面TSのうち点Paから点Pbまでの部分が変更対象部分に指定され、拡大率としてrが指定された場合を想定する。
As shown in FIG. 15, it is assumed that a part from the point Pa to the point Pb in the virtual surface TS is designated as the change target part and r is designated as the enlargement ratio based on the
まず、変更対象部分の中央となる基準点O(Xo,Yo,Zo)が求められる。基準点Oは、点Pa及び点Pbの中央点Pcと仮想視点VPの位置とを結ぶ直線Lsが、仮想面TSと交差する点として求められる。 First, a reference point O (Xo, Yo, Zo) that is the center of the change target portion is obtained. The reference point O is obtained as a point where a straight line Ls connecting the center point Pc of the points Pa and Pb and the position of the virtual viewpoint VP intersects the virtual surface TS.
以下、仮想視点VPの位置と基準点Oと結ぶ直線Lsを「視直線」といい、点Pa,Pbを変更対象部分の「端点」という。また、視直線Lsから端点Pa,Pbまでの距離は変更対象部分の半径に相当し、以下、この変更対象部分の半径をdとする。なお、本説明では、説明を簡単にするため、基準点O及び端点Pa,Pbが頂点の座標を表す点Pと重なっているが、これらは点Pと重なるとは限らない。 Hereinafter, the straight line Ls connecting the position of the virtual viewpoint VP and the reference point O is referred to as “visual line”, and the points Pa and Pb are referred to as “end points” of the change target portion. The distance from the line of sight Ls to the end points Pa and Pb corresponds to the radius of the change target portion, and hereinafter, the radius of the change target portion is assumed to be d. In this description, for the sake of simplicity, the reference point O and the end points Pa and Pb overlap with the point P representing the coordinates of the vertex, but these do not necessarily overlap with the point P.
次に、図16に示すように、変更対象部分に含まれる点Pが、視直線Lsの直交方向に移動され、点P’とされる。 Next, as shown in FIG. 16, the point P included in the change target portion is moved in the direction orthogonal to the visual line Ls to be a point P ′.
図17は、一の点Pに注目し、点Pを点P’に移動する手法を説明する図である。図17は、図16において符号Aで示す範囲を拡大して示している。 FIG. 17 is a diagram for explaining a method of paying attention to one point P and moving the point P to the point P ′. FIG. 17 shows an enlarged view of the range indicated by the symbol A in FIG.
まず、基準点Oから仮想視点VPの位置に向かう視直線Lsに沿った単位ベクトルをベクトルuとし、ベクトルuを次の数1で表現する。 First, a unit vector along the visual line Ls from the reference point O to the position of the virtual viewpoint VP is defined as a vector u, and the vector u is expressed by the following equation (1).
このようにして点Pが点P’に移動されると、さらに図18に示すように、点P’が仮想面TS上の点P”に移動される。点P”は、点P’を通り視直線Lsに沿った直線と、仮想面TSとの交点とされる。その結果、図19に示すように、仮想面TSには、変更対象部分に含まれる点Pが移動された点P”と、変更対象部分に含まれない点Pとが存在する状態となる。点P”は、変更対象部分に含まれる頂点の変更後の座標を表している。 When the point P is moved to the point P ′ in this way, as shown in FIG. 18, the point P ′ is further moved to the point P ″ on the virtual surface TS. The point P ″ It is an intersection of a straight line along the viewing straight line Ls and the virtual plane TS. As a result, as shown in FIG. 19, the virtual surface TS is in a state where a point P ″ where the point P included in the change target portion is moved and a point P which is not included in the change target portion exists. Point P ″ represents the coordinates after the change of the vertex included in the change target portion.
このように点Pを点P”に移動することで、変更対象部分に含まれる頂点の座標が変更される。このような仮想面TSの頂点の座標の変更により、仮想面TSに貼付されたデータ(被写体の像)のサイズも変更される。前述のように、視直線Lsまでの距離Rが小さい点Pほど移動量が大きいことから、変更対象部分の中央近傍の被写体の像は大きく拡大される。一方、視直線Lsまでの距離Rが大きい点Pは移動量が小さいことから、変更対象部分の周縁近傍の被写体の像は圧縮されることになる。このような処理の結果、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示す一部拡大画像CPaが生成されることになる。 By moving the point P to the point P ″ in this way, the coordinates of the vertices included in the change target portion are changed. By such a change in the coordinates of the vertices of the virtual surface TS, the points attached to the virtual surface TS The size of the data (subject image) is also changed, as described above, since the amount of movement is larger at the point P where the distance R to the visual line Ls is smaller, the subject image near the center of the change target portion is greatly enlarged. On the other hand, since the movement amount is small at the point P where the distance R to the visual line Ls is large, the image of the subject near the periphery of the change target portion is compressed. While the subject near the center of the region TR is shown greatly enlarged, a partially enlarged image CPa showing the subject near the periphery of the target region TR is generated.
以上のように本実施の形態の画像表示システム10では、画像取得部21が車両9の周辺を撮影する複数のカメラ5で得られた複数の撮影画像を取得し、画像生成部22が複数の撮影画像を用いて仮想視点VPからみた車両9の周辺を示す合成画像CPを生成する。そして、画像生成部22は、車両9の周囲全体の全体領域を示しつつ、該全体領域の一部の対象領域TRに含まれる被写体を拡大し、対象領域TRに含まれない被写体を拡大せずに示す一つの合成画像CPである一部拡大画像CPaを生成する。したがって、この一部拡大画像CPaを視認するユーザは、対象領域TRに含まれる物体を詳細に確認しつつ、対象領域TRに含まれない物体にも同時に注意を向けることができる。
As described above, in the
また、画像生成部22は、車両9の周辺に相当する仮想面TSに複数の撮影画像のデータを貼付し、仮想面TSに貼付されたデータを用いて合成画像CPを生成する。そして、画像生成部22は、仮想面TSにおける対象領域TRに相当する変更対象部分の座標を変更することで一部拡大画像CPaを生成する。このため、仮想面TSの一部の座標を変更するという簡便な手法で一部拡大画像CPaを生成できる。また、仮想視点VPの位置を変更した場合においても、変更後の仮想視点VPからみた一部拡大画像CPaを生成できる。
In addition, the
また、画像生成部22は、仮想視点VPの位置を考慮し、仮想面TSの頂点の座標を視直線Lsの直交方向に向けて変更する。このため、仮想視点VPの位置がいずれにあったとしても、その仮想視点VPから視認できる方向に対象領域TRに含まれる被写体の像を拡大することができる。
Further, the
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像表示システム10の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment will be described. Since the configuration and operation of the
第2の実施の形態の画像表示システム10は、画像生成部22が、仮想面TSの頂点の座標を変更する手法のみが第1の実施の形態と相違している。第1の実施の形態では、仮想面TSの頂点の座標を変更する際に仮想視点VPの位置を考慮していた。これに対して、第2の実施の形態では、仮想面TSの頂点の座標を変更する際に仮想視点VPの位置を考慮しないことで演算量を低減している。
The
本実施の形態においても、仮想面TSの頂点の変更前の座標は、図14に示す点Pのように仮想面TSに沿って配置される。図20から図23は、本実施の形態における、仮想面TSの頂点の座標を変更する手法を説明する図である。図20から図23は、水平方向からみた仮想面TSの断面を示している。 Also in the present embodiment, the coordinates before the change of the vertex of the virtual surface TS are arranged along the virtual surface TS as shown by a point P shown in FIG. 20 to 23 are diagrams for explaining a method of changing the coordinates of the vertex of the virtual surface TS in the present embodiment. 20 to 23 show a cross section of the virtual surface TS viewed from the horizontal direction.
図20に示すように、拡大パラメータ27cに基づき、仮想面TSのうち端点Paから端点Pbまでの部分が変更対象部分に指定され、拡大率としてrが指定された場合を想定する。
As shown in FIG. 20, it is assumed that a part from the end point Pa to the end point Pb in the virtual surface TS is designated as the change target part based on the
本実施の形態においても、まず、基準点O(Xo,Yo,Zo)が求められる。この場合、仮想視点VPの位置(視直線Ls)は考慮されず、水平方向の座標のみが考慮される。すなわち、X座標及びY座標のみが考慮されて、端点Paと端点Pbとの中央点が導出される。そして、この中央点のX座標及びY座標を有する仮想面TS上の点が、基準点Oとされる。本実施の形態では、この基準点Oからの端点Pa,Pbまでの水平方向の距離が、変更対象部分の半径dとなっている。 Also in the present embodiment, first, the reference point O (Xo, Yo, Zo) is obtained. In this case, the position of the virtual viewpoint VP (the line of sight Ls) is not considered, and only the horizontal coordinate is considered. That is, only the X coordinate and the Y coordinate are considered, and the center point between the end point Pa and the end point Pb is derived. A point on the virtual plane TS having the X and Y coordinates of the central point is set as a reference point O. In the present embodiment, the horizontal distance from the reference point O to the end points Pa and Pb is the radius d of the portion to be changed.
次に、図21に示すように、変更対象部分に含まれる点Pが、基準点Oから点Pまでの直線を延長した方向に移動され、点P’とされる。点Pから点P’までの移動量は、点Pから基準点Oまでの水平方向の距離が考慮される。 Next, as shown in FIG. 21, the point P included in the part to be changed is moved in the direction extending the straight line from the reference point O to the point P to be a point P ′. The amount of movement from the point P to the point P ′ takes into account the horizontal distance from the point P to the reference point O.
点Pから基準点Oまでの水平方向の距離をRとすると、この距離Rは、点Pの水平方向の座標(x,y)と基準点Oの水平方向の座標(Xo,Yo)とを用いて、次の数9で求められる。 Assuming that the horizontal distance from the point P to the reference point O is R, the distance R is the horizontal coordinate (x, y) of the point P and the horizontal coordinate (Xo, Yo) of the reference point O. And obtained by the following equation (9).
また、点Pの移動先となる点P’から基準点Oまでの水平方向の距離をR’とすると、この距離R’は、上述した数6により求められる。そして、点Pの移動先となる点P’の座標(x’,y’,z’)は、基準点Oの座標(Xo,Yo,Zo)、距離R、及び、距離R’を用いて、次の数10で求められる。
Further, assuming that the horizontal distance from the point P ′ to which the point P is moved to the reference point O is R ′, the distance R ′ can be obtained by the above-described equation (6). Then, the coordinates (x ′, y ′, z ′) of the point P ′, which is the destination of the point P, are obtained using the coordinates (Xo, Yo, Zo), the distance R, and the distance R ′ of the reference point O. The following
このようにして点Pが点P’に移動されると、さらに図22に示すように、点P’が仮想面TS上の点P”に移動される。点P”は、点P’から水平または垂直方向に伸ばした直線が最短で仮想面TSと交わる点とされる。その結果、図23に示すように、仮想面TSには、変更対象部分に含まれる点Pが移動された点P”と、変更対象部分に含まれない点Pとが存在する状態となる。点P”は、変更対象部分に含まれる頂点の変更後の座標を表している。 When the point P is moved to the point P ′ in this way, the point P ′ is further moved to the point P ″ on the virtual surface TS as shown in FIG. 22. The point P ″ is changed from the point P ′. A straight line extending in the horizontal or vertical direction intersects the virtual plane TS at the shortest. As a result, as shown in FIG. 23, the virtual surface TS is in a state where the point P ″ where the point P included in the change target portion is moved and the point P which is not included in the change target portion exists. Point P ″ represents the coordinates after the change of the vertex included in the change target portion.
このように点Pを点P”に移動することで、変更対象部分に含まれる頂点の座標が変更される。このような仮想面TSの頂点の座標の変更により、仮想面TSに貼付されたデータ(被写体の像)のサイズも変更される。これにより、本実施の形態においても、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示す一部拡大画像CPaが生成されることになる。 By moving the point P to the point P ″ in this way, the coordinates of the vertices included in the change target portion are changed. By such a change in the coordinates of the vertices of the virtual surface TS, the points attached to the virtual surface TS are pasted. The size of the data (subject image) is also changed, so that, in the present embodiment, the subject near the center of the target region TR is greatly enlarged, while the subject near the periphery of the target region TR is compressed. Thus, a partially enlarged image CPa shown in FIG.
本実施の形態では、仮想視点VPの位置を考慮せず、拡大増加率Wを導出するための距離Rとして水平方向のみの距離を考慮する。このため、一部拡大画像CPaを生成するための演算量を低減できる。 In the present embodiment, the distance only in the horizontal direction is considered as the distance R for deriving the enlargement increase rate W without considering the position of the virtual viewpoint VP. For this reason, it is possible to reduce the amount of calculation for generating the partially enlarged image CPa.
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態の画像表示システム10の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment will be described. Since the configuration and operation of the
第3の実施の形態の画像表示システム10は、画像生成部22が、仮想面TSの頂点の座標を変更する手法のみが第1の実施の形態と相違している。第1の実施の形態では、頂点の座標を三次元の座標系の全方向に変更していた。これに対して、第3の実施の形態では、頂点の座標を水平方向にのみ変更することで演算量を低減している。
The
本実施の形態においても、仮想面TSの頂点の変更前の座標は、図14に示す点Pのように仮想面TSに沿って配置される。図24及び図25は、本実施の形態における、仮想面TSの頂点の座標を変更する手法を説明する図である。図24及び図25は、水平方向からみた仮想面TSの断面を示している。 Also in the present embodiment, the coordinates before the change of the vertex of the virtual surface TS are arranged along the virtual surface TS as shown by a point P shown in FIG. 24 and 25 are diagrams for explaining a method of changing the coordinates of the vertex of the virtual surface TS in the present embodiment. 24 and 25 show a cross section of the virtual surface TS viewed from the horizontal direction.
図24に示すように、拡大パラメータ27cに基づき、仮想面TSのうち端点Paから端点Pbまでの部分が変更対象部分に指定され、拡大率としてrが指定された場合を想定する。
As shown in FIG. 24, it is assumed that a part from the end point Pa to the end point Pb in the virtual surface TS is designated as the change target part based on the
本実施の形態においても、まず、基準点O(Xo,Yo)が求められる。この場合、水平方向の座標、すなわち、X座標及びY座標のみが考慮されて、端点Paと端点Pbとの中央点が導出される。そして、この中央点のX座標及びY座標を有する仮想面TS上の点が、基準点Oとされる。本実施の形態では、この基準点Oからの端点Pa,Pbまでの水平方向の距離が、変更対象部分の半径dとなっている。 Also in the present embodiment, first, the reference point O (Xo, Yo) is obtained. In this case, only the horizontal coordinate, that is, the X coordinate and the Y coordinate are considered, and the center point of the end point Pa and the end point Pb is derived. A point on the virtual plane TS having the X and Y coordinates of the central point is set as a reference point O. In the present embodiment, the horizontal distance from the reference point O to the end points Pa and Pb is the radius d of the portion to be changed.
次に、図24に示すように、変更対象部分に含まれる点Pが、水平方向に移動され、点P’とされる。本実施の形態では、水平方向の座標(X座標及びY座標)の変更のみにより点Pを点P’に移動するため、Z座標については演算対象から除外される。点Pから点P’までの移動量は、点Pから基準点Oまでの水平方向の距離が考慮される。 Next, as shown in FIG. 24, the point P included in the change target portion is moved in the horizontal direction to be a point P ′. In the present embodiment, since the point P is moved to the point P ′ only by changing the horizontal coordinate (X coordinate and Y coordinate), the Z coordinate is excluded from the calculation target. The amount of movement from the point P to the point P ′ takes into account the horizontal distance from the point P to the reference point O.
点Pから基準点Oまでの水平方向の距離をRとすると、この距離Rは、点Pの水平方向の座標(x,y)と基準点Oの水平方向の座標(Xo,Yo)とを用いて、上述した数9で求められる。
Assuming that the horizontal distance from the point P to the reference point O is R, the distance R is the horizontal coordinate (x, y) of the point P and the horizontal coordinate (Xo, Yo) of the reference point O. And is obtained by the above-mentioned
点Pに関する拡大増加率Wは、この距離Rと、変更対象部分の半径dと、拡大率rとを用いて、上述した数5により求められる。したがって、本実施の形態でも、拡大増加率Wは、距離Rが小さいほど大きな値となる。ただし、距離Rが0の場合(点Pが基準点Oの場合)は、拡大増加率Wは0とされる。
The enlargement increase rate W with respect to the point P is obtained by the above-described
また、点Pの移動先となる点P’から基準点Oまでの水平方向の距離をR’とすると、この距離R’は、上述した数6により求められる。そして、点Pの移動先となる点P’の座標(x’,y’)は、基準点Oの座標(Xo,Yo)、距離R、及び、距離R’を用いて、次の数11で求められる。 Further, assuming that the horizontal distance from the point P ′ to which the point P is moved to the reference point O is R ′, the distance R ′ can be obtained by the above-described equation (6). Then, the coordinates (x ′, y ′) of the point P ′ to which the point P is moved are expressed by the following equation 11 using the coordinates (Xo, Yo) of the reference point O, the distance R, and the distance R ′. Is required.
このように点Pを点P’に移動することで、変更対象部分に含まれる頂点の座標が変更される。本実施の形態では、仮想面TSの頂点の座標の変更に伴って、仮想面TSの形状も変更される。このような仮想面TSの頂点の座標の変更により、仮想面TSに貼付されたデータ(被写体の像)のサイズも変更される。これにより、本実施の形態においても、対象領域TRの中心近傍の被写体を大きく拡大して示す一方で、対象領域TRの周縁近傍の被写体を圧縮して示す一部拡大画像CPaが生成されることになる。 Thus, by moving the point P to the point P ′, the coordinates of the vertices included in the change target portion are changed. In the present embodiment, the shape of the virtual surface TS is also changed with the change of the coordinates of the vertex of the virtual surface TS. By changing the coordinates of the vertex of the virtual surface TS, the size of the data (subject image) attached to the virtual surface TS is also changed. As a result, also in the present embodiment, a partially enlarged image CPa is generated in which the subject near the center of the target region TR is greatly enlarged and the subject near the periphery of the target region TR is compressed. become.
本実施の形態では、仮想面TSの頂点の座標を車両9の接地面に沿った水平方向にのみ変更するため、一部拡大画像CPaを生成するための演算量を大幅に低減できる。
In the present embodiment, since the coordinates of the vertex of the virtual surface TS are changed only in the horizontal direction along the ground plane of the
<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態の画像表示システム10の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。第1の実施の形態のパラメータ設定部20bは、ユーザの操作に応じて対象領域TRを設定していた。これに対して、第4の実施の形態のパラメータ設定部20bは、車両9の周辺に存在する物体を検出する機能を有しており、物体の検出結果に応じて対象領域TRを設定する。
<4. Fourth Embodiment>
Next, a fourth embodiment will be described. Since the configuration and operation of the
図26は、第4の実施の形態の画像表示システム10の構成を示す図である。第4の実施の形態の画像表示システム10は、図1に示す第1の実施の形態の構成に加えて物体検出装置7をさらに備えている。物体検出装置7は、車両9の周辺に存在する物体を検出する。物体検出装置7が物体を検出した結果を示す結果信号は、画像生成装置2に入力される。画像生成装置2の信号受信部26は、この結果信号を受信して制御部20に入力する。
FIG. 26 is a diagram illustrating a configuration of the
図27は、物体検出装置7の構成を主に示す図である。図に示すように、物体検出装置7は、装置全体を統括するソナー制御部70と、複数のクリアランスソナー72と、車室内に警告音を発するブザー71とを備えている。
FIG. 27 is a diagram mainly illustrating a configuration of the
クリアランスソナー72は、超音波を発信し、その超音波が物体で反射した反射波を受信することで、車両9の周辺に存在する物体を検出する。また、クリアランスソナー72は、超音波を発信してから戻ってくるまでの時間に基づいて物体の距離を検出可能である。各クリアランスソナー72の検出結果は、ソナー制御部70に入力される。ソナー制御部70は、ブザー71を制御して、物体までの距離に応じた警告音をブザー71から出力させる。これにより、ユーザは車両9の周辺に物体が存在することを把握できる。
The
図28は、複数のクリアランスソナー72が車両9に配置される位置を示す図である。複数のクリアランスソナー72は、車両9の前方の左右端部、及び、車両9の後方の左右端部にそれぞれ設けられている。
FIG. 28 is a diagram illustrating positions where a plurality of
各クリアランスソナー72は、車両9の周辺の一部の周辺領域A11〜A14に向けて超音波を発信する。具体的には、車両9の前方の左端部に設けられるクリアランスソナー72は、車両9の前方左側に設定される周辺領域A11に向けて超音波を発信する。また、車両9の前方の右端部に設けられるクリアランスソナー72は、車両9の前方右側に設定される周辺領域A12に向けて超音波を発信する。また、車両9の後方の左端部に設けられるクリアランスソナー72は、車両9の後方左側に設定される周辺領域A13に向けて超音波を発信する。さらに、車両9の後方の右端部に設けられるクリアランスソナー72は、車両9の後方右側に設定される周辺領域A14に向けて超音波を発信する。
Each
これら4つの周辺領域A11〜A14は、車両9に対して相対的に固定されて予め設定される。このようなクリアランスソナー72の配置により、物体検出装置7は、4つの周辺領域A11〜A14のいずれかに存在する物体を検出できる。物体検出装置7は、物体を検出したクリアランスソナー72の位置に基づいて、検出した物体の位置が4つの周辺領域A11〜A14のいずれであるかを把握できる。さらに、物体検出装置7は、検出した物体の距離を把握できる。
These four peripheral areas A11 to A14 are fixed relatively to the
物体検出装置7の検出結果を示す結果信号は、このような物体の位置及び物体の距離を含む。ソナー制御部70は、この結果信号を画像生成装置2に出力する。これにより、画像生成装置2のパラメータ設定部20bは、物体検出装置7の検出結果を利用することができる。
The result signal indicating the detection result of the
パラメータ設定部20bは、物体検出装置7が物体を検出した場合は、当該物体をユーザが詳細に確認しやすくするために、物体検出装置7が検出した物体の位置が対象領域TRとなるように拡大パラメータ27cを設定する。
When the
例えば、物体検出装置7が、車両9の前方左側の周辺領域A11に存在する物体を検出した場合は、パラメータ設定部20bは、車両9の前方左側の領域を対象領域TRとして設定する。これにより、車両9の前方左側の領域に存在する被写体を拡大して示す一部拡大画像CPaが生成され、表示装置3に表示される。この一部拡大画像CPaを視認するユーザは、車両9の近傍に存在する物体を詳細に確認することができる。
For example, when the
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.
上記実施の形態では、一部拡大画像CPaは、対象領域TRの周縁の内側近傍の被写体を圧縮して示していた。これに対して、一部拡大画像CPaは、対象領域TRの周縁の外側近傍の被写体を圧縮して示すようにしてもよい。このようにしても、一部拡大画像CPaに含まれる被写体と、一部拡大画像CPaに含まれない被写体との連続性が保持される。 In the above embodiment, the partially enlarged image CPa shows the subject in the vicinity of the inside of the periphery of the target region TR in a compressed manner. On the other hand, the partially enlarged image CPa may be shown by compressing a subject near the outside of the periphery of the target region TR. Even in this case, continuity between the subject included in the partially enlarged image CPa and the subject not included in the partially enlarged image CPa is maintained.
また、上記実施の形態では、画像生成部22は、仮想面TSの一部の座標を変更することで一部拡大画像CPaを生成していた。これに対して、4つの撮影画像SF,SB,SL,SRのうちの一部の撮影画像を拡大してから、これらの撮影画像のデータを仮想面TSに貼付することで、一部拡大画像を生成してもよい。例えば、リアカメラ5Bの撮影画像SBのみに関して被写体の像を拡大した後に、4つの撮影画像SF,SB,SL,SRのデータを仮想面TSに貼付すれば、車両9の後方に存在する被写体のみを拡大して示す一部拡大画像を生成できる。
In the above embodiment, the
また、上記実施の形態では、ピンチアウト操作に応答して拡大パラメータ27cが設定されていたが、対象領域TR及び拡大率rなどを指定可能な設定画面を利用して拡大パラメータ27cが設定されるようにしてもよい。
In the above embodiment, the
また、上記第1及び第2の実施の形態では、仮想面TSの頂点の座標を変更する場合に、点Pを点P’に移動し、さらに点P’を仮想面TS上の点P”に移動していた。これに対して、点Pを点P’に移動するのみであってもよい。この場合は、仮想面TSの頂点の座標の変更に伴って、仮想面TSの形状も若干変更される。 In the first and second embodiments, when the coordinates of the vertex of the virtual surface TS are changed, the point P is moved to the point P ′, and the point P ′ is further moved to the point P ″ on the virtual surface TS. On the other hand, the point P may only be moved to the point P′.In this case, the shape of the virtual surface TS also changes as the coordinates of the vertex of the virtual surface TS change. Slightly changed.
また、上記第4の実施の形態の画像表示システム10は、クリアランスソナー72を用いて車両9の周辺に存在する物体を検出していた。これに対して、例えば、レーダー装置による物体検出や、撮影画像に基づく物体認識などの他の手法によって、車両9の周辺に存在する物体を検出してもよい。
Further, the
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。 In addition, the function described as one block in the above embodiment is not necessarily realized by a single physical element, and may be realized by distributed physical elements. Further, the functions described as a plurality of blocks in the above embodiments may be realized by a single physical element. In addition, even if the device in the vehicle and the device outside the vehicle share processing related to any one function and exchange information by communication between these devices, the one function can be realized as a whole. Good.
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。 In addition, it has been described that all or part of the functions described as being realized by software by executing the program in the above embodiment may be realized by an electrical hardware circuit or by a hardware circuit. All or part of the functions may be realized by software. Further, the function described as one block in the above-described embodiment may be realized by cooperation of software and hardware.
2 画像生成装置
3 表示装置
7 物体検出装置
10 画像表示システム
20b パラメータ設定部
22 画像生成部
31 タッチパネル
90 車両像
CP 合成画像
CPa 一部拡大画像
2
Claims (10)
前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する取得手段と、
前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する生成手段と、
を備え、
前記生成手段は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成することを特徴とする画像生成装置。 An image generation device used in a vehicle,
Obtaining means for obtaining a plurality of photographed images obtained by a plurality of cameras for photographing the periphery of the vehicle;
Generating means for generating a composite image showing the periphery of the vehicle viewed from a virtual viewpoint using the plurality of captured images;
With
The generating means enlarges a subject included in a part of a target area of the whole area while showing an entire area around the vehicle, and shows the subject not included in the target area without expanding. An image generating apparatus that generates a partially enlarged image that is a composite image.
前記生成手段は、
前記車両の周辺に相当する仮想面に前記複数の撮影画像のデータを貼付し、前記仮想面に貼付された前記データを用いて前記合成画像を生成し、
前記仮想面における前記対象領域に相当する部分の座標を変更することで前記一部拡大画像を生成することを特徴とする画像生成装置。 The image generation apparatus according to claim 1,
The generating means includes
Affixing the data of the plurality of captured images to a virtual surface corresponding to the periphery of the vehicle, and generating the composite image using the data affixed to the virtual surface;
An image generating apparatus, wherein the partial enlarged image is generated by changing coordinates of a portion corresponding to the target area on the virtual plane.
前記仮想面は、仮想的な三次元空間に設定される曲面であることを特徴とする画像生成装置。 The image generation apparatus according to claim 2,
The image generation apparatus, wherein the virtual surface is a curved surface set in a virtual three-dimensional space.
前記生成手段は、前記座標を前記車両の接地面に沿った方向にのみ変更することを特徴とする画像生成装置。 The image generation apparatus according to claim 3.
The image generation apparatus according to claim 1, wherein the generation unit changes the coordinates only in a direction along a ground contact surface of the vehicle.
前記生成手段は、前記三次元空間の任意の位置に前記仮想視点を設定可能であることを特徴とする画像生成装置。 In the image generation device according to claim 3 or 4,
The image generation apparatus characterized in that the generation means can set the virtual viewpoint at an arbitrary position in the three-dimensional space.
前記一部拡大画像は、前記対象領域の周縁近傍の被写体を圧縮して示すことを特徴とする画像生成装置。 In the image generation device according to any one of claims 1 to 5,
The partially enlarged image is an image generating apparatus characterized by compressing and showing a subject near the periphery of the target area.
ユーザの操作に応じて前記対象領域を設定する設定手段、
をさらに備えることを特徴とする画像生成装置。 The image generation device according to any one of claims 1 to 6,
Setting means for setting the target area according to a user operation;
An image generation apparatus further comprising:
前記車両の近傍に存在する物体の位置を検出する検出手段の検出結果に応じて、前記対象領域を設定する設定手段、
をさらに備えることを特徴とする画像生成装置。 The image generation device according to any one of claims 1 to 6,
Setting means for setting the target area according to a detection result of a detection means for detecting a position of an object existing in the vicinity of the vehicle;
An image generation apparatus further comprising:
請求項1ないし8のいずれかに記載の画像生成装置と、
前記画像生成装置で生成された前記一部拡大画像を表示する表示装置と、
を備えることを特徴とする画像表示システム。 An image display system used in a vehicle,
An image generation apparatus according to any one of claims 1 to 8,
A display device for displaying the partially enlarged image generated by the image generation device;
An image display system comprising:
(a)前記車両の周辺を撮影する複数のカメラで得られた複数の撮影画像を取得する工程と、
(b)前記複数の撮影画像を用いて、仮想視点からみた前記車両の周辺を示す合成画像を生成する工程と、
を備え、
前記工程(b)は、前記車両の周囲全体の全体領域を示しつつ該全体領域の一部の対象領域に含まれる被写体を拡大し、前記対象領域に含まれない被写体を拡大せずに示す一つの前記合成画像である一部拡大画像を生成することを特徴とする画像生成方法。 An image generation method used in a vehicle,
(A) acquiring a plurality of captured images obtained by a plurality of cameras that capture the periphery of the vehicle;
(B) using the plurality of captured images, generating a composite image showing the periphery of the vehicle viewed from a virtual viewpoint;
With
The step (b) shows an entire area around the vehicle while enlarging a subject included in a part of the target area, and showing an object not included in the target area without expanding. An image generation method characterized by generating a partially enlarged image that is one of the composite images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014059317A JP2015184839A (en) | 2014-03-21 | 2014-03-21 | Image generation device, image display system, and image generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014059317A JP2015184839A (en) | 2014-03-21 | 2014-03-21 | Image generation device, image display system, and image generation method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018073540A Division JP6625157B2 (en) | 2018-04-06 | 2018-04-06 | Image generation apparatus, image display system, and image generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015184839A true JP2015184839A (en) | 2015-10-22 |
Family
ID=54351315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014059317A Pending JP2015184839A (en) | 2014-03-21 | 2014-03-21 | Image generation device, image display system, and image generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015184839A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017094626A1 (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
JP2017102606A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
JP2017102605A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
JP2017101420A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Peripheral monitoring system for work machine |
JP2017101419A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
JP2017143340A (en) * | 2016-02-08 | 2017-08-17 | 株式会社デンソー | Information processing apparatus and program |
JP2018061113A (en) * | 2016-10-04 | 2018-04-12 | アイシン精機株式会社 | Periphery monitoring device |
WO2018084146A1 (en) * | 2016-11-01 | 2018-05-11 | 住友建機株式会社 | Surrounding monitoring system for work machine |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232310A (en) * | 2008-03-25 | 2009-10-08 | Fujitsu Ltd | Image processor for vehicle, image processing method for vehicle, image processing program for vehicle |
-
2014
- 2014-03-21 JP JP2014059317A patent/JP2015184839A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232310A (en) * | 2008-03-25 | 2009-10-08 | Fujitsu Ltd | Image processor for vehicle, image processing method for vehicle, image processing program for vehicle |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102606A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
JP2017102605A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
JP2017101420A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Peripheral monitoring system for work machine |
JP2017101419A (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
US11697920B2 (en) | 2015-11-30 | 2023-07-11 | Sumitomo Heavy Industries, Ltd. | Surroundings monitoring system for work machine |
WO2017094626A1 (en) * | 2015-11-30 | 2017-06-08 | 住友重機械工業株式会社 | Periphery monitoring system for work machine |
CN108605116A (en) * | 2016-02-08 | 2018-09-28 | 株式会社电装 | Display processing unit and display processing method |
JP2017143340A (en) * | 2016-02-08 | 2017-08-17 | 株式会社デンソー | Information processing apparatus and program |
WO2017138473A1 (en) * | 2016-02-08 | 2017-08-17 | 株式会社デンソー | Display processing device and display processing method |
US10623610B2 (en) | 2016-02-08 | 2020-04-14 | Denso Corporation | Display processing device and display processing method |
WO2018066282A1 (en) * | 2016-10-04 | 2018-04-12 | アイシン精機株式会社 | Periphery monitoring device |
US11302076B2 (en) | 2016-10-04 | 2022-04-12 | Aisin Corporation | Periphery monitoring apparatus |
JP2018061113A (en) * | 2016-10-04 | 2018-04-12 | アイシン精機株式会社 | Periphery monitoring device |
CN109314769A (en) * | 2016-11-01 | 2019-02-05 | 住友建机株式会社 | Construction machinery surroundings monitoring system |
JPWO2018084146A1 (en) * | 2016-11-01 | 2019-09-19 | 住友建機株式会社 | Perimeter monitoring system for work machines |
WO2018084146A1 (en) * | 2016-11-01 | 2018-05-11 | 住友建機株式会社 | Surrounding monitoring system for work machine |
US11047113B2 (en) | 2016-11-01 | 2021-06-29 | Sumitomo(S.H.I.) Construction Machinery Co., Ltd. | Surroundings monitoring system for work machine |
CN109314769B (en) * | 2016-11-01 | 2022-06-07 | 住友建机株式会社 | Periphery monitoring system for construction machine |
JP7171436B2 (en) | 2016-11-01 | 2022-11-15 | 住友建機株式会社 | Perimeter monitoring system for work machine, display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015184839A (en) | Image generation device, image display system, and image generation method | |
US9479740B2 (en) | Image generating apparatus | |
JP5911775B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP6311020B2 (en) | Image composition system, image composition apparatus and image composition method therefor | |
JP6548900B2 (en) | Image generation apparatus, image generation method and program | |
EP3136204B1 (en) | Image processing device and image processing method | |
CN107465890B (en) | Image processing device for vehicle | |
JP6310652B2 (en) | Video display system, video composition device, and video composition method | |
JP6287237B2 (en) | Information processing apparatus, information processing method, and program | |
WO2014199574A1 (en) | Vehicle-mounted display device and program product | |
JP2009118415A (en) | Method and apparatus for generating bird's-eye view image | |
JP6084097B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP2011151666A (en) | Device, system and method for acquiring parameter, and program | |
US10609337B2 (en) | Image processing apparatus | |
US9162621B2 (en) | Parking support apparatus | |
JP2019156298A (en) | Vehicle remote control device and vehicle remote control method | |
CN111918020B (en) | Image processing apparatus, image processing method, and computer readable medium | |
JPWO2019216087A1 (en) | Image processors, mobile devices, and methods, and programs | |
JP5977130B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP6258000B2 (en) | Image display system, image display method, and program | |
US10475154B2 (en) | Machine surround view system and method for generating 3-dimensional composite surround view using same | |
JP6625157B2 (en) | Image generation apparatus, image display system, and image generation method | |
KR20210150881A (en) | Electronic apparatus and operaintg method thereof | |
JP6370833B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP7135378B2 (en) | Perimeter monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180406 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180619 |