JP2012025327A - Image display system, image processing apparatus, and image display method - Google Patents
Image display system, image processing apparatus, and image display method Download PDFInfo
- Publication number
- JP2012025327A JP2012025327A JP2010168007A JP2010168007A JP2012025327A JP 2012025327 A JP2012025327 A JP 2012025327A JP 2010168007 A JP2010168007 A JP 2010168007A JP 2010168007 A JP2010168007 A JP 2010168007A JP 2012025327 A JP2012025327 A JP 2012025327A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- peripheral
- display system
- image display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、車両において画像を表示する技術に関する。 The present invention relates to a technique for displaying an image in a vehicle.
従来より、自動車などの車両に搭載され、車載カメラで車両の周辺を撮影して得られた画像を車室内のディスプレイに表示する画像表示システムが知られている。この画像表示システムを利用することにより、ユーザ(代表的にはドライバ)は車両の周辺の様子をほぼリアルタイムに把握することができる。 2. Description of the Related Art Conventionally, there is known an image display system that is mounted on a vehicle such as an automobile and displays an image obtained by photographing the periphery of the vehicle with an in-vehicle camera on a display in the vehicle interior. By using this image display system, a user (typically a driver) can grasp the situation around the vehicle almost in real time.
例えば、運転席の逆側となるフロントフェンダの外側領域は運転席から死角となりやすく、車体と障害物との間のクリアランスをユーザが把握しにくい。これに対して、画像表示システムを利用すれば、車載カメラの撮影によりフロントフェンダの外側領域を示す画像が取得され、その画像が車室内のディスプレイに表示される。これにより、車両の幅寄せを行う場合などにおいて、運転席の逆側の車体と障害物との間のクリアランスをユーザが容易に確認できることとなる。 For example, the outer region of the front fender that is on the opposite side of the driver's seat is likely to be a blind spot from the driver's seat, and it is difficult for the user to grasp the clearance between the vehicle body and the obstacle. On the other hand, if the image display system is used, an image showing the outer region of the front fender is acquired by photographing with the in-vehicle camera, and the image is displayed on the display in the vehicle interior. As a result, the user can easily confirm the clearance between the vehicle body on the opposite side of the driver's seat and the obstacle, for example, when the vehicle is brought close.
また、車両の異なる位置に配置された複数の車載カメラで得られる複数の撮影画像を利用して、車両の周辺の一部の周辺領域を拡大して表示可能な画像表示システムも提案されている(例えば、特許文献1参照。)。このような画像表示システムを利用すれば、注目すべき車両の周辺領域をユーザが詳細に確認することができる。 There has also been proposed an image display system capable of enlarging and displaying a part of the peripheral area around the vehicle using a plurality of captured images obtained by a plurality of in-vehicle cameras arranged at different positions of the vehicle. (For example, refer to Patent Document 1). By using such an image display system, the user can confirm in detail the surrounding area of the vehicle to be noted.
ところで、上記特許文献1の技術では、拡大して表示可能な周辺領域は同時期に一つのみである。しかしながら、実際の車両の走行中においては、同時期に複数の周辺領域の状況をユーザが確認すべき場面が生じる。例えば、車両の前方の周辺領域と後方の周辺領域との双方に障害物が存在するような場合である。
By the way, in the technique of the above-mentioned
これに対応するため、例えば、ユーザが確認すべき複数の周辺領域をそれぞれ示す複数の画像を表示装置の画面内に並べて同時に表示することが考えられる。しかしこの場合は、複数の画像それぞれの表示サイズが小さくなり、ユーザが周辺領域の様子を詳細に確認しにくくなる可能性がある。 In order to cope with this, for example, it is conceivable that a plurality of images respectively indicating a plurality of peripheral regions to be confirmed by the user are arranged in the screen of the display device and displayed simultaneously. However, in this case, the display size of each of the plurality of images is reduced, and it may be difficult for the user to confirm the state of the surrounding area in detail.
本発明は、上記課題に鑑みてなされたものであり、限られた画面内において、複数の周辺領域の様子を比較的大きくユーザに示すことができる技術を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique capable of showing a user a relatively large state of a plurality of peripheral areas within a limited screen.
上記課題を解決するため、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する表示手段と、を備えている。
In order to solve the above-described problem, the invention of
また、請求項2の発明は、請求項1に記載の画像表示システムにおいて、前記表示手段は、前記複数の車両周辺画像を繰り返し表示する。 According to a second aspect of the present invention, in the image display system according to the first aspect, the display means repeatedly displays the plurality of vehicle surrounding images.
また、請求項3の発明は、請求項1または2に記載の画像表示システムにおいて、前記生成手段は、複数のカメラで得られる撮影画像から、任意の視点からみた前記周辺領域を示す前記車両周辺画像を生成可能である。 According to a third aspect of the present invention, in the image display system according to the first or second aspect, the generating means indicates the periphery of the vehicle indicating the peripheral area viewed from an arbitrary viewpoint from captured images obtained by a plurality of cameras. An image can be generated.
また、請求項4の発明は、請求項3に記載の画像表示システムにおいて、前記表示手段は、前記車両周辺画像を切り替える際に、切り替え前の前記車両周辺画像の視点の位置から切り替え後の前記車両周辺画像の視点の位置まで前記視点の位置が移動するアニメーション表現を行う。 According to a fourth aspect of the present invention, in the image display system according to the third aspect, when the display unit switches the vehicle peripheral image, the display unit after switching from the viewpoint position of the vehicle peripheral image before switching. An animation expression in which the position of the viewpoint moves to the position of the viewpoint of the vehicle peripheral image is performed.
また、請求項5の発明は、請求項4に記載の画像表示システムにおいて、前記視点の位置が移動する場合における前記視点の移動速度は、該視点の位置が移動の起点及び終点のいずれかに近いほど遅く、該視点の位置が移動の起点及び終点から離れるほど速い。 Further, in the image display system according to claim 4, when the position of the viewpoint moves, the moving speed of the viewpoint is set to be either the starting point or the ending point of the movement. The closer the position is, the slower the position of the viewpoint is, and the faster the position is away from the starting and end points of the movement.
また、請求項6の発明は、請求項1ないし5のいずれかに記載の画像表示システムにおいて、前記複数の車両周辺画像は、画角が同一である。 According to a sixth aspect of the present invention, in the image display system according to any of the first to fifth aspects, the plurality of vehicle peripheral images have the same angle of view.
また、請求項7の発明は、請求項1ないし6のいずれかに記載の画像表示システムにおいて、前記車両の周辺に存在する物体を検出した検出結果を取得する取得手段、をさらに備え、前記選択手段は、前記検出結果が示す前記物体の位置に基づいて前記複数の周辺領域を選択する。
The invention according to
また、請求項8の発明は、請求項7に記載の画像表示システムにおいて、前記検出結果は、前記車両からの前記物体の距離を含み、前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の距離に基づいて設定する設定手段と、を備えている。
The invention according to claim 8 is the image display system according to
また、請求項9の発明は、請求項8に記載の画像表示システムにおいて、前記設定手段は、前記周辺領域に存在する物体の距離が近いほど、該周辺領域の優先度を高くする。 According to a ninth aspect of the present invention, in the image display system according to the eighth aspect, the setting means increases the priority of the peripheral area as the distance of the object existing in the peripheral area is shorter.
また、請求項10の発明は、請求項1ないし6のいずれかに記載の画像表示システムにおいて、前記車両の周辺に存在する物体の種類を判別する判別手段と、前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の種類に基づいて設定する設定手段と、をさらに備え。
The invention according to
また、請求項11の発明は、請求項1ないし6のいずれかに記載の画像表示システムにおいて、前記車両の複数の走行状態それぞれに適した複数の表示モードを切り替える切替手段、を備え、前記選択手段は、現時点の前記表示モードに応じて前記複数の周辺領域を選択する。
The invention according to
また、請求項12の発明は、車両に搭載される表示装置に表示させる画像を生成する画像処理装置であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、前記複数の周辺領域それぞれを示す複数の車両周辺画像を前記表示装置に出力して、順次に切り替えて前記表示装置の画面内の同一の表示領域に表示させる出力手段と、を備えている。 According to a twelfth aspect of the present invention, there is provided an image processing device for generating an image to be displayed on a display device mounted on a vehicle, wherein one of the surroundings of the vehicle is obtained from a photographed image obtained by a camera disposed on the vehicle. Generating means for generating a vehicle peripheral image indicating a peripheral area of the unit, selecting means for selecting a plurality of peripheral areas to be shown to the user of the vehicle at the same time, and a plurality of vehicle peripheral images indicating each of the plurality of peripheral areas Are output to the display device, and are sequentially switched and displayed on the same display area in the screen of the display device.
また、請求項13の発明は、車両において画像を表示する画像表示方法であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する工程と、前記車両のユーザに同時期に示すべき複数の周辺領域を選択する工程と、前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する工程と、を備えている。
The invention according to
請求項1ないし13の発明によれば、ユーザに同時期に示すべき複数の周辺領域それぞれを示す複数の車両周辺画像が、順次に切り替えて画面内の同一の表示領域に表示される。これにより、限られた画面内において、複数の周辺領域の様子を比較的大きくユーザに示すことができる。 According to the first to thirteenth aspects, a plurality of vehicle peripheral images showing a plurality of peripheral regions to be shown to the user at the same time are sequentially switched and displayed in the same display region on the screen. Thereby, the state of a plurality of peripheral areas can be shown relatively large to the user within a limited screen.
また、特に請求項2の発明によれば、複数の周辺領域の様子の変化をユーザが把握することができる。
In particular, according to the invention of
また、特に請求項3の発明によれば、把握しやすい視点からみた周辺領域をユーザに示すことができる。 In particular, according to the invention of claim 3, it is possible to show the user a peripheral region viewed from a viewpoint that is easy to grasp.
また、特に請求項4の発明によれば、切り替え前の車両周辺画像の視点の位置から切り替え後の車両周辺画像の視点の位置まで視点の位置が移動するアニメーション表現を行うため、切り替え後の車両周辺画像がいずれの周辺領域を示しているかをユーザが直感的に把握できる。 In particular, according to the invention of claim 4, the vehicle after the switching is performed in order to perform animation expression in which the position of the viewpoint moves from the position of the viewpoint of the vehicle peripheral image before the switching to the position of the viewpoint of the vehicle peripheral image after the switching. The user can intuitively grasp which peripheral area the peripheral image indicates.
また、特に請求項5の発明によれば、視点の移動の起点及び終点の位置をユーザが把握しやすくなり、ユーザに示すべき周辺領域にユーザの注意を向けさせることができる。 In particular, according to the fifth aspect of the present invention, the user can easily grasp the starting and ending positions of the viewpoint movement, and the user's attention can be directed to the peripheral area to be shown to the user.
また、特に請求項6の発明によれば、同一の表示領域に表示される複数の車両周辺画像の画角が同一であるため、切り替え後の車両周辺画像が示す周辺領域の広さをユーザが直感的に把握できる。 In particular, according to the sixth aspect of the invention, since the angle of view of the plurality of vehicle peripheral images displayed in the same display area is the same, the user can determine the size of the peripheral area indicated by the vehicle peripheral image after switching. Intuitive grasp.
また、特に請求項7の発明によれば、車両の周辺に存在する物体の位置に基づいて周辺領域を選択するため、ユーザが注意すべき物体の様子をユーザに示すことができる。 Further, according to the seventh aspect of the present invention, since the peripheral area is selected based on the positions of the objects existing around the vehicle, it is possible to indicate to the user the state of the object that the user should be aware of.
また、特に請求項8の発明によれば、物体の距離に基づいて優先度を設定するため、ユーザが注意すべき物体を示す車両周辺画像を優先的に表示することができる。 In addition, according to the invention of claim 8 in particular, since the priority is set based on the distance of the object, it is possible to preferentially display the vehicle peripheral image indicating the object that the user should be aware of.
また、特に請求項9の発明によれば、ユーザが注意すべき車両に近い物体を示す車両周辺画像を優先的に表示することができる。 In particular, according to the ninth aspect of the present invention, it is possible to preferentially display a vehicle peripheral image showing an object close to the vehicle that the user should be aware of.
また、特に請求項10の発明によれば、ユーザが注意すべき種類の物体を示す車両周辺画像を優先的に表示することができる。 In particular, according to the tenth aspect of the present invention, it is possible to preferentially display a vehicle peripheral image indicating a type of object that the user should be aware of.
また、特に請求項11の発明によれば、複数の走行状態それぞれに適した周辺領域をユーザに示すことができる。
In particular, according to the invention of
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.第1の実施の形態>
<1−1.システム構成>
図1は、第1の実施の形態の画像表示システム120の構成を示すブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成して車室内に表示する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<1. First Embodiment>
<1-1. System configuration>
FIG. 1 is a block diagram illustrating a configuration of an
図1に示すように、画像表示システム120は、車両の周辺の様子を示す画像を生成する画像処理装置100と、車両に乗車するユーザに対して各種情報を表示するナビゲーション装置20とを主に備えている。画像処理装置100で生成された画像は、ナビゲーション装置20において表示される。
As shown in FIG. 1, the
ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行うハードスイッチなどで構成される操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータで構成され、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。
The
ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、動作モードを変更することで画像処理装置100で生成された車両の周辺の様子を示す画像が表示される。これにより、ナビゲーション装置20は、画像処理装置100で生成された画像を受信して表示する表示装置としても機能する。
The
画像処理装置100は、その本体部10が画像を生成する機能を有するECU(Electronic Control Unit)として構成され、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。
The
撮影部5は、本体部10に電気的に接続され、本体部10からの信号に基づいて動作する。撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、及び、サイドカメラ53を備えている。各車載カメラ51〜53は、レンズと撮像素子とを備えており電子的に画像を取得する。
The photographing
これらの複数の車載カメラ51〜53は、車両の異なる位置にそれぞれ配置される。図2は、車載カメラ51〜53が車両9に配置される位置を示す図である。
The plurality of in-
図2に示すように、フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向に向けられている。これらフロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。また、サイドカメラ53は左右のドアミラー93にそれぞれ設けられ、その光軸53aは車両9の左右方向(直進方向に直交する方向)に沿って車両9の外側に向けられている。
As shown in FIG. 2, the
これらの車載カメラ51〜53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51〜53は180度以上の画角θを有している。このため、4つの車載カメラ51〜53を利用することで、車両9の全周囲の撮影が可能となっている。
A fish-eye lens or the like is adopted as the lens of these in-
図1に戻り、画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。
Returning to FIG. 1, the
ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。これにより、画像処理装置100は、ナビゲーション装置20に対するユーザの操作に応答した動作が可能となっている。
Various instructions from the user received by the
画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、撮影画像調整部31、及び、合成画像生成部32を主な機能として備えている。
The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes a captured
撮影画像調整部31は、撮影部5で取得された撮影画像を対象とした調整を行うものである。具体的には、撮影画像調整部31は、撮影画像に対して明るさ補正などの画像処理を行う。
The captured
合成画像生成部32は、撮影部5の複数の車載カメラ51〜53で取得されて撮影画像調整部31によって調整された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた車両の周辺の様子を示す合成画像を生成する。合成画像生成部32が合成画像を生成する手法については後述する。
The composite
合成画像生成部32により生成された合成画像は、ナビ通信部42によってナビゲーション装置20に出力される。これにより、車両の周辺の少なくとも一部の領域を示す合成画像がナビゲーション装置20のディスプレイ21に表示されることになる。
The composite image generated by the composite
制御部1は、CPU、RAM及びROMなどを備えたコンピュータとして構成され、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11、表示制御部12、領域選択部13及び優先度設定部14は、このようにして実現される制御部1の機能のうちの一部を示している。
The
画像制御部11は、画像生成部3によって実行される画像処理に係る制御を行う。例えば、画像制御部11は、合成画像生成部32が生成する合成画像の生成に必要な各種パラメータなどを指示する。
The
表示制御部12は、ナビゲーション装置20のディスプレイ21に表示する表示内容に係る制御を行う。また、領域選択部13は、車両の周辺に設定される複数の周辺領域のうちから、ユーザに示すべき周辺領域を選択する。また、優先度設定部14は、ユーザに示すべき周辺領域が複数ある場合に、それらの優先度を設定する。これら表示制御部12、領域選択部13及び優先度設定部14の具体的な処理内容については後述する。
The
また、画像処理装置100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。
The
不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、視点データ4aが記憶されている。視点データ4aは、合成画像の仮想視点を定める際に利用される。
The
カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。
The
メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理装置100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。
The memory card MC is configured by a flash memory or the like capable of storing various data, and the
また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。本実施の形態では、車両の周辺に存在する物体を検出するソナーシステム7からの信号が信号入力部41を介して制御部1に入力される。
Moreover, the
<1−2.ソナーシステム>
図3は、このソナーシステム7の構成を主に示す図である。図に示すように、ソナーシステム7は、システム全体を統括するソナー制御部70と、複数のクリアランスソナー72と、車室内に警告音を発するブザー71とを備えている。
<1-2. Sonar system>
FIG. 3 is a diagram mainly showing the configuration of the
クリアランスソナー72は、超音波を発射し、その超音波が物体で反射した反射波を受信することで、車両の周辺に存在する物体を検出する。また、クリアランスソナー72は、超音波を発射してから戻ってくるまでの時間に基づいて物体の距離を検出可能である。各クリアランスソナー72の検出結果は、ソナー制御部70に入力され、物体までの距離に応じてブザー71から警告音が出力される。これにより、ユーザは車両の周辺に物体が存在することを把握できる。
The
図4は、複数のクリアランスソナー72が車両9に配置される位置を示す図である。複数のクリアランスソナー72は、車両9の前方の左右端部、及び、車両9の後方の左右端部にそれぞれ設けられている。
FIG. 4 is a diagram illustrating positions where a plurality of
各クリアランスソナー72は、車両9の周辺の一部の周辺領域A1〜A4に向けて超音波を発信する。具体的には、車両9の前方の左端部に設けられるクリアランスソナー72は、車両9の前方左側に設定される周辺領域(以下、「前方左側領域」という。)A1に向けて超音波を発信する。また、車両9の前方の右端部に設けられるクリアランスソナー72は、車両9の前方右側に設定される周辺領域(以下、「前方右側領域」という。)A2に向けて超音波を発信する。また、車両9の後方の左端部に設けられるクリアランスソナー72は、車両9の後方左側に設定される周辺領域(以下、「後方左側領域」という。)A3に向けて超音波を発信する。さらに、車両9の後方の右端部に設けられるクリアランスソナー72は、車両9の後方右側に設定される周辺領域(以下、「後方右側領域」という。)A4に向けて超音波を発信する。
Each
これら4つの周辺領域A1〜A4は、車両9に対して相対的に固定されて予め設定される。このようなクリアランスソナー72の配置により、ソナーシステム7では、4つの周辺領域A1〜A4に存在する物体の検出が可能となっている。ソナーシステム7は、物体を検出したクリアランスソナー72の位置に基づいて、検出した物体の位置が4つの周辺領域A1〜A4のいずれであるかを把握可能である。さらに、ソナーシステム7は、検出した物体の距離を把握することが可能である。
These four peripheral areas A1 to A4 are fixed relative to the
このような物体の位置及び物体の距離を含むソナーシステム7の検出結果は、図3に示すように、ソナー制御部70から、画像処理装置100の制御部1に信号入力部41を介して入力される。そして、このソナーシステム7の検出結果は、制御部1の領域選択部13に利用されることになる。
The detection result of the
<1−3.画像合成処理>
次に、画像生成部3の合成画像生成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。図5は、合成画像を生成する手法を説明するための図である。
<1-3. Image composition processing>
Next, a method in which the composite
撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。
When the
次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。
Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the
撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51〜53の配置(相互間距離、地上高さ、光軸角度等)に依存する。この対応関係を示すテーブルデータは、不揮発性メモリ40に予め記憶されている。
The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is the arrangement of the four in-
また、不揮発性メモリ40に予め記憶された車体の形状やサイズを示すデータが利用され、車両9の三次元形状を示すポリゴンのモデルが仮想的に構成される。構成された車両9のモデルは、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。
Further, data indicating the shape and size of the vehicle body stored in advance in the
さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。
Further, the virtual viewpoint VP is set by the
そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンのモデルに関してレンダリングがなされ、その結果となる二次元の車両の像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点VPからみた様子を示す合成画像が生成されることになる。
Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the
例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VPaを設定した場合は、車両9の略直上から車両9を見下ろすように、車両9及び車両9の周辺の領域を示す合成画像CPaが生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VPbを設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9及び車両9の周辺の領域を示す合成画像CPbが生成される。
For example, when the virtual viewpoint VPa is set such that the viewpoint position is a position just above the center of the
なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。 In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.
画像表示システム120では、このような合成画像生成部32の機能を利用することで、車両9及び車両9の周辺全体を俯瞰して示す合成画像や、車両9の周辺の一部の周辺領域のみを示す合成画像などを生成し、ディスプレイ21に表示することができる。
In the
<1−4.周辺表示モード>
画像表示システム120は、ナビモードと周辺表示モードとの2つの動作モードを有している。これらの動作モードは、操作部22を介したユーザの操作に基づいて制御部1の制御により切り替えられる。
<1-4. Peripheral display mode>
The
ナビモードは、ナビゲーション装置20の機能により、ナビゲーション案内用の地図画像などをディスプレイ21に表示する動作モードである。一方、周辺表示モードは、画像処理装置100の機能を利用して、合成画像をディスプレイ21に表示する動作モードである。周辺表示モードにおいては、この合成画像の表示により、車両9の周辺の様子がほぼリアルタイムでユーザに示される。
The navigation mode is an operation mode in which a map image for navigation guidance is displayed on the
周辺表示モードでは、通常は、図6に示すように、車両9及び車両9の周辺全体を俯瞰して示す合成画像(以下、「全体俯瞰画像」という。)BPがディスプレイ21に表示される。ただし、特定の条件下では、図4の4つの周辺領域A1〜A4のうちの一または複数が選択され、選択された周辺領域のみの様子を示す合成画像(以下、「車両周辺画像」という。)がディスプレイ21に表示される。
In the peripheral display mode, normally, as shown in FIG. 6, a composite image (hereinafter referred to as an “overall bird's-eye view image”) BP showing a bird's-eye view of the
このような周辺領域を示す車両周辺画像の仮想視点の視点位置は当該周辺領域の中央の略直上に設定され、視野方向は略直下方向に向けられる。これにより、車両周辺画像では、上から見下ろすようにして周辺領域の様子が示される。各車両周辺画像においては、車両9の車体の一部が示される。このような各周辺領域A1〜A4に対応する仮想視点の視点位置は、不揮発性メモリ40に記憶された視点データ4aによって示される。
The viewpoint position of the virtual viewpoint of the vehicle peripheral image indicating such a peripheral region is set substantially directly above the center of the peripheral region, and the visual field direction is directed substantially downward. Thereby, in the vehicle peripheral image, the state of the peripheral region is shown as if looking down from above. In each vehicle peripheral image, a part of the vehicle body of the
このように車両周辺画像としてユーザに示すべき周辺領域は、車両9の走行状態に応じて随時に変わることになる。また、車両9の走行状態によっては、ユーザに示すべき周辺領域が同時期に複数存在する場合もある。以下、後方駐車を行う場合、及び、縦列駐車を行う場合を例に、ユーザに示すべき周辺領域について説明する。なお以下、ユーザに示すべき周辺領域を「注目領域」という。
As described above, the surrounding area to be shown to the user as the vehicle surrounding image changes at any time according to the traveling state of the
図7は、後方駐車を行う場合における車両9の動きの一例を示す図である。図7の例においては、車両9の状態は、第1状態ST11から、第2状態ST12を経て、最終的に第3状態ST13となる。
FIG. 7 is a diagram illustrating an example of the movement of the
第1状態ST11においては、車両9の後方の左端部が他の車両99に近接している。このため、この場合は、後方左側領域A3が注目領域となる。
In the first state ST <b> 11, the rear left end portion of the
また、第2状態ST12においては、車両9の後方の左端部、及び、車両9の後方の右端部が他の車両99に近接している。このため、この場合は、後方左側領域A3、及び、後方右側領域A4が注目領域となる。
In the second state ST <b> 12, the left end portion behind the
さらに、第3状態ST13においては、車両9の後方の左端部、及び、車両9の後方の右端部が他の車両99や駐車スペースの壁に近接している。このため、この場合も、後方左側領域A3、及び、後方右側領域A4が注目領域となる。
Further, in the third state ST13, the left end portion behind the
このように後方駐車を行う場合においては、車両9の状態に応じて注目領域が変わる。そして、第2状態ST12や第3状態ST13においては、同時期に注目領域が2つ存在することになる。
Thus, in the case where the rear parking is performed, the attention area changes depending on the state of the
また、図8は、縦列駐車を行う場合における車両9の動きの一例を示す図である。図8の例においては、車両9の状態は、第1状態ST21から、第2状態ST22を経て、最終的に第3状態ST23となる。
FIG. 8 is a diagram illustrating an example of the movement of the
第1状態ST21においては、車両9の後方の左端部が他の車両99に近接している。このため、この場合は、後方左側領域A3が注目領域となる。
In the first state ST21, the rear left end of the
また、第2状態ST22においては、車両9の前方の左端部、及び、車両9の後方の左端部が他の車両99や駐車スペースの壁に近接している。このため、この場合は、前方左側領域A1、及び、後方左側領域A3が注目領域となる。
Moreover, in 2nd state ST22, the left end part of the front of the
さらに、第3状態ST23においては、車両9の前方の左端部、車両9の後方の左端部、及び、車両9の後方の右端部が他の車両99や駐車スペースの壁に近接している。このため、この場合は、前方左側領域A1、後方左側領域A3、及び、後方右側領域A4が注目領域となる。
Further, in the third state ST23, the left end portion in front of the
このように縦列駐車を行う場合においても、車両9の状態に応じて注目領域が変わる。そして、第2状態ST22においては同時期に注目領域が2つ存在し、第3状態ST13においては同時期に注目領域が3つ存在することになる。
Even when parallel parking is performed in this manner, the attention area changes depending on the state of the
このような注目領域は、領域選択部13によって選択される。領域選択部13は、ソナーシステム7の検出結果が示す物体の位置に基づいて、物体(他の車両99や駐車スペースの壁を含む)が存在している周辺領域を注目領域として選択する。これにより、車両の走行状態に応じて適切な周辺領域が注目領域として選択されることになる。領域選択部13は、車両のユーザに同時期に示すべき複数の周辺領域を注目領域として選択することが可能である。
Such a region of interest is selected by the
そして、複数の周辺領域が注目領域として選択された場合は、表示制御部12の制御により、それらの複数の周辺領域のそれぞれを示す複数の車両周辺画像が順次にディスプレイ21に表示される。
When a plurality of peripheral areas are selected as the attention area, a plurality of vehicle peripheral images indicating each of the plurality of peripheral areas are sequentially displayed on the
図9は、図8に示す第2状態ST22において、ディスプレイ21に表示される画面の例を示す図である。第2状態ST22においては、前方左側領域A1、及び、後方左側領域A3の2つの周辺領域が、注目領域として領域選択部13に選択される。このため、ディスプレイ21の画面D1においては、前方左側領域A1を示す車両周辺画像BP1と、後方左側領域A3を示す車両周辺画像BP3とが交互に切り替えられつつ繰り返し表示される。この車両周辺画像BP1と車両周辺画像BP3とは、画面D1の同一の表示領域PAに表示されることになる。また、車両周辺画像BP1及び車両周辺画像BP3の画角は同一である。
FIG. 9 is a diagram showing an example of a screen displayed on the
また、図10は、図8に示す第3状態ST23において、ディスプレイ21に表示される画面の例を示す図である。第3状態ST23においては、前方左側領域A1、後方左側領域A3及び後方右側領域A4の3つの周辺領域が、注目領域として領域選択部13に選択される。このため、ディスプレイ21の画面D1においては、前方左側領域A1を示す車両周辺画像BP1と、後方左側領域A3を示す車両周辺画像BP3と、後方右側領域A4を示す車両周辺画像BP4とが順次に切り替えて繰り返し表示される。これら3つの車両周辺画像BP1,BP3,BP4は、画面D1の同一の表示領域PAに表示される。また、3つの車両周辺画像BP1,BP3,BP4の画角は同一である。
FIG. 10 is a diagram showing an example of a screen displayed on the
このように画像表示システム120では、注目領域として選択された複数の周辺領域それぞれを示す複数の車両周辺画像が、順次に切り替えてディスプレイ21の画面D1内の同一の表示領域PAに表示される。このため、これらの複数の車両周辺画像をディスプレイ21の画面内に同時に並べて表示する必要は無いため、表示する各車両周辺画像のサイズを比較的大きくすることができる。その結果、限られたディスプレイ21の画面内において、各周辺領域の様子を比較的大きくユーザに示すことができる。
As described above, in the
また、ディスプレイ21においては、注目領域として選択された複数の周辺領域それぞれを示す複数の車両周辺画像が繰り返し表示されるため、各周辺領域の様子の変化をユーザが適切に把握することが可能である。
In addition, since a plurality of vehicle peripheral images indicating the plurality of peripheral areas selected as the attention area are repeatedly displayed on the
また、切り替えられる複数の車両周辺画像の画角は同一である。したがって、複数の車両周辺画像に被写体像として含まれる周辺領域の広さは同一となる。このため、複数の車両周辺画像を切り替えたとしても、車両周辺画像に示される周辺領域の広さは変わらないため、切り替え後の車両周辺画像が示す周辺領域の広さをユーザが直感的に把握することができる。 The angle of view of the plurality of vehicle periphery images to be switched is the same. Therefore, the peripheral areas included in the plurality of vehicle peripheral images as subject images are the same. For this reason, even if a plurality of vehicle peripheral images are switched, the size of the peripheral region shown in the vehicle peripheral image does not change, so the user intuitively grasps the size of the peripheral region indicated by the vehicle peripheral image after switching. can do.
<1−5.動作の流れ>
次に、画像表示システム120の周辺表示モードにおける動作の流れを説明する。図11は、この周辺表示モードにおける動作の流れを示す図である。
<1-5. Flow of operation>
Next, an operation flow in the peripheral display mode of the
まず、領域選択部13が、ソナーシステム7の検出結果に基づいて注目領域を選択する。前述のように領域選択部13は、4つの周辺領域A1〜A4のうちで、ソナーシステム7の検出結果が示す物体の位置に基づいて、物体が存在している周辺領域を注目領域として選択する。ただし、物体が存在している周辺領域が無い場合は、いずれの周辺領域も注目領域として選択されない(ステップS11)。
First, the
領域選択部13によりいずれの周辺領域も注目領域として選択されなかった場合は、ユーザに拡大して特に示すべき周辺領域が存在しない。このため、この場合は(ステップS12にてNo)、表示制御部12の制御により、図6に示すようなデフォルト表示がなされる。すなわち、ディスプレイ21の画面D1に全体俯瞰画像BPが表示される(ステップS16)。
If no peripheral region is selected as a region of interest by the
一方、領域選択部13により周辺領域が注目領域として選択された場合は(ステップS12にてYes)、次に、注目領域が複数あるか否かが判断される(ステップS13)。注目領域が一つの場合は(ステップS13にてNo)、処理はそのままステップS15へ進み、注目領域を示す車両周辺画像をディスプレイ21に表示する注目領域表示処理が、表示制御部12の制御によりなされる。
On the other hand, when the peripheral area is selected as the attention area by the area selection unit 13 (Yes in step S12), it is next determined whether or not there are a plurality of attention areas (step S13). If there is only one region of interest (No in step S13), the process proceeds to step S15 as it is, and region-of-interest display processing for displaying a vehicle peripheral image indicating the region of interest on the
一方、注目領域が複数の場合は(ステップS13にてNo)、複数の注目領域それぞれの優先度が優先度設定部14により設定される。この優先度は、当該注目領域を示す車両周辺画像を表示する順序を規定するものであり、順序数(1,2,3,…)で表現される。なお、本明細書において「優先度が高い」という表現をする場合は、順序数の値自体は小さくなる。
On the other hand, when there are a plurality of attention areas (No in step S13), the
優先度設定部14は、ソナーシステム7の検出結果が示す物体の距離に基づいて優先度を設定する。具体的には、各注目領域で検出された物体の距離が参照され、物体の距離が近い注目領域から順に優先度が高くされる。すなわち、注目領域に存在する物体の距離が近いほど、当該注目領域の優先度が高くされる(ステップS14)。このようにして優先度が設定されると処理はステップS15へ進み、注目領域を示す車両周辺画像をディスプレイ21に表示する注目領域表示処理が、表示制御部12の制御によりなされる。
The
この注目領域表示処理が行われると、処理はステップS11に戻り、上記と同様の処理が繰り返される。これにより、常にその時点で車両の周辺に存在している物体に合わせて適切な周辺領域が注目領域として選択され、当該注目領域を示す車両周辺画像がディスプレイ21に表示される。したがって、車両9の走行状態に応じて適切な周辺領域がユーザに示されることになる。
When this attention area display processing is performed, the processing returns to step S11, and the same processing as described above is repeated. As a result, an appropriate peripheral area is always selected as the attention area in accordance with an object existing around the vehicle at that time, and a vehicle peripheral image indicating the attention area is displayed on the
次に、注目領域表示処理(ステップS15)について説明する。図12は、注目領域表示処理の詳細な流れを示す図である。 Next, attention area display processing (step S15) will be described. FIG. 12 is a diagram showing a detailed flow of attention area display processing.
まず、変数Pに1が代入される(P=1)(ステップS21)。次に、制御部1が備えるタイマ機能によって計時が開始される(ステップS22)。 First, 1 is assigned to the variable P (P = 1) (step S21). Next, timing is started by the timer function provided in the control unit 1 (step S22).
次に、優先度が”P”の注目領域の仮想視点の視点位置が、視点データ4aに基づいて取得される。この場合は、P=1であるため、優先度が最も高い注目領域の視点位置が取得される(ステップS23)。
Next, the viewpoint position of the virtual viewpoint of the attention area having the priority “P” is acquired based on the
そして、合成画像生成部32により、この仮想視点からみた優先度が”P”の注目領域を示す車両周辺画像が生成され、ディスプレイ21に表示される。すなわち、優先度が最も高い注目領域を示す車両周辺画像がディスプレイ21に表示されることになる(ステップS24)。
Then, the composite
そして、ステップS22の計時開始から所定時間(例えば2秒)が経過するまで(ステップS26にてNo)、所定のフレームレート(例えば、30fps)で、優先度が”P”の注目領域の車両周辺画像が繰り返し生成されてディスプレイ21に表示される(ステップS24)。これにより、優先度が”P”の注目領域の様子が、所定時間(例えば2秒間)、ほぼリアルタイムにユーザに示されることになる。所定時間が経過すると(ステップS26にてYes)、処理はステップS28へ進む。 Then, until a predetermined time (for example, 2 seconds) elapses from the start of the time measurement in step S22 (No in step S26), the vehicle surroundings of the attention area having a priority of “P” at a predetermined frame rate (for example, 30 fps) An image is repeatedly generated and displayed on the display 21 (step S24). As a result, the state of the attention area having the priority “P” is displayed to the user in substantially real time for a predetermined time (for example, 2 seconds). When the predetermined time has elapsed (Yes in step S26), the process proceeds to step S28.
また、ステップS22の計時開始から所定時間(例えば2秒)が経過するまで(ステップS26にてNo)においては、ユーザは操作部22を介して所定の操作を行って「停止指示」を行うことができる。この「停止指示」がなされた場合(ステップS25にてYes)は、計時時間にかかわらず、優先度が”P”の注目領域の車両周辺画像が繰り返し生成されてディスプレイ21に表示される(ステップS24)。
Further, until a predetermined time (for example, 2 seconds) elapses from the start of time measurement in Step S22 (No in Step S26), the user performs a predetermined operation via the
このような「停止指示」の後の車両周辺画像の表示は、ユーザから操作部22を介して「停止解除指示」がなされるまで継続される(ステップS27にてNo)。これにより、所定時間以上、優先度が”P”の注目領域の様子が、ほぼリアルタイムにユーザに示されることになる。したがって、ユーザは、所望の周辺領域の様子を十分に確認することができる。「停止解除指示」がなされると(ステップS27にてYes)、処理はステップS28へ進む。 The display of the vehicle peripheral image after such a “stop instruction” is continued until a “stop release instruction” is issued from the user via the operation unit 22 (No in step S27). As a result, the state of the attention area having the priority “P” for a predetermined time or more is shown to the user in substantially real time. Therefore, the user can sufficiently confirm the state of the desired peripheral area. If a “stop cancellation instruction” is issued (Yes in step S27), the process proceeds to step S28.
ステップS28においては、変数Pが、選択された注目領域の数を示す変数Nよりも小さいか否かが判断される。変数Pが変数Nより小さい場合(P<N)は(ステップS28にてYes)、切り替えて表示すべき注目領域が存在する場合である。したがって、この場合は、続いて、次に優先度が高い注目領域(すなわち、優先度が”P+1”の注目領域)の車両周辺画像が切り替えてディスプレイ21に表示されることになる。
In step S28, it is determined whether or not the variable P is smaller than a variable N indicating the number of selected attention areas. When the variable P is smaller than the variable N (P <N) (Yes in step S28), there is a region of interest to be switched and displayed. Therefore, in this case, the vehicle peripheral image of the attention area having the next highest priority (that is, the attention area having the priority “P + 1”) is switched and displayed on the
この車両周辺画像の切り替えの際には、まず、優先度が”P+1”の注目領域の視点位置が、視点データ4aに基づいて取得される(ステップS29)。そして、優先度が”P”の注目領域の視点位置から、優先度が”P+1”の注目領域の視点位置まで、表示する車両周辺画像の仮想視点の視点位置を段階的に移動させるアニメーション表現がディスプレイ21において行われる(ステップS30)。このアニメーション表現の詳細については後述する。
When switching the vehicle peripheral image, first, the viewpoint position of the attention area having the priority “P + 1” is acquired based on the
その後、変数Pがインクリメントされ(P=P+1)(ステップS31)、処理はステップS22に戻る。これにより、次に優先度が高い注目領域の車両周辺画像がディスプレイ21に表示され、この注目領域の様子が、所定時間(例えば2秒間)、ほぼリアルタイムにユーザに示されることになる。
Thereafter, the variable P is incremented (P = P + 1) (step S31), and the process returns to step S22. As a result, the vehicle peripheral image of the attention area having the next highest priority is displayed on the
このような処理が、選択された全ての注目領域に関して繰り返される。これにより、全ての注目領域の車両周辺画像がディスプレイ21に順次に切り替えて表示されることになる。全ての注目領域の車両周辺画像が表示されると、ステップS28において、変数Pが変数Nと一致し(P=N)(ステップS28にてNo)、注目領域表示処理が終了することになる。
Such a process is repeated for all selected regions of interest. As a result, the vehicle periphery images of all the attention areas are sequentially switched and displayed on the
このように画像表示システム120では、物体の距離に基づいて優先度が設定される。そして、物体の距離が近いほど注目領域の優先度が高くされ、優先度が高い注目領域から順に車両周辺画像がディスプレイ21に表示される。このため、ユーザが注意すべき車両に近い物体を示す車両周辺画像を優先的に表示することができる。
Thus, in the
<1−6.視点位置の移動>
表示する車両周辺画像を切り替える際(ステップS30)には、仮想視点の視点位置を段階的に移動させるアニメーション表現がなされる。以下、このアニメーション表現について、図8に示す第2状態ST22の場合を例に説明する。
<1-6. Moving the viewpoint position>
When the vehicle periphery image to be displayed is switched (step S30), an animation expression for moving the viewpoint position of the virtual viewpoint in stages is performed. Hereinafter, this animation expression will be described taking the case of the second state ST22 shown in FIG. 8 as an example.
図13は、第2状態ST22を拡大して示す図である。前述のように、この第2状態ST22においては、前方左側領域A1及び後方左側領域A3が注目領域として選択される。そして、ディスプレイ21においては、図9に示すように、前方左側領域A1を示す車両周辺画像BP1と、後方左側領域A3を示す車両周辺画像BP3とが交互に切り替えられつつ表示される。
FIG. 13 is an enlarged view of the second state ST22. As described above, in the second state ST22, the front left area A1 and the rear left area A3 are selected as the attention areas. On the
表示する車両周辺画像を車両周辺画像BP1から車両周辺画像BP3に切り替える際には、前方左側領域A1の中央の位置Vppから後方左側領域A3の中央の位置Vpfに視点位置が瞬時に切り替わるわけではなく、図13に示すように、位置Vppから位置Vpfまで視点位置が段階的かつ連続的に移動される。なお、図13においては、移動途中の段階の視点位置を2つのみ例示しているが、実際には移動途中の段階の視点位置は多数存在している。そして、このように視点位置が段階的に移動する仮想視点に基づいて複数の車両周辺画像が生成され、ディスプレイ21に表示される。
When the vehicle peripheral image to be displayed is switched from the vehicle peripheral image BP1 to the vehicle peripheral image BP3, the viewpoint position does not instantly switch from the center position Vpp of the front left region A1 to the center position Vpf of the rear left region A3. As shown in FIG. 13, the viewpoint position is moved stepwise and continuously from the position Vpp to the position Vpf. In FIG. 13, only two viewpoint positions in the middle of movement are illustrated, but actually there are many viewpoint positions in the middle of movement. Then, a plurality of vehicle peripheral images are generated based on the virtual viewpoint in which the viewpoint position moves stepwise in this way and displayed on the
これにより、図14に示すように、車両周辺画像BP1と車両周辺画像BP3との間において、視点位置の移動中に生成された複数の車両周辺画像BPaが時間的に連続してディスプレイ21に表示される。その結果、ディスプレイ21において、車両周辺画像に示される車両9の周辺の領域が段階的に変わるアニメーション表現がなされることになる。このようなアニメーション表現を行うことで、切り替え後の車両周辺画像がいずれの周辺領域を示しているかをユーザが直感的に把握できることになる。
As a result, as shown in FIG. 14, a plurality of vehicle peripheral images BPa generated during movement of the viewpoint position are displayed on the
このような視点位置の移動は、所定時間(例えば1秒間)かけて複数のフレームを利用して行われる。以下、各フレームの車両周辺画像の仮想視点の視点位置の決定手法について説明する。 Such movement of the viewpoint position is performed using a plurality of frames over a predetermined time (for example, 1 second). Hereinafter, a method for determining the viewpoint position of the virtual viewpoint of the vehicle peripheral image of each frame will be described.
この説明においては、仮想視点の視点位置を表現するために、図13に示すように車両9に相対的に固定される2次元直交座標系(XY座標系)の座標を採用する。仮想視点の移動の起点となる位置Vpp(前方左側領域A1の中央)の座標は(Xp,Yp)とし、仮想視点の移動の終点となる位置Vfp(後方左側領域A3の中央)の座標は(Xf,Yf)であるとする。そして、移動途中の視点位置をVpmとする。また、視点位置の移動にかける時間をT(s)とし、フレームレートをF(fps)とする。
In this description, in order to express the viewpoint position of the virtual viewpoint, coordinates of a two-dimensional orthogonal coordinate system (XY coordinate system) fixed relative to the
仮想視点のX軸方向の移動距離Dx及びY軸方向の移動距離Dyはそれぞれ、次の式(1)及び式(2)で導出できる。 The movement distance Dx in the X-axis direction and the movement distance Dy in the Y-axis direction of the virtual viewpoint can be derived from the following expressions (1) and (2), respectively.
Dx=Xf−Xp …(1)
Dy=Yf−Yp …(2)
また、X軸方向の1フレームあたりの平均移動量mx、及び、Y軸方向の1フレームあたりの平均移動量myはそれぞれ、次の式(3)及び式(4)で導出できる。
Dx = Xf−Xp (1)
Dy = Yf−Yp (2)
Further, the average movement amount mx per frame in the X-axis direction and the average movement amount my per frame in the Y-axis direction can be derived from the following equations (3) and (4), respectively.
mx=Dx/(F・T) …(3)
my=Dy/(F・T) …(4)
そして、移動途中の視点位置VpmのX座標のXn、及び、Y座標のYnは、次の式(5)及び式(6)で導出することができる。
mx = Dx / (F · T) (3)
my = Dy / (F · T) (4)
Then, the X coordinate X n and the Y coordinate Y n of the viewpoint position Vpm in the middle of movement can be derived by the following equations (5) and (6).
Xn=Xn−1+α・mx …(5)
Yn=Yn−1+α・my …(6)
式(5)及び式(6)におけるXn−1及びYn−1は、1フレーム前の視点位置VpmのX座標及びY座標をそれぞれ示している。また、αは、仮想視点の移動速度を規定する速度係数である。この速度係数αは、視点位置の移動において平均して1となるように設定される。
Xn = Xn-1 + [alpha] .mx (5)
Y n = Y n-1 + α · my (6)
X n−1 and Y n−1 in the equations (5) and (6) indicate the X coordinate and the Y coordinate of the viewpoint position Vpm one frame before, respectively. Α is a speed coefficient that defines the moving speed of the virtual viewpoint. This speed coefficient α is set to be 1 on average in the movement of the viewpoint position.
図15は、速度係数αの変化を示す図である。図中の横軸は仮想視点の移動の移動開始からの時間、縦軸は速度係数αを示している。図に示すように、速度係数αは、仮想視点の移動開始の直後は低いが、移動における中間時点(T/2の時点)において最も高くなり、その後は低くなる。したがって、仮想視点の移動速度は、視点位置が移動の起点Vpp及び終点Vfpのいずれかに近いほど遅くなる。そして、仮想視点の移動速度は、視点位置が移動の起点Vpp及び終点Vfpから離れるほど速くなり、移動の起点Vpp及び終点Vfpの中間位置において最も速くなる。 FIG. 15 is a diagram showing changes in the speed coefficient α. In the figure, the horizontal axis indicates the time from the start of movement of the virtual viewpoint, and the vertical axis indicates the speed coefficient α. As shown in the figure, the speed coefficient α is low immediately after the start of the movement of the virtual viewpoint, but is highest at an intermediate time point (T / 2 time point) in the movement, and then decreases. Therefore, the moving speed of the virtual viewpoint becomes slower as the viewpoint position is closer to either the movement start point Vpp or the end point Vfp. The moving speed of the virtual viewpoint increases as the viewpoint position moves away from the movement start point Vpp and the end point Vfp, and is highest at an intermediate position between the movement start point Vpp and the end point Vfp.
このように仮想視点の移動速度を変化させることにより、仮想視点の移動の起点及び終点をユーザが把握しやすくなり、仮想視点の移動の起点あるいは終点となる注目領域にユーザの注意を向けさせることができる。また、注目領域以外のユーザに示す必要性の低い車両9の周辺の領域が無駄に長く表示されることもない。
By changing the moving speed of the virtual viewpoint in this way, it becomes easier for the user to grasp the starting point and the ending point of the moving virtual viewpoint, and the user's attention is directed to the attention area that is the starting point or the ending point of the moving virtual viewpoint. Can do. Moreover, the area | region of the periphery of the
以上のように、画像表示システム120では、4つの周辺領域A1〜A4のうちから、車両のユーザに同時期に示すべき複数の周辺領域が注目領域として領域選択部13によって選択される。そして、注目領域として選択された複数の周辺領域それぞれを示す複数の車両周辺画像が、順次に切り替えてディスプレイ21の画面D1内の同一の表示領域PAに表示される。このため、これらの複数の車両周辺画像をディスプレイ21の画面内に同時に並べて表示する必要は無いため、表示する各車両周辺画像のサイズを比較的大きくすることができる。その結果、限られたディスプレイ21の画面内において、各周辺領域の様子を比較的大きくユーザに示すことができる。
As described above, in the
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態では、物体の距離のみに基づいて注目領域の優先度が設定されていた。これに対して、第2の実施の形態では、物体の種類が判定され、この物体の種類を考慮して注目領域の優先度が設定されるようになっている。本実施の形態の画像表示システム120の構成及び動作は、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the priority of the attention area is set based only on the distance of the object. On the other hand, in the second embodiment, the type of the object is determined, and the priority of the attention area is set in consideration of the type of the object. Since the configuration and operation of the
図16は、第2の実施の形態の画像表示システム120の構成を示すブロック図である。第2の実施の形態の画像表示システム120は、プログラムに従って制御部1のCPUが演算処理を行うことで実現される機能として、種類判定部15を備えている。また、不揮発性メモリ40には、種類判定部15が用いる種類判定データ4bが記憶されている。第2の実施の形態の画像表示システム120のその他の構成は、図1に示す第1の実施の形態の画像表示システム120と同様である。
FIG. 16 is a block diagram illustrating a configuration of the
種類判定部15は、ソナーシステム7によって周辺領域A1〜A4のいずれかにおいて物体が検出された場合に、当該物体の種類が人物であるか否かを判定する。より具体的には、種類判定部15は、物体が検出された周辺領域の車両周辺画像を用い、その車両周辺画像に含まれる物体の像を認識する。そして、種類判定部15は、その物体の像に基づいて、例えばパターンマッチングなどの周知の技術によって物体の種類が人物であるか否かを判定する。このパターンマッチングに用いるデータとして、種類判定データ4bが利用される。
When the
例えば、図17に示すように、車両9の周辺に2つの物体Sb1,Sb2が存在しており、一方の物体Sb1が三輪車、他方の物体Sb2が人物である場合を想定する。この例では、物体(三輪車)Sb1は前方右側領域A2に存在しており、物体(人物)Sb2は後方左側領域A3に存在している。
For example, as shown in FIG. 17, it is assumed that there are two objects Sb1 and Sb2 around the
この例の場合、ソナーシステム7によって2つの周辺領域A2,A3に物体が存在すると検出される。そして、種類判定部15によって2つの周辺領域A2,A3それぞれの物体の種類が判定され、周辺領域A2の物体Sb1は人物以外、周辺領域A3の物体Sb2は人物であると判定される。
In this example, the
車両9の周辺に人物が存在する場合は、安全上、ユーザはその人物に最大の注意を払って車両9を運転する必要がある。このため、本実施の形態の画像表示システム120においては、周辺領域に人物が存在すると判定された場合は、物体の距離に係わらず、当該人物が存在する周辺領域(注目領域)の優先度が最も高く設定される。したがって、図17の例では、後方左側領域A3の優先度が最も高く設定されることになる。
When there is a person around the
図18は、本実施の形態の優先度を設定する処理(図11のステップS14)の流れを示す図である。この処理の開始時点においては、複数の周辺領域が注目領域として領域選択部13により選択されている。
FIG. 18 is a diagram showing a flow of processing (step S14 in FIG. 11) for setting the priority according to the present embodiment. At the start of this process, a plurality of peripheral regions are selected as a region of interest by the
まず、第1の実施の形態と同様にして、物体の距離に基づいて注目領域の優先度が優先度設定部14により設定される。すなわち、注目領域に存在する物体の距離が近いほど、当該注目領域の優先度が高くされる(ステップS41)。
First, similarly to the first embodiment, the
次に、複数の注目領域それぞれの車両周辺画像が生成される。そして、各注目領域の車両周辺画像に含まれる物体の種類が人物であるか否かが種類判定部15により判定される(ステップS42)。
Next, a vehicle peripheral image for each of the plurality of attention areas is generated. Then, the
この判定により、物体が人物であると判定された注目領域がある場合は(ステップS43にてYes)、ステップS41で設定された優先度に係わらず、当該注目領域の優先度が最も高く設定される(優先度=1)(ステップS44)。なお、物体が人物であると判定された注目領域が複数の場合は、さらに物体の距離を考慮して注目領域の優先度を設定すればよい。 If there is a region of interest in which it is determined by this determination that the object is a person (Yes in step S43), the priority of the region of interest is set to the highest regardless of the priority set in step S41. (Priority = 1) (step S44). In addition, when there are a plurality of attention areas determined that the object is a person, the priority of the attention area may be set in consideration of the distance of the object.
本実施の形態においても、注目領域表示処理は、図12に示す第1の実施の形態の処理と同様に行われる。したがって、優先度が高い注目領域から順に車両周辺画像がディスプレイ21に表示される。このため、第2の実施の形態の画像表示システム120では、ユーザが注意すべき人物を示す車両周辺画像を優先的に表示することができる。
Also in the present embodiment, the attention area display process is performed in the same manner as the process of the first embodiment shown in FIG. Accordingly, the vehicle peripheral images are displayed on the
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第1の実施の形態では、物体が存在する周辺領域を注目領域として選択するようにしていた。これに対して、第3の実施の形態では、車両の複数の走行状態それぞれに適した複数の表示モードがあり、表示モードに応じて注目領域が選択されるようになっている。本実施の形態の画像表示システム120の構成及び動作も、第1の実施の形態とほぼ同様であるため、以下、第1の実施の形態との相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment will be described. In the first embodiment, the peripheral area where the object exists is selected as the attention area. On the other hand, in the third embodiment, there are a plurality of display modes suitable for each of a plurality of traveling states of the vehicle, and a region of interest is selected according to the display mode. Since the configuration and operation of the
図19は、第3の実施の形態の画像表示システム120の構成を示すブロック図である。第3の実施の形態の画像表示システム120では、画像処理装置100が、切替スイッチ45を備えている。この切替スイッチ45は、ユーザが操作可能なボタン式のスイッチであり、ユーザが操作しやすいように本体部10とは別に車両の適位置に配置される。切替スイッチの操作内容は、信号として制御部1に入力される。
FIG. 19 is a block diagram illustrating a configuration of an
また、画像表示システム120は、プログラムに従って制御部1のCPUが演算処理を行うことで実現される機能として、モード切替部16を備えている。さらに、不揮発性メモリ40には、表示モードに応じた注目領域を示すモードデータ4cが記憶されている。
The
また、第3の実施の形態の画像表示システム120は、ソナーシステム7からの信号を利用しないため、信号入力部41が省略されている。第3の実施の形態の画像表示システム120のその他の構成は、図1に示す第1の実施の形態の画像表示システム120と同様である。
Further, since the
モード切替部16は、画像表示システム120の周辺表示モードにおける表示モードを切り替えるものである。図20は、周辺表示モードにおける表示モードの遷移を示す図である。本実施の形態の画像表示システム120は、後方駐車モードM11、縦列駐車モードM12、及び、すれ違いモードM13の3つの表示モードを有している。周辺表示モードにおいては、ユーザが切替スイッチ45を押下するごとに、これらの表示モードが変更される。
The
3つの表示モードはそれぞれ、車両の特殊な走行状態に最適化されている。後方駐車モードM11は、後方駐車を行う場合に適した表示モードであり、縦列駐車モードM12は、縦列駐車を行う場合に適した表示モードである。また、すれ違いモードM13は、比較的狭い道などで対向車とすれ違う場合に適した表示モードである。これらの表示モードでは、注目領域として選択される周辺領域が異なっている。 Each of the three display modes is optimized for a special driving condition of the vehicle. The rear parking mode M11 is a display mode suitable for performing rear parking, and the vertical parking mode M12 is a display mode suitable for performing parallel parking. Further, the passing mode M13 is a display mode suitable for passing the oncoming vehicle on a relatively narrow road. In these display modes, the peripheral area selected as the attention area is different.
図21は、第3の実施の形態の周辺表示モードにおける動作の流れを示す図である。まず、現時点の表示モードがモード切替部16から領域選択部13に取得される(ステップS51)。次に、領域選択部13は、現時点の表示モードに基づいて、モードデータ4cを参照して注目領域を選択する。すなわち、本実施の形態では、注目領域として選択される周辺領域は、物体の存在とは無関係に表示モードのみによって規定される(ステップS52)。そして、第1の実施の形態と同様にして、注目領域表示処理がなされることになる(ステップS53)。
FIG. 21 is a diagram illustrating an operation flow in the peripheral display mode according to the third embodiment. First, the current display mode is acquired from the
図22は、後方駐車モードM11において注目領域として選択される周辺領域を示す図である。図22に示すように、後方駐車モードM11においては、後方左側領域A3及び後方右側領域A4が注目領域として選択される。この場合において、車両周辺画像の仮想視点の視野方向は略直下方向に設定される。そして、仮想視点の視点位置は、後方左側領域A3の中央Vp3と後方右側領域A4の中央Vp4との間で移動される。 FIG. 22 is a diagram illustrating a peripheral region selected as a region of interest in the rear parking mode M11. As shown in FIG. 22, in the rear parking mode M11, the rear left area A3 and the rear right area A4 are selected as the attention areas. In this case, the visual field direction of the virtual viewpoint of the vehicle peripheral image is set to a substantially direct downward direction. The viewpoint position of the virtual viewpoint is moved between the center Vp3 of the rear left region A3 and the center Vp4 of the rear right region A4.
これにより、後方駐車モードM11では、2つの周辺領域A3,A4をそれぞれ示す車両周辺画像が交互に切り替えてディスプレイ21に表示されることになる。
As a result, in the rear parking mode M11, the vehicle peripheral images respectively showing the two peripheral areas A3 and A4 are alternately switched and displayed on the
図23は、縦列駐車モードM12において注目領域として選択される周辺領域を示す図である。図23に示すように、縦列駐車モードM12においては、前方左側領域A1、後方左側領域A3及び後方右側領域A4が注目領域として選択される。この場合も、車両周辺画像の仮想視点の視野方向は略直下方向に設定される。そして、仮想視点の視点位置は、前方左側領域A1の中央Vp1と、後方左側領域A3の中央Vp3と、後方右側領域A4の中央Vp4との間で移動されることになる。 FIG. 23 is a diagram illustrating a peripheral region selected as a region of interest in the parallel parking mode M12. As shown in FIG. 23, in the parallel parking mode M12, the front left area A1, the rear left area A3, and the rear right area A4 are selected as the attention areas. In this case as well, the visual field direction of the virtual viewpoint of the vehicle peripheral image is set to a substantially direct downward direction. The viewpoint position of the virtual viewpoint is moved between the center Vp1 of the front left region A1, the center Vp3 of the rear left region A3, and the center Vp4 of the rear right region A4.
これにより、縦列駐車モードM12では、これら3つの周辺領域A1,A3,A4をそれぞれ示す車両周辺画像が順次に切り替えてディスプレイ21に表示されることになる。
As a result, in the parallel parking mode M12, the vehicle peripheral images respectively indicating the three peripheral regions A1, A3, and A4 are sequentially switched and displayed on the
図24は、すれ違いモードM13において注目領域として選択される周辺領域を示す図である。図24に示すように、縦列駐車モードM12においては、車両9の左側側方に設定される左側方領域A5、及び、車両の右側側方に設定される右側方領域A6が注目領域として選択される。
FIG. 24 is a diagram illustrating a peripheral region selected as a region of interest in the passing mode M13. As shown in FIG. 24, in the parallel parking mode M12, the left side area A5 set on the left side of the
この場合において、車両周辺画像の仮想視点の視野方向は前方方向に設定される。そして、仮想視点の視点位置は、左側方領域A5の後方中央Vp5と、右側方領域A6の後方中央Vp6との間で移動されることになる。 In this case, the visual field direction of the virtual viewpoint of the vehicle peripheral image is set to the forward direction. Then, the viewpoint position of the virtual viewpoint is moved between the rear center Vp5 of the left side region A5 and the rear center Vp6 of the right side region A6.
これにより、すれ違いモードM13では、図25に示すように、車両9の後方からみた左側方領域A5の様子を示す車両周辺画像BP5と、車両9の後方からみた右側方領域A6の様子を示す車両周辺画像BP6とが交互に切り替えてディスプレイ21の画面D1の同一の表示領域PAに表示されることになる。このような表示がなされることで、対向車とすれ違う場合において車両9の側方におけるクリアランスをユーザが確認しやすい。
Thus, in the passing mode M13, as shown in FIG. 25, the vehicle peripheral image BP5 showing the state of the left side region A5 viewed from the rear of the
このように第3の実施の形態の画像表示システム120では、その時点の表示モードに応じて注目領域が選択されるため、その時点の走行状態に適した周辺領域を的確にユーザに示すことができる。また、第3の実施の形態の画像表示システム120では、ソナーシステム7等との連携が不要となり、適切な周辺領域をユーザに示す機能を比較的低コストに実現することができる。
As described above, in the
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態で説明した形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All forms including those described in the above embodiment and those described below can be combined as appropriate.
上記実施の形態では、領域選択部13が注目領域を選択していたが、ユーザの操作に基づいて注目領域を選択するようにしてもよい。この場合は、ユーザが所望の周辺領域の様子をディスプレイ21において確認することができる。
In the above embodiment, the
また、上記実施の形態では、ディスプレイ21の画面D1に注目領域を示す車両周辺画像のみが表示されていた。これに対して、図26に示すように、車両周辺画像と合わせて全体俯瞰画像BPを、ディスプレイ21の画面D2に同時に表示するようにしてもよい。この場合、第1表示領域PA1に全体俯瞰画像BPが常に表示され、第2表示領域PA2に複数の車両周辺画像が順次に切り替えて表示される。また、この場合は、図26に示すように、第2表示領域PA2に表示されている車両周辺画像が示す周辺領域の位置を、第1表示領域PA1に表示されている全体俯瞰画像BP中に枠Cなどで明示するようにしてもよい。図26の例では、前方左側領域A1を示す車両周辺画像BP1が第2表示領域PA2に表示されている。このため、全体俯瞰画像BP中の被写体像において前方左側領域A1に対応する位置に枠Cが表示されている。
Moreover, in the said embodiment, only the vehicle periphery image which shows an attention area was displayed on the screen D1 of the
また、上記第1及び第2の実施の形態では、ソナーシステム7によって車両の周辺に存在する物体を検出していた。これに対して、例えばレーダー装置による物体検出や、画像に基づく物体認識などの他の手法によって、車両の周辺に存在する物体を検出してもよい。
In the first and second embodiments, the
また、上記第1及び第2の実施の形態では、車両の周辺に物体が存在する周辺領域を注目領域として選択していた。これに対して、駐車スペースを示す白線が存在する周辺領域を注目領域として選択するようにしてもよい。この場合は、画像中に示される白線を認識する周知の白線認識手法を採用すればよい。 In the first and second embodiments, the peripheral area where an object exists around the vehicle is selected as the attention area. On the other hand, you may make it select the surrounding area in which the white line which shows a parking space exists as an attention area. In this case, a known white line recognition method for recognizing the white line shown in the image may be employed.
また、上記実施の形態では、車両の前方の周辺領域を示す車両周辺画像と、車両の後方の周辺領域を示す車両周辺画像との双方で、車両9の前方側が画像上側に示されていた。これに対して、車両の後方の周辺領域を示す車両周辺画像では、車両9の後方側が画像上側に示されるようにしてもよい。この場合、車両の前方の周辺領域を示す車両周辺画像から、車両の後方の周辺領域を示す車両周辺画像に切り替える際は、仮想視点の向きを180度回転させるようにすればよい。
Moreover, in the said embodiment, the front side of the
また、上記第2の実施の形態では、物体の種類を判定する場合に人物か否かのみを判定していたが、物体の他の種類も判定するようにしてもよい。例えば、人物、車両、動物などを判定できるようにしてもよい。また、物体が接近物か否かを判定するようにしてもよい。接近物か否かは、時間経過に伴って物体の距離が小さくなっているか否かに基づいて判定できる。このような接近物は車両と接触する可能性が高いため、接近物が存在する周辺領域(注目領域)の優先度については高く設定することが望ましい。 In the second embodiment, when determining the type of the object, only the person is determined. However, other types of the object may be determined. For example, a person, vehicle, animal, or the like may be determined. Moreover, you may make it determine whether an object is an approaching object. Whether or not the object is an approaching object can be determined based on whether or not the distance of the object decreases with time. Since such an approaching object is highly likely to come into contact with the vehicle, it is desirable to set a high priority for the surrounding area (attention area) where the approaching object exists.
また、上記実施の形態では、優先度が高い注目領域から順に車両周辺画像がディスプレイ21に表示されるようにしていた。これに対して、注目領域の優先度が高いほど、当該注目領域を示す車両周辺画像の表示時間を長くするようにしてもよい。
Moreover, in the said embodiment, the vehicle periphery image was displayed on the
また、上記実施の形態では、周辺領域を示す車両周辺画像は合成画像であると説明したが、画像合成処理を行っていない撮影画像であってもよい。 In the above-described embodiment, the vehicle peripheral image indicating the peripheral region is described as a composite image, but may be a captured image that has not been subjected to image composite processing.
また、上記実施の形態では、画像処理装置100とナビゲーション装置20とは別の装置であるとして説明したが、画像処理装置100とナビゲーション装置20とが同一の筐体内に配置されて一体型の装置として構成されてもよい。
In the above embodiment, the
また、上記実施の形態では、画像処理装置100で生成された画像を表示する表示装置はナビゲーション装置20であるとして説明したが、ナビゲーション機能等の特殊な機能を有していない一般的な表示装置であってもよい。
In the above embodiment, the display device that displays the image generated by the
また、上記実施の形態において、画像処理装置100の制御部1によって実現されると説明した機能の一部は、ナビゲーション装置20の制御部23によって実現されてもよい。
In the above embodiment, some of the functions described as being realized by the
また、ソナーシステム7からの信号は、ナビゲーション装置20に入力されるようになっていてもよい。この場合は、ナビ通信部42を経由して、画像処理装置100の制御部1に当該信号を入力すればよい。
The signal from the
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。 Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.
7 ソナーシステム
9 車両
12 表示制御部
13 領域選択部
14 優先度設定部
15 種類判定部
21 ディスプレイ
A1 前方左側領域
A2 前方右側領域
A3 後方左側領域
A4 後方右側領域
120 画像表示システム
7
Claims (13)
前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、
前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、
前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する表示手段と、
を備えることを特徴とする画像表示システム。 An image display system mounted on a vehicle,
Generating means for generating a vehicle peripheral image indicating a peripheral region of a part of the periphery of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Selecting means for selecting a plurality of surrounding areas to be shown to the user of the vehicle at the same time;
Display means for sequentially switching a plurality of vehicle peripheral images showing the plurality of peripheral areas and displaying them in the same display area in the screen;
An image display system comprising:
前記表示手段は、前記複数の車両周辺画像を繰り返し表示することを特徴とする画像表示システム。 The image display system according to claim 1,
The image display system, wherein the display means repeatedly displays the plurality of vehicle surrounding images.
前記生成手段は、複数のカメラで得られる撮影画像から、任意の視点からみた前記周辺領域を示す前記車両周辺画像を生成可能であることを特徴とする画像表示システム。 The image display system according to claim 1 or 2,
The image display system characterized in that the generation means can generate the vehicle peripheral image indicating the peripheral region viewed from an arbitrary viewpoint from captured images obtained by a plurality of cameras.
前記表示手段は、前記車両周辺画像を切り替える際に、切り替え前の前記車両周辺画像の視点の位置から切り替え後の前記車両周辺画像の視点の位置まで前記視点の位置が移動するアニメーション表現を行うことを特徴とする画像表示システム。 The image display system according to claim 3,
When the vehicle surrounding image is switched, the display means performs an animation expression in which the viewpoint position moves from the viewpoint position of the vehicle surrounding image before switching to the viewpoint position of the vehicle surrounding image after switching. An image display system characterized by the above.
前記視点の位置が移動する場合における前記視点の移動速度は、
該視点の位置が移動の起点及び終点のいずれかに近いほど遅く、
該視点の位置が移動の起点及び終点から離れるほど速いことを特徴とする画像表示システム。 The image display system according to claim 4,
The moving speed of the viewpoint when the position of the viewpoint moves is
The closer the viewpoint is to either the start or end of movement, the slower
An image display system characterized in that the position of the viewpoint is faster as it moves away from the starting and end points of movement.
前記複数の車両周辺画像は、画角が同一であることを特徴とする画像表示システム。 The image display system according to any one of claims 1 to 5,
The image display system characterized in that the plurality of vehicle peripheral images have the same angle of view.
前記車両の周辺に存在する物体を検出した検出結果を取得する取得手段、
をさらに備え、
前記選択手段は、前記検出結果が示す前記物体の位置に基づいて前記複数の周辺領域を選択することを特徴とする画像表示システム。 The image display system according to any one of claims 1 to 6,
Obtaining means for obtaining a detection result of detecting an object existing around the vehicle;
Further comprising
The image display system, wherein the selection unit selects the plurality of peripheral regions based on the position of the object indicated by the detection result.
前記検出結果は、前記車両からの前記物体の距離を含み、
前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の距離に基づいて設定する設定手段と、
を備えることを特徴とする画像表示システム。 The image display system according to claim 7,
The detection result includes a distance of the object from the vehicle,
Setting means for setting the priority in displaying the plurality of vehicle peripheral images of each of the plurality of peripheral regions based on the distance of the object;
An image display system comprising:
前記設定手段は、前記周辺領域に存在する物体の距離が近いほど、該周辺領域の優先度を高くすることを特徴とする画像表示システム。 The image display system according to claim 8,
The image display system according to claim 1, wherein the setting unit increases the priority of the peripheral area as the distance between the objects existing in the peripheral area is shorter.
前記車両の周辺に存在する物体の種類を判別する判別手段と、
前記複数の周辺領域それぞれの前記複数の車両周辺画像の表示における優先度を、前記物体の種類に基づいて設定する設定手段と、
をさらに備えことを特徴とする画像表示システム。 The image display system according to any one of claims 1 to 6,
Discriminating means for discriminating the types of objects existing around the vehicle;
Setting means for setting a priority in displaying the plurality of vehicle peripheral images of each of the plurality of peripheral regions based on the type of the object;
An image display system further comprising:
前記車両の複数の走行状態それぞれに適した複数の表示モードを切り替える切替手段、
を備え、
前記選択手段は、現時点の前記表示モードに応じて前記複数の周辺領域を選択することを特徴とする画像表示システム。 The image display system according to any one of claims 1 to 6,
Switching means for switching a plurality of display modes suitable for each of a plurality of driving states of the vehicle;
With
The image display system, wherein the selection unit selects the plurality of peripheral areas according to the current display mode.
前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する生成手段と、
前記車両のユーザに同時期に示すべき複数の周辺領域を選択する選択手段と、
前記複数の周辺領域それぞれを示す複数の車両周辺画像を前記表示装置に出力して、順次に切り替えて前記表示装置の画面内の同一の表示領域に表示させる出力手段と、
を備えることを特徴とする画像処理装置。 An image processing device for generating an image to be displayed on a display device mounted on a vehicle,
Generating means for generating a vehicle peripheral image indicating a peripheral region of a part of the periphery of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Selecting means for selecting a plurality of surrounding areas to be shown to the user of the vehicle at the same time;
Output means for outputting a plurality of vehicle peripheral images showing the plurality of peripheral areas to the display device, and sequentially switching them to be displayed on the same display region in the screen of the display device;
An image processing apparatus comprising:
前記車両に配置されたカメラで得られる撮影画像から、前記車両の周辺の一部の周辺領域を示す車両周辺画像を生成する工程と、
前記車両のユーザに同時期に示すべき複数の周辺領域を選択する工程と、
前記複数の周辺領域それぞれを示す複数の車両周辺画像を、順次に切り替えて画面内の同一の表示領域に表示する工程と、
を備えることを特徴とする画像表示方法。 An image display method for displaying an image in a vehicle,
Generating a vehicle peripheral image indicating a peripheral region of a part of the periphery of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Selecting a plurality of surrounding areas to be shown to the user of the vehicle at the same time;
A step of sequentially switching a plurality of vehicle peripheral images showing each of the plurality of peripheral regions and displaying them in the same display region in the screen;
An image display method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010168007A JP5622986B2 (en) | 2010-07-27 | 2010-07-27 | Image display system, image processing apparatus, and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010168007A JP5622986B2 (en) | 2010-07-27 | 2010-07-27 | Image display system, image processing apparatus, and image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012025327A true JP2012025327A (en) | 2012-02-09 |
JP5622986B2 JP5622986B2 (en) | 2014-11-12 |
Family
ID=45778786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010168007A Active JP5622986B2 (en) | 2010-07-27 | 2010-07-27 | Image display system, image processing apparatus, and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5622986B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016213841A (en) * | 2016-05-16 | 2016-12-15 | 富士通テン株式会社 | Image generation apparatus, image display system, and image generation method |
KR20170006982A (en) * | 2015-07-10 | 2017-01-18 | 엘지이노텍 주식회사 | Camera module, apparatus and method for driving information of a car including the same |
WO2017051592A1 (en) * | 2015-09-25 | 2017-03-30 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2017143482A (en) * | 2016-02-12 | 2017-08-17 | トヨタ自動車株式会社 | Image display device for vehicle |
WO2019035229A1 (en) * | 2017-08-14 | 2019-02-21 | アイシン精機株式会社 | Peripheral monitoring device |
WO2019035228A1 (en) * | 2017-08-14 | 2019-02-21 | アイシン精機株式会社 | Peripheral monitoring device |
US10789763B2 (en) | 2018-01-17 | 2020-09-29 | Aisin Seiki Kabushiki Kaisha | Periphery monitoring device |
CN111767844A (en) * | 2020-06-29 | 2020-10-13 | 北京百度网讯科技有限公司 | Method and apparatus for three-dimensional modeling |
CN112866651A (en) * | 2021-02-03 | 2021-05-28 | 四川新视创伟超高清科技有限公司 | Super-channel super-machine-position video processing or monitoring system and method based on 8K camera |
WO2021210657A1 (en) * | 2020-04-16 | 2021-10-21 | 日本電気株式会社 | Display control device, surveillance support system, display control method, and non-transitory computer-readable medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102536826B1 (en) * | 2015-07-06 | 2023-05-25 | 엘지이노텍 주식회사 | Apparatus and method for driving information of a car, and program recorded on a recording medium performing the method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0930327A (en) * | 1995-07-24 | 1997-02-04 | Murakami Corp | Visual recognition device for vehicle |
JP2004282465A (en) * | 2003-03-17 | 2004-10-07 | Sumitomo Electric Ind Ltd | Display system for vehicle, and video image display method for vehicle |
JP2007210458A (en) * | 2006-02-09 | 2007-08-23 | Nissan Motor Co Ltd | Display device for vehicle and image display control method for vehicle |
JP2007320359A (en) * | 2006-05-30 | 2007-12-13 | Mitsubishi Electric Corp | Drive recorder system and on-vehicle device |
JP2008219559A (en) * | 2007-03-06 | 2008-09-18 | Xanavi Informatics Corp | In-vehicle camera system |
JP2009093485A (en) * | 2007-10-10 | 2009-04-30 | Nippon Soken Inc | Image forming unit and image forming program |
JP2010015436A (en) * | 2008-07-04 | 2010-01-21 | Honda Motor Co Ltd | Device for switching vehicle surrounding image |
-
2010
- 2010-07-27 JP JP2010168007A patent/JP5622986B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0930327A (en) * | 1995-07-24 | 1997-02-04 | Murakami Corp | Visual recognition device for vehicle |
JP2004282465A (en) * | 2003-03-17 | 2004-10-07 | Sumitomo Electric Ind Ltd | Display system for vehicle, and video image display method for vehicle |
JP2007210458A (en) * | 2006-02-09 | 2007-08-23 | Nissan Motor Co Ltd | Display device for vehicle and image display control method for vehicle |
JP2007320359A (en) * | 2006-05-30 | 2007-12-13 | Mitsubishi Electric Corp | Drive recorder system and on-vehicle device |
JP2008219559A (en) * | 2007-03-06 | 2008-09-18 | Xanavi Informatics Corp | In-vehicle camera system |
JP2009093485A (en) * | 2007-10-10 | 2009-04-30 | Nippon Soken Inc | Image forming unit and image forming program |
JP2010015436A (en) * | 2008-07-04 | 2010-01-21 | Honda Motor Co Ltd | Device for switching vehicle surrounding image |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170006982A (en) * | 2015-07-10 | 2017-01-18 | 엘지이노텍 주식회사 | Camera module, apparatus and method for driving information of a car including the same |
KR102381861B1 (en) | 2015-07-10 | 2022-04-04 | 엘지이노텍 주식회사 | Camera module, apparatus and method for driving information of a car including the same |
US10600253B2 (en) | 2015-09-25 | 2020-03-24 | Sony Corporation | Information processing apparatus, information processing method, and program |
WO2017051592A1 (en) * | 2015-09-25 | 2017-03-30 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2017143482A (en) * | 2016-02-12 | 2017-08-17 | トヨタ自動車株式会社 | Image display device for vehicle |
JP2016213841A (en) * | 2016-05-16 | 2016-12-15 | 富士通テン株式会社 | Image generation apparatus, image display system, and image generation method |
CN111034188A (en) * | 2017-08-14 | 2020-04-17 | 爱信精机株式会社 | Peripheral monitoring device |
US11091096B2 (en) | 2017-08-14 | 2021-08-17 | Aisin Seiki Kabushiki Kaisha | Periphery monitoring device |
JP2019036831A (en) * | 2017-08-14 | 2019-03-07 | アイシン精機株式会社 | Periphery monitoring device |
CN110999282A (en) * | 2017-08-14 | 2020-04-10 | 爱信精机株式会社 | Peripheral monitoring device |
WO2019035228A1 (en) * | 2017-08-14 | 2019-02-21 | アイシン精機株式会社 | Peripheral monitoring device |
WO2019035229A1 (en) * | 2017-08-14 | 2019-02-21 | アイシン精機株式会社 | Peripheral monitoring device |
JP2019036832A (en) * | 2017-08-14 | 2019-03-07 | アイシン精機株式会社 | Periphery monitoring device |
CN111034188B (en) * | 2017-08-14 | 2021-07-27 | 爱信精机株式会社 | Peripheral monitoring device |
US10789763B2 (en) | 2018-01-17 | 2020-09-29 | Aisin Seiki Kabushiki Kaisha | Periphery monitoring device |
WO2021210657A1 (en) * | 2020-04-16 | 2021-10-21 | 日本電気株式会社 | Display control device, surveillance support system, display control method, and non-transitory computer-readable medium |
JP2021119466A (en) * | 2020-06-29 | 2021-08-12 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | Method and device for 3d modeling, electronic apparatus, storage media, and computer program |
CN111767844A (en) * | 2020-06-29 | 2020-10-13 | 北京百度网讯科技有限公司 | Method and apparatus for three-dimensional modeling |
JP7192017B2 (en) | 2020-06-29 | 2022-12-19 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Method and apparatus, electronic device, storage medium and computer program for three-dimensional modeling |
US11697428B2 (en) | 2020-06-29 | 2023-07-11 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Method and apparatus for 3D modeling |
CN111767844B (en) * | 2020-06-29 | 2023-12-29 | 阿波罗智能技术(北京)有限公司 | Method and apparatus for three-dimensional modeling |
CN112866651A (en) * | 2021-02-03 | 2021-05-28 | 四川新视创伟超高清科技有限公司 | Super-channel super-machine-position video processing or monitoring system and method based on 8K camera |
Also Published As
Publication number | Publication date |
---|---|
JP5622986B2 (en) | 2014-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5622986B2 (en) | Image display system, image processing apparatus, and image display method | |
JP5765995B2 (en) | Image display system | |
JP6413207B2 (en) | Vehicle display device | |
JP5911775B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP5813944B2 (en) | Image display system, image processing apparatus, and image display method | |
JP5743652B2 (en) | Image display system, image generation apparatus, and image generation method | |
JP4687411B2 (en) | Vehicle peripheral image processing apparatus and program | |
WO2013047012A1 (en) | Vehicle surroundings monitoring device | |
JP6548900B2 (en) | Image generation apparatus, image generation method and program | |
JP5495071B2 (en) | Vehicle periphery monitoring device | |
US20120249796A1 (en) | Image processing device, image processing system, and image processing method | |
JP2010183170A (en) | Display apparatus for vehicle | |
JP6425991B2 (en) | Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image | |
JP2011135253A (en) | Image processor, image processing system and image processing method | |
JP2007274377A (en) | Periphery monitoring apparatus, and program | |
JP5914114B2 (en) | Parking assistance device and parking assistance method | |
JP2020120327A (en) | Peripheral display control device | |
WO2010070920A1 (en) | Device for generating image of surroundings of vehicle | |
JP2004254219A (en) | Vehicular surrounding image processing apparatus and program, and recording medium | |
JP2007124097A (en) | Apparatus for visually recognizing surrounding of vehicle | |
JP6258000B2 (en) | Image display system, image display method, and program | |
JP2004056219A (en) | Vehicle surroundings monitoring apparatus | |
JP6720729B2 (en) | Display controller | |
JP6073433B2 (en) | Image display system, image processing apparatus, and image display method | |
JP5273068B2 (en) | Vehicle periphery monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140923 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5622986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |