JP2014060646A - Image processing apparatus, image processing method, and image processing system - Google Patents
Image processing apparatus, image processing method, and image processing system Download PDFInfo
- Publication number
- JP2014060646A JP2014060646A JP2012205440A JP2012205440A JP2014060646A JP 2014060646 A JP2014060646 A JP 2014060646A JP 2012205440 A JP2012205440 A JP 2012205440A JP 2012205440 A JP2012205440 A JP 2012205440A JP 2014060646 A JP2014060646 A JP 2014060646A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- image processing
- driver
- transmittance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、車両の周辺を示す画像を処理する技術に関する。 The present invention relates to a technique for processing an image showing the periphery of a vehicle.
従来より、自動車等の車両周辺を撮影した画像を合成し、運転席から見える車両周辺の様子を表示するシステムが知られている。このようなシステムにより、ユーザ(代表的には車両のドライバー)は、車両内にいながら周辺の様子を確認することができる。 2. Description of the Related Art Conventionally, there has been known a system that synthesizes an image of the periphery of a vehicle such as an automobile and displays the state of the periphery of the vehicle that can be seen from the driver's seat. With such a system, a user (typically a vehicle driver) can check the surroundings while in the vehicle.
また、近年では、車両周辺の画像に運転席から見える車室の画像を重畳させたうえ、車室画像の全体を透過的に表示することで、ドライバーの目視では車体に遮られて確認できないような障害物をも確認できる技術が提案されている(例えば、特許文献1参照。)。ユーザは、このような画像を視認することで、車両周辺の様子を車両との位置関係を直感的に把握しながら確認することができる。 In addition, in recent years, an image of the passenger compartment that is visible from the driver's seat is superimposed on an image around the vehicle, and the entire passenger compartment image is transparently displayed, so that the driver cannot visually check the vehicle. A technique capable of confirming a simple obstacle has been proposed (see, for example, Patent Document 1). By visually recognizing such an image, the user can confirm the situation around the vehicle while intuitively grasping the positional relationship with the vehicle.
しかしながら、車室画像の全体を透過的に表示させると、透過した部分に様々な車両周辺の物体が表示されるため、ドライバーは車両周辺の画像のうち、どこに最も注視すべきか直ちに把握することができない。このため、進行経路上に存在する障害物が画像に表示されているにもかかわらず、ドライバーがこのような障害物を見落とす恐れが生じていた。また、このような課題は、運転席から見た画像を表示した場合のみならず、車両の外部の俯瞰的な視点で車両の周辺画像を表示した場合にも生じていた。 However, when the entire passenger compartment image is displayed transparently, various objects around the vehicle are displayed in the transparent part, so that the driver can immediately grasp where in the image around the vehicle should be watched most. Can not. For this reason, there is a possibility that the driver overlooks such an obstacle even though the obstacle present on the traveling path is displayed in the image. Such a problem has occurred not only when an image viewed from the driver's seat is displayed, but also when a peripheral image of the vehicle is displayed from a bird's-eye view outside the vehicle.
本発明は、上記課題に鑑みてなされたものであり、車両周辺を示す画像に車室等の車両画像を重畳させ、かかる車両画像を透過させて表示した場合に、ユーザが被写体の位置を直感的に把握できる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and when a vehicle image such as a passenger compartment is superimposed on an image showing the periphery of the vehicle and the vehicle image is transmitted and displayed, the user can intuitively determine the position of the subject. The purpose is to provide technology that can be grasped in an efficient manner.
上記課題を解決するため、請求項1の発明は、車両で用いられ、画像を処理する画像処理装置であって、前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する生成手段と、前記仮想視点からみた前記車両を示す車両画像を取得する取得手段と、前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める透過手段と、前記周辺画像と前記車両画像とを合成し合成画像を生成する合成手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備える。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1に記載の画像処理装置において、前記仮想視点の位置は、前記車両のドライバーの視点に相当する位置であり、前記車両画像は、前記車両の車室内部を示す車室画像である。 According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the position of the virtual viewpoint is a position corresponding to the viewpoint of the driver of the vehicle, and the vehicle image is a cabin of the vehicle. It is a vehicle compartment image which shows the inside.
また、請求項3の発明は、請求項1または2に記載の画像処理装置において、前記車両の進行方向を検出する方向検出手段、をさらに備え、前記透過手段は、前記特定領域の範囲を前記車両の進行方向に基づいて決定する。
The invention according to
また、請求項4の発明は、請求項1または2に記載の画像処理装置において、前記車両の周辺に存在する物体の位置を検出する物体検出手段、をさらに備え、前記透過手段は、前記特定領域の範囲を前記物体の位置に基づいて決定する。
The invention according to claim 4 is the image processing apparatus according to
また、請求項5の発明は、請求項1または2に記載の画像処理装置において、前記特定領域の範囲は、前記車両を構成する部位の範囲である。 According to a fifth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the range of the specific region is a range of a part constituting the vehicle.
また、請求項6の発明は、車両で用いられる画像処理方法であって、前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する工程と、前記仮想視点からみた前記車両を示す車両画像を取得する工程と、前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める工程と、前記周辺画像と前記車両画像とを合成し合成画像を生成する工程と、前記合成画像を表示装置に出力して表示させる工程と、を備える。 The invention according to claim 6 is an image processing method used in a vehicle, and shows a peripheral region of the vehicle as viewed from a virtual viewpoint using a plurality of images acquired by a plurality of cameras provided in the vehicle. A step of generating a peripheral image, a step of acquiring a vehicle image showing the vehicle viewed from the virtual viewpoint, a step of increasing the transmittance of a specific region of a part of the vehicle image above the transmittance of another portion, A step of synthesizing a peripheral image and the vehicle image to generate a composite image; and a step of outputting the composite image to a display device for display.
また、請求項7の発明は、車両で用いられる画像処理システムであって、請求項1ないし5のいずれかに記載の画像処理装置と、前記画像処理装置から出力された前記合成画像を表示する表示装置と、を備える。 According to a seventh aspect of the present invention, there is provided an image processing system used in a vehicle, wherein the image processing apparatus according to any one of the first to fifth aspects and the composite image output from the image processing apparatus are displayed. A display device.
請求項1から7の発明によれば、車両画像の一部分の特定領域の透過率を他の部分の透過率より高めるので、車両のドライバーに対し、特定領域に相当する車両の周辺領域に存在する被写体の像を注視させることができる。 According to the first to seventh aspects of the present invention, since the transmittance of a specific area of a part of the vehicle image is higher than the transmittance of other parts, it exists in the peripheral area of the vehicle corresponding to the specific area for the driver of the vehicle. The image of the subject can be watched.
また、特に請求項2の発明によれば、車室内にいるドライバーの視点で車両周辺の状況を車両又は車室を透過して参照することができるので、ドライバーは直感的に周辺状況を把握することができる。 In particular, according to the invention of claim 2, since the situation around the vehicle can be referred to through the vehicle or the cabin from the viewpoint of the driver in the cabin, the driver intuitively grasps the surrounding situation. be able to.
また、特に請求項3の発明によれば、特定領域の範囲を車両の進行方向に基づいて決定するので、前進や後進する場合に進行方向周辺の状況を車両又は車室を透過して参照することができ、ドライバーは車両を安全に前進や後進させることができる。
In particular, according to the invention of
また、特に請求項4の発明によれば、特定領域の範囲を物体の位置に基づいて決定するので、ドライバーは物体の位置を車両又は車室を透過して確認することができ、車両と物体との位置関係を把握することができる。 In particular, according to the invention of claim 4, since the range of the specific area is determined based on the position of the object, the driver can confirm the position of the object through the vehicle or the passenger compartment. Can be grasped.
また、特に請求項5の発明によれば、特定領域の範囲を車両を構成する部位の範囲とすることで、透過率を高める範囲を限定できるため、画像処理の効率を向上させることができる。 In particular, according to the invention of claim 5, by setting the range of the specific region as the range of the part constituting the vehicle, it is possible to limit the range in which the transmittance is increased, and thus it is possible to improve the efficiency of the image processing.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態における画像処理システム120の構成を示すブロック図である。画像処理システム120は、車両1(本実施の形態では、自動車)に搭載され、車両1の周辺領域を示す画像を生成して車室内に表示する機能を有する。画像処理システム120のユーザとなるドライバーは、この画像処理システム120を利用し、車両1の周辺の様子を確認することができる。
<1. First Embodiment>
<1-1. Configuration>
FIG. 1 is a block diagram illustrating a configuration of an
図に示すように、画像処理システム120は、画像処理装置100及び表示装置110を備えている。画像処理装置100は複数のカメラ20を備えている。この複数のカメラ20は、車両1の周辺を撮影して車両1の周辺を示す画像を取得し、取得した画像を画像処理装置100へ入力する。
As shown in the figure, the
画像処理装置100は、撮影画像等を用いて各種の画像処理を行い、表示装置110に表示するための画像を生成する。また、表示装置110は、画像処理装置100から出力された画像を表示する。
The
複数のカメラ20はそれぞれ、レンズと撮像素子とを備え、車両1の周辺を示す撮影画像を電子的に取得する。複数のカメラ20は、フロントカメラ20F、リアカメラ20B、左サイドカメラ20L、及び、右サイドカメラ20Rを含む。これら4つのカメラ20F,20B,20L,20Rは、車両1において互いに異なる位置に配置され、車両1の周辺の異なる方向を撮影する。
Each of the plurality of
図2は、4つのカメラ20F,20B,20L,20Rがそれぞれ撮影する方向を示す図である。フロントカメラ20Fは、車両1の前端に設けられ、その光軸20Faは車両1の直進方向に向けられる。リアカメラ20Bは、車両1の後端に設けられ、その光軸20Baは車両1の直進方向の逆方向に向けられる。左サイドカメラ20Lは、左側の左サイドミラー11Lに設けられ、その光軸20Laは車両1の左側方(直進方向の直交方向)に向けられる。また、右サイドカメラ20Rは、右側の右サイドミラー11Rに設けられ、その光軸20Raは車両1の右側方(直進方向の直交方向)に向けられる。
FIG. 2 is a diagram illustrating directions in which the four
これらのカメラ20F,20B,20L,20Rのレンズには魚眼レンズ等の広角レンズが採用され、各カメラ20F,20B,20L,20Rは180度以上の画角θを有する。このため、4つのカメラ20F,20B,20L,20Rを利用し、車両1の全周囲を撮影することが可能である。
These
図1に戻り、表示装置110は、液晶等の薄型の表示パネルとユーザの入力操作を検知するタッチパネル110aとを備え、各種の情報や画像を表示する。表示装置110は、ドライバーが車両1の運転席に着座した状態でその画面を視認できるように、車室内に配置される。
Returning to FIG. 1, the
画像処理装置100は、各種の画像処理が可能な電子装置であり、画像処理部102と、画像取得部103と、画像出力部104とを備えている。
The
画像処理部102は、合成画像を生成するための画像処理を行うハードウェア回路である。画像処理部102は、複数のカメラ20で取得された複数の撮影画像を合成して、仮想視点からみた車両1の周辺の様子を示す周辺画像を生成する機能を有している。周辺画像処理部102が周辺画像を生成する手法については後に詳述する。画像処理部102は周辺画像生成部102a及び合成画像生成部102bをさらに備える。
The
周辺画像生成部102aは、複数のカメラ20で取得された複数の撮影画像を合成し、仮想視点からみた車両1の周辺の様子を示す周辺画像を生成する。仮想視点は、車両1の外部の位置から車両1を俯瞰する俯瞰視点、及び、車両1に乗車したドライバーの視点に相当する位置から外部をみるドライバー視点などである。
The surrounding
合成画像生成部102bは、周辺画像生成部102aで生成された周辺画像に対し、車両1の車体や車室の画像を周辺画像に重畳する。
The composite
画像取得部103は、4つのカメラ20F,20B,20L,20Rでそれぞれ得られた撮影画像を取得する。画像取得部103は、アナログの撮影画像をデジタルの撮影画像に変換する機能等の画像処理機能を有する。画像取得部103は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部102に入力する。
The
画像出力部104は、合成画像等の表示すべき画像を、表示装置110に出力する。これにより、画像が出力された表示装置110に当該画像が表示される。
The
また、画像処理装置100は、制御部101と、記憶部106と、信号受信部105とをさらに備える。制御部101は、例えば、マイクロコンピュータであり、画像処理装置100の全体を統括的に制御する。
The
記憶部106は、例えば、フラッシュメモリ等の不揮発性メモリであり、各種の情報を記憶する。記憶部106は、車両画像データ106P、ファームウェアとしてのプログラムや、制御部101の制御に用いる各種のデータを記憶する。車両画像データ106Pは、車体画像データ106a及び車室画像データ106bを含む。車体画像データ106aは、車両1を俯瞰してみた場合の車両の外観を示す画像である。車室画像データ106bは、車両1の運転席から見える車室内の画像である。各画像は、あらゆる角度からみた車両外観及び車室内の画像を備える。
The
信号受信部105は、車両1に設けられる他の装置からの信号を受信する。信号受信部105は、受信した信号を制御部101に入力する。信号受信部105は、車両情報取得部130、ナビゲーション部140、物体情報取得部150、ドライバー情報取得部160、及び表示装置110のタッチパネル110aからの信号を受信する。
The
制御部101は、CPU、RAM、及びROMを備える。制御部101の各種の機能は、記憶部106に記憶されたプログラムに従ってCPUが演算処理を行うことで実現される。また、制御部101は、プログラムに従って実現される機能として透過率変更部101aを備える。透過率変更部101aは、車両1の車体や車室の画像の透過率を変更する。画像の透過率を高めると、画像の線や色彩が薄く表示され、合成画像生成部102bにより重畳された周辺画像が車体画像や車室画像を透過する。車体画像や車室画像の透過率を100%に変更すると、車両画像や車室画像の線及び色彩は表示されず、周辺画像のみが表示される。一方、透過率を0%に変更すると、車両画像や車室画像の線及び色彩は明確に表示され、車体画像や車室画像と重なる周辺画像は表示されない。また、透過率を50%に変更すると、車体画像や車室画像の線及び色彩は薄く表示され、薄く表示された車体画像や車室画像を通して周辺画像が表示される。なお、画像の透過率を変更する手法は、既知の画像処理手法を用いることができる。
The
車両情報取得部130は、車両1に関する様々な情報を取得し、信号受信部105へ出力する。車両情報取得部130は、車速センサ130a、シフトセンサ130b、ステアリングセンサ130c、及びウインカースイッチ130dを備える。車速センサ130aは、車両1の車両速度を取得し、車速データを時速に換算できるデータとして出力する。シフトセンサ130bは、「Drive」や「Reverse」等のシフトポジションを検知し、現在入力されているシフトポジションの位置データを信号受信部105へ出力する。ステアリングセンサ130cは、ステアリングが中立位置(車両が直進するステアリング位置)から左右にどれだけ回転したかを検知し、角度情報として出力する。ウインカースイッチ130dは、ウインカー(方向指示器)が左右どちらかに操作された場合に、該当する方向データを信号受信部105へ出力する。
The vehicle
ナビゲーション部140は、目的地までの経路を案内するナビゲーション機能を実現する電子装置である。ナビゲーション部140は、目的地までの経路を示す地図画像及び経路案内情報を信号受信部105へ出力する。
The
物体情報取得部150は、車両1の周辺に存在する物体を検知し、車両1に対する物体の方向及び距離データを信号受信部105へ出力する。物体情報取得部150は、クリアランスソナー150a及びレーダ150bを備える。クリアランスソナー150aは、車両1のバンパー部等の周囲に設けられ、音波を送受信することで車両1の周辺に存在する物体を検知する。クリアランスソナー150aは、物体の存在を検知すると、物体の存在する方向及び距離データを信号受信部105へ出力する。レーダ150bは、ミリ波や赤外線を送受信することで車両1の周辺に存在する物体を検知する。レーダ150bは、物体の存在を検知すると、物体の存在する方向及び距離データを信号受信部105へ出力する。
The object
ドライバー情報取得部160は、車両1のドライバーに関する様々な情報を取得し、信号受信部105へ出力する。ドライバー情報取得部160は、視線センサ160aを備える。視線センサ160aは、車両1内に設置されたカメラによりドライバーの視線方向を検知し、視線方向データを信号受信部105へ出力する。
The driver
<1−2.画像の生成>
次に、画像生成部102が、車両1の周辺領域を示す周辺画像、及び周辺画像に車両画像を重畳した合成画像を生成する手法について説明する。図3は、周辺画像生成部102aが周辺画像を生成する手法を説明する図である。
<1-2. Image generation>
Next, a method in which the
フロントカメラ20F、リアカメラ20B、左サイドカメラ20L、及び、右サイドカメラ20Rのそれぞれで撮影が行われると、車両1の前方、後方、左側方、及び、右側方をそれぞれ示す4つの画像PF,PB,PL,PRが取得される。これら4つの画像PF,PB,PL,PRには、車両1の全周囲のデータが含まれている。
When shooting is performed with each of the
周辺画像生成部102aは、まず、これら4つの画像PF,PB,PL,PRに含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしている。この投影面TSの中心部分(お椀の底部分)は、車両1の位置として定められている。また、投影面TSの中心以外の部分は、画像PF,PB,PL,PRのいずれかと対応付けられている。
First, the peripheral
周辺画像生成部102aは、この投影面TSの中心以外の部分に、画像PF,PB,PL,PRに含まれるデータを投影する。周辺画像生成部102aは、投影面TSにおいて車両1の前方に相当する領域に、フロントカメラ20Fの画像PFのデータを投影する。また、周辺画像生成部102aは、投影面TSにおいて車両1の後方に相当する領域に、リアカメラ20Bの画像PBのデータを投影する。さらに、周辺画像生成部102aは、投影面TSにおいて車両1の左側方に相当する領域に左サイドカメラ20Lの画像PLのデータを投影し、投影面TSにおいて車両1の右側方に相当する領域に右サイドカメラ20Rの画像PRのデータを投影する。
The peripheral
次に、周辺画像生成部102aは、三次元空間に対して仮想視点VPを設定する。周辺画像生成部102aは、三次元空間における任意の視点位置に任意の視野方向に向けて仮想視点VPを設定できる。そして、周辺画像生成部102aは、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域を画像として切り出し、切り出した画像を合成する。これにより、周辺画像生成部102aは、仮想視点VPからみた車両1の周辺の領域を示す周辺画像APを生成する。
Next, the surrounding
次に、合成画像生成部102bが、周辺画像生成部102aが生成した周辺画像AP、仮想視点VPに応じて記憶部106から読み出した車両画像データ106P(車体画像データ106a又は車室画像データ106b)、及びタッチパネル110aに用いるアイコン画像PIを合成し、合成画像CPを生成する。
Next, the composite
例えば、視点位置を車両1の運転席、視野方向を車両1の前方とした仮想視点VPc(ドライバー視点)を設定した場合は、車両1の運転席からその前方を見渡すように、車両1の車室内及び車両1の前方の領域を示す合成画像CPcが生成される。すなわち、図4に示すように、合成画像生成部102bは、仮想視点VPの位置が運転席かつ視野方向が前方である合成画像CPcを生成する場合、車両1の前方を示す周辺画像AP、運転席を示す車室画像106b、及びアイコン画像PIを合成し、合成画像CPを生成する。
For example, when a virtual viewpoint VPc (driver viewpoint) is set in which the viewpoint position is the driver's seat of the
また、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPb(斜視的かつ俯瞰的な仮想視点)を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す合成画像CPbが生成される。
Further, when a virtual viewpoint VPb (a perspective and bird's-eye virtual viewpoint) with the viewpoint position as the left rear of the
また、視点位置を車両1の直上、視野方向を直下とした仮想視点VPa(平面的かつ俯瞰的な仮想視点)を設定した場合は、車両1及び車両1の周辺の領域を俯瞰する合成画像CPaが生成される。
When a virtual viewpoint VPa (planar and overhead virtual viewpoint) with the viewpoint position directly above the
合成画像CPが生成されると、透過率変更部101aが、車体画像106a又は車室画像106bの透過率を変更する。車体画像106a又は車室画像106bの透過率が変更された合成画像を表示することで、ドライバーは、車体画像106a等を透過して周辺画像を参照することができるため、車両1の周辺状況を車両との位置関係とともに直感的に把握することができる。
When the composite image CP is generated, the
<1−3.処理手順>
次に、周辺画像を生成する画像処理装置100の処理手順について説明する。図5は、画像処理装置100の処理手順を示す図である。図5に示す処理は、所定の周期(例えば、1/30秒周期)で繰り返し実行される。
<1-3. Processing procedure>
Next, a processing procedure of the
まず、4つのカメラ20でそれぞれ撮影が行われる。画像取得部103はこれら4つのカメラ20から4つの撮影画像を取得する。画像取得部103は取得した4つの撮影画像を画像生成部102に入力する(ステップS11)。
First, each of the four
画像取得部103が撮影画像を画像生成部102に入力すると、制御部101が、仮想視点VPの視点位置を決定する(ステップS12)。仮想視点VPの視点位置は、俯瞰視点位置又はドライバー視点位置であり、画像表示の当初にはドライバー視点位置が選択される。ドライバーにとって最も違和感のない視点位置だからである。なお、仮想視点VPの視野方向は、車両1の左前方が好ましい。車両1がいわゆる右ハンドルである場合、車両1を運転操作するドライバーの死角となりやすい方向だからである。
When the
仮想視点VPの視点位置及び視野方向の変更は、ドライバーによるタッチパネル110aの操作に応じて行えばよい。この際、表示装置110に表示されるアイコン画像PIが操作される毎に、仮想視点VPの位置を俯瞰視点位置、ドライバー視点位置と順次変更する。さらに、俯瞰視点位置の画像及びドライバー視点位置の画像を並列して同時に表示してもよい。この場合、ドライバーは複数の角度から車両1の周辺状況を同時に把握できるので、車両1をより安全に操作することができる。
The viewpoint position and the viewing direction of the virtual viewpoint VP may be changed according to the operation of the
仮想視点VPの位置が決定されると、周辺画像生成部102aは、画像取得部103が取得した撮影画像に基づき、前述の手法により、車両1の周辺画像APを生成する(ステップS13)。
When the position of the virtual viewpoint VP is determined, the surrounding
周辺画像APが生成されると、合成画像生成部102bは、制御部101を介して記憶部106から仮想視点VPに応じた車両画像データ106P(車体画像データ106a又は車室画像データ106b)を読み出す(ステップS14)。仮想視点VPの位置が俯瞰視点位置の場合には、車体画像データ106aが読み出され、ドライバー視点位置の場合には、車室画像データ106bが読み出される。なお、合成画像生成部102bによる記憶部106からの読み出し処理は、制御部101を介して実行される。
When the peripheral image AP is generated, the composite
次に、合成画像生成部102bが、4つの撮影画像を用いて、前述の手法により、合成画像CPを生成する(ステップS15)。
Next, the composite
合成画像生成部102bが合成画像CPを生成すると、透過率変更部101aが、読み出された車両画像データ106Pの透過率を高める処理を実行する(ステップS16)。なお、読み出された車両画像データ106Pの透過率は0%である。透過率変更部101aは、車両画像データ106Pの透過率を50%程度に高めるのが好ましい。この場合、車両画像データ106Pと周辺画像APの両画像が同程度に視認できるため、ドライバーは車両1の周辺状況と車両1の位置関係を容易に把握できるからである。なお、車両画像データ106Pの透過率は、車両1周囲の明るさに応じて変更してもよい。すなわち、夜間や照明のない屋内等により車両1の周囲の照度が低い場合には、車両画像データ106Pの透過率を50%より高めてもよい。この場合、ドライバーは車両画像データ106Pを透過して周辺画像APをより明確に視認できるため、車両1の周囲の照度が低い場合であっても、ドライバーは車両1の周辺状況と車両1の位置関係を把握しやすい。
When the composite
車両画像データ106Pの透過率を高める処理を行うと、透過率変更部101aは、車両画像データ106Pのうち、透過率をさらに高めるべき特定領域PXを設定する(ステップS17)。
If the process which raises the transmittance | permeability of the
透過率変更部101aにより設定される特定領域PXは、合成画像CPのうち車両画像106Pに重複する領域であり、車両画像106Pを透過して表示される周辺画像APに対し、ドライバーが運転操作において特に注意を要すべき領域である。
The specific area PX set by the
例えば、図6に示すように、合成画像生成部により生成された合成画像がドライバー視点位置で前方を示す合成画像CPcである場合、特定領域PXの大きさは合成画像CPcの1/4程度で、特定領域PXの中心位置は合成画像CPcの中心よりやや下側である。かかる領域は、車両1を前進させる際には、車体に遮られて視認が困難であるうえ、障害物が存在した場合には車両1と接触する恐れがあり、かかる領域が運転操作において特に注意を要すべき領域となるからである。
For example, as illustrated in FIG. 6, when the composite image generated by the composite image generation unit is a composite image CPc indicating the front at the driver viewpoint position, the size of the specific region PX is about ¼ of the composite image CPc. The center position of the specific area PX is slightly below the center of the composite image CPc. When the
なお、特定領域PXは、図6に示すような楕円形のみならず、円形や四角形でもよく、車両1の周囲に存在する障害物の形状としてもよい。また、特定領域PXを複数の小領域に分割し、車両1の周囲に存在する障害物と重複する小領域のみ透過率を高めてもよい。
The specific area PX is not limited to an ellipse as shown in FIG. 6, but may be a circle or a rectangle, or may be a shape of an obstacle existing around the
特定領域PXを設定すると、透過率変更部101aは、特定領域PXの透過率を高める処理を実行する(ステップS18)。すなわち、透過率変更部101aは、車両画像106Pの一部分の特定領域の透過率を、他の部分の透過率より高める処理を行う。車両画像の透過率を50%にした場合には、特定領域PXの透過率は75%から90%程度に高めるのが好ましい。図6に示すように、車両画像の透過率に対し特定領域PXの透過率を明確に高めることにより、ドライバーの注意を特定領域PXに引き付けることができるためである。
When the specific area PX is set, the
例えば、図7に示すように、車両1が走行中に路側に停車した車両VSを追い越すような場合において、特定領域PXの大きさは、合成画像CPの1/4程度で、位置は合成画像CPcの中心よりやや左側に設定される。かかる領域は、いわゆる右ハンドルの車両1を走行させる際、車体に遮られて車両VSとの間隔の視認が困難であるため、追い越し走行を行う場合に特に注意を要すべき領域だからである。
For example, as shown in FIG. 7, when the
この際、仮想視点の位置がドライバー視点である場合には、図8に示すように、特定領域PXの位置は合成画像CPcの中心よりやや左側に設定され、特定領域PXの透過率は車室画像106bよりも高く設定される。また、仮想視点の位置が俯瞰視点である場合には、図9に示すように、特定領域PXの位置は合成画像CPbのほぼ中心に設定されたうえ、特定領域PXの透過率は車体画像106aよりも高く設定される。
At this time, if the position of the virtual viewpoint is the driver viewpoint, the position of the specific area PX is set slightly to the left of the center of the composite image CPc as shown in FIG. It is set higher than the
これにより、ドライバーは、走行中に路側に停車した車両VSを追い越す場合において、車両VSと接触の恐れのある特に注意を要すべき領域について車両画像106Pをより高い透過率で車両VSを視認することができる。また、車両画像106Pを透過させつつも、ドライバーの注意を特定領域PXへ引き付けることができる。したがって、例えば車両1が高速で走行しており、ドライバーが瞬間的にしか画像を参照できなくとも、ドライバーは車両画像106Pを透過して表示された周辺画像APのうち、運転操作において特に注意を要すべき領域を直感的に視認することができる。
As a result, when the driver overtakes the vehicle VS parked on the road side during traveling, the driver visually recognizes the vehicle VS with a higher transmittance in the
透過率変更部101aにより特定領域PXの透過率を高める処理が行われると、画像出力部104は、合成画像CPを表示装置110へ出力する(ステップS19)。出力された合成画像CPは表示装置110に表示され、ドライバーによる運転操作の際に参照される。
When the process for increasing the transmittance of the specific area PX is performed by the
合成画像CPが出力されると、制御部101は、ドライバーによりタッチパネル110aが操作され、仮想視点VPの位置を変更すべき指示があるか否か判断する(ステップS20)。
When the composite image CP is output, the
仮想視点VPの位置を変更すべき指示があると判断する場合には(ステップS20でYes)、ステップS12に戻り、制御部101は仮想視点VPの位置を再度決定する。すなわち、仮想視点の位置がドライバー視点(図3におけるVPc)が選択されていた場合には、新たな仮想視点の位置として俯瞰的な視点(図3におけるVPb)が選択される。また、俯瞰的な視点(図3におけるVPb)が選択されていた場合には、その反対に新たな仮想視点の位置としてドライバー視点(図3におけるVPc)が選択され、ドライバーによる指示に応じて順次視点が変更される。なお、図10に示すように、視点位置を車両1の直上、視野方向を直下とした仮想視点VPa(平面的かつ俯瞰的な仮想視点)と、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPb(斜視的かつ俯瞰的な仮想視点)とを同時に表示してもよい。この場合、ドライバーによる指示に応じて、ドライバー視点、俯瞰視点、及び同時表示(図10)の画像が順次表示される。
When it is determined that there is an instruction to change the position of the virtual viewpoint VP (Yes in step S20), the process returns to step S12, and the
一方、仮想視点VPの位置を変更すべき指示がないと判断する場合には(ステップS20でNo)、本処理は終了する。なお、ドライバーにより画像処理システム120の電源がオフされるまで、合成画像CPの表示(ステップS19)及び仮想視点VPの位置の変更の判断(ステップS20)の処理を繰り返し実行してもよい。この場合、ドライバーは画像処理システム120起動中に合成画像CPを常時参照できる。
On the other hand, when it is determined that there is no instruction to change the position of the virtual viewpoint VP (No in step S20), this process ends. Note that the process of displaying the composite image CP (step S19) and determining the change of the position of the virtual viewpoint VP (step S20) may be repeatedly executed until the power of the
以上のように、画像処理装置100において、画像取得部103が車両1に搭載されたカメラ20の撮影画像を取得し、周辺画像生成部102aが撮影画像に基づいて車両1の周辺領域を示す周辺画像APを生成する。合成画像生成部102bは、仮想視点に応じた車両画像データ106P(車体画像データ106a又は車室画像データ106b)を周辺画像APに合成し、合成画像CPを生成する。透過率変更部101aは、合成画像CPにおける車両画像データ106Pの透過率を高めたうえ、特に注意を要すべき特定領域PXを設定し、特定領域PXの透過率をさらに高める。これにより、車両1のドライバーは、車両画像データ106Pを透過して車両周辺を参照すると共に、特定領域PXをさらに詳細に視認することができるため、運転操作における安全性を向上できる。
As described above, in the
また、画像処理装置100においては、例えば車両1が高速で走行し、ドライバーが画像を瞬間的にしか参照できなくとも、ドライバーの注意を特定領域PXへ引き付けることができるため、運転操作における安全性を向上できる。
In the
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様のため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第2の実施の形態では特定領域PXの位置は、車両1の進行方向に応じて決定される。これにより、車両1の進行方向に特定領域PXの位置が設定されるので、ドライバーが運転操作する際により注意を要するべき位置に特定領域PXを設定することができる。
<2. Second Embodiment>
Next, a second embodiment will be described. Since the configuration and processing of the
図11は、第2の実施の形態における画像処理システム120のブロック図である。第1の実施の形態の構成に加えて、制御部101は、プログラムに従って実現される機能として方向検出部101bをさらに備えている。
FIG. 11 is a block diagram of the
方向検出部101bは、車両情報取得部130から送信された車両データを取得し、車両1の進行する方向を検出する。例えば、方向検出部101bは、車両情報取得部130のシフトセンサ130bからシフト位置が「Reverse」となるシフトデータを取得した場合、車両1の進行方向は後退である旨を検出する。方向検出部101bが進行方向を後退と検出すると、透過率変更部101aは、例えば仮想視点VPの視野方向を車両後方となる方向に設定する。
The
図12は、第2の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS31の処理を備える点である。ステップS31の処理は、方向検出部101bが車両情報取得部130から送信された車両データを取得して車両1の進行する方向を検出する処理である。
FIG. 12 is a flowchart illustrating a processing procedure of the
図13は、ステップS31の処理の詳細を示すフローチャートである。ステップS31は、ステップS20でNoの判定がなされた後に実行される。ステップS31が実行されると、方向検出部101bがシフトセンサ130bから送信されるシフトデータを取得し、シフト位置が「Reverse」であるか「Drive」であるか判断する(ステップS51)。
FIG. 13 is a flowchart showing details of the process in step S31. Step S31 is executed after No is determined in step S20. When step S31 is executed, the
方向検出部101bがシフト位置を「Reverse」であると判断すると(ステップS51でReverse)、制御部101は、仮想視点VPの視野方向を車両後方に設定する(ステップS52)。次に、透過率変更部101aが特定領域PXの位置を車両下方に設定する(ステップS53)。かかる位置が、車両1を後退させる際に、車体に遮られてドライバーが認識し難い位置であり、特に注意を要する領域の中心点であるからである。
When the
ステップS53が実行されると、処理はステップS13に戻る。ステップS13では、仮想視点VPの視野方向が車両後方に設定されているため、周辺画像生成部102aが、車両後方の周辺画像を生成する。また、ステップS17では、特定領域PXの位置が車両下方に設定されているため、透過率変更部101aが、車両下方となる位置に特定領域PXを設定する。これにより、ドライバーは、シフトを「Reverse」とした場合に、車両後方の周辺画像とともに車両画像106Pの特定領域を高い透過率で透過した合成画像を参照でき、車両1の後退操作を安全に行うことができる。
When step S53 is executed, the process returns to step S13. In step S13, since the viewing direction of the virtual viewpoint VP is set to the rear of the vehicle, the peripheral
一方、方向検出部101bがシフト位置を「Drive」であると判断すると(ステップS51でDrive)、方向検出部101bはステアリングセンサ130cから送信されるステアリングデータを取得し、ステアリングの回転方向が「左」であるか「右」であるか判断する(ステップS54)。方向検出部101bがステアリングの回転方向が「左」であると判断すると(ステップS54で左)、制御部101は、仮想視点VPの視野方向を車両前方に設定する(ステップS55)。
On the other hand, when the
次に、透過率変更部101aが特定領域PXの位置を車両左方に設定する(ステップS56)。かかる位置が、車両1を左方向へ進行させる際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS56が実行されると、処理はステップS13に戻り前述の処理が再度実行される。
Next, the
また、方向検出部101bがステアリングの回転方向が「右」であると判断すると(ステップS54で右)、制御部101は、仮想視点VPの視野方向を車両前方に設定する(ステップS57)。
If the
次に、透過率変更部101aが特定領域PXの位置を車両右方に設定する(ステップS58)。かかる位置が、車両1を右方向へ進行させる際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS58が実行されると、処理はステップS13に戻り前述の処理が再度実行される。
Next, the
また、方向検出部101bは、ステアリングの回転方向が「ない」であると判断すると(ステップS54で「ない」)、ナビゲーション部140から送信される経路案内データを取得し、経路案内の方向が「左折」、「右折」、「直進」のいずれかであるか判断する(ステップS60)。方向検出部101bが経路案内の方向が「左折」であると判断すると(ステップS60で左折)、前述のステップS55及びステップS56の処理が実行される。また、方向検出部101bが経路案内の方向が「右折」であると判断する場合も(ステップS60で右折)、前述のステップS57及びステップS58の処理が実行される。
When the
一方、方向検出部101bは、経路案内の方向を「直進」であると判断すると(ステップS60で直進)、車速センサ130aから送信される車速データを取得し、車速が所定速度以下であるか判断する(ステップS61)。所定速度とは、例えば時速20km/hである。所定速度以下とは、渋滞時の走行や徐行運転に相当する速度である。このように、車両の速度を検出することで、特定領域PXの位置を適切に設定することができる。すなわち、車速が低い場合には先行車両や障害物と接近して走行し得るため、例えば特定領域PXの位置を車両下方に設定することで、ドライバーは、車両1に接近した先行車両等を視認することができる。
On the other hand, when the
方向検出部101bは、車速が所定速度以下であると判断すると(ステップS61でYes)、仮想視点VPの視野方向を車両前方に設定する(ステップS62)。次に、透過率変更部101aが特定領域PXの位置を車両下方に設定する(ステップS63)。かかる位置が、車両1が前進かつ低速で走行する際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS63が実行されると、処理はステップS13に戻り前述の処理が再度実行される。
When the
一方、方向検出部101bが、車速が所定速度以下でないと判断すると(ステップS61でNo)、図13のフローチャートに戻り処理は終了する。この場合は、車両1の進行方向に変化が検出されない場合であり、すなわち車両1が後進、右左折、及び低速走行もしないため、仮想視点VPの視野方向及び特定領域PXの位置を変更する必要がないためである。
On the other hand, when the
このように、第2の実施の形態では、特定領域PXの位置は車両1の進行方向に応じて決定される。これにより、車両1の進行方向に特定領域PXの位置が設定されるので、ドライバーが運転操作する際により注意を要するべき位置に特定領域PXを設定することができる。このため、ドライバーは、車両1をいかなる方向へ操作する場合でも、車両1の周辺画像とともに車両画像106Pの特定領域を高い透過率で透過した合成画像を参照し、車両1の運転操作を安全に行うことができる。
Thus, in the second embodiment, the position of the specific area PX is determined according to the traveling direction of the
なお、図13のフローチャートでは、左折や右折の場合に仮想視点VPの視野方向を車両1の前方に設定し(ステップS55、S57)、特定領域PXの位置を車両1の左方や右方に設定(ステップS56、S58)することで、車両1の進行方向に特定領域PXの位置を設定した。しかし、仮想視点VPの視野方向を車両1が曲がる方向とし、特定領域PXの位置をその方向の車両画像106Pにおける中央部とすることで、車両1の進行方向に特定領域PXの位置を設定してもよい。例えば、ウィンカースイッチ130dがオンとなる方向が左であれば、前方正面方向から左斜め45[°]の方向に仮想視点VPの視野方向を設定し、特定領域PXの位置をその方向の中央部としてもよい。このようにすれば、車両1の前後進のみならず右左折の場合であっても特定領域PXの位置が常に画像中央部に設定されるため、ドライバーは特定領域PXの周囲も認識しやすい。
In the flowchart of FIG. 13, in the case of a left turn or a right turn, the viewing direction of the virtual viewpoint VP is set to the front of the vehicle 1 (steps S55 and S57), and the position of the specific area PX is set to the left or right of the
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様であるため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第3の実施の形態では特定領域PXの位置は車両1の周辺に存在する物体の位置(方向及び距離)に応じて決定される。これにより、車両1の周辺に存在する物体の位置に特定領域PXの位置が設定されるので、ドライバーが運転操作を行う際により注意を要するべき位置に特定領域PXを設定することができる。
<3. Third Embodiment>
Next, a third embodiment will be described. Since the configuration and processing of the
図14は、第3の実施の形態における画像処理システム120のブロック図である。第1の実施の形態の構成に加えて、制御部101は、プログラムに従って実現される機能として物体検出部101cをさらに備えている。
FIG. 14 is a block diagram of an
物体検出部101cは、物体情報取得部150から送信された物体データを取得し、車両1の周辺に存在する物体の位置を検出する。例えば、物体検出部101cは、車両情報取得部130の車両1のクリアランスソナー150a(クリアランスソナー150aのうち左前方に設置されたもの)から一定レベルを超過する強度の物体データを取得した場合、車両1の左前方で距離0.5mに物体が存在する旨を検出する。物体検出部101cが物体の位置を左前方で距離0.5mと検出すると、透過率変更部101aは、例えば仮想視点VPの視野方向を車両左側となる方向に設定する。なお、レーダ150bからの物体データであっても、物体検出部101cは、車両1の周辺に存在する物体の位置を検出することができる。
The
図15は、第3の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS71からS73の処理を実行する点である。ステップS71からS73の処理は、物体検出部101cが物体情報取得部150から送信された物体データを取得し、特定領域PXの範囲を検出された物体を含むように設定する処理である。
FIG. 15 is a flowchart illustrating a processing procedure of the
ステップS71は、ステップS20でNoの判定がなされた後に実行される。ステップS71が実行されると、物体検出部101cが物体情報取得部150から送信される豚地データを取得し、車両1の周辺に物体が存在するか判断する。(ステップS71)。
Step S71 is executed after No is determined in step S20. When step S <b> 71 is executed, the
物体検出部101cが車両1の周辺に物体が存在すると判断する場合は(ステップS71でYes)、物体検出部101cは、かかる物体の位置(方向及び距離)を検出する(ステップS72)。
When the
物体検出部101cが物体の位置を検出すると、透過率変更部101aは、検出された物体の位置に基づき特定領域PXの範囲について物体の外縁を含む範囲に設定する(ステップS73)。物体の外縁は、周辺画像AP上における物体データの強度に基づいて決定すればよい。また、画像処理における、いわゆるパターンマッチングの手法を用いることもできる。この場合、予め車両1の周辺に存在しうる物体の外縁データを記憶部106に記憶しておけばよい。また、物体が車両1に対して相対的に移動している場合には、オプティカルフロー方式の手法を用いて物体の外縁を検出することもできる。この方式を用いた場合は、物体検出部101cは、時間的に連続する複数の撮影画像(フレーム)のそれぞれから特徴点を抽出し、それら複数の撮影画像間での特徴点の動きを示すオプティカルフローに基づいて物体の外縁を検出する。 なお、検出した障害物の方向に向けて仮想視点VPの視野方向を設定し、仮想視点VPの視野方向の中心に特定領域PXの位置を設定してもよい。
When the
透過率変更部101aが特定領域PXの範囲を物体の外縁を含む範囲に設定すると、処理はステップS18に戻り、透過率変更部101aは、設定した特定領域PXの透過率を高める処理を実行する。
When the
例えば、図16に示すように、車両1の右前方付近に障害物OB1が存在する駐車場PAに進入した場合、物体情報取得部150が障害物OB1の位置を検知すると、特定領域PXは、右前方かつ下方に設定される。この場合、合成画像CPは図17に示すように表示され、ドライバー視点においてハンドルやインナーパネルにより遮られていた位置に特定領域PXが設定される。ドライバーは、車室画像106bのうち特に障害物OB1の存在する範囲を高い透過率で透過して障害物OB1を視認できるので、車両1が障害物OB1と接触しないよう回避運転を行うことができる。
For example, as shown in FIG. 16, when the object
図15におけるステップS71において、物体検出部101cが車両1の周辺に物体が存在しないと判断した場合は(ステップS71でNo)、処理は終了する。車両1の周辺に物体が存在しないと判断した以上、特定領域PXの範囲を変更する必要がないからである。
If the
このように、第3の実施の形態では、特定領域PXの位置は車両1の周辺に存在する物体の位置に応じて決定される。これにより、ドライバーが運転操作する際に、より注意を要するべき位置に特定領域PXを設定することができる。したがって、ドライバーは、物体を回避して車両1を操作でき、車両1の運転操作を安全に行うことができる。
Thus, in the third embodiment, the position of the specific area PX is determined according to the position of an object existing around the
<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様であるため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第4の実施の形態では特定領域PXの位置は車両1を構成する部位に応じて決定される。車両1を構成する部位とは、ボンネットやドアー、インナーパネル、ハンドル、シート等の部品、さらにピラーやルーフ等の車体における一定領域である。これにより、車両1を構成する部位に特定領域PXが設定されるので、透過率を高めるべき領域を限定することができ、画像処理の処理負荷を軽減することができる。特に、ドアーやピラー等のガラスで囲まれた部位の透過率を高める場合に好適である。かかる部位は、本来透過しているガラスで囲まれているため、該当する領域(ドアーやピラー等)のみ透過率を高める処理を実行すればよいからである。
<4. Fourth Embodiment>
Next, a fourth embodiment will be described. Since the configuration and processing of the
図18は、第4の実施の形態における画像処理システム120のブロック図である。第4の実施の形態の記憶部106が記憶する車両画像データ106Pは、車両部位データ106cを含んでいる。車両部位データ106cは、車体画像データ106a及び車室画像データ106bのうち車両の部位に相当するデータである。例えば、車両部位データ106cは、車室画像データ106bで示される画像におけるドアー部やピラー部等から構成される。透過率変更部101aは、記憶部106から車両部位データ106cを読み出し、読み出した車両部位の透過率を高める処理を実行する。なお、車両部位データ106cは、車両1の周辺に存在する物体の位置と車両部位が重複する場合に、かかる車両部位に相当する車両部位データ106cが選択される。この場合、物体の位置は、物体情報取得部150からの物体データを用いればよい。また、タッチパネル110aに対するドライバーの接触操作により、接触された車両部位を選択してもよい。
FIG. 18 is a block diagram of an
図19は、第4の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS17に代えてステップS17aを実行する点である。ステップS17aの処理は、透過率変更部101aが、車両部位データ106cを記憶部106から読み出し、車両画像106Pのうち読み出した車両部位に相当する範囲について特定領域PXを設定する処理である。ステップS17が実行されると、透過率変更部101aが特定領域PXの透過率を高める処理(ステップS18)を実行し、ステップS19以下の前述の処理が実行される。
FIG. 19 is a flowchart illustrating a processing procedure of the
例えば、図20に示すように、駐車領域paに駐車すべく駐車場PAへ進入した場合、ドライバーは、車両1の左前方に駐車している駐車車両VEと接触しないよう注意を払う必要がある。この場合、ステアリングセンサ130cで車両1の左方向への進行、及びレーダ150bで駐車車両VEの位置を検出すれば、透過率変更部101aは、車室画像106bにおいて車両1の左Aピラーに駐車車両の画像が重複すると判断できる。このように判断した場合、図21に示すように、仮想視点VPを車両前方とした合成画像CPにおいて、左Aピラーに相当する領域106cを特定領域PXに設定し、かかる領域の透過率を高める処理が実行される。これにより、ドライバーは、駐車車両VEと接触しないよう容易に注意を払いつつ、駐車領域paに車両1を駐車させることができる。
For example, as shown in FIG. 20, when entering the parking lot PA to park in the parking area pa, the driver needs to pay attention not to come into contact with the parked vehicle VE parked on the left front side of the
このように、第4の実施の形態では、特定領域PXの位置は車両1を構成する部位に応じて決定される。これにより、透過率を高めるべき領域を限定することができ、画像処理の処理負荷を軽減することができる。
As described above, in the fourth embodiment, the position of the specific region PX is determined according to the parts constituting the
<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.
図22は、変形例における画像処理システム120のブロック図である。同図に示すように、制御部101は、プログラムに従って実現される機能として視線検出部101dを備える。このような構成により、ドライバーの視線方向に特定領域PXを設定し、ドライバーが参照したい方向の車両画像106Pを透過させて合成画像CPを表示させることができる。この場合、ドライバーの目視による安全確認を補助することができるため、ドライバーはより安全に車両1を運転操作することができる。この視線検出部101dは、ドライバー情報取得部160の視線センサ160aから視線データを取得し、ドライバーの視線方向を検出する。ドライバー情報取得部160の視線センサ160aから視線データを取得し、ドライバーの視線方向を検出する。透過率変更部101aは、視線検出部101dが検出したドライバーの視線方向に特定領域PXを設定する。例えば、図23に示すように、車両1の左側方に障害物OB2が存在する駐車場PAに進入した場合、ドライバーが左側方を目視すれば、仮想視点VPの視野方向も左側方に設定される。ドライバーの視線方向に特定領域PXが設定されるため、図24に示すように、ドライバーは車両左側方の障害物OB2を高い透過率の車室画像106bを透して視認することができる。なお、ドライバーが視線を移動した数秒後(例えば2秒後)に、ドライバーの視線方向の画像を表示してもよい。この場合、ドライバーが表示装置110に視線を向けた際には、数秒前に視線を向けた方向の画像を表示することができ、ドライバーは目視した周辺の様子を数秒後に表示装置110で確認することができる。
FIG. 22 is a block diagram of an
また、上記実施の形態の処理手順では、合成画像の生成処理(ステップS15)を特定領域の透過率を高める処理(ステップS18)の前に実行していたが、必ずしもこのような処理手順に限定されるものではない。すなわち、合成画像の生成処理(ステップS15)を特定領域の透過率を高める処理(ステップS18)の後であって、合成画像の出力処理の前に実行してもよい。 In the processing procedure of the above-described embodiment, the composite image generation process (step S15) is executed before the process of increasing the transmittance of the specific area (step S18). Is not to be done. That is, the composite image generation process (step S15) may be executed after the process of increasing the transmittance of the specific area (step S18) and before the composite image output process.
また、上記実施の形態の処理手順では、各処理(各ステップ)を直列的に実行していたが、必ずしもこのような直列的な処理手順に限定されるものではない。例えば、撮影画像の取得処理(ステップS11)、仮想視点の位置の決定処理(ステップS12)、及び周辺画像の生成処理(ステップS13)と、車両画像又は車室画像を読み出す処理(ステップS14)、車両画像の透過率を高める処理(ステップS16)、特定領域を設定する処理(ステップS17)、及び特定領域の透過率を高める処理(ステップS18)とを並列的に実行してもよい。この場合、かかる並列処理により生成された周辺画像と透過率が高められた特定領域のデータを用いて、合成画像を生成する処理(ステップS15)を実行すればよい。 Moreover, in the processing procedure of the said embodiment, although each process (each step) was performed in series, it is not necessarily limited to such a serial processing procedure. For example, a captured image acquisition process (step S11), a virtual viewpoint position determination process (step S12), a peripheral image generation process (step S13), and a vehicle image or vehicle compartment image reading process (step S14), The process of increasing the transmittance of the vehicle image (step S16), the process of setting the specific area (step S17), and the process of increasing the transmittance of the specific area (step S18) may be executed in parallel. In this case, the process (step S15) for generating a composite image may be executed using the peripheral image generated by the parallel processing and the data of the specific region with increased transmittance.
また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。 Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.
1 車両
20 カメラ
100 画像処理装置
101 制御部
102 画像生成部
103 画像取得部
104 画像出力部
105 信号受信部
106 記憶部
110 表示装置
120 画像処理システム
130 車両情報取得部
140 ナビゲーション部
150 物体情報取得部
160 ドライバー情報取得部
DESCRIPTION OF
Claims (7)
前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する生成手段と、
前記仮想視点からみた前記車両を示す車両画像を取得する取得手段と、
前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める透過手段と、
前記周辺画像と前記車両画像とを合成し合成画像を生成する合成手段と、
前記合成画像を表示装置に出力して表示させる出力手段と、
を備えることを特徴とする画像処理装置。 An image processing apparatus that is used in a vehicle and processes an image,
Generating means for generating a peripheral image showing a peripheral region of the vehicle viewed from a virtual viewpoint, using a plurality of images acquired by a plurality of cameras provided in the vehicle;
Obtaining means for obtaining a vehicle image indicating the vehicle viewed from the virtual viewpoint;
A transmission means for increasing the transmittance of a specific region of a part of the vehicle image to be higher than the transmittance of another part;
Combining means for combining the peripheral image and the vehicle image to generate a combined image;
Output means for outputting and displaying the composite image on a display device;
An image processing apparatus comprising:
前記仮想視点の位置は、前記車両のドライバーの視点に相当する位置であり、
前記車両画像は、前記車両の車室内部を示す車室画像であることを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The position of the virtual viewpoint is a position corresponding to the viewpoint of the driver of the vehicle,
The image processing apparatus according to claim 1, wherein the vehicle image is a vehicle compartment image showing a vehicle interior of the vehicle.
前記車両の進行方向を検出する方向検出手段、
をさらに備え、
前記透過手段は、前記特定領域の範囲を前記車両の進行方向に基づいて決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
Direction detecting means for detecting a traveling direction of the vehicle;
Further comprising
The image processing apparatus according to claim 1, wherein the transmission unit determines a range of the specific region based on a traveling direction of the vehicle.
前記車両の周辺に存在する物体の位置を検出する物体検出手段、
をさらに備え、
前記透過手段は、前記特定領域の範囲を前記物体の位置に基づいて決定することを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
Object detection means for detecting the position of an object existing around the vehicle;
Further comprising
The image processing apparatus, wherein the transmission means determines a range of the specific region based on a position of the object.
前記特定領域の範囲は、前記車両を構成する部位の範囲であることを特徴とする画像処理装置。 The image processing apparatus according to claim 1 or 2,
The range of the specific region is a range of a part constituting the vehicle.
前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する工程と、
前記仮想視点からみた前記車両を示す車両画像を取得する工程と、
前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める工程と、
前記周辺画像と前記車両画像とを合成し合成画像を生成する工程と、
前記合成画像を表示装置に出力して表示させる工程と、
を備えることを特徴とする画像処理方法。 An image processing method used in a vehicle,
Using a plurality of images acquired by a plurality of cameras provided in the vehicle, generating a peripheral image showing a peripheral region of the vehicle viewed from a virtual viewpoint;
Obtaining a vehicle image showing the vehicle viewed from the virtual viewpoint;
Increasing the transmittance of a specific area of a part of the vehicle image above the transmittance of another part;
Combining the peripheral image and the vehicle image to generate a composite image;
Outputting and displaying the composite image on a display device;
An image processing method comprising:
請求項1ないし6のいずれかに記載の画像処理装置と、
前記画像処理装置から出力された前記合成画像を表示する表示装置と、
を備えることを特徴とする画像処理システム。 An image processing system used in a vehicle,
An image processing apparatus according to any one of claims 1 to 6,
A display device for displaying the composite image output from the image processing device;
An image processing system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012205440A JP6014433B2 (en) | 2012-09-19 | 2012-09-19 | Image processing apparatus, image processing method, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012205440A JP6014433B2 (en) | 2012-09-19 | 2012-09-19 | Image processing apparatus, image processing method, and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014060646A true JP2014060646A (en) | 2014-04-03 |
JP6014433B2 JP6014433B2 (en) | 2016-10-25 |
Family
ID=50616724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012205440A Active JP6014433B2 (en) | 2012-09-19 | 2012-09-19 | Image processing apparatus, image processing method, and image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6014433B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5562498B1 (en) * | 2014-03-04 | 2014-07-30 | サカエ理研工業株式会社 | Room mirror, vehicle blind spot support device using the room mirror, and display image adjustment method of the room mirror or vehicle blind spot support device |
JP5855206B1 (en) * | 2014-10-31 | 2016-02-09 | 三菱電機株式会社 | Transmission display device for vehicle |
WO2017122654A1 (en) * | 2016-01-12 | 2017-07-20 | 株式会社デンソー | Drive assist device and drive assist method |
CN107249934A (en) * | 2015-02-17 | 2017-10-13 | 康蒂-特米克微电子有限公司 | The method and apparatus of undistorted display vehicle-surroundings environment |
JP2017195533A (en) * | 2016-04-21 | 2017-10-26 | 日産自動車株式会社 | Display method and driving support apparatus |
WO2019074005A1 (en) * | 2017-10-10 | 2019-04-18 | マツダ株式会社 | Vehicular display device |
JP2019079250A (en) * | 2017-10-24 | 2019-05-23 | 株式会社デンソーテン | Image processing device and image processing method |
DE112017004970T5 (en) | 2016-09-30 | 2019-06-13 | Aisin Seiki Kabushiki Kaisha | Display controller |
US10399496B2 (en) | 2016-08-26 | 2019-09-03 | Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho | Viewing device for vehicle and method of displaying viewed image for vehicle |
JP2020052801A (en) * | 2018-09-27 | 2020-04-02 | 三菱自動車工業株式会社 | Driving support system of vehicle |
US10750093B2 (en) | 2017-01-04 | 2020-08-18 | Denso Ten Limited | Image processing device and image processing method |
WO2021172620A1 (en) * | 2020-02-27 | 2021-09-02 | 엘지전자 주식회사 | Display device and vehicle comprising same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007019804A (en) * | 2005-07-07 | 2007-01-25 | Nissan Motor Co Ltd | Vehicle periphery display device and method |
JP2010231276A (en) * | 2009-03-25 | 2010-10-14 | Fujitsu Ltd | Method and apparatus for processing image |
JP2011023805A (en) * | 2009-07-13 | 2011-02-03 | Clarion Co Ltd | Blind-spot image display system for vehicle, and blind-spot image display method for vehicle |
JP2011066763A (en) * | 2009-09-18 | 2011-03-31 | Mitsubishi Motors Corp | Driving support device |
-
2012
- 2012-09-19 JP JP2012205440A patent/JP6014433B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007019804A (en) * | 2005-07-07 | 2007-01-25 | Nissan Motor Co Ltd | Vehicle periphery display device and method |
JP2010231276A (en) * | 2009-03-25 | 2010-10-14 | Fujitsu Ltd | Method and apparatus for processing image |
JP2011023805A (en) * | 2009-07-13 | 2011-02-03 | Clarion Co Ltd | Blind-spot image display system for vehicle, and blind-spot image display method for vehicle |
JP2011066763A (en) * | 2009-09-18 | 2011-03-31 | Mitsubishi Motors Corp | Driving support device |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5562498B1 (en) * | 2014-03-04 | 2014-07-30 | サカエ理研工業株式会社 | Room mirror, vehicle blind spot support device using the room mirror, and display image adjustment method of the room mirror or vehicle blind spot support device |
JP5855206B1 (en) * | 2014-10-31 | 2016-02-09 | 三菱電機株式会社 | Transmission display device for vehicle |
CN107249934A (en) * | 2015-02-17 | 2017-10-13 | 康蒂-特米克微电子有限公司 | The method and apparatus of undistorted display vehicle-surroundings environment |
JP2018509799A (en) * | 2015-02-17 | 2018-04-05 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Method and apparatus for distortion-free display of the vehicle periphery of a vehicle |
WO2017122654A1 (en) * | 2016-01-12 | 2017-07-20 | 株式会社デンソー | Drive assist device and drive assist method |
JP2017126834A (en) * | 2016-01-12 | 2017-07-20 | 株式会社デンソー | Drive assisting device and drive assisting method |
CN108463998A (en) * | 2016-01-12 | 2018-08-28 | 株式会社电装 | Drive assistance device and driving assistance method |
US10875452B2 (en) | 2016-01-12 | 2020-12-29 | Denso Corporation | Driving assistance device and driving assistance method |
JP2017195533A (en) * | 2016-04-21 | 2017-10-26 | 日産自動車株式会社 | Display method and driving support apparatus |
US10399496B2 (en) | 2016-08-26 | 2019-09-03 | Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho | Viewing device for vehicle and method of displaying viewed image for vehicle |
DE112017004970T5 (en) | 2016-09-30 | 2019-06-13 | Aisin Seiki Kabushiki Kaisha | Display controller |
US10750093B2 (en) | 2017-01-04 | 2020-08-18 | Denso Ten Limited | Image processing device and image processing method |
JP2019071547A (en) * | 2017-10-10 | 2019-05-09 | マツダ株式会社 | Display unit for vehicle |
WO2019074005A1 (en) * | 2017-10-10 | 2019-04-18 | マツダ株式会社 | Vehicular display device |
JP2019079250A (en) * | 2017-10-24 | 2019-05-23 | 株式会社デンソーテン | Image processing device and image processing method |
JP2020052801A (en) * | 2018-09-27 | 2020-04-02 | 三菱自動車工業株式会社 | Driving support system of vehicle |
WO2021172620A1 (en) * | 2020-02-27 | 2021-09-02 | 엘지전자 주식회사 | Display device and vehicle comprising same |
Also Published As
Publication number | Publication date |
---|---|
JP6014433B2 (en) | 2016-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6014433B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP6801787B2 (en) | Parking support method and parking support device | |
JP6148887B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP5836490B2 (en) | Driving assistance device | |
EP1974998B1 (en) | Driving support method and driving support apparatus | |
JP6413207B2 (en) | Vehicle display device | |
JP4952421B2 (en) | Driving support system | |
US20110228980A1 (en) | Control apparatus and vehicle surrounding monitoring apparatus | |
JP6548900B2 (en) | Image generation apparatus, image generation method and program | |
JP2013541915A (en) | Blind Spot Zone Display Device and Method | |
JP2013533168A (en) | Method for supporting parking operation of automobile, driver assistance system, and automobile | |
JP2005136561A (en) | Vehicle peripheral picture display device | |
JP2009227245A (en) | Operation device for on-vehicle equipment | |
US11601621B2 (en) | Vehicular display system | |
JP2013005233A (en) | Vehicle periphery monitoring device | |
JP2017208690A (en) | Image creation device, image display system, and image display method | |
JP2010184604A (en) | Vehicle surroundings display device | |
JP2009171129A (en) | Parking support device for vehicle and image display method | |
JP2007311898A (en) | Vehicle drive support apparatus and vehicle drive support method | |
JP2009073250A (en) | Vehicle backsight display device | |
JP4957589B2 (en) | Obstacle warning device, obstacle warning method, and computer program | |
JP2014072604A (en) | Image processing system, image processing device, image processing method and program | |
WO2013144998A1 (en) | Visual recognition assistance apparatus for vehicle | |
JP6439233B2 (en) | Image display apparatus for vehicle and image processing method | |
JP2004051063A (en) | Device for visual recognition around vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160229 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6014433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |