JP2014060646A - Image processing apparatus, image processing method, and image processing system - Google Patents

Image processing apparatus, image processing method, and image processing system Download PDF

Info

Publication number
JP2014060646A
JP2014060646A JP2012205440A JP2012205440A JP2014060646A JP 2014060646 A JP2014060646 A JP 2014060646A JP 2012205440 A JP2012205440 A JP 2012205440A JP 2012205440 A JP2012205440 A JP 2012205440A JP 2014060646 A JP2014060646 A JP 2014060646A
Authority
JP
Japan
Prior art keywords
vehicle
image
image processing
driver
transmittance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012205440A
Other languages
Japanese (ja)
Other versions
JP6014433B2 (en
Inventor
Miki Murakado
美紀 村角
Masahiro Yamada
正博 山田
Yasuyoshi Sawada
康嘉 澤田
Shinichi Moriyama
親一 森山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012205440A priority Critical patent/JP6014433B2/en
Publication of JP2014060646A publication Critical patent/JP2014060646A/en
Application granted granted Critical
Publication of JP6014433B2 publication Critical patent/JP6014433B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem of a driver overlooking an obstruction even though an obstruction present on a traveling path is displayed in an image because the driver cannot immediately grasp where to gaze most attentively in an image showing the scene around the vehicle since various objects around the vehicle are displayed at a transparent part in a case an image of the entire vehicle interior is displayed in a see-through manner.SOLUTION: A transmittance change unit 101a sets a specific area that especially requires attention after increasing the transmittance of vehicle image data 106 P for a composite image, and further increases the transmittance of the specific area. This enables the driver of a vehicle 1 to view a vehicle periphery through the vehicle image data 106 P and also see the specific area in more detail, thereby improving safety in a driving operation.

Description

本発明は、車両の周辺を示す画像を処理する技術に関する。   The present invention relates to a technique for processing an image showing the periphery of a vehicle.

従来より、自動車等の車両周辺を撮影した画像を合成し、運転席から見える車両周辺の様子を表示するシステムが知られている。このようなシステムにより、ユーザ(代表的には車両のドライバー)は、車両内にいながら周辺の様子を確認することができる。   2. Description of the Related Art Conventionally, there has been known a system that synthesizes an image of the periphery of a vehicle such as an automobile and displays the state of the periphery of the vehicle that can be seen from the driver's seat. With such a system, a user (typically a vehicle driver) can check the surroundings while in the vehicle.

また、近年では、車両周辺の画像に運転席から見える車室の画像を重畳させたうえ、車室画像の全体を透過的に表示することで、ドライバーの目視では車体に遮られて確認できないような障害物をも確認できる技術が提案されている(例えば、特許文献1参照。)。ユーザは、このような画像を視認することで、車両周辺の様子を車両との位置関係を直感的に把握しながら確認することができる。   In addition, in recent years, an image of the passenger compartment that is visible from the driver's seat is superimposed on an image around the vehicle, and the entire passenger compartment image is transparently displayed, so that the driver cannot visually check the vehicle. A technique capable of confirming a simple obstacle has been proposed (see, for example, Patent Document 1). By visually recognizing such an image, the user can confirm the situation around the vehicle while intuitively grasping the positional relationship with the vehicle.

特開2009−109684号公報JP 2009-109684 A

しかしながら、車室画像の全体を透過的に表示させると、透過した部分に様々な車両周辺の物体が表示されるため、ドライバーは車両周辺の画像のうち、どこに最も注視すべきか直ちに把握することができない。このため、進行経路上に存在する障害物が画像に表示されているにもかかわらず、ドライバーがこのような障害物を見落とす恐れが生じていた。また、このような課題は、運転席から見た画像を表示した場合のみならず、車両の外部の俯瞰的な視点で車両の周辺画像を表示した場合にも生じていた。   However, when the entire passenger compartment image is displayed transparently, various objects around the vehicle are displayed in the transparent part, so that the driver can immediately grasp where in the image around the vehicle should be watched most. Can not. For this reason, there is a possibility that the driver overlooks such an obstacle even though the obstacle present on the traveling path is displayed in the image. Such a problem has occurred not only when an image viewed from the driver's seat is displayed, but also when a peripheral image of the vehicle is displayed from a bird's-eye view outside the vehicle.

本発明は、上記課題に鑑みてなされたものであり、車両周辺を示す画像に車室等の車両画像を重畳させ、かかる車両画像を透過させて表示した場合に、ユーザが被写体の位置を直感的に把握できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and when a vehicle image such as a passenger compartment is superimposed on an image showing the periphery of the vehicle and the vehicle image is transmitted and displayed, the user can intuitively determine the position of the subject. The purpose is to provide technology that can be grasped in an efficient manner.

上記課題を解決するため、請求項1の発明は、車両で用いられ、画像を処理する画像処理装置であって、前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する生成手段と、前記仮想視点からみた前記車両を示す車両画像を取得する取得手段と、前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める透過手段と、前記周辺画像と前記車両画像とを合成し合成画像を生成する合成手段と、前記合成画像を表示装置に出力して表示させる出力手段と、を備える。   In order to solve the above-mentioned problem, the invention of claim 1 is an image processing apparatus that is used in a vehicle and processes an image, and uses a plurality of images acquired by a plurality of cameras provided in the vehicle, Generating means for generating a peripheral image indicating a peripheral area of the vehicle viewed from a viewpoint; acquisition means for acquiring a vehicle image indicating the vehicle viewed from the virtual viewpoint; and transmittance of a specific area of a part of the vehicle image, Transmission means for increasing the transmittance of other parts, synthesis means for synthesizing the surrounding image and the vehicle image to generate a synthesized image, and output means for outputting the synthesized image to a display device for display. .

また、請求項2の発明は、請求項1に記載の画像処理装置において、前記仮想視点の位置は、前記車両のドライバーの視点に相当する位置であり、前記車両画像は、前記車両の車室内部を示す車室画像である。   According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the position of the virtual viewpoint is a position corresponding to the viewpoint of the driver of the vehicle, and the vehicle image is a cabin of the vehicle. It is a vehicle compartment image which shows the inside.

また、請求項3の発明は、請求項1または2に記載の画像処理装置において、前記車両の進行方向を検出する方向検出手段、をさらに備え、前記透過手段は、前記特定領域の範囲を前記車両の進行方向に基づいて決定する。   The invention according to claim 3 further includes direction detection means for detecting a traveling direction of the vehicle in the image processing apparatus according to claim 1, wherein the transmission means defines the range of the specific region as the range. It is determined based on the traveling direction of the vehicle.

また、請求項4の発明は、請求項1または2に記載の画像処理装置において、前記車両の周辺に存在する物体の位置を検出する物体検出手段、をさらに備え、前記透過手段は、前記特定領域の範囲を前記物体の位置に基づいて決定する。   The invention according to claim 4 is the image processing apparatus according to claim 1 or 2, further comprising object detection means for detecting a position of an object existing around the vehicle, wherein the transmission means is the specific device. The range of the region is determined based on the position of the object.

また、請求項5の発明は、請求項1または2に記載の画像処理装置において、前記特定領域の範囲は、前記車両を構成する部位の範囲である。   According to a fifth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the range of the specific region is a range of a part constituting the vehicle.

また、請求項6の発明は、車両で用いられる画像処理方法であって、前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する工程と、前記仮想視点からみた前記車両を示す車両画像を取得する工程と、前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める工程と、前記周辺画像と前記車両画像とを合成し合成画像を生成する工程と、前記合成画像を表示装置に出力して表示させる工程と、を備える。   The invention according to claim 6 is an image processing method used in a vehicle, and shows a peripheral region of the vehicle as viewed from a virtual viewpoint using a plurality of images acquired by a plurality of cameras provided in the vehicle. A step of generating a peripheral image, a step of acquiring a vehicle image showing the vehicle viewed from the virtual viewpoint, a step of increasing the transmittance of a specific region of a part of the vehicle image above the transmittance of another portion, A step of synthesizing a peripheral image and the vehicle image to generate a composite image; and a step of outputting the composite image to a display device for display.

また、請求項7の発明は、車両で用いられる画像処理システムであって、請求項1ないし5のいずれかに記載の画像処理装置と、前記画像処理装置から出力された前記合成画像を表示する表示装置と、を備える。   According to a seventh aspect of the present invention, there is provided an image processing system used in a vehicle, wherein the image processing apparatus according to any one of the first to fifth aspects and the composite image output from the image processing apparatus are displayed. A display device.

請求項1から7の発明によれば、車両画像の一部分の特定領域の透過率を他の部分の透過率より高めるので、車両のドライバーに対し、特定領域に相当する車両の周辺領域に存在する被写体の像を注視させることができる。   According to the first to seventh aspects of the present invention, since the transmittance of a specific area of a part of the vehicle image is higher than the transmittance of other parts, it exists in the peripheral area of the vehicle corresponding to the specific area for the driver of the vehicle. The image of the subject can be watched.

また、特に請求項2の発明によれば、車室内にいるドライバーの視点で車両周辺の状況を車両又は車室を透過して参照することができるので、ドライバーは直感的に周辺状況を把握することができる。   In particular, according to the invention of claim 2, since the situation around the vehicle can be referred to through the vehicle or the cabin from the viewpoint of the driver in the cabin, the driver intuitively grasps the surrounding situation. be able to.

また、特に請求項3の発明によれば、特定領域の範囲を車両の進行方向に基づいて決定するので、前進や後進する場合に進行方向周辺の状況を車両又は車室を透過して参照することができ、ドライバーは車両を安全に前進や後進させることができる。   In particular, according to the invention of claim 3, since the range of the specific area is determined based on the traveling direction of the vehicle, the situation around the traveling direction is referred to through the vehicle or the passenger compartment when moving forward or backward. And the driver can safely move the vehicle forward and backward.

また、特に請求項4の発明によれば、特定領域の範囲を物体の位置に基づいて決定するので、ドライバーは物体の位置を車両又は車室を透過して確認することができ、車両と物体との位置関係を把握することができる。   In particular, according to the invention of claim 4, since the range of the specific area is determined based on the position of the object, the driver can confirm the position of the object through the vehicle or the passenger compartment. Can be grasped.

また、特に請求項5の発明によれば、特定領域の範囲を車両を構成する部位の範囲とすることで、透過率を高める範囲を限定できるため、画像処理の効率を向上させることができる。   In particular, according to the invention of claim 5, by setting the range of the specific region as the range of the part constituting the vehicle, it is possible to limit the range in which the transmittance is increased, and thus it is possible to improve the efficiency of the image processing.

図1は、第1の実施の形態の画像処理システムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image processing system according to the first embodiment. 図2は、複数のカメラが撮影する方向を示す図である。FIG. 2 is a diagram illustrating directions in which a plurality of cameras capture images. 図3は、画像処理部が合成画像を生成する手法を説明する図である。FIG. 3 is a diagram for explaining a method in which the image processing unit generates a composite image. 図4は、画像処理部が合成画像を生成する手法を説明する図である。FIG. 4 is a diagram illustrating a method in which the image processing unit generates a composite image. 図5は、第1の実施の形態の画像処理装置の処理手順を示す図である。FIG. 5 is a diagram illustrating a processing procedure of the image processing apparatus according to the first embodiment. 図6は、特定領域を説明する図である。FIG. 6 is a diagram illustrating the specific area. 図7は、車両の周辺状況を説明する図である。FIG. 7 is a diagram for explaining the surrounding situation of the vehicle. 図8は、合成画像の例を示す図である。FIG. 8 is a diagram illustrating an example of a composite image. 図9は、合成画像の例を示す図である。FIG. 9 is a diagram illustrating an example of a composite image. 図10は、合成画像の例を示す図である。FIG. 10 is a diagram illustrating an example of a composite image. 図11は、第2の実施の形態の画像処理システムの構成を示す図である。FIG. 11 is a diagram illustrating a configuration of an image processing system according to the second embodiment. 図12は、第2の実施の形態の画像処理システムの処理手順を示す図である。FIG. 12 is a diagram illustrating a processing procedure of the image processing system according to the second embodiment. 図13は、第2の実施の形態の画像処理システムの詳細な処理手順を示す図である。FIG. 13 is a diagram illustrating a detailed processing procedure of the image processing system according to the second embodiment. 図14は、第3の実施の形態の画像処理システムの構成を示す図である。FIG. 14 is a diagram illustrating a configuration of an image processing system according to the third embodiment. 図15は、第3の実施の形態の画像処理システムの処理手順を示す図である。FIG. 15 is a diagram illustrating a processing procedure of the image processing system according to the third embodiment. 図16は、車両の周辺状況を説明する図である。FIG. 16 is a diagram for explaining the surrounding situation of the vehicle. 図17は、合成画像の一例を示す図である。FIG. 17 is a diagram illustrating an example of a composite image. 図18は、第4の実施の形態の画像処理システムの構成を示す図である。FIG. 18 is a diagram illustrating a configuration of an image processing system according to the fourth embodiment. 図19は、第4の実施の形態の画像処理システムの処理手順を示す図である。FIG. 19 is a diagram illustrating a processing procedure of the image processing system according to the fourth embodiment. 図20は、車両の周辺状況を説明する図である。FIG. 20 is a diagram for explaining the surrounding situation of the vehicle. 図21は、合成画像の一例を示す図である。FIG. 21 is a diagram illustrating an example of a composite image. 図22は、変形例の画像処理システムの構成を示す図である。FIG. 22 is a diagram illustrating a configuration of an image processing system according to a modification. 図23は、車両の周辺状況を説明する図である。FIG. 23 is a diagram illustrating the surrounding situation of the vehicle. 図24は、合成画像の例を示す図である。FIG. 24 is a diagram illustrating an example of a composite image.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.構成>
図1は、第1の実施の形態における画像処理システム120の構成を示すブロック図である。画像処理システム120は、車両1(本実施の形態では、自動車)に搭載され、車両1の周辺領域を示す画像を生成して車室内に表示する機能を有する。画像処理システム120のユーザとなるドライバーは、この画像処理システム120を利用し、車両1の周辺の様子を確認することができる。
<1. First Embodiment>
<1-1. Configuration>
FIG. 1 is a block diagram illustrating a configuration of an image processing system 120 according to the first embodiment. The image processing system 120 is mounted on the vehicle 1 (in this embodiment, an automobile), and has a function of generating an image showing a peripheral area of the vehicle 1 and displaying the image in the passenger compartment. A driver who is a user of the image processing system 120 can check the situation around the vehicle 1 by using the image processing system 120.

図に示すように、画像処理システム120は、画像処理装置100及び表示装置110を備えている。画像処理装置100は複数のカメラ20を備えている。この複数のカメラ20は、車両1の周辺を撮影して車両1の周辺を示す画像を取得し、取得した画像を画像処理装置100へ入力する。   As shown in the figure, the image processing system 120 includes an image processing apparatus 100 and a display apparatus 110. The image processing apparatus 100 includes a plurality of cameras 20. The plurality of cameras 20 captures the periphery of the vehicle 1 to acquire an image indicating the periphery of the vehicle 1, and inputs the acquired image to the image processing apparatus 100.

画像処理装置100は、撮影画像等を用いて各種の画像処理を行い、表示装置110に表示するための画像を生成する。また、表示装置110は、画像処理装置100から出力された画像を表示する。   The image processing apparatus 100 performs various types of image processing using a captured image or the like, and generates an image to be displayed on the display device 110. The display device 110 displays the image output from the image processing device 100.

複数のカメラ20はそれぞれ、レンズと撮像素子とを備え、車両1の周辺を示す撮影画像を電子的に取得する。複数のカメラ20は、フロントカメラ20F、リアカメラ20B、左サイドカメラ20L、及び、右サイドカメラ20Rを含む。これら4つのカメラ20F,20B,20L,20Rは、車両1において互いに異なる位置に配置され、車両1の周辺の異なる方向を撮影する。   Each of the plurality of cameras 20 includes a lens and an image sensor, and electronically acquires a captured image showing the periphery of the vehicle 1. The plurality of cameras 20 includes a front camera 20F, a rear camera 20B, a left side camera 20L, and a right side camera 20R. These four cameras 20F, 20B, 20L, and 20R are arranged at different positions in the vehicle 1 and photograph different directions around the vehicle 1.

図2は、4つのカメラ20F,20B,20L,20Rがそれぞれ撮影する方向を示す図である。フロントカメラ20Fは、車両1の前端に設けられ、その光軸20Faは車両1の直進方向に向けられる。リアカメラ20Bは、車両1の後端に設けられ、その光軸20Baは車両1の直進方向の逆方向に向けられる。左サイドカメラ20Lは、左側の左サイドミラー11Lに設けられ、その光軸20Laは車両1の左側方(直進方向の直交方向)に向けられる。また、右サイドカメラ20Rは、右側の右サイドミラー11Rに設けられ、その光軸20Raは車両1の右側方(直進方向の直交方向)に向けられる。   FIG. 2 is a diagram illustrating directions in which the four cameras 20F, 20B, 20L, and 20R are respectively photographed. The front camera 20F is provided at the front end of the vehicle 1, and its optical axis 20Fa is directed in the straight traveling direction of the vehicle 1. The rear camera 20 </ b> B is provided at the rear end of the vehicle 1, and its optical axis 20 </ b> Ba is directed in the direction opposite to the straight traveling direction of the vehicle 1. The left side camera 20L is provided on the left side mirror 11L on the left side, and its optical axis 20La is directed to the left side of the vehicle 1 (a direction orthogonal to the straight traveling direction). The right side camera 20R is provided on the right side mirror 11R on the right side, and its optical axis 20Ra is directed to the right side of the vehicle 1 (a direction orthogonal to the straight traveling direction).

これらのカメラ20F,20B,20L,20Rのレンズには魚眼レンズ等の広角レンズが採用され、各カメラ20F,20B,20L,20Rは180度以上の画角θを有する。このため、4つのカメラ20F,20B,20L,20Rを利用し、車両1の全周囲を撮影することが可能である。   These cameras 20F, 20B, 20L, and 20R use wide-angle lenses such as fish-eye lenses, and each camera 20F, 20B, 20L, and 20R has an angle of view θ of 180 degrees or more. For this reason, it is possible to photograph the entire periphery of the vehicle 1 using the four cameras 20F, 20B, 20L, and 20R.

図1に戻り、表示装置110は、液晶等の薄型の表示パネルとユーザの入力操作を検知するタッチパネル110aとを備え、各種の情報や画像を表示する。表示装置110は、ドライバーが車両1の運転席に着座した状態でその画面を視認できるように、車室内に配置される。   Returning to FIG. 1, the display device 110 includes a thin display panel such as a liquid crystal display and a touch panel 110 a that detects a user input operation, and displays various types of information and images. The display device 110 is disposed in the passenger compartment so that the driver can visually recognize the screen while seated in the driver's seat of the vehicle 1.

画像処理装置100は、各種の画像処理が可能な電子装置であり、画像処理部102と、画像取得部103と、画像出力部104とを備えている。   The image processing apparatus 100 is an electronic apparatus that can perform various types of image processing, and includes an image processing unit 102, an image acquisition unit 103, and an image output unit 104.

画像処理部102は、合成画像を生成するための画像処理を行うハードウェア回路である。画像処理部102は、複数のカメラ20で取得された複数の撮影画像を合成して、仮想視点からみた車両1の周辺の様子を示す周辺画像を生成する機能を有している。周辺画像処理部102が周辺画像を生成する手法については後に詳述する。画像処理部102は周辺画像生成部102a及び合成画像生成部102bをさらに備える。   The image processing unit 102 is a hardware circuit that performs image processing for generating a composite image. The image processing unit 102 has a function of synthesizing a plurality of captured images acquired by the plurality of cameras 20 and generating a peripheral image showing a state of the periphery of the vehicle 1 as viewed from the virtual viewpoint. A method in which the peripheral image processing unit 102 generates a peripheral image will be described in detail later. The image processing unit 102 further includes a peripheral image generation unit 102a and a composite image generation unit 102b.

周辺画像生成部102aは、複数のカメラ20で取得された複数の撮影画像を合成し、仮想視点からみた車両1の周辺の様子を示す周辺画像を生成する。仮想視点は、車両1の外部の位置から車両1を俯瞰する俯瞰視点、及び、車両1に乗車したドライバーの視点に相当する位置から外部をみるドライバー視点などである。   The surrounding image generation unit 102a combines a plurality of captured images acquired by the plurality of cameras 20, and generates a surrounding image that shows the state of the periphery of the vehicle 1 as viewed from the virtual viewpoint. The virtual viewpoint includes a bird's-eye view that looks down at the vehicle 1 from a position outside the vehicle 1 and a driver's viewpoint that looks at the outside from a position corresponding to the viewpoint of the driver who has boarded the vehicle 1.

合成画像生成部102bは、周辺画像生成部102aで生成された周辺画像に対し、車両1の車体や車室の画像を周辺画像に重畳する。   The composite image generation unit 102b superimposes the image of the vehicle body or the passenger compartment of the vehicle 1 on the peripheral image with respect to the peripheral image generated by the peripheral image generation unit 102a.

画像取得部103は、4つのカメラ20F,20B,20L,20Rでそれぞれ得られた撮影画像を取得する。画像取得部103は、アナログの撮影画像をデジタルの撮影画像に変換する機能等の画像処理機能を有する。画像取得部103は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像生成部102に入力する。   The image acquisition unit 103 acquires captured images respectively obtained by the four cameras 20F, 20B, 20L, and 20R. The image acquisition unit 103 has an image processing function such as a function of converting an analog captured image into a digital captured image. The image acquisition unit 103 performs predetermined image processing on the acquired captured image, and inputs the processed captured image to the image generation unit 102.

画像出力部104は、合成画像等の表示すべき画像を、表示装置110に出力する。これにより、画像が出力された表示装置110に当該画像が表示される。   The image output unit 104 outputs an image to be displayed such as a composite image to the display device 110. Thereby, the image is displayed on the display device 110 from which the image is output.

また、画像処理装置100は、制御部101と、記憶部106と、信号受信部105とをさらに備える。制御部101は、例えば、マイクロコンピュータであり、画像処理装置100の全体を統括的に制御する。   The image processing apparatus 100 further includes a control unit 101, a storage unit 106, and a signal reception unit 105. The control unit 101 is a microcomputer, for example, and comprehensively controls the entire image processing apparatus 100.

記憶部106は、例えば、フラッシュメモリ等の不揮発性メモリであり、各種の情報を記憶する。記憶部106は、車両画像データ106P、ファームウェアとしてのプログラムや、制御部101の制御に用いる各種のデータを記憶する。車両画像データ106Pは、車体画像データ106a及び車室画像データ106bを含む。車体画像データ106aは、車両1を俯瞰してみた場合の車両の外観を示す画像である。車室画像データ106bは、車両1の運転席から見える車室内の画像である。各画像は、あらゆる角度からみた車両外観及び車室内の画像を備える。   The storage unit 106 is, for example, a nonvolatile memory such as a flash memory, and stores various types of information. The storage unit 106 stores vehicle image data 106P, a program as firmware, and various data used for control by the control unit 101. The vehicle image data 106P includes vehicle body image data 106a and vehicle compartment image data 106b. The vehicle body image data 106a is an image showing the appearance of the vehicle when the vehicle 1 is looked down on. The vehicle interior image data 106 b is an image of the vehicle interior that can be seen from the driver's seat of the vehicle 1. Each image includes a vehicle appearance and a vehicle interior image viewed from all angles.

信号受信部105は、車両1に設けられる他の装置からの信号を受信する。信号受信部105は、受信した信号を制御部101に入力する。信号受信部105は、車両情報取得部130、ナビゲーション部140、物体情報取得部150、ドライバー情報取得部160、及び表示装置110のタッチパネル110aからの信号を受信する。   The signal receiving unit 105 receives signals from other devices provided in the vehicle 1. The signal receiving unit 105 inputs the received signal to the control unit 101. The signal receiving unit 105 receives signals from the vehicle information acquisition unit 130, the navigation unit 140, the object information acquisition unit 150, the driver information acquisition unit 160, and the touch panel 110 a of the display device 110.

制御部101は、CPU、RAM、及びROMを備える。制御部101の各種の機能は、記憶部106に記憶されたプログラムに従ってCPUが演算処理を行うことで実現される。また、制御部101は、プログラムに従って実現される機能として透過率変更部101aを備える。透過率変更部101aは、車両1の車体や車室の画像の透過率を変更する。画像の透過率を高めると、画像の線や色彩が薄く表示され、合成画像生成部102bにより重畳された周辺画像が車体画像や車室画像を透過する。車体画像や車室画像の透過率を100%に変更すると、車両画像や車室画像の線及び色彩は表示されず、周辺画像のみが表示される。一方、透過率を0%に変更すると、車両画像や車室画像の線及び色彩は明確に表示され、車体画像や車室画像と重なる周辺画像は表示されない。また、透過率を50%に変更すると、車体画像や車室画像の線及び色彩は薄く表示され、薄く表示された車体画像や車室画像を通して周辺画像が表示される。なお、画像の透過率を変更する手法は、既知の画像処理手法を用いることができる。   The control unit 101 includes a CPU, a RAM, and a ROM. Various functions of the control unit 101 are realized by the CPU performing arithmetic processing according to a program stored in the storage unit 106. In addition, the control unit 101 includes a transmittance changing unit 101a as a function realized according to the program. The transmittance changing unit 101a changes the transmittance of the image of the vehicle body or the passenger compartment of the vehicle 1. When the transmittance of the image is increased, the lines and colors of the image are displayed lightly, and the peripheral image superimposed by the composite image generation unit 102b transmits the vehicle body image and the cabin image. When the transmittance of the vehicle body image or the passenger compartment image is changed to 100%, the lines and colors of the vehicle image and the passenger compartment image are not displayed, and only the peripheral image is displayed. On the other hand, when the transmittance is changed to 0%, the lines and colors of the vehicle image and the passenger compartment image are clearly displayed, and the peripheral image overlapping the vehicle body image and the passenger compartment image is not displayed. When the transmittance is changed to 50%, the lines and colors of the body image and the cabin image are displayed lightly, and the peripheral image is displayed through the body image and the cabin image displayed lightly. Note that a known image processing method can be used as a method of changing the transmittance of the image.

車両情報取得部130は、車両1に関する様々な情報を取得し、信号受信部105へ出力する。車両情報取得部130は、車速センサ130a、シフトセンサ130b、ステアリングセンサ130c、及びウインカースイッチ130dを備える。車速センサ130aは、車両1の車両速度を取得し、車速データを時速に換算できるデータとして出力する。シフトセンサ130bは、「Drive」や「Reverse」等のシフトポジションを検知し、現在入力されているシフトポジションの位置データを信号受信部105へ出力する。ステアリングセンサ130cは、ステアリングが中立位置(車両が直進するステアリング位置)から左右にどれだけ回転したかを検知し、角度情報として出力する。ウインカースイッチ130dは、ウインカー(方向指示器)が左右どちらかに操作された場合に、該当する方向データを信号受信部105へ出力する。   The vehicle information acquisition unit 130 acquires various information about the vehicle 1 and outputs it to the signal reception unit 105. The vehicle information acquisition unit 130 includes a vehicle speed sensor 130a, a shift sensor 130b, a steering sensor 130c, and a winker switch 130d. The vehicle speed sensor 130a acquires the vehicle speed of the vehicle 1 and outputs the vehicle speed data as data that can be converted into hourly speed. The shift sensor 130 b detects a shift position such as “Drive” or “Reverse”, and outputs position data of the currently input shift position to the signal receiving unit 105. The steering sensor 130c detects how much the steering is rotated from the neutral position (the steering position where the vehicle goes straight) to the left and right, and outputs it as angle information. The winker switch 130 d outputs the corresponding direction data to the signal receiving unit 105 when the winker (direction indicator) is operated to the left or right.

ナビゲーション部140は、目的地までの経路を案内するナビゲーション機能を実現する電子装置である。ナビゲーション部140は、目的地までの経路を示す地図画像及び経路案内情報を信号受信部105へ出力する。   The navigation unit 140 is an electronic device that realizes a navigation function for guiding a route to a destination. The navigation unit 140 outputs a map image indicating the route to the destination and route guidance information to the signal receiving unit 105.

物体情報取得部150は、車両1の周辺に存在する物体を検知し、車両1に対する物体の方向及び距離データを信号受信部105へ出力する。物体情報取得部150は、クリアランスソナー150a及びレーダ150bを備える。クリアランスソナー150aは、車両1のバンパー部等の周囲に設けられ、音波を送受信することで車両1の周辺に存在する物体を検知する。クリアランスソナー150aは、物体の存在を検知すると、物体の存在する方向及び距離データを信号受信部105へ出力する。レーダ150bは、ミリ波や赤外線を送受信することで車両1の周辺に存在する物体を検知する。レーダ150bは、物体の存在を検知すると、物体の存在する方向及び距離データを信号受信部105へ出力する。   The object information acquisition unit 150 detects an object existing around the vehicle 1, and outputs the direction and distance data of the object with respect to the vehicle 1 to the signal reception unit 105. The object information acquisition unit 150 includes a clearance sonar 150a and a radar 150b. The clearance sonar 150a is provided around the bumper portion or the like of the vehicle 1 and detects an object existing around the vehicle 1 by transmitting and receiving sound waves. When the clearance sonar 150 a detects the presence of an object, the clearance sonar 150 a outputs the direction and distance data in which the object exists to the signal receiving unit 105. The radar 150b detects an object existing around the vehicle 1 by transmitting and receiving millimeter waves and infrared rays. When the radar 150b detects the presence of an object, the radar 150b outputs the direction and distance data of the object to the signal receiving unit 105.

ドライバー情報取得部160は、車両1のドライバーに関する様々な情報を取得し、信号受信部105へ出力する。ドライバー情報取得部160は、視線センサ160aを備える。視線センサ160aは、車両1内に設置されたカメラによりドライバーの視線方向を検知し、視線方向データを信号受信部105へ出力する。   The driver information acquisition unit 160 acquires various information related to the driver of the vehicle 1 and outputs it to the signal reception unit 105. The driver information acquisition unit 160 includes a line-of-sight sensor 160a. The line-of-sight sensor 160 a detects the line-of-sight direction of the driver with a camera installed in the vehicle 1, and outputs the line-of-sight data to the signal receiving unit 105.

<1−2.画像の生成>
次に、画像生成部102が、車両1の周辺領域を示す周辺画像、及び周辺画像に車両画像を重畳した合成画像を生成する手法について説明する。図3は、周辺画像生成部102aが周辺画像を生成する手法を説明する図である。
<1-2. Image generation>
Next, a method in which the image generation unit 102 generates a peripheral image indicating the peripheral region of the vehicle 1 and a composite image in which the vehicle image is superimposed on the peripheral image will be described. FIG. 3 is a diagram illustrating a method in which the peripheral image generation unit 102a generates a peripheral image.

フロントカメラ20F、リアカメラ20B、左サイドカメラ20L、及び、右サイドカメラ20Rのそれぞれで撮影が行われると、車両1の前方、後方、左側方、及び、右側方をそれぞれ示す4つの画像PF,PB,PL,PRが取得される。これら4つの画像PF,PB,PL,PRには、車両1の全周囲のデータが含まれている。   When shooting is performed with each of the front camera 20F, the rear camera 20B, the left side camera 20L, and the right side camera 20R, four images PF respectively showing the front, rear, left side, and right side of the vehicle 1 are shown. PB, PL, and PR are acquired. These four images PF, PB, PL, and PR include data around the entire vehicle 1.

周辺画像生成部102aは、まず、これら4つの画像PF,PB,PL,PRに含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしている。この投影面TSの中心部分(お椀の底部分)は、車両1の位置として定められている。また、投影面TSの中心以外の部分は、画像PF,PB,PL,PRのいずれかと対応付けられている。   First, the peripheral image generation unit 102a projects data (values of each pixel) included in these four images PF, PB, PL, and PR onto a projection surface TS that is a three-dimensional curved surface in a virtual three-dimensional space. The projection surface TS has, for example, a substantially hemispherical shape (a bowl shape). The center part (bottom part of the bowl) of the projection surface TS is determined as the position of the vehicle 1. Further, the portion other than the center of the projection surface TS is associated with any one of the images PF, PB, PL, and PR.

周辺画像生成部102aは、この投影面TSの中心以外の部分に、画像PF,PB,PL,PRに含まれるデータを投影する。周辺画像生成部102aは、投影面TSにおいて車両1の前方に相当する領域に、フロントカメラ20Fの画像PFのデータを投影する。また、周辺画像生成部102aは、投影面TSにおいて車両1の後方に相当する領域に、リアカメラ20Bの画像PBのデータを投影する。さらに、周辺画像生成部102aは、投影面TSにおいて車両1の左側方に相当する領域に左サイドカメラ20Lの画像PLのデータを投影し、投影面TSにおいて車両1の右側方に相当する領域に右サイドカメラ20Rの画像PRのデータを投影する。   The peripheral image generation unit 102a projects data included in the images PF, PB, PL, and PR on a portion other than the center of the projection surface TS. The peripheral image generation unit 102a projects the data of the image PF of the front camera 20F on a region corresponding to the front of the vehicle 1 on the projection surface TS. In addition, the peripheral image generation unit 102a projects the data of the image PB of the rear camera 20B on an area corresponding to the rear of the vehicle 1 on the projection surface TS. Further, the peripheral image generation unit 102a projects the data of the image PL of the left side camera 20L on the area corresponding to the left side of the vehicle 1 on the projection plane TS, and the area corresponding to the right side of the vehicle 1 on the projection plane TS. Data of the image PR of the right side camera 20R is projected.

次に、周辺画像生成部102aは、三次元空間に対して仮想視点VPを設定する。周辺画像生成部102aは、三次元空間における任意の視点位置に任意の視野方向に向けて仮想視点VPを設定できる。そして、周辺画像生成部102aは、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域を画像として切り出し、切り出した画像を合成する。これにより、周辺画像生成部102aは、仮想視点VPからみた車両1の周辺の領域を示す周辺画像APを生成する。   Next, the surrounding image generation unit 102a sets a virtual viewpoint VP for the three-dimensional space. The peripheral image generation unit 102a can set a virtual viewpoint VP at an arbitrary viewpoint position in the three-dimensional space in an arbitrary visual field direction. Then, the peripheral image generation unit 102a cuts out an area included in the predetermined viewing angle from the set virtual viewpoint VP in the projection plane TS as an image, and synthesizes the cut-out image. Accordingly, the peripheral image generation unit 102a generates a peripheral image AP indicating a region around the vehicle 1 viewed from the virtual viewpoint VP.

次に、合成画像生成部102bが、周辺画像生成部102aが生成した周辺画像AP、仮想視点VPに応じて記憶部106から読み出した車両画像データ106P(車体画像データ106a又は車室画像データ106b)、及びタッチパネル110aに用いるアイコン画像PIを合成し、合成画像CPを生成する。   Next, the composite image generation unit 102b reads the vehicle image data 106P (the vehicle body image data 106a or the vehicle compartment image data 106b) read from the storage unit 106 according to the peripheral image AP and the virtual viewpoint VP generated by the peripheral image generation unit 102a. And the icon image PI used for the touch panel 110a are combined to generate a combined image CP.

例えば、視点位置を車両1の運転席、視野方向を車両1の前方とした仮想視点VPc(ドライバー視点)を設定した場合は、車両1の運転席からその前方を見渡すように、車両1の車室内及び車両1の前方の領域を示す合成画像CPcが生成される。すなわち、図4に示すように、合成画像生成部102bは、仮想視点VPの位置が運転席かつ視野方向が前方である合成画像CPcを生成する場合、車両1の前方を示す周辺画像AP、運転席を示す車室画像106b、及びアイコン画像PIを合成し、合成画像CPを生成する。   For example, when a virtual viewpoint VPc (driver viewpoint) is set in which the viewpoint position is the driver's seat of the vehicle 1 and the visual field direction is the front of the vehicle 1, the vehicle of the vehicle 1 is looked forward from the driver's seat of the vehicle 1 A composite image CPc showing the room and the area in front of the vehicle 1 is generated. That is, as illustrated in FIG. 4, when generating the composite image CPc in which the position of the virtual viewpoint VP is the driver's seat and the visual field direction is the front, the composite image generation unit 102b The passenger compartment image 106b indicating the seat and the icon image PI are combined to generate a combined image CP.

また、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPb(斜視的かつ俯瞰的な仮想視点)を設定した場合は、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す合成画像CPbが生成される。   Further, when a virtual viewpoint VPb (a perspective and bird's-eye virtual viewpoint) with the viewpoint position as the left rear of the vehicle 1 and the visual field direction as the front of the vehicle 1 is set, the entire periphery is viewed from the left rear of the vehicle 1. As described above, the composite image CPb indicating the vehicle 1 and the area around the vehicle 1 is generated.

また、視点位置を車両1の直上、視野方向を直下とした仮想視点VPa(平面的かつ俯瞰的な仮想視点)を設定した場合は、車両1及び車両1の周辺の領域を俯瞰する合成画像CPaが生成される。   When a virtual viewpoint VPa (planar and overhead virtual viewpoint) with the viewpoint position directly above the vehicle 1 and directly below the viewing direction is set, the composite image CPa overlooking the vehicle 1 and the surrounding area of the vehicle 1. Is generated.

合成画像CPが生成されると、透過率変更部101aが、車体画像106a又は車室画像106bの透過率を変更する。車体画像106a又は車室画像106bの透過率が変更された合成画像を表示することで、ドライバーは、車体画像106a等を透過して周辺画像を参照することができるため、車両1の周辺状況を車両との位置関係とともに直感的に把握することができる。   When the composite image CP is generated, the transmittance changing unit 101a changes the transmittance of the vehicle body image 106a or the passenger compartment image 106b. By displaying the composite image in which the transmittance of the vehicle body image 106a or the passenger compartment image 106b is changed, the driver can refer to the surrounding image through the vehicle body image 106a and the like. It can be grasped intuitively together with the positional relationship with the vehicle.

<1−3.処理手順>
次に、周辺画像を生成する画像処理装置100の処理手順について説明する。図5は、画像処理装置100の処理手順を示す図である。図5に示す処理は、所定の周期(例えば、1/30秒周期)で繰り返し実行される。
<1-3. Processing procedure>
Next, a processing procedure of the image processing apparatus 100 that generates a peripheral image will be described. FIG. 5 is a diagram illustrating a processing procedure of the image processing apparatus 100. The process shown in FIG. 5 is repeatedly executed at a predetermined cycle (for example, 1/30 second cycle).

まず、4つのカメラ20でそれぞれ撮影が行われる。画像取得部103はこれら4つのカメラ20から4つの撮影画像を取得する。画像取得部103は取得した4つの撮影画像を画像生成部102に入力する(ステップS11)。   First, each of the four cameras 20 performs shooting. The image acquisition unit 103 acquires four captured images from these four cameras 20. The image acquisition unit 103 inputs the acquired four captured images to the image generation unit 102 (step S11).

画像取得部103が撮影画像を画像生成部102に入力すると、制御部101が、仮想視点VPの視点位置を決定する(ステップS12)。仮想視点VPの視点位置は、俯瞰視点位置又はドライバー視点位置であり、画像表示の当初にはドライバー視点位置が選択される。ドライバーにとって最も違和感のない視点位置だからである。なお、仮想視点VPの視野方向は、車両1の左前方が好ましい。車両1がいわゆる右ハンドルである場合、車両1を運転操作するドライバーの死角となりやすい方向だからである。   When the image acquisition unit 103 inputs the captured image to the image generation unit 102, the control unit 101 determines the viewpoint position of the virtual viewpoint VP (step S12). The viewpoint position of the virtual viewpoint VP is an overhead viewpoint position or a driver viewpoint position, and the driver viewpoint position is selected at the beginning of image display. This is because the point of view has the least discomfort for the driver. The viewing direction of the virtual viewpoint VP is preferably the left front of the vehicle 1. This is because when the vehicle 1 is a so-called right steering wheel, the direction is likely to be a blind spot of a driver who operates the vehicle 1.

仮想視点VPの視点位置及び視野方向の変更は、ドライバーによるタッチパネル110aの操作に応じて行えばよい。この際、表示装置110に表示されるアイコン画像PIが操作される毎に、仮想視点VPの位置を俯瞰視点位置、ドライバー視点位置と順次変更する。さらに、俯瞰視点位置の画像及びドライバー視点位置の画像を並列して同時に表示してもよい。この場合、ドライバーは複数の角度から車両1の周辺状況を同時に把握できるので、車両1をより安全に操作することができる。   The viewpoint position and the viewing direction of the virtual viewpoint VP may be changed according to the operation of the touch panel 110a by the driver. At this time, each time the icon image PI displayed on the display device 110 is operated, the position of the virtual viewpoint VP is sequentially changed to the overhead viewpoint position and the driver viewpoint position. Further, the image at the overhead viewpoint position and the image at the driver viewpoint position may be displayed simultaneously in parallel. In this case, since the driver can simultaneously grasp the surrounding situation of the vehicle 1 from a plurality of angles, the vehicle 1 can be operated more safely.

仮想視点VPの位置が決定されると、周辺画像生成部102aは、画像取得部103が取得した撮影画像に基づき、前述の手法により、車両1の周辺画像APを生成する(ステップS13)。   When the position of the virtual viewpoint VP is determined, the surrounding image generation unit 102a generates the surrounding image AP of the vehicle 1 by the above-described method based on the captured image acquired by the image acquisition unit 103 (step S13).

周辺画像APが生成されると、合成画像生成部102bは、制御部101を介して記憶部106から仮想視点VPに応じた車両画像データ106P(車体画像データ106a又は車室画像データ106b)を読み出す(ステップS14)。仮想視点VPの位置が俯瞰視点位置の場合には、車体画像データ106aが読み出され、ドライバー視点位置の場合には、車室画像データ106bが読み出される。なお、合成画像生成部102bによる記憶部106からの読み出し処理は、制御部101を介して実行される。   When the peripheral image AP is generated, the composite image generation unit 102b reads vehicle image data 106P (vehicle body image data 106a or vehicle compartment image data 106b) corresponding to the virtual viewpoint VP from the storage unit 106 via the control unit 101. (Step S14). When the position of the virtual viewpoint VP is the overhead viewpoint position, the vehicle body image data 106a is read. When the position of the virtual viewpoint VP is the driver viewpoint position, the vehicle compartment image data 106b is read. Note that the read processing from the storage unit 106 by the composite image generation unit 102 b is executed via the control unit 101.

次に、合成画像生成部102bが、4つの撮影画像を用いて、前述の手法により、合成画像CPを生成する(ステップS15)。   Next, the composite image generation unit 102b generates a composite image CP using the four captured images by the above-described method (step S15).

合成画像生成部102bが合成画像CPを生成すると、透過率変更部101aが、読み出された車両画像データ106Pの透過率を高める処理を実行する(ステップS16)。なお、読み出された車両画像データ106Pの透過率は0%である。透過率変更部101aは、車両画像データ106Pの透過率を50%程度に高めるのが好ましい。この場合、車両画像データ106Pと周辺画像APの両画像が同程度に視認できるため、ドライバーは車両1の周辺状況と車両1の位置関係を容易に把握できるからである。なお、車両画像データ106Pの透過率は、車両1周囲の明るさに応じて変更してもよい。すなわち、夜間や照明のない屋内等により車両1の周囲の照度が低い場合には、車両画像データ106Pの透過率を50%より高めてもよい。この場合、ドライバーは車両画像データ106Pを透過して周辺画像APをより明確に視認できるため、車両1の周囲の照度が低い場合であっても、ドライバーは車両1の周辺状況と車両1の位置関係を把握しやすい。   When the composite image generation unit 102b generates the composite image CP, the transmittance changing unit 101a executes a process for increasing the transmittance of the read vehicle image data 106P (step S16). The read vehicle image data 106P has a transmittance of 0%. The transmittance changing unit 101a preferably increases the transmittance of the vehicle image data 106P to about 50%. In this case, since both the vehicle image data 106P and the peripheral image AP can be visually recognized to the same extent, the driver can easily grasp the peripheral condition of the vehicle 1 and the positional relationship of the vehicle 1. The transmittance of the vehicle image data 106P may be changed according to the brightness around the vehicle 1. That is, when the illuminance around the vehicle 1 is low at night or indoors where there is no illumination, the transmittance of the vehicle image data 106P may be increased from 50%. In this case, the driver can see the peripheral image AP more clearly through the vehicle image data 106P. Therefore, even when the illuminance around the vehicle 1 is low, the driver can recognize the surrounding situation of the vehicle 1 and the position of the vehicle 1. Easy to grasp the relationship.

車両画像データ106Pの透過率を高める処理を行うと、透過率変更部101aは、車両画像データ106Pのうち、透過率をさらに高めるべき特定領域PXを設定する(ステップS17)。   If the process which raises the transmittance | permeability of the vehicle image data 106P is performed, the transmittance | permeability change part 101a will set the specific area | region PX which should further raise the transmittance | permeability among the vehicle image data 106P (step S17).

透過率変更部101aにより設定される特定領域PXは、合成画像CPのうち車両画像106Pに重複する領域であり、車両画像106Pを透過して表示される周辺画像APに対し、ドライバーが運転操作において特に注意を要すべき領域である。   The specific area PX set by the transmittance changing unit 101a is an area overlapping the vehicle image 106P in the composite image CP, and the driver performs a driving operation on the surrounding image AP displayed through the vehicle image 106P. This is an area that needs special attention.

例えば、図6に示すように、合成画像生成部により生成された合成画像がドライバー視点位置で前方を示す合成画像CPcである場合、特定領域PXの大きさは合成画像CPcの1/4程度で、特定領域PXの中心位置は合成画像CPcの中心よりやや下側である。かかる領域は、車両1を前進させる際には、車体に遮られて視認が困難であるうえ、障害物が存在した場合には車両1と接触する恐れがあり、かかる領域が運転操作において特に注意を要すべき領域となるからである。   For example, as illustrated in FIG. 6, when the composite image generated by the composite image generation unit is a composite image CPc indicating the front at the driver viewpoint position, the size of the specific region PX is about ¼ of the composite image CPc. The center position of the specific area PX is slightly below the center of the composite image CPc. When the vehicle 1 moves forward, it is difficult for the vehicle 1 to be visually recognized because the vehicle 1 moves forward, and there is a risk of contact with the vehicle 1 when there is an obstacle. This is because it is an area that needs to be handled.

なお、特定領域PXは、図6に示すような楕円形のみならず、円形や四角形でもよく、車両1の周囲に存在する障害物の形状としてもよい。また、特定領域PXを複数の小領域に分割し、車両1の周囲に存在する障害物と重複する小領域のみ透過率を高めてもよい。   The specific area PX is not limited to an ellipse as shown in FIG. 6, but may be a circle or a rectangle, or may be a shape of an obstacle existing around the vehicle 1. Further, the specific area PX may be divided into a plurality of small areas, and the transmittance may be increased only for the small areas overlapping with obstacles around the vehicle 1.

特定領域PXを設定すると、透過率変更部101aは、特定領域PXの透過率を高める処理を実行する(ステップS18)。すなわち、透過率変更部101aは、車両画像106Pの一部分の特定領域の透過率を、他の部分の透過率より高める処理を行う。車両画像の透過率を50%にした場合には、特定領域PXの透過率は75%から90%程度に高めるのが好ましい。図6に示すように、車両画像の透過率に対し特定領域PXの透過率を明確に高めることにより、ドライバーの注意を特定領域PXに引き付けることができるためである。   When the specific area PX is set, the transmittance changing unit 101a executes a process for increasing the transmittance of the specific area PX (step S18). That is, the transmittance changing unit 101a performs a process of increasing the transmittance of a specific region of a part of the vehicle image 106P more than the transmittance of other parts. When the transmittance of the vehicle image is 50%, the transmittance of the specific area PX is preferably increased from about 75% to about 90%. This is because the driver's attention can be attracted to the specific region PX by clearly increasing the transmittance of the specific region PX with respect to the transmittance of the vehicle image as shown in FIG.

例えば、図7に示すように、車両1が走行中に路側に停車した車両VSを追い越すような場合において、特定領域PXの大きさは、合成画像CPの1/4程度で、位置は合成画像CPcの中心よりやや左側に設定される。かかる領域は、いわゆる右ハンドルの車両1を走行させる際、車体に遮られて車両VSとの間隔の視認が困難であるため、追い越し走行を行う場合に特に注意を要すべき領域だからである。   For example, as shown in FIG. 7, when the vehicle 1 is overtaking a vehicle VS stopped on the road side while traveling, the size of the specific area PX is about 1/4 of the composite image CP, and the position is the composite image. It is set slightly to the left of the center of CPc. This is because when the so-called right-hand drive vehicle 1 is traveling, it is difficult to visually recognize the distance from the vehicle VS due to being blocked by the vehicle body.

この際、仮想視点の位置がドライバー視点である場合には、図8に示すように、特定領域PXの位置は合成画像CPcの中心よりやや左側に設定され、特定領域PXの透過率は車室画像106bよりも高く設定される。また、仮想視点の位置が俯瞰視点である場合には、図9に示すように、特定領域PXの位置は合成画像CPbのほぼ中心に設定されたうえ、特定領域PXの透過率は車体画像106aよりも高く設定される。   At this time, if the position of the virtual viewpoint is the driver viewpoint, the position of the specific area PX is set slightly to the left of the center of the composite image CPc as shown in FIG. It is set higher than the image 106b. In addition, when the position of the virtual viewpoint is an overhead viewpoint, as shown in FIG. 9, the position of the specific area PX is set at the substantially center of the composite image CPb, and the transmittance of the specific area PX is the vehicle body image 106a. Higher than.

これにより、ドライバーは、走行中に路側に停車した車両VSを追い越す場合において、車両VSと接触の恐れのある特に注意を要すべき領域について車両画像106Pをより高い透過率で車両VSを視認することができる。また、車両画像106Pを透過させつつも、ドライバーの注意を特定領域PXへ引き付けることができる。したがって、例えば車両1が高速で走行しており、ドライバーが瞬間的にしか画像を参照できなくとも、ドライバーは車両画像106Pを透過して表示された周辺画像APのうち、運転操作において特に注意を要すべき領域を直感的に視認することができる。   As a result, when the driver overtakes the vehicle VS parked on the road side during traveling, the driver visually recognizes the vehicle VS with a higher transmittance in the vehicle image 106P in a region requiring special attention that may be in contact with the vehicle VS. be able to. In addition, the driver's attention can be attracted to the specific area PX while the vehicle image 106P is transmitted. Therefore, for example, even when the vehicle 1 is traveling at high speed and the driver can refer to the image only instantaneously, the driver pays particular attention in driving operation among the peripheral images AP displayed through the vehicle image 106P. It is possible to visually recognize a necessary area intuitively.

透過率変更部101aにより特定領域PXの透過率を高める処理が行われると、画像出力部104は、合成画像CPを表示装置110へ出力する(ステップS19)。出力された合成画像CPは表示装置110に表示され、ドライバーによる運転操作の際に参照される。   When the process for increasing the transmittance of the specific area PX is performed by the transmittance changing unit 101a, the image output unit 104 outputs the composite image CP to the display device 110 (step S19). The output composite image CP is displayed on the display device 110 and is referred to when driving by the driver.

合成画像CPが出力されると、制御部101は、ドライバーによりタッチパネル110aが操作され、仮想視点VPの位置を変更すべき指示があるか否か判断する(ステップS20)。   When the composite image CP is output, the control unit 101 determines whether or not there is an instruction to change the position of the virtual viewpoint VP by operating the touch panel 110a by the driver (step S20).

仮想視点VPの位置を変更すべき指示があると判断する場合には(ステップS20でYes)、ステップS12に戻り、制御部101は仮想視点VPの位置を再度決定する。すなわち、仮想視点の位置がドライバー視点(図3におけるVPc)が選択されていた場合には、新たな仮想視点の位置として俯瞰的な視点(図3におけるVPb)が選択される。また、俯瞰的な視点(図3におけるVPb)が選択されていた場合には、その反対に新たな仮想視点の位置としてドライバー視点(図3におけるVPc)が選択され、ドライバーによる指示に応じて順次視点が変更される。なお、図10に示すように、視点位置を車両1の直上、視野方向を直下とした仮想視点VPa(平面的かつ俯瞰的な仮想視点)と、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPb(斜視的かつ俯瞰的な仮想視点)とを同時に表示してもよい。この場合、ドライバーによる指示に応じて、ドライバー視点、俯瞰視点、及び同時表示(図10)の画像が順次表示される。   When it is determined that there is an instruction to change the position of the virtual viewpoint VP (Yes in step S20), the process returns to step S12, and the control unit 101 determines the position of the virtual viewpoint VP again. That is, when the driver viewpoint (VPc in FIG. 3) is selected as the position of the virtual viewpoint, the overhead viewpoint (VPb in FIG. 3) is selected as the position of the new virtual viewpoint. On the other hand, when a bird's-eye view (VPb in FIG. 3) has been selected, a driver viewpoint (VPc in FIG. 3) is selected as the position of a new virtual viewpoint, and sequentially according to instructions from the driver. The viewpoint is changed. As shown in FIG. 10, a virtual viewpoint VPa (planar and overhead virtual viewpoint) with the viewpoint position directly above the vehicle 1 and the viewing direction directly below, the viewpoint position at the left rear of the vehicle 1, and the viewing direction as the viewing direction. A virtual viewpoint VPb (a perspective and a bird's-eye virtual viewpoint) in front of the vehicle 1 may be displayed at the same time. In this case, the driver viewpoint, the overhead viewpoint, and the simultaneous display image (FIG. 10) are sequentially displayed in accordance with an instruction from the driver.

一方、仮想視点VPの位置を変更すべき指示がないと判断する場合には(ステップS20でNo)、本処理は終了する。なお、ドライバーにより画像処理システム120の電源がオフされるまで、合成画像CPの表示(ステップS19)及び仮想視点VPの位置の変更の判断(ステップS20)の処理を繰り返し実行してもよい。この場合、ドライバーは画像処理システム120起動中に合成画像CPを常時参照できる。   On the other hand, when it is determined that there is no instruction to change the position of the virtual viewpoint VP (No in step S20), this process ends. Note that the process of displaying the composite image CP (step S19) and determining the change of the position of the virtual viewpoint VP (step S20) may be repeatedly executed until the power of the image processing system 120 is turned off by the driver. In this case, the driver can always refer to the composite image CP while the image processing system 120 is activated.

以上のように、画像処理装置100において、画像取得部103が車両1に搭載されたカメラ20の撮影画像を取得し、周辺画像生成部102aが撮影画像に基づいて車両1の周辺領域を示す周辺画像APを生成する。合成画像生成部102bは、仮想視点に応じた車両画像データ106P(車体画像データ106a又は車室画像データ106b)を周辺画像APに合成し、合成画像CPを生成する。透過率変更部101aは、合成画像CPにおける車両画像データ106Pの透過率を高めたうえ、特に注意を要すべき特定領域PXを設定し、特定領域PXの透過率をさらに高める。これにより、車両1のドライバーは、車両画像データ106Pを透過して車両周辺を参照すると共に、特定領域PXをさらに詳細に視認することができるため、運転操作における安全性を向上できる。   As described above, in the image processing apparatus 100, the image acquisition unit 103 acquires a captured image of the camera 20 mounted on the vehicle 1, and the peripheral image generation unit 102a indicates the peripheral region of the vehicle 1 based on the captured image. An image AP is generated. The composite image generation unit 102b combines the vehicle image data 106P (the vehicle body image data 106a or the passenger compartment image data 106b) corresponding to the virtual viewpoint with the peripheral image AP to generate a composite image CP. The transmittance changing unit 101a increases the transmittance of the vehicle image data 106P in the composite image CP, sets a specific area PX that requires special attention, and further increases the transmittance of the specific area PX. As a result, the driver of the vehicle 1 can see the vehicle periphery through the vehicle image data 106P and can visually recognize the specific area PX in more detail, so that safety in driving operation can be improved.

また、画像処理装置100においては、例えば車両1が高速で走行し、ドライバーが画像を瞬間的にしか参照できなくとも、ドライバーの注意を特定領域PXへ引き付けることができるため、運転操作における安全性を向上できる。   In the image processing apparatus 100, for example, even when the vehicle 1 travels at a high speed and the driver can refer to the image only momentarily, the driver's attention can be attracted to the specific area PX. Can be improved.

<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様のため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第2の実施の形態では特定領域PXの位置は、車両1の進行方向に応じて決定される。これにより、車両1の進行方向に特定領域PXの位置が設定されるので、ドライバーが運転操作する際により注意を要するべき位置に特定領域PXを設定することができる。
<2. Second Embodiment>
Next, a second embodiment will be described. Since the configuration and processing of the image processing system 120 in the second embodiment are substantially the same as those in the first embodiment, differences from the first embodiment will be mainly described. In the first embodiment, the position of the specific area PX is determined in advance according to the virtual viewpoint VP. In the second embodiment, the position of the specific area PX is determined according to the traveling direction of the vehicle 1. The Thereby, since the position of the specific area PX is set in the traveling direction of the vehicle 1, the specific area PX can be set at a position that requires more attention when the driver performs the driving operation.

図11は、第2の実施の形態における画像処理システム120のブロック図である。第1の実施の形態の構成に加えて、制御部101は、プログラムに従って実現される機能として方向検出部101bをさらに備えている。   FIG. 11 is a block diagram of the image processing system 120 according to the second embodiment. In addition to the configuration of the first embodiment, the control unit 101 further includes a direction detection unit 101b as a function realized according to the program.

方向検出部101bは、車両情報取得部130から送信された車両データを取得し、車両1の進行する方向を検出する。例えば、方向検出部101bは、車両情報取得部130のシフトセンサ130bからシフト位置が「Reverse」となるシフトデータを取得した場合、車両1の進行方向は後退である旨を検出する。方向検出部101bが進行方向を後退と検出すると、透過率変更部101aは、例えば仮想視点VPの視野方向を車両後方となる方向に設定する。   The direction detection unit 101b acquires the vehicle data transmitted from the vehicle information acquisition unit 130, and detects the direction in which the vehicle 1 travels. For example, when the direction detection unit 101b acquires shift data whose shift position is “Reverse” from the shift sensor 130b of the vehicle information acquisition unit 130, the direction detection unit 101b detects that the traveling direction of the vehicle 1 is backward. When the direction detection unit 101b detects that the traveling direction is backward, the transmittance changing unit 101a sets, for example, the viewing direction of the virtual viewpoint VP to a direction that is the rear of the vehicle.

図12は、第2の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS31の処理を備える点である。ステップS31の処理は、方向検出部101bが車両情報取得部130から送信された車両データを取得して車両1の進行する方向を検出する処理である。   FIG. 12 is a flowchart illustrating a processing procedure of the image processing system 120 according to the second embodiment. The difference from the first embodiment is that the process of step S31 is provided. The process in step S31 is a process in which the direction detection unit 101b acquires the vehicle data transmitted from the vehicle information acquisition unit 130 and detects the direction in which the vehicle 1 travels.

図13は、ステップS31の処理の詳細を示すフローチャートである。ステップS31は、ステップS20でNoの判定がなされた後に実行される。ステップS31が実行されると、方向検出部101bがシフトセンサ130bから送信されるシフトデータを取得し、シフト位置が「Reverse」であるか「Drive」であるか判断する(ステップS51)。   FIG. 13 is a flowchart showing details of the process in step S31. Step S31 is executed after No is determined in step S20. When step S31 is executed, the direction detection unit 101b acquires shift data transmitted from the shift sensor 130b, and determines whether the shift position is “Reverse” or “Drive” (step S51).

方向検出部101bがシフト位置を「Reverse」であると判断すると(ステップS51でReverse)、制御部101は、仮想視点VPの視野方向を車両後方に設定する(ステップS52)。次に、透過率変更部101aが特定領域PXの位置を車両下方に設定する(ステップS53)。かかる位置が、車両1を後退させる際に、車体に遮られてドライバーが認識し難い位置であり、特に注意を要する領域の中心点であるからである。   When the direction detection unit 101b determines that the shift position is “Reverse” (Reverse in Step S51), the control unit 101 sets the viewing direction of the virtual viewpoint VP to the rear of the vehicle (Step S52). Next, the transmittance changing unit 101a sets the position of the specific area PX below the vehicle (step S53). This is because such a position is a position that is difficult for the driver to recognize when the vehicle 1 is moved backward, and is a center point of a region requiring special attention.

ステップS53が実行されると、処理はステップS13に戻る。ステップS13では、仮想視点VPの視野方向が車両後方に設定されているため、周辺画像生成部102aが、車両後方の周辺画像を生成する。また、ステップS17では、特定領域PXの位置が車両下方に設定されているため、透過率変更部101aが、車両下方となる位置に特定領域PXを設定する。これにより、ドライバーは、シフトを「Reverse」とした場合に、車両後方の周辺画像とともに車両画像106Pの特定領域を高い透過率で透過した合成画像を参照でき、車両1の後退操作を安全に行うことができる。   When step S53 is executed, the process returns to step S13. In step S13, since the viewing direction of the virtual viewpoint VP is set to the rear of the vehicle, the peripheral image generation unit 102a generates a peripheral image of the rear of the vehicle. In step S17, since the position of the specific area PX is set below the vehicle, the transmittance changing unit 101a sets the specific area PX at a position below the vehicle. As a result, when the shift is set to “Reverse”, the driver can refer to the composite image that has passed through the specific area of the vehicle image 106P with a high transmittance together with the peripheral image behind the vehicle, and the vehicle 1 can be safely moved backward. be able to.

一方、方向検出部101bがシフト位置を「Drive」であると判断すると(ステップS51でDrive)、方向検出部101bはステアリングセンサ130cから送信されるステアリングデータを取得し、ステアリングの回転方向が「左」であるか「右」であるか判断する(ステップS54)。方向検出部101bがステアリングの回転方向が「左」であると判断すると(ステップS54で左)、制御部101は、仮想視点VPの視野方向を車両前方に設定する(ステップS55)。   On the other hand, when the direction detection unit 101b determines that the shift position is “Drive” (Driving in Step S51), the direction detection unit 101b acquires the steering data transmitted from the steering sensor 130c, and the steering rotation direction is “left”. "Or" right "(step S54). When the direction detection unit 101b determines that the steering rotation direction is “left” (left in step S54), the control unit 101 sets the viewing direction of the virtual viewpoint VP to the front of the vehicle (step S55).

次に、透過率変更部101aが特定領域PXの位置を車両左方に設定する(ステップS56)。かかる位置が、車両1を左方向へ進行させる際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS56が実行されると、処理はステップS13に戻り前述の処理が再度実行される。   Next, the transmittance changing unit 101a sets the position of the specific area PX to the left of the vehicle (step S56). This is because such a position becomes a position that is difficult for the driver to recognize when moving the vehicle 1 leftward, and is a center point of a region requiring special attention. When step S56 is executed, the process returns to step S13 and the above-described process is executed again.

また、方向検出部101bがステアリングの回転方向が「右」であると判断すると(ステップS54で右)、制御部101は、仮想視点VPの視野方向を車両前方に設定する(ステップS57)。   If the direction detection unit 101b determines that the steering rotation direction is “right” (right in step S54), the control unit 101 sets the visual field direction of the virtual viewpoint VP to the front of the vehicle (step S57).

次に、透過率変更部101aが特定領域PXの位置を車両右方に設定する(ステップS58)。かかる位置が、車両1を右方向へ進行させる際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS58が実行されると、処理はステップS13に戻り前述の処理が再度実行される。   Next, the transmittance changing unit 101a sets the position of the specific area PX to the right side of the vehicle (step S58). This is because such a position becomes a position that is difficult for the driver to recognize when moving the vehicle 1 in the right direction and is a center point of a region requiring special attention. When step S58 is executed, the process returns to step S13 and the above-described process is executed again.

また、方向検出部101bは、ステアリングの回転方向が「ない」であると判断すると(ステップS54で「ない」)、ナビゲーション部140から送信される経路案内データを取得し、経路案内の方向が「左折」、「右折」、「直進」のいずれかであるか判断する(ステップS60)。方向検出部101bが経路案内の方向が「左折」であると判断すると(ステップS60で左折)、前述のステップS55及びステップS56の処理が実行される。また、方向検出部101bが経路案内の方向が「右折」であると判断する場合も(ステップS60で右折)、前述のステップS57及びステップS58の処理が実行される。   When the direction detecting unit 101b determines that the steering direction is “not” (“not” in step S54), the direction detecting unit 101b acquires the route guidance data transmitted from the navigation unit 140, and the direction of the route guidance is “ It is determined whether it is any of “turn left”, “turn right”, or “straight” (step S60). When the direction detection unit 101b determines that the direction of the route guidance is “left turn” (left turn in step S60), the processes of steps S55 and S56 described above are executed. In addition, when the direction detection unit 101b determines that the direction of the route guidance is “right turn” (right turn in step S60), the processing in steps S57 and S58 described above is executed.

一方、方向検出部101bは、経路案内の方向を「直進」であると判断すると(ステップS60で直進)、車速センサ130aから送信される車速データを取得し、車速が所定速度以下であるか判断する(ステップS61)。所定速度とは、例えば時速20km/hである。所定速度以下とは、渋滞時の走行や徐行運転に相当する速度である。このように、車両の速度を検出することで、特定領域PXの位置を適切に設定することができる。すなわち、車速が低い場合には先行車両や障害物と接近して走行し得るため、例えば特定領域PXの位置を車両下方に設定することで、ドライバーは、車両1に接近した先行車両等を視認することができる。   On the other hand, when the direction detection unit 101b determines that the direction of the route guidance is “straight ahead” (going straight in step S60), it acquires the vehicle speed data transmitted from the vehicle speed sensor 130a and determines whether the vehicle speed is equal to or lower than the predetermined speed. (Step S61). The predetermined speed is, for example, 20 km / h. The predetermined speed or less is a speed corresponding to traveling or slow driving in a traffic jam. Thus, the position of the specific area PX can be appropriately set by detecting the speed of the vehicle. That is, when the vehicle speed is low, the vehicle can travel closer to the preceding vehicle and obstacles. For example, by setting the position of the specific area PX below the vehicle, the driver can visually recognize the preceding vehicle approaching the vehicle 1 or the like. can do.

方向検出部101bは、車速が所定速度以下であると判断すると(ステップS61でYes)、仮想視点VPの視野方向を車両前方に設定する(ステップS62)。次に、透過率変更部101aが特定領域PXの位置を車両下方に設定する(ステップS63)。かかる位置が、車両1が前進かつ低速で走行する際に、車体に遮られてドライバーが認識し難い位置となり、特に注意を要する領域の中心点となるからである。ステップS63が実行されると、処理はステップS13に戻り前述の処理が再度実行される。   When the direction detection unit 101b determines that the vehicle speed is equal to or lower than the predetermined speed (Yes in step S61), the direction detection unit 101b sets the viewing direction of the virtual viewpoint VP to the front of the vehicle (step S62). Next, the transmittance changing unit 101a sets the position of the specific area PX below the vehicle (step S63). This is because when the vehicle 1 travels forward and at a low speed, the position is blocked by the vehicle body and is difficult for the driver to recognize, and becomes the center point of a region requiring special attention. When step S63 is executed, the process returns to step S13 and the above-described process is executed again.

一方、方向検出部101bが、車速が所定速度以下でないと判断すると(ステップS61でNo)、図13のフローチャートに戻り処理は終了する。この場合は、車両1の進行方向に変化が検出されない場合であり、すなわち車両1が後進、右左折、及び低速走行もしないため、仮想視点VPの視野方向及び特定領域PXの位置を変更する必要がないためである。   On the other hand, when the direction detection unit 101b determines that the vehicle speed is not equal to or lower than the predetermined speed (No in step S61), the process returns to the flowchart of FIG. In this case, no change is detected in the traveling direction of the vehicle 1, that is, since the vehicle 1 does not travel backward, turn right or left, or travel at low speed, the viewing direction of the virtual viewpoint VP and the position of the specific area PX need to be changed. Because there is no.

このように、第2の実施の形態では、特定領域PXの位置は車両1の進行方向に応じて決定される。これにより、車両1の進行方向に特定領域PXの位置が設定されるので、ドライバーが運転操作する際により注意を要するべき位置に特定領域PXを設定することができる。このため、ドライバーは、車両1をいかなる方向へ操作する場合でも、車両1の周辺画像とともに車両画像106Pの特定領域を高い透過率で透過した合成画像を参照し、車両1の運転操作を安全に行うことができる。   Thus, in the second embodiment, the position of the specific area PX is determined according to the traveling direction of the vehicle 1. Thereby, since the position of the specific area PX is set in the traveling direction of the vehicle 1, the specific area PX can be set at a position that requires more attention when the driver performs the driving operation. For this reason, even when the driver operates the vehicle 1 in any direction, the driver refers to the composite image that transmits the specific region of the vehicle image 106P with a high transmittance together with the surrounding image of the vehicle 1 to safely operate the vehicle 1. It can be carried out.

なお、図13のフローチャートでは、左折や右折の場合に仮想視点VPの視野方向を車両1の前方に設定し(ステップS55、S57)、特定領域PXの位置を車両1の左方や右方に設定(ステップS56、S58)することで、車両1の進行方向に特定領域PXの位置を設定した。しかし、仮想視点VPの視野方向を車両1が曲がる方向とし、特定領域PXの位置をその方向の車両画像106Pにおける中央部とすることで、車両1の進行方向に特定領域PXの位置を設定してもよい。例えば、ウィンカースイッチ130dがオンとなる方向が左であれば、前方正面方向から左斜め45[°]の方向に仮想視点VPの視野方向を設定し、特定領域PXの位置をその方向の中央部としてもよい。このようにすれば、車両1の前後進のみならず右左折の場合であっても特定領域PXの位置が常に画像中央部に設定されるため、ドライバーは特定領域PXの周囲も認識しやすい。   In the flowchart of FIG. 13, in the case of a left turn or a right turn, the viewing direction of the virtual viewpoint VP is set to the front of the vehicle 1 (steps S55 and S57), and the position of the specific area PX is set to the left or right of the vehicle 1. By setting (steps S56 and S58), the position of the specific region PX is set in the traveling direction of the vehicle 1. However, the position of the specific area PX is set in the traveling direction of the vehicle 1 by setting the visual field direction of the virtual viewpoint VP as the direction in which the vehicle 1 bends and the position of the specific area PX as the center of the vehicle image 106P in that direction. May be. For example, if the direction in which the winker switch 130d is turned on is left, the viewing direction of the virtual viewpoint VP is set in the direction of 45 [°] diagonally to the left from the front front direction, and the position of the specific region PX is set at the center of the direction It is good. In this way, the position of the specific area PX is always set at the center of the image, not only when the vehicle 1 moves forward and backward, but also when turning right or left, so the driver can easily recognize the periphery of the specific area PX.

<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様であるため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第3の実施の形態では特定領域PXの位置は車両1の周辺に存在する物体の位置(方向及び距離)に応じて決定される。これにより、車両1の周辺に存在する物体の位置に特定領域PXの位置が設定されるので、ドライバーが運転操作を行う際により注意を要するべき位置に特定領域PXを設定することができる。
<3. Third Embodiment>
Next, a third embodiment will be described. Since the configuration and processing of the image processing system 120 in the third embodiment are substantially the same as those in the first embodiment, differences from the first embodiment will be mainly described. In the first embodiment, the position of the specific area PX is determined in advance according to the virtual viewpoint VP, but in the third embodiment, the position of the specific area PX is the position of an object existing around the vehicle 1 ( Direction and distance). As a result, the position of the specific area PX is set at the position of the object existing around the vehicle 1, so that the specific area PX can be set at a position that requires more attention when the driver performs a driving operation.

図14は、第3の実施の形態における画像処理システム120のブロック図である。第1の実施の形態の構成に加えて、制御部101は、プログラムに従って実現される機能として物体検出部101cをさらに備えている。   FIG. 14 is a block diagram of an image processing system 120 according to the third embodiment. In addition to the configuration of the first embodiment, the control unit 101 further includes an object detection unit 101c as a function realized according to the program.

物体検出部101cは、物体情報取得部150から送信された物体データを取得し、車両1の周辺に存在する物体の位置を検出する。例えば、物体検出部101cは、車両情報取得部130の車両1のクリアランスソナー150a(クリアランスソナー150aのうち左前方に設置されたもの)から一定レベルを超過する強度の物体データを取得した場合、車両1の左前方で距離0.5mに物体が存在する旨を検出する。物体検出部101cが物体の位置を左前方で距離0.5mと検出すると、透過率変更部101aは、例えば仮想視点VPの視野方向を車両左側となる方向に設定する。なお、レーダ150bからの物体データであっても、物体検出部101cは、車両1の周辺に存在する物体の位置を検出することができる。   The object detection unit 101 c acquires the object data transmitted from the object information acquisition unit 150 and detects the position of an object existing around the vehicle 1. For example, when the object detection unit 101c acquires object data having a strength exceeding a certain level from the clearance sonar 150a of the vehicle 1 of the vehicle information acquisition unit 130 (installed on the left front side of the clearance sonar 150a), It detects that an object exists at a distance of 0.5 m in the left front of 1. When the object detection unit 101c detects the position of the object as a distance of 0.5 m on the left front side, the transmittance changing unit 101a sets, for example, the viewing direction of the virtual viewpoint VP to the direction on the left side of the vehicle. Note that even with the object data from the radar 150b, the object detection unit 101c can detect the position of an object existing around the vehicle 1.

図15は、第3の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS71からS73の処理を実行する点である。ステップS71からS73の処理は、物体検出部101cが物体情報取得部150から送信された物体データを取得し、特定領域PXの範囲を検出された物体を含むように設定する処理である。   FIG. 15 is a flowchart illustrating a processing procedure of the image processing system 120 according to the third embodiment. The difference from the first embodiment is that the processes of steps S71 to S73 are executed. The processes in steps S71 to S73 are processes in which the object detection unit 101c acquires the object data transmitted from the object information acquisition unit 150, and sets the range of the specific region PX to include the detected object.

ステップS71は、ステップS20でNoの判定がなされた後に実行される。ステップS71が実行されると、物体検出部101cが物体情報取得部150から送信される豚地データを取得し、車両1の周辺に物体が存在するか判断する。(ステップS71)。   Step S71 is executed after No is determined in step S20. When step S <b> 71 is executed, the object detection unit 101 c acquires the pig land data transmitted from the object information acquisition unit 150 and determines whether an object exists around the vehicle 1. (Step S71).

物体検出部101cが車両1の周辺に物体が存在すると判断する場合は(ステップS71でYes)、物体検出部101cは、かかる物体の位置(方向及び距離)を検出する(ステップS72)。   When the object detection unit 101c determines that an object exists around the vehicle 1 (Yes in step S71), the object detection unit 101c detects the position (direction and distance) of the object (step S72).

物体検出部101cが物体の位置を検出すると、透過率変更部101aは、検出された物体の位置に基づき特定領域PXの範囲について物体の外縁を含む範囲に設定する(ステップS73)。物体の外縁は、周辺画像AP上における物体データの強度に基づいて決定すればよい。また、画像処理における、いわゆるパターンマッチングの手法を用いることもできる。この場合、予め車両1の周辺に存在しうる物体の外縁データを記憶部106に記憶しておけばよい。また、物体が車両1に対して相対的に移動している場合には、オプティカルフロー方式の手法を用いて物体の外縁を検出することもできる。この方式を用いた場合は、物体検出部101cは、時間的に連続する複数の撮影画像(フレーム)のそれぞれから特徴点を抽出し、それら複数の撮影画像間での特徴点の動きを示すオプティカルフローに基づいて物体の外縁を検出する。 なお、検出した障害物の方向に向けて仮想視点VPの視野方向を設定し、仮想視点VPの視野方向の中心に特定領域PXの位置を設定してもよい。   When the object detection unit 101c detects the position of the object, the transmittance changing unit 101a sets the range of the specific region PX to a range including the outer edge of the object based on the detected position of the object (step S73). The outer edge of the object may be determined based on the intensity of the object data on the peripheral image AP. Also, a so-called pattern matching method in image processing can be used. In this case, outer edge data of an object that may exist around the vehicle 1 may be stored in the storage unit 106 in advance. Further, when the object is moving relative to the vehicle 1, the outer edge of the object can be detected using an optical flow method. When this method is used, the object detection unit 101c extracts feature points from each of a plurality of time-sequential captured images (frames), and optical indicating the movement of the feature points between the plurality of captured images. The outer edge of the object is detected based on the flow. Note that the visual field direction of the virtual viewpoint VP may be set in the direction of the detected obstacle, and the position of the specific region PX may be set at the center of the visual field direction of the virtual viewpoint VP.

透過率変更部101aが特定領域PXの範囲を物体の外縁を含む範囲に設定すると、処理はステップS18に戻り、透過率変更部101aは、設定した特定領域PXの透過率を高める処理を実行する。   When the transmittance changing unit 101a sets the range of the specific region PX to a range including the outer edge of the object, the process returns to step S18, and the transmittance changing unit 101a executes a process of increasing the transmittance of the set specific region PX. .

例えば、図16に示すように、車両1の右前方付近に障害物OB1が存在する駐車場PAに進入した場合、物体情報取得部150が障害物OB1の位置を検知すると、特定領域PXは、右前方かつ下方に設定される。この場合、合成画像CPは図17に示すように表示され、ドライバー視点においてハンドルやインナーパネルにより遮られていた位置に特定領域PXが設定される。ドライバーは、車室画像106bのうち特に障害物OB1の存在する範囲を高い透過率で透過して障害物OB1を視認できるので、車両1が障害物OB1と接触しないよう回避運転を行うことができる。   For example, as shown in FIG. 16, when the object information acquisition unit 150 detects the position of the obstacle OB1 when entering the parking lot PA where the obstacle OB1 exists in the vicinity of the right front of the vehicle 1, the specific area PX is It is set to the front right and below. In this case, the composite image CP is displayed as shown in FIG. 17, and the specific region PX is set at a position that is blocked by the handle or the inner panel from the driver's viewpoint. The driver can visually recognize the obstacle OB1 through the range in which the obstacle OB1 exists in the passenger compartment image 106b with a high transmittance, so that the driver 1 can perform an avoidance operation so that the vehicle 1 does not come into contact with the obstacle OB1. .

図15におけるステップS71において、物体検出部101cが車両1の周辺に物体が存在しないと判断した場合は(ステップS71でNo)、処理は終了する。車両1の周辺に物体が存在しないと判断した以上、特定領域PXの範囲を変更する必要がないからである。   If the object detection unit 101c determines in step S71 in FIG. 15 that no object exists around the vehicle 1 (No in step S71), the process ends. This is because it is not necessary to change the range of the specific region PX as long as it is determined that no object exists around the vehicle 1.

このように、第3の実施の形態では、特定領域PXの位置は車両1の周辺に存在する物体の位置に応じて決定される。これにより、ドライバーが運転操作する際に、より注意を要するべき位置に特定領域PXを設定することができる。したがって、ドライバーは、物体を回避して車両1を操作でき、車両1の運転操作を安全に行うことができる。   Thus, in the third embodiment, the position of the specific area PX is determined according to the position of an object existing around the vehicle 1. As a result, the specific area PX can be set at a position that requires more attention when the driver performs a driving operation. Accordingly, the driver can operate the vehicle 1 while avoiding the object, and can safely perform the driving operation of the vehicle 1.

<4.第4の実施の形態>
次に、第4の実施の形態について説明する。第4の実施の形態における画像処理システム120の構成及び処理は、第1の実施の形態とほぼ同様であるため、第1の実施の形態との相違点を中心に説明する。第1の実施の形態では特定領域PXの位置は、仮想視点VPに応じて予め決定されたが、第4の実施の形態では特定領域PXの位置は車両1を構成する部位に応じて決定される。車両1を構成する部位とは、ボンネットやドアー、インナーパネル、ハンドル、シート等の部品、さらにピラーやルーフ等の車体における一定領域である。これにより、車両1を構成する部位に特定領域PXが設定されるので、透過率を高めるべき領域を限定することができ、画像処理の処理負荷を軽減することができる。特に、ドアーやピラー等のガラスで囲まれた部位の透過率を高める場合に好適である。かかる部位は、本来透過しているガラスで囲まれているため、該当する領域(ドアーやピラー等)のみ透過率を高める処理を実行すればよいからである。
<4. Fourth Embodiment>
Next, a fourth embodiment will be described. Since the configuration and processing of the image processing system 120 in the fourth embodiment are substantially the same as those in the first embodiment, differences from the first embodiment will be mainly described. In the first embodiment, the position of the specific area PX is determined in advance according to the virtual viewpoint VP. In the fourth embodiment, the position of the specific area PX is determined in accordance with the parts constituting the vehicle 1. The The part which comprises the vehicle 1 is fixed areas in parts, such as a bonnet, a door, an inner panel, a handle | steering-wheel, a sheet | seat, and vehicle bodies, such as a pillar and a roof. Thereby, since the specific area PX is set in the part which comprises the vehicle 1, the area | region which should raise the transmittance | permeability can be limited and the processing load of image processing can be reduced. In particular, it is suitable for increasing the transmittance of a portion surrounded by glass such as a door or a pillar. This is because such a portion is surrounded by originally transmitting glass, and therefore it is only necessary to execute a process for increasing the transmittance only in the corresponding region (door, pillar, etc.).

図18は、第4の実施の形態における画像処理システム120のブロック図である。第4の実施の形態の記憶部106が記憶する車両画像データ106Pは、車両部位データ106cを含んでいる。車両部位データ106cは、車体画像データ106a及び車室画像データ106bのうち車両の部位に相当するデータである。例えば、車両部位データ106cは、車室画像データ106bで示される画像におけるドアー部やピラー部等から構成される。透過率変更部101aは、記憶部106から車両部位データ106cを読み出し、読み出した車両部位の透過率を高める処理を実行する。なお、車両部位データ106cは、車両1の周辺に存在する物体の位置と車両部位が重複する場合に、かかる車両部位に相当する車両部位データ106cが選択される。この場合、物体の位置は、物体情報取得部150からの物体データを用いればよい。また、タッチパネル110aに対するドライバーの接触操作により、接触された車両部位を選択してもよい。   FIG. 18 is a block diagram of an image processing system 120 according to the fourth embodiment. The vehicle image data 106P stored in the storage unit 106 of the fourth embodiment includes vehicle part data 106c. The vehicle part data 106c is data corresponding to the vehicle part of the vehicle body image data 106a and the passenger compartment image data 106b. For example, the vehicle part data 106c includes a door part, a pillar part, and the like in the image indicated by the passenger compartment image data 106b. The transmittance changing unit 101a reads the vehicle part data 106c from the storage unit 106 and executes a process for increasing the transmittance of the read vehicle part. As the vehicle part data 106c, when the position of an object existing around the vehicle 1 and the vehicle part overlap, the vehicle part data 106c corresponding to the vehicle part is selected. In this case, the object data from the object information acquisition unit 150 may be used for the position of the object. Further, the contacted vehicle part may be selected by the driver's contact operation on the touch panel 110a.

図19は、第4の実施の形態における画像処理システム120の処理手順を示すフローチャートである。第1の実施の形態との相違点は、ステップS17に代えてステップS17aを実行する点である。ステップS17aの処理は、透過率変更部101aが、車両部位データ106cを記憶部106から読み出し、車両画像106Pのうち読み出した車両部位に相当する範囲について特定領域PXを設定する処理である。ステップS17が実行されると、透過率変更部101aが特定領域PXの透過率を高める処理(ステップS18)を実行し、ステップS19以下の前述の処理が実行される。   FIG. 19 is a flowchart illustrating a processing procedure of the image processing system 120 according to the fourth embodiment. The difference from the first embodiment is that step S17a is executed instead of step S17. The process of step S17a is a process in which the transmittance changing unit 101a reads the vehicle part data 106c from the storage unit 106 and sets the specific area PX for a range corresponding to the read vehicle part in the vehicle image 106P. When step S17 is executed, the transmittance changing unit 101a executes a process of increasing the transmittance of the specific area PX (step S18), and the above-described processes after step S19 are executed.

例えば、図20に示すように、駐車領域paに駐車すべく駐車場PAへ進入した場合、ドライバーは、車両1の左前方に駐車している駐車車両VEと接触しないよう注意を払う必要がある。この場合、ステアリングセンサ130cで車両1の左方向への進行、及びレーダ150bで駐車車両VEの位置を検出すれば、透過率変更部101aは、車室画像106bにおいて車両1の左Aピラーに駐車車両の画像が重複すると判断できる。このように判断した場合、図21に示すように、仮想視点VPを車両前方とした合成画像CPにおいて、左Aピラーに相当する領域106cを特定領域PXに設定し、かかる領域の透過率を高める処理が実行される。これにより、ドライバーは、駐車車両VEと接触しないよう容易に注意を払いつつ、駐車領域paに車両1を駐車させることができる。   For example, as shown in FIG. 20, when entering the parking lot PA to park in the parking area pa, the driver needs to pay attention not to come into contact with the parked vehicle VE parked on the left front side of the vehicle 1. . In this case, if the steering sensor 130c detects the vehicle 1 traveling in the left direction and the radar 150b detects the position of the parked vehicle VE, the transmittance changing unit 101a parks on the left A pillar of the vehicle 1 in the passenger compartment image 106b. It can be determined that the vehicle images overlap. In this case, as shown in FIG. 21, in the composite image CP with the virtual viewpoint VP in front of the vehicle, the area 106c corresponding to the left A pillar is set as the specific area PX, and the transmittance of the area is increased. Processing is executed. Thus, the driver can park the vehicle 1 in the parking area pa while paying attention not to come in contact with the parked vehicle VE.

このように、第4の実施の形態では、特定領域PXの位置は車両1を構成する部位に応じて決定される。これにより、透過率を高めるべき領域を限定することができ、画像処理の処理負荷を軽減することができる。   As described above, in the fourth embodiment, the position of the specific region PX is determined according to the parts constituting the vehicle 1. Thereby, the area | region which should raise the transmittance | permeability can be limited and the processing load of image processing can be reduced.

<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.

図22は、変形例における画像処理システム120のブロック図である。同図に示すように、制御部101は、プログラムに従って実現される機能として視線検出部101dを備える。このような構成により、ドライバーの視線方向に特定領域PXを設定し、ドライバーが参照したい方向の車両画像106Pを透過させて合成画像CPを表示させることができる。この場合、ドライバーの目視による安全確認を補助することができるため、ドライバーはより安全に車両1を運転操作することができる。この視線検出部101dは、ドライバー情報取得部160の視線センサ160aから視線データを取得し、ドライバーの視線方向を検出する。ドライバー情報取得部160の視線センサ160aから視線データを取得し、ドライバーの視線方向を検出する。透過率変更部101aは、視線検出部101dが検出したドライバーの視線方向に特定領域PXを設定する。例えば、図23に示すように、車両1の左側方に障害物OB2が存在する駐車場PAに進入した場合、ドライバーが左側方を目視すれば、仮想視点VPの視野方向も左側方に設定される。ドライバーの視線方向に特定領域PXが設定されるため、図24に示すように、ドライバーは車両左側方の障害物OB2を高い透過率の車室画像106bを透して視認することができる。なお、ドライバーが視線を移動した数秒後(例えば2秒後)に、ドライバーの視線方向の画像を表示してもよい。この場合、ドライバーが表示装置110に視線を向けた際には、数秒前に視線を向けた方向の画像を表示することができ、ドライバーは目視した周辺の様子を数秒後に表示装置110で確認することができる。   FIG. 22 is a block diagram of an image processing system 120 according to a modification. As shown in the figure, the control unit 101 includes a line-of-sight detection unit 101d as a function realized according to a program. With such a configuration, the specific area PX can be set in the line-of-sight direction of the driver, and the composite image CP can be displayed through the vehicle image 106P in the direction that the driver wants to refer to. In this case, since it is possible to assist the driver's visual confirmation of safety, the driver can drive the vehicle 1 more safely. The line-of-sight detection unit 101d acquires line-of-sight data from the line-of-sight sensor 160a of the driver information acquisition unit 160, and detects the line-of-sight direction of the driver. The line-of-sight data is acquired from the line-of-sight sensor 160a of the driver information acquisition unit 160, and the line-of-sight direction of the driver is detected. The transmittance changing unit 101a sets the specific area PX in the line-of-sight direction of the driver detected by the line-of-sight detection unit 101d. For example, as shown in FIG. 23, when entering the parking lot PA where the obstacle OB2 exists on the left side of the vehicle 1, if the driver looks at the left side, the viewing direction of the virtual viewpoint VP is also set to the left side. The Since the specific area PX is set in the line-of-sight direction of the driver, as shown in FIG. 24, the driver can visually recognize the obstacle OB2 on the left side of the vehicle through the cabin image 106b having a high transmittance. Note that an image in the driver's line-of-sight direction may be displayed several seconds after the driver moves his line of sight (for example, 2 seconds later). In this case, when the driver turns his / her line of sight toward the display device 110, an image in the direction in which his / her line of sight is directed can be displayed several seconds ago, and the driver confirms the appearance of the surrounding area with the display device 110 after several seconds. be able to.

また、上記実施の形態の処理手順では、合成画像の生成処理(ステップS15)を特定領域の透過率を高める処理(ステップS18)の前に実行していたが、必ずしもこのような処理手順に限定されるものではない。すなわち、合成画像の生成処理(ステップS15)を特定領域の透過率を高める処理(ステップS18)の後であって、合成画像の出力処理の前に実行してもよい。   In the processing procedure of the above-described embodiment, the composite image generation process (step S15) is executed before the process of increasing the transmittance of the specific area (step S18). Is not to be done. That is, the composite image generation process (step S15) may be executed after the process of increasing the transmittance of the specific area (step S18) and before the composite image output process.

また、上記実施の形態の処理手順では、各処理(各ステップ)を直列的に実行していたが、必ずしもこのような直列的な処理手順に限定されるものではない。例えば、撮影画像の取得処理(ステップS11)、仮想視点の位置の決定処理(ステップS12)、及び周辺画像の生成処理(ステップS13)と、車両画像又は車室画像を読み出す処理(ステップS14)、車両画像の透過率を高める処理(ステップS16)、特定領域を設定する処理(ステップS17)、及び特定領域の透過率を高める処理(ステップS18)とを並列的に実行してもよい。この場合、かかる並列処理により生成された周辺画像と透過率が高められた特定領域のデータを用いて、合成画像を生成する処理(ステップS15)を実行すればよい。   Moreover, in the processing procedure of the said embodiment, although each process (each step) was performed in series, it is not necessarily limited to such a serial processing procedure. For example, a captured image acquisition process (step S11), a virtual viewpoint position determination process (step S12), a peripheral image generation process (step S13), and a vehicle image or vehicle compartment image reading process (step S14), The process of increasing the transmittance of the vehicle image (step S16), the process of setting the specific area (step S17), and the process of increasing the transmittance of the specific area (step S18) may be executed in parallel. In this case, the process (step S15) for generating a composite image may be executed using the peripheral image generated by the parallel processing and the data of the specific region with increased transmittance.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.

1 車両
20 カメラ
100 画像処理装置
101 制御部
102 画像生成部
103 画像取得部
104 画像出力部
105 信号受信部
106 記憶部
110 表示装置
120 画像処理システム
130 車両情報取得部
140 ナビゲーション部
150 物体情報取得部
160 ドライバー情報取得部
DESCRIPTION OF SYMBOLS 1 Vehicle 20 Camera 100 Image processing apparatus 101 Control part 102 Image generation part 103 Image acquisition part 104 Image output part 105 Signal receiving part 106 Storage part 110 Display apparatus 120 Image processing system 130 Vehicle information acquisition part 140 Navigation part 150 Object information acquisition part 160 Driver information acquisition unit

Claims (7)

車両で用いられ、画像を処理する画像処理装置であって、
前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する生成手段と、
前記仮想視点からみた前記車両を示す車両画像を取得する取得手段と、
前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める透過手段と、
前記周辺画像と前記車両画像とを合成し合成画像を生成する合成手段と、
前記合成画像を表示装置に出力して表示させる出力手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that is used in a vehicle and processes an image,
Generating means for generating a peripheral image showing a peripheral region of the vehicle viewed from a virtual viewpoint, using a plurality of images acquired by a plurality of cameras provided in the vehicle;
Obtaining means for obtaining a vehicle image indicating the vehicle viewed from the virtual viewpoint;
A transmission means for increasing the transmittance of a specific region of a part of the vehicle image to be higher than the transmittance of another part;
Combining means for combining the peripheral image and the vehicle image to generate a combined image;
Output means for outputting and displaying the composite image on a display device;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記仮想視点の位置は、前記車両のドライバーの視点に相当する位置であり、
前記車両画像は、前記車両の車室内部を示す車室画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The position of the virtual viewpoint is a position corresponding to the viewpoint of the driver of the vehicle,
The image processing apparatus according to claim 1, wherein the vehicle image is a vehicle compartment image showing a vehicle interior of the vehicle.
請求項1または2に記載の画像処理装置において、
前記車両の進行方向を検出する方向検出手段、
をさらに備え、
前記透過手段は、前記特定領域の範囲を前記車両の進行方向に基づいて決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
Direction detecting means for detecting a traveling direction of the vehicle;
Further comprising
The image processing apparatus according to claim 1, wherein the transmission unit determines a range of the specific region based on a traveling direction of the vehicle.
請求項1または2に記載の画像処理装置において、
前記車両の周辺に存在する物体の位置を検出する物体検出手段、
をさらに備え、
前記透過手段は、前記特定領域の範囲を前記物体の位置に基づいて決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
Object detection means for detecting the position of an object existing around the vehicle;
Further comprising
The image processing apparatus, wherein the transmission means determines a range of the specific region based on a position of the object.
請求項1または2に記載の画像処理装置において、
前記特定領域の範囲は、前記車両を構成する部位の範囲であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The range of the specific region is a range of a part constituting the vehicle.
車両で用いられる画像処理方法であって、
前記車両に設けられる複数のカメラで取得された複数の画像を用いて、仮想視点からみた前記車両の周辺領域を示す周辺画像を生成する工程と、
前記仮想視点からみた前記車両を示す車両画像を取得する工程と、
前記車両画像の一部分の特定領域の透過率を、他の部分の透過率より高める工程と、
前記周辺画像と前記車両画像とを合成し合成画像を生成する工程と、
前記合成画像を表示装置に出力して表示させる工程と、
を備えることを特徴とする画像処理方法。
An image processing method used in a vehicle,
Using a plurality of images acquired by a plurality of cameras provided in the vehicle, generating a peripheral image showing a peripheral region of the vehicle viewed from a virtual viewpoint;
Obtaining a vehicle image showing the vehicle viewed from the virtual viewpoint;
Increasing the transmittance of a specific area of a part of the vehicle image above the transmittance of another part;
Combining the peripheral image and the vehicle image to generate a composite image;
Outputting and displaying the composite image on a display device;
An image processing method comprising:
車両で用いられる画像処理システムであって、
請求項1ないし6のいずれかに記載の画像処理装置と、
前記画像処理装置から出力された前記合成画像を表示する表示装置と、
を備えることを特徴とする画像処理システム。
An image processing system used in a vehicle,
An image processing apparatus according to any one of claims 1 to 6,
A display device for displaying the composite image output from the image processing device;
An image processing system comprising:
JP2012205440A 2012-09-19 2012-09-19 Image processing apparatus, image processing method, and image processing system Active JP6014433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012205440A JP6014433B2 (en) 2012-09-19 2012-09-19 Image processing apparatus, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012205440A JP6014433B2 (en) 2012-09-19 2012-09-19 Image processing apparatus, image processing method, and image processing system

Publications (2)

Publication Number Publication Date
JP2014060646A true JP2014060646A (en) 2014-04-03
JP6014433B2 JP6014433B2 (en) 2016-10-25

Family

ID=50616724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012205440A Active JP6014433B2 (en) 2012-09-19 2012-09-19 Image processing apparatus, image processing method, and image processing system

Country Status (1)

Country Link
JP (1) JP6014433B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5562498B1 (en) * 2014-03-04 2014-07-30 サカエ理研工業株式会社 Room mirror, vehicle blind spot support device using the room mirror, and display image adjustment method of the room mirror or vehicle blind spot support device
JP5855206B1 (en) * 2014-10-31 2016-02-09 三菱電機株式会社 Transmission display device for vehicle
WO2017122654A1 (en) * 2016-01-12 2017-07-20 株式会社デンソー Drive assist device and drive assist method
CN107249934A (en) * 2015-02-17 2017-10-13 康蒂-特米克微电子有限公司 The method and apparatus of undistorted display vehicle-surroundings environment
JP2017195533A (en) * 2016-04-21 2017-10-26 日産自動車株式会社 Display method and driving support apparatus
WO2019074005A1 (en) * 2017-10-10 2019-04-18 マツダ株式会社 Vehicular display device
JP2019079250A (en) * 2017-10-24 2019-05-23 株式会社デンソーテン Image processing device and image processing method
DE112017004970T5 (en) 2016-09-30 2019-06-13 Aisin Seiki Kabushiki Kaisha Display controller
US10399496B2 (en) 2016-08-26 2019-09-03 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Viewing device for vehicle and method of displaying viewed image for vehicle
JP2020052801A (en) * 2018-09-27 2020-04-02 三菱自動車工業株式会社 Driving support system of vehicle
US10750093B2 (en) 2017-01-04 2020-08-18 Denso Ten Limited Image processing device and image processing method
WO2021172620A1 (en) * 2020-02-27 2021-09-02 엘지전자 주식회사 Display device and vehicle comprising same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019804A (en) * 2005-07-07 2007-01-25 Nissan Motor Co Ltd Vehicle periphery display device and method
JP2010231276A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Method and apparatus for processing image
JP2011023805A (en) * 2009-07-13 2011-02-03 Clarion Co Ltd Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
JP2011066763A (en) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007019804A (en) * 2005-07-07 2007-01-25 Nissan Motor Co Ltd Vehicle periphery display device and method
JP2010231276A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Method and apparatus for processing image
JP2011023805A (en) * 2009-07-13 2011-02-03 Clarion Co Ltd Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
JP2011066763A (en) * 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5562498B1 (en) * 2014-03-04 2014-07-30 サカエ理研工業株式会社 Room mirror, vehicle blind spot support device using the room mirror, and display image adjustment method of the room mirror or vehicle blind spot support device
JP5855206B1 (en) * 2014-10-31 2016-02-09 三菱電機株式会社 Transmission display device for vehicle
CN107249934A (en) * 2015-02-17 2017-10-13 康蒂-特米克微电子有限公司 The method and apparatus of undistorted display vehicle-surroundings environment
JP2018509799A (en) * 2015-02-17 2018-04-05 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for distortion-free display of the vehicle periphery of a vehicle
WO2017122654A1 (en) * 2016-01-12 2017-07-20 株式会社デンソー Drive assist device and drive assist method
JP2017126834A (en) * 2016-01-12 2017-07-20 株式会社デンソー Drive assisting device and drive assisting method
CN108463998A (en) * 2016-01-12 2018-08-28 株式会社电装 Drive assistance device and driving assistance method
US10875452B2 (en) 2016-01-12 2020-12-29 Denso Corporation Driving assistance device and driving assistance method
JP2017195533A (en) * 2016-04-21 2017-10-26 日産自動車株式会社 Display method and driving support apparatus
US10399496B2 (en) 2016-08-26 2019-09-03 Kabushiki Kaisha Tokai-Rika-Denki-Seisakusho Viewing device for vehicle and method of displaying viewed image for vehicle
DE112017004970T5 (en) 2016-09-30 2019-06-13 Aisin Seiki Kabushiki Kaisha Display controller
US10750093B2 (en) 2017-01-04 2020-08-18 Denso Ten Limited Image processing device and image processing method
JP2019071547A (en) * 2017-10-10 2019-05-09 マツダ株式会社 Display unit for vehicle
WO2019074005A1 (en) * 2017-10-10 2019-04-18 マツダ株式会社 Vehicular display device
JP2019079250A (en) * 2017-10-24 2019-05-23 株式会社デンソーテン Image processing device and image processing method
JP2020052801A (en) * 2018-09-27 2020-04-02 三菱自動車工業株式会社 Driving support system of vehicle
WO2021172620A1 (en) * 2020-02-27 2021-09-02 엘지전자 주식회사 Display device and vehicle comprising same

Also Published As

Publication number Publication date
JP6014433B2 (en) 2016-10-25

Similar Documents

Publication Publication Date Title
JP6014433B2 (en) Image processing apparatus, image processing method, and image processing system
JP6801787B2 (en) Parking support method and parking support device
JP6148887B2 (en) Image processing apparatus, image processing method, and image processing system
JP5836490B2 (en) Driving assistance device
EP1974998B1 (en) Driving support method and driving support apparatus
JP6413207B2 (en) Vehicle display device
JP4952421B2 (en) Driving support system
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP6548900B2 (en) Image generation apparatus, image generation method and program
JP2013541915A (en) Blind Spot Zone Display Device and Method
JP2013533168A (en) Method for supporting parking operation of automobile, driver assistance system, and automobile
JP2005136561A (en) Vehicle peripheral picture display device
JP2009227245A (en) Operation device for on-vehicle equipment
US11601621B2 (en) Vehicular display system
JP2013005233A (en) Vehicle periphery monitoring device
JP2017208690A (en) Image creation device, image display system, and image display method
JP2010184604A (en) Vehicle surroundings display device
JP2009171129A (en) Parking support device for vehicle and image display method
JP2007311898A (en) Vehicle drive support apparatus and vehicle drive support method
JP2009073250A (en) Vehicle backsight display device
JP4957589B2 (en) Obstacle warning device, obstacle warning method, and computer program
JP2014072604A (en) Image processing system, image processing device, image processing method and program
WO2013144998A1 (en) Visual recognition assistance apparatus for vehicle
JP6439233B2 (en) Image display apparatus for vehicle and image processing method
JP2004051063A (en) Device for visual recognition around vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6014433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250