JP2003244688A - Image processing system for vehicle - Google Patents

Image processing system for vehicle

Info

Publication number
JP2003244688A
JP2003244688A JP2002358650A JP2002358650A JP2003244688A JP 2003244688 A JP2003244688 A JP 2003244688A JP 2002358650 A JP2002358650 A JP 2002358650A JP 2002358650 A JP2002358650 A JP 2002358650A JP 2003244688 A JP2003244688 A JP 2003244688A
Authority
JP
Japan
Prior art keywords
image
vehicle
vehicle body
area
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002358650A
Other languages
Japanese (ja)
Other versions
JP4593070B2 (en
Inventor
Atsushi Sato
敦 佐藤
Toshihiro Mori
俊宏 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2002358650A priority Critical patent/JP4593070B2/en
Publication of JP2003244688A publication Critical patent/JP2003244688A/en
Application granted granted Critical
Publication of JP4593070B2 publication Critical patent/JP4593070B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the sense of anxiety of a driver about a blind spot by image-processing a past image imaged by a camera into a combination pseudo- image at a blind spot region of a current image obtained by imaging the periphery of a vehicle. <P>SOLUTION: A camera 13 for imaging the periphery of a vehicle is provided, images taken by the camera 13 are stored, and a processed image B' obtained by processing a past image BX imaged before reaching a current position is overlaid on a part of a current image A, which is currently imaged, being a blind spot region by being hidden by a car body or the like so that a combination image A'+B' is created. A contour line 6 symbolizing the car body is combined with the combination image A'+B' and the image A'+B' is displayed. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、車両の画像処理
装置にかかり、詳しくは、運転者の視界の死角となる部
分を表示する画像を生成する画像処理装置に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for a vehicle, and more particularly to an image processing apparatus for generating an image displaying a blind spot in a driver's field of view.

【0002】[0002]

【従来の技術】運転者が車両を運転操作する場合、運転
席に座っている運転者の視点から認識できる視界には、
車のボディ、ピラー等に遮られて見えない領域(死角領
域)が存在する。従来、このような死角領域は、ルーム
ミラーやサイドミラーなどによって、ある程度は、認識
できるように構成されている。また、最近では、車両の
外部を映し出すカメラが搭載され、そのカメラによって
取得された画像を車内のモニターに映し出す構成の車両
も提案されている。例えば、車両の後方を映し出すカメ
ラが搭載され、後退時には後方の死角となった部分が車
内モニターに映し出され、車庫入れ等をする際の後方確
認の補助がなされる。このような構成の従来技術には以
下のようなものがある。
2. Description of the Related Art When a driver operates a vehicle, the field of view that can be recognized from the viewpoint of the driver sitting in the driver's seat is:
There is an invisible area (blind spot area) that is obscured by the car body, pillars, etc. Conventionally, such a blind spot region is configured to be recognized to some extent by a room mirror, a side mirror, or the like. Further, recently, a vehicle has been proposed in which a camera that projects the outside of the vehicle is mounted and an image acquired by the camera is projected on a monitor in the vehicle. For example, a camera that projects the rear of the vehicle is mounted, and when the vehicle moves backward, the blind spot behind the vehicle is displayed on the in-vehicle monitor to assist the rear confirmation when entering the garage. The prior art with such a configuration includes the following.

【0003】[0003]

【特許文献1】特開平10−264723号。[Patent Document 1] Japanese Patent Laid-Open No. 10-264723.

【0004】[0004]

【発明が解決しようとする課題】一方、従来カメラ画像
などによって車両周辺の認識ができない車両を運転者が
操作する場合には、視界に入ってくる外部の障害物と、
同時に視界に入っている車内風景(窓枠やトランクの輪
郭など)とから、外部障害物と車両との相対位置や距離
がどの程度であるのかを、運転者は、感覚的に把握する
ものである。
On the other hand, when a driver operates a vehicle in which the surroundings of the vehicle cannot be recognized by a conventional camera image or the like, an external obstacle coming into the field of view,
At the same time, the driver can intuitively understand the relative position and distance between the external obstacle and the vehicle, based on the view of the interior of the vehicle (window frame, trunk outline, etc.). is there.

【0005】しかしながら、上記特許文献1に記載の発
明のように、カメラ画像を表示するものは、カメラに映
し出された画像をそのままモニターに表示するため、モ
ニターに表示される画像は、運転者の肉眼に映る画像と
はかけはなれている。これは、カメラ視点の位置が、運
転者の操作する際の視点位置とは異なっていることや、
肉眼で把握できる障害物の大きさとモニターに表示され
る障害物の大きさとが異なることなどの理由が挙げられ
る。また、従来では、運転者は、視界に入る車外の風景
と車体の一部(ピラーやボンネット等)とを同時に認識
して、それらの相対位置を感覚的に把握していたもの
が、画像には、外部景色のみが映し出されてしまうこと
も原因である。つまり、従来のモニター画像では、従来
感覚的に距離感を把握していた運転者は、従来身に付け
ていた感覚に基づいて、車両のアウトラインと周囲の物
体との位置関係が把握しづらいという問題があった。
However, as in the invention described in Japanese Patent Application Laid-Open No. 2004-242242, the one displaying a camera image displays the image displayed on the camera on the monitor as it is, and therefore the image displayed on the monitor is the image of the driver. It is far from the image seen with the naked eye. This is because the position of the camera viewpoint is different from the viewpoint position when the driver operates,
The reason is that the size of the obstacle that can be visually recognized is different from the size of the obstacle displayed on the monitor. Also, in the past, a driver could recognize the scenery outside the vehicle and the part of the vehicle body (pillars, bonnets, etc.) that are in sight at the same time and intuitively grasp their relative positions in the image. Is also due to the fact that only the outside scenery is projected. In other words, in the conventional monitor image, it is difficult for the driver, who has conventionally perceived the sense of distance, to grasp the positional relationship between the outline of the vehicle and surrounding objects based on the conventional perception. There was a problem.

【0006】この発明は、車両周辺の死角領域(車体に
よって隠される領域)に対して合成された画像を提供
し、死角への不安感を軽減するとともに、運転者の視点
に近付けた位置からの撮影画像を生成することにより、
画像を通じて車両と周囲の障害物との位置関係を、運転
者に把握し易くすることを目的とするものである。
The present invention provides a composite image for a blind spot area (area hidden by the vehicle body) around the vehicle to reduce anxiety about the blind spot, and to reduce the anxiety about the blind spot from a position close to the driver's viewpoint. By generating a captured image,
The purpose is to make it easier for the driver to understand the positional relationship between the vehicle and the surrounding obstacles through the image.

【0007】[0007]

【課題を解決するための手段】以上のような目的は、以
下の本発明により達成される。 (1) 車両の進行方向の画像を撮像する撮像手段と、
該撮像手段により撮像された画像の中で、車体部分によ
って隠される車体領域を特定する車体領域特定手段と、
前記車体領域特定手段により特定された車体部分が透明
であったならば見えると想定される前記車体領域に対応
する画像領域を取得する車体画像領域取得手段と、前記
撮像手段で撮像された画像における前記車体領域を、前
記車体画像領域取得手段で取得した画像領域に置き換え
て画像を作成する画像作成手段と、該画像作成手段で作
成された画像を表示する表示手段と、を備えた車両の画
像処理装置。
The above objects are achieved by the present invention described below. (1) Image pickup means for picking up an image in the traveling direction of the vehicle,
A body region specifying unit that specifies a body region hidden by a body portion in an image captured by the image capturing unit;
A vehicle body image area acquiring means for acquiring an image area corresponding to the vehicle body area assumed to be visible if the vehicle body portion specified by the vehicle body area specifying means is transparent; and an image captured by the image capturing means. An image of a vehicle including image creating means for creating an image by replacing the vehicle body area with the image area acquired by the vehicle body image area acquiring means, and display means for displaying the image created by the image creating means Processing equipment.

【0008】(2) 車両の進行方向の画像を撮像する
撮像手段と、運転者の視点から見た画像のように、撮像
された画像を視点変換する撮像画像変換手段と、前記撮
像手段により撮像された画像の中で、車体部分によって
隠される車体領域を特定する車体領域特定手段と、該車
体部分が透明であったならば見えると想定される前記車
体領域に対応する画像領域を取得する車体画像領域取得
手段と、前記撮像画像変換手段で視点変換された画像に
おいて、前記車体領域特定手段によって特定された車体
領域部分を、前記車体画像領域取得手段によって取得さ
れた画像領域に置き換えて画像を作成する画像作成手段
と、該画像作成手段で作成された画像を表示する表示手
段と、を備えることを特徴とする車両の画像処理装置。
(2) Image pickup means for picking up an image in the traveling direction of the vehicle, picked-up image conversion means for changing the viewpoint of the picked-up image, such as an image seen from the driver's viewpoint, and image pickup by the image pickup means. Body region specifying means for specifying a body region hidden by the body portion in the captured image, and a vehicle body for acquiring an image region corresponding to the body region which is supposed to be visible if the body portion is transparent An image is obtained by replacing the vehicle body area portion specified by the vehicle body area specifying means with the image area acquired by the vehicle body image area acquiring means in the image that has been subjected to viewpoint conversion by the captured image converting means. An image processing apparatus for a vehicle, comprising: an image creating unit to create; and a display unit to display an image created by the image creating unit.

【0009】(3) 車両の移動距離を検出する移動距
離検出手段と、を備え、前記撮像画像変換手段は、運転
者の位置から撮像手段が設置されている位置までの距離
と、前記移動距離検出手段が検出した、撮像手段が撮像
した位置からの車両移動距離とが同じになった場合に、
撮像画像を視点変換することを特徴とする上記(2)に
記載の車両の画像処理装置。
(3) A moving distance detecting means for detecting a moving distance of the vehicle, wherein the picked-up image converting means has a distance from a driver's position to a position where the image pickup means is installed, and the moving distance. When the vehicle moving distance from the position imaged by the image capturing means detected by the detecting means becomes the same,
The vehicle image processing apparatus according to (2) above, wherein the captured image is subjected to viewpoint conversion.

【0010】(4) 前記車体が透明であったならば見
えると想定される画像領域は、前記撮像手段が、過去に
撮像した画像領域を用いることを特徴とする上記(1)
又は(2)に記載の車両の画像処理装置。
(4) The image area assumed to be visible if the vehicle body is transparent uses the image area previously imaged by the imaging means.
Alternatively, the vehicle image processing device according to (2).

【0011】(5) 前記車両の速度を検出する車速検
出手段と、を備え、前記車速検出手段で検出された速度
が所定速度以下の場合に、前記画像作成手段で作成され
た画像を表示することを特徴とする上記(1)又は
(2)に記載の車両の画像処理装置。
(5) Vehicle speed detecting means for detecting the speed of the vehicle, and when the speed detected by the vehicle speed detecting means is equal to or lower than a predetermined speed, the image created by the image creating means is displayed. The image processing device for a vehicle according to (1) or (2) above.

【0012】(6) 前記車両の移動距離を検出する移
動距離検出手段と、を備え、前記車体画像領域取得手段
は、該検出された距離が所定距離以上の場合に、前記車
体領域に対応する画像領域を取得することを特徴とする
上記(1)又は(2)に記載の車両の画像処理装置。
(6) A moving distance detecting means for detecting a moving distance of the vehicle, and the vehicle body image area acquiring means corresponds to the vehicle body area when the detected distance is equal to or more than a predetermined distance. The vehicle image processing apparatus according to (1) or (2) above, which acquires an image region.

【0013】(7) 前記車両の車体データを記憶する
車体データ記憶手段と、を備え、前記所定距離は、前記
車体データ記憶手段に記憶されたデータに基づき決定さ
れることを特徴とする上記(6)に記載の車両の画像処
理装置。
(7) Vehicle body data storage means for storing vehicle body data of the vehicle, wherein the predetermined distance is determined based on the data stored in the vehicle body data storage means. The image processing device for a vehicle according to 6).

【0014】(8) 車体データを記憶する車体データ
記憶手段と、を備え、前記車体領域特定手段は、前記車
体データに基づいて、車体部分によって隠される車体領
域を特定する、ことを特徴とする上記(1)又は(2)
に記載の車両の画像処理装置。
(8) Vehicle body data storage means for storing vehicle body data, and the vehicle body area specifying means specifies a vehicle body area hidden by a vehicle body portion based on the vehicle body data. Above (1) or (2)
The image processing device for a vehicle according to.

【0015】(9) 車体、バンパー、ライト、ワイパ
ー、インストゥルメントパネル、ハンドル、ミラー、タ
イヤ、座席、及び窓の形状のうち少なくとも1つを含む
車体形状の輪郭線を、前記画像作成手段により作成され
た画像にさらに付加して合成画像を作成する車体形状画
像合成手段とを備えた上記(1)又は(2)に記載の車
両の画像処理装置。
(9) A contour line of a vehicle body shape including at least one of a vehicle body, a bumper, a light, a wiper, an instrument panel, a steering wheel, a mirror, a tire, a seat, and a window is formed by the image creating means. The vehicle image processing apparatus according to (1) or (2) above, further including a vehicle body shape image synthesizing unit that adds a synthesized image to the created image.

【0016】[0016]

【発明の実施の形態】以下、本発明の好適実施形態につ
いて、添付図面に基づいて詳細に説明する。図1は本発
明の画像処理装置1の構成を示すブロック図である。画
像処理装置1は、画像処理を行う処理装置12と、車体
に取り付けられた撮像手段としてのカメラ13と、画像
を表示する表示手段としての画像表示装置14と、現在
位置検出装置15と、画像記憶手段としての記憶装置1
6とを備え、これらの装置は、システムバス17を介し
て相互に接続されている。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 1 is a block diagram showing the configuration of an image processing apparatus 1 of the present invention. The image processing device 1 includes a processing device 12 for performing image processing, a camera 13 as an image pickup means attached to a vehicle body, an image display device 14 as display means for displaying an image, a current position detection device 15, and an image. Storage device 1 as storage means
6 and these devices are connected to each other via a system bus 17.

【0017】撮像手段として機能するカメラ13は、車
両の進行方向に向けて、例えば自動車の車内に設けら
れ、運転者の視点位置に相当する高さ位置に取り付けら
れ、この実施形態では、バックミラーの取付け位置に配
置されている。カメラ13は、A/D変換器131を介
してシステムバス17に接続される。カメラ13から出
力された画像信号は、画像処理を行うためにA/D変換
器131によってデジタル信号に変換される。また、接
続されたカメラ13が、デジタル信号出力が可能なもの
である場合には、A/D変換器は不要である。カメラ1
3は、車両の前方に向けて配置されたものと、車両の後
方へ向けて配置されたものがある。以下の説明では、最
も視界が制限される後方へ移動する場合に使用される後
方設置のカメラ13を例に挙げて説明する。
The camera 13 functioning as an image pickup means is provided, for example, in the interior of an automobile toward the traveling direction of the vehicle, and is attached at a height position corresponding to the driver's viewpoint position. In this embodiment, the rear-view mirror is used. It is located at the mounting position. The camera 13 is connected to the system bus 17 via the A / D converter 131. The image signal output from the camera 13 is converted into a digital signal by the A / D converter 131 in order to perform image processing. Further, if the connected camera 13 is capable of outputting a digital signal, the A / D converter is not necessary. Camera 1
3 is arranged toward the front of the vehicle and the other is arranged toward the rear of the vehicle. In the following description, the rear-mounted camera 13 used when moving to the rear where the field of view is most limited will be described as an example.

【0018】現在位置検出装置15は、舵角センサ15
1、車速センサ152、GPS受信装置153、方位セ
ンサ154、距離センサ155とを備えている。舵角セ
ンサ151は、車の操舵角を検出する。操舵角は、ハン
ドルの回転角または前輪の角度を検出して得られる。車
速検出手段として機能する車速センサ152は、車両の
走行速度を検出する。走行速度は、車両を後退させた場
合にも検出される。GPS受信装置153は、車両の絶
対位置を検出する。方位センサ154は、車両の向きを
検出する。距離センサ155は、車両の移動距離を検出
する。
The present position detecting device 15 includes a steering angle sensor 15
1, a vehicle speed sensor 152, a GPS receiver 153, a direction sensor 154, and a distance sensor 155. The steering angle sensor 151 detects the steering angle of the vehicle. The steering angle is obtained by detecting the rotation angle of the steering wheel or the angle of the front wheels. The vehicle speed sensor 152, which functions as a vehicle speed detection unit, detects the traveling speed of the vehicle. The traveling speed is also detected when the vehicle is moved backward. The GPS receiver 153 detects the absolute position of the vehicle. The direction sensor 154 detects the direction of the vehicle. The distance sensor 155 detects the moving distance of the vehicle.

【0019】以上説明した各種センサにより車両の移動
距離を得ることができる。即ち、距離センサ155によ
り移動距離が検出できる。また、車速センサ152から
検出される車速と時間により移動距離が検出できる。ま
た、GPS受信装置153で検出された位置の軌跡によ
り移動距離が検出できる。また、車両の向きが変わった
場合には、舵角センサ151と方位センサ154と距離
センサ155又は車速センサ152によって、移動距離
をより正確に検出することができる。以上の様に、移動
距離検出手段は、距離センサ155により、又は車速セ
ンサ152により、或は、GPS受信装置153によ
り、更には、舵角センサ151と方位センサ154と距
離センサ155又は車速センサ152により、構成する
ことかできる。このように、現在位置検出装置15によ
り、本発明の移動距離検出手段が形成される。
The moving distance of the vehicle can be obtained by the various sensors described above. That is, the moving distance can be detected by the distance sensor 155. Further, the moving distance can be detected by the vehicle speed and time detected by the vehicle speed sensor 152. Further, the moving distance can be detected by the locus of the position detected by the GPS receiving device 153. Further, when the direction of the vehicle changes, the traveling distance can be detected more accurately by the steering angle sensor 151, the direction sensor 154, the distance sensor 155 or the vehicle speed sensor 152. As described above, the moving distance detecting means is the distance sensor 155, the vehicle speed sensor 152, the GPS receiver 153, the steering angle sensor 151, the direction sensor 154, the distance sensor 155, or the vehicle speed sensor 152. It can be configured by. In this way, the current position detecting device 15 forms the moving distance detecting means of the present invention.

【0020】記憶装置16は、カメラ13が映した画像
を記憶する装置で、カメラ13から出力される画像が連
続して記憶される視点変換用画像データメモリ161
と、合成作業用画像データメモリ162と、擬似透過画
像データメモリ163とを備えている。視点変換用画像
データメモリ161には、カメラ13が撮像した画像が
現在位置検出装置15により検出された位置及び時間と
ともに連続して記録される。合成作業画像データメモリ
162には、視点位置に補正された画像が時間的に連続
して記憶される。擬似透過画像データメモリ163に
は、死角領域に過去の画像が合成された擬似透過画像が
記録される。
The storage device 16 is a device for storing the image projected by the camera 13, and the viewpoint conversion image data memory 161 in which the images output from the camera 13 are continuously stored.
And a composite work image data memory 162 and a pseudo transparent image data memory 163. In the viewpoint conversion image data memory 161, the images captured by the camera 13 are continuously recorded together with the position and time detected by the current position detection device 15. In the combined work image data memory 162, images corrected to the viewpoint position are temporally continuously stored. The pseudo transparent image data memory 163 stores a pseudo transparent image in which a past image is combined in the blind spot area.

【0021】画像表示装置14は、例えば液晶ディスプ
レイ等で構成され、擬似透過画像データメモリ163に
格納された擬似透過画像が表示される。画像表示装置1
4へ送られるデータは、D/A変換器141を介してア
ナログ信号に変換される。また、画像表示装置14がデ
ジタル信号入力可能な場合、つまり画像表示装置14に
変換器が内蔵されている場合には、D/A変換器は不要
となる。
The image display device 14 is composed of, for example, a liquid crystal display or the like, and displays the pseudo transparent image stored in the pseudo transparent image data memory 163. Image display device 1
4 is converted into an analog signal via the D / A converter 141. Further, when the image display device 14 can input a digital signal, that is, when the image display device 14 has a built-in converter, the D / A converter is not necessary.

【0022】処理装置12は、中央処理装置[CPU
(Central Processing Unit)]121と、リードオ
ンリーメモリ[ROM]122と、ランダムアクセスメ
モリ[RAM]123とを備えている。中央処理装置1
21は、現在位置検出装置15から得られた移動距離や
車両の向きについての情報を取得し、また、記憶装置1
6から視点変換用画像データ、合成作業用画像データを
取得し、これらのデータから、擬似透過画像データを生
成する等、様々な処理を行うためのものである。
The processing unit 12 is a central processing unit [CPU
(Central Processing Unit)] 121, a read-only memory [ROM] 122, and a random access memory [RAM] 123. Central processing unit 1
Reference numeral 21 acquires information about the moving distance and the direction of the vehicle obtained from the current position detection device 15, and the storage device 1
This is for performing various processes such as obtaining viewpoint conversion image data and image data for synthesizing work from 6 and generating pseudo transparent image data from these data.

【0023】ROM122には、例えば、中央処理装置
121が画像処理を行うためのソフトウエアや、車体の
輪郭線の画像データ、車体データ(車高、車幅、カメラ
13の設置位置、カメラの画角、各車体部品間の相対距
離)等が格納されており、車体データ記憶手段として機
能する。RAM123は、例えば、中央処理装置121
のデータ処理を行うためのデータを、一時的に記憶して
おくワーキングエリアとして使用される。
In the ROM 122, for example, software for the central processing unit 121 to perform image processing, image data of the contour of the vehicle body, vehicle body data (vehicle height, vehicle width, installation position of the camera 13, camera image). Angles, relative distances between the vehicle body parts, etc. are stored and function as vehicle body data storage means. The RAM 123 is, for example, the central processing unit 121.
The data is used as a working area for temporarily storing data for performing the data processing.

【0024】本発明の画像処理装置は、次のような作用
をする。図2は、本発明の画像処理装置を搭載した車両
22の側面全体図であり、車両22が後方へ向けて移動
している状態において、移動する前と、移動した後の車
両の相対位置を示すものである。車両の後方を映し出す
カメラ13は、撮像手段として機能するもので、車内に
配置されており(図2では、説明を容易とするために、
カメラ13を車両の外側に設けているように描いている
が、実際には車内に配置されている。)、その画面の一
部には、車両の後部が映し出され、車体部分である死角
領域b1が存在し、実際に画面に映るのは可視領域a1と
なる。ここで、死角領域とは、カメラ13によって、車
内から車の外側を映した場合に、車両の一部によって遮
られ、車両がなければ映し出されたであろうと想定され
る、車両外側の景色の領域である。ここで、車両の一部
とは、前方を視認する場合には、車体のサイドミラー、
フロントウインドの枠、ボンネット、などである。後方
を認識する場合には、後部座席、リアウインドの枠、後
部トランク、などである。また、可視領域とは、カメラ
13によって、車内から車の外側を映した場合に、直接
映し出された車両の外側の景色である。この景色は、例
えば、車両のフロントウインドやリアウインドなどを介
して映し出される。
The image processing apparatus of the present invention operates as follows. FIG. 2 is an overall side view of a vehicle 22 equipped with the image processing apparatus of the present invention, showing the relative positions of the vehicle 22 before and after the vehicle 22 is moving in the rearward direction. It is shown. The camera 13 that projects the rear of the vehicle functions as an image capturing unit and is arranged inside the vehicle (in FIG. 2, for ease of explanation,
Although the camera 13 is depicted as being provided outside the vehicle, it is actually provided inside the vehicle. ), The rear part of the vehicle is projected on a part of the screen, and a blind spot region b1 which is a vehicle body part exists, and the visible region a1 is actually projected on the screen. Here, the blind spot area refers to a scene outside the vehicle that is assumed to be projected by a part of the vehicle when the outside of the vehicle is viewed from inside the vehicle by the camera 13 and is supposed to be projected if there is no vehicle. Area. Here, a part of the vehicle means a side mirror of the vehicle body when visually recognizing the front,
It is the frame of the front window, the hood, etc. When recognizing the rear, it is a rear seat, a rear window frame, a rear trunk, or the like. Further, the visible region is a view of the outside of the vehicle that is directly projected when the outside of the vehicle is viewed from inside the vehicle by the camera 13. This view is displayed via, for example, the front window or the rear window of the vehicle.

【0025】車体領域特定手段によって、この死角領域
b1(車体領域)を特定する方法としては、次のような
方法がある。例えば、ROM122に格納されている車
体データに、カメラの設置位置、車体の大きさなども記
憶されているので、各部品の相対距離、カメラ画角等か
ら、予め画像の中に占められる車体が映し出される領域
(即ち、死角領域)は特定できる。この車体領域を予め
特定し、その死角領域データをメモリに記録しておく。
カメラ13によって得られた画像に対して、メモリに記
憶された死角領域データに基づき、画一的に死角領域b
1を決定する。このように、車体領域特定手段は、予め
設定された死角領域データに基づいて、撮影画像から車
体領域(死角領域)を特定する。このほか、撮影画像か
ら車体の輪郭を検出し、該輪郭線で囲まれた部分を死角
領域として特定する構成としてもよい。輪郭線の検出方
法は、後述する公知の画像処理方法を用いることがで
る。
As a method of specifying the blind spot area b1 (vehicle body area) by the vehicle body area specifying means, there are the following methods. For example, since the camera installation position, the size of the vehicle body, and the like are stored in the vehicle body data stored in the ROM 122, the vehicle body occupied in the image in advance can be determined from the relative distance between each component, the camera angle of view, and the like. The area to be displayed (that is, the blind spot area) can be specified. This vehicle body region is specified in advance and the blind spot region data is recorded in the memory.
Based on the blind spot area data stored in the memory, the blind spot area b is uniformly applied to the image obtained by the camera 13.
Decide on 1. In this way, the vehicle body region specifying means specifies the vehicle body region (blind spot region) from the captured image based on the preset blind spot region data. In addition, the contour of the vehicle body may be detected from the captured image, and the portion surrounded by the contour line may be specified as the blind spot area. As a method for detecting the contour line, a known image processing method described later can be used.

【0026】この死角領域b1は、車両が後退する以前
の位置(車両21)では、可視領域a2に映し出されて
いたものである。そこで、現在位置(車両22)におい
て死角に入っている領域b1の画像は、現在位置に到達
する以前の画像(過去の撮像画像)、つまり現在位置よ
りも前方に位置(車両21)していた時の撮像画像(手
前に位置していた時の撮像画像)を利用し、これを死角
領域部分b1の画像として生成する。つまり、現在位置
における画像内の死角領域b1を特定して、これを切り
取り、過去の撮像画像における可視領域a2に映し出さ
れた画像の中から、対応する領域を切り出して、これを
現在の画像に合成する。
The blind spot area b1 is shown in the visible area a2 at the position (vehicle 21) before the vehicle retreats. Therefore, the image of the region b1 that is in the blind spot at the current position (vehicle 22) is the image before reaching the current position (taken image in the past), that is, the position (vehicle 21) ahead of the current position. The imaged image at this time (the imaged image at the time of being located in front) is used, and this is generated as the image of the blind spot area portion b1. That is, the blind spot area b1 in the image at the current position is specified, cut out, and the corresponding area is cut out from the images displayed in the visible area a2 in the past captured images, and this is made the current image. To synthesize.

【0027】この様に、現在映されている画像の死角領
域に、生成された死角領域b1の画像を置き換える(合
成する)ことで、全体のカメラ画像としては、あたかも
死角領域b1部分も映っているごとく表示する。カメラ
13の設置位置は、運転者の視点の位置が最も好ましい
が、この視点の位置に近い位置でもよい。例えば、バッ
クミラーの位置の他、ダッシュボードの中央付近、座席
の肩口、リアウィンドウの中央付近の位置などか挙げら
れる。
In this way, by replacing (synthesizing) the image of the generated blind spot area b1 with the blind spot area of the currently displayed image, the blind spot area b1 part is reflected as a whole camera image. Display as it is. The installation position of the camera 13 is most preferably the position of the driver's viewpoint, but may be a position close to the position of this viewpoint. For example, in addition to the position of the rearview mirror, the position near the center of the dashboard, the shoulder of the seat, the position near the center of the rear window, etc. may be mentioned.

【0028】以上のように構成された本発明の画像処理
装置1の作用について説明する。図3、図4及び図5
は、処理装置12の動作を示すフローチャートである。
イグニッションスイッチのオン操作により電源スイッチ
がオンされる(ステップS100)。スイッチオンのき
っかけは、この他、シフトチェンジレバーをD位置、後
退時の後方の画像を表示するときは、R位置にセットし
たときとしてもよい。
The operation of the image processing apparatus 1 of the present invention configured as above will be described. 3, 4 and 5
3 is a flowchart showing the operation of the processing device 12.
The power switch is turned on by turning on the ignition switch (step S100). In addition to this, the switch-on may be triggered by setting the shift change lever to the D position, or to the R position when displaying a rear image when moving backward.

【0029】次に画像データなどを記憶領域に書き込み
ができるように、記憶装置16に記憶されているデータ
を検索し、記憶可能領域がない場合は、次に取得するデ
ータを上書き可能にする準備をし、また画像データと共
に記憶された距離や時間などを参照して、今後使用しな
いデータを消去する等の、データを書き込む準備をする
(ステップS101)。例えば、視点変換用画像データ
メモリ161等に格納された画像の記憶データを更新す
るかを判断するための設定値を監視する変数などを初期
化する。
Next, the data stored in the storage device 16 is searched so that image data and the like can be written in the storage area, and if there is no storable area, the next data to be acquired can be overwritten. In addition, referring to the distance and time stored together with the image data, the data is prepared for writing such as erasing the data not used in the future (step S101). For example, a variable for monitoring a set value for determining whether to update the storage data of the image stored in the viewpoint conversion image data memory 161 or the like is initialized.

【0030】次に、車速検出手段として機能する車速セ
ンサ152の検出値に基づき、車速が予め定められた設
定速度を越えているか判断する(ステップS102)。
Next, it is determined whether or not the vehicle speed exceeds a preset speed based on the detected value of the vehicle speed sensor 152 which functions as a vehicle speed detecting means (step S102).

【0031】この実施形態では車両周辺を認識するため
に用いられるので、使用目的が幅寄せや車庫入れなどに
使用するものであり、速度が速い場合には、必要がなく
なると判断する。このような目的で使用される場合の速
度の設定値は、車両の駐車位置を修正するためにハンド
ルによって、頻繁に方向修正しつつ移動させる際の移動
速度である。つまり、方向舵を頻繁に変更して車両の進
行方向を制御することが可能な速度の上限値である。
Since this embodiment is used for recognizing the periphery of the vehicle, the purpose of use is to align the vehicle, put it in a garage, or the like, and when the speed is high, it is determined that it is not necessary. The set value of the speed when used for such a purpose is the moving speed when the vehicle is moved while frequently correcting the direction in order to correct the parking position of the vehicle. That is, it is the upper limit of the speed at which the rudder can be changed frequently to control the traveling direction of the vehicle.

【0032】このように、ハンドル(方向舵)を頻繁に
操作して、車両を動かす場合は、車両の周辺に近接して
存在する障害物の位置を把握する必要がある場合であ
り、車両の影となった死角に存在する障害物を認識する
必要がある。従って、設定速度を越えている場合には、
車両の影となる死角を把握する必要性が少なくなると判
断できるので、再度ステップS102へリターンされ
る。この設定速度は、必要に応じて変更できるようにし
ても良い。越えていない場合には、画像処理が(死角を
把握することが)必要であると判断し、画像処理を行う
ために、次のステップへ進む。
As described above, when the vehicle is moved by frequently operating the steering wheel (rudder), it is necessary to grasp the position of an obstacle existing near the periphery of the vehicle. It is necessary to recognize the obstacles in the blind spot. Therefore, if the set speed is exceeded,
Since it can be determined that it becomes less necessary to grasp the blind spot that is a shadow of the vehicle, the process returns to step S102 again. The set speed may be changed as needed. If it does not exceed, it is determined that the image processing is necessary (to grasp the blind spot), and the process proceeds to the next step in order to perform the image processing.

【0033】図6は、画像処理の手順を示す流れ図であ
り、図7〜図19は、図6に示されている各々の図の拡
大図である。図4は視点変換処理(ステップ103)の
処理内容を示すフローチャートである。この処理は、カ
メラ13により撮像された画像を、運転者の視点位置か
らカメラで撮像した場合に映し出されると予想される画
像に補正する処理である。この処理は、運転者の視点位
置と、カメラ13の撮像位置が車両の移動方向に沿って
距離W1離れている場合に、カメラ13は視点位置T1を
以前に通過しているので、その通過時点の画像を視点位
置の画像とし、これを基準にして、カメラ画像を縮小補
正するものである。
FIG. 6 is a flow chart showing the procedure of image processing, and FIGS. 7 to 19 are enlarged views of the respective figures shown in FIG. FIG. 4 is a flowchart showing the processing contents of the viewpoint conversion processing (step 103). This process is a process of correcting an image captured by the camera 13 into an image expected to be displayed when the image is captured by the camera from the viewpoint position of the driver. This processing is performed when the driver's viewpoint position and the image capturing position of the camera 13 are apart from each other by a distance W1 along the moving direction of the vehicle, because the camera 13 has already passed the viewpoint position T1. Is used as the image at the viewpoint position, and the camera image is reduced and corrected based on this.

【0034】つまり、現時点での画像を取得する現在画
像取得手段と、カメラが現在の運転者の視点位置を通過
した時点のカメラ画像を取得する視点位置画像取得手段
と、現在画像取得手段で取得された現在画像を視点位置
画像に合わせて補正する補正手段とを備えている。この
ほか、車両の進行方向に沿って、カメラ13が、運転者
の視点位置よりも、進行方向側ある場合には、画像を縮
小し、カメラ視点が距離W1後退したかのように画像処
理(縮小)する、といった方法を採ることもできる。
That is, the current image acquisition means for acquiring the current image, the viewpoint position image acquisition means for acquiring the camera image at the time when the camera has passed the current driver's viewpoint position, and the current image acquisition means. And a correction unit that corrects the obtained current image according to the viewpoint position image. In addition, when the camera 13 is on the traveling direction side of the driver's viewpoint position along the traveling direction of the vehicle, the image is reduced, and image processing is performed as if the camera viewpoint moved backward by the distance W1 ( It is also possible to adopt a method such as (reduction).

【0035】具体的には、次のような処理がなされる。
カメラ13が撮像(ステップS201)した画像は、撮
像した位置及び時間とともに、記憶装置16の視点変換
用画像データメモリ161に連続して記憶される(ステ
ップS202)。現在のカメラ位置から運転席(運転者
が後ろを向いた時の視点位置)までの距離W1をROM
122に格納されている車体データより算出し、画像と
ともに記憶された位置の情報を基に、算出された距離W
1に対応する位置(移動距離が距離W1手前の位置)で撮
像された過去の画像BX(図7)を視点変換用画像デー
タメモリ161から読み出す(ステップ203)。
Specifically, the following processing is performed.
The images captured by the camera 13 (step S201) are continuously stored in the viewpoint conversion image data memory 161 of the storage device 16 together with the captured position and time (step S202). ROM for the distance W1 from the current camera position to the driver's seat (the position of the viewpoint when the driver looks backward)
The distance W calculated from the vehicle body data stored in 122 and calculated based on the position information stored together with the image.
The past image BX (FIG. 7) captured at the position corresponding to 1 (the position where the moving distance is before the distance W1) is read from the viewpoint conversion image data memory 161 (step 203).

【0036】現在取得した画像BY1(図8)の車体部
分を検出しその車体部分を除去した画像BY2(図9)
を生成する(ステップS204)。ステップS204に
よって、現在画像取得手段が構成される。このとき、車
体部分の領域は、ROM122に格納された、本発明装
置を設置する車体のデータより判断される。車体データ
とは、車体の三次元データや、車両の各部品までの距離
や、その部品の長さ、或は、図2に示されているよう
に、カメラ13の設置高(h)、カメラ13の視点と、
後部トランクの輪郭pとを通る直線mと鉛直線との成す
角度(θ)などである。読み出された画像BXは、今現
在の運転者の視野と同じ画像になるため、画像BXを基
準にし、画像BY2を縮小する(ステップS205)。
縮小された画像をBY2’(図10)とし、画像BXと
画像BY2’を合成し、画像B(図10)を生成する(ス
テップS206)。このステップS205、S206に
より補正手段が構成される。
An image BY2 (FIG. 9) obtained by detecting the vehicle body part of the currently obtained image BY1 (FIG. 8) and removing the vehicle body part
Is generated (step S204). The step S204 constitutes a current image acquisition means. At this time, the region of the vehicle body portion is judged from the data of the vehicle body in which the device of the present invention is installed, which is stored in the ROM 122. The vehicle body data is three-dimensional data of the vehicle body, the distance to each component of the vehicle, the length of the component, or the installation height (h) of the camera 13, the camera, as shown in FIG. 13 viewpoints,
It is an angle (θ) formed by a vertical line and a straight line m passing through the contour p of the rear trunk. The read image BX becomes the same image as the driver's current visual field, so the image BY2 is reduced based on the image BX (step S205).
The reduced image is set to BY2 ′ (FIG. 10), and the image BX and the image BY2 ′ are combined to generate the image B (FIG. 10) (step S206). A correction unit is configured by these steps S205 and S206.

【0037】以上のステップS201〜ステップS20
6の処理により、運転者の視点位置から見た画像Bが生
成される。そして、ステップS206により合成された
画像Bを合成作業用画像データメモリ162に記憶する
(ステップS207)。
The above steps S201 to S20
By the processing of 6, the image B viewed from the driver's viewpoint position is generated. Then, the image B combined in step S206 is stored in the image data memory 162 for combining work (step S207).

【0038】この視点変換処理ステップS103のよう
に、運転者の視点から見た画像のように、撮像された画
像を視点変換することにより、撮像画像変換手段が構成
される。このような視点変換処理(ステップS103)
は、カメラ13で撮像された画面について連続して行わ
れ、合成作業画像データメモリ162には、視点位置に
補正された画像が、画像BXと同じ位置、画像BY1の
時間とともに連続して記憶される。ステップS103の
後、次のステップへ進む。
As in this viewpoint conversion processing step S103, the captured image conversion means is configured by converting the viewpoint of the captured image like the image viewed from the driver's viewpoint. Such viewpoint conversion processing (step S103)
Is continuously performed on the screen imaged by the camera 13, and the image corrected to the viewpoint position is continuously stored in the combined work image data memory 162 at the same position as the image BX and with the time of the image BY1. It It progresses to the following step after step S103.

【0039】現在位置検出装置15に格納された各種セ
ンサの検出値から、車両が移動したかを判断する(ステ
ップS104)。例えば、車速センサ152の検出値か
ら、車両が一定速度以上となった場合に、移動したもの
と判断する。或いは、距離センサ155より、移動距離
が予め定められている所定距離以上となった場合に、車
両が移動したものと判断する。車両が移動していないと
判断した場合には、ステップS104を繰り返す。車両
が移動しない場合には、過去の画像が得られず、現在の
画像の死角領域に過去の画像を合成することができない
からである。
Whether or not the vehicle has moved is determined from the detection values of various sensors stored in the current position detecting device 15 (step S104). For example, it is determined from the detection value of the vehicle speed sensor 152 that the vehicle has moved when the vehicle has reached a certain speed or higher. Alternatively, the distance sensor 155 determines that the vehicle has moved when the moving distance is equal to or longer than a predetermined distance. If it is determined that the vehicle has not moved, step S104 is repeated. This is because when the vehicle does not move, the past image cannot be obtained and the past image cannot be combined with the blind spot area of the current image.

【0040】そして、画像の死角領域および、画像合成
するために必要な過去の画像を得るために必要な移動距
離(所定距離)は、次のようにして特定される。カメラ
13によって取得された画像において、死角領域は、車
体部分により隠される領域、つまり車両の陰となること
によって生成される。従って、車体の大きさ、カメラ1
3の設置位置など、車体データとして記録されている数
値データによって、死角領域を画一的に特定することが
でき、さらに、死角領域が特定できれは、死角領域に合
成する画像が得られる移動距離も取得することができ
る。以下、その特定方法について説明する。
Then, the blind spot area of the image and the moving distance (predetermined distance) necessary to obtain the past image necessary for image combination are specified as follows. In the image acquired by the camera 13, the blind spot area is generated by being hidden by the vehicle body portion, that is, the shadow of the vehicle. Therefore, the size of the vehicle body, the camera 1
The blind spot area can be uniformly specified by the numerical data recorded as the vehicle body data such as the installation position of No. 3, and if the blind spot area can be specified, an image to be combined with the blind spot area can be obtained. The distance can also be obtained. The specifying method will be described below.

【0041】図2に示されているように、例えば、進行
方向側にある死角領域b1は、カメラ13の視点位置とボ
ンネットの輪郭位置(後部トランクの輪郭)pとによっ
て決定され、カメラ13の設置位置が決まれば、死角領
域の範囲は決定される。つまり、図2に示されているよ
うに、カメラ13から地表の高さh、カメラ視点と視界
が遮られる位置(後部トランクの輪郭p)とを結んだ直
線mと鉛直線とのなす角θと、カメラ13からカメラ1
3の視界の下限位置までの水平距離l、直線mが地表と
交差する地点から、カメラ13までの水平距離xから、
以下の式によって容易に決定される。これらのデータ
は、車体データとしてROM122に記録されており、
ROM122から読み出される。d=h×tanθ−l従
って、少なくとも距離dを移動すれば、最初に蓄積され
た過去の画像によって、死角領域b1の画像を生成するこ
とができる。つまり、上記所定距離は、距離dに値す
る。
As shown in FIG. 2, for example, the blind spot region b1 on the traveling direction side is determined by the viewpoint position of the camera 13 and the bonnet contour position (rear trunk contour) p, and Once the installation position is determined, the range of the blind spot area is determined. That is, as shown in FIG. 2, the angle h between the vertical line and the straight line m connecting the camera 13 with the height h of the ground surface, the viewpoint of the camera and the position where the field of view is blocked (the contour p of the rear trunk). And camera 13 to camera 1
The horizontal distance 1 to the lower limit position of the field of view of 3 and the horizontal distance x to the camera 13 from the point where the straight line m intersects the ground surface,
It is easily determined by the following formula. These data are recorded in the ROM 122 as body data,
It is read from the ROM 122. Therefore, by moving at least the distance d, it is possible to generate an image of the blind spot region b1 from the first accumulated past image. That is, the predetermined distance is equivalent to the distance d.

【0042】車両が移動していると判断した場合には、
移動する前に合成した画像は、移動直後(車両の移動距
離が距離dとなるまで)の画面の死角領域を補う画像と
しては使えない。このため、車両の移動開始とともに、
新たに(合成)画像を生成していく必要があり、擬似透
過画像処理が行われる(ステップS105)。以下、擬
似透過画像処理について説明する。図5は、擬似透過画
像処理を示すフローチャートである。現在の画像につい
ても、ステップS201〜S207と同様の視点変換処
理によって、運転者の視点位置の画像に変換処理した画
像を合成作業用画像データメモリ162に記憶されてい
る。つまり、現在のカメラ位置から運転席までの距離W
1をROM122に格納されている車体データより算出
し、算出された距離W1に対応する位置で撮像された過
去の画像を画像AX(図11)とし、画像AXを視点変
換用画像データメモリ161から読み出す。
When it is determined that the vehicle is moving,
The image synthesized before the movement cannot be used as an image for compensating for the blind spot area on the screen immediately after the movement (until the moving distance of the vehicle reaches the distance d). Therefore, when the vehicle starts moving,
It is necessary to newly generate a (composite) image, and pseudo-transparent image processing is performed (step S105). The pseudo transparent image processing will be described below. FIG. 5 is a flowchart showing the pseudo transparent image processing. As for the current image, the image converted into the image at the viewpoint position of the driver by the viewpoint conversion process similar to steps S201 to S207 is stored in the image data memory 162 for synthesis work. That is, the distance W from the current camera position to the driver's seat
1 is calculated from the vehicle body data stored in the ROM 122, the past image captured at the position corresponding to the calculated distance W1 is taken as the image AX (FIG. 11), and the image AX is read from the viewpoint conversion image data memory 161. read out.

【0043】現在取得した画像AY1(図12)の車体
部分を検出しその車体部分を除去した画像AY2(図1
3)を生成する。読み出された画像AXは、今現在の運
転者の視野と略同じ画像になるため、画像AXを基準に
し、画像AY2を縮小し、その画像をAY2’(図14)
とし、画像AXと画像AY2’を合成し、画像A(図1
4)を生成する。この画像Aは、画像AXと同じ位置及
び時間とともに合成作業用画像データメモリ162に記
憶される。このようにして、視点変換処理された最新の
画像A(視点変換処理にて最後に処理が行われ、生成さ
れた画像)を、合成作業用画像データメモリ162から
読み出す(ステップS301)。
An image AY2 (FIG. 1) obtained by detecting a vehicle body portion of the currently acquired image AY1 (FIG. 12) and removing the vehicle body portion is detected.
3) is generated. Since the read image AX becomes an image that is substantially the same as the driver's current visual field, the image AY2 is reduced based on the image AX, and the image is AY2 '(FIG. 14).
, The image AX and the image AY2 ′ are combined, and the image A (FIG.
4) is generated. This image A is stored in the image data memory 162 for composition work together with the same position and time as the image AX. In this way, the latest image A that has undergone the viewpoint conversion processing (the image that has been finally processed and generated in the viewpoint conversion processing) is read from the image data memory 162 for combining work (step S301).

【0044】次に、移動量を算出し、算出された移動量
に対応した、画像Aの死角を捕らえる画像Bを合成作業
用画像データメモリ162から読み出す(ステップS3
02)。このとき、移動量は、距離センサ155から入
力された移動量に基づいて決定される。この他、車速セ
ンサ125が検出した車速値を経過時間で積分して求め
ても良い。また、GPS受信装置153から得た車両の
絶対位置の移動軌跡から求めても良い。画像Bの選定方
法は、上記のように移動量に基づく方法の他、現在位置
より距離d手前の地点における画像として選定してもよ
い。
Next, the moving amount is calculated, and the image B for capturing the blind spot of the image A corresponding to the calculated moving amount is read from the image data memory 162 for synthesizing work (step S3).
02). At this time, the movement amount is determined based on the movement amount input from the distance sensor 155. In addition, the vehicle speed value detected by the vehicle speed sensor 125 may be integrated by the elapsed time. Alternatively, it may be obtained from the movement trajectory of the absolute position of the vehicle obtained from the GPS receiving device 153. The method of selecting the image B may be a method based on the movement amount as described above, or may be selected as an image at a point before the distance d from the current position.

【0045】運転者の視点から見た風景と、画像Aが同
じ画像となるため、読み出された画像Bの一部B0を切
り取る(図15)。画像B0は、画像Aを基準に(被写
体が画像Aと同じ大きさとなるように)拡大され、画像
B’(図16)が生成される(ステップS303)。
Since the image seen from the driver's viewpoint and the image A are the same image, a part B0 of the read image B is cut out (FIG. 15). The image B0 is enlarged on the basis of the image A (so that the subject has the same size as the image A), and an image B '(FIG. 16) is generated (step S303).

【0046】画像を拡大処理する際の倍率は、例えば次
のような方式で決定することができる。1つは、実験等
による経験に基づいて決めた倍率を使用する方式であ
る。例えば、画角はそのままで移動距離に従って拡大縮
小の倍率を定める。カメラ視点の移動距離と倍率の関係
を表1に示す。
The magnification for enlarging the image can be determined by the following method, for example. One is a method that uses a magnification determined based on experience from experiments. For example, the scaling factor is determined according to the moving distance while keeping the angle of view unchanged. Table 1 shows the relationship between the moving distance from the camera viewpoint and the magnification.

【0047】[0047]

【表1】 他の方法としては、画像A(現在の画像)と画像B’
(過去の画像)とに対して、それぞれ特徴エリアを設定
する。このエリアは、画像中の明暗や色彩等の変化が顕
著で、その対象が特定しやすい領域を選択する。特徴エ
リアに設定される画像は、画像Aと画像B’がそれぞれ
同じ対象物を捕らえていることが必要である。そして、
この特徴エリアに映し出された対象物の大きさが同じに
なるように画像補正をする。
[Table 1] Alternatively, the image A (current image) and the image B '
A characteristic area is set for each of (past images). In this area, a change in brightness and color in the image is remarkable, and an area in which the target is easily specified is selected. The image set in the characteristic area needs to have the same object as the image A and the image B ′. And
Image correction is performed so that the sizes of the objects displayed in this characteristic area are the same.

【0048】さらに他の方法としては、カメラの焦点距
離や、想定した被写体までの距離などの一定値を基に、
倍率を決定するものである。例えば、カメラの移動距離
をD、一定値Lとすると、倍率は{(D+L)/L}と
なる。以上のステップS302、S303によって車体
画像領域取得手段が構成される。
As still another method, based on a fixed value such as a focal length of a camera or an assumed distance to a subject,
It determines the magnification. For example, when the moving distance of the camera is D and the fixed value is L, the magnification is {(D + L) / L}. The vehicle body image area acquisition unit is configured by the above steps S302 and S303.

【0049】ステップS303の後、ROM122に格
納された車体データをもとに、画像Aの死角領域となる
車体が映っている部分を特定する。このように、撮像さ
れた画像の中で、車体が映っている部分(車体によって
隠される領域)を特定することにより、本発明の車体領
域特定手段が構成される。
After step S303, based on the vehicle body data stored in the ROM 122, the portion of the image A in which the vehicle body is a blind spot is specified. In this way, the body region specifying unit of the present invention is configured by specifying the portion where the vehicle body is reflected (the region hidden by the vehicle body) in the captured image.

【0050】そして、特定された部分を除いた画像A’
(図17)を生成する(ステップS304)。画像A’
と画像B’を合成し、擬似透過画像A’+B’(図1
8)が生成される(ステップS305)。この擬似透過
画像A’+B’は、画像Aから切り取られた車体部分
に、画像B’の対応する部分が貼り付けられた状態とな
っている。生成された擬似透過画像を擬似透過画像デー
タメモリ163へ一旦記憶させる(ステップS30
6)。以上の通り、擬似透過画像処理ステップS105
が終了し、メインルーチンへリターンされ、次のステッ
プへ進む。撮像画像変換手段で視点変換された画像にお
ける車体領域部分を、車体領域特定手段で特定し、その
車体領域を画像変換手段で視点変換された画像領域(画
像B’)に置き換えて画像(擬似透過画像A’+B’)
を作成する画像作成手段は、以上のステップS301〜
S305により構成される。
Then, the image A'excluding the specified part
(FIG. 17) is generated (step S304). Image A '
And the image B ′ are combined, and the pseudo transparent image A ′ + B ′ (see FIG.
8) is generated (step S305). The pseudo-transparent image A ′ + B ′ is in a state in which the corresponding portion of the image B ′ is attached to the vehicle body portion cut out from the image A. The generated pseudo transparent image is temporarily stored in the pseudo transparent image data memory 163 (step S30).
6). As described above, the pseudo transparent image processing step S105
Ends and the process returns to the main routine to proceed to the next step. An image (pseudo-transparent image) is obtained by specifying the vehicle body region portion in the image that has undergone the viewpoint conversion by the captured image conversion device by the vehicle body region specification device and replacing the vehicle body region with the image region (image B ′) that has undergone the viewpoint conversion by the image conversion device. (Image A '+ B')
The image creating means for creating
It is composed of S305.

【0051】擬似透過画像データメモリ163から擬似
透過画像A’+B’を読み取り、運転者の視点から見た
車両を象徴する部分の輪郭線6が合成され、最終合成画
像(図19)が生成される(ステップS106)。この
輪郭線は車体を象徴する部位の輪郭線であればよく、例
えば、車体、バンパー、ライト、ワイパー、インストゥ
ルメントパネル、ハンドル、ミラー、タイヤ、座席、及
び窓の形状の少なくとも一つを含む輪郭線である。
The pseudo transparent image A '+ B' is read from the pseudo transparent image data memory 163, the contour line 6 of the portion symbolizing the vehicle as seen from the driver's viewpoint is synthesized, and the final synthesized image (FIG. 19) is generated. (Step S106). This contour line may be a contour line of a portion that symbolizes the vehicle body, and includes, for example, at least one of the shapes of the vehicle body, bumper, light, wiper, instrument panel, steering wheel, mirror, tire, seat, and window. It is a contour line.

【0052】特に、車体の最も外側に位置する部位の輪
郭線、あるいは、運転者が車体の外側を見たときに常に
外部景色と同時に視覚に認識される部位の輪郭線である
とよい。車体の最も外側に位置する部位としては、車
体、バンパー、ライト、タイヤ、サイドミラー等があ
り、視界に同時に認識される部位としては、ワイパー、
インストゥルメントパネル、ハンドル、バックミラー、
座席、窓の形状等が挙げられる。車体の最も外側に位置
する部位の輪郭線を合成すると、車体と外部障害物との
距離の把握か容易となるという効果がある。また、視界
に認識される部位の輪郭線を合成すると、肉眼で認識し
て操作する際の視界に近似した画像が得られるので、運
転者は、従来習得した感覚と同じ感覚で外部障害物と車
両との位置関係を把握することができる。以上のステッ
プS106により、車体形状画像合成手段が構成され
る。この輪郭線データは、本発明装置を設置する車体デ
ータをもとに作成されて、予め記憶装置16やROM1
22などに格納されている。
Particularly, the contour line of the outermost portion of the vehicle body or the contour line of the portion visually recognized at the same time as the external scenery when the driver looks at the outer side of the vehicle body is preferable. The parts located on the outermost side of the vehicle body include the car body, bumpers, lights, tires, side mirrors, and the like.
Instrument panel, steering wheel, rearview mirror,
Examples include seat and window shapes. By synthesizing the contour lines of the outermost portion of the vehicle body, it is possible to easily grasp the distance between the vehicle body and the external obstacle. In addition, by synthesizing the outlines of the parts recognized in the field of view, an image similar to the field of view when recognizing and operating with the naked eye can be obtained, so that the driver can feel the external obstacle with the same sensation as the conventionally learned sensation. It is possible to grasp the positional relationship with the vehicle. The vehicle body shape image synthesizing unit is configured by the above step S106. The contour line data is created based on the vehicle body data in which the device of the present invention is installed, and is stored in advance in the storage device 16 or the ROM 1.
22 and the like.

【0053】ステップS106で生成された最終合成画
像を画像表示装置14へ出力する(ステップS10
7)。システムを終了するきっかけがあるか判断する
(ステップS108)。例えば、本発明の画像処理装置
のスイッチオフや画像装置14の表示切替えがあった場
合は、システムは停止される。また、イグニッションス
イッチのオフがあった場合には、車両が駐車されたこと
を意味するので、同様にシステムは停止される。
The final composite image generated in step S106 is output to the image display device 14 (step S10).
7). It is determined whether there is an opportunity to terminate the system (step S108). For example, when the image processing apparatus of the present invention is switched off or the display of the image apparatus 14 is switched, the system is stopped. If the ignition switch is turned off, it means that the vehicle is parked, and the system is similarly stopped.

【0054】また、車速が所定の速度以上になった場合
には、通常走行状態となり、車庫入れなどのように、車
両近傍にある死角領域を認識する必要がなくなったこと
を意味するので、システムは停止される。従って、ステ
ップS108で、Yesの場合には、この画像処理のフ
ローチャートは終了する(ステップS111)。
Further, when the vehicle speed exceeds a predetermined speed, it means that the vehicle is in a normal running state, and it is not necessary to recognize a blind spot area near the vehicle such as when entering a garage. Is stopped. Therefore, in the case of Yes in step S108, the flowchart of this image processing ends (step S111).

【0055】システムを終了するきっかけがなかった場
合(ステップS108:No)には、ステップS101
で初期化された変数が、設定値を越えたか判断する(ス
テップS109)。この変数とは、距離、時間、メモリ
残量などを表すもので、これらの値が予め定められた設
定値に達した場合には、データの書き込みが開始された
位置に戻って、古いデータを新しい画像データに書き換
える(ステップS110)。ここで、ステップS101
にリターンされ、設定値を監視する変数は、初期化され
る。ステップS109で、変数が設定値を超えていなか
った場合には、ステップS102にリターンされる。
When there is no trigger to terminate the system (step S108: No), step S101
It is determined whether or not the variable initialized in step S4 exceeds the set value (step S109). These variables represent distance, time, remaining memory, etc.When these values reach the preset values, the old data is returned to the position where the data writing was started. It is rewritten with new image data (step S110). Here, step S101
The variable for monitoring the set value is initialized. If the variable does not exceed the set value in step S109, the process returns to step S102.

【0056】以上説明した作用は、カメラ13が、運転
者の視点位置から離れた位置に設けられていた場合であ
るが、カメラ13が視点位置の近くに設けられていても
よい。この場合には、図3に示されているフローチャー
トにおいて、ステップS103の視点変換処理を除いた
処理が行われる。つまり、視点変換の必要がないので、
視点変換処理は行われない。図20は、視点変換処理を
行わない場合の、画像処理の手順を示す流れ図である。
図20に基づいて、処理動作の順を、追って説明する。
The operation described above is for the case where the camera 13 is provided at a position away from the driver's viewpoint position, but the camera 13 may be provided near the viewpoint position. In this case, in the flowchart shown in FIG. 3, the processing except the viewpoint conversion processing in step S103 is performed. In other words, there is no need to change the viewpoint,
No viewpoint conversion processing is performed. FIG. 20 is a flowchart showing the procedure of image processing when the viewpoint conversion processing is not performed.
The order of processing operations will be described later with reference to FIG.

【0057】(a)撮像手段としてのカメラ13が撮像
した画像は、撮像した位置及び時間と共に記憶装置16
の視点変換用画像データメモリ161に連続して記憶さ
れる。そして、現在の画像Aを、視点変換用画像データ
メモリ161から読み出す。
(A) The image picked up by the camera 13 as the image pickup means is stored in the storage device 16 together with the picked-up position and time.
Are continuously stored in the viewpoint conversion image data memory 161. Then, the current image A is read from the viewpoint conversion image data memory 161.

【0058】(b)次に、画像Aには車両の一部によっ
て遮られた死角領域(車体領域)が存在し、その死角領
域は、車両が後退する以前の位置で撮像した画像では映
し出されていたものである。そこで、死角領域を取得で
きる画像が得られる所定距離dを算出する。所定距離d
は図2に示されているように、例えば、進行方向側にあ
る死角領域b1は、カメラ13の視点位置とボンネット
の輪郭位置(後部トランクの輪郭)pとによって決定さ
れ、カメラ13の設置位置が決まれば、死角領域の範囲
は決定される。つまり、図2に示されているように、カ
メラ13から地表の高さh、カメラ視点と視界が遮られ
る位置(後部トランクの輪郭p)とを結んだ直線mと鉛
直線とのなす角θと、カメラ13からカメラ13の視界
の下限位置までの水平距離l、直線mが地表と交差する
地点から、カメラ13までの水平距離xから、以下の式
によって容易に決定される。これらのデータは、車体デ
ータとしてROM122に記録されており、ROM12
2から読み出される。
(B) Next, in image A, there is a blind spot area (vehicle body area) that is blocked by a part of the vehicle, and this blind spot area is shown in the image taken before the vehicle retreats. It was what was there. Therefore, the predetermined distance d at which an image capable of acquiring the blind spot area is obtained is calculated. Predetermined distance d
As shown in FIG. 2, for example, the blind spot region b1 on the traveling direction side is determined by the viewpoint position of the camera 13 and the bonnet contour position (rear trunk contour) p, and the installation position of the camera 13 is determined. Is determined, the range of the blind spot area is determined. That is, as shown in FIG. 2, the angle h between the vertical line and the straight line m connecting the camera 13 with the height h of the ground surface, the viewpoint of the camera and the position where the field of view is blocked (the contour p of the rear trunk). Then, the horizontal distance 1 from the camera 13 to the lower limit position of the field of view of the camera 13 and the horizontal distance x from the point where the straight line m intersects the ground surface to the camera 13 are easily determined by the following formula. These data are recorded in the ROM 122 as vehicle body data.
It is read from 2.

【0059】d=h×tanθ−l 従って、少なくとも距離dを移動すれば、最初に蓄積さ
れた過去の画像によって、死角領域b1の画像を生成する
ことができる。つまり、上記所定距離は、距離dに値す
る。
D = h × tan θ−1 Therefore, if the distance d is moved at least, the image of the blind spot area b1 can be generated from the first accumulated past image. That is, the predetermined distance is equivalent to the distance d.

【0060】(c)画像Aの死角領域を取得できる画像
Bを視点変換用画像データメモリ161から読み出す。
画像Bの選定方法は、距離センサ155から入力された
移動量に基づいて、(b)で算出された移動距離dに対
応した画像が読み出される。この他、車速センサ125
が検出した車速値を経過時間で積分して求めても良い。
また、GPS受信装置153から得た車両の絶対位置の
移動軌跡から求めても良い。
(C) The image B from which the blind spot area of the image A can be obtained is read from the viewpoint conversion image data memory 161.
In the method of selecting the image B, the image corresponding to the moving distance d calculated in (b) is read based on the moving amount input from the distance sensor 155. In addition, the vehicle speed sensor 125
The vehicle speed value detected by may be obtained by integrating with the elapsed time.
Alternatively, it may be obtained from the movement trajectory of the absolute position of the vehicle obtained from the GPS receiving device 153.

【0061】また、上記のように移動量に基づく方法の
他、画像と共に記憶されている位置より、現在位置から
距離d手前の地点における画像として選定してもよい。
In addition to the method based on the amount of movement as described above, an image at a point a distance d before the current position from the position stored with the image may be selected.

【0062】(d)現在の画像である画像Aについて、
ROM122に格納された車体データをもとに、画像A
の車体が映っている車体領域(死角領域)を特定する。
(D) For image A, which is the current image,
Based on the vehicle body data stored in ROM122, image A
The body area (blind spot area) in which the vehicle body of is reflected is specified.

【0063】この処理(d)のように、撮像された画像
の中で車体が映っている部分(車体によって隠される領
域)を特定することにより、本願発明の車体領域特定手
段が構成される。
As in this process (d), the body region specifying means of the present invention is constituted by specifying the portion where the vehicle body is reflected (the region hidden by the vehicle body) in the captured image.

【0064】(e)そして、特定された車体領域を除い
た画像A’を生成する。 (f)一方、読み出された画像Bについては、運転者の
視点から見た風景と、画像Aが同じ画像となるため、画
像Bの中から、画像Aに対応する部分の画像B0を切り
取る。
(E) Then, an image A'excluding the specified vehicle body region is generated. (F) On the other hand, with regard to the read image B, the scenery seen from the driver's viewpoint and the image A are the same image, so the image B0 of the portion corresponding to the image A is cut out from the image B. .

【0065】(g)画像B0は、運転者の視点から見た
風景と同じである画像Aを基準に(被写体が画像Aと同
じ大きさとなるように)拡大され、画像B’が生成され
る。画像を拡大処理する際の倍率は、上記実施形態で説
明した方法と同様に、実験などによる経験に基づいて決
めた倍率を使用する、それぞれの画像の特徴エリアを設
定し、特徴エリアに映し出された対象物の大きさが同じ
になるよう画像を補正する、カメラの焦点距離や想定し
た被写体までの距離などの一定値を基に倍率を決定す
る、などである。
(G) The image B0 is enlarged on the basis of the image A which is the same as the scenery seen from the driver's viewpoint (so that the subject has the same size as the image A), and an image B'is generated. . Similar to the method described in the above embodiment, the magnification when enlarging an image uses the magnification determined based on experience through experiments, etc., and sets the characteristic area of each image and displays it in the characteristic area. The image is corrected so that the size of the object becomes the same, the magnification is determined based on a fixed value such as the focal length of the camera or the assumed distance to the subject.

【0066】この拡大された画像B’は、画像Aにおけ
る車体領域が透明であったならば見えると想定される画
像領域を含んでおり、その他の領域では、画像Aの映像
と略同一である。従って、画像BのB0部分を抽出し、
画像Aの大きさに合わせて、画像B0を拡大する処理
(処理(f)(g))のように、特定された車体部分が
透明であったならば見えると想定される、車体領域に対
応する画像領域を取得することにより、本願発明の車体
画像領域取得手段が構成される。
The enlarged image B'includes an image region that is supposed to be visible if the vehicle body region in the image A is transparent, and is substantially the same as the image of the image A in other regions. . Therefore, extract the B0 part of image B,
Corresponds to the vehicle body region that is assumed to be visible if the specified vehicle body portion is transparent, as in the processing of enlarging the image B0 according to the size of the image A (processing (f) (g)) By acquiring the image area to be processed, the vehicle body image area acquiring means of the present invention is configured.

【0067】(h)そして、画像A’と画像B’を合成
する。この擬似透過画像A’+B’は、画像Aから切り
取られた車体領域に、画像B’の対応する部分が置き換
えられた状態となっている。この合成処理(処理
(h))のように、撮像された画像における車体領域
を、車体画像領域取得手段で取得した画像領域に置き換
えて画像を作成することにより、本願発明の画像作成手
段が構成される。生成された擬似透過画像は、画像Aと
同じ位置、時間と共に擬似透過画像データメモリ163
へ一旦記憶される。
(H) Then, the image A'and the image B'are combined. The pseudo-transparent image A ′ + B ′ is in a state in which the corresponding portion of the image B ′ is replaced with the vehicle body region cut out from the image A. As in this combination processing (processing (h)), the image forming means of the present invention is configured by replacing the vehicle body area in the captured image with the image area acquired by the vehicle body image area acquiring means to create an image. To be done. The generated pseudo transparent image has the same position and time as the image A and the pseudo transparent image data memory 163.
Will be remembered once.

【0068】(i)次に、擬似透過画像データメモリ1
63から擬似透過画像A’+B’を読み取り、運転者の
視点から見た車両を象徴する部分の輪郭線6が合成さ
れ、最終合成画像が生成される。この処理(i)により
車体形状画像合成手段が構成される。
(I) Next, the pseudo transparent image data memory 1
The pseudo transmission image A ′ + B ′ is read from 63, the contour line 6 of the portion symbolizing the vehicle viewed from the driver's viewpoint is synthesized, and the final synthesized image is generated. This processing (i) constitutes a vehicle body shape image synthesizing means.

【0069】この輪郭線は車体を象徴する部位の輪郭線
であればよく、例えば、車体、バンパー、ライト、ワイ
パー、インストゥルメントパネル、ハンドル、ミラー、
タイヤ、座席、及び窓の形状の少なくとも一つを含む輪
郭線である。特に、車体の最も外側に位置する部位の輪
郭線、あるいは、運転者が車体の外側を見たときに常に
外部景色と同時に視覚に認識される部位の輪郭線である
とよい。車体の最も外側に位置する部位としては、車
体、バンパー、ライト、タイヤ、サイドミラー等があ
り、視界に同時に認識される部位としては、ワイパー、
インストゥルメントパネル、ハンドル、バックミラー、
座席、窓の形状等が挙げられる。車体の最も外側に位置
する部位の輪郭線を合成すると、車体と外部障害物との
距離の把握か容易となるという効果がある。また、視界
に認識される部位の輪郭線を合成すると、肉眼で認識し
て操作する際の視界に近似した画像が得られるので、運
転者は、従来習得した感覚と同じ感覚で外部障害物と車
両との位置関係を把握することができる。この輪郭線デ
ータは、本発明装置を設置する車体データをもとに作成
されて、予め記憶装置16やROM122などに格納さ
れている。
The contour line may be a contour line of a portion symbolizing the vehicle body, and examples thereof include a vehicle body, a bumper, a light, a wiper, an instrument panel, a steering wheel, a mirror,
It is a contour line including at least one of a shape of a tire, a seat, and a window. In particular, it may be the contour line of the outermost portion of the vehicle body, or the contour line of the portion that is visually recognized at the same time as the external scenery when the driver looks at the outer side of the vehicle body. The parts located on the outermost side of the vehicle body include the car body, bumpers, lights, tires, side mirrors, and the like.
Instrument panel, steering wheel, rearview mirror,
Examples include seat and window shapes. By synthesizing the contour lines of the outermost portion of the vehicle body, it is possible to easily grasp the distance between the vehicle body and the external obstacle. In addition, by synthesizing the outlines of the parts recognized in the field of view, an image similar to the field of view when recognizing and operating with the naked eye can be obtained, so that the driver can feel the external obstacle with the same sensation as the conventionally learned sensation. It is possible to grasp the positional relationship with the vehicle. This contour line data is created based on vehicle body data in which the device of the present invention is installed, and is stored in advance in the storage device 16, the ROM 122, or the like.

【0070】また、この場合の合成される車体の輪郭線
は、撮影画像Aから検出する構成としてもよい。この場
合には、実際の車体の状態が画像に映し出されるので、
一層リアルに外部画像と車体との関係を把握することが
できる。例えば、後進する場合に、リアウィンドウのダ
ッシュボードに置かれている置物などが、画像に映し出
され、実際に肉眼で見ているイメージに近付けることが
できる。
The contour line of the vehicle body to be combined in this case may be detected from the photographed image A. In this case, the actual vehicle condition is displayed in the image,
The relationship between the external image and the vehicle body can be grasped more realistically. For example, when moving backward, a figurine or the like placed on the dashboard of the rear window is displayed in the image, and can be brought closer to the image actually seen by the naked eye.

【0071】輪郭線の検出方法は、公知の画像処理方法
を用いることができ、例えば、Sobelフィルタ処理
やラプラシアンフィルタ処理などにより輪郭を強調する
処理を行い、輪郭線のみを抽出する処理をすることがで
きる。また、輪郭線のみを合成する構成に限らず、車体
や車内を映した画像(死角を生成する部分の画像)を半
透明にして合成してもよい。このような輪郭線6を検出
する処理は、例えば、ステップS105とステップS1
06の間で行われ、輪郭線検出手段として機能する。
A known image processing method can be used as the contour line detection method. For example, the Sobel filter process or the Laplacian filter process is used to emphasize the contour, and only the contour line is extracted. You can Further, the configuration is not limited to the configuration in which only the contour line is combined, and an image showing the vehicle body or the inside of the vehicle (an image of a portion that generates a blind spot) may be semitransparent and combined. The process of detecting such a contour line 6 is performed, for example, in steps S105 and S1.
It is performed between 06 and functions as a contour line detection means.

【0072】また、本実施形態で合成する輪郭線の色
は、運転者が判別し易いように、自動的に色が調整され
るものとすることができる。例えば、作成された画像が
明るい色の場合には、黒の輪郭線、暗い色の場合には、
白の輪郭線を合成する。また、作成された画像の画素1
つ1つに対しても色を反転させた(補色とする)輪郭線
を合成する等である。
Further, the color of the contour line to be combined in this embodiment can be automatically adjusted so that the driver can easily discriminate it. For example, if the created image has a light color, a black outline, and if the image has a dark color,
Synthesize the white outline. Also, the pixel 1 of the created image
For each one, the color is inverted (complementary color) and the outline is combined.

【0073】次に、カメラ13は、広角レンズを使用す
ることもできる。図21は、広角レンズを使用した場合
の、カメラの視界の範囲を示すものである。広角レンズ
を使用した場合には、そのレンズ特性から画像に歪が大
きく生じる為、そのレンズ特性を基に歪を補正するため
の正像変換処理するステップが、上記ステップS206
とステップS207の間に行われる。
Next, the camera 13 can use a wide-angle lens. FIG. 21 shows the range of the field of view of the camera when a wide-angle lens is used. When a wide-angle lens is used, a large distortion occurs in the image due to the lens characteristic. Therefore, the step of performing the normal image conversion process for correcting the distortion based on the lens characteristic is the above step S206.
And step S207.

【0074】また、外部画像として切り取る領域も、舵
角センサ151が検出する操舵角に応じて変更するよう
に構成することができる。例えば、右にα度の舵角を検
出した場合には、その角度に応じて、画像を切り取る位
置を、E1からE2へ(右方向へ)移動させる。
Further, the area to be cut out as an external image can also be configured to be changed according to the steering angle detected by the steering angle sensor 151. For example, when a steering angle of α degrees is detected to the right, the position where the image is cut is moved from E1 to E2 (to the right) according to the angle.

【0075】以上説明した作用は、後進する場合の例で
あるが、前進する場合でも、同様の作用となる。前進す
る場合には、カメラは、ダッシュボードの略中央部分
か、バックミラーの付け根の位置などが好ましい。な
お、超音波等によって外部障害物と車体との間の距離を
計測する測距センサを車体に設け、合成画像の表示とと
もに、外部障害物との距離を測る構成とすれば、一層距
離感を把握し易くなり、好ましい。例えば、超音波セン
サによって検出される障害物との距離が、所定の距離以
下となった場合には、聴覚信号として警報を発するか、
視覚信号として画面を赤のシルエットに表示するなどの
構成とすることができる。また、カメラ13を運転者の
視点位置に、より近い位置に設けると、表示画像が運転
者の視界に一層近い画像となり、周囲の障害物と車両と
の位置関係が、より一層画像から把握し易くなる。
The operation described above is an example in the case of moving backward, but the same effect is obtained even when moving forward. When moving forward, it is preferable that the camera is located at the substantially central portion of the dashboard or the position of the base of the rearview mirror. If a distance measuring sensor that measures the distance between the external obstacle and the vehicle body by ultrasonic waves or the like is provided on the vehicle body and the distance between the vehicle and the external obstacle is measured together with the display of the composite image, a further sense of distance can be obtained. It is easy to grasp and is preferable. For example, if the distance to the obstacle detected by the ultrasonic sensor is less than or equal to a predetermined distance, an alarm is issued as an auditory signal,
For example, the screen may be displayed in a red silhouette as a visual signal. Further, when the camera 13 is provided closer to the driver's viewpoint position, the display image becomes an image closer to the driver's field of view, and the positional relationship between the surrounding obstacles and the vehicle can be further grasped from the image. It will be easier.

【0076】[0076]

【発明の効果】請求項1に記載の発明によれば、運転者
に見ることのできない死角領域が生成されるので、死角
への不安感が抑制できる。請求項2に記載の発明によれ
ば、表示画像が運転者の視点位置から見た風景と同じ画
像となり、周囲の障害物と車両との位置関係が、肉眼で
視認した場合と同様に感覚的に把握することが容易とな
る。
According to the first aspect of the present invention, a blind spot region that cannot be seen by the driver is generated, so that anxiety about the blind spot can be suppressed. According to the invention described in claim 2, the display image is the same image as the scenery seen from the viewpoint position of the driver, and the positional relationship between the obstacles around the vehicle and the vehicle is sensuous as in the case of being visually recognized. It will be easier to understand.

【0077】請求項3に記載の発明によれば、撮像手段
と運転者の視点位置との距離が、車両の移動距離と同じ
値になった場合に、運転者位置における画像を用いて視
点変換をするので、運転者の視点位置から見た風景と同
じ画像を生成することが可能となる。請求項4に記載の
発明によれば、過去の画像を用いて、死角領域を合成す
るので、死角を撮影するための専用のカメラを設ける必
要がない。
According to the third aspect of the invention, when the distance between the image pickup means and the viewpoint position of the driver becomes the same value as the moving distance of the vehicle, the viewpoint conversion is performed using the image at the driver position. Therefore, it is possible to generate the same image as the scenery seen from the driver's viewpoint position. According to the invention described in claim 4, since the blind spot area is synthesized using the past image, it is not necessary to provide a dedicated camera for photographing the blind spot.

【0078】請求項5に記載の発明によれば、車速検出
手段によって車速を検出し、車両周囲の死角領域の把握
が必要な操作状態を検出できるので、必要な状態におい
てのみ、必要な画像処理を行うことができる。請求項6
に記載の発明によれば、過去の画像が取得できる距離を
移動したことを検出する移動距離検出手段を備えたの
で、車体領域(死角領域)に対応する画像領域を取得す
る処理を正確に行うことが可能となる。
According to the fifth aspect of the present invention, the vehicle speed can be detected by the vehicle speed detecting means and the operation state in which the blind spot area around the vehicle needs to be grasped can be detected. Therefore, the necessary image processing is performed only in the necessary state. It can be performed. Claim 6
According to the invention described in (1), since the moving distance detecting means for detecting that the past image has moved the distance that can be acquired is provided, the process of acquiring the image area corresponding to the vehicle body area (blind spot area) is accurately performed. It becomes possible.

【0079】請求項7に記載の発明によれば、予め記録
された車体データにより過去の画像が取得できる距離を
算出する構成としたので、距離算出が容易となり距離算
出処理を迅速にすることができる。請求項8に記載の発
明によれば、予め記録された車体データにより車体領域
を特定する構成したので、車体領域を特定する画像処理
の処理時間を短縮することができる。請求項9に記載の
発明によれば、車体各部の形状の輪郭線を画像に合成す
ることにより、画面に映し出された外部環境と、車体と
の位置関係を一層把握し易くすることができる。
According to the seventh aspect of the present invention, the distance that allows the past image to be acquired is calculated based on the body data recorded in advance. Therefore, the distance calculation can be facilitated and the distance calculation process can be speeded up. it can. According to the invention described in claim 8, since the vehicle body region is specified by the previously recorded vehicle body data, the processing time of the image processing for specifying the vehicle body region can be shortened. According to the invention described in claim 9, by synthesizing the contour lines of the shape of each part of the vehicle body with the image, it is possible to further easily grasp the positional relationship between the external environment displayed on the screen and the vehicle body.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理装置の構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus of the present invention.

【図2】本発明の画像処理装置を搭載した車両の側面図
である。
FIG. 2 is a side view of a vehicle equipped with the image processing apparatus of the present invention.

【図3】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 3 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 4 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 5 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図6】画像処理の手順を示す流れ図である。FIG. 6 is a flowchart showing a procedure of image processing.

【図7】図6に示される処理画像の拡大図である。7 is an enlarged view of the processed image shown in FIG.

【図8】図6に示される処理画像の拡大図である。FIG. 8 is an enlarged view of the processed image shown in FIG.

【図9】図6に示される処理画像の拡大図である。9 is an enlarged view of the processed image shown in FIG.

【図10】図6に示される処理画像の拡大図である。10 is an enlarged view of the processed image shown in FIG.

【図11】図6に示される処理画像の拡大図である。11 is an enlarged view of the processed image shown in FIG.

【図12】図6に示される処理画像の拡大図である。12 is an enlarged view of the processed image shown in FIG.

【図13】図6に示される処理画像の拡大図である。FIG. 13 is an enlarged view of the processed image shown in FIG.

【図14】図6に示される処理画像の拡大図である。14 is an enlarged view of the processed image shown in FIG.

【図15】図6に示される処理画像の拡大図である。FIG. 15 is an enlarged view of the processed image shown in FIG.

【図16】図6に示される処理画像の拡大図である。16 is an enlarged view of the processed image shown in FIG.

【図17】図6に示される処理画像の拡大図である。17 is an enlarged view of the processed image shown in FIG.

【図18】図6に示される処理画像の拡大図である。18 is an enlarged view of the processed image shown in FIG.

【図19】図6に示される処理画像の拡大図である。19 is an enlarged view of the processed image shown in FIG.

【図20】他の画像処理の手順を示す流れ図である。FIG. 20 is a flowchart showing another image processing procedure.

【図21】広角レンズカメラを用いたカメラの視野を示
す平面図である。
FIG. 21 is a plan view showing the field of view of a camera using a wide-angle lens camera.

【符号の説明】[Explanation of symbols]

1 画像処理装置 12 処理装置 13 カメラ 14 画像表示装置 15 現在位置検出装置 16 記憶装置 1 Image processing device 12 Processor 13 cameras 14 Image display device 15 Current position detector 16 storage

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 車両の進行方向の画像を撮像する撮像手
段と、 該撮像手段により撮像された画像の中で、車体部分によ
って隠される車体領域を特定する車体領域特定手段と、 前記車体領域特定手段により特定された車体部分が透明
であったならば見えると想定される前記車体領域に対応
する画像領域を取得する車体画像領域取得手段と、 前記撮像手段で撮像された画像における前記車体領域
を、前記車体画像領域取得手段で取得した画像領域に置
き換えて画像を作成する画像作成手段と、 該画像作成手段で作成された画像を表示する表示手段
と、を備えた車両の画像処理装置。
1. An image pickup means for picking up an image in a traveling direction of a vehicle, a vehicle body area specifying means for specifying a vehicle body area hidden by a vehicle body portion in the image picked up by the image pickup means, and the vehicle body area specifying means. A vehicle body image area acquiring unit that acquires an image region corresponding to the vehicle body region that is assumed to be visible if the vehicle body portion specified by the means is transparent; and the vehicle body region in the image captured by the image capturing unit. An image processing apparatus for a vehicle, comprising: an image creating means for creating an image by replacing the image area acquired by the vehicle body image area acquiring means; and a display means for displaying the image created by the image creating means.
【請求項2】 車両の進行方向の画像を撮像する撮像手
段と、 運転者の視点から見た画像のように、撮像された画像を
視点変換する撮像画像変換手段と、 前記撮像手段により撮像された画像の中で、車体部分に
よって隠される車体領域を特定する車体領域特定手段
と、 該車体部分が透明であったならば見えると想定される前
記車体領域に対応する画像領域を取得する車体画像領域
取得手段と、 前記撮像画像変換手段で視点変換された画像において、
前記車体領域特定手段によって特定された車体領域部分
を、前記車体画像領域取得手段によって取得された画像
領域に置き換えて画像を作成する画像作成手段と、 該画像作成手段で作成された画像を表示する表示手段
と、を備えることを特徴とする車両の画像処理装置。
2. An image pickup means for picking up an image of a traveling direction of a vehicle, a picked-up image conversion means for changing a viewpoint of a picked-up image such as an image seen from a driver's viewpoint, and an image picked up by the image pickup means. Body image specifying means for specifying a vehicle body area hidden by the vehicle body portion, and a vehicle body image for acquiring an image area corresponding to the vehicle body area which is supposed to be visible if the vehicle body portion is transparent. In the area acquisition means and the image converted in viewpoint by the captured image conversion means,
An image creating means for creating an image by replacing the vehicle body area part specified by the vehicle body area specifying means with the image area acquired by the vehicle body image area acquiring means, and displaying the image created by the image creating means. An image processing apparatus for a vehicle, comprising: a display unit.
【請求項3】 車両の移動距離を検出する移動距離検出
手段と、を備え、 前記撮像画像変換手段は、運転者の位置から撮像手段が
設置されている位置までの距離と、前記移動距離検出手
段が検出した、撮像手段が撮像した位置からの車両移動
距離とが同じになった場合に、撮像画像を視点変換する
ことを特徴とする請求項2に記載の車両の画像処理装
置。
3. A moving distance detecting means for detecting a moving distance of a vehicle, wherein the captured image converting means detects a distance from a position of a driver to a position where the image capturing means is installed, and the moving distance detecting means. The image processing device for a vehicle according to claim 2, wherein the viewpoint of the picked-up image is converted when the vehicle movement distance from the position detected by the image pickup means is equal to that detected by the means.
【請求項4】前記車体が透明であったならば見えると想
定される画像領域は、前記撮像手段が、過去に撮像した
画像領域を用いることを特徴とする請求項1又は2に記
載の車両の画像処理装置。
4. The vehicle according to claim 1, wherein the image area assumed to be visible if the vehicle body is transparent uses an image area captured in the past by the imaging means. Image processing device.
【請求項5】 前記車両の速度を検出する車速検出手段
と、を備え、前記車速検出手段で検出された速度が所定
速度以下の場合に、前記画像作成手段で作成された画像
を表示することを特徴とする請求項1又は2に記載の車
両の画像処理装置。
5. A vehicle speed detecting means for detecting the speed of the vehicle, wherein the image created by the image creating means is displayed when the speed detected by the vehicle speed detecting means is less than or equal to a predetermined speed. The image processing device for a vehicle according to claim 1 or 2.
【請求項6】 前記車両の移動距離を検出する移動距離
検出手段と、を備え、 前記車体画像領域取得手段は、該検出された距離が所定
距離以上の場合に、前記車体領域に対応する画像領域を
取得することを特徴とする請求項1又は2に記載の車両
の画像処理装置。
6. A moving distance detecting means for detecting a moving distance of the vehicle, wherein the vehicle body image area acquiring means is an image corresponding to the vehicle body area when the detected distance is a predetermined distance or more. The image processing apparatus for a vehicle according to claim 1, wherein the area is acquired.
【請求項7】 前記車両の車体データを記憶する車体デ
ータ記憶手段と、を備え、 前記所定距離は、前記車体データ記憶手段に記憶された
データに基づき決定されることを特徴とする請求項6に
記載の車両の画像処理装置。
7. Vehicle body data storage means for storing vehicle body data of the vehicle, wherein the predetermined distance is determined based on data stored in the vehicle body data storage means. The image processing device for a vehicle according to.
【請求項8】 車体データを記憶する車体データ記憶手
段と、を備え、 前記車体領域特定手段は、前記車体データに基づいて、
車体部分によって隠される車体領域を特定することを特
徴とする請求項1又は2に記載の車両の画像処理装置。
8. Vehicle body data storage means for storing vehicle body data, said vehicle body area specifying means, based on said vehicle body data,
The vehicle image processing apparatus according to claim 1, wherein a vehicle body region hidden by the vehicle body portion is specified.
【請求項9】 車体、バンパー、ライト、ワイパー、イ
ンストゥルメントパネル、ハンドル、ミラー、タイヤ、
座席、及び窓の形状のうち少なくとも1つを含む車体形
状の輪郭線を、 前記画像作成手段により作成された画像にさらに付加し
て合成画像を作成する車体形状画像合成手段とを備えた
請求項1又は2に記載の車両の画像処理装置。
9. A vehicle body, a bumper, a light, a wiper, an instrument panel, a handle, a mirror, a tire,
A vehicle body shape image synthesizing unit configured to further add a contour line of a vehicle body shape including at least one of seat and window shapes to the image created by the image creating unit to create a composite image. The image processing device for a vehicle according to 1 or 2.
JP2002358650A 2001-12-12 2002-12-10 Image processing apparatus for vehicle Expired - Fee Related JP4593070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002358650A JP4593070B2 (en) 2001-12-12 2002-12-10 Image processing apparatus for vehicle

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001379340 2001-12-12
JP2001-379340 2001-12-12
JP2002358650A JP4593070B2 (en) 2001-12-12 2002-12-10 Image processing apparatus for vehicle

Publications (2)

Publication Number Publication Date
JP2003244688A true JP2003244688A (en) 2003-08-29
JP4593070B2 JP4593070B2 (en) 2010-12-08

Family

ID=27790764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002358650A Expired - Fee Related JP4593070B2 (en) 2001-12-12 2002-12-10 Image processing apparatus for vehicle

Country Status (1)

Country Link
JP (1) JP4593070B2 (en)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054824A (en) * 2004-08-16 2006-02-23 Funai Electric Co Ltd Projection image display device
JP2006327433A (en) * 2005-05-26 2006-12-07 Aisin Aw Co Ltd Parking support method and parking support device
JP2007030564A (en) * 2005-07-22 2007-02-08 Aisin Aw Co Ltd Parking assist method and parking assist device
JP2007030630A (en) * 2005-07-25 2007-02-08 Aisin Aw Co Ltd Parking assist method and parking assist device
JP2007124226A (en) * 2005-10-27 2007-05-17 Aisin Aw Co Ltd Method and apparatus for assisting parking
JP2007176256A (en) * 2005-12-27 2007-07-12 Aisin Aw Co Ltd Image display method and driving support device
JP2007290570A (en) * 2006-04-25 2007-11-08 Denso Corp Vehicular display device
JP2008085691A (en) * 2006-09-28 2008-04-10 Clarion Co Ltd Vehicle periphery monitoring apparatus
JP2009078719A (en) * 2007-09-26 2009-04-16 Denso Corp View supporting device
JP2009149306A (en) * 2009-04-03 2009-07-09 Denso Corp Vehicular display device
WO2009104675A1 (en) * 2008-02-20 2009-08-27 クラリオン株式会社 Vehicle peripheral image display system
WO2009157446A1 (en) * 2008-06-24 2009-12-30 トヨタ自動車株式会社 Blind spot display device and driving support device
JP2010109684A (en) * 2008-10-30 2010-05-13 Clarion Co Ltd Vehicle surrounding image display system
JP2010108182A (en) * 2008-10-29 2010-05-13 Honda Motor Co Ltd Vehicle driving support apparatus
JP2010231276A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Method and apparatus for processing image
WO2011007683A1 (en) * 2009-07-13 2011-01-20 クラリオン株式会社 Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
US7930078B2 (en) 2005-10-19 2011-04-19 Aisin Aw Co., Ltd. Parking assist method and a parking assist apparatus
WO2011070641A1 (en) * 2009-12-07 2011-06-16 クラリオン株式会社 Vehicle periphery monitoring system
WO2011070640A1 (en) * 2009-12-07 2011-06-16 クラリオン株式会社 Vehicle periphery image display system
KR20110067683A (en) * 2009-12-15 2011-06-22 두산인프라코어 주식회사 Apparatus and method for displaying dead zone of construction equipment
JP2011213350A (en) * 2011-08-02 2011-10-27 Pioneer Electronic Corp Parking support device, parking support control method and parking support program
WO2012066589A1 (en) * 2010-11-15 2012-05-24 三菱電機株式会社 In-vehicle image processing device
JP2013541915A (en) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション Blind Spot Zone Display Device and Method
JP2014068308A (en) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system, and image generation method
WO2014132680A1 (en) 2013-02-28 2014-09-04 アイシン精機株式会社 Program and device for controlling vehicle
JP2015074436A (en) * 2013-10-11 2015-04-20 富士通株式会社 Image processing device, image processing method, and program
WO2016027689A1 (en) * 2014-08-21 2016-02-25 アイシン精機株式会社 Image display control device and image display system
GB2550265A (en) * 2016-03-24 2017-11-15 Ford Global Tech Llc System and method for generating a hybrid camera view in a vehicle
EP2823998B1 (en) * 2013-07-10 2017-12-27 Audi Ag Motor vehicle with a screen to display an image taken by a camera and corresponding to the periphery behind the vehicle
GB2553143A (en) * 2016-08-26 2018-02-28 Jaguar Land Rover Ltd A Vehicle camera system
JP2018056953A (en) * 2016-09-30 2018-04-05 アイシン精機株式会社 Periphery monitoring system
WO2019093378A1 (en) * 2017-11-10 2019-05-16 株式会社デンソー Display processing device
JP2019202584A (en) * 2018-05-21 2019-11-28 アルパイン株式会社 Image processing apparatus and image processing method
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program
US20210179086A1 (en) * 2019-12-13 2021-06-17 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
CN113039781A (en) * 2018-11-22 2021-06-25 索尼半导体解决方案公司 Image processing apparatus, camera system, and image processing method
JP2022009331A (en) * 2017-05-11 2022-01-14 株式会社アイシン Periphery monitoring device
WO2022091194A1 (en) * 2020-10-27 2022-05-05 三菱電機株式会社 Display control device, display system, display control method, and display control program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07117561A (en) * 1993-10-27 1995-05-09 Sharp Corp On-vehicle monitoring camera device
JPH10299032A (en) * 1997-04-22 1998-11-10 Kensetsusho Kanto Chiho Kensetsu Kyokucho Visibility improving equipment for traveling vehicle for work
JPH11151975A (en) * 1997-11-25 1999-06-08 Nissan Motor Co Ltd Dead angle rnage display device
JPH11168756A (en) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk Image recording device, image database device, image recording method, and computer program storage medium
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2000247572A (en) * 1999-02-25 2000-09-12 Yutani Heavy Ind Ltd Wheel type working machine
JP2001180510A (en) * 1999-12-24 2001-07-03 Toyota Autom Loom Works Ltd Tandem supporting device
JP2002120675A (en) * 2000-10-17 2002-04-23 Mitsubishi Electric Corp Vehicle surroundings monitoring support system
JP2002314990A (en) * 2001-04-12 2002-10-25 Auto Network Gijutsu Kenkyusho:Kk System for visually confirming periphery of vehicle

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07117561A (en) * 1993-10-27 1995-05-09 Sharp Corp On-vehicle monitoring camera device
JPH10299032A (en) * 1997-04-22 1998-11-10 Kensetsusho Kanto Chiho Kensetsu Kyokucho Visibility improving equipment for traveling vehicle for work
JPH11151975A (en) * 1997-11-25 1999-06-08 Nissan Motor Co Ltd Dead angle rnage display device
JPH11168756A (en) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk Image recording device, image database device, image recording method, and computer program storage medium
WO2000007373A1 (en) * 1998-07-31 2000-02-10 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2000247572A (en) * 1999-02-25 2000-09-12 Yutani Heavy Ind Ltd Wheel type working machine
JP2001180510A (en) * 1999-12-24 2001-07-03 Toyota Autom Loom Works Ltd Tandem supporting device
JP2002120675A (en) * 2000-10-17 2002-04-23 Mitsubishi Electric Corp Vehicle surroundings monitoring support system
JP2002314990A (en) * 2001-04-12 2002-10-25 Auto Network Gijutsu Kenkyusho:Kk System for visually confirming periphery of vehicle

Cited By (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006054824A (en) * 2004-08-16 2006-02-23 Funai Electric Co Ltd Projection image display device
JP2006327433A (en) * 2005-05-26 2006-12-07 Aisin Aw Co Ltd Parking support method and parking support device
JP4561479B2 (en) * 2005-05-26 2010-10-13 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP2007030564A (en) * 2005-07-22 2007-02-08 Aisin Aw Co Ltd Parking assist method and parking assist device
JP4561512B2 (en) * 2005-07-22 2010-10-13 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP2007030630A (en) * 2005-07-25 2007-02-08 Aisin Aw Co Ltd Parking assist method and parking assist device
US7680570B2 (en) 2005-07-25 2010-03-16 Aisin Aw Co., Ltd. Parking assist devices, methods, and programs
US7930078B2 (en) 2005-10-19 2011-04-19 Aisin Aw Co., Ltd. Parking assist method and a parking assist apparatus
JP4622806B2 (en) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP2007124226A (en) * 2005-10-27 2007-05-17 Aisin Aw Co Ltd Method and apparatus for assisting parking
JP2007176256A (en) * 2005-12-27 2007-07-12 Aisin Aw Co Ltd Image display method and driving support device
JP2007290570A (en) * 2006-04-25 2007-11-08 Denso Corp Vehicular display device
JP2008085691A (en) * 2006-09-28 2008-04-10 Clarion Co Ltd Vehicle periphery monitoring apparatus
JP2009078719A (en) * 2007-09-26 2009-04-16 Denso Corp View supporting device
JP5421788B2 (en) * 2008-02-20 2014-02-19 クラリオン株式会社 Vehicle periphery image display system
US8624977B2 (en) 2008-02-20 2014-01-07 Clarion Co., Ltd. Vehicle peripheral image displaying system
WO2009104675A1 (en) * 2008-02-20 2009-08-27 クラリオン株式会社 Vehicle peripheral image display system
US8339252B2 (en) 2008-06-24 2012-12-25 Toyota Jidosha Kabushiki Kaisha Blind spot display device and driving support device
WO2009157446A1 (en) * 2008-06-24 2009-12-30 トヨタ自動車株式会社 Blind spot display device and driving support device
JP2010108182A (en) * 2008-10-29 2010-05-13 Honda Motor Co Ltd Vehicle driving support apparatus
JP2010109684A (en) * 2008-10-30 2010-05-13 Clarion Co Ltd Vehicle surrounding image display system
KR101295295B1 (en) * 2009-03-25 2013-08-12 후지쯔 가부시끼가이샤 Image processing method and image processing apparatus
US8576285B2 (en) 2009-03-25 2013-11-05 Fujitsu Limited In-vehicle image processing method and image processing apparatus
JP2010231276A (en) * 2009-03-25 2010-10-14 Fujitsu Ltd Method and apparatus for processing image
JP2009149306A (en) * 2009-04-03 2009-07-09 Denso Corp Vehicular display device
JP2011023805A (en) * 2009-07-13 2011-02-03 Clarion Co Ltd Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
US8886023B2 (en) 2009-07-13 2014-11-11 Clarion Co., Ltd. Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
WO2011007683A1 (en) * 2009-07-13 2011-01-20 クラリオン株式会社 Blind-spot image display system for vehicle, and blind-spot image display method for vehicle
WO2011070641A1 (en) * 2009-12-07 2011-06-16 クラリオン株式会社 Vehicle periphery monitoring system
WO2011070640A1 (en) * 2009-12-07 2011-06-16 クラリオン株式会社 Vehicle periphery image display system
US9204108B2 (en) 2009-12-07 2015-12-01 Clarion Co., Ltd. Vehicle periphery monitoring system
CN102714710A (en) * 2009-12-07 2012-10-03 歌乐牌株式会社 Vehicle periphery image display system
KR20110067683A (en) * 2009-12-15 2011-06-22 두산인프라코어 주식회사 Apparatus and method for displaying dead zone of construction equipment
KR101640602B1 (en) 2009-12-15 2016-07-18 두산인프라코어 주식회사 Apparatus and method for displaying dead zone of construction equipment
JP5501476B2 (en) * 2010-11-15 2014-05-21 三菱電機株式会社 In-vehicle image processing device
WO2012066589A1 (en) * 2010-11-15 2012-05-24 三菱電機株式会社 In-vehicle image processing device
JP2013541915A (en) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション Blind Spot Zone Display Device and Method
JP2011213350A (en) * 2011-08-02 2011-10-27 Pioneer Electronic Corp Parking support device, parking support control method and parking support program
JP2014068308A (en) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system, and image generation method
US9479740B2 (en) 2012-09-27 2016-10-25 Fujitsu Ten Limited Image generating apparatus
US10322672B2 (en) 2013-02-28 2019-06-18 Aisin Seiki Kabushiki Kaisha Vehicle control apparatus and program with rotational control of captured image data
WO2014132680A1 (en) 2013-02-28 2014-09-04 アイシン精機株式会社 Program and device for controlling vehicle
US10676027B2 (en) 2013-02-28 2020-06-09 Aisin Seiki Kabushiki Kaisha Vehicle control apparatus and program
EP2823998B1 (en) * 2013-07-10 2017-12-27 Audi Ag Motor vehicle with a screen to display an image taken by a camera and corresponding to the periphery behind the vehicle
JP2015074436A (en) * 2013-10-11 2015-04-20 富士通株式会社 Image processing device, image processing method, and program
WO2016027689A1 (en) * 2014-08-21 2016-02-25 アイシン精機株式会社 Image display control device and image display system
JP2016043778A (en) * 2014-08-21 2016-04-04 アイシン精機株式会社 Image display control device and image display system
GB2550265A (en) * 2016-03-24 2017-11-15 Ford Global Tech Llc System and method for generating a hybrid camera view in a vehicle
US10576892B2 (en) 2016-03-24 2020-03-03 Ford Global Technologies, Llc System and method for generating a hybrid camera view in a vehicle
US10703275B2 (en) 2016-05-18 2020-07-07 Denso Ten Limited Image generation apparatus
GB2553143A (en) * 2016-08-26 2018-02-28 Jaguar Land Rover Ltd A Vehicle camera system
US20200031281A1 (en) * 2016-09-30 2020-01-30 Aisin Seiki Kabushiki Kaisha Periphery monitoring apparatus
WO2018061256A1 (en) * 2016-09-30 2018-04-05 アイシン精機株式会社 Periphery monitoring device
US10793070B2 (en) 2016-09-30 2020-10-06 Aisin Seiki Kabushiki Kaisha Periphery monitoring apparatus
JP2018056953A (en) * 2016-09-30 2018-04-05 アイシン精機株式会社 Periphery monitoring system
JP7259914B2 (en) 2017-05-11 2023-04-18 株式会社アイシン Perimeter monitoring device
JP2022009331A (en) * 2017-05-11 2022-01-14 株式会社アイシン Periphery monitoring device
WO2019093378A1 (en) * 2017-11-10 2019-05-16 株式会社デンソー Display processing device
JP2019087980A (en) * 2017-11-10 2019-06-06 株式会社デンソー Display processing device
JP7029350B2 (en) 2018-05-21 2022-03-03 アルパイン株式会社 Image processing device and image processing method
JP2019202584A (en) * 2018-05-21 2019-11-28 アルパイン株式会社 Image processing apparatus and image processing method
CN113039781A (en) * 2018-11-22 2021-06-25 索尼半导体解决方案公司 Image processing apparatus, camera system, and image processing method
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program
JP7371679B2 (en) 2019-02-18 2023-10-31 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
US20210179086A1 (en) * 2019-12-13 2021-06-17 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
US11697408B2 (en) * 2019-12-13 2023-07-11 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
WO2022091194A1 (en) * 2020-10-27 2022-05-05 三菱電機株式会社 Display control device, display system, display control method, and display control program
JP7439949B2 (en) 2020-10-27 2024-02-28 三菱電機株式会社 Display control device, display system, display control method, and display control program

Also Published As

Publication number Publication date
JP4593070B2 (en) 2010-12-08

Similar Documents

Publication Publication Date Title
JP4593070B2 (en) Image processing apparatus for vehicle
JP4364471B2 (en) Image processing apparatus for vehicle
US7212653B2 (en) Image processing system for vehicle
US8441536B2 (en) Vehicle periphery displaying apparatus
EP1355285B1 (en) Image display apparatus and method for automotive vehicle
US8754760B2 (en) Methods and apparatuses for informing an occupant of a vehicle of surroundings of the vehicle
JP5035284B2 (en) Vehicle periphery display device
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
JP2005001570A (en) Parking support device
WO2011078201A1 (en) Image processing device, image processing system, and image processing method
EP1038734A1 (en) Driving assisting device and recording medium
JP2005110202A (en) Camera apparatus and apparatus for monitoring vehicle periphery
JP4696691B2 (en) Parking support method and parking support device
CN110877572A (en) Periphery monitoring device
JP2006253872A (en) Apparatus and method for displaying vehicle perimeter image
JP2006311272A (en) Video display device for vehicle
JP2008033901A (en) Vehicle image display system
JP2019529242A (en) Method of providing rearview mirror scene around vehicle
JP2008055958A (en) Parking assist method and parking assist device
JP2003319383A (en) On-vehicle image processing apparatus
JP3876761B2 (en) Vehicle periphery monitoring device
JP2008279875A (en) Parking support device
JP2001076298A (en) On-vehicle display device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2017220876A (en) Periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080930

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081015

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20081107

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees