JP2011152865A - On-vehicle image pickup device - Google Patents

On-vehicle image pickup device Download PDF

Info

Publication number
JP2011152865A
JP2011152865A JP2010016006A JP2010016006A JP2011152865A JP 2011152865 A JP2011152865 A JP 2011152865A JP 2010016006 A JP2010016006 A JP 2010016006A JP 2010016006 A JP2010016006 A JP 2010016006A JP 2011152865 A JP2011152865 A JP 2011152865A
Authority
JP
Japan
Prior art keywords
image
vehicle
invisible
past
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010016006A
Other languages
Japanese (ja)
Inventor
Hideyuki Seto
秀行 瀬戸
Mizuki Suzumura
瑞己 鈴村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010016006A priority Critical patent/JP2011152865A/en
Publication of JP2011152865A publication Critical patent/JP2011152865A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-vehicle image pickup device which prevents an invisible area of a picked-up image from obstructing a vision auxiliary function of the on-vehicle image pickup device. <P>SOLUTION: The on-vehicle image pickup device includes: an image pickup means 1 mounted on a vehicle; a position detection means 5, which detects the position of the vehicle; a memory means 17, which associates an image obtained by the image pickup means 1 with the position information detected by the position detection means 5 to memorize them; an invisible area judgment means 13, which judges whether or not the image picked up by the image pickup means 1 has an invisible area; and an image composition means 14, which, when it is judged by the invisible area judgment means 13 that an invisible exists, extracts a past image matching the position of a vehicle detected by the position detection means 5 from the memory means 17 and combines the past image into the present image picked up by the image pickup device. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、車両に搭載された撮像手段を用いて自車両周辺を撮像する車載撮像装置に関する。   The present invention relates to an in-vehicle image pickup apparatus that picks up an image of the periphery of a host vehicle using image pickup means mounted on the vehicle.

従来から、車両に撮像手段を搭載し、撮像手段で撮像した画像を車内モニタ等に表示させて、車両走行時や駐車時において安全性や操作性を向上させるようにした車載撮像装置が実用化されている。
具体的な車載撮像装置の機能の一つとして、撮像手段で撮像したリアルタイムの実景画像を車内に表示させ、運転者の視界を補助する機能がある。さらに近年は、撮像画像を記憶手段に記憶し、この記憶画像をナビゲーション装置等で用いる技術が提案されている。
Conventionally, an in-vehicle imaging device has been put into practical use in which an imaging unit is mounted on a vehicle and an image captured by the imaging unit is displayed on an in-vehicle monitor to improve safety and operability when the vehicle is running or parked. Has been.
As one specific function of the in-vehicle imaging device, there is a function of assisting the driver's field of view by displaying a real-time actual scene image captured by the imaging means in the vehicle. Furthermore, in recent years, a technique has been proposed in which a captured image is stored in a storage unit and this stored image is used in a navigation device or the like.

例えば、特許文献1(特開2004−151063号公報)には、目的地までの経路を表示するナビゲーション機能を備えた車両で、地図情報に加えて実際に撮像した実景画像を表示する構成が開示されている。さらに、特許文献1は、撮像した画像と、位置情報や天候、時間帯からなる付加情報を関連付けて記憶し、現在位置と走行方向をもとに最も一致する画像を抽出し、この画像を経路に加えて表示する構成を備えている。   For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2004-151063) discloses a configuration in which a vehicle having a navigation function for displaying a route to a destination displays a real scene image actually captured in addition to map information. Has been. Further, Patent Document 1 stores a captured image and additional information including position information, weather, and time zone in association with each other, extracts an image that most closely matches the current position and the traveling direction, and passes this image to the route. In addition to the above, it has a configuration to display.

また、特許文献2(特開平11−304500号公報)には、走行位置に対応して画像を取り込んで記憶し、走行位置近傍の案内を行なう際に、記憶された画像を読み出して案内画面上に表示する構成が開示されている。   Further, in Patent Document 2 (Japanese Patent Laid-Open No. 11-304500), an image is captured and stored in correspondence with the travel position, and when performing guidance in the vicinity of the travel position, the stored image is read out and displayed on the guidance screen. A configuration to be displayed in the above is disclosed.

特開2004−151063号公報JP 2004-151063 A 特開平11−304500号公報JP-A-11-304500

しかしながら、撮像画像を車内にリアルタイム表示して視覚補助する従来の車載撮像装置は、夜間、あるいは撮像範囲が障害物で一部遮られる場合などのように、車両周囲の状況によって撮像画像中に不可視となってしまう領域が発生することがある。撮像画像に不可視領域が存在すると、運転の安全性向上や操作性向上という車載撮像装置の視覚補助機能を十分に発揮できないという問題があった。   However, conventional in-vehicle imaging devices that provide visual assistance by displaying captured images in the vehicle in real time are not visible in the captured images at night or when the imaging range is partially obstructed by an obstacle. There may be a region that becomes. When an invisible region exists in the captured image, there is a problem that the visual assistance function of the in-vehicle imaging device, such as improvement in driving safety and operability, cannot be sufficiently exhibited.

一方、特許文献1は、ナビゲーション機能の経路表示に加えて実景画像を表示し、運転者に対して効果的に道案内をすることを目的としており、撮像画像の不可視領域に関しては言及していない。特許文献2は、車両の位置情報にあわせて記憶された実景画像を表示させ、視覚的な情報を含む走行位置を示すものであり、特許文献1と同様に不可視領域に関しては言及がなく、これらの従来技術を用いても、撮像画像の不可視領域による問題を解消することはできなかった。   On the other hand, Patent Document 1 aims to display a real scene image in addition to the route display of the navigation function and to guide the driver effectively, and does not mention the invisible region of the captured image. . Patent Document 2 displays a real scene image stored in accordance with vehicle position information and indicates a travel position including visual information. Like Patent Document 1, there is no mention of an invisible region. Even using the conventional technology, it was impossible to solve the problem caused by the invisible region of the captured image.

そのため本発明においては、撮像画像の不可視領域により車載撮像装置の視覚補助機能が妨げられることを防止できる車載撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a vehicle-mounted imaging device that can prevent the visual assistance function of the vehicle-mounted imaging device from being hindered by an invisible region of a captured image.

上記課題を解決するため、本発明に係る車載撮像装置は、車両に搭載される撮像手段と、前記車両の位置を検出する位置検出手段と、前記撮像手段で得られた画像と前記位置検出手段で検出された位置情報とを関連づけて記憶する記憶手段と、前記撮像手段で撮像された画像に不可視領域が存在するか否かを判断する不可視領域判断手段と、前記不可視領域判断手段により前記画像に不可視領域が存在すると判断されたとき、前記位置検出手段で検出された前記車両の位置と一致する過去画像を前記記憶手段より抽出し、前記過去画像を前記撮像手段で撮像された現在画像に合成する画像合成手段とを備えることを特徴とする。   In order to solve the above-described problems, an in-vehicle imaging device according to the present invention includes an imaging unit mounted on a vehicle, a position detection unit that detects a position of the vehicle, an image obtained by the imaging unit, and the position detection unit. Storage means for associating and storing the positional information detected by the imaging means, invisible area determination means for determining whether or not an image captured by the imaging means exists, and the image by the invisible area determination means When it is determined that there is an invisible region, a past image that matches the position of the vehicle detected by the position detection unit is extracted from the storage unit, and the past image is converted into a current image captured by the imaging unit. And image synthesizing means for synthesizing.

本発明によれば、撮像画像に不可視領域が存在すると判断されたときに、現在画像の不可視領域を過去画像で補間するようにしたため、車両周囲の状況に左右されず確実に視覚補助機能を実現できる。したがって、本発明の車載撮像装置を用いることにより運転の安全性、操作性をより向上させることが可能である。なお、現在画像に合成する過去画像は、画像の一部領域であってもよい。   According to the present invention, when it is determined that an invisible area exists in the captured image, the invisible area of the current image is interpolated with the past image, so that the visual assistance function is reliably realized regardless of the situation around the vehicle. it can. Therefore, driving safety and operability can be further improved by using the in-vehicle imaging device of the present invention. Note that the past image to be combined with the current image may be a partial region of the image.

また、前記不可視領域判断手段は、前記車両に取り付けられた照度センサと、前記照度センサで検出された車両周囲の照度が、あらかじめ設定されたしきい値より低い場合に、前記不可視領域が存在すると判断する判断手段とを含むことが好ましい。
このように、照度センサを用いて夜間や悪天候等により車両周囲が暗いことを検知することで、不可視領域の有無を簡単に且つ確実に判断できる。なお、照度センサは撮像素子であってもよい。
In addition, the invisible area determination means includes the illuminance sensor attached to the vehicle and the invisible area when the illuminance around the vehicle detected by the illuminance sensor is lower than a preset threshold value. It is preferable that a determination means for determining is included.
As described above, the presence or absence of the invisible region can be easily and reliably determined by detecting that the surroundings of the vehicle are dark due to nighttime or bad weather using the illuminance sensor. The illuminance sensor may be an image sensor.

また、前記不可視領域判断手段は、前記過去画像からあらかじめ設定された補間対象を抽出し、前記現在画像と前記過去画像の前記補間対象との差分に基づいて前記不可視領域が存在するか否かを判断する判断手段を含むことが好ましい。
このように、過去画像と現在画像とを比較することにより、特に障害物の存在により不可視領域が存在する場合に、不可視領域の有無を正確に判断することが可能となる。
Further, the invisible area determination means extracts a preset interpolation target from the past image, and determines whether or not the invisible area exists based on a difference between the current image and the interpolation target of the past image. It is preferable to include a judging means for judging.
Thus, by comparing the past image with the current image, it is possible to accurately determine the presence or absence of an invisible region, particularly when an invisible region exists due to the presence of an obstacle.

さらに、前記現在画像に合成する前記過去画像が、標識、白線、ガードレール、及び駐車場内固定設置物のうち少なくともいずれかであることが好ましい。
標識、白線、ガードレール、及び駐車場内固定設置物は、車両走行時または駐車時において確実に認識する必要がある。本構成では、これらが撮像画像中で不可視のときに、過去画像からこれらを抽出して現在画像に合成することで、使用者がこれらを確実に認識でき、運転の安全性を高めることが可能となる。
Furthermore, it is preferable that the past image to be combined with the current image is at least one of a sign, a white line, a guardrail, and a fixed installation in a parking lot.
Signs, white lines, guardrails, and fixed installations in parking lots must be reliably recognized when the vehicle is running or parked. In this configuration, when these are invisible in the captured image, they are extracted from the past image and combined with the current image, so that the user can recognize them reliably and improve driving safety. It becomes.

また、前記過去画像と前記位置情報とが関連付けられて蓄積されたデータベースと通信する通信手段をさらに備え、前記通信手段により前記車両の位置に対応した前記過去画像を前記位置情報とともに前記データベースから取得することが好ましい。
これにより、自車が走行していない場所であっても、過去画像を取得することができるようになる。
The apparatus further includes a communication unit that communicates with a database in which the past image and the position information are associated and stored, and the communication unit acquires the past image corresponding to the position of the vehicle from the database together with the position information. It is preferable to do.
Thereby, it becomes possible to acquire a past image even in a place where the vehicle is not traveling.

さらにまた、前記画像合成手段で合成された補間画像を表示する表示手段をさらに備えることが好ましく、これにより車内の使用者が補間画像を簡単に確認することが可能となる。   Furthermore, it is preferable to further include display means for displaying the interpolated image synthesized by the image synthesizing means, so that the user in the vehicle can easily confirm the interpolated image.

本発明によれば、撮像画像に不可視領域が存在すると判断されたときに、現在画像の不可視領域を過去画像で補間するようにしたため、車両周囲の状況に左右されず確実に視覚補助機能を実現できる。したがって、本発明の車載撮像装置を用いることにより運転の安全性、操作性をより向上させることが可能である。   According to the present invention, when it is determined that an invisible area exists in the captured image, the invisible area of the current image is interpolated with the past image, so that the visual assistance function is reliably realized regardless of the situation around the vehicle. it can. Therefore, driving safety and operability can be further improved by using the in-vehicle imaging device of the present invention.

本発明の実施形態に係る車載撮像装置の全体構成図である。1 is an overall configuration diagram of an in-vehicle imaging device according to an embodiment of the present invention. 本発明の実施形態に係る車載撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle-mounted imaging device which concerns on embodiment of this invention. 画像の補間処理を示すフローチャートである。It is a flowchart which shows the interpolation process of an image. 昼間に撮像された過去画像の一例を示す図である。It is a figure which shows an example of the past image imaged in the daytime. 夜間に撮像された現在画像の一例を示す図である。It is a figure which shows an example of the present image imaged at night. 補間画像の一例を示す図である。It is a figure which shows an example of an interpolation image. 画像の記録処理を示すフローチャートである。It is a flowchart which shows the recording process of an image. 画像記録情報のデータベーステーブルを示す図である。It is a figure which shows the database table of image recording information. 本実施形態の変形例に係る車載撮像装置の全体構成図である。It is a whole block diagram of the vehicle-mounted imaging device which concerns on the modification of this embodiment. 本実施形態の変形例に係る車載撮像装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle-mounted imaging device which concerns on the modification of this embodiment.

以下、図面を参照して本発明の好適な実施例を例示的に詳しく説明する。但しこの実例に記載されている構成部品の形状等は、この発明の範囲をそれに限定する趣旨ではなく、単なる説明例に過ぎない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the shape of the component described in this example is not intended to limit the scope of the present invention, but is merely an illustrative example.

図1は本発明の実施形態に係る車載撮像装置の全体構成図である。
車載撮像装置は、主に、撮像手段であるカメラモジュール1と、車両の位置を検出する位置検出装置5と、記憶手段17、及び記録処理手段12や不可視領域判断手段13や画像合成手段14を含む演算手段11を有する処理装置10とを備える。さらに好適には、入力装置21や表示装置22を備える。
FIG. 1 is an overall configuration diagram of an in-vehicle imaging device according to an embodiment of the present invention.
The in-vehicle imaging device mainly includes a camera module 1 that is an imaging unit, a position detection device 5 that detects the position of the vehicle, a storage unit 17, a recording processing unit 12, an invisible region determination unit 13, and an image synthesis unit 14. And a processing apparatus 10 having a calculation means 11 including the same. More preferably, an input device 21 and a display device 22 are provided.

カメラモジュール1は、車両に搭載され車両周囲を撮像する。カメラモジュール1の撮像範囲は特に限定されないが、カメラモジュール1には、例えば、車両前方を撮像するフロントビューカメラ、車両後方を撮像するリアビューカメラ等が用いられる。具体的にカメラモジュール1はレンズ2と撮像素子3と駆動手段4を含む。レンズ2は、好適には魚眼レンズが用いられる。駆動手段4は、レンズ2等のカメラモジュール1を構成する機器を駆動するものである。なお、カメラモジュール1で撮像する画像は、静止画であっても動画であってもよい。   The camera module 1 is mounted on a vehicle and images the surroundings of the vehicle. The imaging range of the camera module 1 is not particularly limited. For the camera module 1, for example, a front view camera that images the front of the vehicle, a rear view camera that images the rear of the vehicle, and the like are used. Specifically, the camera module 1 includes a lens 2, an image sensor 3, and driving means 4. The lens 2 is preferably a fish-eye lens. The driving unit 4 drives devices constituting the camera module 1 such as the lens 2. The image captured by the camera module 1 may be a still image or a moving image.

位置検出装置5は、車両の現在位置を検出する。位置検出装置5は、例えば、GPS受信機を有してGPSシステムにより測位情報を取得する装置、またはジャイロセンサや加速度センサ等を有して自律航法システムにより車両の現在位置を検出する装置、またはGPSシステムと自律航法システムの両方を用いて車両の現在位置を検出する装置などが用いられる。   The position detection device 5 detects the current position of the vehicle. The position detection device 5 is, for example, a device that has a GPS receiver and acquires positioning information by a GPS system, a device that has a gyro sensor, an acceleration sensor, or the like and detects the current position of the vehicle by an autonomous navigation system, or A device that detects the current position of a vehicle using both a GPS system and an autonomous navigation system is used.

処理装置10は、車両に搭載され、MPUやCPU等のハードウェアを含む演算手段11と、撮像画像等を記憶する記憶手段17とを有する。演算手段11は、機能的に、記録処理手段12と、不可視領域判断手段13と、画像合成手段14とを含み、これらの各手段を実現するソフトウェアのプログラムを不図示のプログラムメモリより読み出し実行することによって演算手段11の各手段が実現されるようになっている。
この処理装置10には、カメラモジュール1で撮像された撮像画像が入力される。
The processing device 10 is mounted on a vehicle and includes a calculation unit 11 including hardware such as an MPU and a CPU, and a storage unit 17 that stores captured images and the like. The calculation means 11 functionally includes a recording processing means 12, an invisible area determination means 13, and an image composition means 14, and reads out and executes a software program for realizing each of these means from a program memory (not shown). Thereby, each means of the calculation means 11 is implement | achieved.
A captured image captured by the camera module 1 is input to the processing device 10.

記録処理手段12は、カメラモジュール1で撮像された撮像画像を、位置検出装置5で検出された車両の位置情報と関連付けて記憶手段17に記憶する記録処理を行う。さらに、撮像画像には、位置情報以外の付帯情報、例えば撮像日時や天候や季節等の情報を撮像画像に関連付けて記憶してもよい。   The recording processing unit 12 performs a recording process in which the captured image captured by the camera module 1 is stored in the storage unit 17 in association with the vehicle position information detected by the position detection device 5. Further, in the captured image, incidental information other than the position information, for example, information such as imaging date and time, weather, season, etc. may be stored in association with the captured image.

不可視領域判断手段13は、カメラモジュール1で撮像された現在の車両周囲の撮像画像(以下、現在画像と称する)に、不可視領域が存在するか否かを判断する。不可視領域とは、夜間等で車両周囲が暗く画像が鮮明でない領域、障害物により画像に現れない領域等のように、撮像範囲であるにも関わらず何からの理由により撮像画像に映し出されない領域をいう。   The invisible area determination unit 13 determines whether or not an invisible area exists in a captured image around the current vehicle (hereinafter referred to as a current image) captured by the camera module 1. An invisible area is not captured in the captured image for whatever reason, such as an area where the surroundings of the vehicle are dark and the image is not clear at night, or an area that does not appear in the image due to an obstacle. An area.

好ましくは、不可視領域判断手段13は、車両に取り付けられた照度センサ(図示略)と、照度センサで検出された車両周囲の照度があらかじめ設定されたしきい値より低い場合に、不可視領域が存在すると判断する判断手段(図示略)とを含む構成とする。なお、照度センサは、車両のライトの照明範囲とは異なる位置に設置する。また、照度センサは撮像素子であってもよい。
このように、照度センサを用いて夜間や悪天候等により車両周囲が暗いことを検知することで、不可視領域の有無を簡単に且つ確実に判断できる。
Preferably, the invisible area determination means 13 includes an illuminance sensor (not shown) attached to the vehicle and an invisible area when the illuminance around the vehicle detected by the illuminance sensor is lower than a preset threshold value. Then, it is configured to include determination means (not shown) for determining. The illuminance sensor is installed at a position different from the illumination range of the vehicle light. The illuminance sensor may be an image sensor.
As described above, the presence or absence of the invisible region can be easily and reliably determined by detecting that the surroundings of the vehicle are dark due to nighttime or bad weather using the illuminance sensor.

また、不可視領域判断手段13は、過去画像からあらかじめ設定された補間対象を抽出し、現在画像と過去画像の補間対象との差分から不可視領域の有無を判断する判断手段(図示略)を含む構成としてもよい。
あらかじめ設定された補間対象とは、標識、白線、ガードレール、及び駐車場内固定設置物のうち少なくともいずれかであることが好ましい。標識、白線、ガードレール、及び駐車場内固定設置物は、車両走行時または駐車時において確実に認識する必要がある。本構成では、これらが撮像画像中で不可視のときに、過去画像からこれらを抽出して現在画像に合成することで、使用者がこれらを確実に認識でき、運転の安全性を高めることが可能となる。
The invisible region determination unit 13 includes a determination unit (not shown) that extracts a preset interpolation target from the past image and determines the presence or absence of the invisible region from the difference between the current image and the interpolation target of the past image. It is good.
The preset interpolation target is preferably at least one of a sign, a white line, a guardrail, and a fixed installation in the parking lot. Signs, white lines, guardrails, and fixed installations in parking lots must be reliably recognized when the vehicle is running or parked. In this configuration, when these are invisible in the captured image, they are extracted from the past image and combined with the current image, so that the user can recognize them reliably and improve driving safety. It becomes.

標識、白線に関しては、幅や長さ、色などが定められているため、その特徴に基づいて過去画像から抽出することができる。ガードレールや駐車場内固定設置物に関しては、あらかじめこれらの形状等の特徴を設置位置情報とともに登録しておき、設置位置情報と一致する過去画像からその特徴に基づいて抽出することが好ましい。このように、過去画像と現在画像とを比較することにより、特に障害物の存在により不可視領域が存在する場合に、不可視領域の有無を正確に判断することが可能となる。   Since the signs, white lines, width, length, color, etc. are determined, they can be extracted from past images based on their characteristics. Regarding the guardrail and the fixed installation in the parking lot, it is preferable that features such as these shapes are registered in advance together with the installation position information, and extracted from the past image matching the installation position information based on the features. Thus, by comparing the past image with the current image, it is possible to accurately determine the presence or absence of an invisible region, particularly when an invisible region exists due to the presence of an obstacle.

画像合成手段14は、現在画像の不可視領域に過去画像を合成して現在画像を補間する処理を行う。
上記した不可視領域判断手段13と画像合成手段14とにより実行される補間処理フローについては後述する。
記憶手段17は、撮像画像と位置情報とが関連付けられた画像記録情報を記憶する。なお、記憶手段17に記憶された撮像画像を過去画像と称する。
The image synthesizing unit 14 performs a process of synthesizing the past image on the invisible region of the current image and interpolating the current image.
The interpolation processing flow executed by the invisible area determination unit 13 and the image composition unit 14 will be described later.
The storage unit 17 stores image recording information in which a captured image and position information are associated with each other. The captured image stored in the storage unit 17 is referred to as a past image.

さらに、車載撮像装置は、入力装置21を有していてもよい。入力装置21は、タッチパネルを含むキー入力や音声入力等により処理装置10に指令を入力するものである。
さらにまた、車載撮像装置は、表示装置22を有していることが好ましい。表示装置22は、車内に設置されたモニタ等が挙げられる。
Furthermore, the vehicle-mounted imaging device may have an input device 21. The input device 21 inputs a command to the processing device 10 by key input including a touch panel or voice input.
Furthermore, it is preferable that the vehicle-mounted imaging device has a display device 22. Examples of the display device 22 include a monitor installed in the vehicle.

次に、図2のフローチャートを参照して、本実施形態に係る車載撮像装置の動作を説明する。
車両が走行開始したら(S1)、カメラモジュール1で車両周囲を撮像する(S2)。処理装置10で、記録処理及び補間処理の要否を判断し(S3)、いずれの処理も否であるときは、撮像した現在画像をそのまま表示装置22に表示する(S4)。
記録処理が要であるときは、画像の記録処理を実行する(S5)。この記録処理フローについては、図7を参照して詳述する。
Next, the operation of the in-vehicle imaging device according to the present embodiment will be described with reference to the flowchart of FIG.
When the vehicle starts running (S1), the camera module 1 captures an image of the surroundings of the vehicle (S2). The processing device 10 determines whether or not the recording processing and the interpolation processing are necessary (S3). If neither processing is necessary, the captured current image is displayed as it is on the display device 22 (S4).
When the recording process is necessary, the image recording process is executed (S5). This recording processing flow will be described in detail with reference to FIG.

一方、補間処理が要であるときは、不可視領域判断手段13で現在画像に不可視領域が存在するか否かを判断する(S6)。不可視領域が存在しないと判断された場合には、現在画像では補間処理を実施せず現在画像を表示装置22にそのまま表示し、現在以降の撮像画像で再度不可視領域の存在の有無を判断する。不可視領域が存在すると判断された場合には、記憶手段17に記憶された過去画像を現在画像に合成して不可視領域が補間された補間画像を作成し(S7)、表示装置22に補間画像を表示する(S8)。
そして、走行が終了したか否かを判断し(S9)、終了したら処理フローを停止する。終了していない場合には、(S2)以降のステップを繰り返し行う。
なお、上記した記録処理及び補間処理の判断は、例えば、カメラモジュール1や処理装置10等に電源を供給する電源装置のON/OFFに連動させて、電源装置がONにされたら少なくともいずれかの処理を実行するようにし、OFFにされたら処理を終了するようにしてもよいし、それぞれ別個にON/OFF回路を設けて、入力装置21により使用者がON/OFFを選択できるようにしてもよい。また、このON/OFFに応じて、記録処理と補間処理は、いずれか一方の処理のみを実行してもよいし、両方の処理を並行に実行してもよい。好適な処理フローとしては、電源装置がONにされたら処理装置10で補間処理要と判断して補間処理を実行し、不可視領域判断手段13で不可視領域が存在しないと判断されたときに処理装置10で記録処理要と判断し、記録処理フローを実行する。
On the other hand, when the interpolation process is necessary, the invisible area determination means 13 determines whether or not an invisible area exists in the current image (S6). If it is determined that there is no invisible area, the current image is displayed as it is on the display device 22 without performing interpolation processing on the current image, and the presence / absence of the invisible area is determined again from the current captured image. If it is determined that an invisible region exists, the past image stored in the storage unit 17 is combined with the current image to create an interpolated image in which the invisible region is interpolated (S7), and the interpolated image is displayed on the display device 22. Display (S8).
Then, it is determined whether or not the traveling is finished (S9), and when finished, the processing flow is stopped. If not completed, the steps after (S2) are repeated.
Note that the determination of the recording process and the interpolation process described above is performed in conjunction with, for example, ON / OFF of a power supply device that supplies power to the camera module 1, the processing device 10, or the like. The processing may be executed, and the processing may be terminated when the processing is turned off, or an ON / OFF circuit may be provided separately so that the user can select ON / OFF using the input device 21. Good. Further, according to the ON / OFF, only one of the recording process and the interpolation process may be executed, or both processes may be executed in parallel. As a suitable processing flow, when the power supply device is turned on, the processing device 10 determines that the interpolation processing is necessary and executes the interpolation processing. When the invisible region determination means 13 determines that there is no invisible region, the processing device 10 determines that the recording process is necessary and executes the recording process flow.

このように本実施形態によれば、撮像画像に不可視領域が存在すると判断されたときに、現在画像の不可視領域を過去画像で補間するようにしたため、車両周囲の状況に左右されず確実に視覚補助機能を実現できる。したがって、本実施形態の車載撮像装置を用いることにより運転の安全性、操作性をより向上させることが可能である。   As described above, according to the present embodiment, when it is determined that there is an invisible area in the captured image, the invisible area of the current image is interpolated with the past image, so that the visual image can be reliably viewed regardless of the situation around the vehicle. Auxiliary functions can be realized. Therefore, driving safety and operability can be further improved by using the in-vehicle imaging device of the present embodiment.

ここで、図3を参照して、補間処理フローを詳細に説明する。
補間処理が要であるとき、位置検出装置5で車両の位置情報を取得し、車両の現在位置と同位置の過去画像を記憶手段17から選択する(S11)。一例として、昼間に撮像され記憶手段17に記憶された過去画像50Aを図4に示し、夜間に撮像されたリアルタイムの現在画像50Bを図5に示す。過去画像50Aには道路51と、側線52や中央線53や規制標示54等の白線と、標識55、56とが明瞭に映し出されているが、現在画像50Bにはヘッドライトによる照明領域60以外は暗く、不可視領域61が存在する。
Here, the interpolation processing flow will be described in detail with reference to FIG.
When the interpolation process is necessary, the position information of the vehicle is acquired by the position detection device 5, and a past image at the same position as the current position of the vehicle is selected from the storage means 17 (S11). As an example, FIG. 4 shows a past image 50A captured in the daytime and stored in the storage means 17, and FIG. 5 shows a real-time current image 50B captured in the nighttime. The past image 50A clearly shows the road 51, the white lines such as the side line 52, the center line 53, the regulatory sign 54, and the signs 55 and 56, but the current image 50B is other than the illumination area 60 by the headlight. Is dark and there is an invisible region 61.

過去画像から、あらかじめ設定された補間対象部分を抽出し、補間対象の画像情報として保存する(S12)。補間対象をどの物体にするかは、入力装置21により事前に処理装置10に設定されている。ここでは一例として、補間対象を白線と標識と駐車場内固定設置物(以下、設置物と略称する)に設定し、白線の画像情報をA1、標識の画像情報をB1、設置物の画像情報をC1とする。   A preset interpolation target portion is extracted from the past image and stored as interpolation target image information (S12). The object to be interpolated is set in the processing apparatus 10 by the input device 21 in advance. Here, as an example, the interpolation target is set to a white line, a sign, and a fixed installation in the parking lot (hereinafter abbreviated as an installation), the image information of the white line is A1, the image information of the sign is B1, and the image information of the installation is Let C1.

現在画像と補間対象の画像情報A1、B1、C1との差分を演算し、白線、標識、設置物の中で現在画像に表示されていない部分、すなわち現在画像に補間すべき画像情報を抽出する(S13)。白線の画像情報A1のうち補間すべき画像情報をA2、標識の画像情報B1のうち補間すべき画像情報をB2、設置物の画像情報C1のうち補間すべき画像情報をC2とする。   The difference between the current image and the image information A1, B1, and C1 to be interpolated is calculated, and the portion of the white line, sign, and installation that is not displayed in the current image, that is, the image information to be interpolated in the current image is extracted. (S13). The image information to be interpolated among the white line image information A1 is A2, the image information to be interpolated among the sign image information B1 is B2, and the image information to be interpolated among the image information C1 of the installation is C2.

そして、標識の補間画像情報B2を現在画像に合成し、標識を補間する(S14)。さらに、照度センサにより車両周囲の照度を検出し、照度があらかじめ設定されたしきい値より低いか否かを判断し(S15)、照度がしきい値以上の場合は、標識のみが補間された補間画像を表示装置22に表示する(S19)。照度がしきい値より低い場合は、白線の補間画像情報A2を現在画像に合成し、現在画像に白線を補間する(S16)。標識55、56と白線52、53、54が補間された補間画像50Cを図6に示す。   Then, the interpolated image information B2 of the sign is synthesized with the current image, and the sign is interpolated (S14). Further, the illuminance sensor detects the illuminance around the vehicle and determines whether the illuminance is lower than a preset threshold value (S15). If the illuminance is equal to or greater than the threshold value, only the sign is interpolated. The interpolated image is displayed on the display device 22 (S19). If the illuminance is lower than the threshold, the white line interpolation image information A2 is combined with the current image, and the white line is interpolated into the current image (S16). FIG. 6 shows an interpolated image 50C in which the signs 55 and 56 and the white lines 52, 53 and 54 are interpolated.

駐車時の場合には、バック駐車か否かを判断し(S17)、バック駐車ではない場合には標識と白線のみが補間された補間画像を表示装置22に表示する(S19)。バック駐車である場合には、設置物の補間画像情報C2を現在画像に合成し、現在画像に設置物を補間(S18)した後、標識と白線と設置物が補間された現在画像を表示装置22に表示する(S19)。なお、バック駐車か否かの判断は、車両のシフト操作手段によりシフトレンジを検出し、後進モードに設定されているときにバック駐車中と判断してもよいし、自律航法機能を備えている場合には車両の進行方向を検出してバック駐車中と判断してもよい。
その後、電源がOFFか否かを検知し(S20)、OFFである場合には処理を終了し、ONである場合には(S11)以降のステップを繰り返し行う。
If the vehicle is parked, it is determined whether or not the vehicle is back parked (S17). If the vehicle is not back parked, an interpolated image obtained by interpolating only the sign and the white line is displayed on the display device 22 (S19). In the case of back parking, the interpolation image information C2 of the installation object is combined with the current image, the installation object is interpolated into the current image (S18), and then the current image in which the sign, the white line, and the installation object are interpolated is displayed 22 (S19). The determination as to whether or not the vehicle is back parked may be made by detecting the shift range by the shift operation means of the vehicle and determining that the vehicle is back parked when the reverse mode is set, or has an autonomous navigation function. In this case, the traveling direction of the vehicle may be detected and it may be determined that the vehicle is back parked.
Thereafter, it is detected whether or not the power is OFF (S20). If it is OFF, the process is terminated, and if it is ON, the steps after (S11) are repeated.

上記した補間処理フローは一例であり、標識については、過去画像から抽出した標識の画像情報と現在画像とを比較し、標識が現在画像に表示されていない場合に無条件で補間されるようにしている。一方、白線については、白線が現在画像に表示されておらず、且つ照度がしきい値より低い場合に補間されるようにしている。これは、車両周囲が明るい場合には、白線が表示されなくても道路の道幅や他車両等の他の指標により安全に運転可能なためである。また、駐車場内固定設置物は、バック駐車中であるときにのみ補間することにより、安全な駐車操作が可能となる。
このように、不可視領域判断手段13を複数組み合わせてもよいし、不可視領域判断手段13と現在画像に合成する補間対象とを適宜組み合わせ、必要とされる補間対象のみを合成する構成としてもよく、これにより補間対象の全てを合成処理する場合に比べて処理時間の短縮化が図れる。
The above-described interpolation processing flow is an example. For the sign, the sign image information extracted from the past image is compared with the current image so that the sign is unconditionally interpolated when the sign is not displayed in the current image. ing. On the other hand, the white line is interpolated when the white line is not currently displayed in the image and the illuminance is lower than the threshold value. This is because when the surroundings of the vehicle are bright, it is possible to drive safely with other indicators such as the road width and other vehicles even if the white line is not displayed. In addition, the fixed installation in the parking lot can be safely parked by interpolating only when the back parking is being performed.
In this way, a plurality of invisible area determination means 13 may be combined, or the invisible area determination means 13 and an interpolation target to be combined with the current image may be appropriately combined, and only a necessary interpolation target may be combined. As a result, the processing time can be shortened compared to the case where all of the interpolation targets are combined.

さらに、過去画像から動的物体をフィルタリングにより除去した後に、過去画像を記憶手段17に記憶することが好ましい。
撮像画像から動的物体を検知する方法の一例を示す。まず、2枚のキャプチャ画像を合成演算し、その差分の絶対値を検出用の画像とする。この時点で同じ絵柄は打ち消しあって黒のビットになり、異なる絵柄だけが値をもって浮き出る。差分画像は、ピクセルごとに256階調×RGB3色分の明度(RGBそれぞれが0の黒から255の白まで)を持っている。差分画像のヒストグラムテーブルの判定用明度、すなわち、しきい値以上のビットを色毎にカウントすることで動的物体を検出できる。
光源や草木の動き、ノイズなどは、しきい値及び感度調整で最適化し、除外してもよい。
Furthermore, it is preferable to store the past image in the storage unit 17 after removing the dynamic object from the past image by filtering.
An example of a method for detecting a dynamic object from a captured image is shown. First, the two capture images are combined and the absolute value of the difference is used as a detection image. At this point, the same design cancels out to become a black bit, and only the different design emerges with a value. The difference image has lightness of 256 gradations × RGB 3 colors for each pixel (from black of 0 to white of RGB for each of RGB). The dynamic object can be detected by counting the lightness for determination in the histogram table of the difference image, that is, the bit more than the threshold value for each color.
Light source, vegetation movement, noise, etc. may be optimized and excluded by adjusting the threshold and sensitivity.

また、隣接画素同士で極端に色の違いが見られる画素を検出することによって物体の存在を検知し、動的物体検知の精度を高めることができる。
自車両が走行している場合、連続で撮像した静止画の集まりとなるため、1/200秒程度のフレームレートで撮影したほぼ同一位置の画像が取得できる。さらに、後述するようにネットワークを介して過去画像を共有する場合には、同一ルートを走行した他車両の撮像画像から、人間や落ち葉、走行中の車両など動的物体の状況のみ異なる同じ場所の風景が像を多数取得でき、それらを使用することによって動的物体の検出精度をさらに高めることができる。
Further, the presence of an object can be detected by detecting a pixel in which a color difference is extremely seen between adjacent pixels, and the accuracy of dynamic object detection can be improved.
When the host vehicle is traveling, it is a collection of still images taken continuously, so that images at substantially the same position taken at a frame rate of about 1/200 second can be acquired. Furthermore, when sharing past images via a network as will be described later, from the captured images of other vehicles that have traveled on the same route, the same place that differs only in the situation of dynamic objects such as humans, fallen leaves, and traveling vehicles. A large number of images of a landscape can be acquired, and the detection accuracy of a dynamic object can be further increased by using them.

さらにまた、過去画像を現在画像に合成する際に、過去画像と現在画像の可視領域とをマッチングして画像の位置合わせをする補正処理を行なうことが好ましい。
これにより、過去画像と現在画像とを精度良く合成することが可能となる。
Furthermore, when the past image is combined with the current image, it is preferable to perform a correction process for matching the past image and the visible region of the current image to align the images.
Thereby, it becomes possible to synthesize the past image and the current image with high accuracy.

図7を参照して、記録処理フローを詳細に説明する。ここでは一例として、位置検出装置5がGPS受信機と自律航法機器とを有しているものとする。
記録処理が要であるとき、GPS受信機により測位情報を受信開始する(S21)。このとき、GPS受信機がGPS衛星からの電波を受信可能か否かを判断し(S22)、受信可能である場合には自車両の測位情報を受信する(S23)。一方、車両がトンネルや地下、電波をさえぎる高層ビルの間等に位置し、GPS衛星からの電波を受信できない場合には、車両に取り付けられた自律航法機器により車両の位置情報を取得する。これは、加速度センサで車両の加速度情報を入手し(S24)、磁気センサで車両の方位情報を入手し(S25)、傾斜センサで傾斜情報を入手し(S26)、ジャイロセンサで角速度情報を入手し(S27)、前回受信したGPSによる測位情報に、各センサで入手した車両情報から演算された車両移動方向、距離を加算して現在の車両位置を算出する。なお、上記した自律航法機器は一例であり、車両の移動方向、距離を取得可能な機器が備わっていればどのような機器構成であってもよい。
The recording process flow will be described in detail with reference to FIG. Here, as an example, it is assumed that the position detection device 5 includes a GPS receiver and an autonomous navigation device.
When the recording process is necessary, the GPS receiver starts receiving positioning information (S21). At this time, the GPS receiver determines whether or not the radio wave from the GPS satellite can be received (S22). If the GPS receiver can receive the radio wave, positioning information of the host vehicle is received (S23). On the other hand, if the vehicle is located in a tunnel, underground, or between high-rise buildings that block radio waves and cannot receive radio waves from GPS satellites, vehicle position information is acquired by an autonomous navigation device attached to the vehicle. The acceleration information of the vehicle is obtained by the acceleration sensor (S24), the direction information of the vehicle is obtained by the magnetic sensor (S25), the inclination information is obtained by the inclination sensor (S26), and the angular velocity information is obtained by the gyro sensor. Then (S27), the current vehicle position is calculated by adding the vehicle movement direction and distance calculated from the vehicle information obtained by each sensor to the previously received GPS positioning information. Note that the above-described autonomous navigation device is an example, and any device configuration may be used as long as a device that can acquire the moving direction and distance of the vehicle is provided.

このようにして車両の位置情報が検出されたら、車両に記憶されている現在の位置情報を更新し(S28)、撮像画像に位置情報を関連付けて記憶手段17に記憶する(S29)。
その後、電源がOFFか否かを検知し(S30)、OFFである場合には処理を終了し、ONである場合には(S22)以降のステップを繰り返し行う。
When the vehicle position information is detected in this way, the current position information stored in the vehicle is updated (S28), and the position information is associated with the captured image and stored in the storage means 17 (S29).
Thereafter, it is detected whether or not the power is OFF (S30). If it is OFF, the process is terminated, and if it is ON (S22), the subsequent steps are repeated.

なお、上記したGPSを用いた測位方式は、GPS受信機と4つのGPS衛星を用いた単独測位方式と、GPS受信機と4つのGPS衛星を用いて得られた測位情報に対して、基準点との相対測位により誤差を修正し精度を向上させるようにした相対測位方式とがあり、いずれを用いるか特に限定されるものではないが、本実施形態では相対測位方式を用いることがより好ましい。   Note that the positioning method using the GPS described above is based on a single positioning method using a GPS receiver and four GPS satellites, and positioning information obtained using the GPS receiver and four GPS satellites. There is a relative positioning method in which the error is corrected by relative positioning and the accuracy is improved, and there is no particular limitation on which one is used, but in this embodiment, it is more preferable to use the relative positioning method.

相対測位方式には、D−GPSとRTK−GPSがある。D−GPSは、GPS衛星から送られてくるコード情報を解析し、衛星が電波を発した時刻と受信機が電波を受信した時刻から衛星と受信機の距離を求め、加えて4つの衛星の位置関係から受信機の位置を取得する。さらに、定点に設置された基準局の位置情報と、GPSによる基準局の測位情報とから求められた誤差に基づいて車両の測位情報を補正する。RTK−GPSは、D−GPSと同様に誤差を求め、誤差を用いて車両の測位情報を補正するものであるが、これは衛星までの距離を測る際にコード情報ではなく搬送波の数及び位相を用いており、より精度が高い。
さらに、インターネットを伝送路としてGPS補正を行なうインターネットGPSを用いるようにしてもよい。
これらの測位方式を用いることで、精度の高い位置情報を取得することが可能となる。
Relative positioning methods include D-GPS and RTK-GPS. D-GPS analyzes the code information sent from GPS satellites, finds the distance between the satellite and the receiver from the time when the satellite emits the radio wave and the time when the receiver receives the radio wave. The position of the receiver is acquired from the positional relationship. Further, the positioning information of the vehicle is corrected based on the error obtained from the position information of the reference station installed at the fixed point and the positioning information of the reference station by GPS. RTK-GPS calculates the error in the same way as D-GPS, and corrects the positioning information of the vehicle using the error. This is not the code information but the number and phase of the carrier when measuring the distance to the satellite. The accuracy is higher.
Further, an Internet GPS that performs GPS correction using the Internet as a transmission path may be used.
By using these positioning methods, it is possible to acquire position information with high accuracy.

また、記録処理において、位置情報の他に撮像日時や天気や季節等の付帯情報を撮像画像に関連付けて記憶手段17に記憶することが好ましい。図8は、画像記録情報のデータベーステーブルの一例を示す図である。撮像画像に画像識別番号を付与するとともに、撮像画像に対応した撮像画像の緯度、経度からなる位置情報と、撮像した日時と、天気とが、それぞれ画像識別番号ごとに記憶された画像記録情報のデータベーステーブルを作成する。そして、補間処理を行う際に、日時や天気等の付帯情報に基づいて適切な過去画像を選択し、選択された過去画像により現在画像を補間する。例えば、夜間に撮像された過去画像は標識や白線等が明瞭でない可能性があるため、これと同位置で昼間に撮像された過去画像を選択する。   Further, in the recording process, it is preferable to store incidental information such as imaging date / time, weather, season, etc. in addition to the position information in the storage unit 17 in association with the captured image. FIG. 8 is a diagram illustrating an example of a database table of image recording information. The image identification number is assigned to the captured image, and the position information including the latitude and longitude of the captured image corresponding to the captured image, the date and time of image capture, and the weather are stored in the image recording information stored for each image identification number. Create a database table. When performing the interpolation process, an appropriate past image is selected based on incidental information such as date and weather, and the current image is interpolated by the selected past image. For example, since a past image captured at night may not have clear signs or white lines, a past image captured at daytime at the same position is selected.

次に、図9及び図10を参照して、本実施形態の変形例につき説明する。この変形例は、ネットワークを介して他車両と過去画像を共有する構成となっている。なお、図1乃至図8に示した実施形態と同様の構成についてはその詳細な説明を省略する。   Next, a modification of the present embodiment will be described with reference to FIGS. This modification is configured to share past images with other vehicles via a network. Detailed descriptions of the same configurations as those of the embodiment shown in FIGS. 1 to 8 are omitted.

図9は本実施形態の変形例に係る車載撮像装置の全体構成図である。
車載撮像装置は、主に、カメラモジュール1と、位置検出装置であるGPS受信機5aと、記憶手段17、及び記録処理手段12や不可視領域判断手段13や画像合成手段14を含む演算手段11を有する処理装置10と、ネットワーク40に接続する通信手段18とを備える。さらに好適には、入力装置21や表示装置22を備える。なお、ここでは一例として位置検出装置としてGPS受信機5aを用いており、さらに目的地までの経路を検索、表示するナビゲーション手段19を有する場合を示している。
この車載撮像装置は、ネットワーク40を介して管理用サーバ30に接続可能となっている。
FIG. 9 is an overall configuration diagram of an in-vehicle imaging device according to a modification of the present embodiment.
The in-vehicle imaging device mainly includes a camera module 1, a GPS receiver 5 a that is a position detection device, a storage unit 17, a recording processing unit 12, an invisible region determining unit 13, and an image synthesizing unit 14. And a processing unit 10 connected to a network 40. More preferably, an input device 21 and a display device 22 are provided. Here, as an example, a GPS receiver 5a is used as a position detection device, and a case in which navigation means 19 for searching and displaying a route to a destination is further shown is shown.
This in-vehicle imaging device can be connected to the management server 30 via the network 40.

管理用サーバ30は、主として、ネットワーク40に接続する通信装置31と、各種演算処理を行う管理用処理装置32と、データベース33とを備える。
管理用サーバ30は、通信装置31によりネットワーク40を介して車載撮像装置から過去画像と位置情報とが関連付けられた画像記録情報を受信し、データベース33に蓄積する。データベース33には、例えば上記した図8に示すデータベーステーブルが登録されている。また、管理用サーバ30は、他車両35、36からも同様に画像記録情報を受信し、データベース33に蓄積する。
The management server 30 mainly includes a communication device 31 connected to the network 40, a management processing device 32 that performs various arithmetic processes, and a database 33.
The management server 30 receives the image recording information in which the past image and the positional information are associated with each other from the in-vehicle imaging device via the network 40 by the communication device 31 and accumulates the image recording information in the database 33. For example, the database table shown in FIG. 8 is registered in the database 33. Further, the management server 30 similarly receives the image recording information from the other vehicles 35 and 36 and accumulates it in the database 33.

図10は、本実施形態の変形例に係る車載撮像装置の動作を示すフローチャートである。
まず、入力装置21により目的地が入力されたらGPS受信機5aで現在位置を取得し、ナビゲーション手段19により現在位置から目的地までの経路を検索し、設定する(S31)。そして、通信手段18によりネットワーク40を介して管理用サーバ30のデータベース33から上記設定された経路に位置情報が一致する画像記録情報を検索し、ダウンロードして記憶手段17に記憶する(S32)。
FIG. 10 is a flowchart showing the operation of the in-vehicle imaging device according to the modification of the present embodiment.
First, when the destination is input by the input device 21, the current position is acquired by the GPS receiver 5a, and the route from the current position to the destination is searched and set by the navigation means 19 (S31). Then, the communication means 18 searches the database 33 of the management server 30 via the network 40 for image recording information whose position information matches the set route, downloads it, and stores it in the storage means 17 (S32).

車両が走行開始したら(S33)、カメラモジュール1で車両周囲を撮像する(S34)。処理装置10で、記録処理及び補間処理の要否を判断し(S35)、いずれの処理も否であるときは、撮像した現在画像又は経路画像を表示装置22に表示する(S36)。
記録処理が要であるときは、画像の記録処理を実行する(S37)。この記録処理では、撮像画像と、位置検出装置5で検出された現在の車両の位置情報とを関連付けた画像記録情報を記憶手段17に一時記憶し、適宜通信手段18によりネットワーク40を介して管理用サーバ30に送信する。管理用サーバ30では、受信した画像記録情報をデータベース33に蓄積する。
When the vehicle starts running (S33), the camera module 1 captures an image of the vehicle periphery (S34). The processing device 10 determines whether or not the recording processing and the interpolation processing are necessary (S35). If neither processing is necessary, the captured current image or route image is displayed on the display device 22 (S36).
When the recording process is necessary, an image recording process is executed (S37). In this recording process, the image recording information in which the captured image is associated with the current vehicle position information detected by the position detection device 5 is temporarily stored in the storage unit 17 and managed appropriately via the network 40 by the communication unit 18. To the server 30. In the management server 30, the received image recording information is stored in the database 33.

一方、補間処理が要であるときは、不可視領域判断手段13で現在画像に不可視領域が存在するか否かを判断する(S38)。不可視領域が存在しないと判断された場合には、現在画像では補間処理を実施せず現在画像を表示装置22にそのまま表示し、現在以降の撮像画像で再度不可視領域の存在の有無を判断する。不可視領域が存在すると判断された場合には、記憶手段17にダウンロードされた過去画像を現在画像に合成して不可視領域が補間された補間画像を作成し(S39)、表示装置22に補間画像を表示する(S40)。
そして、走行が終了したか否かを判断し(S41)、終了したら処理フローを停止する。終了していない場合には、(S34)以降のステップを繰り返し行う。
このように、ネットワーク40を介して過去画像を受信可能な構成とすることで、自車が走行していない場所であっても、過去画像を取得することができるようになる。
On the other hand, when interpolation processing is necessary, the invisible area determination means 13 determines whether or not an invisible area exists in the current image (S38). If it is determined that there is no invisible area, the current image is displayed as it is on the display device 22 without performing interpolation processing on the current image, and the presence / absence of the invisible area is determined again from the current captured image. If it is determined that an invisible area exists, the past image downloaded to the storage means 17 is combined with the current image to create an interpolated image in which the invisible area is interpolated (S39), and the interpolated image is displayed on the display device 22. Display (S40).
Then, it is determined whether or not the traveling is finished (S41), and when finished, the processing flow is stopped. If not completed, the steps after (S34) are repeated.
As described above, the past image can be acquired even when the vehicle is not traveling by adopting a configuration in which the past image can be received via the network 40.

本実施形態及び変形例の使用例として、例えば、夜間や悪天候時等の視界が悪い状況で、現在画像の不可視領域に存在する白線や標識等の補間対象を現在画像に補間してモニタ表示し、運転支援する。
また、交差点などで車両の停止時、前方にトラック等の大型車両が停止している場合、または道路上の障害物によって標識や目的地への目印が隠れている場合、前方のトラックや障害物を透過して、標識や目的地への目印が確認できるような画像をモニタ表示し、運転支援する。
また、自宅や職場など頻繁に駐車する場所に駐車する場合、夜間は昼間に比べて視界状況が悪くなるため、駐車場所に障害物があった場合、昼間は障害物の存在に気づくが夜間は気づかない場合も出てくる。そこで、昼間に撮像した駐車場所の過去画像から夜間駐車時には視界が悪い領域の障害物の存在を運転者に知らせるために、バック駐車時は障害物を補間した補間画像をモニタ表示し、注意喚起する。
As an example of use of this embodiment and the modified example, for example, in a situation where visibility is poor such as at night or in bad weather, interpolation targets such as white lines and signs existing in an invisible region of the current image are interpolated into the current image and displayed on the monitor. Assist driving.
Also, if a large vehicle such as a truck stops in front of the vehicle at an intersection, or if a sign or a landmark to the destination is hidden by an obstacle on the road, the truck or obstacle ahead The image is displayed on the monitor so that the sign and the mark to the destination can be confirmed.
Also, if you park in a place where you park frequently, such as at home or at work, visibility will be worse at night compared to daytime, so if there are obstacles in the parking place, you will notice the presence of obstacles in the daytime, but at night It also comes out if you don't notice. Therefore, in order to inform the driver of the presence of obstacles in areas with poor visibility when parking at night from the past image of the parking place taken in the daytime, an interpolated image interpolated with the obstacles is displayed on the monitor during back parking. To do.

1 カメラモジュール
2 レンズ
3 撮像素子
4 駆動手段
5 位置検出装置
10 処理装置
11 演算手段
12 記録処理手段
13 不可視領域判断手段
14 画像合成手段
17 記憶手段
21 入力装置
22 表示装置
30 管理用サーバ
31 通信装置
32 管理用処理装置
33 データベース
35、36 他車両
40 ネットワーク
DESCRIPTION OF SYMBOLS 1 Camera module 2 Lens 3 Image pick-up element 4 Drive means 5 Position detection apparatus 10 Processing apparatus 11 Calculation means 12 Recording processing means 13 Invisible area judgment means 14 Image synthesis means 17 Storage means 21 Input device 22 Display apparatus 30 Management server 31 Communication apparatus 32 Management processing device 33 Database 35, 36 Other vehicle 40 Network

Claims (6)

車両に搭載される撮像手段と、
前記車両の位置を検出する位置検出手段と、
前記撮像手段で得られた画像と前記位置検出手段で検出された位置情報とを関連づけて記憶する記憶手段と、
前記撮像手段で撮像された画像に不可視領域が存在するか否かを判断する不可視領域判断手段と、
前記不可視領域判断手段により前記画像に不可視領域が存在すると判断されたとき、前記位置検出手段で検出された前記車両の位置と一致する過去画像を前記記憶手段より抽出し、前記過去画像を前記撮像手段で撮像された現在画像に合成する画像合成手段とを備えることを特徴とする車載撮像装置。
Imaging means mounted on the vehicle;
Position detecting means for detecting the position of the vehicle;
Storage means for storing the image obtained by the imaging means and the position information detected by the position detection means in association with each other;
An invisible area determining means for determining whether or not an invisible area exists in the image captured by the imaging means;
When the invisible area determining means determines that an invisible area exists in the image, a past image that matches the position of the vehicle detected by the position detecting means is extracted from the storage means, and the past image is captured. An in-vehicle imaging device comprising: an image synthesis unit that synthesizes the current image captured by the unit.
前記不可視領域判断手段は、
前記車両に取り付けられた照度センサと、
前記照度センサで検出された車両周囲の照度が、あらかじめ設定されたしきい値より低い場合に、前記不可視領域が存在すると判断する判断手段とを含むことを特徴とする請求項1に記載の車載撮像装置。
The invisible region determining means includes
An illuminance sensor attached to the vehicle;
The in-vehicle device according to claim 1, further comprising: a determination unit that determines that the invisible region exists when an illuminance around the vehicle detected by the illuminance sensor is lower than a preset threshold value. Imaging device.
前記不可視領域判断手段は、
前記過去画像からあらかじめ設定された補間対象を抽出し、前記現在画像と前記過去画像の前記補間対象との差分に基づいて前記不可視領域が存在するか否かを判断する判断手段を含むことを特徴とする請求項1に記載の車載撮像装置。
The invisible region determining means includes
It includes a judging unit that extracts a preset interpolation target from the past image and judges whether or not the invisible region exists based on a difference between the current image and the interpolation target of the past image. The in-vehicle imaging device according to claim 1.
前記現在画像に合成する前記過去画像が、標識、白線、ガードレール、及び駐車場内固定設置物のうち少なくともいずれかであることを特徴とする請求項1乃至3のいずれか一項に記載の車載撮像装置。   The in-vehicle imaging according to any one of claims 1 to 3, wherein the past image combined with the current image is at least one of a sign, a white line, a guardrail, and a fixed installation in a parking lot. apparatus. 前記過去画像と前記位置情報とが関連付けられて蓄積されたデータベースと通信する通信手段をさらに備え、
前記通信手段により前記車両の位置に対応した前記過去画像を前記位置情報とともに前記データベースから取得することを特徴とする請求項1乃至4のいずれか一項に記載の車載撮像装置。
A communication unit that communicates with a database in which the past image and the position information are associated and stored;
The in-vehicle imaging device according to claim 1, wherein the past image corresponding to the position of the vehicle is acquired from the database together with the position information by the communication unit.
前記画像合成手段で合成された補間画像を表示する表示手段をさらに備えることを特徴とする請求項1乃至5のいずれか一項に記載の車載撮像装置。   The in-vehicle imaging device according to claim 1, further comprising display means for displaying the interpolated image synthesized by the image synthesizing means.
JP2010016006A 2010-01-27 2010-01-27 On-vehicle image pickup device Pending JP2011152865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010016006A JP2011152865A (en) 2010-01-27 2010-01-27 On-vehicle image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010016006A JP2011152865A (en) 2010-01-27 2010-01-27 On-vehicle image pickup device

Publications (1)

Publication Number Publication Date
JP2011152865A true JP2011152865A (en) 2011-08-11

Family

ID=44539126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010016006A Pending JP2011152865A (en) 2010-01-27 2010-01-27 On-vehicle image pickup device

Country Status (1)

Country Link
JP (1) JP2011152865A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011228877A (en) * 2010-04-19 2011-11-10 Nec Corp Landform display system, mobile terminal, and landform display method
JP2014013994A (en) * 2012-07-04 2014-01-23 Denso Corp Vehicle peripheral image display control device and vehicle peripheral image display control program
JP2015153426A (en) * 2014-02-18 2015-08-24 ハーマン インターナショナル インダストリーズ インコーポレイテッド Generating augmented view of location of interest
WO2016047037A1 (en) * 2014-09-24 2016-03-31 株式会社デンソー Vehicular image-processing apparatus
JP2016126605A (en) * 2015-01-06 2016-07-11 株式会社日立製作所 Travel environment recognition system
JP2019075599A (en) * 2017-10-12 2019-05-16 クラリオン株式会社 On-vehicle device, server, display method, and transmission method
WO2019138716A1 (en) * 2018-01-10 2019-07-18 株式会社日立製作所 Image compositing system and image compositing method
US10442428B2 (en) 2017-07-18 2019-10-15 Denso Corporation Vehicle control system
JP2020009215A (en) * 2018-07-10 2020-01-16 本田技研工業株式会社 Image processing device and program
JP2021092839A (en) * 2019-12-06 2021-06-17 トヨタ自動車株式会社 Display system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311299A (en) * 2005-04-28 2006-11-09 Aisin Aw Co Ltd Parking section monitoring device
JP2008146579A (en) * 2006-12-13 2008-06-26 Sumitomo Electric Ind Ltd In-vehicle device, drive support system and drive support method
JP2008527542A (en) * 2005-01-06 2008-07-24 シュルマン,アラン Navigation and inspection system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527542A (en) * 2005-01-06 2008-07-24 シュルマン,アラン Navigation and inspection system
JP2006311299A (en) * 2005-04-28 2006-11-09 Aisin Aw Co Ltd Parking section monitoring device
JP2008146579A (en) * 2006-12-13 2008-06-26 Sumitomo Electric Ind Ltd In-vehicle device, drive support system and drive support method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011228877A (en) * 2010-04-19 2011-11-10 Nec Corp Landform display system, mobile terminal, and landform display method
JP2014013994A (en) * 2012-07-04 2014-01-23 Denso Corp Vehicle peripheral image display control device and vehicle peripheral image display control program
CN104429059A (en) * 2012-07-04 2015-03-18 株式会社电装 Vehicle surroundings image display control device, vehicle surroundings image display control method, and a persistent tangible computer-readable medium comprising commands including said method
JP2015153426A (en) * 2014-02-18 2015-08-24 ハーマン インターナショナル インダストリーズ インコーポレイテッド Generating augmented view of location of interest
WO2016047037A1 (en) * 2014-09-24 2016-03-31 株式会社デンソー Vehicular image-processing apparatus
JP2016066855A (en) * 2014-09-24 2016-04-28 株式会社デンソー Image processor for vehicle
CN106664392A (en) * 2014-09-24 2017-05-10 株式会社电装 Vehicular image-processing apparatus
DE112015004341B4 (en) 2014-09-24 2022-03-10 Denso Corporation VEHICLE IMAGE PROCESSING DEVICE
JP2016126605A (en) * 2015-01-06 2016-07-11 株式会社日立製作所 Travel environment recognition system
US10442428B2 (en) 2017-07-18 2019-10-15 Denso Corporation Vehicle control system
JP7046555B2 (en) 2017-10-12 2022-04-04 フォルシアクラリオン・エレクトロニクス株式会社 In-vehicle device, server, display method, transmission method
JP2019075599A (en) * 2017-10-12 2019-05-16 クラリオン株式会社 On-vehicle device, server, display method, and transmission method
JP2019121979A (en) * 2018-01-10 2019-07-22 株式会社日立製作所 Image composition system and image composition method
WO2019138716A1 (en) * 2018-01-10 2019-07-18 株式会社日立製作所 Image compositing system and image compositing method
US11335036B2 (en) 2018-01-10 2022-05-17 Hitachi, Ltd. Image synthesizing system and image synthesizing method
JP2020009215A (en) * 2018-07-10 2020-01-16 本田技研工業株式会社 Image processing device and program
JP7082538B2 (en) 2018-07-10 2022-06-08 本田技研工業株式会社 Image processing equipment and programs
JP2021092839A (en) * 2019-12-06 2021-06-17 トヨタ自動車株式会社 Display system
US11590902B2 (en) 2019-12-06 2023-02-28 Toyota Jidosha Kabushiki Kaisha Vehicle display system for displaying surrounding event information
JP7384014B2 (en) 2019-12-06 2023-11-21 トヨタ自動車株式会社 display system

Similar Documents

Publication Publication Date Title
JP2011152865A (en) On-vehicle image pickup device
US8354944B2 (en) Night vision device
US8103442B2 (en) Navigation device and its method
US7668341B2 (en) Image recognition apparatus and image recognition method
US11450040B2 (en) Display control device and display system
JP4670463B2 (en) Parking space monitoring device
US20080143833A1 (en) Image Pickup Device and Image Pickup Method
JP6926976B2 (en) Parking assistance device and computer program
JP5299026B2 (en) Vehicle display device
US20090171582A1 (en) Vehicle navigation system
CN107848416A (en) Display control unit, display device and display control method
WO2012091476A2 (en) Apparatus and method for displaying a blind spot
JP2008222153A (en) Merging support device
JP4483305B2 (en) Vehicle periphery monitoring device
JP2007156756A (en) Intervehicular communication system
JP2008059082A (en) Intersection information provision system and driving support system
JP2007300559A (en) Vehicle peripheral image providing device and shadow correcting method in vehicle peripheral image
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP4802686B2 (en) Inter-vehicle communication system
US20090201173A1 (en) Driving support apparatus, a driving support method and program
JP5134608B2 (en) Vehicle periphery display device, vehicle periphery display method and program
JP2006344133A (en) Road division line detector
JP2007140992A (en) Method and device for supporting driving at intersection
JP2001101596A (en) Display device for vehicle
JP5231595B2 (en) Navigation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140415