JPWO2009107199A1 - Image processing apparatus, image processing method, image processing program, and in-vehicle terminal - Google Patents

Image processing apparatus, image processing method, image processing program, and in-vehicle terminal Download PDF

Info

Publication number
JPWO2009107199A1
JPWO2009107199A1 JP2010500475A JP2010500475A JPWO2009107199A1 JP WO2009107199 A1 JPWO2009107199 A1 JP WO2009107199A1 JP 2010500475 A JP2010500475 A JP 2010500475A JP 2010500475 A JP2010500475 A JP 2010500475A JP WO2009107199 A1 JPWO2009107199 A1 JP WO2009107199A1
Authority
JP
Japan
Prior art keywords
vehicle
image
information
unit
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010500475A
Other languages
Japanese (ja)
Other versions
JP5177217B2 (en
Inventor
矢野 勝利
勝利 矢野
河合 淳
淳 河合
山田 浩
浩 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2009107199A1 publication Critical patent/JPWO2009107199A1/en
Application granted granted Critical
Publication of JP5177217B2 publication Critical patent/JP5177217B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Abstract

画像処理装置(3)は、車両に設けられた撮像装置(2)の撮像画像を取得する画像入力部(7)と、道路の分岐点またはカーブと車両との距離を、ナビゲーションシステム(5)から取得する車両情報入力部(8)と、撮像情報と運転者情報が予め記録される記録部(15)と、入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識部(9)と、拡大対象物が認識された場合に、拡大画像を撮像画像と合成した合成画像を生成する合成部(11)とを備える。合成部(11)は、車両情報入力部(8)で取得された前記距離と、記録部(15)に記録された撮像情報および運転者情報とを用いて、撮像画像内における、運転者の死角の画像ではない非死角領域を計算し、当該非死角領域に拡大画像が重なるように合成する。これにより、運転者が一回のアクションで、死角エリアおよび拡大画像の情報を認識することが可能になる。The image processing device (3) includes an image input unit (7) that acquires a captured image of the image pickup device (2) provided in the vehicle, a road branch point or a curve, and a distance between the vehicle and the navigation system (5). Vehicle information input unit (8) acquired from the above, a recording unit (15) in which imaging information and driver information are recorded in advance, and an enlargement target recognition unit for recognizing a predetermined enlargement object included in the input captured image (9) and a synthesizing unit (11) that generates a synthesized image obtained by synthesizing the enlarged image with the captured image when the enlarged object is recognized. The synthesizing unit (11) uses the distance acquired by the vehicle information input unit (8) and the imaging information and driver information recorded in the recording unit (15). A non-blind spot area that is not a blind spot image is calculated and synthesized so that the enlarged image overlaps the non-blind spot area. As a result, the driver can recognize the information on the blind spot area and the enlarged image with a single action.

Description

本発明は、例えば、車両に設置されたカメラ等で撮影した画像を、ユーザに表示するために処理する画像処理装置に関する。   The present invention relates to an image processing apparatus that processes, for example, an image captured by a camera or the like installed in a vehicle for display to a user.

近年、見通しの悪い交差点、T字路での出会い頭の衝突事故防止などを目的に、車両に設置されたカメラを用いたシステム(例えば、ブラインドコーナモニタ(Blind Corner Monitor:BCM))が導入されつつある。   In recent years, a system using a camera installed in a vehicle (for example, a blind corner monitor (BCM)) has been introduced for the purpose of preventing a collision accident at an intersection with a poor view and a T-junction. is there.

BCMは、例えば車両前端等に設置したカメラで、運転者が運転席から見ることのできない死角となるエリアを撮影し、車載モニタに表示する。BCMにより、運転者の視覚補助が実現する。   The BCM is a camera installed at the front end of the vehicle, for example, and images a blind spot area that the driver cannot see from the driver's seat and displays it on the in-vehicle monitor. BCM provides visual assistance to the driver.

しかし、例えば、車両が直行していない交差点に進入する場合のように、車両が道路に対して、90度以外の角度で進入すると、車両の左右の道路状況が同時にBCMの車載モニタに写らないことがある。すなわち、BCMのモニタにも表示されない死角が生じることがある。また、電柱や歩行者などが遮蔽物となり、運転者がBCMのモニタの映像を見ても左右の状況が把握できない場合もある。このような場合、運転者は、接近する車両に気づかない恐れがあり、BCMだけでは、十分に安全確認を行えないことになる。   However, if the vehicle enters at an angle other than 90 degrees with respect to the road, for example, when entering the intersection where the vehicle does not go straight, the left and right road conditions of the vehicle are not shown on the BCM in-vehicle monitor at the same time. Sometimes. That is, there may be a blind spot that is not displayed on the BCM monitor. In addition, there are cases where a utility pole, a pedestrian, or the like becomes a shield, and the driver cannot grasp the left and right situations even when viewing the video on the BCM monitor. In such a case, the driver may not be aware of the approaching vehicle, and the BCM alone cannot sufficiently confirm the safety.

一方、交差点には事故防止の一手段として、運転者の死角となる情報を映し出す反射鏡(コーナミラー)が設置されている。   On the other hand, as a means of preventing accidents, a reflecting mirror (corner mirror) that displays information that becomes a blind spot of the driver is installed at the intersection.

このような路側に設けられた反射鏡を利用した障害検出システムが提案されている(例えば、特開2007−69777号公報(特許文献1)参照)。このシステムは、車両側から路側に設けられた反射部材に向けて赤外光を照射させ、反射部材で反射した赤外光により生成される画像から危険対象物が存在するか否かを判断する。危険対象物が存在した場合、システムは、運転者にその旨を報知する。   A fault detection system using such a reflecting mirror provided on the road side has been proposed (see, for example, Japanese Patent Application Laid-Open No. 2007-69777 (Patent Document 1)). This system irradiates infrared light toward a reflecting member provided on the road side from the vehicle side, and determines whether or not a dangerous object exists from an image generated by the infrared light reflected by the reflecting member. . If a dangerous object is present, the system notifies the driver accordingly.

また、車両の前方に設けられたカメラで撮像した画像からコーナミラーを認識し、拡大してHUD(ヘッドアップディスプレイ:Head−Up Display)に表示するシステムも提案されている(例えば、特開2007−102691号公報(特許文献2)参照)。
特開2007−69777号公報 特開2007−102691号公報
In addition, a system has been proposed in which a corner mirror is recognized from an image captured by a camera provided in front of the vehicle, enlarged and displayed on a HUD (Head-Up Display) (for example, Japanese Patent Application Laid-Open No. 2007-2007). No. -102691 (see Patent Document 2).
JP 2007-69777 A JP 2007-102691 A

しかし、コーナミラーの大きさや形状、向き、道路幅といった条件により、コーナミラーでもとらえきれない領域(死角)が発生する場合もある。そのため、運転者は、コーナミラーや、その拡大映像だけは、十分に安全確認を行えないことになる。   However, depending on conditions such as the size, shape, orientation, and road width of the corner mirror, there may be a region (dead angle) that cannot be captured by the corner mirror. Therefore, the driver cannot sufficiently confirm the safety only with the corner mirror and the enlarged image thereof.

このように、死角エリアの状況は時々刻々と変化するので、運転者は、道路に設置されたコーナミラーあるいはその映像、およびBCMの映像の両方を常時確認する必要がある。例えば、車両が交差点に進入する直前において、運転者は、反射鏡がとらえる死角エリアの情報は道路に設置された反射鏡で、BCMのカメラがとらえる死角エリアの情報はモニタで確認するといった行動を行う。このような行為は、運転中の運転者にとって負担となっている。   Thus, since the situation of the blind spot area changes every moment, the driver needs to constantly check both the corner mirror installed on the road or its image and the BCM image. For example, immediately before a vehicle enters an intersection, the driver performs an action such that the information on the blind spot area captured by the reflector is a reflector installed on the road and the information on the blind spot area captured by the BCM camera is confirmed on a monitor. Do. Such an action is a burden on the driving driver.

すなわち、BCMやコーナミラーにより、運転者の死角エリアや拡大画像を提示する環境が整っていても、運転者が1回のアクション(モニタを確認するといった行為)で死角および拡大画像それぞれの情報が確認できないのであれば、その情報の有益性も半減してしまう。   That is, even if the environment for presenting the driver's blind spot area or enlarged image is prepared by BCM or a corner mirror, information on the blind spot and the enlarged image can be obtained by one action of the driver (an act of checking the monitor). If it cannot be confirmed, the usefulness of the information will be halved.

そのため、運転者が一回のアクションで、死角エリアと拡大画像双方の情報を認識することができ、それぞれの情報を有効に活用できる仕組みが求められている。   Therefore, there is a need for a mechanism that allows the driver to recognize both the blind spot area and the enlarged image information with a single action, and to use each information effectively.

ゆえに、本発明は、運転者が一回のアクションで、死角エリアおよび拡大画像の情報を認識することを可能にする画像処理装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing device that enables a driver to recognize information on a blind spot area and an enlarged image by a single action.

本発明にかかる画像処理装置は、車両に設けられた撮像装置により撮像された撮像画像を取得する画像入力部と、車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記車両に設けられた車載デバイスからの情報を基に取得する車両情報入力部と、前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報が記録される記録部と、前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識部と、前記拡大対象認識部により拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成部とを備え、前記合成部は、前記車両情報入力部で取得された前記距離と、前記記録部に記録された前記撮像情報および前記運転者情報を用いて、前記撮像画像における、運転者の死角の画像ではない非死角領域を特定し、当該非死角領域に前記拡大画像が重なるように合成する。   An image processing apparatus according to the present invention includes an image input unit that acquires a captured image captured by an imaging device provided in a vehicle, a road branch point or curve in the traveling direction of the vehicle, and a distance between the vehicle and A vehicle information input unit that is acquired based on information from an in-vehicle device provided in the vehicle, a recording unit that records imaging information indicating characteristics of the imaging device, and driver information relating to the field of view of the driver of the vehicle; An enlarged object recognition unit that recognizes a predetermined enlargement object included in the input captured image, and an enlarged image obtained by enlarging the enlargement object when the enlargement object is recognized by the enlargement object recognition unit. A combining unit that generates a combined image combined with the captured image, and the combining unit acquires the distance acquired by the vehicle information input unit, the imaging information recorded in the recording unit, and the driver information. Using, in the captured image, to identify the non-blind spot is not a driver's blind spot image is synthesized such that the enlarged image on the non-blind area overlap.

上記構成において、合成部は、車両の進行方向にある道路の分岐点またはカーブと車両との距離と、撮像装置の特性および運転者の視野に関する情報を用いることにより、撮像装置が撮像した撮像画像内における、運転者の死角の画像ではない領域(すなわち非死角領域)を特定することができる。そのため、合成部は、撮像画像における非死角領域に、拡大対象物の拡大画像を重ねた合成画像を生成することができる。合成画像が表示されると、運転者はこの合成画像を一瞥するだけで、撮像画像に含まれる死角の画像と拡大対象物の拡大画像とを同時に確認することができる。すなわち、運転者は、撮像装置が捉える死角および拡大対象物の双方を1回のアクション(表示された合成画像を見る行為)により、確認することが可能になる。   In the above configuration, the combining unit uses the information about the distance between the road branching point or curve in the traveling direction of the vehicle and the vehicle, the characteristics of the imaging device, and the driver's field of view, thereby taking a captured image captured by the imaging device. An area that is not an image of the driver's blind spot (that is, a non-blind spot area) can be identified. Therefore, the synthesizing unit can generate a synthesized image in which the enlarged image of the enlargement target is superimposed on the non-dead angle area in the captured image. When the composite image is displayed, the driver can check the image of the blind spot included in the captured image and the enlarged image of the enlargement object at the same time only by looking at the composite image. That is, the driver can confirm both the blind spot captured by the imaging device and the object to be enlarged by a single action (an act of viewing the displayed composite image).

本発明によれば、運転者が一回のアクションで、死角エリアおよび拡大画像の情報を認識することが可能になる。   According to the present invention, the driver can recognize the information on the blind spot area and the enlarged image with a single action.

画像処理装置を含む車載システム全体の構成を示す機能ブロック図Functional block diagram showing the overall configuration of the in-vehicle system including the image processing apparatus 車載システムが実装された車両10を透視した場合の概略構成を示す図The figure which shows schematic structure at the time of seeing through the vehicle 10 by which the vehicle-mounted system was mounted. 車両のカメラで撮影される水平方向における範囲を示す図The figure which shows the range in the horizontal direction photographed with the camera of the vehicle 車両のカメラによって撮影される画像の例を示す図The figure which shows the example of the image image | photographed with the camera of a vehicle 車両が、道路に対して90度以外の角度で進入する場合の例を示す図The figure which shows the example in case a vehicle approachs at an angle other than 90 degree | times with respect to a road 左側に遮蔽物が存在する交差点に車両が進入する場合の例を示す図The figure which shows the example in case a vehicle approachs the intersection where the obstruction exists on the left side 運転者が道路反射鏡を使って確認できる領域を概念的に示す図A diagram conceptually showing the area that a driver can check using a road reflector カメラから画像処理装置へ入力される画像の一例を示す図The figure which shows an example of the image input into an image processing apparatus from a camera 画像処理装置が生成する合成画像の一例を示す図The figure which shows an example of the synthesized image which an image processing apparatus produces | generates 画像処理装置の動作例を示すフローチャートFlowchart showing an operation example of the image processing apparatus 交差点を上から見た場合の、距離L、l0、交差点位置K1等の例を示す図Shows when viewed intersection from above, the distance L, l 0, an example of such an intersection position K1 合成制御部14の処理の一例を示すフローチャートA flowchart showing an example of processing of the composition control unit 14 交差点に進入しようとする車両を上から見た場合の、撮像領域および視野領域の例を示す図The figure which shows the example of an image pick-up field and a field of view when seeing the vehicle which is going to approach an intersection from the top 図11の例においてカメラにより撮影される撮像画像を、モニタの映像表示領域に対応するように示した図The figure which showed the picked-up image image | photographed with the camera in the example of FIG. 11 so that it might correspond to the image | video display area of a monitor. 拡大サイズの拡大画像を含む合成画像が表示される場合の例を示す図The figure which shows an example in case the synthesized image containing the enlarged image of an enlarged size is displayed 交差点に進入しようとする車両を上から見た場合の、撮像領域および視野領域の例を示す図The figure which shows the example of an image pick-up field and a field of view when seeing the vehicle which is going to approach an intersection from the top 車両が道路に対して90度以外の角度で進入する状況を上からみた場合の例を示す図The figure which shows the example at the time of seeing the condition where a vehicle approachs at an angle other than 90 degree | times with respect to a road from the top 車両のカメラ2の部分を拡大して示す図The figure which expands and shows the part of the camera 2 of a vehicle 車両がカーブへ向かう状況の例を上から見た図An example of the situation where the vehicle is heading for a curve seen from above

本発明の実施形態にかかる画像処理装置において、前記合成部は、前記分岐点またはカーブの位置周辺における前記撮像装置により撮像される撮像領域を、前記分岐点またはカーブと前記車両との距離および前記撮像情報を用いて計算し、前記分岐点またはカーブの位置周辺における運転者の視野に入る視野領域を、前記分岐点またはカーブと前記車両との距離および前記運転者情報を用いて計算し、前記撮像領域に対する前記視野領域の位置関係を用いて、前記撮像画像における前記非死角領域の位置を特定する態様とすることができる。   In the image processing device according to the embodiment of the present invention, the combining unit is configured to determine an imaging region imaged by the imaging device around a position of the branch point or curve, a distance between the branch point or curve and the vehicle, and Calculate using imaging information, and calculate a visual field area that enters the driver's field of view around the position of the branch point or curve using the distance between the branch point or curve and the vehicle and the driver information, The position of the non-blind area in the captured image can be specified using the positional relationship of the visual field area with respect to the imaging area.

上記構成のように、合成部は、前記分岐点またはカーブの位置に基づく位置における撮像装置の撮像領域と運転者の視野領域をそれぞれ計算する。これらの位置関係は、撮像画像と非死角領域の位置関係に対応する。そのため、合成部は、撮像領域と視野領域の位置関係を用いて、撮像画像における非死角領域をより正確に計算することができる。   As in the above configuration, the combining unit calculates the imaging region of the imaging device and the driver's visual field region at a position based on the position of the branch point or curve. These positional relationships correspond to the positional relationship between the captured image and the non-dead area. Therefore, the synthesizing unit can more accurately calculate the non-dead angle area in the captured image using the positional relationship between the imaging area and the visual field area.

本発明の実施形態にかかる画像処理装置において、前記合成部は、前記拡大画像の拡大の度合いを、前記車両情報入力部で取得された前記距離を用いて決定する態様とすることができる。   In the image processing apparatus according to the embodiment of the present invention, the composition unit may determine the degree of enlargement of the enlarged image using the distance acquired by the vehicle information input unit.

これにより、車両と分岐点またはカーブとの距離に応じて、道路反射鏡の拡大画像の拡大度合いを調整することが可能になる。その結果、運転者が道路反射鏡および撮像映像に写る死角を確認することをより容易にする合成画像が生成される。   This makes it possible to adjust the degree of enlargement of the enlarged image of the road reflector according to the distance between the vehicle and the branch point or curve. As a result, a composite image is generated that makes it easier for the driver to check the blind spot in the road reflector and the captured image.

本発明の実施形態にかかる画像処理装置において、前記画像入力部は、前記撮像画像の撮像時における前記撮像装置の水平舵角をさらに入力し、前記合成部は、前記水平舵角を用いて、前記撮像領域を計算する態様とすることができる。   In the image processing device according to the embodiment of the present invention, the image input unit further inputs a horizontal steering angle of the imaging device at the time of capturing the captured image, and the combining unit uses the horizontal steering angle. The imaging area can be calculated.

ここで、撮像装置の水平舵角とは、車両に設けられた撮像装置の光軸が、所定位置から垂直方向を軸として水平面内で回転した場合の所定位置からの回転角度で表される量である。これにより、合成部は、撮像画像が光軸を水平方向に回転させて撮像した画像についても、回転量に応じて適切な非死角領域を計算することができる。   Here, the horizontal rudder angle of the imaging device is an amount represented by a rotation angle from a predetermined position when the optical axis of the imaging device provided in the vehicle rotates in a horizontal plane with the vertical direction as an axis from the predetermined position. It is. Thereby, the synthesizing unit can calculate an appropriate non-dead angle region according to the rotation amount even for an image captured by rotating the optical axis in the horizontal direction.

本発明の実施形態にかかる画像処理装置において、前記車両情報入力部は、車両の進行方向にあるカーブの曲率を示す値をさらに取得し、前記合成部は、前記曲率を用いて、前記拡大画像の拡大の度合いを決定する態様とすることができる。   In the image processing apparatus according to the embodiment of the present invention, the vehicle information input unit further acquires a value indicating a curvature of a curve in the traveling direction of the vehicle, and the combining unit uses the curvature to enlarge the enlarged image. It can be set as the aspect which determines the degree of expansion of.

これにより、車両の進行方向にあるカーブの曲率に応じて、道路反射鏡の拡大画像の拡大の度合いを調整することが可能になる。その結果、カーブの曲率に応じた適切な大きさの道路反射鏡の拡大画像を含む合成画像が生成される。   Accordingly, it is possible to adjust the degree of enlargement of the enlarged image of the road reflector according to the curvature of the curve in the traveling direction of the vehicle. As a result, a composite image including an enlarged image of the road reflector having an appropriate size according to the curvature of the curve is generated.

本発明の実施形態にかかる画像処理装置において、前記車両情報入力部は、前記分岐点または前記カーブにおける事故発生の頻度を表す情報をさらに取得し、前記合成部は、前記事項発生の頻度を用いて、前記拡大画像の拡大の度合いを決定する態様とすることができる。   In the image processing apparatus according to the embodiment of the present invention, the vehicle information input unit further acquires information indicating an accident occurrence frequency at the branch point or the curve, and the synthesis unit uses the occurrence frequency of the matter. Thus, the degree of enlargement of the enlarged image can be determined.

これにより、車両の進行方向にある分岐点またはカーブの事故発生の頻度に応じて、道路反射鏡の拡大画像の拡大の度合いを調整することが可能になる。その結果、分岐点またはカーブの危険度合いに応じた適切な大きさの道路反射鏡の拡大画像を含む合成画像が生成される。   Accordingly, it is possible to adjust the degree of enlargement of the enlarged image of the road reflector according to the frequency of occurrence of an accident at a branch point or a curve in the traveling direction of the vehicle. As a result, a composite image including an enlarged image of a road reflector having an appropriate size according to the risk level of a branch point or a curve is generated.

本発明の実施形態にかかる画像処理装置は、前記車両に設けられたナビゲーションシステムと連携動作可能であり、車両情報入力部は、前記車両に設けられたナビゲーションシステムから車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を取得する態様とすることができる。このように、ナビゲーションシステムと連携可能な構成にすることにより、効率よく処理を実行することができる。   An image processing apparatus according to an embodiment of the present invention can operate in cooperation with a navigation system provided in the vehicle, and a vehicle information input unit is configured to detect a road in a traveling direction of the vehicle from the navigation system provided in the vehicle. It can be set as the aspect which acquires the distance of a branch point or a curve, and the said vehicle. Thus, a process can be efficiently performed by setting it as the structure which can be cooperated with a navigation system.

本発明の実施形態にかかる画像処理装置において、前記車両情報入力部は、前記カーナビゲーションシステムから、前記分岐点または前記カーブに前記拡大対象物があるか否かを示す情報をさらに入力し、前記拡大対象認識部は、前記分岐点または前記カーブに前記拡大対象物がある場合に、前記入力された撮像画像に含まれる所定の拡大対象物を認識する態様とすることができる。   In the image processing device according to the embodiment of the present invention, the vehicle information input unit further inputs, from the car navigation system, information indicating whether or not the enlargement object is present at the branch point or the curve, The enlargement target recognizing unit may recognize the predetermined enlargement object included in the input captured image when the enlargement object is present at the branch point or the curve.

このように、前記分岐点または前記カーブにおける前記拡大対象物の有無を示す情報を基に認識を実行するか否かを判断することで、認識処理がより正確に効率よく行われる。   Thus, the recognition process is performed more accurately and efficiently by determining whether to execute recognition based on the information indicating the presence or absence of the enlargement target object at the branch point or the curve.

本発明の実施形態にかかる画像処理装置において、前記拡大対象認識部は、前記距離が所定の距離以下になった場合に、前記入力された撮像画像に含まれる所定の拡大対象物を認識する態様とすることができる。   In the image processing apparatus according to the embodiment of the present invention, the enlargement target recognition unit recognizes a predetermined enlargement object included in the input captured image when the distance is equal to or less than a predetermined distance. It can be.

本発明にかかる画像処理方法は、コンピュータにより実行される画像処理方法であって、車両に設けられた撮像装置により撮像された撮像画像を入力する画像入力ステップと、前記車両に設けられたナビゲーションシステムから前記車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記車両に設けられた車載デバイスからの情報を基に入力する車両情報入力ステップと、前記コンピュータがアクセス可能な記録部に記録された、前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報を読み込んで入力する記録情報取得ステップと、前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識ステップと、前記拡大対象認識ステップで拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成ステップとを含み、前記合成ステップでは、前記車両情報入力ステップで取得された前記距離と、前記記録情報取得ステップで取得された前記撮像情報および前記運転者情報を用いて、前記撮像画像における、運転者の死角の画像ではない非死角領域を特定し、当該非死角領域に前記拡大画像が重なるように合成する処理が実行される。   An image processing method according to the present invention is an image processing method executed by a computer, and includes an image input step of inputting a captured image captured by an imaging device provided in a vehicle, and a navigation system provided in the vehicle. A vehicle information input step for inputting a distance between the vehicle from a road junction or curve in the traveling direction of the vehicle based on information from an in-vehicle device provided in the vehicle, and the computer accessible A recording information acquisition step of reading and inputting imaging information indicating characteristics of the imaging device and driver information relating to the field of view of the driver of the vehicle recorded in the recording unit; and a predetermined information included in the input captured image An enlargement object recognition step for recognizing an enlargement object, and when the enlargement object is recognized in the enlargement object recognition step, A combined step of generating a combined image obtained by combining an enlarged image obtained by enlarging a large object with the captured image, and in the combining step, the distance acquired in the vehicle information input step, and the recording information acquiring step Using the acquired imaging information and the driver information, a process for identifying a non-blind area that is not a driver's blind spot image in the captured image and combining the enlarged image so as to overlap the non-blind spot area Is executed.

本発明にかかる画像処理プログラムは、車両に設けられた撮像装置により撮像された撮像画像を取得する画像入力処理と、車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記車両に設けられた車載デバイスからの情報を基に取得する車両情報入力処理と、コンピュータがアクセス可能な記録部に記録された、前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報を取得する記録情報取得処理と、前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識処理と、前記拡大対象認識処理により拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成処理とコンピュータに実行させる画像処理プログラムであって、前記合成処理において、前記車両情報入力処理で取得された前記距離と、前記記録情報取得処理で取得された前記撮像情報および前記運転者情報を用いて、前記撮像画像における、運転者の死角の画像ではない非死角領域を特定し、当該非死角領域に前記拡大画像が重なるように合成する処理をコンピュータに実行させる。   An image processing program according to the present invention includes an image input process for obtaining a captured image captured by an imaging device provided in a vehicle, a road branch point or curve in the traveling direction of the vehicle, and a distance between the vehicle and Vehicle information input processing acquired based on information from an in-vehicle device provided in the vehicle, imaging information indicating characteristics of the imaging device recorded in a computer-accessible recording unit, and the driver of the vehicle A record information acquisition process for acquiring driver information relating to the field of view, an enlargement object recognition process for recognizing a predetermined enlargement object included in the input captured image, and the enlargement object recognition process have been recognized. An image processing program for causing a computer to execute a synthesis process for generating a synthesized image obtained by synthesizing an enlarged image obtained by enlarging the object to be enlarged with the captured image. Thus, in the synthesis process, using the distance acquired in the vehicle information input process and the imaging information and the driver information acquired in the recorded information acquisition process, A non-blind area that is not a blind spot image is specified, and the computer is caused to perform a process of combining the enlarged image so as to overlap the non-blind spot area.

本発明にかかる車載端末は、車両に設けられた撮像装置と連携可能な車載端末であって、車両の位置を特定する機能と、道路の分岐点またはカーブの位置を含む道路情報を記録した地図データ記録部とを備えるナビゲーションシステム部と、前記撮像装置により撮像された撮像画像を取得する画像入力部と、車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記ナビゲーションシステム部で特定される車両の位置および道路情報を用いて取得する車両情報入力部と、前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報が記録される記録部と、前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識部と、前記拡大対象認識部により拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成部と、前記合成部が生成した合成画像を表示する表示装置とを備える。   An in-vehicle terminal according to the present invention is an in-vehicle terminal capable of cooperating with an imaging device provided in a vehicle, and a map in which road information including a function of specifying the position of the vehicle and a road branch point or a curve position is recorded. A navigation system unit including a data recording unit, an image input unit for acquiring a captured image captured by the imaging device, a road branch point or curve in the traveling direction of the vehicle, and a distance between the vehicle and the navigation A vehicle information input unit that is acquired using vehicle position and road information specified by the system unit, a recording unit that records imaging information indicating characteristics of the imaging device, and driver information related to the field of view of the driver of the vehicle And an enlargement object recognition unit that recognizes a predetermined enlargement object included in the input captured image, and an enlargement object recognized by the enlargement object recognition unit, Serial comprising a synthesizing unit for an enlarged image enlarged object was expanded to produce a composite image by combining with the captured image, and a display device for displaying a composite image in which the combining unit has generated.

以下、本発明の実施形態について、図を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<車載システムの構成の概要>
図1は、本実施形態に係る画像処理装置を含む車載システム全体の構成を示す機能ブロック図である。図1に示す車載システム1は、車両に設けられるシステムであり、カメラ(撮像装置)2、画像処理装置3、GPSアンテナ4、ナビゲーションシステム(ナビゲーションシステム部)5およびモニタ(表示部)6を含む。カメラ2は、例えば、車両の前方視野を撮影できる位置に設けられる。画像処理装置3は、カメラ2が撮影した前方視野の画像を受け付けて処理し、モニタ6へ出力する。
<Outline of configuration of in-vehicle system>
FIG. 1 is a functional block diagram showing a configuration of the entire in-vehicle system including the image processing apparatus according to the present embodiment. An in-vehicle system 1 shown in FIG. 1 is a system provided in a vehicle, and includes a camera (imaging device) 2, an image processing device 3, a GPS antenna 4, a navigation system (navigation system unit) 5, and a monitor (display unit) 6. . For example, the camera 2 is provided at a position where a front view of the vehicle can be photographed. The image processing device 3 receives and processes the image of the front field of view taken by the camera 2 and outputs it to the monitor 6.

GPSアンテナ4は、複数のGPS用人工衛星(GPS衛星)からの電波を受信する。ナビゲーションシステム5は、GPSアンテナ4が受信した電波に基づいて、車両の現在位置を計測する。ナビゲーションシステム5は、この現在地と、地図データ記録部17に予め記録された地図データを用いてナビゲーション情報を生成し、モニタ6へ表示する。地図データには、道路地図(道幅、分岐点の位置およびカーブの位置の情報を含む)の他、各種施設のデータ、ランドマーク等が含まれる。地図データは、例えば、ナビゲーションシステム5による、現在地の表示、経路探索、経路案内等の処理に使用される。   The GPS antenna 4 receives radio waves from a plurality of GPS artificial satellites (GPS satellites). The navigation system 5 measures the current position of the vehicle based on the radio wave received by the GPS antenna 4. The navigation system 5 generates navigation information using the current location and map data recorded in advance in the map data recording unit 17 and displays the navigation information on the monitor 6. The map data includes road maps (including information on road widths, branch point positions, and curve positions), various facility data, landmarks, and the like. The map data is used for processing such as display of the current location, route search, route guidance, etc. by the navigation system 5, for example.

画像処理装置3は、ナビゲーションシステム5から、進行方向にある交差点またはカーブの情報、車両の現在位置等を受け取り、画像の処理に用いる。画像処理装置3は、画像入力部7、車両情報入力部8、拡大対象認識部9、合成部11、出力部15、記録部16を備える。合成部11は、拡大部12、重畳部13および合成制御部14を含む。なお、画像処理装置3内部の詳細については後述する。   The image processing device 3 receives information on intersections or curves in the traveling direction, the current position of the vehicle, and the like from the navigation system 5 and uses them for image processing. The image processing apparatus 3 includes an image input unit 7, a vehicle information input unit 8, an enlargement target recognition unit 9, a synthesis unit 11, an output unit 15, and a recording unit 16. The composition unit 11 includes an enlargement unit 12, a superposition unit 13, and a composition control unit 14. Details of the inside of the image processing apparatus 3 will be described later.

<車両への実装例>
図2Aおよび図2Bは、車載システム1を車両へ実装した場合の構成の一例を示す図である。図2Aは、車載システム1が実装された車両10を透視した場合の概略構成を示す図である。車両10の前端にカメラ2が設けられ、筐体(車載端末)18に接続されている。筐体18は、ナビゲーションシステム5、画像処理装置3およびモニタ6が一体として形成されたものである。モニタ6は、車両10に搭乗した運転者H1から見える位置に形成される。
<Vehicle mounting example>
2A and 2B are diagrams illustrating an example of a configuration when the in-vehicle system 1 is mounted on a vehicle. FIG. 2A is a diagram illustrating a schematic configuration when the vehicle 10 on which the in-vehicle system 1 is mounted is seen through. A camera 2 is provided at the front end of the vehicle 10 and is connected to a housing (on-vehicle terminal) 18. The housing 18 is formed by integrating the navigation system 5, the image processing device 3, and the monitor 6. The monitor 6 is formed at a position that can be seen by the driver H1 who has boarded the vehicle 10.

筐体18には、例えば、CPU、記録媒体(RAM、ROM、HDD等)、ディスプレイ、電源回路、およびこれらを接続するバスライン等により構成されるコンピュータが内蔵されている。ナビゲーションシステム5並びに画像処理装置3の画像入力部7、車両情報入力部8、拡大対象認識部9、合成部11および出力部15の各機能は、CPUが所定のプログラムを実行することによって実現される。上記各機能を実現するためのプログラム、およびそれを記録した記録媒体も本発明の実施形態の一例である。また、記録部16および地図データ記録部17は、コンピュータが備える記録媒体によって具現化される。   The housing 18 incorporates a computer including, for example, a CPU, a recording medium (RAM, ROM, HDD, etc.), a display, a power supply circuit, and a bus line connecting these. The functions of the navigation system 5 and the image input unit 7, the vehicle information input unit 8, the enlargement target recognition unit 9, the synthesis unit 11, and the output unit 15 of the image processing device 3 are realized by the CPU executing predetermined programs. The A program for realizing the above functions and a recording medium on which the program is recorded are also an example of an embodiment of the present invention. The recording unit 16 and the map data recording unit 17 are embodied by a recording medium included in the computer.

なお、車載システム1の実装形態は図2Aに示す例に限定されない。例えば、ナビゲーションシステム5およびモニタ6を1つの筐体で形成し、画像処理装置3は、カメラ2とその筐体に接続されるECU(Electronic Control Unit)として設けられてもよい。また、画像処理装置3は、例えば、1394コントローラLSI等のようなチップで構成することができる。また、モニタ6は、インスツルメンタルパネル(instrumental panel:インパネ)またはHUD等により、形成されてもよい。なお、図2Aにおいて、2本の直線m1、n1で挟まれる領域は、カメラ2で撮影される垂直方向における範囲を示している。   The mounting form of the in-vehicle system 1 is not limited to the example shown in FIG. 2A. For example, the navigation system 5 and the monitor 6 may be formed in a single casing, and the image processing apparatus 3 may be provided as the camera 2 and an ECU (Electronic Control Unit) connected to the casing. The image processing apparatus 3 can be configured by a chip such as a 1394 controller LSI, for example. The monitor 6 may be formed by an instrumental panel, an HUD, or the like. In FIG. 2A, a region sandwiched between two straight lines m1 and n1 indicates a range in the vertical direction taken by the camera 2.

図2Bは、交差点に進入しようとする車両10のカメラ2で撮影される水平方向における範囲を示す図である。図2Bにおいて、2本の直線p2および直線n2で挟まれる領域は、カメラ2で撮影される水平方向における範囲を示している。図2Bに示す例では、2本の直線p2、n2の間の角度αが180°弱の値となっている。(この角度αのように、カメラによって捉えられ、モニタ6に表示される範囲を角度によって表したものを、監視可能角度と呼ぶことにする。)ここでは、カメラ2の監視可能角度αが180°に近いので、車両10の前端が交差点に進入したときに、車両10の進行方向と直行する道路の左右の画像がカメラ2で撮影されモニタ6に表示される。また、カメラが車両10の前端の位置に設けられているので、車両10が前方に進む場合は、運転者H1が一早く前方の死角を確認できる。   FIG. 2B is a diagram illustrating a range in the horizontal direction that is captured by the camera 2 of the vehicle 10 about to enter the intersection. In FIG. 2B, a region sandwiched between two straight lines p2 and n2 indicates a range in the horizontal direction taken by the camera 2. In the example shown in FIG. 2B, the angle α between the two straight lines p2 and n2 is a value less than 180 °. (A range that is captured by the camera and that is displayed on the monitor 6 like this angle α is referred to as a monitorable angle.) Here, the monitorable angle α of the camera 2 is 180. When the front end of the vehicle 10 enters the intersection, the left and right images of the road perpendicular to the traveling direction of the vehicle 10 are captured by the camera 2 and displayed on the monitor 6. In addition, since the camera is provided at the position of the front end of the vehicle 10, when the vehicle 10 moves forward, the driver H1 can confirm the blind spot ahead immediately.

図3は、交差点に進入しようとする車両10のカメラ2によって撮影される撮像画像の例を示す図である。図3に示す画像において、右端部分ARおよび左端部分ALには、運転者H1から死角になるエリアが写っている。   FIG. 3 is a diagram illustrating an example of a captured image captured by the camera 2 of the vehicle 10 about to enter the intersection. In the image shown in FIG. 3, the right end portion AR and the left end portion AL show an area that becomes a blind spot from the driver H1.

なお、図2Bに示す例では、水平方向の監視可能角度が180°に近いカメラ1台で車両10の左右を撮影する構成であるが、例えば、監視可能角度が略90°のカメラが2台、車両10の右方向と左方向にそれぞれ向けて設置されてもよい。また、車の前端に前方向、右方向、左方向の3つのカメラを設置すると、監視可能範囲を180゜以上にすることも可能である。カメラ設置台数は特に限定されず、コストや画像の見易さなどを考慮して適宜決められる。   In the example shown in FIG. 2B, the left and right sides of the vehicle 10 are photographed by one camera having a horizontal monitoring angle close to 180 °. For example, two cameras having a monitoring angle of approximately 90 ° are used. The vehicle 10 may be installed in the right direction and the left direction, respectively. In addition, if three cameras in the front, right, and left directions are installed at the front end of the vehicle, the monitorable range can be set to 180 ° or more. The number of cameras installed is not particularly limited, and can be determined as appropriate in consideration of the cost and the ease of viewing images.

また、カメラの設置位置は、図2Aおよび図2Bに示した位置に限られない。例えば、車両のボンネットやバックミラー、ドアミラーなどにカメラを設けることも可能である。また、車両10が後進する場合に後方の映像を捉えるために、車両10の後方にカメラが設けられてもよい。本願実施形態では、一例として1台のカメラで前方を撮影する場合について述べる。   Moreover, the installation position of the camera is not limited to the positions shown in FIGS. 2A and 2B. For example, a camera can be provided on a vehicle hood, rearview mirror, door mirror, or the like. Further, a camera may be provided behind the vehicle 10 in order to capture a rear image when the vehicle 10 moves backward. In the embodiment of the present application, a case where the front is photographed by one camera will be described as an example.

<画像処理装置3の出力画像の例>
車両10が交差点またはT字路に進入する場合、左右の状況がカメラ2で捉えられない場合もある。例えば、図4に示すように、車両10が、道路に対して90度以外の角度で進入する場合であって、車両10の右側に塀21がある場合、カメラ2で撮影される画像の右端には、道路の右方向の状況でなく塀21が写る。すなわち、右側から来る車両22aはカメラ2で塀21の影になり、撮影される画像に表れない。また、左側から来る車両22bも、カメラ2の監視可能角度内に入るまでは、カメラ2の画像に表れない。
<Example of output image of image processing apparatus 3>
When the vehicle 10 enters an intersection or a T-junction, the left and right situations may not be captured by the camera 2. For example, as shown in FIG. 4, when the vehicle 10 enters at an angle other than 90 degrees with respect to the road, and there is a ridge 21 on the right side of the vehicle 10, the right end of the image captured by the camera 2. Shows the ridge 21 instead of the situation in the right direction of the road. That is, the vehicle 22a coming from the right side becomes a shadow of the bag 21 by the camera 2 and does not appear in the photographed image. Further, the vehicle 22b coming from the left side does not appear in the image of the camera 2 until it enters within the monitoring possible angle of the camera 2.

また、他の例として、図5に示すように、左側に遮蔽物23(例えば、電柱または歩行者等)が存在する交差点に車両10が進入する際も、左から接近中の車両22cが、遮蔽物23の影に隠れるので、カメラ2で撮影される画像に表示されない。このようにカメラ2を左右の道路の状況を捉えることができない場合がある。   As another example, as shown in FIG. 5, when the vehicle 10 enters an intersection where a shield 23 (for example, a utility pole or a pedestrian) is present on the left side, the vehicle 22c approaching from the left Since it is hidden by the shadow of the shield 23, it is not displayed in the image taken by the camera 2. In this way, the camera 2 may not be able to capture the situation of the left and right roads.

一方、交差点、T字路、またはカーブに設けられた道路反射鏡(通称、カーブミラー)により、運転者H1は、直接見ることのできない道路の状況を確認することができる。図6は、車両10がT字路に進入しようとした場合に、運転者H1が道路反射鏡を使って確認できる領域を概念的に示す図である。図6に示す例では、T字路に2枚の道路反射鏡24a、24bが設けられている。車両の運転者H1が直接見て確認することのできる範囲は、直線p3と直線n3で挟まれた範囲である。運転者H1は、道路反射鏡24aを見ることにより、直線p4と直線n4で挟まれた範囲を、道路反射鏡24bを見ることにより、直線p5と直線n5で挟まれた範囲を確認することができる。   On the other hand, the driver H1 can confirm the situation of the road that cannot be directly seen by a road reflector (commonly called a curve mirror) provided at an intersection, a T-junction, or a curve. FIG. 6 is a diagram conceptually illustrating an area that the driver H1 can confirm using the road reflector when the vehicle 10 is about to enter the T-junction. In the example shown in FIG. 6, two road reflecting mirrors 24a and 24b are provided on the T-junction. The range that the driver H1 of the vehicle can directly check and confirm is the range sandwiched between the straight line p3 and the straight line n3. The driver H1 can check the range between the straight line p4 and the straight line n4 by looking at the road reflecting mirror 24a, and can check the range between the straight line p5 and the straight line n5 by looking at the road reflecting mirror 24b. it can.

図6に示す例において、運転者H1の左右の死角になる領域S1は、カメラ2によって撮影されてモニタ6に表示される。この場合、運転者H1は、直接見ることのできない左右の状況を、道路反射鏡及びモニタ6を見ることで確認することできる。本実施形態における画像処理装置3は、例えば、図6に示すような状況において、運転者H1がモニタ6を見る動作だけで、死角の領域S1および道路反射鏡24a、24bに写った領域の双方を確認することを可能にする画像を提供するものである。   In the example shown in FIG. 6, a region S <b> 1 that becomes the left and right blind spots of the driver H <b> 1 is captured by the camera 2 and displayed on the monitor 6. In this case, the driver H <b> 1 can confirm the left and right situations that cannot be seen directly by looking at the road reflector and the monitor 6. For example, in the situation shown in FIG. 6, the image processing apparatus 3 according to the present embodiment has both the blind spot area S1 and the areas reflected in the road reflectors 24a and 24b only when the driver H1 looks at the monitor 6. It is possible to provide an image that makes it possible to confirm.

図7Aは、カメラ2から画像処理装置3へ入力される画像の一例を示す図である。画像処理装置3は、図7Aに示す画像のうち道路反射鏡の部分A1を拡大した拡大画像を元の画像に重畳して合成画像を生成する。図7Bは、画像処理装置3が生成する合成画像の一例を示す図である。図7Bに示すように、画像処理装置3は、元の画像(図7A)中で死角の領域S1でない非死角領域が写っている箇所に拡大画像を重畳した画像を生成することができる。   FIG. 7A is a diagram illustrating an example of an image input from the camera 2 to the image processing device 3. The image processing device 3 generates a composite image by superimposing an enlarged image obtained by enlarging the portion A1 of the road reflector in the image shown in FIG. 7A on the original image. FIG. 7B is a diagram illustrating an example of a composite image generated by the image processing device 3. As illustrated in FIG. 7B, the image processing device 3 can generate an image in which the enlarged image is superimposed on a portion where a non-blind area that is not the blind area S <b> 1 appears in the original image (FIG. 7A).

このように、道路反射鏡の拡大画像を、元の撮像画像における運転者H1の非死角領域に重畳し表示することで、運転者H1の死角領域全体を1画面で表示することが出来る。このような画像処理を可能にする画像処理装置3の詳細な構成および動作例を以下に説明する。   As described above, the enlarged image of the road reflector is superimposed and displayed on the non-blind area of the driver H1 in the original captured image, so that the entire blind area of the driver H1 can be displayed on one screen. A detailed configuration and operation example of the image processing apparatus 3 that enables such image processing will be described below.

<画像処理装置3の構成>
図1に示す画像処理装置3において、画像入力部7は、カメラ2から撮像画像の画像データを取得して拡大対象認識部9および合成部11がアクセス可能な状態にする。画像入力部7は、例えば、カメラ2から送られてくる画像信号をA/D変換その他必要な変換を施し、拡大対象認識部9および合成部11がアクセス可能な記録媒体にフレームごとに記録する。また、画像入力部7は、A/D変換等の必要な変換が施された画像データを受信してもよい。
<Configuration of Image Processing Device 3>
In the image processing apparatus 3 illustrated in FIG. 1, the image input unit 7 acquires image data of a captured image from the camera 2 and makes the enlargement target recognition unit 9 and the synthesis unit 11 accessible. For example, the image input unit 7 performs A / D conversion and other necessary conversion on the image signal sent from the camera 2 and records the image signal for each frame on a recording medium accessible by the enlargement target recognition unit 9 and the synthesis unit 11. . The image input unit 7 may receive image data that has undergone necessary conversion such as A / D conversion.

拡大対象認識部9は、画像入力部7が取得した画像データを、フレーム単位で読み出し、各フレームの画像の中で拡大対象物(ここでは、道路反射鏡とする)と認識できる領域が存在か否かを判断する。道路反射鏡と認識できる領域が存在する場合は、拡大対象認識部9は、その領域のデータを抽出して拡大部12へ渡す。拡大部12は、その領域の画像を拡大して拡大画像を生成する。   The enlargement target recognition unit 9 reads the image data acquired by the image input unit 7 in units of frames, and whether there is an area that can be recognized as an enlargement target (here, a road reflector) in the image of each frame. Judge whether or not. If there is a region that can be recognized as a road reflector, the enlargement target recognition unit 9 extracts the data of the region and passes it to the enlargement unit 12. The enlargement unit 12 enlarges the image in the area and generates an enlarged image.

拡大対象認識部9は、公知の画像認識技術を用いて、画像中の道路反射鏡の部分を認識することができる。一例として、拡大対象認識部9は、まず、ラプラシアンフィルタを用いて画像中のエッジ部分を抽出する。そして、拡大対象認識部9は、エッジ部分で構成される画像データと、予め記録された道路反射鏡の特徴量データ(例えば、標準的な道路反射鏡のテンプレート)とをマッチングして相関値を算出し、相関値が閾値より大きな領域を道路反射鏡の領域と判断することができる。   The enlargement target recognition unit 9 can recognize the portion of the road reflector in the image using a known image recognition technique. As an example, the enlargement target recognition unit 9 first extracts an edge portion in an image using a Laplacian filter. Then, the enlargement target recognition unit 9 matches the image data composed of the edge portions with the pre-recorded feature data of the road reflector (for example, a standard road reflector template) to obtain a correlation value. The area where the correlation value is larger than the threshold value can be determined as the area of the road reflector.

また、特徴量データとして、道路標識等のように道路反射鏡と誤認識しやすいテンプレートが予め記録されてもよい。この場合、拡大対象認識部9は、このようなテンプレートとエッジ部分で構成される画像データとの相関値が閾値より大きいときは、道路反射鏡として認識しないようにしてもよい。これにより、認識精度が向上する。なお、道路反射鏡の認識処理は、上記例に限定されない。   Further, as feature amount data, a template that is easily misrecognized as a road reflector, such as a road sign, may be recorded in advance. In this case, the enlargement target recognition unit 9 may not recognize the object as a road reflector when the correlation value between the template and the image data including the edge portion is larger than the threshold value. Thereby, recognition accuracy improves. The road reflector recognition process is not limited to the above example.

このように、拡大対象認識部9が認識する拡大対象物は、拡大して運転者に表示することが求められる物である。すなわち、道路反射鏡のように、運転者の運転に有益な情報を与える物が拡大対象物として予め定義される。上記の例では、拡大対象部である道路反射鏡は、予め記録された特徴量データにより定義されている。なお、拡大対象物は、道路反射鏡に限られず、例えば、道路標識、案内板、路面標識(路面に描かれたい文字(例えば「とまれ」)や矢印等)が拡大対象物として定義されてもよい。   Thus, the enlargement object recognized by the enlargement object recognition unit 9 is an object that is required to be enlarged and displayed to the driver. That is, an object that provides information useful for driving by a driver, such as a road reflector, is defined in advance as an object to be enlarged. In the above example, the road reflector that is the enlargement target portion is defined by pre-recorded feature value data. The enlargement object is not limited to a road reflector, and for example, a road sign, a guide board, a road sign (characters (eg, “to rare”) or arrows that are desired to be drawn on the road surface) may be defined as an enlargement object. Good.

拡大部12は、道路反射鏡の領域の画像を拡大する際に、合成制御部14からの通知される拡大の度合いを示す値にしたがって拡大する。拡大部12は、拡大画像を重畳部13へ渡す。   The enlargement unit 12 enlarges the image of the area of the road reflector according to a value indicating the degree of enlargement notified from the composition control unit 14. The enlargement unit 12 passes the enlarged image to the superposition unit 13.

重畳部13は、受け取った拡大画像を、画像入力部7が取得した撮像画像の画像データの対応するフレーム(以下、元フレームと称する)に重畳して合成画像を生成する。重畳部13は、重畳の際、拡大画像の元フレームにおける重畳位置を示す情報を合成制御部14から取得し、取得した情報に基づいて拡大画像を元フレームに重畳する。   The superimposing unit 13 superimposes the received enlarged image on a corresponding frame (hereinafter referred to as an original frame) of the image data of the captured image acquired by the image input unit 7 to generate a composite image. When superimposing, the superimposing unit 13 acquires information indicating the overlapping position in the original frame of the enlarged image from the synthesis control unit 14, and superimposes the enlarged image on the original frame based on the acquired information.

このようにして、重畳部13で生成された合成画像は、出力部15を介してモニタ6へ出力される。なお、拡大対象認識部9で反射鏡の部分が認識されなかったフレームは、重畳部13では加工されずに出力部15へ送られ、モニタ6へ表示される。   In this way, the composite image generated by the superimposing unit 13 is output to the monitor 6 via the output unit 15. It should be noted that the frame whose reflection mirror portion is not recognized by the enlargement target recognition unit 9 is sent to the output unit 15 without being processed by the superposition unit 13 and displayed on the monitor 6.

記録部16には、車両10が備えるカメラ2の特性を示す撮像情報と、車両10の運転者H1の視野に関する運転者情報が予め記録される。撮像情報は、カメラ2により撮影される範囲を得るための情報を含む。例えば、カメラ2の監視可能角度、画角、レンズ特性、および車両10におけるカメラ2の設置位置等が撮像情報に含まれる。   In the recording unit 16, imaging information indicating the characteristics of the camera 2 included in the vehicle 10 and driver information regarding the field of view of the driver H <b> 1 of the vehicle 10 are recorded in advance. The imaging information includes information for obtaining a range captured by the camera 2. For example, the monitoring information of the camera 2, the angle of view, the lens characteristics, the installation position of the camera 2 in the vehicle 10, and the like are included in the imaging information.

また、運転者情報には、車両10の運転席に着いた運転者の視野を推測することを可能にするような情報が含まれる。例えば、車両10における運転者の目の位置、運転者の視野特性(例えば、有効視野)等が運転者情報に含まれる。なお、運手者情報は、予め記録される固定値に限られない。例えば、車両情報入力部8が、運転者の目線を監視する車載装置(図示せず)から運転者の視野情報を受け取り運転者情報として記録部16に記録してもよい。   Further, the driver information includes information that makes it possible to infer the visual field of the driver who has arrived at the driver's seat of the vehicle 10. For example, the position of the driver's eyes in the vehicle 10, the driver's visual field characteristics (for example, effective visual field), and the like are included in the driver information. The operator information is not limited to a fixed value recorded in advance. For example, the vehicle information input unit 8 may receive the driver's visual field information from an in-vehicle device (not shown) that monitors the driver's eyes and record it in the recording unit 16 as driver information.

車両情報入力部8は、ナビゲーションシステム5から車両10の現在位置と、車両10の進行方向にある直近の分岐点の位置を取得し、車両10から分岐点までの距離(以下、距離Lとする)を算出し、合成制御部14へ通知する。   The vehicle information input unit 8 acquires the current position of the vehicle 10 and the position of the nearest branch point in the traveling direction of the vehicle 10 from the navigation system 5, and the distance from the vehicle 10 to the branch point (hereinafter referred to as distance L). ) Is calculated and notified to the composition control unit 14.

なお、車両10から分岐点までの距離Lの取得方法はこれに限られない。車両情報入力部8は、距離Lを、現在位置を特定するための情報を収集する機能を持つ車載デバイスからのデータを基に取得することができるが、車載デバイスは特に限定されない。例えば、車両情報入力部8は、ナビゲーションシステム5から車両10から分岐点までの距離Lを示すデータを受け取ってもよいし、GPSアンテナ4が受信した電波と、地図データ記録部17の地図データを使って距離Lを計算してもよい。また、車両情報入力部8は、分岐点に加えて、あるいは分岐点に替えて、進行方向にあるカーブまでの距離を取得してもよい。また、車両情報入力部8は、例えば、車速センサや車体方位センサ等(図示せず)からの情報をさらに用いて、車両10の現在位置を特定してもよい。   In addition, the acquisition method of the distance L from the vehicle 10 to a branch point is not restricted to this. The vehicle information input unit 8 can acquire the distance L based on data from an in-vehicle device having a function of collecting information for specifying the current position, but the in-vehicle device is not particularly limited. For example, the vehicle information input unit 8 may receive data indicating the distance L from the vehicle 10 to the branch point from the navigation system 5, or the radio wave received by the GPS antenna 4 and the map data of the map data recording unit 17. It may be used to calculate the distance L. Further, the vehicle information input unit 8 may acquire the distance to the curve in the traveling direction in addition to the branch point or instead of the branch point. Further, the vehicle information input unit 8 may specify the current position of the vehicle 10 by further using information from a vehicle speed sensor, a vehicle body direction sensor, or the like (not shown), for example.

合成制御部14は、車両10から分岐点までの距離Lと、記録部16に記録された撮像情報および運転者情報を用いて、画像における道路反射鏡の領域の拡大度合いおよび拡大画像を重畳する位置を計算し、拡大部12および重畳部13にそれぞれ通知する。ここで、合成制御部14は、撮像画像の元フレームにおいて、運転者H1が直接見ることのできる画像の領域(=運転者H1の死角の画像でない非死角領域)を計算し、非死角領域に拡大画像が重畳されるように、重畳位置を計算する。   The composition control unit 14 uses the distance L from the vehicle 10 to the branch point and the imaging information and driver information recorded in the recording unit 16 to superimpose the degree of enlargement of the region of the road reflector and the enlarged image in the image. The position is calculated and notified to the enlargement unit 12 and the superposition unit 13, respectively. Here, the composition control unit 14 calculates an area of the image that can be directly viewed by the driver H1 in the original frame of the captured image (= a non-blind area that is not an image of the blind spot of the driver H1). The superposition position is calculated so that the enlarged image is superposed.

例えば、合成制御部14は、距離Lと、撮像情報を用いて、車両10から距離Lの位置周辺においてカメラ2により撮影される範囲(撮像領域)を計算する。さらに、合成制御部14は、距離Lと運転者情報とを用いて、車両10から距離Lの位置周辺において運転者の視野に入る範囲(視野領域)を計算する。そして、合成制御部14は、撮像領域と視野領域との位置関係を用いて、撮像画像の元フレームにおける非死角領域を計算する。合成制御部14は、撮像領域に対する視野領域の位置関係が、撮像画像の元フレームに対する非死角領域の位置関係に相当するように、非死角領域を計算することができる。なお、非死角領域の計算方法はこれに限られない。合成制御部14は、カメラ2の特性、道路形状、交差点位置および自車位置等を用いて、運転者H1の非死角領域を決定することができる。   For example, the composition control unit 14 uses the distance L and imaging information to calculate a range (imaging area) that is captured by the camera 2 around the position of the distance L from the vehicle 10. Further, the composition control unit 14 uses the distance L and the driver information to calculate a range (view field region) that enters the driver's field of view around the position of the distance L from the vehicle 10. Then, the composition control unit 14 calculates a non-dead angle region in the original frame of the captured image using the positional relationship between the captured region and the visual field region. The composition control unit 14 can calculate the non-blind area so that the positional relationship of the visual field area with respect to the imaging area corresponds to the positional relationship of the non-blind area with respect to the original frame of the captured image. In addition, the calculation method of a non-dead angle area | region is not restricted to this. The composition control unit 14 can determine the non-dead angle area of the driver H1 using the characteristics of the camera 2, the road shape, the intersection position, the own vehicle position, and the like.

また、合成制御部14は、車両情報入力部8が入力した情報を用いて、画像入力部7または拡大対象認識部9の動作を制御することもできる。例えば、合成制御部14は、距離Lが所定の距離より小さい時のみに、画像入力部7および拡大対象認識部9が動作するように制御してもよい。これにより、拡大対象認識部9による車両10が分岐点に近づく度に、道路反射鏡の認識処理が実行される。   The composition control unit 14 can also control the operation of the image input unit 7 or the enlargement target recognition unit 9 using information input by the vehicle information input unit 8. For example, the composition control unit 14 may control the image input unit 7 and the enlargement target recognition unit 9 to operate only when the distance L is smaller than a predetermined distance. Thereby, whenever the vehicle 10 by the expansion object recognition part 9 approaches a branch point, the recognition process of a road reflector is performed.

また、道路反射鏡の認識処理は、交差点に近づく度に毎回行う必要は必ずしもない。例えば、ナビゲーションシステム5の地図データに、各分岐点に拡大対象物(ここでは道路反射鏡)があるか否かを示す情報を予め記憶しておき、車両情報入力部8が当該情報を取得できる構成にすることができる。この場合、合成制御部14は、車両10が道路反射鏡のある分岐点に近づいた場合に、拡大対象認識部9が認識処理をするように制御することができる。なお、拡大対象認識部9が車両情報入力部8から直接、前記情報を受け取って、認識処理実行の要否を判断してもよい。   Further, the recognition process of the road reflector is not necessarily performed every time the intersection is approached. For example, the map data of the navigation system 5 stores in advance information indicating whether or not there is an object to be enlarged (here, a road reflector) at each branch point, and the vehicle information input unit 8 can acquire the information. Can be configured. In this case, the composition control unit 14 can control the enlargement target recognition unit 9 to perform recognition processing when the vehicle 10 approaches a branch point where a road reflector is located. Note that the enlargement target recognition unit 9 may receive the information directly from the vehicle information input unit 8 and determine whether the recognition process needs to be executed.

<画像処理装置3の動作例>
次に、画像処理装置3の動作例について説明する。図8は、画像処理装置3の動作例を示すフローチャートである。図8に示す動作例では、まず、画像処理装置3は、合成画像を出力するか否かを示すフラグ「Flag」を初期化(0に設定)する(Op1)。
<Operation Example of Image Processing Device 3>
Next, an operation example of the image processing apparatus 3 will be described. FIG. 8 is a flowchart illustrating an operation example of the image processing apparatus 3. In the operation example shown in FIG. 8, first, the image processing apparatus 3 initializes (sets to 0) a flag “Flag” indicating whether to output a composite image (Op 1).

そして、車両情報入力部8は、ナビゲーションシステム5から車両10の現在位置および車両10の進行方向にある最も近い交差点位置K1を取得する(Op2)。現在位置情報および交差点位置K1は、例えば、緯度および経度により表される。車両情報入力部8は、車両10の現在位置から交差点位置K1までの距離Lを算出する(Op3)。距離Lは、合成制御部14に通知される。   Then, the vehicle information input unit 8 obtains the nearest intersection position K1 in the current position of the vehicle 10 and the traveling direction of the vehicle 10 from the navigation system 5 (Op2). The current position information and the intersection position K1 are represented by, for example, latitude and longitude. The vehicle information input unit 8 calculates a distance L from the current position of the vehicle 10 to the intersection position K1 (Op3). The distance L is notified to the composition control unit 14.

合成制御部14は、距離Lが閾値l0より小さい、すなわち車両10が交差点付近であり(L<l0:Op4でYes)、かつ、交差点通過前である(L≧0:Op5でYes)場合に、画像入力部7にカメラ2の撮像画像を取得させる(Op9)。The composition control unit 14 determines that the distance L is smaller than the threshold value l 0 , that is, the vehicle 10 is in the vicinity of the intersection (L <l 0 : Yes at Op4) and before passing the intersection (L ≧ 0: Yes at Op5). In this case, the image input unit 7 is caused to acquire a captured image of the camera 2 (Op9).

図9は、交差点を上から見た場合の、距離L、l0、交差点位置K1等の位置関係の例を示す図である。図9に示す例では、交差点位置K1は、交差点の中心(交差する道路の中心を通る線(中心線)の交点)の位置とされている。車両10は、交差点位置K1に向かって進んでいる。ここで、距離l0は、車両10が進入しようとしている道路の道幅Aにより決定される距離l1と、予め決められた固定値l2との和となっている。距離l1は、交差点位置から道端までの距離であり、一例として、l1=A/2で求められる。このように、カメラ2による画像取得期間を決めるための閾値l0は、合成制御部14が、道幅Aに基づく値と固定値とを足すことによって計算することができる。FIG. 9 is a diagram showing an example of the positional relationship between the distances L, l 0 , the intersection position K1, and the like when the intersection is viewed from above. In the example shown in FIG. 9, the intersection position K1 is the position of the center of the intersection (the intersection of the lines (center lines) passing through the centers of the intersecting roads). The vehicle 10 is traveling toward the intersection position K1. Here, the distance l 0 is the sum of the distance l 1 determined by the road width A of the road on which the vehicle 10 is approaching and a predetermined fixed value l 2 . The distance l 1 is a distance from the intersection position to the roadside, and is obtained by, for example, l 1 = A / 2. In this way, the threshold value l 0 for determining the image acquisition period by the camera 2 can be calculated by the composition control unit 14 adding a value based on the road width A and a fixed value.

図8のOp9において、画像入力部7は、例えば、撮像画像の1フレーム分を取得する。以下、1フレームが取得された場合の例を説明するが、画像入力部7がOp9において複数フレームを取得し、各フレームについて下記Op10の処理が実行されてもよい。   In Op9 of FIG. 8, the image input unit 7 acquires, for example, one frame of the captured image. Hereinafter, an example in which one frame is acquired will be described. However, the image input unit 7 may acquire a plurality of frames in Op9, and the following Op10 process may be executed for each frame.

なお、車両10が、交差点付近でない(Op4でNo)、または交差点を通過した後(Op8で)である場合には、合成制御部14は、カメラ2の撮像画像は取得せずに、フラグの判定を行う(Op5)。フラグが「Flag=0」(Op5でNo)の場合は、Op2の処理が再び実行される。「Flag=1」(Op5でYes)の場合は、合成制御部14は、拡大部12および重畳部13に対して、映像重畳処理を終了するように指示して(Op6)、フラグを「Flag=0」に設定する(Op7)。その後は、Op2の処理が再び実行される。   If the vehicle 10 is not near the intersection (No at Op4) or after passing the intersection (at Op8), the composition control unit 14 does not acquire the captured image of the camera 2 and sets the flag A determination is made (Op5). When the flag is “Flag = 0” (No in Op5), the processing in Op2 is executed again. When “Flag = 1” (Yes in Op5), the composition control unit 14 instructs the enlargement unit 12 and the superposition unit 13 to end the video superimposition processing (Op6), and sets the flag to “Flag”. = 0 "(Op7). Thereafter, the processing of Op2 is executed again.

このOp4〜Op9の処理により、車両10が交差点位置から所定の距離l0の地点に至ると、画像入力部7によるカメラ2の撮像画像の取得が開始され、車両10が交差点位置を過ぎると、カメラ2の撮像画像の取得が終了することになる。By the process of Op4~Op9, when the vehicle 10 reaches the intersection position at a point a predetermined distance l 0, acquires a captured image of the camera 2 by the image input unit 7 is started and the vehicle 10 passes the intersection position, Acquisition of the captured image of the camera 2 is completed.

Op9で、画像入力部7がカメラ2の撮像画像のフレーム(元フレーム)を取得すると、拡大対象認識部9が、元フレームにおいて、道路反射鏡と認識できる領域(道路反射鏡エリア)を抽出する(Op10)。拡大対象認識部9が道路反射鏡の領域を抽出した場合(Op11でYes)、合成制御部14は、道路反射鏡の領域の拡大度合いおよび元フレームに対して拡大画像を重畳する位置を計算する(Op13)。Op13において、合成制御部14は、Op3で計算された距離Lと、記録部16に記録された撮像情報および運転者情報を用いて、拡大度合いおよび重畳位置を計算する。その際、元フレームの画像の中で、運転者H1が直接見ることができる領域(非死角領域)に、拡大画像が重畳されるようにこの重畳位置が計算される。Op13の処理の詳細については後述する。   When the image input unit 7 acquires a frame (original frame) of the captured image of the camera 2 at Op9, the enlargement target recognition unit 9 extracts an area (road reflector area) that can be recognized as a road reflector in the original frame. (Op10). When the enlargement target recognition unit 9 extracts a road reflector region (Yes in Op11), the composition control unit 14 calculates the degree of enlargement of the road reflector region and the position where the enlarged image is superimposed on the original frame. (Op13). In Op13, the composition control unit 14 calculates the enlargement degree and the superimposed position using the distance L calculated in Op3 and the imaging information and driver information recorded in the recording unit 16. At this time, the superimposed position is calculated so that the enlarged image is superimposed on the area (non-dead angle area) that can be directly seen by the driver H1 in the image of the original frame. Details of the Op13 process will be described later.

拡大部12は、Op13で計算された拡大度合いに基づいて、Op10で抽出された道路反射鏡の領域を拡大した拡大画像を生成する(Op14)。重畳部13は、Op13で計算された重畳位置に基づいて、元フレームと拡大画像を重畳した合成画像を生成する(Op15)。そして、出力部15が、合成画像をモニタ6に表示できるように加工した表示データを生成して(Op16)、モニタ6に出力する(Op17)。これにより、モニタ6には、カメラ2が撮像画像中の非死角領域に、道路反射鏡が拡大されて重畳された画像が表示される。モニタ6に合成画像が表示されるとフラグが「Flag=1」に設定される(Op18)。   The enlargement unit 12 generates an enlarged image obtained by enlarging the area of the road reflector extracted at Op10 based on the enlargement degree calculated at Op13 (Op14). The superposition unit 13 generates a composite image in which the original frame and the enlarged image are superposed based on the superposition position calculated in Op13 (Op15). And the output part 15 produces | generates the display data processed so that a synthesized image can be displayed on the monitor 6 (Op16), and outputs it to the monitor 6 (Op17). As a result, the monitor 6 displays an image in which the road reflector is enlarged and superimposed on the non-dead angle region in the captured image of the camera 2. When the composite image is displayed on the monitor 6, the flag is set to “Flag = 1” (Op18).

その後、再び、Op2が実行される。以上の図8に示した処理により、車両10が交差点位置から距離l0の地点に到達し、交差点位置を通過するまでは、カメラ2が撮影した画像がモニタ6に表示される。その際、カメラ2の撮像画像に道路反射鏡が移っている場合は、道路反射鏡が拡大されて画像中の非死角領域に表示される。運転者H1は、モニタ6の画像を一瞥するだけで、道路反射鏡に移った死角領域の状況と、カメラ2が捉えた死角領域の状況の両方を確認することができる。Thereafter, Op2 is executed again. With the processing shown in FIG. 8 described above, the image captured by the camera 2 is displayed on the monitor 6 until the vehicle 10 reaches the point at the distance l 0 from the intersection position and passes through the intersection position. At this time, when the road reflector is moved to the captured image of the camera 2, the road reflector is enlarged and displayed in a non-dead angle region in the image. The driver H1 can confirm both the condition of the blind spot area moved to the road reflector and the situation of the blind spot area captured by the camera 2 by just looking at the image on the monitor 6.

<拡大度合いおよび重畳位置の計算例>
ここで、図8のOp13における拡大度合いおよび重畳位置の計算の例を説明する。図10は、Op13における合成制御部14の処理の一例を示すフローチャートである。図10において、合成制御部14は、記録部16から撮像情報として、カメラ2のカメラ特性を取り出す(Op21)。カメラ特性には、例えば、カメラ2の取り付け位置、画角およびレンズ特性が含まれる。
<Example of calculation of enlargement level and superimposed position>
Here, an example of the calculation of the enlargement degree and the overlapping position in Op13 of FIG. 8 will be described. FIG. 10 is a flowchart illustrating an example of processing of the synthesis control unit 14 in Op13. In FIG. 10, the composition control unit 14 extracts the camera characteristics of the camera 2 as imaging information from the recording unit 16 (Op21). The camera characteristics include, for example, the mounting position of the camera 2, the angle of view, and the lens characteristics.

また、合成制御部14は、記録部16から運転者情報として、運転者の視点位置および運転者の有効視野を取得する(Op22)。通常、車両10においては、運転席の位置から、運転者の視点位置を決定することができる。そのため、運転席と位置を、運転者の視点位置を示すデータとして予め記録部16に記録しておくことができる。   Further, the composition control unit 14 acquires the driver's viewpoint position and the driver's effective visual field as the driver information from the recording unit 16 (Op22). Normally, in the vehicle 10, the viewpoint position of the driver can be determined from the position of the driver's seat. Therefore, the driver's seat and position can be recorded in the recording unit 16 in advance as data indicating the driver's viewpoint position.

合成制御部14は、Op21で取得したカメラ特性と距離Lを使って、交差点位置付近におけるカメラ2で撮影される撮像領域を計算する(Op22)。さらに、合成制御部14は、Op22で取得した運転者情報と距離Lを使って、交差点位置付近における、運転者が直接見ることができる視野領域を計算する(Op23)。   The composition control unit 14 uses the camera characteristics and the distance L acquired at Op21 to calculate an imaging area photographed by the camera 2 near the intersection position (Op22). Further, the composition control unit 14 calculates a visual field area that can be directly seen by the driver near the intersection using the driver information and the distance L acquired in Op22 (Op23).

以下に、図11を参照して、Op22およびOp23の計算例を説明する。ここでは、交差点位置付近の撮像領域および視野領域として、交差点位置K1を含む車両の進行方向に垂直な水平面上の直線上における撮像領域および視野領域を計算する場合について説明する。なお、交差点付近の撮像領域および視野領域は、この例に限られない。例えば、交差点位置K1から、道幅Aの2分の1だけ進んだ位置を通る直線または平面上における撮像領域および視野領域が計算されてもよい。   Below, with reference to FIG. 11, the calculation example of Op22 and Op23 is demonstrated. Here, a case will be described in which the imaging region and the visual field region on the straight line on the horizontal plane perpendicular to the traveling direction of the vehicle including the intersection position K1 are calculated as the imaging region and the visual field region near the intersection position. Note that the imaging region and the visual field region near the intersection are not limited to this example. For example, an imaging region and a visual field region on a straight line or a plane passing through a position advanced by a half of the road width A from the intersection position K1 may be calculated.

図11は、交差点に進入しようとする車両10を上から見た場合の、撮像領域および視野領域の例を示す図である。図11の示す例は、車両10のカメラ2位置が車両10の現在位置であり、この車両10の現在位置から進行方向へ延びる直線上に交差点位置K1がある場合の例である。   FIG. 11 is a diagram illustrating an example of an imaging region and a visual field region when the vehicle 10 about to enter an intersection is viewed from above. The example shown in FIG. 11 is an example where the camera 2 position of the vehicle 10 is the current position of the vehicle 10 and the intersection position K1 is on a straight line extending from the current position of the vehicle 10 in the traveling direction.

図11において、直線p6および直線n6で挟まれる領域は、カメラ2で撮影される水平方向における範囲を示している。直線p6と直線n6との間の角度「α」は、カメラ2の監視可能角度である。この「α」の値には、例えば、カメラ特性に含まれるカメラ2の画角の値を用いることができる。また、合成制御部14は、カメラ2の画角およびレンズ特性により「α」の値を計算することもできる。あるいは、「α」の値を、予め固定値として記録部16に記録しておいてもよい。   In FIG. 11, a region sandwiched between the straight line p <b> 6 and the straight line n <b> 6 indicates a range in the horizontal direction taken by the camera 2. An angle “α” between the straight line p6 and the straight line n6 is a monitorable angle of the camera 2. For example, the value of the angle of view of the camera 2 included in the camera characteristics can be used as the value of “α”. The composition control unit 14 can also calculate the value of “α” based on the angle of view of the camera 2 and the lens characteristics. Alternatively, the value of “α” may be recorded in the recording unit 16 as a fixed value in advance.

また、直線p7および直線n7で挟まれる領域は、運転者H1が直接見ることのできる範囲を示している。直線p7と直線n7との間の角度「β」は、運転者H1の有効視野である。この「β」の値は、例えば、予め固定値として記録部16に記録しておいてもよい。なお、人間の有効視野は、眼球運動だけで対象を捉えられノイズの中から目的とする対象を受容できる視野である。標準的な人間の有効視野は、左右約15度であるので、この値が角度「β」の値として記録されてもよい。   A region sandwiched between the straight line p7 and the straight line n7 indicates a range that can be directly seen by the driver H1. An angle “β” between the straight line p7 and the straight line n7 is an effective visual field of the driver H1. The value of “β” may be recorded in the recording unit 16 as a fixed value in advance, for example. It should be noted that the effective visual field of human beings is a visual field that can capture a target only by eye movement and can accept a target target from noise. Since the standard human effective visual field is about 15 degrees to the left and right, this value may be recorded as the value of the angle “β”.

また、カメラ2の設置位置から運転者H1までの進行方向における距離はlm、進行方向に垂直な方向における距離はnで表される。これらの距離lmおよび距離nは、上記Op21で取得されたカメラ2の設置位置およびOp22で取得された運転者の視点位置により求めることができる。また、これらの距離lmおよび距離nを、記録部16に予め記録しておくこともできる。The distance in the traveling direction from the installation position of the camera 2 to the driver H1 is represented by l m , and the distance in the direction perpendicular to the traveling direction is represented by n. The distance l m and the distance n can be obtained from the installation position of the camera 2 acquired at Op21 and the driver's viewpoint position acquired at Op22. Also, these distances l m and the distance n, can also be recorded in advance in the recording unit 16.

水平面上の直線であって、交差点位置K1を含み車両の進行方向に垂直な直線q上において、カメラ2で撮影される範囲は、直線qと直線p6との交点から、直線qと直線n6との交点までである。また、運転者H1が直見ることのできる範囲は、直線qと直線p7との交点から、直線qと直線n7との交点までである。   On the straight line q on the horizontal plane and including the intersection position K1 and perpendicular to the traveling direction of the vehicle, the range photographed by the camera 2 is from the intersection of the straight line q and the straight line p6 to the straight line q and the straight line n6. Until the intersection of The range that the driver H1 can directly view is from the intersection of the straight line q and the straight line p7 to the intersection of the straight line q and the straight line n7.

Op22において、合成制御部14は、直線q上において、カメラ2で撮影される範囲の長さの2分の1(=m1)を、撮像領域として計算する。この計算には、監視可能角度αと、車両10と交差点位置との距離Lが用いられる。具体的には、下記式(1)および式(2)に示すように、m1の値を計算することができる。   In Op22, the composition control unit 14 calculates one half (= m1) of the length of the range photographed by the camera 2 on the straight line q as the imaging region. For this calculation, the monitorable angle α and the distance L between the vehicle 10 and the intersection position are used. Specifically, as shown in the following formulas (1) and (2), the value of m1 can be calculated.

tan(α/2) = m1/L ――――(1)
m1 = L×tan(α/2) ――――(2)
また、Op23において、合成制御部14は、直線q上において、運転者H1から直接見える範囲の長さの2分の1(=m2)を、視野領域として計算する。この計算には、距離L、角度βおよび、カメラ2から運転者H1までの進行方向の距離lmが用いられる。具体的には、下記式(3)および式(4)に示すように、m2の値を計算することができる。
tan (α / 2) = m1 / L ―――― (1)
m1 = L × tan (α / 2) ―――― (2)
In Op23, the composition control unit 14 calculates, on the straight line q, one half (= m2) of the length directly visible to the driver H1 as the visual field region. The calculation distance L, the angle β and the distance l m in the traveling direction from the camera 2 to the driver H1 is used. Specifically, the value of m2 can be calculated as shown in the following formulas (3) and (4).

tan(β/2) = m2/(L+lm) ――――(3)
m2 = (L+lm)×tan(β/2) ――――(4)
合成制御部14は、上記のm1、m2を用いて、撮像領域と視野領域の位置関係を計算する。具体的には、合成制御部14は、図11に示す例において、直線qと直線p6の交点から、直線qと直線p7との交点までの距離Xを計算する。距離Xは、撮像領域と視野領域の位置関係を表す値の一例であり、撮像領域の左端から視野領域の左端までの距離である。Xの値は、例えば、l0<Lの場合は下記式(5)、l1<L≦l0の場合は下記式(6)、0<L≦l1の場合は下記式(7)により、計算することができる。このように、車両10と交差点位置K1との距離Lの値によって、計算方法を変えることで、距離Lに応じた適切な重畳位置を計算することが可能になる。
tan (β / 2) = m2 / (L + l m) ---- (3)
m2 = (L + l m ) × tan (β / 2) ―――― (4)
The composition control unit 14 calculates the positional relationship between the imaging region and the visual field region using the above m1 and m2. Specifically, in the example illustrated in FIG. 11, the composition control unit 14 calculates the distance X from the intersection of the straight line q and the straight line p6 to the intersection of the straight line q and the straight line p7. The distance X is an example of a value representing the positional relationship between the imaging region and the visual field region, and is a distance from the left end of the imaging region to the left end of the visual field region. The value of X is, for example, the following formula (5) when l 0 <L, the following formula (6) when l 1 <L ≦ l 0 , and the following formula (7) when 0 <L ≦ l 1. Can be calculated. Thus, by changing the calculation method depending on the value of the distance L between the vehicle 10 and the intersection position K1, it is possible to calculate an appropriate superposition position according to the distance L.

0<Lの場合:
X=0 ――――(5)
1<L≦l0の場合:
X=m1−(m2―n)
={L×tan(α/2)}―{(L+lm)×tan(β/2)−n} ――(6)
0<L≦l1の場合:
X={l1×tan(α/2)}―{(l1+lm)×tan(β/2)−n} ――(7)
このようにして計算されたm1、m2およびXを用いて、合成制御部14は、カメラ2で撮影された撮像画像における非死角領域を示す値を計算する(図10のOp25)。例えば、合成制御部14は、撮像画像において運転者H1の視野領域が写っている部分(非死角領域)の左端の位置を計算する。
If l 0 <L:
X = 0 ―――― (5)
If l 1 <L ≦ l 0 :
X = m1- (m2-n)
= {L × tan (α / 2)} − {(L + l m ) × tan (β / 2) −n} (6)
If 0 <L ≦ l 1 :
X = {l 1 × tan (α / 2)} − {(l 1 + l m ) × tan (β / 2) −n} (7)
Using m1, m2, and X calculated in this way, the composition control unit 14 calculates a value indicating a non-dead angle area in the captured image captured by the camera 2 (Op25 in FIG. 10). For example, the composition control unit 14 calculates the position of the left end of the portion (non-blind area) where the field of view of the driver H1 is shown in the captured image.

具体的には、合成制御部14は、撮像領域を示す値(m1)、視野領域を示す値(m2)および撮像領域の左端から視野領域の左端までの距離Xを用いて、カメラ2の撮像画像における非死角領域の左端の位置を計算する。この計算の一例を図12を用いて説明する。   Specifically, the composition control unit 14 uses the value (m1) indicating the imaging region, the value (m2) indicating the visual field region, and the distance X from the left end of the imaging region to the left end of the visual field region. The position of the left end of the non-blind area in the image is calculated. An example of this calculation will be described with reference to FIG.

図12は、図11の例においてカメラ2により撮影される撮像画像を、モニタの表示領域に対応するように示した図である。図12に示す例では、直線qにおける撮像領域の幅(2×m1)が、撮像画像G1の横幅W1に相当する。ここで、撮像画像G1の横幅W1は、モニタ6における映像表示領域の横幅とする。横幅W1は、例えば、固定値として予め記録部16に記録される。   FIG. 12 is a diagram illustrating a captured image captured by the camera 2 in the example of FIG. 11 so as to correspond to the display area of the monitor. In the example shown in FIG. 12, the width (2 × m1) of the imaging region on the straight line q corresponds to the lateral width W1 of the captured image G1. Here, the horizontal width W1 of the captured image G1 is the horizontal width of the video display area in the monitor 6. The horizontal width W1 is recorded in the recording unit 16 in advance as a fixed value, for example.

図12に示すように、直線qにおける撮像領域と視野領域の位置関係を、撮像画像G1における画像全面と非死角領域の位置関係に相当するとみなすことができる。すなわち、撮像画像G1の幅W1と、撮像画像G1の左端から非死角領域の左端までの長さXPIXの関係は、撮像領域の幅(2×m1)と距離Xとの関係に相当するとみなすことができる。そうすると、下記式(8)が成り立つ。As shown in FIG. 12, the positional relationship between the imaging region and the visual field region on the straight line q can be regarded as corresponding to the positional relationship between the entire image and the non-dead angle region in the captured image G1. That is, the relationship between the width W1 of the captured image G1 and the length X PIX from the left end of the captured image G1 to the left end of the non-dead angle region is considered to correspond to the relationship between the width (2 × m1) of the imaged region and the distance X. be able to. Then, the following formula (8) is established.

(2×m1):W1 = X:XPIX ――――(8)
PIXは下記式(9)により計算することができる。
(2 × m1): W1 = X: X PIX ―――― (8)
X PIX can be calculated by the following equation (9).

PIX = (X×W1)/(2×m1) ――――(9)
合成制御部14は、XPIXの値を、非死角領域を示す値として算出し(図10のOp25)、さらに、XPIXを、そのまま重畳位置を示す値として重畳部13に通知する(Op26)。なお、重畳位置を示す値は、XPIXに限られない。例えば、合成制御部14は、直線q上の視野領域の左端と右端の位置を求め、それらの中間点に相当する撮像画像中の位置を重畳位置としてもよい。
X PIX = (X × W1) / (2 × m1) ―――― (9)
The composition control unit 14 calculates the value of X PIX as a value indicating a non-blind area (Op25 in FIG. 10), and further notifies X PIX as it is as a value indicating the superimposition position (Op26). . Note that the value indicating the superimposed position is not limited to X PIX . For example, the composition control unit 14 may obtain the positions of the left end and the right end of the visual field area on the straight line q, and may set the position in the captured image corresponding to the intermediate point as the superimposed position.

上記の非死角領域の計算方法は、カメラ2の監視可能角度αが180°より小さいことを前提としている。カメラ2の画角が180°以上の場合は、例えば、180°から左右1度ずつ減らして、αを178°とし、上記の計算方法で非死角領域を算出することができる。   The calculation method of the non-dead angle area is based on the premise that the monitorable angle α of the camera 2 is smaller than 180 °. When the angle of view of the camera 2 is 180 ° or more, for example, the left and right angles are reduced from 180 ° by 1 degree, α is set to 178 °, and the non-blind area can be calculated by the above calculation method.

なお、αの値が大きくなればなるほどカメラ2が撮影する範囲が大きくなり、撮像画像に対する道路反射鏡の部分の画像が小さくなって視認性が下がる。そのため、道路反射鏡を認識できるカメラ2の最大監視可能角度αmax(=閾値)を予め記録部16に記録しておき、カメラ2の画角が最大監視可能角度αmaxを越える場合であっても、最大監視可能角度αmax内の領域の画像を撮像画像とすることができる。これにより、カメラ2の画角が180°以上であっても、上記の計算方法を用いて非死角領域を計算することができる。Note that the larger the value of α, the larger the range that the camera 2 captures, and the image of the road reflector portion with respect to the captured image becomes smaller and the visibility decreases. Therefore, the maximum monitorable angle α max (= threshold) of the camera 2 that can recognize the road reflector is recorded in the recording unit 16 in advance, and the angle of view of the camera 2 exceeds the maximum monitorable angle α max. In addition, an image in a region within the maximum monitorable angle α max can be used as a captured image. Thereby, even if the angle of view of the camera 2 is 180 ° or more, the non-blind area can be calculated using the above calculation method.

次に、Op27において、合成制御部14は、拡大画像の拡大サイズ(拡大後のサイズ)を計算する。ここで、図7A、Bに示したように、モニタ6の映像表示領域の横幅すなわち撮像画像の横幅をW1、縦幅をH1とし、拡大画像の横幅をW2、縦幅をH2とする。W1およびH1の値は、例えば、記録部16に予め記録されている。W2およびH2の値は、例えば、l0<Lの場合は下記式(10)および(11)、l1<L≦l0の場合は下記式(12)および(13)、0<L≦l1の場合は下記式(14)および(15)により、計算することができる。このように、車両10と交差点位置K1との距離Lの値によって、拡大サイズ(W2、H1)の計算方法を変えることで、距離Lに応じた適切な拡大サイズを計算することが可能になる。Next, in Op27, the composition control unit 14 calculates the enlargement size (size after enlargement) of the enlargement image. Here, as shown in FIGS. 7A and 7B, the horizontal width of the video display area of the monitor 6, that is, the horizontal width of the captured image is W1, the vertical width is H1, the horizontal width of the enlarged image is W2, and the vertical width is H2. The values of W1 and H1 are recorded in advance in the recording unit 16, for example. The value of W2 and H2, for example, the following formula in the case of l 0 <L (10) and (11), the following equation (12) in the case of l 1 <L ≦ l 0 and (13), 0 <L ≦ In the case of l 1 , it can be calculated by the following formulas (14) and (15). Thus, by changing the calculation method of the enlargement size (W2, H1) according to the value of the distance L between the vehicle 10 and the intersection position K1, it is possible to calculate an appropriate enlargement size according to the distance L. .

0<Lの場合:
W2=0 ――――(10)
H2=0 ――――(11)
1<L≦l0の場合:
W2=W1−(a×L) ――――(12)
H2=H1−(b×L) ――――(13)
0<L≦l1の場合:
W2=W1−(a×l1) ――――(14)
H2=H1−(b×l1) ――――(15)
上記式(12)〜(15)において、係数aおよびbは定数であり、例えば、カメラ特性および道幅Bに基づいて適切な係数aおよびbの値が決定される。具体的には、カメラ2の水平方向の画角(水平画角VX)の値および道幅Bの値の組み合わせと、その組み合わせに対応する係数aを予め記録したテーブルを用いて、係数aを決定することができる。下記表1は、水平画角VXと道幅Bの値の組み合わせに対応する係数aを記録したテーブルの例である。
If l 0 <L:
W2 = 0 ―――― (10)
H2 = 0 ―――― (11)
If l 1 <L ≦ l 0 :
W2 = W1- (a × L) ―――― (12)
H2 = H1− (b × L) ―――― (13)
If 0 <L ≦ l 1 :
W2 = W1- (a × l 1 ) ―――― (14)
H2 = H1- (b × l 1 ) ―――― (15)
In the above formulas (12) to (15), the coefficients a and b are constants, and appropriate values of the coefficients a and b are determined based on the camera characteristics and the road width B, for example. Specifically, the coefficient a is determined using a table in which a combination of the horizontal view angle (horizontal view angle VX) value and the road width B value of the camera 2 and the coefficient a corresponding to the combination is recorded in advance. can do. Table 1 below is an example of a table in which a coefficient a corresponding to a combination of values of the horizontal angle of view VX and the road width B is recorded.

Figure 2009107199
Figure 2009107199

同様にして、カメラ2の垂直方向の画角(垂直画角VZ)の値および道幅Bの値の組み合わせと、その組み合わせに対応する係数bを予め記録したテーブルを用いて、係数bを決定することができる。下記表2は、垂直画角VZと道幅Bの値の組み合わせに対応する係数bを記録したテーブルの例である。   Similarly, the coefficient b is determined using a table in which a combination of a vertical field angle (vertical field angle VZ) value and a road width B value of the camera 2 and a coefficient b corresponding to the combination is recorded in advance. be able to. Table 2 below is an example of a table in which the coefficient b corresponding to the combination of the values of the vertical angle of view VZ and the road width B is recorded.

Figure 2009107199
Figure 2009107199

なお、係数aおよびbの決定方法は上記例に限られない。例えば、係数aおよびbを決定する条件に、道幅,水平画角および垂直画角だけでなく、カメラが送出する画像の縦サイズおよび横サイズを加えてもよい。また、必ずしも道幅Bを条件に加えなくてもよい。また、Op25で計算された非死角領域を示す値を用いて、拡大サイズを決定することもできる。例えば、拡大画像のサイズを非死角領域内に収まるサイズとしてもよい。   The method for determining the coefficients a and b is not limited to the above example. For example, in addition to the road width, horizontal angle of view, and vertical angle of view, the vertical size and horizontal size of the image sent by the camera may be added to the conditions for determining the coefficients a and b. Further, the road width B is not necessarily added to the conditions. Further, the enlargement size can be determined using the value indicating the non-dead angle area calculated in Op25. For example, the size of the enlarged image may be a size that fits within the non-dead angle area.

このようにして、Op27において計算された拡大サイズ(W2、H2)は、拡大部12へ通知される。拡大部12は、この拡大サイズ(W2、H2)になるように、撮像画像の元フレームにおける道路反射鏡の領域を拡大する。   In this way, the enlargement size (W2, H2) calculated in Op27 is notified to the enlargement unit 12. The enlargement unit 12 enlarges the area of the road reflector in the original frame of the captured image so that the enlargement size (W2, H2) is obtained.

以上、図10〜図12を用いて説明したように、合成制御部14は、カメラ2の撮像情報および距離Lを使って撮像領域を計算し、運転者情報および距離Lを使って視野領域を計算する。そして、合成制御部14は、カメラ2の設置位置と運転者H1の位置との関係を示す値を用いて、撮像領域と視野領域の位置関係を求める。合成制御部14は、この位置関係を用いて非死角領域を示す値を計算することができる。   As described above with reference to FIGS. 10 to 12, the composition control unit 14 calculates the imaging region using the imaging information of the camera 2 and the distance L, and determines the visual field region using the driver information and the distance L. calculate. Then, the composition control unit 14 obtains the positional relationship between the imaging region and the visual field region using a value indicating the relationship between the installation position of the camera 2 and the position of the driver H1. The composition control unit 14 can calculate a value indicating a non-blind area using this positional relationship.

<表示画像の例>
図13は、拡大サイズの拡大画像を含む合成画像が、モニタ6に表示される場合の例を示す図である。図13に示す例は、車両10が交差点に進入し通過する場合における、車両10の各位置におけるモニタ6の表示画面の例である。
<Example of display image>
FIG. 13 is a diagram illustrating an example in which a composite image including an enlarged image having an enlarged size is displayed on the monitor 6. The example shown in FIG. 13 is an example of the display screen of the monitor 6 at each position of the vehicle 10 when the vehicle 10 enters and passes through the intersection.

車両10が交差点位置K1から閾値l0の距離に達していないとき(l0<Lのとき)は、画面D1がモニタ6に表示される。車両10が交差点位置K1からl0以内の距離に入ったとき、画面D2が表示される。画面D2では、道路反射鏡の部分が拡大され元の撮像画像に重畳されて表示されている。その後、車両10が交差点の道路に進入するまでの期間(l1<L≦l0となる期間)においては、車両10が交差点に近づくにつれて、道路反射鏡の拡大画像のサイズが大きくなるように表示される(画面D3)。すなわち、上記式(12)および(13)で計算される横幅W2と縦幅H2の拡大画像が表示される。そして、車両10が交差点の道路に進入し、交差点位置K1に達するまでの期間(0<L≦l1の期間)、拡大画像は固定サイズ(上記式(14)(15)のW2、H1)で表示される(画面D4)。そして、交差点位置K1を過ぎると(0>L)、画面D5のように拡大画像は表示されなくなる。When the vehicle 10 has not reached the threshold value l 0 from the intersection position K1 (when l 0 <L), the screen D1 is displayed on the monitor 6. When the vehicle 10 enters a distance within l 0 from the intersection position K1, the screen D2 is displayed. On the screen D2, the road reflector portion is enlarged and displayed superimposed on the original captured image. Thereafter, in a period until the vehicle 10 enters the road at the intersection (period where l 1 <L ≦ l 0 ), the size of the enlarged image of the road reflector increases as the vehicle 10 approaches the intersection. Is displayed (screen D3). That is, an enlarged image having a horizontal width W2 and a vertical width H2 calculated by the above equations (12) and (13) is displayed. Then, the period until the vehicle 10 enters the intersection road and reaches the intersection position K1 (period of 0 <L ≦ l 1 ), the enlarged image has a fixed size (W2, H1 in the above formulas (14) and (15)). Is displayed (screen D4). When the intersection position K1 is passed (0> L), the enlarged image is not displayed as in the screen D5.

以上、図13に示した画面遷移により、車両10の状況に合わせて、運転者H1が、確認しやすい大きさおよび位置で、道路反射鏡の拡大画像が元の撮像画像に重畳して表示される。特に、車両が交差点に進入した直後(L=l1の直後)には、運転者H1が直接見ることのできない左右の道路の状況が、1つの画面で表示される。このため、運転者H1は、モニタ6を一瞥するだけで、道路反射鏡に写った死角の状況と、カメラ2が捉えた死角の状況とを確認することができる。As described above, the screen transition shown in FIG. 13 displays the enlarged image of the road reflector superimposed on the original captured image in a size and position that is easy for the driver H1 to confirm in accordance with the situation of the vehicle 10. The In particular, immediately after the vehicle enters the intersection (immediately after L = l 1 ), the left and right road conditions that the driver H1 cannot directly see are displayed on one screen. For this reason, the driver H1 can confirm the condition of the blind spot reflected on the road reflector and the condition of the blind spot captured by the camera 2 only by looking at the monitor 6.

なお、上記の画面遷移は、一例でありこれに限られない。例えば、L<0の時、およびl0<Lの時には、カメラ2による画像を表示しないようにしてもよい。The screen transition described above is an example and is not limited to this. For example, the image by the camera 2 may not be displayed when L <0 and when l 0 <L.

このように、運転者H1は、カメラ2や道路反射鏡がとらえる死角エリアの状況を、1回のアクション(モニタ6で死角エリアの状況を確認するという行為)で確認することが可能となる。その結果、運転者H1は、負担が低減され、かつ、時々刻々と変化する状況を確実に認識することができる。   In this way, the driver H1 can check the status of the blind spot area captured by the camera 2 and the road reflector with a single action (the act of checking the status of the blind spot area on the monitor 6). As a result, the driver H1 can reliably recognize a situation in which the burden is reduced and changes every moment.

また、画像処理装置3により、カメラ2の撮像画像から道路反射鏡のエリアを検出し、そのエリアを拡大し元の撮像画像の非死角領域に重畳して一つの画面内に表示することが可能になる。これにより、カメラ2または道路反射鏡単独ではとらえきれなったエリアに存在する、自転車、歩行者または車両の状況を運転者H1に提示することが可能となる。その結果、交通事故の大半をしめる、出会い頭事故の低減が期待できる。   In addition, the image processing device 3 can detect the area of the road reflector from the captured image of the camera 2, enlarge the area, and display it on one screen superimposed on the non-dead angle area of the original captured image. become. As a result, it is possible to present to the driver H1 the state of the bicycle, pedestrian, or vehicle that exists in an area that cannot be captured by the camera 2 or the road reflector alone. As a result, we can expect a reduction in encounter accidents, which will account for most traffic accidents.

<重畳位置計算の変形例>
ここで、図11を用いて説明した撮像領域(m1)、視野領域(m2)およびこれらの位置関係を示す値(X)の計算の変形例を説明する。図11に示した例では、カメラ2の光軸と、運転者H1が見る方向(目線の方向)が互いに略平行であり、かつ車両10の進行方向とも平行である場合の例である。これに対して、本変形例では、カメラ2の光軸と、運転者H1が見る方向が平行でない場合について説明する。図14は、交差点に進入しようとする車両10を上から見た場合の、本変形例における、撮像領域および視野領域の例を示す図である。図14において示される変数L、m1、lm、n、αおよびβは、図11に示した変数と同じである。図14に示す例では、運転者H1の目線の方向が、水平面において進行方向から角度γだけ左に移動している。ここで、直線p8と直線n8で挟まれる領域が、運転者H1が直線見ることのできる領域である。この角度γの値は、例えば、記録部16に予め記録されていてもよいし、運転者H1がナビゲーションシステム5を介して設定できるようにしてもよい。また、角度γに関する情報は、運転者H1の視線を監視する車載装置(図示せず)から車両情報入力部8を介して取得されてもよい。
<Variation of superimposed position calculation>
Here, a modified example of the calculation of the imaging region (m1), the visual field region (m2), and the value (X) indicating the positional relationship described with reference to FIG. 11 will be described. In the example shown in FIG. 11, the optical axis of the camera 2 and the direction seen by the driver H <b> 1 (the direction of the line of sight) are substantially parallel to each other and are also parallel to the traveling direction of the vehicle 10. On the other hand, in this modification, a case where the optical axis of the camera 2 and the direction viewed by the driver H1 are not parallel will be described. FIG. 14 is a diagram illustrating an example of an imaging region and a visual field region in the present modification when the vehicle 10 about to enter the intersection is viewed from above. The variables L, m1, lm, n, α, and β shown in FIG. 14 are the same as the variables shown in FIG. In the example shown in FIG. 14, the direction of the line of sight of the driver H1 has moved to the left by an angle γ from the traveling direction on the horizontal plane. Here, a region sandwiched between the straight line p8 and the straight line n8 is a region where the driver H1 can see the straight line. For example, the value of the angle γ may be recorded in the recording unit 16 in advance, or may be set by the driver H1 via the navigation system 5. Moreover, the information regarding the angle γ may be acquired via the vehicle information input unit 8 from an in-vehicle device (not shown) that monitors the driver's line of sight.

図14に示す例では、直線q上において、カメラ2で撮影される範囲の長さの2分の1(=m1)は、図11に示した場合と同様に、上記式(2)により計算することができる。   In the example shown in FIG. 14, on the straight line q, half the length of the range photographed by the camera 2 (= m1) is calculated by the above equation (2) as in the case shown in FIG. can do.

m1 = L×tan(α/2) ――――(2)
本変形例では、直線q上と運転者H1から進行方向に延びる直線との交点F1と、運転者H1が直接見える範囲の左端の点(直線p8と直線qの交点)との間の距離をm3とする。合成制御部14は、m3の値を、運転者H1の視野領域の値として計算する。点F1と運転者H1を結ぶ直線と直線p8との間の角度は(γ+β/2)であるので、下記式(16)が成り立つ。そのため、m3は、下記式(17)により計算することができる。
m1 = L × tan (α / 2) ―――― (2)
In this modification, the distance between the intersection F1 between the straight line q and a straight line extending in the traveling direction from the driver H1 and the leftmost point (intersection of the straight line p8 and the straight line q) in the range where the driver H1 can be directly seen is Let m3. The composition control unit 14 calculates the value of m3 as the value of the visual field area of the driver H1. Since the angle between the straight line connecting the point F1 and the driver H1 and the straight line p8 is (γ + β / 2), the following equation (16) is established. Therefore, m3 can be calculated by the following formula (17).

tan(γ+β/2) = m3/(L+lm) ――――(16)
m3 = (L+lm)×tan(γ+β/2) ――――(17)
合成制御部14は、上記のm1、m3を用いて、撮像領域と視野領域の位置関係を計算する。具体的には、合成制御部14は、直線qと直線p6の交点から、直線qと直線p8との交点までの距離X2を計算する。撮像領域の左端から視野領域の左端までの距離である。X2の値は、例えば、下記式(18)〜(20)により計算することができる。
tan (γ + β / 2) = m3 / (L + l m) ---- (16)
m3 = (L + l m ) × tan (γ + β / 2) ―――― (17)
The composition control unit 14 calculates the positional relationship between the imaging region and the visual field region using the above m1 and m3. Specifically, the composition control unit 14 calculates a distance X2 from the intersection of the straight line q and the straight line p6 to the intersection of the straight line q and the straight line p8. This is the distance from the left end of the imaging area to the left end of the visual field area. The value of X2 can be calculated by, for example, the following formulas (18) to (20).

0<Lの場合:
X2=0 ――――(18)
1<L≦l0の場合:
X2=m1−(m3―n)
={L×tan(α/2)}―{(L+lm)×tan(γ+β/2)−n}
――――――(19)
0<L≦l1の場合:
X2={l1×tan(α/2)}―{(l1+lm)×tan(γ+β/2)−n}
――――――(20)
このようにして計算されたm1、m3およびX2を用いて、合成制御部14は、カメラ2で撮影された撮像画像における非死角領域を示す値を計算する。例えば、撮像画像の幅W1と、撮像画像の左端から非死角領域の左端までの長さXPIX-2の関係を、撮像領域の幅(2×m1)と距離X2との関係に相当するとみなすと下記(21)が成り立つ。これにより、XPIX-1は下記式(22)により計算することができる。
If l 0 <L:
X2 = 0 ―――― (18)
If l 1 <L ≦ l 0 :
X2 = m1- (m3-n)
= {L × tan (α / 2)} − {(L + l m ) × tan (γ + β / 2) −n}
―――――― (19)
If 0 <L ≦ l 1 :
X2 = {l 1 × tan (α / 2)} − {(l 1 + l m ) × tan (γ + β / 2) −n}
―――――― (20)
Using m1, m3, and X2 calculated in this way, the composition control unit 14 calculates a value indicating a non-dead angle region in the captured image captured by the camera 2. For example, the relationship between the width W1 of the captured image and the length X PIX-2 from the left end of the captured image to the left end of the non-dead angle region is considered to correspond to the relationship between the width (2 × m1) of the imaging region and the distance X2. And (21) below holds. Thereby, X PIX-1 can be calculated by the following equation (22).

(2×m1):W1 = X2:XPIX-2 ――――(21)
PIX-2 = (X2×W1)/(2×m1) ――――(22)
合成制御部14は、XPIX-2の値を、非死角領域を示す値として算出し、そのXPIX-2の値を、重畳位置を示す値として重畳部13に通知することができる。これにより、出力部15は、撮像画像における非死角領域に拡大画像が重畳された合成画像を生成し、モニタ6に出力することができる。
(2 x m1): W1 = X2: X PIX-2 ―――― (21)
X PIX-2 = (X2 × W1) / (2 × m1) ―――― (22)
Composition control unit 14, the value of X PIX-2, is calculated as a value indicating a non-blind area, the value of the X PIX-2, it is possible to notify the superimposition unit 13 as a value indicating a superimposed position. Accordingly, the output unit 15 can generate a composite image in which the enlarged image is superimposed on the non-dead angle region in the captured image and output the composite image to the monitor 6.

なお、本変形例では、運転者H1の視線が進行方向から左にずれている場合について説明した。この本変形例の計算方法を用いることにより、カメラ2の光軸が水平面において所定の角度(水平舵角)だけ回転している場合にも、非死角領域を計算することができる。   In addition, in this modification, the case where driver | operator H1's eyes | visual_axis shifted | deviated to the left from the advancing direction was demonstrated. By using the calculation method of this modification, the non-dead angle region can be calculated even when the optical axis of the camera 2 is rotated by a predetermined angle (horizontal rudder angle) in the horizontal plane.

図15Aおよび図15Bに、カメラ2の光軸が所定の水平舵角だけ回転する場合の例を示す。図15Aは、車両10が道路に対して、90度以外の角度で進入する状況を上からみた場合の例を示す図である。図15Aに示す分岐点(T字路)では、角度λで2つの道路が合流している。ここでは一例として、これらの合流する2つの道路それぞれの中心線の交点が、分岐点位置K2とされている。車両が通行中の道路の道幅はB、車両10が進入しようとする道路の道幅はA2である。車両10から分岐点位置K2までの距離はL、分岐点位置K2から道端までの距離はl1、拡大画像の表示開始地点を決めるための閾値(固定値)はl2、分岐点位置K2から拡大画像の表示開始位置までの距離はl0でそれぞれ示される。距離l1は、例えば、l1=(A2/2)cosλ+(B/2)tanλで計算される。なお、道幅A2、B、合流する2つの道路の角度λ、分岐点位置K2等の道路情報は、車両情報入力部8を介してナビゲーションシステム5から取得することができる。FIGS. 15A and 15B show an example in which the optical axis of the camera 2 rotates by a predetermined horizontal steering angle. FIG. 15A is a diagram illustrating an example of a situation in which the vehicle 10 enters the road at an angle other than 90 degrees from above. At the branch point (T-junction) shown in FIG. 15A, two roads merge at an angle λ. Here, as an example, the intersection of the center lines of each of the two roads that merge is set as a branch point position K2. The road width of the road on which the vehicle is passing is B, and the road width of the road on which the vehicle 10 is to enter is A2. The distance from the vehicle 10 to the branch point position K2 is L, the distance from the branch point position K2 to the roadside is l 1 , the threshold value (fixed value) for determining the display start point of the enlarged image is l 2 , and from the branch point position K2 The distance to the display start position of the enlarged image is indicated by l 0 . The distance l 1 is calculated by, for example, l 1 = (A2 / 2) cosλ + (B / 2) tanλ. The road information such as the road widths A2 and B, the angle λ of the two roads to be joined, and the branch point position K2 can be acquired from the navigation system 5 via the vehicle information input unit 8.

図15Bは、車両10のカメラ2の部分を拡大して示す図である。図15Bにおいて、Y軸は車両10の進行方向を示し、線Jはカメラ2の光軸の水平面における方向を示す。カメラ2の光軸Jは、水平面において、Y軸から角度εだけ反時計回りに回転している。すなわち、カメラ2の水平舵角はεであるといえる。   FIG. 15B is an enlarged view showing a part of the camera 2 of the vehicle 10. 15B, the Y axis indicates the traveling direction of the vehicle 10, and the line J indicates the direction of the optical axis of the camera 2 in the horizontal plane. The optical axis J of the camera 2 rotates counterclockwise by an angle ε from the Y axis in the horizontal plane. That is, it can be said that the horizontal steering angle of the camera 2 is ε.

ここで、カメラ2の舵角制御は、車載に搭載された他のECU(例えば、カメラ制御ECU(図示せず))が行うことができる。このECUは、一例として、車両10が進行中の道路と進入しようとする道路との角度λに応じて、カメラ2の水平舵角εを制御することができる。例えば、進入しようとする道路に対して光軸が垂直になるように、カメラ2の水平舵角εが制御される。   Here, the steering angle control of the camera 2 can be performed by another ECU (for example, a camera control ECU (not shown)) mounted on the vehicle. As an example, the ECU can control the horizontal rudder angle ε of the camera 2 in accordance with the angle λ between the road on which the vehicle 10 is traveling and the road to be approached. For example, the horizontal rudder angle ε of the camera 2 is controlled so that the optical axis is perpendicular to the road to be entered.

カメラ2の水平舵角εを示す情報は、例えば、画像入力部7が、上記ECUからカメラ特性として取得することができる。合成制御部14は、画像入力部7からカメラ2の水平舵角εを受け取って非死角領域の計算に用いることができる。   The information indicating the horizontal steering angle ε of the camera 2 can be acquired by the image input unit 7 as camera characteristics from the ECU, for example. The composition control unit 14 can receive the horizontal steering angle ε of the camera 2 from the image input unit 7 and use it for calculation of the non-dead angle region.

合成制御部14は、カメラ2が水平舵角εだけ回転した場合の撮像領域を計算し、計算した撮像領域と視野領域との位置関係を求めることにより、非死角領域を計算する。合成制御部14は、上記した、運転者H1の視線が角度γだけ回転した場合の視野領域の計算方法と同様に、カメラ2が水平舵角εだけ回転した場合の撮像領域を計算することができる。また、合成制御部14は、上記式(10)〜(15)を用いて、距離Lに応じた適切な拡大画像のサイズ(W2、H2)を計算することができる。   The composition control unit 14 calculates an imaging region when the camera 2 is rotated by the horizontal rudder angle ε, and calculates a non-dead angle region by obtaining a positional relationship between the calculated imaging region and the visual field region. The composition control unit 14 can calculate the imaging region when the camera 2 is rotated by the horizontal rudder angle ε in the same manner as the calculation method of the visual field region when the line of sight of the driver H1 is rotated by the angle γ described above. it can. Further, the composition control unit 14 can calculate an appropriate size (W2, H2) of the enlarged image corresponding to the distance L using the above formulas (10) to (15).

このようにして、カメラ2の光軸が水平面において所定の水平舵角だけ回転している場合にも、非死角領域を計算し、拡大画像の重畳位置および拡大サイズを決定することができる。   In this way, even when the optical axis of the camera 2 is rotated by a predetermined horizontal rudder angle in the horizontal plane, the non-dead angle region can be calculated and the superimposed position and the enlarged size of the enlarged image can be determined.

<車両10がカーブに向かう場合の重畳位置および拡大度合いの計算>
合成制御部14による動作の他の変形例を説明する。ここでは、車両10がカーブに向かう場合の合成制御部14の計算例について説明する。図16は、車両10がカーブへ向かう状況の例を上から見た図である。
<Calculation of superposition position and enlargement degree when vehicle 10 heads for a curve>
Another modification of the operation by the composition control unit 14 will be described. Here, a calculation example of the synthesis control unit 14 when the vehicle 10 heads for a curve will be described. FIG. 16 is a diagram of an example of a situation in which the vehicle 10 heads for a curve as seen from above.

図16では、車両10が曲率半径Rのカーブに差し掛かる直前の状況を示している。カーブ位置K3は、一例として、道路の中心線と、カーブの回転角(θ)を2等分する線との交点とされている。車両が通行中の道路の道幅はA、車両10からカーブ位置K3までの距離はL、カーブ位置K3からカーブが始まる地点までの距離はl1(l1=(R+A/2)sin(θ/2))、拡大画像の表示開始地点を決めるための閾値(固定値)はl2、カーブ位置K3から拡大画像の表示開始位置までの距離はl0でそれぞれ示される。なお、道幅A、カーブの回転角θ、カーブ位置K3、カーブの曲率半径R等の道路情報は、車両情報入力部8を介してナビゲーションシステム5から取得することができる。FIG. 16 shows a situation immediately before the vehicle 10 reaches the curve of the radius of curvature R. As an example, the curve position K3 is an intersection of a road center line and a line that bisects the rotation angle (θ) of the curve. The width of the road on which the vehicle is passing is A, the distance from the vehicle 10 to the curve position K3 is L, and the distance from the curve position K3 to the point where the curve starts is l 1 (l 1 = (R + A / 2) sin (θ / 2)), the threshold (fixed value) for determining the display start point of the enlarged image is indicated by l 2 , and the distance from the curve position K3 to the display start position of the enlarged image is indicated by l 0 . The road information such as the road width A, the curve rotation angle θ, the curve position K3, and the curve curvature radius R can be acquired from the navigation system 5 via the vehicle information input unit 8.

合成制御部14は、図11、図12を用いて説明した非死角領域の計算と同様に、撮像領域と視野領域との位置関係を求めることにより、撮像画像の非死角領域を計算することができる。また、合成制御部14は、例えば、下記式(23)〜(28)を用いて、距離Lに応じた適切な拡大画像のサイズ(W2、H2)を計算することができる。   Similar to the calculation of the non-blind area described with reference to FIGS. 11 and 12, the composition control unit 14 can calculate the non-blind area of the captured image by obtaining the positional relationship between the imaged area and the visual field area. it can. Further, the composition control unit 14 can calculate an appropriate size (W2, H2) of the enlarged image corresponding to the distance L using, for example, the following formulas (23) to (28).

0<Lの場合:
W2=0 ――――(23)
H2=0 ――――(24)
1<L≦l0の場合:
W2=W1−(a×L)+(e×L) ――――(25)
H2=H1−(b×L)+(f×L) ――――(26)
0<L≦l1の場合:
W2=W1−(a×l1)+(e×l1) ――――(27)
H2=H1−(b×l1)+(f×l1) ――――(28)
上記式(25)〜(28)における係数a、bは、上記式(12)〜(15)の係数a、bと同様に、カメラ特性および道幅Aにより決定することができる。係数e、fは、カーブのRにより決定される係数である。例えば、Rが小さいほど大きくなるような係数e、fの値が予め定義され、記録部16に記録される。具体的には、Rによって変化する係数e、fの値を定義する関数や、Rの各値に対応する係数e、fの値を記録したテーブル等により、係数e,fの値を決定することができる。
If l 0 <L:
W2 = 0 ―――― (23)
H2 = 0 ―――― (24)
If l 1 <L ≦ l 0 :
W2 = W1− (a × L) + (e × L) ―――― (25)
H2 = H1− (b × L) + (f × L) ―――― (26)
If 0 <L ≦ l 1 :
W2 = W1− (a × l 1 ) + (e × l 1 ) ―――― (27)
H2 = H1− (b × l 1 ) + (f × l 1 ) (28)
The coefficients a and b in the equations (25) to (28) can be determined by the camera characteristics and the road width A in the same manner as the coefficients a and b in the equations (12) to (15). The coefficients e and f are coefficients determined by the curve R. For example, the values of the coefficients e and f that increase as R decreases are defined in advance and recorded in the recording unit 16. Specifically, the values of the coefficients e and f are determined by a function that defines the values of the coefficients e and f that change depending on R, a table that records the values of the coefficients e and f corresponding to each value of R, and the like. be able to.

このようにして、車両10がカーブに差し掛かり通過する場合にも、非死角領域を計算し、道路反射鏡の拡大画像の重畳位置、拡大サイズを決定することができる。また、カーブの曲率に応じて拡大画像のサイズが調整されるので、例えば、曲率が大きい、すなわち曲がり具合が大きいカーブでは、道路反射鏡を大きく表示することが可能になる。   In this way, even when the vehicle 10 approaches the curve and passes through, the non-dead angle area can be calculated and the superimposed position and enlarged size of the enlarged image of the road reflector can be determined. Further, since the size of the enlarged image is adjusted according to the curvature of the curve, for example, a road reflector can be displayed in a large size on a curve having a large curvature, that is, a large degree of bending.

<事故発生頻度に応じて拡大画像の拡大度合いを決定する計算>
合成制御部14は、拡大画像の拡大サイズを決定する際に、上記の道路情報や車両位置情報の他に、様々な要因を考慮にいれることができる。例えば、合成制御部14は、車両10が進入しようとする交差点の事故発生頻度に応じて拡大サイズを決定してもよい。ここでは、図9に示したように、車両10が交差点に進入しようとする場合の計算例を説明する。合成制御部14は、車両10が進入しようとする交差点の事故発生頻度を示す値を、例えば、車両情報入力部8を介して、ナビゲーションシステム5から取得することができる。
<Calculation to determine the degree of enlargement of the enlarged image according to the accident frequency>
When determining the enlargement size of the enlarged image, the composition control unit 14 can take into account various factors in addition to the road information and the vehicle position information. For example, the composition control unit 14 may determine the enlarged size according to the frequency of accident occurrence at an intersection where the vehicle 10 is about to enter. Here, as shown in FIG. 9, an example of calculation when the vehicle 10 is about to enter an intersection will be described. The composition control unit 14 can obtain a value indicating the frequency of occurrence of an accident at an intersection where the vehicle 10 is about to enter from the navigation system 5 via the vehicle information input unit 8, for example.

事故発生頻度を示す値は、例えば、過去10年における交差点付近の事故件数等である。もしくは、季節ごとの事故発生頻度、または時間帯による事故発生頻度の違い等を示す値が、事故発生頻度を示す値であってもよい。このような値は、例えば、夏は事故が少ないが、冬になると雪道となって、事故発生率が高まる状況または、昼間は事故が少ないが、夜間や早朝になると事故が増える状況が反映された値である。   The value indicating the accident occurrence frequency is, for example, the number of accidents near the intersection in the past 10 years. Alternatively, the value indicating the accident occurrence frequency may be a value indicating the accident occurrence frequency for each season or the difference in the accident occurrence frequency depending on the time zone. Such values reflect, for example, the situation where there are few accidents in summer but snowy roads in winter and the incidence of accidents increases, or there are few accidents during the day but there are more accidents at night and early morning. Value.

合成制御部14は、例えば、下記式(29)〜(34)を用いて、距離Lに応じた適切な拡大画像のサイズ(W2、H2)を計算することができる。   The composition control unit 14 can calculate an appropriate size (W2, H2) of the enlarged image corresponding to the distance L using, for example, the following formulas (29) to (34).

0<Lの場合:
W2=0 ――――(29)
H2=0 ――――(30)
1<L≦l0の場合:
W2=W1−(a×L)+(c×L) ――――(31)
H2=H1−(b×L)+(d×L) ――――(32)
0<L≦l1の場合:
W2=W1−(a×l1)+(c×l1) ――――(33)
H2=H1−(b×l1)+(d×l1) ――――(34)
上記式(29)〜(34)における係数a、bは、上記式(12)〜(15)の係数a、bと同様に、カメラ特性および道幅Aにより決定することができる。また、係数c、dは、車両10が進入しようとする交差点の事故発生頻度により決定される係数である。例えば、事故発生頻度が高いほど大きくなるような係数c、dの値が予め定義され、記録部16に記録される。具体的には、事故発生頻度によって変化する係数c、dの値を定義する関数や、事故発生頻度の各値に対応する係数c、dの値を記録したテーブル等により、係数c,dの値を決定することができる。
If l 0 <L:
W2 = 0 ―――― (29)
H2 = 0 ―――― (30)
If l 1 <L ≦ l 0 :
W2 = W1− (a × L) + (c × L) ―――― (31)
H2 = H1− (b × L) + (d × L) ―――― (32)
If 0 <L ≦ l 1 :
W2 = W1− (a × l 1 ) + (c × l 1 ) ―――― (33)
H2 = H1− (b × l 1 ) + (d × l 1 ) (34)
The coefficients a and b in the equations (29) to (34) can be determined by the camera characteristics and the road width A in the same manner as the coefficients a and b in the equations (12) to (15). The coefficients c and d are coefficients determined by the frequency of accident occurrence at the intersection where the vehicle 10 is about to enter. For example, the values of the coefficients c and d that increase as the accident occurrence frequency increases are defined in advance and recorded in the recording unit 16. Specifically, the coefficients c and d are determined by a function that defines the values of the coefficients c and d that change according to the accident occurrence frequency, a table that records the values of the coefficients c and d corresponding to each value of the accident occurrence frequency, and the like. The value can be determined.

このようにして、車両10が進入する交差点の事故発生頻度に応じて道路反射鏡の拡大画像の拡大サイズを決定することができる。これにより、例えば、事故発生頻度が高い交差点では、道路反射鏡の拡大画像のサイズを大きくし、運転者H1がより確認しやすい画像をモニタ6に表示させることができる。   In this way, the enlarged size of the enlarged image of the road reflector can be determined according to the frequency of accidents at the intersection where the vehicle 10 enters. Thereby, for example, at the intersection where the accident occurrence frequency is high, the size of the enlarged image of the road reflector can be increased, and an image that the driver H1 can easily confirm can be displayed on the monitor 6.

Claims (12)

車両に設けられた撮像装置により撮像された撮像画像を取得する画像入力部と、
車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、車両に設けられた車載デバイスからの情報を基に取得する車両情報入力部と、
前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報が記録される記録部と、
前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識部と、
前記拡大対象認識部により拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成部とを備え、
前記合成部は、前記車両情報入力部で取得された前記距離と、前記記録部に記録された前記撮像情報および前記運転者情報を用いて、前記撮像画像における、運転者の死角の画像ではない非死角領域を特定し、当該非死角領域に前記拡大画像が重なるように合成する、画像処理装置。
An image input unit for acquiring a captured image captured by an imaging device provided in the vehicle;
A vehicle information input unit that acquires a distance between the vehicle and a road branch point or curve in the traveling direction of the vehicle based on information from an in-vehicle device provided in the vehicle;
A recording unit that records imaging information indicating characteristics of the imaging device and driver information relating to the field of view of the driver of the vehicle;
An enlargement target recognition unit for recognizing a predetermined enlargement object included in the input captured image;
A synthesis unit that generates a synthesized image obtained by synthesizing an enlarged image obtained by enlarging the enlargement object with the captured image when an enlargement object is recognized by the enlargement target recognition unit;
The synthesizing unit is not a driver's blind spot image in the captured image using the distance acquired by the vehicle information input unit and the imaging information and the driver information recorded in the recording unit. An image processing apparatus that identifies a non-blind area and synthesizes the enlarged image so as to overlap the non-blind area.
前記合成部は、前記分岐点またはカーブの位置周辺における前記撮像装置により撮像される撮像領域を、前記分岐点またはカーブと前記車両との距離および前記撮像情報を用いて計算し、
前記分岐点またはカーブの位置周辺における運転者の視野に入る視野領域を、前記分岐点またはカーブと前記車両との距離および前記運転者情報を用いて計算し、
前記撮像領域に対する前記視野領域の位置関係を用いて、前記撮像画像における前記非死角領域の位置を特定する、請求項1に記載の画像処理装置。
The combining unit calculates an imaging region imaged by the imaging device around the branch point or curve using the distance between the branch point or curve and the vehicle and the imaging information,
A visual field area that falls within the driver's field of view around the branch point or curve is calculated using the distance between the branch point or curve and the vehicle and the driver information,
The image processing apparatus according to claim 1, wherein a position of the non-dead angle area in the captured image is specified using a positional relationship of the visual field area with respect to the imaging area.
前記合成部は、前記拡大画像の拡大の度合いを、前記車両情報入力部で取得された前記距離を用いて決定する、請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the synthesis unit determines the degree of enlargement of the enlarged image using the distance acquired by the vehicle information input unit. 前記画像入力部は、前記撮像画像の撮像時における前記撮像装置の水平舵角をさらに入力し、
前記合成部は、前記水平舵角を用いて、前記撮像領域を計算する、請求項2に記載の画像処理装置。
The image input unit further inputs a horizontal steering angle of the imaging device at the time of imaging the captured image,
The image processing apparatus according to claim 2, wherein the combining unit calculates the imaging region using the horizontal steering angle.
前記車両情報入力部は、車両の進行方向にあるカーブの曲率を示す値をさらに取得し、
前記合成部は、前記曲率を用いて、前記拡大画像の拡大の度合いを決定する、請求項1〜4のいずれか1項に記載の画像処理装置。
The vehicle information input unit further acquires a value indicating the curvature of a curve in the traveling direction of the vehicle,
The image processing apparatus according to claim 1, wherein the synthesis unit determines a degree of enlargement of the enlarged image using the curvature.
前記車両情報入力部は、前記分岐点または前記カーブにおける事故発生の頻度を表す情報をさらに取得し、
前記合成部は、前記事項発生の頻度を用いて、前記拡大画像の拡大の度合いを決定する、請求項1〜5のいずれか1項に記載の画像処理装置。
The vehicle information input unit further acquires information representing the frequency of occurrence of an accident at the branch point or the curve,
The image processing apparatus according to claim 1, wherein the synthesis unit determines a degree of enlargement of the enlarged image using the frequency of occurrence of the matter.
前記車両に設けられたナビゲーションシステムと連携動作可能であり、
車両情報入力部は、前記車両に設けられたナビゲーションシステムから車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を取得する、請求項1〜6のいずれか1項に記載の画像処理装置。
The navigation system provided in the vehicle is operable in cooperation,
7. The vehicle information input unit according to claim 1, wherein the vehicle information input unit obtains a distance between a road branch point or a curve in a traveling direction of the vehicle and the vehicle from a navigation system provided in the vehicle. Image processing device.
前記車両情報入力部は、前記カーナビゲーションシステムから、前記分岐点または前記カーブに前記拡大対象物があるか否かを示す情報をさらに取得し、
前記拡大対象認識部は、前記分岐点または前記カーブに前記拡大対象物がある場合に、前記入力された撮像画像に含まれる所定の拡大対象物を認識することを特徴とする、請求項7に記載の画像処理装置。
The vehicle information input unit further acquires, from the car navigation system, information indicating whether or not the enlargement object is present at the branch point or the curve,
8. The enlargement object recognition unit recognizes a predetermined enlargement object included in the input captured image when the enlargement object exists at the branch point or the curve. The image processing apparatus described.
前記拡大対象認識部は、前記距離が所定の距離以下になった場合に、前記入力された撮像画像に含まれる所定の拡大対象物を認識することを特徴とする、請求項1〜8のいずれか1項に記載の画像処理装置。   The expansion object recognition unit recognizes a predetermined expansion object included in the input captured image when the distance is equal to or less than a predetermined distance. The image processing apparatus according to claim 1. コンピュータにより実行される画像処理方法であって、
車両に設けられた撮像装置により撮像された撮像画像を入力する画像入力ステップと、
前記車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記車両に設けられた車載デバイスからの情報を基に入力する車両情報入力ステップと、
前記コンピュータがアクセス可能な記録部に記録された、前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報を読み込んで入力する記録情報取得ステップと、
前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識ステップと、
前記拡大対象認識ステップで拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成ステップとを含み、
前記合成ステップでは、前記車両情報入力ステップで取得された前記距離と、前記記録情報取得ステップで取得された前記撮像情報および前記運転者情報を用いて、前記撮像画像における、運転者の死角の画像ではない非死角領域を特定し、当該非死角領域に前記拡大画像が重なるように合成する処理が実行される、画像処理方法。
An image processing method executed by a computer,
An image input step for inputting a captured image captured by an imaging device provided in the vehicle;
A vehicle information input step of inputting a distance between the vehicle and a branch point or curve of a road in the traveling direction of the vehicle based on information from an in-vehicle device provided in the vehicle;
A recording information acquisition step of reading and inputting imaging information indicating characteristics of the imaging device and driver information relating to the visual field of the driver of the vehicle, recorded in a recording unit accessible by the computer;
An enlargement object recognition step for recognizing a predetermined enlargement object included in the input captured image;
A synthesis step of generating a synthesized image obtained by synthesizing an enlarged image obtained by enlarging the enlarged object with the captured image when an enlarged object is recognized in the enlargement target recognition step;
In the synthesizing step, an image of a driver's blind spot in the captured image using the distance acquired in the vehicle information input step and the imaging information and the driver information acquired in the recorded information acquisition step. An image processing method in which a non-blind area that is not a non-blind area is identified and combined so that the enlarged image overlaps the non-blind area.
車両に設けられた撮像装置により撮像された撮像画像を取得する画像入力処理と、
車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記車両に設けられた車載デバイスからの情報を基に取得する車両情報入力処理と、
コンピュータがアクセス可能な記録部に記録された、前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報を取得する記録情報取得処理と、
前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識処理と、
前記拡大対象認識処理により拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成処理とコンピュータに実行させる画像処理プログラムであって、
前記合成処理において、前記車両情報入力処理で取得された前記距離と、前記記録情報取得処理で取得された前記撮像情報および前記運転者情報を用いて、前記撮像画像における、運転者の死角の画像ではない非死角領域を特定し、当該非死角領域に前記拡大画像が重なるように合成する処理をコンピュータに実行させる、画像処理プログラム。
An image input process for acquiring a captured image captured by an imaging device provided in the vehicle;
A vehicle information input process for obtaining a distance between a branch point or a curve of a road in the traveling direction of the vehicle and the vehicle based on information from an in-vehicle device provided in the vehicle;
Recording information acquisition processing for acquiring imaging information indicating characteristics of the imaging device and driver information relating to the field of view of the driver of the vehicle, recorded in a recording unit accessible by a computer;
An enlargement object recognition process for recognizing a predetermined enlargement object included in the input captured image;
An image processing program for causing a computer to execute a synthesis process for generating a synthesized image obtained by synthesizing an enlarged image obtained by enlarging the enlarged object with the captured image when an enlarged object is recognized by the enlargement target recognition process. ,
In the synthesis process, using the distance acquired in the vehicle information input process, the imaging information and the driver information acquired in the recorded information acquisition process, an image of a driver's blind spot in the captured image An image processing program for causing a computer to execute a process of specifying a non-blind spot area that is not and combining the enlarged image so as to overlap the non-blind spot area.
車両に設けられた撮像装置と連携可能な車載端末であって、
車両の位置を特定する機能と、道路の分岐点またはカーブの位置を含む道路情報を記録した地図データ記録部とを備えるナビゲーションシステム部と、
前記撮像装置により撮像された撮像画像を取得する画像入力部と、
車両の進行方向にある道路の分岐点またはカーブと前記車両との距離を、前記ナビゲーションシステム部で特定される車両の位置および道路情報を用いて取得する車両情報入力部と、
前記撮像装置の特性を示す撮像情報と前記車両の運転者の視野に関する運転者情報が記録される記録部と、
前記入力された撮像画像に含まれる所定の拡大対象物を認識する拡大対象認識部と、
前記拡大対象認識部により拡大対象物が認識された場合に、前記拡大対象物を拡大した拡大画像を前記撮像画像と合成した合成画像を生成する合成部と、
前記合成部が生成した合成画像を表示する表示部とを備える、車載端末。
An in-vehicle terminal capable of cooperating with an imaging device provided in a vehicle,
A navigation system unit comprising a function for identifying the position of the vehicle, and a map data recording unit for recording road information including the position of a road junction or curve;
An image input unit for acquiring a captured image captured by the imaging device;
A vehicle information input unit that obtains the distance between the vehicle branch point or curve in the traveling direction of the vehicle and the vehicle using the vehicle position and road information specified by the navigation system unit;
A recording unit that records imaging information indicating characteristics of the imaging device and driver information relating to the field of view of the driver of the vehicle;
An enlargement target recognition unit for recognizing a predetermined enlargement object included in the input captured image;
A synthesis unit that generates a synthesized image obtained by synthesizing an enlarged image obtained by enlarging the enlargement object with the captured image when an enlargement object is recognized by the enlargement target recognition unit;
A vehicle-mounted terminal comprising: a display unit that displays a synthesized image generated by the synthesizing unit.
JP2010500475A 2008-02-26 2008-02-26 Image processing apparatus, image processing method, image processing program, and in-vehicle terminal Expired - Fee Related JP5177217B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/053273 WO2009107199A1 (en) 2008-02-26 2008-02-26 Image processor, image processing method, image processing program and on-vehicle terminal

Publications (2)

Publication Number Publication Date
JPWO2009107199A1 true JPWO2009107199A1 (en) 2011-06-30
JP5177217B2 JP5177217B2 (en) 2013-04-03

Family

ID=41015613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010500475A Expired - Fee Related JP5177217B2 (en) 2008-02-26 2008-02-26 Image processing apparatus, image processing method, image processing program, and in-vehicle terminal

Country Status (4)

Country Link
US (1) US8624717B2 (en)
JP (1) JP5177217B2 (en)
DE (1) DE112008003729T5 (en)
WO (1) WO2009107199A1 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2246762B1 (en) * 2009-04-27 2012-06-06 Magneti Marelli S.p.A. System and method for driving assistance at road intersections
JP4858574B2 (en) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 Object detection device
TW201137801A (en) * 2010-04-30 2011-11-01 Hon Hai Prec Ind Co Ltd Road condition alarm system, road condition alarm apparatus and method thereof
JP5915923B2 (en) * 2011-04-14 2016-05-11 いすゞ自動車株式会社 Image processing apparatus and driving support system
JP5863105B2 (en) * 2011-12-13 2016-02-16 アルパイン株式会社 Vehicle movement amount estimation device and obstacle detection device
WO2013171962A1 (en) * 2012-05-18 2013-11-21 日産自動車株式会社 Display device for vehicle, display method for vehicle, and display program for vehicle
TWI558588B (en) * 2014-04-09 2016-11-21 Papago Inc Driving Recorder with Correcting Shooting Pose and Its Correction
EP3196076A4 (en) * 2014-09-17 2017-09-20 Panasonic Intellectual Property Management Co., Ltd. Electronic mirror device
CN105791793A (en) * 2014-12-17 2016-07-20 光宝电子(广州)有限公司 Image processing method and electronic device
CN105774809B (en) * 2014-12-26 2019-01-08 中国移动通信集团公司 A kind of method and apparatus of driving blind area prompt
JP6614607B2 (en) * 2015-07-09 2019-12-04 株式会社Ihiエアロスペース Remote control system and method
DE102016215115A1 (en) * 2016-08-12 2018-02-15 Continental Automotive Gmbh Device and method for detecting road users in an environment of an ego vehicle
JP6844235B2 (en) * 2016-12-08 2021-03-17 富士通株式会社 Distance measuring device and distance measuring method
EP3343533B1 (en) * 2016-12-27 2019-06-19 Panasonic Intellectual Property Corporation of America Information processing apparatus, information processing method, and program
DE102017200146A1 (en) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Method for avoiding collisions
US10366473B2 (en) 2017-05-23 2019-07-30 Toyota Jidosha Kabushiki Kaisha Providing traffic mirror content to a driver
JP6271068B1 (en) * 2017-06-22 2018-01-31 株式会社ショーワ Obstacle detection device, vehicle, and obstacle detection system
JP6859927B2 (en) * 2017-11-06 2021-04-14 トヨタ自動車株式会社 Vehicle position estimation device
KR102494864B1 (en) * 2017-12-27 2023-02-02 현대자동차주식회사 Vehicle and method for controlling thereof
CN108629281A (en) * 2018-03-28 2018-10-09 深圳市路畅智能科技有限公司 Utilize the automatic safe driving assistance method of bend corner mirror
JPWO2020122079A1 (en) * 2018-12-11 2021-10-21 ソニーグループ株式会社 Image processing equipment, image processing method and image processing system
KR20230021457A (en) * 2021-08-05 2023-02-14 현대모비스 주식회사 Obstacle detecting system and method for vehicle
GB2610185A (en) * 2021-08-24 2023-03-01 Continental Automotive Gmbh System and method for detecting vehicles using curved mirror at a road intersection
CN115123211A (en) * 2021-12-29 2022-09-30 长城汽车股份有限公司 Vehicle driving assistance method and device, vehicle and cloud server

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0962906B1 (en) 1998-06-04 2005-06-29 Honda Giken Kogyo Kabushiki Kaisha Road-curve mirror with radio wave reflection plate
JP3883292B2 (en) * 1998-06-05 2007-02-21 本田技研工業株式会社 Moving body detection device
JP3287817B2 (en) * 1999-07-27 2002-06-04 株式会社ホンダアクセス Vehicle camera device
JP2001101566A (en) * 1999-09-30 2001-04-13 Toshiba Corp Traffic safety confirming system
JP2001155297A (en) * 1999-11-30 2001-06-08 Matsushita Electric Ind Co Ltd Device and method for transmitting image
JP2005178623A (en) * 2003-12-19 2005-07-07 Denso Corp Display device for vehicle
JP2007069777A (en) * 2005-09-07 2007-03-22 Sumitomo Electric Ind Ltd Obstacle detection system
JP2007102691A (en) * 2005-10-07 2007-04-19 Denso Corp View-field support apparatus for vehicle

Also Published As

Publication number Publication date
JP5177217B2 (en) 2013-04-03
US20100315214A1 (en) 2010-12-16
WO2009107199A1 (en) 2009-09-03
DE112008003729T5 (en) 2011-01-13
US8624717B2 (en) 2014-01-07

Similar Documents

Publication Publication Date Title
JP5177217B2 (en) Image processing apparatus, image processing method, image processing program, and in-vehicle terminal
EP1961613B1 (en) Driving support method and driving support device
KR102344171B1 (en) Image generating apparatus, image generating method, and program
JP5099451B2 (en) Vehicle periphery confirmation device
US9418556B2 (en) Apparatus and method for displaying a blind spot
JP6311646B2 (en) Image processing apparatus, electronic mirror system, and image processing method
US20090086019A1 (en) Driving support device, driving support method and computer program
JP6711295B2 (en) Vehicle display control device
WO2019097755A1 (en) Display device and computer program
JP4848893B2 (en) Intersection information providing system and driving support system
JP2019095213A (en) Superimposed image display device and computer program
CN104802710B (en) A kind of intelligent automobile reversing aid system and householder method
JP4747867B2 (en) VEHICLE DISPLAY DEVICE AND VEHICLE VIDEO DISPLAY CONTROL METHOD
JP7163748B2 (en) Vehicle display control device
JP2009211624A (en) Driving support device, driving support method, and computer program
US11082616B2 (en) Overlooking image generation system for vehicle and method thereof
JP2004240480A (en) Operation support device
JP2007102691A (en) View-field support apparatus for vehicle
JP2007102798A (en) Vehicle circumference monitoring system
JP2008145364A (en) Route guiding device
JP2010154304A (en) Mobile camera system and driving method
JP5156307B2 (en) In-vehicle camera system
JP4218453B2 (en) Vehicle forward visibility support device
JP4600391B2 (en) Display device, display system, and display method
JP2011003117A (en) Backward visual recognition support system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121224

LAPS Cancellation because of no payment of annual fees