JP5893054B2 - Image processing apparatus, image processing server, image processing method, image processing program, and recording medium - Google Patents
Image processing apparatus, image processing server, image processing method, image processing program, and recording medium Download PDFInfo
- Publication number
- JP5893054B2 JP5893054B2 JP2013554141A JP2013554141A JP5893054B2 JP 5893054 B2 JP5893054 B2 JP 5893054B2 JP 2013554141 A JP2013554141 A JP 2013554141A JP 2013554141 A JP2013554141 A JP 2013554141A JP 5893054 B2 JP5893054 B2 JP 5893054B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- image processing
- attention
- reference point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 52
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims description 51
- 238000003384 imaging method Methods 0.000 claims description 40
- 238000004891 communication Methods 0.000 claims description 16
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 239000003550 marker Substances 0.000 description 16
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000052 comparative effect Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/164—Centralised systems, e.g. external to vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
- B60R2300/305—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
- B60R2300/308—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Instrument Panels (AREA)
Description
本発明は、移動体の前方画像中の所定表示物に対し、その位置を指し示す画像を重畳する画像処理装置、画像処理サーバ、画像処理方法、画像処理プログラム、及び記録媒体に関する。 The present invention relates to an image processing apparatus, an image processing server, an image processing method, an image processing program, and a recording medium that superimpose an image indicating a position on a predetermined display object in a front image of a moving object.
近年では、移動体に搭載されたカメラで周囲の画像を撮像し、その画像中に表示される多くの表示物のうちで特にユーザに注意を促すべき対象物を指し示す図形等を当該画像に重畳表示させ、その注意の支援を行う技術が提案されている。 In recent years, a camera mounted on a moving body is used to capture a surrounding image, and among many display objects displayed in the image, a figure or the like indicating an object to which the user should particularly be alerted is superimposed on the image. Techniques for displaying and supporting the attention have been proposed.
例えば特許文献1に記載の技術では、画像データ中に所定の特徴部位を画像認識等により検出した際、その特徴部位を囲む枠形状のマーカを画像に重畳表示していた。
For example, in the technique described in
しかしながら、走行中の移動体に搭載したカメラで周囲の画像を動画形式で撮像した場合には、当該移動体の移動により画像中の表示物が流れるように移動する。このような動画形式の画像に対して上記従来技術により画像中の特徴部位である表示物に枠状マーカを重畳表示した場合には、その表示物を画像認識する処理及び重畳表示すべき枠マーカの位置や大きさの算出及び描画の処理に時間がかかることから、枠マーカが対象の表示物からずれて重畳表示されてしまい、ユーザは画像中における注意対象物の認識が困難となってしまう。そのため、移動体から撮像した画像中の所定の注意対象物に対するユーザの認識を適切に支援できる支援画像の重畳表示技術が要望されていた。 However, when a surrounding image is captured in a moving image format with a camera mounted on a moving moving body, the moving object moves so that a display object in the image flows. When a frame-shaped marker is superimposed and displayed on a display object that is a characteristic part in the image according to the above-described conventional technique with respect to such a moving image image, processing for recognizing the display object and a frame marker to be superimposed and displayed Since it takes time to calculate the position and size of the image and to draw the frame marker, the frame marker is shifted from the target display object and is displayed in a superimposed manner, which makes it difficult for the user to recognize the attention object in the image. . Therefore, there has been a demand for a superimposing display technique of a support image that can appropriately support the user's recognition of a predetermined attention object in an image captured from a moving body.
本発明が解決しようとする課題には、上記した問題が一例として挙げられる。 The problem to be solved by the present invention includes the above-described problem as an example.
上記課題を解決するために、請求項1記載の発明は、画像処理装置であって、走行する移動体から撮影した前方画像の消失点又は当該消失点の近傍の点を基準点とし、前記基準点と前記前方画像中の特徴物との相対的な位置関係を示す表示オブジェクトを生成する生成手段と、前記生成手段により生成された前記表示オブジェクトを含む前方画像を出力する出力手段と、を備え、前記生成手段は、前記基準点を始点として前記特徴物を通過する半直線上に位置する線分を含むよう前記表示オブジェクトを生成する。
In order to solve the above-mentioned problem, the invention according to
上記課題を解決するために、請求項7記載の発明は、画像処理サーバであって、走行する移動体から撮像した前方画像を外部の画像処理装置から受信する受信手段と、前記前方画像中の消失点又は当該消失点の近傍の点を基準点とし、前記基準点と特徴物との相対的な位置関係を示す表示オブジェクトを生成する生成手段と、前記生成手段により生成された前記表示オブジェクトを前記外部の画像処理装置に送信する送信手段と、を備え、前記生成手段は、前記基準点を始点として前記特徴物を通過する半直線上に位置する線分を含むよう前記表示オブジェクトを生成する。
In order to solve the above-mentioned problem, an invention according to claim 7 is an image processing server, wherein a reception unit that receives a front image captured from a moving moving body from an external image processing device, a point in the vicinity of the vanishing point or the vanishing point as a reference point, and generating means for generating display object indicating a relative positional relationship between the reference point and the feature thereof, the display object generated by the generating means Transmitting means to transmit to the external image processing apparatus, and the generating means generates the display object so as to include a line segment located on a half line passing through the feature starting from the reference point To do.
上記課題を解決するために、請求項8記載の発明は、画像処理装置であって、走行する移動体に搭載されて前方画像を撮像する撮像手段と、請求項7に記載の画像処理サーバに対して前記前方画像を送受する通信手段と、前記通信手段が前記画像処理サーバから受信した前記表示オブジェクトを含む前方画像を表示する表示手段と、を有する。
In order to solve the above-mentioned problems, an invention according to claim 8 is an image processing apparatus, comprising: an imaging unit mounted on a traveling moving body for capturing a front image; and an image processing server according to claim 7. Communication means for transmitting and receiving the front image, and display means for displaying the front image including the display object received by the communication means from the image processing server.
上記課題を解決するために、請求項9記載の発明は、画像処理装置が実行する画像処理方法であって、走行する移動体から撮影した前方画像の消失点又は当該消失点の近傍の点を基準点とし、前記基準点と前記前方画像中の特徴物との相対的な位置関係を示す表示オブジェクトを生成する生成工程と、前記生成工程により生成された前記表示オブジェクトを含む前方画像を出力する出力工程と、を実行し、前記生成工程では、前記基準点を始点として前記特徴物を通過する半直線上に位置する線分を含むよう前記表示オブジェクトを生成する。 In order to solve the above-described problem, an invention according to claim 9 is an image processing method executed by an image processing device, wherein a vanishing point of a forward image taken from a moving moving object or a point in the vicinity of the vanishing point is obtained. a reference point, a generation step of generating a display object indicating a relative positional relationship between the feature of the in the front image and the reference point, and outputs the front image including the display object generated by the generating step An output step, and in the generation step, the display object is generated so as to include a line segment located on a half line passing through the feature starting from the reference point.
上記課題を解決するために、請求項10記載の発明は、画像処理プログラムであって、請求項9に記載の画像処理方法を、画像処理装置により実行させる。
In order to solve the above-described problem, the invention described in claim 10 is an image processing program, and causes the image processing apparatus to execute the image processing method described in claim 9 .
上記課題を解決するために、請求項11記載の発明は、記録媒体であって、請求項10に記載の画像処理プログラムが、前記画像処理装置により読み取り可能に記憶されている。
In order to solve the above-mentioned problems, the invention described in
以下、本発明の実施形態のうちの一つを図面を参照しつつ説明する。 Hereinafter, one of the embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の画像処理装置の実施形態を含む運転支援装置を搭載した車両の構成例を示す斜視図である。この図1において、運転支援装置Sは、移動体である車両Vの車内天井に設置されているルームミラー101の前方側位置に単独のフロントカメラ1を設けている。フロントカメラ1の撮像方向Dcは、当該車両Vの進行方向の前方を撮像可能な姿勢で取り付けられている。なおこの例では、フロントカメラ1は、例えばユニバーサルジョイントを介した取付装置によって車両Vに取り付けられており、その撮像方向Dcはヨー方向(水平方向)とピッチ方向(垂直方向)のそれぞれの所定範囲で手動により可動となっている。このフロントカメラ1は、その姿勢の可動範囲内では、当該車両Vの中央前後方向を貫く車両軸の方向Dvを撮像範囲から外さない。
FIG. 1 is a perspective view showing a configuration example of a vehicle equipped with a driving support apparatus including an embodiment of an image processing apparatus of the present invention. In FIG. 1, the driving support device S is provided with a single
図2は、運転支援装置Sのハードウェア構成例を示すブロック図である。この図2において、運転支援装置Sは、フロントカメラ1、イメージングユニット2、ディスプレイ3、GPS13、車速センサ14を有している。
FIG. 2 is a block diagram illustrating a hardware configuration example of the driving support device S. As illustrated in FIG. In FIG. 2, the driving support device S includes a
フロントカメラ1は撮像手段に相当し、例えばCCD撮像素子などを利用して、上述した当該車両の進行方向の前方画像を撮像し、対応する信号をイメージングユニット2のCPU(後述)へ出力する機能を有する。なお、本実施形態の例では、このフロントカメラ1が十分に短い時間周期で時系列的に複数の画像フレームを撮像し続けることで、前方画像を動画の形式で撮像する。
The
ディスプレイ3は表示手段に相当し、例えばLCDパネルなどで構成されて、イメージングユニット2のグラフィックコントローラ(後述)から入力された画像信号に基づき、上記フロントカメラ1で撮像された前方画像に後述の注意支援画像を重畳させた合成画像を表示する機能を有する。
The
GPS13は、車両Vの現在地の測位を行い現在位置情報を取得するとともに、予め記憶している地図情報に基づいて所定の注意対象物(後に詳述する)の位置検出を行う機能を有する。
The
車速センサ14は、当該車両Vの走行速度を検出する機能を有する。イメージングユニット2が備える後述のCPUは、この車速センサ14の検出信号に基づき、当該車両Vが停止中の状態であるか、もしくはどのくらいの走行速度で走行しているか、を識別することができる。
The
イメージングユニット2は画像処理装置に相当し、CPU11、記憶装置12、グラフィックコントローラ15を有している。
The
CPU11は、所定のプログラムの動作によって各種の演算を行うとともに、他の各部との間で情報の交換や各種の制御指示を出力することで、運転支援装置S全体を制御する機能を有する。
The
記憶装置12は、ROM12a、RAM12b、及び記憶媒体12cを有する。ROM12aは、各種の処理プログラムやその他必要な情報が予め書き込まれた情報記憶媒体である。RAM12bは、上記各種のプログラムを実行する上で必要な情報の書き込み及び読み出しが行われる情報記憶媒体である。記憶媒体12cは、例えばフラッシュメモリ、ハードディスクなどの不揮発性の情報記憶媒体である。
The
グラフィックコントローラ15は、CPU11の制御によってビデオRAM(図示せず)及び上記GPS13などから画像データを取得し、この画像データに基づく画像信号を上記ディスプレイ3に表示させる機能を有する。なお、上述したように、本実施形態の例におけるこのグラフィックコントローラ15は、上記フロントカメラ1で撮像された前方画像に後述の注意支援画像を重畳させた合成画像データに基づく画像信号をディスプレイ3に出力する。また、本実施形態の例では、このグラフィックコントローラ15は、上記フロントカメラ1が動画形式で前方画像を撮像する際の時間周期とは無関係に、任意のタイミングで画像信号をディスプレイ3に表示させる。
The
図3は、運転室から見た車窓風景及びこれに対応するディスプレイ3の表示の一例を示す図である。図示する例では、当該車両Vはほぼ直線の走行車線を走行しており、その走行方向前方にいる前方車両Vfに追従している状態を示している。ルームミラー101の裏側(進行方向側)に備えられているフロントカメラ1は、上記直線の走行車線と前方車両Vfを含んだ前方画像を撮像している。このとき、上述したように、フロントカメラ1の撮像範囲は当該車両Vの車両軸方向Dvを外さずに含んでいる。そして、ディスプレイ3は、フロントカメラ1が撮像した前方画像を表示している。
FIG. 3 is a diagram illustrating an example of a vehicle window landscape viewed from the cab and a display on the
ここで、上述したようにフロントカメラ1はその取り付け姿勢が可動であるため、図示する例のように、その撮像方向Dcが車両軸方向Dvと平行な姿勢関係にない場合がある。このようなズレは、ユーザがフロントカメラ1を任意の位置に取り付けた場合や、手作業で取り付けた場合などにも生じうる。そこで本実施形態では、このようなフロントカメラ1の撮像方向Dcと車両軸方向Dvとの間のズレを考慮しつつ、動画形式の前方画像中で移動表示される所定の注意対象物の認識を適切に支援可能な注意支援画像の生成と表示を行う。以下、そのような注意支援画像の生成手法及び表示例を順次説明する。
Here, since the mounting posture of the
まず図4は、上記図3に示した姿勢状態のフロントカメラ1が撮像した前方画像をディスプレイ3に表示した場合の表示例を表している。なお、図示する例では、ディスプレイ3の表示領域に設定した表示座標X−Yの全体で前方画像を表示しており、すなわち表示座標X−Yが前方画像の画像座標と一致する。この図4において、前方画像中には上記前方車両Vf以外にも、郵便ポスト51、2つの道路標識52,53、2つの信号機54,55、看板56、及び歩行者57が表示物として表示されている。
First, FIG. 4 shows a display example when a front image captured by the
また、上述したようにフロントカメラ1は、その姿勢の可動範囲内では当該車両Vの車両軸方向Dvを撮像範囲から外さないことから、前方画像の表示座標X−Y中には必ず移動表示基準点P2が存在する。この移動表示基準点P2とは、前方画像中において当該車両Vのその時点の進行方向の無限遠方移動位置(その時点に表示されている前方画像での表示座標X−Y中において当該車両Vがそのままの進行方向で移動した場合に到達する予定位置)に相当する点であり、この点は常にその時点の略地平線(略水平線:図4中では特に図示せず)と車両軸方向Dvの略延長線との交点上に位置するもので、これを消失点という。なお、この移動表示基準点P2が各請求項記載の基準点に相当する。
Further, as described above, the
そして当該車両Vが車両軸方向Dvへ向かって移動するに伴い、上述した前方画像中の全ての表示物は上記移動表示基準点P2を中心とした放射状に移動する。つまり、前方画像中の全ての表示物は、当該車両Vから遠方に離間している際にはいずれも移動表示基準点P2の近傍に位置している。そして、当該車両Vが移動表示基準点P2へ向かって移動するに従い、動画形式の前方画像中において各表示物は移動表示基準点P2を中心とした略放射状に配置される半直線上(図中の破線矢印参照)に沿って移動するよう表示される。 As the vehicle V moves in the vehicle axial direction Dv, all the display objects in the above-described front image move radially with the movement display reference point P2 as the center. That is, all the display objects in the front image are located in the vicinity of the movement display reference point P2 when they are far away from the vehicle V. Then, as the vehicle V moves toward the moving display reference point P2, each display object is on a half line (in the drawing) arranged substantially radially around the moving display reference point P2 in the moving image front image. (Refer to the broken arrow in FIG. 4).
以下においては、上記の郵便ポスト51を注意対象物Fに設定した場合を考える。注意対象物Fとは、当該車両Vの運転者や同乗者であるユーザに対して、前方画像中に表示される多くの表示物の中から特に見落とすことのないよう注意を促すべき表示物である。ここでは、一例として郵便ポスト51を注意対象物Fとしているが、これに限るものではない。他の例では道路標識、信号機、看板などの地物や、歩行者などの車両の速度と比較して十分に低速で移動するものであってもよい。なお注意対象物Fは各請求項に記載の所定の特徴物に相当する。特徴物は画像認識により検出可能な特徴部位を備えるものである。イメージングユニット2は、この特徴部位を画像認識して前方画像中から注意対象物Fを検出する。この注意対象物Fの設定方法としては、郵便ポストや道路標識などの所定の種類の特徴物をあらかじめ設定しておいてもよいし、GPS13が記憶している地図情報に基づいてこれから通過する予定の道路近傍に設置されている特徴物をあらかじめ指定して設定してもよいし、または、ユーザが前方画像中の特徴物をディスプレイ3に設けたタッチパネル(特に図示せず)上での直接接触やカーソルなどの指標により直接指定することで、指定された特徴物と同種の特徴物が注意対象物Fに設定してもよい。
In the following, the case where the above-described
このようにして注意対象物Fとして設定された郵便ポスト51に対し、前方画像中におけるその注意を促すために図5に示すような枠形状のマーカ61を注意支援画像として生成し、当該郵便ポスト51の表示領域を囲むように重畳表させることが考えられる。しかしこの場合には、イメージングユニット2のCPU11が前方画像の表示座標X−Yにおいて画像認識により郵便ポスト51の表示領域とその存在位置を検出するとともに、当該表示領域の大きさに合わせて枠形状マーカ61の大きさを算出し描画する処理を行わなければならない。これらの処理はいずれも計算量が多く、特に画像認識には処理時間が長くかかる。そのため、前方画像を動画形式で表示する場合にはそのフレームサイクルに間に合わず、図5に示すように枠形状のマーカ61を重畳表示しても対応する郵便ポスト51が枠形状から大きく外れてしまい、ユーザからの注意が困難となる。
For the
そこで本実施形態では、注意支援画像を、上記移動表示基準点P2と注意対象物Fの存在位置との相対的な位置関係を幾何的に示すよう生成、表示する。具体的に本実施形態の例では、図6に示すように、前方画像中において画像認識により検出した郵便ポスト51の表示領域の中心位置P3を存在位置とし、上記移動表示基準点P2とこの中心位置P3とを結ぶ線分G1で注意支援画像を生成し、表示する。そしてこのように生成、表示した注意支援画像の線分G1は、結果的に移動表示基準点P2を中心とした略放射状の図形で形成される。なお、この注意支援画像は各請求項に記載の表示オブジェクトに相当する。
Therefore, in the present embodiment, the attention support image is generated and displayed so as to geometrically indicate the relative positional relationship between the movement display reference point P2 and the position where the attention object F exists. Specifically, in the example of the present embodiment, as shown in FIG. 6, the center position P3 of the display area of the
上述したように、動画形式の前方画像中に表示されるいずれの表示物も、当該車両Vの移動に伴い移動表示基準点P2を中心として放射状に移動表示する。つまり上記の注意支援画像として生成、表示される線分画像G1は、注意対象物Fである郵便ポスト51の前方画像中における移動軌跡を示す。このため、画像認識により検出した郵便ポスト51の中心位置P3が、前方画像の最新画像フレームにおける中心位置と多少ずれた場合でも、郵便ポスト51は注意支援画像の線分G1の延長上に位置するため、視覚的にそのズレの補間が容易であり、ユーザは自然かつ直感的に郵便ポスト51を認識できる。これは、車両Vの移動速度と比較して十分に遅い歩行者などを注意対象物Fとしても、同じ効果が得られる。
As described above, any display object displayed in the front image in the moving image format is moved and displayed radially with the movement display reference point P2 as the center as the vehicle V moves. That is, the line segment image G1 generated and displayed as the above-described attention support image indicates a movement locus in the front image of the
ここで、前方画像の表示座標X−Yにおける上記移動表示基準点P2の位置は、多くの場合表示座標X−Yの中央位置から外れて、その時点のフロントカメラ1の撮像方向Dcがどの方向に向いているかによって異なってくる。本実施形態では、表示座標X−Y中における移動表示基準点P2の位置を、以下に説明する平均消失点の算出により取得する。
Here, the position of the moving display reference point P2 in the display coordinates XY of the front image often deviates from the center position of the display coordinates XY, and in which direction the imaging direction Dc of the
まず図7は、上記図3に示した姿勢状態のフロントカメラ1が撮像した前方画像をディスプレイ3に表示した場合の表示例を表している。なお、図示の煩雑をさけるために、前方車両Vfだけを表示物として表示している。この図7において、上述したようなフロントカメラ1の撮像方向Dcと車両軸方向Dvとの間のズレがある場合には、ディスプレイ3の表示座標X−Yの中央位置、つまり図中の縦方向、横方向それぞれの中心線Lv,Llの交点位置が、車両軸方向Dvから離れている。この場合には、前方画像は中心線Llに対する左右方向の対称性を損なっており、例えば実際に車両Vが直線状の走行車線を走行している場合でも、その走行車線を挟んで左側と右側にそれぞれ表示される表示物どうしは、その前方画像中における移動の方向と速度が走行車線に関して非対称となっている。
First, FIG. 7 shows a display example when a front image captured by the
これに対し、図示する例のように直線状の走行車線を走行している際に撮像した前方画像中においては、走行車線の無限遠方点に相当する車線消失点P1が、常にその時点の略地平線(略水平線)と車両軸方向Dvの略延長線との交点上に位置する。つまり、このように直線状の走行車線を走行している際の車線消失点P1の位置は、上記移動表示基準点P2の位置と一致する。 On the other hand, in the forward image captured when the vehicle is traveling in a straight traveling lane as in the illustrated example, the lane vanishing point P1 corresponding to the infinitely far point of the traveling lane is always an abbreviation of the time. It is located on the intersection of the horizon (substantially horizontal line) and the substantially extended line in the vehicle axial direction Dv. That is, the position of the lane vanishing point P1 when traveling in the straight traveling lane in this way matches the position of the movement display reference point P2.
上記車線消失点P1を検出する手法としては、まず図示するように実際の走行車線の両側に塗布されている白線や、路面と縁石との境界線や、又はアスファルト道路の縁部などを前方画像の画像解析により検出し、当該走行車線の輪郭を形成する2本の車線輪郭線Lrとして認識する。そして、これら2本の車線輪郭線Lrの車両進行方向の延長線上の交点が、前方画像上における上記車線消失点P1として検出される。 As a method for detecting the lane vanishing point P1, first, as shown in the figure, a white line applied to both sides of an actual traveling lane, a boundary line between a road surface and a curb, or an edge part of an asphalt road is displayed as a front image. And is recognized as two lane contour lines Lr forming the contour of the travel lane. Then, the intersection of the two lane outlines Lr on the extension line in the vehicle traveling direction is detected as the lane vanishing point P1 on the front image.
ここで例えば図8に示すように、走行車線がカーブ状である場合には、上記2本の車線輪郭線Lrも、前方画像上におけるそのカーブの方向と曲率に合わせて認識される。なお、特に図示しないが、このカーブの曲率が途中で変化する場合には、当該車両Vの手前側の曲率を優先して2本の車線輪郭線Lrが認識される。そして手前側の曲率に基づいた近似式でカーブの延長線を算出し、それらの交点位置が車線消失点P1として検出される。 Here, for example, as shown in FIG. 8, when the traveling lane is curved, the two lane contour lines Lr are also recognized in accordance with the direction and curvature of the curve on the front image. Although not particularly illustrated, when the curvature of this curve changes midway, the two lane contours Lr are recognized with priority given to the curvature on the near side of the vehicle V. Then, an extension line of the curve is calculated with an approximate expression based on the curvature on the near side, and the position of the intersection is detected as the lane vanishing point P1.
当該車両Vが多様な形状の走行車線を長く走行し、上記車線消失点P1を多数検出して記録した場合には、それら車線消失点P1の平均位置に位置する平均消失点P2は統計的に車両軸方向Dvの延長上と地平線上に近接する。つまり、表示座標X−Y上における平均消失点P2の位置は、その時点のフロントカメラ1の撮像方向Dcに対応する上記移動表示基準点P2の固定位置と見なせる。このように本実施形態では、適切な注意支援画像を生成する前の準備作業として、車両Vが多様な形状の走行車線を走行して十分多くの車線消失点P1を検出し、それらに基づいて信頼性のある平均消失点P2を算出する。そしてこの算出された平均消失点P2が、その時点のフロントカメラ1の撮像方向Dcに対応する表示座標X−Y上の移動表示基準点P2として取得する。
When the vehicle V has traveled for a long time in various lanes and detected and recorded many lane vanishing points P1, the average vanishing point P2 located at the average position of the lane vanishing points P1 is statistically Close to the vehicle axis direction Dv and on the horizon. That is, the position of the average vanishing point P2 on the display coordinates XY can be regarded as the fixed position of the moving display reference point P2 corresponding to the imaging direction Dc of the
図9は、以上説明した動作態様を実現するために、イメージングユニット2のCPU11が実行する制御内容を表すフローチャートである。なお、このフローは、フロントカメラ1が動画の形態で前方画像を撮像している間に、例えば適宜の時間間隔で呼び出されて実行する。
FIG. 9 is a flowchart showing the control contents executed by the
図9において、まずステップS5において、車速センサ14の検出信号に基づき当該車両Vが所定速度以上で走行しているか否かを判定する。当該車両Vが所定速度以上で走行している場合には、判定が満たされ、ステップS10へ移る。
In FIG. 9, first, in step S5, based on the detection signal of the
ステップS10では、その時点でフロントカメラ1が撮像した前方画像(静止画像フレーム)を取得する。
In step S10, a front image (still image frame) captured by the
ステップS15へ移り、前回フロントカメラ1の撮像方向Dcを設定してからそれに対応する表示座標X−Y上の平均消失点P2をすでに取得済みであるか否かを判定する。その時点の撮像方向Dcに対応する平均消失点P2をまだ取得できていない場合、判定は満たされず、ステップS20へ移る。
The process proceeds to step S15, and it is determined whether or not the average vanishing point P2 on the display coordinates XY corresponding to the imaging direction Dc of the
ステップS20では、前回の車線消失点P1の検出から所定時間が経過したか否かを判定する。所定時間が経過していない場合には、判定は満たされず、ステップS5に戻って同様の手順を繰り返す。このように車線消失点P1を検出する時間間隔を空けることで、検出する車線消失点P1の多様性を確保し、検出する平均消失点P2の信頼性を向上できる。 In step S20, it is determined whether or not a predetermined time has elapsed since the previous detection of the lane vanishing point P1. If the predetermined time has not elapsed, the determination is not satisfied, and the process returns to step S5 and the same procedure is repeated. Thus, by providing a time interval for detecting the lane vanishing point P1, the diversity of the detected lane vanishing point P1 can be ensured and the reliability of the detected average vanishing point P2 can be improved.
一方、所定時間を経過した場合には、判定が満たされ、ステップS25へ移る。 On the other hand, if the predetermined time has elapsed, the determination is satisfied, and the routine goes to Step S25.
ステップS25では、上記ステップS10で撮像した前方画像中において、現在の走行車線における2本の車線輪郭線Lrを認識する。 In step S25, two lane contour lines Lr in the current travel lane are recognized in the front image captured in step S10.
ステップS30へ移り、上記ステップS25で認識した2本の車線輪郭線Lrに基づいて、現在の走行車線における車線消失点P1を検知する。 Moving to step S30, the lane vanishing point P1 in the current traveling lane is detected based on the two lane contours Lr recognized in step S25.
ステップS35へ移り、上記ステップS30で検出した車線消失点P1を記憶媒体12cに蓄積するよう追加記録する。
Moving to step S35, the lane vanishing point P1 detected in step S30 is additionally recorded so as to be accumulated in the
ステップS40へ移り、その時点で既に信頼性の高い平均消失点P2を検出できるだけの十分な数で車線消失点P1を検出、記憶しているか否かを判定する。その時点でまだ検出数が十分でない場合、判定は満たされず、ステップS5へ戻り、同様の手順を繰り返す。 The process proceeds to step S40, and it is determined whether or not the lane vanishing point P1 is detected and stored with a sufficient number that can detect the average vanishing point P2 that is already highly reliable at that time. If the number of detections is not yet sufficient at that time, the determination is not satisfied and the routine returns to step S5 and the same procedure is repeated.
一方、その時点で既に信頼性の高い平均消失点P2を検出できるだけの十分な数で車線消失点P1を検出、記憶している場合、判定が満たされ、ステップS45へ移る。 On the other hand, when the lane vanishing point P1 is detected and stored with a sufficient number that can detect the average vanishing point P2 with high reliability already at that time, the determination is satisfied, and the routine goes to Step S45.
ステップS45では、記憶媒体12cに記録されている全ての車線消失点P1を読み出す。
In step S45, all lane vanishing points P1 recorded in the
ステップS50へ移り、上記ステップS45で読み出した全ての車線消失点P1の平均位置に位置する平均消失点P2を算出する。そして、ステップS5に戻り、同様の手順を繰り返す。 Moving to step S50, the average vanishing point P2 located at the average position of all the lane vanishing points P1 read out in step S45 is calculated. And it returns to step S5 and repeats the same procedure.
一方、上記ステップS15の判定において、その時点の撮像方向Dcに対応する平均消失点P2をすでに取得していた場合、判定が満たされ、ステップS55へ移る。 On the other hand, if the average vanishing point P2 corresponding to the imaging direction Dc at that time has already been acquired in the determination in step S15, the determination is satisfied, and the process proceeds to step S55.
ステップS55では、注意対象物Fが設定されているか否かを判定する。なお注意対象物Fはあらかじめ設定されていたり、又はユーザが設定可能であってもよい。また、地図情報に基づいた注意対象物Fの設定がある場合は、それが前方画像に表示されるほど近い位置に接近しているか否かも併せて判定してもよい。注意対象物Fが何ら設定されていない場合、もしくは地図情報に基づいて設定されていても前方画像に表示される程度にまだ接近していない場合には、判定は満たされず、ステップS5に戻って同様の手順を繰り返す。 In step S55, it is determined whether or not the attention object F is set. Note that the attention object F may be set in advance or set by the user. Moreover, when there is a setting of the attention object F based on the map information, it may also be determined whether or not the attention object F is close enough to be displayed in the front image. If no attention object F has been set, or if it has been set based on map information but is not yet close enough to be displayed in the front image, the determination is not satisfied and the process returns to step S5. Repeat the same procedure.
一方、注意対象物Fが設定済みであり、前方画像上に注意支援画像を表示させる必要がある場合には、判定が満たされ、ステップS60へ移る。 On the other hand, if the attention object F has been set and it is necessary to display the attention support image on the front image, the determination is satisfied, and the routine goes to Step S60.
ステップS60では、上記ステップS10で取得した前方画像において、注意対象物Fを画像認識により認識し、その表示領域の中心位置P3を当該注意対象物Fの存在位置として検出する。なお、このステップS60の手順が、各請求項記載の生成手段及び生成工程に相当する。 In step S60, the attention object F is recognized by image recognition in the front image acquired in step S10, and the center position P3 of the display area is detected as the presence position of the attention object F. In addition, the procedure of this step S60 corresponds to the generating means and the generating step described in each claim.
ステップS65へ移り、表示座標X−Y上において平均消失点P2から注意対象物Fの中心位置P3までを結ぶ線分G1の画像を注意支援画像として生成する。なお、このステップS65の手順も、各請求項記載の生成手段及び生成工程に相当する。 Proceeding to step S65, an image of a line segment G1 connecting the average vanishing point P2 to the center position P3 of the attention object F on the display coordinates XY is generated as an attention support image. In addition, the procedure of this step S65 also corresponds to the generation means and generation process described in each claim.
ステップS70へ移り、上記ステップS65で生成した注意支援画像の線分G1を前方画像に重畳表示させるようディスプレイ3に出力する。そして、ステップS5に戻り、同様の手順を繰り返す。なお、このステップS70の手順が、各請求項記載の出力手段及び出力工程に相当する。
The process proceeds to step S70, where the line segment G1 of the attention support image generated in step S65 is output to the
以上説明したように、上記実施形態のイメージングユニット2においては、走行する車両V(移動体に相当)から撮影した前方画像の平均消失点P2(消失点に相当)又はその近傍に位置する移動表示基準点P2(基準点に相当)と、前記前方画像中の所定の注意対象物F(所定の特徴物に相当)との相対的な位置関係を示す注意支援画像(表示オブジェクトに相当)としての線分画像G1を生成するステップS60、S65の手順(生成手段に相当)と、前記ステップS60、S65の手順により生成された前記注意支援画像を含む前方画像を出力するステップS70の手順(出力手段に相当)と、を備える。
As described above, in the
また、上記実施形態のイメージングユニット2が実行する画像処理方法においては、走行する車両V(移動体に相当)から撮影した前方画像の平均消失点P2(消失点に相当)又はその近傍に位置する移動表示基準点P2(基準点に相当)と、前記前方画像中の所定の注意対象物F(所定の特徴物に相当)との相対的な位置関係を示す注意支援画像(表示オブジェクトに相当)としての線分画像G1を生成するステップS60、S65の手順(生成工程に相当)と、前記ステップS60、S65の手順により生成された前記注意支援画像を含む前方画像を出力する出力工程と、を実行する。
In the image processing method executed by the
このようにすると、車両Vのその時点の進行方向への移動に伴って、前方画像中の全ての表示物は、移動表示基準点P2又はその近傍から当該前方画像の外周側へ移動表示される。そして、移動表示基準点P2と注意対象物Fの中心位置P3との相対的な位置関係を示す注意支援画像G1は、当該注意対象物Fの前方画像中における移動方向を概略的に示す画像となる。このため、処理時間が比較的長くかかる画像認識により検出した注意対象物Fの中心位置P3が、最新の画像フレームにおける同一の注意対象物Fの中心位置から多少ずれた場合でも、ユーザは注意支援画像G1を参照することにより前方画像中における注意対象物Fの位置を直感的に把握できる。この結果、車両Vから撮像した画像中の所定の注意対象物Fに対する注意を適切に支援できる注意支援画像の重畳表示が可能となる。 If it does in this way, with the movement to the advancing direction at that time of the vehicle V, all the display objects in a front image will be moved and displayed from the movement display reference point P2 or its vicinity to the outer peripheral side of the said front image. . The attention support image G1 showing the relative positional relationship between the movement display reference point P2 and the center position P3 of the attention object F is an image schematically showing the movement direction of the attention object F in the front image. Become. For this reason, even when the center position P3 of the attention object F detected by the image recognition that takes a relatively long processing time is slightly deviated from the center position of the same attention object F in the latest image frame, the user can support the attention. By referring to the image G1, the position of the attention object F in the front image can be intuitively grasped. As a result, it is possible to superimpose and display an attention support image that can appropriately support attention to a predetermined attention object F in an image captured from the vehicle V.
上述した構成に加えてさらに、ステップS65の手順では、前記前方画像において前記移動表示基準点P2を中心とした略放射状の図形で前記注意支援画像G1を生成してもよい。 In addition to the configuration described above, in the procedure of step S65, the attention support image G1 may be generated with a substantially radial figure centered on the moving display reference point P2 in the front image.
このようにすると、略放射状の図形で生成された注意支援画像G1は、注意対象物Fの前方画像中における移動軌跡とほぼ重複する。このため、画像認識により検出した注意対象物Fの中心位置P3が、前方画像の最新画像フレームにおける同一の注意対象物Fの中心位置と多少ずれた場合でも、注意対象物Fは注意支援画像G1の延長上に位置するため、視覚的にそのズレの補間が容易であり、ユーザは自然かつ直感的に注意対象物Fを把握できる。 In this way, the attention support image G1 generated with a substantially radial graphic almost overlaps the movement trajectory in the front image of the attention object F. Therefore, even when the center position P3 of the attention object F detected by the image recognition is slightly deviated from the center position of the same attention object F in the latest image frame of the front image, the attention object F is displayed in the attention support image G1. Therefore, the user can visually grasp the target object F naturally and intuitively.
上述した構成に加えてさらに、前記前方画像中において、前記車両Vが走行する走行車線の左右両側に位置して当該走行車線の輪郭を形成する2本の車線輪郭線Lrを認識するステップS25の手順と、前記2本の車線輪郭線Lrのそれぞれの前記進行方向の延長線上の交点を車線消失点P1として検知するステップS30の手順と、前記ステップS30の手順で過去に検知した複数の前記車線消失点P1のそれぞれの平均位置に位置する平均消失点P2を算出してこれを前記ステップS65の手順で用いる前記移動表示基準点P2とするステップS50の手順と、を実行する。 In addition to the configuration described above, in step S25, in the front image, two lane contour lines Lr that form the contours of the travel lane that are located on both the left and right sides of the travel lane on which the vehicle V travels are recognized. The procedure, the procedure of step S30 for detecting the intersection of the two lane outlines Lr on the extension line in the traveling direction as a lane vanishing point P1, and the plurality of lanes detected in the past by the procedure of step S30 An average vanishing point P2 located at each average position of the vanishing point P1 is calculated, and the procedure of step S50 is executed as the moving display reference point P2 used in the procedure of step S65.
以上のような方法で平均消失点P2を算出すれば、フロントカメラ1の撮像方向Dcが任意の方向に向いている状態でも、精度よく消失点を特定し移動表示基準点P2とすることができる。このため、図6に示すように郵便ポスト51の表示領域の中心位置P3と移動表示基準点P2とを結ぶ線分G1の向きは不変となり、郵便ポスト51は注意支援画像の線分G1の延長上に正確に位置するため、ユーザは自然かつ直感的に郵便ポスト51を認識できるという効果を最大に得ることができる。
上述した構成では、前記前方画像から得られる平均消失点P2を前記移動表示基準点P2としたが、他の方法で移動表示基準点P2を設定してもよい。例えば、他の方法で消失点を算出してもよいし、フロントカメラ1の撮像方向Dcがほぼ正確に設置されている場合は、前方画像の中心点を移動表示基準点P2としてもよい。どのような方法でも、正確な消失点の近傍を移動表示基準点P2に設定できれば、郵便ポスト51の表示領域の中心位置P3と移動表示基準点P2とを結ぶ線分G1の向きはほぼ不変となり、郵便ポスト51は注意支援画像の線分G1の延長上に位置するため、ユーザは自然かつ直感的に郵便ポスト51を認識できるという効果を得られる。If the average vanishing point P2 is calculated by the method as described above, even when the imaging direction Dc of the
In the configuration described above, the average vanishing point P2 obtained from the front image is the moving display reference point P2, but the moving display reference point P2 may be set by another method. For example, the vanishing point may be calculated by another method, and when the imaging direction Dc of the
上述した構成に加えてさらに、前記前方画像中の前記所定の注意対象物Fは、地物又は歩行者である。 In addition to the configuration described above, the predetermined attention object F in the front image is a feature or a pedestrian.
このようにすると、地物は地面に対して静止し、また歩行者は当該車両Vの速度と比較して十分に低速で移動するため、それらと当該車両Vとの間の相対速度はほぼ当該車両Vの車両速度と同等とみなすことができる。これにより、最新の画像フレームにおける同一の注意対象物Fの中心位置は、注意支援画像G1が示すそれら注意対象物Fの前方画像中における移動方向から大きく外れることがない。この結果、前方画像中における注意対象物Fの位置を直感的に把握するための注意支援画像G1の信頼性を確保できる。 In this case, the feature is stationary with respect to the ground, and the pedestrian moves at a sufficiently low speed as compared with the speed of the vehicle V, so that the relative speed between them and the vehicle V is almost the same. It can be regarded as equivalent to the vehicle speed of the vehicle V. Thereby, the center position of the same attention object F in the latest image frame does not greatly deviate from the moving direction in the front image of the attention object F indicated by the attention support image G1. As a result, the reliability of the attention support image G1 for intuitively grasping the position of the attention object F in the front image can be ensured.
上述した構成に加えてさらに、ステップS65の手順は、前記平均消失点P2を始点として注意対象物Fの中心位置P3を通過する半直線上に位置する線分を含むよう前記注意支援画像を生成してもよい。 In addition to the above-described configuration, the procedure of step S65 generates the attention support image so as to include a line segment that is located on a half line that passes through the center position P3 of the attention object F starting from the average vanishing point P2. May be.
このようにすると、注意支援画像として生成された線分画像G1は、注意対象物Fの前方画像中における過去の移動軌跡上もしくは将来の移動軌跡上にほぼ重畳一致する。このため、画像認識により検出した注意対象物Fの中心位置P3が、前方画像の最新画像フレームにおける同一の注意対象物Fの中心位置と多少ずれた場合でも、注意支援画像の線分画像G1が最新画像フレームにおける注意対象物Fと重複している可能性が高い。また、重複していない場合でも注意対象物Fは線分画像の延長上に位置するため、視覚的にそのズレの補間が容易であり、ユーザは自然かつ直感的に注意対象物Fを把握できる。また、線分画像G1で注意を支援するため、注意させる方向や領域を比較的狭い範囲で明確に特定して示すことができる。 In this manner, the line segment image G1 generated as the attention support image substantially coincides with the past movement locus or the future movement locus in the forward image of the attention object F. Therefore, even when the center position P3 of the attention object F detected by the image recognition is slightly shifted from the center position of the same attention object F in the latest image frame of the front image, the line segment image G1 of the attention support image is There is a high possibility of overlapping with the attention object F in the latest image frame. Further, even when there is no overlap, the attention object F is located on the extension of the line segment image, so that the deviation can be easily visually interpolated, and the user can grasp the attention object F naturally and intuitively. . Further, since attention is supported by the line segment image G1, it is possible to clearly specify and indicate the direction or area to be noted in a relatively narrow range.
また、比較従来例の注意支援画像として上記図5に示した枠形状マーカ61では、前方画像の画像フレームが切り替わって注意対象物Fが表示座標X−Y上を移動表示するに伴い、それに追従するように位置を変えて当該枠形状マーカ61の全体を再描画する必要があった。しかし、上記実施形態で図6に示したように移動表示基準点P2と注意対象物Fの中心位置P3とを結ぶ線分画像G1で注意支援画像を生成、表示する場合には、注意対象物Fが表示座標X−Y上を移動してもそれに合わせて線分画像G1の放射方向の先端部分を延長するよう追加的に描画するだけでもよい。この場合には、線分画像G1の全体を再描画する必要がないため描画処理の負担が軽減されるだけでなく、適切な長さで先端部分を延長できれば画像認識による注意対象物Fの中心位置P3の検出を繰り返す必要がないため、注意支援画像G1の生成処理の負担も大きく軽減でき、全体の処理の高速化が可能となる。
Further, in the
上述した構成に加えてさらに、前記車両Vに搭載されて撮像した前記前方画像を前記ステップS60、S65の手順で利用可能に供給するフロントカメラ1(撮像手段に相当)と、前記ステップS70の手順で出力した前記注意支援画像G1を含む前記前方画像を表示するディスプレイ3(表示手段に相当)と、を有してもよい。 In addition to the above-described configuration, the front camera 1 (corresponding to the imaging unit) that supplies the front image mounted on the vehicle V and captured in the steps S60 and S65, and the step S70. And a display 3 (corresponding to display means) for displaying the front image including the attention support image G1 output in step S1.
このようにすると、前方画像の撮像と、注意支援画像G1を重畳させた前方画像の表示までを、運転支援装置Sが一体的に単独で行うことができる。 In this way, the driving support device S can integrally and independently perform the imaging of the front image and the display of the front image on which the attention support image G1 is superimposed.
上述した構成に加えてさらに、前記ステップS60、S65の手順は、前記前方画像中に存在する表示物のうちユーザが任意に指定したものを前記注意対象物Fとして設定可能であってもよい。 In addition to the above-described configuration, the steps S60 and S65 may be set as the attention object F that is arbitrarily designated by the user among the display objects existing in the front image.
このようにすると、ディスプレイ3に設けたタッチパネル(特に図示せず)上での直接接触やカーソルなどの指標によりユーザが前方画像上で直接指定した表示物を注意対象物として設定できるため、注意対象物Fのリアルタイムでの設定が可能となり利便性が向上する。
In this way, since the display object directly designated on the front image by the user can be set as the attention object by the direct contact on the touch panel (not shown) provided on the
なお、上記実施形態では、上記図6に示したように移動表示基準点P2から注意対象物Fの表示領域の中心位置P3までを結ぶ線分画像G1で注意支援画像を生成、表示したが、本発明はこれに限られない。例えば、図10に示すように、移動表示基準点P2を始点として注意対象物F(図示する例の郵便ポスト51)の表示領域の中心位置P3を通過する半直線の画像G2で注意支援画像を生成、表示してもよい。この場合でも注意支援画像の半直線画像G2は、結果的に移動表示基準点P2を中心とした略放射状の図形となり、さらにこの半直線画像G2の全体は注意対象物Fの過去及び将来の移動軌跡全体を示して必ず注意対象物Fの表示領域に重複する。このため、ユーザに対して、上記実施形態での線分画像G1よりも確実に注意対象物Fに対する注意を促すことができる。
In the above embodiment, the attention support image is generated and displayed with the line segment image G1 connecting the moving display reference point P2 to the center position P3 of the display area of the attention object F as shown in FIG. The present invention is not limited to this. For example, as shown in FIG. 10, the attention support image is represented by a half-line image G2 that passes through the center position P3 of the display area of the attention object F (the
また、上記半直線画像G2のうち移動表示基準点P2から注意対象物Fの中心位置P3までの区間と、当該中心位置P3から外周側の区間とで表示態様を異ならせるよう生成、表示してもよい。例えば、図11中の半直線画像G2Aに示すように、移動表示基準点P2から注意対象物Fの中心位置P3までの区間で実線の態様で表示し、中心位置P3から外周側の区間で破線の態様で表示してもよい。このようにすると、注意支援画像G2Aの全体で注意対象物Fの過去及び将来の移動軌跡全体を示すことができるとともに、その移動軌跡全体のうちで注意対象物Fがその時点でおおよそどの位置にあるかを示すことができる。このため、ユーザに対して、上記の単純な半直線画像G2よりも明確に注意対象物Fに対する注意を促すことができる。 Further, the half-line image G2 is generated and displayed so that the display mode is different between the section from the moving display reference point P2 to the center position P3 of the attention object F and the section on the outer peripheral side from the center position P3. Also good. For example, as shown in a half-line image G2A in FIG. 11, a solid line is displayed in the section from the movement display reference point P2 to the center position P3 of the attention object F, and a broken line is displayed in the section on the outer peripheral side from the center position P3. You may display in the aspect of. In this way, the entire attention support image G2A can indicate the entire past and future movement trajectories of the attention object F, and the approximate position of the attention object F in the entire movement trajectory is at that time. You can show if there is. For this reason, it is possible to prompt the user to pay attention to the attention object F more clearly than the simple half-line image G2.
また、注意支援画像を線分画像で生成する場合でも、例えば図12に示すように、注意対象物Fの表示領域の大きさよりも少し長い程度の長さの線分画像G3で、注意対象物Fの中心位置P3に重複するように生成、表示してもよい。この場合には、線分画像G3が注意対象物Fの移動方向を簡略的に示しながら、その中心位置P3を特に注意させることができる。また、この線分画像G3の外周側に矢印の矢先を追加することで、線分画像G3全体が注意対象物Fの移動ベクトルのように見せることができ、前方画像における注意対象物Fの移動に対応した表現が可能となる。 Even when the attention support image is generated as a line segment image, for example, as shown in FIG. 12, a line segment image G3 having a length slightly longer than the size of the display area of the attention object F is used. You may produce | generate and display so that it may overlap with the center position P3 of F. In this case, while the line segment image G3 simply indicates the moving direction of the attention object F, the center position P3 can be particularly noted. Further, by adding an arrowhead to the outer peripheral side of the line segment image G3, the entire line segment image G3 can be seen as a movement vector of the attention object F, and the movement of the attention object F in the front image is performed. The expression corresponding to is possible.
また以上においては、移動表示基準点P2を始点として注意対象物Fの表示領域の中心位置P3を通過する半直線上に位置する線分を含むよう注意支援画像を生成、表示したが、本発明はこれに限られない。例えば、図13に示すように、それぞれ移動表示基準点P2を始点として注意対象物Fの表示領域を包絡する2本の線分G4を含む画像で注意支援画像を生成、表示してもよい。この場合でも2本の線分画像G4は、結果的に移動表示基準点P2を中心とした略放射状の図形となり、さらにこれら2本の線分画像G4の間の領域の全体は、注意対象物Fの表示領域の過去及び将来の遠近による縮尺も反映した通過範囲全体を示して必ず注意対象物Fの表示領域に重複する。このため、ユーザに対して、上記実施形態での線分画像G1よりも確実に注意対象物Fの存在範囲を把握させることができる。 In the above description, the attention support image is generated and displayed so as to include a line segment located on the half line passing through the center position P3 of the display area of the attention object F starting from the moving display reference point P2. Is not limited to this. For example, as shown in FIG. 13, the attention support image may be generated and displayed as an image including two line segments G4 that envelop the display area of the attention object F, each starting from the moving display reference point P2. Even in this case, the two line segment images G4 result in a substantially radial figure centered on the moving display reference point P2, and the entire area between the two line segment images G4 is the object of attention. The entire display range reflecting the scale of the display area of F in the past and the future perspective is shown and always overlaps the display area of the attention object F. For this reason, it is possible for the user to grasp the existence range of the attention object F more reliably than the line segment image G1 in the above embodiment.
また、上記2本の線分画像G4とその間の領域のうち移動表示基準点P2から注意対象物Fの中心位置P3までの区間と、当該中心位置P3から外周側の区間とで表示態様を異ならせるよう生成、表示してもよい。例えば、図14中のG4Aに示すように、2本の線分画像G4の間の領域において、移動表示基準点P2から注意対象物Fの中心位置P3までの区間と、中心位置P3から外周側の区間とで色(もしくは濃度)を変えて半透過色のペイント処理で表示してもよい。このようにすると、注意支援画像G4Aの全体で注意対象物Fの表示領域の過去及び将来の遠近による縮尺も反映した通過範囲全体を示すことができるとともに、その通過範囲全体のうちで注意対象物Fがその時点でおおよそどの位置にあるかを示すことができる。このため、ユーザに対して、上記の単純な2本の線分画像G4よりも明確に注意対象物Fに対する注意を促すことができる。 Further, the display mode is different between the section from the moving display reference point P2 to the center position P3 of the attention object F and the section on the outer peripheral side from the center position P3 in the two line segment images G4 and the area between them. May be generated and displayed. For example, as indicated by G4A in FIG. 14, in the region between the two line segment images G4, a section from the moving display reference point P2 to the center position P3 of the attention object F, and the outer peripheral side from the center position P3. Alternatively, the color (or density) may be changed for each section and displayed by semi-transparent paint processing. In this way, the entire attention support image G4A can indicate the entire passing range reflecting the scale of the display area of the attention object F in the past and the future, and the attention object within the entire passing range. It can indicate where F is approximately at that time. For this reason, it is possible to prompt the user to pay attention to the attention object F more clearly than the above-described two simple line segment images G4.
また以上においては、移動表示基準点P2を中心として放射状となる位置に固定的に配置した注意支援画像を生成、表示したが、本発明はこれに限られない。例えば、図15に示すように、移動表示基準点P2を始点として注意対象物Fの表示領域の中心位置P3を通過する半直線上において、移動表示基準点P2から放射方向で移動する移動オブジェクトG5を含む画像で注意支援画像を生成、表示してもよい。図15に示す例では、移動表示基準点P2と注意対象物Fの中心位置P3とを結ぶ線分(図中の点線参照)上で、移動表示基準点P2から注意対象物Fの中心位置P3へ向かう方向に動的に移動する流星の形態の移動オブジェクトG5で注意支援画像を生成、表示している。この例に示す流星の移動オブジェクトG5は、先端と尾ビレで移動方向を表現し、前方画像中における注意対象物Fの移動よりも早い速度で流星を移動表示する。この場合には、注意対象物Fの移動軌跡と移動方向を動的なアニメーションで表現できる。なお、移動表示基準点P2と注意対象物Fの中心位置P3とを結ぶ線分(図中の点線参照)は表示してもよいし、表示を省略してもよい。また、流星の移動オブジェクトG5は、注意対象物Fの中心位置P3で止めてもよいし、そのまま注意対象物Fを追い越して前方画像の外周側まで移動させてもよい。 In the above description, the attention support image is generated and displayed fixedly arranged in a radial position around the moving display reference point P2, but the present invention is not limited to this. For example, as shown in FIG. 15, a moving object G5 that moves in a radial direction from the moving display reference point P2 on a half line passing through the center position P3 of the display area of the attention object F starting from the moving display reference point P2. An attention support image may be generated and displayed with an image including. In the example shown in FIG. 15, the center position P3 of the attention object F from the movement display reference point P2 on the line segment connecting the movement display reference point P2 and the center position P3 of the attention object F (see the dotted line in the figure). A caution support image is generated and displayed by a moving object G5 in the form of a meteor that dynamically moves in the direction toward. The meteor moving object G5 shown in this example expresses the moving direction with the tip and tail fins, and moves and displays the meteor at a speed faster than the movement of the attention object F in the front image. In this case, the movement trajectory and movement direction of the attention object F can be expressed by dynamic animation. Note that a line segment (see the dotted line in the figure) connecting the movement display reference point P2 and the center position P3 of the attention object F may be displayed or may be omitted. Further, the meteor moving object G5 may be stopped at the center position P3 of the attention object F, or may be moved to the outer peripheral side of the forward image by overtaking the attention object F as it is.
また、従来比較例の注意支援画像として上記図5に示した円形の枠形状マーカ61に対しても、図16に示すように移動表示基準点P2を始点として注意対象物Fの表示領域の中心位置P3を通過する半直線(図中の破線参照)に沿って扁平させて注意支援画像G6を生成、表示してもよい。この場合でも楕円形の注意支援画像G6は、結果的に移動常時基準点P2を中心とした略放射状の図形となり、この楕円形画像G6の全体は注意対象物Fの過去及び将来の移動軌跡全体を概略的に示して必ず注意対象物Fの表示領域に重複する。このため、ユーザに対して、上記実施形態での線分画像G1よりも確実に注意対象物Fの存在範囲を把握させることができる。
Also for the circular
また以上においては、1つの静止画像の画像フレームにおいて検出される注意対象物Fの中心位置P3と、表示座標X−Y上で固定的に取得された移動表示基準点P2との間の相対的な位置関係を幾何的に示す図形で注意支援画像を生成、表示していたが、本発明はこれに限られない。例えば、動画形式の前方画像で時系列的に撮像された複数の画像フレームのうち、同一の注意対象物Fに対して過去の画像フレームと最新の画像フレームでそれぞれ検出した2つの中心位置P3を結ぶ線分を含むよう注意支援画像を生成、表示してもよい。この場合、例えば図17に示すような線分画像G7が注意支援画像となり、この線分画像G7もまた結果的に移動表示基準点P2を中心とした略放射状の図形であって、移動表示基準点P2(図17中では図示省略)と注意対象物Fの中心位置P3との間の相対的な位置関係を幾何的に示している(なお、図中の中心位置P4は、過去の画像フレームで検出した中心位置)。このため、この線分画像G7によっても注意対象物Fの移動方向を簡略的に示しながら、その中心位置P3を特に注意させることができる。また、この線分画像G7を生成するにあたっては移動表示基準点P2の設定を必要としないため、まだ十分な車線消失点P1が得られてない際に表示する注意支援画像として有用である。 In the above description, the relative position between the center position P3 of the attention object F detected in the image frame of one still image and the moving display reference point P2 that is fixedly acquired on the display coordinates XY. However, the present invention is not limited to this. For example, two center positions P3 respectively detected in the past image frame and the latest image frame with respect to the same attention object F among a plurality of image frames captured in time series with a moving image front image. An attention support image may be generated and displayed so as to include a connecting line segment. In this case, for example, a line segment image G7 as shown in FIG. 17 becomes a caution support image, and this line segment image G7 is also a substantially radial figure centered on the movement display reference point P2, as a result. 17 shows geometrically the relative positional relationship between the point P2 (not shown in FIG. 17) and the center position P3 of the attention object F (the center position P4 in the figure indicates a past image frame). Center position detected in step 1). For this reason, the center position P3 can be particularly noted while the moving direction of the attention object F is simply indicated by the line segment image G7. In addition, since the line display image G7 is not required to set the movement display reference point P2, it is useful as a caution support image to be displayed when a sufficient lane vanishing point P1 has not yet been obtained.
また、例えば図18に示すように、上述したような移動表示基準点P2を中心とした略放射状の図形の注意支援画像(図示する例では線分画像G1)と、従来比較例の注意支援画像として上記図5に示した枠形状マーカ61とを組み合わせて表示させてもよい。前方画像の画像フレームの撮像周期が十分長かったり、イメージングユニット2のCPU11の処理速度が十分速い場合には、図示するようにいずれの注意支援画像G1,61も正確な配置で生成、表示することができ、これらの組み合わせによってユーザに対する注意対象物Fの注意を最も明確に促すことができる。
Also, for example, as shown in FIG. 18, the attention support image (line segment image G1 in the illustrated example) of the substantially radial figure centering on the moving display reference point P2 as described above, and the attention support image of the conventional comparative example As an alternative, the
また、本実施形態の運転支援装置Sでは、注意支援画像G1〜G7を重畳させた前方画像をそのまま記憶媒体12cなどに記録しておき、後で再生させるドライブレコーダに適用してもよい。もしくは、記憶媒体12cには前方画像だけを記録しておいて、後の再生時や編集時などに初めて注意支援画像G1〜G7を生成、重畳させて表示したりさらにその重畳画像を記録してもよい。
Further, in the driving support device S of the present embodiment, the front image on which the attention support images G1 to G7 are superimposed may be directly recorded on the
なお、本発明は、上記実施形態に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit and technical idea of the present invention.
(1)第1変形例:前方画像を外部のデータベースに記憶させる場合
上記実施形態では、運転支援装置Sが自ら撮像した前方画像を利用して、自ら画像認識処理や注意支援画像の生成、表示を行ったりその前方画像を内部に備えた記憶媒体12cに記録させるいわゆるスタンドアローン型であったが、本発明はこれに限られない。例えば、図19に示すように、運転支援装置S2が無線通信装置21(通信手段に相当)とアンテナ22を備え、中継局23(受信手段、送信手段に相当)との無線通信を介した通信ネットワークで外部のデータセンター24に備えたデータベースサーバ25(画像処理サーバに相当)に前方画像を送信し、そのデータベースサーバ25に前方画像の画像認識や注意支援画像の生成、さらにそれらの記録を行わせるいわゆるサーバ型としてもよい。そして、注意支援画像を重畳した前方画像をデータベースサーバ25から運転支援装置S2に返信して、そのディスプレイ3に表示させてもよい。または、注意支援画像のみをデータベースサーバ25から運転支援装置S2に返信して、運転支援装置S2が注意支援画像を前方画像に重畳して、そのディスプレイ3に表示させてもよい。(1) First modification: When a front image is stored in an external database In the above embodiment, the driving support device S uses the front image captured by itself, and generates and displays the image recognition process and the attention support image. Or a so-called stand-alone type in which the front image is recorded on the
これにより、運転支援装置S2の記憶媒体12cの方で過去の前方画像を誤って消去してしまった場合でも、データセンター24のデータベースサーバ25に記録させた前方画像と注意支援画像をバックアップとして利用できる。
As a result, even if the past forward image is accidentally deleted on the
(2)第2変形例:電子携帯端末を利用して構成する場合
上記実施形態及び上記第1変形例は、いずれも車両Vに搭載する機器構成が運転支援装置S、S2だけであったが、本発明はこれに限られない。近年では市販のスマートフォンや電子書籍端末などの電子携帯端末31にカメラ、ディスプレイ、又はGPSを装備しているモデルが多く、これを例えば上記車速センサ14に接続されたクレードル32に着脱可能に取り付けて車両Vに搭載する場合がある(図20参照)。そして、この電子携帯端末31に前方画像を撮像させ、同じ電子携帯端末31が備えるCPUに所定の画像認識処理や注意支援画像の生成を行わせることで、画像処理装置として機能させることができる。このような構成の画像処理装置においても、上記実施形態で例示した注意支援画像の生成、表示を行える。(2) Second modification: When configured using an electronic portable terminal In the above embodiment and the first modification, the device configuration mounted on the vehicle V is only the driving support devices S and S2. The present invention is not limited to this. In recent years, there are many models in which an electronic
この場合には、電子携帯端末31が各請求項記載の画像処理装置に相当し、これに装備されているカメラが撮像手段に相当し、当該電子携帯端末31のCPUが処理する制御手順のうち注意支援画像を生成する手順が生成手段に相当し、注意支援画像を含む前方画像を出力する手順が出力手段に相当し、電子携帯端末31に装備されているディスプレイが表示手段に相当する。
In this case, the electronic
また、特に図示しないが、電子携帯端末31を利用した構成でも上述したサーバ型とすることは可能である。この場合には、電子携帯端末31に通信手段が備えられ、データセンター24のデータベースサーバ25が前方画像の認識や注意支援画像の生成、及びそれらを記録する画像処理サーバに相当する。
Although not particularly illustrated, the above-described server type can be used even in a configuration using the electronic
なお、以上説明した実施形態、第1変形例、及び第2変形例はいずれも必要とする基本的なハードウェア構成要素及びソフトウェア処理内容は同じであり、構成機器間におけるそれらの分担が相違するだけである。これらの分担の主な例を図24と図25に示す。 The above-described embodiment, first modified example, and second modified example all have the same basic hardware components and software processing contents, and their sharing among the constituent devices is different. Only. Major examples of these assignments are shown in FIGS.
まず図24は、各構成機器間におけるハードウェア構成要素の分担の組み合わせ例を示している。この図24のハードウェア構成要素における記憶部とは注意支援画像を重畳した前方画像を記録する記憶媒体12cやデータベースサーバ25に相当するものであり、通信部とは上記無線通信装置21に相当するものである。また構成機器における車載装置(運転支援装置、クレードル)には車速センサの装備があってもよく、データセンターには記憶部の装備があってもよい。また、GPSは車載装置か携帯端末のいずれに装備させてもよいが、データセンターには装備できない。また、サーバ型の場合には、携帯端末と車載装置のいずれかと、データセンターにそれぞれ通信部の装備が必須である。
First, FIG. 24 shows a combination example of sharing of hardware components among the component devices. 24 corresponds to the
図示する分担例以外でも、カメラとディスプレイは、それぞれ携帯端末と車載装置のいずれかが装備すればよく、記憶部は、携帯端末、車載装置、及びデータセンターのいずれかが装備すればよい。なお、各ハードウェア構成要素はそれぞれ装備可能ないずれかの構成機器に1つずつ備えてあればよいが、例えば携帯端末と車載装置の両方に重複してディスプレイを備える構成としてもよい。また、携帯端末利用形態において、車載装置がカメラ、ディスプレイ、GPS、記憶部、及び通信部のいずれかを備え、それを利用する場合には、携帯端末と車載装置とがコネクタや、近距離無線通信などを介して情報信号を送受可能に装着できる必要がある。また、ハードウェア構成要素のうちカメラ、ディスプレイ、及び通信部(サーバ型の場合)はそれぞれ構成機器のいずれか対応するものに必ず装備させる必要があるが、その他のGPS、記憶部、及び車速センサの装備については任意となる。 In addition to the sharing example shown in the drawing, the camera and the display may be equipped either with a portable terminal or an in-vehicle device, and the storage unit may be equipped with any of the portable terminal, the in-vehicle device, or the data center. Each hardware component only needs to be provided in any one of the components that can be equipped, but for example, a configuration may be adopted in which both the mobile terminal and the in-vehicle device are provided with a display. Moreover, in a portable terminal usage form, when a vehicle-mounted apparatus is provided with any of a camera, a display, GPS, a memory | storage part, and a communication part, when using it, a portable terminal and vehicle-mounted apparatus are a connector, short-range wireless, It is necessary to be able to attach and receive information signals via communication or the like. Of the hardware components, the camera, the display, and the communication unit (in the case of the server type) must be installed in any of the corresponding components, but other GPS, storage units, and vehicle speed sensors The equipment is optional.
次に図25は、各構成機器間におけるソフトウェア処理内容の分担の組み合わせ例を示している。この図25に示すソフトウェア処理内容としては、平均消失点P2(移動表示基準点P2)を算出する算出処理、前方画像中の注意対象物Fの中心位置P3を検出する検出処理、注意支援画像を生成する生成処理、及び注意支援画像を重畳した前方画像を記録する記録処理の4つである。これらソフトウェア処理内容のうち検出処理及び生成処理はそれぞれ構成機器のいずれかで必ず処理させる必要があるが、その他の算出処理及び記憶処理の処理については任意となる。このソフトウェア処理内容の分担については、十分な処理能力を有するCPUが各構成機器に搭載されて互いに情報の送受が可能であれば、基本的にはどの処理内容もいずれかの構成機器に分担処理させればよい。図示する分担例はあくまで主な例であり、他にも多様な組み合わせが可能である。 Next, FIG. 25 shows an example of a combination of sharing of software processing contents among the constituent devices. The software processing contents shown in FIG. 25 include a calculation process for calculating the average vanishing point P2 (moving display reference point P2), a detection process for detecting the center position P3 of the attention object F in the front image, and an attention support image. There are four generation processes: a generation process to generate and a recording process to record a front image on which the attention support image is superimposed. Of these software processing contents, the detection process and the generation process must be performed by any of the constituent devices, but the other calculation processes and storage processes are optional. As for the sharing of software processing contents, basically, if a CPU with sufficient processing capability is installed in each component device and can send and receive information to and from each other, any processing content is basically shared by any component device. You can do it. The sharing example shown in the figure is a main example to the last, and various other combinations are possible.
(3)第3変形例:注意支援画像をヘッドアップディスプレイで表示させる場合
上記実施形態では、フロントカメラ1で撮像した前方画像に対して注意支援画像を重畳表示させた合成画像を単独のディスプレイに表示させていたが、本発明はこれに限られない。例えば、車両Vのウィンドウガラスを介した運転者の視界と一致させるよう表示座標X−Yを配置し、当該ウィンドウガラス上又はその手前位置に注意支援画像を表示するヘッドアップディスプレイを備えてもよい。(3) Third modification: When displaying the attention support image on the head-up display In the above embodiment, the composite image obtained by superimposing the attention support image on the front image captured by the
図21は、上記実施形態の図2に対応して本変形例の運転支援装置S4のハードウェア構成例を示すブロック図である。この図21において、本変形例の運転支援装置S4はディスプレイ3の代わりにヘッドアップディスプレイプロジェクター4およびコンバイナ5を有しており、それ以外のハードウェア構成は上記実施形態と同等である。ただし、グラフィックコントローラ15からは、前方画像を含まずに注意支援画像の画像データのみによる画像信号が出力される。
FIG. 21 is a block diagram illustrating a hardware configuration example of the driving support device S4 of the present modification example corresponding to FIG. 2 of the above embodiment. In FIG. 21, the driving support device S4 of the present modification has a head-up display projector 4 and a combiner 5 instead of the
上記実施形態の図3に対応する図22は、車両Vの車内から見た車窓風景及びこれに対応するヘッドアップディスプレイの表示の一例を示す図である。この図22に示す例において、図中の右側に位置する運転席の上方でヘッドアップディスプレイプロジェクター4が天井ルーフに固定されている。また、フロントガラス104の前面側でヘッドアップディスプレイプロジェクター4の投影範囲を覆うようにコンバイナ5が設けられている。このヘッドアップディスプレイプロジェクター4とコンバイナ5がヘッドアップディスプレイに相当し、上記グラフィックコントローラ15から出力された画像信号に基づいて、適宜にハーフミラーとしての機能を有するコンバイナ5の前面に注意支援画像(図示する例では線分画像G1)の映像を投影表示する。
FIG. 22 corresponding to FIG. 3 of the above embodiment is a diagram showing an example of a vehicle window scenery viewed from the inside of the vehicle V and a display of a head-up display corresponding to this. In the example shown in FIG. 22, the head-up display projector 4 is fixed to the ceiling roof above the driver's seat located on the right side in the figure. A combiner 5 is provided so as to cover the projection range of the head-up display projector 4 on the front side of the
図23は、上記ヘッドアップディスプレイによるフロントガラス104の前面側へ投影表示する態様を側方から見た模式図である。ヘッドアップディスプレイプロジェクター4は、ハーフミラーとしての機能を有するコンバイナ5上に表示座標X−Yを設定してその注意支援画像G1〜G7の映像を投影表示する。ここで、上記表示座標X−Yを、車両Vのフロントガラス104を介した運転者の視界と一致させる配置に設定していることで、運転者はフロントガラス104を介した前方視界中において、移動表示基準点P2と注意対象物Fの存在位置との相対的な位置関係を幾何的に示す注意支援画像G1〜G7を視認できる。
FIG. 23 is a schematic view of the aspect in which the head-up display projects and displays on the front side of the
この場合、表示座標X−Y上における注意支援画像G1〜G7の配置と、運転者の前方視界における配置との整合を図るために、運転者の座高の高さ(眼球の高さ位置)とフロントカメラ1の撮像方向Dcの偏差に応じて、ヘッドアップディスプレイプロジェクター4の表示座標X−Yの配置を適宜調整する必要がある。
In this case, in order to achieve alignment between the arrangement of the attention support images G1 to G7 on the display coordinates XY and the arrangement in the driver's front view, the height of the driver's seat (the height position of the eyeball) It is necessary to appropriately adjust the arrangement of the display coordinates XY of the head-up display projector 4 according to the deviation of the imaging direction Dc of the
以上説明したように、上記第3変形例の運転支援装置S4においては、走行する車両Vに搭載され、前記車両Vの前方画像を取得するフロントカメラ1と、前記前方画像中の平均消失点P2又はその近傍に位置する移動表示基準点P2と所定の注意対象物Fとの相対的な位置関係を示す注意支援画像を生成するステップS60、S65の手順と、前記ステップS60、S65の手順により生成された前記注意支援画像を出力するステップS70の手順と、運転者の運転時における視界内に前記ステップS70の手順で出力した前記注意支援画像を映し出すヘッドアップディスプレイプロジェクター4およびコンバイナ5(ヘッドアップディスプレイに相当)と、を有する。
As described above, in the driving support device S4 of the third modified example, the
このようにすると、運転者がフロントガラス104を介して視認する前方視界そのものに位置が整合した注意支援画像G1〜G7の映像を投影表示できるため、運転者は視線を大きく移動させることなく注意支援画像G1〜G7を視認でき、運転に集中することができる。
In this way, since the video of the attention support images G1 to G7 whose positions are aligned with the front view itself that the driver visually recognizes through the
なお、上記第3変形例では、フロントガラス104の前面側に設けたコンバイナ5に対してヘッドアップディスプレイプロジェクター4から注意支援画像G1〜G7の映像を投影表示することでヘッドアップディスプレイを構成していたが、本発明はこれに限られない。他にも、フロントガラス自体に例えば透過型の液晶パネル等を設け、その自発光により注意支援画像を表示するなどの構成としてもよい。
In the third modification, the head-up display is configured by projecting and displaying the images of the attention support images G1 to G7 from the head-up display projector 4 on the combiner 5 provided on the front side of the
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。 In addition to those already described above, the methods according to the above-described embodiments and modifications may be used in appropriate combination.
1 フロントカメラ(撮像手段に相当)
2 イメージングユニット(画像処理装置に相当)
3 ディスプレイ(表示装置に相当)
11 CPU
12 記憶部
13 GPS
14 車速センサ
15 グラフィックコントローラ
21 無線通信装置(通信手段に相当)
22 中継局(受信手段、送信手段に相当)
24 データセンター
25 データベースサーバ(画像処理サーバに相当)
31 電子携帯端末(携帯端末装置に相当)
32 クレードル
51 郵便ポスト
61 枠形状マーカ
Dc 撮像方向
Dv 車両軸方向
F 注意対象物(所定の特徴物に相当)
G1〜G7 注意支援画像(表示オブジェクトに相当)
Lr 車線輪郭線
P1 車線消失点
P2 平均消失点、移動表示基準点(基準点に相当)
P3 注意対象物の表示領域の中心位置
S,S2,S3 運転支援装置
,S4
V 車両
1 Front camera (equivalent to imaging means)
2 Imaging unit (equivalent to image processing device)
3 Display (equivalent to a display device)
11 CPU
12
14
22 Relay station (equivalent to receiving means, transmitting means)
24
31 Electronic portable terminal (equivalent to a portable terminal device)
32
G1-G7 Attention support image (equivalent to display object)
Lr Lane outline P1 Lane vanishing point P2 Average vanishing point, moving display reference point (corresponding to the reference point)
P3 Center position of the display area of the target object S, S2, S3 Driving support device, S4
V vehicle
Claims (11)
前記生成手段により生成された前記表示オブジェクトを含む前方画像を出力する出力手段と、
を備え、
前記生成手段は、前記基準点を始点として前記特徴物を通過する半直線上に位置する線分を含むよう前記表示オブジェクトを生成することを特徴とする画像処理装置。 Using a vanishing point of a forward image taken from a moving moving object or a point near the vanishing point as a reference point, a display object indicating a relative positional relationship between the reference point and a feature in the front image is generated. Generating means;
Output means for outputting a front image including the display object generated by the generation means;
With
The image processing apparatus according to claim 1, wherein the generation unit generates the display object so as to include a line segment located on a half line passing through the characteristic object with the reference point as a starting point.
前記生成手段は、同一の前記特徴物に対して過去の画像フレームと最新の画像フレームでそれぞれ検出した2つの前記特徴物の位置を結ぶ線分を含むよう前記表示オブジェクトを生成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The front image is a plurality of image frames captured in time series as a moving image format,
The generating means generates the display object so as to include a line segment connecting the positions of the two feature objects detected in the past image frame and the latest image frame with respect to the same feature object. The image processing apparatus according to any one of claims 1 to 3.
前記出力手段が出力した前記表示オブジェクトを含む前方画像を表示する表示手段と、
を有することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 Imaging means for supplying the generating means with the forward image mounted on the moving body;
Display means for displaying a front image including the display object output by the output means;
The image processing apparatus according to claim 1, further comprising:
前記前方画像中の消失点又は当該消失点の近傍の点を基準点とし、前記基準点と特徴物との相対的な位置関係を示す表示オブジェクトを生成する生成手段と、
前記生成手段により生成された前記表示オブジェクトを前記外部の画像処理装置に送信する送信手段と、
を備え、
前記生成手段は、前記基準点を始点として前記特徴物を通過する半直線上に位置する線分を含むよう前記表示オブジェクトを生成することを特徴とする画像処理サーバ。 Receiving means for receiving, from an external image processing device, a front image captured from a moving moving body;
Generating means for generating a display object indicating a relative positional relationship between the reference point and the feature object, with a vanishing point in the front image or a point near the vanishing point as a reference point;
Transmitting means for transmitting the display object generated by the generating means to the external image processing device;
With
The image processing server characterized in that the generation means generates the display object so as to include a line segment located on a half line passing through the feature starting from the reference point.
請求項7に記載の画像処理サーバに対して前記前方画像を送受する通信手段と、
前記通信手段が前記画像処理サーバから受信した前記表示オブジェクトを含む前方画像を表示する表示手段と、を有する
ことを特徴とする画像処理装置。 An imaging means mounted on a traveling moving body for capturing a front image;
Communication means for transmitting and receiving the front image to the image processing server according to claim 7;
An image processing apparatus comprising: a display unit configured to display a front image including the display object received from the image processing server by the communication unit.
走行する移動体から撮影した前方画像の消失点又は当該消失点の近傍の点を基準点とし、前記基準点と前記前方画像中の特徴物との相対的な位置関係を示す表示オブジェクトを生成する生成工程と、
前記生成工程により生成された前記表示オブジェクトを含む前方画像を出力する出力工程と、
を実行し、
前記生成工程では、前記基準点を始点として前記特徴物を通過する半直線上に位置する線分を含むよう前記表示オブジェクトを生成することを特徴とする画像処理方法。 An image processing method executed by an image processing apparatus,
Using a vanishing point of a forward image taken from a moving moving object or a point near the vanishing point as a reference point, a display object indicating a relative positional relationship between the reference point and a feature in the front image is generated. Generation process;
An output step of outputting a front image including the display object generated by the generation step ;
Run
In the generation step, the display object is generated so as to include a line segment located on a half line passing through the feature object with the reference point as a starting point.
11. A recording medium in which the image processing program according to claim 10 is stored so as to be readable by the image processing apparatus.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2012/050873 WO2013108371A1 (en) | 2012-01-17 | 2012-01-17 | Image processing apparatus, image processing server, image processing method, image processing program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013108371A1 JPWO2013108371A1 (en) | 2015-05-11 |
JP5893054B2 true JP5893054B2 (en) | 2016-03-23 |
Family
ID=48798821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013554141A Active JP5893054B2 (en) | 2012-01-17 | 2012-01-17 | Image processing apparatus, image processing server, image processing method, image processing program, and recording medium |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP5893054B2 (en) |
CN (1) | CN104081763B (en) |
WO (1) | WO2013108371A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020106946A (en) * | 2018-12-26 | 2020-07-09 | マクセル株式会社 | Vehicle operation record system, vehicle operation information record processing system, and head-up display device |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5842110B2 (en) * | 2013-10-10 | 2016-01-13 | パナソニックIpマネジメント株式会社 | Display control device, display control program, and recording medium |
KR102383425B1 (en) * | 2014-12-01 | 2022-04-07 | 현대자동차주식회사 | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium |
JP2017021148A (en) * | 2015-07-09 | 2017-01-26 | ホシデン株式会社 | Projection type display device and on-vehicle head-up display using the projection type display device |
JP6448804B2 (en) * | 2015-08-20 | 2019-01-09 | 三菱電機株式会社 | Display control device, display device, and display control method |
JP6611315B2 (en) * | 2015-09-11 | 2019-11-27 | 矢崎エナジーシステム株式会社 | Video reference point determination system, video reference point determination method, and video reference point determination program |
JP2017074871A (en) * | 2015-10-15 | 2017-04-20 | 日立建機株式会社 | Device for detecting obstacle around vehicle |
JP6726052B2 (en) * | 2015-11-20 | 2020-07-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image processing method and program |
JP6665521B2 (en) * | 2015-12-18 | 2020-03-13 | 株式会社リコー | Information processing apparatus, information processing system, and information processing program |
JP6655997B2 (en) * | 2016-01-25 | 2020-03-04 | パイオニア株式会社 | Video control device |
JP6617610B2 (en) * | 2016-03-02 | 2019-12-11 | トヨタ自動車株式会社 | Vehicle display device |
US20190043235A1 (en) * | 2016-03-24 | 2019-02-07 | Mitsubishi Electric Corporation | Support image display apparatus, support image display method, and computer readable medium |
JP6661082B2 (en) * | 2016-03-30 | 2020-03-11 | 株式会社エクォス・リサーチ | Image recognition device and image recognition program |
JP6256509B2 (en) * | 2016-03-30 | 2018-01-10 | マツダ株式会社 | Electronic mirror control device |
JP6720729B2 (en) * | 2016-06-28 | 2020-07-08 | アイシン精機株式会社 | Display controller |
JP2018169667A (en) * | 2017-03-29 | 2018-11-01 | 株式会社デンソー | Driving information recording system, driving information recording method, and program |
JP6809959B2 (en) * | 2017-03-29 | 2021-01-06 | 株式会社ゼンリンデータコム | Mobile information provision service system, mobile information provision service server device, mobile window device and mobile information provision service method |
JP7266257B2 (en) * | 2017-06-30 | 2023-04-28 | パナソニックIpマネジメント株式会社 | DISPLAY SYSTEM AND METHOD OF CONTROLLING DISPLAY SYSTEM |
KR102300836B1 (en) * | 2017-09-12 | 2021-09-13 | 현대자동차주식회사 | Automatic Driving control apparatus, vehicle having the same and method for controlling the same |
JPWO2019181284A1 (en) * | 2018-03-23 | 2021-03-18 | ソニー株式会社 | Information processing equipment, mobile devices, and methods, and programs |
JP7276280B2 (en) * | 2020-08-18 | 2023-05-18 | トヨタ自動車株式会社 | VEHICLE IMAGE RECORDING DEVICE AND VEHICLE IMAGE RECORDING METHOD |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4707067B2 (en) * | 2006-06-30 | 2011-06-22 | 本田技研工業株式会社 | Obstacle discrimination device |
JP4497133B2 (en) * | 2006-07-12 | 2010-07-07 | アイシン・エィ・ダブリュ株式会社 | Driving support method and driving support device |
JP4862774B2 (en) * | 2006-12-20 | 2012-01-25 | アイシン・エィ・ダブリュ株式会社 | Driving support method and driving support device |
JP4784572B2 (en) * | 2007-02-23 | 2011-10-05 | アイシン・エィ・ダブリュ株式会社 | Driving support method and driving support device |
JP5120627B2 (en) * | 2008-03-26 | 2013-01-16 | トヨタ自動車株式会社 | Image processing apparatus and image processing program |
JP5208147B2 (en) * | 2010-03-09 | 2013-06-12 | 三菱電機株式会社 | Camera calibration device for in-vehicle camera |
JP5479956B2 (en) * | 2010-03-10 | 2014-04-23 | クラリオン株式会社 | Ambient monitoring device for vehicles |
-
2012
- 2012-01-17 CN CN201280067356.6A patent/CN104081763B/en active Active
- 2012-01-17 WO PCT/JP2012/050873 patent/WO2013108371A1/en active Application Filing
- 2012-01-17 JP JP2013554141A patent/JP5893054B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020106946A (en) * | 2018-12-26 | 2020-07-09 | マクセル株式会社 | Vehicle operation record system, vehicle operation information record processing system, and head-up display device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2013108371A1 (en) | 2015-05-11 |
CN104081763A (en) | 2014-10-01 |
WO2013108371A1 (en) | 2013-07-25 |
CN104081763B (en) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5893054B2 (en) | Image processing apparatus, image processing server, image processing method, image processing program, and recording medium | |
US11132564B2 (en) | Display control device, display control system, display control method, and display control program | |
WO2016067574A1 (en) | Display control device and display control program | |
WO2015094371A1 (en) | Systems and methods for augmented reality in a head-up display | |
JP2015075889A (en) | Driving support device | |
JP2013107580A (en) | Periphery monitoring apparatus for vehicle | |
JP2007198962A (en) | Guidance display device for vehicle | |
JPWO2017056210A1 (en) | Vehicle display device | |
JP2008151507A (en) | Apparatus and method for merge guidance | |
WO2011013813A1 (en) | In-vehicle device and image processing program | |
JP5825713B2 (en) | Dangerous scene reproduction device for vehicles | |
JP2012153256A (en) | Image processing apparatus | |
JP2008145364A (en) | Route guiding device | |
JP6300949B2 (en) | Display control device | |
JP2014234139A (en) | On-vehicle display device and program | |
JP4857159B2 (en) | Vehicle driving support device | |
JP6328366B2 (en) | Display control apparatus and display control method for head-up display | |
JP6401925B2 (en) | Virtual image display device, control method, program, and storage medium | |
WO2013111302A1 (en) | Display device, control method, program, and storage medium | |
JP2007292545A (en) | Apparatus and method for route guidance | |
JP2009075842A (en) | On-vehicle display device | |
JP5074171B2 (en) | In-vehicle system | |
JP4696825B2 (en) | Blind spot image display device for vehicles | |
WO2013030932A1 (en) | Navigation device, image display device, server, adjustment device, and forward image display method | |
JP6274936B2 (en) | Driving assistance device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5893054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |