JP5651491B2 - Image display system, image display apparatus, and image display method - Google Patents

Image display system, image display apparatus, and image display method Download PDF

Info

Publication number
JP5651491B2
JP5651491B2 JP2011018192A JP2011018192A JP5651491B2 JP 5651491 B2 JP5651491 B2 JP 5651491B2 JP 2011018192 A JP2011018192 A JP 2011018192A JP 2011018192 A JP2011018192 A JP 2011018192A JP 5651491 B2 JP5651491 B2 JP 5651491B2
Authority
JP
Japan
Prior art keywords
vehicle
predicted
image
error
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011018192A
Other languages
Japanese (ja)
Other versions
JP2012158225A (en
Inventor
橋本 欣和
欣和 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2011018192A priority Critical patent/JP5651491B2/en
Publication of JP2012158225A publication Critical patent/JP2012158225A/en
Application granted granted Critical
Publication of JP5651491B2 publication Critical patent/JP5651491B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の予測進路を表示する技術に関する。   The present invention relates to a technique for displaying a predicted course of a vehicle.

近年、車両に搭載された表示装置において、車両に備えられたカメラにより車両周辺を撮影した車外画像に車両の予測進路を示す指標を重畳して表示する技術が開発されている。車両のユーザは表示装置に表示された指標を車両の進行方向の目安として、車両のステアリングホイールの操作、および、アクセル開度の調整などを行って、ユーザの目標とするスペースに車両を移動させる。なお、本発明と関連する技術を説明する資料としては特許文献1がある。   In recent years, in a display device mounted on a vehicle, a technique for superimposing and displaying an index indicating a predicted course of the vehicle on an outside image obtained by photographing the periphery of the vehicle with a camera provided in the vehicle has been developed. The user of the vehicle moves the vehicle to the user's target space by operating the steering wheel of the vehicle and adjusting the accelerator opening, using the indicator displayed on the display device as a guide for the traveling direction of the vehicle. . Note that there is Patent Document 1 as a material for explaining the technology related to the present invention.

特開2008−83990号公報JP 2008-83990 A

しかしながら、表示装置に表示される車両の予測進路は、車両のステアリングホイールの操舵角に応じて、車外画像上の表示位置の変更がなされるものの、車両の進行に伴い予測進路に誤差を生じさせる要因については考慮されていなかった。そのため、表示装置に表示された予測進路に基づいてユーザが車両を移動させた場合にユーザの意図した位置とは異なる位置に車両が移動する可能性があった。   However, the predicted course of the vehicle displayed on the display device causes an error in the predicted course as the vehicle travels, although the display position on the outside image is changed according to the steering angle of the steering wheel of the vehicle. Factors were not considered. Therefore, when the user moves the vehicle based on the predicted course displayed on the display device, the vehicle may move to a position different from the position intended by the user.

本発明は、上記課題に鑑みてなされたものであり、車両が移動する可能性のある位置を示す予測進路をユーザへ提供することを目的とする。   This invention is made | formed in view of the said subject, and it aims at providing the user the predicted course which shows the position where a vehicle may move.

上記課題を解決するために、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、前記車両の操舵角を取得する取得手段と、前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、前記要因の程度に関する路面摩擦係数、および、前記車両の速度のパラメータの演算処理に基づいて、前記予測進路に対して最大の誤差を有する最大誤差進路を導出する第2導出手段と、前記予測進路と前記最大誤差進路とで構成される範囲であり、前記車両からの距離が離れるほど広くなる範囲を示す指標を前記車外画像に重畳して表示する表示手段と、を備える。
In order to solve the above-mentioned problem, the invention of claim 1 is an image display system mounted on a vehicle, wherein the vehicle receives a vehicle outside image acquired by an imaging unit that captures the periphery of the vehicle, and the vehicle An obtaining means for obtaining a steering angle of the vehicle, a first deriving means for deriving a predicted course where the vehicle is predicted to travel based on the steering angle, and a degree of a factor causing an error in the predicted course. Detection means; and second derivation means for deriving a maximum error course having a maximum error with respect to the predicted course based on a calculation process of a road surface friction coefficient related to the degree of the factor and a parameter of the speed of the vehicle ; ranges comprised between the maximum error path and the predicted path, Bei and display means for displaying by superimposing an index indicating the broad in scope as the distance away from the vehicle to the exterior image That.

また、請求項2の発明は、請求項1に記載の画像表示システムにおいて、前記検知手段は、前記車両が走行する路面の滑りやすさと、前記車両の速度とを前記要因の程度として検知する。   According to a second aspect of the present invention, in the image display system according to the first aspect, the detecting means detects the slipperiness of the road surface on which the vehicle travels and the speed of the vehicle as the degree of the factor.

また、請求項3の発明は、請求項1または2に記載の画像表示システムにおいて、前記検知手段は、前記車両の設計公差を前記要因の程度として検知する。   According to a third aspect of the present invention, in the image display system according to the first or second aspect, the detection means detects a design tolerance of the vehicle as the degree of the factor.

また、請求項4の発明は、請求項2に記載の画像表示システムにおいて、前記表示手段は、前記車両の速度に応じて前記予測進路と前記最大誤差経路とで構成される範囲が変化した場合に、変化前と変化後との双方の前記予測進路と前記最大誤差進路とで構成される範囲を示す指標を表示する。
Also, when the invention of claim 4, in the image display system according to claim 2, wherein the display means, the range that is constituted by the said maximum error path and the predicted path in response to the speed of the vehicle is changed In addition, an index indicating a range constituted by the predicted course and the maximum error course both before and after the change is displayed.

また、請求項5の発明は、車両に搭載される画像処理装置であって、前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、前記車両の操舵角を取得する取得手段と、前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、前記要因の程度に関する路面摩擦係数、および、前記車両の速度のパラメータの演算処理に基づいて、前記予測進路に対して最大の誤差を有する最大誤差進路を導出する第2導出手段と、前記予測進路と前記最大誤差進路とで構成される範囲であり、前記車両からの距離が離れるほど広くなる範囲を示す指標を表示装置に送信する送信手段と、を備える。
According to a fifth aspect of the present invention, there is provided an image processing apparatus mounted on a vehicle, wherein a receiving unit that receives an outside image acquired by an imaging unit that captures the periphery of the vehicle and a steering angle of the vehicle are acquired. An obtaining means; a first deriving means for deriving a predicted course where the vehicle is predicted to travel based on the steering angle; a detecting means for detecting a degree of a factor causing an error in the predicted course; and the factor the road surface friction coefficient regarding the degree of, and, based on the calculation of the speed parameter of the vehicle, a second derivation means for deriving the maximum error path having the largest error relative to the predicted route, and the predicted route the Transmitting means for transmitting to the display device an index indicating a range which is a range constituted by a maximum error path and becomes wider as the distance from the vehicle increases .

また、請求項6の発明は、車両に搭載される画像表示システムの画像表示方法であって、(a)前記車両の周辺を撮影する撮像部が取得した車外画像を受信する工程と、(b)前記車両の操舵角を取得する工程と、(c)前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する工程と、(d)前記予測進路に誤差を生じさせる要因の程度を検知する工程と、(e)前記要因の程度に関する路面摩擦係数、および、前記車両の速度のパラメータの演算処理に基づいて、前記予測進路に対して最大の誤差を有する最大誤差進路を導出する工程と、(f)前記予測進路と前記最大誤差進路とで構成される範囲であり、前記車両からの距離が離れるほど広くなる範囲を示す指標を前記車外画像に重畳して表示する工程と、を備える。
また、請求項7の発明は、車両に搭載される画像表示システムであって、前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、前記車両の操舵角を取得する取得手段と、前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する第導出手段と、前記予測進路の前記誤差が生じる範囲を示す指標を前記車外画像に重畳して表示する表示手段と、を備え、前記検知手段は、前記車両の速度を前記要因の程度として検知し、前記表示手段は、前記車両の速度に応じて前記予測進路の前記誤差が生じる範囲が変化した場合に、変化前と変化後との双方の前記予測進路の前記誤差が生じる範囲を示す指標を表示する。
また、請求項8の発明は、請求項7に記載の画像表示システムにおいて、前記検知手段は、前記車両が走行する路面の滑りやすさを前記要因の程度として検知する。
The invention of claim 6 is an image display method of an image display system mounted on a vehicle, wherein (a) a step of receiving an image outside the vehicle acquired by an imaging unit that captures the periphery of the vehicle; ) Obtaining a steering angle of the vehicle; (c) deriving a predicted course where the vehicle is predicted to travel based on the steering angle; and (d) a factor causing an error in the predicted course. And (e) a maximum error path having a maximum error with respect to the predicted path based on a calculation process of a road surface friction coefficient relating to the degree of the factor and a parameter of the speed of the vehicle. A step of deriving, and (f) a step of superimposing and displaying on the outside image an index indicating a range which is a range constituted by the predicted course and the maximum error course and becomes wider as the distance from the vehicle increases. And equipped with .
The invention according to claim 7 is an image display system mounted on a vehicle, wherein a receiving unit that receives an outside image acquired by an imaging unit that captures the periphery of the vehicle and a steering angle of the vehicle are acquired. An obtaining means; a first deriving means for deriving a predicted course where the vehicle is predicted to travel based on the steering angle; a detecting means for detecting a degree of a factor causing an error in the predicted course; and the factor A third deriving unit for deriving a range in which the error of the predicted course occurs based on the degree of the display, a display unit for displaying an index indicating the range in which the error of the predicted course occurs in a manner superimposed on the outside image, The detection means detects the speed of the vehicle as the degree of the factor, and the display means changes the range in which the error in the predicted course changes according to the speed of the vehicle before the change. And change Displaying an indication that the range in which an error occurs in the predicted course of both the.
According to an eighth aspect of the present invention, in the image display system according to the seventh aspect, the detection means detects the slipperiness of the road surface on which the vehicle travels as the degree of the factor.

請求項1ないし6の発明によれば、予測進路の誤差が生じる範囲を示す指標を車外画像に重畳して表示することで、車両の進行に伴って車両の通過する可能性のある位置をユーザが認識できる。   According to the first to sixth aspects of the present invention, the index indicating the range in which the predicted course error occurs is superimposed and displayed on the outside image so that the position where the vehicle may pass as the vehicle travels is displayed. Can be recognized.

また、特に請求項2の発明によれば、検知手段は、車両が走行する路面の滑りやすさと、車両の速度とを要因の程度として検知することで、車両の外部要因に基づいて導出された車両の進行に伴って車両の通過する可能性のある位置をユーザが認識できる。   In particular, according to the invention of claim 2, the detecting means detects the slipperiness of the road surface on which the vehicle travels and the speed of the vehicle as factors, and is derived based on external factors of the vehicle. The user can recognize a position where the vehicle may pass as the vehicle travels.

また、特に請求項3の発明によれば、検知手段は、車両の設計公差を要因の程度として検知することで、車両内部の要因に基づいて導出された車両の進行に伴って車両の通過する可能性のある位置をユーザに認識させることができる。   In particular, according to the invention of claim 3, the detecting means detects the design tolerance of the vehicle as the degree of the factor, so that the vehicle passes along with the progress of the vehicle derived based on the factor inside the vehicle. Possible positions can be recognized by the user.

さらに、特に請求項4の発明によれば、表示手段は、車両の速度に応じて予測進路の誤差が生じる範囲が変化した場合に、変化前と変化後との双方の予測進路の誤差が生じる範囲を示す指標を表示することで、車両の速度に応じて変化した予測進路の誤差が生じる範囲をユーザが認識できる。   Further, according to the invention of claim 4, when the range in which the predicted path error occurs is changed according to the speed of the vehicle, the display means generates an error in the predicted path both before and after the change. By displaying the index indicating the range, the user can recognize the range in which the error in the predicted course that changes according to the speed of the vehicle occurs.

図1は、画像表示システムのブロック図である。FIG. 1 is a block diagram of an image display system. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、合成画像を生成する手法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a composite image. 図4は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。FIG. 4 is a diagram illustrating an example in which a composite image obtained by overlooking a vehicle image is displayed on the display. 図5は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。FIG. 5 is a diagram illustrating an example in which a composite image obtained by overlooking a vehicle image is displayed on the display. 図6は、車両像の後方に表示された予測進路を含む指標を示す図である。FIG. 6 is a diagram illustrating an index including a predicted course displayed behind the vehicle image. 図7は、車両像の後方に表示された指標の予測進路の範囲を示す図である。FIG. 7 is a diagram illustrating a predicted course range of an index displayed behind the vehicle image. 図8は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。FIG. 8 is a diagram illustrating an example in which a composite image obtained by overlooking a vehicle image is displayed on the display. 図9は、車両像を俯瞰した合成画像がディスプレイに表示された例を示す図である。FIG. 9 is a diagram illustrating an example in which a composite image obtained by overlooking a vehicle image is displayed on the display. 図10は、バックカメラにより撮影された画像を画像生成部で処理を行い、ディスプレイに表示した図である。FIG. 10 is a diagram in which an image taken by the back camera is processed by the image generation unit and displayed on the display. 図11は、第1の実施の形態の画像処理装置の処理フローチャートである。FIG. 11 is a process flowchart of the image processing apparatus according to the first embodiment. 図12は、車両像の後方に表示された予測進路の範囲を含む指標を示す図である。FIG. 12 is a diagram illustrating an index including a predicted course range displayed behind the vehicle image. 図13は、第2の実施の形態の画像処理装置の処理フローチャートである。FIG. 13 is a process flowchart of the image processing apparatus according to the second embodiment. 図14は、車両像の後方に表示された予測進路の範囲を含む指標を示す図である。FIG. 14 is a diagram illustrating an index including a predicted course range displayed behind the vehicle image.

以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1の実施の形態>
<1−1.システム構成>
図1は、画像表示システム120のブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成し、その生成した画像を車室内のナビゲーション装置20などの表示装置に出力する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<1. First Embodiment>
<1-1. System configuration>
FIG. 1 is a block diagram of the image display system 120. The image display system 120 is mounted on a vehicle (in this embodiment, an automobile), generates an image by photographing the periphery of the vehicle, and uses the generated image as a navigation device 20 in the vehicle interior. It has a function of outputting to a display device. By using this image display system 120, a user (typically a driver) of the image display system 120 can grasp the state around the vehicle in almost real time.

図1に示すように、画像表示システム120は、車両の周辺を示す周辺画像を生成してナビゲーション装置20などの表示装置に画像情報を出力する画像処理装置100と、車両の周囲を撮影するカメラを備えている撮影部5とを主に備えている。   As shown in FIG. 1, an image display system 120 includes an image processing device 100 that generates a peripheral image indicating the periphery of a vehicle and outputs image information to a display device such as a navigation device 20, and a camera that captures the periphery of the vehicle. And a photographing unit 5 having the above.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The navigation device 20 provides navigation guidance to the user, and includes a display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 that is operated by the user, and a control unit 23 that controls the entire device. Yes. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user. Various instructions from the user are received by the operation unit 22 and the display 21 as a touch panel. The control unit 23 is a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program.

ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100により生成された車両の周辺の様子を示す周辺画像や、車両9及び車両9の周辺領域を俯瞰した俯瞰画像が表示される。また、ディスプレイ21に表示される俯瞰画像は周辺領域をほぼリアルタイムに示すことになる。これにより、ナビゲーション装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。   The navigation apparatus 20 is communicably connected to the image processing apparatus 100, and can transmit and receive various control signals to and from the image processing apparatus 100 and receive peripheral images generated by the image processing apparatus 100. . An image based on the function of the navigation device 20 alone is normally displayed on the display 21 under the control of the control unit 23, but the periphery showing the state of the periphery of the vehicle generated by the image processing device 100 under a predetermined condition An image and a bird's-eye view of the vehicle 9 and the surrounding area of the vehicle 9 are displayed. Moreover, the bird's-eye view image displayed on the display 21 shows the peripheral area almost in real time. Thereby, the navigation device 20 also functions as a display device that receives and displays a peripheral image generated by the image processing device 100.

画像処理装置100は、その本体部10が周辺画像を生成する機能を有するECU(Electronic Control Unit)であり、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。これらの撮影部5が備える複数の車載カメラ51,52,53は、本体部10とは別の車両の適位置に配置されるが詳細は後述する。   The image processing apparatus 100 is an ECU (Electronic Control Unit) whose main body 10 has a function of generating a peripheral image, and is arranged at a predetermined position of the vehicle. The image processing apparatus 100 includes an imaging unit 5 that captures the periphery of the vehicle. The image generation unit 5 generates a composite image viewed from a virtual viewpoint based on a captured image obtained by capturing the periphery of the vehicle. Functions as a device. The plurality of in-vehicle cameras 51, 52, and 53 provided in these photographing units 5 are arranged at appropriate positions on a vehicle different from the main body unit 10, but will be described in detail later.

画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   The main body 10 of the image processing apparatus 100 includes a control unit 1 that controls the entire apparatus, an image generation unit 3 that generates a peripheral image for display by processing a captured image acquired by the imaging unit 5, and a navigation device 20. And a navigation communication unit 42 that communicates with each other.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1.

画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、画像受信部31、画像重畳部33、及び、画像送信部34を主な機能として備えている。   The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes an image reception unit 31, an image superimposition unit 33, and an image transmission unit 34 as main functions.

画像受信部31は、車両9の周辺を撮影する撮影部5の複数の車載カメラ51、52、53で取得された複数の撮影画像を受信する、
画像合成部32は、撮影部5の複数の車載カメラ51、52、53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部32が仮想視点からみた合成画像を生成する手法については後述する。
The image receiving unit 31 receives a plurality of captured images acquired by the plurality of in-vehicle cameras 51, 52, and 53 of the imaging unit 5 that captures the periphery of the vehicle 9.
The image composition unit 32 generates a composite image viewed from an arbitrary virtual viewpoint around the vehicle, based on the plurality of captured images acquired by the plurality of in-vehicle cameras 51, 52, and 53 of the photographing unit 5. A method by which the composite image generation unit 32 generates a composite image viewed from a virtual viewpoint will be described later.

画像重畳部は33は、車両9が進行すると予測される予測進路を撮影部5が撮影した画像に重畳する処理を行う。予測進路は車両9が進行することにより通過する位置を示し、後述する制御部1の予測進路導出部13により導出される。また、予測進路が重畳される画像は、撮影部5の一のカメラ(例えばバックカメラ52)により撮影された画像、および、画像合成部32により合成された画像などである。なお、以下、このような車両9の周辺を一のカメラにより撮影した画像、および、車両9の周辺を複数のカメラで撮影した画像を合成した合成画像を車外画像ともいう。   The image superimposing unit 33 performs a process of superimposing the predicted course predicted by the vehicle 9 to travel on the image captured by the imaging unit 5. The predicted course indicates a position through which the vehicle 9 travels and is derived by a predicted course deriving unit 13 of the control unit 1 described later. The images on which the predicted course is superimposed are an image taken by one camera (for example, the back camera 52) of the photographing unit 5, an image synthesized by the image synthesizing unit 32, and the like. Hereinafter, such an image obtained by photographing the periphery of the vehicle 9 with a single camera and a composite image obtained by combining images obtained by photographing the periphery of the vehicle 9 with a plurality of cameras are also referred to as an outside image.

画像送信部34は、画像生成部3で生成された車外画像をナビゲーション装置20へ出力する。   The image transmission unit 34 outputs the image outside the vehicle generated by the image generation unit 3 to the navigation device 20.

制御部1は、CPU、RAM、および、ROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部11、操舵角取得部12、予測進路導出部13、および、要因検知部14は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. The image control unit 11, the steering angle acquisition unit 12, the predicted course derivation unit 13, and the factor detection unit 14 shown in the drawing show some of the functions of the control unit 1 realized in this way. .

画像制御部11は、画像生成部3によって実行される画像処理を制御するものである。例えば、画像制御部11は、画像合成部32が生成する合成画像の生成に必要な各種パラメータなどを指示する。   The image control unit 11 controls image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the image combining unit 32.

操舵角取得部12は、ユーザが操作した車両9のステアリングホイールの操舵角の情報を操舵角センサ83から取得する。   The steering angle acquisition unit 12 acquires information on the steering angle of the steering wheel of the vehicle 9 operated by the user from the steering angle sensor 83.

予測進路導出部13は、操舵角取得部12が取得したステアリングホイールの操舵角に基づいて車両9が進行すると予想される予測進路を導出する。詳細には、ステアリングホイールの操舵角の情報から車両9の回転半径を導出し、回転半径に基づいて車両9の後輪が進行すると予測される軌跡を演算する。   The predicted course deriving unit 13 derives a predicted course where the vehicle 9 is expected to travel based on the steering angle of the steering wheel acquired by the steering angle acquiring unit 12. More specifically, the turning radius of the vehicle 9 is derived from information on the steering angle of the steering wheel, and a trajectory for which the rear wheels of the vehicle 9 are predicted to travel is calculated based on the turning radius.

また、予測進路導出部13は、後述する要因検知部14が検知する予測進路の誤差を生じさせる要因の程度に基づいて、予測進路の誤差が生じる範囲を導出する。つまり、ステアリングホイールの操舵角に基づいて導出した車両9の予測進路が車両9の走行環境の影響で誤差を生じる場合に、誤差分を予測進路の導出の演算に含めた車両9の予測進路を予測進路導出部13が導出する。   Further, the predicted course deriving unit 13 derives a range in which the predicted course error occurs based on the degree of the factor causing the predicted path error detected by the factor detecting unit 14 described later. That is, when the predicted course of the vehicle 9 derived based on the steering angle of the steering wheel causes an error due to the influence of the traveling environment of the vehicle 9, the predicted path of the vehicle 9 including the error in the calculation of the predicted course is calculated. The predicted course deriving unit 13 derives.

ここで、車両9の走行環境とは、例えば車両9の走行する路面の滑りやすさを示す路面摩擦係数、および、車両9の速度である。そして、ステアリングホイールの操舵角のみに基づいて予測進路導出部13が導出した誤差を考慮しない理想的な予測進路と、ステアリングホイールの操舵角および誤差を生じる要因の程度に基づいて予測進路導出部13が導出した最大の誤差を考慮した予測進路との間隔が、予測進路の誤差が生じる範囲として導出される。そして、この予測進路の誤差が生じる範囲を示す指標がディスプレイ21に表示される。なお、この予測進路の誤差が生じる範囲を導出について、予測進路導出部13は路面摩擦係数および車両9の速度をパラメータとした演算処理を行う。また、予測進路の誤差が生じる範囲を導出するための対応関係を示すテーブルデータである範囲データ4bを不揮発性メモリ40に記録しておき、路面摩擦係数と車両9の速度に応じて予測進路の誤差が生じる範囲を予測進路導出部13が導出するようにしてもよい。   Here, the traveling environment of the vehicle 9 is, for example, a road surface friction coefficient indicating the slipperiness of the road surface on which the vehicle 9 travels, and the speed of the vehicle 9. The predicted course deriving unit 13 is based on the ideal predicted path that does not take into account the error derived by the predicted course deriving unit 13 based only on the steering angle of the steering wheel, and the degree of factors that cause the steering angle of the steering wheel and the error. The distance from the predicted course in consideration of the maximum error derived from is derived as a range in which the predicted course error occurs. Then, an index indicating a range in which the predicted course error occurs is displayed on the display 21. Note that, regarding the derivation of the range in which the predicted course error occurs, the predicted course derivation unit 13 performs a calculation process using the road surface friction coefficient and the speed of the vehicle 9 as parameters. In addition, range data 4b, which is table data indicating a correspondence relationship for deriving a range in which a predicted course error occurs, is recorded in the nonvolatile memory 40, and the predicted course of the predicted course is determined according to the road surface friction coefficient and the speed of the vehicle 9. The predicted course deriving unit 13 may derive a range in which an error occurs.

要因検知部14は、車両9の予測進路に誤差を生じさせる要因の程度を検知する。ここで、予測進路に誤差を生じさせる要因は上述のように車両9の走行環境である。走行環境の一つは、車両9が走行する路面の滑りやすさを示す路面摩擦係数である。この路面摩擦係数は、ブレーキECU84に検知される。また、走行環境の他の一つは、車両9の速度である。この速度は、車速センサ86に検知される。これら路面摩擦係数及び速度は、予測進路に誤差を生じさせる要因の程度として要因検知部14に検知される。   The factor detection unit 14 detects the degree of a factor that causes an error in the predicted course of the vehicle 9. Here, the factor causing the error in the predicted course is the traveling environment of the vehicle 9 as described above. One of the traveling environments is a road surface friction coefficient indicating the slipperiness of the road surface on which the vehicle 9 travels. This road surface friction coefficient is detected by the brake ECU 84. Another driving environment is the speed of the vehicle 9. This speed is detected by the vehicle speed sensor 86. The road surface friction coefficient and the speed are detected by the factor detection unit 14 as the degree of the factor causing an error in the predicted course.

また、画像処理装置100の本体部10は、不揮発性メモリ40、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image processing apparatus 100 further includes a nonvolatile memory 40 and a signal input unit 41, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、画像合成部32が合成画像を生成する際に必要となる車両の種別に応じたデータなどである。   The nonvolatile memory 40 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 stores vehicle type data 4a. The vehicle type data 4a is data corresponding to the type of vehicle required when the image composition unit 32 generates a composite image.

また、不揮発性メモリ40には範囲データ4bが記録されている。範囲データ4bは、予測進路導出部13が予測進路の誤差が生じる範囲を導出する際に読出されるデータである。つまり、予測進路の誤差が生じる範囲を導出するための対応関係を示すテーブルデータが範囲データ4bとして不揮発性メモリに記録されている。   Further, the range data 4b is recorded in the nonvolatile memory 40. The range data 4b is data that is read when the predicted course deriving unit 13 derives a range in which the predicted path error occurs. That is, the table data indicating the correspondence relationship for deriving the range where the predicted course error occurs is recorded in the nonvolatile memory as the range data 4b.

また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、ジャイロセンサ82、操舵角センサ83、ブレーキECU84、サスペンションECU85、および、車速センサ86などから、各種情報を示す信号が制御部1に入力される。   Moreover, the signal input part 41 inputs the signal from the various apparatuses provided in the vehicle. A signal from the outside of the image display system 120 is input to the control unit 1 via the signal input unit 41. Specifically, signals indicating various information are input to the control unit 1 from the shift sensor 81, the gyro sensor 82, the steering angle sensor 83, the brake ECU 84, the suspension ECU 85, the vehicle speed sensor 86, and the like.

シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。なお、車速センサ86からは、その時点の車両9の走行速度(km/h)が入力される。   From the shift sensor 81, the operation position of the shift lever of the transmission of the vehicle 9, ie, “P (parking)”, “D (forward)”, “N (neutral)”, “R (reverse)”, etc. The shift position is input. From the vehicle speed sensor 86, the traveling speed (km / h) of the vehicle 9 at that time is input.

ジャイロセンサ82からは、車両9の傾き変化の速度(角速度)の信号が入力される。制御部1はジャイロセンサ82からの入力信号により車両9の傾き変化を導出する。   From the gyro sensor 82, a signal of an inclination change speed (angular speed) of the vehicle 9 is input. The control unit 1 derives a change in the inclination of the vehicle 9 based on an input signal from the gyro sensor 82.

操舵角センサ83は、ユーザが操作したステアリングホイールの操作方向を制御部1に入力する。詳細には、操舵角センサ83は、ユーザが操作したステアリングホイールの回転方向、回転角度、及び、回転速度を信号入力部41を介して制御部1に入力する。なお、操舵角センサ83の信号は車両本体を制御する制御部へも入力される。そして、操舵角センサ83の入力信号と車速センサ86から車両本体を制御する制御部へ入力された信号に基づいて、車両9を操舵する前輪の操舵角と操舵速度が算出され、この算出された値に基づいて車両9の制御が行われる。   The steering angle sensor 83 inputs the operation direction of the steering wheel operated by the user to the control unit 1. Specifically, the steering angle sensor 83 inputs the rotation direction, rotation angle, and rotation speed of the steering wheel operated by the user to the control unit 1 via the signal input unit 41. The signal from the steering angle sensor 83 is also input to a control unit that controls the vehicle body. Based on the input signal of the steering angle sensor 83 and the signal input from the vehicle speed sensor 86 to the control unit that controls the vehicle body, the steering angle and the steering speed of the front wheels that steer the vehicle 9 are calculated. The vehicle 9 is controlled based on the value.

ブレーキECU84は、車両9の車輪の円周の値に車輪の回転数を乗算して導出される制動距離と車両9の速度に対応する車輪速度とに基づいて、車両9の走行する路面の摩擦係数を導出する。   The brake ECU 84 determines the friction of the road surface on which the vehicle 9 travels based on the braking distance derived by multiplying the wheel circumference of the vehicle 9 by the wheel rotation speed and the wheel speed corresponding to the speed of the vehicle 9. Deriving coefficients.

サスペンションECU85は、車両9の走行する路面の凹凸の程度を検知する。この路面の凹凸の程度の情報は予測進路に誤差を生じさせる要因の程度の一つとして要因検知部14が検知する。   The suspension ECU 85 detects the degree of unevenness of the road surface on which the vehicle 9 travels. The factor detection unit 14 detects the information on the degree of unevenness of the road surface as one of the factors causing an error in the predicted course.

車速センサ86は、車両9が移動した際に車輪が回転する速度を車速信号として制御部1に出力する。   The vehicle speed sensor 86 outputs the speed at which the wheel rotates when the vehicle 9 moves to the control unit 1 as a vehicle speed signal.

<1−2.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
<1-2. Shooting Department>
Next, the photographing unit 5 of the image processing apparatus 100 will be described in detail. The photographing unit 5 is electrically connected to the control unit 1 and operates based on a signal from the control unit 1.

撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54を備えている。これらの車載カメラ51、52、53、54はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。   The imaging unit 5 includes a front camera 51, a back camera 52, a left side camera 53, and a right side camera 54 that are in-vehicle cameras. Each of these vehicle-mounted cameras 51, 52, 53, and 54 includes an image sensor such as a CCD or a CMOS and electronically acquires an image.

図2は、車載カメラ51、52、53、54が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を上側とする。   FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51, 52, 53, 54 are arranged on the vehicle 9. In the following description, the three-dimensional XYZ orthogonal coordinates shown in the figure are used as appropriate when indicating the direction and direction. The XYZ axes are fixed relative to the vehicle 9. Here, the X-axis direction is along the left-right direction of the vehicle 9, the Y-axis direction is along the straight traveling direction (front-rear direction) of the vehicle 9, and the Z-axis direction is along the vertical direction. For convenience, the + X side is the right side of the vehicle 9, the + Y side is the rear side of the vehicle 9, and the + Z side is the upper side.

フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に略沿って向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、左サイドカメラ53は、左のドアミラー93にそれぞれ設けられており、その光軸53aは車両9の左方向(平面視で+X軸方向)に沿って外部に向けられている。さらに、右サイドカメラ54は、右のドアミラー94にそれぞれ設けられており、その光軸54aは車両9の右方向(平面視で−X軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed substantially along the straight direction of the vehicle 9 (on the −Y side in the Y-axis direction in plan view). Yes. The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the reverse direction of the vehicle 9 in the straight traveling direction (+ Y side in the Y-axis direction in plan view). Yes. The left side camera 53 is provided on each of the left door mirrors 93, and its optical axis 53a is directed to the outside along the left direction of the vehicle 9 (+ X axis direction in plan view). Further, the right side camera 54 is provided on each of the right door mirrors 94, and its optical axis 54a is directed to the outside along the right direction of the vehicle 9 (the −X axis direction in plan view). Note that the mounting position of the front camera 51 and the back camera 52 is preferably approximately the center in the left and right, but may be slightly shifted in the left and right directions from the center in the left and right.

これらの車載カメラ51、52、53、54のレンズとしては魚眼レンズなどが採用されており、車載カメラ51、52、53、54は180度以上の画角αを有している。このため、4つの車載カメラ51、52、53、54を利用することで、車両9の全周囲の撮影が可能となっている。   As the lenses of these in-vehicle cameras 51, 52, 53, and 54, fish-eye lenses and the like are employed, and the in-vehicle cameras 51, 52, 53, and 54 have an angle of view α of 180 degrees or more. For this reason, by using the four in-vehicle cameras 51, 52, 53, and 54, it is possible to capture the entire periphery of the vehicle 9.

<1−3.画像変換処理>
次に、画像生成部3の画像合成部32が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ40に予め記憶された車種別データ4aが利用される。図3は、合成画像を生成する手法を説明するための図である。
<1-3. Image conversion processing>
Next, a description will be given of a method in which the image composition unit 32 of the image generation unit 3 generates a composite image that shows how the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of photographed images obtained by the photographing unit 5. To do. When generating the composite image, the vehicle type data 4a stored in advance in the nonvolatile memory 40 is used. FIG. 3 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52、左サイドカメラ53、および、右サイドカメラ54で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, the left side camera 53, and the right side camera 54 of the photographing unit 5 are simultaneously photographed, four images respectively indicating the front, rear, left side, and right side of the vehicle 9 are shown. Captured images P1 to P4 are acquired. That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. The correspondence between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface SP is determined in advance. For this reason, the value of each pixel of the solid curved surface SP can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ40に記憶された車種別データ4aに含まれている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is determined by the arrangement of the four in-vehicle cameras 51, 52, and 53 in the vehicle 9 (the distance between each other, the height above the ground, the optical axis). Angle). For this reason, the table data indicating this correspondence is included in the vehicle type data 4 a stored in the nonvolatile memory 40.

また、車種別データ4aに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両9の三次元形状を示すポリゴンモデルである車両像を仮想的に備えている。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data 4a is used, and a vehicle image that is a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually provided. The configured vehicle image is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space where the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on the vehicle image composed of polygons according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VP1を設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP1が生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VP2を設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP2が生成される。   For example, when the virtual viewpoint VP1 in which the viewpoint position is a position just above the center of the position of the vehicle 9 and the visual field direction is a direction immediately below the vehicle 9 is set, the vehicle 9 ( Actually, a composite image CP1 showing the vehicle image) and the surroundings of the vehicle 9 is generated. Further, as shown in the figure, when the virtual viewpoint VP2 in which the viewpoint position is the left rear of the position of the vehicle 9 and the visual field direction is substantially in front of the vehicle 9 is set, the entire periphery from the left rear of the vehicle 9 is set. As seen, a composite image CP <b> 2 is generated that shows the vehicle 9 (actually a vehicle image) and the surroundings of the vehicle 9.

なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

<1−4表示画像>
以下では、予測進路導出部13により導出された予測進路が車外画像に重畳して表示される例を示す。図4は、車両像90を俯瞰した合成画像CQ1,CQ2がディスプレイ21に表示された例を示す図である。合成画像CQ1では、車両像90が合成画像中の略中央に位置しており、他車両の像である車両像19と車両像29との間にスペースSA41の領域が存在している。なお、車両像90は、画像表示システム120を備える車両9の像である。また、以下では、ユーザが車両9を操作してスペースSA41に対応する領域に移動させるまでの状態をディスプレイ21に表示される各合成画像を用いて説明する。
<1-4 display image>
In the following, an example is shown in which the predicted course derived by the predicted course deriving unit 13 is displayed superimposed on the outside image. FIG. 4 is a diagram illustrating an example in which composite images CQ1 and CQ2 overlooking the vehicle image 90 are displayed on the display 21. In the composite image CQ1, the vehicle image 90 is located approximately at the center of the composite image, and a space SA41 area exists between the vehicle image 19 and the vehicle image 29, which are images of other vehicles. The vehicle image 90 is an image of the vehicle 9 including the image display system 120. In the following, a state until the user operates the vehicle 9 and moves the vehicle 9 to an area corresponding to the space SA41 will be described using each composite image displayed on the display 21.

図4に示す合成画像CQ2は、車両9が合成画像CQ1の車両像90に対応する位置から前進した(−Y方向に移動した)状態を示している。また、車両9のユーザがシフトレバーの位置を”R(後退)”としたことによりシフトセンサ81から制御部1にシフトポジションの信号が入力される。そして、操舵角取得部12が、操舵角センサ83からの信号によりステアリングホイールの操舵角を取得し、車両像90の後方に車両9の予測進路である指標MA3を合成画像CQ2に重畳して表示する。なお、ステアリングホイールの操舵角が略中立位置にあるため、指標MA3が示す予測進路は車両9が後方に直進する方向(+Y方向)に延びる状態となる。   A composite image CQ2 illustrated in FIG. 4 illustrates a state in which the vehicle 9 has advanced (moved in the −Y direction) from a position corresponding to the vehicle image 90 of the composite image CQ1. In addition, when the user of the vehicle 9 sets the position of the shift lever to “R (reverse)”, a shift position signal is input from the shift sensor 81 to the control unit 1. Then, the steering angle acquisition unit 12 acquires the steering angle of the steering wheel based on a signal from the steering angle sensor 83, and an index MA3 that is a predicted course of the vehicle 9 is superimposed and displayed on the composite image CQ2 behind the vehicle image 90. To do. Since the steering angle of the steering wheel is in a substantially neutral position, the predicted course indicated by the index MA3 extends in the direction in which the vehicle 9 goes straight backward (+ Y direction).

図5は、車両像90を俯瞰した合成画像CQ3,CQ4がディスプレイ21に表示された例を示す図である。合成画像CQ3では、図4の合成画像CQ2に示す車両像90の位置に対応する位置から車両9が後退した状態を示している。このような車両9の後退に伴い、ブレーキECU84が車両9の走行する路面の路面摩擦係数を導出する。また、車速センサ86が車両9の速度を検知する。このようにして検出された路面摩擦係数と車両9の速度とが信号入力部41を介して制御部1に入力される。   FIG. 5 is a diagram illustrating an example in which composite images CQ3 and CQ4 overlooking the vehicle image 90 are displayed on the display 21. The composite image CQ3 shows a state where the vehicle 9 has moved backward from the position corresponding to the position of the vehicle image 90 shown in the composite image CQ2 of FIG. As the vehicle 9 moves backward, the brake ECU 84 derives a road surface friction coefficient of the road surface on which the vehicle 9 travels. Further, the vehicle speed sensor 86 detects the speed of the vehicle 9. The road surface friction coefficient and the speed of the vehicle 9 thus detected are input to the control unit 1 via the signal input unit 41.

図5に示す合成画像CQ4では、車両9のユーザがステアリングホイールを中立状態から左方向(−X方向)に操作したことに伴い、車両9が左方向(−X方向)に向けて曲線的に後退する車両9の予測進路を示す指標MA4aを重畳して表示している。指標MA4aについて、図6および図7を用いて詳細に説明する。   In the composite image CQ4 shown in FIG. 5, the vehicle 9 is curved in the left direction (−X direction) as the user of the vehicle 9 operates the steering wheel from the neutral state to the left direction (−X direction). An indicator MA4a indicating the predicted course of the vehicle 9 that moves backward is superimposed and displayed. The index MA4a will be described in detail with reference to FIGS.

図6は、車両9の予測進路を示す指標MA4aを示す図である。なお、以下の説明において車両像90の方向及び向きについては図2を用いて説明した車両9と方向および向きと同様である。以下の説明の中では図6に示す3次元のXYZ直交座標を用いる。なお、XYZ軸は車両像90に対して相対的に固定されている。   FIG. 6 is a diagram illustrating an index MA4a indicating the predicted course of the vehicle 9. In the following description, the direction and direction of the vehicle image 90 are the same as those of the vehicle 9 described with reference to FIG. In the following description, three-dimensional XYZ orthogonal coordinates shown in FIG. 6 are used. The XYZ axes are fixed relative to the vehicle image 90.

ユーザが操作する車両9のステアリングホイールの操舵角に基づいて予測進路導出部13が予測進路を導出し、その予測進路を示す指標MA4aがディスプレイ21に表示される。指標MA4aが示す予測進路は、車両像90の左側(−X方向)の後輪の予測進路ML31a、および、車両像90の右側(+X方向)の後輪の予測進路ML32aを含む。なお、指標M4aが示す予測進路は、ユーザのステアリングホイールを左方向に操作したことに基づいて、左方向(−X方向)に曲がるように変化している。   The predicted course deriving unit 13 derives the predicted course based on the steering angle of the steering wheel of the vehicle 9 operated by the user, and an indicator MA4a indicating the predicted course is displayed on the display 21. The predicted course indicated by the index MA4a includes the predicted course ML31a of the rear wheel on the left side (−X direction) of the vehicle image 90 and the predicted course ML32a of the rear wheel on the right side (+ X direction) of the vehicle image 90. Note that the predicted course indicated by the index M4a changes so as to turn leftward (−X direction) based on the user's operation of the steering wheel leftward.

また、左右方向(±X方向)に延び、両端の各々が2つの予測進路ML31a,ML32aと接する2つの距離線D3a,D4が指標MA4aに含まれる。なお、これら距離線D3a,D4の長さは車両像90の車幅W1と略同じ長さである。図中に示す、点p5aは距離線D3aの左端(−X方向)と予測進路ML31との交点であり、点p6aは距離線D3aの右端(+X方向)と予測進路ML32との交点である。さらに、点p7aは距離線D4の左端(−X方向)と予測進路ML31との交点であり、点p8aは距離線D4aの右端(+X方向)と予測進路ML32との交点である。   In addition, the indicator MA4a includes two distance lines D3a and D4 that extend in the left-right direction (± X direction) and that each of the both ends contact with the two predicted courses ML31a and ML32a. The lengths of the distance lines D3a and D4 are substantially the same as the vehicle width W1 of the vehicle image 90. In the figure, a point p5a is an intersection of the left end (−X direction) of the distance line D3a and the predicted course ML31, and a point p6a is an intersection of the right end (+ X direction) of the distance line D3a and the predicted course ML32. Further, the point p7a is an intersection of the left end (−X direction) of the distance line D4 and the predicted course ML31, and a point p8a is an intersection of the right end (+ X direction) of the distance line D4a and the predicted course ML32.

なお、車両像90の後方バンパーBPの位置を基準とした場合、距離線D3aまでの車両9からの実際の距離は例えば約1.5mであり、距離線D4aまでの車両9からの実際の距離は例えば約3.0mである。   When the position of the rear bumper BP of the vehicle image 90 is used as a reference, the actual distance from the vehicle 9 to the distance line D3a is, for example, about 1.5 m, and the actual distance from the vehicle 9 to the distance line D4a. Is, for example, about 3.0 m.

図7は、車両9の予測進路の誤差が生じる範囲を示す指標MA4を示す図である。指標MA4が示す予測進路は、車両9が後退の際の車両像90の左側(−X方向)の後輪の予測進路の範囲を示す進路範囲ML31、および、車両像90の右側(+X方向)の後輪の予測進路の範囲を示す進路範囲ML32を含む。   FIG. 7 is a diagram illustrating an index MA4 indicating a range in which an error in the predicted course of the vehicle 9 occurs. The predicted course indicated by the index MA4 includes a course range ML31 indicating the range of the predicted course of the rear wheels on the left side (−X direction) of the vehicle image 90 when the vehicle 9 moves backward, and the right side (+ X direction) of the vehicle image 90. A course range ML32 indicating the range of the predicted course of the rear wheel is included.

予測進路の誤差が生じる範囲は、誤差を考慮しない理想的な予測進路(以下、「理想予測進路」という。)と、最大の誤差を考慮した予測進路(以下、「最大誤差進路」という。)との間隔に相当する。理想予測進路は、ステアリングホイールの操舵角のみに基づいて導出される。一方、最大誤差進路は、ステアリングホイールの操舵角と、予測進路に誤差を生じさせる要因の程度とに基づいて導出される。詳細には、最初に図6に示す理想予測進路ML31a,ML32aが予測進路導出部13に導出される。そして、路面摩擦係数と車両9の速度とが要因検知部14に検知され、これら路面摩擦係数と車両9の速度とに基づいて予測進路導出部13が最大誤差進路ML31b,ML32bを導出する。このようにして導出された理想予測進路ML31aと、最大誤差進路ML31bとの間隔が、左側の後輪の予測進路の誤差が生じる範囲に相当する。また、理想予測進路ML32aと、最大誤差進路ML32bとの間隔が、左側の後輪の予測進路の誤差が生じる範囲に相当する。   The range in which the error in the predicted path occurs is an ideal predicted path that does not consider the error (hereinafter referred to as “ideal predicted path”) and a predicted path that considers the maximum error (hereinafter referred to as “maximum error path”). It corresponds to the interval. The ideal predicted course is derived based only on the steering angle of the steering wheel. On the other hand, the maximum error path is derived based on the steering angle of the steering wheel and the degree of factors that cause an error in the predicted path. Specifically, first, the ideal predicted courses ML31a and ML32a shown in FIG. Then, the road surface friction coefficient and the speed of the vehicle 9 are detected by the factor detecting unit 14, and the predicted course deriving unit 13 derives the maximum error courses ML31b and ML32b based on the road surface friction coefficient and the speed of the vehicle 9. The interval between the ideal predicted course ML31a derived in this way and the maximum error course ML31b corresponds to a range in which an error in the predicted course of the left rear wheel occurs. Further, the interval between the ideal predicted course ML32a and the maximum error course ML32b corresponds to a range in which an error in the predicted course of the left rear wheel occurs.

予測進路の誤差が生じる範囲を、予測進路と距離線との交点の位置関係で検討する。車両9からの距離が約1.5mの位置を示す距離線については、理想予測進路ML31a,ML32aとの交点の位置はそれぞれ、点p5a,点p6aである。一方、この距離線の、最大誤差進路ML31b,ML32bとの交点の位置はそれぞれ、点p5b,p6bとなる。   The range in which the predicted course error occurs is examined by the positional relationship of the intersection of the predicted course and the distance line. Regarding the distance line indicating the position where the distance from the vehicle 9 is about 1.5 m, the positions of the intersections with the ideal predicted courses ML31a and ML32a are point p5a and point p6a, respectively. On the other hand, the positions of the intersections of this distance line with the maximum error paths ML31b and ML32b are points p5b and p6b, respectively.

これら点p5aおよび点p5bの間隔(W2a)と、点p6aおよび点p6bとの間隔(W2a)が、車両9から約1.5mの距離において予測進路の誤差が生じる範囲を示す。つまり、予測進路に誤差を生じる要因により車両9の予測進路には、理想予測進路ML31a,ML32aから、右斜め後方の最大誤差進路ML31b,ML32bまでの範囲の誤差が生じる可能性があることとなる。なお、予測進路導出部13により予測進路の誤差が生じる範囲が導出された場合、車両9からの距離が約1.5mの位置を示す距離線は、最大誤差進路ML31b,ML32bとの交点p5b,p6bを両端に有する距離線D3bによって示される。   The distance (W2a) between the points p5a and p5b and the distance (W2a) between the points p6a and p6b indicate the range in which the predicted course error occurs at a distance of about 1.5 m from the vehicle 9. That is, there is a possibility that an error in a range from the ideal predicted course ML31a, ML32a to the maximum error course ML31b, ML32b on the diagonally right rear side may occur in the predicted course of the vehicle 9 due to a factor causing an error in the predicted course. . When the predicted course deriving unit 13 derives a range in which the predicted course error occurs, the distance line indicating the position where the distance from the vehicle 9 is about 1.5 m is the intersection point p5b with the maximum error course ML31b, ML32b, This is indicated by the distance line D3b having p6b at both ends.

また、車両9からの距離が約3.0mの位置を示す距離線については、理想予測進路ML31a,ML32aとの交点の位置はそれぞれ、点p7a,点p8aである。一方、最大誤差進路ML31b,ML32bとの交点の位置はそれぞれ、点p7b,点p8bとなる。   For the distance line indicating the position where the distance from the vehicle 9 is about 3.0 m, the positions of the intersections with the ideal predicted courses ML31a and ML32a are point p7a and point p8a, respectively. On the other hand, the positions of the intersections with the maximum error paths ML31b and ML32b are point p7b and point p8b, respectively.

これら点p7aと点p7bとの間隔(W2b)、及び、点p8aと点p8bとの間隔(W2b)が、車両9から約3.0mの距離において予測進路の誤差が生じる範囲を示す。なお、予測進路導出部13により予測進路の範囲が導出された場合、車両9からの距離が約3.0mの位置を示す距離線は、最大誤差進路ML31b,ML32bとの交点p7b,p8bを両端に有する距離線D4によって示される。   The distance (W2b) between the points p7a and p7b and the distance (W2b) between the points p8a and p8b indicate a range in which the predicted course error occurs at a distance of about 3.0 m from the vehicle 9. When the predicted route range is derived by the predicted route deriving unit 13, the distance line indicating the position at a distance of about 3.0 m from the vehicle 9 has the intersections p7b and p8b with the maximum error routes ML31b and ML32b at both ends. Is indicated by a distance line D4.

車両9から約1.5mの距離での予測進路の誤差が生じる範囲である間隔W2aと、車両9から約3.0mの距離での予測進路の誤差が生じる範囲である間隔W2bとを比較すると、間隔2bが間隔2aよりも大きい値となる。このように予測進路の誤差が生じる範囲は、車両9からの距離が離れるほど大きい値となる。このような予測進路の誤差が生じる範囲を示す指標M4を車外画像に重畳してディスプレイ21に表示することで、車両9の進行に伴って車両9の通過する可能性のある位置をユーザが認識できる。   Comparing the distance W2a, which is a range in which the predicted course error occurs at a distance of about 1.5 m from the vehicle 9, with the distance W2b, which is a range in which the predicted course error is generated at a distance of about 3.0 m from the vehicle 9, , The interval 2b is larger than the interval 2a. In this way, the range in which the predicted course error occurs increases as the distance from the vehicle 9 increases. The user recognizes a position where the vehicle 9 may pass as the vehicle 9 travels by superimposing the indicator M4 indicating the range in which such an error in the predicted course occurs on the image outside the vehicle and displaying it on the display 21. it can.

なお、予測進路の誤差が生じる範囲は、車両の走行速度に応じて変化する。例えば、図7に示す進路範囲ML31,ML32の大きさは、車両9の速度に応じて変化する。詳細には、点p5aと点p5bとの間隔(W2a)、および、点p6aと点p6bとの間隔(W2a)が車両9の速度の変化に応じて変化する。また、点p7aと点p7bとの間隔(W2b)、および、点p8aと点p8bとの間隔(W2b)が車両9の速度の変化に応じて変化する。   Note that the range in which the predicted course error occurs varies depending on the traveling speed of the vehicle. For example, the sizes of the route ranges ML31 and ML32 illustrated in FIG. 7 change according to the speed of the vehicle 9. Specifically, the interval (W2a) between the points p5a and p5b and the interval (W2a) between the points p6a and p6b change according to changes in the speed of the vehicle 9. Further, the interval (W2b) between the points p7a and p7b and the interval (W2b) between the points p8a and p8b change according to changes in the speed of the vehicle 9.

次に、車両9をスペースSA41に対応する領域に移動させる状態を示す合成画像の表示に戻り説明を行う。図8は、ディスプレイ21に表示される合成画像CQ5,CQ6を示す図である。図5に示す合成画像CQ4のように予測進路の誤差が生じる範囲を示す指標MA4を表示した後、車両9の後退に伴いユーザがステアリングホイールの位置を中立位置に戻したとする。この場合、操舵角センサ83の信号を操舵角取得部12が取得し、図8に示すように車両9が後方に直進する予測進路を示す指標MA3が合成画像CQ5に重畳して表示される。   Next, returning to the display of the composite image showing the state in which the vehicle 9 is moved to the area corresponding to the space SA41, the description will be given. FIG. 8 is a diagram showing composite images CQ5 and CQ6 displayed on the display 21. As shown in FIG. Assume that the user returns the position of the steering wheel to the neutral position as the vehicle 9 moves backward after displaying the index MA4 indicating the range in which the predicted course error occurs as in the composite image CQ4 shown in FIG. In this case, the steering angle acquisition unit 12 acquires a signal from the steering angle sensor 83, and an index MA3 indicating a predicted course in which the vehicle 9 goes straight backward is superimposed and displayed on the composite image CQ5 as shown in FIG.

そして、合成画像CQ6では、合成画像CQ5と比べて車両9が他の車両像19および29との間のスペースSA41の近くまで直進して後退した状態が示されている。   The composite image CQ6 shows a state in which the vehicle 9 has moved straight back to the vicinity of the space SA41 between the other vehicle images 19 and 29 and moved backward as compared with the composite image CQ5.

図9は、ディスプレイ21に表示される合成画像CQ7,CQ8を示す図である。合成画像CQ7には、図5の合成画像CQ4と同様に予測進路の誤差が生じる範囲を示す指標MA4bが重畳されている。ここで、図9の合成画像CQ7と図5の合成画像CQ4とが異なる主な点は、ユーザの操作するステアリングホイールの方向である。図9の合成画像CQ7では、車両9のユーザがステアリングホイールを中立状態から右方向(+X方向)に操作したことに伴い、右方向に向けて曲線的に後退する予測進路を示す指標MA4bが重畳されている。なお、指標MA4bが示す予測進路の誤差が生じる範囲は、図5の合成画像CQ4と同様に、路面摩擦係数および車両9の速度に基づいて予測進路導出部13によって導出される。   FIG. 9 is a diagram showing composite images CQ7 and CQ8 displayed on the display 21. As shown in FIG. Similar to the composite image CQ4 of FIG. 5, an index MA4b indicating a range in which a predicted course error occurs is superimposed on the composite image CQ7. Here, the main difference between the composite image CQ7 of FIG. 9 and the composite image CQ4 of FIG. 5 is the direction of the steering wheel operated by the user. In the composite image CQ7 of FIG. 9, an index MA4b indicating a predicted course that curves backward in the right direction in accordance with the user of the vehicle 9 operating the steering wheel from the neutral state to the right (+ X direction) is superimposed. Has been. Note that the range in which the predicted course error indicated by the index MA4b occurs is derived by the predicted course deriving unit 13 based on the road surface friction coefficient and the speed of the vehicle 9, similarly to the composite image CQ4 of FIG.

図9に示す合成画像CQ8では、車両9がスペース41に対応する領域内に位置することに伴い、車両像90がスペース41の範囲内に含まれている。このように、ユーザは車両9を目的の位置にスムーズに移動させることができる。   In the composite image CQ <b> 8 shown in FIG. 9, the vehicle image 90 is included in the space 41 as the vehicle 9 is positioned in the area corresponding to the space 41. Thus, the user can smoothly move the vehicle 9 to the target position.

なお、上記のように俯瞰画像中に示された予測進路がディスプレイ21に表示される画像をユーザの操作部22による操作により切替えて、後方の一のカメラで撮影した車外画像に重畳して表示する例を次に示す。   In addition, the predicted course shown in the overhead view image as described above is displayed by superimposing the image displayed on the display 21 by being operated by the operation unit 22 of the user and superimposed on the outside image photographed by the rear one camera. The following is an example.

図10は、バックカメラ52により撮影された画像を画像生成部3で処理を行い、ディスプレイ21に表示した図である。図10には、車両9の左側の後輪の予測進路の誤差が生じる範囲を示す進路範囲ML31と、車両9の右側の後輪の予測進路の誤差が生じる範囲を示す進路範囲ML32と、2つの距離線D3b,D4とを示す指標MA4が表示されている。このような画像をユーザが視認することで、車両9の進行に伴って車両9の通過する可能性のある位置をユーザが認識できる。  FIG. 10 is a diagram in which an image captured by the back camera 52 is processed by the image generation unit 3 and displayed on the display 21. FIG. 10 shows a course range ML31 indicating a range in which an error in the predicted course of the left rear wheel of the vehicle 9 is generated, a path range ML32 indicating a range in which an error in the predicted path of the right rear wheel of the vehicle 9 is generated, and 2 An index MA4 indicating two distance lines D3b and D4 is displayed. When the user visually recognizes such an image, the user can recognize a position where the vehicle 9 may pass as the vehicle 9 travels.

<1−5.処理フローチャート>
図11は、第1の実施の形態の画像処理装置100の処理フローチャートである。画像処理装置100は、車両9の撮影部5のカメラ画像を取得して(ステップS101)、操舵角センサ83からの操舵角情報を信号入力部41を介して受信して(ステップS102)、ステップS103の処理に進む。
<1-5. Processing flowchart>
FIG. 11 is a process flowchart of the image processing apparatus 100 according to the first embodiment. The image processing apparatus 100 acquires a camera image of the photographing unit 5 of the vehicle 9 (step S101), receives steering angle information from the steering angle sensor 83 via the signal input unit 41 (step S102), and step The process proceeds to S103.

ステップS103では、操舵角センサ83からの受信した情報に基づいて車両9の予測進路を予測進路導出部13が導出して(ステップS103)、ステップS104の処理へ進む。   In step S103, the predicted course deriving unit 13 derives the predicted course of the vehicle 9 based on the information received from the steering angle sensor 83 (step S103), and the process proceeds to step S104.

ステップS104では、ブレーキECU84が車両9の進行に伴い路面情報(例えば、路面摩擦係数)を導出し(ステップS104)、ステップS105の処理へ進む。   In step S104, the brake ECU 84 derives road surface information (for example, road surface friction coefficient) as the vehicle 9 travels (step S104), and the process proceeds to step S105.

ステップS105では、車速センサ86からの車両9の速度情報の信号を画像処理装置100が受信し、ステップS106の処理へ進む。   In step S105, the image processing apparatus 100 receives the speed information signal of the vehicle 9 from the vehicle speed sensor 86, and the process proceeds to step S106.

ステップS106では、ブレーキECU84により導出された路面情報と車速センサ86により導出された車両9の速度情報を予測進路に誤差を生じさせる要因の程度として要因検知部14が検知して、ステップS107の処理に進む。   In step S106, the factor detection unit 14 detects the road surface information derived by the brake ECU 84 and the speed information of the vehicle 9 derived by the vehicle speed sensor 86 as a degree of a factor causing an error in the predicted course, and the process of step S107 is performed. Proceed to

ステップS107では、要因検知部14が検知した予測進路に誤差を生じさせる要因の程度に基づいて、予測進路導出部13が予測進路の誤差が生じる範囲を導出して(ステップS107)、ステップS108の処理に進む。   In step S107, the predicted course deriving unit 13 derives a range in which the predicted path error occurs based on the degree of the factor that causes an error in the predicted path detected by the factor detecting unit 14 (step S107). Proceed to processing.

ステップS108では、この予測進路の誤差が生じる範囲を示す指標が車外画像に重畳され、誤差が生じる範囲を示す指標が重畳された車外画像がナビ通信部42を介してナビゲーション装置20に出力される(ステップS108)。これにより、誤差が生じる範囲を示す指標がディスプレイ21に表示され、車両9の進行に伴って車両9の通過する可能性のある位置をユーザが認識できることとなる。   In step S108, an index indicating the range where the predicted course error occurs is superimposed on the outside image, and the outside image superimposed with the index indicating the range where the error occurs is output to the navigation apparatus 20 via the navigation communication unit 42. (Step S108). Thereby, an index indicating a range in which an error occurs is displayed on the display 21, and the user can recognize a position where the vehicle 9 may pass as the vehicle 9 travels.

<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態における画像表示システムの構成・処理は、第1の実施の形態とほぼ同様であるが一部が相違しているため、以下、第1の実施の形態との相違点を中心に説明する。第2の実施の形態では、要因検知部14は予測進路に誤差を生じさせる要因の程度として、車両9の設計上許容される寸法差などの設計公差の程度を検知する。
<Second Embodiment>
Next, a second embodiment will be described. The configuration and processing of the image display system in the second embodiment are substantially the same as those in the first embodiment, but are partially different. Therefore, the differences from the first embodiment will be described below. The explanation is centered. In the second embodiment, the factor detection unit 14 detects the degree of design tolerance such as a dimensional difference allowed in the design of the vehicle 9 as the degree of a factor causing an error in the predicted course.

設計公差の程度は、車両9の製品出荷前に不揮発性メモリ40の車種別データ4aに予め記録されており、車両9の予測進路に誤差を生じさせる要因を検知する際に不揮発性メモリ40から要因検知部14が読み出す。そして、設計公差の程度に基づいて予測進路導出部13が、予測進路の誤差が生じる範囲を導出する。   The degree of design tolerance is recorded in advance in the vehicle type data 4a of the nonvolatile memory 40 before the product of the vehicle 9 is shipped, and when the factor causing an error in the predicted course of the vehicle 9 is detected, The factor detection part 14 reads. Then, based on the degree of design tolerance, the predicted course deriving unit 13 derives a range in which the predicted path error occurs.

<2−1.表示画像>
図12は、予測進路の誤差が生じる範囲を示す指標MA14を示す図である。図12の指標MA14は進路範囲ML311,ML312を含む。これらの進路範囲ML311,ML312は、予測進路に誤差を生じさせる要因の程度として、路面摩擦係数と車両9の速度とともに設計公差を考慮して、予測進路導出部13が予測進路の誤差が生じる範囲を導出したものである。
<2-1. Display image>
FIG. 12 is a diagram illustrating an index MA14 that indicates a range in which an error in the predicted course occurs. The index MA14 in FIG. 12 includes course ranges ML311 and ML312. These course ranges ML311 and ML312 are ranges in which the predicted course deriving unit 13 causes an error in the predicted course in consideration of the design tolerance as well as the road surface friction coefficient and the speed of the vehicle 9 as the degree of the factor causing the predicted course. Is derived.

そのため、図12に示す点p5aと点p15bとの間隔(W12a)、および、点p6aと点p16bとの間隔(W12a)は、図7に示した間隔W2aよりも大きい。図中に示す点p15bは、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両像9の左側の後輪の最大誤差進路ML301bと、車両9からの距離が約1.5mの位置を示す距離線D3aとの交点である。また、点p16bは、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両9の右側の後輪の最大誤差進路ML302bと、車両9からの距離が約1.5mの位置を示す距離線D3aとの交点である。   Therefore, the interval (W12a) between the points p5a and p15b and the interval (W12a) between the points p6a and p16b shown in FIG. 12 are larger than the interval W2a shown in FIG. The point p15b shown in the figure is about 1. from the maximum error path ML301b of the rear wheel on the left side of the vehicle image 9 derived from the road surface friction coefficient, the speed of the vehicle 9, and the design tolerance. This is an intersection with a distance line D3a indicating a position of 5 m. The point p16b is a position where the maximum error path ML302b of the rear wheel on the right side of the vehicle 9 derived based on the road surface friction coefficient, the speed of the vehicle 9, and the design tolerance is about 1.5 m from the vehicle 9. Is an intersection with a distance line D3a.

また、図12に示す点p7aと点p17bとの間隔(W12b)、および、点p8aと点p18bとの間隔(W12b)は、図7に示した間隔W12aよりも大きい。図中に示す点p17b、は、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両9の左側の後輪の最大誤差進路ML301bと、車両9からの距離が約3.0mの位置を示す距離線D4との交点である。また、点p18bは、路面摩擦係数、車両9の速度、および、設計公差に基づいて導出した車両9の右側の後輪の最大誤差進路ML302bと、車両9からの距離が約3.0mの位置を示す距離線D4との交点である。このように車両の内部の要因に基づいて、導出された車両9の進行に伴って車両9の通過する可能性のある位置をユーザに認識させることができる。   Further, the interval (W12b) between the points p7a and p17b and the interval (W12b) between the points p8a and p18b shown in FIG. 12 are larger than the interval W12a shown in FIG. The point p17b shown in the figure is a distance between the vehicle 9 and the maximum error path ML301b of the left rear wheel of the vehicle 9 derived based on the road surface friction coefficient, the speed of the vehicle 9, and the design tolerance. This is the intersection with the distance line D4 indicating the position of 0 m. The point p18b is a position where the maximum error path ML302b of the rear wheel on the right side of the vehicle 9 derived based on the road surface friction coefficient, the speed of the vehicle 9, and the design tolerance, and a distance from the vehicle 9 of about 3.0 m. Is the intersection with the distance line D4. As described above, based on the internal factors of the vehicle, the user can recognize the position where the vehicle 9 may pass as the derived vehicle 9 travels.

<2−2.処理フローチャート>
図13は、第2の実施の形態の画像処理装置100の処理フローチャートである。図13に示す第2の実施の形態の処理フローチャートと第1の実施の形態の図11に示す処理フローチャートとの違いは、ステップS201の設計公差の情報を読み出す処理が新たに追加された点である。そして、図11のステップS107,の処理が、図13に示すステップS107aの処理に変更されている。
<2-2. Processing flowchart>
FIG. 13 is a process flowchart of the image processing apparatus 100 according to the second embodiment. The difference between the process flowchart of the second embodiment shown in FIG. 13 and the process flowchart of FIG. 11 of the first embodiment is that a process for reading design tolerance information in step S201 is newly added. is there. And the process of step S107 of FIG. 11 is changed into the process of step S107a shown in FIG.

ステップS107aの処理においては、予測進路導出部13が予測進路の誤差が生じる範囲を導出する際に、第1の実施の形態で説明した路面摩擦係数と車両9の速度に加えて、設計交差を新たに誤差の要因とする。その他の処理については図11に示した処理フローチャートと同様の処理である。   In the process of step S107a, when the predicted course deriving unit 13 derives the range in which the predicted course error occurs, the design intersection is performed in addition to the road surface friction coefficient and the speed of the vehicle 9 described in the first embodiment. A new error factor. Other processes are the same as the process flowchart shown in FIG.

図13に示すステップS102では、操舵角センサ83からの操舵角情報を信号入力部41を介して受信して(ステップS102)、ステップS201の処理に進む。   In step S102 shown in FIG. 13, the steering angle information from the steering angle sensor 83 is received via the signal input unit 41 (step S102), and the process proceeds to step S201.

ステップS201では、要因検知部14が、不揮発性メモリ40の車種別データ4aに記録されている車両9の設計公差の情報を読み出して(ステップS201)、ステップS103の処理へ進む。そして、以降の処理のステップS107aの処理では、予測進路導出部13が予測進路を導出する場合に、設計公差の情報を予測進路に誤差を生じさせる要因の程度として用いて予測進路の誤差が生じる範囲を導出する。
<第3の実施の形態>
次に、第3の実施の形態について説明する。第3の実施の形態における画像表示システムの構成・処理は、第1の実施の形態とほぼ同様であるが一部が相違しているため、以下、第1の実施の形態との相違点を中心に説明する。予測進路導出部13が予測進路の誤差が生じる範囲を導出した後に、車両9の速度が変化した場合においては、予測進路の誤差が生じる範囲が変化する。第3の実施の形態では、このように予測進路の誤差が生じる範囲が変化した場合に、変化前と変化後との双方の予測進路の誤差が生じる範囲を示す指標を表示する。
In step S201, the factor detection unit 14 reads design tolerance information of the vehicle 9 recorded in the vehicle type data 4a of the nonvolatile memory 40 (step S201), and proceeds to the process of step S103. Then, in the process of step S107a of the subsequent process, when the predicted course deriving unit 13 derives the predicted course, an error in the predicted course occurs using the design tolerance information as a degree of a factor that causes an error in the predicted course. Deriving a range.
<Third Embodiment>
Next, a third embodiment will be described. The configuration and processing of the image display system in the third embodiment are substantially the same as those in the first embodiment, but are partially different. Therefore, the differences from the first embodiment will be described below. The explanation is centered. If the speed of the vehicle 9 changes after the predicted course deriving unit 13 derives the range in which the predicted path error occurs, the range in which the predicted path error occurs changes. In the third embodiment, when the range in which the predicted course error occurs changes in this way, an index indicating the range in which the predicted course error before and after the change occurs is displayed.

<3−1.表示画像>
図14は、予測進路の誤差が生じる範囲を示す指標MA24を示す図である。図14には車両9の速度の変化に伴う2種類の予測進路の誤差が生じる範囲が示されている。2種類の一方は、図7と同様の進路範囲ML31,ML32である。また、2種類の他方は、これらの進路範囲ML31,ML32が導出された後に、車両9の速度が変化したことに伴って変化した進路範囲ML301,ML302(図14にハッチングで表示されている範囲)である。これら2種類の予測進路の誤差が生じる範囲がディスプレイ21に表示される際には、先に導出された進路範囲ML31上に、後に導出された進路範囲ML301が重畳される。また、先に導出された進路範囲ML32に、後に導出された進路範囲ML302が重畳される。
<3-1. Display image>
FIG. 14 is a diagram illustrating an index MA24 indicating a range in which an error in the predicted course occurs. FIG. 14 shows a range in which two types of predicted course errors occur as the speed of the vehicle 9 changes. One of the two types is the same route range ML31, ML32 as in FIG. The other of the two types is the route ranges ML301 and ML302 (ranges indicated by hatching in FIG. 14) that have changed as the speed of the vehicle 9 changes after these route ranges ML31 and ML32 are derived. ). When the range in which these two types of predicted course errors occur is displayed on the display 21, the course range ML301 derived later is superimposed on the course range ML31 derived earlier. Further, the route range ML302 derived later is superimposed on the route range ML32 derived earlier.

このように車両9の速度に応じて予測進路の誤差が生じる範囲が変化した場合に、変化前の予測進路の誤差が生じる範囲(進路範囲ML31,ML32)と変化後の予測進路の誤差が生じる範囲(進路範囲ML301,ML302)との双方を示す指標MA24を表示することで、車両9の速度に応じて変化した予測進路の誤差が生じる範囲をユーザが認識できる。   As described above, when the range in which the predicted course error occurs is changed in accordance with the speed of the vehicle 9, the range in which the predicted course error before the change occurs (the course range ML31, ML32) and the predicted course error after the change occur. By displaying the index MA24 indicating both the ranges (the course ranges ML301 and ML302), the user can recognize the range in which the predicted course error that changes according to the speed of the vehicle 9 occurs.

なお、後に導出された進路範囲は、先に導出された進路範囲に比べて範囲内の色を濃くしてもよい。また、車両9の速度の変化後に導出された最大誤差進路ML31c,ML32cの線の太さを、車両9の速度の変化前に導出された最大誤差進路ML31b,ML32bと比べて太く表示するようにしてもよい。これにより、車両9の速度に対応した予測進路をユーザが認識できる。   The route range derived later may be darker in color than the previously derived route range. Further, the line thickness of the maximum error paths ML31c and ML32c derived after the speed change of the vehicle 9 is displayed thicker than the maximum error paths ML31b and ML32b derived before the speed change of the vehicle 9. May be. Thereby, the user can recognize the predicted course corresponding to the speed of the vehicle 9.

なお、図14に示す場合では、車両9の速度の変化後に導出された進路範囲ML301,ML302は、車両9の速度の変化前に導出された進路範囲ML31,ML32よりもそれぞれ狭い範囲となっている。これは、路面摩擦係数が一定であると仮定すると、車両9の速度が低下したことを示している。なお、逆に、車両9の速度が速くなった場合は、速度の変化後に導出された進路範囲ML301,ML302は、速度の変化前に導出された進路範囲ML31,ML32よりもそれぞれ広くなる。   In the case shown in FIG. 14, the course ranges ML301 and ML302 derived after the change in the speed of the vehicle 9 are narrower than the course ranges ML31 and ML32 derived before the change in the speed of the vehicle 9, respectively. Yes. This indicates that the speed of the vehicle 9 has decreased assuming that the road surface friction coefficient is constant. On the contrary, when the speed of the vehicle 9 increases, the course ranges ML301 and ML302 derived after the speed change are wider than the course ranges ML31 and ML32 derived before the speed change.

<変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。なお、上記実施の形態で説明した形態、および、以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. In addition, all the forms including the form demonstrated in the said embodiment and the form demonstrated below are combinable suitably.

上記実施の形態では、予測進路に誤差が生じる要因の程度として、路面の滑りやすさ、および、車両9の速度の程度などを示したが、これ以外にもジャイロセンサ82により検知される車両9の傾きの程度に基づいて、予測進路導出部13が予測進路の誤差が生じる範囲を導出するようにしてもよい。例えば、車両9が傾斜を有する坂道を走行する場合には、車両9の傾きの程度を考慮することで予測進路の誤差が生じる範囲を精度よく導出することができる。   In the above-described embodiment, the degree of slippage of the road surface and the speed of the vehicle 9 are shown as the degree of the factor causing the error in the predicted course. However, the vehicle 9 detected by the gyro sensor 82 is also available. Based on the degree of the inclination, the predicted course deriving unit 13 may derive a range in which the predicted path error occurs. For example, when the vehicle 9 travels on a slope with a slope, it is possible to accurately derive a range in which an error in the predicted course is caused by considering the degree of the slope of the vehicle 9.

また、上記実施の形態では、車両9が後退してユーザが目標とするスペースに車両9を移動させる場合に、車両9の後方に予測進路を示す指標を車外画像に重畳して表示する例について述べたが、これ以外にも、車両9が前進して目標とするスペースに車両9を移動させる場合に、車両9の前方に予測進路を示す指標を車外画像に重畳して表示するようにしてもよい。   In the above embodiment, when the vehicle 9 moves backward and moves the vehicle 9 to a target space, an index indicating a predicted course is superimposed on the vehicle exterior image and displayed behind the vehicle 9. As described above, in addition to this, when the vehicle 9 moves forward and moves the vehicle 9 to a target space, an index indicating the predicted course is superimposed on the outside image and displayed in front of the vehicle 9. Also good.

また、上記実施の形態においては車両9が曲線的に後退する場合に、設計交差を予測進路に誤差を生じさせる要因の程度として用いることを説明した。これに対して、車両9のステアリングホイールが中立位置に操作されている場合(車両9が直線的に後退する場合)においても、設計公差を要因として用いることで予測進路に誤差を生じさせる範囲を精度良く導出することができる。この場合は、まず、画像処理装置100が撮影部5からのカメラ画像を受信する。次に、操舵角取得部12がユーザが操作したステアリングホイールの操舵角が、中立位置であることを取得する。このため、操舵角は考慮されず、車両9の速度と設計公差とに基づいて予測進路導出部13が予測進路に誤差を生じさせる範囲を導出する。そして、この範囲を示す指標が車外画像に重畳してディスプレイ21に表示される。   Moreover, in the said embodiment, when the vehicle 9 moved backwards curvilinearly, it demonstrated using a design intersection as a grade of the factor which produces an error in a prediction course. On the other hand, even when the steering wheel of the vehicle 9 is operated to the neutral position (when the vehicle 9 recedes linearly), a range that causes an error in the predicted course by using the design tolerance as a factor. It can be derived with high accuracy. In this case, first, the image processing apparatus 100 receives a camera image from the photographing unit 5. Next, the steering angle acquisition unit 12 acquires that the steering angle of the steering wheel operated by the user is the neutral position. Therefore, the steering angle is not taken into consideration, and the predicted course deriving unit 13 derives a range in which an error occurs in the predicted course based on the speed of the vehicle 9 and the design tolerance. Then, an index indicating this range is superimposed on the outside image and displayed on the display 21.

また、上記実施の形態では、要因検知部17が検知する要因については、ブレーキECU84が検知する路面摩擦係数と、車速センサ86が検知する車両9の速度とした。そして、路面摩擦係数および車両9の速度に基づいて、誤差を生じる予測進路の範囲を予測進路導出部13が導出することについて説明した。また、要因検知部17がサスペンションECU85により検知された車両9の走行する路面の凹凸の程度を検知し、路面の凹凸の程度に基づいて予測進路導出部13が車両9の予測進路の範囲を導出するようにしてもよい。   In the above embodiment, the factors detected by the factor detector 17 are the road surface friction coefficient detected by the brake ECU 84 and the speed of the vehicle 9 detected by the vehicle speed sensor 86. Then, based on the road surface friction coefficient and the speed of the vehicle 9, it has been described that the predicted route deriving unit 13 derives a predicted route range in which an error occurs. In addition, the factor detection unit 17 detects the degree of unevenness of the road surface on which the vehicle 9 travels detected by the suspension ECU 85, and the predicted route deriving unit 13 derives the range of the predicted route of the vehicle 9 based on the degree of unevenness of the road surface. You may make it do.

また、上記実施の形態では、車両9の速度の検知は車速センサ86の信号に基づいて検知されるとしたが、ブレーキECU84からの車速信号に基づいて検知するようにしてもよい。   In the above embodiment, the speed of the vehicle 9 is detected based on the signal from the vehicle speed sensor 86, but may be detected based on the vehicle speed signal from the brake ECU 84.

また、上記実施の形態では、画像処理装置100とナビゲーション装置20とは別の装置であるとして説明したが、画像処理装置100とナビゲーション装置20とが同一の筐体内に配置されて一体型の装置として構成されてもよい。   In the above embodiment, the image processing apparatus 100 and the navigation apparatus 20 are described as separate apparatuses. However, the image processing apparatus 100 and the navigation apparatus 20 are arranged in the same casing and are integrated. It may be configured as.

また、上記実施の形態では、画像処理装置100で生成された画像を表示する表示装置はナビゲーション装置20であるとして説明したが、ナビゲーション機能等の特殊な機能を有していない一般的な表示装置であってもよい。   In the above embodiment, the display device that displays the image generated by the image processing device 100 is described as the navigation device 20, but a general display device that does not have a special function such as a navigation function. It may be.

また、上記実施の形態において、画像処理装置100の制御部1によって実現されると説明した機能の一部は、ナビゲーション装置20の制御部23によって実現されてもよい。   In the above embodiment, some of the functions described as being realized by the control unit 1 of the image processing apparatus 100 may be realized by the control unit 23 of the navigation apparatus 20.

また、上記実施の形態において、信号入力部41を介して画像処理装置100の制御部1に入力されると説明した信号の一部または全部は、ナビゲーション装置20に入力されるようになっていてもよい。この場合は、ナビ通信部42を経由して、画像処理装置100の制御部1に当該信号を入力すればよい。   In the above embodiment, part or all of the signals described as being input to the control unit 1 of the image processing apparatus 100 via the signal input unit 41 are input to the navigation apparatus 20. Also good. In this case, the signal may be input to the control unit 1 of the image processing apparatus 100 via the navigation communication unit 42.

また、上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されると説明したが、これら機能のうちの一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されてもよい。   Further, in the above-described embodiment, it has been described that various functions are realized in software by the arithmetic processing of the CPU according to the program. However, some of these functions are realized by an electrical hardware circuit. Also good. Conversely, some of the functions realized by the hardware circuit may be realized by software.

1・・・・・制御部
5・・・・・撮影部
10・・・・本体部
11・・・・画像制御部
12・・・・操舵角取得部
13・・・・予測進路導出部
14・・・・要因検知部
DESCRIPTION OF SYMBOLS 1 ... Control part 5 ... Image pick-up part 10 ... Main part 11 ... Image control part 12 ... Steering angle acquisition part 13 ... Predicted course derivation part 14 .... Factor detection unit

Claims (8)

車両に搭載される画像表示システムであって、
前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、
前記車両の操舵角を取得する取得手段と、
前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、
前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、
前記要因の程度に関する路面摩擦係数、および、前記車両の速度のパラメータの演算処理に基づいて、前記予測進路に対して最大の誤差を有する最大誤差進路を導出する第2導出手段と、
前記予測進路と前記最大誤差進路とで構成される範囲であり、前記車両からの距離が離れるほど広くなる範囲を示す指標を前記車外画像に重畳して表示する表示手段と、
を備えること、
を特徴とする画像表示システム。
An image display system mounted on a vehicle,
Receiving means for receiving an image outside the vehicle acquired by an imaging unit that images the periphery of the vehicle;
Obtaining means for obtaining a steering angle of the vehicle;
First deriving means for deriving a predicted course where the vehicle is predicted to travel based on the steering angle;
Detecting means for detecting a degree of a factor causing an error in the predicted course;
Second derivation means for deriving a maximum error path having a maximum error with respect to the predicted path based on a calculation process of a road surface friction coefficient related to the degree of the factor and a parameter of the vehicle speed ;
A display means for superimposing and displaying on the image outside the vehicle an index indicating a range which is a range constituted by the predicted course and the maximum error course, and becomes wider as the distance from the vehicle increases ;
Providing
An image display system characterized by the above.
請求項1に記載の画像表示システムにおいて、
前記検知手段は、前記車両が走行する路面の滑りやすさと、前記車両の速度とを前記要
因の程度として検知すること、
を特徴とする画像表示システム。
The image display system according to claim 1,
The detecting means detects the slipperiness of the road surface on which the vehicle travels and the speed of the vehicle as the degree of the factor;
An image display system characterized by the above.
請求項1または2に記載の画像表示システムにおいて、
前記検知手段は、前記車両の設計公差を前記要因の程度として検知すること、
を特徴とする画像表示システム。
The image display system according to claim 1 or 2,
The detection means detects the design tolerance of the vehicle as the degree of the factor;
An image display system characterized by the above.
請求項2に記載の画像表示システムにおいて、
前記表示手段は、前記車両の速度に応じて前記予測進路と前記最大誤差経路とで構成される範囲が変化した場合に、変化前と変化後との双方の前記予測進路と前記最大誤差進路とで構成される範囲を示す指標を表示すること、
を特徴とする画像表示システム。
The image display system according to claim 2,
The display means, when the range that is constituted by the said maximum error path and the predicted path in response to the speed of the vehicle is changed, and the predicted path of both the pre-change and after the change and the maximum error path Display an indicator of the range that consists of
An image display system characterized by the above.
車両に搭載される画像処理装置であって、
前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、
前記車両の操舵角を取得する取得手段と、
前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出手段と、
前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、
前記要因の程度に関する路面摩擦係数、および、前記車両の速度のパラメータの演算処理に基づいて、前記予測進路に対して最大の誤差を有する最大誤差進路を導出する第2導出手段と、
前記予測進路と前記最大誤差進路とで構成される範囲であり、前記車両からの距離が離れるほど広くなる範囲を示す指標を表示装置に送信する送信手段と、
を備えること、
を特徴とする画像処理装置。
An image processing apparatus mounted on a vehicle,
Receiving means for receiving an image outside the vehicle acquired by an imaging unit that images the periphery of the vehicle;
Obtaining means for obtaining a steering angle of the vehicle;
First deriving means for deriving a predicted course where the vehicle is predicted to travel based on the steering angle;
Detecting means for detecting a degree of a factor causing an error in the predicted course;
Second derivation means for deriving a maximum error path having a maximum error with respect to the predicted path based on a calculation process of a road surface friction coefficient related to the degree of the factor and a parameter of the vehicle speed ;
Transmitting means for transmitting to the display device an index indicating a range that is configured by the predicted course and the maximum error course and becomes wider as the distance from the vehicle increases .
Providing
An image processing apparatus.
車両に搭載される画像表示システムの画像表示方法であって、
(a)前記車両の周辺を撮影する撮像部が取得した車外画像を受信する工程と、
(b)前記車両の操舵角を取得する工程と、
(c)前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する工程と、
(d)前記予測進路に誤差を生じさせる要因の程度を検知する工程と、
(e)前記要因の程度に関する路面摩擦係数、および、前記車両の速度のパラメータの演算処理に基づいて、前記予測進路に対して最大の誤差を有する最大誤差進路を導出する工程と、
(f)前記予測進路と前記最大誤差進路とで構成される範囲であり、前記車両からの距離が離れるほど広くなる範囲を示す指標を前記車外画像に重畳して表示する工程と、
を備えること、
を特徴とする画像表示方法。
An image display method for an image display system mounted on a vehicle,
(A) receiving an image outside the vehicle acquired by an imaging unit that captures the periphery of the vehicle;
(B) obtaining a steering angle of the vehicle;
(C) deriving a predicted course where the vehicle is predicted to travel based on the steering angle;
(D) detecting a degree of a factor causing an error in the predicted course;
(E) deriving a maximum error path having a maximum error with respect to the predicted path based on a calculation process of a road surface friction coefficient regarding the degree of the factor and a parameter of the vehicle speed ;
(F) a step of superimposing and displaying an index indicating a range which is a range constituted by the predicted course and the maximum error course and becomes wider as the distance from the vehicle is increased ;
Providing
An image display method characterized by the above.
車両に搭載される画像表示システムであって、
前記車両の周辺を撮影する撮像部が取得した車外画像を受信する受信手段と、
前記車両の操舵角を取得する取得手段と、
前記操舵角に基づいて、前記車両が進行すると予測される予測進路を導出する第1導出
手段と、
前記予測進路に誤差を生じさせる要因の程度を検知する検知手段と、
前記要因の程度に基づいて、前記予測進路の前記誤差が生じる範囲を導出する第導出
手段と、
前記予測進路の前記誤差が生じる範囲を示す指標を前記車外画像に重畳して表示する表
示手段と、
を備え、
前記検知手段は、前記車両の速度を前記要因の程度として検知し、
前記表示手段は、前記車両の速度に応じて前記予測進路の前記誤差が生じる範囲が変化
した場合に、変化前と変化後との双方の前記予測進路の前記誤差が生じる範囲を示す指標
を表示すること、
を特徴とする画像表示システム。
An image display system mounted on a vehicle,
Receiving means for receiving an image outside the vehicle acquired by an imaging unit that images the periphery of the vehicle;
Obtaining means for obtaining a steering angle of the vehicle;
First deriving means for deriving a predicted course where the vehicle is predicted to travel based on the steering angle;
Detecting means for detecting a degree of a factor causing an error in the predicted course;
Third deriving means for deriving a range in which the error of the predicted course occurs based on the degree of the factor;
Display means for superimposing and displaying an index indicating a range in which the error of the predicted course occurs on the outside image;
With
The detection means detects the speed of the vehicle as the degree of the factor,
The display means displays an index indicating a range in which the error in the predicted path before and after the change occurs when the range in which the error in the predicted path changes according to the speed of the vehicle. To do,
An image display system characterized by the above.
請求項7に記載の画像表示システムにおいて、
前記検知手段は、前記車両が走行する路面の滑りやすさを前記要因の程度として検知すること、
を特徴とする画像表示システム。
The image display system according to claim 7,
The detecting means detects the slipperiness of a road surface on which the vehicle travels as the degree of the factor;
An image display system characterized by the above.
JP2011018192A 2011-01-31 2011-01-31 Image display system, image display apparatus, and image display method Active JP5651491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011018192A JP5651491B2 (en) 2011-01-31 2011-01-31 Image display system, image display apparatus, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011018192A JP5651491B2 (en) 2011-01-31 2011-01-31 Image display system, image display apparatus, and image display method

Publications (2)

Publication Number Publication Date
JP2012158225A JP2012158225A (en) 2012-08-23
JP5651491B2 true JP5651491B2 (en) 2015-01-14

Family

ID=46839125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011018192A Active JP5651491B2 (en) 2011-01-31 2011-01-31 Image display system, image display apparatus, and image display method

Country Status (1)

Country Link
JP (1) JP5651491B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6760122B2 (en) * 2017-02-16 2020-09-23 アイシン精機株式会社 Peripheral monitoring device
JP6747349B2 (en) * 2017-03-23 2020-08-26 株式会社Jvcケンウッド Driving support device, driving support method and program
JP7159598B2 (en) * 2018-04-10 2022-10-25 株式会社アイシン Perimeter monitoring device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3619753B2 (en) * 2000-07-03 2005-02-16 トヨタ自動車株式会社 Rear view display device for moving object
JP4673521B2 (en) * 2001-09-10 2011-04-20 株式会社アイ・トランスポート・ラボ Vehicle traveling locus observation apparatus and method using a plurality of video cameras
JP4110040B2 (en) * 2003-05-27 2008-07-02 本田技研工業株式会社 Automatic vehicle steering system

Also Published As

Publication number Publication date
JP2012158225A (en) 2012-08-23

Similar Documents

Publication Publication Date Title
US10676027B2 (en) Vehicle control apparatus and program
JP5337878B2 (en) Driving assistance device
CN109643439B (en) Peripheral monitoring device
JP5681569B2 (en) Information processing system, server device, and in-vehicle device
US9895974B2 (en) Vehicle control apparatus
JP4914458B2 (en) Vehicle periphery display device
EP1803602A1 (en) Driving assist method and driving assist apparatus
WO2020116352A1 (en) Road surface detection device and road surface detection program
US11383642B2 (en) Display control apparatus
CN102149573A (en) Display apparatus
WO2018150642A1 (en) Surroundings monitoring device
JP2017220760A (en) Image processing apparatus for vehicle
JP2012076551A (en) Parking support device, parking support method, and parking support system
JP2012073836A (en) Image display system, image processing apparatus, and image display method
JP2007168560A (en) Parking support apparatus
JP2016189576A (en) Image display control device
JP2019054420A (en) Image processing system
JP7009785B2 (en) Peripheral monitoring device
JP5651491B2 (en) Image display system, image display apparatus, and image display method
JP2022023870A (en) Display control device
US20200140011A1 (en) Parking assistance apparatus
JP2020043418A (en) Periphery monitoring device
JP6610140B2 (en) Perimeter monitoring device
WO2023090186A1 (en) Parking assistance device
JP6601097B2 (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R150 Certificate of patent or registration of utility model

Ref document number: 5651491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250