JP2016141303A - Visual field support device - Google Patents
Visual field support device Download PDFInfo
- Publication number
- JP2016141303A JP2016141303A JP2015019514A JP2015019514A JP2016141303A JP 2016141303 A JP2016141303 A JP 2016141303A JP 2015019514 A JP2015019514 A JP 2015019514A JP 2015019514 A JP2015019514 A JP 2015019514A JP 2016141303 A JP2016141303 A JP 2016141303A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- camera
- vehicle
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、カメラによって撮影した撮影画像を表示部に表示する視界支援装置に関するものである。 The present invention relates to a field-of-view support apparatus that displays a captured image captured by a camera on a display unit.
従来の視界支援装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の視界支援装置(画像処理装置)は、車両外部の周囲に設けられた複数のカメラと、複数のカメラによって撮影された複数の撮影画像を用いて、車両の周辺画像を形成する画像処理装置と、画像処理装置と通信可能となっており、画像処理装置によって形成された周辺画像を、ディスプレイに表示する携帯機器とを備えている。
As a conventional visual field support device, for example, a device described in
カメラのレンズには、例えば、広角レンズ(魚眼レンズ)が採用されており、1つのカメラで広角領域(180度以上)の画像が撮影されるようになっている。そして、画像処理装置は、複数のカメラによって撮影された広角の撮影画像を用いて、車両の全周囲にわたる周辺画像を形成するようにしている。そして、画像処理装置は、携帯機器の車室内における位置および向きに応じた仮想視点から見た被写体を周辺画像から切出すことで被写体画像を形成する。更に、画像処理装置は形成した被写体画像を携帯機器へ送信し、携帯機器は送信された被写体画像をディスプレイに表示するようになっている。 For example, a wide-angle lens (fisheye lens) is adopted as the lens of the camera, and an image of a wide-angle region (180 degrees or more) is taken with one camera. The image processing apparatus forms a peripheral image over the entire periphery of the vehicle using wide-angle captured images captured by a plurality of cameras. Then, the image processing apparatus forms a subject image by cutting out the subject viewed from the virtual viewpoint according to the position and orientation in the vehicle interior of the portable device from the peripheral image. Further, the image processing apparatus transmits the formed subject image to the portable device, and the portable device displays the transmitted subject image on the display.
これにより、ユーザが車室内において、携帯機器の位置および向きを変えることで、車室内から所望の方向の被写体画像をディスプレイにて参照することができるようになっている。 Thereby, the user can refer to the subject image in the desired direction from the vehicle interior on the display by changing the position and orientation of the portable device in the vehicle interior.
しかしながら、上記特許文献1では、広角レンズによる撮影画像から被写体画像を形成するようにしているので、所望の仮想視点に対応する被写体部の切出し、および広角レンズに伴う画像の歪みの補正等が必要となり、処理が複雑で、処理に時間がかかる。
However, since the subject image is formed from the photographed image by the wide-angle lens in the above-mentioned
本発明の目的は、上記問題に鑑み、簡素な処理でユーザが所望する被写体の画像の表示を可能とする視界支援装置を提供することにある。 In view of the above problems, an object of the present invention is to provide a field-of-view support apparatus that enables display of an image of a subject desired by a user with simple processing.
本発明は上記目的を達成するために、以下の技術的手段を採用する。 In order to achieve the above object, the present invention employs the following technical means.
本発明では、車両(10)の後方領域を撮影するカメラ(110)の映像データを取込んで、通信可能な車室内の表示器(120)に表示映像として表示させる制御部(130A〜130D)を備える視界支援装置であって、
制御部(130A〜130D)は、ユーザの表示器(120)、あるいは車両の運転のための運転操作部に対する所定操作に応じて、所定操作に関連する領域の領域映像の撮影が可能となるように、カメラ(110)の向きを変更することを特徴としている。
In the present invention, control units (130A to 130D) that capture video data of a camera (110) that captures a rear region of the vehicle (10) and display the video data on a display (120) in a communicable vehicle interior as a display video. A visual field support device comprising:
The control units (130 </ b> A to 130 </ b> D) can capture a region image of a region related to a predetermined operation in response to a predetermined operation on the display (120) of the user or the driving operation unit for driving the vehicle. In addition, it is characterized in that the orientation of the camera (110) is changed.
この発明によれば、ユーザは、カメラ(110)の向きを変えるための意図的な操作を行うのではなくて、表示器(120)、あるいは車両の運転のための運転操作部に対する所定操作をしたときに、この所定操作に連動するように、カメラ(110)の向きが制御部(130A〜130D)によって変更される。そして、カメラ(110)の向きに応じた領域映像が表示器(120)に表示される。尚、領域映像は、所定操作に関連してユーザが見たいと思う領域の映像となるのである。 According to the present invention, the user does not perform an intentional operation for changing the direction of the camera (110), but performs a predetermined operation on the display (120) or the driving operation unit for driving the vehicle. The direction of the camera (110) is changed by the control units (130A to 130D) so as to be interlocked with the predetermined operation. Then, an area image corresponding to the orientation of the camera (110) is displayed on the display (120). The region video is a video of a region that the user wants to see in connection with the predetermined operation.
よって、本発明においては、従来技術のように、所望の仮想視点に対応する被写体部の切出し、および広角レンズに伴う画像の歪みの補正等は不要となり、簡素な処理でユーザが所望する映像を表示することが可能となる。 Therefore, in the present invention, it is not necessary to cut out a subject portion corresponding to a desired virtual viewpoint and to correct image distortion associated with a wide-angle lens as in the prior art. It is possible to display.
尚、上記各手段の括弧内の符号は、後述する実施形態記載の具体的手段との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis of each said means shows a corresponding relationship with the specific means of embodiment description mentioned later.
以下に、図面を参照しながら本発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。 A plurality of modes for carrying out the present invention will be described below with reference to the drawings. In each embodiment, parts corresponding to the matters described in the preceding embodiment may be denoted by the same reference numerals, and redundant description may be omitted. When only a part of the configuration is described in each mode, the other modes described above can be applied to the other parts of the configuration. Not only combinations of parts that clearly indicate that the combination is possible in each embodiment, but also a combination of the embodiments even if they are not clearly specified unless there is a problem with the combination. It is also possible.
(第1実施形態)
第1実施形態における視界支援装置100Aについて図1〜図10を用いて説明する。本実施形態の視界支援装置100Aは、車両10に適用されたものとなっている。視界支援装置100Aは、従来の光学ミラー(バックミラー)に代えて、バックカメラ110を用いて、車両10の後方領域を撮影し、その撮影した映像を車室内に設けられた表示器120に表示することで、運転者(ユーザ)に対する後方確認の支援を可能とするものとなっている。視界支援装置100Aは、図1〜図3に示すように、バックカメラ110、表示器120、および制御部130A等を備えている。尚、車両10は、ここでは、右ハンドル車となっている。
(First embodiment)
A field-of-
バックカメラ110は、車両10の後方の景色を撮影するカメラであり、車両10の後部に設けられている。バックカメラ110は、例えば、車両10の後部バンパーの左右方向の中央部に設けられている。バックカメラ110は、イメージャー111、および駆動部112を有している。
The
イメージャー111は、撮影した映像を映像信号(映像データ)に変換して、後述する制御部130Aの映像入力部131に出力するものである。
The
駆動部112は、バックカメラ110を駆動させて、バックカメラ110の向きを変更可能とするものである。駆動部112は、制御部130Aのカメラ駆動制御部136によって制御され、バックカメラ110の向きを、左右方向に、あるいは上下方向等に変更可能としている。
The
表示器120は、バックカメラ110によって撮影された映像を、表示映像として表示画面121に表示するものである。表示器120は、ここでは、携帯機器であるスマートフォンが使用されるようになっている。表示器120は、車両10のインストルメントパネル11の左右方向中央部の上面に設けられたアタッチメントにワンタッチで設置できるようになっている。また、表示器120は、制御部130Aの通信部132と通信可能となっている。ここでは、通信は、無線通信を行うものとなっている。
The
表示器120がアタッチメントに設置された時の基本姿勢は、表示画面121が車両前後方向の仮想中心ラインの方向を向く姿勢となっている。そして、表示器120は、運転者の手動操作によって、表示画面121の向きが、左右方向に、あるいは上下方向等に回動するようになっている。運転者による表示画面121の向きの変更操作は、本発明の所定操作に対応する。
The basic posture when the
尚、表示器120としては、上記のようにスマートフォンを活用するものの他にも、従来の光学ルームミラーを模した電子ミラー、あるいは表示画面121が左右、上下等に可動する可動式ディスプレイ等としてもよい。
The
そして、表示器120は、角速度センサ122、加速度センサ123、およびキャリブレーションスイッチ124等を有している。
The
角速度センサ122は、表示器120に内蔵されており、アタッチメントに設置された表示器120の向きが左右方向、あるいは上下方向等に変更された際に発生する角速度信号を出力するセンサである。角速度信号は、例えば、車両10の空間内における、左右方向の軸、前後方向の軸、および上下方向の軸を備える3次元座標を想定したときに、各軸周りの回動方向の角速度レベルを示す信号となっている。角速度信号は無線通信によって、制御部130Aの通信部132に出力されるようになっている。
The
加速度センサ123は、表示器120に内蔵されており、アタッチメントに設置された表示器120の向きが左右方向、あるいは上下方向等に変更された際に発生する加速度信号を出力するセンサである。加速度信号は、上記の角速度センサ122の場合と同様に、例えば、車両10空間内における、左右方向の軸、前後方向の軸、および上下方向の軸を備える3次元座標を想定したときに、各軸方向の加速度レベルを示す信号となっている。加速度信号は無線通信によって、制御部130Aの通信部132に出力されるようになっている。
The
キャリブレーションスイッチ124は、表示画面121の向きと、表示される表示映像の撮影方向との関係を調整するためのスイッチである。キャリブレーションスイッチ124は、例えば、表示画面121上にタッチスイッチとして形成されている。キャリブレーションスイッチ124は、例えば、運転者が一度タッチすることで、後述するキャリブレーション操作を受付け、キャリブレーション操作の後に、もう一度タッチすることでキャリブレーション操作に基づく条件を決定し終了させるスイッチとなっている。
The
制御部130Aは、バックカメラ110からの映像信号を取込んで、表示器120の表示画面121に表示映像として表示させるものであり、例えば、車両10のトランクルーム12内に設置されている。制御部130Aは、映像入力部131、通信部132、表示器情報取得部133、表示器姿勢角算出部134、カメラ制御角算出部135、カメラ駆動制御部136、および映像処理部137等を有している。
The control unit 130 </ b> A captures a video signal from the
映像入力部131は、バックカメラ110のイメージャー111から出力される映像信号が入力される部位である。イメージャー111と映像入力部131は、有線、あるいは無線によって接続されるようになっている。
The
通信部132は、表示器120との通信を行うことで、表示器120および制御部130A間での各種データのやり取りを行う部位である。各種データのやり取りとは、表示器120から制御部130Aへの角速度信号、加速度信号、およびキャリブレーション信号の送信、および、制御部130Aから表示器120への、映像処理部137によって処理された映像(後述する領域映像)信号、後方イメージ画像124a等の送信である。
The
通信部132による通信は、例えば、無線通信となっている。通信部132は、無線通信を行うことで、インストルメントパネル11とトランクルーム12間における表示器120と制御部130Aとの配線を不要としている。尚、通信部132における通信は、配線を用いた有線通信としてもよい。
Communication by the
表示器情報取得部133は、通信部132を介して、表示器120から送信される角速度信号、および加速度信号を取得する(検出する)部位である。
The display
表示器姿勢角算出部134は、表示器情報取得部133で取得された角速度信号、および加速度信号を基に、表示器120の姿勢角を算出する部位である。ここで、姿勢角とは、運転者によって表示器120が、アタッチメント上に設置されたとき、あるいは表示器120の向きが変更されたときに、表示画面121の左右方向、および上下方向に対する向きが、どちらに変更されてどちらを向いているかを示す角度である。
The display device posture
カメラ制御角算出部135は、表示器情報取得部133で取得された角速度信号、および加速度信号を基に、バックカメラ110の制御角を算出する部位である。制御角とは、上記表示器120の姿勢角に対応するように、バックカメラ110による撮影方向を規定するための角度である。制御角に基づいてバックカメラ110によって撮影された映像は、車両10後方の領域において、表示器120に対する向きの変更操作に関連する領域の映像となる。以下、この映像を領域映像と呼ぶ。
The camera control
カメラ駆動制御部136は、カメラ制御角算出部135によって算出された制御角に基づいて、バックカメラ110の駆動部112を制御する部位である。カメラ駆動制御部136と駆動部112は、有線、あるいは無線によって接続されるようになっている。
The camera
映像処理部137は、表示器姿勢角算出部134で算出される姿勢角、およびカメラ制御角算出部135で算出される制御角を基に、映像入力部131から出力される映像信号(領域映像)の取込み保存(キャプチャ)をして、その映像信号を通信部132に出力する部位である。尚、映像信号は、従来のルームミラーによって視認される像のように、鏡反転されて通信部132に出力されるようになっている。また、映像処理部137は、表示器120からのキャリブレーション信号に基づいて、撮影の向きが変更されたバックカメラ110による映像信号を通信部132に出力する。
The
以上のように構成される視界支援装置100Aの作動について、以下、図4〜図10を用いて説明する。
The operation of the
1.起動時の作動(図4〜図6)
図4のステップS110において、制御部130Aは、まず、運転者によって表示器120がアタッチメントに設置されたか否かを判定する。運転者によって表示器120がアタッチメントに設置されると、表示器120と通信部132との間で通信が開始され、制御部130Aは、表示器120がアタッチメント(視界支援装置100A)に設置されたことを認識する。つまり、ステップS110における肯定判定をする。
1. Start-up operation (Figs. 4-6)
In step S110 of FIG. 4, the
ステップS110で肯定判定すると、ステップS111で、制御部130Aは、表示器情報取得部133によって、表示器120における加速度信号を取得する。
If an affirmative determination is made in step S110, in step S111, the
次に、ステップS112で、制御部130Aは、表示器姿勢角算出部134によって、加速度信号を基に、アタッチメントに設置された初期状態の表示器120の姿勢角を算出する。ここでは、まず、表示器120がアタッチメントに設置された状態での姿勢角を把握することから、向きの変更に伴う角速度信号は用いずに、加速度信号のみを用いた姿勢角の算出となっている。
Next, in step S112, the
次に、ステップS113で、制御部130Aは、姿勢角に応じた後方イメージ画像124aと、撮影の向きが初期状態にあるバックカメラ110による実際の映像124bとを合成した合成映像を表示器120に表示させる(図5)。
Next, in step S113, the
ここで、後方イメージ画像124aとは、車両10の後方景色が、例えば道路のライン、および仮想後方車両によってデザインされたアニメーションによって形成される画像であり、姿勢角に応じて、見える方向が変化するものとなっている。
Here, the
例えば、図5に示すように、表示器120の表示画面121が、車両の真後ろを向くように設置され、仮に、バックカメラ110の初期状態における向きが左側となっている場合を考える。このとき、後方イメージ画像124aは、車両10の真後ろを撮影したような画像として表示されるのに対して、実際の映像124bは、車両10の左後方を撮影した映像として表示される。つまり、合成映像における後方イメージ画像124aと実際の映像124bとが一致しない場合が発生する。このようなときに、運転者は、表示器120のキャリブレーションスイッチ124を操作することで、バックカメラ110の向きを補正するためのキャリブレーションを行うことになる。
For example, as shown in FIG. 5, consider a case where the
よって、ステップS120で、制御部130Aは、表示器120からのキャリブレーション信号が発生したか否かを判定し、キャリブレーション信号ありと判定すると、ステップS121で、バックカメラ110の向きを補正するためのキャリブレーションを実施する。
Therefore, in step S120, the
具体的なキャリブレーションの要領としては、例えば、運転者のキャリブレーションスイッチ124の操作によって、バックカメラ110の向きを変更するための入力がなされる。このときの入力信号(キャリブレーション信号)に基づいて、制御部130Aのカメラ駆動制御部136は、バックカメラ110の向きを変更させる。
As a specific procedure for calibration, for example, an input for changing the orientation of the
これによって、図6に示すように、実際の映像124bは、後方イメージ画像124aに重なるように補正されていく。運転者がキャリブレーションスイッチ124にて補正完了の設定をすると、ステップS120において、制御部130Aは、キャリブレーション信号がなくなったと判定(否定判定)する。そして、ステップS122にて、制御部130Aは、起動時の設定を完了し、キャリブレーションによる補正値を保存(バックアップ)する。
Thereby, as shown in FIG. 6, the
尚、キャリブレーションの要領としては、上記要領とは別に、後方イメージ画像124aを用いずに、表示器120に対する実際の映像124bの向きを運転者の目視によって確認しながら、バックカメラ110の向きを補正することができる。あるいは、後方イメージ画像をバックカメラ110の向きに対応する画像として、表示器120の向きを種々変更することでキャリブレーション信号を形成して、バックカメラ110の向きを補正することができる。
As a calibration procedure, separately from the above procedure, the orientation of the
2.カメラ向き調整の作動(図7〜図10)
上記起動時の制御を終えた後に、運転者によって、表示器120の向きが変更されると、角速度センサ122から角速度信号が出力され、また加速度センサ123から加速度信号が出力されることになる。図7のステップS130において、制御部130Aは、まず、表示器情報取得部133によって、表示器120における角速度信号、および加速度信号を検出したか否かを判定する。
2. Camera orientation adjustment (Figs. 7-10)
When the direction of the
ステップS130で肯定判定すると、ステップS131で、制御部130Aは、表示器姿勢角算出部134によって、角速度信号および加速度信号から、向きの変更された表示器120における姿勢角を算出する。
If an affirmative determination is made in step S130, in step S131, the
次に、ステップS132で、制御部130Aは、カメラ制御角算出部135によって、角速度信号および加速度信号から、上記の姿勢角に対応するバックカメラ110の制御角を算出する。
Next, in step S132, the
次に、ステップS133で、制御部130Aは、カメラ駆動制御部136によって、上記の制御角に対応するように、バックカメラ110の撮影向きを制御(変更)する。これによって、変更された表示器120の向きに関連する領域映像が、バックカメラ110によって撮影されることになる。
Next, in step S133, the
そして、ステップS134で、制御部130Aは、映像処理部137によって、バックカメラ110によって撮影された映像を、表示器120に出力する。
In step S <b> 134, the control unit 130 </ b> A outputs the video captured by the
上記ステップS130〜ステップS134における動作を、具体的に、図8〜図10を用いて説明する。 The operations in steps S130 to S134 will be specifically described with reference to FIGS.
図8に示すように、例えば、表示器120の表示画面121が、車両10の真後ろ(真後ろの姿勢角)に向けられていると、バックカメラ110の撮影方向は、同様に真後ろ(真後ろの制御角)に調整されて、表示器120には、真後ろの映像が表示される。
As shown in FIG. 8, for example, when the
また、図9に示すように、表示器120の表示画面121が、車両10の平面視において時計方向に回動されると、姿勢角は、車両10の左側を向く角度となる。これに応じて、バックカメラ110の撮影方向は、同様に左側となるように制御角が調整されて、表示器120には、左後方の映像が表示される。
As shown in FIG. 9, when the
また、図9の状態から、図10に示すように、表示器120の表示画面121(垂直面)が、上向きに回動されると、姿勢角は、車両10の左後方の上側を向く角度となる。これに応じて、バックカメラ110の撮影方向は、同様に左後方の上側となるように制御角が調整されて、表示器120には、左後方の上側の映像が表示される。
9, when the display screen 121 (vertical surface) of the
そして、表示器120の向きと、実際に表示される表示映像の向きとの間に違和感があると、運転者による上記の起動時のようなキャリブレーション操作が可能となっている。運転者によるキャリブレーションスイッチ124への操作があると、制御部130Aは、上記と同様に、ステップS120〜ステップS122において、キャリブレーションを実施する。
Then, if there is a sense of incongruity between the orientation of the
以上のように、本実施形態では、運転者は、バックカメラ110の向きを変えるための意図的な操作を行うのではなくて、表示器120の向きを変えるという所定操作をしたときに、この所定操作に連動するように、バックカメラ110の向きが制御部130Aによって変更される。そして、バックカメラ110の向きに応じた領域映像が表示器120に表示される。尚、領域映像は、所定操作に関連して運転者が見たいと思う領域の映像となるのである。
As described above, in the present embodiment, the driver does not perform an intentional operation for changing the direction of the
よって、本実施形態においては、従来技術のように、所望の仮想視点に対応する被写体部の切出し、および広角レンズに伴う画像の歪みの補正等は不要となり、簡素な処理で運転者が所望する映像を表示することが可能となる。 Therefore, in the present embodiment, unlike the prior art, it is not necessary to cut out a subject portion corresponding to a desired virtual viewpoint and to correct image distortion associated with a wide-angle lens, and the driver desires with simple processing. An image can be displayed.
尚、本実施形態では、バックカメラ110の向きを変更して、領域映像を撮影するものとなっているので、広角レンズを用いた映像から一部を切出して用いるものと比べて、映像精度の高いものとすることができるので、領域映像を用いて障害物把握等のセンシングに活用することが可能となる。
In the present embodiment, the direction of the
また、制御部130Aは、運転者による、領域映像を得るためのバックカメラ110の向きを調整するためのキャリブレーション信号に基づいて、バックカメラ110の向きを補正するキャリブレーションを実施するようにしている。
In addition, the
これにより、表示器120の向きと、実際に表示される表示映像の向きとの間に違和感が生ずることがない。
Thereby, there is no sense of incongruity between the orientation of the
(第2実施形態)
第2実施形態の視界支援装置100Bを図11、図12に示す。第2実施形態の視界支援装置100Bは、上記第1実施形態の視界支援装置100Aに対して、運転者による右左折時のウインカーレバー13の操作によって示される方向に応じて、制御部130Bによって、バックカメラ110の向きが変更されるようにしたものである。
(Second Embodiment)
A
ウインカーレバー13は、運転者の操作によって、右左折時の方向指示をするための運転操作部であり、レバー操作に応じて右左折時のウインカー信号を出力する。ウインカーレバー13は、このウインカーレバー13用の制御部(例えばボディ制御部)を介して、車両10のCAN(Controller Area Network 登録商標)バス15に接続されている。
The
制御部130Bは、上記第1実施形態における制御部130Aに対して、表示器情報取得部133、および表示器姿勢角算出部134が廃止され、代わりに、CANインターフェイス138、およびCAN情報取得部1391が設けられたものとなっている。
In the
CANインターフェイス138は、CANバス15を介して出力されるウインカー信号が入力される部位である。
The
CAN情報取得部1391は、CANインターフェイス138からのウインカー信号が入力されて、ウインカー情報として取得する部位である。CAN情報取得部1391にて取得されたウインカー情報は、カメラ制御角算出部135に出力されるようになっている。そして、カメラ制御角算出部135は、ウインカー情報に応じて、バックカメラ110の制御角を算出するようになっている。
The CAN
次に、本実施形態の視界支援装置100Bの作動について、図12を用いて説明する。
Next, the operation of the visual
本実施形態では、右左折がないときには、例えば、バックカメラ110は、車両10の真後ろを向く方向に設定されており、表示器120には、車両真後ろの映像が表示されるようになっている。
In the present embodiment, when there is no right / left turn, for example, the
図12のステップS210において、制御部130Bは、まず、CAN情報取得部1391によって、運転者のウインカーレバー13の操作によるウインカー情報を取得(検出)したか否かを判定する。
In step S210 of FIG. 12, the
ステップS210で肯定判定すると、ステップS211で、制御部130Bは、カメラ制御角算出部135によって、ウインカー情報に応じたバックカメラ110の制御角を算出する。例えば、ウインカー情報が右折の情報であると、制御角としてはバックカメラ110が車両右後方を向く角度として設定され、ウインカー情報が左折の情報であると、制御角としてはバックカメラ110が車両左後方を向く角度として設定される。
If an affirmative determination is made in step S210, in step S211, the
そして、制御部130Bは、カメラ駆動制御部136によって、上記の制御角に対応するように、バックカメラ110の撮影向きを制御(変更)する。これによって、車両10の曲がる側の車両後方の映像(領域映像)が、バックカメラ110によって撮影されることになる。
Then, the
次に、ステップS212で、制御部130Bは、映像処理部137によって、バックカメラ110によって撮影された映像を、表示器120に出力する。尚、右左折を終えてウインカーレバー13がオフの位置に戻ると、バックカメラ110の撮影向きも基(車両真後ろ)に戻される。
Next, in step S212, the
そして、実際に表示される表示映像の向きに違和感があると、運転者によるキャリブレーション操作が可能となっている。運転者によるキャリブレーションスイッチ124への操作があると、制御部130Bは、上記第1実施形態と同様に、ステップS120〜ステップS122において、キャリブレーションを実施する。
If the orientation of the display image actually displayed is uncomfortable, a calibration operation by the driver is possible. When the driver operates the
このように、本実施形態では、右左折時において、ウインカー操作によって示される方向の領域の映像を表示器120に表示するようにしている。よって、バックカメラ110に対する直接的な操作を不要として、右左折時に自動的に曲がる側の車両後方の映像を確認することができ、巻込み、乗り上げ等の不具合を予防することが可能となる。
As described above, in the present embodiment, an image of a region in the direction indicated by the winker operation is displayed on the
(第3実施形態)
第3実施形態の視界支援装置100Cを図13、図14に示す。第3実施形態の視界支援装置100Cは、上記第2実施形態の視界支援装置100Bに対して、運転者によるシフトレバー14の操作によってバック走行が設定されるときに、制御部130Cによって、バックカメラ110の向きが変更されるようにしたものである。
(Third embodiment)
A visibility support device 100C of the third embodiment is shown in FIGS. The visibility support device 100C according to the third embodiment is configured such that when the back travel is set by the driver operating the
シフトレバー14は、運転者の操作によって、変速機におけるギヤの組み合わせを切替えるための運転操作部であり、レバー操作に応じてシフトポジション信号を出力する。シフトポジション信号には、パーキング時のパーキング(P)信号、バック走行時のリバース(R)信号、ギヤの組合せが解除されるニュートラル(N)信号、通常走行時のドライブ(D)信号、低速時のロー(L)信号等がある。
The
シフトレバー14は、このシフトレバー14用の制御部(例えば駆動制御部)を介して、車両10のCAN(Controller Area Network 登録商標)バス15に接続されている。そして、シフトレバー14からは、CANバス15を介して、CANインターフェイス138にシフトポジション信号のうち、リバース信号が出力されるようになっている。
The
制御部130Cは、上記第2実施形態における制御部130Bに対して、CAN情報取得部1391をCAN情報取得部1392としたものとなっている。
The
CAN情報取得部1392は、CANインターフェイス138からリバース信号が入力されて、リバースシフト情報として取得する部位である。CAN情報取得部1392にて取得されたリバースシフト情報は、カメラ制御角算出部135に出力されるようになっている。そして、カメラ制御角算出部135は、リバースシフト情報に応じて、バックカメラ110の制御角を算出するようになっている。
The CAN
次に、本実施形態の視界支援装置100Cの作動について、図14を用いて説明する。 Next, the operation of the visibility support device 100C of the present embodiment will be described with reference to FIG.
本実施形態では、通常走行時には、例えば、バックカメラ110は、車両10の真後ろ遠方を向く方向に設定されており、表示器120には、車両真後ろ遠方の映像が表示されるようになっている。
In the present embodiment, during normal travel, for example, the
図14のステップS310において、制御部130Cは、まず、CAN情報取得部1392によって、運転者のシフトレバー14の操作によるリバースシフト情報を取得(検出)したか否かを判定する。
In step S310 in FIG. 14, the
ステップS310で肯定判定すると、ステップS311で、制御部130Cは、カメラ制御角算出部135によって、リバースシフト情報に応じたバックカメラ110の制御角を算出する。例えば、リバースシフト情報に応じた制御角としては、バックカメラ110が車両後方の下側を向く角度として設定される。
If an affirmative determination is made in step S310, in step S311, the
そして、制御部130Cは、カメラ駆動制御部136によって、上記の制御角に対応するように、バックカメラ110の撮影向きが車両後方の下側を向くように制御(変更)すうる。これによって、車両10がバックする際の車両後方下側の映像(後方下側の領域の映像)が、バックカメラ110によって撮影されることになる。
Then, the
次に、ステップS312で、制御部130Cは、映像処理部137によって、バックカメラ110によって撮影された映像を、表示器120に出力する。尚、バック走行を終えてシフトレバー14がリバース以外の位置に戻されると、バックカメラ110の撮影向きも基(車両真後ろ遠方)に戻される。
Next, in step S <b> 312, the control unit 130 </ b> C causes the
そして、実際に表示される表示映像の向きに違和感があると、運転者によるキャリブレーション操作が可能となっている。運転者によるキャリブレーションスイッチ124への操作があると、制御部130Cは、上記第1実施形態と同様に、ステップS120〜ステップS122において、キャリブレーションを実施する。
If the orientation of the display image actually displayed is uncomfortable, a calibration operation by the driver is possible. When the driver operates the
このように、本実施形態では、バック走行時において、車両後方の下側の領域を表示器120に表示するようにしている。よって、バックカメラ110に対する直接的な操作を不要として、バック走行時に自動的に自車両の後部に近接する領域の映像を確認することができ、障害物との接触等による不具合を予防することが可能となる。
As described above, in this embodiment, the lower region of the rear side of the vehicle is displayed on the
(第4実施形態)
第4実施形態の視界支援装置100Dを図15、図16に示す。第4実施形態の視界支援装置100Dは、上記第1実施形態の視界支援装置100Aに対して、表示器120に対する運転者の視点に応じて、表示映像の見え方を変更するようにしたものである。
(Fourth embodiment)
A field of
図15に示すように、視界支援装置100Dは、視界支援装置100Aに対して、ドライバカメラ140、映像入力部131A、およびドライバ視点検出部131Bが付加されたものとなっている。また、映像処理部137には、映像入力部131から出力される映像データ(図形)の、回転、縮め、引き延ばし等を行うアフィン変換機能が追加されている。
As illustrated in FIG. 15, the visual
ドライバカメラ140は、主に運転者の顔(目の方向)を撮影することで、運転者の表示器120に対する視点を検知する視点カメラであり、ここでは、例えば、表示器120(携帯機器)に設けられたサブカメラ(内撮り用カメラ)が使用されている。ドライバカメラ140には、撮影した顔映像を映像信号(映像データ)に変換して、映像入力部131Aに出力するイメージャー141が設けられている。尚、ドライバカメラ140としては、上記のようなサブカメラを活用するものの他にも、例えば、従来のルームミラー位置に設けられた専用のカメラ等としてもよい。
The
映像入力部131Aは、映像入力部131と同様に、ドライバカメラ140のイメージャー141から出力される映像信号(顔映像)が入力される部位である。イメージャー141と映像入力部131Aは、有線、あるいは無線によって接続されるようになっている。
Similar to the
ドライバ視点検出部131Bは、映像入力部131Aから出力される映像信号(顔映像)を基に、表示器120に対する運転者の視点(視線の方向)を検出する部位である。表示器120に対する運転者の視点とは、例えば、運転者は表示器120に対して映像を真正面から見ている、あるいは斜めから見ている、また、斜めであるとどの程度の斜め方向から見ているか、と言った具合の内容である。ドライバ視点検出部131Bは、検出した運転者の視点情報を映像処理部137に出力するようになっている。
The driver
本実施形態における作動について、図16を用いて説明する。 The operation in this embodiment will be described with reference to FIG.
例えば、表示器120に表示される表示映像が、車両の左後方を示すものとする。仮に、表示器120に対して、運転者が真正面から表示画面121を見ると、図16(a)に示すように視認される。しかしながら、実際には、運転者は運転席(右側)に着座している。表示器120は、インストルメントパネルの左右中央位置に設定されており、車両左後方を表示していることから、表示器120の表示画面121は、左後方を向いている。
For example, it is assumed that the display image displayed on the
この場合、運転者の表示画面121に対する視点は、右後方位置となり、運転者からは、表示画面121の左端が小さく、右端が大きく見える形となってしまう。しかしながら、本実施形態では、図16(b)に示すように、映像処理部137によって、表示画像が、あたかも正面から見た場合と同様(図16(a))の映像となるように変換されて、表示されるようになっている。つまり、表示画面121の左端が拡大され、右端が縮小されるように変換される。
In this case, the viewpoint of the driver's
このように、本実施形態では、運転者の視点によって、表示画像が見えづらい場合が生じても、その見えづらさを解消することができる。 Thus, in this embodiment, even if it is difficult to see the display image depending on the driver's viewpoint, it is possible to eliminate the difficulty in viewing.
(その他の実施形態)
上記第1〜第4実施形態では、表示器120の向きに応じてバックカメラ110の向きを変更するもの(第1)、またウインカー操作に応じてバックカメラ110の向きを変更するもの(第2)、またシフトレバー操作に応じてバックカメラ110の向きを変更するもの(第3)、更には、運転者の視点に応じて表示画像の見え方を変更するもの(第4)等、それぞれ単独で実施するものとして説明したが、第1〜第4実施形態の内容を複数組み合わせて実施するようにしてもよい。
(Other embodiments)
In the first to fourth embodiments, the direction of the
10 車両
100A〜100D 視界支援装置
110 バックカメラ(カメラ)
120 表示器
130A〜130D制御部
140 ドライバカメラ(視点カメラ)
DESCRIPTION OF
120
Claims (6)
前記制御部(130A〜130D)は、ユーザの前記表示器(120)、あるいは前記車両(10)の運転のための運転操作部に対する所定操作に応じて、前記所定操作に関連する領域の領域映像の撮影が可能となるように、前記カメラ(110)の向きを変更することを特徴とする視界支援装置。 Visual field support including a control unit (130A to 130D) that captures video data of a camera (110) that captures a rear region of the vehicle (10) and displays the video data on a display (120) in a communicable vehicle interior as a display video. A device,
The control unit (130A to 130D) is a region image of a region related to the predetermined operation in response to a predetermined operation on the display unit (120) of the user or a driving operation unit for driving the vehicle (10). The field of view support apparatus is characterized in that the orientation of the camera (110) is changed so as to enable photographing.
前記領域映像は、前記表示器(120)の向きに対応する領域の映像であることを特徴とする請求項1に記載の視界支援装置。 The predetermined operation is a direction changing operation for changing a direction of the display (120) by the user,
The field-of-view support apparatus according to claim 1, wherein the area image is an image of an area corresponding to an orientation of the display (120).
前記領域映像は、前記ウインカー操作によって示される方向の領域の映像であることを特徴とする請求項1に記載の視界支援装置。 The predetermined operation is a turn signal operation for direction indication at the time of a right or left turn by the user,
The field-of-view support apparatus according to claim 1, wherein the area image is an image of an area in a direction indicated by the blinker operation.
前記領域映像は、前記車両の後方下側領域の映像であることを特徴とする請求項1に記載の視界支援装置。 The predetermined operation is a shift lever operation for back travel by the user,
The field-of-view support apparatus according to claim 1, wherein the area image is an image of a lower rear area of the vehicle.
前記制御部(130A〜130D)は、前記視点に基づく前記領域映像を、前記ユーザが前記表示器(120)を正面から見た場合と同様な映像となるように、前記映像データを変換して前記表示器(120)に表示させることを特徴とする請求項1〜請求項5のいずれか1つに記載の視界支援装置。 A viewpoint camera (140) for detecting a viewpoint of the display (120) of the user;
The control unit (130A to 130D) converts the video data so that the region video based on the viewpoint becomes the same video as when the user views the display (120) from the front. The visual field support device according to any one of claims 1 to 5, wherein the visual field is displayed on the display (120).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015019514A JP2016141303A (en) | 2015-02-03 | 2015-02-03 | Visual field support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015019514A JP2016141303A (en) | 2015-02-03 | 2015-02-03 | Visual field support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016141303A true JP2016141303A (en) | 2016-08-08 |
Family
ID=56568220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015019514A Pending JP2016141303A (en) | 2015-02-03 | 2015-02-03 | Visual field support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016141303A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114194115A (en) * | 2021-12-22 | 2022-03-18 | 数源科技股份有限公司 | Installation method of visual blind area camera device |
JP7547310B2 (en) | 2021-12-20 | 2024-09-09 | キヤノン株式会社 | IMAGING SYSTEM, MOBILE DEVICE, IMAGING METHOD, AND PROGRAM |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01109450U (en) * | 1988-01-19 | 1989-07-24 | ||
JP2004291663A (en) * | 2003-03-25 | 2004-10-21 | Denso Corp | System and method for monitoring vehicle periphery |
JP2005335410A (en) * | 2004-05-24 | 2005-12-08 | Olympus Corp | Image display device |
JP2009100180A (en) * | 2007-10-16 | 2009-05-07 | Denso Corp | Vehicular rear monitoring device |
JP2009218919A (en) * | 2008-03-11 | 2009-09-24 | Clarion Co Ltd | Image display apparatus for vehicle |
-
2015
- 2015-02-03 JP JP2015019514A patent/JP2016141303A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01109450U (en) * | 1988-01-19 | 1989-07-24 | ||
JP2004291663A (en) * | 2003-03-25 | 2004-10-21 | Denso Corp | System and method for monitoring vehicle periphery |
JP2005335410A (en) * | 2004-05-24 | 2005-12-08 | Olympus Corp | Image display device |
JP2009100180A (en) * | 2007-10-16 | 2009-05-07 | Denso Corp | Vehicular rear monitoring device |
JP2009218919A (en) * | 2008-03-11 | 2009-09-24 | Clarion Co Ltd | Image display apparatus for vehicle |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7547310B2 (en) | 2021-12-20 | 2024-09-09 | キヤノン株式会社 | IMAGING SYSTEM, MOBILE DEVICE, IMAGING METHOD, AND PROGRAM |
CN114194115A (en) * | 2021-12-22 | 2022-03-18 | 数源科技股份有限公司 | Installation method of visual blind area camera device |
CN114194115B (en) * | 2021-12-22 | 2024-03-15 | 数源科技股份有限公司 | Method for installing vision blind area camera device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5627253B2 (en) | Image processing apparatus, electronic apparatus, and image processing method | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
JP5341789B2 (en) | Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program | |
JP4935571B2 (en) | Driving assistance device | |
JP6548900B2 (en) | Image generation apparatus, image generation method and program | |
JP5093611B2 (en) | Vehicle periphery confirmation device | |
JP2001218197A (en) | Peripheral display device for vehicles | |
JP6257978B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP5251804B2 (en) | Driving assistance device | |
EP3761262B1 (en) | Image processing device and image processing method | |
JP2019156298A (en) | Vehicle remote control device and vehicle remote control method | |
JP2005136561A (en) | Vehicle peripheral picture display device | |
JP2012040883A (en) | Device for generating image of surroundings of vehicle | |
JP4849333B2 (en) | Visual aids for vehicles | |
CN110525341B (en) | Vehicle periphery display device | |
JP4329525B2 (en) | Outside-vehicle information display device | |
JP2019161549A (en) | Vehicle remote operation device and vehicle remote operation method | |
JP5977130B2 (en) | Image generation apparatus, image display system, and image generation method | |
JP6130118B2 (en) | Image processing system, image processing apparatus, image processing method, and program | |
JP2018144554A (en) | Head-up display device for vehicle | |
WO2012060215A1 (en) | In-vehicle camera device | |
JP2018034716A (en) | Operation system for vehicle and computer program | |
JP6118936B2 (en) | Image processing device | |
JP2016141303A (en) | Visual field support device | |
JP2005286938A (en) | Device for displaying information outside vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180313 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181002 |